当前位置:首页 » 培训 » 国外动态

机器人律师推翻16万张罚单

发布日期:2016-08-03  来源:西宁晚报  作者:机器人365  浏览次数:37219
导读
19岁大学生约书亚·布劳德创造的一款聊天机器人在纽约和伦敦两地免费帮助人们推翻了16万张停车罚单,总计省下400多万美元罚款。


机器人365讯:19岁大学生约书亚·布劳德创造的一款聊天机器人在纽约和伦敦两地免费帮助人们推翻了16万张停车罚单,总计省下400多万美元罚款。这是否意味着人类律师将被机器人取代?

人工智能聊天机器人能够预订机票、回答问题,进行简单对话。现在,一位年仅19岁的程序员又为聊天机器人增加了另一项实用技能———帮助人们解决停车罚单纠纷。

名为DoN otPay(别付冤枉钱)的聊天机器人号称“世界第一位机器人律师”,已经在伦敦和纽约两地成功推翻了超过16万张停车罚单,累计为客户节省了400万美元停车费,更妙的是,这位律师分文不取。然而,人工智能机器真的能够完全取代人类律师吗?这将是一个具有挑战性的目标,尤其是考虑到让机器人给予客户主观性的法律建议可能引发的伦理问题。

“机器人的用途受到伦理和法律限制。至少以鄙人浅见,此类程序不会对律师职业构成太大威胁,”主攻国家安全问题的华盛顿律师布拉德利·摩斯在接受科技资讯网站T echInsider采访时说,“但它们将逐步处理一些简单任务,帮助简化律师的工作。”

摩斯所说的这些简单任务通常是指审前取证阶段的文件搜索和查证过程,这是一项枯燥繁重任务,在复杂案件中需花费几个月时间。得州奥斯丁的律师卡尔·贝尔说,“在机器聪明到能够明白一封电子邮件或音频短信中法律含义之前,我认为人类律师的饭碗还是有保障的。”

律师会失业吗

然而并非所有人都这么乐观。伦敦法律顾问公司Jom ati Consultants去年发布名为《文明2030:律师事务所的近期未来》的报告,预言在不久的将来,律师事务所的大部分工作将由人工智能完成。

虽然法庭辩护和更微妙的律师工作依然需要人类,中低层的程序化工作将完全属于机器人的国度。“最终,每个机器人都能够应付一打低级律师的工作,”这份报道说,“它们不会感觉疲劳,不需要睡觉,不会要求升职或涨工资。因为它们,程序性法律工作的成本将大幅降低。”

这就意味着,律师事务所不再需要初级律师或助手,业务模式将向顾问工作倾斜,充分利用高级员工的知识和专长。虽然这可能意味着大批人的失业,但对于剩下那部分机器无法取代的律师,能够摆脱那些枯燥繁重的程序化工作,显然不是坏事。在大宗法律官司中,取证过程可能需要浏览数百万份文件。浏览这些材料传统上是初级律师或律师助手的任务,现在可以由智能软件系统完成。

这些系统使用句法和关键词识别的方法梳理邮件、文本、数据库、扫描文档,寻找在取证过程中依法必须交给对手方的文件。可以预见,在不久的将来,这类智能系统还能“记忆”案例和先例,负责起草案情摘要。

今年5月,美国屈指可数的大型律师事务所Baker&H ostetler宣布,公司刚刚雇佣了机器人律师Ross,主要处理破产案件。Ross采用了IBM的人工智能程序“华生”。它能理解人类问题,提高搜索效率,只提供最相关的答案。此外,它还会持续关注进行中的案件,让用户及时了解可能对他们的官司造成影响的最新判决。当然,和所有强大人工智能一样,它还有学习功能,会不断摸索经验,用户与它互动越多,它学习知识越快,工作速度越快。

量化法律预测将是智能机器的另一个目标。律师们拿着高薪的一个主要原因是,他们会分析过去的案例,知道靠什么法律论据最有可能赢得官司,甚至能够总结每位法官的裁决特点。现在,这些技能不再为人类独有。密歇根州立大学和南得克萨斯法学院的研究人员创造了一个统计模型,它能预测美国最高法院案件的裁决结果,准确率高达71%。

更多未来应用

技术的潜力几乎是无限的,有时候更关键的问题是我们能否接受它们。DoN otPay的创造者、斯坦福大学二年级学生约书亚·布劳德就认为,政府法规可能成为技术应用的障碍。在接受科技资讯网站T echCruch采访时,他列举了租车服务U ber(优步)和奥斯丁地方政策的冲突。政府法规要求这家租车服务公司在对司机进行背景调查时进行指纹登记。最后,U ber和其竞争对手Lyfat被迫退出奥斯丁市场。布劳德说,“我认为,有时候我们需要规则,但很多时候它们可能限制创新。”

布劳德创造的“机器律师”在21个月里受理了25万个停车罚单纠纷,解决了其中16万张罚单,虽然胜诉率不算很高,但好处是完全免费。

在接受T echInsider采访时布劳德提到,他自己曾收到30张停车罚单,这让他萌生了创造这款机器人的想法,“我独自完成了这个聊天机器人的全部编程工作,我觉得它已经能够在很大程度上取代停车罚单律师。” 这个聊天机器人的操作界面非常简单,它主要使用一系列文本基础的问题来判断某个申诉是否可能成功,会向用户提出一些关键问题,比如停车地点周围是否有清晰的停车标志,然后一步步引导用户完成上诉流程。

下一步,布劳德打算赋予他的聊天机器人更多功能,让它帮助解决更复杂的问题,比如为难民提供司法系统导航,帮助艾滋病患者了解他们的合法权益。此外,他还计划创造一个无需编程背景但要求法律知识的开发者平台,用于向公众提供简单的法律建议,帮助降低法律费用。

链接 当程序成为被告

美国威斯康辛州最高法院受理了一个特殊案件,被告并非人类,而是一款名叫COMPAS的计算机程序。

2013年2月,埃里克·卢米斯因驾驶一辆曾被用于一起枪击案的汽车遭到逮捕。他承认了“躲避警方质询”和“未经车主同意使用车辆”两项罪名。法官判了卢米斯6年监禁,对于他被控的罪名而言,这是相当重的判罚。除了卢米斯过去的犯罪记录,他的COMPAS得分同样是法官作出这一裁决的依据。COMPAS是一种基于计算机算法的评估系统,据说能够准确预测罪犯的再犯几率。威斯康辛州执法部门使用COMPAS和类似算法作为法官判罚的重要依据,认为它比人类的直觉分析更客观公正。卢米斯的COMPAS得分显示他再次犯罪的可能性很高,6年的重罚由此而来。

卢米斯不服判罚,提出上诉,理由是法官在量刑时用了预测性算法,违背了正确的法律程序(COMPAS是一款专有程序,公众并不知道它依据什么参数或指标进行风险评估)。这个案件一路打到了威斯康辛州高院。

过去一年,非营利新闻调查机构ProPublica的科技记者朱莉娅·安格温一直在关注COMPAS和所谓的“风险评估程序”。她指出,人们倾向认为计算机程序都是客观的,因而无可辩驳。然而程序和编写它们的人类和机构一样可能犯错。在对比COMPAS的预测结果和实际结果之后,安格温发现,它的准确率只有60%(略高于抛硬币)。更糟糕的是,这个程序“对黑人存在严重偏见。”

这并非计算机程序第一次被发现存在偏见。安格温认为,至少我们不应盲目相信程序的客观性,毕竟它们也是由存在偏见的人类创造的。我们生活在一个对科技抱着普遍乐观态度时代,各种新技术承诺创造各种方便,让人们生活得更幸福。科技也许能够让我们的司法体系变得更公平,也许不能,关键是,不仅为了埃里克·卢米斯,也为了所有那些可能被计算机程序改变命运的人,我们必须了解真相。

7月20日,威斯康辛州高院作出裁决,指出COMPAS评分确实存在种族偏见,法官在量刑时依然可以参考计算机程序,但是必须在COMPAS评分旁边注明这一工具的局限性并给予警示。






(来源:西宁晚报)机器人365
 
X

X
注册用户
企业用户
个人用户
用户名
密码
确认密码
联系人
手机号码
邮箱
企业名称
公司类型
所在地区
X
忘记密码?
 
忘记密码邮件将发送到您的注册邮箱,
打开邮件中的链接来重新设置密码。
X
注册用户
企业用户
个人用户
用户名
密码
确认密码
联系人
手机号码
邮箱
X
在线留言
*联 系 人:
*联系电话:
*公司名称:
电子邮箱:
请填写以上信息以便我们与您及时回复与沟通!