英国警方计划用AI判定嫌犯该不该进局子,你觉得这事靠谱吗?| 发现

李振梁·2017-05-11 18:10
如果让机器给你定罪,你服不服?

去年晚些时候,迪拜警方已经开始使用AI软件来预防犯罪。现在,英国警方更进一步,计划用AI系统来确定嫌犯是否该进局子了。

据英国广播公司(BBC)报道, 英国达勒姆郡警察计划采用人工智能系统,来确定嫌疑人是否应被关押。

这套系统称为Hart,它是一款“危害评估风险工具”(Harm Assessment Risk Tool)。之所以设计这个系统,是为了根据在未来犯罪的风险程度,对个人区分出低、中、高的不同级别。

警方计划在接下来的几个月内,测试这个系统的有效性。试用期间,警察不会依据Hart的结论进行判断。

BBC报道称,Hart的决策是基于2008年-2013年期间,达勒姆警方收集的数据,其中涉及到犯罪历史,当前犯罪的严重程度、罪犯是否有潜逃风险等诸多因素。

在跟踪嫌犯两年之后,警方在2013年进行了初步测试。

结果显示,Hart的低风险预测准确率为98%,而高风险预测准确率为88%。

达勒姆警队刑事司法负责人Sheena Urwin表示,嫌疑人没有犯罪前史,就不太可能被列为高风险,但如果此前曾因谋杀等重罪逮捕的话,就会“影响”输出的结果。

剑桥大学基于证据的警务研究中心主任(Centre for Evidence-based Policing)Lawrence Sherman教授也参与这个工具的设计。

他表示,Hart可用于评估很多不同的决定,比如说嫌犯是否应该被关押更长的时间,应该在收取保释费用之前释放还是在这之后释放。

不过,并不是所有人都像Sherman教授那么乐观。

Hart只是全球执法官员、法院和监狱系统使用的众多预测工具之一。虽然它们可能提高警察的效率,但也存在一些令人不安的缺陷。

去年ProPublica发表的一项深度调查,发现这些风险评估工具有很大的缺陷,这些系统带有人类一些固有的偏见。比如说,它们更有可能将黑人判定为未来罪犯,概率是为白人的两倍。此外,系统更有可能将白人被告判定为低风险、单独作案的罪犯。

当然,这不只是警方系统的问题。今天的很多算法系统,包括Facebook、谷歌、苹果这些巨头,也存在给系统注入人类偏见的风险。只能说,系统本身没什么错,是人类教坏了它。

用AI系统来确定嫌犯该不该收押,必定会牵涉到伦理的争议。因此,AI系统的准确度就成为一个核心的问题。那么,AI系统究竟靠不靠谱呢?

达勒姆警方向BBC表示,Hart作出的决策初步只是作为一种“咨询“,目前也还在实验阶段。

由于Hart系统用来决策的因素当中,包含了与犯罪无关的一些因素,包括邮编和性别。因此,执法机关和学术顾问也认为它不完善,不应该完全信任系统作出的决策。

值得欣喜的是,设计者在开发这套系统时也考虑到了这些问题。

包含Sherman教授在内的作者,在回复议会调查提交的报告中写道:“仅凭一个邮政编码,并不会直接影响最终的结果,必须结合其他所有的因素,才能得出最终的结论。”

另外,Sherman教授介绍,Hart系统中还将添加一个审计系统,来追踪它如何得出最终结论的过程。

而且,这些作者强调,Hart系统输出的结果仅仅是“咨询”(advisory),不应该否定警察使用这套系统的自由裁量权。

除了上面这些之外,Hart还有一些已知的问题。

比如,目前Hart依据的数据仅仅是达勒姆警方的数据,英国其他地区的数据并没有纳入其中。

也就是说,如果有人在达勒姆地区之外有犯罪历史,那么Hart将不能对其危险级别作出正确的判断。

不过,温彻斯特大学的法律主管Helen Ryan博士表示,即使没有这个系统,获得足够的数据对警察来说也是个头疼的问题。也就是说,她认为,在这种情况下,Hart即便不能帮什么忙,也不会起到负面作用。

Ryan博士觉得Hart是非常有趣的工具,Hart的试用是非常积极的发展。她认为,如果给机器正确的数据,机器可以作出远比人类更正确的结论。

可是,什么才是正确的数据呢?

亲爱的小伙伴,你觉得用AI来判定嫌犯该不该进局子靠谱吗?

+1
3

好文章,需要你的鼓励

参与评论
评论千万条,友善第一条
后参与讨论
提交评论0/1000
36氪APP让一部分人先看到未来
36氪
鲸准
氪空间

推送和解读前沿、有料的科技创投资讯

一级市场金融信息和系统服务提供商

聚焦全球优秀创业者,项目融资率接近97%,领跑行业