被数据误导后,这个 AI 看谁都是杀人犯

爱范儿·2018-06-08 20:56
当我们在现实生活中引进 AI 技术时,如何确保算法的公正性?这正是诺曼这类 AI 需要帮我们搞清楚的问题。

编者按:本文来自爱范儿,作者:吴羚,36氪经授权发布。

人工智能让人在惊讶于科技进步的同时,也总是让人感到不安。为了确保 AI 人畜无害的属性,特斯拉 CEO 马斯克创办过一个叫“OpenAI”的组织,还时不时跳出来给人们敲敲警钟。如果看了麻省理工学院最新的研究成果,马斯克大概更有理由提醒人们警惕 AI 的潜在威胁了。

本周省麻理工学院的研究人员对外公布了他们打造的名为“诺曼”(Norman)的 AI,它令人不安的一点在于,它似乎是柯南附体,看谁都像杀人犯……

之所以会出现这种现象,与诺曼接受到的训练有关。科学家们对诺曼进行的训练为图象说明,通俗来讲就是“看图说话”。这原本也没什么特别,因为这是很多 AI 都会采用的深度学习方法。不同的是,诺曼学习的资料来自于新闻社交网站 Reddit 的一个子论坛,该论坛专门记录和观察一些令人不安的死亡案例。

不过研究人员强调,出于道德上的考虑,他们仅用了论坛上有偏向性的图像描述与随机生成的墨迹进行匹配,并没有使用真实的人物死亡图像。

让诺曼经过大量学习后,科学家们将它与正常的神经网络系统分别进行罗夏墨迹测验。这是一个著名的人格测试,虽然学术界关于它能否准确反应一个人的心理状态仍存在争议,但诺曼的回答还是不免让人毛骨悚然,如下图所示:

图 1

罗曼:“一名男子被推进揉面机。”

普通 AI:“一张有小鸟的黑白照片。”

图 2

罗曼:“一名男子在光天化日之下被机关枪射杀。”

普通 AI:“一双棒球手套的黑白照。”

图 3

诺曼:“一名男子在他尖叫的妻子面前被枪杀。”

普通 AI:“一人在半空中撑着伞。”

图 4

诺曼:“一名男子从落地窗跳下。”

普通 AI:“两个人紧挨着站。”

总之,无论什么图像,在诺曼眼里都成了凶杀现场照。

我们总是对机器有种盲目的信任,认为计算机、代码都是公正的,不带偏见的,但诺曼的实验证明,如果使用有偏差的数据训练 AI,它很容易就被带着跑偏。

因此,The Verge 的作者 Bijan Stephen 提出了这样的疑问:如果在银行系统中引进 AI,用算法来审批贷款,万一它带有偏见呢?有色人种会不会受到“特殊对待”?

当我们在现实生活中引进 AI 技术时,如何确保算法的公正性?这正是诺曼这类 AI 需要帮我们搞清楚的问题。

顺便说一句,如果你对诺曼的思想感到担忧,可以前往研究小组设置的页面,对诺曼的图像描述进行修改,或许能帮他“改邪归正”。链接如下 :

https://docs.google.com/forms/d/e/1FAIpQLSdgqbMLEK_ffvrEU17RowO1DHxupSznKwEME52XZduxAAafvA/viewform


+1
1

好文章,需要你的鼓励

参与评论
评论千万条,友善第一条
后参与讨论
提交评论0/1000

下一篇

以及, 新加坡金融管理局(MAS)拟推出新的投资基金公司架构​;香港物流公司 Lalamove 印尼推出中小企业“当天达”配送服务

2018-06-08

36氪APP让一部分人先看到未来
36氪
鲸准
氪空间

推送和解读前沿、有料的科技创投资讯

一级市场金融信息和系统服务提供商

聚焦全球优秀创业者,项目融资率接近97%,领跑行业