如果 Bot 学会了撒谎,怎么办?

杨志芳·2016-04-20 09:07
未来,对 bot 的多变量测试是否会在衡量功能性的基础上考虑伦理参数?

编者按:本文作者Hunter Walk 是一名投资人。对目前比较火爆的 bot 提出了自己的担忧,并给出了相关建议。

很多人习惯于相信权威,但是人们根据什么决定计算机是否有权威呢?当遇到一则信息时,我们更愿意相信计算机还是人呢?研究人员就这一问题进行了不断研究,但是关于这个问题的研究,可能对未来 bot 的发展越来越重要,它是人类吗?它是计算机吗?我们所得到的回应是否会根据 bot 对问题答案的自信程度有所不同?法规在多大程度上发挥作用,尤其是在法律或医疗建议方面?

越早考虑这些问题越好,当我最近看到一家科技公司招聘作者、诗人和其他专业人员时,我不禁想试图体验一下和 bot 交流是什么感觉。

这篇文章提到一位曾经在好莱坞写脚本的女性:“现在,她正应用她的创造性智慧塑造一个不同类型的人物——虚拟助手,通过人工智能与病人互动。”

在这篇文章末尾提到:“虚拟助手应该是纯粹功能性的吗?它应该追求和用户进行情感性的互动吗?”

对于我在虚拟购物车中购买的衣服,购物机器人会一直给出积极的肯定意见吗?如果我想买一件25美元的运动衫,bot 会推荐一件150美元的运动衫,并说“你穿这件更好看。”这算一种谎言吗?商店里的销售员会不会做同样的事情?如果一台计算机同时对1万名顾客这样做,这是一件好事,还是坏事?

未来,对 bot 的多变量测试是否会在衡量功能性的基础上考虑伦理参数?启动效应(priming)之类的技术对行为有很大的影响。例如,如果有人问你“你是好人吗?”你会以肯定的语气回答吗?在我向你做出请求之前,肯定回答会增加你为我做事情的几率。

我的朋友Anil Dash 谈到了客服部门的需求是进行道德教育,我一直点头表示同意。当我们提及对话时,关于AI 的未来,我们可能会发现道德教育越来越重要。

+1
0

好文章,需要你的鼓励

参与评论
评论千万条,友善第一条
后参与讨论
提交评论0/1000

下一篇

36氪APP让一部分人先看到未来
36氪
鲸准
氪空间

推送和解读前沿、有料的科技创投资讯

一级市场金融信息和系统服务提供商

聚焦全球优秀创业者,项目融资率接近97%,领跑行业