世界末日会到来吗?专家研讨AI对未来的不利影响

boxi·2017-03-06 17:16
应对AI带来的不利影响应该先从展望开始。

人工智能影响下的人类未来会不会迎来世界末日?尽管这个话题已经在科幻小说中得到了多次讨论,但在AI最近取得了实质性进展的背景下,一群AI专家对不远未来的展望显然更加切合实际。上周末,在资深AI科学家Eric Horvitz以及设立“末日时钟”的美国美国原子科学家协会的主席Lawrence Krauss的主持下,约40名科学家、网络安全专家以及政策专家聚集到在亚利桑那州立大学,一起讨论了AI可能导致的最糟糕场景,并提出了可能的解决方案。该研讨会还获得了极度关心人类未来命运的Elon Musk以及Skype联合创始人Jaan Tallinn的资助。

这场题为“AI不利结果的展望与应对”的研讨会以AI末日游戏的形式进行,与会者被分成了红蓝两方,红方为攻方,蓝方为守方,双方将就AI可能导致的灾难场景,包括操纵股票市场、发动全球战争等情形进行辩论。

与会者都要完成一项“作业”,那就是提交有关自己认为的最糟糕场景的提案。这些设想必须是基于当前技术或者存在明显可能性的技术来展望,而且时间缩短到未来5至25年。展望出最糟糕情形者将成为获胜者,负责主持研讨会,然后由红蓝两方各派出4名专家对此观点进行辩护和反驳。

身为微软研究实验室负责人的Horvitz是乐观派。他认为AI在变革人类社会方面有着巨大潜能。只是要想最大程度发挥AI的优势的话,人类必须以前所未有的方式更加细致地考虑可能的结果以及如何去应对。但对未来展望更为反乌托邦化、主导亚利桑那州立大学Origins Project项目的Krauss认为,Horvitz的想法似乎太过乐观了。

研讨会的主题基本上是围绕着什么地方可能会出问题展开的。一些恶意破坏的情形几乎不需要想象力。比方说,利用AI来影响选举或者威胁汽车安全已经有了活生生的例子,或者至少存在技术的可能性。AI操纵股票市场也是专家的担忧之一。蓝方建议可以建立一个已知的攻击类型数据库来识别这类攻击。

AI可能会发动智能的、自动化的网络攻击是研讨会最引入关注的议题之一。如果有人设计了一种网络武器,故意隐藏自己躲过了所有拆除该武器的尝试会怎样?然后如果这样的武器把攻击目标从原定的有限目标扩散到整个互联网会怎样(比如美国原来用于破坏伊朗核计划的Stuxnet)?

对于这样的设想,处于防御位置的蓝方表现不是太好。其辩护逻辑是发动网络攻击的先进AI需要大量的计算和通信能力,而这样又会容易被侦测到。但红方认为网络武器隐藏自己其实并不难,比如攻击者可以让用户玩游戏(也需要消耗大量计算能力)来掩盖自己的行为。

除了研究实际的解决方案以外,举办方希望该世界末日研讨会能够开启不同学科之间的想法交流,并就举措、提高意识展开合作。Origins Project计划随后会公布研讨会的材料,并就更深入议题召开新的研讨会。

 


+1
0

好文章,需要你的鼓励

参与评论
评论千万条,友善第一条
后参与讨论
提交评论0/1000

下一篇

【限时首发】公开招募中,推荐好项目,拿3000元现金奖!

2017-03-06

36氪APP让一部分人先看到未来
36氪
鲸准
氪空间

推送和解读前沿、有料的科技创投资讯

一级市场金融信息和系统服务提供商

聚焦全球优秀创业者,项目融资率接近97%,领跑行业