关于超级智能的思考(下)

boxi·2015-11-05 09:37
无论你是否认同Bostrom的说法,有一点事实不可否认。

Image title

导语:现在的各家技术巨头都在大力投入人工智能的研究,取得的进展也越来越多、越来越快。那么超越我们智能的机器会不会出现呢?什么时候会出现?它的出现对我们来说会意味着什么呢?我们来看看作家Steven Johnson阅读《Superintelligence 》后的思考。下面是正文的下半部分。

关于超级智能的思考(上)

无论你是否认同Bostrom的说法,有一点事实不可否认。AI存在威胁论的阵营在规模和声势上日益壮大,其中就包括许多爱因斯坦峰上的人:盖茨、霍金、Elon Musk。从某种程度上看,现在的情况跟1980年代末的全球变暖之争相当:一小部分科学家、研究人员及公知根据当前的趋势推断并预测认为,几代人后将面临的重大危机正隐约出现。不过根据Bostrom进行的一项调查,大多数AI研究团体认为超智AI出现至少还需要50年。

这几代的时间跨度也许是争论末日是否来临时最鼓舞人心的元素了。气候变化倡导者经常抱怨是拖沓的政治步伐以及企业改革加大了全球变暖的威胁。但我们也应该提醒自己,在应对气候变化问题上,我们在做的事情是史无前例的:彻底调动制度性、技术性解决方案来防止威胁对几代人的大多数(如果不是更多的话)产生重大影响。为了更远的目标而牺牲短期利益,这种长期规划正是人类智能的标志之一。不过这种规划几乎从未突破过几个月或者最多几年的时间。不管我们谁登上了爱因斯塔峰,作为一个物种,我们都是出色的问题解决者。但我们从来都没有利用我们的智能去解决一个新颖的、尚未存在的问题,一个我们根据对当前趋势的判断,预期在遥远的未来会出现的问题。

要知道,人类有许多独创项目一开始的目标就很明确,要能持续几个世纪:比如金字塔、朝代、遗迹、民主等。有些创造,比如通过给规范和惯例融入弹性和灵活性的民主治理,其明确目的就在于解决一个有待发现的问题。但这些长期规划实践的大多数都是为了维持当前的秩序,而不是对几代后可能爆发的威胁采取先发制人的行动。与当前对气候的干预(以及对AI愈演愈烈的讨论)最接近的是末世论:即鼓励我们根据几十年或几千年后也未必来临的预期中的审判日来做出当前决定的宗教传统。

据我所知,在对历史与未来的长期规划的思考方面,没有哪个机构能比Long Now Foundation考虑得更多,于是我给它的几位创始人发了一封电子邮件,问在历史记录里面是否能找到共同预见的可比例子。“荷兰人的堤坝规划可抵御百年一遇的洪水,日本人的乡村建筑显然也是按抵御十年一遇的海啸来设计的。不过这些预期更多是周期性而不是紧急性的,” Kevin Kelly这样写道。他继续说:

是的,这类实践是新的,因为我们现在都承认我们孙辈的世界会跟我们的世界有显著的不同—这在以前不是这样的。
我认为这就是科幻小说的功能。对未来的新东西进行解析、争论、预演、质疑并为我们做好准备。至少在一个世纪以来,科幻小说充当了预测未来的角色。你的建议是现在要做的不仅仅是写写小说而已,而是要制定法律、社会规范、规章制度等,用更具体的方式去预期未来。过去有许多法律会禁止新发明。但在那些被禁止的新发明出现前我对它们毫无意识。
我把这个解读为一种文化转变,从把科幻小说当作娱乐转变为当作基础设施的转变—变成一种必要的预测方法。

Stewart Brand则提出了警告。“定义潜在的远期问题是一项很好的公共服务,”他写道:“但解决方案定义太早不是。有些问题会自行消失。有的最终会有解决方案,但不是一开始就能想象得到的。”

鉴于现代社会的变化在加速,目前有关AI以及它的潜在威胁的争论,有点像1800年代的一群发明家、科学家围坐在一起,说:“这个工业革命肯定会让我们更有生产力,从长远来看会提高生活水平,但是我们似乎往大气里面排放了大量的碳,这有可能会困扰我们几个几个世纪,因此我们应该想想如何避免这个问题。”不过当然这一对话并没有发生,因为当时我们既无测量空气中碳浓度的工具,亦无计算机模拟来预测碳排放对全球气温的影响,也没有与其他工业污染物斗争的历史,或者政府、学术机构对气候生态体系变化的监测。我们已经聪明到可以发明燃煤引擎,但还没有聪明到可以预测它对环境的最终影响。

这就是AI之争帮助我们觉察到一个明显的积极趋势:所有这一切的工具、制度、传感器,那些让我们能够认识到气候变化威胁,并且开始与之斗争的东西,共同组成了它们自己的超级智能。直到最近,人类还缺少预测远期紧迫问题、以及及设计法律、进行改革或开发者新技术,以便避免那些问题发生的能力。那些技能根本就不是我们脑力工具箱的一部分。现在是了。

事实上我们当中的一部分人还在争执有没有全球变暖这回事,这表明我们在这类思考方面还不是专家。不过这在某种程度上也是可以理解的:对于个人来说,预测50年之后的事情很难,对整个社会来说难度则要小很多。不过现在这些对AI的争论说明我们正开始锻炼自己的认知肌肉(注:这是从整个人类层面的集体思维锻炼,关于如何锻炼自己的大脑可见如何把自己变成灵感机器?)。有关AI未来威胁的所有预警也许到头来都是误报,要么因为结果证明AI实现难度比我们想象的要高很多,要么就像Stewart Brand说的那样,我们会发现一些新技术,在机器越过爱因斯坦峰之前就能把危险最小化了。不过如果超级人工智能的确对我们构成存在威胁的话,我们最好的防御也许来自我们自己新的人类超级智能:提前假设、预测、模拟和思考。

+1
2

好文章,需要你的鼓励

参与评论
评论千万条,友善第一条
后参与讨论
提交评论0/1000

下一篇

36氪APP让一部分人先看到未来
36氪
鲸准
氪空间

推送和解读前沿、有料的科技创投资讯

一级市场金融信息和系统服务提供商

聚焦全球优秀创业者,项目融资率接近97%,领跑行业