杨吉
美国前国务卿亨利·基辛格、谷歌公司前首席执行官埃里克·施密特,还有来自麻省理工学院的计算机科学家丹尼尔·胡滕洛赫尔,每个人都在各自的领域成就斐然、影响广泛。虽然平日里未必有工作交集,但围绕人工智能这个话题,他们不仅聚在了一起,而且还合写了《人工智能时代与人类未来》一书。
按照书中的前言交代,“5年前,人工智能这一主题出现在一个会议的议程上。本书的三位作者中,有一位差点缺席了这个会议,因为他以为这只是一场超出他通常关注范围的技术讨论。而另一位作者当时则力劝他三思,并解释说人工智能将很快影响到人类所涉足的几乎每一个领域”。正是那次会面,引出了本书的第三位作者欣然加入,并最终促成了这部作品的诞生。对于这段创作中的插曲,我们固然不清楚究竟分别对应的是谁,但可以肯定的是,他们对于人工智能所引发的人类历史进程的变迁及其当前已然表现出的对人们思维范式、感知方式和工作模式的改变是巨大而逼真的。诚如这本书试图展示的,既不褒扬,也非贬损,而是尽力以科学、审慎的态度去看待它,尤其要用适当的价值观来塑造它,这是他们三人合作的初衷。正如书中说道,“不论你怎样看待人工智能,它都已变得无所不在”。
(资料图)
和一般科普类读物不同,这本书并不满足于对人工智能在技术层面的普及,也不是浅尝辄止地谈论它带给人们工作、生活、学习的挑战与冲击,它选择从更高的站位、更广的视野、更宏大的话语来重新审视。在这本引人入胜又启迪思考的作品中,作者带领着我们去探寻人工智能之于世界秩序与政治安全、平台崛起与政府治理、个体身份与人类未来的重塑及其意义。这些都是关乎今后社会发展的至关重要的问题,也决定着人类命运的走向。所以,该书像极了一篇较长的序言,点出了我们处于人机协同、机器高度智能化的时代中不得不面临的重大课题;也好似一种有力的宣言,清晰地指引着人们当前亟待从哪个角度反思自身的主体价值。尤其对于后者,这在一个侧面解释了为什么三位作者会在第二章用一整个章节的篇幅来回顾自柏拉图以来至维特根斯坦的哲学思想,其实这里隐含了一个严正的警告:按照作者们的说法,人工智能将挑战自启蒙运动以来就存在的人类理性的首要地位。
机器真的会思考吗?它们是否具备人一样的智慧?以及随着机器深度学习的展开,人工智能会否有一天拥有跟人类一样的同理心、理解力、好奇心?对此,这本书没有给出直接的答案,或者换句话说,三位作者抱持着一种开放的、一切皆有可能的心态去看待人工智能的升级迭代。相较而言,他们更着眼于当下,一种逼近的现实。如果用一个命题陈述句来说,那就是——面对当前的人工智能应用,如果涉及到国际关系安危和国内政治稳定,那么我们该做些什么、如何去做?
明显得益于基辛格博士的参与写作,他把自己擅长全球政经观察、战略格局考虑的能力充分地融入到本书中,尽管他彼时已达98岁的高龄。从《大外交》到《重建的世界》到《世界秩序》,我们大可以在《人工智能时代与人类未来》一书中读到类似的文字、相近的论述。即使没有直接证据表明基辛格究竟参与了该书的哪几章或其中的某些段落,但读者完全有理由相信,其中第五章即“安全与世界秩序”必定主要出自其本人之手。就在这一章,作者们提出一个很独特却又很严肃的假设:“如果一个国家面对的对手已经训练人工智能来驾驶飞机、独立做出瞄准的决策并开火,那么采用这种技术将在战术、战略或诉诸升级战争规模(甚至是核战)的意愿方面产生什么变化?”
顺着句式表达,文中流露出深切的忧虑。“从历史上看,那些积极备战的国家对其对手的理论、战术和战略心理,即便不是了如指掌,也大致了解……然而,当军队使用人工智能来制订计划或锁定目标,甚至在常规巡逻或冲突期间提供动态协助时,这些人们原本熟悉的概念和互动可能会变得陌生,因为这涉及到与一种新型的智能打交道并设法了解它,而该智能的运作方式和战术不得而知。”这无疑让那些军事统领或最高决策者陷入尴尬不安的境地。一方面,他们需要借助智能工具辅助分析、判断;另一方面,也要谨防技术越俎代庖替代人下决断。按照书本的观点,“数字程序现在控制着一个由众多实体系统构成的庞大且仍在不断增长的领域……这催生出一个极其复杂、广泛和脆弱的系统”,同时,就道德哲学维度,“如果战略的各个层面开始在人工智能可及而人类理性不可及的概念和分析领域运作,那么它们的过程、范围和最终意义将变得不再透明”。没有人会质疑甚至反对数字化带来的精准、效率,但关乎国与国之间的冲突战争,世界和平与安全的大是大非上,这几项指标却不是核心的。总而言之,当领导者不可逆地会借助人工智能来帮助其下结论,那么尽早提炼出一套军事用途内的人工智能使用限度与规范则势在必行。
这本书并没有完全讲明我们该如何应对未来的战争,但它着实指明了我们正在为自己制造的新难题。不仅仅是在全世界范围的政治、军事、科技领域,而且在个人的衣食住行、社会交往协作、资讯获取学习交流上,人工智能都已开始普遍地进入、深刻地改变。基辛格等人敏锐地注意到,随着此种进度推进、程度加深,人们会自觉或不自觉地依赖人工智能进而实现一系列的服务功能,它相关的产业机会、潜在市场自然不可限量。但矛盾的地方又在于,人们自以为能掌控全局,占据主动地使用数字工具,但现实恰恰相反,很多时候他们处于被动地位,他们看到的、听到的乃至想到的,往往是数据算法基于个人的消费偏好、浏览历史、行为习惯所反馈的结果。换言之,人工智能正在统领着人们,其中就包括泛滥不绝的假新闻和造成人们认知局限的“过滤泡”。
有鉴于人工智能在民用场景、商用领域的普遍性,倘若要在势头上、总体上去限制人工智能的推广或其学习能力的提升,这显然是不可能的,也是对潮流的反动。三位作者理性地提出:“在文明层面,放弃人工智能是不可行的。领导者们将不得不直面这项技术的影响,他们对这项技术的应用负有重大责任。”但与此同时,他们也一再警告世人,人工智能已加速减损着一些可贵的东西——我们的判断与自省能力等。“结果,个人在审查、检验和理解信息方面的作用被削弱了,取而代之的是人工智能的作用扩大了。”
的确,三位作者思路敏捷、充满真知灼见。他们指出了人工智能在长远上的隐患与威胁。值得注意的是,相同的论调在书中多次出现,略显重复。于是,读者更希望他们能进一步为人类命运共同体的未来去筹划,去建构一套引导人工智能有序发展的解决方案。相信没人会反对他们所谓的“不应将人工智能视为自动运作、无须照管的存在,也不应允许其在无人监督、监视或直接控制的情况下才去不可撤销的行动”这一前提,但具体到行动纲领和实施对策是什么,这本书却未能交出一份答案。
作者不断提到,要形成人工智能的伦理规则,并且在书的最后也提议,应成立一个由政府、企业和学术界的最高层人士组成的国家级委员会。它将具有双重功能:其一,确保国家在人工智能领域保持知识和战略上的竞争力;其二,提高全球对这项技术的文化内涵的认识。由此可见,他们发出了一种呼吁,一种宣告——要在战略和观念上认真对待人工智能;而他们的这本合著也更像是为国家政府层级的高阶人士而撰写的,如同书本的最后收尾:“现在,是时候定义我们与人工智能的伙伴关系,以及由此产生的现实了。”其实,把它与前一句话顺序互换,逻辑就更通了。上一句写道:“不仅各国内部应有此承诺,国与国之间也同样如此。”
(本文作者系法学博士,浙江传媒学院副教授、硕士生导师)
(文章来源:21世纪经济报道)