2017年底,谷歌旗下的DeepMind公司开发的人工智能程序AlphaZero击败了当时世界上最强大的国际象棋程序Stockfish,在100场对弈中,AlphaZero的战绩是28胜72平0负。在2018年与Stockfish进行的1000场对弈中,AlphaZero的战绩是155胜6负839平;可以说,AlphaZero获得了压倒性的胜利。


AlphaZero的胜利之所以引起了广泛关注,是因为程序构建者只给它提供了一套国际象棋规则,并指示它基于规则制定战略,从而最大限度地提高自己的胜负比。仅仅经过4个小时的自我对弈后,AlphaZero便成了世界上最强大的国际象棋程序。到目前为止,还没有任何人或其他程序能够战胜它。


AlphaZero与之前的其他国际象棋程序存在一个显著的差别,即之前的程序需要人类棋手先构思棋路,然后程序按照这些棋路进行对弈,简单来说,这些程序依赖于人类的经验、知识和战略。AlphaZero则完全不同,它的走法并非源自人类的指导,而且在许多情况下,很多走法是人类根本未曾考虑过的。国际象棋大师加里·卡斯帕罗夫在观察和分析了AlphaZero的棋局后称:“AlphaZero彻底动摇了国际象棋的根基。”


2022年末,由OpenAI开发的自然语言处理工具ChatGPT横空出世,这个工具能够根据人类提供的简单指示而生成非常专业的文本,一些文本的质量显然超出了某个人甚至某些人共同能够达到的水平,这激发了社会各界对于人工智能的极大兴趣,支持者看到了人工智能有利的一面,反对者则担忧人工智能的发展会对现有的社会结构产生严重冲击,视其如洪水猛兽。


毋庸置疑的是,我们已经进入了人工智能时代,无论喜欢与否,人工智能已经渗透到我们生活和工作中的方方面面,小到我们日常身处其中的各种算法,大到企业和国家的发展与竞争,人工智能都在发挥作用,而且会发挥越来越大的作用。更重要的是,人工智能与之前的技术存在很大不同,其发展将会在很大程度上重塑人类社会。


由美国前国务卿亨利·基辛格、谷歌前CEO、执行董事长埃里克·施密特和麻省理工学院苏世民计算机学院院长丹尼尔·胡腾洛赫尔合著了《人工智能时代与人类未来》一书。正如作者在前言中所说:“在本书中,我们既不褒扬人工智能,也不试图去贬低它。因为无论你怎样看待人工智能,它都已变得无所不在。我们试图去做的,是在人工智能带来的影响尚在人类理解范围之内时,对这种影响加以考量。”


这是一本在思想层面探讨人工智能的书,三位作者在书中探析了人类与人工智能的关系;人工智能的出现和演化将如何影响人类的感知、认知和互动;人工智能又将会对我们的文化、人性观念、历史产生什么影响,等等。在人工智能快速发展的当下,该书有助于我们从更高的层面来审视人工智能的善恶是非,尽量避免出现“不识庐山真面目,只缘身在此山中”的情况。


《人工智能时代与人类未来》

[美] 亨利·基辛格 / [美] 埃里克·施密特 / [美] 丹尼尔·胡滕洛赫尔/著

胡利平 / 风君 /译

中信出版社 2023年5月


一、人工智能是一种与众不同的技术


技术是人类社会进步的重要推动力,正是技术的持续发展才塑造了今天的世界。就如作者在书中所指出的,纵观历史人类并非没有经历过技术变革;然而,从根本上改变我们这个社会的社会架构和政治架构的技术却屈指可数。在人类发展的历史进程中,偶尔会经历非常大的技术变革,但过往的这些技术变革有一个共同特点,即都处于人类的控制之下,并且能够被人类所很好地理解。


工业革命是技术发展的一个分水岭,工业革命以来出现的各项技术更多的是赋能型的技术,也就是说新技术的出现扩展了人类可以触及的边界,提高了生产效率,各种技术完全在人类的指示下按照特定的规则运行,技术本身基本上没有能动性。人工智能则明显不同,虽然它是人类创造出来的,但它具有较强的能动性,它的很多行为和做法并不被人类所理解,或者说完全超出了人类所能够理解的范围。AlphaZero和ChatGPT就是很好的例子。


作者在书中还提到了另外一个例子,麻省理工学院的研究人员利用人工智能来发现一种新的抗生素,这种抗生素能够灭杀此前对所有已知抗生素都有耐药性的细菌菌株。这个项目的负责人表示,通过传统方法发现抗生素的成本太高,而通过训练一个软件程序来识别已被证明能有效抗菌的分子结构模式,识别过程就会变得高效和经济得多。在这个过程中,人工智能可以识别出那些人类察觉不到,甚至可能超越人类描述的分子关系。


几千年来,人类一直以探索现实和求知为己任,一直希望通过对现实世界和自然规律的认识来更好地获得掌控感。人们认为,只要勤奋和专注,运用人类的理性来处理问题,就能产生可衡量的结果。但必须承认的是,至少到现在为止,人类对于我们生活的世界以及更广阔空间的认识还是非常有限的,对于很多问题和现象,要么认识不清,要么还根本无法理解。人工智能的出现则可能在一定程度上改变这种现象,它有可能会触及与人类所接触的迥然不同的现实层面。换句话说,人工智能可能会突破人类理性的限制,拓宽人类的视野,更深入地触及事物的本质。


作者在书中指出,人类身份可能会继续停留在“生命智能”的顶峰,但人类理性将不再被视为致力于理解现实的智能的全部;人工智能赋能的技术将成为人类感知和处理信息的永久伴侣,无论我们视其为工具、伴侣还是对手,它都会改变我们作为理性生物的经验,并永久地改变我们与现实的关系。


二、人工智能与人类认识世界的关系


柏拉图在《理想国》中谈到了著名的“洞穴之喻”,该寓言以苏格拉底和格劳孔之间的对话形式展开,将人类比做一群被锁链束缚在洞穴里的囚徒,囚徒们看到从阳光下的洞口投射在洞壁上的影子,便相信那是所谓的真实。苏格拉底认为,哲学家就如同一个挣脱束缚、沿着坡路走出洞穴,在阳光下感知真实世界的囚徒。


人们一直试图全面理解我们的经历和生活环境的各个方面。每个社会都在以自己的方式探究现实的本质:如何理解现实,如何预测现实,如何塑造现实,又如何调和现实。在试图解决这些问题的过程中,每个社会都找到了属于自己的一套适应世界的方法,这些适应的核心是有关人类心智与现实之间关系的概念,即人类认识周围环境的能力。


历史之中,宗教、政治等都曾作为解释现实世界的权威,与权威相悖的观点(即使是正确的)则被视为异端,实际上此时就出现了话语权垄断。例如,当伽利略等早期现代思想家和科学家开始直接探索世界,并根据科学观察改变人们对世界的解释时,便因为胆敢忽略作为中介的神学而受到惩罚和迫害。近代以来,随着数学、天文学和自然科学的发展,人们逐渐以自身的理性和心智来认识和感知现实世界。科学家们能够基于个人及同行的观察进行迭代式的探究:当一个理论或预测可以被经验验证时,新的事实就会被揭示出来,而这又可以作为认识其他问题的出发点。


总的来看,人类对于依靠自己的理性来认识世界越来越自信,笛卡尔的格言“我思故我在”将理性思维奉为人类的决定性能力,并宣称它具有历史中心地位。但人类的理性和心智是存在局限性的,借用《庄子·养生主》里的一句话,“吾理性也有涯,而知也无涯”,对于客观现实和事物本质的认识,每一代人都只能做一些边际贡献。


人工智能则可能会以机器智能的形式极大地拓展人类理性的边界,揭示那些以往我们无法察觉但可能至关重要的现实层面,在一些情况下,人工智能将以不同于人类的逻辑形式提出新的见解和发现。另外,非常有可能的情况是,人工智能会使人类对现实世界和事物本质的认识出现跳跃式发展。这就提出了这样一个问题:如果人工智能会“思考”,或者近似于思考,那么“我们”又是谁?


三、人工智能与人类的关系


人工智能正日益被赋予以前只能由人类心智完成或尝试的任务,随着人工智能不断执行这些任务,产生接近甚至超越人类智能所能实现的结果,它挑战了人何以为人的决定性属性。作者在书中还提到了这样一个例子,2016年,DeepMind的分支机构DeepMindApplied开发了一种人工智能来优化谷歌温度敏感数据中心的冷却操作,尽管最优秀的工程师已经在一定程度上解决了这个问题,但人工智能程序进一步优化了冷却操作,能耗又降低了40%。


这就提出了如下的问题:当人工智能比我们人类做得更好,从而导致我们不再亲自探索和塑造现实,而是将人工智能作为我们感知和思想的辅助工具时,我们将如何看待自己以及我们在世界上的角色,我们将如何看待人类与人工智能的关系。作者指出,人工智能有望在人类体验的所有领域带来变革,但变革的核心最终将发生在哲学层面,即改变人类理解现实的方式以及我们在其中所扮演的角色。


在一些关键领域,当人工智能能够实现比人类理性所能达到更好的结果时,固执地对此视而不见无异于掩耳盗铃,“卢德主义”并不是应对技术变革的合理方式。我们会认识并接受这样一个结果,即人类的理性并不是认识或驾驭现实的唯一方式,或许也不是最先进的方式。人工智能的出现和发展将使人类迎来一个以三种主要方式做出决策的世界:一是由人类做出决策;二是由机器做出决策;三是由人机合作做出决策。


而且,人工智能不仅仅是一种被动的工具,而是上升到人类伙伴的层面。但需要注意的一点是,人类与人工智能并不是完全对等的,归根结底,人工智能是由人类构建的,也是由人类指挥的,只不过人工智能可以在一定程度上发挥能动性,而不仅仅是完全被动地听从人类的指挥。


在特定领域,人类可能会对人工智能言听计从,更喜欢人工智能的数据处理过程,而非受人类思维局限的限制。例如,在科学研究方面,人工智能能够突破人类理性的局限,在这些领域充分发挥人工智能的作用是有益的,也是应该的。


但在一些涉及心理、情感、道德等人类特有的领域,人工智能则需要在人类的控制下发挥作用。如果完全不顾及人类理智、情感和道德,任由人工智能自主行动,那么人类社会将会发生翻天覆地的变化。理智、道德、情感是无形的,但正是这些无形的东西使人类社会充满了温情,道德的沦陷必然造成整个社会价值观的混乱以及底线的缺失,而一个价值观混乱、没有底线的社会必定是一片狼藉的,其中的每一个人都将付出代价。


四、人工智能与国家安全的关系


自有记载的人类历史起,安全始终是一个有组织的社会追求的最低目标。不同文化的价值观念各异,不同政治单元的利益和渴求相殊,但无论是独立自保还是共同御敌,任何不能保证自己安全的社会都无法避免覆亡的命运。因此,多数社会都会付出大量的资金和精力来构筑自己的安全网,在此过程中,大量的军事研发活动所产生的新技术甚至可以用于经济领域,从而提高了劳动生产率,促进了经济增长。


作者在书中指出,传统上,有三个特性促成了军事和民用领域的技术分野:技术差异、集中控制和影响规模。所谓技术差异是指专门军用或民用的技术是有很大差异的;集中控制则是指可以轻易被政府管控;影响规模则是指一种技术的破坏性潜力。


迄今为止,几乎找不到某种技术同时具备军民两用、易于传播和具有巨大的潜在破坏性这三个特征。以核技术为例,核能可以军民两用,如果不正确使用破坏性巨大,但核技术非常复杂,这就使得政府可以相对集中地控制核技术。人工智能的出现打破这种状况,很明显,人工智能可以军民两用,也很容易传播,同时,如果不审慎使用,也会产生非常大的破坏性。


在传统的冲突中,对手的心理是战略行动瞄准的关键点,心理博弈是某些战略的根本。但算法则只知道指令和目标,却不知士气和心理为何物。人工智能可能使现代国家之间的战略竞合更加复杂化,即使各国不广泛部署人工智能类自主武器,但人工智能仍有可能赋能常规武器、核武器和网络能力,从而使对手之间的安全关系更加难以预测和维护。


人工智能可能会识别出对手甚至都没有计划或注意到的行为模式,然后给出相应的反击方法。对于一种能感知到人类可能无法感知或无法那么快感知的环境层面,而且在某些情况下能通过超过人类思维速度或思维广度的过程进行学习和改变的事物,我们又如何去制定一项有针对性的进攻或防御战略呢?由于人工智能具有适应其所遇现象的潜力,当两个人工智能武器系统被用于彼此对抗时,双方都很难准确理解最终可能产生的结果和影响。


国际体系的矛盾之处在于,每个大国都被驱使采取行动,也必须采取行动,从而最大限度地保障自己的安全。然而,为了避免危机接踵而至,每个国家都必须对维持普遍和平具有一定的责任感。这个过程涉及对限制的认识。为了防止人工智能在国家之间的竞争过程中产生严重的后果,各国都需要克服,或者至少遏制完全自动化的现象,必须防止运行速度比人类决策者更快的人工智能做出一些具有战略后果、不可挽回的行为。


五、人工智能带来的挑战


任何事物都具有两面性,人工智能在带来好处的同时,也提出了一些新的挑战有待解决。作者在书中提到了以下几方面需要特别关注的问题:


人工智能带来的挑战之一是,具备了创造人工智能所需的技能和资源的人并非必然具有理解其更广泛内涵的哲学视角。许多人工智能的创造者主要关注的是他们试图实现的应用和想要解决的问题,他们可能不会停下来考虑这个解决方案是否会产生一场历史性革命,或者他们的技术将如何影响不同的人群。例如,如果人工智能有效地解决了一个问题,但给其他的某一群体带来了非常大的负面影响(如导致其失业),那么综合来看,这个结果是可取的吗?这就涉及到价值判断的问题。


人工智能可能会加速人类理性消解的势头:社交媒体减少了反思的空间,在线搜索削弱了概念化的动力,人工智能可以更好地完成任务降低了人类深入思考的动力,等等。人工智能出现之前的算法就擅长向人类传递“令人沉迷”的内容,人工智能则更精于此道。人工智能影响人类思想的能力与日俱增;相反,人类在理解信息和认识现实方面的作用被削弱了。


且不论更高级的人工智能如何改变人类社会,已经出现很久并且在我们日常工作生活中发挥了非常重要作用的搜索引擎都在很大程度上压缩了人类思考的空间。搜索引擎带来了极大的便利,这是有利的一面,但也有不利的一面,遇到问题时我们首先想到的是搜索一下,思考的过程被省略和代替了,而恰恰是这个思考的过程才能使我们对一些问题的认识更加深化。又如,数据算法所构造的“信息茧房”将我们桎梏在自己感兴趣的内容之中,有些时候我们甚至乐此不疲、难以自拔,这难免会使我们的认知偏狭、孤陋,只见树木,不见森林,甚至所见的树木也不是真实的。


人工智能无法感受到道德或哲学冲动,不能像人类一样考虑情境或进行反思,也没有怜悯和同情;另外一方面,人工智能则可能会有歧视和偏见,这就需要特别关注它所带来的挑战。人工智能只是运用人类可能无法实现的方法产生特定的结果,而不管这个结果从人类的角度来看是平庸还是深刻,是善还是恶。对人工智能的目标和授权都需要谨慎地设计,尤其是在其决策可能致命的领域,我们既不应将人工智能视为自动运作、无需照管的存在,也不应允许其在无人监督、监视或直接控制的情况下采取不可撤销的行动。


曼哈顿计划的技术负责人罗伯特·奥本海默后来对军方鼓吹核战争提出了批评:“如果一个文明一直把伦理道德视为人类生活的核心,但它对所有人都可能遭屠戮的前景缄口不提,只允许讨论如何克敌制胜,我们又该如何看待这样的文明?”


例如,最近北京大学、伦敦国王学院和伦敦大学的联合研究小组针对汽车自动驾驶系统进行了一项研究,通过检验市面上车企常规使用的8种行人专用探测系统,结果显示,自动驾驶系统对于深肤色的人群和儿童检测的准确率大幅下降,这意味着这两个人群在自动驾驶汽车附近更容易遭遇危险。研究团队表示,通过这个研究结果,希望技术人员在开发汽车自动驾驶系统时考虑更多的场景和多样性,避免因考虑不周而出现偏见和歧视。


人工智能的强大还可能使人类生出盲目崇拜之感。作者在书中指出,面对非专业人士无法理解的技术,一些人可能会将人工智能的决策视为近乎天意的判断。这种宗教式的冲动虽属误解,但并非全无道理。如果一种人类无法理解或控制的智能,能够给出十分灵验又透着几分神异的结论,在这样一个世界中,遵从这种智能的判断难道是愚蠢的吗?在这种逻辑的推动下,世界可能会随之“复魅”,人工智能则会因其发布的“神谕”而使一些人对其深信不疑,言听计从。特别是通用人工智能(AGI),一种能够像人类一样处理各种任务的智能系统,可能会被不少人奉若神明。


当人们经历新事件、发现新事物,或是遭遇其他文化,便会催生思想革命,一个新时代也会应运而生。我们已经步入了人工智能时代的大门,人工智能技术正在如火如荼地发展,其积极和消极作用正在逐渐显现,到目前为止我们还无法清晰地预测其发展路径和全部影响。但由于人工智能与以往的技术变革存在很大差异,其具有较大的能动性,有很多结果完全超出人类思维可能触及的边界,甚至不受人类的控制,因此有必要认真考虑人工智能对人类社会所带来的革命性影响。正如作者所说的,要在人工智能带来的影响尚在人类理解范围之内时,对其进行认真审视和考量。


人工智能革命正在成为新一轮科技变革和产业转型的核心,不抓住这个技术革新的机遇,必将在后期的国际竞争中处于劣势地位。党的二十大报告强调,“推动战略性新兴产业融合集群发展,构建新一代信息技术、人工智能、生物技术、新能源、新材料、高端装备、绿色环保等一批新的增长引擎”。鉴于人工智能技术的特殊性,在有效利用人工智能的同时,要深入认识其对人类社会、法律、文化、哲学、精神和道德层面产生的影响,从而避免人工智能所产生的消极后果,以及在面对出乎意料的变化时而出现的措手不及和无助之感。


本文来自微信公众号:经济观察报观察家 (ID:eeoobserver),作者:孙树强