“AI教父”辛顿。(图/取自社交平台X)

加拿大多伦多大学名誉教授辛顿(Geoffrey Hinton)有“AI教父”之称,他在接受日媒采访时,谈及人工智能(AI)的威胁。他说,很多人以为,要防止AI失控,只要关掉电源开关就可以,“但超越人类智能的AI可以用语言操纵我们。或许会试图说服我们不要关掉开关”。

辛顿是“深度学习”(Deep Learning)和神经网络(模仿人脑的数学模型)的先驱,其研究帮助奠定了AI发展的基础。2023年,辛顿突然从已工作10多年的美国谷歌辞职,开始谈论AI的威胁。

《日本经济新闻》22日刊出了对辛顿的专访内容。辛顿表示,如果给AI设定目标,作为解决对策,它可能会找出对人类不利的方法。比方说,假设向AI下达遏制气候变化的指令。AI会意识到为了达到目的而有必要将人类清除,他担心真的会付诸实施的风险。

辛顿指出,今后还可能会出现不同的AI相互竞争的局面。例如,如果AI之间发生数据中心等资源的争夺,这将是一个像生物体一样推动进化的过程。面对透过竞争变得更聪明的AI,我们人类将落在后面。

他还预测,未来10年内将出现自主杀死人类的机器人武器(杀手机器人)。他说,机器人武器或许迟早也会被限制,但是,这可能要等到真正在战场上被使用、人类认识到会带来多么悲惨的结局后才能实现。

辛顿又谈到,如果从主观经验这一角度进行说明,他认为AI可以拥有和人类一样的感觉。他说,人类也会经历与客观事实不符的事件。例如我喝了很多酒,早上醒来时,眼前因为幻觉而出现了粉红色的小象。我不会相信小象的存在,而是会认为自己的感知系统没有正常工作,因此这只是内在的体验。

他说,透过照相机收集视觉信息的AI也可以产生同样的情况。例如,将物体放在相机前,用棱镜使光线弯曲,形成产生物体在远处的错觉。如果对话式AI解释称感知系统因为棱镜而不能正常工作,那么我们就可以说它有着和人类一样的感觉。