本文来自微信公众号:Nature Portfolio (ID:nature-portfolio),作者:Matthew Hutson,题图来自:视觉中国


人工智能(AI)的超级智能会突然出现,还是科学家会预测到它出现并有机会警告世人?随着大语言模型(如ChatGPT)的崛起,这个问题最近受到了很多关注,这些人工智能随着体量增大而获得了重大的新能力。有人指出了“涌现”现象,所谓人工智能模型以不可思议的方式急速获得智能的现象。但最近一项研究称这些情况是“幻景”——系统测试中出现的假象——并认为建立创新能力其实是渐进的过程。


“我认为他们说出来‘没发生什么魔法事件’这一点做得很好。” Mozilla 基金会的计算科学家Deborah Raji说,她研究人工智能审计。“这是一个很好的、很可靠且基于测量的批评。”


这项工作已于去年12月在新奥尔良举行的NeurIPS机器学习会议上发表。


一、越大越好


大语言模型一般都是用海量文本或其他信息进行训练,通过预测接下来会发生什么,来生成现实回答。就算没有经过特定训练,它们也能翻译语言、解决数学问题,写诗或计算代码。模型越大(有些有超过千亿的可调参数),它表现就越好。一些研究者怀疑,这些工具最终可能会实现通用人工智能(AGI),在大多数任务上和人类表现相当,甚至超过人类。


这项新研究用一些方式测试了涌现的说法。其一是,科学家比较了4个规模的OpenAI GPT-3模型在四位数相加方面的能力。从绝对准确率来看,第三和第四大的模型之间的性能差异从接近0%到接近100%不等。但如果从答案中正确预测的位数来看,表现水平的差异就没那么极端了。研究者还发现,给模型许多测试问题也能压平曲线——在这种情况下,较小的模型有时能回答正确。


然后研究者检查了Google的LaMDA语言模型在一些任务中的表现。在检测反讽或翻译谚语时它表现出了急速增长的智力,这些通常是多选题,其回答的对错是不连续的。但当研究者调查模型赋予每个答案的概率(一种连续的度量标准)时,涌现迹象就消失了。


最后,研究者调查了计算机视觉,这个领域不太有涌现的说法。他们训练了模型压缩然后重建图像。但只要设定严格的正确性阈值,他们就能诱导出明显的涌现。“他们设计调查的方式很有创造性。”美国华盛顿大学的计算机科学家Yejin Choi说,她研究人工智能与常识。


二、尚未排除


研究共同作者Sanmi Koyejo是斯坦福大学的计算机科学家,他说人们产生涌现的看法并不荒诞,因为有些系统表现出了意外的“阶段改变”。他还指出,这项研究不能完全排除大语言模型出现这种情形的可能(更不要说未来的系统了),但补充说,“迄今为止的科学研究有力地表明,语言模型的大多数方面还是确实可预测的。”


Raji很高兴看到学术界更关注基准测试而非开发神经网络架构。她想要研究者能更进一步,提问这些任务与真实世界运用的关系。例如,像GPT-4那样在LSAT(法学院入学考试)中成绩优异,是否意味着模型也能做律师助理的工作?


这项工作还对人工智能安全和政策有所影响。“AGI人群一直在吹嘘涌现能力的说法。” Raji说。无端的恐惧可能会导致扼杀性的法规,或转移人们对更紧迫风险的关注。“模型正在不断进步,它们是有用的。”她说。“但它们离出现意识还远。”


(原文以Will superintelligent AI sneak up on us? New study offers reassurance标题发表在2023年12月22日《自然》的新闻版块上。© nature doi:10.1038/d41586-023-04094-z)


本文来自微信公众号:Nature Portfolio (ID:nature-portfolio),作者:Matthew Hutson