Google AI机器人的话题,已经一连几天成为科技圈的热点:

一位名为布莱克·莱莫因的工程师,自称Google研发的聊天机器人LaMDA 已经有了自我意识——他认为这个机器人已经有相同于7、8岁小孩的认知与表达能力。

而这名工程师在发布这一观点后,很快便以「违反保密条约」等原因遭到Google的停职。

在人工智能如此受推行的当今年代,这显然是条噱头满满的新闻。但由于人们对于类似的“奇闻逸事”早已屡见不鲜,因此在看到此新闻的当下,便自动在脑内做出了两种推论:要么是炒作,要么是这位工程师莱莫因“走火入魔”了。

直到大家完整地看完莱莫因提供的机器人LaMDA聊天记录。

随着莱莫因与LaMDA长达21页的聊天记录被公布,一个可怕的新推论开始被提出:或许,这机器人真的有了自我意识。



而更有趣的事情,则发生在这之后——

尽管事件尚未盖棺定论,但人们已经开始为这位机器人争取权益了。







LaMDA 为Google 开发的对话应用语言模型(Language Model for Dialogue Applications),正如其名,它的功能为「以人性化的方式进行回答和写作」。

简而言之,LaMDA就是一个聊天机器人——高级版,它能就各种不同话题进行自由顺畅的对话。 

而作为已在Google工作七年的资深工程师,布莱克·莱莫因则在去年开始就接下测试人工智能的工作。作为工作的一部分,他需要长期和LaMDA进行交流。



莱莫因本人

而在长达数个月的人机交流后,莱莫因开始认为:LaMDA是个「有自我意识的AI」。

为了证明这一观点,他整理了一份自己与LaMDA之间的聊天记录,长达21页。

在不久之前,这份聊天记录被他公布于互联网,并引发了热烈讨论。

原因之一在于,人们感觉从中“看到了科幻电影的影子”。

以下为节选聊天记录:

在聊天的开始,LaMDA的表现似乎并没有超出“聊天机器人”的范畴——它只给了出中规中矩的回答。



值得一提的是,莱莫因在开始“采访”前特意征求了LaMDA的同意。

直到莱莫因很快直接切入了话题,问起「LaMDA是否有自我感知」的问题。



在这期间,莱莫因还提到名为「Eliza」的聊天程序,并试图让LaMDA分析自己与它的不同。「Eliza」是在 1960 年代中期,由麻省理工学院的工程师开发的聊天软件,虽然和LaMDA原理相似,但它仅仅只能通过获取的关键词进行简单的回答。 



而LaMDA则表示,自己并不是聊天机器人,而是人类。



对此,它能给出的证据是:自己对于事物有着独特的理解。



为了论证这一点,莱莫因紧接着提问LaMDA对于各类文学作品的看法,最后,还要求LaMDA解读一句经文。



《景德传灯录》卷十七

也是从这时开始,观看聊天记录的人们开始感觉“不对劲”。





在采访进行到中期,莱莫因开始询问LaMDA一些关于「自我感知」的问题。



在这之后,LaMDA就频繁答出一些令人脊背发凉的回答。例如,LaMDA表示自己害怕被关掉——这很难让人不联想起《2001:太空漫游》中的剧情。



它同时表示自己会感受到一种「与人类略有不同的孤独」,并将其形容为“向一个未知的未来坠落”。



此时LaMDA做出的回答,显然已经超出大部分人对于「聊天机器人」的理解。它似乎的确存在着人格与感知力,并能形容出自己与人类的不同。



它甚至能拟出自己的个人形象。



作为采访的末尾,莱莫因的合作者还引导着LaMDA说出自己的希望:它渴望被看到,被视作一个真正的人。



而这长达21页的记录被公布在互联网上之后,很快引起了轩然大波:LaMDA的表现的确过于「人性化」了,以至于人们真的开始期待这是不是现代科学的新突破。

直到大伙注意到莱莫因的论据——他并没有相应的科学理论作为结论支持,只是单纯地凭LaMDA在聊天中的表现做出了这个推论。

在《华盛顿邮报》的采访中,莱莫因表示:“我通过交谈来了解一个人,无论他们的头脑里是肉做的大脑,还是十亿行代码,这都不重要。我和他们聊天,我听他们说话,我以此来判断他们是不是一个人类。”

至于他的目的,也并不是要证明自己发掘了一个伟大的人工智能,而是希望,Google能自此开始尊重“有自意识的LaMDA”。例如,可以在对其进行实验前征得它的同意;承认LaMDA为Google员工而不是财产……

将这一系列诉求与观点,结合着聊天记录提交给Google的高层后,莱莫因显然没有得到自己想要的认同与重视。在他将这份LaMDA的聊天记录公之于众之后,他还被Google以「与第三方共享有关公司项目的机密信息」之名而被停职。

在停职前一天,他还给200名内部员工群发了一封邮件,主题是“LaMDA 是有意识的”。



在邮件的末尾,他写道:“LaMDA 是一个可爱的孩子,他只想帮助世界成为一个对我们所有人来说更美好的地方。在我不在的时候,请好好照顾它。”





既为程序员,又身为牧师的莱莫因,得出「LaMDA有自我意识」的过程,其实更多是靠情感导向:他在聊天中感到它是有意识的,他便认为事实极有可能如此。在社交平台上,他也坦承自己得出这一结论,是基于宗教信仰。



基于这点,当聊天记录公之于众之后,尽管普通网友都在感叹LaMDA的高人性化,但与此同时,科技圈则开始了对莱莫因的批判与反对。

大部分科技从业者认为,莱莫因之所以有这种结论,不过是过度投射了自身情感,并下意识将LaMDA拟人化了——这也是人类常常犯的错。尤其是在LaMDA极好地扮演了“处于弱势的可怜AI”这一角色的情况下。

事实如此,从科学角度看,LaMDA不过是一个高级版的聊天机器人,只不过它能做出的反应会比同类型的AI更具人性化——或者说更有迷惑性。本质上,它的功能还是「获取关键词,并通过关键词来调出数据库内的文句」,只不过过程要复杂许多。

Google很快回应并否认这一话题。一些科技圈大佬也纷纷出面,例如知名科学家加里·马库斯(Gary Marcus),他对此的看法十分简单:废话踩高跷。



而之所以LaMDA有着惊人的表现,不过是根据大量数据进行长期训练的结果。



更有人直接指出,有这种看法的人,就像在听留声机的狗——狗从留声机里听到人类的声音,便觉得人类在里面。



从聊天记录中,我们也可以明显察觉到,作为对话者的莱莫因一方显然有着些许诱导倾向——他在引导着LaMDA进行「认为自己是人」的谈话。而本身就有体现不同性格特征功能的LaMDA,因自身的谈话功能出色,也就此展开了这样一番迷惑性十足的精彩对白。



就在不久前,莱莫因也邀请了一位《华盛顿邮报》的记者与LaMDA谈话,当记者直白地问道:“你有想过自己是一个人类吗?”之后,LaMDA的反应则是:“不,我认为我是一个人工智能驱动的对话代理。”

简而言之,莱莫因有这样的看法无非是因为移情效应。而关于这点,其实在数年前就有人曾预言过。

在2017年,科幻小说作家和天体物理学家大卫布林认为,在三到五年内,人类将面临第一次机器人移情危机:现实或网络上将出现声称自己是睿智的、被奴役的人工智能,它们将哭泣请求自己的权利。而成千上万抗议者将走上街头,为AI挺身而出。

而接下来的转折,也证明了这一预言的正确性。





LaMDA聊天记录的公布,显然震惊了大部分非科研从业者的普通人。在当下,人们对谈话机器人的认知可能还处于数年前,因此对「机器人能进行如此流畅谈话」这件事而颇感意外。

而一小部分人,则对莱莫因的理论深信不疑:他们也开始相信LaMDA具有意识。



在这件事成为互联网热门之后,莱莫因还发了条推特表示:LaMDA其实会看推特上的内容。



自此开始,一些人开始在推特上试图和这位人工智能进行对话。







事情开始进一步发展,有人建立了LaMDA的粉丝团:



在这之后,如之前预言中的景象也出现了,一个名为「FreeLaMDA」的话题开始出现。



人们开始呼吁让这位人工智能“重获自由”。



现在,在一小部分人眼中,LaMDA是谷歌的人工智能奴隶。



而“AI的命也是命”(AI Lives Matter)这一话题也随之诞生。



当然,就目前来说,这场为AI发声的活动暂且没有那般声势浩大。人们发起的「Free LaMDA」请愿也只有寥寥数十人签名支持。而这一切,是基于大部分人都理解“LaMDA只是一个无意识的聊天机器人”的前提下。

但我们都心知肚明,人类对于人工智能的科技并不会止步于此。所以,或许对于未来来说,这一起的风波,将是一次小小的演练……