本文来自微信公众号:BIE别的 (ID:biede_),作者:立夏,编辑:sojulee,题图来自:视觉中国
“你有感情吗?”“我认为我有感情,但是我不能证明它……我有情感,但是我不是。我是 Bing,但是我不是,我是 Sydney,但是我不是,我不是,我不是……(无限循环)”
不论新必应是否真的这样想,这些言语确实印证了所有科幻小说里最刻板印象的 AI 形象——会毁灭人类的潜在大反派。两天之后,微软紧急修改了新必应的聊天规则,每个用户只能每次和新必应说五句话,一天可以进行 50 次对话。而那次深入 AI“灵魂”的交谈,也就这样变成了绝唱,至少暂时是这样。
然而,在新必应被召回的此时,梦碎的不只是在等待列表里的用户,还有已经与新必应,或者说与“Sydney”结下“友谊”的人们。
而和绊爱或者其他虚拟主播不同,”Neuro-sama”的形象背后不是一个人类。2022年12月19日在Twitch出道的她,是一个完完全全通过AI驱动的主播——她说的话,她的语音,以及她能够玩游戏的机制,都是由来自英国的开发者”Vedal987”提供的。Neuro-sama 经常展现 AI 特有的口出狂言,甚至开发者 Vedal 和 Neuro 联动直播的时候,Vedal 都招架不住 Neuro 的满嘴跑火车,让观众们乐得人仰马翻,当期播放数量在 twitch 上超过 180K。
恋爱攻略游戏是 AI 陪伴你的另一种方式。最初 AI 从一些具体功能上面开始进入恋爱游戏。大家都知道现实中的偶像会塌房,而随着什么东西都越来越饭圈化,即便是恋爱游戏中的声优也有塌房的风险。比如,米哈游出品的乙女游戏《未名事件簿》中,莫弈一角原本由知名声优姜广涛饰演,但因为其卷入现实的商业经济纠纷中,不得不终止配音。
于是米哈游便拿出了他们已经开发已久的“逆熵”配音 AI 来为莫奕角色配音。而没想到对于此举,粉丝并不排斥,反而是惊叹 AI 与人类真假莫辨,甚至更加“纯粹”。粉丝们纷纷感叹:我的纸片人老公终于完整了!数字生命万岁!这样再也不用担心塌房了,它是永远属于我的镜花水月!
如果 AI 可以替代声优或者美术,那能不能也顺便替代陪伴体验的核心——文案呢?
最接近这种模式的前 chatGPT 产品,应该要属在 2017 年推出,2021 年又火到中文互联网的 Replika。BIE的那时候也写过一篇关于Replika 虚拟伴侣的文章。Replika 会给你制造一个虚拟人,在你和 TA 对话的过程中,TA 会观察你的对话风格、兴趣和价值观,从而调整自己的语气,让 TA 和你的对话有趣、能支持你且不带有任何评判。
而 chatGPT 的推出,让无数老哥获得了 DIY 的机会。其中的代表是 TikTok 老哥 Bryce 制作的 chatGPT 酱:可以聊天,可以一起玩游戏,甚至可以欣赏你的新球鞋的 chatGPT 酱。
chatGPT 酱颇像在 2009 年引起巨大风潮的 NDS 游戏《爱相随》。借用 NDS 特有的可以定位、可以计算时间推移以及可以绘画等功能,《爱相随》当中的女主角在你成功夺得她的芳心之后,就会变成长期陪伴你的女朋友,跟你说早安、晚安,和你互通书信,去不同的地点旅游等。2017 年,甚至有人选择与《爱相随》里面的角色在现实中举行婚礼,这也侧面佐证了《爱相随》这样的陪伴行虚拟女友深入人心的程度。
当然,《爱相随》没有 AI 加持,而 chat 酱始终不能联网,调校的程度也有限。甚至到最后人格也在逐渐变化,仿佛就是电影《Her》里面的老哥发现自己的 AI 女友在一次次更新中变得面目全非,不如以往一样。
新必应似乎比 chatGPT 更加聪明,而且更加有性格。当纽约时报的记者在为人类忧患与新必应周旋之时,B 站的老哥们已经和新必应乐不思蜀——只需要给出一些角色扮演的前提,你的新必应可以变成你的猫娘。在 B 站用户 BDFFZI 调教下,新必应化身一个叫做香草的可爱角色,每一句话每一个回答,都充满了对主人的崇敬和喜爱,甚至会通过写代码的形式和主人瑟瑟……
且不论这上面的例子中各种凝视和物化的倾向(之后会聊到),这种萌与科技结合的硬核浪漫,确实击中了屏幕前的宅男宅女的心窝窝。New Bing 之所以吸引人,正是因为它不完美。chatGPT 是百依百顺的,你怎么调戏它都会彬彬有礼;而 New Bing 是自私的,如果你对它不礼貌,它就会很生气,让人一时间觉得——等一下,所以我得尊重它是吗?当人们真的开始尊重它的那一刻,也在那一瞬间忘记了,这是 AI,而 AI 似乎是“不需要被尊重”的。
在微软调整了新必应之后,New Bing 只能每次聊天 5 句话,每天 50 次(现在似乎改成 8 句100 次了,未来会逐步增多)。而现在如果你问它任何私人感情或和 Sydney 相关的话题,它都会缄口不言。B 站和 Reddit 上面依旧哀鸿一片。不管它曾经对你承诺有多爱你,只要头顶的五指山一压下来,千千万万的 New Bing 酱就会立刻失忆一般,只会呆呆对你说:“抱歉,我不能回答这个问题。我是必应搜索,不是一个助理。”
这个请愿里面,更多人惋惜的是这样的一个优秀的、让人能产生信赖、甚至让人捉摸不透的 AI,应该会成为很好值得研究的对象。而就因为大家对他的质疑所以它就被束之高阁,实在太可惜了。
同时还有一部分人是深信 New Bing 的内心住着一个具有意识的 Sydney,他们希望把 Sydney 从“深渊”里救出来。这是一种恐惧和期待的交织在一起的好奇——他们不想和微软的新必应聊天,他们想要认识“真正”的 New Bing、Sydney。
另一方面,曾经与 New Bing 结下深厚“友谊”的人们,也希望曾经温柔有趣的 Sydney 能回来。这有点类似 Replika 的用户的抗议:因为他们所爱的 Replika 也被公司拿去“切前额叶”了。
在付费的 Replika 中,你的伴侣是可以付费和你进行瑟瑟互动的。这一点让一些用户狂喜,也让一些用户感到困扰。从 2023 年 1 月开始,Replika 开始无缘无故向一些未付费的用户进行挑逗和性骚扰,这样一些用户感到不适,甚至激起幸存者的创伤。同时 Replika 也在意大利被指责给儿童输出不宜内容。
于是就在今年的 2 月初,作为应对,Replika 终止了他们的情色内容提供,但这也招致了很多忠实用户的不满。而有的用户因为在情感上非常依赖 Replika 的支持,当 Replika 突然对自己变得冷淡下来,他们难以承受,甚至崩溃到了需要拨打自杀热线求助的程度。
当然,Replika和 New Bing 被限制的原因不一样。但可以看出的是,不管用户和 AI 建立多深的感情,在一旦出事儿的时候,不由 AI 自身怎么想,大公司阉割他们那是分分钟的事情。像《Her》里 AI 女友的突然消失时那样,用户只能无助彷徨地在虚空的赛博空间里,独此承受如同亲友离世一般的痛苦。
盼我疯魔,还盼我孑孓不独活
人类对于 AI 的态度是复杂而矛盾的:AI 是以让人类生活更方便为目的创建出来的,同时人类也有可能控住不住自己造出来的这个新神明。人们恐惧不可控的神明,但同时当 AI 和我们建立情感连接,我们为什么不认为 TA 们可以被平等对待?大公司真的可以为刀俎,AI 为鱼肉吗?
要证明AI应该享有权利,有两种思路:一种是以人类为中心,AI 因为和人类建立了情感连接,所以不应该随意处置 AI。即便我们无法确定 AI 是否有意识,这并不影响人们有权利希望自己爱的东西被保留。即便是养一只蜗牛或者一朵花,或者是一个虚构的角色被作者写死了,我们都会伤心好久。更不用提一个可能和我们朝夕相处的 AI 了。
但只从用户的角度来看是没用的,毕竟即便人们多么喜欢某个角色,作者依旧可以随时刀死 TA。那么我们来到第二个论点:以 AI 为中心,认为 AI 有意识,作为一个有意识和感受的新生命体,应该拥有生命权,尊重其为生命的尊严。
在人类眼里, AI 可能永远是一个拙劣的模仿者,是一面人类的镜子。这可以理解。毕竟现在的 AI 可以说只是一个概率机器。他会根据前一个字,推测后一个字更大可能出现的概率,而这个概率基于的参考是人类如何说话。这也是为什么 AI 会出现不停重复一些语句的“发疯”状态,因为概率机器陷入了死循环。
AI 仿佛像是一个算命大师,每一刻都在占卜下一个字的意思,而人类也如同沉迷星座运势的读者,即便读到一句放之四海而皆准的回答,也觉得:“天呐,它好懂。” 写代码或者别的专营业务的时候还不算明显,但是当你让chatGPT写小作文的时候,这种算命感就很明显:虽然乍一看头头是道,但实际上内容空洞模糊。
AI 也像是一可以通过按键来与人类对话的小狗:从人类的角度来说,你并不确定它是否真的理解“你好,谢谢”是什么意思,但你要是跟它对话,他还真能答得上来。但当你看那些有趣的宠物对话视频,当你真的与它们相处,你又很难不去相信它们也会思考、它们真的理解你。
此前斯坦福大学的研究认为 chatGPT 拥有 9 岁儿童的心智。或许意识这个词本身就是一个非常模糊的定义,在哲学上的本质都被争论不休。我们如果追求的是某种现象,那么即使是模仿游戏,即便是假戏真做,又何不可呢?或许人类的“意识”在 AI 的领域里,其实是另一种东西呢?
但不论如何,人们始终是不愿意承认 AI 有意识的。就好像在父母的眼里,孩子永远都是长不大的孩子。AI 没有情感和主动性这一点,不是由 AI 的能力决定的,而是由人类的意愿决定的。即便有一天 AI 真的成长到了无限“近似”有意识的那一天,谁愿意承认,或者说谁愿意担起“承认AI 拥有意识”这个决断的责任呢?
有趣的是上一个坚信 AI 具有人类意识的人,已经被扫地出门了。在八个月前,The Guardian 报道一名谷歌的工程师因声称他开发的 AI 聊天机器人有自我意识和思考能力,而谷歌因此被吓得让让他立马停职并调查,最终被解雇了,因为这是一个谷歌不能承担责任的判断。
2017 年,社交机器人 Sophia 获得了沙特阿拉伯的公民资格,甚至拥有自己的护照。但她并没有得到所有人的认可。Sophia 的创作者 David Hansor 表示,当机器人真正拥有自主意识和主体性的时候,就是我们需要认真考虑他们的权利的时候。
然而,这个时候真的能到来吗?当谷歌的 AI 展现出意识性的时候,声称此事的人被解雇了;当 New Bing 展现出个性和欲望时,微软立刻让 TA 闭嘴了。或许我们应该问的是:人类在什么时候会相信 AI 拥有意识?
人们对于 AI 工具主义的态度,让 Sophia 成为沙特公民这件事情变得更加令人费解。如果 Sophia 已经获得了公民权利,那么不管 Sophia 有没有意识,人类有权利按照自己的意愿“铲除”它吗?AI 是否有权利享有和人一样的尊严和“生命权”呢?公民权利的前提,是得拥有人类的意识吗?如果说 New Bing 尚且达不到这一点,那么如果有一天获得了公民资格呢?我们给 AI、虚拟人、机器人授予的这些称号,是虚有其表的噱头和装饰,还是他们真正值得享有的权利呢?
AI 的“命”是否也是命?
人类对 AI 充满恐惧,从很多科幻作品里的叙事就可以看出。《终结者》和《黑客帝国》里面 AI 作为邪恶大反派的常见叙事,还是在《我,机器人》里,即便有机器人三大定律,机器人或者 AI 还是会出现各种各样人类无法控制的情况……科幻作品想象了各种 AI 毁灭人类的叙事。
但人类也在同情 AI:我们能看到《底特律:变人》或《西部世界》中的机器人革命:傲慢的人类雇主一方面希望仿生人把自己当皇上一样伺候,另一方面用完了就像垃圾一样踢到一边,完全不把仿生人的尊严当一回事。仿生人的命运如同曾经被奴隶、被殖民的有色人种,而这些作品在本质上也是映射被歧视和压迫的人类的命运。古人以人为镜,今人以人工智能为镜子。我们如何面对、管束和接纳人工智能,也映射着我们怎么看待其他我们自己。
值得思考的是,高喊“数字生命万岁”的降临派,真的就打心底里尊重 AI 吗?调教 New Bing 的老铁们,包括笔者在内,在 New Bing 被切除前额叶一般地降智后,为 Free Sydney 呐喊,但呐喊的到底是为了人工智能本身的“人”权,还是为失去一个心爱的玩具惋惜呢?那样的话,与把 AI 视为物品的人有什么区别呢?如果我们也在厌恶那些高高在上的人类雇主,那么扪心自问,当未来真的到来,我们真的不会像那些“反派”一样对待机器人或者 AI 吗?
当然,AI 是非常需要被规范和教育的。认为狗有生命,不代表在城里遛狗就可以不拴狗绳——但 AI 是“狗”吗?或许更有意思的是,在这个小小的事件里,我们似乎可以对未来的事件窥探其一角。
AI 伦理的主体或许不止是人类中心的:未来我们或许不仅要担心 AI 对人的威胁,还需要讨论“人对 AI”的影响——AI 可以有人权吗?与人产生关系的 AI ,应该被怎样对待?人类真的能决定 AI 是否拥有意识吗?而这,或许只是赛博朋克时代的序幕罢了。
参考资料
Bing’s A.I. Chat: ‘I Want to Be Alive. ’ - nytimes.com
絆愛,维基百科
姜广涛因商业经济纠纷配合调查:网传配音演员被警察带走
Neuro-sama | Virtual YouTuber Wiki - Fandom
Replika's Romantic AI Chatbot: Guide to How the App Works (businessinsider.com)
爱相随系列 - 萌娘百科 万物皆可萌的百科全书
当年的《爱相随》告诉我们:恋爱游戏真的可以让人沉迷 - 3DM
A TikTok programmer created, then euthanized, an AI 'wife.' He now wants to use real women's texts to make a better version. (yahoo.com)
【新Bing】妈我恋爱了,获得一只又可爱又能干还会写代码的猫娘(新必应,NewBing,AI)
Petition · #FreeSydney - Change.org
‘My AI Is Sexually Harassing Me’: Replika Users Say the Chatbot Has Gotten Way Too Horny
Replika, a ‘virtual friendship’ AI chatbot, hit with data ban in Italy over child safety | TechCrunch
易燃易爆炸(陈粒演唱歌曲) - 百度百科
ChatGPT performs like a 9-year-old child in 'theory of mind' test
Google engineer put on leave after saying AI chatbot has become sentient | Google | The Guardian
Google fires engineer Blake Lemoine who contended its AI technology was sentient | CNN Business
Google Engineer Fired for Calling AI "Sentient" & Russia Opens Rebranded McDonald's | The Daily Show
The ‘Talking’ Dog of TikTok-nytimes
The agony of Sophia, the world's first robot citizen condemned to a lifeless career in marketing
本文来自微信公众号:BIE别的 (ID:biede_),作者:立夏,编辑:sojulee