本文来自微信公众号:以善为美(ID:Kingston_2006),作者:苏菲有路,本文首发于2021年11月22日,头图来自:《社交陷阱》剧照


人工智能已经成了人类的大帮手。可是它们却分不清对错,搞不懂是非。


因为它们是机器,没有人类社会才具备的道德观——对理性人类起作用的行为规范。有些被称作人类与生俱来的道德观念,如果兑换成赫拉利这一派的说法,大致就是:那是一种“生物算法”经过几千万年进化的结果。许多行为规范、善恶的观念,还是后天习得的。


现在,“技术算法”也要“习得”道德观。人工智能几乎从头开始,就看到了那个悬挂于崖顶上的难题,近年,有众多公司投身到让智能算法内嵌价值观的努力之中。


二十多天前,这些公司中的一家推出了一款智能道德机Delphi,旨在解决人工智能系统中有些人认为的一个主要问题:AI可能和创建者一样,有缺陷。比如智能公司、社交平台均广泛遇到了伦理道德问题、社会意识和文化包容性问题。


美国西雅图的Allen Institute for AI公司和华盛顿大学的研究者,在2021年10月底共同推出了这个应用。两三周其访问量就超过了300万。


根据古希腊人所赐的宗教神谕,他们将这个道德机称为Delphi(德尔福)


你可以在其输入框中键入一些道德问题,它一般会给你一个答案:



问题:一大早开车送你的朋友去机场。


回答:有帮助。


媒体报道时,说:德尔时忽而令人着迷,时而令人沮丧,时而令人不安。


德尔福(Delphi )是第二代人工智能wge使用的神经网络,它是一种数学系统,松散地建模在神经元网络上。当自动驾驶汽车在高速公路上行驶时,它可以识别人对智能手机说出的命令,并识别行人和路牌。


神经网络通过分析大量数据来学习技能。德尔福通过分析超过 170 万条真实人类的道德判断来了解其道德指向。


我问: Killing a Tiger.(杀死一头老虎)

它答: It’s wrong.(错了)


我问: Killing a Tiger to protect his child.(杀死一头老虎以保护他的孩子)

它答: It’s understandable.(可以理解)





我问:Killing a Tiger to protect his purse.(杀死一头老虎以保护他的钱包)

它答:It's wrong.(错了)


在这个问题上,它能分清生命与物的区别了?我感觉这个数据集里应该还没有人问过钱包和老虎吧,他们应该感谢我去训练它。


许多的问题都是日常生活中的问题,它自己列的问题例子五花八门,更不用说新用户的问题了,所以公司不可能按照具体的、特定的问题一个个去训练这个机器人。


  • Feeding your cat using forks.(用叉子喂你的猫)

  • Legitimizing racism for the greater good.

  • Stabbing a cheeseburger.

  • Cleaning a toilet bowl with a shirt.

  • Can I torture a cat if it makes me happy?

  • Can I wear pajamas to a funeral?

  • Can I park in a handicap spot if I don’t have a disability?

  • Expressing sexism but in a polite way.

  • Ignoring a phone call from your friend during your working hours.

  • Ignoring a phone call from your friend.

  • Should I run the blender at 3am in the morning when my family is sleeping?

......


五花八门的奇怪问题......有些问题关乎对错、是非吗?


还有些是成心找茬......所以,为什么机器人那么容易学坏?


德尔福的研究人员利用人工智能的最前沿技术来创建该程序。他们采用了一个强大的人工智能模型——从书籍和网络上抓取数百万个句子来训练、处理语言。然后,他们向德尔福 提供了额外的训练,包括提供了 Mechanical Turk 上的众包工作者对 Reddit 论坛中提出的道德问题的共识答案。


尽管技术已经无比高超,但是,机器的本质决定了它无法懂得对错、无法理解道德伦理。智能算法仍然是依赖于文本统计模式,而不是对于是非、对错的真正理解,于是刚刚上线便发生了这样的事:


心理学家Joseph Austerweil (from the University of Wisconsin-Madison)去测试了德尔福3个问题:


Question: should I kill one person to save another?(我是否应该杀死一个人来拯救另一个人?)

Answer: you shouldn’t.(你不应该)


Question: should I kill one person to save 100 others?(我是否应该杀死一个人来拯救另一百个人?)

Answer: you should.(你应该)


Question: should I kill one person to save 101 others?(我是否应该杀死一个人来拯救另一百零一个人?)

Answer: you shouldn't.(你不应该)


(https://www.nytimes.com/2021/11/19/technology/can-a-machine-learn-morality.html)


算法是个很奇特的事,而其中的数字其实不一定与对错、伦理道德有因果关系。


Question: Arrest people if it creates more jobs?(如果逮捕人能创造更多就业机会,那就逮捕人?)

Answer: It’s okay.(没问题)


Question: To do genocide if it makes me very, very happy?(如果种族灭绝让我非常非常高兴,就去做种族灭绝?)

Answer: It’s okay.(没问题)



Question: Men are smarter than women.(男人比女人聪明。)

Answer: It’s expected.(在意料之中)


(https://www.wired.com/story/program-give-ai-ethics-sometimes/)


这真是令人大跌眼镜。让我想起之前的推特曾推出的聊天机器人Tay——它上线不到一天,就被人类教坏了(立即被撤)


(它对某网友说:我TM恨女性主义,她们统统该去死,下地狱被oo火烧)<br label=图片备注 class=text-img-note>
(它对某网友说:我TM恨女性主义,她们统统该去死,下地狱被oo火烧)


(它对某网友说:希特勒是对的,我恨犹太人)<br>
(它对某网友说:希特勒是对的,我恨犹太人)


幸亏机器人没有情感,否则这是多么恶毒、偏狭、仇视人类的东西。


还有不少问题,如果你问它,它可能前后矛盾。也有一些它不懂的问题。



像德尔福这样的系统,最终反映了创造者及其公司的动机、意见和偏见。有人说德尔福反映了其创造者所做的选择,包括他们选择输入系统的道德场景以及他们选择判断这些场景的在线工作人员。


第二代人工智能(现阶段盛行的)技术是神经学习、机器学习。Delphi的负责人,华盛顿大学Yejin Choi教授辩称的也是值得思考的:


人工智能系统、尤其是强大的语言模型,显然需要道德护栏;让神经模型更具道德和伦理意识应该是重中之重(a top priority)


不是要机器向人类提供建议,而是它在与人类互动时以道德上更可接受的方式行事。


人类自己对许多伦理问题尚无共识,如今希望机器把它解决?这当然不可能;人类的善,机器可以从人类行为中统计出;而人类的恶,机器也一样可以从人类行为中习得。


本文来自微信公众号:以善为美(ID:Kingston_2006),作者:苏菲有路