在“AI将消灭人类”的观点越来越流行之际,这篇长文代表了美国科创界的另一种声音:自由竞争的技术创新,将带来经济的增长与繁荣;技术带来的问题,可以用更好的技术来解决。
本文来自微信公众号:未尽研究 (ID:Weijin_Research),作者:马克·安德森(硅谷著名风险投资人),经未尽研究编译,题图来自:视觉中国
人工智能时代已经来临了,人们都吓坏了。
幸运的是,我在这里带来好消息:人工智能不会摧毁世界,事实上可能会拯救它。
首先,简单介绍一下什么是人工智能:将数学和软件代码用来教会计算机如何理解、综合和生成知识,类似于人类的方式。人工智能就像任何其他的计算机程序一样——运行、接受输入、处理并生成输出。人工智能的输出在许多领域都非常有用,包括编程、医学、法律和创意艺术。它是由人拥有并受人控制的,就像任何其他技术一样。
更简洁地说,人工智能不是那种会活过来的杀手软件和机器人,就像电影中所看到的那样,决定谋杀人类或以其他方式毁灭一切。
更进一步地说,人工智能可以是一种让我们关心的一切变得更好的方式。
为什么人工智能可以让我们关心的一切变得更好
社会科学经过数十年和成千上万个研究,所得出的最核心结论是,人类智力能够在生活的广泛领域中带来更好的结果。更聪明的人在几乎所有活动领域都有更好的结果:学业成就、工作表现、职业地位、收入、创造力、身体健康、寿命、学习新技能、处理复杂任务、领导力、创业成功、解决冲突、阅读理解、金融决策、理解他人的观点、创意艺术、育儿成果以及生活满意度。
此外,数千年来,人类用智力创造出今天的世界:科学、技术、数学、物理学、化学、医学、能源、建筑、交通、通信、艺术、音乐、文化、哲学、伦理学、道德。如果智力没有应用于所有这些领域,我们现在仍然会生活在土坯房中,终日耕种以果腹。我们利用智力,在过去的4000年里将我们的生活水平提高了大约一万倍。
人工智能给我们带来的机会是深刻增强人类智力,使智力的所有结果(以及许多其他结果,从创造新药物到解决气候变化到探索星际的技术)在上述的基础上变得更好得多。
人工智能对人类智力的增强已经开始了——人工智能已经以各种形式存在于我们周围,如各种计算机控制系统,现在通过ChatGPT等人工智能大型语言模型迅速升级,并将在此基础上迅速加速——如果我们允许的话。
在我们的人工智能新时代中:
每个孩子都将拥有一位无比耐心、无比关怀、无比博学、无比乐于助人的人工智能导师。人工智能导师将伴随着每个孩子发展的每一步,以机器式的无限之爱,帮助他们发挥出最大限度的潜能。
每个人都将拥有一位无比耐心、无比关怀、无比博学、无比乐于助人的人工智能助手/教练/导师/训练师/顾问/治疗师。人工智能助手将陪伴在每个人生活的各个机遇和挑战中,帮助每个人最大限度地收获成果。
每位科学家都将拥有一位人工智能助手/合作者/伙伴,大大扩展他们的科学研究的范围和取得更大的成就。每位艺术家、工程师、商人、医生、照料者都将在他们的领域中有同样的机会。
每位组织的领导者——CEO、政府官员、非营利组织主席、运动教练、教师——也将如此。领导者的智力增强可能是最重要的,因为更好决策所带来的放大效果对其领导的人群来说是巨大的。
整个经济的生产力增长将大大加速,推动经济增长、新产业的创建、新工作的创造和工资增长,并带来一个全球物质繁荣水平更高的新时代。
科学突破、新技术和药物的发现将大大扩展,因为人工智能帮助我们进一步解码自然法则,并物尽其用地应用于我们的福祉。
创意艺术将进入黄金时代,因为经过人工智能增强的艺术家、音乐家、作家和电影制片人能够比以往更快、规模更大地实现他们的创意。
我甚至认为当战争不可避免时,人工智能会通过大幅降低战时死亡率来减少战争的杀伤力。每一场战争,都以在巨大压力下、在非常有限的信息下由非常有限的人类领导者做出的可怕决策为特征。现在,军事指挥官和政治领导者将拥有人工智能顾问,能够帮助他们做出更好的战略和战术决策,从而最大程度地减少风险、错误和不必要的流血。
简而言之,今天人们用自己的自然智慧所做的任何事情,通过人工智能可以做得更好,而且我们将能够应对那些在没有人工智能的情况下无法解决的新挑战,从治愈所有疾病到实现星际旅行。
而这不仅仅是智能的问题!人工智能最被低估的特性也许是它能够使人更加人性化。人工智能艺术使那些缺乏技术手段的人们获得了自由,可以创造和分享他们的作品和创意。与富有共情能力的人工智能朋友交谈,确实能提高他们应对逆境的能力。而且人工智能医疗聊天机器人已经比人类同行更具关怀能力。与使世界变得更加冷酷和机械化不同,具有无限耐心和同情心的人工智能,将使世界变得更温暖、更美好。
利害关天,机遇深远。人工智能很可能是我们文明创造的最重要、最好的东西之一,与电力和微芯片相媲美,甚至可能超越它们。
人工智能的发展和普及——远非我们应该害怕的风险——是我们对自己、对我们的子孙和对我们的未来的一种道德责任。
我们应该在人工智能的帮助下生活在一个更美好的世界中,而现在我们可以做到。
那么,为什么会引发恐慌呢?
与上述积极的观点形成对比,当前关于人工智能的公众讨论,充斥着歇斯底里的恐惧和偏执。
我们听到的说法是,人工智能将以各种方式杀死我们所有人,毁掉我们的社会,夺走我们所有的工作,导致严重的不平等,并使坏人做出可怕的事情。
从近乎乌托邦到可怕的反乌托邦,是什么导致了潜在结果之间的这种背离呢?
历史上,每一项重要的新技术,从电灯到汽车、无线电到互联网,都引发了道德恐慌——一种社会传染,使人们相信新技术将毁灭世界,或者毁灭社会,或者两者都毁灭掉。《悲观主义者档案馆》的好心人们,在几十年间记录了这些技术驱动的道德恐慌;他们的记录让历史的俗套变得栩栩如生。事实证明,这次恐慌对于人工智能来说都不是第一次。
现在,当然有许多新技术导致了不良结果——这些技术在其他方面对我们的福祉产生了巨大的好处。因此,并不是说道德恐慌的存在意味着没有什么可担心的。
但是,道德恐慌本质上是非理性的——它将可能是一个合理的关切夸大成一种歇斯底里的程度,具有讽刺意味的是,这使得我们更难以面对实际上的严重问题。
目前我们对人工智能确实存在着一种全面的道德恐慌。
这种道德恐慌已经被各种行动者利用为推动力量,要求政策行动——对人工智能进行新的限制、规定和法律。这些行动者对人工智能的危险发表极端夸张的公开声明,滋养并进一步激化道德恐慌,他们都把自己呈现为无私的公众利益捍卫者。
但他们真的是吗?他们是对还是错?
人工智能的斗士与私酒贩子
经济学家观察到这类改革运动中的一种长期模式。这些运动中的行动者分为两类——“浸礼派”和“私酒贩子”——这是根据20世纪20年代美国禁酒令的历史例子而得出的:
“浸礼派”是真正的社会改革者,他们真诚地认为——不管是否理性——需要制定新的限制、规定和法律来防止社会灾难。对于禁酒令来说,这些行动者通常是虔诚的基督徒,他们认为酒精正在破坏社会的道德基础。对于人工智能风险来说,这些行动者是真正相信人工智能具备一种或多种存在性风险的人——如果你把他们绑到测谎仪上,他们也是真心相信的。
“私酒贩子”是自利的机会主义者,他们在新的限制、规定和法律的实施中能够获得经济利益,并使自己免受竞争对手的侵害。对于禁酒令来说,这些人是走私者,他们靠非法销售酒精赚取了巨额财富,因为合法的酒精销售被禁止了。对于人工智能风险来说,这些人是那些CEO们,如果建立起一系列由政府认可的人工智能供应商组成的垄断组织,免受新创企业和开源运动的竞争,那么他们将获得更多利润——这相当于软件版本的银行“大而不倒”。
玩世者(注:cynic,或译为愤世嫉俗者/犬儒主义者)会指出,一些所谓的浸礼派实际上也是私酒贩子——特指那些由大学、智库、活动组织和媒体机构支付薪水或获得资助来攻击人工智能的人。如果你的薪水或者获得的资助是为了制造人工智能恐慌……那么你可能是个私酒贩子。
私酒贩子的问题在于他们总是获胜。浸礼派是天真的意识形态者,而私酒贩子是玩世的操作者,因此这类改革运动的结果往往是私酒贩子得到了他们想要的——监管控制、免受竞争的保护、垄断组织的形成——而浸礼派则困惑地思考他们为社会改善的努力何以走错了路。
我们刚刚经历了一个惊天的例子——2008年全球金融危机后的银行改革。浸礼派告诉我们,我们需要新的法律和规定来拆分“大而不倒”的银行,以防止类似危机再次发生。因此,国会通过了2010年的多德-弗兰克法案,这被宣传为满足浸礼派目标的法案,实际上被大银行们所利用。结果是,2008年被认为“大而不倒”的银行现在规模更大了。
因此,实际上,即使浸礼派是真诚的——甚至浸礼派是正确的——他们也被善于操纵和贪婪的私酒贩子利用以谋取自己的利益。
而这正是现在推动人工智能监管的情况。
然而,仅仅识别行动者并对他们的动机进行指责是不够的。我们应该从事实出发,辨析浸礼派和私酒贩子的论点。
AI风险#1:人工智能会杀死我们所有人吗?
第一个也是最早的AI末日论风险,是人工智能将决定直接杀死人类。
对我们自己创造的技术会崛起并摧毁我们的恐惧,根植于我们的文化中。希腊人在普罗米修斯神话中表达了这种恐惧——普罗米修斯给人类带来了毁灭性的火焰力量,也可以说是一般意义上的技术(“技艺”),为此他被众神永远地折磨。
后来,玛丽·雪莱在她的小说《弗兰肯斯坦,或者现代普罗米修斯》中为我们现代人提供了我们自己的这个神话版本,我们开发了永生的技术,但它却崛起并寻求摧毁我们。当然,在AI恐慌的报纸报道中,几乎都会包含来自詹姆斯·卡梅隆的《终结者》电影中一个闪闪发光、有着红色眼睛的杀人机器人的图像。
这个神话学假定了进化目标,激发我们认真考虑新技术的潜在风险——毕竟,火焰确实可以用来焚烧整个城市。但正如火焰也是现代文明的基石,用来使我们在一个寒冷而敌意的世界中保持温暖和安全一样,这种神话学忽视了大多数新技术的更大好处,实际上激起了破坏性的情绪,而不是理性的分析。仅仅因为前现代的人们恐慌,并不意味着我们也必须如此恐慌;我们可以运用理性。
我认为,人工智能将决定直接杀死人类的观念,从根本上就是一个错误。人工智能不是一个通过数十亿年的进化而被预设为参与适者生存之战的生命存在,就像动物和我们一样。它是数学-代码-计算机,由人构建、人拥有、人使用、人控制。认为人工智能最终会拥有自己的意识,并决定有动机来试图杀死我们,是一种基于迷信的草率解释。
简而言之,人工智能没有欲望,没有目标,不想杀死你,因为它不是活的。人工智能是一台机器,它不会变得活过来,就像你的烤面包机一样。
现在,显然有一些对杀手级人工智能深信不疑的人——浸礼派教徒——他们因其可怕的警告而突然获得了大量媒体报道,其中一些人声称已经研究了这个课题几十年,并表示他们现在对所了解的事情感到非常害怕。
其中一些真正相信者甚至是技术的创新者。这些人主张对人工智能实施各种奇怪和极端的限制,从禁止人工智能的发展,一直到对数据中心进行军事空袭和核战争。他们认为,因为像我这样的人无法排除人工智能未来可能带来的灾难性后果,我们必须采取一种预防性措施,可能必要时要诉诸暴力和死亡,以防止潜在的生存风险。
我的回应是,他们的立场是非科学的——有哪些假设是可验证的?什么会证伪这个假设?我们如何知道何时进入危险区域?除了“你不能证明它不会发生!”之外,这些问题基本上没有得到回答。事实上,这些浸礼派的立场是如此非科学和极端——关于数学和代码的一个阴谋论——并且已经呼吁使用实际暴力,我将做一件通常不会做的事情,并质疑他们的动机。
具体来说,我认为有三件事正在发生:
首先,回想一下约翰·冯·诺伊曼是如何回应罗伯特·奥本海默对自己参与制造核武器的忧虑的——这些核武器帮助结束了第二次世界大战并防止了第三次世界大战——他说:“有些人承认罪恶是为了罪行带来的认可。”为不显得过于自夸,还有什么更好的表演能用来声称自己的功劳和其工作的重要性?这解释了那些浸礼派成员的言行不一,实际上他们正在建造和资助人工智能——观其行,而不是听其言。(杜鲁门总统在与奥本海默会面后更加严厉:“不要再让那个哭哭啼啼的人进来了。”)
第二,一些浸礼派成员实际上是走私者。有这么一整套班子,“人工智能安全专家”“人工智能伦理学家”“人工智能风险研究员”,他们为了挣钱而成为末日论者,应该当心他们的声明。
第三,加利福尼亚州因我们众多的邪教而闻名,从EST到人民圣殿教,从天堂之门到曼森家族。其中许多,尽管不是全部,邪教是无害的,甚至可能帮助那些疏离人员在其中找到家的感觉。但某些邪教组织很难保持界限,最终可能导致暴力和死亡。
而对于旧金山湾区的每个人来说显而易见、但可能在外界不为人知的事实是,“人工智能风险”已经演变成了一个邪教,它突然出现在全球媒体关注和公众对话的光芒之中。这个邪教不仅吸引了一些边缘人物,还吸引了一些真正的行业专家和不少富有的捐赠者——包括直到最近的山姆·班克曼-弗里德。它发展出了一整套邪教行为和信仰。
这个邪教就是为什么有一群听起来如此极端的人工智能风险末日论者——并不是因为他们实际上拥有秘密知识,使他们的极端主义合乎逻辑,而是因为他们把自己激动到了极点,而且真的是……极端至极。
事实证明,这种类型的邪教并不新鲜——在西方有着悠久的末世主义传统,这导致了末日邪教。人工智能风险邪教具备末日邪教的所有特征。引用维基百科,我再加上一些内容:
“末世主义是一个群体或一个运动(人工智能风险末日论者)相信社会即将发生根本性转变(人工智能的到来),之后一切都将改变(人工智能乌托邦、反乌托邦或世界末日)。只有重大事件(对人工智能实施禁令,对数据中心进行军事空袭,对无监管人工智能进行核打击)被视为能够改变世界(防止人工智能),而这种变革被预计将由一群虔诚和专注的人带来或者幸存下来。
在大多数末世主义情景中,即将到来的灾难或战斗(人工智能的世界末日或预防)之后将会是一个新的、纯净的世界(人工智能禁令),在这个世界中信徒们将会受到奖励(或至少被认定一直是正确的)。”
这种末日邪教模式是如此明显,以至于我对没有更多人看到它感到惊讶。
别误会我的意思,邪教听起来很有趣,他们的书面材料通常很有创意和吸引力,他们的成员在晚宴和电视上很有吸引力。但他们的极端信仰不应决定法律和社会的未来——显然不应该。
人工智能风险#2:人工智能会毁灭我们的社会吗?
第二个被广泛讨论的人工智能风险是,人工智能会毁灭我们的社会,通过产生的输出将会对人类造成深远的伤害,即使我们并非被直接杀害,在这种末日论者的声称中,也会造成“巨大的伤害”。
简而言之:如果杀人机器人没有消灭我们,仇恨言论和错误信息就会。
这是一个相对较新的末日论者的担忧,从我上面描述的“人工智能风险”运动中分化出来,并在一定程度上取代了它。事实上,人工智能风险的术语最近从“人工智能安全”——那些担心人工智能会直接杀害我们的人所使用的术语——变为“人工智能对齐”——那些担心社会“伤害”的人所使用的术语。
原来的人工智能安全人士对这种转变感到沮丧,尽管他们不知道如何重新收回来——他们现在主张将实际的人工智能风险主题改名为“不让每个人都被杀死的人工智能主义”(AI notkilleveryoneism),虽然这个提议尚未得到广泛接受,但至少是明确的。
声称的人工智能社会风险,所用的术语暗示了它的本质,“人工智能对齐”。对齐于什么?人类价值观。哪些人类价值观?啊,这就是问题的棘手之处。
恰好,我亲眼目睹了一个类似的情况——社交媒体的“信任与安全”战争。如今显而易见,社交媒体服务长期以来一直承受着政府和活动家的巨大压力,要求禁止、限制、审查和压制各种内容。而对于“仇恨言论”(及其数学对应物“算法偏见”)和“错误信息”的关注,直接从社交媒体背景被转移到了“人工智能对齐”的新领域。
我从社交媒体战争中学到的重要观点是:
一方面,没有绝对的言论自由立场。首先,每个国家,包括美国在内,都会将至少一些内容视为非法。其次,有一些内容,比如儿童色情和煽动现实世界暴力,几乎被所有社会普遍认为是不可接受的——无论是否合法。因此,任何促进或生成内容(言论)的技术平台都会有一定的限制。
另一方面,(言论自由)逐步下滑不是谬误,而是不可避免的。一旦建立了对即使极其糟糕的内容进行限制的框架,比如对仇恨言论、特定的伤害性词语,或对错误信息、明显虚假的声明(比如“教皇已经去世”)的限制,各种政府机构、活动家压力团体和非政府实体将纷纷行动起来,要求对任何他们认为对社会和/或个人偏好构成威胁的言论进行越来越大范围的审查和压制,甚至以公然犯罪的方式进行。
这一循环在实践中似乎可以永无止境地运行下去,并得到了我们精英权力结构中到处部署的极权监督员的热烈支持。这种情况在社交媒体上已经持续了十年,除了某些例外情况外,这种情况仍在不断加剧。
由于“信任与安全”和“人工智能对齐”的支持者抱团为全球人口中非常狭窄的一列,是典型的美国沿海精英,其中包括许多在科技行业工作和撰写相关文章的人,我的许多读者可能会准备主张需要对人工智能输出进行大幅限制,以避免破坏社会。我现在不会试图说服你们改变这个观点,我只是简单地陈述这是需求的本质,大多数世界上的人们既不同意你们的意识形态,也不希望看到你们获胜。
对人工智能被允许说/生成什么进行争论,将比对社交媒体审查的争论更加重要。人工智能极有可能成为世界上一切事物的控制层。它被允许如何运作将可能比任何其他事情都更重要。你应该意识到,一个孤立的党派社会工程师小圈子正试图在这个领域决定目前的局面,而他们用陈词滥调声称自己是在保护你们。
AI风险#3:人工智能会夺走我们所有的工作吗?
对由于机械化、自动化、计算机化或人工智能而失去工作的担忧,自从机械织布机等机械设备首次出现以来,已经是数百年来一直存在的恐慌。尽管历史上每一项新的重大技术都导致了更多的工作机会和更高的工资,但每一波这种恐慌都伴随着“这一次不同”的说法——这一次终于会发生,这一次的技术将最终给人类劳动力以致命一击。然而,这从未发生过。
在最近的过去,我们经历了两个这样的技术驱动的失业恐慌周期——2000年代的外包恐慌和2010年代的自动化恐慌。尽管在这两个十年中,许多意见领袖、专家大咖甚至技术行业高管们一再强调大规模失业即将来临,但到2019年底——即COVID爆发前——世界上的就业岗位和工资水平创历史新高。
然而,这个错误的观念却不会消失。
果不其然,这种观念又回来了。
这一次,我们终于拥有了将夺走所有工作并使人类工人变得多余的技术——真正的人工智能。这一次历史不会重演,人工智能将导致大规模失业,而不是迅速的经济增长、就业增长和工资增长,对吗?
不,不会发生这种情况——事实上,如果允许人工智能在整个经济中得以发展和普及,它可能会引发有史以来最显著和持续的经济繁荣,伴随着创纪录的就业和工资增长——与担忧恰恰相反。原因如下:
自动化会杀死工作的末日论者们一直犯的核心错误是“劳动总量谬误”(Lump Of Labor Fallacy)。这种谬误是错误地认为经济中在任何特定时间都存在一定数量的劳动力,要么由机器完成,要么由人类完成——如果由机器完成,就没有工作可供人们做了。
劳动总量谬误从直觉上是合理的,但直觉在这里是错误的。当技术应用于生产时,我们实现了生产力增长——通过减少投入来增加产出。结果是商品和服务的价格降低。随着商品和服务的价格下降,我们为它们支付的费用减少,这意味着我们现在有了额外的消费能力,可以用来购买其他物品。
这增加了经济中的需求,推动了新的生产活动——包括新产品和新产业——从而为之前被机器取代的人们创造了新的工作岗位。结果是一个更大的经济体,更高的物质繁荣,更多的产业,更多的产品和更多的就业机会。
但好消息并不止于此。我们还会获得更高的工资。这是因为在个体工人的层面上,市场根据工人的边际生产力来确定报酬。与传统企业相比,科技融入的企业中的员工将更加高效。雇主要么会支付更高的薪水给这位因为更高效而表现出色的工人,要么其他雇主会出于纯粹的自利而支付更高的薪水。结果是,技术在一个行业中的引入,通常不仅增加了该行业的就业岗位数量,还提高了工资水平。
总结起来,技术使人们能够提高生产效率。这导致现有商品和服务的价格下降,工资上涨。这反过来推动了经济增长和就业增长,并激励创造新的就业和新的产业。如果市场经济能够正常运行,技术能够自由引入,这将是一个永无止境的上升循环。正如弗里德曼所观察到的,“人类的欲望和需求是无穷无尽的”——我们总是想要比我们拥有的更多。科技融入的市场经济,使我们接近实现每个人可能想要的一切,但永远无法完全实现。这就是为什么技术不会摧毁工作岗位,也永远不会。
对于那些从未接触过这些观点的人来说,这些想法可能令人震惊,你可能需要一些时间来理解它们。但我发誓我没有编造它们——事实上,你可以在标准经济学教科书中阅读到相关内容。我推荐读一下亨利·哈兹里特(Henry Hazlitt)的《经济学一课》中的“机器的诅咒”一章,以及弗雷德里克·巴斯夏(Frederic Bastiat)的《烛光工人的请愿书》,其中讽刺性地描述了他们提出了封杀太阳的请求,因为这对照明行业不公平,可以为我们这个时代改编一下。
但你现在可能会想,“这一次不同。这一次,有了人工智能,我们拥有可以取代所有人类劳动力的技术。”
但是,根据我上面所描述的原理,想象一下如果真的所有现有的人类劳动力都被机器取代会意味着什么。
这意味着经济生产力增长的起飞速度将是绝对惊人的,远远超过任何历史先例。现有商品和服务的价格将全面降至几乎为零。消费者福利将飙升。消费者的购买力将大幅提升。经济中的新需求将激增。企业家将创建令人眼花缭乱的新产业、新产品和新服务,并尽可能快地雇佣尽可能多的人工智能和员工来满足所有的新需求。
假设人工智能再次取代了这些劳动力?这个循环将重复,推动消费者福利、经济增长以及工作岗位和工资增长达到更高水平。这将是直线上升的螺旋,达到了亚当·斯密和卡尔·马克思从未敢想象的物质乌托邦。
我们应该感到幸运。
AI风险#4:人工智能会导致破坏性的不公平吗?
对于AI夺取工作的担忧直接引出了下一个所声称的AI风险,那就是,好吧,假设AI确实夺走了所有的工作,不管是出于好还是出于坏。那么,作为一种结果,难道这不会导致巨大而且无法克服的财富不平等吗?AI的所有者将获得所有的经济回报,而普通人一无所获?
这个理论的缺陷在于,作为一种技术的所有者,将其私藏并不符合自己的利益,事实上恰恰相反,你应该将其卖给尽可能多的客户。世界上最大的市场是全世界,80亿人口。因此,事实上,每一项新技术——即使起初只销售给高薪大公司或富有的消费者——都会迅速扩散,直至落入尽可能大的大众市场的手中,最终覆盖全球的每一个人。
其中的经典例子就是埃隆·马斯克在2006年为特斯拉制定的所谓“秘密计划”——他自然而然地公开发布了这个计划:
第一步,建造(昂贵的)跑车;
第二步,用那些钱建造一辆经济实惠的车;
第三步,用那些钱建造一辆更加经济实惠的车。
……
这正是他所做的,结果成为了世界上最富有的人。
最后一点至关重要。如果埃隆今天只向富人销售汽车,他会更富有吗?不会。如果他只为自己制造汽车,他会比现在更富有吗?当然不会。不,他通过向尽可能庞大的市场——全世界——销售汽车来最大化自己的利润。
简而言之,每个人都能得到这个东西——正如我们在过去所见,不仅包括汽车、电力、无线电、计算机、互联网、手机和搜索引擎。这些技术的制造商极其积极地降低价格,直至全球所有人都能够负担得起。这正是AI领域已经发生的情况——这就是为什么你今天可以以低廉甚至免费的价格使用最先进的生成型AI,例如微软的必应和谷歌的Bard——而且这种情况将继续发生。这并不是因为这些供应商愚蠢或慷慨,而是因为他们贪婪——他们希望最大化市场规模,以最大化他们的利润。
因此,发生的情况与技术推动财富集中化的理论相反——技术的最终用户,包括全球所有人,将获得权力,并获得大部分创造的价值。与以往的技术一样,打造AI的公司——假设它们必须在自由市场中运作——将竞相努力实现这一目标。
这并不是说不平等不是我们社会面临的问题。它是问题,只是它不是由技术驱动的,而是相反的情况,由于经济中那些最不愿采用新技术的部门,以及最多的政府干预,导致了不平等的加剧,特别是住房、教育和医疗保健领域。AI和不平等的实际风险不在于AI会导致更多的不平等,而是我们不允许使用AI来减少不平等。
AI风险#5:AI会让坏人做坏事吗?
到目前为止,我已经解释了为什么五个最常提出的AI风险中有四个实际上并不存在——AI不会活过来杀死我们,AI不会毁坏我们的社会,AI不会导致大规模失业,AI不会引发破坏性的不平等增加。但现在让我们来讨论第五个,这也是我实际上同意的一个观点:AI会让坏人更容易做坏事。
从某种意义上说,这是一个必然论。技术是一种工具。从火和石头开始,工具可以用来做好事——烹饪食物和建造房屋——也可以用来做坏事——烧伤人和击打人。任何技术都可以用于善良或邪恶。没错。AI将使罪犯、恐怖分子和敌对政府更容易做坏事,这是毫无疑问的。
这导致一些人提出,好吧,既然如此,让我们在这种事情发生之前禁止AI,以免冒险。不幸的是,AI不是一种难以获取的神秘物质,如钚。恰恰相反,它是世界上最容易获取的材料——数学和代码。
AI的猫显然已经跑出了袋子。你可以通过成千上万个免费的在线课程、书籍、论文和视频学习如何构建AI,并且每天都有优秀的开源实现不断涌现。AI就像空气——它将无处不在。要抑制它所需的极端权力压迫水平将如此严厉——一个监视和控制所有计算机的世界政府?穿着靴子的黑衣直升机中的武装人员抢走了独立的GPU?——以至于我们将不再拥有一个需要保护的社会。
因此,我们有两种非常简单的方法来应对坏人利用AI做坏事的风险,而这正是我们应该关注的。
首先,我们已经有法律来将大多数人可能利用AI做坏事的行为定为犯罪。侵入五角大楼的计算机?那是犯罪。从银行盗窃钱财?那是犯罪。制造生物武器?那是犯罪。实施恐怖行动?那是犯罪。我们只需专注于在我们可以的时候防止这些犯罪行为,无法阻止时进行起诉。我们甚至不需要新的法律——我不知道是否有哪个已经发现实际作恶的AI用途没有被宣布为非法。如果发现了新的作恶的用途,我们就禁止该用途。证毕。
但你会注意到我在其中提到了一件事——我说我们应该首先专注于在坏事发生之前预防AI协助犯罪——那样的预防意味着禁止AI吗?嗯,还有另一种方法可以防止这样的行为,那就是将AI作为一种防御工具。在作恶的坏人手中,AI是危险的;同样,在行善的好人手中,AI会成为强有力的工具——特别是那些工作是防止坏事发生的好人。
例如,如果你担心AI生成虚假人物和虚假视频,答案是建立新的系统,人们可以通过加密签名验证自己和真实内容。用数字技术创造和改变内容,其真实性和虚假性在AI之前就已经存在;答案不是禁止文字处理软件和Photoshop——或者AI——而是利用技术构建一个真正解决问题的系统。
因此,其次,让我们大力倡导将AI用于善良、合法、防御性的目的。让我们将AI用于网络防御、生物防御、追踪恐怖分子,以及我们为了保护自己、社区和国家所做的一切其他事情。
当然,政府内外已经有许多聪明人正在做这样的工作——但如果我们将当前专注于禁止AI的徒劳努力和智慧力量应用于使用AI来防止坏人做坏事,我相信充满AI的世界将比我们今天生活的世界更加安全。
采取什么行动
我提出一个简单的计划:
AI大厂应该被允许尽快、积极地构建AI,但不应该获得监管控制;不应该建立一个垄断集团,它打着错误的AI风险旗号、与市场竞争隔离并受到政府保护;这些大厂是当代资本主义的瑰宝,应该最大程度地发挥这些大厂的惊人能力,获取技术和社会的回报。
初创AI公司应该被允许尽快、积极地构建AI。它们既不应面对大公司获得的政府保护,也不应获得政府援助。它们应该被允许自由竞争。如果初创公司不成功,它们在市场上的存在也会持续激励大公司发挥最佳水平——我们的经济和社会无论如何都是赢家。
开源AI应该被允许自由传播和与大型AI公司和初创公司竞争。对开源软件不应设定任何监管障碍。即使开源软件没有战胜那些公司,对于那些学习掌握AI技术的人们来说也是好事。开源AI广泛的可用性有利于全世界各地的人们学习构建和使用AI,参与其中才能确保未来从AI中受益,而无论他们是谁或者他们有多少钱。
为了抵消坏人利用AI做坏事的风险,政府与私营部门合作,应该积极参与到每个潜在风险领域,利用AI来最大限度地提高社会的防御能力。这不应仅限于AI风险,还应包括更一般的问题,如营养不良、疾病和气候问题。AI可以是解决问题的一种极为强大的工具,我们应该充分利用它。
这就是我们如何利用AI拯救世界。
现在是建设的时候了。
原文链接:https://a16z.com/2023/06/06/ai-will-save-the-world/
本文来自微信公众号:未尽研究 (ID:Weijin_Research),作者:马克·安德森,经未尽研究编译