本文来自微信公众号:Tech商业(ID:InnoBusiness),作者:Marc Andreessen,编译:Rea,原文标题:《知名风投人安德森最新万字长文:人工智能不会毁灭世界,实际上可能会拯救世界》,头图来自:视觉中国
知名风险投资家马克·安德森(Marc Andreessen)以“软件正在吞噬世界(software is eating the world)”而闻名。在谈到人工智能时,他声称人们应该停止担心并持续创造。
周二,安德森发表了一篇万字长文,阐述了他对人工智能的看法、它带来的风险以及他认为AI需要的监管。在试图抵消最近所有关于“AI 末日论”的讨论时,他提出了一种可以被视为过于理想主义的观点:“AI不想杀你(AI doesn’t want to kill you)”。
安德森从对 AI 或机器学习的理解开始,称其为“应用数学和软件代码来教计算机如何以类似于人类的方式理解、综合和生成知识”。
他说,人工智能是没有感知力的——尽管它模仿人类语言的能力可以理解、愚弄一些人。事实是,它接受了人类语言的训练,并在人类语言数据中找到高级模式。
“人工智能不想,它没有目标,它不想杀死你,因为它没有生命,”他写道。“人工智能是一台机器——不会比你的烤面包机更有生命力。”
安德森写道,目前在 AI 世界中有一堵“散布恐惧和末日论的墙”。在没有点名的情况下,他可能指的是知名技术领导者声称该技术对人类构成生存威胁的说法。上周,微软创始人比尔·盖茨、OpenAI 首席执行官萨姆·奥特曼(Sam Altman)、DeepMind 首席执行官戴米斯·哈萨比斯(Demis Hassabis)等人签署了一封来自人工智能安全中心的关于“人工智能灭绝的风险(the risk of extinction from AI)”的信。
安德森写道,科技公司的首席执行官们有动力宣扬这种世界末日的观点,因为“如果建立监管壁垒,AI 供应商范围就会受政府保护 ,免受新创业公司和开源竞争的影响,他们就会赚更多的钱。”
许多人工智能研究人员和伦理学家也批评了世界末日的说法。一种观点认为,过分关注人工智能不断增长的力量及其未来威胁,会分散人们对现实生活中一些算法对边缘化社区造成危害的注意力。
安德森写道,担任 AI 安全专家、AI 伦理学家和 AI 风险研究人员等角色的人“被付钱的监督是注定要失败的,他们的陈述应该得到适当的处理,”他写道。实际上,人工智能研究、伦理、信任和安全社区的许多领导者都明确反对末日议程,而是专注于减轻当今记录在案的技术风险。
安德森并没有否认任何记录在案的人工智能在现实生活中的风险——它的偏见会影响面部识别系统、保释决定、刑事司法程序、抵押贷款批准算法等等——声称人工智能可能是“一种让我们关心的一切变得更好的方法”。
他认为,人工智能在生产力、科学突破、创意艺术和降低战时死亡率方面具有巨大潜力。
“今天人们用他们的自然智能/智力做的任何事情,都可以用人工智能做得更好,”他写道。“而且我们将能够应对没有人工智能就无法应对的新挑战,从治愈所有疾病到实现星际旅行。”
安德森在 1990 年代因开发第一个流行的互联网浏览器而声名鹊起,他于 2009 年与本·霍洛维茨(Ben Horowitz)一起创办了他的风险投资公司。两年后,他写了一篇经常被引用的博客文章,题为“为什么软件正在吞噬世界”,其中说就像之前的许多行业一样,医疗保健和教育应该进行“基于软件的基本转型”。
“吞噬世界”(Eating the world)正是许多人在谈到 AI 时所害怕的。安德森说,除了试图消除这些担忧之外,还有很多工作要做。他鼓励有争议地使用 AI 本身,来保护人们免受 AI 偏见和伤害。
他说:“与私营部门合作的政府应大力参与每个潜在风险领域,以利用人工智能最大限度地提高社会的防御能力。” 在安德森自己的理想主义未来中,“每个孩子都会有一位无限耐心、无限慈悲、无限智慧、无限助人的 AI 导师。” 对于人工智能作为每个人、科学家、教师、首席执行官、政府领导人甚至军事指挥官的合作伙伴和合作者的角色,他表达了类似的愿景。
在安德森的整篇文章中,他指出了其他人在公开表达他们对 AI 的看法时的别有用心。但他也有自己的别有用心。他想在 AI 革命中赚钱,并以此为目标投资初创公司。
“我不相信他们是鲁莽的或恶棍,”他在帖子中总结道。“他们都是英雄,每一个人。我和我的公司很高兴能尽可能多地支持他们,我们将 100% 支持他们和他们的工作。”
以下是安德森《为什么人工智能会拯救世界》(Why AI Will Save The World) 一文,编译分享给大家:
人工智能时代来了,人们都吓坏了。
幸运的是,我来这里是为了带来好消息:人工智能不会毁灭世界,实际上可能会拯救世界。
首先,简要说明AI是什么:应用数学和软件代码来教计算机如何以类似于人类的方式理解、综合和生成知识的技术。AI 是一种与其他任何计算机程序一样的计算机程序——它运行、接受输入、处理并生成输出。人工智能的输出在广泛的领域都很有用,从编程到医学到法律再到创意艺术。与任何其他技术一样,它由人拥有并由人控制。
对 AI不是什么的简短描述是:它不是杀手软件,不是会突然复活并决定谋杀人类或以其他方式毁掉一切的机器人,就像你在电影中看到的那样。
对 AI可能是什么的更简短的描述是:它是一种让我们关心的一切变得更好的方法。
为什么人工智能可以让我们关心的一切变得更好
经过几十年和数千项研究,社会科学最有效的核心结论是,人类智力(human intelligence)可以广泛地改善生活。更聪明的人几乎在每个活动领域都有更好的结果:学业成绩、工作表现、职业地位、收入、创造力、身体健康、长寿、学习新技能、管理复杂任务、领导力、创业成功、冲突解决、阅读理解、财务决策制定、理解他人的观点、创造性艺术、育儿成果和生活满意度。
此外,人类智力是我们几千年来用来创造我们今天生活的世界的杠杆:科学、技术、数学、物理、化学、医学、能源、建筑、交通、通信、艺术、音乐、文化、哲学、道德。如果没有在所有这些领域应用智力,我们都将仍然住在泥屋里,以农业的微薄收获勉强维持生计。相反,在过去的 4000 年里,我们利用人类智慧将我们的生活水平提高了 10000 倍。
AI 为我们提供的是深刻地增强人类智力的机会,使所有这些智力成果——以及许多其他成果,从新药的创造到解决气候变化的方法,再到星际旅行的技术——变得更好。
AI 对人类智能的增强已经开始——AI 已经以多种计算机控制系统的形式存在于我们身边,现在正通过 ChatGPT 等 AI 大型语言模型迅速升级,并且从现在开始加速——如果我们允许的话。
在我们的人工智能新时代:
每个孩子都会有一位无限耐心、无限慈悲、无限智慧、无限助人的AI导师。AI导师将陪伴在每个孩子成长的每一步,用无限爱的机器版帮助他们发挥最大潜能。
每个人都会有一位无限耐心、无限慈悲、无限智慧和无限助人的 AI 助手/教练/导师/培训师/顾问/治疗师。人工智能助手将在生活中的所有机遇和挑战中出现,最大限度地提高每个人的成果。
每个科学家都会有一个 AI 助手/合作者/伙伴,这将极大地扩展他们的科学研究和成果范围。每个艺术家、每个工程师、每个商人、每个医生、每个护理人员都会在他们的世界中拥有相同的东西。
每个人的领导者——首席执行官、政府官员、非营利组织主席、体育教练、教师——都会有同样的东西。领导者作出的更好决策对他们所领导的人的放大效应是巨大的,因此这种智力增强可能是最重要的。
整个经济体的生产率增长将急剧加快,推动经济增长、新产业的创造、新就业机会的创造和工资增长,并导致全球物质繁荣的新时代到来。
随着人工智能帮助我们进一步破译自然法则并为我们谋取利益,科学突破以及新技术和药物将显著增加。
创意艺术将进入黄金时代,因为人工智能增强的艺术家、音乐家、作家和电影制作人将能够比以往任何时候更快、更大规模地实现他们的愿景。
我甚至认为人工智能将在必要时通过大幅降低战时死亡率来改善战争。每一场战争的特点都是在巨大的压力下做出可怕的决定,并且由非常有限的人类领导人提供极其有限的信息。现在,军事指挥官和政治领导人将拥有人工智能顾问,帮助他们做出更好的战略和战术决策,最大限度地减少风险、错误和不必要的流血事件。
简而言之,当今人们利用其自然智能所做的任何事情都可以通过 AI 做得更好,我们将能够应对如果没有 AI 就无法应对的新挑战,从治愈所有疾病到实现星际旅行。
这不仅仅是关于智力!也许人工智能最被低估的品质是它的人性化程度。人工智能艺术让缺乏技术技能的人可以自由地创造和分享他们的艺术想法。与善解人意的 AI 朋友交谈确实可以提高他们处理逆境的能力。人工智能医疗聊天机器人已经比人类同行更具同理心。无限耐心和富有同情心的人工智能不会让世界变得更加严酷和机械化,而是会让世界变得更加温暖和美好。
这里的风险很高。机遇是深远的。人工智能很可能是我们文明所创造的最重要——也是最好的——东西,当然可以与电力和微芯片相提并论,甚至可能超越它们。
人工智能的发展和扩散——远非我们应该担心的风险——是我们对自己、对我们的孩子和对我们的未来所承担的道德义务。
有了人工智能,我们应该生活在一个更美好的世界中,现在我们可以做到。
那么为什么恐慌?
与这种积极观点形成鲜明对比的是,目前关于 AI 的公众讨论里充斥着歇斯底里的恐惧和偏执。
我们听到这样的说法:人工智能会以各种方式杀死我们所有人,毁掉我们的社会,夺走我们所有的工作,造成严重的不平等,并让坏人做出可怕的事情。
如何解释这种从近乎乌托邦到可怕的反乌托邦的潜在结果的差异?
从历史上看,每一项重要的新技术,从电灯到汽车到收音机再到互联网,都引发了一种让人们相信新技术将摧毁世界、社会的影响。几十年来,悲观主义者档案馆的优秀人士记录了这些技术驱动的道德恐慌;他们的历史使这种模式生动清晰。事实证明,目前的恐慌甚至不是 AI 的第一次。
现在,可以肯定的是,许多新技术导致了糟糕的结果——通常是同样的技术在其他方面对我们的福祉产生了巨大的好处。因此,仅仅存在道德恐慌并不意味着没有什么可担心的。
但道德恐慌本质上是非理性的——它把可能是合理的担忧夸大到歇斯底里的程度,具有讽刺意味的是,这使得人们更难面对真正严重的担忧。
我们现在对人工智能有全面的道德恐慌吗?
这种道德恐慌已经被各种参与者用作动力,要求采取政策行动——新的 AI 限制、法规和法律。这些行动者就人工智能的危险发表了极其戏剧化的公开声明——助长并进一步煽动道德恐慌——所有这些人都把自己表现为公共利益的无私捍卫者。
但他们是吗?
他们是对还是错?
人工智能的浸信会和走私者
经济学家观察到这种改革运动的长期模式。这些运动中的参与者分为两类——“浸信会”和“走私者”——借鉴了1920 年代美国禁酒的历史例子:
“浸信会”是真正的信徒社会改革者,他们合理地——深刻地和情绪化地,而不是理性地——认为需要新的限制、法规和法律来防止社会灾难。
对于禁酒令,这些行动者通常是真正虔诚的基督徒,他们认为酒精正在破坏社会的道德结构。
对于 AI 风险,这些参与者真正相信 AI 会带来一种存在风险——将他们绑在测谎仪上,他们是认真的。
“走私者”是自私自利的机会主义者,他们通过实施新的限制、法规和法律将他们与竞争对手隔离开来,从而在经济上获利。
对于禁酒,这些人是字面上的私酒贩子,他们在禁止合法销售酒类时向美国人出售非法酒类发了财。
对于 AI 风险,如果建立监管壁垒,这些 CEO 将赚更多的钱,这些壁垒形成了一个由政府支持的 AI 供应商组成的卡特尔,保护它们免受新创业公司和开源竞争的影响——“大而不倒”银行的软件版本。
愤世嫉俗的人会认为,一些明显的浸信会教徒也是走私者——特别是那些被他们的大学、智囊团、活动家团体和媒体机构付钱攻击 AI 的人。如果你拿薪水或接受助学金来助长 AI 恐慌……你可能是走私者。
走私者的问题在于他们会赢得他们想要的。浸信会是天真的空想家,走私者是愤世嫉俗的经营者,所以像这样的改革运动的结果往往是走私者得到他们想要的东西——监管俘获、竞争隔离、卡特尔的形成——而浸信会则疑惑他们推动社会进步的动力在哪里出错了。
我们刚刚经历了一个令人震惊的例子——2008 年全球金融危机后的银行业改革。浸信会告诉我们,我们需要新的法律法规来拆分“大到不能倒”的银行,以防止此类危机再次发生。因此,(美)国会通过了 2010 年的多德-弗兰克法案,该法案标榜为满足浸信会的目标,但实际上却被走私者——大银行所采用。结果是,2008 年“大到不能倒”的银行现在规模大得多。
所以在实践中,即使浸信会是真诚的——即使浸信会是正确的——他们也被操纵和贪污的私酒贩子用作掩护,以使自己受益。
这就是目前在推动 AI 监管方面正在发生的事情。
然而,仅仅确定行动者身份并质疑他们的动机是不够的。我们应该考虑浸信会和走私者的论点。
AI 风险 #1:AI 会杀死我们所有人吗?
第一个也是最初的 AI 末日风险是 AI 将决定真正杀死人类。
对我们自己创造的技术会兴起并摧毁我们的恐惧深深地融入了我们的文化中。希腊人在普罗米修斯神话中表达了这种恐惧——普罗米修斯给人类带来了火的破坏力,更普遍的是技术(“techne”),为此普罗米修斯被众神判处永久折磨。 后来,玛丽·雪莱在她的小说《弗兰肯斯坦》或《现代普罗米修斯》 中为我们现代人提供了这个神话的另一个版本,我们在其中开发永生技术,然后崛起并试图摧毁我们。当然,如果没有詹姆斯·卡梅隆的终结者电影中闪闪发光的红眼杀人机器人的静止图像,任何关于 AI 恐慌的报纸报道都是不完整的。
这个神话的假定进化目的是激励我们认真考虑新技术的潜在风险——毕竟,火确实可以用来烧毁整个城市。但正如火也是现代文明的基础,在寒冷和充满敌意的世界中让我们保持温暖和安全一样,这个神话忽略了大多数(全部?)新技术,在实践中激起了破坏性的情绪,而不是理性的分析。仅仅因为前现代人像这样吓坏了并不意味着我们必须这样做;我们可以更加理性。
我的观点是,人工智能将决定真正杀死人类的想法是一个严重的分类错误。人工智能不是经过数十亿年的进化而准备参与适者生存之战的生物——就像动物和我们一样。它是数学—代码—计算机,由人建造,由人拥有,由人使用,由人控制。它会在某个时候发展出自己的思想并决定它有导致自己试图杀死人类的动机是一种迷信。
简而言之,AI 不想,它没有目标,它不想杀死人类,因为它没有生命。人工智能是一台机器——不会比你的烤面包机更有生命力。
现在,很明显,人工智能会毁灭人类的真正信徒——浸信会——他们的可怕警告突然获得了大量的媒体报道,其中一些人声称已经研究这个话题几十年了。其中一些真正的信徒甚至是该技术的实际创新者。这些参与者主张对 AI 实施各种奇怪和极端的限制,从禁止 AI 开发,一直到对数据中心进行军事空袭和核战争。他们争辩说,因为像我这样的人不能排除人工智能未来的灾难性后果,我们必须采取预防措施防止潜在的生存风险,甚至可能需要大量的身体暴力和死亡。
我的回答是他们的立场是非科学的——什么是可检验的假设?什么会证伪这个假设?我们怎么知道我们何时进入危险区域?除了“你无法证明它不会发生!”之外,这些问题基本上没有答案。事实上,这些浸信会的立场是如此不科学和极端——一个关于数学和代码的阴谋论——并且已经在呼吁身体暴力,以至于我会做一些我通常不会做的事情,并质疑他们的动机。
具体来说,我认为有以下三点:
首先,回想一下约翰·冯·诺伊曼回应罗伯特·奥本海默著名的关于他在制造核武器方面的作用——这有助于结束第二次世界大战并防止第三次世界大战——的回应是,“有些人承认有罪以声称自己的罪过。” 一个人可以在不显得过于自负的情况下宣称自己工作的重要性是最引人注目的方式是什么?这解释了实际上正在构建和资助 AI 的浸信会的言行之间的不匹配——注意他们的行动,而不是他们的话。(杜鲁门在与奥本海默会面后更加严厉: “别再让那个爱哭鬼进来了。” “Don’t let that crybaby in here again.”)
其次,一些浸信会实际上是走私者。有一整套“AI安全专家”“AI伦理学家”“AI风险研究员”的职业。他们被付钱是注定要失败的,他们的陈述应该得到适当的处理。
第三,加利福尼亚以数以千计的异教信仰而闻名,从 EST 到人民圣殿教,从天堂之门到曼森家族。这些团体中有许多(尽管不是全部)是无害的,甚至可能为那些在其中找到归宿的异化者服务。但有些确实非常危险,众所周知,邪教很难跨越最终导致暴力和死亡的界限。
湾区内的每个人都清楚但湾区外可能并非如此的现实是,“AI 风险”已经发展成为一种异教,它突然出现在全球媒体关注和公众对话的日光下。这种异教不仅吸引了边缘人物,还吸引了一些真正的行业专家和不少富有的捐助者——包括直到最近的Sam Bankman-Fried (FTX联合创始人)。它发展出一整套异教行为和信仰。
这种异教就是为什么有一组 AI 风险末日论者听起来如此极端的原因——并不是说他们实际上拥有使他们的极端主义合乎逻辑的秘密知识,而是他们已经把自己鞭打到狂热中并且真的……极端极端。
不要误会我的意思,异教很有趣,他们的书面材料通常富有创意和引人入胜,而且他们的成员在晚宴和电视上都很活跃。但他们的极端信仰不应该决定法律和社会的未来——显然也不是未来。
AI 风险 #2:AI 会毁掉我们的社会吗?
第二个广泛讨论的 AI 风险是 AI 会通过产生如此“有害”的输出来破坏我们的社会,对人类造成深远的损害,即使人类不是字面上的被杀了。
简短版本:如果杀人机器人没有抓住我们,仇恨言论和错误信息就会。
这是一个相对较新的末日担忧,它从我上面描述的“AI 风险”运动中分支出来并在某种程度上接管了它。事实上,人工智能风险的术语最近从“人工智能安全”——担心人工智能会真正杀死我们的人使用的术语——变成了“人工智能对齐(Alignment)”——担心社会“危害”的人使用的术语。最初的 AI 安全人士对这种转变感到沮丧,尽管他们不知道如何将其放回原处。
AI 社会风险声明的本质是它自己的术语“AI 对齐(AI Alignment)”。对齐什么?人类价值观。谁的价值观?啊,这就是事情变得棘手的地方。
碰巧的是,我曾在类似的情况下坐在前排——社交媒体上的“信任与安全”战争。现在很明显,社交媒体服务多年来一直承受着来自政府和活动家的巨大压力,要求禁止、限制、审查和以其他方式压制广泛的内容。对“仇恨言论”(及其数学对应物“算法偏见”)和“错误信息”的同样担忧正从社交媒体语境直接转移到“人工智能对齐”的新领域。
我从社交媒体大战中学到的重要知识是:
一方面,没有绝对的言论自由立场。首先,包括美国在内的每个国家都至少将某些内容定为非法 。其次,有某些类型的内容,例如儿童色情和煽动现实世界中的暴力,几乎每个社会都同意禁止访问这些内容——无论合法与否。因此,任何促进或生成内容(语音)的技术平台都会受到一些限制。
另一方面,滑坡并不是谬误,而是必然。一旦限制极其可怕的内容的框架到位——例如,针对仇恨言论,比如一个特定的伤害性词语,或针对错误信息,比如明显是虚假的声明,如“教皇已死”——“AI 对齐”的支持者将开始行动,并要求对他们认为对社会和/或他们自己的个人偏好构成威胁的任何言论进行更严格的审查和压制。这已经在社交媒体上流传了十年,而且除了某些例外情况外,一直都在变得更加狂热。
这就是现在围绕“AI 对齐”形成的动态。它的支持者声称有智慧来设计 AI 生成的对社会有益的言论和思想,并禁止 AI 生成的对社会有害的言论和思想。它的反对者声称,思想警察是惊人的傲慢和专横——而且往往是彻头彻尾的犯罪,至少在美国是这样——事实上,他们正在寻求成为一种新型的政府-企业-学术融合的专制言论专政——直接到乔治·奥威尔的1984。
由于“信任与安全”和“AI 对齐”的支持者在全球人口中是非常小的一部分,这是美国硅谷精英的特征——其中包括许多在科技行业工作和撰写科技行业文章的人——许多我的读者会发现自己准备争辩说需要对 AI 输出进行严格限制以避免破坏社会。我现在不会试图说服你,我只是简单地说,这是需求的本质,世界上大多数人既不同意你的意识形态,也不希望看到你获胜。
如果你不同意通过不断强化的语音代码强加给社交媒体和人工智能的主流道德,你还应该意识到,关于允许人工智能说/生成什么的斗争将更加重要,而不是围绕社交媒体审查制度的斗争。人工智能极有可能成为世界万物的控制层。它如何被允许运作可能比其他任何事情都更重要。
总之,不要让思想警察打压AI。
AI 风险 #3:AI 会抢走我们所有的工作吗?
自机器织机等机器最初出现以来,数百年来,人们对因机械化、自动化、计算机化或人工智能而导致失业的恐惧一直是一种反复出现的恐慌。尽管在历史上每一项新的主要技术都以更高的工资带来了更多的工作机会,但每一波恐慌都伴随着“这次不同”的说法——这是它最终会发生的时间,这是最终会发生的技术对人类劳动进行的锤击。然而,它从未发生过。
我们最近经历了两次这样的技术驱动的失业恐慌周期 ——2000 年代的外包恐慌和 2010 年代的自动化恐慌。尽管在过去的几十年里,许多意见领袖、专家,甚至科技行业的高管都在敲桌子说大规模失业就在眼前,但到 2019 年底——就在 COVID 爆发之前——世界上的工作岗位比历史上任何时候都多,工资也更高。
不过这个错误的想法是不会死的。
果然,它回来了。
这一次,我们终于拥有了将取代所有工作并使人类工人变得多余的技术—— 真正的人工智能。这一次历史肯定不会重演,人工智能将导致大规模失业——而不是经济、就业和工资的快速增长——对吧?
不,这不会发生——事实上,如果允许人工智能在整个经济中发展和扩散,可能会导致有史以来最剧烈和持续的经济繁荣,相应地带来创纪录的工作机会和工资增长——与你们的恐惧完全相反。
自动化扼杀工作的厄运论者不断犯的核心错误被称为“劳动力谬误”(Lump Of Labor Fallacy)。这种谬误是错误的观念,即在任何给定时间经济中都有固定数量的劳动要做,机器做或人做——如果机器做,人就没有工作可做……
劳动力谬误自然源于幼稚的直觉,但幼稚的直觉在这里是错误的。当技术应用于生产时,我们会提高生产率——通过减少投入来增加产出。结果是商品和服务的价格降低。随着商品和服务价格的下降,我们为它们支付的费用减少,这意味着我们现在有额外的消费能力来购买其他东西。这增加了经济中的需求,从而推动了新生产的创造——包括新产品和新产业,然后为那些在以前的工作中被机器取代的人创造新的就业机会。其结果是一个更大的经济体,拥有更高的物质繁荣、更多的工业、更多的产品和更多的就业机会。
但好消息并不止于此。我们也可以获得更高的工资。这是因为,在个体工人的层面上,市场将报酬设定为函数。技术注入型企业的员工比传统企业的员工更有效率。雇主要么支付该工人更多的钱,因为他现在的工作效率更高,要么另一个雇主出于自身利益去雇佣他。结果是,引入一个行业的技术通常不仅会增加该行业的就业人数,还会提高工资。
总而言之,技术使人们能够提高工作效率。这导致现有商品和服务的价格下降,工资上涨。这反过来又会促进经济增长和就业增长,同时推动创造新的就业机会和新的产业。如果允许市场经济正常运行,如果允许技术自由引进,这是一个永无止境的永恒上升循环。因为,正如米尔顿·弗里德曼(Milton Friedman)观察到的那样,“人类的需求是无止境的”——我们想要的总是比我们拥有的更多。一个技术注入型的市场经济是我们更接近于提供每个人都可以想象到的一切的方式,但从来没有完全实现。这就是为什么技术不会而且永远不会破坏工作。
对于那些没有接触过它们的人来说,这些想法是如此令人兴奋,你可能需要一些时间来理解它们。但我发誓它们不是我编造的——事实上你可以在标准的经济学教科书中读到所有关于它们的内容。我推荐Henry Hazlitt 的《经济学一课》中的机械诅咒(The Curse of Machinery)一章,以及 Frederic Bastiat 的讽刺蜡烛制造者请愿书,因为它与照明行业的不公平竞争而遮蔽了太阳。
但这次不一样,你在想。 这一次,有了人工智能,我们拥有了可以取代所有人类劳动的技术。
但是,使用我上面描述的原则,想一想从字面上看,所有现有的人类劳动都将被机器取代意味着什么。
这将意味着经济生产力增长的起飞速度绝对是惊人的,远远超过任何历史先例。现有商品和服务的价格将全面下降至几乎为零。消费者福利将飙升。消费者的消费能力将飙升。经济中的新需求将会爆发。企业家们将创造出令人眼花缭乱的新产业、新产品和新服务,并尽可能快地雇佣尽可能多的人和人工智能来满足所有新需求。
假设人工智能再次取代劳动力——循环将重复,推动消费者福利、经济增长以及就业和工资增长更高。这将是一个直线上升的物质乌托邦,这是亚当·斯密或卡尔·马克思都不敢梦想的。
我们将会变得如此幸运。
AI 风险 #4:AI 会导致严重的不平等吗?
说到卡尔·马克思,对人工智能抢走工作的担忧直接引出了下一个声称的人工智能风险,那就是,假设人工智能确实抢走了所有的工作,无论是好工作还是坏工作,这会不会导致严重的财富不平等,因为人工智能的所有者获得了所有的经济回报而普通人一无所获?
事实上,这是马克思主义的一个核心主张,即生产资料的所有者——资产阶级——将不可避免地从事实际工作的人——无产阶级那里窃取所有社会财富。
这个理论的缺陷在于,作为一项技术的所有者,将它留给自己并不符合你自己的利益——事实上恰恰相反,将它卖给尽可能多的客户符合你自己的利益。世界上任何产品最大的市场是整个世界,我们 80 亿人。所以在现实中,每一项新技术——即使是那些开始销售给高薪大公司或富裕消费者的稀薄空气的技术——都会迅速扩散,直到它到达尽可能大的大众市场,最终到达地球上的每个人的手中。
这方面的典型例子是埃隆·马斯克(Elon Musk)在 2006 年为特斯拉制定的所谓 “秘密计划”——他自然而然地公开了这一计划:
第 1 步,打造(昂贵的)跑车;
第 2 步,用这笔钱制造一辆负担得起的汽车 ;
第 3 步,用这笔钱制造一辆更实惠的汽车 。
当然这正是他所做的,结果他成为了世界上最富有的人。
最后一点是关键。如果埃隆今天只卖汽车给富人,他会更富有吗?不,如果他只为自己制造汽车,他会比现在更富有吗?当然不是。不,他通过向世界这个最大的可能市场销售来最大化自己的利润。
简而言之,每个人都得到了东西——正如我们在过去看到的,不仅有汽车,还有电力、收音机、电脑、互联网、手机和搜索引擎。此类技术的制造商非常积极地降低价格,直到地球上的每个人都能负担得起。这正是 AI 中已经发生的事情——这就是为什么你不仅可以低成本使用最先进的生成 AI,甚至可以免费使用 Microsoft Bing 和 Google Bard——而且这将继续发生。不是因为这些供应商愚蠢或慷慨,而是因为他们贪婪——他们想要最大化他们的市场规模,从而最大化他们的利润。
因此,发生的情况与技术推动财富集中化相反——技术的个人客户,最终包括地球上的每个人,反而被赋予了权力,并获得了大部分产生的价值。与现有技术一样,构建人工智能的公司——假设它们必须在自由市场中运作——将激烈竞争以实现这一目标。
这并不是说不平等不是我们社会的问题。是的,它不是由技术驱动,而是被相反地驱动,由对新技术最有抵抗力的经济部门驱动,这些经济部门有最多的政府干预来阻止采用像人工智能这样的新技术——特别是住房、教育和医疗保健。AI 和不平等之间的风险关系不是 AI 会导致更多的不平等,而是我们不允许 AI 被用来减少不平等。
AI 风险 #5:AI 会导致坏人做坏事吗?
到目前为止,我已经解释了为什么五个最常被提及的 AI 风险中有四个实际上并不真实——AI 不会复活并杀死我们,AI 不会毁灭我们的社会,AI 不会导致大规模失业,AI 不会导致不平等的破坏性增加,但现在让我们谈谈第五点,我非常同意的一点:人工智能将使坏人更容易做坏事。
从某种意义上说,这是一个同义反复。技术是一种工具。工具,比如火和石头,可以用来做好事——做饭和盖房子——也可以用来做坏事——烧人和打人。任何技术都可以用于好事或坏事。很公平。毫无疑问,人工智能将使罪犯、恐怖分子和敌对政府更容易做坏事。
这导致一些人提议,好吧,既然如此,我们就不要冒险了,让我们在这种情况发生之前禁止人工智能吧。不幸的是,人工智能并不是像钚那样难以获得的深奥物理材料。恰恰相反,它是世界上最容易获得的材料——数学和代码。
你可以从数以千计的免费在线课程、书籍、论文和视频中学习如何构建 AI,而且优秀的开源实现每天都在激增。人工智能就像空气——它将无处不在。逮捕如此严酷的人所需的极权主义压迫程度——一个监视和控制所有计算机的世界政府?黑色直升机中的长靴暴徒夺取流氓 GPU?我们不会有一个社会需要保护。
因此,有两种非常直接的方法可以解决坏人用人工智能做坏事的风险,而这些正是我们应该关注的。
首先,我们有法律将任何人用人工智能做的大多数坏事定为犯罪。入侵五角大楼?那是一种犯罪。从银行偷钱?那是一种犯罪。制造生化武器?那是一种犯罪。实施恐怖行为?那是一种犯罪。我们可以简单地集中精力在力所能及的情况下防止这些罪行,在我们不能的情况下起诉它们。我们甚至不需要新的法律——我不知道有哪一个已经被提议的 AI 的实际不良使用还不是非法的。如果发现新的不良用途,我们将禁止该用途。
但是你会注意到我在那里漏掉了什么——我说我们应该首先关注在人工智能协助的犯罪发生之前预防它们——这样的预防难道不意味着禁止人工智能吗?好吧,还有另一种方法可以防止此类行为,那就是使用 AI 作为防御工具,使人工智能在有坏目标的坏人手中变得危险的能力,在有好目标的好人手中变得强大——特别是那些工作是防止坏事发生的好人。
例如,如果你担心 AI 会生成假人和假视频,那么答案就是构建新系统,让人们可以通过加密签名验证自己和真实内容。在 AI 出现之前就已经存在了真实和虚假内容的数字创建和更改;答案不是禁止文字处理器和 Photoshop——或人工智能——而是使用技术来构建一个真正解决问题的系统。
因此,其次,让我们做出重大努力,将 AI 用于好的、合法的防御目的。让我们将 AI 用于网络防御、生物防御、追捕恐怖分子,以及我们为保护我们自己、我们的社区和我们国家的安全所做的一切。
当然,政府内外已经有很多聪明人在做这件事——但如果我们把目前专注于禁止 AI 的徒劳前景的所有努力和脑力用于使用 AI 来防止坏人做坏事,我认为毫无疑问,一个充满人工智能的世界将比我们今天生活的世界安全得多。
为了抵消坏人用人工智能做坏事的风险,政府与私营部门合作应积极参与每个潜在风险领域,以利用人工智能最大限度地提高社会的防御能力。这不应仅限于人工智能带来的风险,还应包括营养不良、疾病和气候等更普遍的问题。人工智能可以成为解决问题的强大工具,我们应该拥抱它。
这就是我们使用 AI 拯救世界的方式。
是时候建设了。It’s time to build.
我以两个简单的陈述结束本文。
人工智能的发展始于 1940 年代,与计算机的发明同时进行。第一篇关于神经网络的科学论文——我们今天拥有的人工智能的架构——1943年发表。在过去的 80 年里,整整几代人工智能科学家出生、上学、工作,在许多情况下都没有看到我们现在得到的回报就去世了。他们都是传奇,每一个人。
今天,越来越多的工程师——其中许多人很年轻,可能有祖父母甚至曾祖父母参与了 AI 背后思想的创造——正在努力使 AI 成为现实,反对散布恐惧和末日论的墙试图把他们描绘成鲁莽的恶棍。我不相信他们是鲁莽的或恶棍。他们都是英雄,每一个人。我和我的公司很高兴能尽可能多地支持他们,我们将 100% 支持他们和他们的工作。
本文来自微信公众号:Tech商业(ID:InnoBusiness),作者:Marc Andreessen,编译:Rea