本文来自微信公众号:L先生说(ID:lxianshengmiao),作者:李睿秋Lachel,题图来自:《机械姬》


最近在网上看到绘画界对于AI绘画热烈的争论。主要的焦点在于:AI绘画的兴起会给行业带来什么样的冲击?会否导致大量画师的失业?


其实,在这几年AI高速发展的阶段里,类似的争论一直都存在。比如:AlphaGo会不会摧毁围棋行业?GPT-3会不会摧毁传媒行业?DeepL会否摧毁翻译行业?诸如此类。


但这一次,AI在绘画界引起的反响要更大一些。为什么?也许一个原因是因为:AI绘画的兴起,的的确确让人看到了颠覆行业的可能性。


今年6月份,我体验了一款叫做Disco Diffusion的AI,做出了一些作品。当时我的感觉是:非常出色,效果极好,但是对行业尚算不上颠覆。因为出图速度太慢(一幅图要渲染10分钟),并且在构图、布局上较为欠缺,也无法准确地画出人物。只能作为辅助工具。


没想到才过了两个月,这个观点就遭到了无情的回击。


8月份,我尝试了一款新的AI,叫做Stable Diffusion。它可以说把Disco Diffusion远远甩在了后面,不仅出图速度极快(几十秒),并且质量极高,在纹理、细节、光影等方面几乎可以以假乱真,甚至可以忠实地还原出实物的效果。


以下是我从网上找的一些别人用Stable Diffusion做的图:





可以看到,它出图的效果,连一般的画师可能都望尘莫及。



那么,绘画行业会被AI绘画颠覆吗?


实际上,将AI绘画应用于实践中已经有了不少案例。一类案例是游戏工作室。现在已经有不少游戏工作室,用脚本在后台自动运行AI,在极短的时间内自动生成成千上万幅头像、人物和图标,再精选出能用的进行细化修改和调整,极大地压缩了成本。


另一类案例是专业画师。有不少画师已经开始利用AI绘画辅助创作。比如,先画一幅草图,定好整体布局,然后用AI填充上丰富而饱满的细节,再在最终的成品上进行微调,节省大量描绘和填充的时间。


可以想见,等AI绘画更进一步地发展和流行起来之后,大量基础的执行工作会被替代掉。像“人物头像”这种创意含量不高、执行步骤较为繁琐的任务,用AI来操作就可以极大地提升性价比。


进一步,AI也可以成为画师们的利器。利用AI来辅助构图、找寻灵感、填充细节……可以极大地解放画师们的劳动,而把更主要的精力集中在沟通、创意和调整上。就像电脑绘画替代了大部分手绘一样,未来无法用AI来辅助创作的画师,也同样可能会被同行所替代。


从这个角度来讲,不管行业会否被颠覆或摧毁,新的改变已经无可阻挡地、浩浩荡荡地到来。


不过,现阶段的AI,依然还停留在“工具”的定位。它能发挥出什么样的效果,完全取决于使用它的人。毕竟,AI无法取代人去跟客户沟通,也无法完全理解自然语言,更不具备通常意义上的“自主性”和“创造力”。因此,对于诸多行业而言,它其实更多的是一种机会,而不是威胁。


比如:在AphaGo家族出现的时候,也有许多人惊呼“围棋是不是要被AI摧毁了”。但其实,围棋AI给围棋行业带来的是什么呢?是门槛的大幅度降低和普及化。


在过去,你要学围棋,得去培训班学习,由专门的老师指导,跟同学对弈、复盘,经历高强度的训练。但如今不需要了。现在每个人在家里,都能非常方便地找到可用的围棋AI,你可以调整难度跟AI对弈,也可以用AI来帮你复盘。在这种情况下,老师能起到的作用就很小了,只剩下偶尔的点拨和答疑了。


这对于传统围棋培训行业的商业模式当然是一种冲击,但门槛的降低,也会带来大量热爱围棋的入门者,让围棋行业变得更加繁荣。那么,能否通过转型适应大环境的改变,就是这个行业需要去做的事情了。


再比如翻译行业。这几年,AI翻译的发展如火如荼。以最新的几个翻译引擎来说,翻译质量已经超越了一般外语水平的使用者,几乎达到了母语的水准。但AI翻译能否直接使用、会否替代掉人工翻译呢?答案也是否定的。


原因很简单:绝大多数需要翻译的领域,对翻译质量都有极高的要求,不仅要求准确,还可能会有专业术语、语境、背景、遣词用字上的要求,而这是AI难以胜任的。在这种情况下,用AI先粗译一遍,再进行细致的润色,就是更有效的做法。


因此,在这个行业,用AI进行辅助翻译已经是行业惯例。不使用AI的译员,可能很难在这个行业立足 —— 因为效率差距实在太大了。从这个角度来讲,AI给翻译行业带来的,也不是摧毁,而是更高的质量和效率。


这些只是一些消费行业的例子。事实上,近十几年以来,在全球的各个领域,使用AI作为辅助工具,已经是一种行业发展的必然趋势,也是一种默认选择。


比如,在美国,贷款机构已经开始利用AI来决定是否放款。他们会利用一套复杂的算法,依据客户的消费、债务和其他数据,最终得出客户的“信用评分”,并根据信用评分判断是否批准贷款、批准多少额度的贷款。


在英国,已经有许多地方议会开始利用AI进行社会保障决策。据《卫报》2020年的一项调查,在英国的229家地方议会中,约有100家使用AI来辅助决策,包括决定是否通过福利申请和提供社会保障。


国外的许多公司也开始用AI来进行招聘。从简历筛选、职位匹配,到对面试者进行打分和心理评估,节省了大量的人力。


在心理、医疗和健康行业,AI也得到了大量的应用。比如,能够跟你对话并引导你进行心理干预的AI,能够结合患者的数据量身制定治疗方案的AI,能够辅助医生进行诊断和提供治疗建议的AI……尽管还未实现大规模普及,但已经有了不少卓有成效的尝试。


我们都知道能够伪造视频和音频的Deepfake技术,许多人都对其忧心忡忡,但加以规范利用和引导,它也可以发展出正向的应用。比如,目前有一个研究方向,是用AI模拟出逝去的亲人,跟我们进行对话。尽管目前只能实现简单的动态,但假以时日,像《黑镜》里面的景象,很可能成为现实。


更有名的可能是GPT-3。GPT是一款非常出色的文本AI引擎,2020年发布的GPT-3,拥有1750亿个参数,可以“创作”出足以以假乱真的各种文字,包括小说、新闻、报告、散文……


它的应用空间也极其广阔。比如:游戏公司可以用它生成真正随机的、完全不同的游戏对白;小说和剧本创作者可以用它来帮助寻找灵感;媒体可以用它来快速生成新闻报道;各类服务提供商可以基于它开发各种各样的聊天机器人;文学研究者可以用它来进行文本分析……诸如此类。


那么,它摧毁传媒行业了吗?其实也没有。相反,它的存在,使得传媒和创意行业的可能性被极大地拓展了,未来的发展空间无比广阔。许多过去难以实现的效果,都变成了可能。


总而言之,不管各行各业的人怎么看待AI,AI的到来已经是一种无可争辩的事实。与其捂上眼睛去诋毁它、漠视它、恐惧它,不如想办法去迎接它,并利用它去提高自己的效率,实现人力难以企及的突破。这可能是一种更好的心态。


未来并不遥远,很可能已经在我们身边。



不过,要注意的是,上面所说的AI,都停留在工具的层面,也就是“弱人工智能”。本质上来说,它们只是一段对信息进行加工处理的程序。我们喂给它们一堆数据,它们再根据规则吐出我们想要的结果,仅此而已。跟我们所理解的“人工智能”有着天壤之别。


如果我们把科幻片里的人工智能 —— 那种有意识、有人格、有自己的“思想”,能够“理解”自己在做什么的“强人工智能”,看作100%的形态的话,那么目前的AI,可能只是不到1%。


换句话说,如果强人工智能可以看作生命的话,那么目前我们实现的弱人工智能,最多可能只是一个氨基酸。


这也说明,目前的AI只是一个极其初级的形态,它的成长空间几乎是无限的。实际上,现阶段的AI翻译引擎,比起几年前的版本,质量好了不止一个档次;同样是扩散模型,Stable Diffusion比起年初的Disco Diffusion,也好了不止一个档次。


那么,弱人工智能跟强人工智能的分野究竟在哪里呢?我们有没有可能对AI进行不断的优化和提升,使之最终能够达到强人工智能的程度?如果能够实现的话,到时的世界会变成什么样子?


以下是我的理解和思考,不一定对,仅供参考。


我们知道:目前所有的AI,不管是什么领域、采用什么模型,它们的本质都可以大致归纳为三步:训练,预测,反馈。


首先,我们需要喂给AI大量的数据,告诉它“我们希望它学到什么”,让它从这些数据里面提炼出特定的模式。这就叫做训练,这些数据就叫做训练集。


从训练集中提取出模式和特征之后,AI就可以根据这些模式,基于不同的场景,去“预测”在这个场景下会出现什么、应该如何应对。这就是AI能够产生的结果。


最后,就是对AI所产生的结果提供反馈,告诉AI它做得好不好、对不对,从而让它不断进行自我修正、自我提升,最终能够产出更好的成果。


一个常见的例子就是生成对抗网络(GAN)。它包含一个生成网络和一个对抗网络。用绘画来打比方:生成网络的任务,就是我们给它一堆训练集,比如说某个画家的许多幅画作,让它努力地学习画家的风格,然后想办法创作出一幅以假乱真的画。


而对抗网络的任务,就是努力去挑生成网络的刺,把它创作的画从真画中区分出来。通过这样的“左右互搏”,AI就能够不断自我提升,最终达到真正以假乱真的效果。


但是,目前所有的AI都存在一个问题:它们所有的训练集来源,都来源于数码信息。换句话说,它们相当于“活”在数码空间里面,跟我们所处的现实物理空间是没有任何交集的。因此,它们永远没有办法真正“理解”所得到的数据,而只能按照自己从数码空间得到的规律去生硬地“套用”在信息上面,完成我们要求的任务。


一个经典的例子是“莫拉维克悖论”:尽管AI可以做到许多人脑无法实现的事情,比如在一秒内完成上千万次运算、处理上百万条数据、做出极其复杂的决策,但是一些对人类来讲极其简单的任务,比如用眼睛区分两个杯子,在一个房间里自由行走,或者理解一段对话的上下文,对它们来说却难如登天。


为什么会这样呢?因为,数码世界是没有办法自发地产生数据,构建出一个完整的、自洽的世界的,它的一切数据,都来源于现实世界的“投射”。也就是说,它只是现实世界的一个“降维”的投影而已。因此,“活”在低维度世界的AI,只能理解我们输入给它、为它制定的规则,是不可能真正理解高维度的世界的。


打个比方:就像一部小说里的角色,哪怕写得再生动、再鲜明,他也不可能真正活过来,理解小说之外的现实世界。同样,目前的AI,只能是一种工具,它不可能具备真正意义上的意识、人格和“生命”。



人工智能哲学界有一个经典的问题,叫做“框架问题”。丹尼尔·丹尼特是这样表述它的:


假设现在有一个洞穴,洞穴里有一块电池,洞穴外有一个机器人,快没电了,机器人必须拿到这块电池。但与此同时,电池绑着一颗炸弹,触动电池就会引发炸弹。


机器人1号:被下达指令“拿出电池”。但拿出电池的同时,它也被炸毁了。因为它不知道触动电池同时会引发炸弹。


机器人2号:下达指令“做一件事时,必须考虑它是否会导致其他事件的发生”。于是,机器人2号一直在思考:当我拿动电池时,墙壁会变色吗?天花板会塌下来吗?等等。最终没电了。


机器人3号:下达指令“只考虑跟任务相关的事,不考虑不相关的事”。于是,机器人3号一直在思考:哪些是跟任务相关的,哪些是不相关的?墙壁相关吗?天花板相关吗?于是也没电了。


简而言之:对于AI来说,让它知道“应该在一个什么样的框架内去考虑问题”是非常困难的 —— 尽管这对人类来说毫无难度。


那么,为什么AI存在框架问题,而人类就没有这个问题呢?


我们不妨想一想:我们是如何知道“当我拿动电池时,天花板不会塌下来”的?是因为我们看到了这条规则吗?不是的。是因为我们知道:天花板是一个稳定的结构。一般来说,如果没有外力对它进行作用,它是不会变化的。


那么,我们又是如何知道“天花板是一个稳定的结构”的?是有人教给我们这条规则吗?也不是。是因为我们在成长的过程中,我们看到过非常多次的天花板,我们从生活经验中学习到天花板的特性,知道它不会轻易地塌下来,于是我们的大脑自发地从这些经验中提炼出了这条规则。


许许多多这样的规则组合起来,就形成了我们对这个世界的认知,也形成了我们思考问题、考虑问题的“框架”。


但AI是没有这些“生活经验”的。它们的所有信息来源,只有现实世界投射到数码世界的信息。因此,对它们来说,所有的信息本质上都是一堆数字,它们无法把这对数字还原成规则和框架。


我们在生活中看见过无数次的人脸,那么不需要别人教我们,我们也会知道人的脸有五官、大致的比例是什么。但AI没有这些经验。对它来说,“人脸”也只是一堆数字而已,只不过这些数字经常一起出现,似乎存在某种特定的规律 —— 这就是AI眼中的世界。


再比如,看到“落霞与孤鹜齐飞,秋水共长天一色”,会让我们产生各种各样的想象,体验到审美的愉悦感;但在AI眼中,这14个字只是一堆数据,无法产生任何联想,因此并不存在任何“意义”和“美感”。


所以,要想让AI能够真正理解现实世界,也许只有两种方式。要么,是找到一种方法,可以更加有效地传达给它关于现实世界的种种规则和“隐性知识”,让AI具备跟人类相似的思维基础;要么,是让AI模仿人类的成长过程,直接从现实世界中学习规则,构造关于现实世界的各种表征。


后者现在也开始有研究人员在探索了。今年发表在《Nature》上的一篇研究讲到:他们基于发展心理学设计出了一款机器人,可以像人类婴儿一样学习简单的物理规律。这个机器人在学习后,当看到不符合物理规律的画面时,会呈现出“惊讶”的反应 —— 这或许是一条可行的道路。


那么,AI有没有可能发展出真正的强人工智能?如果到了那一天,这个世界会变成什么样子?


说实话,我也不知道。如果AI真的能够弥补这一空缺,真正像人类一样思考和学习(或者起码“看起来”像),那么,理论上来说,似乎没有什么是无法实现的。到时的世界,也许会变得完全不一样。


尽管从目前看,这一天似乎还要很久。



最后,聊一个有趣的问题:AI会有意识吗?如果我们真的面对着一台宣称它具备了意识的AI,我们如何判断它是否具备意识呢?


图灵测试吗?显然不行。图灵测试测的是智能,而非意识。


意识是什么?是能够体验和感知到自身存在的一种状态。一个有意识的个体,它能够体验到自身的存在,能够有主观的感受(我们称之为感质,qualia),而不是只是对输入信息做出固定的、程式化的响应。


哲学家 Susan Schneider 提出过一个很有意思的“人工智能意识测试”。她认为:如果一台机器具备意识,能够体验到自我的存在,那么它一定也能产生跟意识相关的其他想法和感受,比如:灵魂,轮回,自我,等等。


一个简单的类推:我们每个人一定都曾经有过类似的想法:我是谁?为什么我会是“我”,而不是其他任何人?藏在“我”身体里,构成我的种种想法、念头和主观感受的那个东西是什么,在哪里?诸如此类。


Susan Schneider 认为,这是有意识的生物所必然会经历的困惑和思考。一个对象有了意识,意识到自己的存在,必然会对这种存在感到好奇,进而去探寻和思考这种存在的本质。


因此,“人工智能意识测试”的步骤如下:


1)阻止人工智能去学习关于意识、心灵、存在等相关的哲学和科学知识。


2)跟它正常交流,聊聊意识、心灵、存在……看它能不能流畅地、自然地进行回答。


如果能,那可能意味着人工智能自发地产生了对这些话题的理解和体验。这种体验来自哪里呢?既然没有外在信息的输入,那只能是来自于它自身所产生的意识体验了。


当然,让AI产生意识的难度,可能比产生强人工智能的难度还高。


我无比期待这一天的到来,又无比担忧这一天的到来。


本文来自微信公众号:L先生说(ID:lxianshengmiao),作者:李睿秋Lachel