本文来自微信公众号:硅谷101 (ID:TheValley101),作者:陈茜、何源清,原文标题:《ChatGPT与人类未来:AI茧房、安全漏洞与未知的社会形态》,题图来自:视觉中国


OpenAI做了谷歌不敢也不想做的事,那就是:还在研究阶段就对外公开了ChatGPT。这引发了巨大的争议,关于诈骗,关于作弊,关于人类未来的教育、认知的获取,以及未来大量工作被取代。说实话,ChatGPT的到来让我对人类的未来,更迷茫了。


这里先澄清一下,如今人们对AI在未来能做的事、行为和发展的认知还非常有限,所以今天我们讲的东西和判断可能是稍显主观的。但是希望带给大家一些思考和探讨的空间。首先,我们来聊聊ChatGPT对人类认知的影响和潜在的AI茧房。


一、人类认知与AI茧房‍‍‍


我先问大家几个最直观的问题:


当你有一个能几秒内给你答案的聊天机器人的时候,你还会思考,这个答案是怎么得出来的吗?


当你习惯了被告知一个事件有12345点,你还会去想,它是否还会有6789点重要的角度吗?


当你不用学外语就能写出一篇没有语法错误的情书,你还会为了追那个异国的女孩而去了解她的语言她的国家她的信仰她的文化吗?


当你认为ChatGPT背后的大语言人工智能模型看上去“无所不知”的时候,你知道它其实给你的只是,全人类在互联网上信息的平均知识吗?


这些问题在我和创新工场的AI工程院执行院长王咏刚的聊天中,都略有涉及到。王咏刚老师在朋友圈中写到:“悲观情况是:因为人类的极度懒惰,互联网被AI生成的、错误率普遍高于人类知识工作者的‘灌水内容’占领,我们的孩子成为‘迷失的一代’。”



对话王咏刚老师


王咏刚:现在的AI最大的问题是他在做的事情是模型拟合的事情。无论是最早的自然语言处理的古老古典、已经被淘汰的算法,还是今天在ChatGPT里面我们看到的这种最新的算法,它的核心任务仍然是对人类自然语言语料数据去做模型匹配、模式拟合。


基于这种拟合,它的输出造成了它这种拟合必须是在它学习过的这种数据,或者学习过的这种数据的规律,根据一定的数学逻辑、甚至非确定逻辑来去做它的输出。所以这一点上带来几个问题,不可预测性一定会永远存在,模型输出的一定的随机性一定会永远存在。


在这种情况下带来的最大的问题就是比较顶层的判断或者评论,大概会带来一个最大的问题是什么?今天如果你把AI作为一个知识处理机或者知识宣讲机,这件事情是有一定的疑问的。因为当AI去输出知识的时候,它输出的是什么知识,这个知识很可能是它在模型拟合的时候,非常大的概率拟合的,是全人类在互联网上这些信息的平均知识。


这些平均知识,就看你需要什么了。如果你需要的只是一个日常的、非常初步的、满足生活要求的知识,比如水什么时候结冰,汽车什么情况下不打滑,我觉得AI未来可以解决得非常好,对于日常来讲。


但是如果你想把它放在跟教育相关的、跟人类的知识进步相关的事情上,这件事会有很多的问号在里面。像我们去请一个保姆跟我们的孩子一起去生活,我们觉得他可以,保姆可以帮我们孩子解决很多生活中的问题。但是如果我们为了孩子的学习,请一位老师,我们会对老师有更严格的要求。我觉得这件事就是我所担心的事情。


一旦我们把AI当作我们下一代成长的一个老师——这个趋势太明显了,比如今天基于GPT的API来开发各种教育工具、各种的知识处理工具的人,都是直接就冲上去就做了——很多事情都可以解决了。但是这种解决有可能是低层面的。


AI有两种情况,一种情况是它去用模式匹配得到的人类的平均知识告诉我们的小朋友,而不会让小朋友得到一个由人类严格挑选的逻辑构成的教育体系;另一种情况是今天的AI还会大量地在或是人类要求、或是它自主激活的这种叫做创造性的东西。


这种“创造性”要打引号,这种创造性可能在非常多的场合是好的,但是一旦我们把它用于知识传承和知识教育,今天或者可见的未来,我是看不到这种东西在替代人类老师或者人类思维逻辑的一种可能性。这样当人类的这种懒惰也好、或者叫做取巧也好,一旦进入了教育领域,我不用想象,今天很多人都已经在做了,大量地把AI生成的东西开始补充进教育的内容体系。


对学生来讲,我可以用ChatGPT来写作业,对于老师来讲,我可以用ChatGPT来布置作业,我可以省下非常多的这种思考时间。


对一个老师来讲,本来老师觉得可能有一个东西我没有讲透,我可能要去通过查维基百科、以前的书,我把它梳理好一个完整的知识体系,我给学生讲一个完整知识体系。但是现在好了,我可以用ChatGPT来直接告诉学生完整的讲述逻辑。但是这个讲述逻辑一定是人类平均水平的,它很难到达一个让学生或者让人类进步的水平。因为因为很简单,全互联网的data里面代表这种最高水平的data,它是个小概率的东西。未来如何让ChatGPT拟合这种最精准的data?


这是data输入的一方面,另一方面非常简单。你即便拟合了这样一个比较精准的data,AI仍然有不确定性,仍然有它创造的空间。像今天ChatGPT有大量的这种,我告诉他某一个概念,他就开始自由发挥,这个事情以后是非常恐怖的。这个发挥你只能以后限制他、去不断地去纠正他。但是你说是不是可以完全杜绝他?我觉得在今天的AI算法的根本上不太容易。所以这是我会非常担心的。


刚才说的,还是因为懒惰,老师不想花时间去研究一个东西。


因为牟利那就更可怕了。大量的人会发现我分分钟利用AI不要成本地产出大量的垃圾内容,灌到本来我们已经被碎片化信息充斥的社交网站上。本来今天的十几岁小朋友都在某些社交网站上,天天沉浸在一些碎片化的知识里面。有一些博主随便讲一讲,似是而非地讲几句为什么火箭飞那么快,为什么什么星球跟什么星球什么关系,可能小朋友看了热闹开心就行了,他学不到更深的知识。


但是未来,如果因为逐利,这种事情只会越来越重,只会越来越多。大量AI创造的碎片化、不严谨,甚至是故意瞎说的知识充斥互联网,充斥小朋友能接触的信息茧房的话,这个茧房就是AI茧房了。这个恐怖的事情对我来说,如果我有机会,可能我会尽各种努力去避免这件事情。


陈茜:对,其实我觉得现在这件事情的趋势已经很明显了。比如我们放一些长视频,有完整的逻辑来推导一个过程,但是很多人看不下去。就说两分钟能说清楚的事情,为什么你要花20分钟?或者你直接跟我说结论就好了,我觉得现在很多人就越来越着急,大家的注意力越来越短。我觉得这个情况我还蛮担心,会越来越糟的。


王咏刚:因为本来一些很有追求的老师质疑的自媒体、科普人,那些所谓给孩子讲东西的人,最重要的一点就是你们在抄近道,你们在直接给孩子一个看上去特别甜的糖,但是你从来不告诉特别甜糖背后的所谓苦的逻辑,所谓这种复杂的逻辑。因为你们要去赚流量、要通过流量去赚钱。这件事今天到来之后,他已经没有办法批评谁了,因为这些东西超近道的东西会充斥着网络,而且这超近道作者都不是人了,这件事就会很可怕。


小结


如今,我们用搜索引擎的时候,是一个主动寻找答案的过程,其中我们会阅读到通向答案的逻辑、佐证、正面的反面的例子、争议,以及除了答案本身之外的其它额外信息,这些信息构建成为了我们对这个事件的知识认知。但如果你只想或者只需要知道答案,那这些搭建起来的知识认知可能也就不存在了。



就像刚才王咏刚老师说的,ChatGPT最开始冲击的就是我们的教育体系。自去年底OpenAI开放ChatGPT之后,Study.com的数据就显示,美国89%的学生已经在作业里面使用ChatGPT了,48%的学生在考试或测验中使用过ChatGPT,而53%的学生使用ChatGPT来写论文。


我没有办法想象,当ChatGPT的技术更成熟更普及之后,“获知结论”的成本快速下降、变得无比方便的时候,人类懒惰的本性会将我们进化到什么地方,“思考”这件事情的成本会变得有多高。


并且,ChatGPT背后的安全隐患,不仅仅在对人们的认知建立上,以及抄袭作弊上,还有诈骗成本的迅速下降。


二、解决安全漏洞:能用AI打败AI吗?


我前几天看到一个很有意思的评论说,“未来绝大部分人担心的不是被ChatGPT替代,而是跟不上别人使用ChatGPT的能力”。其实这不仅仅是使用ChatGPT的能力,更重要的是:使用AI的能力,识别AI的能力,以及用AI打败AI的能力。


ChatGPT普及之后,其实最直接的危害之一就是诈骗成本的下降以及骗术的提升,举个例子:在ChatGPT之前,社会上的诈骗手法就已经很多了。邮件,短信,打电话,可以说是全方位轰炸。但是还好,一般骗子的文化程度不高,所以写出来的内容还是比较容易甄别的。


比如说,最近我们公司邮箱收到这样一封自称来自Netflix团队发来的合作邮件,那么这一看就很像钓鱼邮件对吧?首先,邮箱不是Netflix的公司邮箱,这种后缀一般都有问题,其次,整个排版非常的不专业,还有就是各种标点符号、落款都不专业。


但最容易暴露的就是表达和语法错误,这一看就是一个英文很差的人写的。比如说这句话:we look forward to discuss the details with you. 我忘了是初中还是高中学的这个用法,但是,但凡有能达到英文职场水平的都知道,look forward to后面应该加doing sth. 等等,通篇都是这样的英文错误。



但是,就算假成这样,我朋友圈里已经有一个Startup的创始人朋友就晒出了相似的邮件说Netflix合作找过来了,显然就是相信了这封邮件。所以,我们可以想象,如果ChatGPT被这些诈骗团伙所利用,写出来的邮件语法、排版、逻辑、落款上都无懈可击。那么毫无疑问,会有更多的人上当受骗。


现在,ChatGPT上因为设置了规则,不能直接写诈骗邮件。但这个规则太好绕过了,比如说,你换个方式问它说,你给我一个诈骗邮件的例子,好让我在未来避免受骗。诶,你看ChatGPT就给你写出来了,完美的标题、完美的语法、排版、逻辑,还有完美的落款。



而犯罪团伙的速度,或许比大家想象得更快,因为这已经在发生了:网络安全新闻网站GBHackers就报道,已经有黑客通过ChatGPT生成完整的诈骗套路话术,并把ChatGPT包装成“虚拟角色”来和目标人群对话,最终让对方遭受诈骗。而这样的诈骗套路,从对话的生成,到对话目的,到诈骗话术都可以进行个性化定制,并且只需要几秒钟就可以生成。


另外,黑客们已经开始使用我们前面演示过的钓鱼邮件,还可以绕过OpenAI的安全限制去生成加密工具远程锁定他人电脑,由此来进行勒索,以及生成攻击脚本,对网络用户进行身份盗窃攻击等等。


所以你们看,在ChatGPT出现之前,骗局已经这么多,诈骗方式就已经各种各样,普通人识别真假已经越来越难,时间成本越来越高。那么我很难想象,ChatGPT和更多的生成式AI技术就这么开放之后,事实核查这件事情对普通人来说,要怎么去做。那么王咏刚老师说,这就要看人们是否能用AI打败AI、来短时间内建立一个良性生态了。


对话王咏刚老师


王咏刚:今天有大量的研究投入到怎么去甄别、怎么去识别AI的作品,怎么去识别里面它和人类的创造之间的关系。在今天,这种生成式的AI仍然存在这样的机会。


其实简单讲,这个方法也非常简单。我们做这方面研究的这些科学家,其实是在用AI去对抗AI,就是ChatGPT,它是在训练一个模型,在不断地去生成、模拟人类输出的内容、人类说话的内容。但是另一批科学家在不断地训练成另一个AI模型。这个AI模型是要去不断地去甄别说互联网上哪些内容是由AI生成的,哪些内容是人类生成的。这件事情对未来的这种意义是非常大的。


如何保证几件事情?如何保证AI生成的很多灌水内容不去混入到所谓的高质量内容社区里面?这是第一件事。第二件事反过来,AI可能未来还要保证他自己生成的大量垃圾灌水内容,不被他每一轮的学习再重复地吞进来。


这件事情也很有意思,就是AI原来学的是大量的人类内容。当他最后学了大量的他自己造的内容的时候,有可能就会朝一些人类可能想象不到的地方去发展。这种发展有可能是好的,但是更大的概率是不好的。因为所有的发展方向是平均的,聚焦到相对比较好的方向上,就会相对比较难。所以更大的概率是这些灌水的内容越来越发散。


在这种发散的情况下, AI自己要去识别哪些内容是我应该去放在输入里边的,哪些内容我应该用更重的权重去input、哪些内容应该用更轻的权重去input。这些东西在AI理论研究的时候,严格地说,整个我们的科研界、我们的工程界并没有停下来过,可能只是不像外面见到的那么热。


刚才说的也还只是一方面。还有更深的理论研究是很多数学家在做的,就是证明AI模型到底在刚才说的这种不确定性上,它的创造性上,到底它的限制在哪里,它的边界在哪里?我们如何用更好的方法,在更宏观的角度去控制它的限制、去控制它的边界。这是科学上,从数学理论方法上的研究。


这和刚才类似。刚才是在甄别AI这个东西,是在帮助AI怎么样去更好地给出确定性的和指向性的结果、指向性的答案。比如当Bing、Google这样的搜索引擎,把ChatGPT这样的对话模式融到搜索引擎里面的时候,他们就会有意地使用跟这些研究有关的方法。


刚才说的还是数学方法。我们还有很多工程的方法,在工程上,在 AI 的模型的上层或者下层,对接一些非我们今天的这种deep learning(深度学习)的AI。


比如,我觉得很典型的一个例子,今天你会发现,诶, AI在做一些数学问题的时候,一些解析问题的时候,明明人类有一些公式,我可以通过公式,用推演的方法或者用计算的方法得到一个精确答案。


但是对AI来说,我告诉他,你帮我算一个什么样的数学题,你帮我解一个什么样的问题。你会发现,简单的问题他解出来的概率非常高,但是复杂的问题他就开始出现各种小错误,各种去偏移,各种随机性,非常有意思。这说明AI在做这类问题的时候,它的这种不确定性是有害的。但是你让今天的 AI 从核心地方取消这种不确定性,是不大现实的。


所以你会发现,最近有一些研究和paper就会发现,我把AI的一些要完成的任务分解开,其中有一个任务,比如是跟数学相关的,或者是跟一些解析的方法(相关)。你要求解一个巨大的方程,求解一个微积分相关的,我把它导出到一个优秀的数学系统,比如WolframAlpha这样一个系统里面,去让WolframAlpha给AI提供在这方面的能力。


所以这是一个工程上的类似拼合怪的方式,把这种AI的能力限制在他最擅长的,比如conversational对话式的这种交流上,或者限制在一些可以发散的、可以做艺术创造的这种生成上。但是那些不能发散的东西,比如你必须准确地给出Wikipedia的结果,你就会必须用一个query接一个search的功能,走向下面一个vertical(垂直)的工具。如果你必须给出一个准确的微积分的解,或者准确地做出一个数学的图像来,你就不要自己再去发挥了,你就直接把这个东西导向WolframAlpha。


所以你会看到大概一周前有一篇Facebook论文,那个东西就是怎么样去把AI的conversational的这种“语义”变成里面对应于某一个任务、垂直到一个垂直领域的工具。所以这又是一个很工程化的方法,让AI去在某些领域给出非常精确的解。


如果在近期你们发现有人包装成了AI系统,不管是Google的Search还是Bing的Search,里面发现,诶,这些东西并不像ChatGPT那么发散,而且很多东西都可以给出非常精确非常好的结果。那个时候很简单的一个答案就是,那个包装的系统,它已经不是独立由ChatGPT这样的所谓生成式AI在承担任务了,而是由多个不同的子系统,包括大量人创建的子系统共同构成的。


所以简单讲最近的这样一些进展,我觉得我们人类有很多方法去避免这件事,当然需要大量的科学家、工程师的努力了。大概是这样一个含义。


小结


刚才王咏刚老师从数学和工程的方法上讲了我们怎么限制ChatGPT等生成式AI带来的不确定性,以及减少被不法分子滥用的可能,但我个人仍然还是挺悲观的。我们人类能用AI能打败AI吗?不知道未来是不是可以,但是在现在的这个时间点上被分享出来的AI反检测工具,还不可以。


ChatGPT的公司OpenAI,还有一些美国的大学比如说普林斯坦和斯坦福大学都开放了一些检测ChatGPT生成内容的检测工具。但说实话,我们自己测了后发现,不太准。


先用斯坦福大学的工具DetectGPT,自称有95%的准确率。


我先自己写一篇小作文,随便写写。然后放去DetectGPT里面测一下,嗯,不错,显示是我自己写的,不是ChatGPT生成的。



之后我再在ChatGPT上分别生成了一段故事,一个定义描述,以及一个Python斐波那契数列的代码,然后放到DetectGPT上测,嗯,都检测出来了是非常可能由ChatGPT生成的。


但是,这些内容都有点低级,我们再试试一个偏僻一点的词,比如说:武田制药,Takeda Pharmaceutical,这是总部在日本的生物制药企业。ChatGPT生成了解释之后,放去斯坦福的DetectGPT上测,诶,这不,就没测出来是ChatGPT写的。


斯坦福的这款检测工具是针对GPT-2来开发的,ChatGPT是基于GPT-3.5开发的,所以GPT-2相当于ChatGPT的前前版本了,参数要少很多,信息量也不够、数据库也不够新。所以我们再放到OpenAI自己出的检测器AI Text Classifier上试试呢?



首先有点麻烦,必须要一千个字符以上才能测,好吧,我让ChatGPT再多写点。然后再放进去……诶,也没有检测出来。这就有点尴尬了,OpenAI你自己AI写的东西你自己都检测不出来。好消息是,现在AI写的东西和人写的东西越来越像、越来越难以辨别,但坏消息是:用AI打败AI,好像没有那么容易。


当然,可能现在ChatGPT检测软件还尚待完善,我在网上去看了一下其它人的测评,发现现在放出来的检测应用准确率在26%~60%之间,还非常不靠谱。所以在将来,我们能否用AI打败AI,在我这里,还是一个大问号的。或许最后,还是需要人类自己的思辨能力,来做出最后的判断。所以很可能在未来,能使用和善于使用AI的人,和不善于使用亦或是无法使用AI的人,简单来说,在AI之上的人,以及在AI之下的人,将可能会有两种不同的发展方向和轨迹。


我们再想得宏观一点,当包括ChatGPT在内的AI应用变为主流的时候,势必会替代越来越多人类的工作,是否会进一步的拉大不同人对认知的获取、教育程度、工作性质乃至人生效率上的差距?而最后这些差距会不会演化成为一个更加分裂、贫困差距更加严重的世界呢?这可能是一个偏哲学、经济学和社会学的大问题了,但王咏刚老师还是给了蛮有启发的回答。


三、未来社会形态:人需要工作吗?


陈茜:最后一个问题,刚才你说到其实 AI 以后会代替很多人的工作,对吧?现在其实我们已经看到自动化已经代替了很多工作了。现在一个假设就是人类需要往工作的金字塔的上面走,去做更多 AI 没有办法替代的工作,有这么多的工作给人类吗?那剩下的人怎么办?终极形态是什么样?可能这也是一个比较大的问题。


王咏刚:我觉得我不是特别适合回答这种问题的,因为我对社会学的、经济学的认知非常非常的浅,我还是非常朴素地有一些观点,但这种朴素的观点放在社会学或者经济学上,大家会觉得是一个纯粹的个人偏见或个人窄的坐井观天式的观点。长期来讲,我是一个纯哲学意义上的悲观主义者,我觉得长远来讲,人类看到非常好的前景的希望会很渺茫。


但是短期来讲,我倒觉得人类工作这件事,从朴素的观点来讲,未必是人人都有工作就是一个非常好的社会结构。我随便说一个道理,就是如果今天你在中国看到的一些现象,到底是好现象还是坏现象,我觉得是可以两边说的。中国大量的青年,当他们在没有接受到一个足够好的教育的情况下,而且他是在整个教育体系的资源配置上,他就没有办法接受到好教育的情况下,进到了比如说生产手机的工厂。


我亲自在生产最好的手机的工厂里面,当时为了研究AI和这种生产工业制造的结合,我每一个工位每一个工位都亲自地去看过一遍,跟几乎每一个工位的工人都聊过。我简单结论,那些工作不是人该干的。那些工作就是一个人在那边,可能比如贴一个大概小米粒这么大的小贴片,可能是一个防静电贴片,或者一个防漏水贴片,往手机上贴片。


他每天就重复这一个动作,大概一两秒做一次,每天做 10 个小时,中间每两个小时休息10分钟。就这样一个工作,你让我在那坐半个小时,我可能眼睛就瞎了。但是很多年轻人就为了大概一个月几千块钱工资,就在常年地干着这样的工作。


如果我说AI,可惜今天还很反讽,今天的AI反而不适合替代这样的工作。今天的AI反而更适合替代一些文秘的、数据报表的,这些所谓办公室的初级白领的工作;这些蓝领的工作,还做不来。今天你让 ChatGPT去工厂上做生产线装备,它还做不来。但是我觉得如果AI今天能把这些非人道的(工作取代),能够解放出大量的人来,我反而会为AI叫好。


至于从社会学、经济学角度,这些人失业了,该去怎么分配,该去怎么怎么保障他们的这样一些权益,我总觉得一定有办法,但我不是这方面专家,我只是看到这些相对来说不人性的东西,我总觉得这件事大家是应该做的。你像大家在非洲看到非常多的贫困,在非洲看到很多的不平等,大家一定会觉得我们需要通过什么东西改变,但是很多年我们也没有真正改变太多,所以人类就是一个很矛盾的社会。我在这方面确实有一点点那种感觉,就无能为力的感觉。


小结


这期和王咏刚老师聊得非常有收获,但有收获的同时,我个人其实是对人类的未来发展稍稍有一丢丢更加悲观了。大家可以有不同想法,欢迎留言告诉我们,欢迎探讨。


我看到的是,ChatGPT只是AI中的一种应用,只是文本生成,同时我们还看到更多人工智能生成的技术已经在业界开始被广泛使用,包括音频生成、图像生成、视频生成,还有跨模态生成等等。这些技术的成熟化必定能大幅度提高人类在很多领域的效率,这是毋庸置疑的。但同时,要知道的是,这些技术也能赋能很多不法分子降低作恶成本,提高犯罪效率。



ChatGPT的例子我前面已经举了不少了,这里我再举两个除了ChatGPT之外的生成式人工智能的例子。一个是语音生成。确实,如果现在有朋友在微信中找我借钱,我都一定会跟对方视频或者通电话确认。但如果未来,AI可以被用来生成伪造的声音或者伪造的亲人朋友视频,对于老人来说,将是多么可怕的一天。


那么再来说一个例子是视频生成的。AI换脸这样的deepfake深伪技术是一个很直接的例子。可能现在大家看到的AI换脸还比较生硬,包括之前流传很广的Meta创始人扎克伯格的AI合成视频也稍显僵硬、声音也不够自然,但是要知道,AI视频生成是可以非常非常自然的。


我在斯坦福读研究生的时候有上过一门课,是我们新闻学院和计算机学院共同推出的,叫做computational journalism,专门研究技术还有新闻信息的结合,其中的一堂课上,教授给我们展示了斯坦福当时正在研究的一个AI项目,就是把人工智能技术,通过学习一段人类说话的视频素材,然后可以生成新的视频。


也就是说,这项技术,可以把我本人在我们这个视频里面说所有字,都重新排列组合,可以生成出一段我从来没有说过的话,从来没有表达过的意思,并且我的声音、嘴型还有表情都能够调整和生成得非常非常自然,人眼是根本识别不出来的。


在那节课上,当教授演示了demo之后,整个课堂瞬间就吵开了,分成了两派,我们新闻学院的同学觉得这个技术简直太危险了,虽然技术本身是能让视频剪辑变得更简单,避免跳帧jump cut,也能帮助剪辑师更快地去找到素材,弥补一些拍摄时的遗憾,或者能够帮助一些自认为表达能力不强的人更好地呈现出完美演讲的视频。


但是这个技术带来的危害性显然是很可怕的:任何人都可以被污蔑说了他没有说过的话,这些合成视频也可以被用于去诈骗、威胁和勒索。但是在课堂上,大部分工程学院的学生觉得这个技术其实没有那么糟糕,技术本身是中性是无辜的,造成问题的是人们如何去使用它,以及我们是否有方式去监测它还有监管它。



这门课我是在2019年上的,现在2023年。过去的四年中,生成式人工智能快速发展,已经从学校和公司的研发demo来到了我们身边。似乎,无论我们多么害怕一个技术,都无法阻止这个技术的到来。我们有多期待这个技术带来正面的推动,就有多担心负面影响的出现。


但现在确实到了一个时间点,我们应该对生成式AI有更多关于法律和道德上的讨论和跟进。无论是法律监管,还是安全技术,还是我们的个人能力,都需要为新技术即将带来的巨大破坏做好准备。


而对于人类个人而言,我们将如何辨别所看到、所听到的事物的真伪,将会对每个人都有更高的思辨要求。然而,人类在逐渐依赖ChatGPT的时代当中,是否能够有更高的思辨能力呢?会不会有一天,人类会选择不相信所看到的所有的东西,彻底迷失在真假难辨中呢?这是一个大问号,我们只能交给时间来验证了。


本文来自微信公众号:硅谷101 (ID:TheValley101),监制:泓君、陈茜,作者:陈茜、何源清