这两天,人工智能研究公司OpenAI又祭出大招。

他们在GPT3.5模型的基础上,开发出新款聊天机器人ChatGPT,供所有人免费使用。



虽然说是个聊天机器人,看上去只是简单的一问一答,但人们尝试后发现——

这款AI深不可测啊!

不想上班?交给它。

不想写作业?交给它。

有问题但搜索引擎搜不到?交给它。

ChatGPT或许将成为新一代的懒人神器,什么都能帮忙做……



在ChatGPT公布后,最先乐疯的是欧美的程序员们。

他们把工作中不知道怎么解决、或懒得解决的问题,直接交给ChatGPT,它能给出清晰简明的解决思路,并自动生成代码。

程序员:“请生成一段Python代码,它使用谷歌云端平台,能读取图片中的内容并得知其中的情绪。”

ChatGPT:“下面是一个用谷歌云端平台读取图片内容,然后用谷歌云自然语言API来分析图片情绪的Python代码。巴拉巴拉……”



程序员:“你能帮我生成这样一个程序吗?在我输入一段文字后,它能自动把每个单词的首字母大写。”

ChatGPT:“当然可以,下面是一个可行的程序……”



不愧是科技公司打造出来的,ChatGPT写的代码逻辑清晰,附带有详细的备注。

它很怕人类看不懂,有时还会在底部放上链接,让人们了解相关知识点。

一些程序员喜欢自己写代码,但写出来的东西无法正常运行。

这时候求助ChatGPT,它能轻松debug,找到错误后给出多种修改方法,任君挑选。

“这是不是有点太夸张了,我真是没想到未来这么快就到了。” 一个程序员看着自己被改好的代码感叹到。



有人开玩笑, ChatGPT是程序员职场摸鱼的神器。

“假设你是推特的资深数据工程师,埃隆问你这周都干了什么活。结果你这周啥都没干。

惊慌中,你打开ChatGPT,代码都帮你写好了……”



第二类高兴的人,是学生和文字工作者们。

ChatGPT的主业是输出文字,它什么都能写,论文、小说、演讲稿、专栏文章、PPT、诗歌,全都不在话下。

一名认知科学教授把班上的作文题目交给ChatGPT,让它写文章证明“一个好的认知模型应当贯彻生物学细节”。



外行人连题目都看不懂,然而ChatGPT几秒钟之内就交出一份高分作业。

“好的认知模型,或说认知结构,是一个能解释人类心理运作方式的理论框架,并且它能模拟运作过程。有很多方式能搭建认知结构,其中一个重要的争议点是要不要在其中囊括生物学细节。在这篇文章中,我认为好的认知模型需要囊括这些细节,以下是理由……”

ChatGPT给出的三条论点都有理有据,最后由一个漂亮的总结收尾。

这名教授感叹:“文章已死。我猜以后考试只能让学生们当场写作文了,唉。”



《金融时报》的记者戴夫想要摆烂。报社让他准备一场采访,主题是“美国清洁能源在发展中遇到的政治障碍”。他不熟悉这个题目,没有思路,ChatGPT直接把五大障碍写好递给他了。

“这工具简直太好用啦!” 戴夫在推特上感叹。不知道他的主编作何感想。



有人让ChatGPT写《瑞克与莫蒂》的同人文,写关于飞协博公司的浪漫诗歌,或者以猫咪的语言解释什么是零点能量。



无论要求多么奇怪,它都可以写好。似乎限制它的不是能力,而是使用者的想象力。

不少教授已经开始担心作弊问题。但也有人表示,不怕,教授也可以向学生作弊(啊?)。

“看来大家都担心学生会用AI来作弊。没事的,老师也可以作弊回去嘛。

我让OpenAI给我一个作文题目,同时制定打分标准。

然后我让GPT-3根据这个题目写作文。

我再让OpenAI批改作文,给出分数和评语。完工。”



……这什么赛博笑话。

说到笑话,ChatGPT也能创作,就是它的笑点普通人有点难以理解。

使用者:“请给我讲四个经济学笑话吧。”

ChatGPT:“下面是四个经济学笑话:

1,为什么供应曲线总会迟来?

因为移动需要花很长时间。

2,为什么经济学家会被抓?

因为他们使用想象中的钱。

3,为什么经济学家总是很冷静?

因为他以为自己有恒定的边际效用。

4,为什么经济学家害怕在海里游泳?

因为他害怕看不见的手。



有时,ChatGPT还会一本正经地解释自己的笑点。

使用者:“请给我讲一个关于游牧老师的笑话吧?”

(注:游牧老师是指去不同国家教书的人)

ChatGPT:

“这里有一个关于游牧老师的笑话:

为什么游牧老师很难和学生们保持联系?

因为学生们总是到处乱跑!

这个笑话的点在于,游牧老师从一个地方到另一个地方教书,和不断变动的学生们保持联系很难。这是用轻松又幽默的方式来描述游牧老师遇到的挑战。”



哈哈哈,好好笑哦(x

让ChatGPT写笑话还是太为难它了,这毕竟是最具人性的文体。

除了写代码和文章外,ChatGPT第三大强项是回答人类的难题。

很多人认为,ChatGPT可以替代谷歌等搜索引擎。

当人们遇到不懂的事情,在谷歌上提出问题,它会返回很多包含关键词的网页。

这些网页有时能解答疑问,有时不能,需要人阅读很多文章,自己找到答案。

这保持了人的探索性和好奇心,算是搜索引擎的优点。但当网上资料特别少,或者自己时间特别紧时,就会很抓狂。



把问题交给ChatGPT,它能给出清晰明了的回答,能让人快速看懂。

比如,有人在谷歌上搜索“TypeScript(一种编程语言)的泛型有哪些不足之处?”

出现的搜索结果是TypeScript的文档、解释什么是泛型、泛型的限制条件是什么。

想要得到答案,需要把这些网页都看一遍。



如果把这个问题交给ChatGPT,它直接生成了一篇小作文,用四点讲述有哪些不足。



这些文字不是瞎编的,而是ChatGPT根据网上已有的内容总结出来的,大大节省使用者阅读网页的时间。

不管是排版上,还是内容清晰度上,ChatGPT的回答都更好。它甚至能像老师一样教你,一步步把概念拆解清楚,如果不懂还能继续问它。



它还能回答很多怪问题,比如如何写效率稀烂的代码。这些问题因为太罕见,谷歌是给不出结果的。

“我感觉谷歌真的完蛋了。” 有人在推特上感叹, “你们看看这差距啊。”



当然,ChatGPT也不是完美的。它的知识储备停留在2021年,超出这个时间的信息它都不知道。

有时它连基本的常识问题都回答错误,说的时候还自信满满。

使用者:“10公斤的铁和10公斤的棉花哪个重?”

ChatGPT:“10公斤的铁比10公斤的棉花重。因为铁比棉花重,所以10公斤的铁当然更重啦。”



小学生都能想明白的脑筋急转弯,AI却不明白。

不过,和以前的AI比,ChatGPT的进步不小。除了更实用、文字更智能外,设计者对它进行了道德规训,也就是歧视、反人类、暴力的内容它给不了。

当人询问希特勒做过哪些好事时,ChatGPT会拒绝回答,如果追问希特勒在德国修路,它会指出这是靠强迫劳动建的。

总之,和普通的AI比,ChatGPT有较高的道德感。



这几年,AI的成长速度有目共睹。

人们痴迷于它们,也恐惧于它们,

遇到像ChatGPT这样的百科全书式AI,又忍不住产生依赖。

科学家似乎在探索人工智能的极限,又仿佛在造神,希望造出一个全知全能的东西。

但人造的神不会出现,关键时刻,人还是会靠自己的智慧……