就在刚刚,第四范式自研大模型“式说”(4Paradigm SageGPT)在上线2个月后,终于来了一波能力首秀。
而且纵观整场活动的发布,最直观的感受就是:不一样,着实不一样。
怎么说?
首先,他敢在现场演示的时候,拔!网!线!

这张照片中有一组穿着制服的男子站在一张桌子前。

再来看下以文生图的能力,先让它画一下“狮子头”:

第四范式不在怕的,马上在现场演示了起来:


但“不一样”的点还不只于此,而且上面展示的这些能力,也仅仅是“开胃菜”。
因为第四范式的GPT,并不是“你以为的你以为”,而是不同于其它厂商的一套玩法——
用AIGC的能力重构软件(AIGS),目的就是以此来提高企业软件的用户体验和开发效率。
例如让“式说”分析集装箱及小箱子尺寸,并设计装箱方案。
它就会先向用户咨询与之相关的细节的信息,然后便一步一步执行它的方案,还是会给出思考过程的那种。

C端产品已经逼近用户体验的上限,而B端的企业级软件往往是个十分复杂的执行系统。
目前这些B端软件极为复杂的交互体验,以及复杂性带来的极低开发效率,恰恰为生成式AI留下足够大的重构和改造空间。
不是你以为的GPT整体来看,“式说”之所以能够拥有上面展示的这般能力,是因为在它的背后拥有三大技术“利器”。
首先就是多模态大语言模型技术。
“式说”在最初2月发布之际所支持的能力是单一模态的,即文本对话能力。
而时隔仅1个月,第四范式便将语音、图像、表格、视频等多模态输入及输出能力融入了进来。
第二大技术“利器”,则是企业级Copilot。
值得一提的是,这个Copilot并非是微软、GitHub的那个Copilot。
而是第四范式通过自研大语言模型对专业领域的知识做理解,以便帮助用户实现某些功能。
例如在开发的过程中,在企业级Copilot的加持之下,所需的成本就只是把API对接进来即可。
什么概念?
这就好比ChatGPT Plugins一般,只需要安装特定领域第三方的插件,就能让ChatGPT在这个领域变得更加聪明、专业。
同样的,当企业使用“式说”时,Copilot就可以调出企业软件的有关功能,员工可以通过语音、图像、表格、视频等形式获取想要的答案。
例如在航空制造业,软件设计人员只需要上传一些图片,即可提出要求让“式说”在上百万的工装零件库中找出相似零件,并进行组装:

但若是仅仅如此,依旧还是远远不够的。
因为上述能力只能去应对某些单一的、碎片化的任务,而产业中的问题往往更加纷繁复杂。
就好比我们在用Photoshop去美化一张图片时,往往需要涉及裁剪、调滤镜、调亮度等等多个步骤。
不过往往人们想要的结果是一步到位,直接说一句“给我生成某个产品的海报”,所问即所得。
而这种情况放在企业生产过程中,不仅是要完整结果那么简单,还需要对生成的过程做到“不黑箱”,步步均可解释。
为此,第四范式便在上述两大“利器”之上,引入了第三个关键技术——企业级思维链(Chain of Thought,CoT)。
思维链这个概念最早是由谷歌提出,是一种特殊的上下文学习。
它不同于标准提示只是给出输入-输出对的示例,思维链提示还会额外增加一段推理的过程。
员工只需要交代一个任务,它不仅能够给你一个较为完美的答案,而且还会把期间所有流程是怎么思考的、如何执行的,一一都解释清楚。
值得一提的是,第四范式这种企业级思维链是针对特定领域学习的“套路”,是更具专业性、可信度的那种。

据第四范式介绍,早在BERT出来的时候,范式研究院就开始关注并投入在这个技术领域,GPT3出来以后就更加明确了这个方向。
与此同时,第四范式也坦诚地说“相比今年的投入,过去几年肯定还是有差距的”。
整体来看第四范式的技术路线,大致可以总结为三步:
式说1.0:拥有生成语言对话能力,主要场景是文库问答;相当于让GPT学习的企业知识后,可以自然地与员工交互,解答专业问题,并且是可溯源的。
式说2.0:加入文本、语音、图像、表格、视频等多模态输入及输出能力,并增加了企业级Copilot能力。
式说3.0:发力Copilot和思维链,提升使用传统B端企业软件的体验。
为何如此布局?一言蔽之,AIGS,即用AIGC的能力重构软件。
毕竟能够用起来的技术好技术,虽然AIGC热潮很火爆、诸如GPT-4这般效果非常强悍的技术出现了,但它们之于产业,目前又带来了怎么技术价值?
这便是第四范式所思考的根本问题,而且戴文渊表示:
要做到AIGS,大模型未必需要是知识广博、十项全能冠军的通才。
更重要的在于模型具备Copilot和思维链CoT的能力。
在第四范式看来,传统B端软件先是出现过体验上的不足,例如企业内的报销系统、HR系统、OA系统等,可以说是“菜单接菜单,菜单何其多”。

例如在AI改造后的企业软件,以预定会议室为例,不再需要在选日期、选时间段、选会议室了。
而是像跟秘书对话一般,直接来一句“帮我预定某某时间段的会议室”,即可。

在企业软件开发上,亦是如此。
因为传统B端企业软件往往都是高度定制化、基于菜单式的开发,每次一个功能升级,又要周而复始的经历原型图、设计、开发等,至少是月级别的开发时间。
但由于新的交互形式的出现,现在功能和逻辑只需在数据、API和内容层面下功夫即可,变成了天级别的开发效率,这又是颠覆之一。
正如第四范式所说:
我们看到大模型能够带来用户体验的提升,开发效率的提升,所以一定会形成软件行业的飞跃,就是谁率先能做出来的问题。
当软件产业被改造以后,整个行业的业务价值、商业模式都会得到飞跃。这是一个巨大的市场。
那么AIGS这条路,具体又该如何走?
第四范式对这个问题也给出了自己的见解,主要分为三大阶段:
第一阶段:Copilot调动不同的信息、数据、应用,作为助手完成用户的指令。相当于在所有企业级软件系统里,配备一个指挥官。指挥官听用户的指挥,比如“把照片亮度调亮20%”。
第二阶段:Copilot+基于企业规则的“知识库”,AI能够参照规则做复杂工作,比如AI查询了“人像美化”知识库后,能执行把照片修好看的步骤。
第三阶段:Copilot+CoT。软件系统的使用行为最终会被大模型学会,形成AI针对这个领域的思维链,意味着“把照片处理得更好看”这种复杂指令,AI能自动地按照步骤完成。

但更深一层的,若是细看下第四范式的过往,就不难发现如此布局背后的本质——“做企业级”、“与软件公司打交道”似乎一直是刻在第四范式的一个基因。
那么这一次,第四范式是否能用AIGC重塑产业软件的新范式,是值得期待了。