模型即服务(Model as a Service),简称MaaS,指的就是像OpenAI一样将自家AI模型的接口开放给广大企业用户或个人用户,用户仅仅需要在调用该模型的基础上,进行一定程度的个性化微调,就可以完成各种多元任务。说白了,只要是将模型应用起来,都可以视为模型即服务。
如今国内已有超过两百个所谓的大模型发布,国内“百模大战”如火如荼,大战下半场,舆论重心也逐渐从比较模型的参数规模和技术跑分,到思考如何将模型更好地应用到实处。
此时也出现了多种声音,关于大模型的应用,关于小模型的应用,基于大模型的小模型的应用等等。而小模型这一词汇逐渐占据视角的同时,也让不少人开始思考,那么多大模型是否真的有必要?以及大小模型将会如何共同发展?
一、为大而大,及时刹车
如今,模型的为大而大,正在刹车。
此前几个国内主要的大模型都曾宣称自己的参数规模超千亿级别,有的甚至是万亿,一时间,对比各大模型参数的数量级,成为不少AI爱好者茶余饭后的谈资。
然而百度李彦宏在近日的圆桌会议上发言称:“100多个大模型浪费社会资源……尤其在中国算力还受限制情况下,企业应该去探索各行各业的应用结合、全新的 App产品可能性等。”
李彦宏的发言并非是因为已经疲于作战,而是及时参透了为大而大的假象。
其实早在今年4月, OpenAI 首席执行官山姆·阿尔特曼(Sam Altman)就在麻省理工学院交流时说过:“我认为我们正处于巨型模型时代的结尾。”意在表示新的进步不会来自于让模型变得更大,“我们会以其他方式让他们变得更好。”
并且谷歌和微软也确实都在积极拥抱小模型。
谷歌在今年5月份的开发者大会上发布了新一代大语言模型 PaLM2,总共四个尺寸,其中参数体量最小的模型代号“壁虎”有被着重介绍,虽然当时并未给出“壁虎” 的具体参数规模,但谷歌CEO皮查伊说,“壁虎” 可以在手机上运行,而且速度足够快、不联网也能正常工作。
在11月的Ignite2023上,微软董事长兼首席执行官Nadella在主题演讲中就推出了基于微软云计算Azure的MaaS服务,紧接着便直言“微软喜欢小模型(SLM)”,并宣布了名为Phi-2的小型语言模型,该模型参数仅有27亿,尽管比起Phi-1.5的13亿参数有所增长,“但Phi-2在数学推理方面的性能提高了50%,并且是开源的,还将加入MaaS。”
这些国内外AI巨头大模型刹车的背后,实则是因为大模型竞赛问题丛生。
浪费算力的问题首当其冲。
11月中旬,微软研究院机器学习团队的负责人Sebastien Bubeck在推特上发布了一张图,显示了在MT bench的测评体系下,仅有27亿参数规模的Phi-2得分6.62,18000亿参数的GPT-4得分8.99。
此前就有人爆料GPT4训练一次的费用可能达到6300万美元,然而如此高昂的代价,带来的并不是跟随成本线性增长的性能,山姆直言:“扩大模型规模的收益在递减。”
简而言之,办好七成的事情只需要花一块钱,与办好九成的事情可能需要一千元,对于每个企图入局大模型的企业而言,都是一件需要在战略层面抉择的事情。
显然,很多竭尽全力往更大规模上靠的大模型都选择了花更多的钱,还不一定能办好九成的事,造成了极大的算力浪费,这些算力都会实打实地消耗芯片和人力。
其次,更大模型带来的AI涌现,将变得愈发不可控制。
OpenAI认为,未来十年来将诞生超过人类的超级AI系统,彼时“基于人类反馈的强化学习技术将终结”。
也就是说,当AI超越人类后,AI不会再听人话来进行训练调整,那时候AI自我进化会带来什么后果,许多科幻作品已经为我们敲响警钟。
哪怕暂且不提不远不近的未来,只看眼前,通用大模型要应用到实处,本身就是一个难题。从技术出发去匹配应用场景,容易本末倒置。
此时许多垂直大模型才是用对了思路,直接从业务角度出发搭建大模型。
但关键在于,这些垂直大模型虽然在往更大规模上靠拢,却又算不上“大”。此时的“大模型”反而变成了一个象征意义的前后缀。
比如农业银行基于其本身业务推出的大模型小数(ChatABC),参数达百亿,相比起几个通用大模型动辄几千亿上万亿的参数规模,百亿并不算大。而面对垂直行业的业务,模型也实在没必要过大。
参数到达多少亿就算是大模型了,随着技术的发展,恐怕是不会有确切不变的标准的。微软现在认为自己27亿的模型就算小模型,但在早几年前普遍认为上亿就算大模型了。
不过不管多大多小,重点在于,搭建模型的目的是什么?
二、以小驭大,把缰绳交给用户
我们需要离用户更近的模型。
在用户层面来看,如何更快更好更低成本地使用工具达成自己的目的才是核心诉求。
如果将通用大模型直接给C端用户使用,使用成本高,不够个性化,恐怕都将成为难以维系商业可持续性的原因。
一个很典型的例子就是使用GPT-4,每次对话结束后都会清空,它不会记住你之前有什么样的需求偏向,导致AI带来的效率提升大打折扣。相信也正因为如此,OpenAI会推出GPT的应用商店,允许用户搭建自己的GPT个性化应用。但GPT-4仍要收取一定的会员费用,其实这笔费用对于世界各地广大C端用户而言并不算低。
那么这个时候,如果有一个直接从具体的业务场景出发训练搭建的模型,相信对于用户而言使用成本和效率都会更理想,而这样的模型往往也不会太大。
更不用说以后的模型即服务更大的应用场景在于让AI走下云端,走进移动端,将模型塞进手机、智能汽车、机器人等设备,进行离线运行,这只有较小的模型才能做到,上文说到的谷歌“壁虎”可在手机离线运行的意义便在于此,毕竟一个只要没网就无法运行的AI智能设备实在鸡肋。
在创业角度来看,搭建离用户更近的模型自然也更有生存空间。
一个很典型的例子就是,在SaaS(软件即服务)时代出现了一种情况:针对具体地区某个细分餐饮品类点单小程序这个场景,仅仅一家十人左右的公司就可以搭建起一套SaaS系统的研发和销售,创始人以前就是开这种餐饮店的,积累了相当多的同行资源以及场景痛点,如此的小系统,成本低,且更懂用户,在售卖软件环节轻而易举打败许多通用型餐饮点单SaaS系统。
MaaS时代极有可能也会出现这样的事情。
小一些的模型和大一些的模型当然不总是竞争关系,“大模型可以成为小模型的基座”这是很多人已经达成的共识,但在这个观点之下更底层的关系在于,较小的模型离用户更近,较大的模型走得更远,以小驭大,让人类走得更远。
在模型的应用开发方面,早就有用小模型驾驭大模型的实例。
比如上文提到的Ignite2023微软CEO就在介绍小模型时表示“可以将微软的云计算AzureAI能力从云扩展到任何端点”,调用GPT-4的强大功能,定义自己的小模型。
国内则是有华为的盘古大模型3.0,提供5+N+X的三层解耦架构,其中的“5”指的就是基础大模型,“N”是通用层面,“X”则是具体应用场景的小模型。
较小的企业比如做营销解决方案服务的沃丰科技此前表示,他们在模型训练上采取了两种策略。一是固定一部分参数,只对其余参数进行迭代。二是在通用大模型基础上,进行小模型迭代。
个人用户基于GPT大模型搭建属于自己的GPT应用,也是典型的以小模型驾驭大模型,毕竟,小模型更懂你,大模型更全能。
而在AI进化这方面,上文提到过的OpenAI的隐忧,即AI的进化将变得不听人话,出现的问题也将超过人类认知,针对这个隐患,OpenAI目前想到的解决方案就是用小模型去监督大模型,原话是——“弱AI监督引导强AI”。
这来源于12月17日OpenAI在其官网上发布的一个全新研究成果:一个利用较弱的模型来引导更强模型的技术,即由弱到强的泛化。
在此前类似的研究中,由弱替代强被称为模型蒸馏。它可以生成一个小的、高效的模型,这个模型可以在资源受限的设备上运行,同时保持与大模型相似的性能。原本的研究出发点是在移动设备或边缘设备上部署较大的AI模型。
而OpenAI此举则是为了监督强AI的进化,OpenAI称其为超级对齐,我们可以理解为,让听得懂机器语言的大模型向小模型看齐,让既听得懂机器语言又听得懂自然语言的小模型向人类看齐。
OpenAI这里用的弱AI和强AI分别是GPT-2和GPT-4,GPT-2的参数为15亿,如果研究结果切实可行,也就意味着人类可以用15亿参数的小模型驾驭18000亿参数的大模型。
由此可见,较小的模型不管从应用层面还是进化层面都成为了缰绳,缰绳的一边是人类,另一边是远超人类的超级AI。
三、写在最后
著名科幻动画片《爱,死亡和机器人》第二季第一集《自动化客户服务》中讲述的故事是,人们生活在一个几乎所有的设备都连接了智能AI的未来世界,在故事前半部分的烘托中,人类跟这些AI设备完全没有深度交流,仅仅只是下达指令让他们做事。故事的结局是,所有设备联合起来追杀人类。
同样也是《爱,死亡和机器人》,第一季让人印象深刻的《齐马蓝》,讲述的则是一个叫做齐马的艺术家,他边画画边探索宇宙的奥秘。然而他的每一幅作品中间都有一个蓝色的方块。
后来齐马接受采访,讲述了一个泳池清洗机的故事,并称这个泳池清洗机“最初来源于一位才华横溢的年轻女士的创造”,“她最喜欢的机器人就是这个。”后来,这位女士基于这个小机器人不断地进行改造,直到这位女士死后,机器人被继承给了别人继续迭代,并变得越来越像齐马。
在最后一场艺术家的发布会上,齐马跳进泳池里欣然切断了自己的高级大脑,只剩下他最本真的部分——泳池清洗机,然后开始用自己的小刷子刷泳池上的蓝色瓷砖块,并发出感慨:
“我对真理的探索终于结束了,我回家了。”