2023下半年之后,几乎所有AIGC的赛道玩家都或多或少地把目光投向了大模型的商业化,以及更广泛的场景运用之中。尽管AIGC能够胜任和普通人陪聊、娱乐的任务,但对于大多数普通人来说,AI普惠大众的愿望似乎还未完全满足。而随着2024年CES大会开幕,端侧大模型的应用将为AI的普惠带来解法。高通、英特尔等厂商已经确定将会携多种支持端侧AI部署的智能终端参会。联想更是一口气拿出10余款结合个人大模型的AI PC产品重磅亮相。可以说,这场号称一年一度“电子春晚”的盛会,已成为了AI PC横空出世的标志性节点,在这个节点之前,虎嗅希望通过《请回答AI PC》专题的第三篇文章,探究围绕着AI PC的两个基础性问题:AI PC为何是大模型普惠第一终端?它又是如何将大模型与PC设备很好地融合在一起的?希望能通过对这两个问题的阐述,提前让你了解AI PC背后的独特价值。

 

大模型落地个人的最后一公里,为何要看AI PC?

 

在万众瞩目的2024年CES大会到来之前,人工智能领域基本上完成了一次应用的的下放平权。原本高深莫测的AI,变成普通人唾手可及的“对话式应用”,人机对话的门槛从“代码级”下降至“自然对话级”。涌现出诸如Open AI的Chat GPT、微软的copilot、百度的文心一言等一众大模型应用。


 

而在现实应用中,大模型不但可以帮我们写文案,做攻略,而且在一些需要应付甲方的创意行业中,还能够承担90%的基础任务(基础作图,基础创意文案等),这对打工人的工作效率已是极大提升。

 

尽管人工智能迈出的这一大步已经可以称得上是一次伟大的产业革命,但对于普通人来说,仍旧会有这样的感触:为什么大模型应用看起来仍和我们的生活充满距离感呢?

 

上述问题的出现主要是基于两点:

 

1,目前所谓的大模型产品大多都是通过WEB和浏览器提供的AIGC云服务,如Chat GPT、文心一言、讯飞星火;亦或是通过桌面端或移动端客户端(APP/APK),提供打包式的一体化应用,比如在“文生图”领域表现上佳的MidJouney V5。然而,上述这些基于云端的大模型产品,大多都是按 Token(类似请求数量)收取费用,而且订阅价格不菲。同时,由于 AI 大模型在生成回应时有一定随机性,用户往往不一定能在一两次请求就能实现目的。所以,用户在使用 AI 大模型时代价高昂,早前就有不少开发者因为较先进的 GPT-4 的价格太贵,因而甘于用较笨的 GPT-3.5。另一方面,云端使用大模型会导致你每个生活习惯都上传到 AI云服务器,这就会使用户面临个人信息和数据被误用或被泄露的安全风险。

 

2,普通用户对于目前基于基础大语言模型(LLM)上的应用依然存在使用门槛,他们需要通过观摩和实践,掌握提示词(Prompt)的相关知识,问对了问题,才能得到正确的答案;这对于创作文本、音乐、图像等应用相对轻松,可一旦涉及专门领域的知识(如工业设计、基础编程)或垂直领域的应用(如智能制造领域的机器对话),就必须进行基于基础大语言模型的混合模型开发。

 

针对于第二点,OpenAI在首次开发者大会上已经给出了解法:其发布了GPTs+Chat GPT-Turbo的王炸组合,让Chat GPT再一次完成进化,并且使得零代码建立混合模型成为现实,为AIGC大规模进入普通人生活和广泛的行业应用铺平道路。

 


而面对第一点,大模型在端侧的应用成了解决之道。早前,一些厂商推出了一大波内建 AI 大模型的智能手机。因为考虑到其便携性强,能够使用户随时随地应用AI能力,但“体积小”是把双刃剑,它们在方便取用的同时也必然意味着其无法内置体积偏大的高算力芯片,因此很难承载大模型的推理任务。即便有很多 AI大模型为了能在端侧移动设备上跑动,把原来的 200 亿参数瘦身至 70 亿左右,但真到了手机端上应用撑死只能跑上 10 多亿参数的大模型而已。

 

其次是应用场景。目前手机上的所谓大模型最多也就是语音助手,而不是真正的智能助手。所以,在人多嘈杂的环境里,无论手机AI有多强大,用户要不就是苦于环境嘈音妨碍,要不就是担心这些高度私密的信息会被路人窃听。

 

至于生产力场景,用户很少在手机这小小的触控屏上,长时间生成和修改图片、也很少人会经常在手机触控屏上写文案、生成 PPT,更不要说在手机上进行简单编程了。

 

那么什么才是大模型应用最理想的智能终端呢?知名AI艺术家、数码领域博主、BORDER工作室创始人逗砂有自己的看法,她向虎嗅表示:“我常年要从事一些创意艺术类工作,且经常会去一些地方汲取灵感,所以随身要携带自己的生产力工具——PC,去年花了 2w多自己攒了个PC机,没多久原来的显卡不太够用,市场上4090一卡难求。足以见得,AIGC时代的创作者对机器的需求改变得非常快,PC端与AI加速融合是一个大趋势”。

 

从算力承载能力上来看, PC 比手机体积更大,也不需要长时间待机使用;因此,它能使用更强的处理器、更多的内存和更大的电池,自然也能承载更强的 AI 大模型。英特尔技术部总经理高宇接受采访时表示,他们刚推出的可以在AI PC上应用的Meteor Lake 芯片,不仅支持主流的130亿参数大模型本地运行,甚至可以支持200亿参数的大模型,有需要的话更可以让CPU和GPU协作,带动更强大的 AI 应用。

 

从应用场景上来看,这一波 AI 大模型的浪潮所带来的绘图、文案、PPT、编程等新式智能应用,将会全部覆盖 PC 的主流生产力应用。毕竟在没有应用的情况下,体验是体验不到性能的好坏;可能有了具体的应用,用户才会卖账。比如帮你智能开会,自动帮你做会议记录的调整等。

 

身为AI艺术家的YANG II对此深有同感,他表示:“作为一名运营广告传媒公司的负责人、以及一位视觉艺术从业者。我相信AI PC将为我的日常工作带来更多的变革和实质性的效率提升。尤其是AI PC可以配置外接显卡的拓展功能和本地化的‘个人管家’服务,这些创新不仅令人兴奋,还预示着我们将能随时随地携带‘个人工作站’,将无限可能带到身边。每个人未来都将拥有自己独特的‘个性工作站’和‘移动工作台’。”

 

对于“电厂”编辑、数码领域博主Alan来说,针对PC生态开发的混合AI助手,对于日常办公场景来说无疑是极大的福音:与本地文档结合、快速处理办公文档、PPT 的修改以及离线处理能力,AI PC的出现让端侧大模型的能力越来越清晰的同时,还在不断扩充其边界,能够覆盖几乎所有办公场景下打工人的基础需求。

 

把大模型放进PC里,到底有多难?

 

虽然我们说 AI PC将会是 AI 时代的关键,但要实现 AI PC 的普惠愿景,一点也不容易。

                    

                      

首先是底层算力层面, AI 算法与我们日常接触到的 PC 传统算法,完全不一样。传统程序的算法往往是几个复杂的算式所组成,所以传统 PC 芯片也往往采用高算力的少数CPU核心去应对。但 AI 算法却由海量的简单算式所组成,传统PC的少数高算力核心面对简单的 AI 算式时,会出现两个问题:一,CPU核心出现算力过剩;二,这些数量不多的高算力CPU核心,无法在同一时间快速完成海量算式的计算(上图)

 

因此,以往传统 PC 跑 AI 算法,只能使用拥有强大并行计算能力的图像处理芯片(例如英伟达 4090Ti 等 GPU)的高性能 PC。但重度游戏玩家都知道,搭载这种高性能 GPU 的 PC 不但极为昂贵、发热严重,耗电量极高,用户体验不好,导致AI 应用迟迟在传统 PC 上难以普及。

 

但随着高通和英特尔分别在 AI PC 的处理器芯片上,加入专门为 AI 算法而设计的运算单元,终于让 AI PC 能在较低廉的价钱、以更快的速度、和更低的功耗下,执行各种 AI 应用,并搭建好了 AI PC 的算力底座。

 

其次是运行性能层面,AI 大模型动辄逾百亿的参数,构成了庞大的信息量。AI长时间在后台待机,协助用户处理各种问题,将会大量占用 CPU 和内存;用户在使用 AI 时,将会感到非常卡顿。按照英特尔技术部总经理高宇的说法就是:今天我们用的都是云端的大模型理念,就是通用型模型,体量很大,很难塞入本地模型。但是PC上不应该是这样的,它将来可能是要解决PC相应的问题,需要训练出更有针对性的模型进行本地运用。大模型还在变化,可能在不久将来,就会出现PC专用模型。

 

作为首个宣布推出 AI PC 的厂商联想,最近就成功克服上述技术难题。他们打通 AI 与应用和硬件之间的调用关系,并率先成功把几千亿个参数的服务器级大模型,通过各种蒸馏等技术手段,瘦身成为 PC 级别的模型。在这前提下,一般用户终于可以在不怕卡顿的情况,在 PC 享受 AI 持续的服务。

 

(图示:联想结合个人大模型的AI PC产品)


除了以上的难点之外,设备间的协同问题同样不容忽视。因为最初的 AI 大模型属于云端系统,他们与 PC 端侧设备并没有交集,AI 无法与PC 里的应用和设备协作,更遑论改善用户的生产力。尽管后来微软推出了 Copilot,让AI驱动 Office 应用,用户张张嘴就能生成 PPT。但无论微软和 OpenAI 有多强大,他们的优化也难以覆盖至Photo shop 等其它应用;更麻烦的是,这些 AI 大模型可能还要调用摄像头或打印机等硬件、甚至与智能家居等周边设备协作?最终可能需要由 PC 设备生产商进一步调优。

 

最后是大模型使用的体验感层面,市场上有大量的 PC 用户,不同的用户有不同的需求,一般消费者需求简单,光是端侧大模型就能解决;但在一些诸如学术科研等应用场景中,往往需要更强的 AI 能力,参数较少的端侧大模型往往无法实现。这时候 AI PC 要不就是快速调用云端的大模型,要不就是采用较高性能的硬件来实现。但是,中科创达物联网事业群副总裁杨新辉表示:“厂商要掌握云端和端侧边界的精确识别和切换,本来就很不容易;即便采用较高性能的硬件,由于不同PC系统在架构上也有差别,要针对不同硬件而为大模型优化,同样极为困难。”

 

因此,一些PC厂商为进一步针对用户的需求改变体量,让不同规格的 AI PC,与不同能力的大模型匹配。例如,联想将在CES大会上展出的AI PC  ThinkBook 14 i Gen 6+5最高可配备14.5 英寸 3K 显示屏,并包含一个图形扩展(TGX)端口,支持全新的ThinkBook Graphics Extension (TGX)5底座,可快速提升AI计算能力。同时基于联想在服务器领域的经验,以及“端、边、云、网、智”的新 IT 能力积累,其AI PC产品可以实现端侧和云端大模型两者精准地实时切换。

 

所以,AI PC产业发展的背后,需要的不仅要拥有技术实力,而且要具备产业之间,生态之间,设备之间的合作能力,同时在这些的基础之上还要让用户有更好的使用体验感。可以说,端侧大模型在PC应用的技术,是门槛非常高的,这对于处于生态链中心的PC厂商来说,是一次挑战,也是一个机会,先建立起自己护城河的厂商会先吃到AI PC革命带来的甜蜜果实。

 

AI 自己又怎么看 AI PC?

 

在撰写本文之前,我们做了一个有趣的采访,问windows copilot是怎样看待AI PC的发展。它表示:

 


AI PC 的未来发展看起来非常有前景。以下是一些关键的观察和预测:

 

  1. AI PC 的概念和本质:AI PC 将 AI 模型与 PC 结合,带来架构设计、交互方式、内容、应用生态等创新,将深入变革 PC 产业。AI PC 的本质是云端与本地端协作,利用云端的大数据处理能力丰富本地端的 PC 使用场景,依托云端算力来提升本地性能平衡。


2. AI PC 的发展趋势:AI PC 的发展正从软件主导转向硬件+软件并行驱动。AI PC 在中国 PC 市场中新机的装配比例在未来几年中快速攀升,将于 2027 年达到 81%,成为 PC 市场主流。


3. AI PC 的市场价值:AI PC 有望催生新一轮换机周期,促使全产业链受益。AI PC 在中国消费市场中新机的装配比例将略微高于 PC 整体市场。


4. AI PC 的产品发布:2024 年有望成为 AI PC 的元年。联想集团已展示了首款 AI PC,并预计搭载端侧大模型的 PC 在明年 9 月份以后上市。


5. AI PC 的影响:AI PC 将颠覆 PC 传统硬软件等形式。AI PC 的推动下,PC 产业生态会发生颠覆性变化,从应用为本转向以人为本,从应用驱动变为意图驱动,这将重构产业供给关系。

 

总的来说,AI PC 的发展将深刻影响 PC 产业,带来新的增长机遇,并可能颠覆传统的 PC 使用体验。

 

可见,除了产业和分析机构高度看好 AI PC,就连 AI 自己也看好自己在 AI PC 的发展。不过,再过些日子,或许copilot得更新答案库了,因为搭载端侧个人大模型的PC,我们很快就可以在CES上看到了,而且还不止一款产品。