文章来源:极客公园

作者:张鹏

题图:视觉中国


过去一年,OPPO 改换了一副新面目示人。

 

早期 OPPO 做产品,是以“脚踏实地”著称的。他们更关注功能如何具体地落实到用户需求。比如“充电五分钟,通话两小时”,“多倍潜望长焦”,就连他们探索卷轴屏等概念产品,都显得特别接地气。

 

但近一年,OPPO 接连发布了几项有点“抽象”的技术,从一年前的马里亚纳自研芯片,到夏天的潘塔纳尔,在刚刚结束的 OPPO INNODAY 上,OPPO 又推出了一项新概念——安第斯智能云。

 

作为手机厂商,OPPO 早就在做云服务。这并非行业焦点,而各家的云服务在功能上都大同小异。毕竟也不存在竞争,用户用哪家的手机,就要用谁的云。

 

但这一次,OPPO 似乎在做一个大动作:从马里亚纳芯片、到潘塔纳尔智慧跨端系统,再到安第斯智能云,OPPO 将三者并称为“三大核心技术”,其战略上赋予的关键性不言而喻。



看起来,OPPO 正计划布局一个完全不同的“云系统”。我们不妨分析下它因何而来,又将意味着什么?

云服务的兴起


要研究一个全新的云服务,我们就不得不回顾“个人云”的发展历史。

 

个人云服务进入主流视野,可以追溯到 Dropbox 的兴起。它是第一代“云盘”的成功典范,自2008年上线后,仅7个月时间,Dropbox 就吸引了100万用户,这个速度甚至比 Facebook 的初期增长还要更快。一年后,这个数字变成了1000万。


但就在Dropbox飞奔的同时,智能手机也迅速普及,手机厂商开始入局。2011年,苹果推出 iCloud,次年,谷歌推出 Google Drive。

 

智能手机厂商、系统商的入局,给云储存带来了一项杀手级应用:储存用户智能手机上生成的数据。从照片、通讯录,到日历、邮件、应用数据。这一变化将云服务的用户面,一下拓宽到了亿级、十亿级。


但很长一段时间里,云服务的本质,都只是“云储存”而已。甚至直到今天,用户用得最多的云服务,依然是手机数据的备份和恢复。


这一背景下,用户也开始讨论,云真的可靠吗?真的有必要且无可替代吗?部分“硬核玩家”一直在尝试用本地的云储存,也就是 NAS,来管理自己的数据。这部分数据安全原教旨主义者认为,只有把数据放在自己的硬盘上,才是100% 安全的。

 

直到2015年,Google Photos 的诞生,彻底改变了“云服务”的本质。

 

自创业以来,谷歌提供给用户的“云服务”,一直偏向于“应用”而不是“存储”。比如邮箱、日历、云文档,只不过它们的本质依然是储存,用户有将一切数据导入本地的选择。

 

但 Google Photos 不一样,它是真正完全基于“云端算力”的应用。谷歌用云端算力、AI 能力,对数据进行了深度挖掘,提供了更好的呈现方式。比如 Google Photos 可以识别用户照片里的人,通过一张照片里的人脸,就可以轻松找到同一个人的全部照片;又比如用户可以通过自然语言,对图片进行检索,搜索“西瓜”、“度假”、“新年”等照片。这都是传统云服务完全不具备的能力。

 

自此,个人云服务悄悄发生了一次质变。因为用户如果将照片存在本地或 Dropbox 等云盘上,就无法实现相应的 AI 功能。所以,当我看到 OPPO 说要打造一个新的“智能云”,第一反应就是它要朝着应用化、服务化的方向加速发展。

 

事实确实如此,安第斯智能云规划的六大能力,除了传统的储存、机器学习之外,还包括云端实时渲染、智能对话、硬件仿真等能力。云端实时渲染解决的,是端侧算力不足时在端云之间实现超低时延的渲染;智能对话可以实现多场景下的人机交互,理解用户意图,主动推荐服务;硬件仿真包括芯片仿真、手机仿真。其中手机仿真是指通过手机虚拟化帮助开发者远程开发与测试。

 


这些计划都充满雄心,也值得用户期待。

 

现在,让我们把视线放回历史。谷歌发布 Google Photos 之后,“照片搜索”已经成了大部分手机标配的功能,这背后又有另一段故事,另一条关键技术路线。


“终端计算”的崛起和局限


面对谷歌的全新云相册,苹果第一个作出了应对。


2016年,在 iOS 10 上,苹果首次推出“照片搜索”功能,显然是在对标 Google Photos。

 

与 Google Photos 不同的是,苹果的相册并不利用云端算力对照片进行分析,而是用手机自身的 NPU(神经网络处理器),来实现 AI 学习、识别。

 

苹果之所以把一切放到本地运行,一方面是强调自己保护隐私,另一方面也能提升服务的可靠性,在网络环境不好的时候也能供用户使用。

 

这开启了手机 NPU 普及,以及之后“军备竞赛”的时代。到今天,每家手机厂商在发布新产品时,都会把 NPU 性能当作一个重要模块来阐释。“机器学习”在手机上的应用场景逐渐变得越来越广泛:从语音识别、图像识别处理、影像优化,甚至可以对游戏进行“插帧”,优化流畅度。

 


但 NPU 也并非事事完美。首先,它的性能依然有局限,NPU 模块的算力再强,在模型处理能力上,也无法与谷歌云端 AI 的能力相媲美。

 

其次,它依然会占用相当多的系统资源,今天很多 iPhone 用户都发现,新手机拿到手之后前几天,恢复数据后,掉电会特别快。这背后就是手机一直在跑它的 NPU 模型,对相册等数据进行识别、目录重建,也常会带来一些异常发热的问题。

 

最后,NPU 模型跑在本地,但云端的数据却横跨不同终端。所以类似苹果这样的厂商,就必须为旗下每款硬件都配备同等算力的 NPU,否则就会出现手机上能实现的功能,平板、电脑等设备因为性能不足,无法实现的问题。

 

一个最近的例子就非常典型:苹果新推出了 Apple Music 的K歌功能,这个功能是利用本地的 NPU,对歌曲的人声部分进行分析、消音。有大量老旧设备,因为 NPU 算力不足,无法体验这一功能。而这个应用是典型的,本应通过云端算力来解决的场景,因为它不涉及任何隐私问题,处理一次推送给手机即可。舆论认为这是苹果的一次“秀肌肉”,但它确实影响了老用户的体验。

 

从这个逻辑,就不难理解为什么 OPPO 要从“影像功能”入手,自研马里亚纳芯片。照片,可能是手机隐私保护级别最高的功能之一,且对实时性的要求极高。用户按下快门,当然希望马上看到经过处理、优化的图像。这一点 Google Photo 的体验就相对差一点,很多时候照片拍摄完成、上传之后,要到第二天甚至之后,才能看到经云端 AI 优化的效果。

 

无论如何,最后的结局是,谷歌、苹果两家巨头,选择了两种不同的路线。两种路线在数据处理,呈现上,分别有不同优势,很难说谁“选对了”。

 

理解了这两种路线,再回头看 OPPO 提出的“端云协同”,就会容易理解很多。

 

“端云协同”的未来


显然,“端云协同”的目标,是同时吸取云端和终端计算的优势。

 

在需要快速反应,处理敏感数据时,利用终端算力更快、更实时、无需“在线”的特性;在分析、训练大量非敏感数据时,则发挥云端省资源、算力强的特性,在云端后台实现,提升服务能力。

 

理想状况下,“端云协同”还将有一个关键优势,就是能让不同终端,具备统一的体验。这件事不一定要发生在互联网的云端,而是也可以发生在本地局域网内。

 

比如当用户用耳机唤醒语音助手时,耳机的算力显然不足以对语音进行识别。它就可以把识别任务发送到手机等其他设备,进行处理。通过这种方式,也能极大提升电视、手表等算力相对较弱设备的体验。

 

优势显而易见,但这件事也一定不简单。苹果、谷歌,两家顶级巨头都各自只做好了一件,OPPO 又要如何同时探索自研芯片、跨端系统、智能云三个方向呢?

 

答案依然要到 OPPO 的历史里去找。回顾国产智能手机市场的发展历程,不难发现,国内用户对云应用的认知、接受度相对要低一些。同时,OPPO 也很难在一夜之间拥有比肩苹果的芯片自研能力。

 

你会发现,这应该是 OPPO 在自我审视,观察市场,分析用户后,做出的谨慎选择。

 

现在,马里亚纳自研芯片已经是 OPPO 手机里关键的 AI 芯片,核心差异与优势在于 NPU,也就是 AI 算力,为终端性能与更广阔的应用前景打下坚实基础;潘塔纳尔则是不同设备操作系统之上的共用“中间件”,让数据、服务,能够在不同终端间流转,实现真正的以人为中心而非以设备为中心;最后,安第斯智能云将那些重算力、大数据的任务拿到云端,成为多设备共享的“智慧大脑”。

 

对 OPPO 来说,选择这个目标本身,基本上就是选择了一条漫漫长路。因为同时涉及三个核心技术的发展和协同,挑战是相当之大。


不过我问了问 OPPO,据说陈明永在战略上是把决心和耐心都准备好了,“在芯片研发上不要寄希望于奇迹”,他曾经明确表达了这个观点。

 

其实所谓做“难而正确的事情”,首先是要找到正确的事情。这样,即便要“滚石上山”,也是有意义的艰难。