本文来自微信公众号:金捷幡 (ID:jin-jiefan),作者:金捷幡,头图来自:视觉中国
最近朋友们问题比较多,“硅谷银行怎么倒闭了?”“瑞信怎么回事?”“比特币怎么涨了?”“OpenAI有那么颠覆么?”“国产AI到底怎么样?”……
这个月索性一次吹爆吧。
一、金融变局
先说银行,(外国)银行这种模式在未来10年有可能出现比较大的问题。
硅谷银行的情况比较简单,起因就是当初特朗普因疫情逼美联储放水,直接流入实体经济(发给老百姓以及大量中小企业零利率贷款补贴)。硅谷银行存款大幅度增加后,顺理成章买成美债赚钱,毫无错误。
只是这次直升机撒钱和以前量化宽松不同,QE因为强控制大多在金融系统内循环,而这次造成了巨量通货膨胀。
美联储的核心职能之一是控制通胀,而去年开始的疯狂加息,可以看出美国真实的通胀其实远比公布的要高得多。各国在通胀上玩数字游戏也是标准操作了。
硅谷银行没有对冲加息对债券的风险,亏损消息曝光后囚徒困境导致挤提倒闭。瑞信的情况则完全不同,纯属投资失败。瑞信不像硅谷银行是那种传统存贷银行,但挤提仍是无法承受的,这需要立刻遏制避免恐慌传导到其它银行就全崩了。
当然我们可以把责任归因于外部环境大变局和银行风控不佳,俄乌冲突打破供应链和中概股暴跌等黑天鹅到处都是。但背后的关键因素是整个世界体系毫无好转的迹象,地缘政治冲突和逆全球化愈演愈烈。
银行生存最关键的基石是信用,挤提对各家都是死穴。这两家造成对银行模式的信任冲击将是有长期后遗症的。尤其瑞信,仓皇贱卖时居然把170多亿美金的AT1债券减记清零,坏了债权优于股权清偿的规矩。
对成功跨越多次世界大战及金融危机的百年银行都会倒闭这种恐惧,让黄金和比特币大涨。
二、GPT变局
在银行体系开始不可靠的变局下,再聊一下将比银行问题对人类冲击更大的GPT。
我们在《蓝狐岛》里说过,ChatGPT是纯语言模型,靠统计模式来回答知识类问题。这导致了一个现象,就是ChatGPT回答问题有时胡说八道(Hallucination)。ChatGPT显然自己不可能知道自己在胡说八道(幻觉),一个原因是整个互联网上各种语言和答案本身就是错误百出。
尤其在中文世界GPT胡说这个毛病更大一点,一方面在我们口语中病句比例已经大到吓人,因缺主语和介词滥用等情况极多导致很多歧义;另外一方面因为科学观和价值观的激烈冲突,导致网上答案前所未有地不一致。
此外,ChatGPT作为通用AI模型,在专业和私域中仍有不足,原因是很多私有知识库并未公开在互联网上。
为了解决这个问题,除了反馈强化学习(RLHF),在3月24日ChatGPT引入了插件,正式成为了完整的AI操作系统。
为什么说它是操作系统呢?因为插件就是应用软件:这些(插件)软件可以是由组织内部开发自用,也可以拿出来给公共使用。
除了可以实时接入互联网,引入了数学插件后,ChatGPT可以不再靠语言统计来算一加一了。引入了病例插件后,医生可以随时得到最专业的诊疗指南。这样,胡说八道可以在专业和私域中大幅度减少。
凡事都是双刃剑,一旦某专业的插件完善,这个领域的专业人才将迅速变得没有价值。甚至律师和内科医生这种高门槛,都将不得不靠执照撑起保护伞,因为AI将在一年内迅速超过他们的能力。各行各业只要有完善的知识库,就不再需要专业人士,只需要有会问问题的人(Prompt maker)。
GPT-4则打开了另外一扇窗:多模态。AI不仅懂语言,而且有了视觉,推理能力更强,这使更多的应用成为了可能。GPT-3.5到GPT-4的进化,更是一种可怕的能力,因为目前还看不到进化的终点。这是马斯克等大佬们焦虑的地方。
我们已经看到OpenAI宣布ChatGPT-5将在今年第四季度发布,而传说GPT-5的核心改进是和科技的交互。
三、做操作系统
首先,面对AI的从业公司和人员,只有两个选择:未来做操作系统,还是做应用。
做操作系统,需要考虑是做OpenAI这种通用操作系统,还是做专用操作系统。
OpenAI的壁垒有多高,这个目前还不够清晰。
GPT训练模型有点像芯片流片,一般的模型花个几十万几百万美金,机构自用也能用。最顶级模型如同3nm芯片,要玩估计10亿美金起。
何时能打破美国算力霸权,目前也还看不清:NVidia DGX/NVLink集群都在禁售,这情况有点像ASML。
对于谷歌这样的公司,因为动摇了其根本,则一定会全力追赶试图反超。人才和算力并不是它的瓶颈。
从Notion AI/Claude的水平看,ChatGPT似乎领先并不多。国产的ChatGLM初始表现也挺亮眼。在中美对抗的大环境下,国内独立生态的AI操作系统也是有可能生存的。
这几个月,我们看到微软配合OpenAI的速度吓人:New Bing、Office整合GPT、开发工具整合GPT……大象真的在跳舞。但也许说明了其护城河也许不够高。
我们也要看到,GPT的训练时间是个无解的难题,如果这个量级是半年+来计算的,那对竞争者是很痛苦的。如果真是这样,OpenAI会在较长时间内保持领先一个身位。
部分追赶者会采用开源的战略,比如Meta的LLaMa,会不会实现Linux vs Windows和Xen/KVM vs ESXi的共存模式。好消息是,我也看到不少朋友的LLaMa模型已经成功跑在个人电脑上。而谷歌能否再次用Android的模式开源对抗OpenAI,也是我们值得期待的。
那么,一直憋着不举手的苹果同学呢?我觉得也不能小看,iPhone里性能远超需求的A系列芯片里的神经网络引擎,现在看非常有前瞻性,它使得个人模型和AI边缘计算成为可能。(6月份的WWDC,有可能使弱智的Siri一去不返)
四、做应用
谈到做应用呢,各种想象是无边的,难度也大幅度降低。除了翻译、聊天、学外语、编程和画画等,我觉得私人助理和虚拟女友男友大概是最快的杀手级应用了。
做操作系统会存在有很多政策和伦理上的风险。我们现在看到ChatGPT被调教成特别服从的模式,就是这个原因。在ChatGPT开发者模式放开时,我们也看到了它可以be evil的一面。
做应用则各方面可控性就高多了,目前生产力工具已经迅速铺天盖地。而且,通过应用来实现AI的民主化,也是避免未来数字围墙和阶级隔离的关键。
我听接近OpenAI的朋友说,ChatGPT发布时的版本只有100G大,真是这样的话运行它的硬件要求就不高了。各种边缘计算和消费者终端的低延时使用也将成为可能。定制ASIC运行则可以进一步降低成本,未来能实时对答如流的充气娃娃也许只要$200成本。
企业组织里的私有知识库模型,跑起来要求会更低,装在手机上也没问题。
私有模型不仅组织需要,个人可能也需要。比如根据按去世亲人的生前讲话风格和录音,可以训练出有个人风格的模型,让她一直陪伴你说话。人类对话和ChatGPT的prompt/token并无本质不同,我们录下来一个人一年的对话声音,就能够复制这个人的完整风格(性格)。
那么,大模型AI有什么做不了的事吗?
暂时我们可以认为,社会科学和AI存在边界,因为社会科学很多没有标准答案。当然,胡说八道的能力也是需要的(《论扯淡》),谈情感时多半是需要说没有实用意义的话。
《蓝狐岛》里提到,ChatGPT只需要通过语言就能掌握(窃取)人类知识,这其实是非常可怕的,等于人类在非创造性领域再难有超越AI的机会。好在ChatGPT目前只能学习知识,尚不能拓展人类科学边界。而未来AI的进化能否突破这一点,目前还是个谜。
五、大变局中的教育
眼下最值得反思和探讨的问题是教育。当我们每个人未来都能随身携带一个超级智慧的GPT伙伴时,是否还有必要上小学、中学、大学这种成本极高的传统教育?
这种“通识”教育的代价是花人生的1/5时间和一生收入的1/5。
我个人认为绝对不需要。
在我上小学的时候,还有算盘课。数学老师还很得意地说老祖宗就是厉害,计算加法时算盘比计算器快。
后来我们算了至少几千遍的一元二次方程和牛顿定律等习题,也无非是背公式和笔算(不让用计算器),这和算盘背口诀并没什么本质区别。虽然做题家们当年把这些搞得滚瓜烂熟,但99.99%的人在毕业后再也用不到它们了。
当下中学和大学的学习目标仍集中在期末笔试,这说明了这类教育只是维护一种传统,甚至是在维护一种生态和生意。在GPT时代到来的时候,这种教育模式变得并不是真的为了学知识和解决问题,本质上就是另外一种科举:靠一种几乎没有用的技能来筛选阶级。
李鸿章在1872年喊出“数千年未有之大变局”时,他说的是对的,但科举考试仍持续了30年才取消。现在的孩子们,仍埋在现代科举中,没时间奔跑嬉戏,甚至没时间好好睡觉,更可悲的是他们没时间学习自己有兴趣的东西。
本文来自微信公众号:金捷幡 (ID:jin-jiefan),作者:金捷幡