谷歌云大会上,再次投注了生成式AI。


当地时间29日,谷歌举办了Google Cloud Next 2023大会,宣布了20多款产品更新。


继昨天Semianalysis爆料谷歌GPU算力至强后,谷歌发布了一款全新AI芯片Cloud TPU v5e,专为大模型训练推理所设计。同时,还推出了配备英伟达H100 GPU的A3虚拟机。


在面向开发者平台Vertex AI中,谷歌发布了全球首个能够识别水印的工具、以及接入Llama 2、Claude 2大模型接入平台。


此外,人工智能助理Duet AI也完成了在办公全家桶Workspace的更新。


这场人工智能大战,谷歌全力点火,试图通过不断创新给予微软致命的一击。


全新AI芯片:Cloud TPU v5e


在英伟达凭借H100在AI行业中出尽风头后,周一IBM推出了模拟人脑的AI芯片,通过更低的能耗更高的效率向英伟达的芯片霸权发起了冲锋。


谷歌也不甘示弱,在昨晚披露了公司新一代的AI芯片:Cloud TPU v5e。


Cloud TPU v5e专为提供大中型训练与推理所需的成本效益和性能而设计。


与Cloud TPU v4相比,TPU v5e可为大语言模型和生成式AI模型提供每美元花费中高达2倍的训练性能和2.5倍的推理性能。


Cloud TPU v5e的成本不到TPU v4的一半,但可以让更多企业训练和部署更大、更复杂的AI模型。


TPU v5e Pods能够平衡性能、灵活性和效率,允许多达256个芯片互连,聚合带宽超过400 Tb/s和100 petaOps的INT8性能。


并且支持八种不同的虚拟机(VM)配置,单片内的芯片数量从一个到250多个不等。


用户可以根据自身的需求选择合适的配置,Cloud TPU v5e可以为各种大语言模型和生成式AI模型提供服务。


根据速度基准测试,在Cloud TPU v5e上训练和运行人工智能模型的速度提高了5倍。


同时,推理指标的规模有了巨大提升:在一秒钟内,能实时处理1000秒的内部语音到文本和情感预测模型,比之前提升了6倍。


谷歌在GKE中全面推出了云TPU,这是当今业内最具可扩展性的领先Kubernetes服务。


用户可以利用GKE在云TPU v5e和云TPU v4上管理大规模AI工作负载编排,从而提高 AI 开发效率。


对于喜欢托管服务简单性的企业,Vertex AI也支持使用云TPU VM使用各种框架和库进行训练。


Cloud TPU v5e还为领先的AI框架(如 JAX、PyTorch 和 TensorFlow)提供内置支持。也包括流行的开源工具,如Hugging Face的Transformers and Accelerate、PyTorch Lightning和Ray等。


同时,谷歌宣布将在预览版中引入Multislice技术,该技术允许用户轻松地将 AI 模型扩展到物理 TPU Pod 边界之外——多达数万个Cloud TPU v5e或TPU v4芯片。


通过Cloud TPU v5e,用户能够更轻松地扩展自己的训练作业。


全球首个水印工具上线,Llama2、Claude2接入Vertex AI


Vertex AI是谷歌Cloud在2021年5月发布的机器学习(ML)平台。


它可以训练和部署机器学习模型和AI应用,并自定义大语言模型(LLM),从而在AI驱动的应用中。


Vertex AI结合了数据工程、数据科学和机器学习等工作流,能够让团队使用通用工具集进行协作,并通过Google Cloud的优势扩缩应用。


并提供AutoML、自定义训练、模型发现、生成式AI等选项,通过端到端MLOps工具实现自动化部署和扩展。支持多种界面,包括SDK、控制台、命令行和Terraform。


对于希望快速开始常见生成式人工智能(AI)用途(例如聊天机器人和定制搜索引擎)的开发人员,Vertex AI搜索和对话可以帮助没有任何AI经验的人快速上手开发,甚至在许多情况下,都无需编写任何代码。



全家桶式更新发布


半年前,谷歌宣布在Vertex AI提供生成式AI服务支持后,Vertex AI的用户数量比上季度增长了15倍以上。


面对如此强劲的用户需求,谷歌也在默默发力。在8月30日的Google Cloud Next大会上,谷歌发布了一系列扩展功能:


扩展模型生态系统。


在拥有超过100个大模型的Vertex AI“模型花园”中新增了来自Meta的Llama 2和Code Llama以及技术创新研究所(TII)的Falcon LLM。还有即将加入的Anthropic的Claude 2。Model Garden的多样性使企业能够将模型与其需求相匹配,为用户提供更多的选择。


调整升级谷歌自己的模型:PaLM 2、Codey和Imagen。


PaLM可支持38种语言、3.2万个token上下文窗口,Codey的代码生成质量提到了25%;Imagen改进了视觉吸引力,最近还添加了图像编辑、字幕以及视觉问题和答案等功能。


发布了全球首个水印识别工具SynthID,验证Imagen生成的图像。


利用扩展功能连接真实世界的数据并驱动真实世界的行动。VertexAI扩展是一组完全托管的扩展开发人员工具,可将模型到API以实现实时数据和实际操作。


全球首个水印识别工具:


此次在Google Cloud Next上,最引人注目的产品是能为AI生成的图像打上水印并进行检测和识别的SynthID。


在生成式AI爆发的浪潮中,识别AI生成的内容成为我们现在亟需解决的难关。


一方面,在大模型的训练中使用AI生成的内容会导致模型崩溃。另一方面,AI生成的假信息也大大扰乱了互联网中的信息生态。


之前的研究中,有人提出了为AI生成的内容添加水印,但在后续的实践中发现添加水印会干扰模型的内容生成。


SynthID的发布,预示解决识别AI生成内容的这一难题将会被解决。


SynthID的首次亮相是在开发者平台Vertex AI中。


Vertex AI与Google DeepMind合作,推出了SynthID。它能够为Imagen生成的图像加上数字水印,并且识别AI生成的图像。


SynthID可以帮助评估图像由Imagen创建的可能性


SynthID使用两个深度学习模型,分别用于水印和识别。


它们可以在一组不同的图像上一起训练。组合模型针对一系列目标进行了优化,包括正确识别带水印的内容,并通过直观地将水印与原始内容对齐来提高水印的隐蔽性。


SynthID生成的数字水印是直接嵌入到图像的像素中的,人眼无法察觉。但SynthID可以检测并识别它们。




SynthID生成的水印即使在添加滤镜、更改颜色和使用各种有损压缩方案(最常用于JPEG)进行保存等修改后,也能够被识别出来,并且不会影响图像质量。


即使在添加滤镜、更改颜色和亮度等修改后,水印也可以检测到


元数据是最广泛使用的内容识别方法之一。它提供了创建者和创建时间等信息,这些信息与图像文件一起存储。


添加到元数据中的数字签名可以显示图像是否被更改过。当元数据信息完好无损时,用户可以很容易地识别图像。


然而,元数据可能会被手动删除,甚至在文件编辑时丢失。


但是,SynthID生成的水印嵌入了图像的像素,因此它与其他基于元数据的图像识别方法兼容,即使元数据丢失也能被检测到。


SynthID还提供了三个置信度,用于解释水印识别结果。


如果检测到数字水印,说明部分图像可能是由Imagen生成的。


腹泻式更新能让谷歌重回行业领航吗


谷歌在Google Cloud Next大会上的更新林林总总一大堆。


但就像OpenAI发布ChatGPT后,谷歌的产品发布总是慢了一步,像这次的AI芯片发布也被IBM抢了风头。


但谷歌依旧拥有无可比拟的优势:开发者平台Vertex AI。


谷歌有意将Vertex AI打造成一个巨大的AI开发生态圈,软件硬件全都做到现有的顶配,并提供开发AI的一站式服务。


如果说英伟达是AI淘金热里那个因为卖铲子而暴富的精明商人,那么谷歌这次是决心把自己打造成生成式AI的大平台。


一波一波的淘金者们来来往往,商人也可能因为时运不济而倒下,但平台会与AI行业的命运紧紧相连。


或许,这才是谷歌默默耕耘的最终目标。


参考资料:https://cloud.google.com/blog/products/ai-machine-learning/vertex-ai-next-2023-announcements


本文来自微信公众号:新智元 (ID:AI_era),编辑:Lumina