谷歌最强开源模型发布!亿参数奇袭,单张可全精度推理
智东西(公众号:zhidxcom)
作者|ZeR0
编辑|漠影
智东西6月28日报道,昨晚,谷歌在I/OConnect大会上放大招,公布其新一代最强开源模型——Gemma2。
Gemma2有90亿(9B)和270亿(27B)两种参数规模可用。27B模型训练了13Ttokens,9B是8Ttokens,都拥有8192上下文窗口,可在GoogleAIStudio中使用。26亿参数(2.6B)模型将很快发布,小到可以在手机本地运行。
在盲测大语言模型竞技场LMSYSChatbotArena中,270亿参数的Gemma2指令微调模型击败了拥有700亿参数的Llama3,并超过Nemotron4340B、Claude3Sonnet、CommandR 、Qwen72B等模型,在所有开源权重的模型中位列第一;9B模型则是当前15B以下参数的模型中成绩最好的。
谷歌在今年早些时候推出轻量级先进开源模型Gemma,只有2B和7B参数版本,下载量超过1000万次。Gemma2涵盖从20亿到270亿参数,比第一代性能更高、推理效率更高,并且显著改进安全性。这是该系列模型迈出的一大步。
270亿参数的Gemma2提供了与两倍以上参数的模型竞争的替代方案,提供了直到去年12月才可能实现的性能,而且可以在单个英伟达A100/H100TensorCoreGPU或TPU主机上以全精度高效运行推理,大大降低了部署成本。
在HuggingFace的基准上,谷歌将Gemma227B与具有类似尺寸的Qwen1.532B进行了比较,还报告了Llama370B的性能。Gemma227B的尺寸只有Llama370B的40%,训练数据少到Llama370B的2/3。结果显示,Gemma227B优于Qwen1.532B,比Llama370B低几个百分点。
一、重新设计架构,谷歌最强开源模型发布!亿参数奇袭,单张可全精度推理Gemma2有三大特点
Gemma2的技术报告共15页,介绍了其架构的多项技术改进,包括交替使用局部-全局注意力机制和分组查询注意力,还使用知识蒸馏而不是下一个token预测来帮助训练较小的2B和9B模型。
▲Gemma模型的参数量2.6B模型在一个TPUv5e集群的2x16x16配置上训练,总共用了512张芯片。9B模型在TPUv4集群的8x16x32配置上训练,总共4096张芯片。27B模型在TPUv5p集群的8x24x32配置上训练,总共用了6144张芯片。
▲用切分训练基础设施针对更高的性能和推理效率,谷歌在重新设计的架构上构建了Gemma2。该模型采用与Gemma1.1相似的算法配方,但用了更多的teacher监督并执行了模型合并。在编程、数学、推理、安全等能力上,Gemma2都比1.1版本提升显著。
▲主要模型参数及设计选择的概述结果,Gemma2模型在其规模上提供了最佳性能,甚至提供了与大2-3倍的模型竞争的替代方案。以下是其突出的特点:
(1)卓越性能:Gemma227B在其同类大小中提供了最佳性能,甚至提供了与两倍以上大小的模型竞争的替代方案。Gemma29B模型也提供了领先的性能,超过了Llama38B和其他同类大小的开源模型。
谷歌在各种基准上比较2.6B、9B及27B模型,报告了可以与Llama3进行比较的8个基准测试的平均性能,以及所有基准测试的平均性能。Llama38B的数据来自HuggingFaceleaderboard或其博客。
在MMLU上,9B模型得分为71.3,27B模型为75.2;在AGIEval上,9B模型得分52.8,27B模型得分55.1;在HumanEval上,9B模型得分40.2,27B模型得分51.8。
(2)无与伦比的效率和成本节省:Gemma227B模型设计用于在单个谷歌云TPU主机、英伟达A10080GBTensorCoreGPU或H100TensorCoreGPU上高效运行全精度推理,在保持高性能的同时显著降低成本。这使得AI部署更加易于访问和经济实惠。
(3)跨硬件的快速推理:Gemma2经过优化,可以在各种硬件上以令人难以置信的速度运行,硬件从功能强大的游戏笔记本电脑和高端台式机到基于云的设置。在GoogleAIStudio中以全精度试用Gemma2,在CPU上使用Gemma.cpp的量化版本解锁本地性能,或在家用计算机上通过HuggingFaceTransformers在英伟达RTX或GeForceRTX上试用。
二、支持商业化,兼容广泛框架,方便部署
Gemma2为开发者和研究人员构建,其设计更容易集成到工作流程中:
(1)开放且可访问:与原始Gemma模型一样,Gemma2也是根据谷歌具有商业友好的Gemma许可发布的,允许开发人员和研究人员分享和商业化他们的创新。
(2)广泛的框架兼容性:Gemma2兼容主要的AI框架,如HuggingFaceTransformers,以及通过原生Keras3.0、vLLM、Gemma.cpp、Llama.cpp和Ollama的JAX、PyTorch和TensorFlow。此外,Gemma优化了英伟达TensorRT-LLM以在英伟达加速基础设施上运行或作为英伟达NIM推理微服务运行。用户可以使用Keras和HuggingFace进行微调。谷歌正在积极努力实现更多参数高效的微调选项。
(3)轻松部署:从下个月开始,谷歌云客户将能轻松在VertexAI上部署和管理Gemma2。
新的GemmaCookbook是一个包含实用示例和指南的集合,引导用户构建自己的应用程序并为特定任务微调Gemma2模型。
三、提供负责任的AI开发资源,严格测试评估模型安全性
在负责任的AI开发方面,谷歌提供负责任地构建和部署AI所需的资源,包括负责任的生成式AI工具包。最近开源的LLMComparator帮助开发者和研究人员深入评估语言模型。
即日起,用户可使用配套的Python库与自己的模型和数据进行比较评估,并在应用程序中可视化结果。此外,谷歌正在积极致力于开源文本水印技术SynthID,用于Gemma模型。
在训练Gemma2时,谷歌遵循内部安全流程,过滤了训练前的数据,并针对一套全面的指标进行了严格的测试和评估,以识别和减轻潜在的偏见和风险。谷歌在与安全性和代表性危害相关的大量公共基准上公布了其结果。
▲Gemma2IT模型和Gemma1.1IT模型的安全学术基准结果结语:大模型研发趋于实用主义
谷歌Gemma2的研究进展反映了当前大模型研究趋势,即探索用更轻量级的、更实用的模型来实现更强的性能,并确保易部署,以更好地满足不同的用户需求。
谷歌为开发者和研究人员提供了使用这些模型的多种途径。Gemma2现可在GoogleAIStudio中使用,可在没有硬件要求的情况下测试其270亿参数的全部性能,也可以从Kaggle和HuggingFaceModels下载Gemma2的模型权重,VertexAIModelGarden即将推出。
通过Gemma2,谷歌证明了蒸馏是训练此类模型的有效方法,基于输出概率的训练能够比纯粹的下一个token预测产生更多的效果。模型仍存在局限性,需要未来研究来持续优化事实性、对抗性攻击的鲁棒性以及推理和一致性。
为支持研究和开发,Gemma2还可通过Kaggle免费获得,或通过Colab笔记本的免费层获得。首次使用谷歌云服务的用户可能有资格获得300美元的积分。学术研究人员可以申请Gemma2学术研究计划,以获得谷歌云积分,加速对Gemma2的研究。申请截止日期为8月9日。
来源:谷歌DeepMind
版权声明
本文仅代表作者观点,不代表百度立场。
本文系作者授权百度百家发表,未经许可,不得转载。