刚刚,谷歌在大模型领域又有了新动作:重磅推出了一系列轻量级、先进的开放模型Gemma。Gemma由Google DeepMind和其他团队共同开发,采用与创建Gemini模型相同的研究和技术构建而成,专为负责任的人工智能开发而设计。其名字来自拉丁语gemma,意为“宝石”。
Google DeepMind首席执行官Demis Hassabis在X上表示,“我们长期以来一直支持负责任的开源和科学,这可以推动快速的研究进展,因此我们很自豪地发布了Gemma......”研究团队在Google DeepMind官方博客中公布了一些关于Gemma的关键细节,如下:谷歌将发布两种尺寸的模型权重:Gemma 2B和Gemma 7B,且每种尺寸都发布了预训练和指令微调变体。
新的Responsible Generative AI工具包为使用Gemma创建更安全的AI应用提供了指导和基本工具。谷歌也为所有主要框架的推理和监督微调(SFT)提供了工具链:JAX、PyTorch和TensorFlow,以及本地Keras 3.0。
现成可用的Colab和Kaggle笔记本,以及与Hugging Face、MaxText、NVIDIA NeMo和TensorRT-LLM等流行工具的集成,也使得开发者上手Gemma非常容易。经过预训练和指令微调的Gemma模型可在用户的笔记本电脑、工作站或谷歌云上运行,并可在Vertex AI和谷歌Kubernetes Engine (GKE)上轻松部署。
跨多个AI硬件平台的优化确保了行业领先的性能,包括英伟达GPU和谷歌云TPU。在使用条款下,允许所有组织(无论规模大小)进行负责任的商业使用和分发。
此外,研究团队也在博客中写道,“从今天开始,Gemma将在全球发布。”也就是说,国内的开发者从今天起也可以使用Gemma。
据官方博客介绍,Gemma模型与Gemini共享技术和基础设施组件,这使得Gemma 2B和7B与其他开放模型相比,在其规模上实现了同类最佳的性能。而且,Gemma模型能够直接在开发人员的笔记本电脑或台式电脑上运行。值得一提的是,Gemma在关键基准上超过了更大的模型,同时还符合谷歌严格的安全和负责任的输出标准。
谷歌方面表示,为适应特定的应用需求,比如汇总或检索增强生成(RAG),开发者可以使用自己的数据对Gemma模型进行微调。目前,Gemma支持多种工具和系统:多框架工具:使用最喜欢的框架,在多框架Keras 3.0、本地PyTorch、JAX和Hugging Face Transformers中进行推理和微调的参考实现。
跨设备兼容性:Gemma模型可在笔记本电脑、台式机、物联网、移动和云等流行设备类型中运行,从而实现广泛的AI功能。尖端硬件平台:谷歌与英伟达合作,针对英伟达GPU优化Gemma,从数据中心到云端再到本地RTX AI PC,确保业界领先的性能和与尖端技术的集成。针对谷歌云进行了优化:Vertex AI提供广泛的MLOps工具集,具有一系列调整选项,并可使用内置推理优化功能进行一键式部署。
可使用完全管理的Vertex AI工具或自主管理的GKE进行高级定制,包括部署到任何平台的GPU、TPU和CPU上具有成本效益的基础设施。