谷歌最新发布的开放重量模型Gemma 2现已面向全球研究人员和开发者开放。该公司推出了两个版本的模型,分别为90亿和270亿参数大小。
今年早些时候,谷歌推出了基于Gemini模型相同研究和技术创建的Gemma系列轻量级、先进的开放模型。此后,这一系列模型不断扩展,新增了CodeGemma、RecurrentGemma和PaliGemma等多个变体,每个变体都针对特定的AI任务进行了定制。随着谷歌上个月首次宣布的Gemma 2的发布,谷歌再次在这一领域迈出了重要的一步。
特别值得一提的是270亿参数的模型,它的性能竟然可以与比它大两倍以上的专有模型相媲美——这在半年前还是无法想象的。尽管它在体积上显著更小,但其性能却能够接近Llama 3 70B和Claude 3 Sonnet等大型模型。
Gemma 2最令人瞩目的地方在于其出色的效率。谷歌声称,这款拥有270亿参数的模型可以在单个Google Cloud TPU主机、NVIDIA A100 80GB Tensor Core GPU或NVIDIA H100 Tensor Core GPU上以全精度运行。这极大地降低了部署如此强大的AI模型所需的硬件要求和成本。而且,这种高效率并没有牺牲速度——Gemma 2针对从高端云设置到消费级游戏笔记本电脑的广泛硬件进行了快速推理优化。
对于开发人员和研究人员来说,Gemma 2无疑是一个值得考虑的选择。它在商业友好的许可下发布,允许在其基础上进行研究和潜在的创新货币化。此外,该模型设计得非常广泛兼容,可以与流行的AI框架(如Hugging Face Transformers、JAX、PyTorch和TensorFlow)无缝集成。
目前,Gemma 2已经在Google AI Studio中可用,并即将在Vertex AI Model Garden中推出。您还可以从Kaggle和Hugging Face Models下载Gemma 2的模型权重。