谷歌推出超小型 Gemma 3 AI 模型,用于设备端处理。
Image from Ars Technica谷歌正式宣布,其开源AI模型系列迎来了一项突破性的新增:超紧凑型Gemma 3 270M模型。这款袖珍模型专为在本地设备(包括智能手机和网络浏览器)上高效运行而设计,标志着在实现更易用、更私密的AI方面迈出了重要一步。
与那些拥有数十亿参数、需要大量云基础设施的更大模型不同,Gemma 3 270M仅以2.7亿参数运行。尽管其参数量小巧,谷歌声称它仍能保持强大的性能,并可轻松针对各种应用进行调整。这种高效性带来了实实在在的好处,例如增强用户隐私、降低延迟以及显著的功耗节省。
为展示其能力,在Pixel 9 Pro上进行的测试显示,这款新的Gemma模型能够处理25次对话,同时仅消耗设备0.75%的电池电量,使其成为迄今为止最高效的Gemma模型。虽然它并非旨在与Llama 3.2等多亿参数模型的原始算力相匹敌,但Gemma 3 270M在指令遵循方面表现出色。它在IFEval基准测试中获得了51.2%的分数,超越了其他参数更多的轻量级模型,证明它以小博大,性能卓越。
Read the English version (阅读英文版)
免责声明:本文内容来自互联网公开信息,请仔细甄别,如有侵权请联系我们删除。