谷歌发布仅需2GB内存即可运行的超轻量级AI模型”Gemma 3n”(视频)

Photo of author

By Global Team

谷歌宣布了一款名为“Gemma 3n”的超轻量级人工智能(AI)模型,该模型可在智能手机、笔记本、平板电脑等普通消费设备上运行。该模型无需连接云,仅需2GB内存即可运行,被认为是推动AI技术大众化的一个突破。

“Gemma 3n”是在谷歌最近举办的年度开发者活动Google I/O 2025上发布的。它不仅可以处理文本,还具备图像、语音,未来甚至视频处理的多模态功能。尤其是在智能手机级别的配置上也能运行是其最大特点。

这个模型应用了谷歌DeepMind开发的“分层嵌入(Per-Layer Embedding)”技术,大幅减少了大规模模型所需的内存使用量。尽管拥有5亿到8亿个AI参数,仍可仅借助23GB内存运行。

此外,“Gemma 3n”采用了“MatFormer”架构,这是一种将小模型嵌入到一个模型中的结构,可以根据情况只运行更小的模型,从而确保了能效和响应速度。

由于将AI所需资源压缩到最低水平,大多数功能在无需高性能显卡(GPU)的情况下也能运行。例如,某些基于文本的模型只需普通PC级别的861MB内存即可执行。

“Gemma 3n”支持图像识别、实时语音识别、语言翻译、音频分析等多种功能,并设计为可在设备内处理。谷歌预计该模型可以弥补现有云端AI在隐私保护、无延迟响应等方面的不足。

此外,增强了包括韩语在内的多语言处理能力。图像解释性能也得到了提升,能够处理从256×256到最大768×768分辨率的视觉信息。

Gemma 3n
Gemma 3n

目前,开发者可以通过谷歌的AI开发工具提前体验“Gemma 3n”。谷歌计划将该模型整合到其Android和Chrome平台中。Gemma 3n在包括公开和非公开AI模型在内的多种模型中,凭借用户偏好(Elo评分)名列前茅,其性能得到了认可。

此次发布被评价为标志着AI功能无需依赖于云服务器,而可以在日常智能设备上直接运行的时代的开始。

Leave a Comment