Google AI Edge Gallery是谷歌2025年推出的开源实验性项目,旨在让开发者与用户直接在移动设备上离线运行复杂的生成式AI模型。该项目以Apache 2.0许可证托管在GitHub,支持Android设备(iOS版本计划中),核心目标是实现隐私保护、低延迟响应和无网络依赖的本地AI处理。其技术底座结合了谷歌自研的LiteRT运行时和MediaPipe框架,优化了移动设备的资源利用。

项目特色:

    • 在本地运行完全离线在没有互联网连接的情况下体验 GenAI 有处理都接在您的设备上进行。
    • 自由选择模型: 在 Hugging Face 不同模型间轻松切换并较它们的性能。
    • 询问图片上传图片询问相关问题取描述、决问题或别对象。
    • 示实验室:结、写、成代码或使用自由格式提示来索单 LLM 使用案例。 
    • AI 天:与多话。
    • 能详情:时基准测试(TTFT、码速度、迟)
    • 型:试本LiteRT .task 型。

技术特性

  1. 离线多模态支持
    支持文本、图像及音频输入(未来将扩展至视频),可运行包括Gemma 3n、Qwen 2.5等开源模型。模型大小从轻量级500MB到完整版4GB不等,支持int4量化技术(Gemma 3n模型体积可缩小2.5-4倍)。
  2. 隐私与性能优化
    • 完全本地处理:所有数据在设备端完成推理,无需连接云端或Google Play服务,规避数据泄露风险。
    • 低延迟响应:通过LiteRT运行时优化,显著降低内存占用和推理延迟,适合实时交互场景。
    • 硬件适应性:性能随设备硬件差异浮动,推荐Android 10+系统及6GB以上RAM。
  3. 开发者友好设计
    • Hugging Face集成:可直接下载社区预训练模型。
    • LLM Inference API:提供设备端大型语言模型推理接口。
    • 自定义模型支持:开发者可导入LiteRT格式的自定义模型测试。
    • RAG(检索增强生成) :无需微调即可为应用注入领域知识

Google AI Edge Gallery通过开源+离线优先的策略,为边缘AI开发树立了新范式。其技术架构不仅解决了隐私和延迟痛点,更降低了AI应用开发门槛。

源代码:https://github.com/google-ai-edge/gallery