6月24日消息,谷歌DeepMind今日发布博客文章,宣布推出一种全新的 Gemini Robotics On-Device本地化机器人AI模型。
该模型基于视觉-语言-动作(VLA)架构,无需云端支持即可实现实体机器人控制。核心特性包括:
技术能力:
独立运行于机器人设备,支持低延迟响应(IT之家注:适用于网络不稳定场景,如医疗环境)
完成高精度操作任务(如打开包袋拉链、叠衣服、系鞋带)
双机械臂设计,适配ALOHA、Franka FR3及Apollo人形机器人
开发适配:
提供Gemini Robotics SDK工具包
开发者通过50-100次任务演示即可定制新功能
支持MuJoCo物理模拟器测试
安全保障:
通过Live API实施语义安全检测
底层安全控制器管理动作力度与速度
开放语义安全基准测试框架
项目负责人Carolina Parada表示:“该系统借鉴Gemini多模态世界理解能力,如同 Gemini生成文本/代码/图像那样生成机器人动作”。
谷歌表示,该模型现在只面向可信测试计划开发者开放,基于Gemini 2.0架构开发(落后于Gemini 2.5最新版本)。
相关文章
2025-06-2511阅读
2025-06-2511阅读
2025-06-2511阅读
2025-06-2511阅读
2025-06-2511阅读
2025-06-2511阅读
2025-06-2511阅读
2025-06-2511阅读
2025-06-2511阅读
2025-06-2511阅读