6 月 24 日消息,谷歌 DeepMind 今日發布博客文章,宣布推出一種全新的 Gemini Robotics On-Device 本地化機器人 AI 模型。
該模型基于視覺-語言-動作(VLA)架構,無需云端支持即可實現實體機器人控制。核心特性包括:
技術能力:
獨立運行于機器人設備,支持低延遲響應(注:適用于網絡不穩定場景,如醫療環境)
完成高精度操作任務(如打開包袋拉鏈、疊衣服、系鞋帶)
雙機械臂設計,適配 ALOHA、Franka FR3 及 Apollo 人形機器人
開發適配:
提供 Gemini Robotics SDK 工具包
開發者通過 50-100 次任務演示即可定制新功能
支持 MuJoCo 物理模擬器測試
安全保障:
通過 Live API 實施語義安全檢測
底層安全控制器管理動作力度與速度
開放語義安全基準測試框架
項目負責人 Carolina Parada 表示:“該系統借鑒 Gemini 多模態世界理解能力,如同 Gemini 生成文本 / 代碼 / 圖像那樣生成機器人動作”。
谷歌表示,該模型現在只面向可信測試計劃開發者開放,基于 Gemini 2.0 架構開發(落后于 Gemini 2.5 最新版本)。
參考資料:
《Gemini Robotics On-Device brings AI to local robotic devices》
本文鏈接:http://www.www897cc.com/showinfo-45-14164-0.html谷歌 DeepMind 機器人 AI 模型實現本地化運行:可完成系鞋帶等高難度任務
聲明:本網頁內容旨在傳播知識,若有侵權等問題請及時與本網聯系,我們將在第一時間刪除處理。郵件:2376512515@qq.com