今天看啥  ›  专栏  ›  InfoQ

谷歌 DeepMind 发布机器人学基础模型 Gemini Robotics On-Device

InfoQ  · 公众号  · 科技媒体  · 2025-07-20 10:15
    

主要观点总结

谷歌的DeepMind推出了视觉-语言-行动基础模型Gemini Robotics On-Device,适用于机器人硬件本地运行的应用程序。该模型具有低延迟推理能力,可针对特定任务进行微调,并且已经在多个机器人平台上进行评估。DeepMind表示,这是朝着使机器人模型更具易用性和适应性方面迈出的一步。此外,DeepMind还发布了几个基准测试,包括用于评估机器人安全机制的ASIMOV基准测试和用于测量视觉推理能力的ERQA评估数据集。

关键观点总结

关键观点1: DeepMind推出Gemini Robotics On-Device模型

这款模型是视觉-语言-行动(VLA)基础模型,旨在用于机器人硬件本地运行,具有低延迟推理能力,可针对特定任务进行微调。

关键观点2: Gemini Robotics On-Device是首个可以进行微调的版本

DeepMind 在双臂的Aloha机器人上训练了该模型,并已经在其他几个机器人平台上进行评估,显示了在新硬件上处理复杂任务的能力。

关键观点3: DeepMind发布了几个基准测试

包括用于评估机器人安全机制的ASIMOV基准测试和用于测量视觉推理能力的ERQA评估数据集,以推动机器人技术的评估和发展。

关键观点4: Gemini Robotics On-Device的讨论和期待

在Hacker News上的讨论中,有用户认为VLAs可能成为一个大事件,并可能成为机器人技术的“chatgpt时刻”。该模型对于各种任务的适应性被讨论,并强调了其在不同应用场景下的潜力。


免责声明

免责声明:本文内容摘要由平台算法生成,仅为信息导航参考,不代表原文立场或观点。 原文内容版权归原作者所有,如您为原作者并希望删除该摘要或链接,请通过 【版权申诉通道】联系我们处理。

原文地址:访问原文地址
总结与预览地址:访问总结与预览
推荐产品:   推荐产品
文章地址: 访问文章快照