Meta 近日发表了专注于触觉感知的 Sparsh、强调人机交互的 Digit 360,以及诉诸机器人灵活性的 Digit Plexus 等三大研究成果,全力推动具身人工智能(embodied AI,又译做体现 / 体化 / 具体化人工智能)的发展。
通过将触觉和感知融入其机器人创新之中,Meta 正全力押宝在新兴的具身 AI 上。该公司并且与美国传感器公司 GelSight 和韩国机器人公司 Wonik Robotics 合作,以推动 AI 触觉传感器的商业化。
日前,全力发展具身 AI 的 Meta 推出了三项研究成果。首先是 Meta 携手华盛顿大学和卡内基梅隆大学合作开发的 Sparsh 编码器模型,其专门用在基于视觉的触觉感知上,以便赋予机器人触觉感知能力。该能力对于各种机器人任务极其重要,例如该功能可以判断施加在物体上的压力大小,以避免损坏。
第二项成果是 Digit 360 指状触觉传感器,其身负 18 种以上的传感能力,并拥有超过 800 万个触觉像素(taxel,亦称触觉传感元),其能用来捕捉指尖上的全向和细微变形,进而让机器人能更精细地理解环境交互与物体操控。不仅如此,内置 AI 模型的 Digit 360,能最大限度地减少对云端服务器的依赖,而采行本地端处理,以便能有快速的触觉反应,它就好比像是人类和动物神经中控制反射动作的反射弧(reflex arc)一样。
最后是 Digit Plexus,其为一个能简化机器人应用开发的软硬件合平台。该平台能将各种指尖和皮肤触觉传感器集成到单个机器人手中,并将触觉数据进行编码后,通过一条缆线发送到主机电脑。Meta 希望借此帮助研究人员推动机器人灵活性的发展。
除此之外,Meta 还推出了「人机协作中的规划与推理任务」(Planning and Reasoning Tasks in Human-Robot Collaboration,PARTNR),其为用于评估 AI 模型如何协助人类完成家务的新基准。它基于 Meta Habitat 仿真器,包含了60 间房屋中 10 万个自然语言任务,并拥有超过 5,800 个独特对象。该基准旨在评估 LLM 大型语言模型和 VLM 视觉语言模型在遵循人类指令方面的有效性。
免责声明
本文内容(图片、文章)翻译/转载自国内外资讯/自媒体平台。文中内容不代表本站立场,如有侵权或其它,请联系 admin@eiefun.com,我们会第一时间配合删除。