AIxiv专栏是本站发布学术、技术内容的栏目。过去数年,本站AIxiv专栏接收报道了2000多篇内容,覆盖全球各大高校与企业的顶级实验室,有效促进了学术交流与传播。如果您有优秀的工作想要分享,欢迎投稿或者联系报道。投稿邮箱:liyazhou@jiqizhixin.com;zhaoyunfeng@jiqizhixin.com
为了赋予机器人端到端的推理和操纵能力,本文创新性地将视觉编码器与高效的状态空间语言模型集成,构建了全新的 RoboMamba 多模态大模型,使其具备视觉常识任务和机器人相关任务的推理能力,并都取得了先进的性能表现。同时,本文发现当 RoboMamba 具备强大的推理能力后,我们可以通过极低的训练成本使得 RoboMamba 掌握多种操纵位姿预测能力。
论文:RoboMamba: Multimodal State Space Model for Efficient Robot Reasoning and Manipulation
论文链接:https://arxiv.org/abs/2406.04339
项目主页:https://sites.google.com/view/robomamba-web
Github:https://github.com/lmzpai/roboMamba
以上是北大推出全新机器人多模态大模型!面向通用和机器人场景的高效推理和操作的详细内容。更多信息请关注PHP中文网其他相关文章!