7月5日,在2024世界人工智能大会“可信大模型助力产业创新发展”论坛上,蚂蚁集团公布了其自研的百灵大模型最新研发进展:百灵大模型已具备能“看”会“听”、能“说”会“画”的原生多模态能力,可以直接理解并训练音频、视频、图、文等多模态数据。原生多模态被认为是通往AGI的必经之路,在国内,目前只有为数不多的大模型厂商实现了这一能力。记者从大会现场的演示看到,多模态技术可以让大模型更像人一样感知和互动,支撑智能体体验升级,百灵的多模态能力已应用于“支付宝智能助理”上,未来还将支持支付宝上更多智能体升级。
1. (蚂蚁集团副总裁徐鹏介绍百灵大模型原生多模态能力)发布现场,蚂蚁集团副总裁徐鹏展示了新升级的多模态技术可实现的更多应用场景:
基于百灵大模型多模态能力,蚂蚁集团已在探索规模应用落地产业的实践。
论坛上同时发布的“支付宝多模态医疗大模型”,便是这一探索的实践。据了解,支付宝多模态医疗大模型添加了包含报告、影像、药品等多模态信息在内的百亿级中英文图文、千亿级医疗文本语料、以及千万级高质量医疗知识图谱,具备专业医学知识,在中文医疗LLM评测榜单promptCBLUE上,取得A榜第一,B榜第二的成绩。
基于百灵大模型多模态能力,由蚂蚁集团与武汉大学联合研发的遥感模型SkySense,也在论坛上公布了开源计划。SkySense是目前参数规模最大、覆盖任务最全、识别精度最高的多模态遥感基础模型。
“从单一的文本语义理解,到多模态能力,是人工智能技术的关键迭代,而多模态技术催生的‘看听说写画’的应用场景,将让AI的表现更真实,更接近人类,从而也能更好地服务人类。蚂蚁会持续投入原生多摸态技术的研发。”徐鹏说。
以上是蚂蚁百灵大模型最新进展:已具备原生多模态能力的详细内容。更多信息请关注PHP中文网其他相关文章!