3 月 18 日消息,据腾讯科技报道,包括图灵奖得主约书亚・本吉奥、杰弗里・辛顿、姚期智等在内的数十位的中外专家日前在北京联合签署了由智源研究院发起的《北京 AI 安全国际共识》,涉及人工智能“风险红线”和“路线”两大块,其中“风险红线”包含“自主复制、改进”“权力寻求”“协助不良行为者”和“欺骗”四个部分。
本站整理四部分内容大致如下:
据介绍,该共识呼吁行业在进行 AI 技术研发时,限制其获取通过“越狱”“诱导开发者”的形式获得超常规权限,并限制 AI 在未经监管的情况下进行自身复制与改进,为 AI 的发展套上“紧箍咒”。
共识还强调,实现以上红线不被越界的关键,在于行业各方共同努力,建立并完善治理机制,同时不断研发更加安全的技术。AI的发展路线涉及到“治理”、“测量与评估”以及“技术合作”这三个方面。具体来说,治理机制的建立是确保AI发展方向正确的基础,测量和评估则是对AI技术应用效果进行客观评价的关键,技术合作则是促进各方共同推动AI发展的重要保障。这些方面的协调发展,将有助于确保AI技术的健康发展,同时避免潜在风
以上是姚期智等数十名中外专家签署北京 AI 安全国际共识:禁止 AI 自行复制的详细内容。更多信息请关注PHP中文网其他相关文章!