首页 > 科技周边 > 人工智能 > 近400名大佬签署公开信警示AI风险,OpenAI创始人也在列

近400名大佬签署公开信警示AI风险,OpenAI创始人也在列

WBOY
发布: 2023-06-01 09:07:44
转载
687 人浏览过

近400名大佬签署公开信警示AI风险,OpenAI创始人也在列

经济观察网 记者 任晓宁 美东时间5月30日,美国非营利组织人工智能安全中心(CAIS)在其官网发布一封联名公开信,称AI堪比“大流行病和核战争”,有可能给人类带来灭绝风险。

公开信只有一句话:“减轻人工智能带来的灭绝风险,应该与大流行病和核战争等其他社会规模的风险级别一样,成为一个全球性的优先事项。”

目前已有超过370位AI大佬签署了上述联名公开信,包括OpenAI首席执行官Sam Altman、谷歌DeepMind首席执行官Demis Hassabis和Anthropic首席执行官Dario Amode三大AI公司掌门人等。

图灵奖获得者、被誉为人工智能“教父”的Geoffrey Hinton和Yoshua Bengio也签署了这封公开信。

签署名单里也有中国学者的身影,包括中国工程院院士、清华大学智能产业研究院院长张亚勤,中国科学院自动化研究所人工智能伦理与治理研究中心主任曾毅,清华大学副教授詹仙园。

名单主要以全球知名大学教授为主,其次是人工智能科学家,此外还有政界人士,比如爱沙尼亚共和国前总统Kersti Kaljulaid。

这个名单人数还在持续增加中。经济观察网记者在CAIS官网看到,人工智能科学家或名人(高管、教授、领导)都可提交签署声明,并收到确认邮件。

位于美国旧金山的非营利组织CAIS专注于人工智能安全。他们在官网上表明,只要能够安全开发和应用人工智能(AI),就有望带来许多全球福音。尽管人工智能有了巨大的进展,但在人工智能安全方面,仍存在许多基础问题有待解决。他们的使命是通过开展安全研究、建立人工智能安全研究领域和倡导安全标准来降低与人工智能相关的社会规模风险。

今年3月,国外上千位知名人士也签署过公开信,警示AI风险。3月29日,特斯拉创始人埃隆·马斯克、图灵奖获得者Yoshua Bengio等人在非营利组织“生命未来研究所(Future of Life Institute)”网站上发布联名公告,呼吁暂停开发比GPT-4更强大的AI系统至少6个月,称其“对社会和人类构成潜在风险”。

目前,OpenAI已经暂停开发GPT-5。

Yoshua Bengio提到签署原因时说,这封公开信可以提醒学界和工业界:我们必须花时间更好地了解这些系统,并在国家和国际层面制定必要的框架,来增加对公众的保护。尽管签署此公开信的影响可能不会那么显著,但至少会引起全社会的讨论。

在国外,由于ChatGPT应用更广泛,暴露的风险也逐渐增加。3月28日,据比利时媒体LaLibre报道,比利时30岁男子在与聊天机器人ELIZA密集交流数周后自杀身亡,ELIZA是由EleutherAI开发的开源人工智能语言模型。

图片显示,五角大楼附近地区于5月22日发生了一次爆炸事件并迅速在社交媒体上传播。这张虚假照片的广泛传播导致标准普尔500指数在短期内下跌约0.3%至盘中低点,并从上涨转为下跌。随后美国国防部发言人证实,这是一张由AI生成的虚假图片,这张图具有明显的AI生成特征,比如路灯有些歪,围栏长在了人行道上等。

AI翻唱歌曲成为一种潮流后,控制全球音乐市场近三分之一份额的环球音乐,已经发函要求苹果、Spotify等流媒体平台封禁侵犯公司旋律、歌词版权的AI作品。

以上是近400名大佬签署公开信警示AI风险,OpenAI创始人也在列的详细内容。更多信息请关注PHP中文网其他相关文章!

相关标签:
来源:sohu.com
本站声明
本文内容由网友自发贡献,版权归原作者所有,本站不承担相应法律责任。如您发现有涉嫌抄袭侵权的内容,请联系admin@php.cn
热门教程
更多>
最新下载
更多>
网站特效
网站源码
网站素材
前端模板