PHP8.1.21版本已发布
vue8.1.21版本已发布
jquery8.1.21版本已发布

应不应该为医疗领域的人工智能制定行为准则?

王林
王林 转载
2023-05-31 12:53:19 976浏览

生成式人工智能的兴起促使一位人工智能伦理学家提出了一个框架,以降低在医疗领域使用这项不断发展的技术的风险。与此同时,ChatGPT旗下OpenAI的首席执行官也敦促美国立法者开始监管人工智能,以保障人类的安全。

应不应该为医疗领域的人工智能制定行为准则?

上图:生成人工智能的兴起,促使人们呼吁引入一个框架来规范其在医疗领域中的使用。

科幻作家艾萨克·阿西莫夫(Isaac Asimov)在1942年的短篇小说《Runaround》中提出了他的机器人三定律。他于1992年去世,远在目睹近年来生成式人工智能的兴起之前。

生成式人工智能包括ChatGPT或DALL-E等算法,它们可以使用训练过的数据来创建新内容,包括文本、图像、音频、视频和计算机代码。大型语言模型(LLMs)是生成式人工智能的关键组成部分,神经网络使用自监督或半监督学习,在大量未标记文本上进行训练。

目前,生成式人工智能的能力呈指数级增长。在医疗保健领域,它被用于通过从大量患者数据集中学习,来预测患者的结果,以令人难以置信的准确性诊断罕见疾病,并且在没有事先学习的情况下通过了美国医疗执照考试,达到了60%的成绩。

人工智能进入医疗保健领域并取代医生、护士和其他卫生专业人员的潜力,促使人工智能伦理学家斯蒂芬·哈勒(Stefan Harrer)提出了一个在医学中使用生成式人工智能的框架。

哈勒是数字健康合作研究中心(DHCRC)的首席创新官,也是健康人工智能联盟(CHAI)的成员。他说,使用生成式人工智能的问题在于,它能够生成令人信服的虚假、不恰当或危险的内容。

斯蒂芬·哈勒表示:“高效的知识检索的本质,是提出正确的问题,而批判性思维的艺术,取决于一个人通过评估世界模型的有效性来探索答案的能力。LLMs是无法完成这些任务的。”

哈勒认为,生成式人工智能有可能改变医疗保健领域,但目前还没有实现。为此,他建议引入一个基于道德的监管框架,其中包含10项原则,他说,这些原则可以减轻医疗保健领域生成式人工智能所带来的风险:

  1. 将人工智能设计成一种辅助工具,可以增强人类决策者的能力,但不能取代他们。
  2. 设计人工智能,以产生关于性能、使用和影响的指标,解释何时以及如何使用人工智能来辅助决策,并扫描潜在的偏见。
  3. 设计基于并将坚持目标用户群体的价值体系的人工智能。
  4. 从概念或开发工作开始就宣布人工智能的目的和用途。
  5. 公开用于训练人工智能的所有数据源。
  6. 设计人工智能以清晰、透明地标记人工智能生成的内容。
  7. 定期根据数据隐私、安全和性能标准审核人工智能。
  8. 记录和共享审计结果,教育用户了解关于人工智能的能力、局限性和风险,并通过重新培训和更新算法来提高人工智能的性能。
  9. 在雇用人力开发人员时,确保公平工作和安全工作标准得到应用。
  10. 建立一个法律先例,明确定义何时可以将数据用于人工智能培训,并建立版权、责任和问责框架,管理培训数据、人工智能生成的内容,以及使用这些数据做出的人类决策的影响。

有趣的是,斯蒂芬·哈勒的框架与ChatGPT的Open AI首席执行官萨姆·阿尔特曼(Sam Altman)的呼吁不谋而合,他呼吁美国立法者引入政府监管,以防止人工智能对人类构成的潜在风险。在埃隆·马斯克的支持下,萨姆·阿尔特曼于2015年共同创立了OpenAI,他建议政府在发布更强大的人工智能模型之前,引入许可和测试要求。

在欧洲,人工智能法案将于下个月在欧洲议会进行投票。如果通过,这项立法可能会禁止生物识别监控、情绪识别和一些用于警务的人工智能系统。

斯蒂芬·哈勒的这个相当笼统的框架,可以应用于许多存在人工智能取代人类风险的工作场所。它似乎出现在人们(甚至是那些负责创造这项技术的人)都要求人工智能世界暂停的时候。

医疗行业是否比其他就业行业面临更大的风险呢?这样的框架有益吗?更重要的是,考虑到人工智能的发展速度,它真的会降低风险吗?也许,只有时间才能给我们这些问题的答案。

如果朋友们喜欢,敬请关注“知新了了”!

以上就是应不应该为医疗领域的人工智能制定行为准则?的详细内容,更多请关注php中文网其它相关文章!

声明:本文转载于:搜狐,如有侵犯,请联系admin@php.cn删除