人工智能需遵循哪些道德原则

WBOY
发布: 2023-05-17 12:13:05
转载
2118 人浏览过

随着数据科学变得越来越复杂,消费者渐渐要求更个性化的客户体验,人工智能是帮助企业更好地了解客户和受众的工具。但是,即使人工智能拥有世界上所有的潜力,如果我们无法弄清楚如何解决仍然存在的道德挑战,那么这种全部潜力可能永远无法实现。

人工智能需遵循哪些道德原则

随着这项技术的发展,所有寻求实施人工智能战略的领导者都应该牢记一个问题,就是如何在合乎道德和负责任的情况下在企业内最大限度地利用人工智能。

为了实施和扩展能够带来正投资回报的AI功能,同时最大限度地降低风险、减少偏见并推动AI实现价值,企业应遵循以下四项原则:

1.了解目标、目的和风险

大约七年前,某组织发布了他们所谓的“新兴技术的炒作周期”,预测了将在未来十年改变社会和商业的技术。人工智能是这些技术中的一项。

这份报告的发布,促使企业争相向分析师和投资者证明自己精通人工智能,许多企业开始将人工智能战略应用到自己的商业模式中。然而,有时候这些策略被证明执行不力,只能作为现有分析或数字目标的事后补充。这是因为企业没有清楚地了解他们正在寻找AI来解决的业务问题。

企业开发的AI和ML模型只有10%被实施。有问题的企业与可以使用人工智能解决该问题的数据科学家之间的历史性脱节使人工智能滞后。然而,随着数据成熟度的提高,企业已经开始将数据翻译器集成到不同的价值链中,比如以发现和转换结果的市场营销业务需求。

这就是为什么制定道德人工智能战略的首要原则是了解所有目标、目的和风险,然后在企业内创建一种分散的AI方法。

2.解决偏见歧视问题

由于从未恰当地开发出人工智能解决方案来解决偏见问题,导致大小企业的声誉都受到了损害,客户也不信任它们。所以创建人工智能模型的企业必须采取先发制人的措施,以确保他们的解决方案不会造成伤害。做到这一点的方法是,建立一个框架来防止任何对算法预测的负面影响。

例如,如果一家公司希望通过调查更好地了解客户的情绪,比如代表性不足的社区如何看待他们的服务,他们可能会使用数据科学来分析这些客户调查,并认识到所发布的调查中有一定比例的答复是非英语语言,这是人工智能算法可能理解的唯一语言。

为了解决这个问题,数据科学家们不仅可以修改算法,还可以结合语言的复杂细微差别。如果能够理解这些语言上的细微差别,并将人工智能与更流畅的语言相结合,使这些结论更可行,企业将能够了解代表性不足的社区需求,以改善他们的客户体验。

3.开发全方位的基础数据

人工智能算法能够分析大量数据集,企业应优先考虑为其人工智能模型使用和摄取的数据标准开发框架。为了成功实现人工智能,一个整体的、透明的和可追踪的数据集是必不可少的。

人工智能必须考虑到人类的干扰。比如俚语、缩写、代码词,以及更多人类在不断进化的基础上发展出来的词汇,每一种都可能让高度技术的人工智能算法出错。无法处理这些人类细微差别的人工智能模型最终会缺乏整体数据集。就像试着在没有后视镜的情况下驾驶一样,虽然拥有一些需要的信息,但缺少关键盲点。

企业必须找到历史数据和人为干预之间的平衡,以便让人工智能模型了解这些复杂的区别。通过将结构化数据与非结构化数据相结合,并训练人工智能识别两者,可以生成更全面的数据集,并提高预测的准确性。进一步说,第三方对数据集的审计可以是一个额外的好处,没有偏见和差异。

4.避免算法开发的“黑匣子”方法

要让人工智能合乎道德,就需要完全透明。为了制定同时透明、可解释和可解释的人工智能策略,企业必须打开代码的“黑匣子”,以了解算法中的每个节点是如何得出结论和解释结果的。

虽然这听起来很简单,但要实现这一点需要一个强大的技术框架,该框架可以通过查看底层代码来解释模型和算法行为,以显示正在生成的不同子预测。

企业可以依靠开源框架跨多个维度评估AI和ML模型,包括:

  • 特征分析:以评估将新特征应用于现有模型的影响
  • 节点分析:解释预测的子集
  • 局部分析:解释个体预测和匹配特征,从而提高结果
  • 全局分析:提供了一个自上而下的整体模型行为和主要特征的审查

人工智能是一项复杂的技术,如果企业不小心的话,它会有很多潜在的陷阱。一个成功的人工智能模型应该从第一天开始就优先考虑道德问题,而不是事后才考虑。在各个行业和企业中,人工智能不是一刀切的,但应该取得突破的一个共同点是致力于透明和公正的预测。


以上是人工智能需遵循哪些道德原则的详细内容。更多信息请关注PHP中文网其他相关文章!

相关标签:
来源:51cto.com
本站声明
本文内容由网友自发贡献,版权归原作者所有,本站不承担相应法律责任。如您发现有涉嫌抄袭侵权的内容,请联系admin@php.cn
最新问题
热门教程
更多>
最新下载
更多>
网站特效
网站源码
网站素材
前端模板