如何让人工智能变得可解释?

王林
王林 转载
2023-04-08 20:31:01 425浏览

RegTech 公司Hawk: AI的首席技术官沃尔夫冈·伯纳(Wolfgang Berner)的表示,如果你真的可解释性对于许多应用尤为关键。

伯纳表示:“在反洗钱等严格监管的领域,考虑人工智能的使用透明度和可解释性是完全合适的。当AI的决策与原始数据过于脱节,以及算法的工作方式缺乏透明度时,人们就会对这种典型的“黑匣子AI”产生担忧。”

Hawk AI认为,合规行业、信任和接受的关键在于高度的透明度。因此,对于该公司来说,对人工智能可解释性的需求远远超出了纯粹的监管要求。

借助可理解的人工智能,金融机构甚至可以对神经网络等复杂模型进行概览和控制。对于 Hawk AI,可解释性由两个方面组成——人工智能驱动的个人决策的理由是什么?有助于人工智能的算法是如何开发的?

Hawk AI 表示:“对于 Hawk AI 来说,这很清楚——只有技术上可以解释的,最终才会被接受。决策的确切标准或某些风险的统计概率以及算法的组成与 AI 决策过程的完整文档一样重要。同样重要的是,所有这些都以清晰易懂的语言而不是纯粹的技术术语来表达。”

该公司认为,每个细节和每个数据源都必须是可验证的——例如,与特定同行组相比,某些值是显着高还是低。为什么人工智能假设某些预期值以及这些值如何相互关联,必须是透明的。数据情况必须非常清楚,以至于合规官会使用相同的数据做出相同的决定。

此外,一致的反馈和验证流程有助于不断改进决策——因此,人工智能直接从合规团队的决策中学习,并可以在未来更好地支持他们。

Hawk 提到,AI 不仅在其应用之初必须是透明的——因为它通过接触新数据来独立改进,还需要能够理解这样的优化。为此,该公司声称 AI 的每一个变更过程也都记录在软件中,并且需要明确的批准。因此,如果没有合规团队能够理解和控制它,人工智能就永远不会进化。

Hawk AI 总结道:“AI 反洗钱已经准备就绪——有了 Hawk AI,它是透明且安全的。由于这些原因,Hawk AI 谈到了与人工智能相关的“白盒 AI”,与“黑盒 AI”相比,其技术对于合规团队来说是完全可以理解的。因此,我们的软件提供了完全的控制和安全性。人工智能在金融领域的应用正在彻底改变打击金融犯罪的斗争。

“技术驱动的反洗钱不仅在效率和有效性方面明显超越了传统系统,而且由于它能够从犯罪行为模式中学习,因此特别具有前瞻性。因此,从长远来看,使用人工智能打击金融犯罪将成为行业标准。多年来,该技术已在实践中得到验证。即使在非常大的金融机构中,它今天已经在使用,或者至少在第一批试点中已经建立。”

Hawk AI 已与推动金融和零售互联商务的领导者 Diebold Nixdorf 合作,以扩大前者的 AML 解决方案的覆盖范围。

以上就是如何让人工智能变得可解释?的详细内容,更多请关注php中文网其它相关文章!

声明:本文转载于:51CTO.COM,如有侵犯,请联系admin@php.cn删除