データサイエンスがより洗練され、消費者がよりパーソナライズされた顧客エクスペリエンスを求めるようになるにつれ、人工知能は企業が顧客や視聴者をより深く理解するのに役立つツールです。しかし、たとえ AI が世界中であらゆる可能性を秘めていたとしても、私たちが残された倫理的課題を解決する方法を見つけられなければ、その可能性を最大限に実現することは決してできないかもしれません。
このテクノロジーが進化するにつれて、AI 戦略の導入を検討しているすべてのリーダーが念頭に置くべき問題の 1 つは、倫理的かつ責任を持って戦略を実行する方法です。あなたの企業内で。
# リスクを最小限に抑え、バイアスを軽減し、AI の価値を高めながらプラスの投資収益率を実現する AI 機能を実装および拡張するには、企業は次の 4 つの原則に従う必要があります。 1. 目標、目的、リスクを理解する 約 7 年前、ある組織が「新興企業向けハイプ サイクル」と呼ばれるものを発表しました。テクノロジー』では、今後 10 年間に社会とビジネスを変革するテクノロジーを予測します。人工知能もそうしたテクノロジーの 1 つです。 このレポートの発表により、企業は自社が人工知能に精通していることをアナリストや投資家に証明することを急ぐようになり、多くの企業が自社のビジネスモデルに人工知能戦略を適用し始めています。 。ただし、これらの戦略が適切に実行されておらず、既存の分析や数値目標に対する後付けにすぎないことが判明する場合があります。これは、企業が AI に解決を求めているビジネス上の問題を明確に理解していないためです。 企業が開発した AI および ML モデルのうち実装されているのは 10% のみです。問題を抱えている企業と、AI を使用して問題を解決できるデータサイエンティストとの間には歴史的な断絶があり、AI は遅れをとっています。しかし、データの成熟度が高まるにつれて、企業は結果を発見して変換するマーケティング ビジネスのニーズなど、さまざまなバリュー チェーンにデータ トランスレーターを統合し始めています。 だからこそ、倫理的な AI 戦略を策定する際の第一原則は、すべての目標、目的、リスクを理解し、企業全体で AI への分散型アプローチを構築することです。 2. 偏見と差別の問題を解決する 人工知能ソリューションは、偏見の問題を解決するために適切に開発されたことがないため、大小を問わず企業の破綻につながり、評判は傷つき、顧客からは不信感を持たれました。したがって、AI モデルを作成する企業は、自社のソリューションが害を及ぼさないように先制的な措置を講じる必要があります。これを行う方法は、アルゴリズムの予測への悪影響を防ぐフレームワークを作成することです。 たとえば、過小評価されているコミュニティが自社のサービスをどのように見ているかなど、調査を通じて顧客の感情をより深く理解したい場合、企業はデータ サイエンスを使用して顧客調査を分析し、次のことを認識します。公開された調査に対する回答の一定の割合は英語以外の言語で書かれており、英語は AI アルゴリズムが理解できる唯一の言語です。 この問題を解決するには、データ サイエンティストはアルゴリズムを変更するだけでなく、言語の複雑なニュアンスを組み込むこともできます。こうした言語のニュアンスが理解でき、AI とより流暢な言語を組み合わせることで、これらの結論がより実用的なものになれば、企業は過小評価されているコミュニティのニーズを理解し、顧客エクスペリエンスを向上させることができるでしょう。 3. あらゆる種類の基本データを開発する 人工知能アルゴリズムは大量のデータセットを分析できるため、企業は人工知能アルゴリズムを優先する必要があります。インテリジェンス モデル 消費および取り込みのためのデータ標準を開発するためのフレームワーク。 AI が成功するには、包括的で透明性があり、追跡可能なデータセットが不可欠です。 人工知能は人間の干渉を考慮する必要があります。スラング、略語、隠語など、人類が継続的な進化に基づいて開発した単語は、高度に技術的な人工知能のアルゴリズムに誤動作を引き起こす可能性があります。こうした人間の微妙な違いを処理できない AI モデルは、全体的なデータセットを欠くことになります。それは、バックミラーなしで運転しようとしているようなもので、必要な情報はいくつかあるのに、重大な死角を見逃しています。 企業は、AI モデルがこれらの複雑な違いを理解できるように、履歴データと人間の介入の間のバランスを見つける必要があります。構造化データと非構造化データを組み合わせ、両方を認識できるように AI をトレーニングすることで、より包括的なデータセットを生成し、予測の精度を向上させることができます。さらに、第三者によるデータセットの監査は、偏見や不一致がないというさらなる利点をもたらします。 4. アルゴリズム開発への「ブラック ボックス」アプローチを避ける 人工知能が倫理的であるためには、完全な透明性が必要です。透明性、解釈可能性、説明可能性を同時に備えた AI 戦略を開発するには、企業はコードの「ブラック ボックス」を開いて、アルゴリズムの各ノードがどのように結論に達し、その結果を解釈するかを理解する必要があります。 これは簡単に聞こえますが、これを達成するには、基礎となるコードを調べて、何が生成されているかを示すことによってモデルとアルゴリズムの動作を説明できる強力な技術的フレームワークが必要です。企業は、オープンソース フレームワークを利用して、次のような複数の側面にわたって AI および ML モデルを評価できます。
人工知能は、企業が注意しないと多くの潜在的な落とし穴を伴う複雑なテクノロジーです。 AI モデルを成功させるには、後付けではなく、初日から倫理問題を優先する必要があります。あらゆる業界やビジネスにおいて、AI は万能ではありませんが、ブレークスルーにつながる 1 つの共通点は、透明性と公平性のある予測への取り組みです。
以上が人工知能はどのような倫理原則に従う必要がありますか?の詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。