IT House は 9 月 2 日、現在の多くのコンピューター ビジョン モデルにおける女性や有色人種に対する体系的な偏見の問題を軽減するために、 は識別用の FACET と呼ばれる新しい AI ツールを最近立ち上げたと報告しました。コンピュータビジョンシステム。
FACET ツールは現在、50,000 人の画像を含む 30,000 枚の画像でトレーニングされています。特に性別と肌の色の認識が強化されており、さまざまな特徴に関するコンピューター ビジョン モデルを評価するために使用できます。
トレーニング後、FACET ツールは複雑な質問に答えることができます。たとえば、対象が男性であると識別されると、スケートボーダーだけでなく、肌の色が明るいか暗いかも識別できるようになります。
Meta は、FACET を使用して、同社が開発した DINOv2 モデルと SEERv2 モデル、および OpenAI の OpenCLIP モデルを評価しました。全体的に、OpenCLIP は性別の点で他のモデルよりも優れたパフォーマンスを示しましたが、DINOv は年齢と肌の色で優れたパフォーマンスを示しました。判定。
オープンソースの
FACET は、研究者が同様のベンチマークを実行して独自のモデルのバイアスを理解し、公平性の問題に対処するために講じられた緩和策の影響を監視するのに役立ちます。 IT House はここに Meta のプレス リリース アドレスを添付しており、興味のあるユーザーはそれを詳しく読むことができます。 オープンソースの FACET は、研究者が同様のベンチマークを実施してモデルに存在するバイアスを理解し、公正な解決策を採用した場合の影響を監視するのに役立ちます。 IT House はここに Meta のプレスリリースへのリンクを提供しています。興味のあるユーザーは詳しく読むことができます以上がAI モデルにおける人種および性別の偏見を評価するための Meta のオープンソース FACET ツールの詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。