AIを活用したディープフェイク技術が進化するにつれ、「どのコンテンツがAIによって偽造されたものか」を人間が肉眼で判断することがますます困難になってきています。クローラーによる画像の改変を防ぐために、MIT は最近、画像を処理して AI による認識や改ざんを困難にする Photoguard と呼ばれるテクノロジーを発表しました。
この「PhotoGuard」技術は主に、画像にわずかな変更を加えることでAIが画像内容を認識するのを防ぐことが報告されています。この技術は、AI による画像の改ざんを防ぐ 2 つのソリューションを提供します。1 つは、画像のピクセルを変更することでアルゴリズム モデルの画像理解能力を妨げる「エンコーダー」方式で、もう 1 つは、AI による画像の改ざんを防ぐ「拡散」方式です。 AIに写真Aは写真Bだと思い込ませ、間違った画像を生成します。
しかし、IT House は問い合わせの結果、このテクノロジーの適用範囲が実際には限られていることが分かりました。研究者らは、PhotoGuard テクノロジーはクローラ対策のシナリオにより適していると警告しました。テクノロジー自体にも一定の制限があります。攻撃者この技術は、処理された画像をトリミングまたは反転することによってのみ解読できます。 研究者らは、AI詐欺の問題を解決するには、技術的手段に加えて、モデル開発者、ソーシャルメディアプラットフォーム、関連部門が協力して包括的な「AI詐欺対策」ソリューションを提供する必要があると指摘しました
以上がMITが悪意のあるAI編集から画像を守る「PhotoGuard」技術を開発の詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。