#ディープフェイクの世界では、真と偽を区別することが難しい場合があります。
AIアルゴリズム「ディープフェイク」は、さまざまなリアルな人物の画像や動画を生成することができ、顔を変える分野で広く利用されています。しかし、AIによる顔を変える技術は、アダルトビデオの制作にディープフェイクが使用されるなど、常に物議を醸しており、人々に多大な迷惑を与えている。
海外メディアのpcmagの報道によると、FBIは最近、詐欺師らがディープフェイク技術を利用してリモートワークの面接で求職者になりすまし、順番にIT企業への就職の機会を獲得しようとしていると発表した。顧客データや財務データ、企業の IT データベース、および/または専有情報にアクセスするため。
一部の企業は、一部の応募者の個人情報が別人のものであったことを明らかにしました。
#顔が変わる前と後のキャラクターの顔。出典: Facebook/Meta
これが問題です。現地時間6月28日、FBIのインターネット犯罪苦情センター(IC3)は公開相談の中で、求職者になりすました人々に関する苦情の数が最近増加していると述べた。詐欺師はディープフェイク技術と被害者から盗んだ個人特定情報を利用して、雇用主をだましてリモートや在宅勤務の仕事に雇用させようとしている。これらの仕事には、IT およびコンピューター プログラミング、データベース、およびソフトウェア関連の職が含まれます。
画像ソース: https://www.ic3.gov/Media/Y2022/PSA220628 過去には、ディープフェイクは AI を活用したプログラムを使用して、リアルだが偽のペルソナを作成していました。ビデオ側では、この技術は有名人の顔を他の人の体にコピーすることができ、オーディオ側では、この技術は人の声を複製し、それを操作して言いたいことを何でも言うことができます。
しかし、今回の FBI の諮問により、ディープフェイク技術が個人情報盗難の違法行為も促進していることが明らかになりました。詐欺師は、応募者のオンライン面接中に音声スプーフィングまたは音声偽造を使用します。詐欺師はこれらのディープフェイク技術を利用して、IT 企業のリモートまたは在宅勤務の仕事に応募しています。
FBI は詐欺師の最終的な目的を明らかにしていませんが、関係する役職には顧客の PII (個人識別情報)、財務データ、企業の IT データベース、および/または機密情報へのアクセスが含まれていることを指摘しました。この種の情報は、詐欺師が企業から貴重な情報を盗んだり、その他の個人情報詐欺計画を実行したりするのに役立ちます。 画像出典: https://www.bangkokpost.com/ただし、良いニュースは、雇用主がディープフェイクを検出する方法を持っていることです。詐欺師たちは潜在的な雇用主とのビデオ面接を行っているが、FBIは、詐欺師が話すとAIベースのテクノロジーにはまだ欠陥があると指摘している。
たとえば、カメラの前でのインタビュアーの動きや唇の動きは、話す声と完全には一致していません。咳、くしゃみ、その他の聴覚動作が、視覚的に提示されている動作と一致しない場合があります。
以上が遠隔地の従業員は本当に自分自身ですか? FBI、求職者がディープフェイクを悪用していることを明らかにの詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。