Nightshade を使用してアートワークを生成 AI から保護する方法

王林
リリース: 2024-06-14 17:20:43
オリジナル
587 人が閲覧しました

AI ツールは革新的で、会話を行ったり、人間のようなテキストを生成したり、単一の単語に基づいて画像を作成したりできるようになりました。ただし、これらの AI ツールが使用するトレーニング データは、特に DALL-E、Midjourney などのテキストから画像へのジェネレーターに関しては、著作権で保護されたソースから取得されていることがよくあります。

著作権画像を使用してトレーニングする生成 AI ツールを止めるのは難しく、あらゆる分野のアーティストが AI トレーニング データセットから自分の作品を守るのに苦労しています。しかし今、生成 AI ツールの出力を妨害するために構築された無料の AI ツールである Nightshade の出現により、すべてが変わりました。そして最終的にアーティストが力を取り戻せるようになりました。

AI中毒とは何ですか?

AI ポイズニングは、AI アルゴリズムのトレーニング データセットを「ポイズニング」する行為です。これは、AI に意図的に間違った情報を与え、その結果、学習済みの AI が誤動作したり、画像を検出できなくなったりすることに似ています。 Nightshade のようなツールは、AI トレーニングとは完全に異なるように見えるが、人間の目には元の画像とほとんど変わらないようにデジタル画像内のピクセルを変更します。

How to Use Nightshade to Protect Your Artwork From Generative AI

たとえば、毒物が含まれた車の画像をインターネットにアップロードした場合、私たち人間には同じように見えますが、インターネット上の車の画像を見て車を識別するよう自らを訓練しようとしている AI は何かを認識します。全然違う。

AI のトレーニング データ内のこれらの偽の画像や汚染された画像のサンプル サイズが十分に大きいと、AI のオブジェクトの理解が損なわれるため、指定されたプロンプトから正確な画像を生成する能力が損なわれる可能性があります。

生成 AI の将来がどうなるかについてはまだいくつかの疑問がありますが、オリジナルのデジタル作品を保護することは間違いなく優先事項です。モデルの基礎を構築するトレーニング データが 100% 正しくないため、これによりモデルの将来の反復に損害を与える可能性さえあります。

この技術を使用すると、AI データセットでの画像の使用に同意していないデジタル クリエイターは、許可なく生成 AI に画像がフィードされるのを防ぐことができます。一部のプラットフォームでは、クリエイターが AI トレーニング データセットにアートワークを含めないようにオプトアウトするオプションが提供されています。ただし、このようなオプトアウト リストは、AI モデル トレーナーによって過去にも無視されており、今後も無視され続けますが、ほとんど影響はありません。

Glaze のような他のデジタルアートワーク保護ツールと比較して、Nightshade は攻撃的です。 Glaze は AI アルゴリズムが特定の画像のスタイルを模倣するのを防ぎますが、Nightshade は画像の外観を AI に変更します。どちらのツールも、シカゴ大学のコンピューター サイエンス教授である Ben Zhao によって構築されました。

Nightshade の使用方法

ツールの作成者は Nightshade を Glaze と一緒に使用することを推奨していますが、アートワークを保護するためのスタンドアロン ツールとしても使用できます。 Nightshade で画像を保護する手順が 3 つだけであることを考えると、このツールの使用も非常に簡単です。

ただし、開始する前に留意する必要があることがいくつかあります。

Nightshade は Windows と MacOS でのみ利用できますが、GPU サポートは限られており、最低 4GB VRAM が必要です。現時点では、Nvidia 以外の GPU と Intel Mac はサポートされていません。 Nightshade チームによるサポートされている Nvidia GPU のリストは次のとおりです (GTX および RTX GPU は「CUDA 対応の GeForce および TITAN 製品」セクションにあります)。あるいは、CPU 上で Nightshade を実行することもできますが、パフォーマンスが低下します。 GTX 1660、1650、または 1550 を使用している場合、PyTorch ライブラリのバグにより、Nightshade を適切に起動または使用できない可能性があります。 Nightshade の背後にあるチームは、PyTorch から Tensorflow に移行することで将来この問題を修正する可能性がありますが、現時点では回避策はありません。この問題は、これらのカードの Ti バージョンにも及びます。 Windows 11 PC に管理者アクセスを提供してプログラムを起動し、プログラムが開くまで数分間待ちました。あなたのマイレージは異なる場合があります。 アートワークに固体の形状や背景が多数ある場合、アーティファクトが発生する可能性があります。これは、より強度の低い「中毒」を使用することで対抗できます。

Nightshade で画像を保護する場合、次のことを行う必要があります。このガイドでは Windows バージョンを使用していますが、これらの手順は macOS バージョンにも適用されることに注意してください。

Nightshade ダウンロード ページから Windows または macOS バージョンをダウンロードします。 Nightshade はアーカイブ フォルダーとしてダウンロードされ、インストールは必要ありません。ダウンロードが完了したら、ZIP フォルダーを解凍し、Nightshade.exe をダブルクリックしてプログラムを実行します。 左上の「選択」ボタンをクリックして、保護したい画像を選択します。一度に複数の画像を選択してバッチ処理することもできます。 How to Use Nightshade to Protect Your Artwork From Generative AI好みに応じて強度とレンダリング品質のダイヤルを調整します。値を高くするとポイズニングが強化されますが、出力イメージにアーティファクトが発生する可能性もあります。 次に、「出力」セクションの下にある「名前を付けて保存」ボタンをクリックして、出力ファイルの保存先を選択します。 下部にある「Run Nightshade」ボタンをクリックしてプログラムを実行し、画像を汚染します。

オプションで、毒タグを選択することもできます。 Nightshade は、単一の単語タグを自動的に検出して提案します (そうでない場合)。ただし、それが間違っていたり一般的すぎる場合は変更できます。この設定は、Nightshade で 1 つの画像を処理する場合にのみ使用できることに注意してください。

すべてがうまくいけば、人間の目には元の画像と同じに見えますが、AI アルゴリズムからはまったく異なる画像が得られるはずです。これにより、生成 AI からアートワークが保護されます。

以上がNightshade を使用してアートワークを生成 AI から保護する方法の詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。

ソース:makeuseof.com
このウェブサイトの声明
この記事の内容はネチズンが自主的に寄稿したものであり、著作権は原著者に帰属します。このサイトは、それに相当する法的責任を負いません。盗作または侵害の疑いのあるコンテンツを見つけた場合は、admin@php.cn までご連絡ください。
人気のチュートリアル
詳細>
最新のダウンロード
詳細>
ウェブエフェクト
公式サイト
サイト素材
フロントエンドテンプレート
私たちについて 免責事項 Sitemap
PHP中国語ウェブサイト:福祉オンライン PHP トレーニング,PHP 学習者の迅速な成長を支援します!