Heim > Backend-Entwicklung > Python-Tutorial > Kohya brachte massive Verbesserungen beim Training von FLUX LoRA (B-GPUs) und DreamBooth/Fine-Tuning (B-GPUs).

Kohya brachte massive Verbesserungen beim Training von FLUX LoRA (B-GPUs) und DreamBooth/Fine-Tuning (B-GPUs).

Patricia Arquette
Freigeben: 2024-11-21 08:57:09
Original
579 Leute haben es durchsucht

Sie können alle Konfigurationen und vollständigen Anweisungen herunterladen

https://www.patreon.com/posts/112099700 – Beitrag zur Feinabstimmung

https://www.patreon.com/posts/110879657 – LoRA-Beitrag

Kohya hat das FLUX LoRA- und DreamBooth/Fine-Tuning-Training (mindestens 6 GB GPU) massiv verbessert.

Jetzt können bereits 4-GB-GPUs FLUX LoRA mit anständiger Qualität trainieren, und 24-GB-GPUs und weniger erhalten einen enormen Geschwindigkeitsschub, wenn sie das vollständige DreamBooth-/Feinabstimmungstraining durchführen

Sie benötigen mindestens 4 GB GPU, um ein FLUX LoRA-Training durchzuführen, und mindestens 6 GB GPU, um ein FLUX DreamBooth/Full Fine-Tuning-Training durchzuführen. Es ist einfach umwerfend.

Sie können alle Konfigurationen und vollständigen Anweisungen herunterladen. https://www.patreon.com/posts/112099700

Der obige Beitrag enthält auch 1-Klick-Installer und Downloader für Windows, RunPod und Massed Compute

Die Modell-Downloader-Skripte wurden ebenfalls aktualisiert und das Herunterladen von 30-GB-Modellen dauert bei Massed Compute insgesamt 1 Minute

Sie können die neuesten Updates hier lesen: https://github.com/kohya-ss/sd-scripts/tree/sd3?tab=readme-ov-file#recent-updates

Dies ist der Kohya-GUI-Zweig: https://github.com/bmaltais/kohya_ss/tree/sd3-flux.1

Der Schlüssel zur Reduzierung der VRAM-Nutzung ist die Verwendung von Block-Swap

Kohya hat die Logik von OneTrainer implementiert, um die Blockaustauschgeschwindigkeit erheblich zu verbessern, und jetzt wird sie auch für LoRAs unterstützt

Jetzt können Sie FP16-Training mit LoRAs auf GPUs mit 24 GB und weniger durchführen

Jetzt können Sie einen FLUX LoRA auf einer 4-GB-GPU trainieren – der Schlüssel ist FP8, Block-Swap und die Verwendung bestimmter Layer-Trainings (denken Sie an Single-Layer-LoRA-Training)

Ich habe mehr als einen Tag gebraucht, um alle neueren Konfigurationen, ihre VRAM-Anforderungen, ihre relativen Schrittgeschwindigkeiten zu testen und die Konfigurationen vorzubereiten :)

Kohya brought massive improvements to FLUX LoRA (B GPUs) and DreamBooth / Fine-Tuning (B GPUs) training

Kohya brought massive improvements to FLUX LoRA (B GPUs) and DreamBooth / Fine-Tuning (B GPUs) training

Das obige ist der detaillierte Inhalt vonKohya brachte massive Verbesserungen beim Training von FLUX LoRA (B-GPUs) und DreamBooth/Fine-Tuning (B-GPUs).. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!

Quelle:dev.to
Erklärung dieser Website
Der Inhalt dieses Artikels wird freiwillig von Internetnutzern beigesteuert und das Urheberrecht liegt beim ursprünglichen Autor. Diese Website übernimmt keine entsprechende rechtliche Verantwortung. Wenn Sie Inhalte finden, bei denen der Verdacht eines Plagiats oder einer Rechtsverletzung besteht, wenden Sie sich bitte an admin@php.cn
Neueste Artikel des Autors
Beliebte Tutorials
Mehr>
Neueste Downloads
Mehr>
Web-Effekte
Quellcode der Website
Website-Materialien
Frontend-Vorlage