Sie können alle Konfigurationen und vollständigen Anweisungen herunterladen
https://www.patreon.com/posts/112099700 – Beitrag zur Feinabstimmung
https://www.patreon.com/posts/110879657 – LoRA-Beitrag
Kohya hat das FLUX LoRA- und DreamBooth/Fine-Tuning-Training (mindestens 6 GB GPU) massiv verbessert.
Jetzt können bereits 4-GB-GPUs FLUX LoRA mit anständiger Qualität trainieren, und 24-GB-GPUs und weniger erhalten einen enormen Geschwindigkeitsschub, wenn sie das vollständige DreamBooth-/Feinabstimmungstraining durchführen
Sie benötigen mindestens 4 GB GPU, um ein FLUX LoRA-Training durchzuführen, und mindestens 6 GB GPU, um ein FLUX DreamBooth/Full Fine-Tuning-Training durchzuführen. Es ist einfach umwerfend.
Sie können alle Konfigurationen und vollständigen Anweisungen herunterladen. https://www.patreon.com/posts/112099700
Der obige Beitrag enthält auch 1-Klick-Installer und Downloader für Windows, RunPod und Massed Compute
Die Modell-Downloader-Skripte wurden ebenfalls aktualisiert und das Herunterladen von 30-GB-Modellen dauert bei Massed Compute insgesamt 1 Minute
Sie können die neuesten Updates hier lesen: https://github.com/kohya-ss/sd-scripts/tree/sd3?tab=readme-ov-file#recent-updates
Dies ist der Kohya-GUI-Zweig: https://github.com/bmaltais/kohya_ss/tree/sd3-flux.1
Der Schlüssel zur Reduzierung der VRAM-Nutzung ist die Verwendung von Block-Swap
Kohya hat die Logik von OneTrainer implementiert, um die Blockaustauschgeschwindigkeit erheblich zu verbessern, und jetzt wird sie auch für LoRAs unterstützt
Jetzt können Sie FP16-Training mit LoRAs auf GPUs mit 24 GB und weniger durchführen
Jetzt können Sie einen FLUX LoRA auf einer 4-GB-GPU trainieren – der Schlüssel ist FP8, Block-Swap und die Verwendung bestimmter Layer-Trainings (denken Sie an Single-Layer-LoRA-Training)
Ich habe mehr als einen Tag gebraucht, um alle neueren Konfigurationen, ihre VRAM-Anforderungen, ihre relativen Schrittgeschwindigkeiten zu testen und die Konfigurationen vorzubereiten :)
Das obige ist der detaillierte Inhalt vonKohya brachte massive Verbesserungen beim Training von FLUX LoRA (B-GPUs) und DreamBooth/Fine-Tuning (B-GPUs).. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!