Google hat ein neues Video-Framework veröffentlicht:
Sie benötigen nurein Bild von Ihnen und eine Aufzeichnung Ihrer Rede, und Sie könnenein lebensechtes Video Ihrer Rede erhalten.
Die Videodauer ist variabel und beträgt im aktuellen Beispiel bis zu 10 Sekunden.
Sie können sehen, dass es sehr natürlich ist, egal obMundform oder Gesichtsausdruck.
Wenn das Eingabebild den gesamten Oberkörper abdeckt, kann es auch mit reichhaltigenGestenverwendet werden:
Nachdem die Internetnutzer es gelesen hatten, sagten sie:
Damit müssen wir uns nicht mehr festhalten Online-Videokonferenzen in der Zukunft Machen Sie Ihre Frisur fertig und ziehen Sie sich an, bevor Sie gehen.
Nun, machen Sie einfach ein Porträt und nehmen Sie das Sprachaudio auf(manueller Hundekopf)
Dieses Framework heißtVLOGGER.
Es basiert hauptsächlich auf dem Diffusionsmodell und besteht aus zwei Teilen:
Einer ist das Diffusionsmodell „Zufällige Mensch-zu-3D-Bewegung“ (Mensch-zu-3D-Bewegung).Das andere ist eine neue Diffusionsarchitektur zur Verbesserung von Text-zu-Bild-Modellen.
Unter ihnen ist ersterer dafür verantwortlich, die Audiowellenform als Eingabe zu verwenden, um die Körperkontrollaktionen des Charakters zu generieren, einschließlich Augen, Ausdrücke und Gesten, allgemeine Körperhaltung usw.
Letzteres ist ein Bild-zu-Bild-Modell mit zeitlicher Dimension, das verwendet wird, um das groß angelegte Bilddiffusionsmodell zu erweitern und die gerade vorhergesagten Aktionen zum Generieren entsprechender Frames zu verwenden.
Um die Ergebnisse an ein bestimmtes Charakterbild anzupassen, verwendet VLOGGER auch das Posendiagramm des Parameterbilds als Eingabe.
Das Training von VLOGGER wird an einem sehr großen Datensatz
(mit dem Namen MENTOR)abgeschlossen.Wie groß ist es?
Es ist 2200 Stunden lang und enthält 800.000 Charaktervideos.Unter anderem beträgt die Videodauer des Testsets ebenfalls 120 Stunden mit insgesamt 4.000 Zeichen.
Google stellte fest, dass die herausragendste Leistung von VLOGGER seine Vielfalt ist:
Wie im Bild unten gezeigt, sind die Aktionen umso reichhaltiger, je dunkler
(rot)der Teil des endgültigen Pixelbilds ist.
Im Vergleich zu früheren ähnlichen Methoden in der Branche besteht der größte Vorteil von VLOGGER darin, dass nicht jeder geschult werden muss, nicht auf Gesichtserkennung und -zuschnitt angewiesen ist und das generierte Video sehr vollständig ist (einschließlich Gesichter und Lippen, einschließlich Körperbewegungen)
und so weiter.
Im Einzelnen, wie in der folgenden Tabelle gezeigt:
Die Gesichtsnachstellungsmethode kann eine solche Videogenerierung mit Audio und Text nicht steuern. Audio-to-Motion kann Audio erzeugen, indem Audio in 3D-Gesichtsbewegungen kodiert wird, aber der dadurch erzeugte Effekt ist nicht realistisch genug. Die Lippensynchronisation kann Videos zu unterschiedlichen Themen verarbeiten, aber nur Mundbewegungen simulieren. Im Vergleich schneiden die beiden letztgenannten Methoden, SadTaker und Styletalk, am ehesten mit Google VLOGGER ab, haben aber auch den Nachteil, dass sie den Körper nicht kontrollieren und das Video weiter bearbeiten können.Apropos Videobearbeitung: Wie im Bild unten gezeigt, ist eine der Anwendungen des VLOGGER-Modells folgende: Es kann dazu führen, dass der Charakter den Mund hält, die Augen schließt, nur das linke Auge schließt oder das ganze Auge öffnet mit einem Klick:
Eine weitere Anwendung ist die Videoübersetzung:
Zum Beispiel das Ändern der englischen Sprache im Originalvideo ins Spanische mit der gleichen Mundform. Internetnutzer haben sich beschwert Schließlich hat Google das Modell nach der „alten Regel“ nicht veröffentlicht. Jetzt sind nur noch weitere Effekte und Papiere zu sehen. Nun, es gibt viele Beschwerden: Die Bildqualität des Modells, die Lippensynchronisation stimmt nicht überein, es sieht immer noch sehr roboterhaft aus usw. Daher haben einige Leute nicht gezögert, eine negative Bewertung abzugeben:Ist das das Niveau von Google?
Der Name „VLOGGER“ tut mir ein bisschen leid.
——Verglichen mit Sora von OpenAI ist die Aussage des Internetnutzers tatsächlich nicht unvernünftig. .
Was meint ihr?
Weitere Effekte:https://enriccorona.github.io/vlogger/
Vollständiges Paper:https://enriccorona.github.io/vlogger/paper.pdf
Das obige ist der detaillierte Inhalt vonGoogle veröffentlicht „Vlogger'-Modell: Ein einzelnes Bild erzeugt ein 10-Sekunden-Video. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!