Lassen Sie das Mädchen Sora Tokyo singen, Gao Qiqiang ändert seine Stimme in Luo Xiang und das Lippensynchronisationsvideo des Alibaba-Charakters wird perfekt generiert

王林
Freigeben: 2024-03-01 11:34:02
nach vorne
660 Leute haben es durchsucht

Mit Alibabas EMO ist es einfacher geworden, sich mit KI-generierten oder realen Bildern zu „bewegen, zu sprechen oder zu singen“.

Vor kurzem ist das von OpenAI Sora vertretene Vincent-Videomodell wieder populär geworden.

Neben textgenerierten Videos hat die menschzentrierte Videosynthese schon immer große Aufmerksamkeit erregt. Konzentrieren Sie sich beispielsweise auf die Videogenerierung „Sprecherkopf“, bei der das Ziel darin besteht, Gesichtsausdrücke auf der Grundlage von vom Benutzer bereitgestellten Audioclips zu generieren.

Auf technischer Ebene erfordert die Generierung von Ausdrücken die genaue Erfassung der subtilen und vielfältigen Gesichtsbewegungen des Sprechers, was bei ähnlichen Videosyntheseaufgaben eine große Herausforderung darstellt.

Herkömmliche Methoden bringen normalerweise einige Einschränkungen mit sich, um die Aufgabe der Videoerstellung zu vereinfachen. Einige Methoden nutzen beispielsweise 3D-Modelle, um wichtige Gesichtspunkte einzuschränken, während andere Kopfbewegungssequenzen aus Rohvideos extrahieren, um die Gesamtbewegung zu steuern. Während diese Einschränkungen die Komplexität der Videoerstellung verringern, schränken sie auch die Fülle und Natürlichkeit der endgültigen Gesichtsausdrücke ein.

In einem kürzlich vom Ali Intelligent Computing Research Institute veröffentlichten Artikel konzentrierten sich Forscher auf die Erforschung der subtilen Verbindung zwischen Audiohinweisen und Gesichtsbewegungen, um die Authentizität, Natürlichkeit und Ausdruckskraft des Kopfvideos des Sprechers zu verbessern.

Forscher haben herausgefunden, dass traditionelle Methoden oft nicht in der Lage sind, die Gesichtsausdrücke und einzigartigen Stile verschiedener Sprecher angemessen zu erfassen. Daher schlugen sie das EMO-Framework (Emote Portrait Alive) vor, das Gesichtsausdrücke direkt durch eine Audio-Video-Synthesemethode wiedergibt, ohne 3D-Zwischenmodelle oder Gesichtsorientierungspunkte zu verwenden.

Lassen Sie das Mädchen Sora Tokyo singen, Gao Qiqiang ändert seine Stimme in Luo Xiang und das Lippensynchronisationsvideo des Alibaba-Charakters wird perfekt generiert

  • Papiertitel: EMO: Emote Portrait Alive – Generating Expressive Portrait Videos with Audio2Video Diffusion Model under Weak Conditions

  • Papieradresse: https://arxiv.org/pdf/2402.17485.pdf

  • Projekt-Homepage: https://humanaigc.github.io/emote-portrait-alive/

In Bezug auf die Wirkung kann Alis Methode einen nahtlosen Bildübergang im gesamten Video gewährleisten und eine konsistente Identität aufrechterhalten, wodurch Leistung erzeugt wird Das realistischere Charakter-Avatar-Video ist hinsichtlich Ausdruckskraft und Realismus deutlich besser als die aktuelle SOTA-Methode.

Zum Beispiel kann EMO die von Sora generierte Tokio-Mädchenfigur zum Singen bringen. Das Lied ist „Don't Start Now“, gesungen von der britisch-albanischen Sängerin Dua Lipa. Lassen Sie das Mädchen Sora Tokyo singen, Gao Qiqiang ändert seine Stimme in Luo Xiang und das Lippensynchronisationsvideo des Alibaba-Charakters wird perfekt generiertEMO unterstützt Songs in verschiedenen Sprachen, einschließlich Englisch und Chinesisch. Es kann die Tonänderungen des Audios intuitiv erkennen und dynamische und ausdrucksstarke KI-Charakter-Avatare generieren. Lassen Sie zum Beispiel die vom KI-Malmodell ChilloutMix generierte junge Dame „Melody“ von Tao Zhe singen. Lassen Sie das Mädchen Sora Tokyo singen, Gao Qiqiang ändert seine Stimme in Luo Xiang und das Lippensynchronisationsvideo des Alibaba-Charakters wird perfekt generiert

EMO kann es dem Avatar auch ermöglichen, mit rasanten Rap-Songs Schritt zu halten, beispielsweise indem er DiCaprio bittet, einen Abschnitt von „Godzilla“ des amerikanischen Rappers Eminem vorzutragen. Lassen Sie das Mädchen Sora Tokyo singen, Gao Qiqiang ändert seine Stimme in Luo Xiang und das Lippensynchronisationsvideo des Alibaba-Charakters wird perfekt generiert Natürlich ermöglicht EMO den Charakteren nicht nur das Singen, sondern unterstützt auch gesprochenes Audio in verschiedenen Sprachen und verwandelt verschiedene Stile von Porträts, Gemälden sowie 3D-Modellen und KI-generierten Inhalten in lebensechte animierte Videos. Wie zum Beispiel Audrey Hepburns Vortrag. Lassen Sie das Mädchen Sora Tokyo singen, Gao Qiqiang ändert seine Stimme in Luo Xiang und das Lippensynchronisationsvideo des Alibaba-Charakters wird perfekt generiert

Schließlich kann EMO auch eine Verbindung zwischen verschiedenen Charakteren herstellen, wie zum Beispiel Gao Qiqiang, der sich in „Cyclone“ mit Lehrer Luo Xiang verbindet. Lassen Sie das Mädchen Sora Tokyo singen, Gao Qiqiang ändert seine Stimme in Luo Xiang und das Lippensynchronisationsvideo des Alibaba-Charakters wird perfekt generiert

Methodenübersicht

Anhand eines einzelnen Referenzbilds eines Charakterporträts kann unsere Methode ein Video generieren, das mit dem Audioclip der eingegebenen Sprache synchronisiert ist, die sehr natürlichen Kopfbewegungen und lebendigen Ausdrücke des Charakters beibehält und mit den Tonhöhenänderungen des bereitgestellten Sprachaudios übereinstimmt . Koordination. Durch die Erstellung einer nahtlosen Reihe kaskadierender Videos trägt das Modell dazu bei, lange Videos sprechender Porträts mit konsistenter Identität und kohärenter Bewegung zu erstellen, die für Anwendungen in der realen Welt von entscheidender Bedeutung sind. Die Übersicht über die Methode „Network Pipeline“ ist in der folgenden Abbildung dargestellt. Das Backbone-Netzwerk empfängt mehrere Frames mit potenziellem Rauschen und versucht, diese bei jedem Zeitschritt in aufeinanderfolgende Videoframes zu entrauschen. Das Backbone-Netzwerk verfügt über eine ähnliche UNet-Strukturkonfiguration wie die ursprüngliche SD 1.5-Version, insbesondere

wie zuvor funktioniert es ähnlich. Um die Kontinuität zwischen generierten Frames sicherzustellen, ist im Backbone-Netzwerk ein zeitliches Modul eingebettet.

    Um die ID-Konsistenz der Porträts in den generierten Frames aufrechtzuerhalten, stellten die Forscher parallel zum Backbone-Netzwerk eine UNet-Struktur namens ReferenceNet bereit, die das Referenzbild eingibt, um die Referenzmerkmale zu erhalten.
  1. Um die Bewegungen der Figur beim Sprechen zu steuern, verwendeten die Forscher eine Audioschicht, um die Klangmerkmale zu kodieren.
  2. Um die Bewegungen der sprechenden Figur kontrollierbar und stabil zu machen, verwendeten die Forscher Gesichtslokatoren und Geschwindigkeitsschichten, um schwache Bedingungen bereitzustellen.
  3. Für das Backbone-Netzwerk verwendeten die Forscher keine Hinweiseinbettungen, daher passten sie die Queraufmerksamkeitsschicht in der UNet-Struktur von SD 1.5 an die Referenzaufmerksamkeitsschicht an. Diese geänderten Ebenen verwenden von ReferenceNet erhaltene Referenzmerkmale als Eingabe anstelle von Texteinbettungen.

TrainingsstrategieLassen Sie das Mädchen Sora Tokyo singen, Gao Qiqiang ändert seine Stimme in Luo Xiang und das Lippensynchronisationsvideo des Alibaba-Charakters wird perfekt generiert

Der Trainingsprozess ist in drei Phasen unterteilt:

Die erste Phase ist das Bild-Vortraining, bei dem das Backbone-Netzwerk, ReferenceNet und der Gesichtslokalisierer in den Trainingsprozess integriert werden Das Backbone-Netzwerk wird in einem einzelnen Frame trainiert. Als Eingabe verarbeitet ReferenceNet verschiedene, zufällig ausgewählte Frames aus demselben Videoclip. Sowohl Backbone als auch ReferenceNet initialisieren Gewichte aus Roh-SD. In der zweiten Phase führten die Forscher ein Videotraining ein, fügten ein zeitliches Modul und eine Audioebene hinzu und probierten n+f aufeinanderfolgende Bilder aus dem Videoclip, wobei die ersten n Bilder Bewegungsbilder waren. Das Zeitmodul initialisiert die Gewichte von AnimateDiff.

Die letzte Stufe integriert die Geschwindigkeitsschicht, und der Forscher trainiert in dieser Stufe nur das Zeitmodul und die Geschwindigkeitsschicht. Dieser Ansatz dient dazu, die Audioschicht während des Trainings absichtlich zu ignorieren. Denn die Frequenz des Ausdrucks, der Mundbewegungen und der Kopfbewegungen des Sprechers werden hauptsächlich vom Ton beeinflusst. Daher scheint es eine Korrelation zwischen diesen Elementen zu geben, und das Modell steuert die Bewegung der Figur möglicherweise auf der Grundlage von Geschwindigkeitssignalen und nicht von Audio. Experimentelle Ergebnisse zeigen, dass das gleichzeitige Training der Geschwindigkeitsschicht und der Audioschicht die Fähigkeit von Audio schwächt, die Bewegung von Charakteren voranzutreiben.

Experimentelle Ergebnisse

Zu den während des Experiments verglichenen Methoden gehören Wav2Lip, SadTalker und DreamTalk.

Abbildung 3 zeigt die Vergleichsergebnisse zwischen dieser Methode und früheren Methoden. Es ist zu beobachten, dass Wav2Lip bei Bereitstellung eines einzelnen Referenzbilds als Eingabe typischerweise einen unscharfen Mundbereich synthetisiert und Videos generiert, die durch statische Kopfhaltungen und minimale Augenbewegungen gekennzeichnet sind. Im Fall von DreamTalk können die Ergebnisse das ursprüngliche Gesicht verzerren und auch die Bandbreite an Gesichtsausdrücken und Kopfbewegungen einschränken. Im Vergleich zu SadTalker und DreamTalk ist die in dieser Studie vorgeschlagene Methode in der Lage, eine größere Bandbreite an Kopfbewegungen und lebendigere Gesichtsausdrücke zu erzeugen.

Diese Studie untersucht weiter die Erzeugung von Avatar-Videos in verschiedenen Porträtstilen, wie z. B. realistisch, Anime und 3D. Die Charaktere wurden mit demselben Sprach-Audio-Input animiert, und die Ergebnisse zeigten, dass die resultierenden Videos über die verschiedenen Stile hinweg eine ungefähr einheitliche Lippensynchronisation erzeugten.

Lassen Sie das Mädchen Sora Tokyo singen, Gao Qiqiang ändert seine Stimme in Luo Xiang und das Lippensynchronisationsvideo des Alibaba-Charakters wird perfekt generiert

Abbildung 5 zeigt, dass unsere Methode bei der Verarbeitung von Audiodaten mit offensichtlichen Klangeigenschaften reichhaltigere Gesichtsausdrücke und Aktionen erzeugen kann. In der dritten Zeile des Bildes unten löst beispielsweise eine hohe Tonhöhe einen stärkeren, lebendigeren Ausdruck der Figur aus. Darüber hinaus können Sie mit Bewegungsbildern das generierte Video verlängern, d. h. ein Video mit längerer Dauer basierend auf der Länge des Eingangsaudios generieren. Wie in den Abbildungen 5 und 6 dargestellt, bewahrt unsere Methode die Identität des Charakters in längeren Sequenzen auch bei großen Bewegungen.

Lassen Sie das Mädchen Sora Tokyo singen, Gao Qiqiang ändert seine Stimme in Luo Xiang und das Lippensynchronisationsvideo des Alibaba-Charakters wird perfekt generiert

Tabelle 1 Die Ergebnisse zeigen, dass diese Methode erhebliche Vorteile bei der Videoqualitätsbewertung hat: Lassen Sie das Mädchen Sora Tokyo singen, Gao Qiqiang ändert seine Stimme in Luo Xiang und das Lippensynchronisationsvideo des Alibaba-Charakters wird perfekt generiert

Lassen Sie das Mädchen Sora Tokyo singen, Gao Qiqiang ändert seine Stimme in Luo Xiang und das Lippensynchronisationsvideo des Alibaba-Charakters wird perfekt generiert

Das obige ist der detaillierte Inhalt vonLassen Sie das Mädchen Sora Tokyo singen, Gao Qiqiang ändert seine Stimme in Luo Xiang und das Lippensynchronisationsvideo des Alibaba-Charakters wird perfekt generiert. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!

Verwandte Etiketten:
Quelle:jiqizhixin.com
Erklärung dieser Website
Der Inhalt dieses Artikels wird freiwillig von Internetnutzern beigesteuert und das Urheberrecht liegt beim ursprünglichen Autor. Diese Website übernimmt keine entsprechende rechtliche Verantwortung. Wenn Sie Inhalte finden, bei denen der Verdacht eines Plagiats oder einer Rechtsverletzung besteht, wenden Sie sich bitte an admin@php.cn
Beliebte Tutorials
Mehr>
Neueste Downloads
Mehr>
Web-Effekte
Quellcode der Website
Website-Materialien
Frontend-Vorlage