Vor ein paar Tagen wurde ein Thema über die Erfolgsquote bei KI-Betrug von nahezu 100 %# zu einem heißen Suchthema auf Weibo. Der gesetzliche Vertreter eines Technologieunternehmens in Fujian wurde innerhalb von 10 Minuten um 4,3 Millionen Yuan betrogen, weil er sich ein Video ansah, das mit KI-Technologie zur Gesichtsveränderung erstellt wurde.
Ein KI-bezogener Betrug kam auch im Ausland vor. Eine E-Mail mit einem angehängten Video des Google-CEOs veranlasste viele YouTube-Blogger, Dateien herunterzuladen, die gefährliche Viren enthielten.
Bei beiden Betrugsvorfällen ging es um Deepfake-Technologie. Dies ist eine gesichtsverändernde Methode, die es seit sechs Jahren gibt. Heutzutage ist es durch die Explosion der AIGC-Technologie immer einfacher geworden, schwer zu identifizierende Deepfake-Videos zu erstellen. Für die Finanzbranche, in der Gesichtserkennung weit verbreitet ist, ist auch die Verhinderung von Deep-Fake-Angriffen besonders wichtig.
In der Finanzbranche handelt es sich bei dem durch Deepfake verursachten Betrug hauptsächlich um Identitätsbetrug, d. Derzeit verfügt die Finanzbranche über relativ ausgereifte technische Methoden und Lösungen für den Umgang mit Deepfake, und Du Xiaoman verfügt über umfangreiche Erfahrungen im Umgang mit Deepfake.
Du Xiaoman stellte fest, dass in den letzten Jahren der Trend zur Verwendung von Deep-Fake-Technologie zur Umgehung des Gesichtserkennungsprozesses zugenommen hat, was eine gewisse Bedrohung für das Echtnamen-Authentifizierungssystem von Finanzinstituten darstellt. Die zuverlässigste Methode ist die Entwicklung eines „Anti-Deepfake“-Erkennungsalgorithmus und die Übergabe der Überprüfung der Authentizität von Inhalten an künstliche Intelligenz. Die Strategie des Du Xiaoman-Erkennungsmodellalgorithmus zur Verhinderung tiefgreifender Fälschungen löst das Problem der Erstellung gefälschter Videos aus drei Aspekten erfolgreich.
Die erste besteht darin, Fehler zu erzeugen. Insbesondere aufgrund des Fehlens relevanter Trainingsdaten ist das Deepfake-Modell möglicherweise nicht in der Lage, einige menschliche Gesichtsmerkmale korrekt wiederzugeben, die von abnormaler Blinzelfrequenz bis hin zu Inkonsistenzen zwischen Mundform und Stimme usw. reichen. Durch die Entwicklung spezifischer Analysealgorithmen kann das Erkennungsmodell die „grundsätzlich mit bloßem Auge sichtbaren“ Merkmale extrahieren und Analysen und Beurteilungen durchführen.
Das zweite sind die inhärenten Eigenschaften. Da verschiedene Kameras unterschiedliche Gerätefingerabdrücke haben, hinterlassen Modelle wie GAN bei der Generierung von Gesichtern auch eindeutige Fingerabdrücke zur Identifizierung des Generators, sodass durch Vergleich Hinweise gefunden werden können.
Das dritte Detail ist die Semantik auf hoher Ebene. Es bezieht sich auf Probleme wie das Erkennen der Koordination von Gesichtsaktionseinheiten (Muskelgruppen), die Orientierungskonsistenz verschiedener Gesichtsregionen und die mikroskopische Kontinuität von Videos. Da diese Details schwer zu modellieren und zu kopieren sind, kann man sie leicht erwischen.
Da es natürlich schwierig ist, ein einzelnes Feature an komplexe Deepfake-Inhalte anzupassen, übernimmt das Gesamtgerüst des Erkennungsmodells die Fusion mehrerer Features, um die Robustheit der Entscheidungsfindung sicherzustellen.
Zusätzlich zu den Vorteilen von Datenproben hat Du Xiaoman auch seine eigene Originalität integriert, darunter Such- und Optimierungsalgorithmen für neuronale Netze, Mikroexpressionsanalyse und Graph Convolution (GCN)-Technologie sowie rekonstruktionsbasierte, selbstüberwachte Pre- Trainingsmethoden, mit denen das Modell die Transformation von „Fälschung“ zu „Authentizität“ erreichen kann.
Aus diesem Grund hat das Anti-Deepfake-Erkennungsmodell von Xiaoman im September letzten Jahres die spezielle Gesichtserkennungs-Sicherheitsbewertung der Akademie für Informations- und Kommunikationstechnologie erfolgreich bestanden und die hervorragende Zertifizierung für die Sicherheitsfunktionen der Live-Erkennung erhalten. In Bezug auf spezifische Effekte kann es verschiedene Formen von Deep Fakes abdecken, einschließlich der Aktivierung statischer Porträtbilder, der Änderung von KI-Gesichtern, der Synthese falscher Gesichter usw., wodurch eine Erinnerung von mehr als 90 % bei einer Fehlalarmrate von einem Tausendstel erreicht wird ist eine Genauigkeitsrate von über 99 %.
Da weiterhin neue Deepfake-Tools auftauchen, wird die Finanzbranche mit einer Zunahme von Deepfake-Angriffen konfrontiert sein. Du Xiaoman ist der Ansicht, dass sich in Zukunft weitere Technologien zur Erkennung von Fälschungen auf das Mining semantischer Merkmale, modalübergreifender Merkmale usw. konzentrieren sollten, damit das Modell Semantik auf hoher Ebene mit starker Interpretierbarkeit zur Erkennung von Fälschungen verwenden kann.
(Quelle: Guangming.com)
Das obige ist der detaillierte Inhalt vonIst KI-Betrug eine Erfolgsquote von 100 %? Anti-Deepfake-Modell „Besiege Magie mit Magie'. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!