Die meisten Menschen sind zuversichtlich, Authentizität zu erkennen. Allerdings kann die Zunahme von Deep Fakes diese Fähigkeit zunehmend erschweren.
Deepfake ist ein durch künstliche Intelligenz (KI) erstellter digitaler Inhalt, der Audio, Video und Standbilder abdecken kann und äußerst real aussieht. Es zeigt oft Charaktere, die Dinge sagen und tun, die nicht wahr sind. Cybersicherheitsexperten und Technologieexperten warnen zunehmend davor, dass diese Inhalte auf vielfältige Weise böswillig genutzt werden könnten, einschließlich betrügerischer Machenschaften oder der Verbreitung von Fehlinformationen.
Erkennen der Risiken
Ein wichtiger Bereich, vor dem Experten vor dem Anstieg von Deepfakes warnen, betrifft Prominente und Politiker, aber Angriffe können auch auf Einzelpersonen abzielen.
IEEE-Mitglied Rebecca Herold erzählte eine Anekdote, die die Risiken von Deepfakes veranschaulicht. „Ein Freund von mir erhielt einen Anruf von seiner Frau, als er auf Geschäftsreise war“, sagte Herold. „Sie war sehr aufgebracht, schluchzte und erzählte ihm, dass sie einen Unfall hatte und nicht das Geld hatte, um einen Abschleppdienst zu rufen.“ Mein Freund glaubte dem Anruf fast und es klang, als wäre es seine Frau, aber als der Freund seiner Frau sagte, dass er eine Überweisung an die Abschleppwagenfirma machen müsse, und nachdem er aufgelegt hatte, wählte er die Telefonnummer seiner Frau Nummer – er sagte, dass er fast betrogen wurde und die Stimme sehr real war. Seine Frau war jedoch sehr sicher dass sie möglicherweise nicht echt sind
KI ist großartig darin, solche zu erstellen.“ positives Bild von anderen, aber die Details sind immer noch da. Fragen wie Seiten- und Rückansichten. Das Bild muss aus allen Blickwinkeln betrachtet werden. Deepfake-Fotos und -Videos haben tendenziell mehr Zähne als echte Zähne. Wenn jemand lächelt oder Zähne zeigt, schauen Sie genau hin
• Deepfake-Fotos und -Videos zeigen den Menschen oft auch zu viele oder zu wenige Finger. Achten Sie darauf, zu zählen, wie viele Finger sich auf dem Motiv Ihres Fotos oder Videos befinden.
Es gibt auch einige Probleme mit der Deepfake-Technologie, wenn es um Seiten- und Winkelansichten von Menschen geht. Wenn Sie mit jemandem per Live-Video kommunizieren und den Verdacht haben, dass es sich um einen Deepfake handelt, können Sie ihn bitten, zur Seite zu schauen oder eine Frage zu stellen, die ihn zum Drehen bringt, wie zum Beispiel: „Hey, ich mag die Wand hinter dir, dieses Gemälde.“ „Welcher Künstler ist das?“
• Deepfake-Fotos und -Videos enthalten häufig Unstimmigkeiten wie Beleuchtung, Reflexionen und Schatten.
• Deepfake-Videos enthalten oft schnelle, aber unnatürliche Bewegungen. Achten Sie beispielsweise auf ungewöhnliche ruckartige Bewegungen oder scheinbare Zeitsprünge.
Deepfake-Audio weist häufig eine unnatürliche oder inkonsistente Audioqualität auf, die gelegentlich auftreten kann.
EIN WETTBEWERB UM NEUE TECHNOLOGIEN
Deepfake-Technologie kann der Gesellschaft Schaden zufügen, was bei Regierungen, Universitäten und dem Forschungsboom des privaten Sektors zu Erkennungstools Bedenken geweckt hat
Andere Tools können die Metadaten einer Datei auf Spuren von Manipulation untersuchen
IEEE-Senior-Mitglied Kayne MGladrey sagte: „In ähnlicher Weise können diejenigen, die an Deepfake-Bedrohungen beteiligt sind, von Erkennungsalgorithmen lernen und ihre Techniken entsprechend anpassen. Hier ist es sehr wichtig, dass große Distributoren von.“ Video- und Audioinhalte investieren in den Einsatz dieser Lösungen in großem Maßstab, um die Verbreitung von Fehlinformationen oder Desinformationen zu verhindern.“
Das obige ist der detaillierte Inhalt vonVertiefendes Verständnis der Deep-Fake-Technologie: IEEE-Erkundung und -Forschung. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!