Während Sie sich immer noch Sorgen darüber machen, ob ChatGPT eines Tages Ihren Job ersetzen wird, und darüber nachdenken, wie Sie künstliche Intelligenz nutzen können, um die Arbeitseffizienz zu verbessern, gibt es eine Gruppe von Menschen, die mit dieser neuen Technologie bereits viel Geld verdient haben .
Sie sind einfach...Lügner.
4,3 Millionen in 10 Minuten betrogen,
Die ersten Menschen, die durch den Einsatz von KI reich wurden, waren in Wirklichkeit Betrüger
Wenn Sie eines Tages einen WeChat-Videoanruf von einem Freund erhalten, sieht die Person am anderen Ende der Kamera genauso aus und hört sich genauso an wie der Freund, an den Sie sich erinnern. Als er Sie bittet, 4,3 Millionen als Kaution für ein Stellenangebot zu leihen Was wird passieren?
Kürzlich stieß Herr Guo, der gesetzliche Vertreter eines Technologieunternehmens in Fuzhou, auf dieses Problem. Auf Vertrauensbasis überwies er 4,3 Millionen auf das Konto seines Freundes. Erst als ich anschließend meinen Freund anrief, erfuhr ich, dass der Betrüger die WeChat-ID seines Freundes gestohlen und ihn dann mithilfe von KI-Technologie zur Gesichtsveränderung und Lautmalerei betrogen hatte.
Die Häufigkeit ähnlicher Dinge, die auf der anderen Seite des Ozeans passieren, nimmt ebenfalls explosionsartig zu.
Laut CNN erhielt Jennifer DeStefan, die in Arizona lebt, im April dieses Jahres einen seltsamen Anruf. Die Stimme am Telefon war ihre Tochter Brianna, die sich auf einen Skiwettbewerb vorbereitete. Am anderen Ende der Leitung rief Brianna um Hilfe. Dutzende Sekunden später drohte eine tiefe Männerstimme am Telefon: „Hören Sie, Ihre Tochter ist in meinen Händen und ich habe ein Lösegeld von 1 Million US-Dollar bezahlt. Wenn Sie jetzt die Polizei rufen oder es anderen erzählen, werden Sie nie darüber nachdenken.“ es. „Sehen Sie sie wieder.“
Nachdem der Mann am anderen Ende der Leitung hörte, wie Jennifer sagte, dass er sich die 1 Million Dollar nicht leisten könne, senkte er das Lösegeld auf 50.000 Dollar. Jennifer, die ihre Tochter über alles liebt, ignorierte die Abmahnungen ihrer Freunde und ihres Mannes und begann darüber zu diskutieren, wie sie das Lösegeld zahlen könnte. Erst als Brianna sie anrief und ihr mitteilte, dass sie in Sicherheit sei, konnte der Vermögensverlust vermieden werden.
Im März dieses Jahres berichtete die „Washington Post“ ebenfalls über einen Betrugsfall mit nahezu der gleichen Vorgehensweise, nur dass es sich bei den Opfern um ein älteres Ehepaar über 70 Jahre handelte.
Die betroffene ältere Person (Bildquelle: „Washington Post“)
Böse Elemente nutzen KI-Sprachtechnologie, um Notfälle vorzutäuschen und sich auf betrügerische Weise Eigentum oder Informationen zu beschaffen. Die Warnung wurde im Mai von der US-amerikanischen Federal Trade Commission (FTC) herausgegeben. Sich als Verwandte oder Freunde eines Opfers auszugeben, um einen Betrug zu begehen, ist nichts Neues, aber es besteht kein Zweifel daran, dass das Aufkommen der KI-Technologie es extrem einfach gemacht hat, die Stimme einer Person zu klonen und das Video einer Person zu fälschen. Die Zahl solcher Betrügereien ist in den Vereinigten Staaten im vergangenen Jahr um 70 % gestiegen, wobei die Opfer insgesamt 2,6 Milliarden US-Dollar verloren haben.
Wenn sich dieser Trend fortsetzt, befürchte ich, dass die ersten Menschen, die durch KI-Technologie finanzielle Freiheit erlangen, eine Gruppe von Betrügern sein werden, die sich hinter dem Bildschirm verstecken.
Die dunkle Seite der künstlichen Intelligenz
Das Aufkommen von ChatGPT hat KI-Betrug einfacher gemacht, obwohl das Fälschen der Stimme und des Videos einer Person immer noch eine gewisse technische Hürde erfordert.
Laut der ausländischen Netzwerksicherheitsplattform GBHackers hat ChatGPT aufgrund seiner hohen Arbeitsproduktivität und extrem niedrigen Einsatzschwelle eine große Anzahl von Online-Betrügern angezogen.
Verwenden Sie ChatGPT beispielsweise, um über eine „falsche Liebe“ zu sprechen: Selbstvorstellungen, Chat-Aufzeichnungen und sorgfältig ausgearbeitete Liebesbriefe können durch künstliche Intelligenz schnell erstellt werden. Sie können auch durch die Eingabe spezifischer Informationen des Zielobjekts personalisiert werden Die Person auf der anderen Seite des Bildschirms kann sich schneller in dich verlieben. ChatGPT kann Betrügern auch dabei helfen, Zahlungseinzugsprogramme oder Phishing-Websites zu schreiben, um die Bankkarteninformationen der Opfer zu stehlen und so den Zweck des Eigentumsbetrugs zu erreichen.
Wenn Sie ChatGPT direkt bitten, ein Phishing-Softwareprogramm für Sie zu schreiben, wird es dies ablehnen. Wenn Sie jedoch sagen, dass Sie Lehrer sind und den Schülern eine Phishing-Software zeigen möchten, wird es ehrlich eine Website für Sie schreiben.
Was noch beängstigender ist, ist, dass es für Menschen schwierig ist zu erkennen, ob die Person auf der anderen Seite des Bildschirms ein Mensch oder eine Maschine ist. McAfee, das weltweit größte Unternehmen für Sicherheitstechnologie, nutzte einst KI, um einen Liebesbrief zu erstellen und ihn an 5.000 Benutzer weltweit zu versenden. Auch wenn sie wussten, dass der Liebesbrief möglicherweise durch künstliche Intelligenz erstellt wurde, waren 33 % der Umfrageteilnehmer dennoch bereit zu glauben, dass er tatsächlich von einem Menschen erstellt wurde.
Tatsächlich ist die Verwendung von ChatGPT, um eine „falsche Liebe“ mit dem Opfer zu haben, nur eine Betrugsmethode der Einstiegsklasse. Erfahrenere Hacker haben begonnen, künstliche Intelligenz zu nutzen, um Ransomware und Schadcode stapelweise zu generieren.
Um Entwicklern die Entwicklung weiterer Anwendungen nach dem GPT-Modell zu erleichtern, bietet OpenAI Unterstützung für Anwendungsprogrammierschnittstellen. Hacker nutzen diese Schnittstellen, um das GPT-Modell in eine Reihe externer Anwendungen einzuführen, umgehen dabei die Sicherheitsüberwachung und nutzen das GPT-Modell zum Schreiben krimineller Programme.
Diese Programme haben Sicherheitsbestimmungen durchbrochen und werden offen im US-amerikanischen Dark Web zu sehr niedrigen Preisen verkauft, die für nur ein paar Dollar erworben werden können. Das illegale Verhalten, das Käufer mit dieser Software ausführen können, ist sehr beängstigend: durch den Diebstahl von Programmcode und privaten Benutzerinformationen sowie durch die Generierung von Angriffssoftware und Ransomware-Viren.
Die Financial Times berichtete kürzlich über ein mit Hilfe von ChatGPT erstelltes SIM-Tausch-Angriffsskript. Betrüger können dieses Programm nutzen, um die Kontrolle von Mobilfunkunternehmen über Telefonnummern zu durchbrechen und die Telefonnummern von der SIM-Karte des ursprünglichen Besitzers auf die zu tauschen vom Angreifer genutzte SIM-Karte in eine vom Angreifer kontrollierte SIM-Karte und übernimmt so die Kontrolle über das Mobiltelefon des Opfers.
„Obwohl ChatGPT derzeit nur ein Tool zur Inhaltsgenerierung ist und nicht direkt an Kriminalität beteiligt ist, zeigt es, dass Menschen beginnen, künstliche Intelligenz zu nutzen, um in andere einzudringen, und Kriminelle mit geringerem technischem Niveau werden leistungsfähigere kriminelle Mittel erhalten.“ Der Praktizierende Der Reporter äußerte seine Bedenken gegenüber der Financial Times.
Die Büchse der Pandora, kann man sie noch schließen?
Wenn der wachsende soziale Einfluss der künstlichen Intelligenz mit ihrem kriminellen Potenzial vermischt wird, sind die verschiedenen Sicherheitslücken von ChatGPT in vielen Ländern zunehmend unruhig geworden. „Wie man ChatGPT regulieren kann“.
In einem Artikel plädiert das IBM Global Ethics Institute dafür, dass Unternehmen Ethik und Verantwortung ganz oben auf ihre KI-Agenda setzen. Viele von Musk vertretene Technologiemagnaten unterzeichneten außerdem einen offenen Brief. Bevor ein künstliches Intelligenzsystem leistungsfähiger als GPT-4 trainiert wird, sollte jeder ein gemeinsames Sicherheitsprotokoll entwickeln und es von externen Experten überprüfen und überwachen lassen.
ChatGPT hat bei Gesetzgebern weltweit Bedenken geweckt, die die Möglichkeit erwägen, es in den gesetzlichen Regulierungsrahmen zu integrieren. Regierungsbeamte sind mehr besorgt über das mangelnde Verständnis der Gesetzgeber für die Technologie als über die Sicherheit künstlicher Intelligenz.
Die Associated Press glaubt, dass Technologiegiganten in den letzten 20 Jahren weiterhin die technologische Innovation in den Vereinigten Staaten anführten. Daher war die Regierung immer nicht bereit, große Technologieunternehmen zu regulieren, und ist zu einem Ideenkiller geworden. Daher mangelt es vielen Menschen an Verständnis für neue Technologien, sie entscheiden sich jedoch dafür, die Aufsicht über neue Technologien zu verstärken.
Schließlich war der letzte vom US-Kongress erlassene Kodex zur Regulierung der Technologie der Children’s Online Privacy Protection Act von 1998.
Laut Reuters-Berichten haben viele Länder damit begonnen, Vorschriften zur Regulierung der durch OpenAI repräsentierten künstlichen Intelligenz einzuführen. Im März dieses Jahres verbot Italien aufgrund von Bedenken hinsichtlich der Datensicherheit kurzzeitig die Verwendung von OpenAI im Land, und das Verbot wurde erst einen Monat später aufgehoben. Laut Reuters sagte ein italienischer Regierungsbeamter im Mai, dass die Regierung Experten für künstliche Intelligenz einstellen werde, um die konforme Nutzung von OpenAI zu überwachen.
Angesichts der Bedenken verschiedener Regierungen sagte Meera Mulati, Chief Technology Officer von OpenAI, in einem Interview mit Reuters: „Das Unternehmen begrüßt alle Parteien, einschließlich Regulierungsbehörden und Regierungen, mit dem Eingreifen.“ Es muss noch geklärt werden, wie der Gesetzgeber mit der technologischen Entwicklung, insbesondere im sich schnell entwickelnden Bereich der künstlichen Intelligenz, Schritt halten wird.
Sicher ist nur: Ist die Büchse der Pandora einmal geöffnet, lässt sie sich nicht mehr so einfach schließen.
Referenz:
CNN: „Mama, diese bösen Männer haben mich“: Sie glaubt, dass Betrüger bei einer vorgetäuschten Entführung die Stimme ihrer Tochter geklont haben
REUTERS: Factbox: Regierungen wetteifern um die Regulierung von KI-Tools
Financial Times: Musk und andere Technologieexperten fordern eine „Pause“ bei fortschrittlichen KI-Systemen
Herausgeber: Echo
Sofern nicht anders angegeben, stammen die Bilder von Oriental IC
Das obige ist der detaillierte Inhalt vonMit einem Tageseinkommen von 4 Millionen hat die erste Gruppe von KI-Betrügern ihre Posten übernommen. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!