Mit der rasanten Entwicklung der generativen künstlichen Intelligenz-Technologie kommt es in jüngster Zeit immer häufiger zu illegalen Fällen, in denen verwandte Technologien zur Begehung von Betrug und Verleumdung eingesetzt werden, was in der Gesellschaft große Aufmerksamkeit erregt. Am 22. Mai wurde ein von der Polizei in Baotou bekannt gegebener Fall von Telekommunikationsbetrug mithilfe von KI zu einem heißen Thema. Der Betrüger nutzte KI-Technologie zur Gesichtsveränderung, um sich zu tarnen, und das Opfer wurde innerhalb von 10 Minuten um 4,3 Millionen Yuan betrogen. Als weltweit führendes Unternehmen für digitale Sicherheit ist 360 (601360.SH, im Folgenden als „360“ bezeichnet) für den Aufbau des Security Brain verantwortlich – der vom Ministerium für Wissenschaft und Technologie initiierten nationalen offenen Innovationsplattform für künstliche Intelligenz Sich auf digitale Sicherheitskapazitäten auf nationaler Ebene zu verlassen, um die Sicherheit künstlicher Intelligenz zu knacken, ist ein schwieriges Thema unserer Zeit.
Die Entstehung von Missbrauchsvorfällen mit generativer künstlicher Intelligenz ist auf die schnelle Entwicklung von Tiefensynthese und maschinellem Lernen zurückzuführen. Betrüger können diese Technologien nutzen, um KI zu trainieren, die menschliche Sprache und Ausdrücke simulieren und nach Gesichtsveränderung „digitale menschliche“ Münder erzeugen kann . Form, Ausdruck und winzige Bewegungen sind nahezu makellos. „Lautkonvertierung“ nutzt algorithmische Modelle, um aus vorhandenen Sprachproben ähnliche Laute zu erzeugen. Sam Altman, CEO von OpenAI, hat seine Besorgnis darüber geäußert, dass große Modelle für groß angelegte Desinformation verwendet werden können und dass Menschen kontrolliert werden.
Am 24. Mai veröffentlichte die Internet Society of China ein Dokument, in dem es heißt, dass die breite Öffentlichkeit angesichts neuer Betrügereien mit KI-Technologie wachsamer sein und die Prävention verstärken muss. Bereits im Juli 2017 veröffentlichte der Staatsrat den „Entwicklungsplan für künstliche Intelligenz der neuen Generation“, der die Leitideologie, strategische Ziele, Schlüsselaufgaben und Schutzmaßnahmen für die Entwicklung der neuen Generation künstlicher Intelligenz meines Landes im Jahr 2030 vorschlug erwähnte, dass „bis 2025 die erste Einführung von Gesetzen, Vorschriften, ethischen Normen und politischen Systemen für künstliche Intelligenz sowie die Schaffung von Sicherheitsbewertungs- und Kontrollfähigkeiten für künstliche Intelligenz erfolgen werden.“
Als weltweit führendes Unternehmen für digitale Sicherheit beschäftigt sich 360 seit vielen Jahren intensiv mit der Sicherheit künstlicher Intelligenz, einschließlich Framework-Sicherheit, Modellsicherheit, generativer KI-Sicherheit usw. Bisher hat 360 mehr als 200 Schwachstellen in gängigen Frameworks für maschinelles Lernen und Lieferketten wie Tensorflow, Caffe und Pytorch entdeckt. Darunter wurden 98 Schwachstellen bei Google Tensorflow gemeldet, darunter 24 risikoreiche und schwerwiegende Schwachstellen bei großen Herstellern Auf der ganzen Welt steht es an erster Stelle, betrifft mehr als 4 Milliarden Endgeräte und wurde von der Cyberspace Administration of China in die Liste der „typischen Anwendungsfälle von Unternehmen mit künstlicher Intelligenz“ aufgenommen.
Im Jahr 2019 wurde „360 Security Brain“ vom Ministerium für Wissenschaft und Technologie zur „Nationalen offenen Innovationsplattform für künstliche Intelligenz der neuen Generation“ gewählt, mit dem Ziel, den Aufbau von Chinas Sicherheitsökosystem für künstliche Intelligenz zu fördern. Derzeit verbreitet sich die von GPT vertretene Großmodelltechnologie auf der ganzen Welt. 360 stellte fest, dass große Modelle sowohl die Sicherheitsrisiken herkömmlicher KI-Modelle als auch neue Sicherheitsrisiken aufweisen, die nur bei großen Modellen auftreten, wie etwa Modelldiebstahl und das Risiko einer sofortigen Injektion. Um die Sicherheit von Großmodellen auf der ganzen Welt zu gewährleisten, hat 360 Innovation das weltweit erste Sicherheitsrisikobewertungssystem für Großmodelle „AISE“ eingeführt.
Peking wird am 13. Juni 2023 eine große Modellanwendungskonferenz zum Thema „360 Intelligent Brain“ abhalten. Bis dahin werden weitere Forschungs- oder Produktlösungen im Zusammenhang mit der Sicherheit künstlicher Intelligenz veröffentlicht, um eine Sicherheitsgrundlage für die gesunde Entwicklung künstlicher Intelligenz zu schaffen.
Haftungsausschluss: Dieser Artikel dient nur als Referenz und stellt keine Anlageberatung dar.
Werbung
Das obige ist der detaillierte Inhalt vonEs kommt häufig zu Missbrauchsfällen bei generativer künstlicher Intelligenz. 360 AI begleitet die Entwicklung des intelligenten Zeitalters sicher.. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!