OpenAI hat kürzlich angekündigt, Sicherheitsmaßnahmen in seine Tools für künstliche Intelligenz zu integrieren. Das Unternehmen ist Entwickler des leistungsstarken GPT-4-Modells für groß angelegte linguistische künstliche Intelligenz, das den Kern seines ChatGPT-Chatbots und anderer künstlicher Intelligenzsysteme bildet. Die Offenlegung des Unternehmens erfolgt vor dem Hintergrund wachsender Forderungen nach mehr Kontrolle über die Entwicklung generativer KI-Systeme.
In einem Blogbeitrag erläuterte das Unternehmen OpenAI die Schritte, die es unternimmt, um zu verhindern, dass seine künstlichen Intelligenzsysteme schädliche Inhalte generieren und gegen Datenschutzbestimmungen verstoßen. Während die vom Unternehmen entwickelten KI-Tools zu einem weltweiten Boom der generativen KI geführt haben, haben sich die Regulierungsbehörden in den letzten Wochen zunehmend für die Sicherheit solcher KI-Systeme interessiert, wobei Italien mögliche Verstöße gegen die DSGVO-Vorschriften anführte. Die Verwendung von ChatGPT ist verboten.
Experten für künstliche Intelligenz, darunter Musk und Apple-Mitbegründer Wozniak, forderten kürzlich in einem offenen Brief eine vorübergehende Aussetzung der Entwicklung großer Sprachmodelle (LLM), und auch US-Präsident Biden beteiligte sich an dieser Diskussion, sagte er gegenüber Medienreportern Für Unternehmen mit künstlicher Intelligenz muss die Sicherheit an erster Stelle stehen.
OpenAI sagte, dass es sechs Monate damit verbracht habe, das System zu perfektionieren, bevor es letzten Monat sein bisher fortschrittlichstes GPT-4 herausbrachte, um es so schwierig wie möglich zu machen, es für schändliche Zwecke zu verwenden.
Sicherheitsforscher haben zuvor gezeigt, dass es möglich ist, die Sicherheitskontrollen von ChatGPT zu umgehen, indem man Chatbots „austrickst“, damit sie Hassreden oder Malware-Code generieren, der schlechte Systeme der künstlichen Intelligenz nachahmt. OpenAI sagt, dass dies bei GPT-4 weniger wahrscheinlich ist als beim GPT-3.5-Modell.
Die Ingenieure des Unternehmens sagten: „Im Vergleich zu GPT-3.5 ist die Wahrscheinlichkeit, dass GPT-4 auf Anfragen nach unzulässigen Inhalten reagiert, und wir haben ein robustes System zur Überwachung der Leistung von Systemen mit künstlicher Intelligenz entwickelt.“ Außerdem werden Funktionen entwickelt, die es Entwicklern ermöglichen, strengere Standards für die Modellausgabe festzulegen, um Entwickler und Benutzer, die solche Funktionen benötigen, besser zu unterstützen auf Bedenken der Datenregulierungsbehörden hinsichtlich der Art und Weise, wie sein Modell Daten aus dem Internet für Schulungszwecke sammelt. Nachdem Italien ChatGPT verboten hatte, leitete Kanada eine Untersuchung zur Sicherheit des Chatbots ein und andere Länder in Europa überlegen, ob sie dem Beispiel Italiens folgen sollen.
Das Unternehmen gibt außerdem Einzelheiten dazu bekannt, wie sichergestellt werden kann, dass während des Trainings keine personenbezogenen Daten preisgegeben werden. Das Unternehmen sagte: „Während einige unserer Trainingsdaten persönliche Informationen enthalten, die im öffentlichen Internet verfügbar sind, möchten wir, dass unsere großen Sprachmodelle etwas über die Welt und nicht über einzelne Personen lernen Das Entfernen persönlicher Informationen aus dem Datensatz, die Feinabstimmung des Modells, um Anfragen nach persönlichen Informationen abzulehnen, und die Reaktion auf Anfragen von Einzelpersonen, persönliche Informationen aus dem KI-System zu entfernen, minimieren die Wahrscheinlichkeit, dass unsere Modelle Antworten generieren, die persönliche Informationen enthalten.
US-Präsident Biden reiht sich in die Reihe der Gegner künstlicher Intelligenz ein
Bevor OpenAI diese Erklärung herausgab, sagte US-Präsident Biden Reportern, dass Entwickler künstlicher Intelligenz dafür verantwortlich seien, sicherzustellen, dass ihre Produkte sicher sind, bevor sie sie öffentlich machen.
Biden sprach, nachdem er mit seinem Wissenschafts- und Technologiebeirat über die Entwicklung künstlicher Intelligenz gesprochen hatte. Er sagte, die US-Regierung sei entschlossen, die im Oktober letzten Jahres eingeführte Bill of Rights für künstliche Intelligenz voranzutreiben, um Einzelpersonen vor den negativen Auswirkungen fortschrittlicher automatisierter Systeme zu schützen.
Das obige ist der detaillierte Inhalt vonDas Unternehmen OpenAI veröffentlicht Sicherheitsmaßnahmen, die beim Aufbau von Modellen für künstliche Intelligenz wie GPT-4 verwendet werden. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!