Heim > web3.0 > Woher wissen Sie, ob die „Person', die online Fotos teilt, Geschichten erzählt oder an anderen Aktivitäten teilnimmt, tatsächlich real ist und kein KI-Bot?

Woher wissen Sie, ob die „Person', die online Fotos teilt, Geschichten erzählt oder an anderen Aktivitäten teilnimmt, tatsächlich real ist und kein KI-Bot?

WBOY
Freigeben: 2024-09-04 00:44:12
Original
912 Leute haben es durchsucht

Das ist eine Frage, mit der sich Forscher beschäftigen, da die KI immer besser darin wird, menschliches Verhalten in einer Online-Welt nachzuahmen, in der Menschen oft anonym interagieren.

Woher wissen Sie, ob die „Person', die online Fotos teilt, Geschichten erzählt oder an anderen Aktivitäten teilnimmt, tatsächlich real ist und kein KI-Bot?

Forscher schlagen „Persönlichkeitsnachweise“ vor, um Onlinedienstanbietern dabei zu helfen, zwischen echten Menschen und KI-Bots zu unterscheiden, um böswilligen Akteuren entgegenzuwirken und die Privatsphäre zu schützen.

Der Vorschlag, der in einem neuen Papier von 32 Forschern von OpenAI, Harvard, Microsoft, der Universität Oxford, dem MIT, der UC Berkeley und anderen Organisationen dargelegt wird, kommt zu einem Zeitpunkt, an dem die KI immer besser darin wird, menschliches Verhalten in einer Online-Welt nachzuahmen Menschen engagieren sich oft anonym.

Ihre Lösung: Lassen Sie Menschen sich für „Persönlichkeitsnachweise“ anmelden, eine digitale ID oder einen digitalen Token, der Online-Diensten mitteilt, dass Sie real und keine KI sind. Sie sagen, dass die Zugangsdaten von einer Vielzahl „vertrauenswürdiger Institutionen“ ausgestellt werden können, darunter Regierungen und Dienstanbieter (wie Google und Apple, die Sie bereits auffordern, sich mit einem Ausweis anzumelden).

Damit solche Systeme funktionieren, brauchen wir eine breite Akzeptanz auf der ganzen Welt. Deshalb ermutigen die Forscher Regierungen, Technologen, Unternehmen und Normungsgremien, sich zusammenzutun, um einen Standard zu schaffen.

Allerdings ist nicht jeder ein Fan. Einige Forscher sagen, ein besserer Ansatz wäre, die Unternehmen, die diese Systeme entwickeln, die durch KI verursachten Probleme lösen zu lassen, anstatt normale Menschen für die Erkennung und Meldung von KI-Bots verantwortlich zu machen.

Hier sind die anderen Aktivitäten in der KI, die Ihre Aufmerksamkeit wert sind.

Kalifornien macht mit der wegweisenden KI-Regulierung einen Schritt nach vorne  

Ein bahnbrechender kalifornischer Gesetzentwurf, der KI-Unternehmen dazu verpflichtet, Systeme zu testen und zu überwachen, deren Entwicklung mehr als 100 Millionen US-Dollar kostet, ist der Verwirklichung einen Schritt näher gekommen.

Die kalifornische Versammlung verabschiedete den Gesetzesvorschlag am 28. August, nachdem er im Mai vom Senat des Bundesstaates genehmigt worden war. Der Gesetzentwurf, der nun an Gouverneur Gavin Newsom geht, wird das erste Gesetz in den USA sein, das Sicherheitsmaßnahmen für große KI-Systeme vorschreibt.

Der Senatsentwurf 1047 mit dem Namen „Safe and Secure Innovation for Frontier Artificial Intelligence Models Act“ wurde von Senator Scott Wiener, einem Demokraten, der San Francisco vertritt, vorgeschlagen. Es wird von Technologieunternehmen abgelehnt, darunter OpenAI, Google und Meta, sowie von mindestens acht Landespolitikern, die argumentierten, dass es Innovationen ersticken könnte.

Kalifornien ist die Heimat von 35 der 50 weltweit führenden KI-Unternehmen, wie The Guardian feststellte, darunter Anthropic, Apple, Google, Meta und OpenAI.

Sie können den Text von SB 1047 hier, den Einspruch von OpenAI dagegen hier und die Antwort von Wiener auf den Gesetzgebungsfortschritt hier lesen.

In den letzten Monaten haben Forscher und sogar Mitarbeiter von KI-Unternehmen Bedenken geäußert, dass die Entwicklung leistungsstarker KI-Systeme ohne die richtigen Schutzmaßnahmen für Datenschutz und Sicherheit erfolgt. In einem offenen Brief vom 4. Juni forderten Mitarbeiter und Branchenvertreter, darunter die KI-Erfinder Yoshua Bengio, Geoffrey Hinton und Stuart Russell, die Notwendigkeit eines Whistleblower-Schutzes für Personen, die Probleme in ihren KI-Unternehmen melden.

Unterdessen unterzeichneten OpenAI, das ChatGPT herstellt, und Anthropic, der Erfinder von Claude, letzte Woche als erste Verträge mit der US-Regierung, die es dem US Intelligence Safety Institute ermöglichen, ihre KI-Modelle zu testen und zu bewerten und bei der Sicherheitsforschung zusammenzuarbeiten. sagte das Institut. Die Organisation wurde im Oktober im Rahmen der KI-Erlassverordnung von Präsident Joe Biden gegründet.

Die Regierung wird „von jedem Unternehmen vor und nach ihrer Veröffentlichung Zugang zu wichtigen neuen Modellen erhalten“, sagte das Institut, das zum Handelsministerium des National Institute of Standards and Technology (NIST) gehört.

Der richtige Zeitpunkt kommt natürlich, wenn der kalifornische Newsom entscheidet, ob er sich zum Gesetzesvorschlag des Staates zu KI äußert oder es der Bundesregierung überlässt, das Problem anzugehen.

Sam Altman von OpenAI teilte seinen Standpunkt in einem Blogbeitrag auf X mit, nachdem der Deal mit der Regierung bekannt gegeben wurde.

„Wir freuen uns, mit dem US-amerikanischen AI Safety Institute eine Vereinbarung über Tests unserer zukünftigen Modelle vor der Veröffentlichung getroffen zu haben“, schrieb Altman. „Aus vielen Gründen halten wir es für wichtig, dass dies auf nationaler Ebene geschieht. Die USA müssen weiterhin die Führung übernehmen!“ 

Der Text-zu-Bild-Generator Gemini von Google ist bereit für einen erneuten Versuch 

Nachdem Google seinen Text-zu-Bild-Generator wieder auf den Prüfstand gestellt hatte, weil das Tool peinliche und beleidigende Bilder von Menschen erzeugte, gab es letzte Woche bekannt, dass es bereit sei, eine aktualisierte Version des Tools als Teil seines Gemini-Chatbots zu veröffentlichen.

Die Fähigkeit des Bildgenerators, Menschen darzustellen, wurde im Februar eingestellt, nachdem Benutzer auf Verhalten gestoßen waren, das zu bizarren, voreingenommenen und rassistischen Bildern führte, darunter die Darstellung schwarzer und asiatischer Menschen als deutsche Soldaten aus der Nazizeit (wie Yahoo News feststellte) und „die Ablehnung von Bildern“. B. weiße Menschen darstellen oder Fotos von Frauen oder farbigen Menschen einfügen, wenn sie dazu aufgefordert werden, Bilder von Wikingern, Nazis und dem Papst zu erstellen“ (wie Semafor berichtete).

Die Gegenreaktion, die als Zeichen dafür gewertet wurde, dass das Unternehmen KI-Produkte ohne ausreichende Tests auf den Markt brachte, veranlasste Google-Chef Sundar Pichai zu einer Entschuldigung. „Ich weiß, dass einige seiner Antworten

Das obige ist der detaillierte Inhalt vonWoher wissen Sie, ob die „Person', die online Fotos teilt, Geschichten erzählt oder an anderen Aktivitäten teilnimmt, tatsächlich real ist und kein KI-Bot?. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!

Quelle:php.cn
Erklärung dieser Website
Der Inhalt dieses Artikels wird freiwillig von Internetnutzern beigesteuert und das Urheberrecht liegt beim ursprünglichen Autor. Diese Website übernimmt keine entsprechende rechtliche Verantwortung. Wenn Sie Inhalte finden, bei denen der Verdacht eines Plagiats oder einer Rechtsverletzung besteht, wenden Sie sich bitte an admin@php.cn
Beliebte Tutorials
Mehr>
Neueste Downloads
Mehr>
Web-Effekte
Quellcode der Website
Website-Materialien
Frontend-Vorlage