Heim > Technologie-Peripheriegeräte > KI > Fast 400 große Namen unterzeichneten einen offenen Brief, in dem sie vor den Risiken von KI warnten, darunter der Gründer von OpenAI

Fast 400 große Namen unterzeichneten einen offenen Brief, in dem sie vor den Risiken von KI warnten, darunter der Gründer von OpenAI

WBOY
Freigeben: 2023-06-01 09:07:44
nach vorne
687 Leute haben es durchsucht

Fast 400 große Namen unterzeichneten einen offenen Brief, in dem sie vor den Risiken von KI warnten, darunter der Gründer von OpenAI

Economic Observer Network-Reporter Ren XiaoningAm 30. Mai (Eastern Time) veröffentlichte die amerikanische Non-Profit-Organisation Center for Artificial Intelligence Security (CAIS) auf ihrer offiziellen Website einen gemeinsamen offenen Brief, in dem sie sagte, dass KI mit „Pandemien und Atomkraft“ vergleichbar sei Kriege". Kann ein Aussterberisiko für den Menschen darstellen.

Der offene Brief enthält einen Satz: „Die Eindämmung des durch künstliche Intelligenz verursachten Aussterberisikos sollte auf der gleichen Ebene wie andere gesellschaftliche Risiken wie Pandemien und Atomkrieg zu einer globalen Priorität werden.“

Mehr als 370 KI-Tycoons haben den oben genannten gemeinsamen offenen Brief unterzeichnet, darunter die Leiter von drei großen KI-Unternehmen, darunter OpenAI-CEO Sam Altman, Google DeepMind-CEO Demis Hassabis und Anthropic-CEO Dario Amode.

Geoffrey Hinton und Yoshua Bengio, Gewinner des Turing Award und bekannt als die „Paten“ der künstlichen Intelligenz, haben diesen offenen Brief ebenfalls unterzeichnet.

Auf der Unterzeichnerliste stehen auch chinesische Wissenschaftler, darunter Zhang Yaqin, Akademiker der Chinesischen Akademie für Ingenieurwissenschaften und Direktor des Instituts für Intelligente Industrie der Tsinghua-Universität, und Zeng Yi, Direktor des Forschungszentrums für Ethik und Governance für künstliche Intelligenz des Instituts of Automation, Chinesische Akademie der Wissenschaften, und Zhan Xianyuan, außerordentlicher Professor der Tsinghua-Universität.

Die Liste besteht hauptsächlich aus Professoren weltbekannter Universitäten, gefolgt von Wissenschaftlern der künstlichen Intelligenz und auch Politikern wie Kersti Kaljulaid, der ehemaligen Präsidentin der Republik Estland.

Die Liste wächst immer noch. Reporter des Economic Observer Network sahen auf der offiziellen CAIS-Website, dass Wissenschaftler oder Prominente im Bereich der künstlichen Intelligenz (Führungskräfte, Professoren, Führungskräfte) eine unterschriebene Erklärung einreichen und eine Bestätigungs-E-Mail erhalten können.

CAIS, eine gemeinnützige Organisation mit Sitz in San Francisco, USA, konzentriert sich auf die Sicherheit künstlicher Intelligenz. Sie erklärten auf ihrer offiziellen Website, dass künstliche Intelligenz (KI), solange sie sicher entwickelt und angewendet werden könne, voraussichtlich viele globale Vorteile mit sich bringen werde. Trotz der enormen Fortschritte in der künstlichen Intelligenz müssen noch viele grundlegende Probleme gelöst werden, wenn es um die Sicherheit künstlicher Intelligenz geht. Ihre Mission besteht darin, die mit künstlicher Intelligenz verbundenen Risiken auf gesellschaftlicher Ebene zu verringern, indem sie Sicherheitsforschung betreiben, den Bereich der KI-Sicherheitsforschung etablieren und sich für Sicherheitsstandards einsetzen.

Im März dieses Jahres unterzeichneten außerdem Tausende ausländische Prominente einen offenen Brief, in dem sie vor den Risiken von KI warnten. Am 29. März veröffentlichten Tesla-Gründer Elon Musk, Turing-Award-Gewinner Yoshua Bengio und andere auf der Website der gemeinnützigen Organisation Future of Life Institute eine gemeinsame Ankündigung, in der sie eine Aussetzung der Entwicklung eines KI-Systems forderten, das leistungsstärker als GPT-4 ist mindestens 6 Monate und sagte, es stelle „ein potenzielles Risiko für die Gesellschaft und die Menschheit dar“.

Derzeit hat OpenAI die Entwicklung von GPT-5 ausgesetzt.

Yoshua Bengio erwähnte den Grund für die Unterzeichnung und sagte, dass dieser offene Brief Wissenschaft und Industrie daran erinnern kann: Wir müssen uns die Zeit nehmen, diese Systeme besser zu verstehen und die notwendigen Rahmenbedingungen auf nationaler und internationaler Ebene zu entwickeln, um den Schutz der Öffentlichkeit zu erhöhen. Auch wenn die Wirkung der Unterzeichnung dieses offenen Briefes vielleicht nicht so groß ist, wird sie zumindest eine Diskussion in der gesamten Gesellschaft anregen.

Da ChatGPT im Ausland immer häufiger genutzt wird, steigt das Risiko einer Exposition allmählich. Am 28. März berichtete das belgische Medium LaLibre, dass ein 30-jähriger Belgier nach wochenlanger intensiver Kommunikation mit dem Chatbot ELIZA, einem von EleutherAI entwickelten Open-Source-Sprachmodell für künstliche Intelligenz, Selbstmord begangen habe.

Bilder zeigen, dass es am 22. Mai in der Nähe des Pentagons zu einer Explosion kam, die sich schnell in den sozialen Medien verbreitete. Die weite Verbreitung des gefälschten Fotos führte dazu, dass der S&P 500 kurzfristig um etwa 0,3 % auf ein Intraday-Tief fiel und von Gewinnen zu Verlusten wechselte. Später bestätigte ein Sprecher des US-Verteidigungsministeriums, dass es sich um ein von KI erzeugtes gefälschtes Bild handelte. Dieses Bild wies offensichtliche KI-generierte Merkmale auf, wie zum Beispiel, dass die Straßenlaternen etwas schief waren und der Zaun auf dem Bürgersteig wuchs.

Nachdem KI-Coversongs zum Trend wurden, hat Universal Music, das fast ein Drittel des weltweiten Musikmarktes kontrolliert, einen Brief herausgegeben, in dem er Streaming-Media-Plattformen wie Apple und Spotify auffordert, KI-Werke zu verbieten, die das Urheberrecht des Unternehmens an Melodien und Texten verletzen.

Das obige ist der detaillierte Inhalt vonFast 400 große Namen unterzeichneten einen offenen Brief, in dem sie vor den Risiken von KI warnten, darunter der Gründer von OpenAI. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!

Verwandte Etiketten:
Quelle:sohu.com
Erklärung dieser Website
Der Inhalt dieses Artikels wird freiwillig von Internetnutzern beigesteuert und das Urheberrecht liegt beim ursprünglichen Autor. Diese Website übernimmt keine entsprechende rechtliche Verantwortung. Wenn Sie Inhalte finden, bei denen der Verdacht eines Plagiats oder einer Rechtsverletzung besteht, wenden Sie sich bitte an admin@php.cn
Beliebte Tutorials
Mehr>
Neueste Downloads
Mehr>
Web-Effekte
Quellcode der Website
Website-Materialien
Frontend-Vorlage