Auch beim Thema KI-Risiken sind die Großen aus allen Gesellschaftsschichten unterschiedlicher Meinung. Jemand übernahm die Initiative und unterzeichnete einen gemeinsamen Brief, in dem er die KI-Labore aufforderte, die Forschung sofort einzustellen. Die drei Giganten des Deep Learning, Geoffrey Hinton, Yoshua Bengio usw., unterstützen alle diese Ansicht.
Erst in den letzten Tagen haben Bengio, Hinton und andere einen gemeinsamen Brief mit dem Titel „Managing Artificial Intelligence Risks in an Era of Rapid Development“ herausgegeben, in dem sie Forscher auffordern, vor der Entwicklung von KI-Systemen Notfallmaßnahmen zur Governance zu ergreifen und Sicherheit und Ethik umzusetzen Kernpunkte und fordern die Regierungen auf, Maßnahmen zur Bewältigung der von KI ausgehenden Risiken zu ergreifen.
In dem Artikel wurden einige Notfall-Governance-Maßnahmen erwähnt, beispielsweise die Einbeziehung nationaler Institutionen, um zu verhindern, dass Menschen KI missbrauchen. Um eine wirksame Regulierung zu erreichen, müssen Regierungen ein umfassendes Verständnis der KI-Entwicklungen haben. Die Regulierungsbehörden sollten eine Reihe von Maßnahmen ergreifen, wie z. B. die Registrierung von Modellen, einen wirksamen Schutz von Whistleblowern sowie die Überwachung der Modellentwicklung und der Nutzung von Supercomputern. Regulierungsbehörden benötigen außerdem vor dem Einsatz Zugang zu fortschrittlichen KI-Systemen, um deren gefährliche Fähigkeiten beurteilen zu können.
Im Mai dieses Jahres gab eine in den USA ansässige gemeinnützige Organisation, das Center for the Safety of Artificial Intelligence, eine Erklärung heraus, in der sie warnte, dass künstliche Intelligenz als Aussterberisiko für die Menschheit, wie eine Epidemie, angesehen werden sollte. Die Aussage wurde von einigen unterstützt, darunter Hinton und Bengio. Darüber hinaus gab das Center for the Security of Artificial Intelligence, eine US-amerikanische Non-Profit-Organisation, im Mai dieses Jahres eine Erklärung heraus, in der es warnte, dass künstliche Intelligenz das gleiche Risiko der Vernichtung der Menschheit berge wie Epidemien, und die gleichen Leute, die diese Aussage unterstützt haben, darunter Hinton, Bengio und andere
Im Mai dieses Jahres kündigte Hinton seinen Job bei Google, um frei über die Risiken künstlicher Intelligenz diskutieren zu können. In einem Interview mit der New York Times sagte er: „Die meisten Leute denken, dass der Schaden der künstlichen Intelligenz noch in weiter Ferne liegt. Früher habe ich das auch gedacht, und es kann 30 bis 50 Jahre oder sogar länger dauern. Aber jetzt meine Güte.“ Das Denken hat sich geändert.“ Lernen, Seien Sie optimistisch, was die Entwicklung der künstlichen Intelligenz angeht. Er hat Einwände gegen die Unterzeichnung eines gemeinsamen Briefs zu den Risiken künstlicher Intelligenz und ist der Ansicht, dass die Entwicklung künstlicher Intelligenz keine Bedrohung für den Menschen darstellt Zu den Risiken der KI wurde eine Antwort gegeben.
Der Internetnutzer fragte nach LeCuns Ansichten zum Artikel „‚Das ist sein Klimawandel‘: Die Experten helfen Rishi Sunak, sein Erbe zu besiegeln“. Der Artikel glaubte, dass Hinton, Bengio und andere einen gemeinsamen Brief veröffentlicht hätten hat dazu geführt, dass die Menschen ihre Sicht auf KI geändert haben, von der anfänglichen Betrachtung als Hilfsassistent hin zur Betrachtung von KI als potenzielle Bedrohung. In dem Artikel heißt es weiter, dass Beobachter in Großbritannien in den letzten Monaten eine zunehmende Stimmung festgestellt hätten, dass KI das Ende der Welt herbeiführen werde. Im März dieses Jahres veröffentlichte die britische Regierung ein Weißbuch, in dem sie versprach, Innovationen im Bereich KI nicht zu behindern. Doch nur zwei Monate später spricht das Vereinigte Königreich davon, der KI Grenzen zu setzen und die USA zu drängen, ihre Pläne für globale KI-Regeln zu akzeptieren.
Artikellink: https://www.telegraph.co.uk/business/2023/09/23/Helios Artificial Intelligence Security Summit: Sunak und KI-Experten/ (Hinweis: Der bereitgestellte Inhalt ist bereits auf Chinesisch. Daher besteht keine Notwendigkeit, ihn umzuschreiben.)
LeCuns Antwort auf diesen Artikel ist, dass er nicht möchte, dass die Bedenken Großbritanniens über die fatalistischen Risiken der KI auf andere übergreifen Länder
Danach gab es die zuvor erwähnte Kommunikation zwischen LeCun und Versuchen Sie, die KI-Industrie zu regulieren. Und Sie, Geoff und Yoshua, geben denjenigen Munition, die sich für ein Verbot offener KI-Forschung einsetzen.
Wenn Ihre Angstkampagne erfolgreich ist, werden Sie das unweigerlich tun Folge der Katastrophe: Einige Unternehmen werden die künstliche Intelligenz kontrollieren
Die überwiegende Mehrheit der akademischen Kollegen unterstützt die offene KI-Forschung und -Entwicklung sehr. Nur wenige Menschen glauben an die Weltuntergangsszenarien, die Sie propagieren. Sie, Yoshua, Geoff und Stuart sind die einzigen Ausnahmen
Wie viele Menschen bin ich ein großer Befürworter offener KI-Plattformen, weil ich an die Bedeutung der Integration verschiedener Kräfte glaube: der Kreativität der Menschen, der Demokratie, der Marktstärke und der Produktvorschriften. Ich habe auch gelernt, dass wir die Fähigkeit haben, KI-Systeme zu entwickeln, die sicher sind und unter unserer Kontrolle stehen. Ich habe konkrete Vorschläge gemacht, von denen ich hoffe, dass sie die Menschen dazu bringen, die richtigen Entscheidungen zu treffen
Ihr Text vermittelt den Eindruck, dass KI ein natürliches Phänomen ist und wir keine Kontrolle über seine Entwicklung haben. Aber in Wirklichkeit ist dies nicht der Fall. Der Grund, warum KI Fortschritte machen kann, liegt bei jedem in der menschlichen Gesellschaft. Jeder von uns hat die Macht, das Richtige zu schaffen. Die Forderung nach einer Regulierung von Forschung und Entwicklung setzt faktisch voraus, dass diese Menschen und die Organisationen, für die sie arbeiten, inkompetent, rücksichtslos, selbstzerstörerisch oder böse sind. Aber das ist nicht der Fall
Ich habe mir viele Argumente ausgedacht, um zu beweisen, dass das Weltuntergangsszenario, das Sie befürchten, lächerlich ist. Ich werde hier nicht auf Details eingehen. Der wichtigste Punkt ist jedoch, dass starke KI-Systeme sicher und kontrollierbar sind, wenn sie von Zielen, einschließlich Leitplanken, gesteuert werden, weil sie diese Leitplanken und Ziele festlegen. (Das aktuelle autoregressive LLM ist nicht zielorientiert, also schließen wir nicht von den Schwächen des autoregressiven LLM.)
Die Sache mit Open Source ist, dass Ihre Aktivitäten genau das Gegenteil von dem haben, was Sie verfolgen. In Zukunft werden KI-Systeme zur Schatzkammer allen menschlichen Wissens und aller menschlichen Kultur werden. Wir brauchen eine Open-Source- und kostenlose Plattform, damit jeder dazu beitragen kann. Nur durch Offenheit können KI-Plattformen das gesamte Spektrum des menschlichen Wissens und der menschlichen Kultur widerspiegeln. Dies erfordert, dass Beiträge auf diesen Plattformen ähnlich wie bei Wikipedia über Crowdsourcing bereitgestellt werden. Solange die Plattform nicht geöffnet ist, wird dies nicht funktionieren.
Wenn Open-Source-KI-Plattformen reguliert werden, entsteht eine weitere Situation, in der einige wenige Unternehmen die KI-Plattformen und damit die digitalen Abhängigkeiten aller Menschen kontrollieren. Was bedeutet das für die Demokratie? Was bedeutet das für die kulturelle Vielfalt? Das ist es, was mich die ganze Nacht wach hält
Unter LeCuns Tweet brachten auch viele Menschen ihre Unterstützung für seine Ansichten zum Ausdruck
Irina Rish, Professorin am Fachbereich Informatik und Operations Research an der Universität Montreal, auch Mila – Quebec Kernmitglied des AI Institute. Sie sagte, dass Forscher, die Open-Source-KI unterstützen, vielleicht nicht länger schweigen und die Entwicklung neuer KI vorantreiben sollten.
e/acc-Gründer Beff Jezos sagte im Kommentarbereich auch, dass solche Kommentare wichtig sind und was die Leute brauchen.
Netizens sagten, dass die Diskussion von Sicherheitsfragen zunächst die Vorstellungskraft eines jeden über zukünftige Technologien bereichern kann, sensationelle Science-Fiction-Romane jedoch nicht zur Entstehung einer Monopolpolitik führen sollten.
Podcast-Moderator Lex Fridman kann sich in dieser Debatte auf mehr freuen.
Diskussionen über KI-Risiken werden auch die zukünftige Entwicklung von KI beeinflussen. Wenn eine Idee im Rampenlicht steht, folgen die Leute ihr blind. Erst wenn die beiden Parteien weiterhin rationale Diskussionen führen können, kann das „wahre Gesicht“ der KI wirklich sichtbar werden.
Das obige ist der detaillierte Inhalt vonDie Gewinner des Turing-Preises argumentieren, LeCun: Die KI-Aussterbetheorie von Bengio, Hinton usw. ist absurd. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!