Im Bereich KI herrscht seit langem Uneinigkeit über die Wahl zwischen Open Source und Closed Source. Im Zeitalter groß angelegter Modelle hat sich Open Source jedoch still und leise zu einer mächtigen Kraft entwickelt. Laut einem zuvor durchgesickerten internen Dokument von Google baut die gesamte Community schnell Modelle auf, die OpenAI und den groß angelegten Modellen von Google ähneln, einschließlich Open-Source-Modellen wie LLaMA rund um Meta
Es besteht kein Zweifel, dass Meta das Herzstück ist der Open-Source-Welt, hat kontinuierliche Anstrengungen unternommen, um die Sache von Open Source zu fördern, wie zum Beispiel das kürzlich veröffentlichte Llama 2. Wie wir jedoch alle wissen, muss ein großer Baum abgestorbene Äste haben, und Meta war in letzter Zeit aufgrund von Open Source in Schwierigkeiten öffentliche Veröffentlichung von KI-Modellen mit der Behauptung, dass diese veröffentlichten Modelle die „irreversible Verbreitung“ potenziell unsicherer Technologien verursacht hätten. Einige Demonstranten verglichen die von Meta veröffentlichten Großmodelle sogar mit „Massenvernichtungswaffen“.
Diese Demonstranten bezeichnen sich selbst als „besorgte Bürger“ und werden von Holly Elmore angeführt. Laut LinkedIn ist sie eine unabhängige Verfechterin der AI-Pause-Bewegung.
Der Inhalt, der neu geschrieben werden muss, ist: Bildquelle: MISHA GUREVICH
Wenn sich ein Modell als unsicher erweist, wies sie darauf hin, dass die API wie Google und OpenAI ausgeschaltet werden kann. und erlauben Benutzern nur den Zugriff auf umfangreiche Daten über die API-Modelle
Im Gegensatz dazu stellt Metas LLaMA-Reihe von Open-Source-Modellen Modellgewichte der Öffentlichkeit zur Verfügung, sodass jeder mit der entsprechenden Hardware und Fachkenntnis sie replizieren und optimieren kann Modelle selbst. Sobald Modellgewichte freigegeben werden, hat der Verlag keine Kontrolle mehr darüber, wie die KI verwendet wird
Für Holly Elmore ist die Freigabe von Modellgewichten eine gefährliche Strategie, da jeder diese Modelle ändern kann und es keine Möglichkeit gibt, dies rückgängig zu machen diese Modifikationen. Sie glaubt: „Je leistungsfähiger das Modell, desto gefährlicher ist diese Strategie“
Im Vergleich zu Open Source verfügen große Modelle, auf die über APIs zugegriffen wird, häufig über verschiedene Sicherheitsfunktionen, wie z. B. Antwortfilterung oder spezielles Training, um zu verhindern, dass die Ausgabe gefährlich wird oder ekelhaft Die Reaktion
Wenn die Modellgewichte freigegeben werden können, ist es einfacher, das Modell neu zu trainieren, um über diese „Leitplanken“ zu springen. Dadurch ist es besser möglich, diese Open-Source-Modelle zum Erstellen von Phishing-Software und zur Durchführung von Cyber-Angriffen zu verwenden.
Der Inhalt, der neu geschrieben werden muss, ist: Bildquelle: MISHA GUREVICH. Weil sie diesen Teil glaubt Das Problem besteht darin, dass „die Sicherheitsmaßnahmen für die Modellfreigabe nicht ausreichen“ und dass es einen besseren Weg geben muss, die Modellsicherheit zu gewährleisten.
Meta hat sich hierzu noch nicht geäußert. Meta-Chef-KI-Wissenschaftler Yann LeCun scheint jedoch auf die Aussage reagiert zu haben, dass „Open-Source-KI verboten werden muss“, und zeigte die florierende Open-Source-KI-Startup-Community in Paris
Andersdenkende mit Holly Elmore Es gibt auch viele die glauben, dass eine offene Strategie für die KI-Entwicklung der einzige Weg ist, das Vertrauen in die Technologie sicherzustellen.
Einige Internetnutzer sagten, dass Open Source Vor- und Nachteile habe. Es könne den Menschen mehr Transparenz ermöglichen und Innovationen fördern, aber es berge auch das Risiko des Missbrauchs (z. B. von Code) durch böswillige Akteure.
Wie erwartet wurde OpenAI erneut kritisiert: „Es sollte zu Open Source zurückkehren.“
Es gibt viele Menschen, die sich Sorgen um Open Source machen Der Postdoktorand Peter S. Park sagte, dass die weit verbreitete Veröffentlichung fortschrittlicher KI-Modelle in Zukunft besondere Probleme mit sich bringen wird, da es grundsätzlich unmöglich ist, den Missbrauch von KI-Modellen zu verhindern
Der Geschäftsführer von EleutherAI, einer gemeinnützigen künstlichen Organisation Die Geheimdienstforschungsorganisation Stella Biderman sagte: „Bisher gibt es kaum Hinweise darauf, dass das Open-Source-Modell konkreten Schaden angerichtet hat. Es ist unklar, ob das Sicherheitsproblem einfach durch die Platzierung eines Modells hinter der API gelöst werden kann.“ : „Build Die Grundelemente von LLM werden in einem kostenlosen Forschungspapier offengelegt, das jeder auf der Welt lesen kann, um sein eigenes Modell zu entwickeln.“
Sie fügte außerdem hinzu: „Die Ermutigung von Unternehmen, Modelldetails geheim zu halten, kann schwerwiegende negative Folgen für die Transparenz der Forschung auf diesem Gebiet, das öffentliche Bewusstsein und die wissenschaftliche Entwicklung haben, insbesondere für unabhängige Forscher
Obwohl bereits alle darüber diskutieren.“ Auswirkungen von Open Source, aber es ist immer noch unklar, ob Metas Ansatz wirklich offen genug ist und ob er die Vorteile von Open Source nutzen kann.
Stefano Maffulli, Geschäftsführer der Open Source Initiative (OSI), sagte: „Das Konzept der Open-Source-KI wurde nicht richtig definiert. Verschiedene Organisationen verwenden den Begriff, um sich auf unterschiedliche Dinge zu beziehen – was auf unterschiedliche Grade von „öffentlich“ hinweist verfügbar“ „Dinge“, was die Menschen verwirrt.“ Die Reproduktion eines KI-Modells erfordert jedoch möglicherweise die Weitergabe von Trainingsdaten, der Art und Weise, wie die Daten gesammelt wurden, der Trainingssoftware, der Modellgewichte, des Inferenzcodes und mehr. Der wichtigste davon ist, dass Trainingsdaten Datenschutz- und Urheberrechtsprobleme mit sich bringen können
OSI arbeitet seit letztem Jahr an einer genauen Definition von „Open-Source-KI“ und wird voraussichtlich im nächsten Jahr einen ersten Entwurf veröffentlichen paar Wochen. Aber egal was passiert, er glaubt, dass Open Source für die Entwicklung der KI von entscheidender Bedeutung ist. „Wir können keine vertrauenswürdige und verantwortungsvolle KI haben, wenn KI nicht Open Source ist“, sagte er.
Auch in Zukunft wird es weiterhin Unterschiede zwischen Open Source und Closed Source geben, aber Open Source ist nicht aufzuhalten.
Das obige ist der detaillierte Inhalt vonDas Risiko einer außer Kontrolle geratenen KI löste bei Meta einen Protestaufruf aus, und LeCun sagte, die Open-Source-KI-Community boome. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!