Der Folgevorfall, bei dem das Stanford-Team ein großes Modell der Tsinghua-Universität plagiierte – das
Llama3-V-Team gab ein Plagiat zu, und zwei der Studenten aus Stanford brachen auch die Verbindung zu einem anderen Autor ab.
Die neuesten Entschuldigungs-Tweets, gesendet von Siddharth Sharma(Siddhartha) und Aksh Garg(Akshy).
Nicht unter ihnen, Mustafa Aljadery (genannt Lao Mu) von der University of Southern California wird beschuldigt, der Hauptverursacher zu sein, und er wird seit gestern vermisst:
Wir hoffen, dass Lao Mu es schaffen wird erste Aussage, aber seit gestern war er nicht erreichbar.
Siddharth, ich (Akshi) und Lao Mu haben Llama3-V veröffentlicht und Lao Mu hat den Code für das Projekt geschrieben.
Siddharth und meine Aufgabe ist es, ihm zu helfen, dieses Modell auf Medium und Twitter zu bewerben. Ich habe aktuelle Veröffentlichungen nachgeschlagen, um die Innovationskraft der Arbeit zu überprüfen, aber wir wurden nicht darüber informiert und haben frühere Arbeiten zur Wandintelligenz entdeckt.
Lao Mu selbst, dem vorgeworfen wurde, weggelaufen zu sein, die X-Homepage befindet sich derzeit im Schutzsperrzustand, und Sie können ihr nur folgen, indem Sie Folgendes anwenden:
Im Großen und Ganzen dieser Entschuldigungs-Tweet und der einer von gestern wurde nach dem Versenden eilig gelöscht. Der Inhalt der geposteten Tweets war ziemlich gleich und konzentrierte sich hauptsächlich auf Entschuldigungen und weitere Schuldzuweisungen.
Schließlich kam sogar Direktor des Stanford Artificial Intelligence Laboratory Christopher Manning heraus und fing an, sich zu beschweren:
Das ist ein typischer Fall, wenn man seine Fehler nicht eingesteht!
Er glaubte, dass das Team die wichtigen Probleme nach dem Vorfall mit den Ausreden „ähnliche Architektur“ und „MiniCPM wurde schneller implementiert als wir“ vermieden habe, und weigerte sich zuzugeben, dass es sich um ein Plagiat handelte.
Aber die neue Entschuldigungserklärung konnte die Zweifel der Internetnutzer nicht zerstreuen. Und die neuesten Enthüllungen weisen auch darauf hin, dass es sich bei diesen Brüdern lediglich um Wiederholungstäter von Plagiaten handelt, und dass auch die Lehrbücher, die sie zuvor geschrieben haben, plagiiert waren.
Was das ursprüngliche Autorenteam Face Wall Intelligence betrifft, so antwortete neben dem CEO Li Dahai gestern, dass „es auch eine von internationalen Teams anerkannte Methode ist“, auch der Chefwissenschaftler Liu Zhiyuan ist auch auf Zhihu erschienen“ Persönliche Antwort:
Ich bin schon ziemlich überzeugt, dass Llama3-V für unsere MiniCPM-Llama3-V 2.5-Shell geeignet ist.
Die rasante Entwicklung der künstlichen Intelligenz ist untrennbar mit dem Open-Source-Austausch globaler Algorithmen, Daten und Modelle verbunden, sodass die Menschen immer auf den Schultern von SOTA stehen und sich weiterentwickeln können. Unser Open-Source-MiniCPM-Llama3-V 2.5 verwendet dieses Mal das neueste Llama3 als Sprachmodellbasis. Der Eckpfeiler des Open-Source-Sharings ist die Einhaltung von Open-Source-Protokollen, das Vertrauen in andere Mitwirkende sowie der Respekt und die Anerkennung der Leistungen der Vorgänger. Das Llama3-V-Team hat dies zweifellos schwer beschädigt. Sie haben die Datenbank von Huggingface gelöscht, nachdem sie befragt wurden. Es ist noch ein langer Weg, bis die Fehler korrigiert werden können Verbesserung.
Lassen Sie uns zunächst einen kurzen Blick auf diese große Melone werfen.
Um es in einem Satz zusammenzufassen: Einige Internetnutzer entdeckten, dass das multimodale große Modell Llama3-V des Stanford-Teams, das in letzter Zeit in der Open-Source-Community populär geworden ist, fast die gleiche Architektur und den gleichen Code wie das inländische MiniCPM-Llama3 hat -V 2.5 und listete viele auf. Die Beweise deuten direkt auf ein Llama3-V-Plagiat hin.
Als sich der Vorfall allmählich abspielte, löschte das KI-Team von Stanford die Datenbank und flüchtete, und das Wall-Facing Intelligence-Team leitete ebenfalls eine Untersuchung der Angelegenheit ein.
Liu Zhiyuan, Chefwissenschaftler für Wall-Facing Intelligence und ständiger außerordentlicher Professor der Tsinghua-Universität, nannte einen wichtigen Grund, warum Llama3-V die MiniCPM-Llama3-V 2.5-Shell ist, die genau die Erkennungsfähigkeit von Tsinghua Jane ist.
Dies ist die „Osterei“-Funktion von MiniCPM-Llama3-V 2.5. Sie wurden mit einem von der Tsinghua University Jane gescannten und kommentierten Datensatz trainiert. Es wurde nicht veröffentlicht. Die Leistung von Llama3-V ist genau die gleiche wie die von MiniCPM-Llama3-V 2.5. Nicht nur die richtigen Fragen sind die gleichen, sondern auch die Fehler sind die gleichen. Heute haben andere Internetnutzer auf der Grundlage der ersten Beweiswelle neue Hinweise entdeckt.
Einige Leute haben nach Untersuchungen herausgefunden, dass der Gewichtsunterschied fast jeder Schicht von Llama3-V einer Gaußschen Verteilung mit einem Mittelwert von 0 und einer Standardabweichung von 1,4e-3 entspricht.Es wird also spekuliert, dass Llama3-V lediglich Geringes Varianzrauschen
direkt zur Gewichtung von MiniCPM hinzufügt.
Außerdem wurde bekannt, dass der große Bruder, der weggelaufen ist, Lao Mu, zuvor ein Buch über „Computer Network Design“ geschrieben und es auch kopiert hat.
Nehmen Sie zufällig ein Kapitel aus dem Buch heraus und verwenden Sie einen Plagiatsdetektor, um es zu erkennen. Sie werden eine Reihe roter Punkte sehen:
Und in der Autorenspalte davon Buch, laut Internetnutzern gibt es auch Siddha Viele Namen.
Einige Internetnutzer glauben, dass noch untersucht werden muss, ob das Kopieren von Büchern wahr ist. Allerdings ist dieses Buch jetzt auch
.
Als Siddharth und Akshay in ihren Entschuldigungserklärungen über dieses Plagiat sprachen, erwähnten sie auch, dass der Grund, warum sie dieses Projekt mit Bruder Mu beworben hatten, darin bestand, dass sie zunächst von diesem multimodalen Modell begeistert waren. Mir gefielen insbesondere die auf Erweiterungen basierenden Architekturen zu Idefics, SigLip und UHD, beschrieben von Bruder Mu.
Laut der MiniCPM-Llama3-V 2.5-Homepage ist MiniCPM-Llama3-V 2.5 das neueste Open-Source-Modell der wandorientierten intelligenten MiniCPM-V-Serie. Es basiert auf SigLip-400M und Llama3-8B-Instruct , mit insgesamt 8B Parametern.
In Bezug auf die Leistung erreichte MiniCPM-Llama3-V 2.5 auf OpenCompass eine durchschnittliche Punktzahl von 65,1 und übertraf damit proprietäre Modelle wie GPT-4V-1106, Gemini Pro, Claude 3, Qwen-VL-Max usw. deutlich Übertrifft andere multimodale Sprachmodelle basierend auf Llama 3.
Darüber hinaus verfügt MiniCPM-Llama3-V 2.5 auch über starke OCR-Fähigkeiten und erzielt auf OCRBench über 700 Punkte und übertrifft damit GPT-4o, GPT-4V-0409, Qwen-VL-Max und Gemini Pro. Basierend auf der neuesten RLAIF-V-Methode weist MiniCPM-Llama3-V 2.5 eine Illusionsrate von 10,3 % auf Object HalBench auf, was ebenfalls niedriger ist als die 13,6 % von GPT-4V-1106.Obwohl die Schuld schnell abgetan wurde, entdeckten Internetnutzer schnell die Lichtblicke in den Entschuldigungserklärungen von Akshay und Siddharth:
Ihr zwei habt nichts mitverfasst. Wenn ihr es nicht tut, ihr gilt als Projektautor, wenn Sie bei der Werbung helfen?
Als es angekündigt wurde, hieß es, es sei das Projekt von euch dreien, aber wenn etwas schief geht, wird die Schuld auf eine Person abgewälzt?
Wenn Lao Mu den gesamten Code alleine geschrieben hat, was macht ihr zwei dann, einfach posten?
Einige Internetnutzer haben ein kritischeres Thema angesprochen, was eine weitere hitzige Diskussion auslöste –
Hat die Open-Source-Community die großen Modellergebnisse aus China ignoriert?
Lucas Beyer, Google DeepMind-Forscher und ViT-Autor, erwähnte, dass Llama3-V kopiert wurde, die Kosten jedoch weniger als 500 US-Dollar betragen und der Effekt direkt mit den Gemini- und GPT-4-Open-Source-Modellen mithalten kann:
Aber im Vergleich zu Llama3-V hat MiniCPM viel weniger Aufmerksamkeit erhalten, auch ich.
Der Hauptgrund scheint zu sein, dass ein solches Modell aus einem chinesischen Labor stammt und nicht aus einer Ivy-League-Schule.
Omar Sanseviero, Leiter der Huaqiang-Plattform und -Community, brachte es direkter auf den Punkt:
Die Community hat die Arbeit des chinesischen Ökosystems für maschinelles Lernen ignoriert. Sie machen einige erstaunliche Dinge mit interessanten großen Sprachmodellen, großen Visionsmodellen, Audio- und Diffusionsmodellen.
Einschließlich Qwen, Yi, DeepSeek, Yuan, WizardLM, ChatGLM, CogVLM, Baichuan, InternLM, OpenBMB, Skywork, ChatTTS, Ernie, HunyunDiT und mehr.
Viele Internetnutzer stimmten dem zu: „Sie haben das derzeit beste Open-Source-VLM auf den Markt gebracht.“
Aus einer objektiveren Perspektive der großen Modelbranche ist diese Aussage wahr.
Im Bereich der visuellen Großmodelle, in dem Models einzeln gegeneinander antreten, belegte Yi-VL-Plus von 01Wansheng den fünften Platz und übertraf damit Googles Gemini Pro Vision. CogVLM, eine Zusammenarbeit zwischen Zhipu AI und der Tsinghua-Universität, schaffte es ebenfalls in die Top Ten.
Darüber hinaus schnitten auch DeepSeek, Tongyi Qianwen und die MiniCPM-Serie multimodaler Modelle, die dieses Mal plagiiert wurden, gut ab.
In der bekannteren Arena-Liste LMSYS Chatbot Arena Leaderboard stellen auch große Modelle aus China ständig neue Rekorde für „das leistungsfähigste Open Source“ auf.
Wie Lehrer Liu Zhiyuan sagte:
Aus horizontaler Sicht haben wir offensichtlich immer noch einen erheblichen Abstand zu internationalen Top-Unternehmen wie Sora und GPT-4o, während wir uns aus vertikaler Sicht schnell von einem Niemand vor mehr als zehn Jahren zu einem Marktführer entwickelt haben in der Technologieinnovation der künstlichen Intelligenz.
Diese Melone ist riesig, es gibt viele Leute, die sie essen, und was vielleicht noch wichtiger ist, einige Stereotypen brechen auf. Was denken Sie?
MiniCPM-Originalpapierhttps://arxiv.org/abs/2404.06395
Das obige ist der detaillierte Inhalt vonDer Granatenskandal macht den Direktor des Stanford AI Lab wütend! Zwei Mitglieder des Plagiatsteams nahmen die Schuld auf sich und eine Person verschwand, und sein Vorstrafenregister wurde aufgedeckt. Netizens: Chinas Open-Source-Modell neu verstehen. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!