„Allgemeine künstliche Intelligenz“ ist mittlerweile fast zur „Wasser-zu-Öl“-Technologie der 2020er Jahre geworden. Fast jeden halben Monat wird jemand verkünden, dass er entdeckt/geglaubt hat, dass ein bestimmtes großes Modell die menschliche Natur erweckt hat ., KI „erwachte zum Leben“. Derjenige, der in letzter Zeit für die größte Aufregung in dieser Art von Nachrichten gesorgt hat, ist Google. Es ist allgemein bekannt, dass der ehemalige Forscher Blake Lemoine sagte, das große Sprachmodell LaMDA sei „lebendig“. Wie erwartet trat dieser alte Mann in den Rücktrittsprozess ein.
Tatsächlich gab es fast zur gleichen Zeit auch einen Google-Quasi-Soft-Artikel in „The Atlantic Monthly“, der besagte, dass ein weiteres neues großes Sprachmodell, PaLM, Auch die „wirklich universelle“ „Künstliche Intelligenz“ ist zu einer echten künstlichen allgemeinen Intelligenz geworden.
Aber fast niemand hat diesen Artikel gelesen löste nur wenige Diskussionen und Kritik aus.
Doch auch wenn niemand die Manuskripte von Weltklasse-Publikationen liest, die Weltklasse-Hersteller loben, sind sie genau so, wie es in der alten Filmzeile heißt: „Genau wie Glühwürmchen in der …“ Nacht, so deutlich, so herausragend …“ Am 19. Juni 2022 veröffentlichte „The Atlantic Monthly“ einen Artikel mit dem Titel „Künstliches Bewusstsein ist langweilig.“
Der Titel dieses Artikels in The Atlantic ist einfacher als der Titel des Artikels: „Googles PaLM AI ist viel seltsamer als echtes Bewusstsein“ (Googles PaLM AI ist Viel seltsamer als bewusst).
Wie erwartet ist der Inhalt das Lob des Autors nach der Befragung von Mitgliedern des PaLM-Projektteams von Google Brain: Mit 540 Milliarden Parametern können die Daten ohne Vortraining vervollständigt werden. Hunderte verschiedene Missionen. Kann Witze erzählen und Texte zusammenfassen. Wenn der Benutzer eine Frage auf Bengali eingibt, kann das PaLM-Modell sowohl auf Bengali als auch auf Englisch antworten.
Wenn der Benutzer einen Codeabschnitt von der C-Sprache nach Python übersetzen muss, kann das PaLM-Modell diesen ebenfalls schnell abschließen. Aber dieser Artikel wandelte sich allmählich von einem prahlerischen Interviewskript, das im Verdacht stand, ein weicher Artikel zu sein, zu einem schmeichelhaften Entwurf: Er verkündete, dass das PaLM-Modell „eine echte künstliche allgemeine Intelligenz“ sei (Es handelt sich um eine echte künstliche allgemeine Intelligenz).
„Die Funktionen von PaLM machen Entwicklern Angst. Es erfordert intellektuelle Kühle und Distanz, um keine Angst zu haben und sie zu akzeptieren – PaLM ist rational.“ (die Funktion, die seine eigenen Entwickler erschreckt hat.) , und das erfordert eine gewisse Distanz und intellektuelle Coolness, um nicht ausflippen zu können Es ist das zweite Mal in diesem Monat, dass Google zwangsweise bekannt gibt, dass ein großes Modell AGI ist. Was ist die Grundlage für diese Behauptung? Laut dem Autor dieses Artikels liegt dies daran, dass das PaLM-Modell „aus der Box ausbrechen“ kann, um verschiedene intelligente Aufgaben selbstständig und ohne vorherige spezielle Schulung zu lösen. Darüber hinaus verfügt das PaLM-Modell über eine „Denkketten-Eingabeaufforderung“-Funktion: Nach der Zerlegung, Erläuterung und Demonstration des Problemlösungsprozesses am PaLM-Modell kann PaLM selbstständig die richtige Antwort finden.
Jeff Dean selbst hat nie gesagt, dass PaLM AGI ist
Das Die Kluft zwischen der Spielerei und den Beweisen lässt ein großes „Zieh deine Hose aus und sieh dir das an“-Gefühl an: Es stellt sich heraus, dass der Autor von „The Atlantic Monthly“ auch die Angewohnheit hat, Leute zu interviewen, um Artikel zu schreiben, ohne die Informationen zu überprüfen. Der Grund, warum ich das sage, ist, dass Lehrer Jeff Dean, als er das Team zur Einführung des PaLM-Modells leitete, die Funktion „Thinking Chain Prompt“ einführte. Aber Google Brain würde es nie wagen, damit zu prahlen, dass es sich bei diesem Produkt um einen zum Leben erweckten „Terminator“ handelt. Im Oktober 2021 schrieb Jeff Dean persönlich einen Artikel, in dem er eine neue Architektur für maschinelles Lernen vorstellte – Pathways. Der Zweck ist sehr einfach: Es soll einer KI ermöglicht werden, Zehntausende von Aufgaben abzudecken, verschiedene Arten von Daten zu verstehen und dies gleichzeitig mit extrem hoher Effizienz zu erreichen:
# 🎜🎜#
Im März 2022, mehr als ein halbes Jahr später, veröffentlichte Jeff Dean endlich das Pathways-Papier. Papieradresse: https://arxiv.org/abs/2203.12533 Darunter werden viele technische Details hinzugefügt, wie zum Beispiel die grundlegendste Systemarchitektur und so weiter.
Im April 2022 wurde das mit dem Pathways-System erstellte PaLM-Sprachmodell von Google eingeführt. Dieses Transformer-Sprachmodell mit 540 Milliarden Parametern hat sukzessive die SOTA mehrerer natürlicher Sprachverarbeitungsaufgaben gebrochen. Zusätzlich zur Verwendung des leistungsstarken Pathways-Systems stellt das Papier vor, dass das Training von PaLM 6144 TPU v4 verwendet, einen hochwertigen Datensatz von 780 Milliarden Token verwendet und 22 % davon nicht-englischer und mehrsprachiger Korpus ist.
Papieradresse: https://arxiv.org/abs/2204.02311 „Selbstüberwachtes Lernen“ und „Denkkettenaufforderungen“ waren früher und später bekannte Konzepte in der KI-Branche Das PaLM-Modell ist lediglich ein neueres Konzept. Setzen Sie das Konzept weiter in die Realität um. Um die Sache noch schlimmer zu machen, heißt es im Atlantic Monthly-Artikel direkt: „Google-Forscher wissen nicht, warum das PaLM-Modell diese Funktion erreichen kann“ … Dies liegt daran, dass Lehrer Jeff Dean zu beschäftigt ist und nach etwas sucht, das er für ihn tun kann.
Tatsächlich veröffentlichte Professorin Melanie Mitchell, ein Mitglied des Santa Fe Institute in Kalifornien, USA, eine Reihe von Beiträgen auf ihrem Social-Networking-Konto, in denen sie den Atlantic implizit, aber entschieden in Frage stellte Monatlich 》Dieser Artikel.
Melanie Mitchell sagte: „Dieser Artikel ist sehr interessant, aber ich denke, der Autor hat möglicherweise keine anderen Fachleute der KI-Branche als Google-Forscher interviewt.
Beispielsweise gibt es verschiedene Beweise dafür Das PaLM-Modell ist „echtes AGI“. Ich habe keine Erlaubnis, PaLM zu verwenden, aber in dem von Google im April veröffentlichten Artikel wurden nur bei mehreren Benchmark-Tests signifikante Ergebnisse in Lerntests mit kleinen Stichproben gezeigt, aber nicht bei allen Die Ergebnisse des PaLM-Lerntests für kleine Stichproben sind gleichermaßen robust. Im Artikel „Atlantic Monthly“ kann PaLM zumindest äußerst zuverlässig, äußerst vielseitig und zuverlässig sein. Allgemeine Genauigkeit zur Erledigung verschiedener Aufgaben Allgemeine Intelligenz, noch wird der Maßstab zum Testen dieser Fähigkeit erwähnt
Und insbesondere PaLMs Behauptung, „rational“ zu sein, muss überprüft werden. Ähnliche Behauptungen der GPT-Serie wurden von Brancheninsidern widerlegt, die verschiedene Experimente durchgeführt haben Wenn PaLM eine solche Auszeichnung erhalten soll, verdient sie das gleiche Maß an kontroverser Überprüfung. Außerdem ist der rationale Benchmark-Test von PaLM nur geringfügig besser als mehrere ähnliche SOTA-Modelle in der Branche, und es gibt nicht viele Gewinner.
Das Wichtigste ist, dass der Artikel von PaLM nicht von Experten begutachtet wurde und das Modell nicht für externen Zugriff zugänglich ist. oder bewertet.“
Das obige ist der detaillierte Inhalt vonWird das Google-PaLM-Modell auch von Laien für erweckt erklärt? Brancheninsider: Rationalitätstests sind nur 3 % besser als GPT. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!