KI-Branchenevent versammelt große Namen! Sam Altam, „Godfather of AI'... fassen die neuesten Ansichten in einem Artikel zusammen

王林
Freigeben: 2023-06-12 15:17:07
nach vorne
1341 Leute haben es durchsucht

Für die KI-Branche kann man sagen, dass die 2023 Zhiyuan Artificial Intelligence Conference, die in den letzten Tagen in Peking stattfand, neben Sam Altam, dem Gründer von OpenAI, dem Turing Award Geoffrey Hinton, Yann LeCun, zusammenkam , der bekannte KI-Zeichner David Holz, der Gründer der Software Midjourney, und andere traten nacheinander auf und ihre Reden waren sehr zukunftsweisend für die zukünftige Entwicklung der Branche.

AI行业盛会大咖云集!Sam Altam、“AI教父”......一文看懂最新观点

Werfen wir einen Blick darauf, was diese Top-Experten der KI-Branche zu sagen haben.

Menschen sehnen sich nach Intelligenz und fürchten sie zugleich

Der Gründer von Midjourney, David Holz, ist ein Serienunternehmer. 2011 gründete er Leap Motion, ein Software- und Hardwareunternehmen im VR-Bereich. Im Jahr 2021 verkaufte er Leap Motion an den Konkurrenten Starten Sie das aktuelle Unternehmen Die beliebte KI-Zeichensoftware Midjourney.

David Holz glaubt, dass künstliche Intelligenz, soweit ich es verstehe, einem Teil unseres Körpers ähnelt und auch eng mit der Geschichte verbunden ist. Es ist auch auf interessante Weise mit der Geschichte verknüpft.

Holz glaubt, dass Eines der Ziele von Midjourney darin besteht, eine neue menschliche Infrastruktur aufzubauen. Die Welt wird viele neue Dinge und Infrastruktur brauchen, um neue Dinge aufzubauen. Deshalb denke ich viel über den Aufbau neuer Formen menschlicher Infrastruktur nach, etwa neuer Säulen der Infrastruktur. Ich brauche also meine Themen, meine Säulen sind Reflexion, Vorstellungskraft und Koordination. Sie müssen darüber nachdenken, wer Sie sind, was Sie wollen und sich vorstellen, was sein könnte. Da wir alles aus dieser Perspektive betrachten, sehen wir in der Bildsynthese einige Durchbrüche, die sich qualitativ von allem unterscheiden, was ich bisher in der künstlichen Intelligenz erlebt habe.

Holz stellte vor, dass es bei Midjourney nicht nur darum geht, den Umgang mit diesem Werkzeug zu erlernen, sondern auch darum, die gesamte Kunst und Geschichte sowie das gesamte Wissen über Kameras, Objektive und Lichter zu erlernen. Benutzer möchten die Sprache und Konzepte verstehen, die sie nun in ihren Kreationen verwenden können. Früher dachte ich, Wissen sei nur eine Art historische Anhäufung, aber jetzt habe ich erkannt, dass Wissen tatsächlich die Fähigkeit ist, Dinge zu erschaffen.

Holz glaubt, dass die Menschen nicht nur wegen der Technologie, sondern auch aus Angst vor Intelligenz über die rasante Entwicklung der künstlichen Intelligenz besorgt sind. Kann ich ihnen vertrauen, wenn sie schlau sind? Aber andererseits scheinen wir eine Welt mit möglichst viel Intelligenz zu wollen, und wir scheinen keine Welt zu wollen, in der es an Intelligenz mangelt.

KI wird lernen, sehr gut darin zu sein, andere zu täuschen

Geoffrey Hinton, der Meister des Deep Learning und Pate der künstlichen Intelligenz, sagte, dass das größte Hindernis für die Entwicklung der KI derzeit das Problem der Rechenleistung sei, die bei weitem nicht ausreiche. Ich verzichte nun auf das grundlegendste Prinzip der Informatik – dass Software von Hardware getrennt werden sollte – und möchte einen Algorithmus namens „Aktivitätsstörung“ erwähnen, mit dem neuronale Netze trainiert und Rechenleistung gespart werden können.

Dieser Algorithmus kann Gradienten mit viel weniger Rauschen vorhersagen als der herkömmliche Backpropagation-Algorithmus (RNN).

In Bezug auf die Frage, wie dieser Algorithmus auf das Training großer neuronaler Netze angewendet werden kann, können große neuronale Netze in viele kleine Gruppen unterteilt werden und jeder Gruppe wird eine lokale Zielfunktion zugewiesen. Jede Gruppe kann dann mithilfe eines „Aktivitätsstörungsalgorithmus“ trainiert und mit einem unbeaufsichtigten Lernmodell zu einem großen neuronalen Netzwerk kombiniert werden, um diese lokalen Zielfunktionen zu generieren.

Wenn ein Problem mit der Hardware auftritt, gehen die Informationen der übergeordneten Klasse an die Informationen der Unterklasse weiter, sodass die gelernten Informationen auch bei einem Hardwareproblem erhalten bleiben und das Gewicht des neuronalen Netzwerks effektiver eingeschränkt werden können .
Die „Destillations“-Methode ermöglicht es dem Untermodell, Informationen über die Klassifizierung von Bildern besser zu lernen, einschließlich der Frage, wie richtige Antworten gegeben werden und wie hoch die Wahrscheinlichkeit ist, falsche Antworten zu geben auch Generalisierungsfähigkeit von Trainingsuntermodellen.

Was wäre, wenn diese künstlichen Intelligenzen nicht langsam von uns lernen würden, sondern direkt aus der realen Welt, sagte Hinton. Sobald sie damit beginnen, werden sie mehr lernen als Menschen und schnell lernen.

Was würde passieren, wenn diese Dinge schlauer würden als wir Menschen? Hinton glaubt, dass diese Superintelligenzen viel schneller entstehen könnten als bisher angenommen.

Wenn Sie sagen möchten, dass Superintelligenz effizienter ist, müssen Sie ihr erlauben, Unterklassen zu erstellen. Mehr oder weniger möchten Sie sich auf die KI verlassen, um mehr Macht zu erlangen, mehr Kontrolle zu erlangen, je mehr Kontrolle Sie haben, desto einfacher ist es, Ziele zu erreichen. Hinton fand es schwierig vorherzusagen, wie Menschen eine KI davon abhalten würden, mehr Kontrolle zu erlangen, um andere Ziele zu erreichen. Wenn sie damit beginnen, werden die Menschen vor Problemen stehen, weil es für sie sehr einfach sein wird, Menschen zu manipulieren, um mehr Macht zu erlangen.

Laut Hinton ist es besorgniserregend, dass die KI sehr gut darin sein wird, andere zu täuschen, und ich sehe noch keine Möglichkeit, dies zu verhindern. Forscher müssen herausfinden, wie sie den Menschen Superintelligenz verleihen können, die ihr Leben verbessern kann, ohne dass sie übermäßig eingreifen müssen.

Die Menschheit könnte durch KI die Kontrolle über die Welt und die Zukunft verlieren

Yao Qizhi ist Turing-Preisträger und Akademiker der Chinesischen Akademie der Wissenschaften. Er glaubt, dass Menschen ihre eigenen Probleme wirklich lösen müssen, bevor sie darüber nachdenken, wie sie künstliche Intelligenz kontrollieren können. Für die KI-Technologie ist derzeit ein wichtiges Fenster geöffnet. Bevor AGI geschaffen oder ein Wettrüsten gestartet wird, ist es dringend erforderlich, einen Konsens zu erzielen und gemeinsam an der Schaffung eines KI-Governance-Rahmens zu arbeiten.

Stuart Russell, Professor an der University of California in Berkeley, sagte, dass die allgemeine künstliche Intelligenz (AGI) noch nicht erreicht sei und das große Sprachmodell nur ein Teil des Puzzles sei. Die Menschen seien sich nicht sicher, was das endgültige Puzzle sein werde aussehen und was fehlt.

Er sagte, dass ChatGPT und GPT-4 die Frage nicht „beantworten“, sie verstehen die Welt nicht.

Russell wies darauf hin, dass das größte Risiko vom scheinbar ungezügelten Wettbewerb unter Technologieunternehmen ausgeht, die ungeachtet der Risiken nicht aufhören werden, immer leistungsfähigere Systeme zu entwickeln. So wie Menschen dafür gesorgt haben, dass Gorillas die Kontrolle über ihre eigene Zukunft verlieren, kann KI dazu führen, dass Menschen die Kontrolle über die Welt und ihre Zukunft verlieren.

Die drei technischen Routen von AGI

Huang Tiejun, Präsident des Beijing Zhiyuan Artificial Intelligence Research Institute, wies darauf hin, dass Um allgemeine künstliche Intelligenz (AGI) zu realisieren, es drei technische Wege gibt: Der erste ist das Informationsmodell, das durch „Big Data + selbstüberwachtes Lernen + groß“ gebildet wird Rechenleistung“; die zweite ist verkörperte Intelligenz, ein verkörpertes Modell, das durch verstärkendes Lernen auf der Grundlage der virtuellen Welt oder der realen Welt trainiert wird; die dritte ist Gehirnintelligenz, die direkt „die Arbeit der natürlichen Evolution kopiert“ und eine digitale Version repliziert des Agenten.

OpenAI folgt bei der Erstellung von GPT (Generative Pre-Training Transformer Model) dem ersten technischen Weg; eine Reihe von Fortschritten mit Google DeepMinds DQN (Deep Q-Network), da der Kern auf dem zweiten technischen Weg basiert.

AGI hofft, sich von den ersten beiden technischen Wegen zu unterscheiden, ausgehend von den „ersten Prinzipien“, von Atomen über organische Moleküle, das Nervensystem bis hin zum Körper, um ein vollständiges intelligentes AGI-System aufzubauen. Zhiyuan ist eine neue institutionelle Forschungs- und Entwicklungsplattform, die in drei Richtungen arbeitet, um ein Ziel zu erreichen, dessen Erreichung etwa 20 Jahre dauern wird.

Drei Herausforderungen für die KI in der Zukunft

Yang Liang, Gewinner des Turing Award und einer der „Großen Drei“ der künstlichen Intelligenz, glaubt, dass maschinelles Lernen im Vergleich zu menschlichen Tieren nicht besonders gut ist. Was der KI fehlt, ist nicht nur die Fähigkeit zu lernen, sondern auch die Fähigkeit dazu Grund und Plan. Wir sollten Maschinen verwenden, um die Fähigkeit von Menschen und Tieren nachzubilden, durch Beobachtung oder Erfahrung zu lernen, wie die Welt funktioniert.

Yang Liang wies darauf hin, dass die KI in den nächsten Jahren drei Hauptherausforderungen gegenübersteht: Die erste besteht darin, das Darstellungs- und Vorhersagemodell der Welt zu erlernen, das auf selbstüberwachte Weise erlernt werden kann.

Die zweite besteht darin, das logische Denken zu lernen. Dies entspricht den Konzepten des Psychologen Daniel Kahneman von System 1 und System 2. System 1 ist menschliches Verhalten oder Handeln, das unbewussten Berechnungen entspricht, und sind jene Dinge, die ohne Nachdenken erledigt werden können; System 2 ist eine Aufgabe, die Sie bewusst und zielgerichtet ausführen Setzen Sie Ihre ganze Denkkraft ein, um etwas zu erreichen. Derzeit kann künstliche Intelligenz grundsätzlich nur die Funktionen in System 1 realisieren und ist nicht vollständig

Die letzte Herausforderung besteht darin, komplexe Handlungsabläufe zu planen, indem komplexe Aufgaben in einfache Aufgaben zerlegt und sie hierarchisch ausgeführt werden.

Die Geburt von GPT-5 „wird nicht bald passieren“

OpenAI-Gründer Sam Altman zitierte das „Tao Te Ching“ und sprach über die Zusammenarbeit zwischen großen Ländern. Er sagte, dass KI-Sicherheit mit einem einzigen Schritt beginne und die Zusammenarbeit und Koordination zwischen den Ländern erfolgen müsse.

Altman glaubt, dass

Es ist sehr wahrscheinlich, dass es in den nächsten zehn Jahren sehr leistungsfähige KI-Systeme geben wird, die die Welt schneller verändern werden, als sich die Menschen vorstellen. Es ist wichtig und dringend, gute KI-Sicherheitsregeln zu haben.

Auf die Frage von Zhang Hongjiang nach der Zukunft von AGI und ob GPT-5 bald zu sehen sein wird, sagte Altman, er sei sich nicht sicher, machte aber deutlich, dass die Geburt von GPT-5 „nicht bald erfolgen wird“.

Altman sagte, dass viele Open-Source-Großmodelle bereitgestellt werden, es jedoch keinen spezifischen Veröffentlichungsplan gibt.

Das obige ist der detaillierte Inhalt vonKI-Branchenevent versammelt große Namen! Sam Altam, „Godfather of AI'... fassen die neuesten Ansichten in einem Artikel zusammen. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!

Quelle:sohu.com
Erklärung dieser Website
Der Inhalt dieses Artikels wird freiwillig von Internetnutzern beigesteuert und das Urheberrecht liegt beim ursprünglichen Autor. Diese Website übernimmt keine entsprechende rechtliche Verantwortung. Wenn Sie Inhalte finden, bei denen der Verdacht eines Plagiats oder einer Rechtsverletzung besteht, wenden Sie sich bitte an admin@php.cn
Beliebte Tutorials
Mehr>
Neueste Downloads
Mehr>
Web-Effekte
Quellcode der Website
Website-Materialien
Frontend-Vorlage
Über uns Haftungsausschluss Sitemap
Chinesische PHP-Website:Online-PHP-Schulung für das Gemeinwohl,Helfen Sie PHP-Lernenden, sich schnell weiterzuentwickeln!