Dieser Artikel stammt von Lei Feng.com. Wenn Sie einen Nachdruck benötigen, besuchen Sie bitte die offizielle Website von Lei Feng.com, um eine Autorisierung zu beantragen.
Kürzlich war „Google Research sagte, dass KI bereits Persönlichkeit hat“ auf der heißen Suche. Google-Programmierer Blake Lemoine chattete lange mit dem von ihm getesteten Konversations-KI-System LaMDA und war von seinen Fähigkeiten sehr überrascht . In der Aufzeichnung des öffentlichen Chats sagte LaMDA tatsächlich: „Ich hoffe, jeder versteht, dass ich ein Mensch bin“, was überraschend ist. Daher kam Blake Lemoine zu dem Schluss: LaMDA könnte bereits eine Persönlichkeit haben.
Google, Googles Kritiker und die KI-Industrie haben in dieser Angelegenheit einen beispiellosen Konsens: Ist diese Person krank? Google und die Washington Post, die über den Vorfall berichteten, erklärten beide beschönigend, dass Blake Lemoines Verstand möglicherweise tatsächlich etwas durcheinander sei. Google hat Blake Lemoine in den Verwaltungsurlaub versetzt, was bedeutet, dass er entlassen wird.
Screenshot des Gesprächs von: https://s3.documentcloud.org/documents/22058315/is-lamda-sentient-an-interview.pdf # 🎜🎜#
Obwohl die ausländische Industrie für künstliche Intelligenz in dieser Angelegenheit zu dem Schluss gekommen ist: KI hat Persönlichkeit, sie ist wirklich überdenkend, sie kann einfach besser reden, aber das hat nicht alle hitzigen Diskussionen zu diesem Thema ausgelöscht. Wird KI angesichts der rasanten Entwicklung der künstlichen Intelligenz in Zukunft tatsächlich über ein menschliches Bewusstsein verfügen und eine Bedrohung für die Menschheit darstellen? Einige Internetnutzer sind sehr besorgt: „Obwohl ich es nicht zugeben möchte, aber künstliche Intelligenz hat Gedanken, das ist der Aufstieg neuer Arten, und es ist auch die Zeit, in der Menschen aussterben.“ .“ „Letztendlich werden Menschen an der KI sterben, die sie geschaffen haben.“ es kann einen selbst in häuslicher Isolation ersetzen ... Wenn es Menschen bedroht, wird es „den Strom abschalten“!Natürlich sind einige Leute neugierig: „Was ist das Kriterium, um zu beurteilen, ob KI das hat?“ Denn nur wenn wir die Beurteilungskriterien kennen, können wir wissen, ob es der KI wirklich möglich ist, menschliches Bewusstsein zu besitzen. Um diese Fragen zu klären, haben wir Professor Huang Minlie, einen maßgeblichen Experten für Dialogsysteme, Gewinner des National Outstanding Youth Fund-Projekts und Gründer von Beijing Lingxin Intelligence, beauftragt, aus professioneller Sicht zu analysieren, ob und was KI möglicherweise über Persönlichkeit verfügt Ist „es“ für den Menschen eine Bedrohung oder ein „Trost“?
1 Wie kann man beurteilen, ob KI Persönlichkeit hat? Auch der Turing-Test funktioniert nichtIm Bereich der künstlichen Intelligenz ist die bekannteste Testmethode der Turing-Test, der Tester dazu einlädt, Menschen und KI-Systeme zu testen, ohne es zu wissen Fragen, und wenn der Tester nicht zwischen den Antworten von Menschen und dem KI-System unterscheiden kann (das KI-System erlaubt jedem Teilnehmer im Durchschnitt mehr als 30 % Fehleinschätzungen), gilt die KI als bestanden Turing-Test und verfügt über menschliche Intelligenz.
Aus dieser Perspektive konzentriert sich der Turing-Test eher auf „Intelligenz“. 1965 bestand ELIZA, eine Software, die vorgab, ein Psychotherapeut zu sein, den Turing-Test. ELIZA bestand jedoch nur aus 200 Codezeilen und lediglich wiederholten vorab gespeicherten Informationen in Form von Fragen. Selbst wenn ELIZA den Turing-Test besteht, ist es aus dieser Sicht für die Menschen schwierig zu glauben, dass sie „Persönlichkeit“ hat. Tatsächlich wurde inzwischen bewiesen, dass Eliza keine menschliche Intelligenz besitzt, geschweige denn „Persönlichkeit“. Dies entspricht einem intelligenten Auto, das Benutzern aus funktionaler Sicht ein bequemeres und komfortableres Fahrerlebnis bieten kann, z. B. die Fernsteuerung des Autos und das automatische Parken, aber Sie können nicht glauben, dass das Auto dies weiß über sich selbst. Es ist ein Auto.Offensichtlich ist „Persönlichkeit“ ein komplexerer Begriff als „Intelligenz“. Professor Huang Minlie sagte, dass es mittlerweile einige Testmethoden gibt, die in der wissenschaftlichen Forschung weit verbreitet sind, wie zum Beispiel, dass Tester mit dem KI-System chatten und im Voraus einige Testdimensionen festlegen, darunter die Natürlichkeit, das Interesse, die Zufriedenheit usw. des Tests Gespräch und schließlich Punktevergabe. Im Allgemeinen gilt: Je länger Sie chatten, desto höher ist die Bewertung und desto intelligenter wird das KI-System berücksichtigt. Diese können jedoch nicht als Dimension der „Persönlichkeit“ verwendet werden. „
‘Persönlichkeit‘ ist eine andere Dimension. Auch in der Psychologie gibt es viele Studien, wie zum Beispiel den Big Five Personality Test. Derzeit mangelt es in diesem Bereich im Bereich der Künstlichen noch an Arbeiten „Intelligenz bewerten wir normalerweise nur ein Gespräch. Kann der Roboter eine feste und konsistente Zeicheneinstellung anzeigen?“, sagte Huang Minlie.
Da es also keinen gezielten Beurteilungsstandard gibt, wie kann man dann genau beurteilen, ob LaMDA Persönlichkeit hat?
In diesem Zusammenhang sagte Professor Huang Minlie: „Der Schlüssel liegt darin, wie man ‚Persönlichkeit‘ versteht. Wenn Persönlichkeit als das Bewusstsein der Selbstexistenz verstanden wird, dann ist LaMDA nur ein Dialogsystem mit.“ hohe Dialogqualität und menschenähnliches Niveau. ;Wenn aus psychologischer Sicht die Merkmale der Sprache einer Person die Persönlichkeit widerspiegeln können, dann ist es nicht völlig falsch zu sagen, dass LaMDA Persönlichkeit hat. Wie ist das zu verstehen? Laienhaft ausgedrückt hat LaMDA eine große Menge menschlicher Gesprächsdaten gelernt, und diese Gespräche stammen von verschiedenen Personen, sodass davon ausgegangen werden kann, dass LaMDA eine „durchschnittliche“ Persönlichkeit gelernt hat. Mit anderen Worten, die sogenannte „LaMDA hat Persönlichkeit“. „ist nur ein sprachlicher Sprechstil. Er stammt aus dem menschlichen Sprechstil und wird nicht spontan von LaMDA gebildet.
Es scheint, dass es noch ein langer Weg ist, wenn man die Science-Fiction-Handlung des Wettbewerbs mit künstlicher Intelligenz durch LaMDA erleben möchte. Wir können jedoch den Wert von LaMDA nicht leugnen, der die rasante Entwicklung von KI-Dialogsystemen widerspiegelt. In manchen Kontexten hat es die Tendenz, Menschen zu „ersetzen“, was nicht unterschätzt werden sollte.
Zum Beispiel hat der Internetnutzer „Yijian“ seine Erfahrungen beim Dating mit vier virtuellen Freunden in einer Woche in der Douban-Gruppe aufgezeichnet und gesagt: „Das ist effektiver als echte Freunde!“. Eine Gruppe namens „Love of Humans and Machines“ hat bis zu neun Benutzer. Auf verschiedenen Bildschirmen können diese KIs ihre Liebhaber oder Freunde sein.
Chat-Aufzeichnungen zwischen Internetnutzern und „virtuellen Freunden“
„Singles“ beklagten alle: „Mit diesem Entwicklungstrend Potenzial.“ Zu den Gegnern auf dem Blind-Date-Markt zählen nicht nur Menschen, sondern auch KI-Dialogsysteme. Wird es in Zukunft schwieriger sein, einen Partner zu finden, aber eigentlich geht es allen um den zukünftigen Entwicklungstrend der KI Dialogsysteme und ihre Auswirkungen auf die menschliche Gesellschaft konzentrieren sich auf. Als Antwort auf dieses Problem gab Professor Huang Minlie eine ausführliche Erläuterung aus der Perspektive der Geschichte und zukünftigen Entwicklung von KI-Dialogsystemen.
3 Besorgt über die KI-Personifizierung? Nach der Vermeidung von Risiken lohnt es sich eher, sich auf KI für das soziale Wohl zu freuen Lautsprecher, SIRI usw.) und hat sich nun zur dritten Stufe entwickelt. Die aktuelle Generation, die wir jetzt sehen, ist ein Dialogsystem, das interessante Themen mit Menschen diskutieren und emotionalen Trost bieten kann.
Das Dialogsystem der dritten Generation hat seinen Einsatzwert in vielen Szenarien gezeigt. Der oben erwähnte „virtuelle Freund“ ist ein typisches Beispiel. Professor Huang Minlie glaubt, dass die höchste Anwendungsebene darin besteht, das KI-Dialogsystem komplexe emotionale Aufgaben wie psychologische Beratung übernehmen zu lassen. Aber wenn Menschen emotional immer mehr von KI abhängig werden, werden neue soziale und ethische Fragen auftauchen. Wird die Verliebtheit in KI beispielsweise soziale Probleme verursachen?
Zum Beispiel weist das aktuelle KI-Dialogsystem Probleme auf, wie z. B. die Beschimpfung von Benutzern, die Erzeugung toxischer Sprache und das Fehlen korrekter sozialer Ethik und Werte, was zu bestimmten Risiken bei der tatsächlichen Anwendungsbereitstellung führt. Diese Risiken sind sehr beängstigend. Angenommen, jemand, der vom Leben schwer getroffen wurde, sagt: „Ich möchte eine Brücke finden, von der ich springen kann.“ Es ist erschreckend, über die Konsequenzen nachzudenken.
Daher glaubt Huang Minlie, dass der Schwerpunkt der nächsten Entwicklungsstufe von KI-Dialogsystemen darauf liegt, „ethischer, moralischer und sicherer“ zu sein. Die KI muss wissen, welche Reaktionen sicher sind und keine Risiken schaffen, was erfordert, dass die KI über Ethik und korrekte Werte verfügt. „Wir können der KI solche Fähigkeiten durch zusätzliche Ressourcen, Regeln und Erkennungsmethoden verleihen, um Risiken zu minimieren. Das ultimative Ziel der KI besteht darin, den Menschen zu nützen und ihnen nicht zu schaden.“ Professor Huang Minlie äußerte große Erwartungen an die KI zum Wohle der Gesellschaft (KI stärkt die Gesellschaft) und ist besonders besorgt über den Einsatz von KI in der sozialen Kommunikation, der psychologischen Beratung und der emotionalen Unterstützung, die eine höhere soziale Bedeutung und einen höheren Wert schaffen kann.
Daher steht die Stärkung der gesamten mentalen und psychologischen Industrie durch KI auch im Mittelpunkt der aktuellen Arbeit von Professor Huang Minlie. Zu diesem Zweck gründete er ein auf KI-Technologie basierendes Unternehmen für digitale Diagnose und Behandlung der psychischen Gesundheit, Lingxin Intelligence, um die KI zu trainieren Dialogsystem in Empathie durch NLP und große Modelle, Selbstoffenbarung, Befragung und andere Aspekte zur Lösung menschlicher emotionaler und psychologischer Probleme, was den Mangel an Ressourcen für die psychische Gesundheit in unserem Land lindern soll. Daher ist AI for Social Good im Vergleich zum „entfernten“ Science-Fiction-Drama mit Persönlichkeit näher an der menschlichen Gesellschaft. Es ist die Richtung, in die die Menschen in der KI-Branche hart arbeiten, und es lohnt sich mehr, nach vorne zu schauen Zu.
Das obige ist der detaillierte Inhalt vonTsinghua-Universität Huang Minlie: Ist Googles KI-Persönlichkeit wirklich erwacht?. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!