Musk ist bereits als „Teufelsboss“ bekannt.
Jetzt hat sein alter Untergebener Karpathy(Andrej Karpathy)ihn (Doge) im letzten Interview erneut „gehämmert“:
Ich musste ihn anbetteln, mir zu erlauben, Leute zu rekrutieren.
Er(Musk)entlässt immer standardmäßig Mitarbeiter.
Kapasi entlässt nicht nur gerne Menschen, sondern enthüllte bei dieser von Sequoia organisierten AI Ascent-Veranstaltung auch weitere Details über Musks Verwaltungsgesellschaft:
hasst Besprechungen, weigert sich, sich hinzulegen, und folgt lieber dem VP Sprechen Sie über die Arbeit direkt mit Ingenieuren...
Darüber hinaus sprach er auch über viele große Modellthemen, die allen am Herzen liegen, darunter:
Für weitere Details ist hier die Textversion zum Teilen ~
(Claude 3 hat ebenfalls beigetragen)
F: Andre, vielen Dank dafür Kommen Sie heute zu uns. Die ursprünglichen Büros von OpenAI befanden sich gegenüber unseren Büros in San Francisco und viele von Ihnen waren dicht gedrängt.
Was sind neben der Arbeit oben in einer Schokoladenfabrik und der Verwirklichung von Willy Wonkas Traum einige Ihrer unvergesslichen Momente bei der Arbeit hier?
Kapasi: Ja, die ursprünglichen Büros von OpenAI waren dort, wenn man Gregs Wohnung nicht mitzählt.
Wir blieben dort etwa zwei Jahre. Unten gibt es eine Schokoladenfabrik und der Geruch war schon immer köstlich. Zu diesem Zeitpunkt bestand das Team aus etwa 10 bis 20 Personen.
Wir hatten dort eine wirklich tolle Zeit. Lao Huang erwähnte auf der GTC-Konferenz, dass er den ersten DGX-Supercomputer an OpenAI geschickt habe, was dort auch geschah.
F: Andre braucht eigentlich keine Vorstellung, aber ich möchte trotzdem seinen Hintergrund erwähnen. Er studierte bei Geoffrey Hinton und Li Feifei und wurde zunächst durch seine Deep-Learning-Kurse an der Stanford University berühmt.
2015 war er Mitbegründer von OpenAI. 2017 wurde er von Musk abgeworben.
Vielleicht erinnern Sie sich nicht mehr an die damalige Situation: Tesla hat 6 Autopilot-Führungskräfte erlebt, von denen jeder nur 6 Monate gearbeitet hat. Ich erinnere mich, als Andre die Position übernahm, wünschte ich ihm viel Glück.
Es dauerte nicht lange, bis er zu OpenAI zurückkehrte. Aber jetzt hat er völlige Freiheit und kann tun und lassen, was er will. Deshalb sind wir gespannt auf die Erkenntnisse, die er heute mit uns teilt.
Was ich an Andre am meisten bewundere, ist, dass er ein faszinierender Zukunftsdenker, ein überzeugter Optimist und gleichzeitig ein sehr pragmatischer Baumeister ist. Heute wird er einige Erkenntnisse zu diesen Aspekten mit uns teilen.
Zuallererst schien AGI noch vor 7 Jahren ein fast unmögliches Ziel zu sein, das wir zu unseren Lebzeiten erreichen konnten. Und jetzt scheint es in Sicht zu sein.Was sehen Sie in den nächsten 10 Jahren?
Kapasi: Du hast recht. Vor einigen Jahren war der Weg der AGI noch sehr unklar und befand sich noch in einem sehr akademischen Diskussionsstadium. Aber jetzt ist es klar und alle arbeiten hart daran, die Lücke zu füllen.
Die Optimierungsarbeiten sind in vollem Gange. Grob gesagt versucht jeder, ein „Large Model Operating System(LLM OS)“ zu entwickeln.
Ich vergleiche es gerne mit einem Betriebssystem. Sie müssen verschiedene Peripheriegeräte vorbereiten und an eine neue CPU anschließen.Diese Peripheriegeräte umfassen verschiedene Modalitäten wie Text, Bilder, Audio usw. Die CPU ist das Sprachmodell selbst. Es stellt außerdem eine Verbindung zu der gesamten Software 1.0-Infrastruktur her, die wir aufgebaut haben.
Ich denke, jeder versucht, so etwas zu bauen und es dann in ein Produkt umzuwandeln, das in jedem Wirtschaftszweig funktioniert.
Im Allgemeinen besteht die Entwicklungsrichtung darin, dass wir diese relativ unabhängigen Agenten anpassen, ihnen Aufgaben auf hoher Ebene zuweisen und sie auf verschiedene Aufgaben spezialisieren können. Das wird sehr interessant und spannend. Und es gibt nicht nur einen Agenten, es wird viele Agenten geben. Stellen Sie sich vor, wie das wäre?
F: Wenn die Zukunft wirklich das ist, was Sie gesagt haben, wie sollten wir dann unseren Lebensstil jetzt anpassen?
Kapasi: Ich weiß es nicht. Ich denke, wir müssen hart daran arbeiten, es aufzubauen, es zu beeinflussen und sicherzustellen, dass es positiv ist. Kurz gesagt: Versuchen Sie, die Ergebnisse so gut wie möglich zu machen.
F: Da Sie jetzt ein freier Mann sind, möchte ich ein offensichtliches Problem ansprechen, nämlich dass OpenAI das gesamte Ökosystem dominiert.
Die meisten Leute hier heute sind Unternehmer, die versuchen, sich eine Nische zu erobern, und beten, dass OpenAI sie nicht über Nacht aus dem Geschäft wirft.
Glaubst du, dass es noch eine Chance gibt? In welchen Bereichen wird OpenAI weiterhin dominieren?
Kapasi: Mein Gesamteindruck ist, dass OpenAI hart daran arbeitet, ein LLM-Betriebssystem zu entwickeln. Wie wir heute bereits gehört haben, versucht OpenAI, eine Plattform zu entwickeln. Auf dieser Basis können Sie verschiedene Unternehmen in unterschiedlichen Branchen aufbauen.
Die Betriebssystem-Analogie ist tatsächlich sehr interessant, da Betriebssysteme wie Windows auch einige Standardanwendungen wie Browser enthalten.
Ich denke also, dass OpenAI oder andere Unternehmen möglicherweise auch einige Standardanwendungen starten, aber das bedeutet nicht, dass Sie nicht verschiedene Browser darauf ausführen können, sondern dass Sie verschiedene Agenten darauf ausführen können.
Es wird einige Standard-Apps geben, aber es wird wahrscheinlich auch ein lebendiges Ökosystem mit einer Vielzahl von Apps geben, die auf bestimmte Szenarien abgestimmt sind.
Mir gefällt die Analogie früher iPhone-Apps sehr gut. Diese Apps sind alle zunächst ein kleiner Scherz und brauchen Zeit, um sich zu entwickeln. Ich glaube, wir machen gerade das Gleiche durch. Die Leute versuchen herauszufinden, was dieses Ding gut kann? Was kannst du nicht gut? Wie benutze ich es? Wie programmiert man? Wie debuggen? Wie kann man es dazu bringen, tatsächliche Aufgaben auszuführen? Welche Art von Aufsicht ist nötig? Denn es ist ziemlich autonom, aber nicht völlig autonom. Wie sollte also die Aufsicht aussehen? Wie soll die Beurteilung aussehen? Es gibt viel zu bedenken und zu verstehen. Ich denke, es wird einige Zeit dauern, herauszufinden, wie man mit dieser neuen Infrastruktur arbeitet. Ich denke also, dass wir das in den nächsten Jahren sehen werden.
F: Der Wettbewerb um große Sprachmodelle ist jetzt in vollem Gange, mit OpenAI, Anthropic, Mistral, Llama, Gemini und dem gesamten Open-Source-Modell-Ökosystem sowie einer großen Anzahl kleiner Modelle. Wie sehen Sie die zukünftige Entwicklung des Ökosystems?
Kapasi: Ja, also ist die Betriebssystem-Analogie wieder interessant. Wir verfügen über Closed-Source-Systeme wie Windows und macOS sowie Open-Source-Linux. Ich denke, das große Modell könnte das gleiche Muster haben.Wir müssen auch vorsichtig sein, wenn wir diese Modelle nennen, wie z. B. Llama, Mistral usw., ich glaube nicht, dass sie wirklich Open Source sind. Es ist, als würde man eine Betriebssystem-Binärdatei wegwerfen, die zwar verwendet werden kann, aber nicht ganz nützlich ist. Es gibt tatsächlich einige Sprachmodelle, die ich als vollständig Open Source betrachte und die die gesamte zum Kompilieren des „Betriebssystems“ erforderliche Infrastruktur vollständig freigeben, von der Datenerfassung bis zum Modelltraining. Dies ist definitiv besser, als nur die Modellgewichte zu ermitteln, da Sie das Modell feinabstimmen können.
Aber ich denke, es gibt ein subtiles Problem, nämlich dass man das Modell nicht vollständig optimieren kann, denn je mehr man es verfeinert, desto schlechter wird es bei jeder anderen Aufgabe abschneiden.
Wenn Sie also eine bestimmte Fähigkeit hinzufügen möchten, ohne andere Fähigkeiten zu beeinträchtigen, müssen Sie möglicherweise tatsächlich die vorherige Datensatzverteilung und die neue Datensatzverteilung für das Training mischen. Wenn Sie nur Modellgewichte erhalten, ist dies eigentlich nicht möglich. Sie benötigen Trainingsschleifen, Sie benötigen Datensätze usw. Die Möglichkeiten dieser Modelle sind also wirklich eingeschränkt.
Sie sind auf jeden Fall hilfreich, aber wir brauchen wahrscheinlich bessere Begriffe, um sie zu beschreiben. Open-Weight-Modell, Open-Source-Modell und proprietäres Modell, das Ökosystem könnte so aussehen. Und es wird wahrscheinlich dem Ökosystem, das wir heute haben, sehr ähnlich sein.
Maßstab ist der entscheidende Faktor
F: Eine weitere Frage, die ich stellen möchte, ist der Maßstab. Einfach ausgedrückt scheint die Größe am wichtigsten zu sein. Datenumfang und Rechenleistungsumfang. Die großen Forschungslabore, die großen Technologiegiganten haben heute also einen enormen Vorteil. Was denkst du darüber? Ist Größe alles? Wenn nicht, was ist sonst noch wichtig?
Kapasi: Ich denke, die Größe ist definitiv die Nummer eins.Es gibt einige Details, auf die wirklich geachtet werden muss. Ich denke auch, dass die Vorbereitung des Datensatzes sehr wichtig ist, damit die Daten sehr gut und sehr sauber sind, was die Berechnung effizienter machen kann.
Aber ich denke, die Größe wird der entscheidende Faktor sein, die erste Hauptzutat, und natürlich muss man noch viele andere Dinge richtig machen.
Wenn Sie keine Skalierung haben, können Sie diese großen Modelle grundsätzlich nicht trainieren. Wenn Sie nur Dinge wie die Feinabstimmung vornehmen, brauchen Sie diesen Maßstab wahrscheinlich nicht, aber wir haben noch nicht wirklich gesehen, dass dies vollständig verwirklicht ist.
F: Können Sie näher erläutern, welche anderen Faktoren Ihrer Meinung nach neben der Größe wichtig sind, vielleicht mit geringerer Priorität?
Kapasi: Zunächst einmal kann man diese Modelle nicht einfach trainieren. Wenn Sie nur finanzielle Mittel und Größenordnung bereitstellen, ist es immer noch sehr schwierig, diese Modelle tatsächlich zu trainieren.
Ein Grund dafür ist, dass die Infrastruktur zu neu, noch in der Entwicklung und noch nicht vollständig ist. Das Trainieren eines Modells in diesem Maßstab ist jedoch äußerst schwierig und ein sehr komplexes verteiltes Optimierungsproblem. Talente in diesem Bereich sind derzeit recht rar. Es ist im Grunde eine verrückte Sache, wenn das Modell auf Tausenden von GPUs läuft und zu unterschiedlichen Zeitpunkten zufällig ausfällt. Diesen Prozess zu überwachen und zum Laufen zu bringen, ist tatsächlich eine äußerst schwierige Herausforderung.
Bis vor kurzem waren GPUs nicht so leistungsfähig wie erwartet, 10.000 GPU-Workloads zu bewältigen. Ich glaube also, dass viele Infrastrukturen unter diesem Druck kaputt gehen und dass wir uns damit befassen müssen.
Wenn Sie jemandem einfach eine Menge Geld oder eine Menge GPUs geben würden, bin ich mir nicht sicher, ob er direkt große Modelle produzieren könnte, weshalb es nicht nur eine Frage der Größe ist. Man braucht tatsächlich viel Fachwissen, einschließlich Infrastruktur, Algorithmen und Daten, und man muss sehr vorsichtig sein.
F: Das Ökosystem wächst so schnell und einige der Herausforderungen, von denen wir noch vor einem Jahr dachten, dass sie existieren, werden zunehmend angegangen. Illusionen, kontextbezogene Fenster, multimodale Fähigkeiten, Schlussfolgerungen werden schneller und billiger. Welche anderen Herausforderungen in der Sprachmodellforschung halten Sie derzeit schlaflos? Welche Probleme sind Ihrer Meinung nach dringend genug, aber auch lösbar?
Kapasi: Ich denke, was Algorithmen betrifft, denke ich oft über den klaren Unterschied zwischen Diffusionsmodellen und autoregressiven Modellen nach. Sie alle sind Möglichkeiten zur Darstellung von Wahrscheinlichkeitsverteilungen. Es stellt sich heraus, dass unterschiedliche Modalitäten eindeutig für das eine oder das andere geeignet sind. Ich denke, es könnte Raum geben, sie zu vereinen oder auf irgendeine Weise zu verbinden.
Eine weitere Sache, die ich hervorheben möchte, ist die inhärente Effizienz der Infrastruktur, die große Modelle betreibt. Mein Gehirn verbraucht etwa 20 Watt. Huang hat gerade über den großen Supercomputer gesprochen, den sie bei GTC bauen wollen, und die Zahlen liegen alle im Megawattbereich. Vielleicht braucht man also nicht so viel Energie, um ein Gehirn zu betreiben. Ich weiß nicht genau, wie viel es kosten wird, aber ich denke, man kann mit Sicherheit sagen, dass wir diese Modelle um das 1.000- bis 1.000.000-fache effizienter betreiben können.
Ich denke, ein Grund dafür ist, dass aktuelle Computer für diese Arbeitsbelastung einfach nicht geeignet sind. Nvidias GPUs sind ein guter Schritt in diese Richtung, da man eine extrem hohe Parallelität benötigt. Sequentielle Berechnungen, die in irgendeiner Weise auf den Daten basieren, interessieren uns nicht wirklich. Wir müssen lediglich denselben Algorithmus für viele verschiedene Array-Elemente ausführen. Ich denke also, dass es an erster Stelle darum geht, die Computerarchitektur an neue Datenabläufe anzupassen, und an zweiter Stelle darum, einige der Dinge voranzutreiben, bei denen wir derzeit Verbesserungen sehen.
Der erste Punkt ist wahrscheinlich die Genauigkeit. Wir haben gesehen, dass die Genauigkeit vom ursprünglichen 64-Bit-Doppel auf jetzt 4, 5, 6 Bit oder sogar 1,5 bis 8 Bit gesunken ist, je nachdem, welche Arbeit Sie lesen. Daher denke ich, dass Genauigkeit ein großer Hebel zur Beherrschung dieses Problems ist.
Der zweite Punkt ist natürlich die Sparsamkeit. Tatsächlich sind viele Parameter in großen Modellen Null oder nahe Null. Es wäre also großartig, wenn Sie dies auf irgendeine Weise ausnutzen könnten, indem Sie beispielsweise die Multiplikation dünn besetzter Matrizen effizienter gestalten würden. Es gibt einige vielversprechende Forschungsergebnisse auf diesem Gebiet.
Außerdem gibt es einige interessante Ideen wie die Singularwertzerlegung (SVD), um zu sehen, ob Sie sie in kleinere Matrizen zerlegen und dann wieder zusammensetzen können. Beispielsweise wird nur die Vorwärtsausbreitung ohne Rückwärtsausbreitung berechnet und ein kleineres Modell trainiert, um die Ausgabe eines größeren Modells vorherzusagen.
Ich denke also, dass es grundsätzlich zwei Probleme zu lösen gibt:
Eines besteht darin, geeignetere Hardware zu bauen. Eine andere besteht darin, bessere Algorithmen zu finden, die die Effizienz steigern und gleichzeitig die Leistung aufrechterhalten.
Ich denke, dass es in beiden Aspekten noch viel Raum für Erkundungen gibt. Wenn wir die Lücke zum Gehirn schließen könnten, wäre das aus Energieeffizienzsicht eine enorme Verbesserung. Dies könnte bedeuten, dass sich jeder von uns ein Modell leisten oder ein Modell auf seinen Geräten ausführen kann, ohne mit der Cloud verbunden sein zu müssen.
F: Okay, wechseln wir das Thema. Sie haben mit vielen der ganz Großen dieser Ära zusammengearbeitet, Sam, Greg und anderen Teammitgliedern bei OpenAI sowie Musk.
Wie viele von Ihnen hier haben den Witz über das US-Ruderteam und das japanische Ruderteam gehört? Das ist eine interessante Geschichte. Musk hat diesen Witz geteilt, und ich denke, er spiegelt einen Großteil seiner Philosophie zum Aufbau von Kultur und Teams wider. In der Geschichte gibt es zwei Teams: Das japanische Team hat 4 Ruderer und 1 Steuermann und das amerikanische Team hat 4 Steuermann und 1 Steuermann. Kann jemand erraten, was Team USA tun wird, wenn es verliert? Sprechen Sie lauter. Genau, sie werden diesen Ruderer abfeuern.
Als Musk dieses Beispiel teilte, hat er meiner Meinung nach seine Ansichten zur Einstellung der richtigen Talente und zum Aufbau des richtigen Teams dargelegt. Was haben Sie aus der engen Zusammenarbeit mit diesen unglaublichen Führungskräften gelernt?
Kappasi: Ich würde sagen, die Art und Weise, wie Musk sein Unternehmen führt, ist sehr einzigartig. Ich habe das Gefühl, dass die Leute nicht wirklich erkennen, wie besonders es ist. Selbst wenn Sie anderen zuhören, die darüber reden, fällt es Ihnen schwer, es vollständig zu verstehen. Es fällt mir schwer, es mit Worten zu beschreiben. Ich weiß gar nicht, wo ich anfangen soll. Aber es ist eine wirklich einzigartige und andere Art, es zu tun.
In meinen Worten:Er leitet das größte Startup-Unternehmen der Welt. Ich habe das Gefühl, dass es mir im Moment schwer fällt, es klar zu beschreiben, und dass das Nachdenken und Zusammenfassen möglicherweise länger dauert.
Aber vor allem gefällt es ihm,ein Unternehmen durch ein kleines Team mit starker Stärke und hohem technischen Inhalt zu gründen.
In anderen Unternehmen vergrößert sich die Teamgröße oft im Laufe des Entwicklungsprozesses. Musk hingegen war schon immer gegen eine Überexpansion des Teams. Ich musste hart arbeiten, um Mitarbeiter zu rekrutieren. Ich musste ihn anflehen, mir die Rekrutierung von Leuten zu erlauben.
Außerdem ist es für große Unternehmen oft schwierig, leistungsschwache Mitarbeiter loszuwerden. Musk hingegen ist eher bereit, die Initiative zu ergreifen und Mitarbeiter zu entlassen.
Tatsächlich musste ich hart darum kämpfen, einige Mitarbeiter zu behalten, weil er sie immer standardmäßig entließ.
Der erste Punkt besteht also darin, ein kleines Team mit starker Stärke und hervorragenden Fähigkeiten zu unterhalten. Absolut kein nicht-technisches mittleres Management. Das ist der wichtigste Punkt.
Der zweite Punkt ist, wie er eine Arbeitsatmosphäre schafft und welches Gefühl er vermittelt, wenn er das Büro betritt.
Er möchte, dass das Arbeitsumfeld dynamisch ist. Menschen bewegen sich, denken über Dinge nach, konzentrieren sich auf spannende Dinge. Sie schreiben und zeichnen entweder auf dem Whiteboard oder geben Code vor dem Computer ein. Er mag keine Pfützen mit stehendem Wasser und er mag den Mangel an Leben im Büro nicht.
Er mag auch keine langen Meetings und ermutigt die Leute immer, entschieden zu gehen, wenn das Meeting sinnlos ist. Man konnte wirklich sehen, dass man, wenn man nichts beizutragen und aus dem Treffen nichts zu gewinnen hatte, einfach gehen konnte, und er unterstützte das sehr. Ich denke, das ist bei anderen Unternehmen schwer zu erkennen.
Ich denke also, dassdie Schaffung einer positiven Arbeitsatmosphäre das zweite wichtige Konzept ist, das er vermittelt hat. Möglicherweise gehört dazu auch die Tendenz von Unternehmen, ihre Mitarbeiter mit zunehmender Größe übermäßig zu schützen. Das wird in seinem Unternehmen nicht der Fall sein. Die Unternehmenskultur sieht vor, dass man 100 % seiner beruflichen Fähigkeiten zeigen muss und das Arbeitstempo und die Arbeitsintensität sehr hoch sind.
Ich denke, das Letzte, was wahrscheinlich das Einzigartigste, Interessanteste und Ungewöhnlichste ist, ist, dasser so mit dem Team verbunden ist.
Normalerweise ist der CEO eines Unternehmens eine nicht erreichbare Person, die 5 Ebenen von Untergebenen verwaltet und nur mit dem Vizepräsidenten kommuniziert, der mit seinen untergeordneten Vorgesetzten kommuniziert, und der Vorgesetzte kommuniziert mit den Managern. Sie können nur mit Ihren direkten Vorgesetzten kommunizieren Chef. Dialog. Doch Musk führt das Unternehmen ganz anders. Er kam ins Büro und sprach direkt mit den Ingenieuren.
Wenn wir Besprechungen haben, sitzen oft 50 Personen im Konferenzraum direkt vor Musk und er spricht direkt mit den Ingenieuren. Er wollte nicht nur mit Vizepräsidenten und Führungskräften sprechen.
Normalerweise verbringt ein CEO 99 % seiner Zeit damit, mit dem Vizepräsidenten zu kommunizieren, und möglicherweise verbringt er 50 % seiner Zeit damit, mit Ingenieuren zu kommunizieren. Wenn das Team also klein und effizient ist, sind Ingenieure und Code die vertrauenswürdigsten Informationsquellen. Sie kennen die Wahrheit aus erster Hand. Musk möchte direkt mit Ingenieuren kommunizieren, um die tatsächliche Situation zu verstehen und Verbesserungsmöglichkeiten zu besprechen.
Ich würde also sagen, dass es ziemlich einzigartig ist, dass er mit dem Team verbunden und nicht außer Reichweite ist.
Außerdem ist die Art und Weise, wie er Macht innerhalb des Unternehmens ausübt, ungewöhnlich. Wenn er beispielsweise mit Ingenieuren spricht und von einigen Problemen erfährt, die den Fortschritt des Projekts behindern. Wenn ein Ingenieur beispielsweise sagt: „Ich habe nicht genügend GPUs, um das Programm auszuführen“, wird er sich das zu Herzen nehmen. Wenn er eine ähnliche Beschwerde zweimal hört, wird er sagen: „Okay, hier ist ein Problem. Wie sieht nun der Zeitplan aus? Wann wird es gelöst?“
Wenn er keine zufriedenstellende Antwort erhält, wird er sagen: „Ich werde mit der Person sprechen, die für den GPU-Cluster verantwortlich ist“, und jemand wird diese Person anrufen und direkt sagen: „Verdoppeln Sie jetzt die Clusterkapazität. Geben Sie mir ab morgen tägliche Fortschrittsberichte. Die Clustergröße.“ wird verdoppelt.“
Die andere Partei kann sich davor drücken, indem sie sagt, dass sie noch den Beschaffungsprozess durchlaufen muss, der 6 Monate dauern wird. Zu diesem Zeitpunkt wird Musk die Stirn runzeln und sagen: „Okay, ich möchte mit Huang Renxun sprechen.“ Dann wird er die Projekthindernisse direkt beseitigen.“
Ich glaube also, dass den Leuten nicht wirklich bewusst ist, wie tief er in verschiedene Aufgaben eingebunden ist, indem er Hindernisse beseitigt und Einfluss ausübt.
Ganz ehrlich, wenn man ein solches Umfeld verlässt und zu einem gewöhnlichen Unternehmen geht, werden einem diese einzigartigen Orte wirklich fehlen.
Das obige ist der detaillierte Inhalt vonMein Anführer Musk: Er hasst Meetings, will keine nichttechnisch versierten mittleren Manager und befürwortet Entlassungen. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!