Bildquelle Visual China
China Youth Daily·China Youth Daily-Reporter Yuan Ye
Jedes Mal, wenn eine KI mit Ihnen chattet, verliert das Unternehmen dahinter Geld.
Die Washington Post berichtete, dass die Betriebs- und Wartungskosten der von ChatGPT dargestellten großen Sprachmodelle so hoch sind, dass die Unternehmen, die sie auf den Markt bringen, nicht bereit sind, der Öffentlichkeit die beste Version zur Verfügung zu stellen. Tom Goldstein, Professor für Informatik an der University of Maryland, sagte: „Die derzeit eingesetzten Modelle sehen beeindruckend aus, aber sie sind nicht die besten. Er glaubt, dass künstliche Intelligenz dies nicht tun wird, wenn Kostenfaktoren überhaupt nicht berücksichtigt werden.“ Kritisierte Unzulänglichkeiten, wie die Tendenz, voreingenommene Ergebnisse zu liefern oder sogar zu lügen, sind vermeidbar.
Künstliche Intelligenz erfordert intensive Rechenleistung, weshalb OpenAI, der Entwickler von ChatGPT, in seiner kostenlosen Version nur das leistungsschwächere GPT-3.5-Modell betreibt. Alle 3 Stunden können selbst diejenigen, die 20 US-Dollar pro Monat für die Nutzung des Premium-Modells von GPT-4 zahlen, nur 25 Nachrichten senden. Der Grund dafür sind zu hohe Betriebskosten.
Letzten Dezember, kurz nach der Veröffentlichung von ChatGPT, schätzte OpenAI-CEO Sam Altman, dass es „wahrscheinlich nur ein paar Cent pro Chat kosten würde“. Obwohl es günstig klingt, sind die Gesamtkosten immer noch sehr hoch, wenn man bedenkt, dass es täglich mehr als 10 Millionen aktive Nutzer gibt. Im Februar dieses Jahres gab ein Forschungsinstitut an, dass die täglichen Rechenkosten von ChatGPT immer noch bis zu 700.000 US-Dollar betragen, selbst wenn es nur GPT-3.5 ausführt.
Die Washington Post sagte, dass Kostenprobleme auch einer der Gründe sein könnten, warum Google seiner Suchmaschine, die jeden Tag Dutzende Milliarden Suchanfragen verarbeitet, noch keine Chatbots mit künstlicher Intelligenz hinzugefügt hat. Dylan Patel, Chefanalyst eines amerikanischen Branchenforschungsunternehmens, schätzt, dass die Kosten für einen Chat mit ChatGPT für Betreiber möglicherweise 1.000-mal höher sind als für eine Google-Suche.
Die Kosten der künstlichen Intelligenz haben sogar das Weiße Haus alarmiert. Britisches Reuters gab an, dass die Biden-Regierung in einem kürzlich veröffentlichten Bericht über künstliche Intelligenz darauf hingewiesen habe, dass die Rechenkosten generativer künstlicher Intelligenz ein „nationales Problem“ seien. Nach Angaben des Weißen Hauses wird diese Technologie den Rechenbedarf und die damit verbundenen Umweltauswirkungen erheblich erhöhen, sodass ein dringender Bedarf an der Entwicklung nachhaltigerer Systeme entsteht.
Laut Reuters ist insbesondere die generative künstliche Intelligenz im Vergleich zu anderen Formen des maschinellen Lernens auf eine gewaltige Rechenleistung und spezialisierte Computerchips angewiesen, die sich nur leistungsstarke Unternehmen leisten können. Im Mai erklärte Sam Altman bei einer Anhörung im US-Senat: „Tatsächlich haben wir einen sehr geringen Vorrat an Chips (GPUs). Je weniger Menschen unsere Produkte verwenden, desto besser.“
Laut Elon Musk auf einem Wall Street Journal Summit am 23. Mai sind GPUs derzeit beliebter als Medikamente. Kürzlich kaufte Musks Startup für künstliche Intelligenz etwa 10.000 GPUs für seine eigene Forschung und Projekte.Die auffällige Kostenverbrennung neuer Technologien ist für die Technologiebranche nichts Neues. Die Washington Post gab an, dass das Silicon Valley die Internetwirtschaft unter anderem deshalb dominieren konnte, weil es der Welt Dienste wie Online-Suche, E-Mail und soziale Medien kostenlos zur Verfügung stellte und durch die Kommerzialisierung enorme Gewinne erzielte. Während die KI-Branche möglicherweise die gleiche Strategie verfolgt, weisen Analysten darauf hin, dass eine ausschließliche Abhängigkeit von Werbeeinnahmen High-End-KI-Tools in absehbarer Zeit möglicherweise nicht profitabel machen wird.
Unternehmen, die Verbrauchern KI-Modelle anbieten, müssen also den Wunsch, Marktanteile zu gewinnen, mit dem Ärger finanzieller Verluste in Einklang bringen.
Die Washington Post weist darauf hin, dass selbst wenn mit künstlicher Intelligenz Geld verdient werden kann, die Gewinne wahrscheinlich an Cloud-Computing-Giganten und Chiphersteller der für den Betrieb der Modelle erforderlichen Hardware fließen werden. Es ist kein Zufall, dass die Unternehmen, die derzeit führende Sprachmodelle für künstliche Intelligenz entwickeln, entweder die größten Cloud-Computing-Anbieter sind (wie Google und Microsoft) oder eng mit ihnen zusammenarbeiten (wie OpenAI).
Für Verbraucher könnten die Tage des uneingeschränkten Zugangs zu leistungsstarken Modellen der künstlichen Intelligenz gezählt sein.
Reuters sagte, Microsoft habe damit begonnen, Anzeigen in Suchergebnisse mit künstlicher Intelligenz einzubetten. Obwohl er ein kostenpflichtiges Abonnementmodell bevorzuge, sagte Atman von OpenAI während der Anhörung, dass er das Gleiche nicht ausschließen würde. Beide Unternehmen glauben, dass künstliche Intelligenz eines Tages profitabel sein kann. „Es ist so wertvoll, ich kann mir nicht vorstellen, dass die Registrierkasse klingelt“, sagte Altman in einem Interview im Februar.
Das obige ist der detaillierte Inhalt vonWie viel kostet es, mit künstlicher Intelligenz mit Ihnen zu chatten?. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!