ChatGPT ist mittlerweile ein weltweit beliebter Chatbot und fast alle Unternehmen denken darüber nach, ihn zur Verbesserung der Geschäftseffizienz einzusetzen. Fünf Tage nachdem er im November letzten Jahres online ging, hatte er 1 Million Nutzer. In den folgenden zwei Monaten hatte dieser Chatbot mit künstlicher Intelligenz mehr als 200 Millionen Nutzer.
Dieses vom in San Francisco ansässigen Entwickler für künstliche Intelligenz OpenAI entwickelte Sprachprogramm für maschinelles Lernen kann menschenähnliche Textantworten liefern. Es kann lange Artikel oder Textgespräche zusammenfassen, Ratschläge zum Schreiben geben, Marketingkampagnen planen, Geschäftspläne entwickeln und sogar erstellen oder Computercode ändern, alles mit einer begrenzten Investition.
Microsoft, das 49 % von OpenAI besitzt, hat Milliarden von Dollar in das Unternehmen investiert. Microsoft hat außerdem eine Bing-Suchmaschine auf Basis der neuesten Version des großen Sprachmodells GPT-4 von OpenAI auf den Markt gebracht Modell. Um nicht zu übertreffen, hat Google kürzlich seinen eigenen experimentellen Chatbot für künstliche Intelligenz veröffentlicht.
Intercom ist ein Anbieter von Kundensupport-Software, dessen Produkte von 25.000 Unternehmen auf der ganzen Welt verwendet werden, darunter Atlassian, Amazon und Lyft Business, und der derzeit an der Spitze der ChatGPT-Nutzung steht. Die Software des Unternehmens nutzt einfach Funktionen des großen Sprachmodells von ChatGPT (GPT3.5), um seiner Plattform KI-gestützte Funktionalität hinzuzufügen.
Fergal Reid, Direktor für maschinelles Lernen bei Intercom, sagte, dass das Hinzufügen der ChatGPT-Funktionalität zur Kundendienstsoftware des Unternehmens mit künstlicher Intelligenz unbestreitbare Vorteile habe. Die Software von Intercom wird verwendet, um Kundendienstmitarbeiter bei der Beantwortung von Kundenfragen zu unterstützen. Intercom verkauft außerdem einen Support-Chatbot namens „Resolution Bot“, den Unternehmen in ihre Websites einbetten können, um Endbenutzerfragen automatisch zu beantworten.
Aber Reid warnte, dass ChatGPT auch einige Probleme hat, die nicht ignoriert werden können. Aufgrund von Preisproblemen befindet sich die neue Kundenservice-Software für Hunderte von Intercom-Kunden noch in der Betaphase.
Kunden, die die Software von Intercom getestet haben, haben jedoch die aktualisierte Software (basierend auf dem GPT-3.5-Sprachmodell von OpenAI) gelobt und behaupten, dass sie ihre Arbeit erleichtern wird.
In einem Interview mit Branchenmedien erläuterte Reid den Prozess der Anpassung der ChatGPT-Software für die kommerzielle Nutzung von Intercom, wie sie einen geschäftlichen Mehrwert bietet und welche Herausforderungen er und sein Team für maschinelles Lernen hatten und immer noch bewältigen müssen.
Das Folgende ist ein Auszug aus dem Interview:
Intercom ist einer der Marktführer in der Kundensupportbranche und eines der ersten Unternehmen, das diesen Business-Messenger-Dienst eingeführt hat. Also haben wir diesen Messenger entwickelt und dann eine komplette Kundensupport-Plattform für Kundenbetreuer (wir nennen sie Teamkollegen) aufgebaut, deren Aufgabe es war, Tag für Tag wiederholt Fragen des Kundensupports zu beantworten.
Wir haben festgestellt, dass ChatGPT bei der Handhabung zufälliger Konversationen eine neue Ebene erreicht. Wenn Menschen Fragen stellen, stellen sie diese möglicherweise auf überraschende Weise. Im Verlauf eines Gesprächs bringen die Teilnehmer möglicherweise Dinge zur Sprache, die sie in früheren Gesprächsrunden gesagt haben. Dies ist für herkömmliche maschinelle Lernsysteme schwierig zu bewältigen, aber die neue Technologie von OpenAI scheint hier bessere Arbeit zu leisten.
Wir haben ChatGPT und GPT3 ausprobiert. Wir meinten: „Das ist eine große Sache.“ Letztes Jahr haben wir den ersten Prototyp Anfang Januar vorgeführt und es war ein sehr schneller Entwicklungszyklus, und bis etwa Mitte Januar hatten wir 108 Kunden, die ihn zum Testen nutzten, und Ende Januar folgte eine weitere Testversion befindet sich derzeit in der öffentlichen Betaphase, daher verwenden Hunderte von Content-Kunden es und wir nennen es immer noch Beta, auch wenn die Leute es jeden Tag in der Produktion verwenden
Es ist eine überzeugende Demo. Der Prototyp ist nicht real Wir haben also noch viel zu tun, um zu verstehen, wie viel tatsächlicher Wert dieser Prototyp im Vergleich zu den Kosten einer API hat, die die Leute verwenden könnten. Es wird den Benutzer etwas kosten, ihn einfach zusammenfassen zu lassen Es ist zwar viel billiger, als es selbst zu machen, aber es ist ein Problem, das die Unternehmen lösen müssen.
Reid: Ich denke, ChatGPT ist eher ein Frontend für das GPT 3.5-Modell. Allerdings baut jeder, der auf ChatGPT aufbaut, auf demselben zugrunde liegenden Modell auf, das OpenAI GPT 3.5 nennt. Sie sind grundsätzlich gleich, der Unterschied liegt in der Benutzeroberfläche.
Training ChatGPT hat mehr Leitplanken. Wenn Sie es also etwas tun lassen, was es nicht tun möchte, heißt es: „Ich bin nur ein großes Sprachmodell, ich kann diese und die zugrunde liegende Sprache nicht.“ Modell hat diese Leitplanken nicht. Sie sind nicht darin geschult, mit Endbenutzern im Internet zu kommunizieren. Daher verwendet jeder Entwickler, der ein Produkt erstellt, das zugrunde liegende Modell und nicht die ChatGPT-Schnittstelle. Was die Komplexität des Verständnisses und die Funktionalität des zugrunde liegenden Modells betrifft, ist es jedoch im Grunde dasselbe.
Das von uns verwendete Modell ist Text-Davinci-003, im Grunde verwendet es jeder.
Haben Sie Optionen zum Erstellen? Gibt es andere große Sprachmodelle von Drittanbietern, die zum Erstellen neuer Dienstdarstellungsfunktionen verwendet werden können?
Reid: Derzeit ist ChatGPT keine von OpenAI gehostete Anwendung für diese Modelle. Niemand außer OpenAI kann ChatGPT wirklich nutzen. Technisch gesehen denke ich, dass ChatGPT ein Dienst ist, der von OpenAI für die Öffentlichkeit bereitgestellt wird, und jeder kann ein ChatGPT-Ding auf seiner Website erstellen. Genauer gesagt verwenden sie dasselbe OpenAI-Modell, das ChatGPT antreibt.
Reid: Die ursprünglich von uns veröffentlichte Funktionalität richtete sich an Kundensupportmitarbeiter, nicht an Endbenutzer. Wir entwickeln Chatbots für Endbenutzer und stellen dann auf maschinellem Lernen basierende Produktivitätsfunktionen für Kundensupportmitarbeiter bereit. Unsere erste Version des Resolution Bot-Produkts enthielt Funktionen zur Verbesserung des Kundensupportpersonals und war nicht für Endbenutzer konzipiert.
Der Grund, warum wir dies tun, ist, dass viele der aktuellen Modelle für maschinelles Lernen von OpenAI unter sogenannten Halluzinationen leiden. Wenn Sie ihnen eine Frage stellen und nicht die richtige Antwort erhalten, erfinden sie häufig eine Antwort.
Diese Situation hat unsere Erwartungen übertroffen. Es gibt Funktionen, die offensichtlich wertvoll sind, etwa das Zusammenfassen, und dann gibt es noch andere, etwa das Umformulieren von Text oder die benutzerfreundlichere Gestaltung von Text.
Es ist denkbar, dass ihre Aufgabe nicht darin besteht, sicherzustellen, dass echte Informationen bereitgestellt werden, sondern dass sie Informationen nur erfinden können. Zunächst zögerten wir, den Benutzern die Möglichkeit zu geben, sie zu nutzen und Fragen zu beantworten. Wir befürchteten, dass das Erlebnis unserer Kunden durch falsche Antworten des Chatbots beeinträchtigt werden könnte. Unsere ersten Tests zeigen, dass es eine sehr schlechte Idee ist, Kunden einen unausgereiften Chatbot mit ChatGPT-Unterstützung zu überlassen. Wir werden weiterhin hart arbeiten und glauben, dass es in Zukunft bessere Lösungen geben wird.
Reid: Obwohl wir in diesem Bereich arbeiten und sicherlich über interne F&E-Prototypen verfügen, haben wir keine Produkte benannt oder uns dazu verpflichtet, sie zu veröffentlichen Diesmal oder Werkzeuge.
Wir haben Chatbots ursprünglich nur herausgebracht, um Kundenbetreuern zu helfen, weil diese normalerweise wissen, was die richtige Antwort ist, und Chatbots es ihnen trotzdem ermöglichen würden, schneller und effizienter zu bedienen, da sie in 90 % der Fälle nicht die Antwort eingeben müssen antworte dir selbst. Wenn dann in 10 % der Fälle etwas schief geht, kann der Kundensupport das Problem direkt beheben.
Es wird also eher zu einer Schnittstelle. Wenn Sie Google Docs oder einen anderen prädiktiven Text verwenden, der Vorschläge machen kann, ist es in Ordnung, dass die Vorschläge manchmal falsch sind, aber wenn sie die richtigen Vorschläge liefern, erhöht es die Benutzereffizienz. Aus diesem Grund haben wir zunächst eine Beta-Version veröffentlicht, die bis Ende Januar dieses Jahres von Hunderten Kunden getestet wurde und wir viel positives Feedback zu den neuen Funktionen erhielten. Es macht die Mitarbeiter im Kundensupport effizienter und steigert den Umsatz.
Es hilft Vertriebsmitarbeitern, Texte umzuformulieren. Es sendet nicht nur automatisch Text an den Endbenutzer, sondern soll es auch dem Kundensupport ermöglichen, Aufgaben schneller zu erledigen.
Reid: Eine weitere Funktion, die wir in ChatGPT integriert haben, sind Snippets. Dieses große Sprachmodell eignet sich hervorragend für die Verarbeitung vorhandener Texte und die Erstellung von Zusammenfassungen umfangreicher Artikel oder Textgespräche. Ebenso haben wir viele Kundenbetreuer, die, wenn ein Kunde ein Problem anspricht, das für ChatGPT zu komplex ist, das Gespräch an den Kundensupport weiterleiten müssen, der oft gebeten wird, eine Zusammenfassung des Gesprächs mit dem Endbenutzer zu schreiben. Einige Kundenbetreuer sagen, dass das Schreiben von Zusammenfassungen und die Beantwortung von Kundengesprächen manchmal zeitaufwändig sei, aber sie müssen es tun.
Diese Technologie eignet sich also hervorragend zum Zusammenfassen und Zusammenfassen von Textinhalten. Eine der Funktionen, auf die wir am meisten stolz sind, ist diese Zusammenfassungsfunktion, mit der Sie auf Knopfdruck eine Zusammenfassung eines Gesprächs erhalten, die dann bearbeitet und an den Kunden gesendet werden kann.
Diese Funktionen sollen Kunden ansprechen und die Funktionen von ChatGPT kontinuierlich verbessern. Der Kundensupport muss nicht mehr Zeit damit verbringen, das gesamte Gespräch durchzulesen und die wichtigsten Erkenntnisse herauszufinden. Stattdessen ruft ChatGPT die relevanten Snippets ab und der Kundensupport muss nur noch bestätigen.
Diese Modelle sind viel besser als die, die wir zuvor entwickelt haben, aber sie sind immer noch nicht perfekt. Sie übersehen immer noch gelegentlich Details und verstehen Dinge nicht, die ein erfahrener Kundendienstmitarbeiter verstehen würde.
Reid: OpenAI stellt uns eine API zur Verfügung, an die wir Text senden und von seinem Modell abrufen können. Anders als in der Vergangenheit besteht die Art und Weise, wie Menschen diese Technologie tatsächlich nutzen, darin, ihr „zu sagen“, was sie tun soll, und ihr einen Text zu senden, z. B. eine Zusammenfassung des folgenden Gesprächs:
Kunde: „Hallo, ich habe eine Frage.“
Kundenvertreter: „Hallo, wie kann ich Ihnen helfen?“ Eine zusammenfassende Version. Verarbeiten Sie sie dann und senden Sie sie an den Kundensupport, damit dieser entscheiden kann, ob er sie verwenden möchte oder nicht.
Der Kunde kann sie zum Zusammenfassen der E-Mail verwenden E-Mails. Diese Funktionalität war in früheren Programmiersprachen nicht verfügbar, aber es musste viel Aufwand betrieben werden, um sie dazu zu bringen, das zu tun, was Sie wollten. Man muss sehr genau sein, wenn man etwas tut, um Fehler zu vermeiden
Benutzen Sie Ihr eigenes IT-Team oder Software-Ingenieure, um ChatGPT anzupassen?
Reid: Wir untersuchen dies derzeit und sind noch nicht bereit, aber wir gehen davon aus, dass diese Art von Technologie bald für Kunden verfügbar sein wird. Google hat kürzlich ein Produkt mit seinem Modell der künstlichen Intelligenz veröffentlicht Bei der Einführungsveranstaltung gab es einige Fehler, die viele Leute enttäuschten Also muss jeder herausfinden, wie er mit diesem gelegentlichen Problem umgehen kann, und wir arbeiten daran, die KI-fähigen Funktionen für Kunden zu aktualisieren Spart es seinen Kundendienstmitarbeitern viel Zeit und Aufwand? Reid: Wahrscheinlich nicht so hoch. Ich habe keine genaue Zahl, weil diese Technologie noch so neu ist Wenn wir die Telemetrie haben, wird es wahrscheinlich ein paar Wochen dauern, bis wir die Daten erhalten. Ich würde sagen, eine Textzusammenfassung würde 10 bis 15 Minuten einsparen. Das ist ein Teil des Feedbacks, das wir haben bekommen haben und was wir gesehen haben, ist aufregend. Seit der offenen Beta finden Sie zeitsparende Beiträge von Intercom-Kunden auf Twitter. Ich denke auch, dass jeder in diesem Bereich vor der Herausforderung steht, ehrlich sein zu müssen. Diese Technologie ist so aufregend, dass es schwer ist, wach zu bleiben, ohne es zu übertreiben. Was wir veröffentlichen, ist ein KI-Bot für Demozwecke, der noch keinen echten Mehrwert bietet. Es bleibt also noch viel zu tun, um zu verstehen, wie viel echter Mehrwert hier geboten wird. Wir werden mehr darüber erfahren und hoffen, es eher früher als später veröffentlichen zu können und zu sehen, was unsere Kunden denken. Das Kundenfeedback, das wir erhalten haben, hat meine Erwartungen übertroffen. Es gibt einige Funktionen wie Zusammenfassungen, die eindeutig wertvoll sind, und es gibt andere wie die Möglichkeit, Texte umzuformulieren oder benutzerfreundlicher zu gestalten, oder eine andere Funktion, die wir anbieten. Eine Funktion ist die Fähigkeit eine gekürzte Version einer Nachricht zu schreiben und sie zu erweitern, und das Kundenfeedback zu diesen Funktionen war gut. Haben Sie keine konkreten Daten, die beweisen, dass dies die Kundendienstmitarbeiter effizienter macht? Reid: Realistisch gesehen müssen wir unsere Telemetrie in ein oder zwei Monaten verstehen und feststellen, ob sie jedes Mal funktioniert. Wir müssen überprüfen, ob in diesem Bereich meiner Meinung nach immer noch Killer-Apps entwickelt werden.
Wir hatten eine tolle Demo mit ChatGPT und sie erregte die Aufmerksamkeit aller. Aber es gibt Unternehmen wie Intercom, die herausfinden, wie sie es von einem Spielzeug zu etwas mit echtem Geschäftswert machen können. Sogar bei Intercom sagen wir: „Wir haben diese Funktionen eingeführt, sie sind cool und sie scheinen wertvoll zu sein, aber sie sind nicht bahnbrechend genug. Ich denke, das wird die nächste Technologiewelle sein, die wir entwickeln.“ , und der Entwicklungszyklus ist länger. Nichts davon ist so einfach wie eine schnelle Integration. Wir müssen sehr tief in das Problem des Benutzers und all die verschiedenen Aspekte eindringen und herausfinden, wo es scheitert. Viele unserer Konkurrenten und Branchenakteure lösen die gleichen Probleme und entwickeln noch wertvollere Funktionen.
Wir hatten einen sehr schnellen Entwicklungszyklus und haben den Chatbot sehr schnell gestartet und großartiges Feedback von unseren Kunden erhalten, das uns bei der Entscheidung geholfen hat, wohin wir als nächstes gehen sollen. Das ist meine Realität für den, in dem wir uns jetzt befinden.
Es gibt derzeit einen großen Hype um ChatGPT. Wie gehen Sie damit um, wenn Sie versuchen, die Erwartungen der Kunden an Ihr Produkt zu senken?
Reid: Unsere eigentliche Strategie besteht darin, so ehrlich wie möglich mit unseren Erwartungen umzugehen. Wir glauben, dass wir uns durch Ehrlichkeit von der Hype-Welle abheben können.
Wie bringen Sie Kunden dazu, Ihren neuen ChatGPT-Bot zu verwenden?
Wenn wir neue Software entwickeln, senden wir ihnen eine Nachricht, um Leute für die Betaversion zu rekrutieren. Unser Projektmanager begann mit der Werbung für die Veranstaltung und das war alles, was wir taten. Wir haben Mitte Januar Hunderte Kunden zum Testen eingeladen. Nachdem Kunden beigetreten sind, nutzen sie die API zur Datenverarbeitung und wir öffnen diese Funktionen für sie.
Dann schauen wir uns am nächsten Tag die Telemetrie an, um zu sehen, wo Kunden sie nutzen. Funktioniert es bei ihnen? Und dann führen wir normalerweise Tests bei Intercom durch, wir kontaktieren sie, sagte er , „Können wir Ihr Feedback dazu bekommen? Wir würden gerne Ihre Angebote erfahren.“ Einige Kunden haben uns innerhalb weniger Wochen echte Angebote gemacht, die wir später auf dem Blog veröffentlicht haben.
Wir wollen uns von dem ganzen Hype abheben. Viele Startups verwenden normalerweise die Gestalt von ChapGPT und erstellen einfach eine Landingpage. Und wir haben tatsächlich Produkte wie ChapGPT und veröffentlichen echte Kundenzitate auf unserer Website, und das ist wirklich echt.
Das obige ist der detaillierte Inhalt vonWas passiert, wenn das Kundendienstunternehmen bestimmte Funktionen auf ChatGPT aktualisiert?. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!