Heim > Technologie-Peripheriegeräte > KI > Gleichzeitiger Abfrageauflösungssystem mit Crewai

Gleichzeitiger Abfrageauflösungssystem mit Crewai

Jennifer Aniston
Freigeben: 2025-03-03 19:00:14
Original
988 Leute haben es durchsucht

In der Ära der künstlichen Intelligenz suchen Unternehmen ständig nach innovativen Möglichkeiten zur Verbesserung der Kundenunterstützungsdienste. Ein solcher Ansatz ist die Nutzung von KI -Agenten, die gemeinsam dazu arbeiten, Kundenanfragen effizient zu lösen. In diesem Artikel wird die Implementierung eines gleichzeitigen Abfrageauflösungssystems mithilfe von Crewai, OpenAIs GPT -Modellen und Google Gemini untersucht. In diesem System werden mehrere spezialisierte Agenten verwendet, die parallel arbeiten, um Kundenabfragen nahtlos zu bearbeiten, um die Reaktionszeit zu verkürzen und die Genauigkeit zu verbessern.

Lernziele

  • Verstehen Sie, wie KI -Agenten Kundenabfragen effizient umgehen können, indem sie Antworten automatisieren und wichtige Informationen zusammenfassen.
  • Erfahren Sie, wie Crewai die Zusammenarbeit mit mehreren Agenten ermöglicht, um die Workflows der Kundenunterstützung zu verbessern.
  • Erforschen Sie verschiedene Arten von AI -Agenten wie Abfrageberichte und Zusammenfassungen sowie deren Rollen in der Kundendienstautomatisierung.
  • Implementieren Sie die gleichzeitige Abfrageverarbeitung mithilfe von Pythons Asyncio, um die Reaktionseffizienz zu verbessern.
  • Optimieren Sie Kundenunterstützungssysteme, indem Sie die KI-gesteuerte Automatisierung für eine verbesserte Genauigkeit und Skalierbarkeit integrieren.

Dieser Artikel wurde als Teil des Data Science -Blogathon veröffentlicht.

Inhaltsverzeichnis

    Wie arbeiten AI -Agenten zusammen? Agenten
  • Schritt 5: Definieren von Aufgaben
    • Schritt 6: Ausführen einer Abfrage mit AI -Agenten
    • Schritt 7: Mehrfachfragen können gleichzeitig abfragen. Notebook/Google Colab
    • Schritt 11: Ausführung von Abfragen und Druckergebnissen
    • Vorteile des gleichzeitigen Abfrageauflösungssystems
    • Anwendungen von gleichzeitig gefragtem Fragen zur Auflösung von Abfragen

, ausführen. Wie AI -Agenten zusammenarbeiten? Das System zur gleichzeitigen Abfrageauflösung verwendet ein Multi-Agent-Framework, wodurch jedem Agent eine bestimmte Rolle zugewiesen wird. Das System nutzt Crewai, einen Framework, mit dem AI -Agenten effektiv zusammenarbeiten können. Die Hauptkomponenten des Systems umfassen:
  • Abfrageauflösungsagent: Verantwortlich für das Verständnis von Kundenabfragen und Bereitstellung genauer Antworten.
  • Zusammenfassender Agent: fasst den Auflösungsprozess für schnelle Überprüfung und zukünftige Referenz zusammen.
  • llms (Großsprachenmodelle): enthält Modelle wie GPT-4O und Gemini, jeweils unterschiedliche Konfigurationen, um Geschwindigkeit und Genauigkeit auszugleichen.
  • Aufgabenverwaltung: Aufgaben dynamisch den Agenten zuweisen, um eine gleichzeitige Abfrageverarbeitung zu gewährleisten.

Implementierung des Systems zur gleichzeitigen Abfrageauflösung

Um den AI -Agenten -Framework von Konzept in die Realität zu verwandeln, ist ein strukturierter Implementierungsansatz unerlässlich. Im Folgenden skizzieren wir die wichtigsten Schritte zum Einrichten und Integrieren von KI -Agenten für eine effektive Abfrageauflösung.

Schritt 1: Festlegen der API -Taste

Die OpenAI -API -Schlüssel wird als Umgebungsvariable unter Verwendung des Betriebssystemmoduls gespeichert. Dies ermöglicht es dem System, API -Anfragen sicher ohne harten sensible Anmeldeinformationen zu authentifizieren.

import os 

# Set the API key as an environment variable
os.environ["OPENAI_API_KEY"] = ""
Nach dem Login kopieren
Nach dem Login kopieren
Nach dem Login kopieren
Nach dem Login kopieren

Das System verwendet das Betriebssystemmodul, um mit dem Betriebssystem zu interagieren.

Das System legt den OpenAI_API_KEY als Umgebungsvariable fest, sodass es die Anforderungen an die OpenAI -API authentifizieren kann.

Schritt 2: Importieren der erforderlichen Bibliotheken

notwendige Bibliotheken werden importiert, einschließlich Asyncio zum Umgang mit asynchronen Operationen und Crewai -Komponenten wie Agent, Crew, Aufgabe und LLM. Diese sind wichtig für die Definition und Verwaltung von AI -Agenten.

import asyncio
from crewai import Agent, Crew, Task, LLM, Process
import google.generativeai as genai
Nach dem Login kopieren
Nach dem Login kopieren
Nach dem Login kopieren
Nach dem Login kopieren
  • asyncio: Python integriertes Modul für asynchrone Programmierungen, die eine gleichzeitige Ausführung ermöglichen.
  • Agent: repräsentiert einen KI -Arbeiter mit spezifischen Verantwortlichkeiten.
  • Crew: verwaltet mehrere Agenten und ihre Interaktionen.
  • Aufgabe: definiert, was jeder Agent tun soll.
  • llm: Gibt das verwendete Großsprachmodell an.
  • Prozess: Es definiert, wie Aufgaben ausgeführt werden, ob nacheinander oder parallel.
  • Google.generATiveAI: Bibliothek für die Arbeit mit den generativen KI -Modellen von Google (nicht in diesem Snippet verwendet, aber wahrscheinlich für die zukünftige Expansion enthalten).

Schritt 3: Initialisierung von LLMs

initialisieren

Drei verschiedene LLM-Instanzen (GPT-4O und GPT-4) werden mit unterschiedlichen Temperatureinstellungen initialisiert. Die Temperatur steuert die Reaktion Kreativität und gewährleistet ein Gleichgewicht zwischen Genauigkeit und Flexibilität bei Antworten auf AI-generierte Antworten.

# Initialize the LLM with Gemini
llm_1 = LLM(
    model="gpt-4o",
    temperature=0.7)
llm_2 = LLM(
    model="gpt-4",
    temperature=0.2)
llm_3 = LLM(
    model="gpt-4o",
    temperature=0.3)
Nach dem Login kopieren
Nach dem Login kopieren
Nach dem Login kopieren
Nach dem Login kopieren

Das System erstellt drei LLM -Instanzen mit jeweils eine andere Konfiguration.

Parameter:

  • Modell: Gibt an, welches OpenAI-Modell verwendet wird (GPT-4O oder GPT-4).
  • Temperatur: steuert die Zufälligkeit in Antworten (0 = deterministisch, 1 = kreativer).

Diese verschiedenen Modelle und Temperaturen helfen, Genauigkeit und Kreativität auszugleichen

Schritt 4: Definieren von AI -Agenten

Jeder Agent hat eine spezifische Rolle und vordefinierte Ziele. Es werden zwei AI -Agenten erstellt:

  • Abfrage Resolver : Umgang mit Kundenanfragen und liefert detaillierte Antworten.
  • Zusammenfassender Generator : Fasst die Auflösungen als schnelle Referenz zusammen.
  • Abfrageauflösungsagent

Lassen Sie uns sehen, was in diesem Codeblock passiert
import os 

# Set the API key as an environment variable
os.environ["OPENAI_API_KEY"] = ""
Nach dem Login kopieren
Nach dem Login kopieren
Nach dem Login kopieren
Nach dem Login kopieren

    Erstellung von Agenten:
  • Die query_resolution_agent ist ein AIS-Assistent von AI, der für die Lösung von Kundenanfragen verantwortlich ist.
  • Modellauswahl:
  • Es wird LLM_1 verwendet, das als GPT-4O mit einer Temperatur von 0,7 konfiguriert ist. Diese Balance ermöglicht kreative und dennoch genaue Antworten.
  • Rolle:
  • Das System bezeichnet den Agenten als Abfrage -Resolver.
  • Hintergrundgeschichte:
  • Der Entwicklerprogramm Der Agent, der als professioneller Kundendienstassistent fungiert und effiziente und professionelle Antworten sicherstellt.
  • Ziel:
  • , um Benutzeranfragen genaue Lösungen bereitzustellen.
  • ausführlicher Modus:
  • wörtlich = true sorgt detaillierte Protokolle und hilft Entwicklern, ihre Leistung zu debugieren und zu verfolgen.
  • Zusammenfassungsagent

Was passiert hier?
import asyncio
from crewai import Agent, Crew, Task, LLM, Process
import google.generativeai as genai
Nach dem Login kopieren
Nach dem Login kopieren
Nach dem Login kopieren
Nach dem Login kopieren

    Agentenerstellung:
  • Die SUMBARY_AGENT ist so konzipiert, dass Abfrageauflösungen zusammengefasst sind.
  • Modellauswahl:
  • verwendet LLM_2 (GPT-4) mit einer Temperatur von 0,2, wodurch seine Antworten deterministischer und präziser werden.
  • Rolle:
  • Dieser Agent fungiert als Zusammenfassungsgenerator.
  • Hintergrundgeschichte:
  • Es fasst die Abfrageauflösungen zur schnellen Referenz zusammen.
  • Ziel:
  • Es bietet eine klare und präzise Zusammenfassung der Lösung von Kundenabfragen.
  • ausführlicher Modus:
  • wörtlich = true stellt sicher, dass bei Bedarf Debugging -Informationen verfügbar sind.
  • Schritt 5: Aufgaben definieren

Das System weist Aufgaben dynamisch zu, um eine parallele Abfrageverarbeitung zu gewährleisten.

Dieser Abschnitt definiert Aufgaben, die AI -Agenten im System zur gleichzeitigen Abfrageauflösung zugewiesen wurden.

Was passiert hier?
# Initialize the LLM with Gemini
llm_1 = LLM(
    model="gpt-4o",
    temperature=0.7)
llm_2 = LLM(
    model="gpt-4",
    temperature=0.2)
llm_3 = LLM(
    model="gpt-4o",
    temperature=0.3)
Nach dem Login kopieren
Nach dem Login kopieren
Nach dem Login kopieren
Nach dem Login kopieren

Aufgaben definieren:

  • Auflösung_Task: Diese Aufgabe weist den Abfrage -Resolver -Agenten an, Kundenabfragen zu analysieren und zu beheben.
  • summary_task: Diese Aufgabe weist den Zusammenfassungsagenten an, eine kurze Zusammenfassung des Auflösungsprozesses zu generieren.

Dynamische Abfragehandhabung:

  • Das System ersetzt {Abfrage} durch eine tatsächliche Kundenabfrage bei der Ausführung der Aufgabe.
  • ermöglicht es dem System, alle Kundenabfragen dynamisch zu bearbeiten.

Erwartete Ausgabe:

  • Die Auflösung_Task erwartet eine detaillierte Antwort auf die Abfrage.
  • Die summary_task erzeugt eine kurze Zusammenfassung der Abfrageauflösung.

Agentenzuweisung:

  • Der query_resolution_agent wird zugewiesen, um Auflösungsaufgaben zu behandeln.
  • Die summary_agent wird zugewiesen, um Summarierungsaufgaben zu behandeln.

Warum dies zählt

  • Aufgabenspezialisierung: Jeder AI -Agent hat einen bestimmten Auftrag, der Effizienz und Klarheit sicherstellt.
  • Skalierbarkeit: Sie können weitere Aufgaben und Agenten hinzufügen, um verschiedene Arten von Interaktionen für Kundenunterstützung zu verarbeiten.
  • Parallele Verarbeitung: Aufgaben können gleichzeitig ausgeführt werden, wodurch die Wartezeiten der Kunden reduziert werden.

Schritt 6: Ausführen einer Abfrage mit AI -Agenten

Eine asynchrone Funktion wird erstellt, um eine Abfrage zu verarbeiten. Die Besatzungsklasse organisiert Agenten und Aufgaben, um sie nacheinander auszuführen, um eine ordnungsgemäße Abfrageauflösung und -produktion sicherzustellen.

import os 

# Set the API key as an environment variable
os.environ["OPENAI_API_KEY"] = ""
Nach dem Login kopieren
Nach dem Login kopieren
Nach dem Login kopieren
Nach dem Login kopieren

Diese Funktion definiert einen asynchronen Prozess zur Ausführung einer Abfrage. Es schafft eine Crew -Instanz, einschließlich:

  • Agenten: Die am Prozess beteiligten AI -Agenten (Abfrage -Resolver und Zusammenfassungsgenerator).
  • Aufgaben: Aufgaben zugewiesen den Agenten (Abfrageauflösung und Zusammenfassung).
  • process = prozess.SECSIENTION: stellt sicher, dass die Aufgaben nacheinander ausgeführt werden.
  • verbose = true: Ermöglicht eine detaillierte Protokollierung für eine bessere Verfolgung.

Die Funktion verwendet erwartet, um die AI -Agenten asynchron auszuführen und das Ergebnis zurückzugeben.

Schritt 7: Umgang mit mehreren Abfragen gleichzeitig

Verwenden von asyncio.gather () können mehrere Abfragen gleichzeitig bearbeitet werden. Dies verkürzt die Reaktionszeit, indem AI -Agenten parallel mit unterschiedlichen Kundenproblemen umgehen können.

import asyncio
from crewai import Agent, Crew, Task, LLM, Process
import google.generativeai as genai
Nach dem Login kopieren
Nach dem Login kopieren
Nach dem Login kopieren
Nach dem Login kopieren

Diese Funktion führt zwei Abfragen gleichzeitig aus. Asyncio.gather () verarbeitet beide Abfragen gleichzeitig und verkürzt die Reaktionszeit erheblich. Die Funktion gibt die Ergebnisse beider Abfragen zurück, sobald die Ausführung vollständig ist

Schritt 8: Beispielabfragen

definieren

Entwickler definieren Beispielanfragen zum Testen des Systems und deckt häufig kundenspezifische Probleme wie Anmeldefehler und Zahlungsverarbeitungsfehler ab.

# Initialize the LLM with Gemini
llm_1 = LLM(
    model="gpt-4o",
    temperature=0.7)
llm_2 = LLM(
    model="gpt-4",
    temperature=0.2)
llm_3 = LLM(
    model="gpt-4o",
    temperature=0.3)
Nach dem Login kopieren
Nach dem Login kopieren
Nach dem Login kopieren
Nach dem Login kopieren

Dies sind Stichprobenanfragen zum Testen des Systems.

Abfrage 1 befasst sich mit Anmeldeproblemen, während Abfrage 2 sich auf Zahlungsgateway -Fehler bezieht.

Schritt 9: Einrichten der Ereignisschleife

Das System initialisiert eine Ereignisschleife, um asynchrone Operationen zu verarbeiten. Wenn es keine vorhandene Schleife findet, wird eine neue zur Verwaltung der KI -Aufgabenausführung erstellt.

import os 

# Set the API key as an environment variable
os.environ["OPENAI_API_KEY"] = ""
Nach dem Login kopieren
Nach dem Login kopieren
Nach dem Login kopieren
Nach dem Login kopieren

Dieser Abschnitt stellt sicher, dass eine Ereignisschleife zur Ausführung asynchroner Aufgaben verfügbar ist.

Wenn das System keine Ereignisschleife erkennt (RunTimeError), erstellt es eine neue und setzt es als aktive Schleife.

Schritt 10: Ereignisschleifen in Jupyter Notebook/Google Colab

Da Jupyter und Colab bereits vorhandene Ereignisschleifen haben, wird nest_asyncio.apply () verwendet, um Konflikte zu verhindern, um eine reibungslose Ausführung asynchroner Abfragen zu verhindern.

import asyncio
from crewai import Agent, Crew, Task, LLM, Process
import google.generativeai as genai
Nach dem Login kopieren
Nach dem Login kopieren
Nach dem Login kopieren
Nach dem Login kopieren

Jupyter-Notizbücher und Google Colab haben bereits vorhandene Ereignisschleifen, was bei der Ausführung asynchronischer Funktionen Fehler verursachen kann.

nest_asyncio.apply () erlaubt verschachtelte Ereignisschleifen, die Kompatibilitätsprobleme lösen.

Schritt 11: Ausführen von Abfragen und Druckergebnissen

In der Ereignisschleife wird handle_two_queries () ausgeführt, um Abfragen gleichzeitig zu verarbeiten. Das System druckt die endgültigen Antworten auf AI-generierte und zeigt Abfrageauflösungen und Zusammenfassungen an.

# Initialize the LLM with Gemini
llm_1 = LLM(
    model="gpt-4o",
    temperature=0.7)
llm_2 = LLM(
    model="gpt-4",
    temperature=0.2)
llm_3 = LLM(
    model="gpt-4o",
    temperature=0.3)
Nach dem Login kopieren
Nach dem Login kopieren
Nach dem Login kopieren
Nach dem Login kopieren

Loop.run_until_complete () startet die Ausführung von handle_two_queries (), die beide Abfragen gleichzeitig verarbeitet.

Das System druckt die Ergebnisse und zeigt die AI-generierten Auflösungen für jede Abfrage an.

Gleichzeitiger Abfrageauflösungssystem mit Crewai

Gleichzeitiger Abfrageauflösungssystem mit Crewai

Vorteile des gleichzeitigen Abfrageauflösungssystems

unten sehen wir, wie das System der gleichzeitigen Abfrageauflösung die Effizienz verbessert, indem mehrere Abfragen gleichzeitig verarbeitet werden, was zu schnelleren Reaktionszeiten und verbesserten Benutzererfahrungen führt.
  • schnellere Reaktionszeit:
  • Parallele Ausführung löst mehrere Abfragen gleichzeitig auf.
  • Verbesserte Genauigkeit:
  • Nutzung mehrerer LLMs sorgt für ein Gleichgewicht zwischen Kreativität und sachlicher Korrektheit.
  • Skalierbarkeit:
  • Das System kann ein hohes Volumen ohne menschliche Intervention verarbeiten.
  • Bessere Kundenerfahrung:
  • Automatisierte Zusammenfassungen bieten einen kurzen Überblick über Abfrageauflösungen.

Anwendungen des Systems zur gleichzeitigen Abfrageauflösung

Wir werden nun die verschiedenen Anwendungen des gleichzeitigen Abfrageauflösungssystems untersuchen, einschließlich der Kundendienstautomatisierung, der Echtzeit-Abfragebearbeitung in Chatbots und einer effizienten Bearbeitung großer Serviceanfragen.
  • Kundensupportautomatisierung : Ermöglicht AI-gesteuerte Chatbots, mehrere Kundenabfragen gleichzeitig zu beheben, wodurch die Antwortzeit verkürzt wird.
  • Echtzeit-Abfrageverarbeitung : Verbessert Live-Unterstützungssysteme durch Abwicklung zahlreicher Abfragen parallel, verbessert die Effizienz.
  • E-Commerce-Unterstützung : Stromlinienanfragen, Bestellverfolgung und Zahlungsausgabeauflösungen in Online-Einkaufsplattformen.
  • IT Helpdesk Management : Unterstützt IT -Service -Desks durch Diagnose und Lösung mehrerer technischer Probleme gleichzeitig.
  • Gesundheitswesen & Telemedizin : Hilft bei der Verwaltung von Patientenanfragen, Terminplanung und medizinischer Beratung gleichzeitig.

Schlussfolgerung

Das System zur gleichzeitigen Abfrageauflösung zeigt, wie die Kollaboration von AI-gesteuerten Multi-Agent-Zusammenarbeit den Kundensupport revolutionieren kann. Durch die Nutzung von Crewai, OpenAI -GPT -Modellen und Google Gemini können Unternehmen die Abfrage zur Handhabung der Abfrage automatisieren und die Effizienz und die Benutzerzufriedenheit verbessern. Dieser Ansatz ebnet den Weg für fortgeschrittenere KI-gesteuerte Service-Lösungen in der Zukunft.

Key Takeaways

  • AI -Agenten rationalisieren den Kundenbetreuung und reduzieren die Reaktionszeiten.
  • Crewai ermöglicht es spezialisierte Agenten, effektiv zusammenzuarbeiten.
  • Verwenden von Asyncio werden mehrere Abfragen gleichzeitig behandelt.
  • verschiedene LLM -Konfigurationen Gleichgewicht und Kreativität.
  • Das System kann ohne menschliche Intervention hohe Abfragevolumina verwalten.
  • Automatisierte Zusammenfassungen bieten schnelle, klare Abfrageauflösungen.

häufig gestellte Fragen

Q1. Was ist Crewai?

a. Crewai ist ein Rahmen, mit dem mehrere KI -Agenten gemeinsam an komplexen Aufgaben arbeiten können. Es ermöglicht die Aufgabenverwaltung, die Rollenspezialisierung und die nahtlose Koordination zwischen Agenten.

Q2. Wie funktioniert Crewai?

a. Crewai definiert Agenten mit spezifischen Rollen, weist Aufgaben dynamisch zu und verarbeitet sie entweder nacheinander oder gleichzeitig. Es nutzt AI -Modelle wie OpenAIs GPT und Google Gemini, um Aufgaben effizient auszuführen.

Q3. Wie handelt es sich bei Crewai um mehrere Abfragen gleichzeitig?

a. Crewai verwendet Pythons asyncio.gather (), um mehrere Aufgaben gleichzeitig auszuführen, um eine schnellere Abfrageauflösung ohne Leistungs Engpässe zu gewährleisten.

Q4. Kann sich Crewai in verschiedene LLMs integrieren?

a. Ja, Crewai unterstützt verschiedene große Sprachmodelle (LLMs), darunter OpenAIs GPT-4, GPT-4O und Googles Gemini, mit der Benutzer basierend auf Geschwindigkeits- und Genauigkeitsanforderungen auswählen können.

Q5. Wie sorgt Crewai für die Genauigkeit von Aufgaben?

a. Durch die Verwendung verschiedener KI -Modelle mit unterschiedlichen Temperatureinstellungen gleicht Crewai Kreativität und sachliche Korrektheit aus, um zuverlässige Antworten zu gewährleisten.

Die in diesem Artikel gezeigten Medien sind nicht im Besitz von Analytics Vidhya und wird nach Ermessen des Autors verwendet.

Das obige ist der detaillierte Inhalt vonGleichzeitiger Abfrageauflösungssystem mit Crewai. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!

Erklärung dieser Website
Der Inhalt dieses Artikels wird freiwillig von Internetnutzern beigesteuert und das Urheberrecht liegt beim ursprünglichen Autor. Diese Website übernimmt keine entsprechende rechtliche Verantwortung. Wenn Sie Inhalte finden, bei denen der Verdacht eines Plagiats oder einer Rechtsverletzung besteht, wenden Sie sich bitte an admin@php.cn
Neueste Artikel des Autors
Beliebte Tutorials
Mehr>
Neueste Downloads
Mehr>
Web-Effekte
Quellcode der Website
Website-Materialien
Frontend-Vorlage