Heim > Backend-Entwicklung > Python-Tutorial > Erstellen eines einfachen Chatbots mit LlamaChat mit Excel]

Erstellen eines einfachen Chatbots mit LlamaChat mit Excel]

Linda Hamilton
Freigeben: 2024-11-29 20:31:14
Original
482 Leute haben es durchsucht

In diesem Beitrag erkläre ich, wie ich mithilfe des Llama2-Modells einen Chatbot erstellt habe, um Excel-Daten intelligent abzufragen.

Building a Simple Chatbot with LlamaChat with Excel]

Was wir bauen

  1. Lädt eine Excel-Datei.
  2. Teilt die Daten in überschaubare Blöcke auf.
  3. Speichert die Daten zum schnellen Abrufen in einer Vektordatenbank.
  4. Verwenden Sie ein lokales Llama2-Modell, um Fragen basierend auf dem zu beantworten Inhalt der Excel-Datei.

Voraussetzungen:

Python (≥ 3.8)
Bibliotheken: Langchain, Pandas, unstrukturiert, Chroma

Schritt 1: Abhängigkeiten installieren

%pip install -q unstructured langchain
%pip install -q "unstructured[all-docs]"
Nach dem Login kopieren

Schritt 2: Laden Sie die Excel-Datei

import pandas as pd

excel_path = "Book2.xlsx"
if excel_path:
    df = pd.read_excel(excel_path)
    data = df.to_string(index=False)
else:
    print("Upload an Excel file")

Nach dem Login kopieren

Schritt 3: Teilen Sie die Daten auf und speichern Sie sie in einer Vector-Datenbank

Große Textdaten werden zur effektiven Einbettung und Abfrage in kleinere, überlappende Blöcke aufgeteilt. Diese Chunks werden in einer Chroma-Vektordatenbank gespeichert.

from langchain_text_splitters import RecursiveCharacterTextSplitter
from langchain_community.embeddings import OllamaEmbeddings
from langchain_community.vectorstores import Chroma

text_splitter = RecursiveCharacterTextSplitter(chunk_size=7500, chunk_overlap=100)
chunks = text_splitter.split_text(data)

embedding_model = OllamaEmbeddings(model="nomic-embed-text", show_progress=False)
vector_db = Chroma.from_texts(
    texts=chunks, 
    embedding=embedding_model,
    collection_name="local-rag"
)

Nach dem Login kopieren

Schritt 4: Initialisieren Sie das Llama2-Modell

Wir verwenden ChatOllama, um das Llama2-Modell lokal zu laden.

from langchain_community.chat_models import ChatOllama

local_model = "llama2"
llm = ChatOllama(model=local_model)

Nach dem Login kopieren

Schritt 5: Erstellen Sie eine Abfrage-Eingabeaufforderung

Der Chatbot antwortet basierend auf bestimmten Spaltennamen aus der Excel-Datei. Wir erstellen eine Eingabeaufforderungsvorlage als Orientierung für das Modell

from langchain.prompts import PromptTemplate

QUERY_PROMPT = PromptTemplate(
    input_variables=["question"],
    template="""You are an AI assistant. Answer the user's questions based on the column names: 
    Id, order_id, name, sales, refund, and status. Original question: {question}"""
)
Nach dem Login kopieren

Schritt 6: Richten Sie den Retriever ein

Wir konfigurieren einen Retriever, um relevante Blöcke aus der Vektordatenbank abzurufen, die vom Llama2-Modell zur Beantwortung von Fragen verwendet werden.

from langchain.retrievers.multi_query import MultiQueryRetriever

retriever = MultiQueryRetriever.from_llm(
    vector_db.as_retriever(), 
    llm,
    prompt=QUERY_PROMPT
)

Nach dem Login kopieren

Schritt 7: Erstellen Sie die Reaktionskette

Die Reaktionskette umfasst:

  1. Ein Retriever zum Abrufen von Kontext.
  2. Eine Aufforderung zum Formatieren der Frage und des Kontexts.
  3. Das Llama2-Modell zur Generierung von Antworten.
  4. Ein Ausgabeparser zum Formatieren der Antwort.
from langchain.prompts import ChatPromptTemplate
from langchain_core.runnables import RunnablePassthrough
from langchain_core.output_parsers import StrOutputParser

template = """Answer the question based ONLY on the following context:
{context}
Question: {question}
"""

prompt = ChatPromptTemplate.from_template(template)

chain = (
    {"context": retriever, "question": RunnablePassthrough()}
    | prompt
    | llm
    | StrOutputParser()
)

Nach dem Login kopieren

Schritt 8: Stellen Sie eine Frage

Jetzt sind wir bereit, eine Frage zu stellen! So rufen wir die Kette auf, um eine Antwort zu erhalten:

raw_result = chain.invoke("How many rows are there?")
final_result = f"{raw_result}\n\nIf you have more questions, feel free to ask!"
print(final_result)

Nach dem Login kopieren

Beispielausgabe

Als ich den obigen Code in einer Excel-Beispieldatei ausgeführt habe, habe ich Folgendes erhalten:

Based on the provided context, there are 10 rows in the table.
If you have more questions, feel free to ask!

Nach dem Login kopieren

Abschluss:

Dieser Ansatz nutzt die Leistungsfähigkeit von Einbettungen und dem Llama2-Modell, um einen intelligenten, interaktiven Chatbot für Excel-Daten zu erstellen. Mit einigen Optimierungen können Sie dies auf die Arbeit mit anderen Dokumenttypen erweitern oder es in eine vollwertige App integrieren!

Sehen Sie sich ein Arbeitsbeispiel mit der Benutzeroberfläche auf meinem LinkedIn an:

Wir stellen vor: BChat Excel: Ein konversationsbasiertes KI-gestütztes Tool für Excel-Dateiinteraktionen

Das obige ist der detaillierte Inhalt vonErstellen eines einfachen Chatbots mit LlamaChat mit Excel]. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!

Quelle:dev.to
Erklärung dieser Website
Der Inhalt dieses Artikels wird freiwillig von Internetnutzern beigesteuert und das Urheberrecht liegt beim ursprünglichen Autor. Diese Website übernimmt keine entsprechende rechtliche Verantwortung. Wenn Sie Inhalte finden, bei denen der Verdacht eines Plagiats oder einer Rechtsverletzung besteht, wenden Sie sich bitte an admin@php.cn
Neueste Artikel des Autors
Beliebte Tutorials
Mehr>
Neueste Downloads
Mehr>
Web-Effekte
Quellcode der Website
Website-Materialien
Frontend-Vorlage