チャットボットはさまざまな業界で不可欠なツールであり、ユーザーとの自動対話を提供します。今では、Chat GPT (またはその他の AI を利用したチャットボット) を少なくとも一度は試したことがない人は世界中にいません。 OpenAI の GPT モデルと LangChain ライブラリを使用すると、セッションを処理し、ストリーミング応答システムを通じてユーザー メッセージを処理するチャットボットを構築できます。後の投稿で API と通信し、特定のことに特化したエージェントを作成します。
ここで取り上げる内容は次のとおりです:
まず、いくつかの重要な依存関係が必要です。
最初に行うことは、新しいプロジェクトを初期化し、使用する必要なモジュールをインストールすることです。
npm init -Y npm install express langchain openai uuid class-validator class-transformer mutex
まず、2 つの主要なルートを定義します。
最初のルートは新しいチャット セッションを作成し、2 番目のルートは既存のセッションにメッセージを送信します。
router.post('/session', APIKeyMiddleware, createSession); router.post('/session/:id/message', APIKeyMiddleware, postMessage);
APIKeyMiddleware は、認証されたリクエストのみがこれらのルートにアクセスすることを保証します。ニーズに合ったミドルウェアを実装できることに注意してください。
チャット エージェントを処理するための AgentManager クラスを作成します。このクラスは、新しいエージェントの作成とアクティブなセッションの管理を担当するため、このクラスがチャットを担当するエージェントを処理する API のメイン エントリポイントとして想像してください。最初のユーザーはセッションを作成する必要があり、その後、そのセッションがチャットに使用されます。
export class AgentManager { private __lock = new Mutex(); private __agents: Map<string, AgentInstance> = new Map(); async createAgent(authorization: string): Promise<string> { const uuid = uuidv4(); const release = await this.__lock.acquire(); try { this.__deleteExpiredAgentsLockless(); let agent: ChatAgent | null = agent = new GeneralChatAgent(authorization); this.__agents.set(uuid, { agent, createdAt: Date.now() }); return uuid; } finally { release(); } } async getAgent(uuid: string): Promise<ChatAgent | null> { const release = await this.__lock.acquire(); try { this.__deleteExpiredAgentsLockless(); const agentInstance = this.__agents.get(uuid); return agentInstance ? agentInstance.agent : null; } finally { release(); } } private __deleteExpiredAgentsLockless(): void {} }
次に、一般的なチャット エージェントを作成する必要があります。これは、たとえば認証やその他の必要なパラメーターを取得し、API と通信できるようになりますが、今のところは既存の ChatAgent を拡張します。このステップではこれ以上何もする必要はありません。
export class GeneralChatAgent extends ChatAgent { constructor() { super(); } }
createAgent メソッドは、エージェントを初期化し、プロセスをロックし、一意のセッション ID に割り当てます。エージェントは指定されたセッション期間が経過すると期限切れになります。これは __deleteExpiredAgentsLockless メソッドによって処理されますが、次の反復で実装しますので、今のところは回避できます。
次に、セッションの作成とメッセージ処理のルートを定義しましょう:
export const createSession = async (req: Request, res: Response): Promise<void> => { const authorization = req.headers['authorization'] as string; try { const sessionId = await agentManager.createAgent(authorization, AgentType.WEB); res.json({ sessionId }); } catch (err) { if (err instanceof Error) { res.status(400).json({ error: err.message }); } else { res.status(500).json({ error: 'An unknown error occurred' }); } } } export const postMessage = async (req: Request, res: Response): Promise<void> => { const { id } = req.params; const { message } = req.body; if (!id || !message) { return res.status(400).json({ error: 'Bad request. Missing session ID or message' }); } try { const agent = await agentManager.getAgent(id); if (!agent) { return res.status(400).json({ error: `No agent found with id ${id}` }); } const iterable = await agent.invoke(message); await streamResponse(res, iterable); } catch (err) { res.status(500).json({ error: err instanceof Error ? err.message : 'An unknown error occurred' }); } }
ここで、createSession は新しいセッションを設定し、postMessage はユーザーのメッセージをエージェントに送信します。セッションまたはメッセージが提供されていない場合は、400 Bad Request エラーが返されます。
ストリーミング応答
次に、チャット ボットの応答性とインタラクティブ性を高めるための鍵となるのは、応答のストリーミングです。
async invoke(input: string): Promise<AsyncIterable<Chunk>> { const release = await this.__lock.acquire(); try { const tool = this.determineTool(input); if (tool) { const toolOutput = await tool.call(input); this.callbackQueue.enqueue({ type: ChunkType.TOKEN, value: toolOutput }); this.callbackQueue.enqueue({ type: ChunkType.FINISH, value: '' }); } else { await this.chat.invoke([new HumanMessage(input)], { callbacks: [ { handleLLMNewToken: (token: string) => { this.callbackQueue.enqueue({ type: ChunkType.TOKEN, value: token }); }, handleLLMEnd: () => { this.callbackQueue.enqueue({ type: ChunkType.FINISH, value: '' }); }, handleLLMError: (error: Error) => { this.callbackQueue.enqueue({ type: ChunkType.ERROR, value: error.message }); } } ] }); } return this.createAsyncIterable(this.callbackQueue); } finally { release(); } } private createAsyncIterable(callbackQueue: AgentCallbackQueue): AsyncIterable<Chunk> { return { [Symbol.asyncIterator]: async function* () { let finished = false; while (!finished) { const chunk = await callbackQueue.dequeue(); if (chunk) { yield chunk; if (chunk.type === ChunkType.FINISH || chunk.type === ChunkType.ERROR) { finished = true; } } else { await new Promise(resolve => setTimeout(resolve, 100)); } } } }; }
invoke メソッドでは、エージェントがユーザーの入力を処理し、応答をチャンクでストリームバックします。各チャンクは、モデルからのトークン、またはストリームの終わりを示すメッセージのいずれかです。
createAsyncIterable メソッドを使用すると、これらのチャンクを 1 つずつ生成し、クライアントにストリーミングして戻すことができます。
最終的には、受信した応答をクライアントにストリーミングしたいのですが、完了するまでしばらく待って応答全体を返すのは望ましくありません。より良い解決策は、応答をチャンクに分けてストリーミングすることです。
const delay = (ms: number): Promise<void> => new Promise(resolve => setTimeout(resolve, ms)); export async function streamResponse(res: Response, iterable: AsyncIterable<Chunk>) { res.setHeader('Content-Type', 'application/x-ndjson'); res.setHeader('Transfer-Encoding', 'chunked'); try { let buffer = ''; for await (const chunk of iterable) { switch (chunk.type) { case ChunkType.TOKEN: buffer += chunk.value; res.write(buffer); if (res.flush) res.flush(); buffer = ''; break; case ChunkType.ERROR: console.error('Error chunk:', chunk.value); if (!res.headersSent) { res.status(500).json({ error: 'Streaming failed.' }); } return; case ChunkType.FINISH: if (buffer.trim()) { res.write(`${buffer.trim()}\n`); } return; } } } catch (err) { console.error('Error during streaming:', err); if (!res.headersSent) { res.status(500).json({ error: 'Streaming failed.' }); } } finally { res.end(); } }
おめでとうございます!これで、チャット セッションを処理し、応答をクライアントにストリーミングする基本的なチャットボットが完成しました。このアーキテクチャは、追加ツール、より洗練されたロジック、またはさまざまな GPT モデルを使用して簡単に拡張できますが、今のところ、より複雑なチャットボット用のスケルトンが用意されています。
OpenAI の強力な言語モデルと LangChain のツール管理を使用することで、さまざまなドメイン向けに、より高度でインタラクティブなチャットボットを作成できます。チャットボットの機能を拡張して、希望する方法で作成できますが、一方で、そうする必要はありません。 Langchain を使用するか、OpenAI を使用して、よりシンプルなチャット ボットを作成することもできます。
続報をお楽しみに。次の投稿では、私たちが作成したチャット エージェントのツールの構築について説明します
コーディングを楽しんでください!
お気軽に元の投稿をチェックしてください
以上がOpenAI と LangChain を使用して強力なチャットボットを構築するの詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。