首页 web前端 js教程 JavaScript中Langchain的完整指南

JavaScript中Langchain的完整指南

Feb 08, 2025 am 10:24 AM

LangChainJS:构建AI驱动的JavaScript语言模型和智能体的强大框架

A Complete Guide to LangChain in JavaScript

核心要点:

  • LangChainJS是一个功能强大的JavaScript框架,使开发人员能够构建和试验AI驱动的语言模型和智能体,并无缝集成到Web应用程序中。
  • 该框架允许创建能够利用各种工具和数据源来执行复杂语言任务(例如互联网搜索和数学计算)的智能体,从而提高响应的准确性和相关性。
  • LangChain支持各种模型,包括用于简单文本输出的语言模型、用于交互式对话的聊天模型以及用于将文本转换为数值向量的嵌入模型,从而促进各种NLP应用程序的开发。
  • 通过可定制的分块方法可以高效地管理和处理文本数据,确保在处理大型文本时获得最佳性能和上下文相关性。
  • 除了使用OpenAI模型外,LangChain还兼容其他大型语言模型(LLM)和AI服务,为探索在其项目中集成不同AI的开发人员提供灵活性和扩展功能。

本指南将深入探讨LangChain的关键组件,并演示如何在JavaScript中利用其强大功能。LangChainJS是一个通用的JavaScript框架,使开发人员和研究人员能够创建、试验和分析语言模型和智能体。它为自然语言处理(NLP)爱好者提供了丰富的功能,从构建自定义模型到高效地操作文本数据。作为一个JavaScript框架,它还允许开发人员轻松地将他们的AI应用程序集成到Web应用程序中。

前提条件:

要学习本文,请创建一个新文件夹并安装LangChain npm包:

npm install -S langchain

创建新文件夹后,使用.mjs后缀创建一个新的JS模块文件(例如test1.mjs)。

智能体 (Agents):

在LangChain中,智能体是一个能够理解和生成文本的实体。这些智能体可以配置特定的行为和数据源,并经过训练以执行各种与语言相关的任务,使其成为各种应用的多功能工具。

创建LangChain智能体:

智能体可以配置为使用“工具”来收集所需的数据并制定良好的响应。请看下面的示例。它使用Serp API(一个互联网搜索API)来搜索与问题或输入相关的信息,并以此来做出响应。它还使用llm-math工具执行数学运算——例如,转换单位或查找两个值之间的百分比变化:

npm install -S langchain

在使用modelName: "gpt-3.5-turbo"temperature: 0创建模型变量后,我们创建了执行器,它将创建的模型与指定的工具(SerpAPI和Calculator)结合起来。在输入中,我要求LLM搜索互联网(使用SerpAPI),并找出自2010年以来哪个艺术家发行了更多专辑——Nas还是Boldy James——并显示百分比差异(使用Calculator)。

在这个例子中,我必须明确地告诉LLM“通过搜索互联网……”,让它使用互联网获取直到今天的数据,而不是使用OpenAI默认的仅限于2021年的数据。

输出如下所示:

import { initializeAgentExecutorWithOptions } from "langchain/agents";
import { ChatOpenAI } from "langchain/chat_models/openai";
import { SerpAPI } from "langchain/tools";
import { Calculator } from "langchain/tools/calculator";

process.env["OPENAI_API_KEY"] = "YOUR_OPENAI_KEY"
process.env["SERPAPI_API_KEY"] = "YOUR_SERPAPI_KEY"

const tools = [new Calculator(), new SerpAPI()];
const model = new ChatOpenAI({ modelName: "gpt-3.5-turbo", temperature: 0 });

const executor = await initializeAgentExecutorWithOptions(tools, model, {
  agentType: "openai-functions",
  verbose: false,
});

const result = await executor.run("通过搜索互联网,查找Boldy James自2010年以来发行了多少张专辑,以及Nas自2010年以来发行了多少张专辑?找出谁发行了更多专辑,并显示百分比差异。");
console.log(result);

模型 (Models):

LangChain中有三种类型的模型:LLM、聊天模型和文本嵌入模型。让我们通过一些示例来探索每种类型的模型。

语言模型 (Language Model):

LangChain提供了一种在JavaScript中使用语言模型的方法,以根据文本输入生成文本输出。它不像聊天模型那样复杂,最适合用于简单的输入-输出语言任务。以下是一个使用OpenAI的示例:

<code>// 输出将取决于互联网搜索结果</code>

如你所见,它使用gpt-3.5-turbo模型列出所有红色的浆果。在这个例子中,我将温度设置为0,以使LLM具有事实上的准确性。

输出:

import { OpenAI } from "langchain/llms/openai";

const llm = new OpenAI({
  openAIApiKey: "YOUR_OPENAI_KEY",
  model: "gpt-3.5-turbo",
  temperature: 0
});

const res = await llm.call("列出所有红色的浆果");

console.log(res);

聊天模型 (Chat Model):

如果你想要更复杂的答案和对话,你需要使用聊天模型。从技术上讲,聊天模型与语言模型有何不同?用LangChain文档中的话来说:

聊天模型是语言模型的一种变体。虽然聊天模型在后台使用语言模型,但它们使用的接口略有不同。它们不是使用“文本输入,文本输出”API,而是使用“聊天消息”作为输入和输出的接口。

这是一个简单的(相当无用但有趣的)JavaScript聊天模型脚本:

<code>// 输出将列出红色的浆果</code>

如你所见,代码首先发送系统消息,并告诉聊天机器人成为一个总是用押韵回答的诗意助手,之后它发送一条人类消息,告诉聊天机器人告诉我谁是更好的网球运动员:德约科维奇、费德勒还是纳达尔。如果你运行这个聊天机器人模型,你会看到类似这样的内容:

import { ChatOpenAI } from "langchain/chat_models/openai";
import { PromptTemplate } from "langchain/prompts";

const chat = new ChatOpenAI({
  openAIApiKey: "YOUR_OPENAI_KEY",
  model: "gpt-3.5-turbo",
  temperature: 0
});
const prompt = PromptTemplate.fromTemplate(`你是一个诗意的助手,总是用押韵来回答:{question}`);
const runnable = prompt.pipe(chat);
const response = await runnable.invoke({ question: "谁更好,德约科维奇、费德勒还是纳达尔?" });
console.log(response);

嵌入 (Embeddings):

嵌入模型提供了一种将文本中的单词和数字转换为向量的方法,然后可以将这些向量与其他单词或数字关联起来。这听起来可能很抽象,所以让我们来看一个例子:

<code>// 输出将是一个用押韵回答的问题</code>

这将返回一个很长的浮点数列表:

import { OpenAIEmbeddings } from "langchain/embeddings/openai";

process.env["OPENAI_API_KEY"] = "YOUR_OPENAI_KEY"

const embeddings = new OpenAIEmbeddings();
const res = await embeddings.embedQuery("谁创造了万维网?");
console.log(res)

这就是嵌入的样子。仅仅六个单词就有这么多的浮点数!

然后可以使用此嵌入将输入文本与潜在答案、相关文本、名称等关联起来。

现在让我们来看一个嵌入模型的用例……

现在,这是一个脚本,它将使用嵌入来获取问题“最重的动物是什么?”并从提供的可能的答案列表中找到正确的答案:

npm install -S langchain

分块 (Chunks):

LangChain模型无法处理大型文本并使用它们来生成响应。这就是分块和文本分割发挥作用的地方。让我向你展示两种在将文本数据馈送到LangChain之前将其分割成块的简单方法。

按字符分割分块:

为了避免分块中的突然中断,你可以通过在换行符的每次出现处分割文本,按段落分割文本:

import { initializeAgentExecutorWithOptions } from "langchain/agents";
import { ChatOpenAI } from "langchain/chat_models/openai";
import { SerpAPI } from "langchain/tools";
import { Calculator } from "langchain/tools/calculator";

process.env["OPENAI_API_KEY"] = "YOUR_OPENAI_KEY"
process.env["SERPAPI_API_KEY"] = "YOUR_SERPAPI_KEY"

const tools = [new Calculator(), new SerpAPI()];
const model = new ChatOpenAI({ modelName: "gpt-3.5-turbo", temperature: 0 });

const executor = await initializeAgentExecutorWithOptions(tools, model, {
  agentType: "openai-functions",
  verbose: false,
});

const result = await executor.run("通过搜索互联网,查找Boldy James自2010年以来发行了多少张专辑,以及Nas自2010年以来发行了多少张专辑?找出谁发行了更多专辑,并显示百分比差异。");
console.log(result);

这是分割文本的一种有用方法。但是,你可以使用任何字符作为分块分隔符,而不仅仅是n

递归分割分块:

如果你想严格地按一定长度的字符分割文本,可以使用RecursiveCharacterTextSplitter

<code>// 输出将取决于互联网搜索结果</code>

在这个例子中,文本每100个字符分割一次,分块重叠为15个字符。

分块大小和重叠:

通过查看这些示例,你可能已经开始想知道分块大小和重叠参数的确切含义以及它们对性能的影响。好吧,让我简单地说明两点。

  • 分块大小决定每个分块中的字符数量。分块大小越大,分块中的数据越多,LangChain处理它并生成输出所需的时间就越长,反之亦然。
  • 分块重叠是共享分块之间信息的内容,以便它们共享一些上下文。分块重叠越高,你的分块就越冗余;分块重叠越低,分块之间共享的上下文就越少。通常,良好的分块重叠约为分块大小的10%到20%,尽管理想的分块重叠因不同的文本类型和用例而异。

链 (Chains):

链基本上是多个LLM功能链接在一起以执行更复杂的任务,否则无法通过简单的LLM输入->输出方式完成。让我们来看一个很酷的例子:

import { OpenAI } from "langchain/llms/openai";

const llm = new OpenAI({
  openAIApiKey: "YOUR_OPENAI_KEY",
  model: "gpt-3.5-turbo",
  temperature: 0
});

const res = await llm.call("列出所有红色的浆果");

console.log(res);

超越OpenAI:

即使我一直使用OpenAI模型作为LangChain不同功能的示例,它也不限于OpenAI模型。你可以将LangChain与众多其他LLM和AI服务一起使用。你可以在他们的文档中找到LangChain和JavaScript可集成LLM的完整列表。

例如,你可以将Cohere与LangChain一起使用。安装Cohere后,使用npm install cohere-ai,你可以使用LangChain和Cohere创建一个简单的问答代码,如下所示:

<code>// 输出将列出红色的浆果</code>

输出:

import { ChatOpenAI } from "langchain/chat_models/openai";
import { PromptTemplate } from "langchain/prompts";

const chat = new ChatOpenAI({
  openAIApiKey: "YOUR_OPENAI_KEY",
  model: "gpt-3.5-turbo",
  temperature: 0
});
const prompt = PromptTemplate.fromTemplate(`你是一个诗意的助手,总是用押韵来回答:{question}`);
const runnable = prompt.pipe(chat);
const response = await runnable.invoke({ question: "谁更好,德约科维奇、费德勒还是纳达尔?" });
console.log(response);

结论:

在本指南中,你已经看到了LangChain在JavaScript中的不同方面和功能。你可以使用LangChain在JavaScript中轻松开发AI驱动的Web应用程序并试验LLM。请务必参考LangChainJS文档以了解有关特定功能的更多详细信息。

祝你使用LangChain在JavaScript中进行快乐的编码和实验!如果你喜欢这篇文章,你可能还想阅读有关使用LangChain与Python的文章。

以上是JavaScript中Langchain的完整指南的详细内容。更多信息请关注PHP中文网其他相关文章!

本站声明
本文内容由网友自发贡献,版权归原作者所有,本站不承担相应法律责任。如您发现有涉嫌抄袭侵权的内容,请联系admin@php.cn

热AI工具

Undress AI Tool

Undress AI Tool

免费脱衣服图片

Undresser.AI Undress

Undresser.AI Undress

人工智能驱动的应用程序,用于创建逼真的裸体照片

AI Clothes Remover

AI Clothes Remover

用于从照片中去除衣服的在线人工智能工具。

Clothoff.io

Clothoff.io

AI脱衣机

Video Face Swap

Video Face Swap

使用我们完全免费的人工智能换脸工具轻松在任何视频中换脸!

热工具

记事本++7.3.1

记事本++7.3.1

好用且免费的代码编辑器

SublimeText3汉化版

SublimeText3汉化版

中文版,非常好用

禅工作室 13.0.1

禅工作室 13.0.1

功能强大的PHP集成开发环境

Dreamweaver CS6

Dreamweaver CS6

视觉化网页开发工具

SublimeText3 Mac版

SublimeText3 Mac版

神级代码编辑软件(SublimeText3)

如何在JS中与日期和时间合作? 如何在JS中与日期和时间合作? Jul 01, 2025 am 01:27 AM

JavaScript中的日期和时间处理需注意以下几点:1.创建Date对象有多种方式,推荐使用ISO格式字符串以保证兼容性;2.获取和设置时间信息可用get和set方法,注意月份从0开始;3.手动格式化日期需拼接字符串,也可使用第三方库;4.处理时区问题建议使用支持时区的库,如Luxon。掌握这些要点能有效避免常见错误。

为什么要将标签放在的底部? 为什么要将标签放在的底部? Jul 02, 2025 am 01:22 AM

PlacingtagsatthebottomofablogpostorwebpageservespracticalpurposesforSEO,userexperience,anddesign.1.IthelpswithSEObyallowingsearchenginestoaccesskeyword-relevanttagswithoutclutteringthemaincontent.2.Itimprovesuserexperiencebykeepingthefocusonthearticl

什么是在DOM中冒泡和捕获的事件? 什么是在DOM中冒泡和捕获的事件? Jul 02, 2025 am 01:19 AM

事件捕获和冒泡是DOM中事件传播的两个阶段,捕获是从顶层向下到目标元素,冒泡是从目标元素向上传播到顶层。1.事件捕获通过addEventListener的useCapture参数设为true实现;2.事件冒泡是默认行为,useCapture设为false或省略;3.可使用event.stopPropagation()阻止事件传播;4.冒泡支持事件委托,提高动态内容处理效率;5.捕获可用于提前拦截事件,如日志记录或错误处理。了解这两个阶段有助于精确控制JavaScript响应用户操作的时机和方式。

如何减少JavaScript应用程序的有效载荷大小? 如何减少JavaScript应用程序的有效载荷大小? Jun 26, 2025 am 12:54 AM

如果JavaScript应用加载慢、性能差,问题往往出在payload太大,解决方法包括:1.使用代码拆分(CodeSplitting),通过React.lazy()或构建工具将大bundle拆分为多个小文件,按需加载以减少首次下载量;2.移除未使用的代码(TreeShaking),利用ES6模块机制清除“死代码”,确保引入的库支持该特性;3.压缩和合并资源文件,启用Gzip/Brotli和Terser压缩JS,合理合并文件并优化静态资源;4.替换重型依赖,选用轻量级库如day.js、fetch

JavaScript模块上的确定JS综述:ES模块与COMPORJS JavaScript模块上的确定JS综述:ES模块与COMPORJS Jul 02, 2025 am 01:28 AM

ES模块和CommonJS的主要区别在于加载方式和使用场景。1.CommonJS是同步加载,适用于Node.js服务器端环境;2.ES模块是异步加载,适用于浏览器等网络环境;3.语法上,ES模块使用import/export,且必须位于顶层作用域,而CommonJS使用require/module.exports,可在运行时动态调用;4.CommonJS广泛用于旧版Node.js及依赖它的库如Express,ES模块则适用于现代前端框架和Node.jsv14 ;5.虽然可混合使用,但容易引发问题

如何在node.js中提出HTTP请求? 如何在node.js中提出HTTP请求? Jul 13, 2025 am 02:18 AM

在Node.js中发起HTTP请求有三种常用方式:使用内置模块、axios和node-fetch。1.使用内置的http/https模块无需依赖,适合基础场景,但需手动处理数据拼接和错误监听,例如用https.get()获取数据或通过.write()发送POST请求;2.axios是基于Promise的第三方库,语法简洁且功能强大,支持async/await、自动JSON转换、拦截器等,推荐用于简化异步请求操作;3.node-fetch提供类似浏览器fetch的风格,基于Promise且语法简单

垃圾收集如何在JavaScript中起作用? 垃圾收集如何在JavaScript中起作用? Jul 04, 2025 am 12:42 AM

JavaScript的垃圾回收机制通过标记-清除算法自动管理内存,以减少内存泄漏风险。引擎从根对象出发遍历并标记活跃对象,未被标记的则被视为垃圾并被清除。例如,当对象不再被引用(如将变量设为null),它将在下一轮回收中被释放。常见的内存泄漏原因包括:①未清除的定时器或事件监听器;②闭包中对外部变量的引用;③全局变量持续持有大量数据。V8引擎通过分代回收、增量标记、并行/并发回收等策略优化回收效率,降低主线程阻塞时间。开发时应避免不必要的全局引用、及时解除对象关联,以提升性能与稳定性。

var vs Let vs const:快速JS综述解释器 var vs Let vs const:快速JS综述解释器 Jul 02, 2025 am 01:18 AM

var、let和const的区别在于作用域、提升和重复声明。1.var是函数作用域,存在变量提升,允许重复声明;2.let是块级作用域,存在暂时性死区,不允许重复声明;3.const也是块级作用域,必须立即赋值,不可重新赋值,但可修改引用类型的内部值。优先使用const,需改变变量时用let,避免使用var。

See all articles