首页 > 科技周边 > 人工智能 > Open Interpreter:一款让大型语言模型在本地执行代码的开源工具

Open Interpreter:一款让大型语言模型在本地执行代码的开源工具

WBOY
发布: 2023-09-27 10:21:13
转载
915 人浏览过

最近在逛 Github 的时候发现了一款神器,叫做 Open Interpreter,主要是用来实现在本地和大语言模型进行交互的,通过大语言模型将自然语言转换为脚本代码,然后在本地执行从而实现目标。

简而言之,如果你想在桌面上创建一个名为joke.txt的文件,你不需要手动创建,而是可以通过自然语言告诉Open Interpreter,让它帮助我们生成创建文件的脚本,然后在本地执行,从而生成一个joke.txt文件

我们要做的就是告诉它我们的需求是什么,以及允许它在本地执行代码即可。

请将内容进行改写,但不改变原本的意思,改写成中文。不需要出现原句

Open Interpreter:一款让大型语言模型在本地执行代码的开源工具图片

上面的 case 整个过程分三步:

  1. 我们通过自然语言描述一个需求:帮我在桌面上的 open-test 文件中创建一个名为 joke.txt 的文件
  2. Open Interpreter 会将我们的需求进行拆解,并且列出它的执行计划和要执行的命令。
计划: 1 检查桌面上的 open-test 文件夹是否存在,如果不存在则创建它。 2 在 open-test 文件夹中创建一个名为 joke.txt 的文件。我将使用以下代码来完成这个任务。mkdir -p ~/Desktop/open-test && touch ~/Desktop/open-test/joke.txt
登录后复制
  1. 在经过我们的人工确认后进行执行,最终成功的创建出的文件。

这个项目刚刚起步,这个 case 也很简单,但是我们要知道这仿佛打开了另一扇大门,以后只要是通过代码能实现的功能,我们都可以通过自然语言来实现了,想想都很激动(可怕)。

官方的介绍这个工具都可以用来编辑视频以及发送邮件,只能说很有前景。

安装和配置

安装 conda

安装这个项目非常简单。通常情况下,我们只需在命令行中执行 pip install open-interpreter 即可。然而,为了确保环境的稳定性,我们准备使用 conda 进行环境隔离。因此,我们首先需要安装 conda,并按照以下命令依次执行

# 获取脚本wget https://repo.anaconda.com/archive/Anaconda3-2023.07-2-Linux-x86_64.sh# 增加可执行权限chmod +x Anaconda3-2023.07-2-Linux-x86_64.sh# 运行安装脚本./Anaconda3-2023.07-2-Linux-x86_64.sh# 查询版本conda -V
登录后复制

如何能正常输出版本号,则表明安装成功,如果提示命令不存在,那我们就需要配置一下环境变量,在

vim .bash_profile# 加入下面一行PATH=$PATH:$HOME/bin:$NODE_PATH/bin:/root/anaconda3/bin# 再次执行conda -V
登录后复制

Open Interpreter:一款让大型语言模型在本地执行代码的开源工具图片

创建隔离环境

安装完成 conda 过后,我们就创建指定 Python 版本的隔离环境了,通过如下命令

conda create -n python311 pythnotallow=3.11
登录后复制

这行代码的含义是通过 conda create 创建一个名字叫 python311 的隔离环境,隔离环境的 python 版本指定为 3.11,创建完成过后我们可以通过下面的命令查询隔离环境的列表。

conda env list
登录后复制

Open Interpreter:一款让大型语言模型在本地执行代码的开源工具图片

安装 open-interpreter

然后我们进入到隔离环境中,在隔离环境中安装 open interpreter,命令如下

conda activate python311pip install open-interpreter
登录后复制

等待一会即可安装成功,安装成功过后输入下面命令,即可开启本地大语言模型交互。

interpreter
登录后复制

Open Interpreter:一款让大型语言模型在本地执行代码的开源工具图片

不需要改变原意,需要重新写入的内容是:当我们直接输入“interpreter”命令时,会要求我们输入自己的OpenAI API密钥。此时,默认使用的是GPT-4模型,但我们可以通过添加“--fast”参数来使用GPT-3.5模型

interpreter --fast
登录后复制

这里我们每次执行都需要手动填入 OpenAI API key 比较麻烦,可以配置一下环境变量

export OPENAI_API_KEY=skxxxx
登录后复制

这样我们后续执行就不用在手动填 OpenAI 的API key 了,如果想用微软的 Azure OpenAI 的话,也是支持的,只要配置下面的环境变量,然后在启动的时候增加 --use-azure 参数就可以了

export AZURE_API_KEY=export AZURE_API_BASE=export AZURE_API_VERSION=export AZURE_DEPLOYMENT_NAME=
登录后复制
interpreter --use-azure
登录后复制

Open Interpreter:一款让大型语言模型在本地执行代码的开源工具图片

本地启动

所有操作都需要我们拥有相应的OpenAI API密钥或Azure的OpenAI端点。实际上,Open Interpreter还支持本地运行,只需在启动时添加--local参数,然后选择相应的模型。但是,本地运行需要我们的电脑配置支持。对此感兴趣的朋友可以参考官方文档进行实践,但我的配置不允许这样做

Open Interpreter:一款让大型语言模型在本地执行代码的开源工具图片

总结

今天我向大家介绍了一下 Open interpreter 的安装方法和简单玩法。这个项目目前正在快速迭代中,相信不久的将来将会带来一场变革。不得不说,人工智能的时代真正到来了,未来几年将会是人工智能产品的蓬勃发展时期。作为程序员,我们要紧跟时代的步伐,不要掉队

以上是Open Interpreter:一款让大型语言模型在本地执行代码的开源工具的详细内容。更多信息请关注PHP中文网其他相关文章!

相关标签:
来源:51cto.com
本站声明
本文内容由网友自发贡献,版权归原作者所有,本站不承担相应法律责任。如您发现有涉嫌抄袭侵权的内容,请联系admin@php.cn
最新问题
热门教程
更多>
最新下载
更多>
网站特效
网站源码
网站素材
前端模板