Open InterpreterAI 赋能终端!在终端中对话AI模型进行编程,通过运行代码来完成各种计算机操作任务

Written by 30115776@qq.com

Open InterpreterAI 赋能终端!在终端中对话AI模型进行编程,通过运行代码来完成各种计算机操作任务

🚀 快速阅读

  • 功能:支持 Python、JavaScript、Shell 等多种编程语言。
  • 安全性:在执行代码前会请求用户确认。
  • 灵活性:支持自定义系统消息和更换语言模型。

正文(附运行示例)

Open Interpreter 是什么

Open Interpreter.png

Open Interpreter 是一个让语言模型运行代码的工具。通过一个类似 ChatGPT 的界面,用户可以在终端中与 Open Interpreter 互动,执行各种编程任务。这为用户提供了一个自然语言接口,使其能够轻松地利用计算机的通用能力。

例如,用户可以通过简单的命令来创建和编辑照片、视频、PDF 文件,控制 Chrome 浏览器进行研究,绘制、清理和分析大数据集等。

Open Interpreter 的主要功能

  • 支持多种编程语言:Open Interpreter 支持 Python、JavaScript、Shell 等多种编程语言。
  • 安全执行代码:在执行代码前,Open Interpreter 会请求用户确认,确保操作的安全性。
  • 灵活的配置选项:用户可以自定义系统消息、更换语言模型,并调整其他设置以满足特定需求。

Open Interpreter 的技术原理

  • 函数调用:Open Interpreter 使用支持函数调用的语言模型,并通过 exec() 函数执行代码。
  • 流式处理:模型的消息、代码和系统的输出会以 Markdown 格式流式传输到终端。
  • 本地模式:Open Interpreter 可以在本地环境中运行,充分利用用户的计算资源和网络连接。

如何运行 Open Interpreter

安装

首先,通过 pip 安装 Open Interpreter:

pip install open-interpreter

如果需要更多功能,可以安装可选依赖项:

Local Mode 依赖项:

pip install open-interpreter[local]

OS Mode 依赖项:

pip install open-interpreter[os]

Safe Mode 依赖项:

pip install open-interpreter[safe]

终端使用

安装完成后,只需在终端中运行 interpreter 即可启动交互界面:

interpreter

Python 使用

也可以在 Python 程序中使用 Open Interpreter:

from interpreter import interpreter

# 执行单个命令
interpreter.chat(\"Plot AAPL and META\'s normalized stock prices\")

# 启动交互聊天
interpreter.chat()

实例代码

以下是一个简单的示例,展示如何使用 Open Interpreter 在 Python 中绘制股票价格图:

from interpreter import interpreter

# 绘制 AAPL 和 META 的归一化股票价格
interpreter.chat(\"Plot AAPL and META\'s normalized stock prices\")

上述代码会启动 Open Interpreter 并执行绘图命令,生成的结果将显示在终端中。

本地模式

Open Interpreter 还支持在本地环境中运行,利用本地模型和计算资源:

终端使用

使用本地模型提供商时,可以运行以下命令:

interpreter --local

选择所需的本地模型提供商,例如 Ollama、Llamafile、Jan 或 LM Studio。如果使用其他未列出的提供商,可以通过设置 --api_base--model 参数来指定:

interpreter --api_base \"http://localhost:11434\" --model ollama/codestral

Python 使用

在 Python 中使用本地模型时,需要设置相关参数:

from interpreter import interpreter

interpreter.offline = True
interpreter.llm.model = \"ollama/codestral\"
interpreter.llm.api_base = \"http://localhost:11434\"

interpreter.chat(\"How many files are on my desktop?\")

配置文件

Open Interpreter 支持使用配置文件来自定义默认行为。配置文件可以是 YAML 文件或 Python 文件:

YAML 配置文件

llm:
model: \"gpt-4-o\"
temperature: 0

# 计算机设置
computer:
import_computer_api: True # 给 Open Interpreter 提供有用的 Computer API 设计

# 自定义指令
custom_instructions: \"\"  # 将附加到系统消息

# 通用配置
auto_run: False  # 如果为 True,代码将无需确认即可运行
offline: False  # 如果为 True,将禁用一些在线功能,如检查更新

version: 0.2.5 # 配置文件版本(不要修改)

Python 配置文件

from interpreter import interpreter

interpreter.os = True
interpreter.llm.supports_vision = True

interpreter.llm.model = \"gpt-4o\"
interpreter.llm.supports_functions = True
interpreter.llm.context_window = 110000
interpreter.llm.max_tokens = 4096
interpreter.auto_run = True
interpreter.loop = True

安全模式

为了降低风险,Open Interpreter 提供了实验性的安全模式:

from interpreter import interpreter

interpreter.safe_mode = True

无安装使用

如果不希望在本地环境中配置,可以使用 GitHub Codespaces:

  1. 在 GitHub 页面上按 , 键创建一个代码空间。
  2. 创建后,你会得到一个预装了 Open Interpreter 的云虚拟机环境。
  3. 直接开始与 Open Interpreter 交互。

资源

❤️ 如果你也关注 AI 的发展现状,且对 AI 应用开发非常感兴趣,我会每日跟你分享最新的 AI 资讯和开源应用,也会不定期分享自己的想法和开源实例,欢迎关注我哦!

30115776@qq.com

Pretium lorem primis lectus donec tortor fusce morbi risus curae. Dignissim lacus massa mauris enim mattis magnis senectus montes mollis taciti accumsan semper nullam dapibus netus blandit nibh aliquam metus morbi cras magna vivamus per risus.

AI Shell在命令行里“对话” AI ,微软推出将 AI 助手引入命令行的 CLI 工具,打造对话式交互命令行

开源的DIY健康追踪项目,基于低成本的智能戒指构建私人的健康监测应用

发表评论