小众AI

open-interpreter
open-interpreter - 让 LLM 在你的计算机上运行代码
open-interpreter可以让大语言模型在本地运行代码,支持 Python、JavaScript、Shell 等编程语言。相当于大语言模型是一个解释器,它会理解你的意图,将自然语言转化成相应的代码脚本并运行。安装后,用户就可以在终端通过聊天的方式操作计算机,比如创建和编辑图片、视频和文件,控制 Chrome 浏览器进行搜索等。
  官网   代码仓

open-interpreter可以让大语言模型在本地运行代码,支持 Python、JavaScript、Shell 等编程语言。相当于大语言模型是一个解释器,它会理解你的意图,将自然语言转化成相应的代码脚本并运行。安装后,用户就可以在终端通过聊天的方式操作计算机,比如创建和编辑图片、视频和文件,控制 Chrome 浏览器进行搜索等。

open-interpreter.jpg

主要特性

为计算机的通用功能提供了一个自然语言界面,比如:

  • 创建和编辑照片、视频、PDF 等
  • 控制 Chrome 浏览器进行搜索
  • 绘制、清理和分析大型数据集

开始使用 🚀

pip install open-interpreter

终端

安装后,运行 interpreter

interpreter

Python

from interpreter import interpreter

interpreter.chat("Plot AAPL and META's normalized stock prices") # 执行单一命令
interpreter.chat() # 开始交互式聊天

与 ChatGPT 的代码解释器比较

OpenAI 发布的 Code Interpreter 和 GPT-4 提供了一个与 ChatGPT 完成实际任务的绝佳机会。

但是,OpenAI 的服务是托管的,闭源的,并且受到严格限制:

  • 无法访问互联网。
  • 预装软件包数量有限
  • 允许的最大上传为 100 MB,且最大运行时间限制为 120.0 秒
  • 当运行环境中途结束时,之前的状态会被清除(包括任何生成的文件或链接)。

Open Interpreter(开放解释器)通过在本地环境中运行克服了这些限制。它可以完全访问互联网,不受运行时间或是文件大小的限制,也可以使用任何软件包或库。

它将 GPT-4 代码解释器的强大功能与本地开发环境的灵活性相结合。

命令

交互式聊天

要在终端中开始交互式聊天,从命令行运行 interpreter

interpreter

或者从.py 文件中运行 interpreter.chat()

interpreter.chat()

程序化聊天

为了更精确的控制,您可以通过 .chat(message) 直接传递消息 :

interpreter.chat("Add subtitles to all videos in /videos.")

# ... Streams output to your terminal, completes task ...

interpreter.chat("These look great but can you make the subtitles bigger?")

# ...

开始新的聊天

在 Python 中,Open Interpreter 会记录历史对话。如果你想从头开始,可以进行重置:

interpreter.messages = []

保存和恢复聊天

messages = interpreter.chat("My name is Killian.") # 保存消息到 'messages'
interpreter.messages = [] # 重置解释器 ("Killian" 将被遗忘)

interpreter.messages = messages # 从 'messages' 恢复聊天 ("Killian" 将被记住)

自定义系统消息

你可以检查和配置 Open Interpreter 的系统信息,以扩展其功能、修改权限或赋予其更多上下文。

interpreter.system_message += """
使用 -y 运行 shell 命令,这样用户就不必确认它们。
"""
print(interpreter.system_message)

更改模型

Open Interpreter 使用LiteLLM连接到语言模型。

您可以通过设置模型参数来更改模型:

interpreter --model gpt-3.5-turbo
interpreter --model claude-2
interpreter --model command-nightly

在 Python 环境下,您需要手动设置模型:

interpreter.llm.model = "gpt-3.5-turbo"

在本地运行 Open Interpreter(开放解释器)

interpreter --local

调试模式

为了帮助贡献者检查和调试 Open Interpreter,--verbose 模式提供了详细的日志。

您可以使用 interpreter --verbose 来激活调试模式,或者直接在终端输入:

$ interpreter
...
> %verbose true <- 开启调试模式

> %verbose false <- 关闭调试模式

更多...


ai-financial-agent
探索人工智能在投资研究中的应用。
Meetily
一个 AI 驱动的会议助手,可捕获实时会议音频、实时转录并生成摘要,同时确保用户隐私。
CHRONOS
CHRONOS是一种新颖的基于检索的时间线摘要 (TLS) 方法,通过迭代提出有关主题和检索到的文档的问题来生成按时间顺序排列的摘要。