Skip to content

Latest commit

 

History

History
253 lines (189 loc) · 13.3 KB

README-zh.md

File metadata and controls

253 lines (189 loc) · 13.3 KB

警告:此说明文件可能已过时。应将 README.md 视为真实的来源。如果您注意到差异,请打开一个拉取请求以更新此说明文件。

English | 中文

Contributors Forks Stargazers Issues MIT License
Join our Slack community Join our Discord community
Logo

OpenDevin:少写代码,多创作

🗂️ Table of Contents
  1. 🎯 Mission
  2. 🤔 What is Devin?
  3. 🐚 Why OpenDevin?
  4. 🚧 Project Status
  5. 🚀 Get Started
  6. ⭐️ Research Strategy
  7. 🤝 How to Contribute
  8. 🤖 Join Our Community
  9. 🛠️ Built With
  10. 📜 License

🎯 使命

OpenDevin.webm

欢迎来到 OpenDevin,一个开源项目,旨在复制 Devin,一款自主的 AI 软件工程师,能够执行复杂的工程任务,并与用户积极合作,共同进行软件开发项目。该项目立志通过开源社区的力量复制、增强和创新 Devin。

↑ Back to Top ↑

🤔 Devin 是什么?

Devin 代表着一种尖端的自主代理程序,旨在应对软件工程的复杂性。它利用诸如 shell、代码编辑器和 Web 浏览器等工具的组合,展示了在软件开发中利用 LLMs(大型语言模型)的未开发潜力。我们的目标是探索和拓展 Devin 的能力,找出其优势和改进空间,以指导开源代码模型的进展。

↑ Back to Top ↑

🐚 为什么选择 OpenDevin?

OpenDevin 项目源于对复制、增强和超越原始 Devin 模型的愿望。通过与开源社区的互动,我们旨在解决 Code LLMs 在实际场景中面临的挑战,创作出对社区有重大贡献并为未来进步铺平道路的作品。

↑ Back to Top ↑

🚧 项目状态

OpenDevin 目前仍在进行中,但您已经可以运行 alpha 版本来查看端到端系统的运行情况。项目团队正在积极努力实现以下关键里程碑:

  • 用户界面(UI):开发用户友好的界面,包括聊天界面、演示命令的 shell 和 Web 浏览器。
  • 架构:构建一个稳定的代理框架,具有强大的后端,可以读取、写入和运行简单的命令。
  • 代理能力:增强代理的能力,以生成 bash 脚本、运行测试和执行其他软件工程任务。
  • 评估:建立一个与 Devin 评估标准一致的最小评估流水线。

在完成 MVP 后,团队将专注于各个领域的研究,包括基础模型、专家能力、评估和代理研究。

↑ Back to Top ↑

⚠️ 注意事项和警告

  • OpenDevin 仍然是一个 alpha 项目。它变化很快且不稳定。我们正在努力在未来几周发布稳定版本。
  • OpenDevin 会向您配置的 LLM 发出许多提示。大多数 LLM 都需要花费金钱,请务必设置花费限制并监控使用情况。
  • OpenDevin 在 Docker 沙箱中运行 bash 命令,因此不应影响您的计算机。但您的工作区目录将附加到该沙箱,并且目录中的文件可能会被修改或删除。
  • 我们默认的代理目前是 MonologueAgent,具有有限的功能,但相当稳定。我们正在开发其他代理实现,包括 SWE 代理。您可以在这里阅读我们当前的代理集合

🚀 开始

开始使用 OpenDevin 项目非常简单。按照以下简单步骤在您的系统上设置和运行 OpenDevin:

运行 OpenDevin 最简单的方法是在 Docker 容器中。 您可以运行:

# 您的 OpenAI API 密钥,或任何其他 LLM API 密钥
export LLM_API_KEY="sk-..."

# 您想要 OpenDevin 修改的目录。必须是绝对路径!
export WORKSPACE_BASE=$(pwd)/workspace

docker run \
    -e LLM_API_KEY \
    -e WORKSPACE_MOUNT_PATH=$WORKSPACE_BASE \
    -v $WORKSPACE_BASE:/opt/workspace_base \
    -v /var/run/docker.sock:/var/run/docker.sock \
    -p 3000:3000 \
    ghcr.io/opendevin/opendevin:latest

$(pwd)/workspace 替换为您希望 OpenDevin 使用的代码路径。

您可以在 http://localhost:3000 找到正在运行的 OpenDevin。

请参阅Development.md以获取在没有 Docker 的情况下运行 OpenDevin 的说明。

🤖 LLM 后端

OpenDevin 可以与任何 LLM 后端配合使用。 要获取提供的 LM 提供商和模型的完整列表,请参阅 litellm 文档

LLM_MODEL 环境变量控制在编程交互中使用哪个模型, 但在 OpenDevin UI 中选择模型将覆盖此设置。

对于某些 LLM,可能需要以下环境变量:

  • LLM_API_KEY
  • LLM_BASE_URL
  • LLM_EMBEDDING_MODEL
  • LLM_EMBEDDING_DEPLOYMENT_NAME
  • LLM_API_VERSION

关于替代模型的说明: 某些替代模型可能比其他模型更具挑战性。 不要害怕,勇敢的冒险家!我们将很快公布 LLM 特定的文档,指导您完成您的探险。 如果您已经掌握了除 OpenAI 的 GPT 之外的模型使用技巧, 我们鼓励您与我们分享您的设置说明

还有使用 ollama 运行本地模型的文档

⭐️ 研究策略

利用 LLMs 实现生产级应用程序的完全复制是一个复杂的任务。我们的策略包括:

  1. 核心技术研究: 专注于基础研究,以了解和改进代码生成和处理的技术方面。
  2. 专业能力: 通过数据整理、训练方法等手段增强核心组件的效能。
  3. 任务规划: 开发能力,用于错误检测、代码库管理和优化。
  4. 评估: 建立全面的评估指标,以更好地了解和改进我们的模型。

↑ Back to Top ↑

🤝 如何贡献

OpenDevin 是一个社区驱动的项目,我们欢迎所有人的贡献。无论您是开发人员、研究人员,还是对利用人工智能推动软件工程领域发展充满热情的人,都有许多参与方式:

  • 代码贡献: 帮助我们开发核心功能、前端界面或沙盒解决方案。
  • 研究和评估: 为我们对软件工程中的 LLMs 的理解做出贡献,参与评估模型,或提出改进意见。
  • 反馈和测试: 使用 OpenDevin 工具集,报告错误,提出功能建议,或就可用性提供反馈。

详情请查看此文档

↑ Back to Top ↑

🤖 加入我们的社区

现在我们既有 Slack 工作空间用于协作构建 OpenDevin,也有 Discord 服务器用于讨论与项目、LLM、Agent 等相关的任何事情。

如果你愿意贡献,欢迎加入我们的社区(请注意,现在无需填写表格)。让我们一起简化软件工程!

🐚 少写代码,用 OpenDevin 创造更多。

Star History Chart

🛠️ 技术栈

OpenDevin 使用了一系列强大的框架和库的组合,为其开发提供了坚实的基础。以下是项目中使用的关键技术:

FastAPI uvicorn LiteLLM Docker Ruff MyPy LlamaIndex React

请注意,这些技术的选择正在进行中,随着项目的发展,可能会添加其他技术或移除现有技术。我们致力于采用最合适和最有效的工具,以增强 OpenDevin 的功能。

↑ Back to Top ↑

📜 许可证

根据 MIT 许可证分发。有关更多信息,请参阅 LICENSE

↑ Back to Top ↑