这篇教程是社区贡献的,不属于 Open WebUI 官方团队的支持范围。它仅 作为如何针对您的特定用例自定义 Open WebUI 的演示。想要贡献?请查看贡献教程。
将 Continue.dev VS Code 扩展与 Open WebUI 集成
下载扩展
您可以在 Visual Studio Marketplace 下载 VS Code 扩展,或者直接在 VS Code 的 扩展:市场 中搜索 continue 进行下载。
安装完成后,您可以通过 VS Code 侧边栏的 continue 标签页访问该应用程序。
VS Code 侧边栏图标:
设置
点击主聊天输入框右侧的助手选择器。然后将鼠标悬停在 Local Assistant 上,并点击设置图标 (⚙️)。
这将在您的编辑器中打开 config.yaml 文件。您可以在此处更改 Local Assistant 的设置。

目前 ollama 提供商不支持身份验证,因此我们无法在 Open WebUI 中直接使用该提供商。
但是,Ollama 和 Open WebUI 都与 OpenAI API 规范兼容。欲了解更多关于该规范的信息,请阅读 Ollama 关于 OpenAI 兼容性的博客文章。
我们仍然可以将 continue.dev 设置为使用 openai 提供商,从而允许我们使用 Open WebUI 的身份验证令牌。
配置示例
下面是一个使用 Llama3 作为模型并结合本地 Open WebUI 设置的配置示例。
name: Local Assistant
version: 1.0.0
schema: v1
models:
- name: LLama3
provider: openai
model: Meta-Llama-3-8B-Instruct-Q4_K_M.gguf
env:
useLegacyCompletionsEndpoint: false
apiBase: http://localhost:3000/api
apiKey: YOUR_OPEN_WEBUI_API_KEY
roles:
- chat
- edit
context:
- provider: code
- provider: docs
- provider: diff
- provider: terminal
- provider: problems
- provider: folder
- provider: codebase
其他配置设置
扩展需要这些值才能正常工作。欲了解更多信息,请参阅官方配置指南。
name: Local Assistant
version: 1.0.0
schema: v1
context(上下文)部分为模型提供了额外信息。欲了解更多信息,请参阅官方配置指南和上下文提供商指南。
context:
- provider: code
- provider: docs
- provider: diff
- provider: terminal
- provider: problems
- provider: folder
- provider: codebase
模型
models(模型)部分是您指定想要添加的所有模型的地方。欲了解更多信息,请参阅官方模型指南。
models:
- ...
名称
设置您想要使用的模型的名称。这将显示在扩展的聊天输入框中。
name: LLama3

提供商
指定用于与 API 通信的方法,在我们的案例中,是 Open WebUI 提供的 OpenAI API 端点。
provider: openai
模型
这是您在 Open WebUI 中模型的实际名称。导航到 管理员面板 > 设置 > 模型