Skip to main content
warning

这篇教程是社区贡献的,不属于 Open WebUI 官方团队的支持范围。它仅作为如何针对您的特定用例自定义 Open WebUI 的演示。想要贡献?请查看贡献教程。

Helicone 与 Open WebUI 集成

Helicone 是一个开源的 LLM 可观测性平台,供开发人员监控、调试和改进生产就绪的应用程序,包括您的 Open WebUI 部署。

通过启用 Helicone,您可以记录 LLM 请求,评估和实验提示词,并获得即时见解,帮助您充满信心地将更改推向生产。

  • 跨模型类型的统一视图实时监控:通过单一界面监控本地 Ollama 模型和云端 API。
  • 请求可视化与重放:准确查看 Open WebUI 中发送给每个模型的提示词以及 LLM 生成的输出,以便进行评估。
  • 本地 LLM 性能跟踪:测量自托管模型的响应时间和吞吐量。
  • 按模型进行的使用情况分析:比较 Open WebUI 设置中不同模型的使用模式。
  • 用户分析:了解交互模式。
  • 调试功能:排查模型响应问题。
  • 成本跟踪:跨提供商跟踪您的 LLM 使用成本。

如何将 Helicone 与 Open WebUI 集成

第 1 步:创建 Helicone 账户并生成 API 密钥

创建一个 Helicone 账户并登录以生成 API 密钥

—— 请务必生成一个只写 (write only) API 密钥。这可以确保您只允许将数据记录到 Helicone,而没有读取您私有数据的权限。

第 2 步:创建 OpenAI 账户并生成 API 密钥

创建一个 OpenAI 账户并登录 OpenAI 开发者门户以生成 API 密钥。

第 3 步:使用 Helicone 的基础 URL 运行 Open WebUI

要启动您的第一个 Open WebUI 应用程序,请使用 Open WebUI 文档中的命令,并包含 Helicone 的 API 基础 URL,以便自动进行查询和监控。

   # 设置环境变量
export HELICONE_API_KEY=<您的_API_密钥>
export OPENAI_API_KEY=<您的_OPENAI_API_密钥>

# 运行集成 Helicone 的 Open WebUI
docker run -d -p 3000:8080 \
-e OPENAI_API_BASE_URL="https://oai.helicone.ai/v1/$HELICONE_API_KEY" \
-e OPENAI_API_KEY="$OPENAI_API_KEY" \
--name open-webui \
ghcr.io/open-webui/open-webui

如果您已经部署了 Open WebUI 应用程序,请转到 管理员面板 > 设置 > 外部连接,点击“管理 OpenAI API 连接”的 + 号。更新以下属性:

  • 您的 API 基础 URL 应为 https://oai.helicone.ai/v1/<您的_HELICONE_API_密钥>
  • API 密钥 应为您的 OpenAI API 密钥。

Open WebUI Helicone 设置

第 4 步:确保监控正常工作

要确保集成正常工作,请登录 Helicone 控制面板并查看“Requests”(请求)选项卡。

您应该能看到通过 Open WebUI 界面发出的请求已经记录在 Helicone 中。

Helicone 追踪示例

了解更多

有关 Helicone 的全面指南,您可以查看 Helicone 官方文档