Skip to main content

使用 Langfuse 进行监控和调试

Langfuse 与 Open WebUI 的集成

Langfuse (GitHub) 为 Open WebUI 提供开源的可观测性和评估功能。通过启用 Langfuse 集成,您可以使用 Langfuse 追踪您的应用程序数据,以便开发、监控和改进 Open WebUI 的使用,包括:

如何将 Langfuse 与 Open WebUI 集成

Langfuse 集成 Langfuse 集成步骤

Open WebUI 中的 Pipelines 是一个与 UI 无关的 OpenAI API 插件框架。它允许注入插件来拦截、处理并转发用户提示词到最终的 LLM,从而增强对提示词处理的控制和自定义。

要使用 Langfuse 追踪您的应用程序数据,您可以使用 Langfuse pipeline,它可以实现对消息交互的实时监控 and 分析。

快速入门指南

第 1 步:设置 Open WebUI

确保 Open WebUI 正在运行。如需了解如何操作,请查看 Open WebUI 文档

第 2 步:设置 Pipelines

使用 Docker 启动 Pipelines。使用以下命令启动 Pipelines:

docker run -p 9099:9099 --add-host=host.docker.internal:host-gateway -v pipelines:/app/pipelines --name pipelines --restart always ghcr.io/open-webui/pipelines:main

第 3 步:将 Open WebUI 连接到 Pipelines

管理员设置中,创建一个类型为 OpenAI API 的新连接,并保存以下详细信息:

Open WebUI 设置

第 4 步:添加 Langfuse 过滤器 Pipeline (Langfuse Filter Pipeline)

接下来,导航到管理员设置 (Admin Settings) -> Pipelines,并添加 Langfuse 过滤器 Pipeline。指定 Pipelines 正在 http://host.docker.internal:9099 上监听(如前所述),并通过 从 Github URL 安装 (Install from Github URL) 选项安装 Langfuse Filter Pipeline,URL 如下:

https://github.com/open-webui/pipelines/blob/main/examples/filters/langfuse_v3_filter_pipeline.py

现在,在下方添加您的 Langfuse API 密钥。如果您尚未注册 Langfuse,可以点击此处创建账户以获取 API 密钥。

Open WebUI 添加 Langfuse Pipeline

note

注意: 要在启用流式传输 (streaming) 时捕获 OpenAI 模型的使用情况(Token 计数),您必须导航到 Open WebUI 中的模型设置,并勾选 能力 (Capabilities) 下方的 "Usage" 复选框

第 5 步:在 Langfuse 中查看追踪 (Traces)

您现在可以与您的 Open WebUI 应用程序进行交互,并在 Langfuse 中查看追踪数据。

Langfuse UI 中的追踪示例

Langfuse 中的 Open WebUI 追踪示例

了解更多

有关 Open WebUI Pipelines 的综合指南,请访问这篇文章