Skip to main content

⭐ 功能特性

Sponsored by Open WebUI Inc.
Open WebUI Inc.

We are hiring! Shape the way humanity engages with intelligence.

Open WebUI 核心功能 ⭐

  • 🚀 轻松安装:支持使用 Docker、Kubernetes、Podman、Helm Charts(kubectlkustomizepodmanhelm)进行无缝安装,提供内置 Ollama 的 :ollama 镜像和支持 CUDA 的 :cuda 镜像,带给您无忧的部署体验。

  • 🛠️ 引导式初始设置:清晰的设置流程,包括在首次设置时明确提示创建管理员账户。

  • 🤝 OpenAI API 集成:轻松集成 OpenAI 兼容的 API,可与 Ollama 模型并排进行多样化对话。OpenAI API URL 可自定义,以便将 Open WebUI 无缝集成到各种第三方应用程序中。

  • 🛡️ 细粒度的权限和用户组:通过允许管理员在工作区中创建详细的用户角色、用户组和权限,我们确保为所有用户提供安全的使用环境。这种细粒度控制不仅增强了安全性,还允许自定义用户体验,培养用户的归属感和责任感。

  • 🔐 SCIM 2.0 供应:通过 SCIM 2.0 协议实现企业级用户和组供应,支持与 Okta、Azure AD 和 Google Workspace 等身份提供商无缝集成,实现自动化的用户生命周期管理。

  • 📱 响应式设计:在台式机、笔记本电脑和移动设备上都能享受无缝体验。

  • 📱 移动端渐进式 Web 应用 (PWA):在移动设备上享受原生的 PWA 体验,支持 localhost 或个人域名的离线访问,并提供流畅的用户界面。为了在您的设备上安装 PWA,必须在安全上下文中交付,这通常意味着必须通过 HTTPS 提供服务。

    info
    • 要设置 PWA,您需要了解一些技术,如 Linux、Docker 以及 NginxCaddyTraefik 等反向代理。使用这些工具可以帮助简化构建和部署适合您需求的 PWA 的过程。虽然没有“一键安装”选项,且通过 HTTPS 安全部署 Open WebUI 实例需要一定的经验,但利用这些资源可以更轻松地创建和部署适合您需求的 PWA。
  • ✒️🔢 完善的 Markdown 和 LaTeX 支持:通过全面的 Markdown、LaTeX 和富文本功能提升您的 LLM 体验,实现更丰富的交互。

  • 🧩 模型构建器:直接在 Open WebUI 中从 Ollama 基础模型轻松创建自定义模型。通过集成 Open WebUI Community,轻松创建并添加自定义角色和智能体、自定义模型元素以及导入模型。

  • 📚 支持多种向量数据库的高级 RAG 集成:借助尖端的检索增强生成 (RAG) 技术,深入体验未来的聊天交互。支持 9 种向量数据库选项:ChromaDB(默认)、带有 PGVector 的 PostgreSQL、Qdrant、Milvus、Elasticsearch、OpenSearch、Pinecone、S3Vector 和 Oracle 23ai。文档可以加载到工作区的“文档”选项卡中,在查询前使用井号键 [#] 访问,或在提示词开头使用 [#] 后跟 URL 来集成网页内容。

  • 📄 支持多引擎的高级文档提取:支持从各种文档格式(包括 PDF、Word 文档、Excel 表格、PowerPoint 演示文稿等)中提取文本和数据,可选提取引擎包括:Apache Tika、Docling、Azure Document Intelligence、Mistral OCR 或外部自定义(自建)内容提取引擎/文档加载器。先进的文档处理能力可实现与知识库的无缝集成,保留结构和格式,同时支持扫描文档和图像的 OCR。

  • 🔍 支持 15+ 提供商的 RAG 网页搜索:使用 15 多个提供商进行网页搜索,包括 SearXNG、Google PSE、Brave Search、Kagi、Mojeek、Bocha、Tavily、Perplexity(AI 模型和搜索 API)、serpstack、serper、Serply、DuckDuckGo、SearchAPI、SerpApi、Bing、Jina、Exa、Sougou、Azure AI Search 和 Ollama Cloud,并将结果直接注入到本地的检索增强生成 (RAG) 体验中。

  • 🌐 网页浏览能力:使用 # 命令后跟 URL,将网站无缝集成到聊天体验中。此功能允许将网页内容直接整合到对话中,从而增强交互的丰富度和深度。

  • 🎨 图像生成与编辑集成:使用多种引擎(包括 OpenAI 的 DALL-E(生成和编辑)、Gemini(生成和编辑)、ComfyUI(本地、生成和编辑)和 AUTOMATIC1111(本地、生成))无缝创建和编辑图像。支持文本生成图像和基于提示词的图像编辑工作流,提供动态视觉内容。

  • ⚙️ 并发模型利用:同时与多个模型进行交互,利用它们各自的优势获得最佳响应。并行利用多种模态的模型来增强您的体验。

  • 🔐 基于角色的访问控制 (RBAC):通过受限权限确保安全访问。只有授权人员才能访问您的 Ollama,而模型创建和拉取权限仅保留给管理员。

  • 🌐🌍 多语言支持:通过我们的国际化 (i18n) 支持,以您首选的语言体验 Open WebUI。我们邀请您加入我们,共同扩展支持的语言!我们正在积极寻求贡献者!

  • 💾 持久化 Artifact 存储:内置用于 Artifact 的键值存储 API,支持日志、追踪器、排行榜和协作工具等功能,具有跨会话持久化的个人和共享数据范围。

  • ☁️ 云存储集成:原生支持云存储后端,包括 Amazon S3(及 S3 兼容提供商)、Google Cloud Storage 和 Microsoft Azure Blob Storage,用于可扩展的文件存储和数据管理。

  • ☁️ 企业云集成:直接通过文件选择器界面从 Google Drive 和 OneDrive/SharePoint 无缝导入文档,实现与企业云存储解决方案的顺畅工作流。

  • 📊 利用 OpenTelemetry 实现生产级可观测性:内置 OpenTelemetry 支持,可进行全面的监控,并将追踪、指标和日志导出到您现有的可观测性堆栈(Prometheus、Grafana、Jaeger 等),实现生产级的监控和调试。

  • 🔒 加密数据库支持:SQLite 数据库支持可选的静态加密(使用 SQLCipher),为小型部署中的敏感数据提供增强的安全性,无需 PostgreSQL 基础设施。

  • ⚖️ 生产级水平扩展:支持基于 Redis 的会话管理和 WebSocket,允许在负载均衡器后进行多工作节点和多节点部署,适用于高可用生产环境。

  • 🌟 持续更新:我们致力于通过定期更新、修复和新功能来改进 Open WebUI。

还有更多卓越功能,包括... ⚡️


🔧 Pipelines 支持

我们的 Pipelines 框架具有无限的可能性。您可以从一些预构建的 Pipelines 开始:

  • 🔗 函数调用 (Function Calling):通过 Pipelines 无缝集成 函数调用,通过高级函数调用能力增强您的 LLM 交互。

  • 📚 自定义 RAG:无缝集成 自定义检索增强生成 (RAG) 管道,通过自定义 RAG 逻辑增强您的 LLM 交互。

  • 📊 利用 Langfuse 进行消息监控:通过 Langfuse 管道实时监控和分析消息交互的使用统计数据。

  • ⚖️ 用户频率限制:通过 Rate Limit 管道控制发送到 LLM 的请求流量,有效管理 API 使用并防止超出频率限制。

  • 🌍 实时 LibreTranslate 翻译:使用 LibreTranslate 管道在 LLM 交互中集成实时翻译,实现跨语言交流。(注意:此管道需要额外在 Docker 容器中设置 LibreTranslate 才能运行)。

  • 🛡️ 有害消息过滤:我们的 Detoxify 管道可自动过滤有害消息,维护干净安全的聊天环境。

  • 🔒 LLM-Guard:使用 LLM-Guard 管道确保安全的 LLM 交互,该管道具有提示词注入扫描器,可检测并缓解针对大语言模型的巧妙输入操纵。这可以防止 LLM 数据泄露,并增加一层抵御提示词注入攻击的能力。

  • 🕒 对话轮次限制:通过 Conversation Turn Limit 管道设置对话轮次限制,改进交互管理。

  • 📈 OpenAI 生成统计:我们的 OpenAI 管道为 OpenAI 模型提供详细的生成统计数据。

  • 🚀 多模型支持:我们与来自 各家提供商 的各种 AI 模型的无缝集成,扩展了您的选择范围,让您可以选择并交互各种语言模型。

除了广泛的功能和自定义选项外,我们还提供了 一系列即用型 Pipeline 示例库 以及 一个实用的示例脚手架 Pipeline,帮助您快速入门。这些资源将简化您的开发流程,使您能够使用 Pipelines 和 Python 快速创建强大的 LLM 交互。祝您编码愉快! 💡


🖥️ 用户体验

  • 🖥️ 直观的界面:聊天界面在设计时充分考虑了用户体验,灵感来源于 ChatGPT 的用户界面。

  • 极速响应:享受稳定、快速且响应及时的性能。

  • 🎨 启动画面:简洁的加载启动画面,提供更顺畅的用户体验。

  • 🌐 个性化界面:可以在“设置” > “界面”中,在全新设计的搜索落地页和经典聊天 UI 之间进行选择,打造量身定制的体验。

  • 📦 Pip 安装方法:可以通过命令 pip install open-webui 安装 Open WebUI,简化了安装流程,让新用户更容易上手。更多信息请访问:https://pypi.org/project/open-webui/。

  • 🌈 主题定制:通过多种选项个性化您的 Open WebUI 体验,包括各种纯色且时尚的主题、可自定义的聊天背景图片,以及三种模式选项:明亮、黑暗或 OLED 黑暗模式——或者让 Her 为您选择! ;)

  • 🖼️ 自定义背景支持:在“设置” > “界面”中设置自定义背景,个性化您的体验。

  • 📝 支持 Markdown 的丰富横幅:通过横幅中的 Markdown 支持创建视觉上吸引人的公告,实现更丰富、更动态的内容。

  • 💻 代码语法高亮:我们的语法高亮功能增强了代码的可读性,提供清晰简洁的代码视图。

  • 🗨️ 用户消息中的 Markdown 渲染:用户消息现在以 Markdown 格式渲染,增强了可读性和交互性。

  • 🎨 灵活的文本输入选项:在富文本输入和传统的聊天文本区域输入之间切换,满足用户偏好,并提供高级格式和简单文本输入之间的选择。

  • 👆 轻松共享代码:通过便捷的代码复制选项简化共享和协作流程,包括代码块中的浮动复制按钮和代码跨度的点击复制功能,节省时间并减少挫败感。

  • 🎨 交互式 Artifacts:直接在界面中渲染网页内容和 SVG,支持快速迭代和实时更改,增强创造力和生产力。

  • 🖊️ 实时代码编辑:增强的代码块允许直接在 LLM 响应中进行实时编辑,Artifacts 支持实时重载,简化了编码和测试。

  • 🔍 增强的 SVG 交互:SVG 图像(包括 Mermaid 图表)的平移和缩放功能,支持对复杂概念的深入探索和理解。

  • 🔍 文本选择快捷操作:高亮显示 LLM 响应中的文本时会出现浮动按钮,提供“提问”或“解释”等深度交互,增强整体用户体验。

  • ↕️ 双向聊天支持:您可以轻松在从左到右和从右到左的聊天方向之间切换,以适应各种语言偏好。

  • 📱 移动端辅助功能:在移动设备上,只需简单的滑动滑动手势即可打开和关闭侧边栏。

  • 🤳 支持设备上的触感反馈:Android 设备支持触感反馈,在某些交互过程中提供沉浸式的触觉体验。

  • 🔍 用户设置搜索:快速搜索设置字段,提高易用性和导航效率。

  • 📜 离线 Swagger 文档:离线访问对开发者友好的 Swagger API 文档,确保随时随地都能访问。

  • 💾 性能优化:大型依赖项的懒加载最大限度地减少了初始内存使用,提升了性能并缩短了加载时间。

  • 🚀 持久化且可扩展的配置:Open WebUI 的配置存储在数据库 (webui.db) 中,支持无缝负载均衡、高可用设置以及跨多个实例的持久化设置,方便访问和重复使用配置。

  • 🔄 便携式导入/导出:轻松导入和导出 Open WebUI 配置,简化了在多个系统之间复制设置的过程。

  • 快速访问文档和快捷键:位于主 UI 界面右下角的问号按钮(在台式机和笔记本电脑等大屏幕上可用)让用户可以轻松访问 Open WebUI 文档页面和可用的键盘快捷键。

  • 📜 更新日志和检查更新:用户可以在“设置” > “关于” > “查看新功能”菜单中访问完整的更新日志并检查更新,该菜单提供了最新功能、改进和错误修复的快速概览。


💬 对话

  • 💬 真正的异步聊天:享受不间断的多任务处理,支持真正的异步聊天。您可以创建聊天后离开,随时回来时响应已就绪。

  • 🔔 聊天完成通知:当非活动标签页中的聊天完成时,在 UI 内获得即时通知,确保您不会错过任何已完成的响应。

  • 🌐 通知 Webhook 集成:通过可配置的 Webhook 通知接收长时间运行的聊天或外部集成的及时更新,即使标签页已关闭。

  • 📚 频道 (Beta):探索用户与 AI 之间的实时协作,采用 Discord/Slack 风格的聊天室。您可以为频道构建机器人,并解锁异步通信以实现主动的多智能体工作流。

  • 🖊️ 频道中的输入指示器:通过频道中的实时输入指示器增强协作,让每个人都保持参与和知情。

  • 👤 用户状态指示器:在频道中点击用户头像即可快速查看其状态,提供更好的协调和可用性洞察。

  • 💬 聊天控制:轻松调整每个会话的参数,实现对交互的精确控制。

  • 💖 收藏响应管理:直接从聊天概览中轻松标记和组织收藏的响应,方便检索和访问。

  • 📌 置顶聊天:支持置顶聊天,让重要的对话触手可及。

  • 🔍 RAG 嵌入支持:直接在“管理员面板” > “设置” > “文档”菜单中更改检索增强生成 (RAG) 的嵌入模型,增强文档处理。此功能支持 Ollama 和 OpenAI 模型。

  • 📜 RAG 功能中的引用:RAG 功能允许用户轻松追踪提供给 LLM 的文档上下文,并添加引用作为参考点。

  • 🌟 增强型 RAG Pipeline:为我们的 RAG 嵌入功能提供可切换的混合搜索子功能,通过 BM25 增强 RAG 功能,并由 CrossEncoder 提供重排序支持,还可配置相关性分数阈值。

  • 📹 YouTube RAG Pipeline:专用的 YouTube 视频 RAG 管道,可通过视频 URL 总结视频,直接实现与视频字幕的流畅交互。

  • 📁 全面的文档检索:在全文检索和传统的片段检索之间切换,支持总结等全面任务,并增强文档处理能力。

  • 🌟 RAG 引用相关性:通过在 RAG 结果中添加相关性百分比,轻松评估引用的准确性。

  • 🗂️ 高级 RAG:通过对聊天记录进行智能预处理,在检索前确定最佳查询,从而提高 RAG 的准确性。

  • 📚 RAG 的内联引用:受益于检索增强生成 (RAG) 响应的无缝内联引用,提高了可追溯性,并为新上传的文件提供清晰的来源说明。

  • 📁 大文本处理:可选将粘贴的大段文本转换为文件上传,直接用于 RAG,保持聊天界面整洁。

  • 🔄 多模态支持:轻松与支持多模态交互的模型(如 LLaVA)进行交互,包括图像。

  • 🤖 多模型支持:在不同模型之间快速切换,实现多样化的聊天交互。

  • 🔀 多模型聊天中的响应合并:通过将多个模型的响应合并为一个连贯的回复来增强对话。

  • 聊天中支持相同模型的多个实例:增强的多模型聊天支持添加同一个模型的多个实例。

  • 💬 临时聊天功能:引入了临时聊天功能,弃用了旧的聊天记录设置,以增强用户交互的灵活性。请注意,临时聊天中的文档处理完全在浏览器中进行,以确保隐私和数据最小化。这意味着某些需要后端处理的特定文件类型(如复杂的 DOCX 解析)在临时模式下的功能可能受限。

  • 🖋️ 用户消息编辑:增强了用户聊天编辑功能,允许在不发送的情况下保存更改。

  • 💬 高效的会话编辑:使用 Cmd/Ctrl+Shift+Enter 快捷键快速直观地创建新的消息对,简化会话长度测试。

  • 🖼️ 客户端图像压缩:通过客户端图像压缩节省带宽并提高性能,允许您在“设置”>“界面”中上传前压缩图像。

  • 👥 '@' 模型集成:通过在对话期间无缝切换到任何可访问的本地或外部模型,用户可以在单个聊天中利用多个模型的集体智慧。这可以通过在聊天中使用 @ 命令按名称指定模型来完成。

  • 🏷️ 会话标记:使用我们高效的 tag: 查询系统,轻松分类和查找标记的聊天,以便快速参考和简化数据收集,让您在不堆叠界面的情况下管理、搜索和组织会话。

  • 🧠 自动标记:可以选择自动标记对话以改进组织,镜像自动生成标题的效率。

  • 👶 聊天克隆:轻松克隆并保存任何聊天的快照,以便将来参考或继续。此功能可以轻松地从上次中断的地方继续或与他人分享您的会话。要创建聊天的副本,只需点击聊天下拉选项中的 克隆 按钮。你能跟上你的克隆吗?

  • 可视化对话流:交互式消息图表,改进了对话流的可视化,增强了对复杂讨论的理解和导航。

  • 📁 聊天文件夹:将您的聊天组织到文件夹中,拖放以便于管理,并无缝导出以进行分享或分析。

  • 📤 轻松导入聊天:只需将聊天导出文件 (JSON) 拖放到侧边栏,即可将聊天导入到您的工作区。

  • 📜 提示词预设支持:在聊天输入中使用 / 命令即时访问自定义预设提示词。轻松加载预定义的对话启动器并加速您的交互。通过 Open WebUI Community 集成轻松导入提示词,或创建您自己的提示词!

  • 📅 提示词变量支持:提示词变量,如 {{CLIPBOARD}}{{CURRENT_DATE}}{{CURRENT_DATETIME}}{{CURRENT_TIME}}{{CURRENT_TIMEZONE}}{{CURRENT_WEEKDAY}}{{USER_NAME}}{{USER_LANGUAGE}}{{USER_LOCATION}} 可以在系统提示词中使用,或通过使用斜杠命令在聊天中直接选择提示词。

    • 请注意,{{USER_LOCATION}} 提示词变量需要通过 HTTPS 进行安全连接。要使用此特定提示词变量,请确保在 设置 > 界面 菜单中开启了 {{USER_LOCATION}}
    • 请注意,{{CLIPBOARD}} 提示词变量需要访问您设备的剪贴板。
  • 🧠 记忆功能:通过 设置 > 个性化 > 记忆 菜单手动添加您希望 LLM 记住的信息。记忆可以添加、编辑和删除。


💻 模型管理

  • 🛠️ 模型构建器:所有模型都可以在模型编辑页面内通过持久的模型构建器模式进行构建和编辑。

  • 📚 模型的知识库支持:能够直接从模型的编辑页面将工具、函数和知识库集合附加到模型,从而增强每个模型可用的信息。

  • 🗂️ 模型预设:为 Ollama 和 OpenAI API 创建和管理模型预设。

  • 🏷️ 模型标记:模型工作区允许用户使用标签组织他们的模型。

  • 📋 模型选择器下拉列表排序:通过在模型工作区中将模型拖放到所需位置,可以毫不费力地组织模型,随后这些更改将反映在模型下拉菜单中。

  • 🔍 模型选择器下拉列表:通过模糊搜索以及带有模型标签和模型描述的详细模型信息,轻松查找并选择您的模型。

  • ⌨️ 方向键模型选择:使用方向键进行更快速的模型选择,增强了易用性。

  • 🔧 模型工作区中的快速操作:增强了 Shift 键快速操作,用于在模型工作区中隐藏/显示和删除模型。

  • 😄 透明的模型使用情况:由于可见的状态显示,在带有知识增强模型的查询过程中,能够随时了解系统的状态。

  • ⚙️ 高级参数的精细控制:通过调整模型参数(如 seedtemperaturefrequency penaltycontext length 等)获得更深层次的控制。

  • 🔄 无缝集成:直接从 Ollama 图书馆 的模型页面复制任何 ollama run {model:tag} CLI 命令,并将其粘贴到模型下拉列表中,即可轻松选择并拉取模型。

  • 🗂️ 创建 Ollama Modelfile:要为 Ollama 创建模型文件,请导航至 管理员面板 > 设置 > 模型 > 创建模型 菜单。

  • ⬆️ GGUF 文件创建模型:通过从 管理员面板 > 设置 > 模型 > 实验性 菜单直接上传 GGUF 文件,毫不费力地在 Open WebUI 中创建 Ollama 模型。该过程已简化,可以选择从您的机器上传或从 Hugging Face 下载 GGUF 文件。

  • ⚙️ 默认模型设置:新聊天的默认模型偏好可以在移动设备上的 设置 > 界面 菜单中设置,或者在桌面 PC 和笔记本电脑上的新聊天模型选择器下拉列表下更轻松地设置。

  • 💡 LLM 响应洞察:可以查看每个生成响应的详细信息,包括外部模型 API 洞察和全面的本地模型信息。

  • 🕒 模型详情一目了然:直接在模型工作区中查看关键的模型详情,包括模型哈希和最后修改的时间戳,以增强跟踪和管理。

  • 📥🗑️ 下载/删除模型:可以直接在 Open WebUI 中轻松下载或删除模型。

  • 🔄 更新所有 Ollama 模型:一个方便的按钮允许用户一次性更新所有本地安装的模型,简化了模型管理。

  • 🍻 TavernAI 角色卡集成:在我们的模型构建器中通过 TavernAI 角色卡集成体验增强的视觉叙事。用户可以将 TavernAI 角色卡 PNG 直接无缝地合并到他们的模型文件中,从而创造更加身临其境且引人入胜的用户体验。

  • 🎲 模型游乐场 (Beta):在模型游乐场区域(beta)试用模型,这使用户能够在沙盒环境中轻松测试和探索模型的能力和参数,然后再部署到实时聊天环境中。


👥 协作

  • 🗨️ 本地聊天分享:以高效且无缝的方式在用户之间生成并分享聊天链接,从而增强协作和沟通。

  • 👍👎 RLHF 标注:通过对消息进行“赞”或“踩”的评价,并对响应进行 1-10 分的打分,随后还可以提供文本反馈,以此增强消息的影响力。这有助于为人类反馈强化学习(RLHF)创建数据集。利用您的消息来训练或微调模型,同时确保本地保存数据的机密性。

  • 🔧 全面的反馈导出:将反馈历史数据导出为 JSON,以便与 RLHF 处理无缝集成并进行进一步分析,为改进提供宝贵的洞察。

  • 🤝 社区分享:通过点击 分享到 Open WebUI 社区 按钮,与 Open WebUI 社区 分享您的聊天会话。此功能允许您与其他用户互动并在平台上进行协作。

    • 要使用此功能,请登录您的 Open WebUI 社区账号。分享聊天可以培育一个充满活力的社区,鼓励知识共享,并促进共同解决问题。请注意,社区分享聊天会话是一个可选功能。只有管理员可以在 管理员设置 > 设置 > 通用 菜单中开启或关闭此功能。
  • 🏆 社区排行榜:通过我们的排行榜系统实时竞争并跟踪您的表现。该系统使用 ELO 评分系统,并允许选择性地分享反馈历史。

  • ⚔️ 模型评估竞技场:直接从管理员设置中对模型进行盲测 A/B 测试,进行真正的并排比较,从而更轻松地找到最适合您需求的模型。

  • 🎯 基于话题的排名:通过我们实验性的基于话题的重排序系统发现更准确的排名,该系统根据反馈中的标签相似性调整排行榜名次。

  • 📂 统一协作工作区:在一个方便的位置访问和管理您所有的模型文件、提示词、文档、工具和函数,同时还支持多用户协作并为模型、知识库、提示词或工具做出贡献,从而简化您的工作流程并增强团队合作。


📚 历史与存档

  • 📜 聊天历史:通过聊天导航侧边栏轻松访问和管理您的对话历史。在 设置 > 聊天 菜单中关闭聊天历史,以防止新交互产生聊天历史。

  • 🔄 重新生成历史访问:轻松回顾和探索您完整的 LLM 响应重新生成历史。

  • 📬 存档聊天:轻松存储您与模型完成的对话,以便将来参考或交互,保持聊天界面的整洁。

  • 🗃️ 存档所有聊天:此功能允许您一次性快速存档所有聊天。

  • 📦 导出所有存档聊天为 JSON:此功能使用户能够轻松地将所有存档聊天导出为单个 JSON 文件,可用于备份或迁移目的。

  • 📄 下载聊天为 JSON/PDF/TXT:以您喜欢的 .json.pdf.txt 格式单独下载您的聊天。

  • 📤📥 导入/导出聊天历史:通过 导入聊天导出聊天 选项,无缝地将您的聊天数据移入或移出平台。

  • 🗑️ 删除所有聊天:此选项允许您永久删除所有聊天,确保一个全新的开始。


🎙️ 音频、语音与易用性

  • 🗣️ 支持多个提供商的语音输入:通过多个语音转文本(STT)提供商与您的模型进行语音交互:本地 Whisper(默认,带有 VAD 过滤)、OpenAI 兼容端点、Deepgram 和 Azure 语音服务。享受直接与模型交谈的便利,静音 3 秒后自动语音输入,提供流式体验。

  • 😊 表情通话:在 设置 > 界面 菜单中开启此功能,允许 LLM 在语音通话期间使用表情符号表达情感,从而实现更动态的交互。

  • 🎙️ 免提语音通话功能:无需动手即可发起语音通话,使交互更加无缝。

  • 📹 视频通话功能:支持与 LlaVA 和 GPT-4o 等视觉模型进行视频通话,为您的沟通增添视觉维度。

  • 👆 点击中断:在移动设备上的语音会话期间,通过简单的点击停止 AI 的语音,确保对交互的无缝控制。

  • 🎙️ 语音中断:在移动设备上的语音会话期间,通过您的声音停止 AI 的语音,确保对交互的无缝控制。

  • 🔊 多个文本转语音提供商:通过多个提供商自定义您的文本转语音(TTS)体验:OpenAI 兼容端点、Azure 语音服务、ElevenLabs(支持欧盟居住地)、本地 Transformers 模型以及用于朗读 LLM 响应的基于浏览器的 WebAPI。

  • 🔗 直接访问通话模式:直接从 URL 激活通话模式,为移动设备用户提供便捷的快捷方式。

  • 可自定义的文本转语音:控制消息内容如何分段进行文本转语音(TTS)生成请求,从而实现灵活的语音输出选项。

  • 🔊 Azure 语音服务集成:支持 Azure 语音服务的文本转语音(TTS),为用户提供更广泛的语音合成选项。

  • 🎚️ 可自定义的音频播放:允许用户在通话模式设置中根据自己的偏好调整音频播放速度,增强了易用性和实用性。

  • 🎵 广泛的音频兼容性:支持通过 RAG 进行多种音频文件格式的转录,包括 'audio/x-m4a',以扩大平台内音频内容的兼容性。

  • 🎤 Deepgram 语音转文本集成:利用 Deepgram 先进的语音识别功能进行高精度语音转录,提供除本地 Whisper 和 OpenAI 之外的额外 STT 选项。

  • 🔊 ElevenLabs 文本转语音集成:访问 ElevenLabs 的优质语音合成,支持欧盟居住地 API 端点,提供高质量且自然的语音输出,增强用户体验。

  • 🔊 音频压缩:实验性的音频压缩允许绕过 OpenAI 语音转文本处理的 25MB 限制,扩展了基于音频的交互可能性。

  • 🗣️ 实验性 SpeechT5 TTS:享受本地 SpeechT5 支持,以获得改进的文本转语音能力。


🐍 代码执行

  • 🚀 通用、UI 无关、OpenAI 兼容的插件框架:无缝集成并自定义 Open WebUI Pipelines,以实现高效的数据处理和模型训练,确保极致的灵活性和可扩展性。

  • 🛠️ 原生 Python 函数调用:通过原生函数调用,直接在 Open WebUI 中发挥 Python 的力量。通过内置的代码编辑器,轻松集成自定义代码以构建独特功能,如自定义 RAG 流水线、网络搜索工具,甚至是代理类操作,从而在 工具函数 工作区内无缝开发和集成函数代码。

  • 🐍 Python 代码执行:通过 Pyodide 在浏览器中本地执行 Python 代码,支持 Pyodide 支持的一系列库。

  • 🌊 Mermaid 渲染:使用支持 Mermaid 语法渲染的 Mermaid 图表工具,直接在 Open WebUI 中创建视觉精美的图表和流程图。

  • 🔗 Iframe 支持:支持通过函数和工具直接在您的聊天界面中渲染 HTML。


🔒 集成与安全

  • 支持多个 OpenAI 兼容 API:无缝集成并自定义各种 OpenAI 兼容 API,增强聊天交互的多样性。

  • 🔑 简化的 API 密钥管理:轻松生成和管理密钥,以便配合 OpenAI 库使用 Open WebUI,从而简化集成和开发。

  • 🌐 HTTP/S 代理支持:使用 http_proxyhttps_proxy 环境变量轻松配置网络设置。如果设置了这些变量,它们应分别包含 HTTP 和 HTTPS 代理的 URL。

  • 🌐🔗 外部 Ollama 服务器连接:通过配置环境变量,无缝链接到托管在不同地址的外部 Ollama 服务器。

  • 🛢️ 灵活的数据库集成:使用环境变量无缝连接到自定义数据库,包括 SQLite、Postgres 以及 Milvus 等多种向量数据库,以实现灵活且可扩展的数据管理。

  • 🗄️ 支持多种向量数据库:从 9 种向量数据库选项中进行选择,以获得最佳 RAG 性能:ChromaDB(默认)、带有 PGVector 的 PostgreSQL、Qdrant、Milvus、Elasticsearch、OpenSearch、Pinecone、S3Vector 和 Oracle 23ai。每个选项都提供不同的扩展特性和性能曲线,以匹配您的部署需求。

  • ☁️ 企业级云存储后端:配置云存储后端,包括 Amazon S3(及 MinIO 等 S3 兼容提供商)、Google Cloud Storage 和 Microsoft Azure Blob Storage,以实现可扩展的文件存储,支持无状态实例和分布式部署。

  • 📂 云端文件选择器集成:通过原生文件选择器界面直接从 Google Drive 和 OneDrive/SharePoint 导入文档,为使用企业云存储解决方案的用户简化工作流程。

  • 🌐🗣️ 支持外部语音转文本:新增的外部语音转文本(STT)服务提供了更强的灵活性,允许用户选择自己喜欢的提供商进行无缝交互。

  • 🌐 远程 ChromaDB 支持:通过连接到远程 ChromaDB 服务器来扩展数据库的能力。

  • 🔀 多个 Ollama 实例负载均衡:在多个 Ollama 实例之间轻松分配聊天请求,以增强性能和可靠性。

  • 🚀 高级负载均衡与可靠性:利用增强的负载均衡功能、支持 Redis 的无状态实例以及自动 Web Socket 重新连接,提升 WebUI 的性能、可靠性和可扩展性,确保跨多个实例的无缝且不间断的交互。

  • ☁️ 云存储后端支持:通过云存储后端(Amazon S3、Google Cloud Storage、Microsoft Azure Blob Storage)实现无状态 Open WebUI 实例,从而增强可扩展性、高可用性,并在多个实例之间平衡繁重的工作负载。

  • 🛠️ OAuth 用户组管理:通过 OAuth 集成实现组级管理,增强协作环境中的控制力和可扩展性。

  • 🔐 SCIM 2.0 自动化供应:通过 SCIM 2.0 协议实现企业级用户和组供应,支持与 Okta、Azure AD 和 Google Workspace 等身份提供商无缝集成,实现自动化的用户生命周期管理,减少管理开销。

  • 📊 OpenTelemetry 可观测性:使用 OpenTelemetry 协议 (OTLP) 将追踪、指标和日志导出到您的可观测性堆栈,支持 gRPC 和 HTTP 导出器,并具有可配置的端点、身份验证和采样策略,以实现全面的生产监控。


👑 管理员功能

  • 👑 超级管理员分配:自动将第一个注册的用户分配为超级管理员,其角色不可更改,且不能被任何其他人(包括其他管理员)修改。

  • 🛡️ 细粒度的用户权限:通过可自定义的基于角色的权限来限制用户操作和访问,确保只有授权人员才能执行特定任务。

  • 👥 多用户管理:直观的带有分页功能的管理员面板允许您无缝管理多个用户,简化了用户管理并简化了用户生命周期管理。

  • 🔧 管理员面板:用户管理系统的设计旨在简化用户的入驻和管理,提供直接添加用户或通过 CSV 批量导入的选项。

  • 👥 活跃用户指示器:监控活跃用户数量以及谁正在使用哪些模型,以帮助衡量何时由于用户数量较多而可能影响性能。

  • 🔒 默认注册角色:为新注册用户指定默认角色(pendinguseradmin),在管理新用户的权限和访问级别方面提供灵活性。

  • 🔒 防止新用户注册:启用禁用新用户注册的选项,限制对平台的访问并维持固定数量的用户。

  • 🔒 防止聊天删除:管理员可以切换一项设置,防止所有用户删除其聊天消息,确保所有聊天消息都被保留用于审计或合规目的。

  • 🔗 Webhook 集成:通过 Webhook 订阅新用户注册事件(兼容 DiscordGoogle ChatSlackMicrosoft Teams),提供实时通知和自动化能力。

  • 📣 可配置的通知横幅:管理员可以创建可自定义的横幅,并在 config.json 中进行持久化,具有内容、背景颜色(infowarningerrorsuccess)以及是否可关闭的选项。横幅仅对登录用户可见,确保敏感信息的机密性。

  • 🛡️ 模型白名单:通过允许管理员为具有 user 角色的用户设置模型白名单来增强安全性和访问控制,确保只有授权的模型才能被访问。

  • 🔑 管理员控制社区分享:管理员可以通过 管理员面板 > 设置 菜单中的开关为所有用户启用或禁用社区分享。此开关允许管理员管理可访问性和隐私,确保环境安全。管理员可以选择为所有用户启用或禁用 分享到社区 按钮,从而控制社区参与和协作。

  • 📧 可信邮箱身份验证:可选地使用可信邮箱标头进行身份验证,为保护您的 Open WebUI 实例增加一层额外的安全和身份验证。

  • 🔒 后端反向代理支持:通过 Open WebUI 后端与 Ollama 之间的直接通信来增强安全性。这一关键功能消除了在局域网(LAN)上暴露 Ollama 的需求。从 Open WebUI 发送到 /ollama/api 路由的请求将从后端无缝重定向到 Ollama,从而增强了整体系统安全性并提供了额外的保护层。

  • 🔒 身份验证:请注意,Open WebUI 本身不原生支持联邦身份验证方案(如 SSO、OAuth、SAML 或 OIDC)。但是,它可以配置为将身份验证委派给身份验证反向代理,从而有效地实现单点登录 (SSO) 体验。这种设置允许您集中管理用户身份验证和管理,提高安全性和用户便利性。通过将 Open WebUI 与身份验证反向代理集成,您可以利用现有的身份验证系统并简化用户对 Open WebUI 的访问。有关配置此功能的更多信息,请参考 联邦身份验证支持

  • 🔓 可选身份验证:通过将 WEBUI_AUTH 设置为 False 来灵活地禁用身份验证。这是没有现有用户的全新安装的理想解决方案,或者可用于演示目的。

  • 🚫 高级 API 安全:根据自定义的模型过滤器阻止 API 用户,增强对 API 访问的安全性和控制。

  • 管理员更新通知:确保管理员在登录时立即收到更新通知,让他们随时了解最新的更改和系统状态。

  • 👥 用户组管理:创建和管理用户组,实现无缝的组织和控制。

  • 🔐 基于组的访问控制:根据用户组对模型、知识库、提示词和工具设置细粒度的访问权限,从而实现更受控且安全的环境。

  • 🛠️ 细粒度的用户权限:轻松管理工作区权限,包括文件上传、删除、编辑和临时聊天,以及模型、知识库、提示词和工具的创建。

  • 🔑 LDAP 身份验证:通过支持 LDAP 进行用户管理,增强安全性和可扩展性。

  • 🔐 SCIM 2.0 供应:通过 SCIM 2.0 协议集成身份提供商(如 Okta、Azure AD 和 Google Workspace),自动化用户和组的生命周期管理,减少管理开销并确保系统间用户管理的同步。

  • 🌐 可自定义的 OpenAI 连接:通过自定义 OpenAI 设置享受顺畅的操作,包括前缀 ID 支持和针对 API 的显式模型 ID 支持。

  • 🔐 Ollama API Key Management: Manage Ollama credentials, including prefix ID support, for secure and efficient operation.

  • 🔄 Connection Management: Easily enable or disable individual OpenAI and Ollama connections as needed.

  • 🎨 Intuitive Model Workspace: Manage models across users and groups with a redesigned and user-friendly interface.

  • 🔑 API Key Authentication: Tighten security by easily enabling or disabling API key authentication.

  • 🔄 Unified Model Reset: Reset and remove all models from the Admin Settings with a one-click option.

  • 🔓 Flexible Model Access Control: Easily bypass model access controls for user roles when not required, using the 'BYPASS_MODEL_ACCESS_CONTROL' environment variable, simplifying workflows in trusted environments.

  • 🔒 Configurable API Key Authentication Restrictions: Flexibly configure endpoint restrictions for API key authentication, now off by default for a smoother setup in trusted environments.