Skip to main content
Sponsored by Open WebUI Inc.
Open WebUI Inc.

Upgrade to a licensed plan for enhanced capabilities, including custom theming and branding, and dedicated support.

🌟 OpenAPI 工具服务器

本仓库提供了参考的 OpenAPI 工具服务器实现,使开发人员能够轻松且安全地将外部工具和数据源集成到 LLM 代理和工作流中。这些实现旨在最大限度地降低使用门槛和学习曲线,采用被广泛接受且经受过实战检验的 OpenAPI 规范 作为标准协议。

通过利用 OpenAPI,我们消除了对私有或陌生通信协议的需求,确保您可以快速且自信地构建或集成服务器。这意味着您可以减少花在研究自定义接口上的时间,而将更多时间用于构建增强 AI 应用的强大工具。

☝️ 为什么选择 OpenAPI?

  • 既定标准:OpenAPI 是一种广泛使用的、经过生产验证的 API 标准,得到了数千个工具、公司和社区的支持。

  • 不重复造轮子:没有额外的文档或私有规范带来的困惑。如果您现在会构建 REST API 或使用 OpenAPI,那么您就已经准备好了。

  • 易于集成和托管:在外部或本地部署您的工具服务器,无需担心供应商锁定或复杂的配置。

  • 强安全性:OpenAPI 围绕 HTTP/REST API 构建,原生支持广泛使用的安全通信方法,包括 HTTPS 和经过验证的身份验证标准(OAuth、JWT、API 密钥)。

  • 面向未来且稳定:与不够成熟或实验性的协议不同,OpenAPI 承诺了可靠性、稳定性和长期的社区支持。

🚀 快速开始

使用我们在 servers/ 目录中提供的基于 FastAPI 的参考实现快速开始。(您可以根据需要将这些示例适配到您喜欢的技术栈中,例如使用 FastAPIFastOpenAPI 或任何其他兼容 OpenAPI 的库):

git clone https://github.com/open-webui/openapi-servers
cd openapi-servers

使用 Bash


# 示例:为特定服务器 'filesystem' 安装依赖项
cd servers/filesystem
pip install -r requirements.txt
uvicorn main:app --host 0.0.0.0 --reload

文件系统服务器应可通过以下地址访问:http://localhost:8000

文档路径将为:http://localhost:8000

使用 Docker

如果您安装了 docker compose,请使用以下命令启动服务器:

docker compose up

服务将可通过以下地址访问:

现在,只需将兼容 OpenAPI 的客户端或 AI 代理指向您的本地或公开部署的 URL 即可——没有配置烦恼,也没有复杂的传输方式。

🌱 Open WebUI 社区

  • 有关一般性讨论、技术交流和公告,请访问我们的社区讨论页面。
  • 有想法或反馈?请开启一个 issue!