open-webui
核心内容总结:
项目功能
Open WebUI 是一个基于 Web 的用户界面,支持与 Ollama(本地模型服务)或 OpenAI API(云端模型服务)进行交互,提供本地化部署和模型管理功能。
使用方法
- Docker 安装:
- 默认配置(本地 Ollama):
docker run命令启动容器,映射端口 3000。 - 连接远程 Ollama:通过
-e OLLAMA_BASE_URL设置远程服务器地址。 - GPU 加速:使用
--gpus all参数并指定:cuda标签的镜像。 - 自带 Ollama:使用
:ollama标签的镜像,集成 Ollama 服务。
- 默认配置(本地 Ollama):
- 其他方式:支持 Docker Compose、Kustomize、Helm 等安装方法,或参考文档进行原生安装。
主要特性
- 多模型支持:兼容 Ollama 本地模型和 OpenAI API 云端模型。
- 硬件加速:支持 Nvidia GPU 加速(需 CUDA 环境)。
- 数据持久化:通过 Docker 卷
-v open-webui:/app/backend/data保存数据库和配置。 - 离线模式:设置
HF_HUB_OFFLINE=1防止联网下载模型。 - 自动更新:使用 Watchtower 工具自动更新 Docker 容器。
- 开发分支:提供
:dev标签的不稳定版本,包含最新功能但可能有缺陷。
注意事项
- 连接远程 Ollama 时需正确配置网络参数(如
--network=host)。 - 安装前需确保 Docker 环境已配置,GPU 使用需安装 Nvidia 工具包。