-e OLLAMA_API_BASE_URL=http://host.docker.internal:11434 ` -v openwebui:/app/backend/data ` ghcr.io/open-webui/open-webui:main 关键参数解析: --add-host=host.docker.internal:host-gateway:添加 DNS 条目,将 `host.docker.i
一个OLLAMA_ORIGINS ,值为 * ; 一个OLLAMA_HOST ,值为 0.0.0.0:11434 ; 11434端口号是官方默认端口号,可根据自己需求修改。 环境设置完成后,回到docker,点击terminal打开命令框,输入命令 docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --n...
在包含docker-compose.yml文件的目录中,打开命令提示符或PowerShell,并运行以下命令:docker-compose up -d 这将启动并运行Ollama和Open-WebUI的服务。-d参数表示在后台运行。2.3 验证安装 安装完成后,你可以通过访问 http://localhost:3000 来验证Open-WebUI是否成功运行。如果一切正常,你应该能看到Open-WebUI...
2.2 运行Docker Compose 在包含docker-compose.yml文件的目录中,打开命令提示符或PowerShell,并运行以下命令: docker-compose up -d 这将启动并运行Ollama和Open-WebUI的服务。-d参数表示在后台运行。 2.3 验证安装 安装完成后,你可以通过访问 http://localhost:3000 来验证Open-WebUI是否成功运行。如果一切正常,你...
docker pull ghcr.io/ollama-webui/ollama-webui:main 这个命令会从GitHub Container Registry拉取最新的Ollama Web UI镜像。 4. 配置Docker以运行Ollama镜像 使用以下命令来运行拉取的Ollama镜像,并创建一个Docker容器: shell docker run --gpu=all -d -p 3000:8080 --add-host=host.docker.internal:hos...
幸运的是,有一些开源项目如Ollama和Open-WebUI,它们可以帮助我们搭建私有的GPT环境。本文将指导你如何在Windows系统上使用Docker Compose来安装和配置这两个项目。 一 环境准备 在开始之前,请确保你的Windows系统上已经安装了以下软件: Docker Desktop:Docker的桌面版,可以在Windows上运行Docker容器。你可以从Docker官网...
如果你想在 Windows 上跑 Open WebUI,步骤超简单,下面给你划重点了: 前提条件 首先,Ollama记得要先装好,并且在你的 Windows 系统上跑起来(之前有提到在 Windows 上安装和运行 Ollama 的简易教程)。 第一步:装 Docker Desktop 去Docker 官方网站 下个Docker Desktop(https://www.docker.com/products/docker-...
在包含docker-compose.yml文件的目录中,打开命令提示符或PowerShell,并运行以下命令: docker-compose up -d 这将启动并运行Ollama和Open-WebUI的服务。-d参数表示在后台运行。 2.3 验证安装 安装完成后,你可以通过访问 http://loca...
本教程将指导你在 Windows 系统上安装 Docker 和 Ollama,下载 DeepSeek-V3 模型,并通过 Open WebUI 提供一个用户友好的 Web 界面来与模型交互。 步骤1:安装 Docker 下载Docker Desktop 访问Docker 官方网站。 点击“Download for Windows”按钮,下载 Docker Desktop 安装程序。