dockerpullghcr.io/open-webui/open-webui:main 在镜像源拉取成功后输入以下命令: 不需要使用 NVIDIA Cuda 加速: docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:mai...
输入:ollama run [你想要部署的模型:模型规模],本次部署的ollama run deepseek-r1:8b 下图是其他对应蒸馏模型部署命令 命令输入后会是开始pull模型,这里忘记截图了pulling过程中网络原因可能会出错,中断了就再敲一次部署命令,进度会继续,完成部署模型就已经可以用了。 第三步,部署docker和Open-WebUI,让模型通过网...
图形化交互:Docker 部署 Open WebUI 除了通过命令行与 DeepSeek 交互,我们还可以用 Open WebUI 实现更友好的图形化界面操作。不过在此之前,得先确认电脑上安装并运行了Docker,要是还没安装,需要去 Docker 官网一键下载安装。 接下来,通过 Docker 部署 Open WebUI : 输入“docker run -d -p 3000:8080 --add...
# 拉取镜像docker pull ollama/ollama# 运行容器:CPU 模式docker run -d -p 11434:11434 -v /data/ollama:/root/.ollama --name ollama ollama/ollama# 运行容器:GPU 模式docker run --gpus=all -d -p 11434:11434 -v /data/ollama:/root/.ollama --name ollama ollama/ollama# 进入容器 bas...
复制命令,到终端内执行即可(如果你使用 Docker 版本的 Ollama,那么需要先docker exec -it ollama /bin/bash进入容器内再执行): 拉取DeepSeek-R1 模型 这个时候,相当于我们使用 Ollama 直接运行模型,你可以直接进行提问,比如: 使用Ollama 模型 输入/bye,可以退出当前模型交互。后续我们使用 Open WebUI 通过 Oll...
1)点击桌面的Ollama图标,只是启动了软件,可以打开http://localhost:11434/打开,显示running。具体与deepseek对话,还需要在终端提问。 2)再次打开终端,想访问deepseek-R1,运行ollama run deepseek-r1:1.5b命令,就可以 三OpenWebUI 的安装 1.Docker的安装 ...
4.2 下载并运行DeepSeek R1模型 4.3 常见问题解答 五、Docker Desktop 5.1 下载Docker Desktop 5.2 安装Docker Desktop 5.3 配置Docker Desktop 5.4 运行Docker Desktop 六、Open WebUI 6.1 拉取Open WebUI镜像 6.2 运行Open WebUI容器 6.4 访问Open WebUI ...
如果想随时随地远程访问本地部署的 DeepSeek,可以利用贝锐花生壳内网穿透,简单三步即可部署,轻松实现远程访问。 第一步,先注册一个贝锐账号,然后下载并登录花生壳客户端。 第二步,进入花生壳云管理平台,填写 Open WebUI 局域网 IP 和默认端口 “3000”,并设置安全访问规则。
复制命令,到终端内执行即可(如果你使用 Docker 版本的 Ollama,那么需要先进入容器内再执行): 拉取DeepSeek-R1 模型 这个时候,相当于我们使用 Ollama 直接运行模型,你可以直接进行提问,比如: 使用Ollama 模型 输入,可以退出当前模型交互。后续我们使用 Open WebUI 通过 Ollama 的 API 进行调用。
除了通过命令行与 DeepSeek 交互,我们还可以用 Open WebUI 实现更友好的图形化界面操作。不过在此之前,得先确认电脑上安装并运行了 Docker,要是还没安装,需要去 Docker 官网一键下载安装。 接下来,通过 Docker 部署 Open WebUI : 输入“docker run -d -p 3000:8080 --add - host=host.docker.internal:host...