面章节已经实现了ollama里部署llama3,并实现了一些简单的问答,但是问答的界面是在命令提示符中,交互很不友好,也不方便局域网其他用户访问,所以这节用docker部署MaxKB实现网页访问llama3,首先电脑上需要安装docker,window系统需要开启虚拟化后才能安装docker,这个可
第二部分脚本gpu_install2.txt,安装docker版ollama大模型和webui工具maxkb,便于网页调用 #运行docker docker run -d --gpus=all -v ollama:/root/.ollama -p 11434:11434 --name ollama ollama/ollama #加载webui sudo docker run -d --name=maxkb -p 8080:8080 -v ~/.maxkb:/var/lib/postgresql...
然后打开浏览器,地址栏输入:http://192.168.30.191:8080/ui/login,这里的IP是部署maxkb的电脑Ip,打开登陆界面,用户名默认是admin,密码默认MaxKB@123... 登陆后点击系统设置,先点击系统设置,然后点击左侧模型设置,点击添加模型,弹出框中选择ollama,然后按照如图界面填写。 填写结束后点击确认会出现如图所示的模型实例...
1. 执行命令后出现容器id,如下图所示,这样就是运行起来了。 然后打开浏览器,地址栏输入:ip+port,这里的IP是部署maxkb的电脑Ip,打开登陆界面,用户名默认是admin,密码默认MaxKB@123... 登陆后点击系统设置,先点击系统设置,然后点击左侧模型设置,点击添加模型,弹出框中选择ollama,然后按照如图界面填写。 填写结束后...
⑹安装好maxKBya镜像后登录maxKBya界面,在浏览器输入地址:(本机IP):8080,用户名: admin,密码:MaxKB@123..(后要自行修改密码),进入maxKBya界面选模型。 ⑺在浏览器输入地址:http://localhost:11434→出现信息:Ollama is running(可见Ollama已在本地运行) ...
docker pull ollama/ollama:rocm不过,我个人还是建议,我们始终使用具体的版本的镜像,来确保我们的运行环境是明确的,运行环境可维护性,使用类似下面的方式下载镜像。# CPU 或 Nvidia GPU 运行docker pull ollama/ollama:0.3.0# AMD 显卡运行docker pull ollama/ollama:0.3.0-rocm...
docker run -d --name=maxkb -p 8080:8080 -v ~/.maxkb:/var/lib/postgresql/data 1panel/maxkb 6.拉取完运行:ollama serve 7.IP+8080访问 用户名: admin 密码: MaxKB@123.. 8.进入后台后,选择添加ollama模型 模型名称:qwen 模型类型:大语言模型 ...
本教程简单介绍了如何用docker拉取Ubuntu镜像以及创建支持英伟达显卡的容器(虚拟机)。本教程不介绍docker安装方法,具体docker如何安装可以自行网上搜索~ 一docker镜像的拉取以及容器的创建 容器是基于镜像创建而来,一个镜像可以创建多个容器,且每个容器之间互不影响。也就是说把容器折腾坏了,重新创建一个容器即可。
docker里面的应..在window上装了docker,看网上教程安了ollama,因为要喂数据,然后又去安了maxkb和open webui去跑ollama里面的大模型,但是跑的时候不调用gpu……这是docker问题还
作为一个资深的nas党,整天不是在寻找docker就是在研究docker的路上,所以我决定把每个我玩过的docker都整理到一起 合集已开源在github,有账号的兄弟们麻烦给点个star,让我也享受一把成为github大佬的感觉 https://github.com/TWO-ICE/Awesome-NAS-Docker ...