我们现在已经实现了在本地fnOS飞牛云NAS中部署Ollama并接入Deepseek-R1模型,并在Chrome浏览器中安装Page Assist插件快速搭建本地AI模型的Web UI界面实现同一局域网内用户都能在网页中与AI模型聊天。但如果你的主机配置很不错,想让异地好友或者同事也能远程使用你在本地飞牛云NAS中部署的deepseek大模型应该怎么办呢?
点击Model:页面跳转后可以看到第一个就是DeepSeek-r1模型: 找到你想要下载的各种量级的deepseek-r1模型,右边就是对应的模型下载命令,如果你安装fnOS飞牛云NAS的主机配置较高,可以选择32B或者70B模型,更多参数配置可以参考下图: 我这里下载1.5b的轻量级deepseek模型进行演示,在终端中执行这个命令就能下载了: 可以看到已...
组建自有的NAS,关键在于选择合适的主板和CPU,同时别忘了配备支持intel HD610集显的显卡。这样,你的机械硬盘的写入速度就能轻松超过1000M!当然,选择RAID 0技术,究竟是锦上添花还是权宜之计,这需要根据个人需求来定。此外,DeepSeek的本地部署与API接入版本之间有何差异?通过对比这两个数字,你将能更明智地做出...
文字版本及复制用的首先在飞牛OS设置内开启SSH,使用putty或其它软件登录至飞牛系统输入飞牛的登录ip,飞牛os的管理员账号,密码,再次输入sudo -i命令,再次输入密码进入root模式在部署DeepSeek之前,需要安装Ollama,Ollama是大型语言模型框架,可以理解为AI模型的宿主,在
然后我们选择Ollama,先把开关打开,然后在API地址填入我们刚刚的Ollama Docker的地址,然后点击管理 在管理界面里选择我们下载好的模型添加 回到对话框在顶部切换到我们刚刚配置好的本地DeepSeek,简单测试一下可以运行了。 总结: 至此我在这台7年前的老电脑上已经成功部署了本地的DeepSeek,而且7b运行起来还是基本流程的...
免费本地易部署 在Docker中部署LobeChat 并通过调用API运行Llama 31 70BGoogle Gemma千问25大模型 4035 0 02:15 App N100双2.5G网口主机飞牛nas系统通过ollama部署安装DeepSeek AI使用视频教程 1.3万 8 03:38 App 飞牛nas本地部署deepseek大模型 浏览方式(推荐使用) 哔哩哔哩 你感兴趣的视频都在B站 打开信息...
API接口地址:https://bigapi.skyai.vip API秘钥:sk-ohyHWfCR3prJEYgxxxxxxxxxxxxxxx 拿到上述信息,就可以和FastGPT对接起来了。 添加模型渠道 image.png image.png 完全兼容OpenAI的API接口,厂商直接选OpenAI即可,然后新增我们需要的模型。 本次搭建知识需接入的模型: 语言模型:deepseek-v3-250324 claude-3.7-sonne...
2. 填入完整域名及API密钥(在域名控制台生成) 3. 禁用IPv4解析,仅保留IPv6解析功能 系统会自动将NAS的IPv6地址与域名绑定,当IP变更时客户端每5分钟主动同步更新。建议通过`ping 域名`命令验证解析是否生效,若出现IPv6格式地址即表示配置成功。 三、访问优化与安全策略 ...
关键步骤在于正确填写服务商提供的API密钥,并在路由器设置端口转发规则。例如将外网8888端口映射到内网NAS的5666端口,结合SSL证书加密,既能实现`https://自定义域名:8888`的安全访问,又避免了官方穿透服务的速度限制。此方案稳定性较高,但需确保宽带运营商提供动态公网IP支持。
若使用自购域名(如腾讯云6元/年的偏门域名),需在服务商处获取API密钥并填入对应字段。 路由器端口映射 此环节直接影响外网访问成败。登录路由器后台(地址通常为192.168.1.1或192.168.0.1),在端口转发规则中添加新条目:外部端口建议与飞牛默认服务端口5666保持一致,内部IP填写NAS的局域网地址(如192.168.1.100),协议类型...