二.下载 DeepSeek-R1 模型 在ollama官网找到deepseek模型,然后运行相对应的命令下载: ollama run deepseek-r1 我这个命令是7b规模的模型,因为我的电脑塞不下更大的14b以及更高了,如果你们的电脑空间足够可以下载更大的模型,体验效果当然更好,但是14b完全就足够使用了,7b的效率大概是14b的70%,1.5b思考起来就需要...
ktransformers框架本地部署deepseek671b q2.51bit总结(二) ubuntu原生系统 速度6.5tokens API可用 1613 0 32:49 App ktransformers Deepseek R1 671B 2bit量化部署 硬件需求:260G内存+12G显存 1605 0 21:08 App ktransformers+unsloth混合框架搭载deepseek r1 671b-Q1 Q2 Q3 Q4多版本测速 1.3万 0 02:32...
systemctl status ollama 4. 测试Ollama正常运行,访问http://localhost:11434 5. ollama官网查看要使用的模型https://ollama.com/library/deepseek-r1 image.png 6. 将模型拉取到本地 ollama pull deepseek-r1:7b 7. 查看本地拥有的模型 ollama list image.png 8. DockerCompose部署可视化界面open-webui ...
清华团队Ktransformers框架,deepseek r1 671b Q2.51bit动态量化模型,WIN10系统 WSL2子系统部署总结一 #怎么本地部署deepseek #ktransformers #科技 - 喵叔实验室于20250224发布在抖音,已经收获了3.8万个喜欢,来抖音,记录美好生活!
问题贴:启动wsl中docker中的dify相关的容器 发现postgre服务和daemon服务一直在重启,导致前端加载一直在转圈 Windows Docker部署Dify,容器db-1总是重启,导致http://localhost:80刷新不出来 deepseek 的api只支持completions 不支持embeddings是什么意思 Deepseek 的 API 只支持 completions,不支持 embeddings 意味着 Deep...