打开并运行Ollama Ollama官网搜索deepseek 打开Ollama官网:https://ollama.com/搜索“deepseek”,如下图: deepseek-r1大模型 选择deepseek-r1不同模型大小 点击deepseek-r1,你会发现有多个不同大小的模型版本,如1.5b、7b、8b、14b、32b、70b或671b,模型大小不同,可适配的电脑显存、显卡及内存配置也不同,大家...
DeepSeek-R1-Distill-lalama-8b:ollama run deepseek-r1:8b DeepSeek-R1-Distill-Qwen-14b:ollama run deepseek-r1:14b DeepSeek-R1-Distill-Qwen-32b:ollama run deepseek-r1:32b DeepSeek-R1-Distill-lalama-70b:ollama run deepseek-r1:70b DeepSeek Coder 代码模型: 1.3 billion parameter model:ollama...
6、运行ollama e:\ollama\ollama app.exe或ollama run 模型名称 Lazarus AI助手可以自动启动ollama app.exe这个文件 分享一个绿色版(包含以下4个大模型): 1、deepseek-coder-v2:latest 8.9 GB 2、deepseek-r1:1.5b 1.1 GB 3、qwen2.5-coder:latest 4.7 GB 4、deepseek-r1:8b 4.9 GB 通过网盘分享的文...
ollama run deepseek-r1:32b #官方模型 ollama run bge-m3 #文本向量模型,用来做RAG知识库 二选一 ollama run nomic-embed-text #文本向量模型,用来做RAG知识库 二选一 Ollama下载通义千问模型: ollama run qwq:32b Ollama下载 ollama3模型:Llama 3模型是当今 8B 和 70B ollama run llama3: 运行8B...
打开AnythingLLM,点击工作区旁边的配置按钮,选择Ollama作为推理后端,并确保选择了deepseek模型和其他必要的参数。这样,您的本地知识库就准备好了。配置如下: 点击配置按钮,并切换到 Chat Settings菜单项 在工作区 Workspace LLM Provider配置中选择Ollama 在工作区 Workspace Chat model配置中选择deepseek-r1:8b (注:...
docker run -d -v ollama:/root/.ollama -p 11434:11434 --name ollama ollama/ollama 3.进入容器安装需要的LLM模型 # 进入ollama容器 docker exec -it ollama /bin/bash/ # 安装DeepSeek ollama run deepseek-r1:8b 参考: 大雄说技术:Ollama实现本地部署DeepSeek! 小支同学用 Ollama 跑 DeepSeek...
ollama-deepseek-coder curl http://localhost:11434/v1/chat/completions \ -H"Content-Type: application/json"\ -d'{"model": "deepseek-coder","messages": [{"role": "system","content": "You are a programming assistant."},{"role": "user","content": "write me an hello world program...
Llama 3.1 8B 4.7GB ollama run llama3.1 Llama 3.1 405B 231GB ollama run llama3.1:405b Phi 4 14B 9.1GB ollama run phi4 Phi 3 Mini 3.8B 2.3GB ollama run phi3 Gemma 2 2B 1.6GB ollama run gemma2:2b Gemma 2 9B 5.5GB ollama run gemma2 Gemma 2 27B 16GB ollama run gemma2:27b...
Run the model ollama run example Import from Safetensors See theguideon importing models for more information. Customize a prompt Models from the Ollama library can be customized with a prompt. For example, to customize thellama3.2model: ...
" LeonAlgo 2025/04/04 2510 Devyan (CrewAI) + DeepSeek-Coder-V2:几秒钟生成一个应用程序(本地、快速、一次提示) DeepSeek https://github.com/theyashwanthsai/Devyan AI进修生 2024/12/02 1K0山行AI LV.0 这个人很懒,什么都没有留下~ 关注...