ollama run my_ai/deepseek-r1-abliterated:32b #越狱32B模型 ollama run deepseek-r1:32b #官方模型 ollama run bge-m3 #文本向量模型,用来做RAG知识库 二选一 ollama run nomic-embed-text #文本向量模型,用来做RAG知识库 二选一 Ollama下载通义千问模型: ollama run qwq:32b Ollama下载 ollama3模...
将上面步骤中ollama-linux-arm64 和模型文件 deepseek-coder-33b-instruct.Q5_K_M.gguf 移动到一个ollama文件夹中 打开nodebook terminal 输入以下命令 Explain mkdir ollama mv deepseek-coder-33b-instruct.Q5_K_M.gguf ./ollama # 移动ollama-linux-arm64并重命名 mv ollama-linux-arm64 ./ollama/o...
DeepSeek-R1-Distill-lalama-70b:ollama run deepseek-r1:70b DeepSeek Coder 代码模型: 1.3 billion parameter model:ollama run deepseek-coder 6.7 billion parameter model:ollama run deepseek-coder:6.7b 33 billion parameter model:ollama run deepseek-coder:33b DeepSeek V2.5 通用模型:已升级到下面的...
#运行deepseek-coder 33B模型 docker exec -it ollama ollama run deepseek-coder:33b #运行最近非常火爆的MOE专家混合大模型,这个以英文为主,但同时能理解中文 docker exec -it ollama ollama run mixtral #运行deepseek llm 67B模型 docker exec -it ollama ollama run deepseek-llm:67b-chat #运行yi ...
用于 文本生成、对话 AI、代码生成 等,如:GPT-4 OpenAI、DeepSeek、Qwen 适用领域:Chatbot、知识库问答、智能助手等 代码大模型(Code LLM) 用于 代码补全、自动编程,如:DeepSeek-Coder、CodeLlama、BigCode 适用领域:IDE 代码补全、AI 编程助手(如 Copilot) 多模态大模型(Multimodal LLM) 支持 文本 + 图像 +...
模型正在运行:关闭所有使用该模型的终端或应用后重试。 空间释放:模型文件默认存储在~/.ollama/models(Linux/macOS)或C:\Users\<用户名>\.ollama\models(Windows),删除后空间会自动释放。 重新安装(如需) 未来需要时可重新拉取: ollama run deepseek-coder:33b-instruct...
FROM ./vicuna-33b.Q4_0.gguf Create the model in Ollama ollama create example -f Modelfile Run the model ollama run example Import from Safetensors See theguideon importing models for more information. Customize a prompt Models from the Ollama library can be customized with a prompt. For...
LLaVA 7B 4.5GB ollama run llava Solar 10.7B 6.1GB ollama run solar Note You should have at least 8 GB of RAM available to run the 7B models, 16 GB to run the 13B models, and 32 GB to run the 33B models. Customize a model Import from GGUF Ollama supports importing GGUF models...
now, i, with a rather slow classic HDD in a dual Xeon with 128GB RAM (plus 2*6GB Nvidia mining accelerators), trying to run deepseek-coder:33b and dolphin-mixtral:47b, found out that setting --keepalive to "10m" solved the issue. I think that the "Watchdog" which unloads the...
DeepSeek-R1 671B 404GB ollama run deepseek-r1:671b Llama 3.3 70B 43GB ollama run llama3.3 Llama 3.2 3B 2.0GB ollama run llama3.2 Llama 3.2 1B 1.3GB ollama run llama3.2:1b Llama 3.2 Vision 11B 7.9GB ollama run llama3.2-vision Llama 3.2 Vision 90B 55GB ollama run llama3.2-visio...