OLLAMA_API_MODEL=deepseek-coder:33b # (模型名称) content_copydownloadUse code with caution. OLLAMA_BASE_URL:填你的Ollama服务器地址!如果在同一台机器,就用http://localhost:11434。 OLLAMA_API_MODEL: 填你的Deepseek模型名称. 比如 deepseek-coder:33b 强烈建议设置 ACCESS_CODE, 否则别人也能访问你...
docker exec -it ollama ollama run deepseek-coder:33b #运行最近非常火爆的MOE专家混合大模型,这个以英文为主,但同时能理解中文 docker exec -it ollama ollama run mixtral #运行deepseek llm 67B模型 docker exec -it ollama ollama run deepseek-llm:67b-chat #运行yi 34B模型 docker exec -it ol...
DeepSeek-R1-Distill-lalama-70b:ollama run deepseek-r1:70b DeepSeek Coder 代码模型: 1.3 billion parameter model:ollama run deepseek-coder 6.7 billion parameter model:ollama run deepseek-coder:6.7b 33 billion parameter model:ollama run deepseek-coder:33b DeepSeek V2.5 通用模型:已升级到下面的...
将上面步骤中ollama-linux-arm64 和模型文件 deepseek-coder-33b-instruct.Q5_K_M.gguf 移动到一个ollama文件夹中 打开nodebook terminal 输入以下命令 Explain mkdir ollama mv deepseek-coder-33b-instruct.Q5_K_M.gguf ./ollama # 移动ollama-linux-arm64并重命名 mv ollama-linux-arm64 ./ollama/o...
用于 文本生成、对话 AI、代码生成 等,如:GPT-4 OpenAI、DeepSeek、Qwen 适用领域:Chatbot、知识库问答、智能助手等 代码大模型(Code LLM) 用于 代码补全、自动编程,如:DeepSeek-Coder、CodeLlama、BigCode 适用领域:IDE 代码补全、AI 编程助手(如 Copilot) 多模态大模型(Multimodal LLM) 支持 文本 + 图像 +...
FROM ./vicuna-33b.Q4_0.gguf Create the model in Ollama ollama create example -f Modelfile Run the model ollama run example Import from Safetensors See theguideon importing models for more information. Customize a prompt Models from the Ollama library can be customized with a prompt. For...
Llama 2 Uncensored 7B 3.8GB ollama run llama2-uncensored LLaVA 7B 4.5GB ollama run llava Solar 10.7B 6.1GB ollama run solar Note You should have at least 8 GB of RAM available to run the 7B models, 16 GB to run the 13B models, and 32 GB to run the 33B models. Customize a mo...
now, i, with a rather slow classic HDD in a dual Xeon with 128GB RAM (plus 2*6GB Nvidia mining accelerators), trying to run deepseek-coder:33b and dolphin-mixtral:47b, found out that setting --keepalive to "10m" solved the issue. I think that the "Watchdog" which unloads the...
DeepSeek-R1 671B 404GB ollama run deepseek-r1:671b Llama 3.3 70B 43GB ollama run llama3.3 Llama 3.2 3B 2.0GB ollama run llama3.2 Llama 3.2 1B 1.3GB ollama run llama3.2:1b Llama 3.2 Vision 11B 7.9GB ollama run llama3.2-vision Llama 3.2 Vision 90B 55GB ollama run llama3.2-visio...
参数规模与模型能力的非线性关系可通过具体案例观察。在代码生成基准测试 HumanEval 中,DeepSeek-Coder-7B 的准确率达到 45.3%,虽然低于 GPT-4 的 76.3%,但相比 1.3B 参数的 CodeGen-Mono-1.3B(准确率 21.4%)呈现明显的性能跃升。这种边际效益递减现象解释了为何 7B 级别成为当前开源社区的热门选择。