DeepSeek-R1-Distill-lalama-70b:ollama run deepseek-r1:70b DeepSeek Coder 代码模型: 1.3 billion parameter model:ollama run deepseek-coder 6.7 billion parameter model:ollama run deepseek-coder:6.7b 33 billion parameter model:ollama run deepseek-coder:33b DeepSeek V2.5 通用模型:已升级到下面的...
要使用 Ollama CLI 运行 DeepSeek Coder,请打开终端并根据要使用的模型大小执行以下命令之一: 对于13亿参数模型: 复制 ollama run deepseek-coder 对于67亿参数模型: 复制 ollama run deepseek-coder:6.7b 对于330亿参数模型: 复制 ollama run deepseek-coder:33b 此命令初始化指定的 DeepSeek Coder 模型,准备...
我决定下载一个出色的代码模型:DeepSeek-Coder。在终端上直接输入:ollama run deepseek-coder:6.7b,就会自动下载和运行 。 目前在Ollama上,DeepSeek-Coder模型有3种权重规模:1.3B,6.7B和33B。 我选择的是6.7B。 针对上一个问题,它给出如下回答。 在MySQL数据库的管理上,有许多优秀的web管理工具可以选择。这些...
将上面步骤中ollama-linux-arm64 和模型文件 deepseek-coder-33b-instruct.Q5_K_M.gguf 移动到一个ollama文件夹中 打开nodebook terminal 输入以下命令 Explain mkdir ollama mv deepseek-coder-33b-instruct.Q5_K_M.gguf ./ollama # 移动ollama-linux-arm64并重命名 mv ollama-linux-arm64 ./ollama/o...
DeepSeek-R1671B404GBollama run deepseek-r1:671b Llama 3.370B43GBollama run llama3.3 Llama 3.23B2.0GBollama run llama3.2 Llama 3.21B1.3GBollama run llama3.2:1b Llama 3.2 Vision11B7.9GBollama run llama3.2-vision Llama 3.2 Vision90B55GBollama run llama3.2-vision:90b ...
deepseek-coder DeepSeek Coder is a capable coding model trained on two trillion code and natural language tokens. 1.3b 6.7b 33b 519.4K Pulls 102 Tags Updated 13 months ago dolphin-mixtral Uncensored, 8x7b and 8x22b fine-tuned models based on the Mixtral mixture of experts models that...
DeepSeek (MoE) 7B/16B/67B q_proj,v_proj deepseek Falcon 7B/40B/180B query_key_value falcon Gemma/CodeGemma 2B/7B q_proj,v_proj gemma InternLM2 7B/20B wqkv intern2 LLaMA 7B/13B/33B/65B q_proj,v_proj - LLaMA-2 7B/13B/70B q_proj,v_proj llama2 LLaMA-3 8B/70B q_proj,v_...
33 billion parameter model:ollama run deepseek-coder:33b DeepSeek V2.5 通用模型:已升级到下面的V3,建议直接部署V3。 DeepSeek V3 通用模型: DeepSeek-V3-671b:ollama run deepseek-v3 很快,下载完毕会自动加载,完成后,看到>>> Send a message...,意思是启动成功,可以发送消息了: ...
./ollama create deepseek-coder-33b-instruct.Q5_K_M -f Modelfile 执行 这里需要注意的地方是因为启智平台给我们分配的/home/ma-user/work 目录下总共100G空间,所以包括你上传代码+模型等文件。所以建议是50GB一下模型才可以,否则会报存储空间不够问题 ...
docker exec -it ollama ollama run deepseek-coder:33b #运行最近非常火爆的MOE专家混合大模型,这个以英文为主,但同时能理解中文 docker exec -it ollama ollama run mixtral #运行deepseek llm 67B模型 docker exec -it ollama ollama run deepseek-llm:67b-chat ...