使用了Xeon处理器、一块主板和16GB主内存,我可以很好地运行deepseek-v2 16b。
5.5GB),智谱清言推出的通用大模型,表现可能优于llama3deepseek-coder-v2ollama run deepseek-coder...
先在VS Code上安装CodeGPT,发现果然有ollama选项。 可是看了文档:Ollama | CodeGPT,又亲自测试了发现只能调用local的ollama。支持的模型包括: Ollama Models available in Code GPT gemma.7b gemma:2b llama2 codellama command-r phi mistral mixtral deepseek-coder starcoder2 dolphinecoder dolphin-mixtra...
deepseek-coder-v2ollama run deepseek-coder-v2(16B,8.9GB),236B版本上了代码生成能力榜单 qwen...
使用起来简单、方便,推理速度也很不错。一般模型的支持速度也非常快,不过对于超大型模型(如DeepSeek-...
,智谱清言推出的通用大模型,表现可能优于llama3deepseek-coder-v2ollama run deepseek-coder-v2(...