deepseek-coder-v2有16b和236b两个版本,对于我羸弱的PC而言,只能跑得动16b的。 在命令行执行 ollama pull deepseek-coder-v2 下载模型文件,如果需要下载236b版本的执行 ollama pull deepseek-coder-v2:236b 也可以执行ollama run deepseek-coder-v2下载模型并启动,不过个人更喜欢分步骤操作。 下载完成后可以运...
ollama pull nomic-embed-text:latest VScode搜索:Continue 对话模型示例: "models": [ {"title":"Ollama","provider":"ollama","model":"llama3.1:8b"} ], "models": [ {"model":"gpt-4-turbo-preview","contextLength":8192,"title":"gpt-4-turbo-preview","systemMessage":"You are an expert ...
VScode搜索:Continue 打开配置文件: 配置文件示例: "models": [ { "title": "Ollama", "provider": "ollama", "model": "llama3.1:8b" } ], "tabAutocompleteModel": { "title": "deepseek-coder-v2:16b", "provider": "ollama", "model": "deepseek-coder-v2:16b" }, "embeddingsProvider":...