最近研究LLM着魔了,每天都在网上找各种LLM新玩法,这不,又找到一个辅助编码神器Llama Coder。 Llama Coder 是 VS Studio Code 的更好且自托管的Github Copilot替代品。Llama Coder 使用Ollama和codellama提供在硬件上运行的自动完成功能。最适合 Mac M1/M2/M3 或RTX 4090。 VS C
点击设置(齿轮)即可打开配置文件 个人目前电脑上装了几个模型,选择使用qwen2.5-coder:14b和quentinz/bge-large-zh-v1.5:latest 比较重要的是这一部分的配置 "models": [ {"title":"qwen2.5-coder:14b","model":"qwen2.5-coder:14b","provider":"ollama","systemMessage":"You are an expert software deve...
ollama.nvim:专门为 Neovim 设计的 ollama 插件 配置本地模型 首先从官网下载并安装 ollama 安装过程十分简单,完成后 ollama 会在命令行中提示安装成功,此时输入ollama run qwen2.5-coder命令,ollama 会开始下载 qwen2.5-coder 模型,并在下载成功后运行命令行对话服务,此时你已经可以实时和本地模型对话了。 当然...
在 VSCode 中打开一个终端。运行以下命令来拉取deepseek-coder:base模型:ollama pull deepseek-coder:...
vscode上continue插件远程连接ollama模型 点击continue的插件设置, 加开的config.json上添加如下代码: "models":[{"model":"qwen2.5-coder:32b","provider":"ollama","apiBase":"http://172.16.12.95:11434","title":"local model"},
注意:我这里只修改了代码解释的提示词模板。其他提示词模板,可以按这个方法来进行修改。 使用 在vscode中选中一段代码,然后点击邮件,选择Twinny Explain。就可以看到对这段代码的中文解释了。 小结 twinny的配置方式比较简单,用法也比较简介。通过配置本地的ollama+qwen-coder,就可以不再收到调用次数的限制了。
AI Toolkit,VsCode最全面的AI插件,太香了~ AI Toolkit是微软官方AI大模型生态插件,主要用来下载、微调、测试大模型,它的模型库丰富丰富,有75个线上模型,以及可以连接本地模型,而且提供了模型测试 Playground、模型微调 Fine-tuning等功能,可以让你更好的使用大模型。
1、安装插件: CodeGPT扩展 vscode 中使用 deepseek 服务需要借助 CodeGPT 扩展插件,直接扩展商店中搜索安装就行。 图片 2、下载(拉取)deepseek 模型 这一步如果前面用 Ollama 下载过,就可以忽略了。 拉取命令:Ollama pull deepseek-coder:base 图片 ...
除了Codellama,还有如Gemma、Qwen、Starcoder2等其他模型可供选择,探索更多可能性。集成VSCode与插件Cody AI 1. **登录与配置Cody AI 通过GitHub或Google账号登录Cody AI插件,完成基本账户信息的注册与登录。2. **调整插件设置 在VSCode中,进入Cody AI设置菜单,调整Autocomplete选项至Advanced,并配置...