下面的 2 种方法,可谓是真的 deepseek copilot,全能小助手上线。 Copilot + ollama ollama 可以本地跑 deepseek r1 模型,教程的话之前写过:DeepSeek 部署教程。 这个方案的原理是利用 Copilot 插件联动本地的 ollama 大模型,进行接入。 Copilot 插件是 obsidian 中接入大模型的容器,可以接入 GPT、文心一言...
启用copilot,然后我们给插件进行设置 Model选项卡下有Chat models和embedding models 先来设置chat models add custom models Model Name: deepseek-ai/DeepSeek-V3 Provider: OpenAI Format Base URL: api.siliconflow.cn/v1 API Key: 复制之前的 key 点击Verify,成功了的话就可以正常使用deepseek chat来问答了 ...
点击**“DeepSeek Copilot”**插件的侧边栏图标,打开插件面板。 在插件面板中,选择**“Summarize”**(总结)功能,DeepSeek Copilot会自动对当前文档进行智能分析,并生成精炼的总结内容。 示例:假设你正在阅读一篇关于“人工智能与教育”的文章,DeepSeek Copilot会自动提取文章中的关键信息并生成一个简洁的总结,帮助...
除了通过管理在线 API 获取模型外,Copilot 还允许你自定义添加模型。 在模型添加处,你可以添加 OpenAI 格式的模型(如硅基流动),也可以添加 Ollama、LM Studio 等本地部署的模型。 硅基流动示例 以添加硅基流动模型为例,主要是为了在 Gemini 额度用完后,有一个免费的 DeepSeek 模型作为备用。 Model name:Pro/d...
打开Copilot插件的设置页面。 在“模型配置”选项中,点击“添加模型”。 填写以下信息: 模型名称:随意命名,比如“Deepseek API”。 API地址:填入https://api.deepseek.com。 API Key:输入刚才生成的API Key。 验证配置 填写完成后,点击“验证”按钮。
Custom Frames:Open DeepSeek 这样,web版 DeepSeek-V3 对话应用窗口就在右侧打开了: 3 - API 应用 由于DeepSeek API 使用与 OpenAI 兼容的 API 格式,所以,在 Obsidian 里面还可以通过 API 来调用 DeepSeek-V3 。 分三步进行: ...
打开Copilot Chat窗口,把chat model切换成之前设置的chat modeldeepseek-r1:14b,让它自动给我生成一个文章摘要。 Obsidian工作片刻后,给出了我想要的文章摘要。工作过程中虽然看到名为Obsidian Helper(Render)和Obsidian Helper(GPU)两个进程的CPU合计占用率峰值超过了35%,但并没有影响到我在电脑上做其他的事情,看来...
DeepSeek:轻量化中文AI模型(1.5B/7B/33B多版本可选) Obsidian:跨平台知识管理工具 Copilot插件:为Obsidian注入AI能力 实现完全本地化的智能知识库,具备以下优势: 🔒 数据隐私保护 | 💻 离线环境可用 | 🚀 响应速度提升 | 🤖 定制化AI工作流
通过本地部署DeepSeek-R1,结合Obsidian的Copilot插件,告别官方网页的卡顿,实现私有化AI知识库与笔记的联动。🔧 部署流程 1️⃣ 配置Copilot插件 在Obsidian中安装Copilot插件,进入设置,填写以下内容: API URL:(Ollama默认端口) API Key:粘贴硅基流动申请的密钥 ...
Obsidian AI 三种配置方式 优缺点深度测评 Web Viewer|Copilot|Smart Composer 3.5万 14 04:45 App 用Obsidian考研的4种思路|卡片记忆|知识体系搭建|思维导图|链接|搜索检索|笔记软件 6.8万 20 10:43 App Omnivore+Obsidian+Anki 免费软件打造第二大脑全流程 知识管理系统建好啦 11.3万 266 13:49 App OBSID...