2. 线上API使用的是硅基流动(siliconflow)的DeepSeek API,模型名称为deepseek-ai/DeepSeek-R1 一、Python访问本地部署的DeepSeek 首先要注意,Ollama本地部署DeepSeek服务的默认端口为11434,API接口为http://127.0.0.1:11434/api/chat,因此构造好问题、请求参数,接着发送POST请求,最后解析返回结果即可。 可以直接...
1. 确认 Ollama 是否正确运行 如果你使用Ollama部署了DeepSeek,默认 API 运行在11434 端口。首先,检查 Ollama 是否正常运行: curl http://localhost:11434/api/tags 如果返回: {"models":["deepseek-coder:latest","deepseek-chat:latest"]} 说明Ollama 运行正常,并且已安装 DeepSeek 模型。 2. Python 调用...
我们已经知道,Python 与在线 AI 大模型交互式,可以采用 API 形式。Ollama 是一个用于本地部署和管理大模型的工具。当你用 ollama 部署 deepseek 时,ollama 会在本地启动一个服务,这个服务会暴露一个 API 端点,供其他程序调用。因此,Python 与离线 AI 大模型交互时,也可以采用 API 形式。 在目前的实践场景中...
这里是一个JSON格式的字符串,告诉AI我们想问的问题("你好,你是谁?")和使用的模型("deepseek-r1:7b")。.encode()是把字符串变成字节格式,方便发送。 第四步:发送请求 response=requests.post('http://127.0.0.1:11434/api/generate',headers=headers,data=data) 这一步是让“信使”出发!requests.post是发送...
使用Python 调用 Ollama API 并调用 deepseek-r1:8b 模型 准备工作 调用Ollama API 使用generate 实现多轮对话并保留对话的记忆 ollama 是一个强大的本地大语言模型工具,支持多种开源模型,例如 deepseek-r1:8b。通过 Ollama 的 API,我们可以轻松调用这些模型来完成文本生成、对话等任务。这里记录一下如何使用 Py...
第二步,安装deepseek-coder,推荐使用ollama管理本地大模型,目前使用最多的管理工具之一。关于安装ollama和ollama安装在本地安装大模型的系统介绍,我在此前几篇文章都有详细教程,在此不再重复,没看过的参考:自己电脑搭建AI大模型详细教程,支持通义千问、Llama3、接口调用等。安装完成后,可以做个简单测试:...
data 是我们要发送的“信件内容”。这里是一个JSON格式的字符串,告诉AI我们想问的问题("你好,你是谁?")和使用的模型("deepseek-r1:7b")。.encode() 是把字符串变成字节格式,方便发送。 第四步:发送请求 response = requests.post('http://127.0.0.1:11434/api/generate', headers=headers, data=data) ...
ollama-v 可以看到对应的ollama版本,即表示安装成功。 3.2、部署deepseek-r1模型 在ollama官网,搜索我们要部署的模型,这里选择deepseek-r1模型,可以看到列出所有蒸馏版本,我们这里由于配置原因,选择1.5b版本。 接着输入以下命令,进行拉取模型: 代码语言:bash ...
"model": "deepseek-r1:8b", # 指定模型 "prompt": prompt # 提供输入 }, stream=True # 启用流式响应 ) # 检查响应状态码 if response.status_code != 200: return jsonify({ 'error': 'Failed to call Ollama API', 'status_code': response.status_code, ...
curl http://localhost:11434/api/generate -d '{"model":"deepseek-r1:7b","prompt":"你好"}'20秒后,聊天框弹出:"您好! 我是DeepSeek-R1,有什么可以帮您? "第三步:彻底卸载 某天想换新版本,点卸载按钮就行。程序会做三件事:删除安装目录、清除注册表项、复原环境变量。实测卸载速度比手动操作快...