NAME ID SIZE MODIFIEDllama2:latest 78e26419b446 3.8 GB 38 hours agollama2-chinese:13b 990f930d55c5 7.4 GB 2 days agoqwen:7b 2091ee8c8d8f 4.5 GB 7 days agoqwen:latest d53d04290064 2.3 GB 2 days ago 1.1 安装 ollama官网https://ollama.com/ 1.2 下载模型 以通义千问模型为例: oll...
以中文微调过的 Llama2-Chinese 7B 模型为例,下述命令会下载接近 4GB 的 4-bit 量化模型文件,需要至少 8GB 的内存进行推理,推荐配备 16GB 以流畅运行。 %ollama pull llama2-chinese 下载完成后,使用run命令运行模型,可直接将消息附在命令后,或留空进入对话模式,对话模式内置了几个以斜杠引出的命令: #单条输入...
%ollama pull llama2-chinese 下载完成后,使用run命令运行模型,可直接将消息附在命令后,或留空进入对话模式,对话模式内置了几个以斜杠引出的命令: 代码语言:javascript 复制 # 单条输入%ollama run llama2-chinese"天空为什么是蓝色的?"# 对话模式%ollama run llama2-chinese>>>/?Available Commands:/setSet se...
1. 安装llama2-chinese ollama run llama2-chinese:13b 1. 进入maxKb, 配置知识库和本地模型
ollama run llama2-chinese "菊花为什么是红色的?" 撒花庆祝~~ 只是这个机器配置太低了,体验很差劲~~不过,终于是在window上体验了一把本地大模型了。 更多模型可以上官方github找命令下载安装,根据你的机器配置来,7B最低配置是内存要8GB,如果配置更好,可以跑13B或者33B的模型。
ollama run llama2:13b (2)内存估算: 运行3B机型至少应该有8gb内存,运行7B机型至少应该有16gb内存,运行13B机型至少应该有32gb内存。 成功运行模型后,您可以与llama2模型进行交互: 2.Ollama CLI 利用Ollama CLI,您可以毫不费力地对模型执行各种操作。这些操作包括创建、拉取、删除或复制模型等。
使用`ollama pull llama2`命令拉取的模型是默认参数,如果你对参数有需求,可以点击模型的`Tags`标签,自行选择合适的参数。 ![img](https://cdn.jsdelivr.net/gh/91xcode/typora_img/img/typora/1-20240314161532373.webp) 这里科普下主要的一些参数说明: - ``` 2b, 7b, 13b ``` - 模型训练时的参数数...
Llama3中文微调模型: ollama pull llamafamily/llama3-chinese-8b-instruct Llama2中文预训练模型: ollama pull llamafamily/atom-7b-chat 运行效果 Tip: 删除模型(如果前面下载的模型不想要了,可以删除) ollama rm 模型名称 2.4.Llama中文社区 这里属于扩展部分,简单介绍Llama中文社区 ...
Fixed "out of memory" errors when running models such as llama2, mixtral or llama2:13b with limited GPU memory Fixed CUDA errors when running on older GPUs that aren't yet supported Increasing context size with num_ctx will now work (up to a model's supported context window). ...
下次我们启动依然需要运行“ollama run llama2-chinese”加载模型。 下面是支持的模型列表,和中文微调模型,大家可以自行选择下载。 官方提示注意:运行 7B 机型至少需要 8GB 内存,运行 13B 机型至少需要 16GB 内存,运行 33B 机型至少需要 32GB 内存。 3.PowerShell API调用: ...