可以huggingface .bin->llama.cpp GGUF->Ollama这个路径来做。 从huggingface_hub下载下来后,使用python3 ../llama.cpp/convert.py [local_dir] --vocab-type bpe --outfile llama3-8b-chinese.gguf进行转换,然后再按照Ollama的文档来就行: $ cat ./Modelfile FROM ./llama3-8b-chinese.gguf # set the...
ollama pull phi3#微软的phi3模型, 模型很小超过了很多规模更大的模型, 训练的数据集是教科书级别的语料.ollama pull qwen:0.5b#文件: 395MB, 千问小模型ollama pull tinyllama#文件: 637MB, 一个比较有名的mini版llama模型ollama pull qwen:1.8b#文件: 637MBollama pull nomic-embed-text#文件: 275M...