可以huggingface .bin->llama.cpp GGUF->Ollama这个路径来做。 从huggingface_hub下载下来后,使用python3 ../llama.cpp/convert.py [local_dir] --vocab-type bpe --outfile llama3-8b-chinese.gguf进行转换,然后再按照Ollama的文档来就行: $ cat ./Modelfile FROM ./llama3-8b-chinese.gguf # set the...