model_dir = snapshot_download('AI-ModelScope/CodeLlama-7b-Instruct-hf') 直接运行就行了。 Linux环境下,模型下载的位置应该在 /root/.cache/modelscope/hub 然后就可以调用了。 transformers调用模型 mv /root/.cache/modelscope/hub/AI-ModelScope /test_llama/ 可以移动一下模型到当前目录,方便调用简单 im...