可以直接Fork运行。 2. 环境安装 略,请参阅:OmniLMM-3B多模态大模型应用示例(包括安装步骤,调用代码及测试案例) - 飞桨AI Studio星河社区 3. 代码演示 首先是获取模型,在本项目中,使用魔搭的模型库,速度比较快一些。 import sys sys.path.append('/home/aistudio/external-libraries') #import torch from PIL...