1、代码仓库 https://github.com/hpcaitech/Open-Sora cd /datas/work/zzq mkdir OpenSora & cd OpenSora git clonehttps://github.com/hpcaitech/Open-Sora 2、docker内安装依赖 docker pull pytorch/pytorch:2.2.2-cuda12.1-cudnn8-devel docker run -it --gpus=all --rm -v /datas/work/zzq/:/work...
pip install -r requirements.txt 注:open-sora:v1.0为上一篇OpenSora博文安装的docker镜像名称 修改代码 修改代码 vi /opt/conda/lib/python3.10/site-packages/opensora/models/vae/vae.py python scripts/inference.py configs/opensora-v1-2/inference/sample.py --num-frames 4s --resolution 720p --aspect...
https://github.com/hpcaitech/Open-Sora cd /datas/work/zzq mkdir OpenSora & cd OpenSora git clonehttps://github.com/hpcaitech/Open-Sora 2、docker内安装依赖 docker pull pytorch/pytorch:2.2.2-cuda12.1-cudnn8-devel docker run -it --gpus=all --rm -v /datas/work/zzq/:/workspace pytorch/...
torchrun --standalone --nproc_per_node 1 scripts/inference.py configs/opensora/inference/16x256x256.py --ckpt-path ./path/to/your/ckpt.pth --prompt-path ./assets/texts/t2v_samples.txt # Auto Download torchrun --standalone --nproc_per_node 1 scripts/inference.py configs/opensora/infere...
二、环境安装 (1)模型下载 https://huggingface.co/hpcai-tech/OpenSora-STDiT-v3/tree/main https://huggingface.co/hpcai-tech/OpenSora-VAE-v1.2/tree/main https://huggingface.co/PixArt-alpha/pixart_sigma_sdxlvae_T5_diffusers/tree/main/vae ...
下面将以 open sora1.0项目进行部署,由于模型较大建议使用RTX3090 及以上显卡。 1. 安装 miniconda 进入Anaconda 官网: Miniconda — Anaconda 文档:https://gitee.com/link?target=https://docs.anaconda.com/miniconda/ 找到快速命令行安装,选择 Linux 系统,复制代码进入终端中进行安装。
下面将以 open sora1.0项目进行部署,由于模型较大建议使用RTX3090 及以上显卡。 1. 安装 miniconda 进入Anaconda 官网: Miniconda — Anaconda 文档 找到快速命令行安装,选择 Linux 系统,复制代码进入终端中进行安装。 等待安装完成。 2. 安装并更新基础命令,让后续使用更快捷: unzip、lsof、git、git-lfs ...
然后关掉终端,重新打开一个终端,开始安装python依赖: perl 复制代码 cd Open-Sora # create a virtual env conda create -y -n opensora python=3.10 conda activate opensora # install torch # the command below is for CUDA 12.1, choose install commands from ...
Open-Sora项目通过其强大的工程能力,快速的搭建和验证了Sora的技术链路,推动了开源视频生成的发展,同时我们也期待V2版本中,对时空VAE等难题的进一步解决。 魔搭最佳实践 第一步:下载代码并安装: # install flash attention (optional)pip install packaging ninjapip install flash-attn --no-build-isolation# install...