最好方法是在https://github.com/Dao-AILab/flash-attention/releases找到自己环境对应的wheel 根据我的cuda117 torch2.0 python3.9.8 找到最新版的wheel 我先安装了flash_attn-2.3.2+cu117torch2.0cxx11abiTRUE-cp39-cp39-linux_x86_64.whl依旧import错误,最后安装了flash_attn-2.3.5+cu117torch2.0cxx11abiFAL...
在Ubuntu上安装flash_attn,需要遵循以下步骤,以确保系统环境和软件版本的兼容性,并正确安装所有必要的依赖包: 确认CUDA版本: flash_attn依赖于CUDA 11.6及以上版本。你可以通过运行以下命令来检查CUDA版本: bash nvcc --version 如果CUDA版本低于11.6,你需要从NVIDIA官网下载并安装合适的版本。 检查PyTorch版本: 确保你...