1、首先看nvidia驱动版本,cuda驱动,torch版本,分别是cuda12.0, torch2.1版本。flash_attn也有预编译的whl包,如果版本能匹配上,就到github上下载预编译好的whl安装就行,地址是https://github.com/Dao-AILab/flash-attention/releases 2、在没有whl包时,使用pip install的时候就会自己编译安装,此时就有大量的错误,第...
1.首先检查你的cuda版本,通过nvcc -V查看环境是否含有cuda以及版本是否在11.6及以上,如果没有需要自己安装,下载地址在这里:cuda-toolkit,具体的安装流程这里不再赘述了(先提前安装好gcc,否则安装cuda会失败:sudo apt install build-essential) 2. 安装完毕后检查自己的pytorch版本是否与安装的cuda版本匹配,注意不要自己...
Successfully compiled, you just need install visual studio with C++ built tools cuda 12.1.1 torch cuda 12.1 and pip install flash_attn wait for few hours compile, then that it. i just copied the whl file compile from pip wheel cache, hopefully can get some clue how to do for window inst...
Fast and memory-efficient exact attention. Contribute to Dao-AILab/flash-attention development by creating an account on GitHub.
解决方法 方法一 从官方release种找到对应cuda版本和torch版本的whl文件,并下载 在本地使用pip3 install ${whl}的方式安装 方法二 从源码直接编译,详见官方github 作者:Garfield2005
error: command 'C:\Program Files\NVIDIA GPU Computing Toolkit\CUDA\v11.7\bin\nvcc.exe' failed ...
同样的错误也发生在我身上。这个bug还在持续吗?
估计也没有谁会需要。放在这里纯当是自己也备份一下,以后万一需要重装也不必重新编译了。 python:3.11.6 cuda:12.6 torch:2.4.0+cu121 flash_attn:2.6.3 xformers:0.0.27.post2 https://pan.baidu.com/s/1XTWx060Ded8blUU5lsOoNw vz9f
估计也没有谁会需要。放在这里纯当是自己也备份一下,以后万一需要重装也不必重新编译了。 python:3.11.6 cuda:12.6 torch:2.4.0+cu121 flash_attn:2.6.3 xformers:0.0.27.post2 https://pan.baidu.com/s/1XTWx060Ded8blUU5lsOoNw vz9f
国内的网络环境大家知道,如果直接用pip install flash-attn会出因为要从github下载而出现超时的错误,所以另外一种方法就是用源码编译。往往服务器没有办法访问github,但是本地可以访问,所以可以本地下载github包再上传。 先从github clone flash-attention 包到本地 ...