conda install cuda-nvcc -c conda-forge 就能正确安装flash-attn了。 还有一些办法,例如 去网站https://github.com/Dao-AILab/flash-attention/releases下载正确版本的whl文件,再pip install *.whl。 总之,都是cuda版本的问题,请务必注意。