通过conda clean -i更新缓存 最后,安装CUDA toolkit,注意Nvidia贴心地为我们准备了使用WSL版本的toolkit,不要安装正常的toolkit工具,否则会因为安装了多个驱动而造成异常。另外,建议选择runfile版本的安装文件,会少踩很多坑。 export CUDA_HOME=/usr/local/cuda export PATH=$PATH:$CUDA_HOME/bin export LD_LIBRARY_P...
export PATH=$PATH:/usr/local/cuda-11.3/bin export CUDA_HOME=$CUDA_HOME:/usr/local/cuda-11.3 (2)激活环境变量命令为source ~/.bashrc。 (3)测试 CUDA Toolkit 。 通过编译自带 Samples并执行, 以验证是否安装成功。具体命令如下所示: cd /usr/local/cuda/samples/1_Utilities/deviceQuerysudomake./device...
配置环境变量(多个cuda切换cuda 版本以后再说) vim ~/.bashrcexportCUDA_HOME=/usrexportPATH=$PATH:$CUDA_HOME/bin 如果是11.4版本配置如图 默认大家都能熟练使用 vim step5 然后测试一下英伟达官方demo git clone GitHub - NVIDIA/cuda-samples: Samples for CUDA Developers which demonstrates features in CUDA T...
选择WSL 进入https://developer.nvidia.com/cuda-downloads看到,默认的是12.1版本,不是我们想要的。找到 Archive of Previous CUDA Releases 也就是https://developer.nvidia.com/cuda-toolkit-archive打开后,找到11.6.2版本(https://developer.nvidia.com/cuda-11-6-2-download-archive)。 下边会自动生成安装脚本。
sudo apt-get install cuda-cross-aarch64* -y 添加环境变量 vim ~/.bashrc # cuda export CUDA_HOME="/usr/local/cuda-11.2" export PATH="${CUDA_HOME}/bin:$PATH" export LD_LIBRARY_PATH="/usr/local/cuda-11.2/lib64:$LD_LIBRARY_PATH" ...
sudo apt install nvidia-cuda-toolkit PS:我默认安装的是10.1 3:设置cuda环境变量 在主目录下的~/.bashrc文件添加如下路径: sudo su - 再输入 nano ~/.bashrc 末尾添加并保存: export CUDA_HOME=/usr/local/cuda export PATH= CUDA_HOME/bin export LD_LIBRARY_PATH=/usr/local/cuda-11.1/lib64KaTeX parse...
ERROR: /home/rthete/CUDA_Freshman/3_sum_arrays/sum_arrays.cu:38,code:35,reason:CUDA driver version is insufficientforCUDA runtime version 在官网查看一下:https://docs.nvidia.com/cuda/cuda-toolkit-release-notes/index.html 发现我474.44的驱动装了个12.2的cuda,显然是不匹配的 ...
光这一点已经判了WSL2死刑,当然WSL2还支持CUDA,如果你不是前端开发请忽略我的这句抱怨。当然WSL2还有其他的坑,比如网络转发问题(preview版本可以直接开一个虚拟网桥来解决ip分配问题) WSL1 于是选择回退到了WSL1,WSL1之前也是我用windows笔记本以来的开发主力,经历了大大小小的前端项目,基本上没有太多坑,除了docker...
3. CUDA+CUDNN 3.1 安装cuda Nvidia的下载界面如图所示: image.png 可以i直接选择wsl-ubuntu,貌似这个是不带显卡驱动的,wsl方式不需要(有人说禁止)安装nvidia驱动。 有三种安装方式可选, 有文章推荐使用runfile方式进行安装,但只说安装没啥差别,页面下方就有安装方法。
5.4. 检测 pytorch cuda 支持 在WSL 中执行 python3-c"import torch;print(torch.cuda.is_available());" 这里我还没有换 vscode 的终端字体,所以乱码了,忽略即可 5.4.1 检测 pytorch GPU 负载支持 对于pytorch,这里使用 https://www.kaggle.com/code/lyhue1991/pytorch-gpu-examples,作为测试 demo ...