1.首先是安装python。文档中说,whisper是基于python 3.9.9进行的训练和测试,3.8到3.11的python应该都可以。我选择的版本是python 3.11.4。 2.安装cuda。如果你有英伟达的独立显卡,就需安装合适版本的cuda,使用gpu进行推理比cpu快多了,如果只有cpu可以跳过这个步骤,或者直接使用大佬用c++重写的项目,Buzz。 3.安装其他...
51CTO博客已为您找到关于whisper要求的cuda版本的相关内容,包含IT学习相关文档代码介绍、相关教程视频课程,以及whisper要求的cuda版本问答内容。更多whisper要求的cuda版本相关解答可以来51CTO博客参与分享和学习,帮助广大IT技术人实现成长和进步。
首先使用 cmd 命令行输入 nvidia-smi ,在第一行最右边可以看到CUDA的版本号,我的版本是12.3 image https://pytorch.org/get-started/locally/打开网址选择一个比较靠近的版本 image 最终选择完生成命令为 conda install pytorch torchvision torchaudio pytorch-cuda=12.1 -c pytorch -c nvidia 如果有卡住的可能就是...
export LD_LIBRARY_PATH="$LD_LIBRARY_PATH:/usr/local/cuda/lib64:/usr/local/cuda/extras/CUPTI/lib64" export CUDA_HOME=/usr/local/cuda 1. 2. 3. 4. 或者 AI检测代码解析 export PATH=/usr/local/cuda-9.0/bin\${PATH:+:\${PATH}} export LD_LIBRARY_PATH=/usr/local/cuda-9.0/lib64\${LD...
import torchfrom transformers import AutoModelForSpeechSeq2Seq, AutoProcessordevice = "cuda:0"if torch.cuda.is_available() else"cpu"torch_dtype = torch.float16 if torch.cuda.is_available() else torch.float32model_id = "openai/whisper-large-v2"model = AutoModelForSpeechSeq2Seq.from_pretrained...
操作系统:windows 11;显卡:NVIDIA GeForce RTX 2080 SUPER;python:3.11.4;cuda:11.8。 1.首先是安装python。文档中说,whisper是基于python 3.9.9进行的训练和测试,3.8到3.11的python应该都可以。我选择的版本是python 3.11.4。 2.安装cuda。如果你有英伟达的独立显卡,就需安装合适版本的cuda,使用gpu进行推理比cpu...
首先whisper的模型有下面这几种,每种大小不一样,所需要的内存计算时间效果也不一样,模型越小翻译速度快,但是语音识别翻译其它跟视频语言不一致的语言效果就越差,反之模型越大翻译速度使用内存也越大,效果是越好的。load_model函数还有两个参数是device,download_root device是计算引擎,可以选择cpu,或者cuda(也...
补充说明:上图中CUDA 11.6和CUDA 11.7都是gpu版本的软件,我一开始下载的也是gpu版本的,但是因为我的电脑显卡的显存比较低,运行whisper模型的时候大模型运行不了。下图是whisper官方给出的运行模型所需显存。 我的显存是4GB,一旦使用whisper运行small模式以上的模型就会报显存不足的错误。为了能运行更大的模型以保证语音...
在Python中,我们可以使用许多库来进行GPU计算,其中最常用的是CUDA和PyCUDA。然而,对于数据处理和分析,Whisper是一个非常有用的库,它提供了基于GPU的数学运算和信号处理功能。要使用Whisper进行GPU计算,首先需要安装whisper和pyopencl库。你可以使用以下命令来安装: pip install whisper pyopencl 安装完成后,你可以使用以下...
os.environ['KMP_DUPLICATE_LIB_OK'] ='TRUE'filename ="test.mp4"## window GPU cuda## window CPU cpu## mac CPU cpu## mac GPUmodel = whisper.load_model("large-v3",device="cuda") result = model.transcribe(audio=filename, fp16 =False) ...