于是,前一天经过一位小伙伴的推荐,使用一款OpenAI开源的模型,也就是今天的主角——Whisper,来实现我们的上面这个偷懒的功能。 首先,去hugging face网上下载对应的模型,该模型分为几个不同的档次,可以根据自己的电脑配置要求来。例如,显卡显存、或者内存。如果使用CPU计算,可以使用内存,不过准确度会降低;如果使用显卡计...
Whisper在不同数据集上的对比结果,相比wav2vec取得了目前最低的词错误率 模型没有在timit数据集上进行测试,所以为了检查它的单词错误率,我们将在这里演示如何使用Whisper来自行验证timit数据集,也就是说使用Whisper来搭建我们自己的语音识别应用。 使用Whisper 模型进行语音识别 TIMIT 阅读语音语料库是语音数据的集合,它...
whisper模块的load_model()方法在 Python 应用程序中加载一个 whisper 模型。您必须将模型名称作为参数传递给load_model()方法。 importwhisper model=whisper.load_model("base") 1. 2. 转录音频 使用Whisper,您只需几行代码即可转录音频文件。 模型对象中的transcribe()方法转录音频。该方法接受音频文件的路径作为...
你需要使用Python版本3.8以上。激活虚拟环境,使用下面的命令安装Whisper: pip install -U openai-whisper 你还需要在系统上安装ffmpeg 如果是Ubuntu或Debian sudo apt update && sudo apt install ffmpeg 如果是Arch Linux sudo pacman -S ffmpeg 如果是MacOS上的homebrew brew install ffmpeg 如果在Windows上使用Chocola...
创建一个新文件python-whisper-api.py并通过插入以下 python 代码行开始: import os import openai openai.api_key = "[INSERT YOUR OPENAI API KEY HERE]" audio_file = open("sample.mp3", "rb") transcript = openai.Audio.transcribe("whisper-1", audio_file) print(transcript.text) 上面的 Python 代...
一、openai / whisper (原版) 官方原版whisper的硬件推理支持与PyTorch一致,在Windows上仅支持NVIDIA CUDA,在Linux上可以使用AMD ROCm。 环境(NVIDIA GPU):CUDA、cuDNN 环境(通用):Python、PyTorch 各模型体积、显存占用和速度表现 1. 配置环境 Python与(NVIDIA)CUDA ...
神经网络实用工具(整活)系列—使用OpenAI的翻译模型whisper实现语音(中、日、英等等)转中字,从此生肉变熟肉—基础篇 最近在做神经网络的研究,偶然间看到OpenAI开源出了一个多国语音转文字的模型,脑海里突然想到余大嘴在华为发布会发布实时语音翻译时满屏弹幕的“???”和“!!!”,于是决定做一个多国语音转简体中文字...
步骤2:安装openAI whisper Python库 在终端或命令提示符中运行以下命令来安装openAI whisper Python库: pipinstallopenai 1. 步骤3:导入必要的库 在你的Python脚本中,导入openai和json库: importopenaiimportjson 1. 2. 步骤4:连接到openAI API 使用你的openAI认证密钥连接到openAI API。你可以在openAI官方网站中找到...
1. 安装 Whisper 并确保命令行可用 首先,你需要在系统中安装 Whisper,并确保whisper命令可用: pip install openai-whisper 测试whisper是否正常工作: whisper example.mp3 --model small 如果可以正确运行,那么 Java 也能执行该命令。 2. 使用 Java 执行 Bash 命令 ...
python openai-whisper 1个回答 0投票 我认为你应该在终端中输入“pip install Whisper”。 Whisper 没有直接安装在您的 IDE 中,因此您需要自己安装。我希望这就足够了:)最新问题 custom选择在过滤WooCommerce管理订单上的过滤后消失 MIX两个数据框,每第二行 我正在尝试编写一个深度优先的搜索算法,该算法将在...