本视频讲两个事儿:1. 使用免费开源的 faster-whisper 来搭一个超低延迟(1~2秒)的语音转写服务。2. 接入 GPT 搞一个语音聊天机器人。 特别感谢 #kaggle 免费赞助的 GPU T4.关于模拟实时语音转写的代码可见 Github: https://github.com/ultrasev/stream-whisper,有问题
faster-whisper-GUI 使用教程faster-whisper-GUIfaster_whisper GUI with PySide6项目地址:https://gitcode.com/gh_mirrors/fa/faster-whisper-GUI 项目介绍faster-whisper-GUI 是一个基于 faster-whisper 项目的图形用户界面(GUI),利用 CTranslate2 对whisper 模型进行优化。该项目支持多种音频和视频文件的转录,并...
音频处理工具,faster-whisper-GUI软件体验 现在关于AI的工具是越来越多,随着AI的出现,大家肯定也听到了很多关于某某模型的信息,各厂家之间也是在对比模型之间的性能,把它换种说法,有点类似在软件和系统上,讨论使用哪种内核的味道了。 训练模型一般要用到大量的算力,还要放在专门的服务器上,而训练好的成果,就像是炼制...
一个Colab 项目《使用 Faster Whisper 转录 Youtube 视频》。可以一键部署到 Google Colab。使用时指定任意一个 YouTube 上的视频 URL,自动识别生成字幕并保存文件到 Google Drive 中。地址:github.com/lewangdev/faster-whisper-youtube其中转语音用的是CTranslate2 ,这是个对 OpenAI 的 Whisper 模型的重新实现,...
Faster-whisper整合包使用说明 首先将网盘内的压缩包下载到电脑解压出来,然后运行【启动软件.exe】。软件支持处理mp3,wav,mp4格式音视频。也支持批量处理。可以将需要处理的音视频文件或文件夹鼠标左键按住拖动到软件窗口中。软件会自动识别路径并填充文本编辑框。 选择模型:发音标准,音频干净清晰的话,使用small模型基本...
聊天模式 新增 faster_whisper的接入,即可不使用魔法,不用花钱,本地进行语音转文本 Browse files main Ikaros-521 committed Jan 7, 2024 1 parent 653c565 commit 6f03044 Showing 8 changed files with 224 additions and 104 deletions. Whitespace Ignore whitespace Split Unified ...
Faster-Whisperhttps://github.com/SYSTRAN/faster-whisper是一个使用 CTranslate2 重新实现的 OpenAI Whisper 模型,旨在提高转录速度和效率。 它显著提高了处理速度,与原始 Whisper 模型相比,保持了相同的准确性的同时,速度提升了最多 4 倍,并且降低了内存使用量。
BUGLAN added the enhancement label Jul 7, 2024 Collaborator PoTaTo-Mika commented Jul 8, 2024 感谢建议。 Stardust-minus closed this as completed Jul 8, 2024 AnyaCoder mentioned this issue Jul 9, 2024 [Feature] Add Faster Whisper #365 Merged ...
如何使用 1. 启动程序:双击文件打开工具。 2. 选择模型:在左上角选择你想使用的模型。 3. 设置推理方式与精度:在左下角选择推理方式和精度。推荐在CPU上选择`int8`模式,这样速度更快。 4. 注意GPU选择:如果你的电脑没有支持CUDA的GPU,务必不要选择GPU选项,否则程序可能会崩溃。原本计划通过pytorch库检测CUDA是...
目前faster-whisper 项目可通过 pip 进行安装,之后可在脚本中编程使用: pip install faster-whisper 官方用例: fromfaster_whisperimportWhisperModel model_size="large-v2"# Run on GPU with FP16model=WhisperModel(model_size,device="cuda",compute_type="float16")# or run on GPU with INT8# model = ...