initial_prompt = "这是一段会议记录。" 哦对了,我是在程序里调接口用,如果用命令号,就直接加 --initial_prompt "这是一段会议记录。" (应该是这么写,不对的话再调整调整格式) 于是标点符号的问题解决了。 4、whisper 中文简体繁体字的问题 标点符号问题解决了,结果有时候识别出来的内容突然有一段变成了繁体...
initial_prompt 参数 提高未知单词的识别准确性 我们可以通过 initial_prompt 参数提升 Whisper 语音生成文字的质量,使用这个参数,模型会尝试尽量匹配提示的样式。 importwhisperimportarrow# 定义模型、音频地址、录音开始时间defexcute(model_name,file_path,start_time,initial_prompt): model = whisper.load_model(model...
此外,针对第一个转写窗口,你也能提供initial_prompt,比如“这是一段演讲,里面会提到大数据和ChatGPT是如何结合的”,你可以通过prompt引导提高特定场景和术语下的语音识别表现,这点就很openAI了。 使用prompt时要注意:如果你用model.transcribe(),就用initial_prompt,如果你用whisper.decode(),就在options用prompt,两边...
whisper youraudio.wav --language Chinese --model medium --initial_prompt "以下是普通话的句子。" 注意:由于whisper的默认输出可能是繁体中文,因此需要通过--initial_prompt参数指定输出简体中文。 3. 批量处理音频文件 如果音频文件较多,可以编写Python脚本来批量处理。以下是一个简单的示例脚本: import whisper imp...
[–initial_prompt INITIAL_PROMPT]可选文本,作为第一个窗口的提示。None [–https://www.zhihu.com/search?q=condition_on_previous_text%20CONDITION_ON_PREVIOUS_TEXT&search_source=Entity&hybrid_search_source=Entity&hybrid_search_extra=%7B%22sourceType%22%3A%22answer%22%2C%22sourceId%22%3A2778034018...
initial_prompt: Optional[str] = None, word_timestamps: bool = False, prepend_punctuations: str = "\"'“¿([{-", append_punctuations: str = "\"'.。,,!!??::”)]}、", **decode_options, ): """ 将音频转换为文本。 参数: ...
initial_prompt: prompt 工程可以提高语音识别结果的准确性。 word_timestamps: 单词级别的时间戳,在输出为 json 时起作用,可输出每个单词的开始时间、结束时间、识别正确的可能性。 output: 输出格式。 可以启用语音活动检测(VAD),通过参数vad_filter过滤掉没有语音的音频部分(目前仅支持Faster Whisper)。
4 .initial_prompt:应该是类似于chatgpt的prompt吧,但是感觉没什么需要填写的必要。 5. word_timestamps:单词级别的时间戳。在输出格式为json时起作用,会输出每个单词的开始时间、结束时间、识别正确的可能性。 6. output:输出格式。 txt:文本格式。 vtt、srt:字幕格式,可以给视频制作字幕。 tsv:类似于csv的一种...
whisper music.mp3 --model tiny --language Chinese --device cuda:0 --initial_prompt "以下是普通话的句子" 1. 2. 3. 4. 5. Python代码 import whisper model = whisper.load_model("base", "cpu") mps_path = r"music.mp3" result = model.transcribe(mps_path, fp16=False, language='Chinese...
Related to #637. Add initial_prompt so we can avoid some re-implement of prompt_tokens and n_prompt_tokens. This changes removes the print of prompt tokens because it may not ideal in whisper_full.