SynthesisTextFormat Promptオブジェクトの構築に使用されるテキスト形式の種類を列挙します。 SynthesizerEmphasis シンセサイザーの強調のレベルを列挙します。 SynthesizerState SpeechSynthesizerの状態の値を列挙します。 VoiceAge 合成された音声の期間の値を定義します。
このチュートリアルでデプロイしたエコー ボットを引き続き使用しない場合は、Azure リソース グループを削除することで、そのエコー ボットおよびそれに関連付けられているすべての Azure リソースを削除できます。 Azure portalで、[Azure サービス]の[リソース グループ]...
JS: TranslationRecognitionEventArgs の言語プロパティが translation.hypothesis イベントに設定されました。 音声合成: SynthesisCompleted イベントは、すべてのメタデータ イベント後に発行されることが保証されているため、イベントの終了を示すために使用できます。 口形素が完全に受信されたこと...
SpeechServiceResponse_RecognitionBackend認識バックエンド。 読み取り専用。音声認識結果で使用できます。 これは、クラウド (オンライン) または埋め込み (オフライン) 認識を使用して結果を生成したかどうかを示します。 SpeechServiceResponse_SynthesisFirstByteLatencyMs音声合成の最初のバイト...
SpeechRecognitionResult 音声認識の結果が含まれます。 SpeechRecognitionResultExtensions 音声認識結果の拡張メソッド SpeechRecognizer 音声をテキストに文字起こしします。 音声は、マイク、オーディオ ファイル、またはその他のオーディオ入力ストリームを介して受信できます。 SpeechSynthesisBookma...
音声合成結果 (SpeechSynthesisResult 型) またはキーワード (keyword)認識結果 (KeywordRecognitionResult 型) からオーディオ データ ストリームを生成します。 AutoDetectSourceLanguageResult 自動検出ソース言語の結果を表します。 結果は、音声認識結果から初期化できます。
(speechKey, speechRegion);// The language of the voice that speaks.speechConfig.SpeechSynthesisVoiceName ="en-US-JennyMultilingualNeural";varaudioOutputConfig = AudioConfig.FromDefaultSpeakerOutput();usingvarspeechSynthesizer =newSpeechSynthesizer(speechConfig, audioOutputConfig);...
このチュートリアルでデプロイしたエコー ボットを引き続き使用しない場合は、Azure リソース グループを削除することで、そのエコー ボットおよびそれに関連付けられているすべての Azure リソースを削除できます。 Azure portalで、[Azure サービス]の[リソース グループ]を選...
音声合成結果 (SpeechSynthesisResult 型) またはキーワード (keyword)認識結果 (KeywordRecognitionResult 型) からオーディオ データ ストリームを生成します。 AutoDetectSourceLanguageResult 自動検出ソース言語の結果を表します。 結果は、音声認識結果から初期化できます。