次の方法で共有


microsoft-cognitiveservices-speech-sdk package

クラス

ActivityReceivedEventArgs

受信したメッセージ/イベントの内容を定義します。

AudioConfig

使用する入力の種類 (マイク、ファイル、ストリーム) を指定するために使用されるオーディオ入力構成を表します。

AudioInputStream

カスタム オーディオ入力構成に使用されるオーディオ入力ストリームを表します。

AudioOutputStream

カスタム オーディオ出力構成に使用されるオーディオ出力ストリームを表します。

AudioStreamFormat

カスタム オーディオ入力構成に使用されるオーディオ ストリーム形式を表します。

AutoDetectSourceLanguageConfig

言語自動検出の構成。

AutoDetectSourceLanguageResult

出力形式

AvatarConfig

話すアバターの構成を定義します。

AvatarEventArgs

アバター イベントを話すコンテンツを定義します。

AvatarSynthesizer

アバター シンセサイザーを定義します。

AvatarVideoFormat

アバター出力ビデオ形式を定義します。

AvatarWebRTCConnectionResult

アバター WebRTC 接続の結果を定義します。

BaseAudioPlayer

基本オーディオ プレーヤー クラス TODO: 現時点では PCM のみを再生します。

BotFrameworkConfig

Bot Framework バックエンドを使用するためのダイアログ サービス コネクタ オブジェクトの構成を定義するクラス。

CancellationDetails

結果が取り消された理由に関する詳細情報が含まれます。

CancellationDetailsBase

結果が取り消された理由に関する詳細情報が含まれます。

Connection

Connection は、指定した Recognizer の音声サービスへの接続を管理するためのプロキシ クラスです。 既定では、Recognizer は、必要に応じてサービスへの接続を自律的に管理します。 Connection クラスには、ユーザーが接続を明示的に開いたり閉じたりしたり、接続状態の変更をサブスクライブしたりするための追加のメソッドが用意されています。 接続の使用は省略可能であり、主に接続状態に基づいてアプリケーションの動作を微調整する必要があるシナリオに使用します。 ユーザーは必要に応じて Open() を呼び出して、この接続に関連付けられている認識エンジンで認識を開始する前に、接続を手動で事前に設定できます。 Recognizer がサービスに接続または切断する必要がある場合は、接続を個別にセットアップまたはシャットダウンします。 この場合、接続/切断されたイベントを介して接続状態の変更によって接続が通知されます。 バージョン 1.2.1 で追加されました。

ConnectionEventArgs

接続/切断などの接続イベントのペイロードを定義します。 バージョン 1.2.0 で追加されました

ConnectionMessage

ConnectionMessage は、音声サービスとの間で送受信される実装固有のメッセージを表します。 これらのメッセージはデバッグ目的で提供され、Azure Cognitive Services Speech Service の運用環境のユース ケースには使用しないでください。 Speech Service との間で送受信されるメッセージは、予告なしに変更されることがあります。 これには、メッセージの内容、ヘッダー、ペイロード、順序などが含まれます。バージョン 1.11.0 で追加されました。

ConnectionMessageEventArgs
Conversation
ConversationExpirationEventArgs

SessionStarted/Stopped、SoundStarted/Stopped などのセッション イベントのコンテンツを定義します。

ConversationParticipantsChangedEventArgs

SessionStarted/Stopped、SoundStarted/Stopped などのセッション イベントのコンテンツを定義します。

ConversationTranscriber

マイク、ファイル、またはその他のオーディオ入力ストリームから話者を分離して音声認識を実行し、結果として文字起こしされたテキストを取得します。

ConversationTranscriptionCanceledEventArgs

RecognitionErrorEvent のコンテンツを定義します。

ConversationTranscriptionEventArgs

会話の文字起こし/文字起こしイベントの内容を定義します。

ConversationTranscriptionResult

会話の文字起こしの結果を定義します。

ConversationTranslationCanceledEventArgs
ConversationTranslationEventArgs

Speech Start/End Detected などのセッション イベントのペイロードを定義します

ConversationTranslationResult

翻訳テキストの結果。

ConversationTranslator

会話に参加、退出、または接続します。

Coordinate

2D 空間で座標を定義します。

CustomCommandsConfig

CustomCommands バックエンドを使用するためのダイアログ サービス コネクタ オブジェクトの構成を定義するクラス。

Diagnostics

バージョン 1.21.0 で追加されたコンソール出力を管理するための診断 API を定義します

DialogServiceConfig

ダイアログ サービス コネクタの基本構成を定義するクラス

DialogServiceConnector

Dialog Service Connector

IntentRecognitionCanceledEventArgs

意図認識によって取り消された結果イベントのペイロードを定義します。

IntentRecognitionEventArgs

意図認識の結果イベント引数。

IntentRecognitionResult

意図認識の結果。

IntentRecognizer

意図認識エンジン。

KeywordRecognitionModel

ユーザーがキーワードを言って音声認識を開始したときに認識するキーワード認識モデルを表します。

LanguageUnderstandingModel

言語理解モデル

Meeting
MeetingTranscriber
MeetingTranscriptionCanceledEventArgs

MeetingTranscriptionCanceledEvent のコンテンツを定義します。

MeetingTranscriptionEventArgs

会議の文字起こし/文字起こしイベントの内容を定義します。

NoMatchDetails

NoMatch 認識結果の詳細情報が含まれています。

Participant

会話の参加者を表します。 バージョン 1.4.0 で追加されました

PhraseListGrammar

音声認識を向上させるために新しいフレーズを追加できます。

認識エンジンに追加された語句は、次の認識の開始時、または次に SpeechSDK が音声サービスに再接続する必要がある場合に有効になります。

PronunciationAssessmentConfig

発音評価の構成。

PronunciationAssessmentResult

発音評価の結果。

PropertyCollection

プロパティとその値のコレクションを表します。

PullAudioInputStream

カスタム オーディオ入力構成に使用されるオーディオ入力ストリームを表します。

PullAudioInputStreamCallback

カスタム オーディオ入力ストリームのコールバック メソッド (read() と close()) を定義する抽象基本クラス。

PullAudioOutputStream

カスタム オーディオ出力構成に使用されるメモリベースのプッシュ オーディオ出力ストリームを表します。

PushAudioInputStream

カスタム オーディオ入力構成に使用されるメモリベースのプッシュ オーディオ入力ストリームを表します。

PushAudioOutputStream

カスタム オーディオ出力構成に使用されるオーディオ出力ストリームを表します。

PushAudioOutputStreamCallback

カスタム オーディオ出力ストリームのコールバック メソッド (write() と close()) を定義する抽象基本クラス。

RecognitionEventArgs

Speech Start/End Detected などのセッション イベントのペイロードを定義します

RecognitionResult

音声認識の結果を定義します。

Recognizer

主に共通のイベント ハンドラーを含む基本クラス Recognizer を定義します。

ServiceEventArgs

バージョン 1.9.0 で追加されたサービス メッセージ イベントのペイロードを定義します

SessionEventArgs

SessionStarted/Stopped、SoundStarted/Stopped などのセッション イベントのコンテンツを定義します。

SourceLanguageConfig

ソース言語の構成。

SpeakerAudioDestination

ブラウザーでのみ動作するスピーカー再生オーディオ変換先を表します。 注: SDK は、Media Source Extensions を使用してオーディオを再生しようとします。 Mp3 形式は、Microsoft Edge、Chrome、Safari (デスクトップ) でのサポートが向上しているため、再生用に mp3 形式を指定することをお勧めします。

SpeakerIdentificationModel

Speaker Recognition Model の SpeakerIdentificationModel クラスを定義します。このクラスには、話者を識別するための一連のプロファイルが含まれています

SpeakerRecognitionCancellationDetails
SpeakerRecognitionResult

出力形式

SpeakerRecognizer

音声プロファイル操作 (createProfile、deleteProfile など) のユーザーからの Speaker Recognition Handles 操作の SpeakerRecognizer クラスを定義します。

SpeakerVerificationModel

Speaker Recognition Model の SpeakerVerificationModel クラスを定義します。このクラスには、話者を検証するためのプロファイルが含まれています

SpeechConfig

音声構成。

SpeechConfigImpl
SpeechRecognitionCanceledEventArgs
SpeechRecognitionEventArgs

音声認識/認識イベントの内容を定義します。

SpeechRecognitionResult

音声認識の結果を定義します。

SpeechRecognizer

マイク、ファイル、またはその他のオーディオ入力ストリームから音声認識を実行し、結果として文字起こしされたテキストを取得します。

SpeechSynthesisBookmarkEventArgs

音声合成ブックマーク イベントの内容を定義します。

SpeechSynthesisEventArgs

音声合成イベントの内容を定義します。

SpeechSynthesisResult

音声合成の結果を定義します。

SpeechSynthesisVisemeEventArgs

音声合成の口形素イベントの内容を定義します。

SpeechSynthesisWordBoundaryEventArgs

音声合成ワード境界イベントの内容を定義します。

SpeechSynthesizer

テキスト読み上げ用の SpeechSynthesizer クラスを定義します。 バージョン 1.16.0 で更新されました

SpeechTranslationConfig

音声翻訳の構成。

SynthesisResult

合成結果の基本クラス

SynthesisVoicesResult

音声合成の結果を定義します。

Synthesizer
TranslationRecognitionCanceledEventArgs

音声認識のキャンセルされた結果イベントのペイロードを定義します。

TranslationRecognitionEventArgs

翻訳テキストの結果イベント引数。

TranslationRecognitionResult

翻訳テキストの結果。

TranslationRecognizer

翻訳認識エンジン

TranslationSynthesisEventArgs

変換合成イベントの引数

TranslationSynthesisResult

翻訳合成の結果 (ターゲット言語での翻訳されたテキストの音声出力) を定義します。

Translations

パラメーターとその値のコレクションを表します。

TurnStatusReceivedEventArgs

受信したメッセージ/イベントの内容を定義します。

User
VoiceInfo

バージョン 1.20.0 で追加された音声合成音声に関する情報。

VoiceProfile

話者認識の音声プロファイル クラスを定義します

VoiceProfileCancellationDetails
VoiceProfileClient

Speaker Recognition の VoiceProfileClient クラスを定義します。音声プロファイル操作 (createProfile、deleteProfile など) のユーザーからの操作を処理します。

VoiceProfileEnrollmentCancellationDetails
VoiceProfileEnrollmentResult

出力形式

VoiceProfilePhraseResult

出力形式

VoiceProfileResult

出力形式

インターフェイス

CancellationEventArgs
ConversationInfo
IParticipant

会話の参加者を表します。 バージョン 1.4.0 で追加されました

IPlayer

一時停止、再開など、オーディオ再生を制御するオーディオ プレーヤー インターフェイスを表します。

IVoiceJson
MeetingInfo
VoiceSignature

列挙型

AudioFormatTag
CancellationErrorCode

CancellationReason が Error の場合のエラー コードを定義します。 バージョン 1.1.0 で追加されました。

CancellationReason

認識結果が取り消される可能性がある理由を定義します。

LanguageIdMode

言語識別モード

LogLevel
NoMatchReason

認識結果が認識されない可能性がある理由を定義します。

OutputFormat

Speech Recognizer の出力形式を定義します。

ParticipantChangedReason
ProfanityOption

不適切な表現オプション。 バージョン 1.7.0 で追加されました。

PronunciationAssessmentGradingSystem

発音スコア調整のポイント システムを定義します。既定値は FivePoint です。 バージョン 1.15.0 で追加されました

PronunciationAssessmentGranularity

発音評価の粒度を定義します。既定値は Phoneme です。 バージョン 1.15.0 で追加されました

PropertyId

音声プロパティ ID を定義します。

ResultReason

認識結果が生成される可能性のある理由を定義します。

ServicePropertyChannel

プロパティ設定をサービスに渡すために使用されるチャネルを定義します。 バージョン 1.7.0 で追加されました。

SpeakerRecognitionResultType
SpeechSynthesisBoundaryType

音声合成境界イベントの境界の種類を定義します。

SpeechSynthesisOutputFormat

音声合成オーディオ出力形式を定義します。 SpeechSynthesisOutputFormat バージョン 1.17.0 で更新

VoiceProfileType

出力形式