次の方法で共有


ContentSafetyModelFactory.AnalyzeTextResult メソッド

定義

AnalyzeTextResult の新しいインスタンスを初期化します。

public static Azure.AI.ContentSafety.AnalyzeTextResult AnalyzeTextResult (System.Collections.Generic.IEnumerable<Azure.AI.ContentSafety.TextBlocklistMatchResult> blocklistsMatchResults = default, Azure.AI.ContentSafety.TextAnalyzeSeverityResult hateResult = default, Azure.AI.ContentSafety.TextAnalyzeSeverityResult selfHarmResult = default, Azure.AI.ContentSafety.TextAnalyzeSeverityResult sexualResult = default, Azure.AI.ContentSafety.TextAnalyzeSeverityResult violenceResult = default);
static member AnalyzeTextResult : seq<Azure.AI.ContentSafety.TextBlocklistMatchResult> * Azure.AI.ContentSafety.TextAnalyzeSeverityResult * Azure.AI.ContentSafety.TextAnalyzeSeverityResult * Azure.AI.ContentSafety.TextAnalyzeSeverityResult * Azure.AI.ContentSafety.TextAnalyzeSeverityResult -> Azure.AI.ContentSafety.AnalyzeTextResult
Public Shared Function AnalyzeTextResult (Optional blocklistsMatchResults As IEnumerable(Of TextBlocklistMatchResult) = Nothing, Optional hateResult As TextAnalyzeSeverityResult = Nothing, Optional selfHarmResult As TextAnalyzeSeverityResult = Nothing, Optional sexualResult As TextAnalyzeSeverityResult = Nothing, Optional violenceResult As TextAnalyzeSeverityResult = Nothing) As AnalyzeTextResult

パラメーター

blocklistsMatchResults
IEnumerable<TextBlocklistMatchResult>

ブロックリストの一致の詳細。

hateResult
TextAnalyzeSeverityResult

ヘイト カテゴリの分析結果。

selfHarmResult
TextAnalyzeSeverityResult

SelfHarm カテゴリの分析結果。

sexualResult
TextAnalyzeSeverityResult

性的カテゴリの分析結果。

violenceResult
TextAnalyzeSeverityResult

暴力カテゴリの分析結果。

戻り値

モック作成用の新しい AnalyzeTextResult インスタンス。

適用対象