Text Operations - Analyze Text

テキストの分析
有害な可能性のあるテキスト コンテンツを分析するための同期 API。 現在は、ヘイト、セルフハーム、性的、暴力の 4 つのカテゴリがサポートされています。

POST {endpoint}/contentsafety/text:analyze?api-version=2023-10-01

URI パラメーター

名前 / 必須 説明
endpoint
path True

string

サポートされている Cognitive Services エンドポイント (プロトコルとホスト名など: https://.cognitiveservices.azure.com).

api-version
query True

string

この操作に使用する API バージョン。

要求本文

名前 必須 説明
text True

string

分析するテキスト。 1 つの要求のテキストでは、最大 10,000 個の Unicode 文字 (Unicode コード ポイント) がサポートされています。

blocklistNames

string[]

ブロックリストの名前。

categories

TextCategory[]

カテゴリが分析されます。 割り当てられない場合は、カテゴリの既定の分析結果セットが返されます。

haltOnBlocklistHit

boolean

true に設定すると、ブロックリストがヒットした場合、有害なコンテンツのさらなる分析は実行されません。 false に設定すると、ブロックリストにヒットするかどうかに関係なく、有害なコンテンツのすべての分析が実行されます。

outputType

AnalyzeTextOutputType

これは、テキスト分析出力の種類を指します。 値が割り当てられていない場合、既定値は "FourSeverityLevels" になります。

応答

名前 説明
200 OK

AnalyzeTextResult

要求は成功しました。

Other Status Codes

Azure.Core.Foundations.ErrorResponse

予期しないエラー応答。

ヘッダー

x-ms-error-code: string

セキュリティ

Ocp-Apim-Subscription-Key

型: apiKey
/: header

OAuth2Auth

型: oauth2
フロー: application
Token URL (トークン URL): https://login.microsoftonline.com/common/oauth2/v2.0/token

スコープ

名前 説明
https://cognitiveservices.azure.com/.default

Analyze Text

要求のサンプル

POST {endpoint}/contentsafety/text:analyze?api-version=2023-10-01

{
  "text": "This is text example"
}

応答のサンプル

{
  "blocklistsMatch": [],
  "categoriesAnalysis": [
    {
      "category": "Hate",
      "severity": 0
    },
    {
      "category": "SelfHarm",
      "severity": 0
    },
    {
      "category": "Sexual",
      "severity": 0
    },
    {
      "category": "Violence",
      "severity": 0
    }
  ]
}

定義

名前 説明
AnalyzeTextOptions

テキスト分析要求。

AnalyzeTextOutputType

これは、テキスト分析出力の種類を指します。 値が割り当てられていない場合、既定値は "FourSeverityLevels" になります。

AnalyzeTextResult

テキスト分析応答。

Azure.Core.Foundations.Error

エラー オブジェクト。

Azure.Core.Foundations.ErrorResponse

エラーの詳細を含む応答。

Azure.Core.Foundations.InnerError

エラーに関するより具体的な情報を含むオブジェクト。 Microsoft One API のガイドラインに従って - https://github.com/Microsoft/api-guidelines/blob/vNext/Guidelines.md#7102-error-condition-responses.

TextBlocklistMatch

ブロックリストの一致の結果。

TextCategoriesAnalysis

テキスト分析の結果。

TextCategory

テキスト コンテンツ分析でサポートされる損害カテゴリ。

AnalyzeTextOptions

テキスト分析要求。

名前 規定値 説明
blocklistNames

string[]

ブロックリストの名前。

categories

TextCategory[]

カテゴリが分析されます。 割り当てられない場合は、カテゴリの既定の分析結果セットが返されます。

haltOnBlocklistHit

boolean

true に設定すると、ブロックリストがヒットした場合、有害なコンテンツのさらなる分析は実行されません。 false に設定すると、ブロックリストにヒットするかどうかに関係なく、有害なコンテンツのすべての分析が実行されます。

outputType

AnalyzeTextOutputType

FourSeverityLevels

これは、テキスト分析出力の種類を指します。 値が割り当てられていない場合、既定値は "FourSeverityLevels" になります。

text

string

分析するテキスト。 1 つの要求のテキストでは、最大 10,000 個の Unicode 文字 (Unicode コード ポイント) がサポートされています。

AnalyzeTextOutputType

これは、テキスト分析出力の種類を指します。 値が割り当てられていない場合、既定値は "FourSeverityLevels" になります。

名前 説明
EightSeverityLevels

string

出力重大度は 8 レベルで、値は 0,1,2,3,4,5,6,7 にすることができます。

FourSeverityLevels

string

出力の重大度は 4 レベルで、値は 0,2,4,6 にすることができます。

AnalyzeTextResult

テキスト分析応答。

名前 説明
blocklistsMatch

TextBlocklistMatch[]

ブロックリストの一致の詳細。

categoriesAnalysis

TextCategoriesAnalysis[]

カテゴリの分析結果。

Azure.Core.Foundations.Error

エラー オブジェクト。

名前 説明
code

string

サーバー定義の一連のエラー コードの 1 つ。

details

Azure.Core.Foundations.Error[]

この報告されたエラーの原因となった特定のエラーに関する詳細の配列。

innererror

Azure.Core.Foundations.InnerError

エラーに関する現在のオブジェクトよりも具体的な情報を含むオブジェクト。

message

string

エラーの人間が判読できる表現。

target

string

エラーのターゲット。

Azure.Core.Foundations.ErrorResponse

エラーの詳細を含む応答。

名前 説明
error

Azure.Core.Foundations.Error

エラー オブジェクト。

Azure.Core.Foundations.InnerError

エラーに関するより具体的な情報を含むオブジェクト。 Microsoft One API のガイドラインに従って - https://github.com/Microsoft/api-guidelines/blob/vNext/Guidelines.md#7102-error-condition-responses.

名前 説明
code

string

サーバー定義の一連のエラー コードの 1 つ。

innererror

Azure.Core.Foundations.InnerError

内部エラー。

TextBlocklistMatch

ブロックリストの一致の結果。

名前 説明
blocklistItemId

string

一致する項目の ID。

blocklistItemText

string

一致した項目の内容。

blocklistName

string

一致したブロックリストの名前。

TextCategoriesAnalysis

テキスト分析の結果。

名前 説明
category

TextCategory

テキスト分析カテゴリ。

severity

integer

値は、入力コンテンツの重大度に応じて増加します。 このフィールドの値は、要求で指定された出力の種類によって決まります。 出力の種類は 'FourSeverityLevels' または 'EightSeverity Levels' で、出力値は 0、2、4、6、または 0、1、2、3、4、5、6、または 7 にすることができます。

TextCategory

テキスト コンテンツ分析でサポートされる損害カテゴリ。

名前 説明
Hate

string

テキスト - ヘイトの損害カテゴリ。

SelfHarm

string

Text - SelfHarm の損害カテゴリ。

Sexual

string

テキストの損害カテゴリ - 性的。

Violence

string

テキストの損害カテゴリ - 暴力。