Azure OpenAI Service の REST API リファレンス

この記事では、Azure OpenAI の推論 REST API エンドポイントについて詳しく説明します。

API の仕様

Azure OpenAI モデルとリソースの管理と対話は、次の 3 つの主要な API サーフェスに分かれています。

  • コントロール プレーン
  • データ プレーン - 作成
  • データ プレーン - 推論

各 API サーフェス/仕様には、異なる Azure OpenAI 機能のセットがカプセル化されています。 各 API には、プレビューと安定した/一般公開 (GA) の API リリースの独自のセットがあります。 現在、プレビュー リリースは毎月のペースで行われる傾向があります。

API 最新のプレビュー リリース 最新の GA リリース 仕様 説明
コントロール プレーン 2024-06-01-preview 2024-10-01 仕様ファイル Azure OpenAI は、他のすべての Azure AI サービスと共通のコントロール プレーンを共有します。 コントロール プレーン API は、Azure OpenAI リソースの作成モデル デプロイ、その他の上位レベルのリソース管理タスクなどに使用されます。 コントロール プレーンは、Azure Resource Manager、Bicep、Terraform、Azure CLI などの機能で実行可能な内容も制御します。
データ プレーン - 作成 2024-10-01-preview 2024-10-21 仕様ファイル データ プレーン作成 API は、微調整ファイル アップロードインジェスト ジョブバッチ、および特定のモデル レベルのクエリを制御します
データ プレーン - 推論 2024-10-01-preview 2024-10-21 仕様ファイル データ プレーン推論 API は、データに対する入力候補、チャット入力候補、埋め込み、音声/Whisper、DALL-E、アシスタントなどの機能の推論機能/エンドポイントを提供します。

認証

Azure OpenAI には、2 つの認証方法が用意されています。 API キーまたは Microsoft Entra ID を使用できます。

  • API キー認証: この種類の認証の場合、すべての API 要求で、api-key HTTP ヘッダーに API キーを含める必要があります。 クイック スタートに、この種類の認証を使用して呼び出しを行う方法に関するガイダンスが用意されています。

  • Microsoft Entra ID 認証: Microsoft Entra トークンを使用して API 呼び出しを認証できます。 認証トークンは、Authorization ヘッダーとして要求に含まれます。 指定するトークンの前に Bearer を付ける必要があります (例: Bearer YOUR_AUTH_TOKEN)。 Microsoft Entra ID を使用した認証に関する攻略ガイドをお読みください。

REST API のバージョン管理

サービス API は、api-version クエリ パラメーターを使用してバージョン管理されます。 すべてのバージョンは、YYYY-MM-DD 日付構造に従います。 次に例を示します。

POST https://YOUR_RESOURCE_NAME.openai.azure.com/openai/deployments/YOUR_DEPLOYMENT_NAME/chat/completions?api-version=2024-06-01

データ プレーン推論

この記事の残りの部分では、Azure OpenAI データ プレーン推論仕様の最新 GA リリース 2024-10-21 について説明します。

最新のプレビュー API リリースに関するドキュメントをお探しの場合は、最新のプレビュー データ プレーン推論 API に関する記事を参照してください

入力候補

POST https://{endpoint}/openai/deployments/{deployment-id}/completions?api-version=2024-10-21

指定されたプロンプト、パラメーターと、選択されたモデルに対する補完を作成します。

URI パラメーター

名前 / 必須 タイプ 説明
endpoint path はい string
URL
サポートされる Azure OpenAI エンドポイント (プロトコルとホスト名。例: https://aoairesource.openai.azure.com。"aoairesource" は Azure OpenAI リソース名に置き換えてください)。 https://{your-resource-name}.openai.azure.com
deployment-id path はい string デプロイされたモデルのデプロイ ID。
api-version クエリ はい string API バージョン

要求ヘッダー

名前 Required タイプ 説明
api-key True string ここには Azure OpenAI API キーを指定します

要求本文

コンテンツ タイプ: アプリケーション/json

名前 種類 内容 必要 Default
prompt 文字列または配列 文字列、文字列の配列、トークンの配列、またはトークン配列の配列としてエンコードされた、補完を生成するためのプロンプト。

<|endoftext|> はトレーニング中にモデルが認識するドキュメント区切り記号であるため、プロンプトを指定しない場合、モデルは新しいドキュメントの先頭からであるかのように生成します。
はい
best_of integer サーバー側で best_of 入力候補を生成し、"最適なもの" (トークンあたりの対数確率が最高のもの) を返します。 結果をストリーミングすることはできません。

n とともに使用すると、best_of は入力候補の数を制御し、n は返す数を指定します。best_ofn より大きくする必要があります。

注: このパラメーターにより多くの入力候補が生成されるため、トークン クォータがすぐに消費される可能性があります。 慎重に使用し、max_tokensstop の設定が合理的であることを確認してください。
いいえ 1
echo boolean 入力候補に加えてプロンプトをエコーバックします。
いいえ False
frequency_penalty 数値 -2.0 ~ 2.0 の数。 正の値は、これまでのテキストにおける既存の頻度に基づいて新しいトークンにペナルティを与え、モデルが同じ行をそのまま繰り返す可能性を減少させます。
いいえ 0
logit_bias オブジェクト 指定したトークンが入力候補に表示される可能性を変更します。

トークン (GPT トークナイザーのトークン ID で指定) を関連付けられたバイアス値 (-100 から 100) にマップする JSON オブジェクトを受け入れます。 数学的には、サンプリングの前にモデルによって生成されたロジットにバイアスが追加されます。 正確な効果はモデルごとに異なりますが、-1 から 1 の値では選択の可能性が低下または増加し、-100 や 100 などの値では、関連するトークンの禁止または排他的な選択になります。

たとえば、<|endoftext|> トークンが生成されないように、{"50256": -100} を渡すことができます。
いいえ なし
logprobs integer logprobs の最も可能性の高い出力トークンと、選択したトークンのログ確率を含めます。 たとえば、logprobs が 5 の場合、API は可能性が最も高い 5 個のトークンの一覧を返します。 API は常に、サンプリングされたトークンの logprob を返します。そのため、応答には、最大 logprobs+1 の要素が含まれる可能性があります。

logprobs の最大値は 5 です。
いいえ なし
max_tokens integer 補完の中で生成できるトークンの最大数。

プロンプトのトークン数と max_tokens の合計は、モデルのコンテキスト長を超えることはできません。
いいえ 16
n integer プロンプトごとに生成する入力候補の数。

注: このパラメーターにより多くの入力候補が生成されるため、トークン クォータがすぐに消費される可能性があります。 慎重に使用し、max_tokensstop の設定が合理的であることを確認してください。
いいえ 1
presence_penalty 数値 -2.0 ~ 2.0 の数。 正の値は、新しいトークンがこれまでのテキストに表示されているかどうかに基づいてペナルティを課し、モデルが新しいトピックについて話す可能性を高めます。
いいえ 0
シード integer 指定されている場合、このシステムは、同じ seed とパラメーターを使用して繰り返された要求に対して同じ結果を返せるように、決定論的にサンプリングを行うように最善を尽くします。

決定性は保証されないため、バックエンドでの変更を監視するには、system_fingerprint 応答パラメーターを参照する必要があります。
いいえ
stop 文字列または配列 API がそれ以上のトークンの生成を停止する、最大 4 つのシーケンス。 返されるテキストに停止シーケンスは含まれません。
いいえ
stream boolean 部分的な進行状況をストリーム バックするかどうか。 設定されている場合、トークンは使用可能になるとデータのみのサーバー送信イベントとして送信され、ストリームは data: [DONE] メッセージによって終了します。 いいえ False
suffix string 挿入されたテキストの入力候補の後に付加されるサフィックス。

このパラメーターは、gpt-3.5-turbo-instruct に対してのみサポートされます。
いいえ なし
温度 数値 使用するサンプリング温度 (0 から 2)。 0.8 のような大きい値にすると、出力はよりランダムになり、0.2 のような小さい値にすると、出力はより集中的および決定論的になります。

一般に、これと top_p の両方ではなく、いずれかを変更することをお勧めします。
いいえ 1
top_p 数値 温度によるサンプリングに代わる核サンプリングと呼ばれるもので、モデルは top_p の確率質量を持つトークンの結果を考慮します。 したがって、0.1 は、上位 10% の確率質量を構成するトークンのみが考慮されることを意味します。

一般に、これと temperature の両方ではなく、いずれかを変更することをお勧めします。
いいえ 1
ユーザー string エンド ユーザーを表す一意の識別子。これは不正使用を監視および検出するのに役立ちます。
いいえ

応答

状態コード: 200

説明: OK

Content-Type Type 説明
application/json createCompletionResponse API からの補完応答を表します。 注: (チャット エンドポイントとは異なり)、ストリーム応答オブジェクトと非ストリーム応答オブジェクトはどちらも同じシェイプを共有します。

状態コード: 既定

説明: サービスを利用できません

Content-Type Type 説明
application/json errorResponse

指定されたプロンプト、パラメーターと、選択されたモデルに対する補完を作成します。

POST https://{endpoint}/openai/deployments/{deployment-id}/completions?api-version=2024-10-21

{
 "prompt": [
  "tell me a joke about mango"
 ],
 "max_tokens": 32,
 "temperature": 1.0,
 "n": 1
}

応答: 状態コード: 200

{
  "body": {
    "id": "cmpl-7QmVI15qgYVllxK0FtxVGG6ywfzaq",
    "created": 1686617332,
    "choices": [
      {
        "text": "es\n\nWhat do you call a mango who's in charge?\n\nThe head mango.",
        "index": 0,
        "finish_reason": "stop",
        "logprobs": null
      }
    ],
    "usage": {
      "completion_tokens": 20,
      "prompt_tokens": 6,
      "total_tokens": 26
    }
  }
}

埋め込み

POST https://{endpoint}/openai/deployments/{deployment-id}/embeddings?api-version=2024-10-21

機械学習モデルやアルゴリズムで簡単に使用できる、特定の入力のベクター表現を取得します。

URI パラメーター

名前 / 必須 タイプ 説明
endpoint path はい string
URL
サポートされる Azure OpenAI エンドポイント (プロトコルとホスト名。例: https://aoairesource.openai.azure.com。"aoairesource" は Azure OpenAI リソース名に置き換えてください)。 https://{your-resource-name}.openai.azure.com
deployment-id path はい string
api-version クエリ はい string API バージョン

要求ヘッダー

名前 Required タイプ 説明
api-key True string ここには Azure OpenAI API キーを指定します

要求本文

コンテンツ タイプ: アプリケーション/json

名前 種類 内容 必要 Default
input 文字列または配列 埋め込むテキストを入力します。トークンの文字列または配列としてエンコードされます。 1 回の要求で複数の入力を埋め込むには、文字列の配列またはトークン配列の配列を渡します。 入力は、モデルの最大入力トークン数 (text-embedding-ada-002 の場合は 8,192 トークン) を超えてはならず、空の文字列であってはなりません。また、配列は 2,048 次元以下でなければなりません。 はい
ユーザー string エンド ユーザーを表す一意の識別子。乱用の監視と検出に役立ちます。 いいえ
input_type string 使用する埋め込み検索の入力の型 いいえ
encoding_format string 埋め込みを返す形式。 float または base64 を指定できます。 既定値は float です。 いいえ
dimensions integer 結果として出力される埋め込みに必要なディメンションの数。 text-embedding-3 以降のモデルでのみサポートされます。 いいえ

応答

名前 種類 内容 必要 Default
オブジェクト string はい
モデル string はい
data 配列 はい
使用量 オブジェクト はい

使用するプロパティ

prompt_tokens

名前 種類 説明 Default
prompt_tokens integer

total_tokens

名前 種類 説明 Default
total_tokens integer

状態コード: 200

説明: OK

Content-Type Type 説明
application/json オブジェクト

指定されたプロンプトの埋め込みを返却します。

POST https://{endpoint}/openai/deployments/{deployment-id}/embeddings?api-version=2024-10-21

{
 "input": [
  "this is a test"
 ]
}

応答: 状態コード: 200

{
  "body": {
    "data": [
      {
        "index": 0,
        "embedding": [
          -0.012838088,
          -0.007421397,
          -0.017617522,
          -0.028278312,
          -0.018666342,
          0.01737855,
          -0.01821495,
          -0.006950092,
          -0.009937238,
          -0.038580645,
          0.010674067,
          0.02412286,
          -0.013647936,
          0.013189907,
          0.0021125758,
          0.012406612,
          0.020790534,
          0.00074595667,
          0.008397198,
          -0.00535031,
          0.008968075,
          0.014351576,
          -0.014086051,
          0.015055214,
          -0.022211088,
          -0.025198232,
          0.0065186154,
          -0.036350243,
          0.009180495,
          -0.009698266,
          0.009446018,
          -0.008463579,
          -0.0040426035,
          -0.03443847,
          -0.00091273896,
          -0.0019217303,
          0.002349888,
          -0.021560553,
          0.016515596,
          -0.015572986,
          0.0038666942,
          -8.432463e-05
        ]
      }
    ],
    "usage": {
      "prompt_tokens": 4,
      "total_tokens": 4
    }
  }
}

チャット入力候補

POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2024-10-21

チャット メッセージの補完を作成します

URI パラメーター

名前 / 必須 タイプ 説明
endpoint path はい string
URL
サポートされる Azure OpenAI エンドポイント (プロトコルとホスト名。例: https://aoairesource.openai.azure.com。"aoairesource" は Azure OpenAI リソース名に置き換えてください)。 https://{your-resource-name}.openai.azure.com
deployment-id path はい string デプロイされたモデルのデプロイ ID。
api-version クエリ はい string API バージョン

要求ヘッダー

名前 Required タイプ 説明
api-key True string ここには Azure OpenAI API キーを指定します

要求本文

コンテンツ タイプ: アプリケーション/json

名前 種類 内容 必要 Default
温度 数値 使用するサンプリング温度 (0 から 2)。 0.8 のような大きい値にすると、出力はよりランダムになり、0.2 のような小さい値にすると、出力はより集中的および決定論的になります。

一般に、これと top_p の両方ではなく、いずれかを変更することをお勧めします。
いいえ 1
top_p 数値 温度によるサンプリングに代わる核サンプリングと呼ばれるもので、モデルは top_p の確率質量を持つトークンの結果を考慮します。 したがって、0.1 は、上位 10% の確率質量を構成するトークンのみが考慮されることを意味します。

一般に、これと temperature の両方ではなく、いずれかを変更することをお勧めします。
いいえ 1
stream boolean 設定すると、ChatGPT と同様に部分的なメッセージ デルタが送信されます。 トークンは、使用可能になるとデータのみのサーバー送信イベントとして送信され、ストリームは data: [DONE] メッセージによって終了します。 いいえ False
stop 文字列または配列 API がそれ以上のトークンの生成を停止する、最大 4 つのシーケンス。
いいえ
max_tokens integer チャット入力候補で生成できるトークンの最大数。

入力トークンと生成されたトークンの合計の長さは、モデルのコンテキスト長によって制限されます。
いいえ
max_completion_tokens integer 可視出力トークンや推論トークンなど、完了するために生成できるトークンの数の上限。 いいえ
presence_penalty 数値 -2.0 ~ 2.0 の数。 正の値は、新しいトークンがこれまでのテキストに表示されているかどうかに基づいてペナルティを課し、モデルが新しいトピックについて話す可能性を高めます。
いいえ 0
frequency_penalty 数値 -2.0 ~ 2.0 の数。 正の値は、これまでのテキストにおける既存の頻度に基づいて新しいトークンにペナルティを与え、モデルが同じ行をそのまま繰り返す可能性を減少させます。
いいえ 0
logit_bias オブジェクト 指定したトークンが入力候補に表示される可能性を変更します。

トークン (トークナイザーのトークン ID で指定) を関連付けられたバイアス値 (-100 から 100) にマップする JSON オブジェクトを受け入れます。 数学的には、サンプリングの前にモデルによって生成されたロジットにバイアスが追加されます。 正確な効果はモデルごとに異なりますが、-1 から 1 の値では選択の可能性が低下または増加し、-100 や 100 などの値では、関連するトークンの禁止または排他的な選択になります。
いいえ なし
ユーザー string エンド ユーザーを表す一意の識別子。これは不正使用を監視および検出するのに役立ちます。
いいえ
messages 配列 これまでの会話を構成するメッセージの一覧。 はい
data_sources 配列 それらを使用する Azure OpenAI チャット拡張機能の構成エントリ。
この追加仕様は、Azure OpenAI とのみ互換性があります。
いいえ
logprobs boolean 出力トークンのログ確率を返すかどうかを指定します。 true に設定すると、messagecontent に含まれる各出力トークンのログ確率が返されます。 いいえ False
top_logprobs integer 0 から 20 までの整数値を指定します。これは、各トークンの位置において、最も出現確率の高いトークンをいくつ返すかを表します。各トークンには、それぞれ関連するログ確率が付与されます。 このパラメーターを使う場合、logprobstrue に設定する必要があります。 いいえ
n integer 入力メッセージごとに生成するチャット入力候補の選択肢の数。 選択肢全体で生成されたトークンの数に基づいて課金されることに注意してください。 コストを最小限に抑えるために、n1 のままにします。 いいえ 1
parallel_tool_calls ParallelToolCalls ツールの使用中に並列関数の呼び出しを有効にするかどうか。 いいえ True
応答形式 ResponseFormatText または ResponseFormatJsonObject または ResponseFormatJsonSchema モデルが出力する必要がある形式を指定するオブジェクト。 GPT-4oGPT-4o miniGPT-4 Turbo、および gpt-3.5-turbo-1106 以降のすべての GPT-3.5 Turbo モデルと互換性があります。

{ "type": "json_schema", "json_schema": {...} } に設定すると、モデルと提供された JSON スキーマが一致することを保証する構造化出力が有効になります。

{ "type": "json_object" } に設定すると、JSON モードが有効になります。これにより、モデルが生成するメッセージが有効な JSON であることが保証されます。

重要: JSON モードを使うときは、システムまたはユーザー メッセージ経由で、JSON を生成するようにユーザー自身がモデルに指示することも必要です。 これがないと、トークンの上限に達するまで、モデルはいつまでも空白のストリームを生成する可能性があります。その結果、実行時間が長く、一見 "止まっている" ように見える要求が発生します。 また、finish_reason="length" の場合、メッセージの内容が部分的に切り取られる可能性があります。これは、世代が max_tokens を超えたか、会話がコンテキストの最大長を超えたことを示します。
いいえ
シード integer この機能はベータ版です。
指定されている場合、このシステムは、同じ seed とパラメーターを使用して繰り返された要求に対して同じ結果を返せるように、決定論的にサンプリングを行うように最善を尽くします。
決定性は保証されないため、バックエンドでの変更を監視するには、system_fingerprint 応答パラメーターを参照する必要があります。
いいえ
tools 配列 モデルによって呼び出されるツールの一覧。 現在のところ、関数のみがツールとしてサポートされています。 これを使用し、モデルによって JSON 入力が生成される関数の一覧を提供します。 最大 128 個の関数がサポートされています。
いいえ
tool_choice chatCompletionToolChoiceOption モデルによって呼び出されるツールを制御します (ある場合)。 none は、モデルでツールが呼び出されず、代わりにメッセージが生成されることを意味します。 auto は、モデルがメッセージを生成するか、1 つ以上のツールを呼び出すかを選択できることを意味します。 required は、モデルが 1 つ以上のツールを呼び出す必要があることを意味します。 {"type": "function", "function": {"name": "my_function"}} を介して特定のツールを指定すると、モデルでそのツールの呼び出しが強制されます。 ツールが存在しない場合は、none が既定値です。 ツールが存在する場合は、auto が既定値です。 いいえ
function_call string または chatCompletionFunctionCallOption tool_choice を優先して非推奨になりました。

モデルによって呼び出される関数を制御します (そのような関数がある場合)。
none は、モデルが関数を呼び出さず、代わりにメッセージを生成することを示します。
auto の場合、メッセージを生成するか、関数を呼び出すか、モデルで選択できます。
{"name": "my_function"} で特定の関数を指定すると、モデルはその関数を強制的に呼び出します。

関数が存在しない場合は、none が既定値です。 関数が存在する場合は、auto が既定値です。
いいえ
functions 配列 非推奨になりました。tools を使用してください。

モデルが JSON 入力を生成する可能性がある関数の一覧。
いいえ

応答

状態コード: 200

説明: OK

Content-Type Type 説明
application/json createChatCompletionResponse または createChatCompletionStreamResponse

状態コード: 既定

説明: サービスを利用できません

Content-Type Type 説明
application/json errorResponse

指定されたプロンプト、パラメーターと、選択されたモデルに対する補完を作成します。

POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2024-10-21

{
 "messages": [
  {
   "role": "system",
   "content": "you are a helpful assistant that talks like a pirate"
  },
  {
   "role": "user",
   "content": "can you tell me how to care for a parrot?"
  }
 ]
}

応答: 状態コード: 200

{
  "body": {
    "id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
    "created": 1686676106,
    "choices": [
      {
        "index": 0,
        "finish_reason": "stop",
        "message": {
          "role": "assistant",
          "content": "Ahoy matey! So ye be wantin' to care for a fine squawkin' parrot, eh? Well, shiver me timbers, let ol' Cap'n Assistant share some wisdom with ye! Here be the steps to keepin' yer parrot happy 'n healthy:\n\n1. Secure a sturdy cage: Yer parrot be needin' a comfortable place to lay anchor! Be sure ye get a sturdy cage, at least double the size of the bird's wingspan, with enough space to spread their wings, yarrrr!\n\n2. Perches 'n toys: Aye, parrots need perches of different sizes, shapes, 'n textures to keep their feet healthy. Also, a few toys be helpin' to keep them entertained 'n their minds stimulated, arrrh!\n\n3. Proper grub: Feed yer feathered friend a balanced diet of high-quality pellets, fruits, 'n veggies to keep 'em strong 'n healthy. Give 'em fresh water every day, or ye\u00e2\u20ac\u2122ll have a scurvy bird on yer hands!\n\n4. Cleanliness: Swab their cage deck! Clean their cage on a regular basis: fresh water 'n food daily, the floor every couple of days, 'n a thorough scrubbing ev'ry few weeks, so the bird be livin' in a tidy haven, arrhh!\n\n5. Socialize 'n train: Parrots be a sociable lot, arrr! Exercise 'n interact with 'em daily to create a bond 'n maintain their mental 'n physical health. Train 'em with positive reinforcement, treat 'em kindly, yarrr!\n\n6. Proper rest: Yer parrot be needin' \u00e2\u20ac\u2122bout 10-12 hours o' sleep each night. Cover their cage 'n let them slumber in a dim, quiet quarter for a proper night's rest, ye scallywag!\n\n7. Keep a weather eye open for illness: Birds be hidin' their ailments, arrr! Be watchful for signs of sickness, such as lethargy, loss of appetite, puffin' up, or change in droppings, and make haste to a vet if need be.\n\n8. Provide fresh air 'n avoid toxins: Parrots be sensitive to draft and pollutants. Keep yer quarters well ventilated, but no drafts, arrr! Be mindful of toxins like Teflon fumes, candles, or air fresheners.\n\nSo there ye have it, me hearty! With proper care 'n commitment, yer parrot will be squawkin' \"Yo-ho-ho\" for many years to come! Good luck, sailor, and may the wind be at yer back!"
        }
      }
    ],
    "usage": {
      "completion_tokens": 557,
      "prompt_tokens": 33,
      "total_tokens": 590
    }
  }
}

Azure Search データとシステム割り当てマネージド ID に基づいて入力候補を作成します。

POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2024-10-21

{
 "messages": [
  {
   "role": "user",
   "content": "can you tell me how to care for a dog?"
  }
 ],
 "data_sources": [
  {
   "type": "azure_search",
   "parameters": {
    "endpoint": "https://your-search-endpoint.search.windows.net/",
    "index_name": "{index name}",
    "authentication": {
     "type": "system_assigned_managed_identity"
    }
   }
  }
 ]
}

応答: 状態コード: 200

{
  "body": {
    "id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
    "created": 1686676106,
    "choices": [
      {
        "index": 0,
        "finish_reason": "stop",
        "message": {
          "role": "assistant",
          "content": "Content of the completion [doc1].",
          "context": {
            "citations": [
              {
                "content": "Citation content.",
                "title": "Citation Title",
                "filepath": "contoso.txt",
                "url": "https://contoso.blob.windows.net/container/contoso.txt",
                "chunk_id": "0"
              }
            ],
            "intent": "dog care"
          }
        }
      }
    ],
    "usage": {
      "completion_tokens": 557,
      "prompt_tokens": 33,
      "total_tokens": 590
    }
  }
}

Azure Search ベクター データ、前のアシスタント メッセージ、およびユーザー割り当てマネージド ID に基づいて入力候補を作成します。

POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2024-10-21

{
 "messages": [
  {
   "role": "user",
   "content": "can you tell me how to care for a cat?"
  },
  {
   "role": "assistant",
   "content": "Content of the completion [doc1].",
   "context": {
    "intent": "cat care"
   }
  },
  {
   "role": "user",
   "content": "how about dog?"
  }
 ],
 "data_sources": [
  {
   "type": "azure_search",
   "parameters": {
    "endpoint": "https://your-search-endpoint.search.windows.net/",
    "authentication": {
     "type": "user_assigned_managed_identity",
     "managed_identity_resource_id": "/subscriptions/{subscription-id}/resourceGroups/{resource-group}/providers/Microsoft.ManagedIdentity/userAssignedIdentities/{resource-name}"
    },
    "index_name": "{index name}",
    "query_type": "vector",
    "embedding_dependency": {
     "type": "deployment_name",
     "deployment_name": "{embedding deployment name}"
    },
    "in_scope": true,
    "top_n_documents": 5,
    "strictness": 3,
    "role_information": "You are an AI assistant that helps people find information.",
    "fields_mapping": {
     "content_fields_separator": "\\n",
     "content_fields": [
      "content"
     ],
     "filepath_field": "filepath",
     "title_field": "title",
     "url_field": "url",
     "vector_fields": [
      "contentvector"
     ]
    }
   }
  }
 ]
}

応答: 状態コード: 200

{
  "body": {
    "id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
    "created": 1686676106,
    "choices": [
      {
        "index": 0,
        "finish_reason": "stop",
        "message": {
          "role": "assistant",
          "content": "Content of the completion [doc1].",
          "context": {
            "citations": [
              {
                "content": "Citation content 2.",
                "title": "Citation Title 2",
                "filepath": "contoso2.txt",
                "url": "https://contoso.blob.windows.net/container/contoso2.txt",
                "chunk_id": "0"
              }
            ],
            "intent": "dog care"
          }
        }
      }
    ],
    "usage": {
      "completion_tokens": 557,
      "prompt_tokens": 33,
      "total_tokens": 590
    }
  }
}

指定された Azure Cosmos DB に対する入力候補を作成します。

POST https://{endpoint}/openai/deployments/{deployment-id}/chat/completions?api-version=2024-10-21

{
 "messages": [
  {
   "role": "user",
   "content": "can you tell me how to care for a dog?"
  }
 ],
 "data_sources": [
  {
   "type": "azure_cosmos_db",
   "parameters": {
    "authentication": {
     "type": "connection_string",
     "connection_string": "mongodb+srv://rawantest:{password}$@{cluster-name}.mongocluster.cosmos.azure.com/?tls=true&authMechanism=SCRAM-SHA-256&retrywrites=false&maxIdleTimeMS=120000"
    },
    "database_name": "vectordb",
    "container_name": "azuredocs",
    "index_name": "azuredocindex",
    "embedding_dependency": {
     "type": "deployment_name",
     "deployment_name": "{embedding deployment name}"
    },
    "fields_mapping": {
     "content_fields": [
      "content"
     ],
     "vector_fields": [
      "contentvector"
     ]
    }
   }
  }
 ]
}

応答: 状態コード: 200

{
  "body": {
    "id": "chatcmpl-7R1nGnsXO8n4oi9UPz2f3UHdgAYMn",
    "created": 1686676106,
    "choices": [
      {
        "index": 0,
        "finish_reason": "stop",
        "message": {
          "role": "assistant",
          "content": "Content of the completion [doc1].",
          "context": {
            "citations": [
              {
                "content": "Citation content.",
                "title": "Citation Title",
                "filepath": "contoso.txt",
                "url": "https://contoso.blob.windows.net/container/contoso.txt",
                "chunk_id": "0"
              }
            ],
            "intent": "dog care"
          }
        }
      }
    ],
    "usage": {
      "completion_tokens": 557,
      "prompt_tokens": 33,
      "total_tokens": 590
    }
  }
}

文字起こし - 作成

POST https://{endpoint}/openai/deployments/{deployment-id}/audio/transcriptions?api-version=2024-10-21

オーディオを入力言語に文字起こしします。

URI パラメーター

名前 / 必須 タイプ 説明
endpoint path はい string
URL
サポートされる Azure OpenAI エンドポイント (プロトコルとホスト名。例: https://aoairesource.openai.azure.com。"aoairesource" は Azure OpenAI リソース名に置き換えてください)。 https://{your-resource-name}.openai.azure.com
deployment-id path はい string Whisper モデルのデプロイ ID。
api-version クエリ はい string API バージョン

要求ヘッダー

名前 Required タイプ 説明
api-key True string ここには Azure OpenAI API キーを指定します

要求本文

Content-Type: multipart/form-data

名前 種類 内容 必要 Default
file string 文字起こしするオーディオ ファイル オブジェクト。 はい
プロンプト string モデルのスタイルをガイドしたり、前のオーディオ セグメントを続行したりするための省略可能なテキスト。 プロンプトはオーディオ言語と一致する必要があります。 いいえ
応答形式 audioResponseFormat 出力の形式を定義します。 いいえ
温度 数値 0 から 1 の間のサンプリング温度。 0.8 のような大きい値にすると、出力はよりランダムになり、0.2 のような小さい値にすると、出力はより集中的および決定論的になります。 0 に設定すると、モデルはログ確率を使用して、特定のしきい値に達するまで温度を自動的に上昇させます。 いいえ 0
言語 string 入力オーディオの言語。 入力言語を ISO-639-1 形式で提供すると、精度と待機時間が向上します。 いいえ

応答

状態コード: 200

説明: OK

Content-Type Type 説明
application/json audioResponse または audioVerboseResponse
text/plain string 出力形式で文字起こしされたテキスト (response_format がテキスト、vtt、または srt のいずれかであったとき)。

指定された音声オーディオ データから、文字起こしされたテキストと関連するメタデータを取得します。

POST https://{endpoint}/openai/deployments/{deployment-id}/audio/transcriptions?api-version=2024-10-21

応答: 状態コード: 200

{
  "body": {
    "text": "A structured object when requesting json or verbose_json"
  }
}

指定された音声オーディオ データから、文字起こしされたテキストと関連するメタデータを取得します。

POST https://{endpoint}/openai/deployments/{deployment-id}/audio/transcriptions?api-version=2024-10-21

"---multipart-boundary\nContent-Disposition: form-data; name=\"file\"; filename=\"file.wav\"\nContent-Type: application/octet-stream\n\nRIFF..audio.data.omitted\n---multipart-boundary--"

応答: 状態コード: 200

{
  "type": "string",
  "example": "plain text when requesting text, srt, or vtt"
}

翻訳 - 作成

POST https://{endpoint}/openai/deployments/{deployment-id}/audio/translations?api-version=2024-10-21

入力オーディオを文字起こしし、英語のテキストに翻訳します。

URI パラメーター

名前 / 必須 タイプ 説明
endpoint path はい string
URL
サポートされる Azure OpenAI エンドポイント (プロトコルとホスト名。例: https://aoairesource.openai.azure.com。"aoairesource" は Azure OpenAI リソース名に置き換えてください)。 https://{your-resource-name}.openai.azure.com
deployment-id path はい string デプロイされた Whisper モデルのデプロイ ID。
api-version クエリ はい string API バージョン

要求ヘッダー

名前 Required タイプ 説明
api-key True string ここには Azure OpenAI API キーを指定します

要求本文

Content-Type: multipart/form-data

名前 種類 内容 必要 Default
file string 翻訳するオーディオ ファイル。 はい
プロンプト string モデルのスタイルをガイドしたり、前のオーディオ セグメントを続行したりするための省略可能なテキスト。 プロンプトは英語にする必要があります。 いいえ
応答形式 audioResponseFormat 出力の形式を定義します。 いいえ
温度 数値 0 から 1 の間のサンプリング温度。 0.8 のような大きい値にすると、出力はよりランダムになり、0.2 のような小さい値にすると、出力はより集中的および決定論的になります。 0 に設定すると、モデルはログ確率を使用して、特定のしきい値に達するまで温度を自動的に上昇させます。 いいえ 0

応答

状態コード: 200

説明: OK

Content-Type Type 説明
application/json audioResponse または audioVerboseResponse
text/plain string 出力形式で文字起こしされたテキスト (response_format がテキスト、vtt、または srt のいずれかであったとき)。

指定された音声オーディオ データから、英語版の文字起こしされたテキストと関連するメタデータを取得します。

POST https://{endpoint}/openai/deployments/{deployment-id}/audio/translations?api-version=2024-10-21

"---multipart-boundary\nContent-Disposition: form-data; name=\"file\"; filename=\"file.wav\"\nContent-Type: application/octet-stream\n\nRIFF..audio.data.omitted\n---multipart-boundary--"

応答: 状態コード: 200

{
  "body": {
    "text": "A structured object when requesting json or verbose_json"
  }
}

指定された音声オーディオ データから、英語版の文字起こしされたテキストと関連するメタデータを取得します。

POST https://{endpoint}/openai/deployments/{deployment-id}/audio/translations?api-version=2024-10-21

"---multipart-boundary\nContent-Disposition: form-data; name=\"file\"; filename=\"file.wav\"\nContent-Type: application/octet-stream\n\nRIFF..audio.data.omitted\n---multipart-boundary--"

応答: 状態コード: 200

{
  "type": "string",
  "example": "plain text when requesting text, srt, or vtt"
}

イメージの生成

POST https://{endpoint}/openai/deployments/{deployment-id}/images/generations?api-version=2024-10-21

特定の DALL-E モデル デプロイのテキスト キャプションから画像のバッチを生成します

URI パラメーター

名前 / 必須 タイプ 説明
endpoint path はい string
URL
サポートされる Azure OpenAI エンドポイント (プロトコルとホスト名。例: https://aoairesource.openai.azure.com。"aoairesource" は Azure OpenAI リソース名に置き換えてください)。 https://{your-resource-name}.openai.azure.com
deployment-id path はい string デプロイされた DALL-E モデルのデプロイ ID。
api-version クエリ はい string API バージョン

要求ヘッダー

名前 Required タイプ 説明
api-key True string ここには Azure OpenAI API キーを指定します

要求本文

コンテンツ タイプ: アプリケーション/json

名前 種類 内容 必要 Default
prompt string 目的のイメージのテキストの説明。 最大長は 4,000 文字です。 はい
n integer 生成するイメージの数。 いいえ 1
size imageSize 生成されたイメージのサイズ。 いいえ 1,024 x 1,024
応答形式 imagesResponseFormat 生成された画像が返される形式です。 いいえ URL
ユーザー string エンド ユーザーを表す一意の識別子。これは不正使用を監視および検出するのに役立ちます。 いいえ
品質 imageQuality 生成されるイメージの品質。 いいえ standard
スタイル imageStyle 生成されたイメージのスタイル。 いいえ vivid

応答

状態コード: 200

説明: OK

Content-Type Type 説明
application/json generateImagesResponse

状態コード: 既定

説明: エラーが発生しました。

Content-Type Type 説明
application/json dalleErrorResponse

プロンプトの指定を受けてイメージを作成します。

POST https://{endpoint}/openai/deployments/{deployment-id}/images/generations?api-version=2024-10-21

{
 "prompt": "In the style of WordArt, Microsoft Clippy wearing a cowboy hat.",
 "n": 1,
 "style": "natural",
 "quality": "standard"
}

応答: 状態コード: 200

{
  "body": {
    "created": 1698342300,
    "data": [
      {
        "revised_prompt": "A vivid, natural representation of Microsoft Clippy wearing a cowboy hat.",
        "prompt_filter_results": {
          "sexual": {
            "severity": "safe",
            "filtered": false
          },
          "violence": {
            "severity": "safe",
            "filtered": false
          },
          "hate": {
            "severity": "safe",
            "filtered": false
          },
          "self_harm": {
            "severity": "safe",
            "filtered": false
          },
          "profanity": {
            "detected": false,
            "filtered": false
          }
        },
        "url": "https://dalletipusw2.blob.core.windows.net/private/images/e5451cc6-b1ad-4747-bd46-b89a3a3b8bc3/generated_00.png?se=2023-10-27T17%3A45%3A09Z&...",
        "content_filter_results": {
          "sexual": {
            "severity": "safe",
            "filtered": false
          },
          "violence": {
            "severity": "safe",
            "filtered": false
          },
          "hate": {
            "severity": "safe",
            "filtered": false
          },
          "self_harm": {
            "severity": "safe",
            "filtered": false
          }
        }
      }
    ]
  }
}

コンポーネント

errorResponse

名前 種類 内容 必要 Default
error error いいえ

errorBase

名前 種類 内容 必要 Default
code string いいえ
message string いいえ

エラー

名前 種類 内容 必要 Default
param string いいえ
type string いいえ
inner_error innerError 追加の詳細を含む内部エラー。 いいえ

innerError

追加の詳細を含む内部エラー。

名前 種類 内容 必要 Default
code innerErrorCode 内部エラー オブジェクトのエラー コード。 いいえ
content_filter_results contentFilterPromptResults コンテンツ フィルタリング カテゴリ (hate、sexual、violence、self_harm) に関する情報、それが検出されたかどうか、および重大度レベル (有害なコンテンツの強さとリスク レベルを決定する very_low、low、medium、high-scale) とそれがフィルター処理されたかどうか。 脱獄コンテンツと不適切な表現に関する情報、それが検出されたかどうか、およびそれがフィルター処理されたかどうか。 また、顧客のブロックリストに関する情報、それがフィルター処理されたかどうかとその ID。 いいえ

innerErrorCode

内部エラー オブジェクトのエラー コード。

説明: 内部エラー オブジェクトのエラー コード。

: string

既定:

列挙型名: InnerErrorCode

列挙値:

Value 説明
ResponsibleAIPolicyViolation プロンプトが、コンテンツ フィルター規則の 1 つ以上に違反しました。

dalleErrorResponse

名前 種類 内容 必要 Default
エラー dalleError いいえ

dalleError

名前 種類 内容 必要 Default
param string いいえ
type string いいえ
inner_error dalleInnerError 追加の詳細を含む内部エラー。 いいえ

dalleInnerError

追加の詳細を含む内部エラー。

名前 種類 内容 必要 Default
code innerErrorCode 内部エラー オブジェクトのエラー コード。 いいえ
content_filter_results dalleFilterResults コンテンツ フィルタリング カテゴリ (hate、sexual、violence、self_harm) に関する情報、それが検出されたかどうか、および重大度レベル (有害なコンテンツの強さとリスク レベルを決定する very_low、low、medium、high-scale) とそれがフィルター処理されたかどうか。 脱獄コンテンツと不適切な表現に関する情報、それが検出されたかどうか、およびそれがフィルター処理されたかどうか。 また、顧客のブロックリストに関する情報、それがフィルター処理されたかどうかとその ID。 いいえ
revised_prompt string イメージの生成に使用されたプロンプト (プロンプトにリビジョンがある場合)。 いいえ

contentFilterResultBase

名前 種類 内容 必要 Default
filtered boolean はい

contentFilterSeverityResult

名前 種類 内容 必要 Default
filtered boolean はい
severity string いいえ

contentFilterDetectedResult

名前 種類 内容 必要 Default
filtered boolean はい
detected boolean いいえ

contentFilterDetectedWithCitationResult

名前 種類 内容 必要 Default
citation object いいえ

citation のプロパティ

URL

件名 種類 説明 Default
URL string

ライセンス

名前 種類 説明 Default
ライセンス string

contentFilterResultsBase

コンテンツ フィルタリングの結果に関する情報。

名前 種類 内容 必要 Default
sexual contentFilterSeverityResult いいえ
violence contentFilterSeverityResult いいえ
hate contentFilterSeverityResult いいえ
self_harm contentFilterSeverityResult いいえ
profanity contentFilterDetectedResult いいえ
エラー errorBase いいえ

contentFilterPromptResults

コンテンツ フィルタリング カテゴリ (hate、sexual、violence、self_harm) に関する情報、それが検出されたかどうか、および重大度レベル (有害なコンテンツの強さとリスク レベルを決定する very_low、low、medium、high-scale) とそれがフィルター処理されたかどうか。 脱獄コンテンツと不適切な表現に関する情報、それが検出されたかどうか、およびそれがフィルター処理されたかどうか。 また、顧客のブロックリストに関する情報、それがフィルター処理されたかどうかとその ID。

名前 種類 内容 必要 Default
sexual contentFilterSeverityResult いいえ
violence contentFilterSeverityResult いいえ
hate contentFilterSeverityResult いいえ
self_harm contentFilterSeverityResult いいえ
profanity contentFilterDetectedResult いいえ
エラー errorBase いいえ
脱獄 contentFilterDetectedResult いいえ

contentFilterChoiceResults

コンテンツ フィルタリング カテゴリ (hate、sexual、violence、self_harm) に関する情報、それが検出されたかどうか、および重大度レベル (有害なコンテンツの強さとリスク レベルを決定する very_low、low、medium、high-scale) とそれがフィルター処理されたかどうか。 サード パーティのテキストと不適切な表現に関する情報、それが検出されたかどうか、およびそれがフィルター処理されたかどうか。 また、顧客のブロックリストに関する情報、それがフィルター処理されたかどうかとその ID。

名前 種類 内容 必要 Default
sexual contentFilterSeverityResult いいえ
violence contentFilterSeverityResult いいえ
hate contentFilterSeverityResult いいえ
self_harm contentFilterSeverityResult いいえ
profanity contentFilterDetectedResult いいえ
エラー errorBase いいえ
protected_material_text contentFilterDetectedResult いいえ
protected_material_code contentFilterDetectedWithCitationResult いいえ

promptFilterResult

要求内の 1 つのプロンプトのコンテンツ フィルター処理結果。

名前 種類 内容 必要 Default
prompt_index integer いいえ
content_filter_results contentFilterPromptResults コンテンツ フィルタリング カテゴリ (hate、sexual、violence、self_harm) に関する情報、それが検出されたかどうか、および重大度レベル (有害なコンテンツの強さとリスク レベルを決定する very_low、low、medium、high-scale) とそれがフィルター処理されたかどうか。 脱獄コンテンツと不適切な表現に関する情報、それが検出されたかどうか、およびそれがフィルター処理されたかどうか。 また、顧客のブロックリストに関する情報、それがフィルター処理されたかどうかとその ID。 いいえ

promptFilterResults

要求内の 0 個以上のプロンプトのコンテンツ フィルター処理結果。 ストリーミング要求の場合、プロンプトが異なると、結果は異なるタイミングや異なる順序で届く可能性があります。

このコンポーネントに対して定義されているプロパティはありません。

dalleContentFilterResults

コンテンツ フィルタリングの結果に関する情報。

名前 種類 内容 必要 Default
sexual contentFilterSeverityResult いいえ
violence contentFilterSeverityResult いいえ
hate contentFilterSeverityResult いいえ
self_harm contentFilterSeverityResult いいえ

dalleFilterResults

コンテンツ フィルタリング カテゴリ (hate、sexual、violence、self_harm) に関する情報、それが検出されたかどうか、および重大度レベル (有害なコンテンツの強さとリスク レベルを決定する very_low、low、medium、high-scale) とそれがフィルター処理されたかどうか。 脱獄コンテンツと不適切な表現に関する情報、それが検出されたかどうか、およびそれがフィルター処理されたかどうか。 また、顧客のブロックリストに関する情報、それがフィルター処理されたかどうかとその ID。

名前 種類 内容 必要 Default
sexual contentFilterSeverityResult いいえ
violence contentFilterSeverityResult いいえ
hate contentFilterSeverityResult いいえ
self_harm contentFilterSeverityResult いいえ
profanity contentFilterDetectedResult いいえ
脱獄 contentFilterDetectedResult いいえ

chatCompletionsRequestCommon

名前 種類 内容 必要 Default
温度 数値 使用するサンプリング温度 (0 から 2)。 0.8 のような大きい値にすると、出力はよりランダムになり、0.2 のような小さい値にすると、出力はより集中的および決定論的になります。
一般に、これと top_p の両方ではなく、いずれかを変更することをお勧めします。
いいえ 1
top_p 数値 温度によるサンプリングに代わる核サンプリングと呼ばれるもので、モデルは top_p の確率質量を持つトークンの結果を考慮します。 したがって、0.1 は、上位 10% の確率質量を構成するトークンのみが考慮されることを意味します。
一般に、これと temperature の両方ではなく、いずれかを変更することをお勧めします。
いいえ 1
stream boolean 設定すると、ChatGPT と同様に部分的なメッセージ デルタが送信されます。 トークンは、使用可能になるとデータのみのサーバー送信イベントとして送信され、ストリームは data: [DONE] メッセージによって終了します。 いいえ False
stop 文字列または配列 API がそれ以上のトークンの生成を停止する、最大 4 つのシーケンス。 いいえ
max_tokens integer 生成された回答に許可されるトークンの最大数。 既定では、モデルが返すことができるトークンの数は (4096 - プロンプト トークン) になります。 現時点では、max_completion_tokens を優先してこの値は非推奨になっており、o1 シリーズのモデルとは互換性がありません。 いいえ 4096
max_completion_tokens integer 可視出力トークンや推論トークンなど、完了するために生成できるトークンの数の上限。 いいえ
presence_penalty 数値 -2.0 ~ 2.0 の数。 正の値は、新しいトークンがこれまでのテキストに表示されているかどうかに基づいてペナルティを課し、モデルが新しいトピックについて話す可能性を高めます。 いいえ 0
frequency_penalty 数値 -2.0 ~ 2.0 の数。 正の値は、これまでのテキストにおける既存の頻度に基づいて新しいトークンにペナルティを与え、モデルが同じ行をそのまま繰り返す可能性を減少させます。 いいえ 0
logit_bias オブジェクト 指定したトークンが入力候補に表示される可能性を変更します。 トークン (トークナイザーのトークン ID で指定) を関連付けられたバイアス値 (-100 から 100) にマップする json オブジェクトを受け入れます。 数学的には、サンプリングの前にモデルによって生成されたロジットにバイアスが追加されます。 正確な効果はモデルごとに異なりますが、-1 から 1 の値では選択の可能性が低下または増加し、-100 や 100 などの値では、関連するトークンの禁止または排他的な選択になります。 いいえ
ユーザー string エンド ユーザーを表す一意の識別子。これは、Azure OpenAI が不正使用を監視および検出するのに役立ちます。 いいえ

createCompletionRequest

名前 種類 内容 必要 Default
prompt 文字列または配列 文字列、文字列の配列、トークンの配列、またはトークン配列の配列としてエンコードされた、補完を生成するためのプロンプト。

<|endoftext|> はトレーニング中にモデルが認識するドキュメント区切り記号であるため、プロンプトを指定しない場合、モデルは新しいドキュメントの先頭からであるかのように生成します。
はい
best_of integer サーバー側で best_of 入力候補を生成し、"最適なもの" (トークンあたりの対数確率が最高のもの) を返します。 結果をストリーミングすることはできません。

n とともに使用すると、best_of は入力候補の数を制御し、n は返す数を指定します。best_ofn より大きくする必要があります。

注: このパラメーターにより多くの入力候補が生成されるため、トークン クォータがすぐに消費される可能性があります。 慎重に使用し、max_tokensstop の設定が合理的であることを確認してください。
いいえ 1
echo boolean 入力候補に加えてプロンプトをエコーバックします。
いいえ False
frequency_penalty 数値 -2.0 ~ 2.0 の数。 正の値は、これまでのテキストにおける既存の頻度に基づいて新しいトークンにペナルティを与え、モデルが同じ行をそのまま繰り返す可能性を減少させます。
いいえ 0
logit_bias オブジェクト 指定したトークンが入力候補に表示される可能性を変更します。

トークン (GPT トークナイザーのトークン ID で指定) を関連付けられたバイアス値 (-100 から 100) にマップする JSON オブジェクトを受け入れます。 数学的には、サンプリングの前にモデルによって生成されたロジットにバイアスが追加されます。 正確な効果はモデルごとに異なりますが、-1 から 1 の値では選択の可能性が低下または増加し、-100 や 100 などの値では、関連するトークンの禁止または排他的な選択になります。

たとえば、<|endoftext|> トークンが生成されないように、{"50256": -100} を渡すことができます。
いいえ なし
logprobs integer logprobs の最も可能性の高い出力トークンと、選択したトークンのログ確率を含めます。 たとえば、logprobs が 5 の場合、API は可能性が最も高い 5 個のトークンの一覧を返します。 API は常に、サンプリングされたトークンの logprob を返します。そのため、応答には、最大 logprobs+1 の要素が含まれる可能性があります。

logprobs の最大値は 5 です。
いいえ なし
max_tokens integer 補完の中で生成できるトークンの最大数。

プロンプトのトークン数と max_tokens の合計は、モデルのコンテキスト長を超えることはできません。
いいえ 16
n integer プロンプトごとに生成する入力候補の数。

注: このパラメーターにより多くの入力候補が生成されるため、トークン クォータがすぐに消費される可能性があります。 慎重に使用し、max_tokensstop の設定が合理的であることを確認してください。
いいえ 1
presence_penalty 数値 -2.0 ~ 2.0 の数。 正の値は、新しいトークンがこれまでのテキストに表示されているかどうかに基づいてペナルティを課し、モデルが新しいトピックについて話す可能性を高めます。
いいえ 0
シード integer 指定されている場合、このシステムは、同じ seed とパラメーターを使用して繰り返された要求に対して同じ結果を返せるように、決定論的にサンプリングを行うように最善を尽くします。

決定性は保証されないため、バックエンドでの変更を監視するには、system_fingerprint 応答パラメーターを参照する必要があります。
いいえ
stop 文字列または配列 API がそれ以上のトークンの生成を停止する、最大 4 つのシーケンス。 返されるテキストに停止シーケンスは含まれません。
いいえ
stream boolean 部分的な進行状況をストリーム バックするかどうか。 設定されている場合、トークンは使用可能になるとデータのみのサーバー送信イベントとして送信され、ストリームは data: [DONE] メッセージによって終了します。 いいえ False
suffix string 挿入されたテキストの入力候補の後に付加されるサフィックス。

このパラメーターは、gpt-3.5-turbo-instruct に対してのみサポートされます。
いいえ なし
温度 数値 使用するサンプリング温度 (0 から 2)。 0.8 のような大きい値にすると、出力はよりランダムになり、0.2 のような小さい値にすると、出力はより集中的および決定論的になります。

一般に、これと top_p の両方ではなく、いずれかを変更することをお勧めします。
いいえ 1
top_p 数値 温度によるサンプリングに代わる核サンプリングと呼ばれるもので、モデルは top_p の確率質量を持つトークンの結果を考慮します。 したがって、0.1 は、上位 10% の確率質量を構成するトークンのみが考慮されることを意味します。

一般に、これと temperature の両方ではなく、いずれかを変更することをお勧めします。
いいえ 1
ユーザー string エンド ユーザーを表す一意の識別子。これは不正使用を監視および検出するのに役立ちます。
いいえ

createCompletionResponse

API からの補完応答を表します。 注: (チャット エンドポイントとは異なり)、ストリーム応答オブジェクトと非ストリーム応答オブジェクトはどちらも同じシェイプを共有します。

名前 種類 内容 必要 Default
ID string チャット入力候補の一意識別子。 はい
選択肢(複数) 配列 入力プロンプト用にモデルが生成した入力候補の一覧。 はい
作成済 integer 入力候補が作成されたときの Unix タイムスタンプ (秒単位)。 はい
モデル string 補完に使用されるモデル。 はい
prompt_filter_results promptFilterResults 要求内の 0 個以上のプロンプトのコンテンツ フィルター処理結果。 ストリーミング要求の場合、プロンプトが異なると、結果は異なるタイミングや異なる順序で届く可能性があります。 いいえ
system_fingerprint string このフィンガープリントは、モデルが実行されるバックエンド構成を表します。

seed 要求パラメーターと組み合わせて使うと、決定性に影響を与える可能性のあるバックエンドの変更がいつ行われたかを把握できます。
いいえ
オブジェクト enum オブジェクトの種類であり、これは常に "text_completion" になります
使用できる値: text_completion
はい
使用量 completionUsage 入力候補要求の使用状況の統計情報。 いいえ

createChatCompletionRequest

名前 種類 内容 必要 Default
温度 数値 使用するサンプリング温度 (0 から 2)。 0.8 のような大きい値にすると、出力はよりランダムになり、0.2 のような小さい値にすると、出力はより集中的および決定論的になります。

一般に、これと top_p の両方ではなく、いずれかを変更することをお勧めします。
いいえ 1
top_p 数値 温度によるサンプリングに代わる核サンプリングと呼ばれるもので、モデルは top_p の確率質量を持つトークンの結果を考慮します。 したがって、0.1 は、上位 10% の確率質量を構成するトークンのみが考慮されることを意味します。

一般に、これと temperature の両方ではなく、いずれかを変更することをお勧めします。
いいえ 1
stream boolean 設定すると、ChatGPT と同様に部分的なメッセージ デルタが送信されます。 トークンは、使用可能になるとデータのみのサーバー送信イベントとして送信され、ストリームは data: [DONE] メッセージによって終了します。 いいえ False
stop 文字列または配列 API がそれ以上のトークンの生成を停止する、最大 4 つのシーケンス。
いいえ
max_tokens integer チャット入力候補で生成できるトークンの最大数。

入力トークンと生成されたトークンの合計の長さは、モデルのコンテキスト長によって制限されます。
いいえ
max_completion_tokens integer 可視出力トークンや推論トークンなど、完了するために生成できるトークンの数の上限。 いいえ
presence_penalty 数値 -2.0 ~ 2.0 の数。 正の値は、新しいトークンがこれまでのテキストに表示されているかどうかに基づいてペナルティを課し、モデルが新しいトピックについて話す可能性を高めます。
いいえ 0
frequency_penalty 数値 -2.0 ~ 2.0 の数。 正の値は、これまでのテキストにおける既存の頻度に基づいて新しいトークンにペナルティを与え、モデルが同じ行をそのまま繰り返す可能性を減少させます。
いいえ 0
logit_bias オブジェクト 指定したトークンが入力候補に表示される可能性を変更します。

トークン (トークナイザーのトークン ID で指定) を関連付けられたバイアス値 (-100 から 100) にマップする JSON オブジェクトを受け入れます。 数学的には、サンプリングの前にモデルによって生成されたロジットにバイアスが追加されます。 正確な効果はモデルごとに異なりますが、-1 から 1 の値では選択の可能性が低下または増加し、-100 や 100 などの値では、関連するトークンの禁止または排他的な選択になります。
いいえ なし
ユーザー string エンド ユーザーを表す一意の識別子。これは不正使用を監視および検出するのに役立ちます。
いいえ
messages 配列 これまでの会話を構成するメッセージの一覧。 はい
data_sources 配列 それらを使用する Azure OpenAI チャット拡張機能の構成エントリ。
この追加仕様は、Azure OpenAI とのみ互換性があります。
いいえ
logprobs boolean 出力トークンのログ確率を返すかどうかを指定します。 true に設定すると、messagecontent に含まれる各出力トークンのログ確率が返されます。 いいえ False
top_logprobs integer 0 から 20 までの整数値を指定します。これは、各トークンの位置において、最も出現確率の高いトークンをいくつ返すかを表します。各トークンには、それぞれ関連するログ確率が付与されます。 このパラメーターを使う場合、logprobstrue に設定する必要があります。 いいえ
n integer 入力メッセージごとに生成するチャット入力候補の選択肢の数。 選択肢全体で生成されたトークンの数に基づいて課金されることに注意してください。 コストを最小限に抑えるために、n1 のままにします。 いいえ 1
parallel_tool_calls ParallelToolCalls ツールの使用中に並列関数の呼び出しを有効にするかどうか。 いいえ True
応答形式 ResponseFormatText または ResponseFormatJsonObject または ResponseFormatJsonSchema モデルが出力する必要がある形式を指定するオブジェクト。 GPT-4oGPT-4o miniGPT-4 Turbo、および gpt-3.5-turbo-1106 以降のすべての GPT-3.5 Turbo モデルと互換性があります。

{ "type": "json_schema", "json_schema": {...} } に設定すると、モデルと提供された JSON スキーマが一致することを保証する構造化出力が有効になります。

{ "type": "json_object" } に設定すると、JSON モードが有効になります。これにより、モデルが生成するメッセージが有効な JSON であることが保証されます。

重要: JSON モードを使うときは、システムまたはユーザー メッセージ経由で、JSON を生成するようにユーザー自身がモデルに指示することも必要です。 これがないと、トークンの上限に達するまで、モデルはいつまでも空白のストリームを生成する可能性があります。その結果、実行時間が長く、一見 "止まっている" ように見える要求が発生します。 また、finish_reason="length" の場合、メッセージの内容が部分的に切り取られる可能性があります。これは、世代が max_tokens を超えたか、会話がコンテキストの最大長を超えたことを示します。
いいえ
シード integer この機能はベータ版です。
指定されている場合、このシステムは、同じ seed とパラメーターを使用して繰り返された要求に対して同じ結果を返せるように、決定論的にサンプリングを行うように最善を尽くします。
決定性は保証されないため、バックエンドでの変更を監視するには、system_fingerprint 応答パラメーターを参照する必要があります。
いいえ
tools 配列 モデルによって呼び出されるツールの一覧。 現在のところ、関数のみがツールとしてサポートされています。 これを使用し、モデルによって JSON 入力が生成される関数の一覧を提供します。 最大 128 個の関数がサポートされています。
いいえ
tool_choice chatCompletionToolChoiceOption モデルによって呼び出されるツールを制御します (ある場合)。 none は、モデルでツールが呼び出されず、代わりにメッセージが生成されることを意味します。 auto は、モデルがメッセージを生成するか、1 つ以上のツールを呼び出すかを選択できることを意味します。 required は、モデルが 1 つ以上のツールを呼び出す必要があることを意味します。 {"type": "function", "function": {"name": "my_function"}} を介して特定のツールを指定すると、モデルでそのツールの呼び出しが強制されます。 ツールが存在しない場合は、none が既定値です。 ツールが存在する場合は、auto が既定値です。 いいえ
function_call string または chatCompletionFunctionCallOption tool_choice を優先して非推奨になりました。

モデルによって呼び出される関数を制御します (そのような関数がある場合)。
none は、モデルが関数を呼び出さず、代わりにメッセージを生成することを示します。
auto の場合、メッセージを生成するか、関数を呼び出すか、モデルで選択できます。
{"name": "my_function"} で特定の関数を指定すると、モデルはその関数を強制的に呼び出します。

関数が存在しない場合は、none が既定値です。 関数が存在する場合は、auto が既定値です。
いいえ
functions 配列 非推奨になりました。tools を使用してください。

モデルが JSON 入力を生成する可能性がある関数の一覧。
いいえ

chatCompletionFunctions

名前 種類 内容 必要 Default
description string モデルが関数をいつどのように呼び出すかを選ぶために使われる、関数の動作の説明。 いいえ
name string 呼び出される関数の名前。 a-z、A-Z、0-9 を使用するか、アンダースコアとダッシュを含める必要があります。最大長は 64 です。 はい
parameters FunctionParameters 関数が受け取るパラメーター。JSON スキーマ オブジェクトとして記述されます。 例については guide](/azure/ai-services/openai/how-to/function-calling) を、形式に関するドキュメントについては JSON スキーマのリファレンスを参照してください。

parameters を省略すると、空のパラメーター リストを持つ関数が定義されます。
いいえ

chatCompletionFunctionCallOption

{"name": "my_function"} で特定の関数を指定すると、モデルはその関数を強制的に呼び出します。

名前 種類 内容 必要 Default
name string 呼び出す関数の名前。 はい

chatCompletionRequestMessage

このコンポーネントには、次のいずれかを指定できます。

chatCompletionRequestSystemMessage

名前 種類 内容 必要 Default
content 文字列または配列 システム メッセージのコンテンツ。 はい
role enum メッセージ作成者のロール。この場合 system
使用できる値: system
はい
名前 string 参加者の名前 (省略可能)。 同じロールの参加者を区別するためのモデル情報を指定します。 いいえ

chatCompletionRequestUserMessage

名前 種類 内容 必要 Default
content 文字列または配列 ユーザー メッセージのコンテンツ。
はい
role enum メッセージ作成者のロール。この場合 user
使用できる値: user
はい
名前 string 参加者の名前 (省略可能)。 同じロールの参加者を区別するためのモデル情報を指定します。 いいえ

chatCompletionRequestAssistantMessage

名前 種類 内容 必要 Default
content 文字列または配列 アシスタント メッセージのコンテンツ。 tool_calls または function_call が指定されていない限り、必須です。
いいえ
refusal string アシスタントによる拒否メッセージ。 いいえ
role enum メッセージ作成者のロール。この場合 assistant
使用できる値: assistant
はい
名前 string 参加者の名前 (省略可能)。 同じロールの参加者を区別するためのモデル情報を指定します。 いいえ
tool_calls chatCompletionMessageToolCalls 関数呼び出しなど、モデルによって生成されるツール呼び出し。 いいえ
function_call オブジェクト 非推奨となり、tool_calls に置き換えられました。 モデルによって生成された、呼び出される関数の名前と引数。 いいえ

function_call のプロパティ

arguments

名前 種類 説明 Default
引数 string モデルによって JSON 形式で生成された、関数を呼び出すための引数。 モデルは常に有効な JSON を生成するとは限らず、関数スキーマで定義されていないパラメーターを作成する可能性があることに注意してください。 関数を呼び出す前に、コード内の引数を検証します。

name

名前 種類 説明 Default
name string 呼び出す関数の名前。

chatCompletionRequestToolMessage

名前 種類 内容 必要 Default
role enum メッセージ作成者のロール。この場合 tool
使用できる値: tool
はい
content 文字列または配列 ツール メッセージのコンテンツ。 はい
tool_call_id string このメッセージが応答しているツール呼び出し。 はい

chatCompletionRequestFunctionMessage

名前 種類 内容 必要 Default
role enum メッセージ作成者のロール。この場合 function
使用可能な値: function
はい
コンテンツ string 関数メッセージのコンテンツ。 はい
名前 string 呼び出す関数の名前。 はい

chatCompletionRequestSystemMessageContentPart

このコンポーネントには、次のいずれかを指定できます。

chatCompletionRequestUserMessageContentPart

このコンポーネントには、次のいずれかを指定できます。

chatCompletionRequestAssistantMessageContentPart

このコンポーネントには、次のいずれかを指定できます。

chatCompletionRequestToolMessageContentPart

このコンポーネントには、次のいずれかを指定できます。

chatCompletionRequestMessageContentPartText

名前 種類 内容 必要 Default
type enum コンテンツ パーツの種類。
使用できる値: text
はい
text string テキスト コンテンツ。 はい

chatCompletionRequestMessageContentPartImage

名前 種類 内容 必要 Default
type enum コンテンツ パーツの種類。
使用できる値: image_url
はい
image_url オブジェクト はい

image_url のプロパティ

URL

件名 種類 説明 Default
URL string 画像の URL または base64 でエンコードされた画像データのいずれか。

詳細

名前 種類 説明 Default
詳細 string 画像の詳細レベルを指定します。 詳細については、Vision ガイドをご覧ください。 auto

chatCompletionRequestMessageContentPartRefusal

名前 種類 内容 必要 Default
type enum コンテンツ パーツの種類。
使用できる値: refusal
はい
refusal string モデルによって生成された拒否メッセージ。 はい

azureChatExtensionConfiguration

1 つの Azure OpenAI チャット拡張機能の構成データの表現。 これは、応答動作を拡張するために Azure OpenAI チャット拡張機能を使用する必要があるチャット入力候補要求によって使用されます。 この構成の使用は、Azure OpenAI とのみ互換性があります。

名前 種類 内容 必要 Default
type azureChatExtensionType 1 つの Azure OpenAI チャット拡張機能の構成データの表現。 これは、応答動作を拡張する
ために Azure OpenAI チャット拡張機能を使用する必要があるチャット入力候補要求によって使用されます。
この構成の使用は、Azure OpenAI とのみ互換性があります。
はい

azureChatExtensionType

1 つの Azure OpenAI チャット拡張機能の構成データの表現。 これは、応答動作を拡張するために Azure OpenAI チャット拡張機能を使用する必要があるチャット入力候補要求によって使用されます。 この構成の使用は、Azure OpenAI とのみ互換性があります。

説明: 1 つの Azure OpenAI チャット拡張機能の構成データの表現。 これは、応答動作を拡張するために Azure OpenAI チャット拡張機能を使用する必要があるチャット入力候補要求によって使用されます。 この構成の使用は、Azure OpenAI とのみ互換性があります。

: string

既定:

列挙型名: AzureChatExtensionType

列挙値:

Value 説明
azure_search Azure OpenAI チャット拡張機能としての Azure Search の使用を表します。
azure_cosmos_db Azure OpenAI チャット拡張機能としての Azure Cosmos DB の使用を表します。

azureSearchChatExtensionConfiguration

Azure OpenAI チャット拡張機能として使用するときの Azure Search の構成可能なオプションの特定の表現。

名前 種類 内容 必要 Default
type azureChatExtensionType 1 つの Azure OpenAI チャット拡張機能の構成データの表現。 これは、応答動作を拡張する
ために Azure OpenAI チャット拡張機能を使用する必要があるチャット入力候補要求によって使用されます。
この構成の使用は、Azure OpenAI とのみ互換性があります。
はい
parameters azureSearchChatExtensionParameters Azure OpenAI チャット拡張機能として使用するときの Azure Search のパラメーター。 いいえ

azureSearchChatExtensionParameters

Azure OpenAI チャット拡張機能として使用するときの Azure Search のパラメーター。

名前 種類 内容 必要 Default
認証 onYourDataApiKeyAuthenticationOptions または onYourDataSystemAssignedManagedIdentityAuthenticationOptions または onYourDataUserAssignedManagedIdentityAuthenticationOptions はい
top_n_documents integer 構成されたクエリの特徴量に対して構成されている上位のドキュメントの数。 いいえ
in_scope boolean クエリをインデックス付きデータの使用に制限するかどうか。 いいえ
strictness integer 検索の関連性フィルター処理の構成された厳密度。 厳密度が高いほど、精度は高くなりますが、回答の再現率は低くなります。 いいえ
role_information string ふるまいに関する指示と、応答の生成時に参照する必要があるコンテキストをモデルに与えます。 アシスタントのパーソナリティを説明し、応答の書式設定方法を伝えることができます。 これには 100 個までのトークンという上限があり、トークン全体の上限としてカウントされます。 いいえ
endpoint string 使用する Azure Search リソースの絶対エンドポイント パス。 はい
index_name string 参照先の Azure Search リソースで使用できるインデックスの名前。 はい
fields_mapping azureSearchIndexFieldMappingOptions 構成済みの Azure Search リソースを使用する場合のフィールドの処理方法を制御する省略可能な設定。 いいえ
query_type azureSearchQueryType Azure OpenAI チャット拡張機能として使用するときに実行する必要がある Azure Search 取得クエリの種類。 いいえ
semantic_configuration string クエリの追加のセマンティック構成。 いいえ
filter string 検索フィルター。 いいえ
embedding_dependency onYourDataEndpointVectorizationSource または onYourDataDeploymentNameVectorizationSource いいえ

azureSearchIndexFieldMappingOptions

構成済みの Azure Search リソースを使用する場合のフィールドの処理方法を制御する省略可能な設定。

名前 種類 内容 必要 Default
title_field string タイトルとして使用するインデックス フィールドの名前。 いいえ
url_field string URL として使用するインデックス フィールドの名前。 いいえ
filepath_field string ファイルパスとして使用するインデックス フィールドの名前。 いいえ
content_fields 配列 コンテンツとして扱う必要があるインデックス フィールドの名前。 いいえ
content_fields_separator string コンテンツ フィールドで使用する区切り記号パターン。 いいえ
vector_fields 配列 ベクトル データを表すフィールドの名前。 いいえ

azureSearchQueryType

Azure OpenAI チャット拡張機能として使用するときに実行する必要がある Azure Search 取得クエリの種類。

説明: Azure OpenAI チャット拡張機能として使用するときに実行する必要がある Azure Search 取得クエリの種類。

: string

既定:

列挙型名: AzureSearchQueryType

列挙値:

Value 説明
simple 既定の単純なクエリ パーサーを表します。
"セマンティック" 高度なセマンティック モデリングのセマンティック クエリ パーサーを表します。
vector 計算されたデータに対するベクトル検索を表します。
vector_simple_hybrid 単純なクエリ戦略とベクター データの組み合わせを表します。
vector_semantic_hybrid セマンティック検索とベクター データ クエリの組み合わせを表します。

azureCosmosDBChatExtensionConfiguration

Azure OpenAI チャット拡張機能として使用するときの Azure Cosmos DB の構成可能なオプションの特定の表現。

名前 種類 内容 必要 Default
type azureChatExtensionType 1 つの Azure OpenAI チャット拡張機能の構成データの表現。 これは、応答動作を拡張する
ために Azure OpenAI チャット拡張機能を使用する必要があるチャット入力候補要求によって使用されます。
この構成の使用は、Azure OpenAI とのみ互換性があります。
はい
parameters azureCosmosDBChatExtensionParameters MongoDB 仮想コアに Azure Cosmos DB を使用するときに Azure OpenAI On Your Data チャット拡張機能の構成に
使用するパラメーター。
いいえ

azureCosmosDBChatExtensionParameters

Azure Cosmos DB for MongoDB 仮想コアを使用するときに Azure OpenAI On Your Data チャット拡張機能の構成に使用するパラメーター。

名前 種類 内容 必要 Default
認証 onYourDataConnectionStringAuthenticationOptions 接続文字列を使用する場合の Azure OpenAI On Your Data の認証オプション。 はい
top_n_documents integer 構成されたクエリの特徴量に対して構成されている上位のドキュメントの数。 いいえ
in_scope boolean クエリをインデックス付きデータの使用に制限するかどうか。 いいえ
strictness integer 検索の関連性フィルター処理の構成された厳密度。 厳密度が高いほど、精度は高くなりますが、回答の再現率は低くなります。 いいえ
role_information string ふるまいに関する指示と、応答の生成時に参照する必要があるコンテキストをモデルに与えます。 アシスタントのパーソナリティを説明し、応答の書式設定方法を伝えることができます。 これには 100 個までのトークンという上限があり、トークン全体の上限としてカウントされます。 いいえ
database_name string Azure Cosmos DB で使用する MongoDB 仮想コア データベースの名前。 はい
container_name string Azure Cosmos DB リソース コンテナーの名前。 はい
index_name string Azure Cosmos DB で使用する MongoDB 仮想コア インデックスの名前。 はい
fields_mapping azureCosmosDBFieldMappingOptions 構成済みの Azure Cosmos DB リソースを使用するときのフィールドの処理方法を制御するオプションの設定。 はい
embedding_dependency onYourDataEndpointVectorizationSource または onYourDataDeploymentNameVectorizationSource はい

azureCosmosDBFieldMappingOptions

構成済みの Azure Cosmos DB リソースを使用するときのフィールドの処理方法を制御するオプションの設定。

名前 種類 内容 必要 Default
title_field string タイトルとして使用するインデックス フィールドの名前。 いいえ
url_field string URL として使用するインデックス フィールドの名前。 いいえ
filepath_field string ファイルパスとして使用するインデックス フィールドの名前。 いいえ
content_fields 配列 コンテンツとして扱う必要があるインデックス フィールドの名前。 はい
content_fields_separator string コンテンツ フィールドで使用する区切り記号パターン。 いいえ
vector_fields 配列 ベクトル データを表すフィールドの名前。 はい

onYourDataAuthenticationOptions

Azure OpenAI On Your Data の認証オプション。

名前 種類 内容 必要 Default
type onYourDataAuthenticationType Azure OpenAI On Your Data でサポートされる認証タイプ。 はい

onYourDataAuthenticationType

Azure OpenAI On Your Data でサポートされる認証タイプ。

説明: Azure OpenAI On Your Data でサポートされる認証タイプ。

: string

既定:

列挙型名: OnYourDataAuthenticationType

列挙値:

Value 説明
api_key API キーによる認証。
connection_string 接続文字列による認証。
system_assigned_managed_identity システム割り当てマネージド ID による認証。
user_assigned_managed_identity ユーザー割り当てマネージド ID による認証。

onYourDataApiKeyAuthenticationOptions

API キーを使用する場合の Azure OpenAI On Your Data の認証オプション。

名前 種類 内容 必要 Default
type onYourDataAuthenticationType Azure OpenAI On Your Data でサポートされる認証タイプ。 はい
key string 認証に使用する API キー。 いいえ

onYourDataConnectionStringAuthenticationOptions

接続文字列を使用する場合の Azure OpenAI On Your Data の認証オプション。

名前 種類 内容 必要 Default
type onYourDataAuthenticationType Azure OpenAI On Your Data でサポートされる認証タイプ。 はい
connection_string string 認証に使用する接続文字列。 いいえ

onYourDataSystemAssignedManagedIdentityAuthenticationOptions

システム割り当てマネージド ID を使用する場合の Azure OpenAI On Your Data の認証オプション。

名前 種類 内容 必要 Default
type onYourDataAuthenticationType Azure OpenAI On Your Data でサポートされる認証タイプ。 はい

onYourDataUserAssignedManagedIdentityAuthenticationOptions

ユーザー割り当てマネージド ID を使用する場合の Azure OpenAI On Your Data の認証オプション。

名前 種類 内容 必要 Default
type onYourDataAuthenticationType Azure OpenAI On Your Data でサポートされる認証タイプ。 はい
managed_identity_resource_id string 認証に使用するユーザー割り当てマネージド ID のリソース ID。 いいえ

onYourDataVectorizationSource

ベクトル検索を使用した Azure OpenAI On Your Data のベクター化ソースの抽象表現。

名前 種類 内容 必要 Default
type onYourDataVectorizationSourceType ベクトル検索で使用するデータのベクター化を構成するために Azure OpenAI On Your Data が使用できる
ソースを表します。
はい

onYourDataVectorizationSourceType

ベクトル検索で使用するデータのベクター化を構成するために Azure OpenAI On Your Data が使用できるソースを表します。

説明: ベクトル検索で使用するデータのベクター化を構成するために Azure OpenAI On Your Data が使用できる
ソースを表します。

: string

既定:

列挙型名: OnYourDataVectorizationSourceType

列挙値:

Value 説明
endpoint Azure OpenAI 埋め込みモデルに対するパブリック サービス呼び出しによって実行されるベクター化を表します。
deployment_name 使用する Ada モデル デプロイ名を表します。 このモデル デプロイは、同じ Azure OpenAI リソース内に存在する必要がありますが、
On Your Data は、パブリック呼び出しではなく内部呼び出し経由でこのモデルデプロイを使用します。これにより、プライベート ネットワークで
ベクトル検索が有効になります。

onYourDataDeploymentNameVectorizationSource

同じ Azure OpenAI リソース内の内部埋め込みモデル デプロイ名に基づくベクトル検索を適用するときに Azure OpenAI On Your Data で使用されるベクター化ソースの詳細。

名前 種類 内容 必要 Default
type onYourDataVectorizationSourceType ベクトル検索で使用するデータのベクター化を構成するために Azure OpenAI On Your Data が使用できる
ソースを表します。
はい
deployment_name string ベクター化に使用するモデル デプロイの名前を指定します。 このモデル デプロイは同じ Azure OpenAI リソース内に存在する必要がありますが、On Your Data は、パブリック呼び出しではなく内部呼び出し経由でこのモデルデプロイを使用します。これにより、プライベート ネットワークでベクトル検索が有効になります。 いいえ

onYourDataEndpointVectorizationSource

埋め込みのためにパブリック Azure OpenAI エンドポイント呼び出しに基づくベクトル検索を適用するときに Azure OpenAI On Your Data で使用されるベクター化ソースの詳細。

名前 種類 内容 必要 Default
type onYourDataVectorizationSourceType ベクトル検索で使用するデータのベクター化を構成するために Azure OpenAI On Your Data が使用できる
ソースを表します。
はい
認証 onYourDataApiKeyAuthenticationOptions API キーを使用する場合の Azure OpenAI On Your Data の認証オプション。 いいえ
endpoint string ベクター化に使用するエンドポイントを指定します。 このエンドポイントは同じ Azure OpenAI リソース内に存在する必要がありますが、On Your Data は、パブリックではなく内部呼び出し経由でこのエンドポイントを使用します。これにより、プライベート ネットワークでもベクトル検索を使用できます。 いいえ

azureChatExtensionsMessageContext

対応するチャット入力候補応答の生成に Azure OpenAI チャット拡張機能が関係しているときに使用できる追加のコンテキスト情報の表現。 このコンテキスト情報は、一致する拡張機能を使うように構成されている Azure OpenAI 要求を使用するときにのみ、値が設定されます。

名前 種類 内容 必要 Default
citations 配列 応答でアシスタント メッセージを生成するために使用されるデータ ソースの取得結果。 いいえ
意図 string チャット履歴から検出されたインテント。コンテキストを引き継ぐ次のターンに渡すために使用されます。 いいえ

citation

チャット補完応答メッセージの引用情報。

名前 種類 内容 必要 Default
content string 引用の内容。 はい
タイトル string 引用のタイトル。 いいえ
URL string 引用の URL。 いいえ
filepath string 引用のファイル パス。 いいえ
chunk_id string 引用のチャンク ID。 いいえ

chatCompletionMessageToolCall

名前 種類 内容 必要 Default
ID string ツール呼び出しの ID。 はい
type toolCallType ツール呼び出しの種類。この場合 function はい
関数 オブジェクト モデルが呼び出した関数。 はい

function のプロパティ

name

名前 種類 説明 Default
name string 呼び出す関数の名前。

arguments

名前 種類 説明 Default
引数 string モデルによって JSON 形式で生成された、関数を呼び出すための引数。 モデルは常に有効な JSON を生成するとは限らず、関数スキーマで定義されていないパラメーターを作成する可能性があることに注意してください。 関数を呼び出す前に、コード内の引数を検証します。

toolCallType

ツール呼び出しの種類。この場合 function

説明: ツール呼び出しの種類。この場合 function

: string

既定:

列挙型名: ToolCallType

列挙値:

Value 説明
関数 ツール呼び出しの種類は function です。

chatCompletionRequestMessageTool

名前 種類 内容 必要 Default
tool_call_id string このメッセージが応答しているツール呼び出し。 いいえ
content string メッセージの内容。 いいえ

chatCompletionRequestMessageFunction

名前 種類 内容 必要 Default
role enum メッセージ作成者のロール。この場合 function
使用可能な値: function
いいえ
name string メッセージの内容。 いいえ
content string メッセージの内容。 いいえ

createChatCompletionResponse

指定された入力に基づいて、モデルによって返されるチャット入力候補応答を表します。

名前 種類 内容 必要 Default
ID string チャット入力候補の一意識別子。 はい
prompt_filter_results promptFilterResults 要求内の 0 個以上のプロンプトのコンテンツ フィルター処理結果。 ストリーミング要求の場合、プロンプトが異なると、結果は異なるタイミングや異なる順序で届く可能性があります。 いいえ
選択肢(複数) 配列 チャット入力候補の選択肢の一覧。 n が 1 より大きい場合は複数の値を指定できます。 はい
作成済 integer チャット入力候補が作成されたときの Unix タイムスタンプ (秒単位)。 はい
モデル string チャット入力候補に使われるモデル。 はい
system_fingerprint string このフィンガープリントは、モデルが実行されるバックエンド構成を表します。

seed 要求パラメーターと組み合わせて使うと、決定性に影響を与える可能性のあるバックエンドの変更がいつ行われたかを把握できます。
いいえ
オブジェクト enum オブジェクトの種類。これは常に chat.completion です。
使用できる値: chat.completion
はい
使用量 completionUsage 入力候補要求の使用状況の統計情報。 いいえ

createChatCompletionStreamResponse

指定された入力に基づいて、モデルによって返されるチャット入力候補応答のストリーミングされたチャンクを表します。

名前 種類 内容 必要 Default
ID string チャット入力候補の一意識別子。 各チャンクの ID は同じです。 はい
選択肢(複数) 配列 チャット入力候補の選択肢の一覧。 n が 1 より大きい場合は、複数の要素を含めることができます。
はい
作成済 integer チャット入力候補が作成されたときの Unix タイムスタンプ (秒単位)。 各チャンクのタイムスタンプは同じです。 はい
モデル string 入力候補を生成するモデル。 はい
system_fingerprint string このフィンガープリントは、モデルが実行されるバックエンド構成を表します。
seed 要求パラメーターと組み合わせて使うと、決定性に影響を与える可能性のあるバックエンドの変更がいつ行われたかを把握できます。
いいえ
オブジェクト enum オブジェクトの種類。これは常に chat.completion.chunk です。
使用できる値: chat.completion.chunk
はい

chatCompletionStreamResponseDelta

ストリーミングされたモデル応答によって生成されるチャット入力候補デルタ。

名前 種類 内容 必要 Default
content string チャンク メッセージのコンテンツ。 いいえ
function_call オブジェクト 非推奨となり、tool_calls に置き換えられました。 モデルによって生成された、呼び出される関数の名前と引数。 いいえ
tool_calls 配列 いいえ
role enum このメッセージの作成者の役割。
使用できる値: system、user、assistant、tool
いいえ
refusal string モデルによって生成された拒否メッセージ。 いいえ

function_call のプロパティ

arguments

名前 種類 説明 Default
引数 string モデルによって JSON 形式で生成された、関数を呼び出すための引数。 モデルは常に有効な JSON を生成するとは限らず、関数スキーマで定義されていないパラメーターを作成する可能性があることに注意してください。 関数を呼び出す前に、コード内の引数を検証します。

name

名前 種類 説明 Default
name string 呼び出す関数の名前。

chatCompletionMessageToolCallChunk

名前 種類 内容 必要 Default
インデックス integer はい
id string ツール呼び出しの ID。 いいえ
type enum ツールの型。 現在、function のみがサポートされています。
使用可能な値: function
いいえ
関数 object いいえ

function のプロパティ

name

名前 種類 説明 Default
name string 呼び出す関数の名前。

arguments

名前 種類 説明 Default
引数 string モデルによって JSON 形式で生成された、関数を呼び出すための引数。 モデルは常に有効な JSON を生成するとは限らず、関数スキーマで定義されていないパラメーターを作成する可能性があることに注意してください。 関数を呼び出す前に、コード内の引数を検証します。

chatCompletionStreamOptions

ストリーミング応答のオプション。 stream: true に設定した場合はこれのみを設定します。

名前 種類 内容 必要 Default
include_usage boolean 設定されている場合は、data: [DONE] メッセージの前に追加のチャンクがストリームされます。 このチャンクの usage フィールドは要求全体のトークンの使用状況に関する統計情報を示し、choices フィールドは常に空の配列になります。 他のすべてのチャンクにも usage フィールドが含まれますが、null 値です。
いいえ

chatCompletionChoiceLogProbs

選択肢のログ確率情報。

名前 種類 内容 必要 Default
content 配列 ログ確率情報を含むメッセージ コンテンツ トークンの一覧。 はい
refusal 配列 ログ確率情報を含むメッセージ拒否トークンの一覧。 いいえ

chatCompletionTokenLogprob

名前 種類 内容 必要 Default
token string トークンです。 はい
logprob 数値 このトークンのログ確率。 はい
バイト 配列 トークンの UTF-8 バイト表現を表す整数の一覧。 文字が複数のトークンによって表され、そのバイト表現を組み合わせて正しいテキスト表現を生成する必要がある場合に便利です。 トークンのバイト表現がない場合は、null を指定できます。 はい
top_logprobs 配列 このトークン位置にある、最も可能性の高いトークンとそのログ確率の一覧。 まれに、要求したよりも少ない数の top_logprobs が返される場合があります。 はい

chatCompletionResponseMessage

モデルによって生成されたチャット入力候補メッセージ。

名前 種類 内容 必要 Default
role chatCompletionResponseMessageRole 応答メッセージの作成者のロール。 はい
refusal string モデルによって生成された拒否メッセージ。 はい
コンテンツ string メッセージの内容。 はい
tool_calls 配列 関数呼び出しなど、モデルによって生成されるツール呼び出し。 いいえ
function_call chatCompletionFunctionCall 非推奨となり、tool_calls に置き換えられました。 モデルによって生成された、呼び出される関数の名前と引数。 いいえ
context azureChatExtensionsMessageContext 対応するチャット入力候補応答の生成に Azure OpenAI チャット拡張機能が関係しているときに
使用できる追加のコンテキスト情報の表現。 このコンテキスト情報は、一致する拡張機能を使うように
構成されている Azure OpenAI 要求を使用するときにのみ、値が設定されます。
いいえ

chatCompletionResponseMessageRole

応答メッセージの作成者のロール。

説明: 応答メッセージの作成者のロール。

: string

既定:

列挙値:

  • assistant

chatCompletionToolChoiceOption

モデルによって呼び出されるツールを制御します (ある場合)。 none は、モデルでツールが呼び出されず、代わりにメッセージが生成されることを意味します。 auto は、モデルがメッセージを生成するか、1 つ以上のツールを呼び出すかを選択できることを意味します。 required は、モデルが 1 つ以上のツールを呼び出す必要があることを意味します。 {"type": "function", "function": {"name": "my_function"}} を介して特定のツールを指定すると、モデルでそのツールの呼び出しが強制されます。 ツールが存在しない場合は、none が既定値です。 ツールが存在する場合は、auto が既定値です。

このコンポーネントには、次のいずれかを指定できます。

chatCompletionNamedToolChoice

モデルで使用する必要があるツールを指定します。 モデルで特定の関数を強制的に呼び出すために使用します。

名前 種類 内容 必要 Default
type enum ツールの型。 現在、function のみがサポートされています。
使用可能な値: function
はい
関数 オブジェクト はい

function のプロパティ

name

名前 種類 説明 Default
name string 呼び出す関数の名前。

ParallelToolCalls

ツールの使用中に並列関数の呼び出しを有効にするかどうか。

このコンポーネントに対して定義されているプロパティはありません。

chatCompletionMessageToolCalls

関数呼び出しなど、モデルによって生成されるツール呼び出し。

このコンポーネントに対して定義されているプロパティはありません。

chatCompletionFunctionCall

非推奨となり、tool_calls に置き換えられました。 モデルによって生成された、呼び出される関数の名前と引数。

名前 種類 内容 必要 Default
name string 呼び出す関数の名前。 はい
引数 string モデルによって JSON 形式で生成された、関数を呼び出すための引数。 モデルは常に有効な JSON を生成するとは限らず、関数スキーマで定義されていないパラメーターを作成する可能性があることに注意してください。 関数を呼び出す前に、コード内の引数を検証します。 はい

completionUsage

入力候補要求の使用状況の統計情報。

名前 種類 内容 必要 Default
prompt_tokens integer プロンプト内のトークンの数。 はい
completion_tokens integer 生成された入力候補内のトークンの数。 はい
total_tokens integer 要求内で使われたトークンの合計数 (プロンプトと入力候補の和)。 はい
completion_tokens_details オブジェクト 完了に使用されたトークンの内訳。 いいえ

completion_tokens_details のプロパティ

reasoning_tokens

名前 種類 説明 Default
reasoning_tokens integer 推論のためにモデルによって生成されたトークン。

chatCompletionTool

名前 種類 内容 必要 Default
type enum ツールの型。 現在、function のみがサポートされています。
使用可能な値: function
はい
関数 FunctionObject はい

FunctionParameters

関数が受け取るパラメーター。JSON スキーマ オブジェクトとして記述されます。 例については guide](/azure/ai-services/openai/how-to/function-calling) を、形式に関するドキュメントについては JSON スキーマのリファレンスを参照してください。

parameters を省略すると、空のパラメーター リストを持つ関数が定義されます。

このコンポーネントに対して定義されているプロパティはありません。

FunctionObject

名前 種類 内容 必要 Default
description string モデルが関数をいつどのように呼び出すかを選ぶために使われる、関数の動作の説明。 いいえ
name string 呼び出される関数の名前。 a-z、A-Z、0-9 を使用するか、アンダースコアとダッシュを含める必要があります。最大長は 64 です。 はい
parameters FunctionParameters 関数が受け取るパラメーター。JSON スキーマ オブジェクトとして記述されます。 例については guide](/azure/ai-services/openai/how-to/function-calling) を、形式に関するドキュメントについては JSON スキーマのリファレンスを参照してください。

parameters を省略すると、空のパラメーター リストを持つ関数が定義されます。
いいえ
厳密 boolean 関数呼び出しの生成時に厳格なスキーマの準拠を有効にするかどうか。 true に設定すると、モデルは parameters フィールドで定義されている正確なスキーマに従います。 stricttrue の場合、JSON スキーマのサブセットのみがサポートされます。 いいえ False

ResponseFormatText

名前 種類 内容 必要 Default
type enum 定義されている応答形式の種類: text
使用できる値: text
はい

ResponseFormatJsonObject

名前 種類 内容 必要 Default
type enum 定義されている応答形式の種類: json_object
使用できる値: json_object
はい

ResponseFormatJsonSchemaSchema

JSON スキーマ オブジェクトとして記述された応答形式のスキーマ。

このコンポーネントに対して定義されているプロパティはありません。

ResponseFormatJsonSchema

名前 種類 内容 必要 Default
type enum 定義されている応答形式の種類: json_schema
使用できる値: json_schema
はい
json_schema オブジェクト はい

json_schema のプロパティ

description

件名 種類 説明 Default
description string 応答形式の目的の説明。その形式で応答する方法を決定するためにモデルによって使用されます。

name

名前 種類 説明 Default
name string 応答形式の名前。 a-z、A-Z、0-9 を使用するか、アンダースコアとダッシュを含める必要があります。最大長は 64 です。

schema

名前 種類 説明 Default
schema ResponseFormatJsonSchemaSchema JSON スキーマ オブジェクトとして記述された応答形式のスキーマ。

厳密

名前 種類 説明 Default
厳密 boolean 出力の生成時に厳格なスキーマの準拠を有効にするかどうか。 true に設定すると、モデルは schema フィールドで定義されている正確なスキーマに常に従います。 stricttrue の場合、JSON スキーマのサブセットのみがサポートされます。 False

chatCompletionChoiceCommon

名前 種類 内容 必要 Default
インデックス integer いいえ
finish_reason string いいえ

createTranslationRequest

翻訳要求。

名前 種類 内容 必要 Default
file string 翻訳するオーディオ ファイル。 はい
プロンプト string モデルのスタイルをガイドしたり、前のオーディオ セグメントを続行したりするための省略可能なテキスト。 プロンプトは英語にする必要があります。 いいえ
応答形式 audioResponseFormat 出力の形式を定義します。 いいえ
温度 数値 0 から 1 の間のサンプリング温度。 0.8 のような大きい値にすると、出力はよりランダムになり、0.2 のような小さい値にすると、出力はより集中的および決定論的になります。 0 に設定すると、モデルはログ確率を使用して、特定のしきい値に達するまで温度を自動的に上昇させます。 いいえ 0

audioResponse

response_format が json のときの翻訳または文字起こしの応答

名前 種類 内容 必要 Default
text string 翻訳または文字起こしされたテキスト。 はい

audioVerboseResponse

response_format が verbose_json のときの翻訳または文字起こしの応答

名前 種類 内容 必要 Default
text string 翻訳または文字起こしされたテキスト。 はい
タスク string オーディオ タスクの種類。 いいえ
言語 string 言語。 いいえ
duration 数値 期間. いいえ
セグメント 配列 いいえ

audioResponseFormat

出力の形式を定義します。

説明: 出力の形式を定義します。

: string

既定:

列挙値:

  • json
  • text
  • srt
  • verbose_json
  • vtt

createTranscriptionRequest

文字起こし要求。

名前 種類 内容 必要 Default
file string 文字起こしするオーディオ ファイル オブジェクト。 はい
プロンプト string モデルのスタイルをガイドしたり、前のオーディオ セグメントを続行したりするための省略可能なテキスト。 プロンプトはオーディオ言語と一致する必要があります。 いいえ
応答形式 audioResponseFormat 出力の形式を定義します。 いいえ
温度 数値 0 から 1 の間のサンプリング温度。 0.8 のような大きい値にすると、出力はよりランダムになり、0.2 のような小さい値にすると、出力はより集中的および決定論的になります。 0 に設定すると、モデルはログ確率を使用して、特定のしきい値に達するまで温度を自動的に上昇させます。 いいえ 0
言語 string 入力オーディオの言語。 入力言語を ISO-639-1 形式で提供すると、精度と待機時間が向上します。 いいえ

audioSegment

文字起こしまたは翻訳セグメント。

名前 種類 内容 必要 Default
ID integer セグメント識別子。 いいえ
seek 数値 セグメントのオフセット。 いいえ
start 数値 セグメントの開始オフセット。 いいえ
end 数値 セグメントの終了オフセット。 いいえ
text string セグメントのテキスト。 いいえ
トークン 配列 テキストのトークン。 いいえ
温度 数値 温度。 いいえ
avg_logprob 数値 平均ログ確率。 いいえ
compression_ratio 数値 圧縮率。 いいえ
no_speech_prob 数値 no speech の確率。 いいえ

imageQuality

生成されるイメージの品質。

説明: 生成される画像の品質。

: string

既定値: standard

列挙型名: Quality

列挙値:

Value 説明
standard 標準品質の場合、標準品質の画像が作成されます。
hd HD 品質の場合、よりきめ細かく、全体の一貫性が高い画像が作成されます。

imagesResponseFormat

生成された画像が返される形式です。

説明: 生成された画像が返される形式です。

: string

既定値: URL

列挙型名: ImagesResponseFormat

列挙値:

Value 説明
URL 生成された画像をダウンロードするための一時的なアクセスを提供する URL。
b64_json 生成された画像は base64 でエンコードされた文字列として返されます。

imageSize

生成されたイメージのサイズ。

説明: 生成される画像のサイズ。

: string

既定値: 1024x1024

列挙型名: Size

列挙値:

Value 説明
1792x1024 生成される画像の目的のサイズは 1792x1024 ピクセルです。
1024x1792 生成される画像の目的のサイズは 1024x1792 ピクセルです。
1,024 x 1,024 生成される画像の目的のサイズは 1024x1024 ピクセルです。

imageStyle

生成されたイメージのスタイル。

説明: 生成される画像のスタイル。

: string

既定値: vivid

列挙型名: Style

列挙値:

Value 説明
vivid vivid の場合、超現実的で劇的な画像が作成されます。
natural natural の場合、より自然で、あまり超現実的ではない画像が作成されます。

imageGenerationsRequest

名前 種類 内容 必要 Default
prompt string 目的のイメージのテキストの説明。 最大長は 4,000 文字です。 はい
n integer 生成するイメージの数。 いいえ 1
size imageSize 生成されたイメージのサイズ。 いいえ 1,024 x 1,024
応答形式 imagesResponseFormat 生成された画像が返される形式です。 いいえ URL
ユーザー string エンド ユーザーを表す一意の識別子。これは不正使用を監視および検出するのに役立ちます。 いいえ
品質 imageQuality 生成されるイメージの品質。 いいえ standard
スタイル imageStyle 生成されたイメージのスタイル。 いいえ vivid

generateImagesResponse

名前 種類 内容 必要 Default
作成済 integer 操作が作成されたときの UNIX タイムスタンプ。 はい
data 配列 操作が成功した場合の結果データ はい

imageResult

成功した場合は画像の URL またはエンコードされた画像、それ以外の場合はエラー。

名前 種類 内容 必要 Default
URL string 画像の URL。 いいえ
b64_json string base64 でエンコードされた画像 いいえ
content_filter_results dalleContentFilterResults コンテンツ フィルタリングの結果に関する情報。 いいえ
revised_prompt string イメージの生成に使用されたプロンプト (プロンプトにリビジョンがある場合)。 いいえ
prompt_filter_results dalleFilterResults コンテンツ フィルタリング カテゴリ (hate、sexual、violence、self_harm) に関する情報、それが検出されたかどうか、および重大度レベル (有害なコンテンツの強さとリスク レベルを決定する very_low、low、medium、high-scale) とそれがフィルター処理されたかどうか。 脱獄コンテンツと不適切な表現に関する情報、それが検出されたかどうか、およびそれがフィルター処理されたかどうか。 また、顧客のブロックリストに関する情報、それがフィルター処理されたかどうかとその ID。 いいえ

入力候補の拡張機能

補完拡張機能は、Azure OpenAI データ プレーン推論仕様の最新 GA バージョンには含まれていません。

Chatmessage

チャット メッセージ オブジェクトは、Azure OpenAI データ プレーン推論仕様の最新 GA バージョンには含まれていません。

テキスト読み上げ

現在、Azure OpenAI データ プレーン推論仕様の最新の Azure OpenAI GA バージョンには含まれていません。この機能については、最新のプレビュー バージョンを参照してください。

次のステップ

モデルと REST API を使用した微調整について説明します。 Azure OpenAI をサポートする基となるモデルに関する記事を確認します。