OpenAIAsyncClient クラス

  • java.lang.Object
    • com.azure.ai.openai.OpenAIAsyncClient

public final class OpenAIAsyncClient

非同期 OpenAIClient 型の新しいインスタンスを初期化します。

メソッドの概要

修飾子と型 メソッドと説明
Mono<AudioTranscription> getAudioTranscription(String deploymentOrModelName, String fileName, AudioTranscriptionOptions audioTranscriptionOptions)

指定された音声オーディオ ファイル データから文字起こしされたテキストと関連するメタデータを取得します。

Mono<String> getAudioTranscriptionAsPlainText(String deploymentOrModelName, AudioTranscriptionOptions audioTranscriptionOptions)

指定された音声データから文字起こしされたテキストと関連付けられたメタデータを取得します。

Mono<Response<BinaryData>> getAudioTranscriptionAsPlainTextWithResponse(String deploymentOrModelName, BinaryData audioTranscriptionOptions, RequestOptions requestOptions)

指定された音声データから文字起こしされたテキストと関連付けられたメタデータを取得します。

Mono<AudioTranscription> getAudioTranscriptionAsResponseObject(String deploymentOrModelName, AudioTranscriptionOptions audioTranscriptionOptions)

指定された音声データから文字起こしされたテキストと関連付けられたメタデータを取得します。

Mono<Response<BinaryData>> getAudioTranscriptionAsResponseObjectWithResponse(String deploymentOrModelName, BinaryData audioTranscriptionOptions, RequestOptions requestOptions)

指定された音声データから文字起こしされたテキストと関連付けられたメタデータを取得します。

Mono<String> getAudioTranscriptionText(String deploymentOrModelName, String fileName, AudioTranscriptionOptions audioTranscriptionOptions)

指定された音声オーディオ ファイル データから文字起こしされたテキストと関連付けられたメタデータを取得します。

Mono<Response<String>> getAudioTranscriptionTextWithResponse(String deploymentOrModelName, String fileName, AudioTranscriptionOptions audioTranscriptionOptions, RequestOptions requestOptions)

指定された音声オーディオ ファイル データから文字起こしされたテキストと関連付けられたメタデータを取得します。

Mono<Response<AudioTranscription>> getAudioTranscriptionWithResponse(String deploymentOrModelName, String fileName, AudioTranscriptionOptions audioTranscriptionOptions, RequestOptions requestOptions)

指定された音声オーディオ ファイル データから文字起こしされたテキストと関連付けられたメタデータを取得します。

Mono<AudioTranslation> getAudioTranslation(String deploymentOrModelName, String fileName, AudioTranslationOptions audioTranslationOptions)

英語で文字起こしされたテキストと、指定された音声オーディオ ファイル データから関連するメタデータを取得します。

Mono<String> getAudioTranslationAsPlainText(String deploymentOrModelName, AudioTranslationOptions audioTranslationOptions)

提供された音声データから、英語の文字起こしされたテキストと関連するメタデータを取得します。

Mono<Response<BinaryData>> getAudioTranslationAsPlainTextWithResponse(String deploymentOrModelName, BinaryData audioTranslationOptions, RequestOptions requestOptions)

提供された音声データから、英語の文字起こしされたテキストと関連するメタデータを取得します。

Mono<AudioTranslation> getAudioTranslationAsResponseObject(String deploymentOrModelName, AudioTranslationOptions audioTranslationOptions)

提供された音声データから、英語の文字起こしされたテキストと関連するメタデータを取得します。

Mono<Response<BinaryData>> getAudioTranslationAsResponseObjectWithResponse(String deploymentOrModelName, BinaryData audioTranslationOptions, RequestOptions requestOptions)

提供された音声データから、英語の文字起こしされたテキストと関連するメタデータを取得します。

Mono<String> getAudioTranslationText(String deploymentOrModelName, String fileName, AudioTranslationOptions audioTranslationOptions)

英語で文字起こしされたテキストと、指定された音声オーディオ ファイル データから関連するメタデータを取得します。

Mono<Response<String>> getAudioTranslationTextWithResponse(String deploymentOrModelName, String fileName, AudioTranslationOptions audioTranslationOptions, RequestOptions requestOptions)

英語で文字起こしされたテキストと、指定された音声オーディオ ファイル データから関連するメタデータを取得します。

Mono<Response<AudioTranslation>> getAudioTranslationWithResponse(String deploymentOrModelName, String fileName, AudioTranslationOptions audioTranslationOptions, RequestOptions requestOptions)

英語で文字起こしされたテキストと、指定された音声オーディオ ファイル データから関連するメタデータを取得します。

Mono<ChatCompletions> getChatCompletions(String deploymentOrModelName, ChatCompletionsOptions chatCompletionsOptions)

指定されたチャット メッセージのチャット入力候補を取得します。

Flux<ChatCompletions> getChatCompletionsStream(String deploymentOrModelName, ChatCompletionsOptions chatCompletionsOptions)

指定されたチャット メッセージのチャット入力候補を取得します。

Mono<Response<ChatCompletions>> getChatCompletionsWithResponse(String deploymentOrModelName, ChatCompletionsOptions chatCompletionsOptions, RequestOptions requestOptions)

指定されたチャット メッセージのチャット完了を取得します。

Mono<Response<BinaryData>> getChatCompletionsWithResponse(String deploymentOrModelName, BinaryData chatCompletionsOptions, RequestOptions requestOptions)

指定されたチャット メッセージのチャット完了を取得します。

Mono<Completions> getCompletions(String deploymentOrModelName, CompletionsOptions completionsOptions)

指定された入力プロンプトの入力候補を取得します。

Mono<Completions> getCompletions(String deploymentOrModelName, String prompt)

指定された入力プロンプトの入力候補を取得します。

Flux<Completions> getCompletionsStream(String deploymentOrModelName, CompletionsOptions completionsOptions)

指定された入力プロンプトのストリームとして入力候補を取得します。

Mono<Response<Completions>> getCompletionsWithResponse(String deploymentOrModelName, CompletionsOptions completionsOptions, RequestOptions requestOptions)

指定された入力プロンプトの入力候補を取得します。

Mono<Response<BinaryData>> getCompletionsWithResponse(String deploymentOrModelName, BinaryData completionsOptions, RequestOptions requestOptions)

指定された入力プロンプトの入力候補を取得します。

Mono<Embeddings> getEmbeddings(String deploymentOrModelName, EmbeddingsOptions embeddingsOptions)

指定されたプロンプトの埋め込みを返却します。

Mono<Response<Embeddings>> getEmbeddingsWithResponse(String deploymentOrModelName, EmbeddingsOptions embeddingsOptions, RequestOptions requestOptions)

指定されたプロンプトの埋め込みを返却します。

Mono<Response<BinaryData>> getEmbeddingsWithResponse(String deploymentOrModelName, BinaryData embeddingsOptions, RequestOptions requestOptions)

指定されたプロンプトの埋め込みを返却します。

Mono<ImageResponse> getImages(ImageGenerationOptions imageGenerationOptions)

テキスト キャプションから画像のバッチの生成を開始します。

メソッドの継承元: java.lang.Object

メソッドの詳細

getAudioTranscription

public Mono getAudioTranscription(String deploymentOrModelName, String fileName, AudioTranscriptionOptions audioTranscriptionOptions)

指定された音声オーディオ ファイル データから文字起こしされたテキストと関連するメタデータを取得します。 音声は、読み上げられた言語に対応する書き込み言語で文字起こしされます。

Parameters:

deploymentOrModelName - この要求に使用するモデル デプロイ名 (Azure OpenAI を使用する場合) またはモデル名 (Azure 以外の OpenAI を使用する場合) のいずれかを指定します。
fileName - のフィールドで file 表されるファイル名 AudioTranscriptionOptions
audioTranscriptionOptions - オーディオ文字起こし要求の構成情報。

Returns:

AudioTranscription の正常な完了 Mono時に、指定された音声データから文字起こしされたテキストと関連するメタデータ。

getAudioTranscriptionAsPlainText

public Mono getAudioTranscriptionAsPlainText(String deploymentOrModelName, AudioTranscriptionOptions audioTranscriptionOptions)

指定された音声データから文字起こしされたテキストと関連付けられたメタデータを取得します。 音声は、読み上げられた言語に対応する書き込み言語で文字起こしされます。

Parameters:

deploymentOrModelName - この要求に使用するモデル デプロイ名 (Azure OpenAI を使用する場合) またはモデル名 (Azure 以外の OpenAI を使用する場合) のいずれかを指定します。
audioTranscriptionOptions - オーディオ文字起こし要求の構成情報。

Returns:

の正常な完了 Mono時に、指定された音声データから文字起こしされたテキストと関連するメタデータ。

getAudioTranscriptionAsPlainTextWithResponse

public Mono> getAudioTranscriptionAsPlainTextWithResponse(String deploymentOrModelName, BinaryData audioTranscriptionOptions, RequestOptions requestOptions)

指定された音声データから文字起こしされたテキストと関連付けられたメタデータを取得します。 音声は、読み上げられた言語に対応する書き込み言語で文字起こしされます。

要求本文スキーマ

{
     file: byte[] (Required)
     response_format: String(json/verbose_json/text/srt/vtt) (Optional)
     language: String (Optional)
     prompt: String (Optional)
     temperature: Double (Optional)
     model: String (Optional)
 }

応答本文のスキーマ

String

Parameters:

deploymentOrModelName - この要求に使用するモデル デプロイ名 (Azure OpenAI を使用する場合) またはモデル名 (Azure 以外の OpenAI を使用する場合) のいずれかを指定します。
audioTranscriptionOptions - オーディオ文字起こし要求の構成情報。
requestOptions - HTTP クライアントが HTTP 要求を送信する前に HTTP 要求を構成するためのオプション。

Returns:

の正常な完了Mono時に、指定された音声データからの文字起こしされたテキストとResponse<T>関連するメタデータ。

getAudioTranscriptionAsResponseObject

public Mono getAudioTranscriptionAsResponseObject(String deploymentOrModelName, AudioTranscriptionOptions audioTranscriptionOptions)

指定された音声データから文字起こしされたテキストと関連付けられたメタデータを取得します。 音声は、読み上げられた言語に対応する書き込み言語で文字起こしされます。

Parameters:

deploymentOrModelName - この要求に使用するモデル デプロイ名 (Azure OpenAI を使用する場合) またはモデル名 (Azure 以外の OpenAI を使用する場合) のいずれかを指定します。
audioTranscriptionOptions - オーディオ文字起こし要求の構成情報。

Returns:

の正常な完了 Mono時に、指定された音声データから文字起こしされたテキストと関連するメタデータ。

getAudioTranscriptionAsResponseObjectWithResponse

public Mono> getAudioTranscriptionAsResponseObjectWithResponse(String deploymentOrModelName, BinaryData audioTranscriptionOptions, RequestOptions requestOptions)

指定された音声データから文字起こしされたテキストと関連付けられたメタデータを取得します。 音声は、読み上げられた言語に対応する書き込み言語で文字起こしされます。

要求本文スキーマ

{
     file: byte[] (Required)
     response_format: String(json/verbose_json/text/srt/vtt) (Optional)
     language: String (Optional)
     prompt: String (Optional)
     temperature: Double (Optional)
     model: String (Optional)
 }

応答本文のスキーマ

{
     text: String (Required)
     task: String(transcribe/translate) (Optional)
     language: String (Optional)
     duration: Double (Optional)
     segments (Optional): [
          (Optional){
             id: int (Required)
             start: double (Required)
             end: double (Required)
             text: String (Required)
             temperature: double (Required)
             avg_logprob: double (Required)
             compression_ratio: double (Required)
             no_speech_prob: double (Required)
             tokens (Required): [
                 int (Required)
             ]
             seek: int (Required)
         }
     ]
 }

Parameters:

deploymentOrModelName - この要求に使用するモデル デプロイ名 (Azure OpenAI を使用する場合) またはモデル名 (Azure 以外の OpenAI を使用する場合) のいずれかを指定します。
audioTranscriptionOptions - オーディオ文字起こし要求の構成情報。
requestOptions - HTTP クライアントが HTTP 要求を送信する前に HTTP 要求を構成するためのオプション。

Returns:

の正常な完了Mono時に、指定された音声データからの文字起こしされたテキストとResponse<T>関連するメタデータ。

getAudioTranscriptionText

public Mono getAudioTranscriptionText(String deploymentOrModelName, String fileName, AudioTranscriptionOptions audioTranscriptionOptions)

指定された音声オーディオ ファイル データから文字起こしされたテキストと関連するメタデータを取得します。 音声は、読み上げられた言語に対応する書き込み言語で文字起こしされます。

Parameters:

deploymentOrModelName - この要求に使用するモデル デプロイ名 (Azure OpenAI を使用する場合) またはモデル名 (Azure 以外の OpenAI を使用する場合) のいずれかを指定します。
fileName - のフィールドで file 表されるファイル名 AudioTranscriptionOptions
audioTranscriptionOptions - オーディオ文字起こし要求の構成情報。

Returns:

の正常な完了 Mono時に、指定された音声データから文字起こしされたテキストと関連するメタデータ。

getAudioTranscriptionTextWithResponse

public Mono> getAudioTranscriptionTextWithResponse(String deploymentOrModelName, String fileName, AudioTranscriptionOptions audioTranscriptionOptions, RequestOptions requestOptions)

指定された音声オーディオ ファイル データから文字起こしされたテキストと関連付けられたメタデータを取得します。 音声は、読み上げられた言語に対応する書き込み言語で文字起こしされます。

Parameters:

deploymentOrModelName - この要求に使用するモデル デプロイ名 (Azure OpenAI を使用する場合) またはモデル名 (Azure 以外の OpenAI を使用する場合) のいずれかを指定します。
fileName - のフィールドで file 表されるファイル名 AudioTranscriptionOptions
audioTranscriptionOptions - オーディオ文字起こし要求の構成情報。
requestOptions - HTTP クライアントが HTTP 要求を送信する前に HTTP 要求を構成するためのオプション。

Returns:

の正常な完了Mono時に、指定された音声オーディオ ファイル データから文字起こしされたテキストとResponse<T>関連するメタデータ。

getAudioTranscriptionWithResponse

public Mono> getAudioTranscriptionWithResponse(String deploymentOrModelName, String fileName, AudioTranscriptionOptions audioTranscriptionOptions, RequestOptions requestOptions)

指定された音声オーディオ ファイル データから文字起こしされたテキストと関連付けられたメタデータを取得します。 音声は、読み上げられた言語に対応する書き込み言語で文字起こしされます。

Parameters:

deploymentOrModelName - この要求に使用するモデル デプロイ名 (Azure OpenAI を使用する場合) またはモデル名 (Azure 以外の OpenAI を使用する場合) のいずれかを指定します。
fileName - のフィールドで file 表されるファイル名 AudioTranscriptionOptions
audioTranscriptionOptions - オーディオ文字起こし要求の構成情報。
requestOptions - HTTP クライアントが HTTP 要求を送信する前に HTTP 要求を構成するためのオプション。

Returns:

AudioTranscription の正常な完了 Mono時に、指定された音声データから文字起こしされたテキストと関連するメタデータ。

getAudioTranslation

public Mono getAudioTranslation(String deploymentOrModelName, String fileName, AudioTranslationOptions audioTranslationOptions)

英語で文字起こしされたテキストと、指定された音声オーディオ ファイル データから関連するメタデータを取得します。

Parameters:

deploymentOrModelName - この要求に使用するモデル デプロイ名 (Azure OpenAI を使用する場合) またはモデル名 (Azure 以外の OpenAI を使用する場合) のいずれかを指定します。
fileName - のフィールドで file 表されるファイル名 AudioTranslationOptions
audioTranslationOptions - オーディオ翻訳要求の構成情報。

Returns:

AudioTranslation の正常な完了 Mono時に、提供された音声オーディオ ファイル データから英語で文字起こしされたテキストと関連するメタデータ。

getAudioTranslationAsPlainText

public Mono getAudioTranslationAsPlainText(String deploymentOrModelName, AudioTranslationOptions audioTranslationOptions)

提供された音声データから、英語の文字起こしされたテキストと関連するメタデータを取得します。

Parameters:

deploymentOrModelName - この要求に使用するモデル デプロイ名 (Azure OpenAI を使用する場合) またはモデル名 (Azure 以外の OpenAI を使用する場合) のいずれかを指定します。
audioTranslationOptions - オーディオ翻訳要求の構成情報。

Returns:

の正常な完了 Mono時に、提供された音声データから英語で文字起こしされたテキストと関連するメタデータ。

getAudioTranslationAsPlainTextWithResponse

public Mono> getAudioTranslationAsPlainTextWithResponse(String deploymentOrModelName, BinaryData audioTranslationOptions, RequestOptions requestOptions)

提供された音声データから、英語の文字起こしされたテキストと関連するメタデータを取得します。

要求本文スキーマ

{
     file: byte[] (Required)
     response_format: String(json/verbose_json/text/srt/vtt) (Optional)
     prompt: String (Optional)
     temperature: Double (Optional)
     model: String (Optional)
 }

応答本文スキーマ

String

Parameters:

deploymentOrModelName - この要求に使用するモデル デプロイ名 (Azure OpenAI を使用する場合) またはモデル名 (Azure 以外の OpenAI を使用する場合) のいずれかを指定します。
audioTranslationOptions - オーディオ翻訳要求の構成情報。
requestOptions - HTTP クライアントが HTTP 要求を送信する前に HTTP 要求を構成するためのオプション。

Returns:

の正常な完了Mono時に、英語で文字起こしされたテキストと、提供された音声データResponse<T>からの関連メタデータ。

getAudioTranslationAsResponseObject

public Mono getAudioTranslationAsResponseObject(String deploymentOrModelName, AudioTranslationOptions audioTranslationOptions)

提供された音声データから、英語の文字起こしされたテキストと関連するメタデータを取得します。

Parameters:

deploymentOrModelName - この要求に使用するモデル デプロイ名 (Azure OpenAI を使用する場合) またはモデル名 (Azure 以外の OpenAI を使用する場合) のいずれかを指定します。
audioTranslationOptions - オーディオ翻訳要求の構成情報。

Returns:

の正常な完了 Mono時に、提供された音声データから英語で文字起こしされたテキストと関連するメタデータ。

getAudioTranslationAsResponseObjectWithResponse

public Mono> getAudioTranslationAsResponseObjectWithResponse(String deploymentOrModelName, BinaryData audioTranslationOptions, RequestOptions requestOptions)

提供された音声データから、英語の文字起こしされたテキストと関連するメタデータを取得します。

要求本文スキーマ

{
     file: byte[] (Required)
     response_format: String(json/verbose_json/text/srt/vtt) (Optional)
     prompt: String (Optional)
     temperature: Double (Optional)
     model: String (Optional)
 }

応答本文スキーマ

{
     text: String (Required)
     task: String(transcribe/translate) (Optional)
     language: String (Optional)
     duration: Double (Optional)
     segments (Optional): [
          (Optional){
             id: int (Required)
             start: double (Required)
             end: double (Required)
             text: String (Required)
             temperature: double (Required)
             avg_logprob: double (Required)
             compression_ratio: double (Required)
             no_speech_prob: double (Required)
             tokens (Required): [
                 int (Required)
             ]
             seek: int (Required)
         }
     ]
 }

Parameters:

deploymentOrModelName - この要求に使用するモデル デプロイ名 (Azure OpenAI を使用する場合) またはモデル名 (Azure 以外の OpenAI を使用する場合) のいずれかを指定します。
audioTranslationOptions - オーディオ翻訳要求の構成情報。
requestOptions - HTTP クライアントが HTTP 要求を送信する前に HTTP 要求を構成するためのオプション。

Returns:

の正常な完了Mono時に、英語で文字起こしされたテキストと、提供された音声データResponse<T>からの関連メタデータ。

getAudioTranslationText

public Mono getAudioTranslationText(String deploymentOrModelName, String fileName, AudioTranslationOptions audioTranslationOptions)

英語で文字起こしされたテキストと、指定された音声オーディオ ファイル データから関連するメタデータを取得します。

Parameters:

deploymentOrModelName - この要求に使用するモデル デプロイ名 (Azure OpenAI を使用する場合) またはモデル名 (Azure 以外の OpenAI を使用する場合) のいずれかを指定します。
fileName - の フィールドAudioTranslationOptionsfile表されるファイル名。
audioTranslationOptions - オーディオ翻訳要求の構成情報。

Returns:

の正常な完了 Mono時に、提供された音声オーディオ ファイル データから英語で文字起こしされたテキストと関連するメタデータ。

getAudioTranslationTextWithResponse

public Mono> getAudioTranslationTextWithResponse(String deploymentOrModelName, String fileName, AudioTranslationOptions audioTranslationOptions, RequestOptions requestOptions)

英語で文字起こしされたテキストと、指定された音声オーディオ ファイル データから関連するメタデータを取得します。

Parameters:

deploymentOrModelName - この要求に使用するモデル デプロイ名 (Azure OpenAI を使用する場合) またはモデル名 (Azure 以外の OpenAI を使用する場合) のいずれかを指定します。
fileName - の フィールドAudioTranslationOptionsfile表されるファイル名。
audioTranslationOptions - オーディオ翻訳要求の構成情報。
requestOptions - HTTP クライアントが HTTP 要求を送信する前に HTTP 要求を構成するためのオプション。

Returns:

の正常な完了 Mono時に、提供された音声オーディオ ファイル データから英語で文字起こしされたテキストと関連するメタデータ。

getAudioTranslationWithResponse

public Mono> getAudioTranslationWithResponse(String deploymentOrModelName, String fileName, AudioTranslationOptions audioTranslationOptions, RequestOptions requestOptions)

英語で文字起こしされたテキストと、指定された音声オーディオ ファイル データから関連するメタデータを取得します。

Parameters:

deploymentOrModelName - この要求に使用するモデル デプロイ名 (Azure OpenAI を使用する場合) またはモデル名 (Azure 以外の OpenAI を使用する場合) のいずれかを指定します。
fileName - のフィールドで file 表されるファイル名 AudioTranslationOptions
audioTranslationOptions - オーディオ翻訳要求の構成情報。
requestOptions - HTTP クライアントが HTTP 要求を送信する前に HTTP 要求を構成するためのオプション。

Returns:

AudioTranslationの正常な完了Mono時に、英語で文字起こしされたテキストと、提供された音声オーディオ ファイル データResponse<T>からの関連メタデータ。

getChatCompletions

public Mono getChatCompletions(String deploymentOrModelName, ChatCompletionsOptions chatCompletionsOptions)

指定されたチャット メッセージのチャット入力候補を取得します。 入力候補は、さまざまなタスクをサポートし、指定されたプロンプト データから継続または "完了" するテキストを生成します。

Parameters:

deploymentOrModelName - この要求に使用するモデル デプロイ名 (Azure OpenAI を使用する場合) またはモデル名 (Azure 以外の OpenAI を使用する場合) のいずれかを指定します。
chatCompletionsOptions - チャット入力候補要求の構成情報。 入力候補は、さまざまなタスクをサポートし、指定されたプロンプト データから継続または "完了" するテキストを生成します。

Returns:

指定されたチャット メッセージのチャット入力候補。 入力候補は、さまざまなタスクをサポートし、 が正常に完了した場合にプロンプト データを提供した、または "完了" から続くテキストを Mono生成します。

getChatCompletionsStream

public Flux getChatCompletionsStream(String deploymentOrModelName, ChatCompletionsOptions chatCompletionsOptions)

指定されたチャット メッセージのチャット入力候補を取得します。 チャット入力候補は、さまざまなタスクをサポートし、提供されたプロンプト データから継続または "完了" するテキストを生成します。

Parameters:

deploymentOrModelName - この要求に使用するモデル デプロイ名 (Azure OpenAI を使用する場合) またはモデル名 (Azure 以外の OpenAI を使用する場合) のいずれかを指定します。
chatCompletionsOptions - チャット入力候補要求の構成情報。 入力候補は、さまざまなタスクをサポートし、指定されたプロンプト データから継続または "完了" するテキストを生成します。

Returns:

指定されたチャット メッセージのチャット入力候補ストリーム。 入力候補は、さまざまなタスクをサポートし、指定されたプロンプト データから継続または "完了" するテキストを生成します。

getChatCompletionsWithResponse

public Mono> getChatCompletionsWithResponse(String deploymentOrModelName, ChatCompletionsOptions chatCompletionsOptions, RequestOptions requestOptions)

指定されたチャット メッセージのチャット入力候補を取得します。 入力候補は、さまざまなタスクをサポートし、指定されたプロンプト データから継続または "完了" するテキストを生成します。

要求本文スキーマ

{
     messages (Required): [
          (Required){
             role: String(system/assistant/user) (Required)
             content: String (Optional)
         }
     ]
     max_tokens: Integer (Optional)
     temperature: Double (Optional)
     top_p: Double (Optional)
     logit_bias (Optional): {
         String: int (Optional)
     }
     user: String (Optional)
     n: Integer (Optional)
     stop (Optional): [
         String (Optional)
     ]
     presence_penalty: Double (Optional)
     frequency_penalty: Double (Optional)
     stream: Boolean (Optional)
     model: String (Optional)
 }

応答本文スキーマ

{
     id: String (Required)
     created: int (Required)
     choices (Required): [
          (Required){
             message (Optional): {
                 role: String(system/assistant/user) (Required)
                 content: String (Optional)
             }
             index: int (Required)
             finish_reason: String(stopped/tokenLimitReached/contentFiltered) (Required)
             delta (Optional): {
                 role: String(system/assistant/user) (Optional)
                 content: String (Optional)
             }
         }
     ]
     usage (Required): {
         completion_tokens: int (Required)
         prompt_tokens: int (Required)
         total_tokens: int (Required)
     }
 }

Parameters:

deploymentOrModelName - この要求に使用するモデル デプロイ名 (Azure OpenAI を使用する場合) またはモデル名 (Azure 以外の OpenAI を使用する場合) のいずれかを指定します。
chatCompletionsOptions - チャット入力候補要求の構成情報。 入力候補は、さまざまなタスクをサポートし、指定されたプロンプト データから継続または "完了" するテキストを生成します。
requestOptions - HTTP クライアントが HTTP 要求を送信する前に HTTP 要求を構成するためのオプション。

Returns:

指定されたチャット メッセージのチャット入力候補。 入力候補は、さまざまなタスクをサポートし、 の正常な完了時にプロンプト データと共 Response<T> に、 から続行または "完了" するテキストを Mono生成します。

getChatCompletionsWithResponse

public Mono> getChatCompletionsWithResponse(String deploymentOrModelName, BinaryData chatCompletionsOptions, RequestOptions requestOptions)

指定されたチャット メッセージのチャット完了を取得します。 入力候補は、さまざまなタスクをサポートし、指定されたプロンプト データから継続または "完了" するテキストを生成します。

要求本文スキーマ

{
     messages (Required): [
          (Required){
             role: String(system/assistant/user) (Required)
             content: String (Optional)
         }
     ]
     max_tokens: Integer (Optional)
     temperature: Double (Optional)
     top_p: Double (Optional)
     logit_bias (Optional): {
         String: int (Optional)
     }
     user: String (Optional)
     n: Integer (Optional)
     stop (Optional): [
         String (Optional)
     ]
     presence_penalty: Double (Optional)
     frequency_penalty: Double (Optional)
     stream: Boolean (Optional)
     model: String (Optional)
 }

応答本文のスキーマ

{
     id: String (Required)
     created: int (Required)
     choices (Required): [
          (Required){
             message (Optional): {
                 role: String(system/assistant/user) (Required)
                 content: String (Optional)
             }
             index: int (Required)
             finish_reason: String(stopped/tokenLimitReached/contentFiltered) (Required)
             delta (Optional): {
                 role: String(system/assistant/user) (Optional)
                 content: String (Optional)
             }
         }
     ]
     usage (Required): {
         completion_tokens: int (Required)
         prompt_tokens: int (Required)
         total_tokens: int (Required)
     }
 }

Parameters:

deploymentOrModelName - この要求に使用するモデル デプロイ名 (Azure OpenAI を使用する場合) またはモデル名 (Azure 以外の OpenAI を使用する場合) のいずれかを指定します。
chatCompletionsOptions - チャット完了要求の構成情報。 入力候補は、さまざまなタスクをサポートし、指定されたプロンプト データから継続または "完了" するテキストを生成します。
requestOptions - HTTP クライアントが HTTP 要求を送信する前に HTTP 要求を構成するためのオプション。

Returns:

指定されたチャット メッセージのチャット完了。 入力候補は、さまざまなタスクをサポートし、 の正常な完了時に指定されたプロンプト データと Response<T> 共に、 から継続または "完了" するテキストを Mono生成します。

getCompletions

public Mono getCompletions(String deploymentOrModelName, CompletionsOptions completionsOptions)

指定された入力プロンプトの入力候補を取得します。 入力候補は、さまざまなタスクをサポートし、指定されたプロンプト データから継続または "完了" するテキストを生成します。

Parameters:

deploymentOrModelName - この要求に使用するモデル デプロイ名 (Azure OpenAI を使用する場合) またはモデル名 (Azure 以外の OpenAI を使用する場合) のいずれかを指定します。
completionsOptions - 完了要求の構成情報。 入力候補は、さまざまなタスクをサポートし、指定されたプロンプト データから継続または "完了" するテキストを生成します。

Returns:

指定された入力プロンプトの入力候補。 入力候補は、さまざまなタスクをサポートし、 の正常な完了時に提供されるプロンプト データから継続または "完了" するテキストを Mono生成します。

getCompletions

public Mono getCompletions(String deploymentOrModelName, String prompt)

指定された入力プロンプトの入力候補を取得します。 入力候補は、さまざまなタスクをサポートし、指定されたプロンプト データから継続または "完了" するテキストを生成します。

Parameters:

deploymentOrModelName - この要求に使用するモデル デプロイ名 (Azure OpenAI を使用する場合) またはモデル名 (Azure 以外の OpenAI を使用する場合) のいずれかを指定します。
prompt - 入力候補テキストの生成元のプロンプト。

Returns:

指定された入力プロンプトの入力候補。 入力候補は、さまざまなタスクをサポートし、 の正常な完了時に提供されるプロンプト データから継続または "完了" するテキストを Mono生成します。

getCompletionsStream

public Flux getCompletionsStream(String deploymentOrModelName, CompletionsOptions completionsOptions)

指定された入力プロンプトのストリームとして入力候補を取得します。 入力候補は、さまざまなタスクをサポートし、指定されたプロンプト データから継続または "完了" するテキストを生成します。

Parameters:

deploymentOrModelName - この要求に使用するモデル デプロイ名 (Azure OpenAI を使用する場合) またはモデル名 (Azure 以外の OpenAI を使用する場合) のいずれかを指定します。
completionsOptions - 完了要求の構成情報。 入力候補は、さまざまなタスクをサポートし、指定されたプロンプト データから継続または "完了" するテキストを生成します。

Returns:

指定された入力プロンプトの完了の 。Flux 入力候補は、さまざまなタスクをサポートし、指定されたプロンプト データから継続または "完了" するテキストを生成します。

getCompletionsWithResponse

public Mono> getCompletionsWithResponse(String deploymentOrModelName, CompletionsOptions completionsOptions, RequestOptions requestOptions)

指定された入力プロンプトの入力候補を取得します。 入力候補は、さまざまなタスクをサポートし、指定されたプロンプト データから継続または "完了" するテキストを生成します。

要求本文スキーマ

{
     prompt (Required): [
         String (Required)
     ]
     max_tokens: Integer (Optional)
     temperature: Double (Optional)
     top_p: Double (Optional)
     logit_bias (Optional): {
         String: int (Optional)
     }
     user: String (Optional)
     n: Integer (Optional)
     logprobs: Integer (Optional)
     echo: Boolean (Optional)
     stop (Optional): [
         String (Optional)
     ]
     presence_penalty: Double (Optional)
     frequency_penalty: Double (Optional)
     best_of: Integer (Optional)
     stream: Boolean (Optional)
     model: String (Optional)
 }

応答本文のスキーマ

{
     id: String (Required)
     created: int (Required)
     choices (Required): [
          (Required){
             text: String (Required)
             index: int (Required)
             logprobs (Required): {
                 tokens (Required): [
                     String (Required)
                 ]
                 token_logprobs (Required): [
                     double (Required)
                 ]
                 top_logprobs (Required): [
                      (Required){
                         String: double (Required)
                     }
                 ]
                 text_offset (Required): [
                     int (Required)
                 ]
             }
             finish_reason: String(stopped/tokenLimitReached/contentFiltered) (Required)
         }
     ]
     usage (Required): {
         completion_tokens: int (Required)
         prompt_tokens: int (Required)
         total_tokens: int (Required)
     }
 }

Parameters:

deploymentOrModelName - この要求に使用するモデル デプロイ名 (Azure OpenAI を使用する場合) またはモデル名 (Azure 以外の OpenAI を使用する場合) のいずれかを指定します。
completionsOptions - 完了要求の構成情報。 入力候補は、さまざまなタスクをサポートし、指定されたプロンプト データから継続または "完了" するテキストを生成します。
requestOptions - HTTP クライアントが HTTP 要求を送信する前に HTTP 要求を構成するためのオプション。

Returns:

指定された入力プロンプトの入力候補。 入力候補は、さまざまなタスクをサポートし、 の正常な完了時に指定されたプロンプト データと Response<T> 共に、 から継続または "完了" するテキストを Mono生成します。

getCompletionsWithResponse

public Mono> getCompletionsWithResponse(String deploymentOrModelName, BinaryData completionsOptions, RequestOptions requestOptions)

指定された入力プロンプトの入力候補を取得します。 入力候補は、さまざまなタスクをサポートし、指定されたプロンプト データから継続または "完了" するテキストを生成します。

要求本文スキーマ

{
     prompt (Required): [
         String (Required)
     ]
     max_tokens: Integer (Optional)
     temperature: Double (Optional)
     top_p: Double (Optional)
     logit_bias (Optional): {
         String: int (Optional)
     }
     user: String (Optional)
     n: Integer (Optional)
     logprobs: Integer (Optional)
     echo: Boolean (Optional)
     stop (Optional): [
         String (Optional)
     ]
     presence_penalty: Double (Optional)
     frequency_penalty: Double (Optional)
     best_of: Integer (Optional)
     stream: Boolean (Optional)
     model: String (Optional)
 }

応答本文のスキーマ

{
     id: String (Required)
     created: int (Required)
     choices (Required): [
          (Required){
             text: String (Required)
             index: int (Required)
             logprobs (Required): {
                 tokens (Required): [
                     String (Required)
                 ]
                 token_logprobs (Required): [
                     double (Required)
                 ]
                 top_logprobs (Required): [
                      (Required){
                         String: double (Required)
                     }
                 ]
                 text_offset (Required): [
                     int (Required)
                 ]
             }
             finish_reason: String(stopped/tokenLimitReached/contentFiltered) (Required)
         }
     ]
     usage (Required): {
         completion_tokens: int (Required)
         prompt_tokens: int (Required)
         total_tokens: int (Required)
     }
 }

Parameters:

deploymentOrModelName - この要求に使用するモデル デプロイ名 (Azure OpenAI を使用する場合) またはモデル名 (Azure 以外の OpenAI を使用する場合) のいずれかを指定します。
completionsOptions - 完了要求の構成情報。 入力候補は、さまざまなタスクをサポートし、指定されたプロンプト データから継続または "完了" するテキストを生成します。
requestOptions - HTTP クライアントが HTTP 要求を送信する前に HTTP 要求を構成するためのオプション。

Returns:

指定された入力プロンプトの入力候補。 入力候補は、さまざまなタスクをサポートし、 の正常な完了時に指定されたプロンプト データと Response<T> 共に、 から継続または "完了" するテキストを Mono生成します。

getEmbeddings

public Mono getEmbeddings(String deploymentOrModelName, EmbeddingsOptions embeddingsOptions)

指定されたプロンプトの埋め込みを返却します。

Parameters:

deploymentOrModelName - この要求に使用するモデル デプロイ名 (Azure OpenAI を使用する場合) またはモデル名 (Azure 以外の OpenAI を使用する場合) のいずれかを指定します。
embeddingsOptions - 埋め込み要求の構成情報。 埋め込みでは、テキスト文字列の関連性が測定され、検索、クラスタリング、推奨事項、その他の同様のシナリオでよく使用されます。

Returns:

埋め込み要求からの応答データの表現。 埋め込みでは、テキスト文字列の関連性を測定し、 の正常な完了時に検索、クラスタリング、推奨事項、およびその他の同様の Monoシナリオでよく使用されます。

getEmbeddingsWithResponse

public Mono> getEmbeddingsWithResponse(String deploymentOrModelName, EmbeddingsOptions embeddingsOptions, RequestOptions requestOptions)

指定されたプロンプトの埋め込みを返却します。

要求本文スキーマ

{
     user: String (Optional)
     model: String (Optional)
     input (Required): [
         String (Required)
     ]
 }

応答本文のスキーマ

{
     data (Required): [
          (Required){
             embedding (Required): [
                 double (Required)
             ]
             index: int (Required)
         }
     ]
     usage (Required): {
         prompt_tokens: int (Required)
         total_tokens: int (Required)
     }
 }

Parameters:

deploymentOrModelName - この要求に使用するモデル デプロイ名 (Azure OpenAI を使用する場合) またはモデル名 (Azure 以外の OpenAI を使用する場合) のいずれかを指定します。
embeddingsOptions - 埋め込み要求の構成情報。 埋め込みでは、テキスト文字列の関連性が測定され、検索、クラスタリング、推奨事項、その他の同様のシナリオでよく使用されます。
requestOptions - HTTP クライアントが HTTP 要求を送信する前に HTTP 要求を構成するためのオプション。

Returns:

埋め込み要求からの応答データの表現。 埋め込みでは、テキスト文字列の関連性が測定され、検索、クラスタリング、推奨事項、およびその他の同様のシナリオと共 Response<T> に、 の Mono正常な完了時に一般的に使用されます。

getEmbeddingsWithResponse

public Mono> getEmbeddingsWithResponse(String deploymentOrModelName, BinaryData embeddingsOptions, RequestOptions requestOptions)

指定されたプロンプトの埋め込みを返却します。

要求本文スキーマ

{
     user: String (Optional)
     model: String (Optional)
     input (Required): [
         String (Required)
     ]
 }

応答本文のスキーマ

{
     data (Required): [
          (Required){
             embedding (Required): [
                 double (Required)
             ]
             index: int (Required)
         }
     ]
     usage (Required): {
         prompt_tokens: int (Required)
         total_tokens: int (Required)
     }
 }

Parameters:

deploymentOrModelName - この要求に使用するモデル デプロイ名 (Azure OpenAI を使用する場合) またはモデル名 (Azure 以外の OpenAI を使用する場合) のいずれかを指定します。
embeddingsOptions - 埋め込み要求の構成情報。 埋め込みでは、テキスト文字列の関連性が測定され、検索、クラスタリング、推奨事項、その他の同様のシナリオでよく使用されます。
requestOptions - HTTP クライアントが HTTP 要求を送信する前に HTTP 要求を構成するためのオプション。

Returns:

埋め込み要求からの応答データの表現。 埋め込みでは、テキスト文字列の関連性が測定され、検索、クラスタリング、推奨事項、およびその他の同様のシナリオと共 Response<T> に、 の Mono正常な完了時に一般的に使用されます。

getImages

public Mono getImages(ImageGenerationOptions imageGenerationOptions)

テキスト キャプションから画像のバッチの生成を開始します。

Parameters:

imageGenerationOptions - イメージの生成に使用される要求データを表します。

Returns:

イメージ生成結果を含む 。Mono

適用対象