GetChatCompletionsOptions interface

이 모듈에는 생성된 해당 모델과 나란히 살려는 모델이 포함되어 있습니다. 이는 생성된 모델과 이름/유형이 다른 고객 지향 모델을 제공하는 데 유용합니다.

Extends

속성

azureExtensionOptions

이를 사용하는 Azure OpenAI 채팅 확장에 대한 구성 항목입니다. 이 추가 사양은 Azure OpenAI와만 호환됩니다.

frequencyPenalty

생성된 텍스트의 누적 빈도에 따라 생성된 토큰이 나타날 확률에 영향을 주는 값입니다. 양수 값은 토큰의 빈도가 증가함에 따라 토큰이 나타날 가능성이 낮아지고 모델이 동일한 문을 그대로 반복할 가능성을 낮추게 됩니다.

functionCall

모델이 함수 호출에 응답하는 방식을 제어합니다. "없음"은 모델이 함수를 호출하지 않고 최종 사용자에게 응답함을 의미합니다. "자동"은 모델이 최종 사용자와 함수 호출 중에서 선택할 수 있음을 의미합니다. 를 통해 {"name": "my_function"} 특정 함수를 지정하면 모델이 해당 함수를 호출하게 합니다. 기능이 없을 경우 "none"이 기본값입니다. 기능이 있는 경우 "auto"가 기본값입니다.

functions

모델이 JSON 입력을 생성할 수 있는 함수 목록입니다.

logitBias

완료 응답에 나타나는 특정 토큰의 확률에 영향을 주는 GPT 토큰 ID와 바이어스 점수 간의 맵입니다. 토큰 ID는 외부 토큰 변환기 도구를 통해 계산되지만 바이어스 점수는 -100에서 100까지의 범위에 있으며 토큰의 전체 금지 또는 배타적 선택에 해당하는 최소 및 최대 값이 각각 있습니다. 지정된 바이어스 점수의 정확한 동작은 모델에 따라 다릅니다.

maxTokens

생성할 최대 토큰 수입니다.

n

채팅 완료 응답에 대해 생성해야 하는 채팅 완료 선택 항목 수입니다. 이 설정은 많은 완료를 생성할 수 있으므로 토큰 할당량을 빠르게 사용할 수 있습니다. 신중하게 사용하고 maxTokens에 대한 적절한 설정을 확인하고 중지합니다.

presencePenalty

생성된 텍스트의 기존 존재에 따라 생성된 토큰이 나타날 확률에 영향을 주는 값입니다. 양수 값은 토큰이 이미 있을 때 표시될 가능성이 낮아지고 모델의 새 topics 출력할 가능성이 높아집니다.

responseFormat

모델이 출력해야 하는 형식을 지정하는 개체입니다. JSON 모드를 사용하도록 설정하는 데 사용됩니다.

seed

지정된 경우 시스템은 동일한 시드 및 매개 변수가 있는 반복된 요청이 동일한 결과를 반환하도록 결정적으로 샘플링하는 데 최선을 다할 것입니다. 결정성은 보장되지 않으며 system_fingerprint 응답 매개 변수를 참조하여 백 엔드의 변경 내용을 모니터링해야 합니다."

stop

완성 생성을 종료할 텍스트 시퀀스의 컬렉션입니다.

temperature

생성된 완성의 명백한 창의성을 제어하는 데 사용할 샘플링 온도입니다. 값이 높을수록 출력이 더 임의로 생성되고 값이 낮으면 결과가 더 집중되고 결정적입니다. 이러한 두 설정의 상호 작용을 예측하기 어렵기 때문에 동일한 완료 요청에 대해 온도 및 topP를 수정하지 않는 것이 좋습니다.

toolChoice

지정된 경우 모델은 채팅 완료 응답에 사용할 수 있는 제공된 도구 중 어느 것을 구성합니다.

tools

호출자 정의 함수를 포함하여 채팅 완료 요청에서 사용할 수 있는 사용 가능한 도구 정의입니다.

topP

핵 샘플링이라고 하는 온도를 사용하여 샘플링하는 대안입니다. 이 값을 사용하면 모델이 제공된 확률 질량을 사용하여 토큰의 결과를 고려합니다. 예를 들어 값이 0.15이면 확률 질량의 상위 15%를 구성하는 토큰만 고려됩니다. 이러한 두 설정의 상호 작용을 예측하기 어렵기 때문에 동일한 완료 요청에 대해 온도 및 topP를 수정하지 않는 것이 좋습니다.

user

작업의 호출자 또는 최종 사용자에 대한 식별자입니다. 추적 또는 속도 제한 용도로 사용할 수 있습니다.

상속된 속성

abortSignal

요청을 중단하는 데 사용할 수 있는 신호입니다.

onResponse

요청된 작업을 수행하는 동안 서버에서 응답을 받을 때마다 호출되는 함수입니다. 여러 번 호출될 수 있습니다.

requestOptions

이 작업에 대한 HTTP 요청을 만들고 보낼 때 사용되는 옵션입니다.

tracingOptions

추적을 사용할 때 사용되는 옵션입니다.

속성 세부 정보

azureExtensionOptions

이를 사용하는 Azure OpenAI 채팅 확장에 대한 구성 항목입니다. 이 추가 사양은 Azure OpenAI와만 호환됩니다.

azureExtensionOptions?: AzureExtensionsOptions

속성 값

frequencyPenalty

생성된 텍스트의 누적 빈도에 따라 생성된 토큰이 나타날 확률에 영향을 주는 값입니다. 양수 값은 토큰의 빈도가 증가함에 따라 토큰이 나타날 가능성이 낮아지고 모델이 동일한 문을 그대로 반복할 가능성을 낮추게 됩니다.

frequencyPenalty?: number

속성 값

number

functionCall

모델이 함수 호출에 응답하는 방식을 제어합니다. "없음"은 모델이 함수를 호출하지 않고 최종 사용자에게 응답함을 의미합니다. "자동"은 모델이 최종 사용자와 함수 호출 중에서 선택할 수 있음을 의미합니다. 를 통해 {"name": "my_function"} 특정 함수를 지정하면 모델이 해당 함수를 호출하게 합니다. 기능이 없을 경우 "none"이 기본값입니다. 기능이 있는 경우 "auto"가 기본값입니다.

functionCall?: string | FunctionName

속성 값

string | FunctionName

functions

모델이 JSON 입력을 생성할 수 있는 함수 목록입니다.

functions?: FunctionDefinition[]

속성 값

logitBias

완료 응답에 나타나는 특정 토큰의 확률에 영향을 주는 GPT 토큰 ID와 바이어스 점수 간의 맵입니다. 토큰 ID는 외부 토큰 변환기 도구를 통해 계산되지만 바이어스 점수는 -100에서 100까지의 범위에 있으며 토큰의 전체 금지 또는 배타적 선택에 해당하는 최소 및 최대 값이 각각 있습니다. 지정된 바이어스 점수의 정확한 동작은 모델에 따라 다릅니다.

logitBias?: Record<string, number>

속성 값

Record<string, number>

maxTokens

생성할 최대 토큰 수입니다.

maxTokens?: number

속성 값

number

n

채팅 완료 응답에 대해 생성해야 하는 채팅 완료 선택 항목 수입니다. 이 설정은 많은 완료를 생성할 수 있으므로 토큰 할당량을 빠르게 사용할 수 있습니다. 신중하게 사용하고 maxTokens에 대한 적절한 설정을 확인하고 중지합니다.

n?: number

속성 값

number

presencePenalty

생성된 텍스트의 기존 존재에 따라 생성된 토큰이 나타날 확률에 영향을 주는 값입니다. 양수 값은 토큰이 이미 있을 때 표시될 가능성이 낮아지고 모델의 새 topics 출력할 가능성이 높아집니다.

presencePenalty?: number

속성 값

number

responseFormat

모델이 출력해야 하는 형식을 지정하는 개체입니다. JSON 모드를 사용하도록 설정하는 데 사용됩니다.

responseFormat?: ChatCompletionsResponseFormat

속성 값

seed

지정된 경우 시스템은 동일한 시드 및 매개 변수가 있는 반복된 요청이 동일한 결과를 반환하도록 결정적으로 샘플링하는 데 최선을 다할 것입니다. 결정성은 보장되지 않으며 system_fingerprint 응답 매개 변수를 참조하여 백 엔드의 변경 내용을 모니터링해야 합니다."

seed?: number

속성 값

number

stop

완성 생성을 종료할 텍스트 시퀀스의 컬렉션입니다.

stop?: string[]

속성 값

string[]

temperature

생성된 완성의 명백한 창의성을 제어하는 데 사용할 샘플링 온도입니다. 값이 높을수록 출력이 더 임의로 생성되고 값이 낮으면 결과가 더 집중되고 결정적입니다. 이러한 두 설정의 상호 작용을 예측하기 어렵기 때문에 동일한 완료 요청에 대해 온도 및 topP를 수정하지 않는 것이 좋습니다.

temperature?: number

속성 값

number

toolChoice

지정된 경우 모델은 채팅 완료 응답에 사용할 수 있는 제공된 도구 중 어느 것을 구성합니다.

toolChoice?: ChatCompletionsNamedToolSelectionUnion

속성 값

tools

호출자 정의 함수를 포함하여 채팅 완료 요청에서 사용할 수 있는 사용 가능한 도구 정의입니다.

tools?: ChatCompletionsToolDefinitionUnion[]

속성 값

topP

핵 샘플링이라고 하는 온도를 사용하여 샘플링하는 대안입니다. 이 값을 사용하면 모델이 제공된 확률 질량을 사용하여 토큰의 결과를 고려합니다. 예를 들어 값이 0.15이면 확률 질량의 상위 15%를 구성하는 토큰만 고려됩니다. 이러한 두 설정의 상호 작용을 예측하기 어렵기 때문에 동일한 완료 요청에 대해 온도 및 topP를 수정하지 않는 것이 좋습니다.

topP?: number

속성 값

number

user

작업의 호출자 또는 최종 사용자에 대한 식별자입니다. 추적 또는 속도 제한 용도로 사용할 수 있습니다.

user?: string

속성 값

string

상속된 속성 세부 정보

abortSignal

요청을 중단하는 데 사용할 수 있는 신호입니다.

abortSignal?: AbortSignalLike

속성 값

상속된 위치에서 OperationOptions.abortSignal

onResponse

요청된 작업을 수행하는 동안 서버에서 응답을 받을 때마다 호출되는 함수입니다. 여러 번 호출될 수 있습니다.

onResponse?: RawResponseCallback

속성 값

상속된 위치에서 OperationOptions.onResponse

requestOptions

이 작업에 대한 HTTP 요청을 만들고 보낼 때 사용되는 옵션입니다.

requestOptions?: OperationRequestOptions

속성 값

상속된 위치에서 OperationOptions.requestOptions

tracingOptions

추적을 사용할 때 사용되는 옵션입니다.

tracingOptions?: OperationTracingOptions

속성 값

상속된 위치에서 OperationOptions.tracingOptions