Modelos do Serviço OpenAI do Azure

O Serviço OpenAI do Azure é alimentado por um conjunto diversificado de modelos com diferentes funcionalidades e pontos de preço. A disponibilidade do modelo varia de acordo com a região e a nuvem. Para obter a disponibilidade do modelo do Azure Governamental, confira o Serviço OpenAI do Azure Governamental.

Modelos Descrição
o1-preview e o1-mini Os modelos de acesso limitado foram especificamente desenvolvidos para lidar com tarefas de raciocínio e resolução de problemas com foco e capacidade aumentados.
GPT-4o e GPT-4o mini e GPT-4 Turbo Os modelos mais recentes do OpenAI do Azure com versões multimodal que podem aceitar texto e imagens como entrada.
Áudio GPT-4o Um modelo GPT-4o que dá suporte a interações conversacionais de baixa latência, "fala dentro, fala fora".
GPT-4 Um conjunto de modelos que aprimoram o GPT-3.5 e podem entender e gerar código e linguagem natural.
GPT-3.5 Um conjunto de modelos que aprimoram o GPT-3 e podem entender e gerar código e linguagem natural.
Incorporações Um conjunto de modelos que podem converter texto em um formulário de vetor numérico para facilitar a similaridade de texto.
DALL-E Uma série de modelos que podem gerar imagens originais a partir de linguagem natural.
Whisper Uma série de modelos em versão prévia que podem transcrever e traduzir uma fala em texto.
Conversão de texto em fala (versão prévia) Uma série de modelos em versão prévia que podem sintetizar a conversão de texto em fala.

acesso limitado aos modelos o1-preview e o1-mini

Os modelos o1-preview e o1-mini do OpenAI do Azure foram especificamente desenvolvidos para lidar com tarefas de raciocínio e resolução de problemas com foco e capacidade aumentados. Esses modelos gastam mais tempo processando e entendendo a solicitação do usuário, o que os torna excepcionalmente competentes em áreas como ciência, programação e matemática, em comparação com as iterações anteriores.

ID do Modelo Descrição Máx. de solicitações (tokens) Dados de treinamento (até)
o1-preview (2024-09-12) O modelo mais capaz na série o1, oferecendo habilidades de raciocínio aprimoradas. Input: 128,000
Saída: 32.768
Outubro de 2023
o1-mini (2024-09-12) Uma opção mais rápida e econômica na série o1, ideal para codificar tarefas que exigem velocidade e menor consumo de recursos. Input: 128,000
Saída: 65.536
Outubro de 2023

Disponibilidade

Os modelos o1-preview e o1-mini agora estão disponíveis para acesso à API e implantação de modelos. O registro é obrigatório e o acesso será concedido com base nos critérios de elegibilidade da Microsoft.

Solicitar acesso: aplicativo de modelo de acesso limitado

Depois que o acesso for concedido, você precisará criar uma implantação para cada modelo.

Suporte a API

Suporte para os modelos da série o1 foi adicionado na versão da API 2024-09-01-preview.

O parâmetro max_tokens foi descontinuado e substituído pelo novo parâmetro max_completion_tokens. Os modelos da série o1 só funcionarão com o parâmetro max_completion_tokens.

Uso

Atualmente, esses modelos não oferecem suporte ao mesmo conjunto de parâmetros que outros modelos que usam a API de conclusões de chat. Atualmente, apenas um subconjunto muito limitado é suportado, portanto parâmetros comuns como temperature, top_p, não estão disponíveis e incluí-los fará com que sua solicitação falhe. o1-preview e o1-mini os modelos também não aceitarão a função de mensagem do sistema como parte da matriz de mensagens.

Talvez seja necessário atualizar sua versão da biblioteca OpenAI Python para aproveitar o novo parâmetro max_completion_tokens.

pip install openai --upgrade

Se você é novo no uso do Microsoft Entra ID para autenticação, veja Como configurar o Serviço OpenAI do Azure com autenticação do Microsoft Entra ID.

from openai import AzureOpenAI
from azure.identity import DefaultAzureCredential, get_bearer_token_provider

token_provider = get_bearer_token_provider(
    DefaultAzureCredential(), "https://cognitiveservices.azure.com/.default"
)

client = AzureOpenAI(
  azure_endpoint = os.getenv("AZURE_OPENAI_ENDPOINT"), 
  azure_ad_token_provider=token_provider,
  api_version="2024-09-01-preview"
)

response = client.chat.completions.create(
    model="o1-preview-new", # replace with the model deployment name of your o1-preview, or o1-mini model
    messages=[
        {"role": "user", "content": "What steps should I think about when writing my first Python API?"},
    ],
    max_completion_tokens = 5000

)

print(response.model_dump_json(indent=2))

Disponibilidade de região

Disponível para implantação padrão e padrão global no Leste dos EUA, Leste dos EUA2, Centro-Norte dos EUA, Centro-Sul dos EUA, Suécia Central, Oeste dos EUA e Oeste dos EUA3 para clientes aprovados.

Áudio GPT-4o

O modelo gpt-4o-realtime-preview faz parte da família de modelos GPT-4o e dá suporte a interações conversacionais de baixa latência, "fala dentro, fala fora". O áudio GPT-4o foi projetado para lidar com interações de conversa em tempo real e de baixa latência, tornando-o um ótimo ajuste para agentes de suporte, assistentes, tradutores e outros casos de uso que precisam de idas e vindas altamente responsivas com um usuário.

O áudio GPT-4o está disponível nas regiões Leste dos EUA 2 (eastus2) e Central da Suécia (swedencentral). Para usar o áudio GPT-4o, você precisa criar ou usar um recurso existente em uma das regiões com suporte.

Quando o recurso é criado, você pode implantar o modelo de áudio GPT-4o. Se você estiver executando uma implantação programática, o nome do modelo será gpt-4o-realtime-preview. Para obter mais informações sobre como usar o áudio GPT-4o, consulte a documentação de áudio GPT-4o.

Detalhes sobre o máximo de tokens de solicitação e dados de treinamento estão disponíveis na tabela a seguir.

ID do Modelo Descrição Máx. de solicitações (tokens) Dados de treinamento (até)
gpt-4o-realtime-preview (2024-10-01-preview)
Áudio GPT-4o
Modelo de áudio para processamento de áudio em tempo real Input: 128,000
Output: 4,096
Outubro de 2023

GPT-4o e GPT-4 Turbo

O GPT-4o integra texto e imagens em um único modelo, permitindo que ele manipule vários tipos de dados simultaneamente. Essa abordagem multimodal melhora a precisão e a capacidade de resposta nas interações entre humanos e computadores. O GPT-4o tem as mesmas tarefas de codificação e texto em inglês que o GPT-4 Turbo, enquanto oferece um desempenho superior em idiomas além do inglês e em tarefas de visão, definindo novos parâmetros de comparação para os recursos de IA.

Como fazer para acessar os modelos do GPT-4o e GPT-4o mini?

O GPT-4o e GPT-4o mini estão disponíveis para implantação de modelo padrão e padrão global.

Você deve criar ou usar um recurso já existente em uma região que seja padrão com suporte ou padrão global, onde o modelo está disponível.

Após a criação do recurso, será possível implantar os modelos do GPT-4o. Se você estiver executando uma implantação programática, os nomes dos modelos serão:

  • gpt-4o Versão 2024-08-06
  • gpt-4o, Versão 2024-05-13
  • gpt-4o-mini Versão 2024-07-18

GPT-4 Turbo

O GPT-4 Turbo é um modelo multimodal grande (aceitando entradas de texto ou imagem e gerando texto) que pode resolver problemas difíceis com maior precisão do que qualquer um dos modelos anteriores do OpenAI. Assim como o GPT-3.5 Turbo e os modelos GPT-4 Turbo mais antigos, o GPT-4 Turbo é otimizado para chat e funciona bem para tarefas de conclusão tradicionais.

A última versão GA do GPT-4 Turbo é:

  • gpt-4 Versão: turbo-2024-04-09

Essa é a substituição dos seguintes modelos de versão prévia:

  • gpt-4 Versão: 1106-Preview
  • gpt-4 Versão: 0125-Preview
  • gpt-4 Versão: vision-preview

Diferenças entre os modelos OpenAI e Azure OpenAI GPT-4 Turbo GA

  • A versão mais recente do modelo turbo 0409 do OpenAI suporta o modo JSON e chamadas de função para todas as solicitações de inferência.
  • A versão do OpenAI do Azure do turbo-2024-04-09 mais recente no momento não dá suporte ao uso do modo JSON e chamadas de função ao fazer solicitações de inferência com entrada de imagem (visão). As solicitações de entrada baseadas em texto (solicitações sem image_url e imagens embutidas) dão suporte ao modo JSON e à chamada de função.

Diferenças do gpt-4 vision-preview

  • A integração de aprimoramentos específicos do IA do Azure Vision com GPT-4 Turbo com Vision não é suportada para gpt-4 Versão: turbo-2024-04-09. Isso inclui Reconhecimento Óptico de Caracteres (OCR), ancoragem de objetos, solicitações de vídeo e melhor manuseio dos seus dados com imagens.

Disponibilidade gerenciada provisionada do GPT-4 Turbo

  • gpt-4 Versão: turbo-2024-04-09 está disponível para implantações padrão e provisionadas. Atualmente, a versão provisionada deste modelo não dá suporte a solicitações de inferência de imagem/visão. As implantações provisionadas deste modelo aceitam apenas a entrada de texto. As implantações de modelo Standard aceitam solicitações de inferência de texto e imagem/visão.

Implantar o GPT-4 Turbo com Visão GA

Para implantar o modelo GA na interface do usuário do Estúdio, selecione GPT-4 e escolha a versão turbo-2024-04-09 no menu suspenso. A cota padrão para o modelo gpt-4-turbo-2024-04-09 será a mesma da cota atual para o GPT-4-Turbo. Consulte os limites de cota regional.

GPT-4

O GPT-4 é o antecessor do GPT-4 Turbo. Tanto os modelos GPT-4 quanto os modelos GPT-4 Turbo têm um nome de modelo base de gpt-4. Você pode distinguir entre os modelos GPT-4 e Turbo examinando a versão do modelo.

  • gpt-4 Versão 0314
  • gpt-4 Versão 0613
  • gpt-4-32k Versão 0613

Você pode ver o comprimento do contexto do token compatível com cada modelo na tabela de resumo do modelo.

Modelos de GPT-4 e GPT-4 Turbo

  • Esses modelos só podem ser usados com a API de Conclusão de Chat.

Consulte as versões de modelo para saber mais sobre como o Serviço OpenAI do Azure lida com atualizações de versão de modelo e trabalhando com modelos, para saber como exibir e definir as configurações de versão do modelo de suas implantações GPT-4.

ID do Modelo Descrição Máx. de solicitações (tokens) Dados de treinamento (até)
gpt-4o (2024-08-06)
GPT-4o (Omni)
Modelo em GA maior mais recente
– Saídas estruturadas
- Processamento de imagem, texto
– Modo JSON
– chamada de função paralela
- Precisão e capacidade de resposta aprimoradas
- Paridade com o texto em inglês e tarefas de codificação em comparação ao GPT-4 Turbo com o Visão
- Desempenho superior em idiomas além do inglês e em tarefas de visão
Input: 128,000
Saída: 16.384
Outubro de 2023
gpt-4o-mini (18/07/2024)
GPT-4o mini
Modelo em GA menor mais recente
- Modelo rápido, barato e capaz, ideal para substituir modelos da série GPT-3.5 Turbo.
- Processamento de imagem, texto
– Modo JSON
– chamada de função paralela
Input: 128,000
Saída: 16.384
Outubro de 2023
gpt-4o (2024-05-13)
GPT-4o (Omni)
– Processamento de imagem, texto
– Modo JSON
– chamada de função paralela
- Precisão e capacidade de resposta aprimoradas
- Paridade com o texto em inglês e tarefas de codificação em comparação ao GPT-4 Turbo com o Visão
- Desempenho superior em idiomas além do inglês e em tarefas de visão
Input: 128,000
Output: 4,096
Outubro de 2023
gpt-4 (turbo-2024-04-09)
GPT-4 Turbo com Visão
Novo modelo em disponibilidade geral
- Substituição de todos os modelos de versão prévia do GPT-4 anteriores (vision-preview, 1106-Preview, ). 0125-Preview
Atualmente, a - disponibilidade do recurso é diferente dependendo do método de entrada e do tipo de implantação.
Input: 128,000
Output: 4,096
dez. de 2023
gpt-4 (0125-Preview)*
Versão prévia do GPT-4 Turbo
Modelo de versão prévia
– Substitui 1106-Preview
– Melhor desempenho de geração de código
– Reduz casos em que o modelo não conclui uma tarefa
– Modo JSON
– chamada de função paralela
– saída reproduzível (versão prévia)
Input: 128,000
Output: 4,096
dez. de 2023
gpt-4 (vision-preview)
Versão prévia do GPT-4 Turbo com Visão
Modelo de versão prévia
– Aceita entrada de texto e imagem.
– Dá suporte a aprimoramentos
– Modo JSON
– chamada de função paralela
– saída reproduzível (versão prévia)
Input: 128,000
Output: 4,096
Abril de 2023
gpt-4 (1106-preview)
Versão prévia do GPT-4 Turbo
Modelo de versão prévia
– Modo JSON
– chamada de função paralela
– saída reproduzível (versão prévia)
Input: 128,000
Output: 4,096
Abril de 2023
gpt-4-32k (0613) Modelo de GA mais antigo
– Chamada de função básica com ferramentas
32.768 Setembro de 2021
gpt-4 (0613) Modelo de GA mais antigo
– Chamada de função básica com ferramentas
8\.192 Setembro de 2021
gpt-4-32k(0314) Modelo de GA mais antigo
- Informações sobre desativação
32.768 Setembro de 2021
gpt-4 (0314) Modelo de GA mais antigo
- Informações sobre desativação
8\.192 Setembro de 2021

Cuidado

Não recomendamos o uso desses modelos de versão prévia em produção. Atualizaremos todas as implantações de modelos de versão prévia para versões prévias futuras ou para a versão GA mais recente. Os modelos de visualização designados não seguem o ciclo de vida padrão do modelo do Azure OpenAI.

  • GPT-4 versão 0125-preview é uma versão atualizada da versão prévia do GPT-4 Turbo lançada anteriormente como versão 1106-preview.
  • O GPT-4 versão 0125-preview conclui tarefas como a geração de código mais completamente em comparação com o gpt-4-1106-preview. Por isso, dependendo da tarefa, os clientes podem descobrir que o GPT-4-0125-preview gera mais saída em comparação com o gpt-4-1106-preview. Recomendamos que os clientes comparem as saídas do novo modelo. O GPT-4-0125-preview também aborda bugs no gpt-4-1106-preview com manipulação UTF-8 para idiomas diferentes do inglês.
  • A versão GPT-4 turbo-2024-04-09 é a versão GA mais recente e substitui 0125-Preview, 1106-preview e vision-preview.

Importante

As versões GPT-4 (gpt-4) 1106-Preview, 0125-Previewe vision-preview serão atualizadas com uma versão estável de gpt-4 no futuro.

  • As implantações de gpt-4 versões 1106-Preview, 0125-Previewe vision-preview definidas como "Atualização automática para padrão" e "Atualização quando expirada" começarão a ser atualizadas após o lançamento da versão estável. Para cada implantação, ocorre uma atualização da versão do modelo sem interrupção do serviço para chamadas de API. As atualizações são realizadas por região e espera-se que o processo completo de atualização leve 2 semanas.
  • As implantações de gpt-4 versões 1106-Preview, 0125-Previewe vision-preview definidas como "Sem autoupgrade" não serão atualizadas e interromperão a operação quando a versão prévia for atualizada na região. Confira Desativações e preterições do modelo do OpenAI do Azure para obter mais informações sobre o cronograma da atualização.

GPT-3.5

Os modelos GPT-3.5 conseguem entender e gerar linguagem natural ou código. O modelo mais capaz e mais econômico da família GPT-3.5 é o GPT-3.5 Turbo, que foi otimizado para chat e também funciona bem para tarefas de preenchimento tradicionais. O GPT-3.5 Turbo está disponível para uso com a API de Conclusão de Chat. O GPT-3.5 Turbo Instruct tem recursos semelhantes ao text-davinci-003 usando a API de Conclusão em vez da API de Conclusão de Chat. Recomendamos o uso do GPT-3.5 Turbo e do GPT-3.5 Turbo Instruct em vez dos modelos herdados GPT-3.5 e GPT-3.

ID do Modelo Descrição Máx. de solicitações (tokens) Dados de treinamento (até)
gpt-35-turbo (0125) NOVO Modelo GA mais recente
– Modo JSON
– chamada de função paralela
– saída reproduzível (versão prévia)
– Maior precisão na resposta nos formatos solicitados.
– Correção de um bug que causou um problema de codificação de texto em chamadas de função em idiomas que não o inglês.
Input: 16,385
Output: 4,096
Setembro de 2021
gpt-35-turbo (1106) Modelo de GA mais antigo
– Modo JSON
– chamada de função paralela
– saída reproduzível (versão prévia)
Input: 16,385
Output: 4,096
Setembro de 2021
gpt-35-turbo-instruct (0914) Somente ponto de extremidade de conclusão
— Substituição de modelos de preenchimento herdados
4,097 Setembro de 2021
gpt-35-turbo-16k (0613) Modelo de GA mais antigo
– Chamada de função básica com ferramentas
16.384 Setembro de 2021
gpt-35-turbo (0613) Modelo de GA mais antigo
– Chamada de função básica com ferramentas
4\.096 Setembro de 2021
gpt-35-turbo1 (0301) Modelo de GA mais antigo
- Informações sobre desativação
4\.096 Setembro de 2021

Para saber mais sobre como interagir com o GPT-3.5 Turbo e a API de Preenchimentos de Chat, confira nossas instruções passo a passo aprofundadas.

1 Esse modelo aceitará solicitações > 4.096 tokens. Não é recomendável exceder o limite de 4.096 tokens de entrada, pois a versão mais recente do modelo é limitada a 4.096 tokens. Se você encontrar problemas ao exceder 4.096 tokens de entrada com esse modelo, essa configuração não terá suporte oficial.

Incorporações

text-embedding-3-large é o modelo de inserção mais recente e mais capaz. A atualização entre modelos de inserções não é possível. Para passar do uso de text-embedding-ada-002 para text-embedding-3-large, você precisaria gerar novas inserções.

  • text-embedding-3-large
  • text-embedding-3-small
  • text-embedding-ada-002

Em testes, o OpenAI relata que os modelos de inserções de terceira geração grandes e pequenos oferecem melhor desempenho médio de recuperação de vários idiomas com o parâmetro de comparação MIRACL, mantendo ainda o desempenho para tarefas em inglês com o parâmetro de comparação MTEB.

Benchmark de avaliação text-embedding-ada-002 text-embedding-3-small text-embedding-3-large
Média MIRACL 31,4 44,0 54.9
Média MTEB 61,0 62,3 64,6

Os modelos de inserções de terceira geração dão suporte à redução do tamanho da inserção por meio de um novo parâmetro dimensions. Normalmente, inserções maiores são mais caras de uma perspectiva de computação, memória e armazenamento. Ser capaz de ajustar o número de dimensões permite mais controle sobre o custo e o desempenho gerais. Não há suporte para o parâmetro dimensions em todas as versões da biblioteca OpenAI 1.x Python. Para aproveitar esse parâmetro, recomendamos atualizar para a versão mais recente: pip install openai --upgrade.

O teste de parâmetro de comparação MTEB da OpenAI constatou que, mesmo quando as dimensões do modelo de terceira geração são reduzidas para menos de 1.536 dimensões de text-embeddings-ada-002, o desempenho permanece ligeiramente melhor.

DALL-E

Os modelos DALL-E geram imagens a partir de prompts de texto fornecidos pelo usuário. DALL-E 3 está geralmente disponível para uso com APIs REST. DALL-E 2 e DALL-E 3 com SDKs de cliente estão em versão prévia.

Whisper

Os modelos do Whisper podem ser usados para conversão de fala em texto.

Use também o modelo Whisper por meio da API de transcrição em lote da Fala de IA do Azure. ConsulteO que é o modelo Whisper? para saber mais sobre quando usar a Fala de IA do Azure versus o Serviço OpenAI do Azure.

Conversão de texto em fala (versão prévia)

Os modelos de conversão de texto em fala do OpenAI, atualmente em versão prévia, podem ser usado para sintetizar a conversão de texto em fala.

Você também pode usar as vozes da conversão de texto em fala do OpenAI por meio da Fala de IA do Azure. Para saber mais, consulte o guia Vozes da conversão de texto em fala do OpenAI por meio do Serviço OpenAI do Azure ou Fala de IA do Azure.

Tabela de resumo de modelos e disponibilidade por região

Modelos por tipo de implantação

O OpenAI do Azure fornece aos clientes opções sobre a estrutura de hospedagem que se ajusta aos seus padrões de negócios e de uso. O serviço oferece dois tipos principais de implantação:

  • O tipo Standard é oferecido com uma opção de implantação global, roteando o tráfego globalmente para fornecer uma taxa de transferência mais alta.
  • O tipo Provisionado também é oferecido com uma opção de implantação global, permitindo que os clientes comprem e implantem unidades de produtividade provisionadas em toda a infraestrutura global do Azure.

Todas as implantações podem executar exatamente as mesmas operações de inferência; no entanto, a cobrança, a escala e o desempenho são substancialmente diferentes. Para saber mais sobre os tipos de implantação do OpenAI do Azure, confira nosso guia de tipos de implantação.

Disponibilidade de modelo padrão global

Região o1-preview, 2024-09-12 o1-mini, 2024-09-12 gpt-4o, 2024-05-13 gpt-4o, 2024-08-06 gpt-4o-mini, 2024-07-18 gpt-4o-realtime-preview, 2024-10-01 gpt-4, turbo-2024-04-09
australiaeast - - - -
brazilsouth - - - -
canadaeast - - - -
eastus -
eastus2
francecentral - - - -
germanywestcentral - - - -
japaneast - - - -
koreacentral - - - -
northcentralus -
norwayeast - - - -
polandcentral - - - -
southafricanorth - - - -
southcentralus -
southindia - - - -
spaincentral - - -
swedencentral
switzerlandnorth - - - -
uksouth - - - -
westeurope - - - -
westus -
westus3 -

Essa tabela não inclui informações de ajuste fino de disponibilidade regional. Consulte a seção de ajuste fino para obter essas informações.

Disponibilidade padrão do modelo de zona de dados

Selecione o acesso do cliente

Além das regiões acima que estão disponíveis para todos os clientes do Azure OpenAI, alguns clientes pré-existentes selecionados receberam acesso a versões do GPT-4 in regiões adicionais:

Modelar Região da zona de dados de dólar americano Região da zona de dados de euro
gpt-4o(06/08/2024)
gpt-4o(13/05/2024)
Leste dos EUA 2
Oeste dos EUA 3
Espanha Central
Europa Ocidental
gpt-4o-mini (18/07/2024) Leste dos EUA 2
Oeste dos EUA 3
Espanha Central
Europa Ocidental

Modelos Standard por ponto de extremidade

Preenchimentos de chat

Região o1-preview, 2024-09-12 o1-mini, 2024-09-12 gpt-4o, 2024-05-13 gpt-4o, 2024-08-06 gpt-4o-mini, 2024-07-18 gpt-4, 0613 gpt-4, 1106-Preview gpt-4, 0125-Preview gpt-4, vision-preview gpt-4, turbo-2024-04-09 gpt-4-32k, 0613 gpt-35-turbo, 0301 gpt-35-turbo, 0613 gpt-35-turbo, 1106 gpt-35-turbo, 0125 gpt-35-turbo-16k, 0613
australiaeast - - - - - - - - -
canadaeast - - - - - - - - -
eastus - - - - -
eastus2 - - - - - -
francecentral - - - - - - - - -
japaneast - - - - - - - - - - - -
northcentralus - - - - - -
norwayeast - - - - - - - - - - - - - - -
southcentralus - - - - - - -
southindia - - - - - - - - - - - - - -
swedencentral - - -
switzerlandnorth - - - - - - - - - - -
uksouth - - - - - - - - -
westeurope - - - - - - - - - - - - - - -
westus - - - - - -
westus3 - - - - - - - -

Disponibilidade do modelo GPT-4 e GPT-4 Turbo

Selecione o acesso do cliente

Além das regiões acima que estão disponíveis para todos os clientes do Azure OpenAI, alguns clientes pré-existentes selecionados receberam acesso a versões do GPT-4 in regiões adicionais:

Modelar Region
gpt-4 (0314)
gpt-4-32k (0314)
Leste dos EUA
França Central
Centro-Sul dos Estados Unidos
Sul do Reino Unido
gpt-4 (0613)
gpt-4-32k (0613)
Leste dos EUA
Leste dos EUA 2
Leste do Japão
Sul do Reino Unido

Modelos GPT-3.5

Consulte versões de modelo para saber mais sobre como o Serviço OpenAI do Azure lida com atualizações de versão de modelo e trabalhando com modelos, para saber como exibir e definir as configurações de versão do modelo de suas implantações do GPT-3.5 Turbo.

Modelos de ajuste fino

Observação

gpt-35-turbo: o ajuste fino desse modelo é limitado a um subconjunto de regiões e não está disponível em todas as regiões em que o modelo base está.

As regiões compatíveis para o ajuste fino podem variar ao usar modelos do OpenAI do Azure em um projeto do AI Studio ou fora dele.

ID do Modelo Regiões com ajuste fino Máx. de solicitações (tokens) Dados de treinamento (até)
babbage-002 Centro-Norte dos EUA
Suécia Central
Oeste da Suíça
16.384 Setembro de 2021
davinci-002 Centro-Norte dos EUA
Suécia Central
Oeste da Suíça
16.384 Setembro de 2021
gpt-35-turbo (0613) Leste dos EUA 2
Centro-Norte dos EUA
Suécia Central
Oeste da Suíça
4\.096 Setembro de 2021
gpt-35-turbo (1106) Leste dos EUA 2
Centro-Norte dos EUA
Suécia Central
Oeste da Suíça
Input: 16,385
Output: 4,096
Setembro de 2021
gpt-35-turbo (0125) Leste dos EUA 2
Centro-Norte dos EUA
Suécia Central
Oeste da Suíça
16.385 Setembro de 2021
gpt-4 (0613) 1 Centro-Norte dos EUA
Suécia Central
8192 Setembro de 2021
gpt-4o-mini 1 (2024-07-18) Centro-Norte dos EUA
Suécia Central
Input: 128,000
Saída: 16.384
Comprimento do contexto do exemplo de treinamento: 64.536
Outubro de 2023
gpt-4o 1 (2024-08-06) Leste dos EUA 2
Centro-Norte dos EUA
Suécia Central
Input: 128,000
Saída: 16.384
Comprimento do contexto do exemplo de treinamento: 64.536
Outubro de 2023

No momento, 1 GPT-4 está em visualização pública.

Assistentes (versão prévia)

Para Assistentes, você precisa de uma combinação de um modelo com suporte e uma região com suporte. Determinadas ferramentas e funcionalidades exigem os modelos mais recentes. Os modelos a seguir estão disponíveis na API dos Assistentes, no SDK e no Estúdio de IA do Azure. A tabela a seguir é para pagamento conforme o uso. Para obter informações sobre a disponibilidade da unidade de produtividade provisionado (PTU), veja rendimento provisionado. Os modelos e regiões listados podem ser usados com os Assistentes v1 e v2. Você pode usar modelos padrão globais se eles forem compatíveis com as regiões listadas abaixo.

Region gpt-35-turbo (0613) gpt-35-turbo (1106) fine tuned gpt-3.5-turbo-0125 gpt-4 (0613) gpt-4 (1106) gpt-4 (0125) gpt-4o (2024-05-13) gpt-4o-mini (2024-07-18)
Leste da Austrália
Leste dos EUA
Leste dos EUA 2
França Central
Leste do Japão
Leste da Noruega
Suécia Central
Sul do Reino Unido
Oeste dos EUA
Oeste dos EUA 3

Aposentadoria do modelo

Para obter as informações mais recentes sobre descontinuações modelo, consulte o guia de descontinuação modelo.

Próximas etapas