O que é o Serviço OpenAI do Azure?

O Serviço OpenAI do Azure fornece acesso à API REST aos poderosos modelos de linguagem do OpenAI, incluindo o1-preview, o1-mini, GPT-4o, GPT-4o mini, GPT-4 Turbo com Vision, GPT-4, GPT-3.5-Turbo e séries de modelos Embeddings. Esses modelos podem ser facilmente adaptados à sua tarefa específica, incluindo, entre outros, geração de conteúdo, sumarização, reconhecimento de imagem, pesquisa semântica e tradução de linguagem natural para código. Os usuários podem acessar o serviço por meio de APIs REST, SDK do Python ou no Estúdio de IA do Azure.

Visão geral dos recursos

Recurso OpenAI do Azure
Modelos disponíveis o1-preview & o1-mini - (Acesso limitado - Solicitar Acesso)
GPT-4o e GPT-4o mini
Série GPT-4 (incluindo GPT-4 Turbo com Visão)
GPT-3.5-Turbo series
Série Incorporações
Saiba mais em nossa página Modelos.
Ajuste fino GPT-4o-mini (versão prévia)
GPT-4 (versão prévia)
GPT-3.5-Turbo (0613)
babbage-002
davinci-002.
Preço Disponível aqui
Para obter detalhes sobre o GPT-4 Turbo com a Visão, confira as informações de preços especiais.
Suporte à rede virtual e suporte ao link privado Sim.
Identidade Gerenciada Sim, via ID do Microsoft Entra
Experiência de interface do usuário Portal do Azure para gerenciamento de conta e recursos,
Estúdio de IA do Azure para exploração de modelos e ajuste fino
Modelo de disponibilidade regional Modelo de disponibilidade
Filtragem de conteúdo As solicitações e conclusões são avaliadas em relação à nossa política de conteúdo com sistemas automatizados. Conteúdo de severidade alta será filtrado.

IA responsável

Na Microsoft, estamos comprometidos com o avanço da IA orientado por princípios que colocam as pessoas em primeiro lugar. Modelos generativos como os disponíveis no OpenAI do Azure têm benefícios potenciais significativos, mas sem um design cuidadoso e mitigações criteriosas, esses modelos têm o potencial de gerar conteúdo incorreto ou até prejudicial. A Microsoft fez investimentos significativos para ajudar a proteger contra abusos e danos não intencionais, o que inclui a incorporação dos princípios de uso responsável de IA da Microsoft, a adoção de um Código de Conduta para uso do serviço, a criação de filtros de conteúdo para dar suporte aos clientes e o fornecimento de informações e diretrizes de IA responsável que os clientes devem considerar ao usar o Azure OpenAI.

Como obter acesso ao OpenAI do Azure?

Um formulário de registro de acesso limitado não é necessário para acessar a maioria dos modelos do OpenAI do Azure. Saiba mais na página Acesso limitado do OpenAI do Azure.

Comparar o OpenAI do Azure e o OpenAI

O Serviço Azure OpenAI oferece aos clientes IA de linguagem avançada com os modelos OpenAI GPT-4, GPT-3, Codex, DALL-E, Whisper e conversão de texto para fala com a segurança e a promessa empresarial do Azure. O OpenAI do Azure co-desenvolve as APIs com o OpenAI, garantindo compatibilidade e uma transição uniforme de uma para a outra.

Com o OpenAI do Azure, os clientes obtêm os recursos de segurança do Microsoft Azure enquanto executam os mesmos modelos que o OpenAI. O OpenAI do Azure oferece rede privada, disponibilidade regional e filtragem de conteúdo de IA responsável.

Conceitos principais

Solicitações e conclusões

O ponto de extremidade de conclusões é o componente principal do serviço de API. Essa API fornece acesso à interface entrada e saída do modelo. Os usuários precisam apenas fornecer um prompt de entrada contendo o comando de texto em inglês e o modelo gerará uma conclusão de texto.

Este é um exemplo de prompt e conclusão simples:

Prompt: """ count to 5 in a for loop """

Conclusão: for i in range(1, 6): print(i)

Tokens

Tokens de texto

O OpenAI do Azure processa o texto dividindo-o em tokens. Os tokens podem ser palavras ou apenas partes de caracteres. Por exemplo, a palavra "hambúrguer" é dividida nos tokens "ham", "bur" e "ger", enquanto uma palavra curta e comum como "pera" é um só token. Muitos tokens começam com um espaço, por exemplo, " hello" e " bye".

O número total de tokens processados em uma determinada solicitação depende do comprimento dos parâmetros de entrada, saída e solicitação. A quantidade de tokens sendo processados também afetará a latência de resposta e a taxa de transferência dos modelos.

Tokens de imagem

Os recursos de processamento de imagem do OpenAI do Azure com GPT-4o, GPT-4o mini e GPT-4 Turbo com modelos de Visão usam a geração de tokens de imagem para determinar o número total de tokens consumidos por entradas de imagem. O número de tokens consumidos é calculado com base em dois fatores principais: o nível de detalhes da imagem (baixo ou alto) e as dimensões da imagem. Veja como os custos do token são calculados:

  • Modo de baixa resolução
    • Poucos detalhes permitem que a API retorne respostas mais rápidas para cenários que não exigem análise de alta resolução de imagem. Os tokens consumidos para imagens com poucos detalhes são:
      • GPT-4o e GPT-4 Turbo com Visão: taxa fixa de 85 tokens por imagem, independentemente do tamanho.
      • GPT-4o mini: taxa fixa de 2833 tokens por imagem, independentemente do tamanho.
    • Exemplo: imagem 4096 x 8192 (poucos detalhes): o custo é de 85 tokens fixos, porque é uma imagem de poucos detalhes e o tamanho não afeta o custo nesse modo.
  • Modo de alta resolução
    • Poucos detalhes permitem que a API analise imagens com mais detalhes. Os tokens de imagem são calculados com base nas dimensões da imagem. O cálculo envolve as seguintes etapas:
      1. Redimensionamento de imagem: a imagem é redimensionada para caber dentro de um quadrado de 2048 x 2048 pixels. Se o lado mais curto for maior que 768 pixels, a imagem será redimensionada para que o lado mais curto tenha 768 pixels de comprimento. A taxa de proporção é preservada durante o redimensionamento.
      2. Cálculo de peça: uma vez redimensionada, a imagem é dividida em peças de 512 x 512 pixels. Todas as peças parciais são arredondados para uma peça completa. O número de peças determina o custo total do token.
      3. Cálculo de token:
        • GPT-4o e GPT-4 Turbo com Visão: cada peça de 512 x 512 pixels custa 170 tokens. 85 tokens base extras são adicionados ao total.
        • GPT-4o mini: cada peça de 512 x 512 pixels custa 5.667 tokens. 2.833 tokens base extras são adicionados ao total.
    • Exemplo: imagem 2048 x 4096 (muitos detalhes):
      1. A imagem é inicialmente redimensionada para 1024 x 2048 pixels para caber dentro do quadrado de 2048 x 2048 pixels.
      2. A imagem é redimensionada para 768 x 1536 pixels para garantir que o lado mais curto tenha no máximo 768 pixels de comprimento.
      3. A imagem é dividida em 2 x 3 peças, cada um com 512 x 512 pixels.
      4. Cálculo final:
        • Para GPT-4o e GPT-4 Turbo com Visão, o custo total do token é de 6 peças x 170 tokens por peça + 85 tokens base = 1.105 tokens.
        • Para GPT-4o mini, o custo total do token é de 6 peças x 5.667 tokens por peça + 2.833 tokens base = 36.835 tokens.

Recursos

O OpenAI do Azure é uma nova oferta de produto no Azure. Você pode começar a usar o OpenAI do Azure assim ao criar um recurso ou uma instância do serviço em sua Assinatura do Azure. Leia mais sobre o design de gerenciamento de recursos do Azure.

Implantações

Depois de criar um recurso do OpenAI do Azure, você precisa implantar um modelo para começar a fazer chamadas à API e gerar texto. Essa ação pode ser feita usando as APIs de Implantação. Essas APIs permitem que você especifique o modelo que deseja usar.

Engenharia de prompt

Os modelos GPT-3, GPT-3.5 e GPT-4 do OpenAI são baseados em prompt. Com modelos baseados em prompt, o usuário interage com o modelo inserindo um prompt de texto, ao qual o modelo responde com um preenchimento de texto. Esse preenchimento é a continuação do texto de entrada do modelo.

Embora esses modelos sejam extremamente poderosos, seu comportamento também é muito sensível ao prompt. Isso faz com que a engenharia de prompt seja uma habilidade importante a ser desenvolvida.

A criação de prompt pode ser complexa. Na prática, o prompt atua para configurar os pesos do modelo para concluir a tarefa desejada. É mais uma arte do que uma ciência, muitas vezes exigindo experiência e intuição para criar um prompt bem-sucedido.

Modelos

O serviço fornece aos usuários acesso a muitos modelos diferentes. Cada modelo fornece uma funcionalidade e um ponto de preço diferentes.

Os modelos DALL-E (alguns em versão prévia; confira modelos) geram imagens a partir de solicitações de texto que o usuário fornece.

Os modelos Whisper podem ser usados para transcrever e traduzir fala em texto.

Os modelos de texto para fala, atualmente em pré-visualização, podem ser usados para sintetizar conversão de texto para fala.

Saiba mais sobre cada modelo em nossa página de conceito de modelos.

Próximas etapas

Saiba mais sobre os modelos subjacentes que alimentam o OpenAI do Azure.