O que é o Serviço OpenAI do Azure?

O Serviço OpenAI do Azure fornece acesso à API REST aos poderosos modelos de linguagem do OpenAI, incluindo o1-preview, o1-mini, GPT-4o, GPT-4o mini, GPT-4 Turbo com Vision, GPT-4, GPT-3.5-Turbo e séries de modelos Embeddings. Esses modelos podem ser facilmente adaptados à sua tarefa específica, incluindo, entre outros, geração de conteúdo, sumarização, reconhecimento de imagem, pesquisa semântica e tradução de linguagem natural para código. Os usuários podem acessar o serviço por meio de APIs REST, SDK do Python ou no Estúdio de IA do Azure.

Visão geral dos recursos

Recurso OpenAI do Azure
Modelos disponíveis o1-preview & o1-mini - (Acesso limitado - Solicitar Acesso)
GPT-4o e GPT-4o mini
Série GPT-4 (incluindo GPT-4 Turbo com Visão)
GPT-3.5-Turbo series
Série Incorporações
Saiba mais em nossa página Modelos.
Ajuste fino GPT-4o-mini (versão prévia)
GPT-4 (versão prévia)
GPT-3.5-Turbo (0613)
babbage-002
davinci-002.
Preço Disponível aqui
Para obter detalhes sobre o GPT-4 Turbo com a Visão, confira as informações de preços especiais.
Suporte à rede virtual e suporte ao link privado Sim.
Identidade Gerenciada Sim, via ID do Microsoft Entra
Experiência de interface do usuário Portal do Azure para gerenciamento de conta e recursos,
Estúdio de IA do Azure para exploração de modelos e ajuste fino
Modelo de disponibilidade regional Modelo de disponibilidade
Filtragem de conteúdo As solicitações e conclusões são avaliadas em relação à nossa política de conteúdo com sistemas automatizados. Conteúdo de severidade alta será filtrado.

IA responsável

Na Microsoft, estamos comprometidos com o avanço da IA orientado por princípios que colocam as pessoas em primeiro lugar. Modelos generativos como os disponíveis no OpenAI do Azure têm benefícios potenciais significativos, mas sem um design cuidadoso e mitigações criteriosas, esses modelos têm o potencial de gerar conteúdo incorreto ou até prejudicial. A Microsoft fez investimentos significativos para ajudar a proteger contra abusos e danos não intencionais, o que inclui a incorporação dos princípios de uso responsável de IA da Microsoft, a adoção de um Código de Conduta para uso do serviço, a criação de filtros de conteúdo para dar suporte aos clientes e o fornecimento de informações e diretrizes de IA responsável que os clientes devem considerar ao usar o Azure OpenAI.

Como obter acesso ao OpenAI do Azure?

Um formulário de registro de acesso limitado não é necessário para acessar a maioria dos modelos do OpenAI do Azure. Saiba mais na página Acesso limitado do OpenAI do Azure.

Comparar o OpenAI do Azure e o OpenAI

O Serviço Azure OpenAI oferece aos clientes IA de linguagem avançada com os modelos OpenAI GPT-4, GPT-3, Codex, DALL-E, Whisper e conversão de texto para fala com a segurança e a promessa empresarial do Azure. O OpenAI do Azure co-desenvolve as APIs com o OpenAI, garantindo compatibilidade e uma transição uniforme de uma para a outra.

Com o OpenAI do Azure, os clientes obtêm os recursos de segurança do Microsoft Azure enquanto executam os mesmos modelos que o OpenAI. O OpenAI do Azure oferece rede privada, disponibilidade regional e filtragem de conteúdo de IA responsável.

Conceitos principais

Solicitações e conclusões

O ponto de extremidade de conclusões é o componente principal do serviço de API. Essa API fornece acesso à interface entrada e saída do modelo. Os usuários precisam apenas fornecer um prompt de entrada contendo o comando de texto em inglês e o modelo gerará uma conclusão de texto.

Este é um exemplo de prompt e conclusão simples:

Prompt: """ count to 5 in a for loop """

Conclusão: for i in range(1, 6): print(i)

Tokens

Tokens de texto

O OpenAI do Azure processa o texto dividindo-o em tokens. Os tokens podem ser palavras ou apenas partes de caracteres. Por exemplo, a palavra "hambúrguer" é dividida nos tokens "ham", "bur" e "ger", enquanto uma palavra curta e comum como "pera" é um só token. Muitos tokens começam com um espaço, por exemplo, " hello" e " bye".

O número total de tokens processados em uma determinada solicitação depende do comprimento dos parâmetros de entrada, saída e solicitação. A quantidade de tokens sendo processados também afetará a latência de resposta e a taxa de transferência dos modelos.

Tokens de imagem (GPT-4 Turbo com Visão e GPT-4o)

O custo do token de uma imagem de entrada depende de dois fatores principais: o tamanho da imagem e a configuração de detalhes (baixa ou alta) usada para cada imagem. Veja um detalhamento de como isso funciona:

  • Detalhe: modo de baixa resolução

    • O uso de poucos detalhes permite que a API retorne respostas mais rápidas e consuma menos tokens de entrada para casos de uso que não exigem muitos detalhes.
    • Essas imagens custam 85 tokens cada uma, independentemente do tamanho da imagem.
    • Exemplo: imagem 4096 x 8192 (poucos detalhes): o custo é de 85 tokens fixos, porque é uma imagem de poucos detalhes e o tamanho não afeta o custo nesse modo.
  • Detalhe: modo de alta resolução

    • O uso de muitos detalhes permite que a API veja a imagem com mais detalhes, cortando-a em quadrados menores. Cada quadrado usa mais tokens para gerar o texto.
    • O custo do token é calculado por uma série de etapas de escala:
      1. A imagem é escalada pela primeira vez para se ajustar a um quadrado 2048 x 2048, mantendo a taxa de proporção.
      2. Em seguida, a imagem é reduzida verticalmente para que o lado mais curto tenha 768 pixels de comprimento.
      3. A imagem é dividida em blocos quadrados de 512 pixels, e o número desses blocos (arredondando para blocos parciais) determina o custo final. Cada bloco custa 170 tokens.
      4. Mais 85 tokens são adicionados ao custo total.
    • Exemplo: imagem 2048 x 4096 (muitos detalhes)
      1. Inicialmente redimensionada para 1024 x 2048 para se ajustar ao quadrado de 2048.
      2. Redimensionada para 768 x 1536.
      3. Exige seis blocos de 512px para cobertura.
      4. O custo total são 170 × 6 + 85 = 1105 tokens.

Recursos

O OpenAI do Azure é uma nova oferta de produto no Azure. Você pode começar a usar o OpenAI do Azure assim ao criar um recurso ou uma instância do serviço em sua Assinatura do Azure. Leia mais sobre o design de gerenciamento de recursos do Azure.

Implantações

Depois de criar um recurso do OpenAI do Azure, você precisa implantar um modelo para começar a fazer chamadas à API e gerar texto. Essa ação pode ser feita usando as APIs de Implantação. Essas APIs permitem que você especifique o modelo que deseja usar.

Engenharia de prompt

Os modelos GPT-3, GPT-3.5 e GPT-4 do OpenAI são baseados em prompt. Com modelos baseados em prompt, o usuário interage com o modelo inserindo um prompt de texto, ao qual o modelo responde com um preenchimento de texto. Esse preenchimento é a continuação do texto de entrada do modelo.

Embora esses modelos sejam extremamente poderosos, seu comportamento também é muito sensível ao prompt. Isso faz com que a engenharia de prompt seja uma habilidade importante a ser desenvolvida.

A criação de prompt pode ser complexa. Na prática, o prompt atua para configurar os pesos do modelo para concluir a tarefa desejada. É mais uma arte do que uma ciência, muitas vezes exigindo experiência e intuição para criar um prompt bem-sucedido.

Modelos

O serviço fornece aos usuários acesso a muitos modelos diferentes. Cada modelo fornece uma funcionalidade e um ponto de preço diferentes.

Os modelos DALL-E (alguns em versão prévia; confira modelos) geram imagens a partir de solicitações de texto que o usuário fornece.

Os modelos Whisper podem ser usados para transcrever e traduzir fala em texto.

Os modelos de texto para fala, atualmente em pré-visualização, podem ser usados para sintetizar conversão de texto para fala.

Saiba mais sobre cada modelo em nossa página de conceito de modelos.

Próximas etapas

Saiba mais sobre os modelos subjacentes que alimentam o OpenAI do Azure.