O que é o Serviço Azure OpenAI?

O Serviço OpenAI do Azure fornece acesso à API REST aos poderosos modelos de linguagem da OpenAI, incluindo as séries de modelos o1-preview, o1-mini, GPT-4o, GPT-4o mini, GPT-4 Turbo with Vision, GPT-4, GPT-3.5-Turbo e Embeddings. Esses modelos podem ser facilmente adaptados à sua tarefa específica, incluindo, entre outros, geração de conteúdo, sumarização, compreensão de imagens, pesquisa semântica e tradução de linguagem natural para código. Os usuários podem acessar o serviço por meio de APIs REST, SDK do Python ou no Azure AI Studio.

Descrição geral das funcionalidades

Caraterística Azure OpenAI
Modelos disponíveis o1-preview & o1-mini - (Acesso Limitado - Solicitar Acesso)
GPT-4o & GPT-4o mini
Série GPT-4 (incluindo GPT-4 Turbo com Visão)
Série GPT-3.5-Turbo
Série de incorporações
Saiba mais na nossa página Modelos .
Ajuste GPT-4o-mini (pré-visualização)
GPT-4 (pré-visualização)
GPT-3.5-Turbo (0613)
babbage-002
davinci-002.
Preço Disponível aqui
Para obter detalhes sobre o GPT-4 Turbo com Vision, consulte as informações de preços especiais.
Suporte de rede virtual ou suporte de link privado Sim.
Identidade Gerida Sim, através do Microsoft Entra ID
Experiência de interface do usuário Portal do Azure para gerenciamento de conta e recursos,
Azure AI Studio para exploração e ajuste fino de modelos
Modelo de disponibilidade regional Disponibilidade do modelo
Filtragem de conteúdos Os prompts e as conclusões são avaliados em relação à nossa política de conteúdo com sistemas automatizados. O conteúdo de alta severidade será filtrado.

IA responsável

Na Microsoft, estamos comprometidos com o avanço da IA impulsionada por princípios que colocam as pessoas em primeiro lugar. Modelos generativos como os disponíveis no Azure OpenAI têm benefícios potenciais significativos, mas sem um design cuidadoso e mitigações cuidadosas, esses modelos têm o potencial de gerar conteúdo incorreto ou até mesmo prejudicial. A Microsoft fez investimentos significativos para ajudar a proteger contra abusos e danos não intencionais, o que inclui incorporar os princípios da Microsoft para o uso responsável da IA, adotar um Código de Conduta para o uso do serviço, criar filtros de conteúdo para dar suporte aos clientes e fornecer informações e orientações responsáveis de IA que os clientes devem considerar ao usar o Azure OpenAI.

Como faço para obter acesso ao Azure OpenAI?

Um formulário de registro de Acesso Limitado não é necessário para acessar a maioria dos modelos do Azure OpenAI. Saiba mais na página Acesso Limitado do Azure OpenAI.

Comparando o Azure OpenAI e o OpenAI

O Serviço OpenAI do Azure oferece aos clientes IA de linguagem avançada com OpenAI GPT-4, GPT-3, Codex, DALL-E, Whisper e modelos de texto para fala com a segurança e a promessa empresarial do Azure. O Azure OpenAI codesenvolve as APIs com o OpenAI, garantindo compatibilidade e uma transição suave de um para o outro.

Com o Azure OpenAI, os clientes obtêm os recursos de segurança do Microsoft Azure enquanto executam os mesmos modelos do OpenAI. O Azure OpenAI oferece rede privada, disponibilidade regional e filtragem responsável de conteúdo de IA.

Conceitos-chave

Prompts & conclusãos

O ponto de extremidade de conclusão é o componente principal do serviço de API. Esta API fornece acesso à interface text-in, text-out do modelo. Os usuários simplesmente precisam fornecer um prompt de entrada contendo o comando de texto em inglês, e o modelo gerará uma conclusão de texto.

Aqui está um exemplo de um prompt simples e conclusão:

Prompt: """ count to 5 in a for loop """

Conclusão: for i in range(1, 6): print(i)

Tokens

Fichas de texto

O Azure OpenAI processa texto dividindo-o em tokens. Os tokens podem ser palavras ou apenas segmentos de carateres. Por exemplo, a palavra "hambúrguer" é dividida nos tokens "ham", "bur" e "ger", enquanto uma palavra curta e comum como "pera" é um único token. Muitos tokens começam com um espaço em branco, por exemplo, "olá" e "tchau".

O número total de tokens processados em uma determinada solicitação depende do comprimento dos parâmetros de entrada, saída e solicitação. A quantidade de tokens que estão sendo processados também afetará sua latência de resposta e taxa de transferência para os modelos.

Fichas de imagem

Os recursos de processamento de imagem do Azure OpenAI com modelos GPT-4o, GPT-4o mini e GPT-4 Turbo with Vision usam a tokenização de imagem para determinar o número total de tokens consumidos por entradas de imagem. O número de tokens consumidos é calculado com base em dois fatores principais: o nível de detalhe da imagem (baixo ou alto) e as dimensões da imagem. Veja como os custos do token são calculados:

  • Modo de baixa resolução
    • O baixo detalhe permite que a API retorne respostas mais rápidas para cenários que não exigem análise de alta resolução de imagem. Os tokens consumidos para imagens de baixo detalhe são:
      • GPT-4o e GPT-4 Turbo com Visão: Taxa fixa de 85 tokens por imagem, independentemente do tamanho.
      • GPT-4o mini: Taxa fixa de 2833 tokens por imagem, independentemente do tamanho.
    • Exemplo: imagem 4096 x 8192 (detalhe baixo): O custo é de 85 tokens fixos, porque é uma imagem de baixo detalhe, e o tamanho não afeta o custo neste modo.
  • Modo de alta resolução
    • O baixo detalhe permite que a API analise imagens com mais detalhes. Os tokens de imagem são calculados com base nas dimensões da imagem. O cálculo envolve as seguintes etapas:
      1. Redimensionamento da imagem: A imagem é redimensionada para caber dentro de um quadrado de 2048 x 2048 pixels. Se o lado mais curto for maior que 768 pixels, a imagem será redimensionada para que o lado mais curto tenha 768 pixels de comprimento. A proporção é preservada durante o redimensionamento.
      2. Cálculo de blocos: Uma vez redimensionada, a imagem é dividida em blocos de 512 x 512 pixels. Todos os blocos parciais são arredondados para um bloco completo. O número de blocos determina o custo total do token.
      3. Cálculo do token:
        • GPT-4o e GPT-4 Turbo com Visão: Cada bloco de 512 x 512 pixels custa 170 tokens. Um extra 85 tokens base são adicionados ao total.
        • GPT-4o mini: Cada bloco de 512 x 512 pixels custa 5667 tokens. Um extra 2833 tokens base são adicionados ao total.
    • Exemplo: imagem 2048 x 4096 (detalhe alto):
      1. A imagem é inicialmente redimensionada para 1024 x 2048 pixels para caber dentro do quadrado de 2048 x 2048 pixels.
      2. A imagem é ainda redimensionada para 768 x 1536 pixels para garantir que o lado mais curto tenha no máximo 768 pixels de comprimento.
      3. A imagem é dividida em 2 x 3 blocos, cada um 512 x 512 pixels.
      4. Cálculo final:
        • Para GPT-4o e GPT-4 Turbo com Vision, o custo total do token é de 6 blocos x 170 tokens por bloco + 85 tokens base = 1105 tokens.
        • Para GPT-4o mini, o custo total do token é de 6 blocos x 5667 tokens por bloco + 2833 tokens base = 36835 tokens.

Recursos

O Azure OpenAI é uma nova oferta de produto no Azure. Pode começar a utilizar o Azure OpenAI da mesma forma que qualquer outro produto do Azure em que cria um recurso, ou instância do serviço, na sua Subscrição do Azure. Você pode ler mais sobre o design de gerenciamento de recursos do Azure.

Implementações

Depois de criar um recurso do Azure OpenAI, você deve implantar um modelo antes de começar a fazer chamadas de API e gerar texto. Essa ação pode ser feita usando as APIs de implantação. Essas APIs permitem que você especifique o modelo que deseja usar.

Engenharia de pedidos

Os modelos GPT-3, GPT-3.5 e GPT-4 da OpenAI são baseados em prompt. Com os modelos baseados em pedidos, o utilizador interage com o modelo ao introduzir um pedido de texto, ao qual o modelo responde com uma conclusão de texto. Esta conclusão é o prolongamento do modelo do texto de entrada.

Embora estes modelos sejam extremamente eficientes, o respetivo comportamento é também muito sensível ao pedido. Isso torna a engenharia imediata uma habilidade importante a ser desenvolvida.

A construção rápida pode ser difícil. Na prática, o prompt age para configurar os pesos do modelo para concluir a tarefa desejada, mas é mais uma arte do que uma ciência, muitas vezes exigindo experiência e intuição para criar um prompt bem-sucedido.

Modelos

O serviço fornece aos usuários acesso a vários modelos diferentes. Cada modelo fornece uma capacidade e um preço diferentes.

Os modelos DALL-E (alguns em pré-visualização; ver modelos) geram imagens a partir de prompts de texto que o usuário fornece.

Os modelos Whisper podem ser usados para transcrever e traduzir fala para texto.

Os modelos de texto para fala, atualmente em visualização, podem ser usados para sintetizar texto para fala.

Saiba mais sobre cada modelo na nossa página de conceito de modelos.

Próximos passos

Saiba mais sobre os modelos subjacentes que alimentam o Azure OpenAI.