Novidades do Serviço OpenAI do Azure
Este artigo fornece um resumo das versões mais recentes e das principais atualizações de documentação do Azure OpenAI.
Outubro de 2024
Novo tipo de implantação padrão de zona de dados
As implantações padrão de zona de dados estão disponíveis no mesmo recurso do OpenAI do Azure que todos os outros tipos de implantação do OpenAI do Azure, mas permitem que você aproveite a infraestrutura global do Azure para rotear dinamicamente o tráfego para o data center dentro da zona de dados definida pela Microsoft com a melhor disponibilidade para cada solicitação. O padrão de zona de dados fornece cotas padrão mais altas do que nossos tipos de implantação baseados em geografia do Azure. As implantações padrão de zona de dados são suportadas nos modelos gpt-4o-2024-08-06
, gpt-4o-2024-05-13
, e gpt-4o-mini-2024-07-18
.
Para obter mais informações, consulte o guia de tipos de implantação.
GA de lote global
O lote global de OpenAI do Azure agora está em disponibilidade geral.
A API de Lote do OpenAI do Azure foi projetada para lidar com tarefas de processamento em grande escala e de alto volume com eficiência. Processe grupos assíncronos de solicitações com cota separada, com reviravolta de destino de 24 horas, a custos 50% menor que o padrão global. Com o processamento em lote, em vez de enviar uma solicitação por vez, você deve enviar um grande número de solicitações em um único arquivo. As solicitações em lotes globais têm uma cota de token enfileirada separada, evitando qualquer interrupção das suas cargas de trabalho online.
Os casos de uso incluem:
Processamento de dados em larga escala: analisar rapidamente conjuntos de dados extensos em paralelo.
Geração de Conteúdo: Criar grandes volumes de texto, como descrições de produto ou artigos.
Revisão e Resumo de Documentos: automatizar a revisão e o resumo de documentos longos.
Automação de Suporte ao Cliente: lidar com várias consultas simultaneamente para obter respostas mais rápidas.
Extração e Análise de Dados: extrair e analisar informações de grandes quantidades de dados não estruturados.
Tarefas do Processamento de Linguagem Natural (NLP): execute tarefas como análise de sentimento ou tradução em grandes conjuntos de dados.
Marketing e Personalização: gere conteúdo personalizado e recomendações em escala.
Para obter mais informações sobre a introdução às implantações em lotes globais.
acesso limitado aos modelos o1-preview e o1-mini
Os modelos o1-preview
e o1-mini
agora estão disponíveis para acesso à API e implantação de modelos. O registro é obrigatório e o acesso será concedido com base nos critérios de elegibilidade da Microsoft.
Solicitar acesso: aplicativo de modelo de acesso limitado
Os clientes que já foram aprovados e têm acesso ao modelo por meio do playground de acesso antecipado não precisam se inscrever novamente; o acesso à API será concedido automaticamente. Depois que o acesso for concedido, você precisará criar uma implantação para cada modelo.
Suporte a API:
Suporte para os modelos da série o1 foi adicionado na versão da API 2024-09-01-preview
.
O parâmetro max_tokens
foi descontinuado e substituído pelo novo parâmetro max_completion_tokens
. Os modelos da série o1 só funcionarão com o parâmetro max_completion_tokens
.
Disponibilidade da região:
Os modelos estão disponíveis para implantação padrão e global no Leste dos EUA2 e na Suécia Central para clientes aprovados.
Nova API GPT-4o em tempo real para visualização pública de fala e áudio
O áudio GPT-4o do Azure OpenAI faz parte da família de modelos GPT-4o que oferece suporte a interações conversacionais de baixa latência, do tipo "fala de entrada, fala de saída". A API de áudio GPT-4o realtime
foi projetada para lidar com interações conversacionais de baixa latência e em tempo real, o que a torna ideal para casos de uso que envolvem interações ao vivo entre um usuário e um modelo, como agentes de suporte ao cliente, assistentes de voz e tradutores em tempo real.
O modelo gpt-4o-realtime-preview
está disponível para implantações globais nas regiões Leste dos EUA 2 e Suécia Central.
Para obter mais informações, veja a documentação de áudio em tempo real GPT-4o.
Atualizações globais de suporte a lotes
O lote global agora oferece suporte a GPT-4o (06/08/2024). Veja o guia de introdução ao lote global para mais informações.
Setembro de 2024
Atualizações do Azure OpenAI Studio UX
Em 19 de setembro, ao acessar o Azure OpenAI Studio, você não verá mais a interface de usuário do estúdio herdado por padrão. Se necessário, você ainda poderá retornar à experiência anterior usando o botão Alternar para a aparência antiga na barra superior da interface do usuário pelas próximas semanas. Se você retornar para a interface de usuário antiga do Studio, será útil preencher o formulário de feedback para nos informar o motivo. Estamos monitorando ativamente esse feedback para melhorar a nova experiência.
Implantações provisionadas do GPT-4o 2024-08-06
O GPT-4o 2024-08-06 agora está disponível para as implantações provisionadas no Leste dos EUA, Leste dos EUA2, Centro-Norte dos EUA e Suécia Central. Ele também está disponível para implantações provisionadas globais.
Para obter as informações mais recentes sobre a disponibilidade do modelo, confira a página de modelos.
NOVO tipo de implantação: provisionada globalmente
As implantações globais estão disponíveis nos mesmos recursos do OpenAI do Azure que os tipos de implantação não globais, mas permitem que você aproveite a infraestrutura global do Azure para rotear dinamicamente o tráfego para o data center com a melhor disponibilidade para cada solicitação. As implantações provisionadas globalmente fornecem uma capacidade reservada de processamento de modelos para uma alta taxa de transferência previsível usando a infraestrutura global do Azure. As implantações provisionadas globalmente são compatíveis com os modelos gpt-4o-2024-08-06
e gpt-4o-mini-2024-07-18
.
Para obter mais informações, consulte o guia de tipos de implantação.
Os NOVOS modelos o1-preview e o1-mini estão disponíveis para acesso limitado
O Azure OpenAI o1-preview
e o1-mini
os modelos são projetados para lidar com tarefas de raciocínio e resolução de problemas com maior foco e capacidade. Esses modelos gastam mais tempo processando e entendendo a solicitação do usuário, tornando-os excepcionalmente fortes em áreas como ciência, programação e matemática, em comparação com as iterações anteriores.
Principais funcionalidades da série o1
- Geração de Código Complexo: Capaz de gerar algoritmos e lidar com tarefas avançadas de codificação para dar suporte para desenvolvedores.
- Resolução Avançada de Problemas: Ideal para sessões abrangentes de debates e solução de desafios multifacetados.
- Comparação Complexa de Documentos: Perfeito para analisar contratos, arquivos de casos ou documentos legais para identificar diferenças sutis.
- Seguir Instruções e Gerenciamento de Fluxos de Trabalho: Particularmente eficaz para gerenciar fluxos de trabalho que exigem contextos mais curtos.
Variantes do modelo
o1-preview
:o1-preview
é o mais capaz da série de modeloso1
.o1-mini
:o1-mini
é o mais rápido e barato da série de modeloso1
.
Versão do modelo: 2024-09-12
Solicitar acesso: aplicativo de modelo de acesso limitado
Limitações
Os modelos da série o1
estão atualmente em fase de pré-visualização e não incluem alguns recursos disponíveis em outros modelos, como compreensão de imagem e saídas estruturadas, que estão disponíveis no modelo GPT-4o mais recente. Para muitas tarefas, os modelos GPT-4o geralmente disponíveis ainda podem ser mais adequados.
Segurança
A OpenAI incorporou medidas de segurança adicionais nos modelos da série o1
, incluindo novas técnicas para ajudar os modelos a recusar solicitações inseguras. Esses avanços tornam a série o1
alguns dos modelos mais robustos disponíveis.
Disponibilidade
Os modelos o1-preview
e o1-mini
estão disponíveis na região Leste dos EUA2 para acesso limitado por meio do Estúdio de IA no playground de acesso antecipado. O processamento de dados para os modelos o1
pode ocorrer em uma região diferente daquela onde eles estão disponíveis para uso.
Para experimentar os modelos o1-preview
e o1-mini
no playground de acesso antecipado, é necessário um registro, e o acesso será concedido com base nos critérios de qualificação da Microsoft.
Solicitar acesso: aplicativo de modelo de acesso limitado
Após a concessão de acesso, você precisará:
- Navegar para https://ai.azure.com/resources e selecionar um recurso na região
eastus2
. Se você não tiver um recurso do Azure OpenAI nessa região, será necessário criar um. - Uma vez selecionado o recurso
eastus2
do OpenAI do Azure, no painel superior esquerdo, em Playgrounds, selecione Playground de acesso antecipado (versão prévia).
Agosto de 2024
saídas estruturadas do GPT-4o (2024-08-06)
- Disponível para implantações padrão e globais em todas as regiões dos EUA e Suécia Central.
- Esse modelo adiciona suporte para saídas estruturadas.
Implantações provisionadas do GPT-4o mini
O GPT-4o mini agora está disponível para implantações provisionadas no Leste do Canadá, Leste dos EUA, Leste dos EUA2, Centro-Norte dos EUA e Suécia Central.
Para obter as informações mais recentes sobre a disponibilidade do modelo, confira a página de modelos.
Ajuste fino do GPT-4o (versão preliminar pública)
O ajuste fino do GPT-4o já está disponível para o OpenAI do Azure em versão preliminar pública na Suécia Central e no Centro-Norte dos EUA.
Para obter mais informações, confira nossa postagem no blog.
Nova versão prévia da API
A versão da API 2024-07-01-preview
é a versão mais recente da API de criação e inferência de plano de dados. Ele substitui a versão da API 2024-05-01-preview
e adiciona suporte para:
- Suporte à API em lote adicionado
- Parâmetros de estratégia em partes de loja vetorial
max_num_results
que a ferramenta de pesquisa de arquivos deve gerar.
Para obter mais informações, veja nossa documentação de referência
Disponibilidade regional mini GPT-4o
- O GPT-4o mini está disponível para implantação padrão e global nas regiões Leste dos EUA e Suécia Central.
- O GPT-4o mini está disponível para implantação global em lote nas regiões Leste dos EUA, Suécia Central e Oeste dos EUA.
Guia de avaliações
- Nova postagem no blog sobre primeiros passos com avaliações de modelos. Recomendamos usar este guia como parte do processo de atualização e desativação do modelo.
Modelo GPT-4o mais recente disponível no playground de acesso antecipado (versão prévia)
Em 06 de agosto de 2024, o OpenAI anunciou a versão mais recente da sua versão principal do modelo GPT-4o 2024-08-06
. O GPT-4o 2024-08-06
tem todos os recursos da versão anterior, bem como:
- Uma capacidade aprimorada de dar suporte a saídas estruturadas complexas.
- Os tokens de saída máximos aumentaram de 4.096 para 16.384.
Os clientes do Azure podem testar o GPT-4o 2024-08-06
hoje no novo playground de acesso antecipado do Estúdio de IA (versão prévia).
Diferentemente do playground de acesso antecipado anterior, o playground de acesso antecipado do AI Studio (prévia) não exige que você tenha um recurso em uma região específica.
Observação
Solicitações e conclusões feitas por meio do playground de acesso antecipado (prévia) podem ser processadas em qualquer região do Azure OpenAI e atualmente estão sujeitas a um limite de 10 solicitações por minuto por assinatura do Azure. Esse limite pode mudar no futuro.
O monitoramento de abuso do Serviço OpenAI do Azure está habilitado para todos os usuários do playground com acesso antecipado, mesmo se aprovado para modificação; os filtros de conteúdo padrão estão habilitados e não podem ser modificados.
Para testar o GPT-4o 2024-08-06
, entre no playground de acesso antecipado da IA do Azure (versão prévia) usando este link.
As implantações em lotes globais já estão disponíveis
A API do Lote OpenAI do Azure foi projetada para lidar com tarefas de processamento em grande escala e de alto volume com eficiência. Processe grupos assíncronos de solicitações com cota separada, com reviravolta de destino de 24 horas, a custos 50% menor que o padrão global. Com o processamento em lote, em vez de enviar uma solicitação por vez, você deve enviar um grande número de solicitações em um único arquivo. As solicitações em lotes globais têm uma cota de token enfileirada separada, evitando qualquer interrupção das suas cargas de trabalho online.
Os casos de uso incluem:
Processamento de dados em larga escala: analisar rapidamente conjuntos de dados extensos em paralelo.
Geração de Conteúdo: Criar grandes volumes de texto, como descrições de produto ou artigos.
Revisão e Resumo de Documentos: automatizar a revisão e o resumo de documentos longos.
Automação de Suporte ao Cliente: lidar com várias consultas simultaneamente para obter respostas mais rápidas.
Extração e Análise de Dados: extrair e analisar informações de grandes quantidades de dados não estruturados.
Tarefas do Processamento de Linguagem Natural (NLP): execute tarefas como análise de sentimento ou tradução em grandes conjuntos de dados.
Marketing e Personalização: gere conteúdo personalizado e recomendações em escala.
Para obter mais informações sobre a introdução às implantações em lotes globais.
Julho de 2024
O MINI GPT-4o já está disponível para ajuste fino
O ajuste MINI GPT-4o já está disponível na visualização pública na Suécia Central e no Centro-Norte dos EUA.
A ferramenta Pesquisa de Arquivos dos Assistentes agora é cobrada
A ferramenta pesquisa de arquivos para Assistentes agora tem custos adicionais de uso. Veja a página de preço para obter mais informações.
Modelo GPT-4o mini disponível para implantação
O GPT-4o mini é o modelo mais recente do OpenAI do Azure, anunciado pela primeira vez em 18 de julho de 2024:
"O GPT-4o mini permite que os clientes entreguem aplicativos impressionantes a um custo menor e com uma velocidade incrível. O GPT-4o mini é significativamente mais inteligente do que o GPT-3.5 Turbo - pontuando 82% na Medição de Reconhecimento Vocal de Multitarefa em Massa (MMLU) em comparação com 70% - e é mais de 60% mais barato.1 O modelo oferece uma janela de contexto expandida de 128K e integra as funcionalidades multilíngues aprimoradas do GPT-4o, trazendo maior qualidade para idiomas de todo o mundo."
No momento, o modelo está disponível para implantação padrão e padrão global na região Leste dos EUA.
Para obter informações sobre a cota do modelo, consulte a página cota e limites e, para obter as informações mais recentes sobre a disponibilidade do modelo, consulte a página modelos.
Nova política de filtragem de conteúdo padrão da IA Responsável
A nova política de filtragem de conteúdo padrão DefaultV2
fornece as mitigações de segurança e proteção mais recentes para a série de modelos GPT (texto), incluindo:
- Prompt Shields para ataques de jailbreak nos prompts do usuário (filtro),
- Detecção de material protegido para texto (filtro) nas conclusões do modelo
- Detecção de material protegido para código (anotar) nas conclusões de modelo
Embora não haja alterações nos filtros de conteúdo para os recursos e implantações existentes (as configurações de filtragem de conteúdo padrão ou personalizadas permanecem inalteradas), novos recursos e implantações de GPT herdarão automaticamente a nova política de filtragem de conteúdo DefaultV2
. Os clientes têm a opção de alternar entre os padrões de segurança e criar configurações personalizadas de filtragem de conteúdo.
Consulte nossa documentação Política de segurança padrão para obter mais informações.
Nova versão da API GA
A versão da API 2024-06-01
é a versão mais recente da API de inferência de plano de dados do GA. Ele substitui a versão da API 2024-02-01
e adiciona suporte para:
- incorporações
encoding_format
edimensions
parâmetros. - conclusões de chat
logprobs
etop_logprobs
parâmetros.
Consulte nossa documentação de referência de inferência de plano de dados para obter mais informações.
Expansão de regiões disponíveis para implantações padrão globais de gpt-4o
GPT-4o agora está disponível para implantações de padrão global em:
- australiaeast
- brazilsouth
- canadaeast
- eastus
- eastus2
- git central da França
- germanywestcentral
- japaneast
- koreacentral
- northcentralus
- norwayeast
- polandcentral
- southafricanorth
- southcentralus
- southindia
- swedencentral
- switzerlandnorth
- uksouth
- westeurope
- westus
- westus3
Para informações sobre cota padrão global, consulte a página cotas e limites.
Junho de 2024
Atualizações da data de desativação
- Data de desativação 0301 do
gpt-35-turbo
atualizada para data não anterior a 1º de outubro de 2024. - Data de desativação do
gpt-35-turbo
egpt-35-turbo-16k
0613 atualizada para 1º de outubro de 2024. - Data de substituição do
gpt-4
egpt-4-32k
0314 atualizada para 1º de outubro de 2024 e data de desativação para 6 de junho de 2025.
Consulte nosso guia de desativação do modelo para obter as informações mais recentes sobre a substituição e a desativação do modelo.
Cobrança baseada em token para o ajuste fino
- A cobrança de ajuste fino do OpenAI do Azure agora é baseada no número de tokens no seu arquivo de treinamento, em vez de se basear no tempo total de treinamento decorrido. Isso pode resultar em uma redução de custos significativa para algumas execuções de treinamento e facilita bastante a estimativa de custos do ajuste fino. Para saber mais, você pode conferir o comunicado oficial.
GPT-4o lançado em novas regiões
- O GPT-4o agora também está disponível em:
- Suécia Central para implantação regional padrão.
- Leste da Austrália, Leste do Canadá, Leste do Japão, Coreia Central, Suécia Central, Norte da Suíça e Oeste dos EUA 3 para implantação provisionada.
Para obter as informações mais recentes sobre a disponibilidade do modelo, confira a página de modelos.
Suporte à chave gerenciada pelo cliente (CMK) para Assistentes
Os threads e arquivos nos Assistentes agora dão suporte ao CMK na seguinte região:
- Oeste dos EUA 3
Maio de 2024
Implantações provisionadas do GPT-4o
O gpt-4o
Versão: 2024-05-13
está disponível tanto para implantações padrão quanto provisionadas. As implantações dos modelos padrão e provisionado aceitam solicitações de inferência tanto de texto quanto de imagem/visão.
Para obter informações sobre a disponibilidade regional do modelo, consulte a matriz do modelo para implantações provisionadas.
Assistentes v2 (versão prévia)
Uma atualização da API de Assistentes agora está disponível publicamente. Ele contém as seguintes atualizações:
- Ferramenta de pesquisa de arquivos e armazenamento de vetor
- Suporte máximo de preenchimento e de token de solicitação máxima para gerenciar o uso de token.
tool_choice
parâmetro para forçar o Assistente a usar uma ferramenta específica. Agora você pode criar mensagens com a função de assistente para criar históricos de conversa personalizados no Threads.- Suporte para
temperature
,top_p
,response_format
parâmetros. - Suporte de streaming e sondagem. Você pode usar as funções auxiliares em nosso SDK do Python para criar execuções e respostas de fluxo. Também adicionamos auxiliares do SDK de sondagem para compartilhar atualizações de status do objeto sem a necessidade de sondagem.
- Experimente Aplicativos Lógicos e Chamadas de Função usando o Azure OpenAI Studio. Importe suas APIs REST implementadas nos Aplicativos Lógicos como funções e o estúdio invoca a função (como um fluxo de trabalho dos Aplicativos Lógicos) automaticamente com base na solicitação do usuário.
- O AutoGen by Microsoft Research fornece uma estrutura de conversa de vários agentes para habilitar a criação conveniente de fluxos de trabalho de LLM (Modelo de Linguagem Grande) em uma ampla gama de aplicativos. Os assistentes do OpenAI do Azure agora são integrados ao AutoGen por meio de
GPTAssistantAgent
, um novo agente experimental que permite adicionar perfeitamente assistentes a fluxos de trabalho multiagentes baseados em AutoGen. Isso permite que vários assistentes do OpenAI do Azure, que podem ser especializados em tarefas ou domínios, colaborem e enfrentem tarefas complexas. - Suporte a
gpt-3.5-turbo-0125
modelos ajustados nas seguintes regiões:- Leste dos EUA 2
- Suécia Central
- Suporte regional expandido para:
- Leste do Japão
- Sul do Reino Unido
- Oeste dos EUA
- Oeste dos EUA 3
- Leste da Noruega
Para obter mais informações, consulte a postagem no blog sobre assistentes.
GA (disponibilidade geral) do modelo GPT-4o
GPT-4o ("o é para "omni") é o modelo mais recente do OpenAI lançado em 13 de maio de 2024.
- O GPT-4o integra texto e imagens em um único modelo, permitindo que ele manipule vários tipos de dados simultaneamente. Essa abordagem multimodal melhora a precisão e a capacidade de resposta nas interações entre humanos e computadores.
- O GPT-4o corresponde às tarefas de codificação e texto em inglês ao GPT-4 Turbo, oferecendo um desempenho superior em idiomas não ingleses e em tarefas de visão, definindo novos parâmetros de comparação para os recursos de IA.
Para obter informações sobre a disponibilidade regional do modelo, consulte a página de modelos.
Tipo de implantação padrão global (versão prévia)
As implantações globais estão disponíveis nos mesmos recursos do OpenAI do Azure que ofertas não globais, mas permitem que você aproveite a infraestrutura global do Azure para rotear dinamicamente o tráfego para o data center com a melhor disponibilidade para cada solicitação. O padrão global fornece a maior cota padrão para novos modelos e elimina a necessidade de balanceamento de carga entre vários recursos.
Para obter mais informações, consulte o guia de tipos de implantação.
Atualizações de ajuste fino
- O ajuste fino GPT-4 está agora disponível na versão prévia pública.
- Adicionado suporte para semente, eventos, estatísticas de validação completa epontos de verificação como parte da versão da API
2024-05-01-preview
.
Filtros de conteúdo configuráveis GA do DALL-E e GPT-4 Turbo Vision
Crie filtros de conteúdo personalizados para implantações DALL-E 2 e 3, GPT-4 Turbo com Visão GA (turbo-2024-04-09
) e GPT-4o. Filtragem de conteúdo
Filtro assíncrono disponível para todos os clientes do OpenAI do Azure
A execução de filtros de forma assíncrona para melhorar a latência em cenários de streaming agora está disponível para todos os clientes do OpenAI do Azure. Filtragem de conteúdo
Proteções de solicitação
O Prompt Shields protege aplicativos alimentados por modelos do OpenAI do Azure contra dois tipos de ataques: ataques diretos (jailbreak) e indiretos. Ataques indiretos (também conhecidos como ataques indiretos de prompt ou ataques de injeção de prompt entre domínios) são um tipo de ataque a sistemas alimentados por modelos de IA generativa que podem ocorrer quando um aplicativo processa informações que não foram criadas diretamente pelo desenvolvedor do aplicativo ou pelo usuário. Filtragem de conteúdo
Versão da API 2024-05-01-preview
- Para obter mais informações, consulte o ciclo de vida da versão da API.
Disponibilidade geral do modelo GPT-4 Turbo (GA)
A última versão GA do GPT-4 Turbo é:
gpt-4
Versão:turbo-2024-04-09
Essa é a substituição dos seguintes modelos de versão prévia:
gpt-4
Versão:1106-Preview
gpt-4
Versão:0125-Preview
gpt-4
Versão:vision-preview
Diferenças entre os modelos OpenAI e Azure OpenAI GPT-4 Turbo GA
- A versão mais recente do modelo turbo
0409
do OpenAI suporta o modo JSON e chamadas de função para todas as solicitações de inferência. - A versão do OpenAI do Azure do
turbo-2024-04-09
mais recente no momento não dá suporte ao uso do modo JSON e chamadas de função ao fazer solicitações de inferência com entrada de imagem (visão). As solicitações de entrada baseadas em texto (solicitações semimage_url
e imagens embutidas) dão suporte ao modo JSON e à chamada de função.
Diferenças do gpt-4 vision-preview
- A integração de aprimoramentos específicos do IA do Azure Vision com GPT-4 Turbo com Vision não é suportada para
gpt-4
Versão:turbo-2024-04-09
. Isso inclui Reconhecimento Óptico de Caracteres (OCR), ancoragem de objetos, solicitações de vídeo e melhor manuseio dos seus dados com imagens.
Disponibilidade gerenciada provisionada do GPT-4 Turbo
gpt-4
Versão:turbo-2024-04-09
está disponível para implantações padrão e provisionadas. Atualmente, a versão provisionada deste modelo não dá suporte a solicitações de inferência de imagem/visão. As implantações provisionadas deste modelo aceitam apenas a entrada de texto. As implantações de modelo Standard aceitam solicitações de inferência de texto e imagem/visão.
Implantar o GPT-4 Turbo com Visão GA
Para implantar o modelo GA na interface do usuário do Estúdio, selecione GPT-4
e escolha a versão turbo-2024-04-09
no menu suspenso. A cota padrão para o modelo gpt-4-turbo-2024-04-09
será a mesma da cota atual para o GPT-4-Turbo. Consulte os limites de cota regional.
Abril de 2024
O ajuste fino agora tem suporte em duas novas regiões: Leste dos EUA 2 e Oeste da Suíça
O ajuste fino agora está disponível com suporte para:
Leste dos EUA 2
gpt-35-turbo
(0613)gpt-35-turbo
(1106)gpt-35-turbo
(0125)
Oeste da Suíça
babbage-002
davinci-002
gpt-35-turbo
(0613)gpt-35-turbo
(1106)gpt-35-turbo
(0125)
Verifique a página de modelos para obter as informações mais recentes sobre a disponibilidade de modelos e o suporte para ajuste fino em cada região.
Exemplos de treinamento de chat de vários turnos
O ajuste fino agora dá suporte a exemplos de treinamento de chat de vários turnos.
O GPT-4 (0125) está disponível para o OpenAI do Azure em seus Dados
Agora você já pode usar o modelo GPT-4 (0125) nas regiões disponíveis com o OpenAI do Azure em seus Dados.
Março de 2024
Monitoramento de riscos e de segurança no estúdio do OpenAI do Azure
O estúdio do OpenAI do Azure agora fornece um painel de riscos e de segurança para cada uma das implantações que utiliza uma configuração de filtro de conteúdo. Utilize-o para verificar os resultados da atividade de filtragem. Em seguida, você poderá ajustar a configuração de filtro para atender melhor às suas necessidades de negócios e atender aos princípios de IA Responsável.
Usar monitoramento de riscos e de segurança
Atualizações do Azure OpenAI On Your Data
- Agora, você poderá conectar um banco de dados vetorial Elasticsearch para utilizar com o Azure OpenAI On Your Data.
- Você pode usar o parâmetro de tamanho da parte durante a ingestão de dados para definir o número máximo de tokens de qualquer parte dos dados fornecidos em seu índice.
GA (disponibilidade geral) da API lançada em 01/02/2024
Esta é a versão mais recente da API GA e é a substituição da versão GA anterior 2023-05-15
. Essa versão adiciona suporte aos recursos mais recentes do Azure OpenAI GA, como Whisper, DALLE-3, ajuste fino, em seus dados e muito mais.
Recursos que estão em versão prévia, como Assistentes, conversão de texto em fala (TTS) e algumas das fontes de dados "em seus dados", exigem uma versão de API de versão prévia. Para obter mais informações, confira nosso Guia do ciclo de vida da versão da API.
Disponibilidade geral do Whisper (GA)
O modelo de conversão de fala em texto do Whisper agora está em GA para REST e Python. Os SDKs da biblioteca de clientes ainda estão em versão prévia pública.
Experimente Whisper seguindo um início rápido.
disponibilidade geral (GA) do DALL-E 3
O modelo de geração de imagem DALL-E 3 agora está em GA para REST e Python. Os SDKs da biblioteca de clientes ainda estão em versão prévia pública.
Experimente o DALL-E 3 seguindo o início rápido.
Novo suporte regional para DALL-E 3
Agora você pode acessar o DALL-E 3 com um recurso do OpenAI do Azure na região do Azure East US
no AustraliaEast
, além de SwedenCentral
.
Substituições e desativações do modelo
Adicionamos uma página para acompanhar as substituições e desativações de modelo no Serviço OpenAI do Azure. Esta página fornece informações sobre os modelos que estão disponíveis, preteridos e desativados no momento.
API 2024-03-01-preview lançada
2024-03-01-preview
tem todas as mesmas funcionalidades que 2024-02-15-preview
e adiciona dois novos parâmetros para inserções:
encoding_format
permite especificar o formato para gerar inserções emfloat
oubase64
. O padrão éfloat
.dimensions
permite definir o número de inserções de saída. Esse parâmetro só tem suporte com os novos modelos de incorporação de terceira geração:text-embedding-3-large
,text-embedding-3-small
. Normalmente, inserções maiores são mais caras de uma perspectiva de computação, memória e armazenamento. Ser capaz de ajustar o número de dimensões permite mais controle sobre o custo e o desempenho gerais. O parâmetrodimensions
não é suportado em todas as versões da biblioteca Python OpenAI 1.x. Para aproveitar esse parâmetro, recomendamos atualizar para a versão mais recente.:pip install openai --upgrade
.
Se você estiver usando uma versão de visualização da API para aproveitar os recursos mais recentes, recomendamos consultar o artigo Ciclo de vida da versão da API para acompanhar por quanto tempo sua versão atual da API terá suporte.
Atualizar para planos de atualização GPT-4-1106-Preview
A atualização de implantação de gpt-4
1106-Preview para gpt-4
0125-Preview agendada para 8 de março de 2024 não está mais ocorrendo. As implantações das versões gpt-4
1106-Preview e 0125-Preview definidas como "Atualização automática para padrão" e "Atualizar quando expirado" começarão a ser atualizadas após o lançamento da versão estável.
Para obter mais informações sobre o processo de atualização, consulte a página modelos.
Fevereiro de 2024
Disponibilidade do modelo GPT-3.5-turbo-0125
O modelo tem vários aprimoramentos, incluindo maior precisão na resposta em formatos solicitados e uma correção para um bug que causou um problema de codificação de texto para chamadas de função que não são em inglês.
Para obter informações sobre a disponibilidade regional do modelo e as atualizações, consulte a página de modelos .
Modelos de incorporações de terceira geração disponíveis
text-embedding-3-large
text-embedding-3-small
Em testes, o OpenAI relata que os modelos de inserções de terceira geração grandes e pequenos oferecem melhor desempenho médio de recuperação de vários idiomas com o parâmetro de comparação MIRACL, mantendo ainda o desempenho para tarefas em inglês com o parâmetro de comparação MTEBdo que o modelo de segunda geração text-embedding-ada-002.
Para obter informações sobre a disponibilidade regional do modelo e as atualizações, consulte a página de modelos .
Consolidação da cota do GPT-3.5 Turbo
Para simplificar a migração entre diferentes versões dos modelos GPT-3.5-Turbo (incluindo 16k), consolidaremos todas as cotas do GPT-3.5-Turbo em um único valor de cota.
Todos os clientes que tiverem aumentado a cota aprovada terão cota total combinada que reflete os aumentos anteriores.
Qualquer cliente cujo uso total atual entre versões de modelo é menor que o padrão obterá uma nova cota total combinada por padrão.
Modelo de GPT-4-0125 versão prévia disponível
A versão gpt-4
do modelo 0125-preview
agora está disponível no Serviço OpenAI do Azure nas regiões Leste dos EUA, Centro-Norte dos EUA e Centro-Sul dos EUA. Os clientes com implantações de gpt-4
versão 1106-preview
serão atualizados automaticamente para0125-preview
nas próximas semanas.
Para obter informações sobre a disponibilidade regional do modelo e as atualizações, consulte a página de modelos .
Visualização pública da API de Assistentes
A OpenAI do Azure agora dá suporte à API que alimenta os GPTs do OpenAI. Os Assistentes OpenAI do Azure (versão prévia) permitem que você crie assistentes de IA adaptados às suas necessidades por meio de instruções personalizadas e ferramentas avançadas, como o interpretador de códigos e funções personalizadas. Para obter mais informações, consulte:
- Início rápido
- Conceitos
- Instruções detalhadas do Python
- Interpretador de códigos
- Chamada de função
- Modelo de Assistentes e disponibilidade de região
- Assistentes Python e referência REST
- Exemplos de Assistentes
Versão prévia das vozes da conversão de texto em fala do OpenAI
O Serviço OpenAI do Azure agora dá suporte a APIs de conversão de texto em fala com as vozes do OpenAI. Obtenha a fala gerada por IA do texto que você fornece. Para saber mais, consulte o guia de visão geral e experimente o início rápido.
Observação
A Fala de IA do Azure também dá suporte às vozes da conversão de texto em fala do OpenAI. Para saber mais, consulte o guia Vozes da conversão de texto em fala do OpenAI por meio do Serviço OpenAI do Azure ou Fala de IA do Azure.
Novos recursos de ajuste fino e suporte a modelos
Novo suporte regional para o OpenAI do Azure em seus dados
Agora você pode usar o Azure OpenAI On Your Data na seguinte região do Azure:
- Norte da África do Sul
Disponibilidade geral do Azure OpenAI On Your Data
- O Azure OpenAI On Your Data agora está em disponibilidade geral.
Dezembro de 2023
Azure OpenAI On Your Data
- Suporte completo de VPN e ponto de extremidade privado para o Azure OpenAI On Your Data, incluindo suporte de segurança para: contas de armazenamento, recursos do OpenAI do Azure e recursos de serviço da Pesquisa de IA do Azure.
- Novo artigo para usar Azure OpenAI On Your Data com segurança protegendo dados com redes virtuais e pontos de extremidade privados.
GPT-4 Turbo com Visão agora disponível
O GPT-4 Turbo com Visão no serviço Azure OpenAI agora está em versão prévia pública. O GPT-4 Turbo with Vision é um grande modelo multimodal (LMM) desenvolvido pela OpenAI que pode analisar imagens e fornecer respostas textuais a perguntas sobre elas. Ele incorpora o processamento de linguagem natural e a compreensão visual. Com o modo aprimorado, você pode usar os recursos da Visão de IA do Azure para gerar insights adicionais das imagens.
- Explore os recursos do GPT-4 Turbo com Visão em uma experiência sem código usando o Playground do Azure OpenAI. Saiba mais no Guia de início rápido.
- O aprimoramento da visão usando o GPT-4 Turbo com Visão agora está disponível no Playground do Azure OpenAI e inclui suporte para reconhecimento óptico de caracteres, aterramento de objetos, suporte à imagem para "adicionar seus dados" e suporte para prompt de vídeo.
- Faça chamadas para a API de chat diretamente usando a API REST.
- A disponibilidade da região está atualmente limitada a
SwitzerlandNorth
,SwedenCentral
,WestUS
eAustraliaEast
- Saiba mais sobre as limitações conhecidas do GPT-4 Turbo com Visão e outras perguntas frequentes.
novembrod e 2023
Novo suporte à fonte de dados no Azure OpenAI On Your Data
- Agora você pode usar o Azure Cosmos DB for MongoDB vCore e URLs/endereços da web como fontes de dados para ingerir seus dados e chat com um modelo Azure OpenAI compatível.
GPT-4 Turbo Preview e GPT-3.5-Turbo-1106 lançado
Ambos os modelos são a versão mais recente do OpenAI com instruções aprimoradas a seguir, modo JSON, saída reproduzível e chamada de função paralela.
O GPT-4 Turbo Preview tem uma janela de máxima contexto de 128.000 tokens e pode gerar 4.096 tokens de saída. Ele tem os dados de treinamento mais recentes com conhecimento até abril de 2023. Esse modelo está em fase de pré-visualização e não é recomendado para uso em produção. Todas as implantações desse modelo de versão prévia serão atualizadas automaticamente quando a versão estável estiver disponível.
O GPT-3.5-Turbo-1106 tem uma janela máxima de contexto de 16.385 tokens e pode gerar 4.096 tokens de saída.
Para obter informações sobre a disponibilidade regional do modelo, consulte a página de modelos.
Os modelos têm suas próprias alocações de cota exclusivas por região.
Versão prévia pública do DALL-E 3
O DALL-E 3 é o modelo de geração de imagem mais recente do OpenAI. Ele apresenta qualidade de imagem aprimorada, cenas mais complexas e melhor desempenho ao renderizar texto em imagens. Ele também vem com mais opções de taxa de proporção. O DALL-E 3 está disponível por meio do OpenAI Studio e da API REST. Seu recurso OpenAI deve estar na região do Azure SwedenCentral
.
O DALL-E 3 inclui a reescrita de prompt interna para aprimorar imagens, reduzir o viés e aumentar a variação natural.
Experimente o DALL-E 3 seguindo o início rápido.
IA responsável
Configurabilidade expandida do cliente: todos os clientes do OpenAI do Azure agora podem configurar todos os níveis de gravidade (baixo, médio, alto) para as categorias ódio, violência, sexual e automutilação, incluindo filtrar apenas conteúdo de alta gravidade. Configurar os filtros de conteúdo
Credenciais de conteúdo em todos os modelos DALL-E: as imagens geradas por IA de todos os modelos DALL-E agora incluem uma credencial digital que divulga o conteúdo como gerado por IA. Os aplicativos que mostram ativos de imagem podem tirar proveito do SDK da Iniciativa de Autenticidade de Conteúdo de código aberto para mostrar credenciais nas respectivas imagens geradas por IA. Credenciais de conteúdo no OpenAI do Azure
Novos modelos de RAI
- Detecção do risco de jailbreak: ataques de jailbreak são prompts de usuário projetados para provocar o modelo de IA generativa e forçá-lo a exibir os comportamentos que foi treinado a evitar ou romper as regras definidas na Mensagem do Sistema. O modelo de detecção do risco de jailbreak é opcional (o padrão é desativado) e está disponível no modelo de anotações e filtro. É executado nos prompts de usuário.
- Texto de material protegido: o texto de material protegido descreve um conteúdo de texto conhecido (por exemplo, letras de música, artigos, receitas culinárias e conteúdo web selecionado) que pode ser gerado por modelos de linguagem grandes. O modelo de texto de material protegido é opcional (o padrão é desativado) e está disponível no modelo de anotações e filtro. É executado nos preenchimentos de LLMs.
- Código de material protegido: o código de material protegido descreve o código-fonte que corresponde a um conjunto de códigos-fonte de repositórios públicos, que pode ser gerado por modelos de linguagem grandes sem citar adequadamente os repositórios de origem. O modelo de código de material protegido é opcional (o padrão é desativado) e está disponível no modelo de anotações e filtro. É executado nos preenchimentos de LLMs.
Listas de bloqueios: os clientes agora podem rapidamente personalizar ainda mais o comportamento do filtro de conteúdo para prompts e preenchimentos criando uma lista de bloqueios personalizada nos respectivos filtros. A lista de bloqueios personalizada permite que o filtro tome providências com relação a uma lista de padrões personalizada, incluindo, por exemplo, termos ou padrões de regex específicos. Além das listas de bloqueio personalizadas, fornecemos uma lista da Microsoft, em inglês, de palavrões a serem bloqueados. Usar listas de bloqueio
Outubro de 2023
Novos modelos de ajuste fino (versão prévia)
gpt-35-turbo-0613
está agora disponível para ajuste fino.babbage-002
edavinci-002
estão agora disponíveis para ajuste fino. Esses modelos substituem os modelos de base herdados ada, babbage, curie e davinci que estavam disponíveis anteriormente para ajuste fino.A disponibilidade de ajuste fino está limitada a determinadas regiões. Verifique a página de modelos para obter as informações mais recentes sobre a disponibilidade do modelo em cada região.
Os modelos ajustados têm limites de cota diferentes dos modelos regulares.
Tutorial: Ajuste fino do GPT-3.5-turbo
Azure OpenAI On Your Data
- Novos parâmetros personalizados para determinar o número de documentos recuperados e a rigidez.
- A configuração de rigidez define o limite para categorizar os documentos como relevantes para suas consultas.
- A configuração de documentos recuperados especifica o número de documentos de maior pontuação do índice de dados usados para gerar respostas.
- Você pode ver o status de ingestão/upload de dados no Estúdio de OpenAI do Azure.
- Suporte para pontos de extremidade privados e VPNs e para contêineres de blob.
Setembro de 2023
GPT-4
GPT-4 e GPT-4-32k agora estão disponíveis para todos os clientes do Serviço OpenAI do Azure. Os clientes não precisam mais se aplicar para a lista de espera para usar o GPT-4 e GPT-4-32k (os requisitos de registro de Acesso Limitado continuam sendo aplicados a todos os modelos do OpenAI do Azure). A disponibilidade pode variar de acordo com a região. Verifique a página de modelos para obter as informações mais recentes sobre a disponibilidade do modelo em cada região.
Instrução Turbo GPT-3.5
O Serviço OpenAI do Azure já dá suporte ao modelo de Instrução Turbo GPT-3.5. Esse modelo tem um desempenho comparável a text-davinci-003
e está disponível para ser usado com a API de Conclusões. Verifique a página de modelos para obter as informações mais recentes sobre a disponibilidade do modelo em cada região.
Visualização pública do Whisper
O Serviço OpenAI do Azure agora dá suporte a APIs de conversão de fala em texto do modelo Whisper da plataforma OpenAI. Obtenha o texto gerado por IA com base no áudio da fala que você fornecer. Para saber mais, confira este início rápido.
Observação
A Fala de IA do Azure também dá suporte ao modelo Whisper da OpenAI por meio da API de transcrição em lote. Para obter mais informações, verifique o guia Criar uma transcrição em lote. Confira O que é o modelo Whisper? para saber mais sobre quando usar a Fala de IA do Azure versus o Serviço OpenAI do Azure.
Novas regiões
- O OpenAI do Azure agora também está disponível nas regiões Suécia Central e Norte da Suíça. Verifique a página de modelos para obter as informações mais recentes sobre a disponibilidade do modelo em cada região.
Aumentos dos limites de cota regional
- Aumenta para os limites máximos de cota padrão para determinados modelos e regiões. Migrar as cargas de trabalho para esses modelos e regiões permitirá que você aproveite maiores Tokens por minuto (TPM).
Agosto de 2023
Atualizações do Azure OpenAI em seus próprios dados (visualização)
- Agora você pode implantar o Azure OpenAI On Your Data no Power Virtual Agents.
- O Azure OpenAI On Your Data agora dá suporte a pontos de extremidade privados.
- Capacidade de filtrar o acesso a documentos confidenciais.
- Atualize automaticamente seu índice de acordo com uma programação.
- Busca em vetores e opções de pesquisa semântica.
- Veja seu histórico de chat no aplicativo web implantado
Julho de 2023
Suporte para chamada de função
- O Azure OpenAI agora dá suporte à chamada de função para permitir que você trabalhe com funções na API de conclusões de chat.
Inserindo o aumento da matriz de entrada
- O OpenAI do Azure agora dá suporte a matrizes com até 16 entradas por solicitação de API com text-embedding-ada-002 Versão 2.
Novas regiões
- O Azure OpenAI agora também está disponível nas regiões Leste do Canadá, Leste dos EUA 2, Leste do Japão e Centro-Norte dos EUA. Verifique a página de modelos para obter as informações mais recentes sobre a disponibilidade do modelo em cada região.
Junho de 2023
Como usar o OpenAI do Azure em seus próprios dados (versão prévia)
- O Azure OpenAI On Your Data agora está disponível em versão prévia, permitindo que você converse com modelos do OpenAI, como GPT-35-Turbo e GPT-4, e receba respostas com base em seus dados.
Novas versões dos modelos gpt-35-turbo e gpt-4
- gpt-35-turbo (versão 0613)
- gpt-35-turbo-16k (versão 0613)
- gpt-4 (versão 0613)
- gpt-4-32k (versão 0613)
Sul do Reino Unido
- O Azure OpenAI agora está disponível na região do Sul do Reino Unido. Verifique a página de modelos para obter as informações mais recentes sobre a disponibilidade do modelo em cada região.
Filtragem de conteúdo e anotações (versão prévia)
- Como configurar filtros de conteúdo com o Serviço OpenAI do Azure.
- Habilite anotações para exibir informações de categoria e gravidade de filtragem de conteúdo como parte de suas chamadas de Conclusão e Conclusão de Chat baseadas em GPT.
Quota
- A cota fornece a flexibilidade para gerenciar ativamente a alocação de limites de taxa entre as implantações em sua assinatura.
Maio de 2023
Suporte ao SDK Java e JavaScript
- NOVOS SDKs de versão prévia do OpenAI do Azure que oferecem suporte para JavaScript e Java.
Disponibilidade Geral de Conclusão de Chat do OpenAI do Azure (GA)
- Suporte da disponibilidade geral para:
- Versão da API de Conclusão de Chat
2023-05-15
. - Modelos GPT-35-Turbo.
- Série do modelo GPT-4.
- Versão da API de Conclusão de Chat
Se você estiver usando atualmente a 2023-03-15-preview
API, recomendamos migrar para a GA 2023-05-15
API. Se você estiver usando a versão 2022-12-01
da API, essa API permanecerá disponível para uso geral, mas não inclui os recursos mais recentes de conclusão de chat.
Importante
O uso das versões atuais dos modelos GPT-35-Turbo com o ponto de extremidade de conclusão permanece em versão prévia.
França Central
- O Azure OpenAI agora está disponível na região da França Central. Verifique a página de modelos para obter as informações mais recentes sobre a disponibilidade do modelo em cada região.
Abril de 2022
Versão prévia pública do DALL-E 2. O Serviço OpenAI do Azure agora dá suporte a APIs de geração de imagem alimentadas pelo modelo DALL-E 2 do OpenAI. Obtenha imagens geradas por IA com base no texto descritivo que você fornecer. Para saber mais, confira este início rápido.
As implantações inativas de modelos personalizados serão agora excluídas após 15 dias; os modelos permanecerão disponíveis para reimplantação. Se um modelo personalizado (ajustado) for implantado por mais de quinze (15) dias durante os quais não sejam feitas chamadas de conclusão ou chat, a implantação será automaticamente excluída (e não serão cobradas mais taxas de hospedagem por essa implantação). O modelo personalizado subjacente permanecerá disponível e poderá ser reimplantado a qualquer momento. Para saber mais, confira o artigo de instruções.
Março de 2023
Os modelos da série GPT-4 agora estão disponíveis em versão prévia no OpenAI do Azure. Para solicitar acesso, os clientes existentes do OpenAI do Azure podem se inscrever preenchendo esse formulário. Atualmente, esses modelos estão disponíveis nas regiões Leste dos EUA e Centro-Sul dos EUA.
Nova API de Preenchimento para os modelos GPT-35-Turbo e GPT-4 lançada em versão prévia em 21/03. Para saber mais, confira os guias de início rápido atualizados e o artigo de instruções.
Versão prévia do GPT-35-Turbo. Para saber mais, confira o artigo de instruções.
Maiores limites de treinamento para ajuste fino: o tamanho máximo do trabalho de treinamento (tokens no arquivo de treinamento) x (n.º de épocas) é de 2 bilhões de tokens para todos os modelos. Também aumentamos o trabalho de treinamento máximo de 120 para 720 horas.
Adicionando casos de uso adicionais ao seu acesso existente. Anteriormente, o processo para adicionar novos casos de uso exigia que os clientes se inscrevessem novamente no serviço. Agora, estamos lançando um novo processo que permite adicionar rapidamente novos casos de uso ao uso do serviço. Esse processo segue o processo de Acesso Limitado estabelecido nos serviços de IA do Azure. Os clientes existentes podem atestar todos os novos casos de uso aqui. Note que isso é necessário sempre que você quiser usar o serviço para um novo caso de uso para o qual não se inscreveu originalmente.
Fevereiro de 2023
Novos recursos
- Exemplos de | versão prévia do SDK do .NET (inference)
- Atualização do SDK do Terraform para dar suporte a operações de gerenciamento do OpenAI do Azure.
- Agora há suporte para a inserção de texto no final de uma conclusão com o parâmetro
suffix
.
Atualizações
- A filtragem de conteúdo está ativada por padrão.
Novos artigos sobre:
Novo curso de treinamento:
Janeiro de 2023
Novos recursos
Disponibilidade geral do serviço. O Serviço OpenAI do Azure agora está em disponibilidade geral.
Novos modelos: adição do modelo de texto mais recente, text-davinci-003 (Leste dos EUA, Oeste da Europa), text-ada-embeddings-002 (Leste dos EUA, Centro-Sul dos EUA, Oeste da Europa)
Dezembro de 2022
Novos recursos
Os modelos mais recentes do OpenAI. O OpenAI do Azure fornece acesso a todos os modelos mais recentes, incluindo a série GPT-3.5.
Nova versão de API (2022-12-01). Essa atualização inclui vários aprimoramentos solicitados, incluindo informações de uso de token na resposta à API, mensagens de erro aprimoradas para arquivos, alinhamento com o OpenAI na estrutura de dados de criação de ajuste e suporte para o parâmetro de sufixo a fim de permitir a nomenclatura personalizada de trabalhos ajustados.
Limites de solicitação mais altos por segundo. 50 para modelos não Davinci. 20 para modelos Davinci.
Implantações mais rápidas de ajuste. Implante modelos ajustados por Ada e Curie em menos de 10 minutos.
Limites de treinamento mais altos: tokens de treinamento de 40 milhões para Ada, Babbage e Curie. 10 milhões para Davinci.
Processo para solicitar modificações no uso indevido e no abuso do log de dados e da revisão humana. Hoje, o serviço registra em log os dados de solicitação/resposta para fins de detecção de abuso e uso indevido, a fim de garantir que esses modelos sofisticados não sejam indevidamente utilizados. No entanto, muitos clientes têm requisitos estritos de privacidade e segurança de dados que exigem maior controle sobre os dados. Para dar suporte a esses casos de uso, estamos lançando um novo processo para que os clientes modifiquem as políticas de filtragem de conteúdo ou desativem o log de abuso para casos de uso de baixo risco. Esse processo segue o processo de Acesso Limitado estabelecido nos serviços de IA do Azure e os clientes existentes do OpenAI podem enviar uma solicitação aqui.
Criptografia de CMK (chave gerenciada pelo cliente). A CMK fornece aos clientes maior controle sobre o gerenciamento dos dados no Serviço OpenAI do Azure, fornecendo chaves de criptografia exclusivas usadas para armazenar dados de treinamento e modelos personalizados. As Chaves Gerenciadas pelo Cliente (CMK), também conhecidas como Bring Your Own Key (BYOK), oferecem maior flexibilidade para criar, girar, desabilitar e revogar controles de acesso. Você também pode auditar as chaves de criptografia usadas para proteger seus dados. Saiba mais em nossa documentação sobre a criptografia em repouso.
Suporte ao Sistema de Proteção de Dados
Conformidade com o SOC-2
Log e diagnóstico por meio das configurações de Diagnóstico e Métricas, do Azure Resource Health e da Análise de Custos..
Aprimoramentos do Studio. Vários aprimoramentos de usabilidade no fluxo de trabalho do Studio, incluindo o suporte à função do Azure AD para controlar quem na equipe tem acesso para criar e implantar modelos ajustados.
Alterações (interruptivas)
A solicitação de API de criação de ajuste refinado foi atualizada para corresponder ao esquema do OpenAI.
Versões prévias da API:
{
"training_file": "file-XGinujblHPwGLSztz8cPS8XY",
"hyperparams": {
"batch_size": 4,
"learning_rate_multiplier": 0.1,
"n_epochs": 4,
"prompt_loss_weight": 0.1,
}
}
Versão da API 2022-12-01:
{
"training_file": "file-XGinujblHPwGLSztz8cPS8XY",
"batch_size": 4,
"learning_rate_multiplier": 0.1,
"n_epochs": 4,
"prompt_loss_weight": 0.1,
}
A filtragem de conteúdo está temporariamente desativada por padrão. A moderação de conteúdo do Azure funciona de maneira diferente do OpenAI do Azure. O OpenAI do Azure executa filtros de conteúdo durante a chamada de geração para detectar conteúdo prejudicial ou abusivo e os filtra da resposta. Saiba mais
Esses modelos serão habilitados novamente no primeiro trimestre de 2023 e estarão ativados por padrão.
Ações do cliente
- Entre em contato com o Suporte do Azure se desejar que elas sejam ativadas na sua assinatura.
- Solicite modificações de filtragem, caso deseje que elas permaneçam desativadas. (Essa opção será somente para casos de uso de baixo risco.)
Próximas etapas
Saiba mais sobre os modelos subjacentes que alimentam o OpenAI do Azure.