Perguntas mais frequentes sobre o Azure OpenAI Service

Se não conseguir encontrar respostas às suas perguntas neste documento e ainda precisar de ajuda, consulte o guia de opções de suporte dos serviços de IA do Azure. O Azure OpenAI faz parte dos serviços de IA do Azure.

Dados e Privacidade

Utiliza os dados da minha empresa para formar algum dos modelos?

O Azure OpenAI não usa dados do cliente para treinar novamente modelos. Para obter mais informações, consulte o guia Dados, privacidade e segurança do Azure OpenAI.

Geral

O Azure OpenAI dá suporte a cabeçalhos de API personalizados? Acrescentamos cabeçalhos personalizados adicionais às nossas solicitações de API e estamos vendo erros de falha HTTP 431.

Nossas APIs atuais permitem até 10 cabeçalhos personalizados, que são passados pelo pipeline e retornados. Notamos que alguns clientes agora excedem essa contagem de cabeçalhos, resultando em erros HTTP 431. Não há solução para esse erro, a não ser reduzir o volume do cabeçalho. Em versões futuras da API, não passaremos mais por cabeçalhos personalizados. Recomendamos que os clientes não dependam de cabeçalhos personalizados em futuras arquiteturas de sistema.

O Azure OpenAI funciona com a biblioteca Python mais recente lançada pela OpenAI (versão>=1.0)?

O Azure OpenAI é suportado pela versão mais recente da biblioteca OpenAI Python (version>=1.0). No entanto, é importante observar que a migração da sua base de código usando openai migrate não é suportada e não funcionará com o código destinado ao Azure OpenAI.

Não consigo encontrar o GPT-4 Turbo Preview, onde está?

GPT-4 Turbo Preview é o gpt-4 modelo (1106-preview). Para implantar esse modelo, em Implantações , selecione o modelo gpt-4. Para Versão do modelo, selecione 1106-preview. Para verificar quais regiões esse modelo está disponível, consulte a página de modelos.

O Azure OpenAI suporta GPT-4?

O Azure OpenAI suporta os modelos GPT-4 mais recentes. Ele suporta GPT-4 e GPT-4-32K.

Como os recursos do Azure OpenAI se comparam ao OpenAI?

O Serviço OpenAI do Azure oferece aos clientes IA de linguagem avançada com modelos OpenAI GPT-3, Codex e DALL-E com a promessa de segurança e empresa do Azure. O Azure OpenAI codesenvolve as APIs com a OpenAI, garantindo compatibilidade e uma transição suave de uma para a outra.

Com o Azure OpenAI, os clientes obtêm os recursos de segurança do Microsoft Azure enquanto executam os mesmos modelos do OpenAI.

O Azure OpenAI suporta VNETs e Pontos de Extremidade Privados?

Sim, como parte dos serviços de IA do Azure, o Azure OpenAI suporta VNETs e Pontos de Extremidade Privados. Para saber mais, consulte as diretrizes de rede virtual dos serviços de IA do Azure.

Os modelos GPT-4 suportam atualmente a entrada de imagem?

Não, o GPT-4 foi projetado pela OpenAI para ser multimodal, mas atualmente apenas a entrada e saída de texto são suportadas.

Como posso candidatar-me a novos casos de uso?

Anteriormente, o processo de adição de novos casos de uso exigia que os clientes se recandidatassem ao serviço. Agora, estamos lançando um novo processo que permite que você adicione rapidamente novos casos de uso ao seu uso do serviço. Este processo segue o processo de Acesso Limitado estabelecido nos serviços de IA do Azure. Os clientes existentes podem atestar todos e quaisquer novos casos de uso aqui. Observe que isso é necessário sempre que você quiser usar o serviço para um novo caso de uso para o qual não se candidatou originalmente.

Estou tentando usar incorporações e recebi o erro "InvalidRequestError: muitas entradas. O número máximo de entradas é 16." Como devo proceder para corrigir este problema?

Esse erro normalmente ocorre quando você tenta enviar um lote de texto para incorporar em uma única solicitação de API como uma matriz. Atualmente, o Azure OpenAI suporta apenas matrizes de incorporações com várias entradas para o modelo da text-embedding-ada-002 Versão 2. Esta versão do modelo suporta uma matriz que consiste em até 16 entradas por solicitação de API. A matriz pode ter até 8.191 tokens de comprimento ao usar o modelo text-embedding-ada-002 (Versão 2).

Onde posso ler sobre melhores maneiras de usar o Azure OpenAI para obter as respostas que quero do serviço?

Confira nossa introdução à engenharia imediata. Embora esses modelos sejam poderosos, seu comportamento também é muito sensível aos prompts que recebem do usuário. Isto faz da construção do pedido uma competência essencial a desenvolver. Depois de concluir a introdução, confira nosso artigo sobre mensagens do sistema.

Minha conta de convidado recebeu acesso a um recurso do Azure OpenAI, mas não consigo acessar esse recurso no Azure AI Studio. Como faço para habilitar o acesso?

Esse é o comportamento esperado ao usar a experiência de entrada padrão para o Azure AI Studio.

Para aceder ao Azure AI Studio a partir de uma conta de convidado à qual tenha sido concedido acesso a um recurso do Azure OpenAI:

  1. Abra uma sessão privada do navegador e navegue até https://ai.azure.com.
  2. Em vez de inserir imediatamente as credenciais da sua conta de convidado, selecione Sign-in options
  3. Agora selecione Entrar em uma organização
  4. Insira o nome de domínio da organização que concedeu acesso à sua conta de convidado ao recurso Azure OpenAI.
  5. Agora inicie sessão com as credenciais da sua conta de convidado.

Agora você deve ser capaz de acessar o recurso por meio do Azure AI Studio.

Como alternativa, se você estiver conectado ao portal do Azure no painel Visão geral do recurso Azure OpenAI, poderá selecionar Ir para o Azure AI Studio para entrar automaticamente com o contexto organizacional apropriado.

Quando eu pergunto GPT-4 qual modelo ele está executando, ele me diz que está executando GPT-3. Por que isso acontece?

Os modelos OpenAI do Azure (incluindo GPT-4) não conseguem identificar corretamente qual modelo está sendo executado é um comportamento esperado.

Por que isso acontece?

Em última análise, o modelo está realizando a próxima previsão de token em resposta à sua pergunta. O modelo não tem nenhuma capacidade nativa de consultar qual versão do modelo está sendo executada no momento para responder à sua pergunta. Para responder a essa pergunta, você sempre pode ir para Implantações de Gerenciamento>do> Azure AI Studio>e consultar a coluna de nome do modelo para confirmar qual modelo está atualmente associado a um determinado nome de implantação.

As perguntas "Qual modelo você está executando?" ou "Qual é o modelo mais recente da OpenAI?" produzem resultados de qualidade semelhantes aos de perguntar ao modelo qual será o clima hoje. Pode retornar o resultado correto, mas puramente por acaso. Por si só, o modelo não tem nenhuma informação do mundo real além do que fazia parte de seus dados de treinamento. No caso do GPT-4, a partir de agosto de 2023 os dados de treinamento subjacentes vão apenas até setembro de 2021. O GPT-4 não foi lançado até março de 2023, portanto, salvo se a OpenAI lançar uma nova versão com dados de treinamento atualizados, ou uma nova versão que seja ajustada para responder a essas perguntas específicas, é esperado que o GPT-4 responda que o GPT-3 é a versão mais recente do modelo da OpenAI.

Se você quisesse ajudar um modelo baseado em GPT a responder com precisão à pergunta "qual modelo você está executando?", você precisaria fornecer essas informações ao modelo por meio de técnicas como engenharia imediata da mensagem do sistema do modelo, Geração Aumentada de Recuperação (RAG), que é a técnica usada pelo Azure OpenAI em seus dados, onde informações atualizadas são injetadas na mensagem do sistema no momento da consulta, ou através de ajuste fino, onde você pode ajustar versões específicas do modelo para responder a essa pergunta de uma certa maneira com base na versão do modelo.

Para saber mais sobre como os modelos GPT são treinados e funcionam, recomendamos assistir à palestra de Andrej Karpathy da Build 2023 sobre o estado do GPT.

Perguntei ao modelo quando é o seu ponto de corte de conhecimento e ele deu-me uma resposta diferente do que está na página do modelo OpenAI do Azure. Por que isso acontece?

Este comportamento está previsto. As modelos não são capazes de responder a perguntas sobre si mesmas. Se você quiser saber quando é o ponto de corte de conhecimento para os dados de treinamento do modelo, consulte a página de modelos.

Fiz uma pergunta à modelo sobre algo que aconteceu recentemente antes do corte de conhecimento e ela errou a resposta. Por que isso acontece?

Este comportamento está previsto. Primeiro, não há garantia de que todos os eventos recentes fizeram parte dos dados de treinamento do modelo. E mesmo quando as informações faziam parte dos dados de treinamento, sem usar técnicas adicionais como a Geração Aumentada de Recuperação (RAG) para ajudar a fundamentar as respostas do modelo, há sempre uma chance de ocorrerem respostas não fundamentadas. Tanto o Azure OpenAI usa seu recurso de dados quanto o Bing Chat usa modelos do Azure OpenAI combinados com a Geração Aumentada de Recuperação para ajudar a aprofundar as respostas do modelo terrestre.

A frequência com que uma determinada informação apareceu nos dados de treinamento também pode afetar a probabilidade de que o modelo responda de uma determinada maneira.

Perguntar ao mais recente modelo GPT-4 Turbo Preview sobre algo que mudou mais recentemente, como "Quem é o primeiro-ministro da Nova Zelândia?", provavelmente resultará na resposta Jacinda Ardernfabricada. No entanto, perguntando ao modelo "Quando é que deixou Jacinda Ardern o cargo de primeiro-ministro?" Tende a produzir uma resposta precisa que demonstre conhecimento de dados de treinamento indo pelo menos até janeiro de 2023.

Portanto, embora seja possível sondar o modelo com perguntas para adivinhar seu corte de conhecimento de dados de treinamento, a página do modelo é o melhor lugar para verificar o corte de conhecimento de um modelo.

Onde posso acessar as informações de preços para modelos herdados, que não estão mais disponíveis para novas implantações?

As informações sobre preços antigos estão disponíveis através de um ficheiro PDF transferível. Para todos os outros modelos, consulte a página oficial de preços.

Como faço para corrigir InternalServerError - 500 - Falha ao criar conclusão como o modelo gerou saída Unicode inválida?

Você pode minimizar a ocorrência desses erros reduzindo a temperatura dos prompts para menos de 1 e garantindo que está usando um cliente com lógica de repetição. Repetir a solicitação geralmente resulta em uma resposta bem-sucedida.

Observamos cobranças associadas a chamadas de API que não foram concluídas com o código de status 400. Por que as chamadas de API com falha estão gerando uma cobrança?

Se o serviço executar o processamento, você será cobrado mesmo se o código de status não for bem-sucedido (não 200). Exemplos comuns disso são, um erro 400 devido a um filtro de conteúdo ou limite de entrada, ou um erro 408 devido a um tempo limite. As cobranças também ocorrerão quando um status 200 for recebido com um finish_reason de content_filter. Neste caso, o prompt não teve problemas, mas a conclusão gerada pelo modelo foi detetada para violar as regras de filtragem de conteúdo, o que resulta na conclusão sendo filtrada. Se o serviço não executar o processamento, você não será cobrado. Por exemplo, um erro 401 devido à autenticação ou um erro 429 devido a exceder o limite de taxa.

Obter acesso ao Serviço OpenAI do Azure

Como faço para obter acesso ao Azure OpenAI?

Um formulário de registro de Acesso Limitado não é necessário para acessar a maioria dos modelos do Azure OpenAI. Saiba mais na página Acesso Limitado do Azure OpenAI.

Aprender mais e onde fazer perguntas

Onde posso ler sobre as atualizações mais recentes do Azure OpenAI?

Para atualizações mensais, consulte a nossa página de novidades.

Onde posso obter formação para começar a aprender e desenvolver as minhas competências em torno do Azure OpenAI?

Confira nosso curso de treinamento de introdução ao Azure OpenAI.

Onde posso publicar perguntas e ver respostas a outras perguntas comuns?

  • Recomendamos postar perguntas nas Perguntas e Respostas da Microsoft.
  • Como alternativa, você pode postar perguntas sobre Stack Overflow.

Onde posso obter suporte ao cliente do Azure OpenAI?

O Azure OpenAI faz parte dos serviços de IA do Azure. Você pode saber mais sobre todas as opções de suporte para serviços de IA do Azure no guia de opções de suporte e ajuda.

Modelos e afinação fina

Que modelos estão disponíveis?

Consulte o guia de disponibilidade do modelo OpenAI do Azure.

Onde posso saber em que região um modelo está disponível?

Consulte o Guia de disponibilidade de modelos do Azure OpenAI para obter a disponibilidade por regiões.

Quais são os SLAs (Contratos de Nível de Serviço) no Azure OpenAI?

Oferecemos um SLA de disponibilidade para todos os recursos e um SLA de latência para implantações gerenciadas provisionadas. Para obter mais informações sobre o SLA do Serviço OpenAI do Azure, consulte a página Contratos de Nível de Serviço (SLA) para Serviços Online.

Como faço para ativar o ajuste fino? Criar um modelo personalizado está acinzentado no Azure AI Studio.

Para acessar com sucesso o ajuste fino, você precisa do Cognitive Services OpenAI Contributor atribuído. Mesmo alguém com permissões de Administrador de Serviço de alto nível ainda precisaria dessa conta explicitamente definida para acessar o ajuste fino. Para obter mais informações, consulte as diretrizes de controle de acesso baseado em função.

Qual é a diferença entre um modelo base e um modelo ajustado?

Um modelo base é um modelo que não foi personalizado ou ajustado para um caso de uso específico. Os modelos ajustados são versões personalizadas de modelos básicos em que os pesos de um modelo são treinados em um conjunto exclusivo de prompts. Os modelos ajustados permitem-lhe obter melhores resultados num maior número de tarefas sem ter de fornecer exemplos detalhados de aprendizagem no contexto como parte do seu pedido de conclusão. Para saber mais, consulte nosso guia de ajuste fino.

Qual é o número máximo de modelos ajustados que posso criar?

100

Por que minha implantação de modelo ajustado foi excluída?

Se um modelo personalizado (ajustado) for implantado por mais de 15 dias durante os quais nenhuma conclusão ou chamada de conclusão de bate-papo será feita para ele, a implantação será excluída automaticamente (e não serão incorridos mais encargos de hospedagem para essa implantação). O modelo personalizado subjacente permanece disponível e pode ser reimplantado a qualquer momento. Para saber mais, consulte o artigo de instruções.

Como implantar um modelo com a API REST?

Atualmente, existem duas APIs REST diferentes que permitem a implantação do modelo. Para obter os recursos de implantação de modelo mais recentes, como a capacidade de especificar uma versão do modelo durante a implantação para modelos como text-embedding-ada-002 Versão 2, use a chamada Deployments - Create Or Update REST API.

Posso usar a cota para aumentar o limite máximo de token de um modelo?

Não, a alocação de cota de tokens por minuto (TPM) não está relacionada ao limite máximo de token de entrada de um modelo. Os limites de token de entrada de modelo são definidos na tabela de modelos e não são afetados pelas alterações feitas no TPM.

GPT-4 Turbo com Visão

Posso ajustar os recursos de imagem no GPT-4?

Não, não suportamos o ajuste fino dos recursos de imagem do GPT-4 no momento.

Posso usar o GPT-4 para gerar imagens?

Não, você pode usar dall-e-3 para gerar imagens e gpt-4-vision-preview entender imagens.

Que tipo de ficheiros posso carregar?

Atualmente suportamos PNG (.png), JPEG (.jpeg e .jpg), WEBP (.webp) e GIF não animado (.gif).

Existe um limite para o tamanho da imagem que posso carregar?

Sim, restringimos o carregamento de imagens a 20 MB por imagem.

Posso eliminar uma imagem que carreguei?

Não, eliminaremos a imagem automaticamente depois de ter sido processada pelo modelo.

Como funcionam os limites de taxa para GPT-4 Turbo com Visão?

Processamos imagens ao nível do token, pelo que cada imagem que processamos conta para o seu limite de tokens por minuto (TPM). Consulte a seção Tokens de imagem da Visão geral para obter detalhes sobre a fórmula usada para determinar a contagem de tokens por imagem.

O GPT-4 Turbo com Visão pode compreender os metadados da imagem?

Não, o modelo não recebe metadados de imagem.

O que acontece se a minha imagem não estiver clara?

Se uma imagem for ambígua ou pouco clara, o modelo fará o seu melhor para interpretá-la. No entanto, os resultados podem ser menos precisos. Uma boa regra geral é que, se um ser humano médio não pode ver as informações em uma imagem nas resoluções usadas no modo de baixa / alta resolução, então o modelo também não pode.

Quais são as limitações conhecidas do GPT-4 Turbo com Visão?

Consulte a secção de limitações do guia de conceitos GPT-4 Turbo with Vision.

Eu continuo recebendo respostas truncadas quando uso modelos de visão GPT-4 Turbo. Porque está isto a acontecer?

Por padrão, GPT-4 vision-preview e GPT-4 turbo-2024-04-09 têm um max_tokens valor de 16. Dependendo do seu pedido, este valor é muitas vezes demasiado baixo e pode levar a respostas truncadas. Para resolver esse problema, passe um valor maior max_tokens como parte de suas solicitações de API de conclusão de chat. O padrão GPT-4o é 4096 max_tokens.

Assistants

Você armazena algum dado usado na API do Assistants?

Sim. Ao contrário da API de Conclusão de Chat, os Assistentes OpenAI do Azure são uma API com monitoração de estado, o que significa que retém dados. Existem dois tipos de dados armazenados na API dos Assistentes:

  • Entidades com monitoração de estado: threads, mensagens e execuções criadas durante o uso dos Assistentes.
  • Ficheiros: carregados durante a configuração dos Assistentes ou como parte de uma mensagem.

Onde esses dados são armazenados?

Os dados são armazenados em uma conta de armazenamento segura e gerenciada pela Microsoft que é logicamente separada.

Durante quanto tempo são armazenados estes dados?

Todos os dados usados persistem neste sistema, a menos que você exclua explicitamente esses dados. Use a função delete com a ID do thread que você deseja excluir. Limpar a Execução no Assistants Playground não exclui threads, no entanto, excluí-los usando a função delete não os listará na página do thread.

Posso trazer meu próprio armazenamento de dados para usar com os Assistentes?

N.º Atualmente, o Assistants suporta apenas arquivos locais carregados no armazenamento gerenciado pelos assistentes. Não pode utilizar a sua conta de armazenamento privado com os Assistentes.

Os assistentes suportam criptografia de chave gerenciada pelo cliente (CMK)?

Hoje suportamos CMK para Threads e Arquivos em Assistentes. Consulte a página Novidades para ver as regiões disponíveis para este recurso.

Meus dados são usados pela Microsoft para modelos de treinamento?

N.º Os dados não são usados para a Microsoft, não são usados para modelos de treinamento. Consulte a documentação de IA responsável para obter mais informações.

Onde os dados são armazenados geograficamente?

Os pontos de extremidade dos Assistentes OpenAI do Azure são regionais e os dados são armazenados na mesma região que o ponto de extremidade. Para obter mais informações, consulte a documentação de residência de dados do Azure.

Como sou cobrado pelos Assistentes?

  • Custo de inferência (entrada e saída) do modelo base que está a utilizar para cada Assistente (por exemplo, gpt-4-0125). Se tiver criado vários Assistentes, ser-lhe-á cobrado o modelo base anexado a cada Assistente.
  • Se você ativou a ferramenta Interpretador de código. Por exemplo, se o assistente chamar o Intérprete de Código simultaneamente em dois threads diferentes, isso criará duas sessões do Intérprete de Código, cada uma das quais será cobrada. Cada sessão fica ativa por padrão por uma hora, o que significa que você só pagaria essa taxa uma vez se o usuário continuar dando instruções ao Interpretador de Código no mesmo thread por até uma hora.
  • A pesquisa de arquivos é cobrada com base no armazenamento vetorial usado.

Para obter mais informações, consulte a página de preços.

Existe algum preço ou cota adicional para usar os Assistentes?

N.º Todas as quotas aplicam-se à utilização de modelos com Assistentes.

A API de Assistentes suporta modelos OpenAI que não sejam do Azure?

A API de Assistentes suporta apenas modelos OpenAI do Azure.

A API de Assistentes está disponível em geral?

A API de Assistentes está atualmente em pré-visualização pública. Mantenha-se informado sobre as nossas últimas atualizações de produtos visitando regularmente a nossa página Novidades .

Quais são alguns exemplos ou outros recursos que posso usar para saber mais sobre os Assistentes?

Consulte os artigos Conceptuais, de início rápido e instruções para obter informações sobre como começar e utilizar os Assistentes. Você também pode conferir exemplos de código do Azure OpenAI Assistants no GitHub.

Aplicação Web

Como posso personalizar a minha aplicação Web publicada?

Você pode personalizar seu aplicativo Web publicado no portal do Azure. O código-fonte do aplicativo Web publicado está disponível no GitHub, onde você pode encontrar informações sobre como alterar o frontend do aplicativo, bem como instruções para criar e implantar o aplicativo.

Meu aplicativo Web será substituído quando eu implantar o aplicativo novamente a partir do Azure AI Studio?

O código do aplicativo não será substituído quando você atualizar o aplicativo. O aplicativo será atualizado para usar o recurso Azure OpenAI, o índice Azure AI Search (se você estiver usando o Azure OpenAI em seus dados) e as configurações de modelo selecionadas no Azure AI Studio sem qualquer alteração na aparência ou funcionalidade.

Utilização dos seus dados

O que é o Azure OpenAI em seus dados?

O Azure OpenAI em seus dados é um recurso dos Serviços OpenAI do Azure que ajuda as organizações a gerar insights, conteúdo e pesquisas personalizadas usando suas fontes de dados designadas. Ele funciona com os recursos dos modelos OpenAI no Azure OpenAI para fornecer respostas mais precisas e relevantes às consultas do usuário em linguagem natural. O Azure OpenAI nos seus dados pode ser integrado com as aplicações e fluxos de trabalho existentes do cliente, oferece informações sobre indicadores-chave de desempenho e pode interagir com os utilizadores sem problemas.

Como posso acessar o Azure OpenAI em seus dados?

Todos os clientes do Azure OpenAI podem usar o Azure OpenAI em seus dados por meio do estúdio de IA do Azure e da API Rest.

Quais fontes de dados o Azure OpenAI em seus dados suporta?

O Azure OpenAI nos seus dados suporta a ingestão da Pesquisa do Azure AI, do Armazenamento de Blobs do Azure e do carregamento de ficheiros locais. Você pode saber mais sobre o Azure OpenAI em seus dados no artigo conceitual e no início rápido.

Quanto custa usar o Azure OpenAI em seus dados?

Ao usar o Azure OpenAI em seus dados, você incorre em custos ao usar o Azure AI Search, o Armazenamento de Blobs do Azure, o Serviço de Aplicativo Web do Azure, a pesquisa semântica e os modelos OpenAI. Não há custo adicional para usar o recurso "seus dados" no Azure AI Studio.

Como posso personalizar ou automatizar o processo de criação do índice?

Você mesmo pode preparar o índice usando um script fornecido no GitHub. O uso desse script criará um índice do Azure AI Search com todas as informações necessárias para usar melhor seus dados, com seus documentos divididos em partes gerenciáveis. Consulte o arquivo LEIA-ME com o código de preparação de dados para obter detalhes sobre como executá-lo.

Como posso atualizar o meu índice?

Você pode agendar uma atualização automática de índice ou carregar dados adicionais para seu Contêiner de Blob do Azure e usá-lo como sua fonte de dados ao criar um novo índice. O novo índice incluirá todos os dados em seu contêiner.

Que tipos de ficheiro são suportados pelo Azure OpenAI nos seus dados?

Consulte Usando seus dados para obter mais informações sobre os tipos de arquivo suportados.

A IA responsável é suportada pelo Azure OpenAI nos seus dados?

Sim, o Azure OpenAI nos seus dados faz parte do Serviço Azure OpenAI e funciona com os modelos disponíveis no Azure OpenAI. Os recursos de filtragem de conteúdo e monitoramento de abuso do Azure OpenAI ainda se aplicam. Para obter mais informações, consulte a visão geral das práticas de IA responsável para modelos do Azure OpenAI e a Nota de Transparência para o Azure OpenAI para obter orientações adicionais sobre como usar o Azure OpenAI em seus dados de forma responsável.

Existe um limite de token na mensagem do sistema?

Sim, o limite de token na mensagem do sistema é 400. Se a mensagem do sistema for superior a 400 tokens, o resto dos tokens além dos primeiros 400 será ignorado. Esta limitação aplica-se apenas ao Azure OpenAI na sua funcionalidade de dados.

O Azure OpenAI na sua chamada de função de suporte de dados?

O Azure OpenAI em seus dados atualmente não oferece suporte a chamadas de função.

A linguagem de consulta e a linguagem da fonte de dados precisam ser as mesmas?

Deve enviar consultas na mesma língua dos seus dados. Os seus dados podem estar em qualquer um dos idiomas suportados pelo Azure AI Search.

Se a Pesquisa Semântica estiver habilitada para meu recurso Azure AI Search, ela será aplicada automaticamente ao Azure OpenAI em seus dados no Azure AI Studio?

Ao selecionar "Azure AI Search" como a fonte de dados, você pode optar por aplicar a pesquisa semântica. Se você selecionar "Contêiner de Blob do Azure" ou "Carregar arquivos" como a fonte de dados, poderá criar o índice como de costume. Depois, você reingeriria os dados usando a opção "Azure AI Search" para selecionar o mesmo índice e aplicar a Pesquisa Semântica. Você estará então pronto para conversar sobre seus dados com a pesquisa semântica aplicada.

Como posso adicionar incorporações vetoriais ao indexar meus dados?

Ao selecionar "Contêiner de Blob do Azure", "Azure AI Search" ou "Carregar arquivos" como fonte de dados, você também pode selecionar uma implantação de modelo de incorporação Ada para usar ao ingerir seus dados. Isso criará um índice do Azure AI Search com incorporações vetoriais.

Por que a criação de índice está falhando depois que adicionei um modelo de incorporação?

A criação de índice pode falhar ao adicionar incorporações ao seu índice se o limite de taxa na implantação do modelo de incorporação Ada for muito baixo ou se você tiver um conjunto muito grande de documentos. Você pode usar esse script fornecido no GitHub para criar o índice com incorporações manualmente.

Compromisso de Direitos Autorais do Cliente

Como posso obter cobertura ao abrigo do Compromisso de Direitos de Autor do Cliente?

O Compromisso de Direitos Autorais do Cliente é uma disposição a ser incluída nos Termos de Produto da Microsoft de 1º de dezembro de 2023 que descreve a obrigação da Microsoft de defender os clientes contra determinadas reivindicações de propriedade intelectual de terceiros relacionadas ao Conteúdo de Saída. Se o assunto da reivindicação for o Conteúdo de Saída gerado a partir do Serviço OpenAI do Azure (ou qualquer outro Produto Coberto que permita que os clientes configurem os sistemas de segurança), então, para receber cobertura, o cliente deve ter implementado todas as atenuações exigidas pela documentação do Serviço OpenAI do Azure na oferta que entregou o Conteúdo de Saída. As mitigações necessárias são documentadas aqui e atualizadas continuamente. Para novos serviços, recursos, modelos ou casos de uso, novos requisitos de CCC serão publicados e entrarão em vigor no lançamento ou após o lançamento de tal serviço, recurso, modelo ou caso de uso. Caso contrário, os clientes terão seis meses a partir do momento da publicação para implementar novas mitigações para manter a cobertura sob o CCC. Se um cliente apresentar uma reclamação, ser-lhe-á pedido que demonstre a conformidade com os requisitos relevantes. Essas atenuações são necessárias para Produtos Cobertos que permitem que os clientes configurem os sistemas de segurança, incluindo o Serviço Azure OpenAI; eles não afetam a cobertura para clientes que usam outros Produtos Cobertos.