Migrar seus dados do QnA Maker para o OpenAI do Azure

O QnA Maker foi desenvolvido para ser um serviço de NLP (processamento de linguagem natural) baseado em nuvem que permite criar uma camada de conversa natural sobre seus dados. Esse serviço está sendo desativado, tendo sido substituído por respostas às perguntas personalizadas. Os runtimes de IA, no entanto, estão evoluindo devido ao desenvolvimento de Grandes Modelos de Linguagem (LLMs), como GPT-35-Turbo e GPT-4 oferecidos pelo OpenAI do Azure, que abordam muitos casos de uso baseados em chat. Use esse artigo para saber como migrar seus projetos existentes do QnA Maker para o OpenAI do Azure.

Pré-requisitos

Migrar para o OpenAI do Azure

  1. Faça logon no portal do Azure e navegue até um projeto existente do QnA Maker. Em seguida, selecione-o para abrir a seção Visão geral.

    Uma captura de tela mostrando o projeto do QnA Maker no portal do Azure.

  2. Verifique se o projeto do QnA Maker selecionado é aquele que você deseja migrar, incluindo sua assinatura do Azure e grupo de recursos.

  3. Vá para o grupo de recursos associado e filtre os recursos pelo serviço de pesquisa para localizar o serviço Cognitive Search associado.

    Uma captura de tela mostrando o serviço de pesquisa do projeto do QnA Maker no portal do Azure.

  4. Selecione o serviço de pesquisa e abra a seção Visão geral. Anote as informações, como o nome do recurso, a assinatura e a localização do recurso do Azure Search. Você precisará dessas informações ao migrar para o OpenAI do Azure.

    Captura de tela mostrando as informações do serviço de pesquisa do projeto do QnA Maker no portal do Azure.

  5. Navegue até a seção Gerenciamento de pesquisa>Índices no menu à esquerda e observe o índice que você deseja migrar para o OpenAI do Azure.

    Captura de tela mostrando um nome do índice de pesquisa no portal do Azure.

  6. Acesse o Estúdio do OpenAI do Azure e selecione Trazer seus próprios dados.

    Uma captura de tela mostrando o estúdio do OpenAI do Azure.

    Você também pode selecionar Playground de chat e, em seguida, selecionar Adicionar seus dados.

    Uma captura de tela mostrando playground de chat no estúdio do OpenAI do Azure.

  7. No painel exibido, selecione Azure Cognitive Search em Selecionar ou adicionar fonte de dados. Isso atualizará a tela com as opções de Mapeamento de campo de dados que dependem da sua fonte de dados. Selecione a assinatura, o serviço Pesquisa de IA do Azure e o índice da Pesquisa de IA do Azure associados ao seu projeto do QnA Maker. Selecione a confirmação de que a conexão gerará uso em sua conta. Em seguida, selecione Avançar.

    Uma captura de tela mostrando as seleções de fonte de dados no Estúdio do OpenAI do Azure.

  8. Na tela Mapeamento de campo de dados de índice, selecione a resposta para o campo Dados de conteúdo. Os outros campos, como Nome do arquivo, Título e URL, são opcionais, dependendo da natureza da sua fonte de dados.

    Uma captura de tela mostrando informações de mapeamento de campo de índice para a Pesquisa de IA do Azure no Estúdio do OpenAI do Azure.

  9. Selecione Avançar. Selecione um tipo de pesquisa no menu suspenso. Você pode escolher Palavra-chave ou Semântica. A pesquisa semântica requer uma configuração de pesquisa semântica existente, que pode ou não estar disponível para o seu projeto.

    Uma captura de tela mostrando as opções de gerenciamento de dados para os índices da Pesquisa de IA do Azure.

  10. Revise as informações fornecidas e selecione Salvar e fechar.

    Uma captura de tela mostrando a tela de confirmação.

  11. Sua fonte de dados foi adicionada. Selecione o nome da implantação de modelo na guia Configuração>Implantação no menu à direita.

    Uma captura de tela da página de playground do Estúdio do OpenAI do Azure com seções destacadas.

Agora você pode começar a explorar os recursos do OpenAI do Azure com uma abordagem sem código por meio do playground de chat. É apenas uma caixa de texto em que você pode enviar um prompt para gerar uma conclusão. Nesta página, você pode iterar e experimentar as funcionalidades rapidamente. Você também pode iniciar um aplicativo Web para conversar com o modelo pela web.

Próximas etapas