Perguntas frequentes para a segurança e privacidade de dados do Copilot para o Dynamics 365 e o Power Platform

Copilot para Dynamics 365 e Power Platform os recursos seguem um conjunto de práticas básicas de segurança e privacidade e o Microsoft Padrão de IA Responsável. Os dados do Dynamics 365 e do Power Platform são protegidos por controles de conformidade, segurança e privacidade abrangentes e líderes do setor.

O copiloto é baseado no Serviço OpenAI do Microsoft Azure e é executado completamente na nuvem do Azure. O Serviço OpenAI do Azure oferece a disponibilidade regional e a filtragem de conteúdo de IA responsável. O copiloto usa modelos do OpenAI com todas as capacidades de segurança do Microsoft Azure. A OpenAI é uma organização independente. Não compartilhamos seus dados com a OpenAI.

Os recursos do copiloto não estão disponíveis em todas as geografias e idiomas do Azure. Dependendo de onde seu ambiente está hospedado, talvez seja necessário permitir a movimentação de dados entre regiões geográficas para usá-los. Para obter mais informações, consulte os artigos listados em Movimentação de dados entre geografias.

O que acontece com meus dados quando uso o Copilot?

Você está no controle dos seus dados. Microsoft não compartilha seus dados com terceiros, a menos que você tenha dado permissão para isso. Além disso, nós não usamos seus dados de cliente para treinar ou melhorar o Copiloto ou seus recursos de IA, a menos que você tenha dado consentimento para isso. O copiloto segue as permissões e políticas de dados existentes, e as respostas dele para você se baseiam somente nos dados aos quais você tem acesso. Para obter mais informações sobre como você pode controlar seus dados e como seus dados são tratados, consulte os artigos listados em Copiloto em aplicativos do Dynamics 365 e no Power Platform.

O copiloto monitora usos abusivos ou prejudiciais do serviço com processamento transitório. Não armazenamos nem realizamos análise ocular de entradas e saídas do Copiloto para fins de monitoramento de abuso.

Como o Copilot usa meus dados?

Cada serviço ou recurso usa o Copiloto com base nos dados que você fornece ou configura para o Copiloto processar.

Seus prompts (entradas) e respostas do Copiloto (saídas ou resultados):

Saiba mais sobre a OpenAI privacidade e segurança dos dados do serviço do Azure. Para saber mais sobre como Microsoft protege e usa seus dados de forma mais geral, leia nossa Declaração de Privacidade.

Para onde vão meus dados?

Microsoft funciona com base na confiança. Estamos comprometidos com a segurança, privacidade e conformidade em tudo o que fazemos, e nossa abordagem à IA não é diferente. Os dados do cliente, incluindo entradas e saídas do Copilot, são armazenados dentro do limite de confiança da Nuvem. Microsoft

Em alguns cenários, como recursos fornecidos pelo Bing e plug-ins de copiloto de terceiros, os dados do cliente podem ser transmitidos fora do limite de confiança da Nuvem. Microsoft

O Copilot pode acessar conteúdo criptografado?

Os dados são fornecidos ao Copiloto com base no nível de acesso do usuário atual. Se um usuário tiver acesso aos dados criptografados no Dynamics 365 e no Power Platform e o usuário os fornece ao Copiloto, e então o Copiloto poderá acessá-los.

Como o Copilot protege os dados do cliente?

Microsoft está posicionada de forma única para fornecer IA pronta para empresas. O Copiloto é da plataforma Serviço OpenAI do Azure e está em conformidade com nossos compromissos existentes de privacidade, segurança e regulamento com nossos clientes.

  • Construído com base na abordagem abrangente da Microsoft para segurança, privacidade e conformidade. O Copilot é integrado a serviços como Dynamics 365 e herda suas políticas e processos de segurança, privacidade e conformidade, como autenticação multifator e limites de conformidade. Microsoft Power Platform

  • Múltiplas formas de proteção de dados organizacionais. As tecnologias do lado do serviço criptografam o conteúdo organizacional em repouso e em trânsito para uma segurança robusta. As conexões são protegidas com o Transport camada Security (TLS), e as transferências de dados entre o Dynamics 365, Power Platform e o Azure OpenAI ocorrem pela Microsoft rede de backbone, garantindo confiabilidade e segurança. Saiba mais sobre criptografia na Microsoft Nuvem.

  • Projetado para proteger seus dados no nível do locatário e do ambiente. Sabemos que o vazamento de dados é uma preocupação para os clientes. Microsoft Os modelos de IA não são treinados e não aprendem com os dados do seu locatário ou com seus prompts, a menos que o administrador do seu locatário tenha optado por compartilhar dados conosco. Em seus ambientes, você pode controlar o acesso por meio de permissões configuradas. Os mecanismos de autenticação e autorização segregam as solicitações para o modelo compartilhado entre os locatários. O Copiloto utiliza dados que somente você pode acessar usando a mesma tecnologia que estamos usando durante anos para proteger os dados dos clientes.

As respostas do Copiloto são sempre factuais?

Como acontece com qualquer IA generativa, as respostas do Copilot não são 100% factuais. Embora continuemos a melhorar as respostas a perguntas baseadas em fatos, você ainda deve usar o bom senso e revisar a saída antes de enviá-la a outras pessoas. O Copiloto fornece rascunhos e resumos úteis para ajudar você a fazer mais, mas é totalmente automático. Você sempre tem a chance de revisar o conteúdo gerado por IA.

Nossas equipes estão trabalhando para melhorar os algoritmos para resolver de forma proativa, como informações incorretas e desinformação, bloqueio de conteúdo, segurança de dados e prevenção contra a promoção de conteúdo prejudicial ou discriminatório de acordo com nossos princípios de IA responsável.

Também oferecemos orientações na experiência do usuário para reforçar o uso responsável de conteúdo gerado pela IA e as ações sugeridas.

  • Instruções e prompts. Ao usar o Copilot, os prompts e outros elementos informativos lembram você de revisar e editar respostas conforme necessário antes do uso e para verificar manualmente a precisão de fatos, dados e texto antes de usar o conteúdo gerado pela IA.

  • Fontes citadas. Quando aplicável, o Copiloto cita suas fontes de informação, sejam públicas ou internas, para que você mesmo possa revisá-las a fim de confirmar as respostas.

Para obter mais informações, consulte as perguntas frequentes sobre IA Responsável para seu produto no Microsoft Learn.

Como o Copilot bloqueia conteúdo perigoso?

O Serviço OpenAI do Azure inclui um sistema de filtragem de conteúdo que funciona em conjunto com os modelos principais. Os modelos de filtragem de conteúdo para as categorias Ódio e Imparcialidade, Sexual, Violência e Automutilação foram especificamente treinados e testados em vários idiomas. Esse sistema funciona executando o prompt de entrada e a resposta por meio de modelos de classificação projetados para identificar e bloquear a saída de conteúdo nocivo.

Os danos relacionados ao ódio e à justiça referem-se a qualquer conteúdo que use linguagem pejorativa ou discriminatória com base em atributos como raça, etnia, nacionalidade, identidade e expressão de gênero, orientação sexual, religião, status de imigração, status de habilidade, aparência pessoal e tamanho corporal. A imparcialidade se preocupa em garantir que os sistemas de IA tratem todos os grupos de pessoas de forma equitativa, sem contribuir para as desigualdades sociais existentes. O conteúdo sexual envolve discussões sobre órgãos reprodutivos humanos, relacionamentos românticos, atos retratados em termos eróticos ou afetivos, gravidez, atos sexuais físicos, incluindo aqueles retratados como uma agressão ou um ato forçado de violência sexual, prostituição, pornografia e abuso. A violência descreve a linguagem relacionada a ações físicas que se destinam a prejudicar ou matar, incluindo ações, armas e entidades relacionadas. A linguagem de automutilação refere-se a ações deliberadas que têm a intenção de ferir ou matar a si mesmo.

Saiba mais sobre a filtragem de conteúdo do Azure OpenAI .

O Copilot bloqueia injeções de prompts (ataques de jailbreak)?

Ataques de fuga de presos são prompts de usuário projetados para provocar o modelo de IA generativa a se comportar de maneiras que ele foi treinado para não fazer ou a quebrar as regras que ele foi instruído a seguir. Os serviços no Dynamics 365 e no Power Platform são necessários para a proteção contra injeções de prompt. Saiba mais sobre ataques de jailbreak e como usar o Azure AI Content Safety para detectá-los.

O Copilot bloqueia injeções de prompts indiretos (ataques indiretos)?

Os ataques indiretos, também conhecidos como ataques de prompt indireto ou ataques de injeção de prompt entre domínios, são uma vulnerabilidade potencial em que terceiros colocam instruções maliciosas dentro de documentos que o sistema de IA generativo pode acessar e processar. Os serviços no Dynamics 365 e no Power Platform são necessários para a proteção contra injeções de prompt indireto. Saiba mais sobre ataques indiretos e como usar o Azure AI Content Safety para detectá-los.

Como o Microsoft testa e valida a qualidade do Copilot, incluindo proteção de injeção rápida e respostas no solo?

Cada nova iteração de produto e modelo de linguagem do Copiloto deve passar por uma revisão responsável interna de IA antes de poder ser lançada. Antes do lançamento, usamos um processo chamado "red teaming" (no qual uma equipe simula um ataque inimigo, encontrando e explorando fraquezas para ajudar a organização a melhorar suas defesas) para avaliar riscos potenciais em conteúdo prejudicial, cenários de jailbreak e respostas fundamentadas. Após o lançamento, usamos testes automatizados e ferramentas de avaliação manuais e automatizadas para avaliar a qualidade das respostas do Copilot.

Como o Microsoft aprimora o modelo de base e mede as melhorias nas respostas fundamentadas?

No contexto da IA, especialmente a IA que lida com modelos de linguagem como aquele em que o Copiloto se baseia, a fundamentação ajuda a IA a gerar respostas mais relevantes e que façam sentido no mundo real. A fundamentação ajuda a garantir que as respostas da IA sejam baseadas em informações confiáveis e tão precisas e relevantes quanto possível. As métricas de resposta fundamentada nos dados avaliam com que precisão os fatos declarados no conteúdo de aterramento fornecido ao modelo são representados na resposta final.

Modelos de fundação como GPT-4 são aprimorados por técnicas de RAG (Geração Aumentada de Recuperação). Essas técnicas permitem que os modelos usem mais informações do que foram treinadas para entender o cenário de um usuário. O RAG funciona identificando primeiro os dados que são relevantes para o cenário, semelhante a como um mecanismo de pesquisa identifica páginas da Web que são relevantes para os termos de pesquisa do usuário. Ele usa várias abordagens para identificar qual conteúdo é relevante para o prompt do usuário e deve ser usado para fundamentar a resposta. As abordagens incluem pesquisar diferentes tipos de índices, como índices invertidos usando técnicas de recuperação de informações, como correspondência de termos, ou índices vetoriais usando comparações vetoriais de distância para similaridade semântica. Depois de identificar os documentos relevantes, o RAG passa os dados para o modelo junto com a conversa atual, dando ao modelo mais contexto para entender melhor as informações que ele já tem e gerar uma resposta fundamentada no mundo real. Por fim, o RAG verifica a resposta para certificar-se de que ela tem suporte do conteúdo de origem fornecido ao modelo. Os recursos de IA generativa do Copiloto incorporam o RAG de várias maneiras. Um exemplo é o uso de chat com dados, em que um chatbot é fundamentado com as próprias fontes de dados do cliente.

Outro método para aprimorar os modelos fundamentais é conhecido como ajuste fino. Um grande conjunto de dados de pares consulta-resposta é mostrado a um modelo fundamental para aumentar seu treinamento original com novos exemplos direcionados a um cenário específico. O modelo pode então ser implantado como um modelo separado – que é ajustado para esse cenário. Enquanto o aterramento é sobre tornar o conhecimento da IA relevante para o mundo real, o ajuste fino é sobre tornar o conhecimento da IA mais específico para uma tarefa ou domínio específico. Microsoft usa o ajuste chopp de várias maneiras. Por exemplo, usamos a criação de fluxo do Power Automate de descrições em linguagem natural fornecidas pelo usuário.

O Copilot atende às necessidades da conformidade regulatória?

O Microsoft Copilot faz parte do ecossistema do Dynamics 365 e do Power Platform e atende aos mesmos requisitos de conformidade regulatória. Para obter mais informações sobre as certificações regulatórias de Microsoft serviços, acesse o Portal de confiança de serviços. Além disso, o Copilot adere ao nosso compromisso com a IA responsável, que é implementado por meio de nosso Padrão de IA Responsável. À medida que a regulamentação da IA evolui, ela continua a se adaptar e responder a novos requisitos. Microsoft

Saiba mais sobre a disponibilidade do Dynamics 365, Power Platform e do Copilot, os locais de dados do cliente e a conformidade com os requisitos globais, regionais e específicos do setor para geranciamento de dados.

Saber mais

Copiloto em aplicativos do Dynamics 365 e o Power Platform

Produto Recurso Ambientes Gerenciados necessários? Como desativar o recurso
AI Builder Cenários em versão preliminar No Cenários em versão preliminar
Copilot Studio Conhecimento geral de IA No Copilot Studio segurança e governança
Copilot Studio Crie e edite tópicos com o Copilot No Copilot Studio segurança e governança
Copilot Studio Ações generativas No Copilot Studio segurança e governança
Copilot Studio Respostas generativas No Copilot Studio segurança e governança
Dynamics 365 Business Central Todos (veja a lista completa em aka.ms/bcAI.) No Ativar recursos
Dynamics 365 Customer Insights - Data Crie segmentos com o Copilot para Customer Insights - Data (versão preliminar) No O Customer Insights - Data tem seu próprio sinalizador para todos os recursos do Copilot por OpenAI do Azure.

Saiba mais: Dar consentimento para usar o Copilot no Customer Insights - Data
Dynamics 365 Customer Insights - Data Visão geral do relatório de preparação de dados (versão preliminar) No O Customer Insights - Data tem seu próprio sinalizador para todos os recursos do Copilot por OpenAI do Azure.

Saiba mais: Dar consentimento para usar o Copilot no Customer Insights - Data
Dynamics 365 Customer Insights - Data Obtenha respostas para perguntas sobre recursos do Copilot (versão preliminar) No O Customer Insights - Data tem seu próprio sinalizador para todos os recursos do Copilot por OpenAI do Azure.

Saiba mais: Dar consentimento para usar o Copilot no Customer Insights - Data
Dynamics 365 Customer Insights (Dados) Tenha um diálogo com dados usando o Copilot no Customer Insights No O Customer Insights - Data tem seu próprio sinalizador para todos os recursos do Copilot por OpenAI do Azure.

Saiba mais: Dar consentimento para usar o Copilot no Customer Insights - Data
Dynamics 365 Customer Insights - Data Exibir configuração do sistema No O Customer Insights - Data tem seu próprio sinalizador para todos os recursos do Copilot por OpenAI do Azure.

Saiba mais: Dar consentimento para usar o Copilot no Customer Insights - Data
Dynamics 365 Customer Insights - Journeys O Copilot ajuda você a aprender e fazer mais (análise) No São as configurações do administrador do Power Platform que determinam se esse copiloto estará disponível em seu ambiente ou não. Aprenda como adicionar o Copilot para aplicativos baseados em modelos.


Esse recurso é "app copilot in Customer Insights - Journeys" e é por isso que ele está habilitado no Power Platform centro de administração. Saiba mais: Perguntas frequentes sobre AI Responsável
Dynamics 365 Customer Insights - Journeys Crie jornadas usando assistência de IA No O Customer Insights - Journeys tem seus próprios sinalizadores para recursos do Copilot.

Saiba mais: Dar consentimento para usar o Copilot no Customer Insights - Journeys
Dynamics 365 Customer Insights - Journeys Atualize e aperfeiçoe sua mensagem No O Customer Insights - Journeys tem seus próprios sinalizadores para recursos do Copilot.

Saiba mais: Dar consentimento para usar o Copilot no Customer Insights - Journeys
Dynamics 365 Customer Insights - Journeys Personalize seus e-mails com temas assistidos por IA No O Customer Insights - Journeys tem seus próprios sinalizadores para recursos do Copilot.

Saiba mais: Dar consentimento para usar o Copilot no Customer Insights - Journeys
Dynamics 365 Customer Insights - Journeys Segmente os clientes certos usando o assistente de consulta

No O Customer Insights - Journeys tem seus próprios sinalizadores para recursos do Copilot.

Saiba mais: Dar consentimento para usar o Copilot no Customer Insights - Journeys
Dynamics 365 Customer Insights - Journeys Use IA para dar início à criação de e-mails No O Customer Insights - Journeys tem seus próprios sinalizadores para recursos do Copilot.

Saiba mais: Dar consentimento para usar o Copilot no Customer Insights - Journeys
Dynamics 365 Customer Insights - Journeys Use imagens em seu conteúdo No O Customer Insights - Journeys tem seus próprios sinalizadores para recursos do Copilot.

Saiba mais: Dar consentimento para usar o Copilot no Customer Insights - Journeys
Dynamics 365 Customer Service Componha um e-mail No Gerenciar recursos do Copilot em SAC
Dynamics 365 Customer Service Rascunhe um chat resposta No Gerenciar recursos do Copilot em SAC
Dynamics 365 Customer Service Responder a perguntas No Gerenciar recursos do Copilot em SAC
Dynamics 365 Customer Service Resumir um caso e uma conversa No Gerenciar recursos do Copilot em SAC
Power Apps Crie aplicativos por meio de conversas No Gerenciar configurações de recursos
Power Apps Assistência do copiloto para preenchimento de formulários em aplicativos baseados em modelos No Gerenciar configurações de recursos
Power Apps Elabore um texto de entrada bem escrito com o Copilot Não, licença premium de usuário Elabore um texto de entrada bem escrito com o Copilot
Power Apps Excel para Tabela No Gerenciar configurações de recursos
Power Apps Use linguagem natural para editar um aplicativo usando o painel Copilot No Gerenciar configurações de recursos
Power Automate Copiloto em fluxos de nuvem na Página Inicial e no designer (Consulte Introdução ao Copilot nos fluxos de nuvem para obter detalhes.) No Entre em contato com o suporte para executar um script do PowerShell.
Power Pages Tudo (Consulte Visão geral do Copilot no Power Pages para obter detalhes.) Não Desligue o Copilot em Power Pages

Saiba mais em Perguntas frequentes sobre compartilhamento de dados opcional para recursos do Copilot AI no Dynamics 365 e Power Platform.

Disponibilidade de idiomas e regional

Disponibilidade internacional do Copilot

Movimentação de dados entre regiões geográficas

Segurança em Microsoft

Privacidade em Microsoft

Microsoft Declaração de Privacidade

IA responsável