FAQ para a segurança de dados e a privacidade do Copilot para o Dynamics 365 e o Power Platform
Copilot para Dynamics 365 e Power Platform recursos seguem um conjunto de práticas básicas de segurança e privacidade e o Microsoft Padrão de IA Responsável. Os dados do Dynamics 365 e do Power Platform são protegidos por controlos de conformidade, segurança e privacidade completos e líderes do setor.
O Copilot baseia-se no Microsoft Azure OpenAI Service e é executado completamente na cloud do Azure. O Azure OpenAI oferece disponibilidade regional e filtragem de conteúdo de IA responsável. O Copilot utiliza modelos da OpenAI com todas as capacidades de segurança do Microsoft Azure. A OpenAI é uma organização independente. Não partilhamos os seus dados com a OpenAI.
As funcionalidades do Copilot não estão disponíveis em todos os idiomas e regiões geográficas do Azure. Dependendo de onde o seu ambiente está alojado, talvez tenha de permitir o movimento de dados entre regiões geográficas para os utilizar. Para obter mais informações, consulte os artigos listados em Movimento de dados entre regiões geográficas.
O que acontece aos meus dados quando utilizo o Copilot?
Tem o controlo total dos seus dados. Microsoft não partilha os seus dados com terceiros, a menos que tenha concedido permissão para o fazer. Além disso, não utilizamos os seus dados de cliente para preparar o Copilot ou as respetivas funcionalidades de IA, a menos que nos conceda consentimento para o fazermos. O Copilot cumpre as permissões e as políticas de dados existentes, e as respostas apresentadas baseiam-se em dados a que pode aceder pessoalmente. Para obter mais informações sobre como pode controlar os seus dados e como os seus dados são processados, consulte os artigos listados em Copilot em aplicações do Dynamics 365 e Power Platform.
O Copilot monitoriza utilizações abusivas ou nocivas do serviço com processamento transitório. Não armazenamos nem realizamos uma revisão visual das entradas e saídas do Copilot para fins de monitorização de abusos.
Como o Copilot utiliza os meus dados?
Cada serviço ou funcionalidade utiliza o Copilot com base nos dados que fornecer ou configurar para serem processados pelo Copilot.
Os seus pedidos (entradas) e as respostas do Copilot (saídas ou resultados):
NÃO estão disponíveis para outros clientes.
NÃO são utilizados para preparar ou melhorar produtos ou serviços de terceiros (como os modelos da OpenAI).
NÃO são usados para treinar ou melhorar Microsoft modelos de IA, a menos que seu administrador de locatário opte por compartilhar dados conosco. Saiba mais em FAQ para compartilhamento de dados opcional para recursos de IA do Copilot no Dynamics 365 e Power Platform.
Saiba mais sobre privacidade e segurança OpenAI de dados do Serviço do Azure. Para saber mais sobre como Microsoft protege e utiliza os seus dados de uma forma mais geral, leia a nossa Declaração de Privacidade.
Para onde vão os meus dados?
Microsoft funciona com base na confiança. Estamos empenhados em zelar pela segurança, privacidade e conformidade em tudo o que fazemos, e a nossa abordagem à IA não é diferente. Os dados do cliente, incluindo entradas e saídas do Copilot, são armazenados dentro do limite de confiança da Microsoft nuvem.
Em alguns cenários, como recursos alimentados pelo Bing e plug-ins de copiloto de terceiros, os dados do cliente podem ser transmitidos fora do limite de confiança da Microsoft nuvem.
O Copilot pode aceder a conteúdo encriptado?
Os dados são fornecidos ao Copilot com base no nível de acesso do utilizador atual. Se um utilizador tiver acesso a dados encriptados no Dynamics 365 e no Power Platform e os fornecer ao Copilot, o Copilot terá acesso aos mesmos.
Como é que o Copilot protege os dados do cliente?
Microsoft está posicionado de forma única para fornecer IA pronta para a empresa. O Copilot baseia-se no Azure OpenAI Service e cumpre os compromissos de privacidade, segurança e regulamentares que assumimos com os nossos clientes.
Baseado na Microsoft abordagem abrangente de segurança, privacidade e conformidade. O Copilot é integrado em Microsoft serviços como o Dynamics 365 e Power Platform herda suas políticas e processos de segurança, privacidade e conformidade, como autenticação multifator e limites de conformidade.
Múltiplas formas de proteção para salvaguardar os dados organizacionais. As tecnologias do lado do serviço encriptam conteúdo organizacional inativo e em circulação para uma segurança robusta. As conexões são protegidas com TLS (Transport camada Security) e as transferências de dados entre Dynamics 365 Power Platform e o OpenAI Azure Microsoft ocorrem pela rede de backbone, garantindo fiabilidade e segurança. Saiba mais sobre a Microsoft criptografia na nuvem.
Arquitetada para proteger os seus dados ao nível do inquilino e do ambiente. Sabemos que uma fuga de dados é um problema para os clientes. Microsoft Os modelos de IA não são treinados e não aprendem com seus dados de locatário ou suas solicitações, a menos que seu administrador de locatário tenha optado por compartilhar dados conosco. Nos seus ambientes, pode controlar o acesso através de permissões que configura. Os mecanismos de autenticação e autorização segregam os pedidos para o modelo partilhado entre inquilinos. O Copilot utiliza dados a que apenas o utilizador pode aceder, utilizando a mesma tecnologia que utilizamos há anos para proteger os dados dos clientes.
As respostas do Copilot são sempre factuais?
Como acontece com qualquer IA generativa, as respostas do Copilot não são 100% factuais. Embora o melhoramento das respostas baseadas em factos continue a ser um trabalho em curso, deve fazer uso do seu bom senso e rever os resultados antes de enviá-los a outras pessoas. O Copilot fornece rascunhos e resumos úteis que ajudam a aumentar a sua produtividade, mas é totalmente automático. Tem sempre a oportunidade de rever o conteúdo gerado por IA.
As nossas equipas estão a trabalhar proativamente para resolverem problemas, como informações incorretas e desinformação, bloqueio de conteúdo, segurança de dados e promoção de conteúdo nocivo ou discriminatório em conformidade com os nossos princípios de IA responsável.
Também fornecemos orientações ao nível da experiência do utilizador para promover a utilização responsável dos conteúdos gerados e das ações sugeridas pela IA.
Instruções e pedidos. Quando utiliza o Copilot, os pedidos e outros elementos instrucionais lembram-lhe que deve rever e editar as respostas conforme necessário, bem como proceder a uma verificação manual da precisão dos factos, dados e texto antes de utilizar o conteúdo gerado por IA.
Fontes citadas. Quando aplicável, o Copilot cita as respetivas fontes de informação, sejam públicas ou internas, para que possa revê-las e confirmar as respetivas respostas.
Para obter mais informações, consulte as FAQ sobre IA Responsável para o seu produto no Microsoft Learn.
Como é que o Copilot bloqueia conteúdo nocivo?
O Azure OpenAI Service inclui um sistema de filtragem de conteúdos que funciona juntamente com modelos de base. Os modelos de filtragem de conteúdo para as categorias Ódio e Equidade, Sexualidade, Violência e Automutilação foram especificamente preparados e testados em vários idiomas. Este sistema funciona ao executar tanto o pedido de entrada quanto a resposta através de modelos de classificação criados para identificar e bloquear a saída de conteúdo nocivo.
Os danos relacionados com ódio e equidade referem-se a qualquer conteúdo que utilize linguagem pejorativa ou discriminatória com base em atributos como raça, etnia, nacionalidade, identidade e expressão de género, orientação sexual, religião, estado de imigração, estado de capacidade, aspeto pessoal e tamanho do corpo. A equidade consiste em garantir que os sistemas de IA tratam todos os grupos de pessoas de forma equitativa, sem contribuir para as desigualdades societais existentes. O conteúdo sexual envolve debates sobre órgãos reprodutores humanos, relações românticas, atos retratados em termos eróticos ou afetivos, gravidez, atos sexuais físicos, incluindo aqueles retratados como uma agressão ou um ato forçado de violência sexual, prostituição, pornografia e abuso. A violência descreve a linguagem relacionada com ações físicas que se destinam a prejudicar ou matar, incluindo ações, armas e entidades relacionadas. A linguagem de automutilação refere-se a ações deliberadas que se destinam a autolesão ou suicídio.
Saiba mais sobre a filtragem de OpenAI conteúdo do Azure.
O Copilot bloqueia injeções de pedidos (ataques de jailbreak)?
Os ataques de jailbreak são prompts do utente que são projetados para provocar o modelo de IA generativa a se comportar de maneiras para as quais foi treinado ou quebrar as regras que lhe foram instruídas a seguir. Os serviços do Dynamics 365 e do Power Platform são necessários para a proteção contra injeções de pedidos. Saiba mais sobre ataques de jailbreak e como usar o Azure AI Content Safety para detetá-los.
O Copilot bloqueia injeções de pedidos indiretos (ataques indiretos)?
Os ataques indiretos, também referidos como ataques de pedidos indiretos ou ataques de injeção de pedidos entre domínios, são uma vulnerabilidade potencial em que terceiros colocam instruções maliciosas dentro de documentos que o sistema de IA generativa pode aceder e processar. Os serviços do Dynamics 365 e do Power Platform são necessários para a proteção contra injeções de pedidos indiretos. Saiba mais sobre ataques indiretos e como usar o Azure AI Content Safety para detetá-los.
Como testar e validar a qualidade do Microsoft Copilot, incluindo proteção contra injeção imediata e respostas fundamentadas?
Cada nova interação de produto e modelo de linguagem do Copilot deve ser aprovada numa revisão de IA responsável interna antes de poder ser lançada. Antes do lançamento, utilizamos um processo chamado "red teaming" (no qual uma equipa simula um ataque inimigo, encontrando e explorando as fraquezas para ajudar a organização a melhorar as respetivas defesas) para avaliar riscos potenciais em conteúdo nocivo, cenários de jailbreak e respostas fundamentadas. Após o lançamento, utilizamos testes automatizados e ferramentas de avaliação manuais e automatizadas para avaliar a qualidade das respostas do Copilot.
Como melhorar Microsoft o modelo de fundação e medir melhorias nas respostas fundamentadas?
No contexto da IA, em especial da IA que lida com modelos de linguagem como aquele em que o Copilot se baseia, a fundamentação ajuda a IA a gerar respostas que são mais relevantes e lógicas no mundo real. A fundamentação ajuda a garantir que as respostas da IA se baseiam em informações fiáveis e são tão precisas e relevantes quanto possível. As métricas de respostas fundamentadas avaliam a precisão com que os factos declarados no conteúdo de fundamentação fornecido ao modelo são representados na resposta final.
Os modelos de base, como o GPT-4, são melhorados por técnicas de Geração Aumentada de Obtenção (RAG). Estas técnicas permitem que os modelos utilizem mais informações do que aquelas com base nas quais foram preparados para compreender o cenário de um utilizador. A RAG funciona ao identificar primeiro os dados relevantes para o cenário, de modo semelhante à forma como um motor de busca identifica páginas Web relevantes para os termos de pesquisa do utilizador. Utiliza várias abordagens para identificar o conteúdo relevante para o pedido do utilizador e que deve ser utilizado para fundamentar a resposta. As abordagens incluem a pesquisa baseada em diferentes tipos de índices, como índices invertidos através de técnicas de recuperação de informações como a correspondência de termos, ou índices vetoriais que utilizam comparações de distância vetorial para fins de semelhança semântica. Depois de identificar os documentos relevantes, a RAG transmite os dados ao modelo juntamente com a conversação atual, dando ao modelo mais contexto para compreender melhor as informações que já tem e gerar uma resposta fundamentada no mundo real. Por último, a RAG verifica a resposta para se certificar de que é suportada pelo conteúdo de origem que forneceu ao modelo. As funcionalidades de IA generativa do Copilot incorporam a RAG de várias formas. Um exemplo é o chat com utilização de dados, em que um chatbot é fundamentado com as origens de dados do próprio cliente.
Outro método para melhorar modelos de base é conhecido como afinação. Uma grande conjunto de dados de pares de consulta/resposta é mostrado a um modelo de base para aumentar a respetiva preparação original com novos exemplos direcionados para um cenário específico. O modelo pode então ser implementado como um modelo separado, ou seja, um modelo afinado para esse cenário. Enquanto a fundamentação consiste em tornar o conhecimento da IA relevante para o mundo real, a afinação consiste em tornar o conhecimento da IA mais específico para uma tarefa ou um domínio específico. Microsoft usa o ajuste fino de várias maneiras. Por exemplo, utilizamos a criação de fluxos do Power Automate a partir de descrições de linguagem natural fornecidas pelo utilizador.
O Copilot cumpre os requisitos regulamentares em matéria de conformidade?
O Microsoft Copilot faz parte do ecossistema do Dynamics 365 e do Power Platform, e cumpre os mesmos requisitos de conformidade regulamentar. Para obter mais informações sobre as certificações regulatórias de serviços, vá para Microsoft Portal de Confiança doServiço. Além disso, o Copilot cumpre o nosso compromisso de IA responsável, que é posto em prática através do nosso Padrão de IA Responsável. À medida que a regulamentação em IA evolui, Microsoft continua a adaptar-se e a responder a novos requisitos.
Saber mais
Copilot nas aplicações do Dynamics 365 e no Power Platform
Produto | Caraterística | Os Ambientes Geridos são obrigatórios? | Como desativar a funcionalidade |
---|---|---|---|
AI Builder | Cenários em pré-visualização | No | Cenários em pré-visualização |
Copilot Studio | Conhecimento geral de IA | No | Copilot Studio Segurança e Governação |
Copilot Studio | Criar e editar tópicos com o Copilot | No | Copilot Studio Segurança e Governação |
Copilot Studio | Ações geradoras | No | Copilot Studio Segurança e Governação |
Copilot Studio | Respostas generativas | No | Copilot Studio Segurança e Governação |
Dynamics 365 Business Central | Todos (Ver a lista completa em aka.ms/bcAI.) | No | Ativar funcionalidades |
Dynamics 365 Customer Insights - Data | Criar segmentos com o Copilot para Customer Insights - Data (pré-visualização) | Não | O Customer Insights - Data tem um sinalizador próprio para todas as respetivas funcionalidades de Copilot do Azure OpenAI. Saber mais: Dar consentimento para utilizar o Copilot no Customer Insights - Data |
Dynamics 365 Customer Insights - Data | Visão geral do relatório de preparação de dados (pré-visualização) | Não | O Customer Insights - Data tem um sinalizador próprio para todas as respetivas funcionalidades de Copilot do Azure OpenAI. Saber mais: Dar consentimento para utilizar o Copilot no Customer Insights - Data |
Dynamics 365 Customer Insights - Data | Obtenha respostas a perguntas sobre capacidades do Copilot (pré-visualização) | Não | O Customer Insights - Data tem um sinalizador próprio para todas as respetivas funcionalidades de Copilot do Azure OpenAI. Saber mais: Dar consentimento para utilizar o Copilot no Customer Insights - Data |
Dynamics 365 Customer Insights (Dados) | Dialogar com dados usando o Copilot no Customer Insights | Não | O Customer Insights - Data tem um sinalizador próprio para todas as respetivas funcionalidades de Copilot do Azure OpenAI. Saber mais: Dar consentimento para utilizar o Copilot no Customer Insights - Data |
Dynamics 365 Customer Insights - Data | Ver configuração do sistema | Não | O Customer Insights - Data tem um sinalizador próprio para todas as respetivas funcionalidades de Copilot do Azure OpenAI. Saber mais: Dar consentimento para utilizar o Copilot no Customer Insights - Data |
Dynamics 365 Customer Insights - Journeys | O Copilot ajuda-o a aprender e a fazer mais (revisão) | Não | Se a disponibilidade deste copiloto no ambiente é determinada pelas definições de administrador do Power Platform. Saiba como adicionar o Copilot para aplicativos orientados por modelo. Esse recurso é "copiloto Customer Insights - Journeys de aplicativo" e é por isso que está habilitado no Power Platform centro de administração. Saber mais: FAQ sobre IA Responsável |
Dynamics 365 Customer Insights - Journeys | Crie jornadas usando a assistência de IA | Não | O Customer Insights - Journeys tem sinalizadores próprios para as funcionalidades do Copilot. Saber mais: Dar consentimento para utilizar o Copilot no Customer Insights - Journeys |
Dynamics 365 Customer Insights - Journeys | Atualize e aperfeiçoe a sua mensagem | Não | O Customer Insights - Journeys tem sinalizadores próprios para as funcionalidades do Copilot. Saber mais: Dar consentimento para utilizar o Copilot no Customer Insights - Journeys |
Dynamics 365 Customer Insights - Journeys | Estilize seus e-mails com temas assistidos por IA | Não | O Customer Insights - Journeys tem sinalizadores próprios para as funcionalidades do Copilot. Saber mais: Dar consentimento para utilizar o Copilot no Customer Insights - Journeys |
Dynamics 365 Customer Insights - Journeys | Segmente os clientes certos usando a assistência de consulta |
Não | O Customer Insights - Journeys tem sinalizadores próprios para as funcionalidades do Copilot. Saber mais: Dar consentimento para utilizar o Copilot no Customer Insights - Journeys |
Dynamics 365 Customer Insights - Journeys | Use a IA para iniciar a criação de e-mails | Não | O Customer Insights - Journeys tem sinalizadores próprios para as funcionalidades do Copilot. Saber mais: Dar consentimento para utilizar o Copilot no Customer Insights - Journeys |
Dynamics 365 Customer Insights - Journeys | Utilizar imagens no seu conteúdo | Não | O Customer Insights - Journeys tem sinalizadores próprios para as funcionalidades do Copilot. Saber mais: Dar consentimento para utilizar o Copilot no Customer Insights - Journeys |
Dynamics 365 Customer Service | Redigir um e-mail | No | Gerenciar recursos do Copilot no suporte ao cliente |
Dynamics 365 Customer Service | Redigir um resposta de bate-papo | No | Gerenciar recursos do Copilot no suporte ao cliente |
Dynamics 365 Customer Service | Responder a perguntas | No | Gerenciar recursos do Copilot no suporte ao cliente |
Dynamics 365 Customer Service | Resumir um caso e uma conversa | No | Gerenciar recursos do Copilot no suporte ao cliente |
Power Apps | Crie aplicativos por meio de conversas | No | Gerenciar configurações de recursos |
Power Apps | Assistência de copiloto para preenchimento de formulários em aplicativos orientados por modelo | Não | Gerenciar configurações de recursos |
Power Apps | Rascunho de texto de entrada bem escrito com o Copilot | Não, licença de utilizador premium | Rascunho de texto de entrada bem escrito com o Copilot |
Power Apps | Excel para Tabela | Não | Gerenciar configurações de recursos |
Power Apps | Usar linguagem natural para editar um aplicativo usando o painel Copilot | Não | Gerenciar configurações de recursos |
Power Automate | Copilot em fluxos de cloud na home page e no estruturador (Para obter detalhes, consulte Começar a utilizar o Copilot em fluxos de cloud). | Não | Contacte o suporte para executar um script do PowerShell. |
Power Pages | Todos (Para obter detalhes, consulte Descrição geral do Copilot no Power Pages). | Não | Desligue o Copilot em Power Pages |
Saiba mais em FAQ para compartilhamento de dados opcional para recursos de IA do Copilot no Dynamics 365 e Power Platform.
Disponibilidade regional e de idiomas
Disponibilidade internacional do Copilot
Movimento de dados entre localizações geográficas
- Como funciona a movimentação de dados entre regiões
- Configure a movimentação de dados entre locais geográficos para recursos generativos de IA fora dos Estados Unidos
- Movimento de dados copiloto entre geografias no Dynamics 365 Sales
- Movimento de dados copiloto entre geografias em Dynamics 365 Business Central
Segurança na Microsoft
- Introdução à segurança do Azure
- Criptografia na Microsoft nuvem
- Dados, privacidade e segurança para o Serviço do Azure OpenAI – Serviços de IA do Azure
Privacidade na Microsoft
Microsoft Declaração de Privacidade