Proteções de segurança e conformidade de dados do Microsoft Purview para o Microsoft Copilot

Orientações de licenciamento do Microsoft 365 para conformidade com & de segurança

Utilize o Microsoft Purview para mitigar e gerir os riscos associados à utilização de IA e implementar controlos de proteção e governação correspondentes.

Descubra, proteja e cumpra categorias para utilização e dados de IA geradores com o Microsoft Purview.

O Microsoft Purview Hub de IA está atualmente em pré-visualização e fornece ferramentas gráficas e relatórios fáceis de utilizar para obter rapidamente informações sobre a utilização de IA na sua organização. As políticas com um clique ajudam-no a proteger os seus dados e a cumprir os requisitos regulamentares.

Utilize o hub de IA em conjunto com outras capacidades do Microsoft Purview para reforçar a segurança e conformidade dos seus dados para Microsoft 365 Copilot e Microsoft Copilot:

Observação

Para marcar se os planos de licenciamento da sua organização suportam estas capacidades, consulte a ligação de orientação de licenciamento na parte superior da página. Para obter informações de licenciamento para Microsoft 365 Copilot em si, veja a descrição do serviço para Microsoft 365 Copilot.

Utilize as secções seguintes para saber mais sobre o hub de IA e as capacidades do Microsoft Purview que fornecem controlos de conformidade e segurança de dados adicionais para acelerar a adoção da sua organização de Microsoft 365 Copilot e outras aplicações de IA geradoras. Se não estiver familiarizado com o Microsoft Purview, também poderá encontrar uma descrição geral do produto útil: Saiba mais sobre o Microsoft Purview.

Para obter informações mais gerais sobre os requisitos de segurança e conformidade para Microsoft 365 Copilot, consulte Dados, Privacidade e Segurança para Microsoft 365 Copilot. Para Microsoft Copilot, consulte Privacidade e proteções do Copilot.

O Microsoft Purview Hub de IA fornece informações, políticas e controlos para aplicações de IA

Observação

O Microsoft Purview Hub de IA está atualmente em pré-visualização e sujeito a alterações.

O hub de IA do portal do Microsoft Purview ou do portal de conformidade do Microsoft Purview fornece uma localização de gestão central para o ajudar a proteger rapidamente os dados das aplicações de IA e a monitorizar proativamente a utilização de IA. Estas aplicações incluem Microsoft 365 Copilot e aplicações de IA de módulos de linguagem grandes (LLMs) de terceiros.

Veja o seguinte vídeo para ver o hub de IA em ação. A gravação foi efetuada antes de Microsoft Copilot para o Microsoft 365 ter sido renomeado para Microsoft 365 Copilot e algumas das páginas de navegação do hub de IA foram agora alteradas. No entanto, a funcionalidade permanece a mesma.

O hub de IA oferece um conjunto de capacidades para que possa adotar a IA em segurança sem ter de escolher entre produtividade e proteção:

  • Informações e análises sobre a atividade de IA na sua organização

  • Políticas prontas a utilizar para proteger dados e evitar a perda de dados em pedidos de IA

  • Controlos de conformidade para aplicar políticas de armazenamento e processamento de dados ideais

Para obter uma lista de sites de IA de terceiros suportados, como os utilizados para Gemini e ChatGPT, consulte Sites de IA suportados pelo Microsoft Purview para obter proteções de conformidade e segurança de dados.

Captura de ecrã de exemplo da análise, Hub de IA do Microsoft Purview.

Como utilizar o hub de IA

Para o ajudar a obter informações mais rapidamente sobre a utilização de IA e proteger os seus dados, o hub de IA fornece algumas políticas pré-configuradas que pode ativar com um único clique. Aguarde, pelo menos, 24 horas para que estas novas políticas recolham dados para apresentar os resultados no hub de IA ou reflita as alterações que fizer às predefinições.

Para começar a utilizar o hub de IA, pode utilizar o portal do Microsoft Purview ou o portal de conformidade do Microsoft Purview. Precisa de uma conta que tenha as permissões adequadas para a gestão de conformidade, como uma conta que seja membro da função de grupo Administrador de Conformidade do Microsoft Entra.

  1. Dependendo do portal que estiver usando, navegue até um dos seguintes locais:

  2. Na Descrição geral, reveja a secção Introdução para saber mais sobre o hub de IA e as ações imediatas que pode efetuar. Selecione cada um deles para apresentar o painel de lista de opções para saber mais, tomar medidas e verificar a sua status atual.

    Ação Mais informações
    Ativar Auditoria do Microsoft Purview A auditoria está ativada por predefinição para novos inquilinos, pelo que poderá já cumprir este pré-requisito. Se o fizer e os utilizadores já tiverem licenças atribuídas para a Copilot, começa a ver informações sobre as atividades do Copilot na secção Análise mais abaixo na página.
    Instalar a extensão do browser Microsoft Purview Um pré-requisito para sites de IA de terceiros.
    Integrar dispositivos no Microsoft Purview Também um pré-requisito para sites de IA de terceiros.
    Expandir as suas informações para deteção de dados Políticas de um clique para recolher informações sobre utilizadores que visitam sites de IA geradores de terceiros e enviam informações confidenciais aos mesmos. A opção é a mesma que o botão Expandir as suas informações na secção Análise de dados de IA mais abaixo na página.

    Para obter mais informações sobre os pré-requisitos, veja Pré-requisitos do hub de IA.

    Para obter mais informações sobre as políticas pré-configuradas que pode ativar, veja Políticas de um clique a partir do hub de IA.

  3. Em seguida, reveja a secção Recomendações e decida se pretende implementar opções relevantes para o seu inquilino. Estas opções incluem a criação de algumas políticas predefinidas para o ajudar a proteger dados confidenciais enviados para sites de IA geradores de terceiros e proteger os seus dados com etiquetas de confidencialidade. Exemplos de recomendações incluem:

    Pode utilizar a ligação Ver todas as recomendações ou Recomendações no painel de navegação para ver todas as recomendações disponíveis para o seu inquilino e as respetivas status. Quando uma recomendação é concluída ou dispensada, já não a vê na página Descrição geral .

  4. Utilize a secção Relatórios ou a página Relatórios do painel de navegação para ver os resultados das suas políticas. Tem de esperar pelo menos um dia para que os relatórios sejam preenchidos.

  5. Utilize a página Políticas do hub de IA para monitorizar a status das políticas criadas. Para editá-las, utilize a solução de gestão correspondente no portal. Por exemplo, para Controlar o comportamento não ético na IA, pode rever e remediar as correspondências da solução de Conformidade de Comunicações.

  6. Selecione Explorador de atividades no hub de IA para ver os detalhes dos dados recolhidos das suas políticas.

    Estas informações mais detalhadas incluem atividade, carga de trabalho e aplicação, utilizador, data e hora e quaisquer tipos de informações confidenciais detetados.

    Exemplos de atividades incluem interação de IA, Classificação carimbada, correspondência de regras DLP e visita de IA. Os pedidos e as respostas do Copilot são incluídos nos eventos de interação de IA quando tem as permisisons certas. Para obter mais informações sobre os eventos, veja Eventos do explorador de atividades.

    Exemplos de cargas de trabalho incluem Microsoft Copilot e Outra aplicação de IA.

    Captura de ecrã de exemplo do Microsoft Purview Hub de IA, explorador de atividades a mostrar atividades de IA.

Para Microsoft 365 Copilot e Microsoft Copilot, utilize estas políticas e informações em conjunto com proteções adicionais e capacidades de conformidade do Microsoft Purview.

Microsoft Purview reforça proteção de informações para Copilot

Microsoft 365 Copilot utiliza controlos existentes para garantir que os dados armazenados no seu inquilino nunca são devolvidos ao utilizador ou utilizados por um modelo de linguagem grande (LLM) se o utilizador não tiver acesso a esses dados. Quando os dados têm etiquetas de confidencialidade da sua organização aplicadas ao conteúdo, existe uma camada adicional de proteção:

  • Quando um ficheiro é aberto no Word, Excel, PowerPoint ou, da mesma forma, um evento de e-mail ou calendário é aberto no Outlook, a confidencialidade dos dados é apresentada aos utilizadores na aplicação com o nome da etiqueta e marcações de conteúdo (como texto de cabeçalho ou rodapé) que foram configurados para a etiqueta. Loop componentes e páginas também suportam as mesmas etiquetas de confidencialidade.

  • Quando a etiqueta de confidencialidade aplica encriptação, os utilizadores têm de ter o direito de utilização EXTRAIR, bem como VER, para que o Copilot devolva os dados.

  • Esta proteção estende-se aos dados armazenados fora do seu inquilino do Microsoft 365 quando são abertos numa aplicação do Office (dados em utilização). Por exemplo, armazenamento local, partilhas de rede e armazenamento na cloud.

Dica

Se ainda não o fez, recomendamos que ative as etiquetas de confidencialidade para o SharePoint e o OneDrive e também se familiarize com os tipos de ficheiro e as configurações de etiquetas que estes serviços podem processar. Quando as etiquetas de confidencialidade não estão ativadas para estes serviços, os ficheiros encriptados aos quais Microsoft 365 Copilot podem aceder estão limitados aos dados utilizados a partir de aplicações do Office no Windows.

Para obter instruções, consulte Ativar etiquetas de confidencialidade para ficheiros do Office no SharePoint e no OneDrive.

Além disso, quando utiliza Business Chat (anteriormente com base no Graph e Microsoft 365 Chat) que podem aceder a dados de um vasto leque de conteúdos, a sensibilidade dos dados etiquetados devolvidos pelo Microsoft 365 Copilot torna-se visível para os utilizadores com a etiqueta de confidencialidade apresentada para citações e os itens listados na resposta. Ao utilizar o número de prioridade das etiquetas de confidencialidade definido no portal do Microsoft Purview ou no portal de conformidade do Microsoft Purview, a resposta mais recente em Copilot apresenta a etiqueta de confidencialidade de prioridade mais alta a partir dos dados utilizados para essa conversa copilot.

Embora os administradores de conformidade definam a prioridade de uma etiqueta de confidencialidade, um número de prioridade mais elevado geralmente indica uma maior sensibilidade do conteúdo, com permissões mais restritivas. Como resultado, as respostas copilot são etiquetadas com a etiqueta de confidencialidade mais restritiva.

Observação

Se os itens forem encriptados por Proteção de Informações do Microsoft Purview mas não tiverem uma etiqueta de confidencialidade, Microsoft 365 Copilot também não devolverão estes itens aos utilizadores se a encriptação não incluir os direitos de utilização EXTRACT ou VIEW para o utilizador.

Se ainda não estiver a utilizar etiquetas de confidencialidade, consulte Introdução às etiquetas de confidencialidade.

Embora as políticas DLP não suportem a classificação de dados para interações Microsoft 365 Copilot, os tipos de informações confidenciais e classificadores treináveis são suportados com políticas de conformidade de comunicação para identificar dados confidenciais em pedidos do utilizador para Copilot e respostas.

Proteção copilot com herança de etiquetas de confidencialidade

Quando utiliza Microsoft 365 Copilot para criar novos conteúdos com base num item que tenha uma etiqueta de confidencialidade aplicada, a etiqueta de confidencialidade do ficheiro de origem é herdada automaticamente, com as definições de proteção da etiqueta.

Por exemplo, um utilizador seleciona Rascunho com Copilot no Word e, em seguida, Referenciar um ficheiro. Ou um utilizador seleciona Criar apresentação a partir de um ficheiro no PowerPoint ou Editar em Páginas a partir de Business Chat. O conteúdo de origem tem a etiqueta de confidencialidade Confidencial\Qualquer pessoa (sem restrições) aplicada e essa etiqueta está configurada para aplicar um rodapé que apresenta "Confidencial". O novo conteúdo é automaticamente identificado como Confidencial\Qualquer Pessoa (sem restrições) com o mesmo rodapé.

Para ver um exemplo disto em ação, watch a seguinte demonstração da sessão do Ignite 2023, "A preparar a sua empresa para Microsoft 365 Copilot". A demonstração mostra como a etiqueta de confidencialidade predefinida de Geral é substituída por uma etiqueta Confidencial quando um utilizador faz rascunhos com o Copilot e faz referência a um ficheiro etiquetado. A barra de informações no friso informa o utilizador de que o conteúdo criado pela Copilot resultou na aplicação automática da nova etiqueta:

Se forem utilizados vários ficheiros para criar novos conteúdos, a etiqueta de confidencialidade com a prioridade mais alta é utilizada para a herança de etiquetas.

Tal como acontece com todos os cenários de etiquetagem automática, o utilizador pode sempre substituir e substituir uma etiqueta herdada (ou remover, se não estiver a utilizar a etiquetagem obrigatória).

Proteção do Microsoft Purview sem etiquetas de confidencialidade

Mesmo que uma etiqueta de confidencialidade não seja aplicada ao conteúdo, os serviços e produtos poderão utilizar as capacidades de encriptação do serviço Azure Rights Management. Como resultado, Microsoft 365 Copilot ainda pode marcar para os direitos de utilização VER e EXTRAIR antes de devolver dados e ligações para um utilizador, mas não existe nenhuma herança automática de proteção para novos itens.

Dica

Obterá a melhor experiência de utilizador quando utilizar sempre etiquetas de confidencialidade para proteger os seus dados e a encriptação é aplicada por uma etiqueta.

Exemplos de produtos e serviços que podem utilizar as capacidades de encriptação do serviço Azure Rights Management sem etiquetas de confidencialidade:

  • Criptografia de Mensagem do Microsoft Purview
  • Microsoft Information Rights Management (IRM)
  • Conector do Microsoft Rights Management
  • Microsoft Rights Management SDK

Para outros métodos de encriptação que não utilizam o serviço Azure Rights Management:

  • Os e-mails protegidos por S/MIME não serão devolvidos pelo Copilot e o Copilot não está disponível no Outlook quando um e-mail protegido por S/MIME está aberto.

  • Os documentos protegidos por palavra-passe não podem ser acedidos por Microsoft 365 Copilot a menos que já estejam abertos pelo utilizador na mesma aplicação (dados em utilização). As palavras-passe não são herdadas por um item de destino.

Tal como acontece com outros serviços do Microsoft 365, como a Deteção de Dados Eletrónicos e a pesquisa, os itens encriptados com a Chave de Cliente do Microsoft Purview ou a sua própria chave de raiz (BYOK) são suportados e elegíveis para serem devolvidos por Microsoft 365 Copilot.

O Microsoft Purview suporta a gestão de conformidade do Copilot

Utilize as capacidades de conformidade do Microsoft Purview com a proteção de dados empresariais para suportar os seus requisitos de risco e conformidade para Microsoft 365 Copilot e Microsoft Copilot.

As interações com o Copilot podem ser monitorizadas para cada utilizador no seu inquilino. Como tal, pode utilizar a classificação do Purview (tipos de informações confidenciais e classificadores treináveis), a pesquisa de conteúdos, a conformidade de comunicações, a auditoria, a Deteção de Dados Eletrónicos e as capacidades de retenção e eliminação automáticas através de políticas de retenção.

Para a conformidade de comunicação, pode analisar pedidos de utilizador e respostas copilot para detetar interações inadequadas ou arriscadas ou partilhar informações confidenciais. Para obter mais informações, veja Configure a communication compliance policy to detect for Copilot interactions (Configurar uma política de conformidade de comunicação para detetar interações do Copilot).

communication-compliance-microsoft-365-copilot.

Para auditoria, os detalhes são capturados no registo de auditoria unificado quando os utilizadores interagem com o Copilot. Os eventos incluem como e quando os utilizadores interagem com o Copilot, no qual o serviço microsoft 365 ocorreu, e referências aos ficheiros armazenados no Microsoft 365 que foram acedidos durante a interação. Se estes ficheiros tiverem uma etiqueta de confidencialidade aplicada, também é capturada. Na solução Auditoria do portal do Microsoft Purview ou do portal de conformidade do Microsoft Purview, selecione Atividades copiais e Interação com o Copilot. Também pode selecionar Copilot como uma carga de trabalho. Por exemplo, no portal de conformidade:

Opções de auditoria para identificar as interações do utilizador com o Copilot.

Para pesquisa de conteúdos, uma vez que os pedidos do utilizador para Copilot e as respostas da Copilot são armazenadas na caixa de correio de um utilizador, podem ser pesquisadas e obtidas quando a caixa de correio do utilizador é selecionada como a origem de uma consulta de pesquisa. Selecione e obtenha estes dados a partir da caixa de correio de origem ao selecionar a partir do construtor de consultas Adicionar condição>Tipo>igual a qualquer uma das> interaçõesAdicionar/Remover mais opções>Copilot.

Da mesma forma, para a Deteção de Dados Eletrónicos, utiliza o mesmo processo de consulta para selecionar caixas de correio e obter pedidos de utilizador para Copilot e respostas da Copilot. Depois de a coleção ser criada e criada na fase de revisão na Deteção de Dados Eletrónicos (Premium), estes dados estão disponíveis para realizar todas as ações de revisão existentes. Estas coleções e conjuntos de revisão podem, em seguida, ser colocados em espera ou exportados. Se precisar de eliminar estes dados, consulte Procurar e eliminar dados de Copilot.

Para políticas de retenção que suportam retenção e eliminação automáticas, os pedidos do utilizador ao Copilot e as respostas da Copilot são identificados pela localização chats do Teams e interações copilot. Anteriormente designado apenas conversas do Teams, os utilizadores não precisam de utilizar o chat do Teams para que esta política se aplique aos mesmos. Todas as políticas de retenção existentes configuradas anteriormente para chats do Teams incluem agora automaticamente pedidos de utilizador e respostas de e para Microsoft 365 Copilot e Microsoft Copilot:

Localização de retenção de chats atualizada do Teams para incluir interações para o Copilot.

Para obter informações detalhadas sobre este trabalho de retenção, veja Saiba mais sobre a retenção do Copilot.

Tal como acontece com todas as políticas de retenção e retenções, se mais do que uma política para a mesma localização se aplicar a um utilizador, os princípios de retenção resolve quaisquer conflitos. Por exemplo, os dados são retidos durante a maior duração de todas as políticas de retenção aplicadas ou retenções de Deteção de Dados Eletrónicos.

Para que as etiquetas de retenção retenham automaticamente ficheiros referenciados no Copilot, selecione a opção para anexos na nuvem com uma política de etiqueta de retenção de aplicações automáticas: Aplicar etiqueta a anexos na nuvem e ligações partilhadas no Exchange, Teams, Viva Engage e Copilot. Tal como acontece com todos os anexos na nuvem retidos, a versão do ficheiro no momento em que é referenciada é mantida.

Opção de anexos na nuvem atualizada para aplicar automaticamente a etiqueta de retenção para incluir interações para o Copilot.

Para obter informações detalhadas sobre como funciona esta retenção, veja Como funciona a retenção com anexos na cloud.

Para obter instruções de configuração:

Outra documentação para o hub de IA e Copilot

Anúncio de mensagem de blogue: Proteger os seus dados para tirar partido da IA Geradora com o Microsoft Purview

Para obter informações mais detalhadas, veja Considerações sobre proteções de conformidade e segurança de dados e Hub de IA do Microsoft Purview para Copilot.

Microsoft 365 Copilot: