Perguntas frequentes sobre a IA responsável
O que é o Microsoft Copilot para Segurança?
O Copilot for Security é uma linguagem natural, é uma solução de segurança gerada com tecnologia de IA que ajuda a aumentar a eficiência e as capacidades dos defensores para melhorar os resultados de segurança à velocidade e dimensionamento da máquina. Desenha contexto de plug-ins e dados para responder a pedidos para que os profissionais de segurança e os administradores de TI possam ajudar a manter as suas organizações seguras.
O que o Copilot para Segurança pode fazer?
O Copilot for Security ajuda a responder a perguntas em linguagem natural para que possa receber respostas acionáveis a tarefas comuns de SEGURANÇA e TI em segundos.
O Microsoft Copilot for Security ajuda nos seguintes cenários:
Operações de segurança
Faça a gestão de vulnerabilidades e ameaças emergentes, acelere a resposta a incidentes com investigação orientada e tire partido de capacidades avançadas, como análise de scripts e assistência à consulta.Gerenciamento de dispositivo
Gere políticas e simula os respetivos resultados, recolha informações sobre dispositivos forenses e configure dispositivos com melhores práticas de implementações semelhantes.O gerenciamento de identidades
Descubra o acesso sem privilégios, gere revisões de acesso para incidentes, gere e descreva políticas de acesso e avalie o licenciamento entre soluções.Proteção de dados
Identifique os dados afetados por incidentes de segurança, gere resumos abrangentes dos riscos de segurança e conformidade dos dados e os riscos de superfície que podem violar as obrigações de conformidade regulamentar.Cloud Security
Descubra caminhos de ataque que afetam cargas de trabalho e resuma CVEs na cloud para impedir proativamente ameaças e gerir a postura de segurança da cloud de forma mais eficiente.
Qual é o uso pretendido do Copilot para Segurança?
O Copilot para Segurança destina-se a ajudar analistas de segurança a investigar e resolver incidentes, resumir e explicar eventos de segurança e compartilhar descobertas com os interessados.
Como o Copilot para Segurança foi avaliado? Quais métricas são usadas para medir o desempenho?
O Copilot para Segurança passou por testes consideráveis antes de ser lançado. Os testes incluíram o red teaming, que é a prática de testar rigorosamente o produto para identificar modos e cenários de falha que podem fazer o Copilot para Segurança fazer ou dizer coisas fora de seus usos pretendidos ou que não cumprem com os Princípios de IA da Microsoft.
Agora que ele foi lançado, os comentários do usuário são fundamentais para ajudar a Microsoft a melhorar o sistema. Você tem a opção de enviar comentários sempre que receber saída do Copilot para Segurança. Quando uma resposta for imprecisa, incompleta ou pouco clara, utilize os botões "Fora do destino" e "Relatório" para sinalizar qualquer saída censurável. Você também pode confirmar quando as respostas são úteis e precisas usando o botão "Confirmar". Esses botões ficam na parte inferior de cada resposta do Copilot para Segurança e seus comentários vão diretamente para a Microsoft para nos ajudar a melhorar o desempenho da plataforma.
Quais são as limitações do Copilot para Segurança? Como os usuários podem minimizar o impacto das limitações do Copilot para Segurança ao usar o sistema?
O Programa de Acesso Antecipado foi criado para dar aos clientes a oportunidade de obter acesso antecipado ao Copilot para Segurança e enviar comentários sobre a plataforma. Os recursos de versão prévia não são destinados ao uso da produção e podem ter funcionalidade limitada.
Como qualquer tecnologia da plataforma AI, o Copilot para Segurança não acerta tudo. No entanto, você pode ajudar a melhorar as respostas que ele gera enviando suas observações usando a ferramenta de comentários, que é incorporada à plataforma.
O sistema poderá gerar respostas obsoletas se não receber os dados mais atuais por meio de plug-ins ou entrada do usuário. Para alcançar os melhores resultados, verifique se os plug-ins certos estão habilitados.
O sistema foi projetado para responder a solicitações relacionadas ao domínio de segurança, como investigação de incidentes e inteligência contra ameaças. Solicitações fora do escopo de segurança podem resultar em respostas que não são precisas nem abrangentes.
O Copilot para Segurança pode gerar ou incluir código nas respostas, o que poderia potencialmente expor informações confidenciais ou vulnerabilidades se não forem usadas com cuidado. As respostas podem parecer válidas, mas podem não ser semântica ou sintaticamente corretas ou podem não refletir com precisão a intenção do desenvolvedor. Os usuários devem sempre tomar as mesmas precauções que fariam com qualquer código que escrevem que usa material que usuários não se originam independentemente, incluindo precauções para garantir sua adequação. Estes incluem testes rigorosos, verificação de IP e verificação de vulnerabilidades de segurança.
Corresponde ao Código Público: o Copilot para Segurança é capaz de gerar um novo código, o que ele faz de forma probabilística. Embora a probabilidade de que ele possa produzir código que corresponda ao código no conjunto de treinamento seja baixa, uma sugestão do Copilot para Segurança pode conter alguns trechos de código que correspondem ao código no conjunto de treinamento. Os usuários devem sempre tomar as mesmas precauções que fariam com qualquer código que escrevem que usa material que desenvolvedores não se originam independentemente, incluindo precauções para garantir sua adequação. Estes incluem testes rigorosos, verificação de IP e verificação de vulnerabilidades de segurança.
O sistema pode não ser capaz de processar solicitações longas, como centenas de milhares de caracteres.
A utilização da plataforma pode estar sujeita a limites de utilização ou limitação de capacidade. Mesmo com solicitações mais curtas, escolher um plug-in, fazer chamadas de API, gerar respostas e verificá-las antes de exibi-las ao usuário pode demorar (até vários minutos) e exige alta capacidade de GPU.
Para minimizar erros, os usuários são aconselhados a seguir as diretrizes de solicitação.
Quais configurações e fatores operacionais permitem o uso eficaz e responsável do Copilot para Segurança?
Você pode usar palavras comuns para descrever o que gostaria que o Copilot para Segurança fizesse. Por exemplo:
- "Fale-me dos meus incidentes mais recentes" ou "Resumir este incidente".
À medida que o sistema gera a resposta, você começa a ver as etapas que o sistema está realizando no log do processo, fornecendo oportunidades para verificar novamente seus processos e fontes.
A qualquer momento durante a formação da solicitação, você pode cancelar, editar, executar novamente ou excluir uma solicitação.
Você pode enviar comentários sobre a qualidade de uma resposta, incluindo relatar à Microsoft qualquer coisa inaceitável.
As respostas podem ser fixadas, compartilhadas e exportadas, ajudando os profissionais de segurança a colaborar e compartilhar observações.
Os administradores têm controle sobre os plug-ins que se conectam ao Copilot para Segurança.
Você pode escolher, personalizar e gerenciar plug-ins que funcionam com o Copilot para Segurança.
O Copilot para Segurança criou a sequência de solicitações, que são um grupo de solicitações executadas em sequência para concluir um fluxo de trabalho específico.
Como a Microsoft está abordando a IA responsável com o Copilot para Segurança?
Na Microsoft, levamos a sério nosso compromisso com a IA responsável. O Copilot para Segurança está sendo desenvolvido de acordo com nossos princípios de IA. Estamos trabalhando com o OpenAI para oferecer uma experiência que incentiva o uso responsável. Por exemplo, estamos colaborando e continuaremos a colaborar com o OpenAI no trabalho de modelo fundamental. Projetamos a experiência do usuário do Copilot para Segurança para manter os humanos no centro. Desenvolvemos um sistema de segurança feito para mitigar falhas e evitar o uso indevido de coisas como anotação de conteúdo prejudicial, monitoramento operacional e outras proteções. O programa de acesso antecipado somente para convidados também faz parte da nossa abordagem para a IA responsável. Estamos a receber feedback dos utilizadores das pessoas com acesso antecipado ao Copilot for Security para melhorar a ferramenta antes de a disponibilizar amplamente.
A IA responsável é uma jornada e vamos melhorar continuamente nossos sistemas ao longo do caminho. Estamos comprometidos em tornar nossa IA mais confiável e segura, e seus comentários nos ajudarão a fazê-lo.
Você está em conformidade com a Lei de IA da UE?
Temos o compromisso com a conformidade com a Lei de IA da UE. Nosso esforço de vários anos para definir, evoluir e implementar nosso Padrão de IA responsável e governança interna fortaleceu nossa preparação.
Na Microsoft, reconhecemos a importância da conformidade regulatória como um alicerce da confiança e confiabilidade nas tecnologias de IA. Estamos empenhados em criar IA responsável por predefinição. Nosso objetivo é desenvolver e implantar IA que tenha um impacto positivo e ganhe a confiança da sociedade.
Nosso trabalho é orientado por um conjunto principal de princípios: imparcialidade, confiabilidade e segurança, privacidade e proteção, inclusão, transparência e responsabilidade. O Standard de IA Responsável da Microsoft utiliza estes seis princípios e divide-os em objetivos e requisitos para a IA que disponibilizamos.
Nosso Padrão de IA Responsável considera as propostas regulatórias e sua evolução, incluindo a proposta inicial da Lei de IA da UE. Desenvolvemos nossos produtos e serviços mais recentes no espaço de IA, como o Microsoft Copilot e o Serviço OpenAI do Microsoft Azure em alinhamento com nosso Padrão de IA Responsável. À medida que as exigências finais na Lei de IA da UE são definidas com mais detalhes, esperamos trabalhar com os legisladores para garantir a implementação e a aplicação viáveis das regras, demonstrar nossa conformidade e se envolver com nossos clientes e outros interessados para apoiar a conformidade em todo o ecossistema.