FAQ sur l’IA responsable

Qu’est-ce que Sécurité Microsoft Copilot ? 

Security Copilot est un langage naturel, est une solution de sécurité générative basée sur l’IA qui permet d’augmenter l’efficacité et les capacités des défenseurs afin d’améliorer les résultats de sécurité à la vitesse et à l’échelle de la machine. Il tire le contexte des plug-ins et des données pour répondre aux invites afin que les professionnels de la sécurité et les administrateurs informatiques puissent aider à assurer la sécurité de leur organisation.

Que peut faire Security Copilot ? 

Security Copilot permet de répondre aux questions en langage naturel afin que vous puissiez recevoir des réponses exploitables aux tâches informatiques et de sécurité courantes en quelques secondes.

Microsoft Security Copilot aide dans les scénarios suivants :

  • Examen et correction de la sécurité
    Obtenez du contexte pour les incidents afin de trier rapidement les alertes de sécurité complexes en résumés actionnables et de corriger plus rapidement avec des instructions de réponse pas à pas.

  • Analyse de script et création de requêtes KQL
    Éliminez la nécessité d’écrire manuellement des scripts de langage de requête ou d’ingénierie inverse des scripts de programmes malveillants avec la traduction en langage naturel pour permettre à chaque membre de l’équipe d’exécuter des tâches techniques.

  • Exploration des risques et gestion de la posture de sécurité
    Obtenez une vue d’ensemble de votre environnement avec des risques hiérarchisés pour découvrir les opportunités d’améliorer la posture plus facilement.

  • Résolution des problèmes informatiques plus rapides
    Synthétisez rapidement les informations pertinentes et recevez des informations exploitables pour identifier et résoudre rapidement les problèmes informatiques.

  • Création et gestion des stratégies de sécurité
    Définissez une nouvelle stratégie, faites-la référence à d’autres pour les conflits et résumez les stratégies existantes pour gérer rapidement et facilement le contexte organisationnel complexe.

  • Configuration du workflow de cycle de vie
    Créez des groupes et définissez des paramètres d’accès avec des instructions pas à pas pour garantir une configuration transparente afin d’éviter les vulnérabilités de sécurité.

  • Rapports des parties prenantes
    Obtenez un rapport clair et concis qui résume le contexte et l’environnement, les questions ouvertes et les mesures de protection préparés pour le ton et le langage du public du rapport.

Quelle est l’utilisation prévue de Security Copilot ? 

Security Copilot aide les professionnels de la sécurité dans des scénarios de bout en bout tels que la réponse aux incidents, la chasse aux menaces, la collecte de renseignements et la gestion de la posture. Pour plus d’informations, consultez Cas d’utilisation et rôles.

Comment Security Copilot a-t-il été évalué ? Quelles métriques sont utilisées pour mesurer les performances ? 

Security Copilot subi des tests substantiels avant d’être publié. Les tests incluaient l’association rouge, qui consiste à tester rigoureusement le produit pour identifier les modes de défaillance et les scénarios susceptibles d’entraîner Security Copilot faire ou dire des choses en dehors de ses utilisations prévues ou qui ne prennent pas en charge les principes de Microsoft AI.

Maintenant qu’il est disponible, les commentaires des utilisateurs sont essentiels pour aider Microsoft à améliorer le système. Vous avez la possibilité de fournir des commentaires chaque fois que vous recevez une sortie de Security Copilot. Lorsqu’une réponse est inexacte, incomplète ou peu claire, utilisez les boutons « Hors cible » et « Rapport » pour signaler toute sortie répréhensible. Vous pouvez également confirmer que les réponses sont utiles et précises à l’aide du bouton « Confirmer ». Ces boutons apparaissent au bas de chaque réponse Security Copilot et vos commentaires sont directement dirigés vers Microsoft pour nous aider à améliorer les performances de la plateforme.

Quelles sont les limitations de Security Copilot ? Comment les utilisateurs peuvent-ils réduire l’impact des limitations de Security Copilot lors de l’utilisation du système ? 

  • Le programme d’accès anticipé est conçu pour donner aux clients la possibilité d’obtenir un accès en avant-première à Security Copilot et de fournir des commentaires sur la plateforme. Les fonctionnalités en préversion ne sont pas destinées à une utilisation en production et peuvent avoir des fonctionnalités limitées. 

  • Comme toute technologie basée sur l’IA, Security Copilot n’a pas tout à faire correctement. Toutefois, vous pouvez contribuer à améliorer ses réponses en fournissant vos observations à l’aide de l’outil de commentaires, intégré à la plateforme.  

  • Le système peut générer des réponses obsolètes s’il ne reçoit pas les données les plus actuelles par le biais d’entrées utilisateur ou de plug-ins. Pour obtenir les meilleurs résultats, vérifiez que les plug-ins appropriés sont activés.

  • Le système est conçu pour répondre aux prompts relatives au domaine de la sécurité, telles que l’examen des incidents et la cyberveille. Les prompts débordant du domaine de la sécurité peuvent entraîner des réponses qui manquent de précision et d’exhaustivité.

  • Security Copilot peuvent générer du code ou inclure du code dans les réponses, ce qui peut potentiellement exposer des informations sensibles ou des vulnérabilités si elles ne sont pas utilisées avec soin. Les réponses peuvent sembler valides, mais peuvent ne pas être sémantiquement ou syntaxiquement correctes ou ne pas refléter précisément l’intention du développeur. Les utilisateurs doivent toujours prendre les mêmes précautions qu’avec tout code qu’ils écrivent qui utilise des éléments dont ils ne sont pas eux-mêmes à l’origine, y compris des précautions pour garantir leur adéquation. Il s’agit notamment de tests rigoureux, d’analyse IP et de vérification des failles de sécurité.

  • Correspond au code public : Security Copilot est capable de générer du nouveau code, ce qu’il fait de manière probabiliste. Bien que la probabilité qu’il puisse produire du code qui correspond au code dans le jeu d’entraînement est faible, une suggestion de Security Copilot peut contenir des extraits de code qui correspondent au code du jeu d’apprentissage. Les utilisateurs doivent toujours prendre les mêmes précautions qu’avec n’importe quel code qu’ils écrivent qui utilise du matériel dont les développeurs ne sont pas à l’origine, y compris des précautions pour garantir leur adéquation. Il s’agit notamment de tests rigoureux, d’analyse IP et de vérification des failles de sécurité.

  • Il se peut que le système ne soit pas en mesure de traiter de longues prompts, telles que celles constituées de centaines de milliers de caractères.

  • L’utilisation de la plateforme peut être soumise à des limites d’utilisation ou à une limitation de capacité. Même avec des prompts plus courtes, le choix d’un plug-in, l’exécution d’appels d’API, la génération de réponses et leur vérification avant de les afficher à l’utilisateur peuvent prendre du temps (jusqu’à plusieurs minutes) et nécessiter une capacité GPU élevée. 

  • Pour minimiser les erreurs, il est recommandé aux utilisateurs de suivre les instructions de génération de prompts

Quels sont les facteurs et paramètres opérationnels qui permettent une utilisation efficace et responsable des Security Copilot ? 

  • Vous pouvez utiliser des mots quotidiens pour décrire ce que vous souhaitez Security Copilot faire. Par exemple :

    • « Parlez-moi de mes derniers incidents » ou « Résumez cet incident ».
  • Lorsque le système génère la réponse, vous commencez à voir les étapes qu’il effectue dans le journal des processus, ce qui donne la possibilité de vérifier ses processus et ses sources.  

  • À tout moment pendant la formation de la prompt, vous pouvez annuler, modifier, réexécuter ou supprimer une prompt. 

  • Vous pouvez fournir des commentaires sur la qualité d’une réponse, y compris signaler tout ce qui n’est pas acceptable à Microsoft. 

  • Les réponses peuvent être épinglées, partagées et exportées, ce qui permet aux professionnels de la sécurité de collaborer et de partager des observations. 

  • Les administrateurs contrôlent les plug-ins qui se connectent à Security Copilot.   

  • Vous pouvez choisir, personnaliser et gérer des plug-ins qui fonctionnent avec Security Copilot.

  • Security Copilot créé des promptbooks, qui sont un groupe d’invites qui s’exécutent dans l’ordre pour terminer un flux de travail spécifique.

Comment Microsoft aborde-t-il l’IA responsable pour Security Copilot ?

Chez Microsoft, nous prenons au sérieux notre engagement en faveur de l’IAR. Security Copilot est en cours de développement conformément à nos principes d’IA. Nous travaillons avec OpenAI pour offrir une expérience qui encourage une utilisation responsable. Par exemple, nous avons collaboré et continuerons à collaborer avec OpenAI sur le travail de modèle fondamental. Nous avons conçu l’expérience utilisateur Security Copilot pour garder les humains au centre. Nous avons développé un système de sécurité conçu pour atténuer les défaillances et empêcher toute utilisation abusive avec des éléments tels que l’annotation de contenu dangereux, la surveillance opérationnelle et d’autres dispositifs de protection. Le programme d’accès anticipé sur invitation uniquement fait également partie de notre approche de l’IAR. Nous prenons les commentaires des utilisateurs disposant d’un accès anticipé à Security Copilot pour améliorer l’outil avant de le rendre largement disponible.

L’IAR est un parcours, et nous améliorerons continuellement nos systèmes en cours de route. Nous nous engageons à rendre notre IA plus stable et fiable, et vos commentaires nous y aideront.

Êtes-vous en conformité avec la loi européenne sur l’IA ?

Nous nous engageons à respecter la loi européenne sur l’IA. Notre effort sur plusieurs années pour définir, faire évoluer et implémenter notre norme d’IAR et notre gouvernance interne a renforcé notre préparation.

Chez Microsoft, nous reconnaissons l’importance de la conformité réglementaire en tant que pierre angulaire de la confiance et de la fiabilité dans les technologies d’IA. Nous nous engageons à créer une IA responsable par conception. Notre objectif est de développer et de déployer une IA qui aura un impact bénéfique sur la société et gagnera sa confiance.

Notre travail est guidé par un ensemble de principes fondamentaux : l’équité, la fiabilité et la sécurité, la confidentialité, l’inclusion, la transparence et la responsabilité. L’ia responsable de Microsoft Standard prend ces six principes et les décompose en objectifs et exigences pour l’IA que nous mettons à disposition.

Notre norme d’IAR prend en compte les propositions réglementaires et leur évolution, y compris la proposition initiale de la loi européenne sur l’IA. Nous avons développé nos produits et services les plus récents dans l’espace IA, tels que Microsoft Copilot et le service OpenAI Microsoft Azure conformément à notre norme IAR. Dans la mesure où les exigences finales de la loi sur l’IA de l’UE sont définies plus en détail, nous sommes impatients de travailler avec les décideurs pour garantir l’implémentation et l’application possibles des règles, pour démontrer notre conformité et pour collaborer avec nos clients et d’autres parties prenantes afin de soutenir la conformité dans l’écosystème.