Вопросы и ответы об ответственном применении ИИ

Что такое Microsoft Copilot для безопасности? 

Copilot for Security — это естественный язык, который представляет собой решение для обеспечения безопасности на основе искусственного интеллекта, которое помогает повысить эффективность и возможности защитников, чтобы повысить результаты безопасности на скорости и масштабировании машин. Он извлекает контекст из подключаемых модулей и данных для ответа на запросы, чтобы специалисты по безопасности и ИТ-администраторы могли обеспечить безопасность своих организаций.

Что может сделать Copilot для безопасности? 

Copilot for Security помогает отвечать на вопросы на естественном языке, чтобы вы могли в считанные секунды получать ответы на распространенные задачи безопасности и ИТ.

Microsoft Copilot for Security помогает в следующих сценариях:

  • Операции, связанные с обеспечением безопасности

    Управление уязвимостями и возникающими угрозами, ускорение реагирования на инциденты с помощью интерактивного исследования и использование расширенных возможностей, таких как анализ скриптов и помощь с запросами.

  • Управление устройствами

    Создавайте политики и моделируйте их результаты, собирайте сведения об устройствах для судебной экспертизы и настраивайте устройства с помощью рекомендаций из аналогичных развертываний. 

  • управление удостоверениями;

    Обнаруживайте избыточный доступ, создавайте проверки доступа для инцидентов, создавайте и описывайте политики доступа, а также оценивайте лицензирование в разных решениях. 

  • Защита данных

    Выявляйте данные, на которые влияют инциденты безопасности, создавайте исчерпывающие сводки о рисках безопасности и соответствия данных, а также выявляйте риски, которые могут нарушать обязательства по соответствию нормативным требованиям.

  • Безопасность в облаке

    Выявляйте пути атак, влияющие на рабочие нагрузки, и суммируете облачные cvE, чтобы заранее предотвращать угрозы и более эффективно управлять состоянием облачной безопасности.

Что предназначено для использования Copilot для безопасности? 

Copilot for Security предназначен для того, чтобы помочь аналитикам безопасности расследовать и устранять инциденты, суммировать и объяснять события безопасности, а также делиться результатами с заинтересованными лицами.  

Как оценивается Copilot for Security? Какие метрики используются для измерения производительности? 

Перед выпуском Copilot for Security прошел существенное тестирование. Тестирование включало красное объединение, которое является практикой тщательного тестирования продукта для выявления режимов сбоев и сценариев, которые могут привести к тому, что Copilot для безопасности будет делать или говорить что-то за пределами предполагаемого использования или которые не поддерживают принципы ИИ Майкрософт.

Теперь, когда он выпущен, отзывы пользователей имеют решающее значение для улучшения системы корпорацией Майкрософт. Вы можете предоставлять отзыв каждый раз, когда получаете выходные данные от Copilot for Security. Если ответ является неточным, неполным или неясным, используйте кнопки "Вне цели" и "Отчет", чтобы пометить любые нежелательные выходные данные. Вы также можете проверить, являются ли ответы полезными и точными, с помощью кнопки "Подтвердить". Эти кнопки отображаются в нижней части каждого ответа Copilot for Security, и ваш отзыв передается непосредственно в Корпорацию Майкрософт, чтобы помочь нам повысить производительность платформы.

Каковы ограничения Copilot for Security? Как пользователи могут свести к минимуму влияние ограничений Copilot for Security при использовании системы? 

  • Программа раннего доступа предназначена для предоставления клиентам возможности раннего доступа к Copilot for Security и предоставления отзывов о платформе. Предварительные версии функций не предназначены для использования в рабочей среде и могут иметь ограниченные функциональные возможности. 

  • Как и любая технология на основе ИИ, Copilot for Security не все в порядке. Однако вы можете улучшить ответы, предоставив свои наблюдения с помощью средства обратной связи, встроенного в платформу.  

  • Система может создавать устаревшие ответы, если ей не предоставляются самые актуальные данные с помощью пользовательских входных данных или подключаемых модулей. Чтобы получить наилучшие результаты, убедитесь, что включены правильные подключаемые модули.

  • Система предназначена для реагирования на запросы, связанные с предметной областью безопасности, такие как исследование инцидентов и аналитика угроз. Запросы, не входящие в область безопасности, могут привести к ответам, которые не имеют точности и полноты.

  • Copilot for Security может создавать код или включать его в ответы, что может потенциально раскрыть конфиденциальную информацию или уязвимости, если не использовать их тщательно. Ответы могут казаться допустимыми, но на самом деле не могут быть семантически или синтаксически правильными или могут не точно отражать намерения разработчика. Пользователи всегда должны соблюдать те же меры предосторожности, что и при написании любого кода, который использует существенные пользователи не независимо, включая меры предосторожности для обеспечения его пригодности. Сюда относится тщательное тестирование, сканирование IP-адресов и проверка на наличие уязвимостей системы безопасности.

  • Соответствует общедоступному коду. Copilot for Security способен создавать новый код, который он делает вероятностным образом. Хотя вероятность того, что он может создать код, соответствующий коду в обучаемом наборе, низка, предложение Copilot для безопасности может содержать некоторые фрагменты кода, соответствующие коду в обучаемом наборе. Пользователи всегда должны соблюдать те же меры предосторожности, что и при написании любого кода, который использует материал, который разработчики не независимо от исходного кода, включая меры предосторожности для обеспечения его пригодности. Сюда относится тщательное тестирование, сканирование IP-адресов и проверка на наличие уязвимостей системы безопасности.

  • Система может не обрабатывать длинные запросы, например сотни тысяч символов.

  • На использование платформы могут распространяться ограничения на использование или регулирование емкости. Даже при более коротких запросах, выбор подключаемого модуля, выполнение вызовов API, создание ответов и их проверка перед отображением для пользователя может занять некоторое время (до нескольких минут) и требовать высокой емкости GPU. 

  • Чтобы свести к минимуму количество ошибок, пользователям рекомендуется следовать инструкциям

Какие операционные факторы и параметры позволяют эффективно и ответственно использовать Copilot для безопасности? 

  • Вы можете использовать повседневные слова, чтобы описать, что вы хотите сделать Copilot for Security. Например:

    • "Расскажите мне о моих последних инцидентах" или "Суммировать этот инцидент".
  • Когда система создает ответ, вы начинаете видеть шаги, которые система выполняет в журнале процессов, предоставляя возможности для повторной проверки своих процессов и источников.  

  • В любое время во время формирования запроса можно отменить, изменить, повторно запустить или удалить запрос. 

  • Вы можете предоставить отзыв о качестве ответа, в том числе сообщить о любом неприемлемом для корпорации Майкрософт. 

  • Ответы можно закреплять, предоставлять к ним общий доступ и экспортировать, помогая специалистам по безопасности сотрудничать и обмениваться наблюдениями. 

  • Администраторы имеют контроль над подключаемыми модулями, которые подключаются к Copilot for Security.   

  • Вы можете выбирать, персонализировать и управлять подключаемыми модулями, которые работают с Copilot for Security.

  • Copilot for Security создал модули командной строки, которые представляют собой группу запросов, которые выполняются последовательно для завершения определенного рабочего процесса.

Как корпорация Майкрософт подходит к ответственному использованию ИИ для Copilot for Security?

Корпорация Майкрософт серьезно относится к нашим обязательствам по ответственному ИИ. Copilot for Security разрабатывается в соответствии с принципами ИИ. Мы работаем с OpenAI, чтобы обеспечить работу, которая поощряет ответственное использование. Например, у нас есть и будет продолжаться совместная работа с OpenAI над базовой моделью. Мы разработали пользовательский интерфейс Copilot for Security, чтобы держать людей в центре вещей. Мы разработали систему безопасности, которая предназначена для устранения сбоев и предотвращения неправильного использования с такими вещами, как вредные заметки к содержимому, операционный мониторинг и другие меры безопасности. Программа раннего доступа только по приглашениям также является частью нашего подхода к ответственному ИИ. Мы принимаем отзывы пользователей от пользователей с ранним доступом к Copilot for Security, чтобы улучшить средство, прежде чем сделать его широко доступным.

Ответственный ИИ — это путь, и мы будем постоянно совершенствовать наши системы на этом пути. Мы стремимся сделать наш ИИ более надежным и надежным, и ваши отзывы помогут нам сделать это.

Соответствуете ли вы Закону ЕС об искусственном интеллекте?

Мы стремимся соблюдать Закон ЕС об искусственном интеллекте. Наши многолетние усилия по определению, развитию и внедрению стандарта ответственного ИИ и внутреннего управления укрепили нашу готовность.

Корпорация Майкрософт признает важность соответствия нормативным требованиям как основы доверия и надежности в технологиях ИИ. Мы стремимся к созданию ответственного искусственного интеллекта. Наша цель заключается в разработке и развертывании ИИ, который будет оказывать положительное влияние на общество и заслужить доверие со стороны общества.

Наша работа руководствуется основным набором принципов: справедливости, надежности и безопасности, конфиденциальности и безопасности, инклюзивности, прозрачности и подотчетности. Стандарт ответственного ИИ Майкрософт учитывает эти шесть принципов и разбивает их на цели и требования к ИИ, который мы делаем доступным.

Наш стандарт ответственного ИИ учитывает нормативные предложения и их эволюцию, включая первоначальное предложение по Закону ОБ ИИ ЕС. Мы разработали наши последние продукты и службы в области ИИ, такие как Microsoft Copilot и Microsoft Azure OpenAI Service, в соответствии со стандартом ответственного ИИ. Поскольку окончательные требования в соответствии с Законом ЕС об искусственном интеллекте определены более подробно, мы с нетерпением ждем совместной работы с политиками для обеспечения возможной реализации и применения правил, демонстрации нашего соответствия, а также взаимодействия с нашими клиентами и другими заинтересованными лицами для поддержки соответствия требованиям в рамках всей экосистемы.