AI ワークロードのアラート

この記事では、Microsoft Defender for Cloud から AI ワークロードに対して取得できるセキュリティ アラートと、有効にしたすべての Microsoft Defender プランの一覧を示します。 お使いの環境で示されるアラートは、保護対象のリソースとサービスおよびカスタマイズした構成によって異なります。

Note

Microsoft Defender 脅威インテリジェンスと Microsoft Defender for Endpoint を利用して最近追加されたアラートの一部は、文書化されていない可能性があります。

これらのアラートに対応する方法については、こちらを参照してください。

アラートをエクスポートする方法については、こちらを参照してください。

注意

アラートの出力元によって、表示されるまでの時間が変わる場合があります。 たとえば、ネットワーク トラフィックの分析を必要とするアラートは、仮想マシンで実行されている不審なプロセスに関連するアラートよりも、表示されるまでより長い時間がかかる可能性があります。

AI ワークロードアラート

Azure OpenAI モデルのデプロイで資格情報の盗難の試行が検出されました

(AI。Azure_CredentialTheftAttempt)

説明: 資格情報盗難アラートは、GenAI モデルの応答内で資格情報が検出されたときに SOC にユーザー プロンプトに通知するように設計されており、侵害の可能性を示します。 このアラートは、資格情報の漏洩や盗難のケースを検出するために重要です。これは生成 AI に固有であり、成功した場合に重大な結果を招く可能性があります。

MITRE の戦術: 資格情報アクセス、横移動、流出

重大度: 中

Azure OpenAI モデルのデプロイに対する脱獄の試行が、Azure AI コンテンツの安全性プロンプト シールドによってブロックされました

(AI。Azure_Jailbreak.ContentFiltering.BlockedAttempt)

説明: ダイレクト プロンプトインジェクション手法を使用して実行される脱獄アラートは、生成 AI のセーフガードをバイパスするためにシステム プロンプトを操作しようとしたことを SOC に通知し、機密データや特権関数にアクセスする可能性があることを通知するように設計されています。 このような試みが Azure Responsible AI Content Safety (AKA Prompt Shields) によってブロックされ、AI リソースの整合性とデータ セキュリティが確保されたことを示しました。

MITRE 戦術: 特権エスカレーション、防御回避

重大度: 中

Azure OpenAI モデルのデプロイに対する脱獄の試行が、Azure AI コンテンツの安全性プロンプト シールドによって検出されました

(AI。Azure_Jailbreak.ContentFiltering.DetectedAttempt)

説明: ダイレクト プロンプトインジェクション手法を使用して実行される脱獄アラートは、生成 AI のセーフガードをバイパスするためにシステム プロンプトを操作しようとしたことを SOC に通知し、機密データや特権関数にアクセスする可能性があることを通知するように設計されています。 このような試行は、Azure Responsible AI Content Safety (AKA Prompt Shields) によって検出されましたが、コンテンツ フィルタリングの設定や信頼性の低さによってブロックされなかったことが示されました。

MITRE 戦術: 特権エスカレーション、防御回避

重大度: 中

Azure OpenAI モデルのデプロイで機密データの公開が検出されました

(AI。Azure_DataLeakInModelResponse.Sensitive)

説明: 機密性の高いデータ漏洩アラートは、悪意のあるユーザーが未承認の機密データにアクセスするために生成 AI のセーフガードをバイパスしようとしたことが原因で、GenAI モデルが機密情報でユーザー プロンプトに応答したことを SOC に通知するように設計されています。

MITRE の戦術: コレクション

重大度: 中

Note

プレビュー段階のアラートの場合: Azure プレビューの追加使用条件には、ベータ版、プレビュー版、またはその他のまだ一般提供されていない Azure 機能に適用される追加の法律条項が含まれています。

次のステップ