SHD / MC Checker

MC947048 | Microsoft Purview | Insider Risk Management- Risky AI usage



MC947048 | Microsoft Purview | Insider Risk Management- Risky AI usage

Classification planForChange
Last Updated 12/02/2024 23:52:35
Start Time 12/02/2024 23:52:18
End Time 05/30/2025 07:00:00
Message Content

Coming soon, Microsoft Purview Insider Risk Management will be rolling out risky AI usage detections

This message is associated with Microsoft 365 Roadmap ID 394281

[When this will happen:]

Public Preview: We will begin rolling out early December 2024 and expect to complete by mid-December 2024.

General Availability (Worldwide): We will begin rolling out mid-February 2025 and expect to complete by late February 2025

[How this will affect your organization:]

With this update, Insider risk management will help admins identify risky AI usage. We are adding new detections of intentional and unintentional insider risk activity on generative AI apps that can pose a risk to an organization. Activities will include risky prompts containing sensitive info or risky intent and sensitive responses containing sensitive info or generated from sensitive files or sites. Coverage will span across M365 Copilot, Copilot Studio and ChatGPT Enterprise. These detections will also contribute to Adaptive Protection insider risk levels.

[What you need to do to prepare:]

Below are some of the steps admin can take

  1. Get insights into risky AI usage at an organization level in an anonymized form using analytics
  2. Create Risky AI usage policy to track risky prompts and sensitive responses in M365 Copilot, Copilot Studio
  3. The activity explorer in alerts gives a single threaded view of prompt, response along with the sensitive information present
  4. Use the new Generative AI indicators in adaptive protection for user risk score

Microsoft Purview Insider Risk Management correlates various signals to identify potential malicious or inadvertent insider risks, such as IP theft, data leakage, and security violations. Insider Risk Management enables customers to create policies based on their own internal policies, governance, and organizational requirements. Built with privacy by design, users are pseudonymized by default, and role-based access controls and audit logs are in place to help ensure user-level privacy. 

Main Admin link: Learn about insider risk management policy templates | Microsoft Learn

Machine Translation

近日公開予定の Microsoft Purview Insider Risk Management は、リスクの高い AI 使用検出をロールアウトする予定です

このメッセージは、Microsoft 365 ロードマップ ID 394281に関連付けられています

[これがいつ起こるか:]

パブリック プレビュー: 2024 年 12 月初旬にロールアウトを開始し、2024 年 12 月中旬までに完了する予定です。

一般提供 (全世界): 2025 年 2 月中旬にロールアウトを開始し、2025 年 2 月下旬までに完了する予定です

[これがあなたの組織にどのように影響しますか:]

この更新プログラムにより、Insider リスク管理は、管理者が危険な AI の使用を特定するのに役立ちます。組織にリスクをもたらす可能性のあるジェネレーティブ AI アプリ上の意図的および意図的でないインサイダー リスク アクティビティの新しい検出を追加しています。アクティビティには、機密情報または危険な意図を含む危険なプロンプトと、機密情報を含む、または機密性の高いファイルやサイトから生成された機密性の高い応答が含まれます。 対象は、M365 Copilot、Copilot Studio、ChatGPT Enterpriseに及びます。これらの検出は、適応型保護のインサイダー リスク レベルにも寄与します。

【準備に必要なこと】

以下は、管理者が実行できる手順の一部です

  1. 分析を使用して、組織レベルでのリスクの高いAIの使用に関する洞察を匿名化された形式で取得します
  2. リスクの高い AI 使用ポリシーを作成して、M365 Copilot、Copilot Studio で危険なプロンプトと機密性の高い応答を追跡します
  3. アラートのアクティビティ エクスプローラーでは、プロンプト、応答、および存在する機密情報の 1 つのスレッド ビューが提供されます
  4. 新しいジェネレーティブAIインジケーターをユーザーリスクスコアの適応型保護に使用

Microsoft Purview インサイダー リスク管理は、さまざまなシグナルを関連付けて、IP の盗難、データ漏えい、セキュリティ違反など、悪意のあるインサイダー リスクや不注意によるインサイダー リスクを特定します。インサイダー リスク管理を使用すると、お客様は独自の内部ポリシー、ガバナンス、および組織の要件に基づいてポリシーを作成できます。プライバシー・バイ・デザインで構築されているため、ユーザーはデフォルトで仮名化され、ロールベースのアクセス制御と監査ログが導入されて、ユーザーレベルのプライバシーが確保されます。 

メイン管理リンク: インサイダー リスク管理ポリシー テンプレートの詳細 |マイクロソフト ラーン