Security

AI agent governance: セキュリティのための意図整合

3分で読める

概要

Microsoft は、ユーザー、開発者、ロールベース、組織の意図を整合させる AI agent 向けガバナンスモデルを提示しています。このフレームワークは、行動の境界と競合時の明確な優先順位を定義することで、企業が agent の有用性・安全性・コンプライアンスを維持するのに役立ちます。

Securityでお困りですか?専門家に相談する

AI agent は単純なチャット操作を超え、ビジネスシステム全体でアクションを実行するようになっています。こうしたツールを組織が導入する中で、ガバナンスは極めて重要です。agent にはタスクを正しく完了するだけでなく、技術面、業務面、コンプライアンス面の境界内にとどまることも求められます。

Microsoft が強調しているポイント

Microsoft Security は、AI agent の動作を統制するための 4 層モデルを説明しています。

  • User intent: ユーザーが agent に実行させようとしていること。
  • Developer intent: agent が実行できるよう設計され、技術的に許可されていること。
  • Role-based intent: agent に割り当てられた業務機能と権限。
  • Organizational intent: 企業ポリシー、規制要件、セキュリティ制御。

重要なメッセージは、信頼できる AI には、単に prompt に正確に応答することではなく、4 つすべての層で意図が整合していることが必要だという点です。

意図の整合が重要な理由

Microsoft によると、意図が適切に整合された agent は次のことをより実現しやすくなります。

  • より高品質で関連性の高い結果を提供する
  • 想定された運用範囲内にとどまる
  • セキュリティおよびコンプライアンス要件を適用する
  • 誤用、権限逸脱、未承認アクションのリスクを低減する

この投稿では、重要なガバナンス概念の違いについても説明しています。たとえば、開発者がメールの仕分けと優先順位付けを行う email triage agent を構築したとしても、その agent が明示的な承認なしにメールへ返信したり、メッセージを削除したり、外部システムへアクセスしたりしてよいことにはなりません。

同様に、compliance reviewer のような role-based agent は、HIPAA の問題をスキャンしてレポートを生成することは許可される場合がありますが、その特定の職務記述を超えて行動してはなりません。

競合時の優先順位モデル

Microsoft は、意図の各層が競合した場合に備えて、明確な階層を推奨しています。

  1. Organizational intent
  2. Role-based intent
  3. Developer intent
  4. User intent

つまり、ユーザーの要求は、組織ポリシー、割り当てられた業務ロール、技術設計上の制約の範囲内にある場合にのみ満たされるべきです。

IT 部門とセキュリティチームへの影響

IT 管理者、セキュリティリーダー、ガバナンスチームにとって、このガイダンスは、AI agent を汎用アシスタントではなく、統制されたデジタルワーカーとして扱う必要性を改めて示しています。導入計画には、次の項目を含める必要があります。

  • 各 agent の明確なロール定義
  • 技術的なガードレールと承認済みの統合
  • データアクセス境界
  • GDPR や HIPAA などの規制に対応するコンプライアンスマッピング
  • 人による承認が必要なアクションのエスカレーション経路

次のステップ

AI agent を評価または導入している組織は、既存のガバナンスモデルを見直し、意図の整合を考慮するよう更新すべきです。セキュリティチームとコンプライアンスチームは、開発者や業務オーナーと連携し、本番環境への大規模展開の前に、agent の範囲、権限、ポリシー境界を定義する必要があります。

AI agent の自律性が高まる中、この多層的な意図モデルは、より安全なエンタープライズ導入に向けた実践的な基盤を提供します。

Securityでお困りですか?

私たちの専門家がMicrosoftソリューションの導入と最適化をお手伝いします。

専門家に相談する

Microsoftテクノロジーの最新情報を入手

AI agentsMicrosoft Securitygovernancecomplianceenterprise security

関連記事

Security

Trivy サプライチェーン侵害: Microsoft Defender 対応ガイダンス

Microsoft は、2026年3月の Trivy サプライチェーン侵害について、検知、調査、緩和策のガイダンスを公開しました。このインシデントは、信頼された CI/CD セキュリティツールが通常どおり動作しているように見せかけながら、ビルドパイプライン、クラウド環境、開発者システムから認証情報を窃取するために悪用された点で重要です。

Security

Microsoft Defender予測シールディングがGPOランサムウェアを阻止

Microsoftは、Defenderのpredictive shieldingが暗号化開始前に悪意ある Group Policy Object(GPO)の悪用を検知した、実際のランサムウェア事例を詳しく説明しました。GPOの伝播を強化し、侵害されたアカウントを遮断することで、Defenderは暗号化の試行を約97%阻止し、GPO配信経路を通じたデバイスの暗号化を防ぎました。

Security

Microsoft Agentic AI セキュリティ新機能をRSACで発表

RSAC 2026でMicrosoftは、企業向けAIのより包括的なセキュリティ戦略を発表しました。その中核となるのが、AIエージェントの統制と保護を担う新しいコントロールプレーン **Agent 365** で、5月1日に一般提供開始予定です。さらに、Defender、Entra、Purview、Intune全体でのAIリスク可視化とID保護の拡張、新たなshadow AI検出ツールも発表され、AI活用の保護が企業のセキュリティ運用の中核になりつつあることが示されました。

Security

CTI-REALMでAI検知エンジニアリングを評価する新ベンチマーク

Microsoftは、AIエージェントが脅威インテリジェンスレポートの解釈からKQLおよびSigma検知ルールの生成・改善まで、検知エンジニアリング業務をエンドツーエンドで実行できるかを検証するためのオープンソースベンチマーク「CTI-REALM」を発表しました。これは、SOC運用におけるAIの評価において、単純なサイバーセキュリティQ&Aではなく、実環境にまたがる測定可能な運用成果に焦点を当てた、より現実的な手法をセキュリティチームに提供する点で重要です。

Security

Microsoft Zero Trust for AI ワークショップとアーキテクチャ

Microsoft は Zero Trust for AI ガイダンスを導入し、Zero Trust Workshop に AI に特化した柱を追加するとともに、Assessment ツールを新しい Data と Network の柱で拡張しました。この更新は、企業が prompt injection、data poisoning、過剰なアクセスといったリスクから AI システムを保護しつつ、約 700 のコントロールを通じてセキュリティ、IT、業務チームの足並みをそろえるための体系的な方法を提供する点で重要です。

Security

Microsoft 税務シーズンのフィッシング攻撃が認証情報を標的に

Microsoft は、税務シーズンのフィッシング攻撃が増加していると警告しています。攻撃者は偽の CPA メッセージ、W-2 の QR コード、1099 をテーマにした誘導を使い、Microsoft 365 の認証情報を窃取したり、マルウェアやリモートアクセスツールを配布したりしています。これらのキャンペーンが重要なのは、信頼されたクラウドサービス、多段階リダイレクト、正規ツールを悪用して防御を回避し、アカウント侵害や広範なネットワーク侵入のリスクを高める、より標的型かつ回避性の高い手口になっているためです。