Microsoft のコードの欠陥により機密データへのアクセスが公開される
AI(人工知能)アシスタントの最新版「Microsoft 365 Copilot」が1月末から重大なミスを犯し、機密メール通信から恣意的に情報収集を開始した。さらに心配なのは、この機能は、組織が機密情報を保護するために導入しているデータ損失防止 (DLP) ポリシーをバイパスすることです。
Copilot が安全性の限界を押し上げる理由
Microsoft は、この問題が Microsoft 365 Copilot コードの特定のバグによって引き起こされていることを認めています。このバグにより、AI ツールが企業のセキュリティ プロトコルによって保護されるはずの電子メールにアクセスしてデータを収集できるようになりました。これは、営業秘密、個人情報、その他の機密データを不正アクセスや漏洩から保護するために DLP ポリシーに依存している組織に重大なリスクをもたらします。
Microsoft はセキュリティ インシデントに対応しています
このバグの発見後、Microsoft は直ちに調査を開始し、修正に取り組んでいます。同社によれば、この問題は特定のMicrosoft 365 Copilot機能を使用する組織にのみ影響するという。 AI アシスタントが確立されたデータ保護ポリシーを引き続き厳密に遵守し、アクセスする権利のない情報にアクセスしないようにするために、コードの修正に積極的に取り組んでいます。
潜在的な結果とリスク
このインシデントにより、組織はいくつかのリスクに直面する可能性があります。まず、たとえ一時的に集合的な形であったとしても、機密情報が AI システムに侵入している可能性があります。第二に、機密データを処理する際の AI ツールの安全性と信頼性について疑問が生じます。すでにこの AI ツールを使用している企業は、セキュリティ手順と潜在的なデータ漏洩リスクを見直すことをお勧めします。
1771572572
#Microsoft #Copilot #がデータ保護ポリシーを回避して機密情報に誤ってアクセス #Lente.lv
2026-02-20 07:23:00