1741415259
2025-03-07 17:09:00

AIは猛烈なスピードで前進していますが、そのセキュリティ対策はペースを維持するのに苦労しています。新興のオープンソースAIプラットフォームであるDeepSeekの最近のサイバー攻撃は、AIシステム、特にエージェントAIが、より広範なデジタルエコシステムを悩ませる同じ脅威に対して脆弱であることを思い出させます。

Deepseekは、多くの場合、高度な言語モデルのために「ChatGpt Killer」と呼ばれ、OpenaiのChatGptを人気が一時的に急増しました。しかし、同じように速く、それはターゲットになりました。分配されたサービス拒否(DDOS)攻撃により、会社は新しいユーザー登録を停止することを余儀なくされ、AIのセキュリティの準備に対する自信を揺さぶりました。

これは孤立した事件ではありませんでした。 AIモデルは、オープンソースであろうと独自のものであろうと、敵対的な機械学習攻撃、データ中毒、またはAPI侵害を通じて、ますます悪用されています。 AIエージェントがより重要なビジネス機能を引き受けるにつれて、これらのリスクは成長するだけです。

これに対処するために、AI業界はセキュリティへのアプローチを再考する必要があります。ソリューションの基本的な部分は、「AI Kill Switch」です。これは、制御不能にスパイラルアウトする前にAIシステムを停止するメカニズムです。そして、このキルスイッチの中心には、マシンのアイデンティティセキュリティがあります。

AIの両刃の剣

AIはデジタル変革の原動力となり、ヘルスケア、金融、物流、マーケティングなどの業界全体で突破口を提供しています。現在、エージェントAIを使用すると、大規模な言語モデル(LLM)がテキスト生成を超えて進化して自律的な行動をとっています。しかし、この劇的な進歩はすべて大きなリスクを伴います。 AIがイノベーションをスピードアップするのと同じように、サイバー犯罪者の能力を充電します。

Deepseekの場合、 数人の研究者はすでに脆弱性を明らかにしています ランサムウェアや毒素開発の指示などの悪意のある出力を促進する脱獄を含む、そのシステムでは。一方、1月29日に、別の研究チームが発見しました 露出したClickhouseデータベース ユーザーチャット履歴、ログストリーム、APIの秘密、運用の詳細など、機密データの漏れ。彼らはまた、これがデータベースの完全な制御と、認証なしで特権のエスカレーションを付与することを発見しました。

これらは、NISTが分類しているもののほんの一例です 敵対機械学習(AML) 開発やテストから展開まで、ライフサイクルのさまざまな段階でAIモデルの弱点を活用する攻撃。

Cyber​​ark’s 2024研究 技術に関する懸念は、セキュリティリーダーによって共有されていることを示しました。 92% それらのうち、AIに生成されたコードの使用について懸念があります、 77% 攻撃者がトレーニングデータを操作してAIの出力をゆがめていることを心配し、 75% AIモデルの盗難について深く心配しています。

Deepseekの攻撃が受けた驚くべきレベルの注意を考えると、これらの不安はなくなりません。このケースが示したように、効果的な攻撃は操作を混乱させるだけではないからです。彼らは潜在的なグローバルな影響を持っています。

AIキルスイッチとは何ですか?なぜそれが必要なのですか?

攻撃者がモデルを破壊したり盗んだり、AIにaiになりすまして不正アクセスを得るか、まだ見たことのない新しい形式の攻撃であろうと、セキュリティチームは積極的にする必要があります。これが、AIの「キルスイッチ」が重要である理由です。これにより、組織は重大な損害を与える前に、侵害されたAIシステムを一時停止、封じ込め、または無効にすることができます。

単純化されたシャットダウンメカニズムからはほど遠い、AI Kill Switchは、マシンのIDセキュリティを通じて制御を実施することです。トレーニング、展開、および運用中にAIモデルのユニークなアイデンティティを検証および管理することにより、組織は不正アクセスを防ぎ、侵害されたシステムを遮断し、脅威がネットワーク全体でエスカレートするのを止めることができます。これがなければ、AIシステムは大規模な搾取に対して脆弱なままになります。

欠落しているパズルピース:マシンのアイデンティティセキュリティ

「AI Kill Switch」をどのように開発しますか?答えは、AIが依存するマシン駆動型エコシステム全体を保護することにあります。デジタル証明書、アクセストークン、APIキーなどのマシンのアイデンティティは、AI機能とデータソースと対話してアクセスする能力を認証および承認します。簡単に言えば、LLMSおよびAIシステムはコード上に構築されており、あらゆるコードと同様に、不正アクセスまたは不正な動作を防ぐために一定の検証が必要です。

攻撃者がこれらのアイデンティティに違反した場合、AIシステムはサイバー犯罪者のツールになる可能性があり、ランサムウェアの生成、フィッシングキャンペーンのスケーリング、一般的なカオスの播種が可能です。マシンのアイデンティティセキュリティにより、AIは複雑なネットワークやユーザーベースと対話するようにスケーリングしても、AIがAIエージェントを介して自律的に行​​うことができるタスクでも、信頼できるものを保証します。

強力なガバナンスと監視がなければ、企業はAIシステムの可視性を失う危険を冒し、脆弱なままにします。攻撃者は、データ中毒やバックドア浸潤などの戦術を使用して、多くの組織が認識しているよりも速く進化している脅威を使用して、弱いセキュリティ対策を活用できます。

Deepseek攻撃は、AIとサイバーセキュリティのためのモーニングコールです。企業、政府、および研究者は、反応的な対応を超えて、AIを駆動する脅威と同じくらい迅速に進化するセキュリティフレームワークを開発する必要があります。

マシンのアイデンティティセキュリティは、重要な第1ステップです。AI主導の世界で信頼と回復力を確立します。これは、エージェントAIが業界全体で自律的な意思決定の役割を引き受けるため、さらに緊急になります。

経済的、技術的、セキュリティリスクは、無視するにはあまりにも重要です。適切なセーフガードがなければ、それはテクノロジーそのものと同じくらい強力であるため、AIの進歩の可能性は容易に責任になる可能性があります。

David Higginsは、フィールドテクノロジーオフィスのシニアディレクターです サイバーアーク

続きを読む

AI対AI – サイバー犯罪者や組織は勝っていますか? – サイバー犯罪者はLLMを使用して攻撃を強化しており、セキュリティの専門家が攻撃を受けていることを知ることさえ難しくしています。ただし、セキュリティチームと研究者は、Genaiを使用して、大規模なセキュリティの欠陥を見つけるのをより賢く、より速くすることができます

なぜ信頼が英国の労働者のためのAI採用の鍵であるのか – 2024年が、レシピの生成から作業プレゼンテーションの策定まで、あらゆるものにAIツールを使用することに取り組み始めた年であった場合、2025がAIが職場で主流になる年になると仮定するのは合理的です

データサイエンティストのための10の有用なChatGPTプロンプト – データサイエンティストとして、ChatGptを最大限に活用するように何を求めている必要がありますか? JobbioのAoibhinn McBrideはもっと説明します

#AIがキルスイッチが必要な理由 #念のため

Leave a Reply

Your email address will not be published. Required fields are marked *

This site uses Akismet to reduce spam. Learn how your comment data is processed.