商人: イスラエルはガザ攻撃で軍事 AI をどのように使用していますか?

1700139783
2023-11-02 10:00:11

ガザでは戦争の霧が濃くなってきた、地上侵攻が勢いを増しており、空爆も猛烈なペースで続いている。 火曜日に、 ミサイルが難民キャンプを襲った イスラエル国防軍はジャバリヤでハマスの幹部が駐屯しており、数十人の民間人が死亡したと発表した。

危機をめぐる議論 オンラインで激怒する さて、これだけの議論があるにもかかわらず、あまり広く検討されていない疑問がひとつ残っている。それは、イスラエルが標的を選択して攻撃するために人工知能と自動兵器システムにどの程度依存しているのかということだ。

攻撃の最初の週だけでも、 イスラエル空軍 6,000発の爆弾を投下したと発表した ガザ地区は140平方マイル(米国最小の州であるロードアイランド州の10分の1)で、世界で最も人口密度の高い場所の一つだ。 それ以来、さらに何千回もの爆発が発生しました。

イスラエルは中東で最も強力かつ最高技術の軍隊を指揮している。 10月7日の恐ろしいハマスの攻撃の数カ月前、IDFは致死作戦にAIを組み込んでいると発表した。 として ブルームバーグが7月15日に報じた。、今年初め、イスラエル国防軍は「空爆の対象を選択し、戦時兵站を組織するために人工知能を使用する」ことを始めた。

イスラエル当局者らは当時、イスラエル国防軍が空爆の標的を選択するためにAI推奨システムを採用し、その後の襲撃を迅速に組織するために別のモデルが使用されると述べた。 IDFはこの2番目のシステムをFire Factoryと呼んでおり、ブルームバーグによると、「軍が承認した目標に関するデータを使用して軍需品の積載量を計算し、数千の目標に優先順位を付けて航空機やドローンに割り当て、スケジュールを提案する」という。

コメントの求めに応じて、IDFの広報担当者は同国のAIの軍事利用について言及することを拒否した。

AI が世界中の見出しを独占したこの年、紛争のこの要素は奇妙なことに十分に検討されていません。 このテクノロジーを取り巻く現実的かつ倫理的な問題が数多くあることを考えると、イスラエルはAIをどのように導入するかに迫られるべきだ。

「AI システムは、特に訓練データと異なる状況に置かれた場合、信頼性が低く脆弱であることで悪名高い」と、新アメリカ安全保障センターの副所長であり、『AI システム』の著者であるポール シャール氏は述べています。 「4 つの戦場: 人工知能時代のパワー」 シャール氏は、IDFが使用している可能性のある特定のシステムの詳細についてはよく知らないが、標的サイクルを支援するAIと自動化はおそらくイスラエルによるガザ地区でのハマスの要員や物資捜索のようなシナリオで使用されるだろうと述べた。 戦場でのAIの使用は急速に進んでいるが、重大なリスクを伴うと同氏は述べた。

「標的の決定にAIが関与する場合、大きなリスクは間違った標的を攻撃することだ」とシャール氏は言う。 「民間人に死傷者を出したり、味方の目標を攻撃して兄弟殺しを引き起こしたりする可能性がある。」

イスラエルの軍事AI利用に関する議論がこれまであまり見られなかったのがやや意外な理由の1つは、IDFがAIへの投資とAIの導入を長年にわたって宣伝してきたことだ。

2017 年、IDF の編集部門は と宣言した 「IDF は人工知能が現代の生存の鍵であると考えています。」 2018年にIDFは 自慢した 「機械が人間を出し抜いている」ということです。 その記事の中で、シグマの当時の責任者はこう述べています。 IDFの支部 AI の研究、開発、実装に専念しているヌリット・コーエン・インガー中佐は、「すべてのカメラ、すべての戦車、すべての兵士が、週 7 日、1 日 24 時間、定期的に情報を生成しています。」と書いています。

「人間には獲得できない、機械には獲得できる能力があることを私たちは理解しています」とインガー氏は続けた。 「私たちは、兵站から人材、情報に至るまで、IDF のあらゆる分野に人工知能を徐々に導入しています。」

IDFは次のようなことまで行った 最後の紛争と呼ぶ 2021年にはガザでハマスとの「第一次人工知能戦争」が行われ、IDF指導部はハマスとの戦いにおいてその技術がもたらした利点を宣伝した。 「人工知能は初めて、敵と戦う上で重要な要素であり、威力を倍増させるものとなった」とイスラエル国防軍情報軍の上級士官はエルサレム・ポストに語った。 報道によると、イスラエル国防軍のデータサイエンス・AI部隊の司令官は、軍が2021年にハマスの指導者2人を標的にして排除するのにAIシステムが役立ったと述べた。 ポスト

IDFは、今年初めからAIシステムが正式に致死作戦に組み込まれていると述べている。 このシステムにより、軍はデータを処理し、より迅速かつ正確に目標を特定できるようになり、すべての目標は人間のオペレーターによって検査されると述べています。

しかし、イスラエルの国際法学者らは、そのようなツールの使用の合法性について懸念を表明しており、アナリストらは、これらのツールがより完全自律型の兵器への傾斜であると懸念し、標的システムをAIに引き渡すことに内在するリスクがあると警告している。

結局のところ、多くの AI システムはますますブラック ボックス化しており、そのアルゴリズムは十分に理解されておらず、一般公開されていません。 で IDF による AI の採用に関する記事 リーバー研究所のヘブライ大学法学者タル・ミムラン氏とリオール・ワインスタイン氏は、不透明な自動システムに依存することは人命の損失を招きかねないリスクを強調している。 (ミムラン氏がイスラエル国防軍に勤務していたとき、標的が国際法に準拠していることを確認するために標的を精査した。)

ミムランとワインスタインは、「AIツールが説明不可能である限り、なぜ彼らが特定の結論に達したのかを完全には理解できないという意味で、人間の命が危険にさらされているときにAIの決定を信頼するかどうかをどうやって自分自身に正当化できるでしょうか」と書いている。 ? …AI ツールによって引き起こされた攻撃の 1 つが、関与していない民間人に重大な被害をもたらした場合、その決定に対して誰が責任を負うべきでしょうか?」

繰り返しになりますが、IDF は AI をどのように使用しているかについて私に正確には説明しませんでした。関係者はブルームバーグに対し、人間がシステムの出力をレビューしましたが、その作業には数分しかかからなかったと語った。 (「以前は何時間もかかっていた作業が、今では数分で済むようになり、人間によるレビューにさらに数分かかるようになりました」と軍のデジタル変革責任者は語った。)

現在の最先端の AI システムについて私たちが知っていることを考えると、ここには多くの懸念があります。だからこそ、IDF が AI システムをどのように運用しているかについてさらに明らかにするよう求める価値があります。

まず、AI システム バイアスがエンコードされたままになる、そして、多くの場合、大量のデータの解析には優れていますが、そのデータから推定するように求められると、エラーが発生しやすい出力が日常的に生成されます。

「まったく同じタスクを与えられた AI と人間のアナリストの本当に根本的な違いは、人間は少数の例から新しい状況に一般化するのに非常に優れた仕事をするのに対し、AI システムはそれを行うのに非常に苦労するということです」とシャール氏は述べています。新しい状況に一般化します。」

一例: アメリカの警察が使用している最先端とされる顔認識技術でさえ、有色人種の識別精度が低いことが何度も証明されており、その結果、システムは 無実の市民を指で触る そしてにつながる 不当逮捕

さらに、ターゲットの選択を自動化して加速しようとする AI システムでは、プロセスで発生したエラーを識別することがより困難になる可能性が高くなります。 そして、軍がAIシステムの仕組みを秘密にしておけば、彼らがどのような間違いを犯しているのかを評価する方法はありません。 「軍はAIをどのように評価し、どのようにアプローチしているかについて、より透明性を持たせる必要があると私は思います」とシャール氏は語った。 「ここ数年、リビアやウクライナで私たちが目にしたものの一つは、グレーゾーンです。 AIが使用されているという非難はあるだろうが、アルゴリズムや訓練データを明らかにするのは難しく、それが軍が何をしているのかを評価することを非常に困難にしている。」

これらのエラーがキルコードに埋め込まれているとしても、AI は、一般のオペレーターが受け入れられない可能性のあるターゲットに、うわべだけの信頼性を与えることができます。

最後に、AI システムは誤った自信を生み出す可能性があります。これは、イスラエルがガザ地区に最高クラスの AI 強化監視システムを導入していたにもかかわらず、残忍で高度に調整された虐殺の計画を検知できなかったことからも明らかでしょう。 10月7日。

ロイター通信によると、 ピーター・アプリス氏はこう指摘した, 「ハマスの戦闘員が1973年のヨム・キプール戦争以来最大規模のイスラエルへの奇襲攻撃を開始するわずか1週間前の9月27日、イスラエル当局者はNATO軍事委員長をガザ国境に連れて行き、人工知能と高度な兵器の使用を実証した。技術監視。 …顔認識ソフトウェアを利用した上空のドローンから、国境検問所や通信の電子的盗聴に至るまで、イスラエルによるガザ監視は、どこよりも強力かつ洗練された取り組みの一つとして広く見なされている。」

しかし、そのどれもがハマスを阻止するのには役立たなかった。

「過去2週間、これは諜報活動の失敗だと主張してきたのが間違いだった。 それはそうではなく、政治的な失敗だった」と独立ジャーナリストであり、『 「パレスチナ研究所」 同氏は2016年から2020年まで東エルサレムに拠点を置いていた。「イスラエルはガザを包囲していると信じ、ヨルダン川西岸に焦点を当てていた。 彼らは、最も洗練された技術だけでパレスチナ人を支配し占領し続けることができると誤って信じていた。」

それがイスラエルがAIプログラムについて議論することに消極的である理由の1つかもしれない。 もう1つは、AIが標的をより正確に選択し、民間人の死傷者を減らすのに役立つという、長年にわたるテクノロジーの重要なセールスポイントが信頼できるように思えないことかもしれない。 「AIの主張は、人々をターゲットにすることに成功しているという主張が広まっています」とローウェンスタイン氏は言う。 「しかし、それはまったくピンポイントで標的化されていません。 膨大な数の民間人が亡くなっています。 ガザ地区の家屋の3分の1が破壊された。 それは正確なターゲティングではありません。」

そして、それがここでの恐怖だ――AIが、アルゴリズムの潜在的に致命的なエラーが戦争の霧に隠れて、怒りに震える国家の破壊的能力を加速したり可能にしたりするために利用される可能性があるのではないかということだ。

#商人 #イスラエルはガザ攻撃で軍事 #をどのように使用していますか

Leave a Reply

Your email address will not be published. Required fields are marked *

This site uses Akismet to reduce spam. Learn how your comment data is processed.

Recent News

Editor's Pick