人工知能はすでに戦争で使用されています

アニエロ・ファサーノ著

世論の目から見ると、人工知能 (AI) は、特にレクリエーションの面で大きな発展を遂げ、私たち一人ひとりの生活をどれだけ変えるか想像もつかないでしょう。新しいテクノロジーを戦争に応用できると考えるだけで、すべてがより深刻で憂慮すべきものになります。その一方で、AIはウクライナとガザの両方ですでに広く使用されており、そこでは紛争が続いており、継続的に進化し完成されたツールやプログラムが戦場に持ち込まれている。多くの「重要な」決定はすでに AI で生成されたアルゴリズムの適用に基づいて行われており、戦争シナリオで特定のテクノロジーを使用することの倫理、道徳、正当性について多くの疑問が生じています。そして現実的には、これは短期間にすべての軍隊が通る道です。実際には、アルゴリズムはデータを取得し、その後、ドローン、カメラ、監視システムから取得した他の無数の情報と混合します。この「インテリジェントな」情報の織り合わせの結果、攻撃可能なターゲットのリストが作成されます。

ソース TRT ワールド

数か月前、このニュースは、によって行われた調査を通じて世間に知られるようになりました。 +972 マガジン e 市内通話、これによると、「イスラエル国防軍 (IDF) と呼ばれる AI ベースのプログラムを開発し、採用する予定です。 ラベンダー、特に戦争の初期段階において、パレスチナ人の目標を特定し、攻撃すること。イスラエル軍はその使用を否定した。イスラエル軍は人工知能を使ってガザ地区の潜在的な標的を特定し、爆撃するだろう。この「」の存在の可能性を明らかにするために先進的な戦争機械「独立したイスラエル・パレスチナ雑誌が報じたように、それはイスラエル諜報機関の職員の一部だったろう。」彼らはガザでの戦争中に軍隊に勤務し、攻撃対象を特定するための AI の使用に個人的に関与していました。”。このニュースが確認されれば、ガザで多数の民間人が犠牲になったことについて貴重な説明が得られ、AIが生成したアルゴリズムの適用にほぼ全面的に依存する現代戦争への移行の証拠となるだろう。

結局何も新しいことはなく、 パソコン うまれた"戦争中も戦争後も」。 ザ 巨人 ナチスの暗号を解読するために 1944 年に建設されました。最近の人工知能の飛躍的な進歩により、物体認識と高次の問題解決において驚くべき偉業が可能になりました。現在、非常に小型で安価なチップがドローンを目標に向かって誘導し、かつては超大国のミサイルに限定されていた技術を拡大しています。毎年、国際指導者らが会合を開き、AIの責任ある軍事利用について議論し、このテクノロジーの出現と武力紛争中のAIの使用に関する懸念に関する倫理的議論を刺激しています。 

によって報告されたようにエコノミスト、テクノロジーは何よりも戦争の指揮統制に革命をもたらしています。ドローンは、標的の捜索から始まり破壊で終わる一連の手順、殺害の連鎖における最後で最も劇的なつながりにすぎません。 AI は超人的な速度でデータを選択して処理し、何千もの衛星画像から貯留層の位置を正確に特定したり、光、熱、音、電波を解釈したりできます。人工知能システムは、陸、海、空の自律ロボットと組み合わせて、前例のない速度と大規模で標的を発見し、破壊する可能性があります。

悲劇的に、AI を活用した最初の戦争が勃発した場合、国際法はすぐに脇に追いやられる可能性があります。地球の完全な破壊を制限する方法について今日考える理由がもう 1 つあります。例えば中国は、核兵器に対する人工知能の管理を排除するという米国の要求にもっと注意を払うべきである。軍事的優位性を最大化するように設計された AI システムは、人間の指揮官が素朴に当然と考える価値観と制限をコード化する必要があり、暗黙のうちに人命に価値を置いています。価値の高い目的を達成するために、何人の民間人を殺害しても許容されるかを確立することは、単なる倫理の問題ではなく、生存の問題でもあります。

不確実性は深刻ですが、唯一確実なことは、人工知能による変化が現実のものとなっているということです。テクノロジーの進歩を最初に最も効果的に予測し、習得する軍隊がおそらく勝利するでしょう。

ラベンダー系

ラベンダーポスト紙の詳細な報道によると、この兵器はガザ地区の住民に対する攻撃戦略を改善するために、イスラエル国防軍(IDF)の精鋭部隊である8200部隊によって開発された。採用前に ラベンダー 人間の標的の選択は、ハマスの軍事部門の高官1名に限定されていた。

7月XNUMX日以降、軍は重要度に関係なく、ハマスの軍事部門のすべてのオペレーターを人間の標的の可能性があると指定することを決定した。短時間で多数のターゲットを特定するという技術的問題は、次の方法で解決されました。 ラベンダー、ハマスの過激派とみなされる可能性のある個人の識別を体系化するために使用されます。

ソフトウェア ラベンダー ストリップで活動している大規模監視システムによって収集された情報を分析し、ほぼすべてのパレスチナ人に 1 から 100 のスコアを割り当て、その人が過激派である可能性を評価します。ラベンダーさんはハマス工作員の特徴を見分ける訓練を受け、その後、一般住民にも同じ特徴を見つけられるようになった。より類似した特徴を持つ人は高いスコアを受け取り、自動的に潜在的なターゲットになります。

ラベンダーでは、ターゲットは人間ではなく人工知能によって特定され、ほとんどの作業は人工知能によって行われ、時には間違いを犯し、警察職員、過激派の親族、または名前とニックネームが同じである住民もターゲットとして特定されます。過激派たち。

一部のイスラエル軍関係者は、その作戦について説明した。 「事前に承認された公差」 特定された標的に対する攻撃で死亡する可能性のある民間人の数について ラベンダー。戦争の最初の数週間は、下位過激派を殺害するために15人か20人の民間人を殺害することが認められていたが、高位過激派の場合はその制限が100人に引き上げられた。これは、ガザ地区でこれまでに殺された民間人の数が多いことを説明するだろう。

人工知能はすでに戦争で使用されています