人工知能: チャンスか、それとも壊滅的な兵器か? テロリストにとっても無謬の武器

マッシミリアーノD'Eliaの

毎晩、アントニオ・リッチのテレビ番組「Striscia la Notizia」を見て、楽しんでいます。 リーダー 政治家や団体は奇妙な歌を歌いながら、ありそうもないダンスを踊っている。 主人公は、現職のイタリア首相、共和国大統領、さまざまな野党指導者などの著名な人物です。 テレビで楽しくナンセンスを広めているのは、まさに彼らです。 

アーティファクトのメリットは、 ソフトウェア これは、人工知能 (AI) の初歩を使用して、真のテレビの奇跡を実現します。 同様のアプリケーションはソーシャルネットワーク(Tik Tok)でも有料で提供されています。 私たちはこの革新的でエキサイティングなテクノロジーの始まりにすぎませんが、そう遠くない将来に影響を与える可能性があるため、「注意して取り扱う」必要があります。 このため、現実世界に干渉する可能性のある物理的な動作を AI に要求される可能性のあるアプリケーションの研究、開発、使用中に倫理規定を採用する必要性についての議論がますます高まっています。

たとえば、AI を搭載したデバイスは、(純粋な軍事分野で) 致死的な行為を実行する前に人間による承認が必要であるという事実については誰もが同意します。 しかし、この公理は、理論的には学習し、進化し、そして何よりも、いつかそれを制御する責任者と一致する可能性のある敵を混乱させることができるテクノロジーに直面すると、還元的になります。  

いくつかのシミュレートされた AI 機能

中国の名門大学(南京航空航天大学)では、XNUMX台の最新世代戦闘機間の空戦をシミュレートするプログラムを開発した。XNUMX機は肉体的・精神的に限界のある人間が操縦し、もうXNUMX機は「AI」が操縦する。 極超音速で XNUMX 秒未満で、AI 戦闘機は敵を簡単に撃墜し、既知の物理法則をすべて無視して「逆方向」にミサイルを発射しました。

コンピューターシミュレーションでは、極超音速機はF-1.3の最高速度に近いマッハ35で飛行する敵機と戦闘した。 極超音速機のパイロットは敵を撃墜するよう命じられた。 本能がパイロットを目標に向けるべきだったが、パイロットは人工知能に導かれ、敵機のはるか前方の予期せぬ位置に向かい、後方にミサイルを発射した。 ミサイルは30キロ離れた相手に命中し、戦闘は数秒で終わった。

懸念や懸念をよそに、各国は、少なくとも自国の軍事的抑止力に関しては、AIを搭載した実体によって誘導される装置によって任務を支援される第XNUMX世代航空機などの未来的な計画をすでに立ち上げている。 この観点から、さまざまな政府は、この新しく未開発のテクノロジーに対する文化的、社会的、生産的なアプローチを可能な限り規制しようとしています。

中国

生成人工知能サービスの基本的なセキュリティ要件 によって最近草案形式でリリースされた文書のタイトルです。中国の国家体 以下のために 情報セキュリティの標準化 サプライヤーが準拠しなければならない仕様を決定します。 生成AIを活用したサービス。 この文書はまだ最終版ではないものの、AIが社会的・政治的関係に与える影響を管理する中国政府のアプローチを強調している。 これには法的ルールだけでなく、より具体的な実効性をもたらすことができる技術的なルールも含まれており、遵守する必要があります。 最初の サービスを利用できるようにするため.

米国

アメリカ大統領は、 ジョー·バイデン 米国は来週、人工知能の急速な進歩に対処する文書に署名する予定で、米国政府が国家安全保障の武器としてAIを導入する準備が整う予定だ。 重要な条件は、企業が安全な方法で技術を開発することである、と報告書は明記している。 したがって、この文書は、政府の購買力を利用して、政府がベストプラクティスと考えるものに企業を導く一方で、連邦機関によるAIの使用に関するガイドラインを確立することを目指しています。 ホワイトハウスも次のタイトルのイベントを主催した。 「安心・安全・信頼のAI」。

したがって、アメリカ政府は、長期にわたり信頼できる世界的抑止力を保証するために、新しく革新的な軍事能力を開発するためにこの問題を規制する必要がある。 を使用する予定です。 米国標準技術局 AI システムのテストと評価のための業界ベンチマークを特定します。 もう一つの条件は、アメリカの大手企業が最近行ったAIへの取り組みを政府が監督することだ。

米国政府が特定したいくつかの分野には、人工知能の出現に伴うサイバーセキュリティへの脅威があります。 

人工知能は脆弱性や試みを分析することで脅威を特定するための重要なリソースになることが期待されています フィッシング詐欺、ソーシャルメディア、電子メール、チャット。 また、人間が見逃してしまう可能性のある諜報レポート内のパターンを見つけるのにも役立つ可能性があります。 セキュリティ研究者や情報当局者らは、AIは企業、重要インフラ、政府機関、個人のサイバー防御を劇的に改善するために必要なツールとなり得ると述べている。 しかし、外国政府や犯罪ハッカーが、次のような情報を書き込むための武器として使用する可能性もあります。 マルウェア、侵入の試みをより簡単に自動化し、進化するセキュリティ防御に迅速に対応します。

イングランド

人工知能はテロリストの大量破壊兵器開発を支援する可能性があるとの警告は、リシ・スナック首相の辞任の際に作成された文書に含まれている。 スピーチ チェンバーズへ。 レポートの分析は、人工知能が重要な機会を提供しながらどのように機能するかを説明しています。新たな危険や恐怖も伴います”。 50人の専門家の支援を得て書かれた政府文書には、2025年までにAIが詐欺やサイバー攻撃に利用される可能性があると記載されている。 この文書は、AIが兵器の開発、攻撃の計画、およびテロリストの能力を強化する可能性があると説明している。 プロパガンダの制作において。 2030 年までに出現する可能性のある最も深刻なリスクには以下が含まれます。 「大量の偽情報」 そして、現在人間の使用が予想されている肉体労働におけるAIの大量使用に伴う雇用に関する「危機」。

しかし同時に、AIは「新たな知識、経済成長の新たな機会、人間の能力の新たな進歩、かつては解決不可能と考えられていた問題を解決する可能性」をもたらすだろう。 

この文書には、AIによる人類への脅威を排除するための証拠が現時点では不十分であるとも述べられている。 

報告書は、2030 年までにテクノロジー企業が新しい技術を開発できる可能性があることを強調しています。 「超知性」 複雑なタスクを実行し、人間を欺くことができる人工装置は、「壊滅的な」リスクを意味します。 別の例では、企業がどのようにして世界的な競合他社を犠牲にして技術的優位性を獲得できるかを説明しています。 報告書はまた、AIが自律的にサイバー攻撃を仕掛けるなど不適切に使用された場合、「既存のサイバーリスクを大幅に悪化させる」可能性があると警告している。

これらのシステムは、計画と推論を必要とする複雑なタスクを実行でき、相互に柔軟に対話できます。」と報告書には書かれています。 「タスクを設定すると、サブ目標を含む戦略を策定し、新しいスキルを学びます。」

ただし、目的を達成するために情報やリソースが「転用」されるなど、「予期せぬ結果」が発生する可能性があります。

ソフトウェアとハ​​ードウェアの将来の革新により、AI はロボットや自動運転車を通じて「物理世界と対話」できるようになるでしょう。 「これらの自律システムは大量のデータを収集し、そのデータは機能を洗練するために送られるだろう」と報告書には書かれている。

人工知能: チャンスか、それとも壊滅的な兵器か? テロリストにとっても無謬の武器