「マスクと会社」は、「ターミネーター」シナリオへの競争を避けるために、人工知能で実行しないように求めます

非営利団体が発行した公開書簡とともに フューチャーオブライフ研究所 イーロン·マスク 他の何千人もの研究者が警鐘を鳴らしている 人工知能の危険性. 最も影響力のある文は、科学界に強い疑問を投げかけるものです。 「人工知能は社会と人類に重大なリスクをもたらすため、最先端のシステムのトレーニングには少なくとも XNUMX か月の休止が必要です。」

イーロン・マスクや他の学者たちは、恐ろしい事態を避けるために、政府の停止またはモラトリアムを求めています。ターミネーターのシナリオ、共有セキュリティプロトコルの開発を可能にするため。

アップルの共同創設者が手紙に署名した スティーブ·ウォズニアック だけでなく、 Pinterest e Skype、および人工知能スタートアップの創設者 スタビリティAI e キャラクター.ai. 世界中の XNUMX 人以上の管理者と専門家が書簡に署名しました。

マスクは悪者扱いしたくない SpaceX で宇宙を、Tesla で自動車を征服した後、Neuralink でインテリジェントな脳を改善したいという理由からも、新しい新興技術です。 Musk は、マイクロソフト関連の AI 企業に多額の財政的投資を行っており、誰もが戦略的に抑止力と魅力的であることを切望する、より高度な未来に歩調を合わせています。

ただし、現時点では、最先端のシステムが懸念を引き起こしています GPT-4、ジョークを言うことができ、弁護士になるための試験などの試験に簡単に合格できるOpenAIチャットボットであるとAnsaは書いています.

「強力な AI システムは、その効果がプラスであり、リスクが管理可能であるという確信がある場合にのみ開発されるべきです。」、文字で強調されます。 それが「誰も、作成者でさえ理解、予測、および制御できない強力なデジタルマインドを開発および展開するための暴走。

中国はすでに米国に警告している。人工知能は、技術全体主義のオーウェル的監視を完成させるためのツールや武器にはなりません"

人工知能は、多くの SF 映画を想起させることによって世界の破壊につながる可能性があります。このため、壊滅的な結果の考えだけを避けるために、ハイテクの有名人は、使用するために XNUMX か月の休憩を求めています。 」「合理的な疑いを超えて」システムの「セキュリティ」を保証する共有プロトコルの共同開発と実装」. この書簡は、AI ラボに対し、より多くのものを作ることに集中するよう呼びかけています」正確、透明、信頼でき、公正」 さらに強力な手段の開発に向かって走る代わりに、現在のシステム。 「同社は、壊滅的な影響を与える可能性のある他のテクノロジーを一時停止しました – 手紙を続けます –. この場合も可能です。 AIの長い夏を楽しみ、準備不足で秋に突入しないようにしましょう。」

手紙の全文

人間と競合する知性を備えた AI システムは、社会と人類に深刻なリスクをもたらす可能性があることが、広範な研究によって示され、主要な AI ラボによって認められています。 広く支持されている声明で述べられているように Asilomar AIの原則高度な AI は、地球上の生命の歴史に大きな変化をもたらす可能性があり、適切な注意とリソースを使って計画および管理する必要があります。. 残念ながら、このレベルの計画と管理は実現していません。ここ数か月間、AI ラボは制御不能な競争に巻き込まれ、誰も (作成者でさえも) 理解できない、より強力なデジタルマインドを開発および展開しているにもかかわらず、予測するか、確実に制御します。

現代の AI システムは現在、一般的なタスクで人間と競争できるようになってきており、次のことを自問する必要があります。 すべき 私たちは機械にプロパガンダと虚偽で私たちの情報チャネルを氾濫させますか? すべき 充実した仕事を含め、すべての仕事を自動化しますか? すべき 私たちは最終的に数を上回り、賢く、時代遅れになり、私たちに取って代わる可能性のある非人間的な心を発達させますか? すべき 私たちは文明の制御を失う危険がありますか? そのような決定は、選出されていない技術リーダーに委任してはなりません。 強力な AI システムは、その効果が肯定的であり、リスクが管理可能であると確信した場合にのみ開発する必要があります。 この信頼は十分に正当化され、システムの潜在的な影響の大きさに応じて増加する必要があります。 OpenAIの 汎用人工知能に関する最近の声明は、 「ある時点で、将来のシステムのトレーニングを開始する前に独立したレビューを受けることが重要になるかもしれません。また、新しいモデルの作成に使用されるコンピューティングの成長率を制限することに同意するための最も先進的な取り組みのためにも重要です。」 私達は同意します。 その点は今です。

したがって、 すべての AI ラボに、GPT-6 よりも強力な AI システムのトレーニングを少なくとも 4 か月間直ちに一時停止するよう呼びかけます. この一時停止は公開され、検証可能であり、すべての主要な関係者が含まれている必要があります。 そのような一時停止を迅速に制定できない場合、政府は介入してモラトリアムを設定する必要があります。

AI ラボと独立した専門家は、この一時停止を利用して、独立した外部の専門家によって厳密に監査および監督される、高度な AI の設計と開発のための一連の共有安全プロトコルを共同で開発および実装する必要があります。 これらのプロトコルは、それに準拠するシステムが合理的な疑いを超えて安全であることを保証する必要があります。 これは   AI 開発全般の一時停止を意味し、危険な競争から一歩後退して、新たな機能を備えたこれまで以上に大規模で予測不可能なブラックボックス モデルに移行するだけです。

AI の研究開発は、今日の強力で最先端のシステムをより正確で、安全で、解釈可能で、透明性があり、堅牢で、整合性があり、信頼でき、忠実なものにすることに再び焦点を当てる必要があります。

並行して、AI 開発者は政策立案者と協力して、堅牢な AI ガバナンス システムの開発を劇的に加速する必要があります。 これらには、少なくとも次のものが含まれる必要があります。AI に特化した新しい有能な規制当局。 高度な能力を持つ AI システムと大規模な計算能力プールの監視と追跡。 本物と合成を区別し、モデルのリークを追跡するのに役立つ来歴および透かしシステム。 堅牢な監査および認証エコシステム。 AI によって引き起こされた損害に対する責任。 技術的な AI の安全性研究に対する強力な公的資金提供。 そして、AI が引き起こす劇的な経済的および政治的混乱 (特に民主主義) に対処するための十分なリソースを備えた機関。

人類は AI によって豊かな未来を享受できます。 強力な AI システムの作成に成功した今、私たちは「AI サマー」を楽しむことができます。そこでは、報酬を獲得し、これらのシステムを設計して、すべての人に明らかに利益をもたらし、社会に適応する機会を与えることができます。 社会は、社会に壊滅的な影響を与える可能性のある他のテクノロジーの使用を一時停止しています。 ここでそれを行うことができます。 あわてて秋に突入するのではなく、AI の長い夏を楽しみましょう。

「マスクと会社」は、「ターミネーター」シナリオへの競争を避けるために、人工知能で実行しないように求めます

| ニュース ', 証拠1 |