規制が遅れても人工知能は稼働する

マッシミリアーノD'Eliaの

技術革命の開始から XNUMX 年が経過し、人工知能 (AI) アルゴリズムを通じて研究されたシステムのアプリケーションによってもたらされる新たな機会に関連して、偽情報やテクノロジーの制御喪失などのリスクを含む倫理的およびセキュリティ上の懸念が浮き彫りになっています。 その後の解散 そして、AIの大手企業であるOpenAI社内での慈善活動と商業的要素の間での強制排除は、この革命の直接的な結果であり、一般市民、大企業だけでなく、テロ集団やテロ組織によるAIの悪意のある使用を避けようとする国家にも影響を与える。サイバー犯罪者.

この分野で最初の企業である Open AI の創設者、 Sam Altman、最初は目標指向 利益はなく、 に注意を移しました ビジネス 並外れた新たな市場機会があるためです。 最初のプラットフォームの成功 AI言語モデルを活用してコードのデバッグからデータの異常検出まで、 実際、それは、当初の目的が無規制の資本主義を回避することであったにもかかわらず、利益の最大化に注力する現実を支配していることに気づいた構造の矛盾を増幅させた。

ChatGPTと呼ばれる革新的なAIモデルを市場に提案した最初の組織であるOpenAIは、そのため、慈善活動部門のメンバーとビジネス・商業部門のメンバーの両方で構成される取締役会内で血なまぐさい内部抗争に直面する必要があった。 。 倫理と利益に関する矛盾と異なるビジョンが強制的に浮上しています。 特に、アルトマンは倫理的な懸念を持ちながらも、徐々にバランスを ビジネス、人工知能によってもたらされる並外れた市場機会を認識しています。

OpenAI の最近の内部闘争は、AI の将来を決定する最初の戦いとして説明されています。 ビジネス それは協会的なものや非営利的なものを上回っています。

しかし、私たちは今、2024 年の選挙における偽情報のリスクや終末的なシナリオの危険など、差し迫った課題に対処しなければなりません。 機械(超知能を備えた)が人間の決定を上回る可能性がある極限の状況は、共通の意見によれば、普遍的な規制ブレーキを課す必要があるこの未踏のテクノロジーに直面して懐疑的な人々によって繰り返し引き起こされるターミネーターの概念を増幅させます。後戻りできない予測不可能な状況を回避します。

しかし、企業と政府の協力的な取り組みにもかかわらず、私たちは適切な防御策がないまま、次の重要な選挙期限(米国、EU、台湾)に向かっています。 たとえばヨーロッパでは、人工知能モデルを活用するプラットフォームの開発と使用を規制する文書である AI 法をめぐって、依然として議論が続いています。 伝統的な超大国と新興大国の間の激しい対立を経て新たな世界秩序が確立されつつある現在、国民のプライバシーに関連する問題と顔認識の無差別使用の間で道は険しい。

私たちは規制しようとしています

欧州連合。 欧州連合は、「AI 法」を通じて人工知能 (AI) の規制において主要な役割を果たすことを約束しました。 6年2023月2023日に予定されている次の三部会は、XNUMX年末までに文書が承認される可能性を判断する上で極めて重要となる。ヒロシマAIプロセス』, G7首脳はAI開発者向けのXNUMXの指導原則と行動規範を発表した。

この基本原則は、高度な AI システムの開発に携わる開発者、学術団体、官民セクターに指針を提供することを目的としています。 これらには、リスクを評価して軽減するための対策、システムの機能と制限に対する透明性、リスクベースのガバナンス ポリシーの推進が含まれます。 行動規範には、AI 開発者向けの実践的なガイダンスが詳しく記載されており、モデルの透明性、レポートの発行、市民社会での情報共有に特に重点が置かれています。

自主的に適用される行動規範は、すぐに適用でき、世界中に拡張できるため、非常に重要です。 AI 法とは異なり、この規範は、企業による注目と説明責任の評価が高まる中、AI の規制に影響を与える可能性があります。

USA。 30 年 2023 月 XNUMX 日にジョー バイデン大統領によって発令された米国大統領令は、人工知能 (AI) の安全な使用に関する重要な問題に取り組んでいます。 開発者に透明性を課し、テスト結果を政府と共有し、開発者に委託することを義務付けています。 米国標準技術局 安全な AI モデルの標準を定義するタスク。 さらに、誤報の防止にも注力しています。 商務省 AI が生成したコンテンツの信頼性を確保するための技術ガイド。

この命令は次の問題にも取り組んでいます。 認知バイアス、デリケートな分野での差別を回避しようとしています。 偏りや不均衡を特定するには、AI システムで使用される基準を見直す必要があります。 さらに、テクノロジーが雇用と加工に及ぼす影響に関する詳細な研究が期待されています。 ベストプラクティス 潜在的な害を軽減し、利益を最大化します。

三国間協定。 さらに、イタリア、フランス、ドイツの間では、生成 AI における基礎モデルの規制に関して、19 年 2023 月 XNUMX 日付の非公式合意があります。 この協定は、AI法のリスクベースのアプローチとは異なり、行動規範による強制的な自主規制を提案しています。 AI開発者は「モデルカード」には、モデルの機能と制限に関する情報が記載されています。 AI ガバナンス機関は、これらの行動規範の適用を監視します。 重要なのは、「最初の違反」に対する制裁を規定せず、行動規範の組織的な違反にのみ制裁を留保している点である。 この合意は加盟国間のAI法に関する交渉に影響を与え、その制定が遅れる可能性がある。

規制が遅れても人工知能は稼働する

| 意見 |