倫理と人工知能

(ミケーレ・ゴルガ著)人類の起源から現在までの道筋を評価することにより、技術開発の現実は直線的ではなく指数関数的であり、これは次の名前の基本法則のおかげであるという確信に達することができます。リターンの加速の法則。 後者の法則は、カルテシアン平面上の点を結合する場合にのみ理解できます。横軸にx(水平)時間を設定し、縦軸(垂直)にyを技術進歩のレベルに設定します。ある日に達した。 しかし、その結果は多かれ少なかれ傾斜した直線ではなく、指数曲線であり、そこから導き出せる傾向に基づいて、数年後には縦座標に平行な直線になると信じられます。 そのため、縦座標との接点がなくなり、その結果、私たちが今どこにいるのかがわからなくなり、量子物理学が特異点と呼ぶ状態に飛び込むことになります。

「特異点」とは、自然のXNUMXつの基本的な力が作用する条件を意味します。 電磁気; 原子の原子核の陽子を結合する強い力; 放射性崩壊の原理を支配する弱い力。 これらの力は、遺伝学のGであるXNUMXつの対応する文字で識別できます。 ロボット工学のR; ナノテクノロジーのN。 人工知能の私。

順番に進むと、「遺伝学」のGを使用すると、すべての生物の中で、遺伝暗号によって、特定の歴史的瞬間において、有効な道徳とイデオロギーがそれを可能にするという標準型に従って人種を向上させることができます着陸し、人間にとって、彼が何であるかに関係なく、彼がなりたいと望むものになることができ、したがって、相対的な歴史的時代にどのような道徳と政治が許すかに基づいて、遺伝子組み換え生物。 「ロボティクス」のRに目を向けると、今日のロボット工学ではなく、空間と時間の両方の知識を持ち、人間の側面に対応できる高度なマシンであるAndroidが感情的意識を持つことができます[7 ]。 したがって、ロボット工学は、知能主導の機械や作業補助者としてだけでなく、人との専門的な活動に関係することができる実体でもあります。 ロボット工学が社会と政治に及ぼす影響は、Androidと一般にすべての創造物が動植物の世界、環境などに認識されることを目的とした社会運動であり、この場合も道徳と政治はスタンドを取ることを余儀なくされました。

そのための「ナノテクノロジー」をNに渡すと、無限にマイクロテクノロジー、つまり人間の存在そのものの空間を置き換えて変更することで、現実の外側と内側を瞬時に変えることができる液体要素を意味する必要があります。 最後に、「人工知能」の私は、歴史的に聖杯と比較できるものを意味します-生命と永遠の知識のアルゴリズムとしてのAIの意味で-またはDeusex-machina [8]、最も危険な技術であり、シナリオの場合将来的には、歴史的に時間の経過とともに決定されるようになった価値観のシステムと人間の文明と人間の基盤を損なうほど侵襲的な技術。

実際、人工知能は、支配、制御、キャリア主義、消費主義、競争、人間の老化を実現し、人類の存在そのものを損なう可能性のあるすべての技術のアルゴリズムに基づいています。 そして、他のどの技術よりも、私たちの社会で急速に発展し、その結果、ヘルスケアサービスを改善し、農業の効率を高め、緩和することによって私たちの生活を変えているのは、まさに人工的な知性です気候変動と安全面の増加を伴う予測分析を通じて生産システムの効率を改善する。 しかし同時に、人工知能は、不透明な意思決定メカニズム、性別による差別の可能性、私生活への侵入、または犯罪目的で使用されているデバイスの使用に関連する新しいリスクをもたらします。 EIテクノロジーは透過的になっているため強力であり、私たちは皆、技術的および認知的プロテーゼとして定義できるデバイスに依存しています。 このため、非倫理的な目的や犯罪的な目的でテクノロジーを使用する人々によって、私たちはより脆弱になっています。

これらは、IEの規律のためのヨーロッパの調整の必要性につながった理由であり、これは、人工知能に固有の人間的および倫理的影響によるものであり、大きな使用を改善するための深い反省の必要性がありますイノベーションのために与えられました。これは、二重の目的、つまり、一方ではAIの広範な使用を促進し、他方ではすべての可能性を軽減することを目的とした、強制的な規制規律と投資の必要性のためです。新しいデジタルテクノロジーに関連するリスク。

これらは、25年2018月7日と2018年XNUMX月XNUMX日のコミュニケーションの根底にある重大な理由であり、ヨーロッパ委員会は、「ヨーロッパ製のAI」倫理としてバプテスマを受けた人工知能(AI)に関するビジョンを提示しました。安全で前衛的な」。

欧州委員会のビジョンは、1)AIへの公的および民間の投資を増やしてその取り込みを促進すること、2)社会経済的変化に備えること、3)ヨーロッパの価値を強化するための適切な倫理的および法的枠組みを確保することの1つの柱に基づいています。 このビジョンの実施を支援するために、委員会は、人工知能に関するハイレベル専門家グループを設立しました。これは、2つの文書の作成を任務とする独立したグループです。XNUMX)AIの倫理ガイドラインとXNUMX)投資の推奨事項と政治。

グループにとって、AIの倫理的ガイドラインに関する文書に関しては、AIシステムは個人や社会に具体的な利益をもたらす一方で、依然としてリスクを伴い、予測が困難でさえある悪影響をもたらすことに留意する必要があります。たとえば、民主主義、法の支配、分配的正義、または人間の心そのものについてです。 そのため、専門家グループによれば、リスクを軽減するための適切な対策を、その程度に比例した方法で講じ、確実に実施するための方法を検討する必要があります。 まず第一に、専門家にとっては、AIシステムの評価と要件への準拠の達成をサポートするための研究と革新を促進し、結果を広め、AI倫理の新世代の専門家を訓練する必要があります。 したがって、システムの機能と制限について関係者に明確に通知してください。 透明性を保ち、特に重要な状況や状況でAIシステムの追跡可能性と検証可能性を促進することは、AIシステムのライフサイクル全体を通じて利害関係者を巻き込み、トレーニングと教育を促進するだけでなく、不可欠になります。すべての利害関係者が信頼できるAIについてトレーニングされ、情報を提供されるようにします。 後者から始めて、それは信頼できるAIを持つ必要性であり、人々と企業にとって、信頼性はシステム自体の開発、配布、および使用の前提条件であることを強調する必要があります。 そうしないと、関連するテクノロジーの使用が妨げられ、社会的および経済的利益の可能性が低下する可能性があります。 したがって、AIシステムの開発、配布、および使用における信頼は、技術の固有の特性だけでなく、技術的および社会的システムの品質にも関係します。 このように、ワーキンググループは最初の文書で、信頼できる人工知能のガイドラインを確立し、XNUMXつの要素に基づくべきであると規定しました。

これらは次のように特定されています:a)合法性において、特定の問題に適用されるすべての法律および規制の対象となる人工知能であるAI; b)倫理、AIは、倫理規定の一連の規則、および関連する倫理原則と価値観として常に念頭に置いて理解する必要があります。 c)技術的および社会的観点からの堅牢性。最善の意図があっても、AIシステムは意図しない損傷を引き起こす可能性があるためです。 現在、前述の各コンポーネントはそれ自体が必要ですが、信頼できる人工知能には十分ではありません。 これらのXNUMXつの要素は主に利害関係者を対象としており、前述の倫理原則を社会的および技術的システムで運用可能にする方法についての拘束力のある指標です。

基本的な権利ベースのアプローチから始めて、まず、信頼できるAIを作成する方法の指示に進むために、AIシステムの開発、配布、および使用において尊重されなければならない倫理原則と関連する価値が特定されます。 AIシステムが満たす必要があり、その実装に技術的および非技術的方法を使用でき、識別される1つの要件の定義を通じて:2)-人間の介入と監視; 3)-技術的およびセキュリティの堅牢性、4)-データのプライバシーとガバナンス、5)-透明性、6)-多様性、無差別および公平性、7)-社会的および環境的幸福、XNUMX)- '説明責任。 最後に、専門家グループは、上記のXNUMXつの要件を運用可能にするのに役立つAIの信頼性を評価するためのチェックリストを提案しました。 最後に、ドキュメントの最後のセクションでは、ヨーロッパが排他的な利点を享受しているという認識にもかかわらず、AIシステムが引き起こす有利な機会と深刻な懸念の例は、市民を中心に置くというコミットメントに由来しています。自分の活動。

AIDR DPOの調整のための弁護士および観測所コンポーネントであるMichele Gorga

倫理と人工知能

| ニュース ', 証拠3 |