الأخلاق والذكاء الاصطناعي

(بقلم ميشيل جورجا) من خلال تقييم مسار الإنسانية من أصلها إلى يومنا هذا ، يمكننا الوصول إلى يقين مفاده أن واقع تطورنا التكنولوجي ليس خطيًا ، ولكنه أسي وهذا بحكم القانون الأساسي الذي يمر تحت اسم قانون تسريع العوائد. قانون ، الأخير ، الذي لا يمكن فهمه إلا إذا ضمنا النقاط على المستوى الديكارتي: على المحور x (الأفقي) نضبط الوقت ، على المحور الإحداثي (العمودي) y مستوى التقدم التكنولوجي وصلت في تاريخ معين. ومع ذلك ، فإن النتيجة ليست خطًا مستقيمًا يميل إلى حد ما ولكن منحنى أسي واستنادًا إلى الاتجاه الذي يمكننا استخلاصه منه ، يمكننا أن نعتقد أنه في غضون بضع سنوات سيصبح خطًا مستقيمًا موازٍ للإحداثيات. لذلك لن تكون هناك أي نقطة اتصال مع الإحداثي وستكون النتيجة أننا لن نعرف بعد الآن الإحداثي حيث نحن في كل لحظة ، وبالتالي ، سنقفز إلى الحالة التي تسميها فيزياء الكم التفرد.

نعني بكلمة "التفرد" تلك الحالة التي تعمل فيها القوى الأساسية الأربعة للطبيعة ، وهي: الجاذبية. الكهرومغناطيسية. القوة الشديدة التي توحد البروتونات في نواة الذرة ؛ القوة الضعيفة التي تحكم مبدأ الاضمحلال الإشعاعي. يمكننا التعرف على هذه القوى من خلال الأحرف الأربعة المقابلة وهي G لعلم الوراثة ؛ R الروبوتات ؛ تكنولوجيا النانو. أنا الذكاء الاصطناعي.

بالترتيب ، يسمح لنا G من "علم الوراثة" بتحديد ، من بين جميع الكائنات الحية ، سيسمح لنا الكود الجيني بتحسين العرق وفقًا للنمط المعياري الذي في لحظة تاريخية معينة ستسمح الأخلاق والأيديولوجية السارية به. الهبوط والقدرة على أن يكون ، بالنسبة للإنسان ، ما يريد أن يكون ، بغض النظر عن ماهيته ، وبالتالي كائنات معدلة وراثيًا على أساس ما تسمح به الأخلاق والسياسة في الفترة التاريخية النسبية. بالانتقال إلى R لـ "Robotics" ، يجب أن نعني ، ليس ما هي الروبوتات اليوم ، ولكن الآلات المتقدمة التي ستمتلك المعرفة بالمكان والزمان والقدرة على التعامل مع الجوانب البشرية ، Androids ، القادرة على امتلاك وعي عاطفي [7 ]. لذا فإن الروبوتات ليس فقط كآلات تعتمد على الذكاء أو كمساعدين للعمل ، ولكن ككيانات قادرة على الارتباط بالأنشطة المهنية مع الإنسان. ستكون النتيجة التي ستحدثها الروبوتات على المجتمع والسياسة هي الحركات الاجتماعية التي تهدف إلى جعل Androids وبشكل عام كل الخلق معترفًا به في عالم الحيوان والنبات والبيئة وما إلى ذلك ، وفي هذه الحالة أيضًا ستكون الأخلاق والسياسة أجبروا على اتخاذ موقف.

بالانتقال إلى N لـ "تقنية النانو" ، يجب أن نعني التكنولوجيا الدقيقة اللامحدودة ، والعناصر السائلة القادرة على الفور على تغيير خارج وداخل الواقع عن طريق استبدال وتعديل فضاء الوجود البشري. أخيرًا ، نقصد بعبارة "الذكاء الاصطناعي" ما يمكن مقارنته تاريخيًا بالكأس المقدسة ، - بمعنى الذكاء الاصطناعي باعتباره خوارزمية للحياة والمعرفة الأبدية - أو Deus ex-machina [8] ، أخطر التقنيات ، وبالنسبة للسيناريوهات المستقبل ، تكنولوجيا غازية تقوض نظام القيم وأسس الحضارة الإنسانية والإنسان كما تم تحديدها تاريخيًا بمرور الوقت.

في الواقع ، يعتمد الذكاء الاصطناعي على الخوارزميات التي يمكن أن تكون من الهيمنة والسيطرة والوظيفية والاستهلاك والمنافسة وجميع التقنيات التي تنفجر لشيخوخة الإنسان والتي يمكن أن تقوض وجود البشرية ذاته. والذكاء الاصطناعي على وجه التحديد هو الذي يتطور بسرعة في مجتمعنا أكثر من أي تقنية أخرى ، وبالتالي يغير حياتنا من خلال تحسين خدمات الرعاية الصحية ، وزيادة كفاءة الزراعة ، والمساعدة في التخفيف تغير المناخ وتحسين كفاءة أنظمة الإنتاج من خلال التحليل التنبئي مع زيادة جوانب السلامة. ومع ذلك ، في الوقت نفسه ، يجلب الذكاء الاصطناعي معه مخاطر جديدة مرتبطة بآليات صنع القرار المبهمة ، والتمييز المحتمل على أساس الجنس ، والتدخل في الحياة الخاصة أو استخدام الأجهزة المستخدمة لأغراض إجرامية. تعتبر تقنية الذكاء العاطفي قوية لأنها أصبحت شفافة ، وكلنا نعتمد على الأجهزة التي يمكننا الآن تعريفها على أنها الأطراف الاصطناعية التكنولوجية والمعرفية لهذا السبب أصبحنا أكثر عرضة للخطر ، من قبل أولئك الذين يستخدمون التكنولوجيا لأغراض غير أخلاقية أو لأغراض إجرامية.

هذه هي الأسباب التي أدت إلى الحاجة إلى تنسيق أوروبي لتخصص IE وهذا يرجع إلى الآثار الإنسانية والأخلاقية المتأصلة في الذكاء الاصطناعي ، مع الحاجة إلى تفكير عميق لتحسين استخدام الذكاء الاصطناعي الكبير. للابتكار ، والذي بسبب الحاجة إلى نظام تنظيمي إلزامي واستثمارات تهدف إلى تحقيق هدف مزدوج ، ألا وهو تعزيز الاستخدام الواسع للذكاء الاصطناعي من ناحية ، والتخفيف من كل ما هو ممكن من ناحية أخرى. المخاطر المرتبطة بالتكنولوجيا الرقمية الجديدة.

هذه هي الأسباب العميقة الكامنة وراء مراسلات 25 أبريل 2018 و 7 ديسمبر 2018 ، والتي قدمت بها المفوضية الأوروبية رؤيتها حول الذكاء الاصطناعي (AI) ، والتي تم اعتمادها كـ "AI" المصنوع في أخلاقيات أوروبا ، آمنة ورائدة ".

تستند رؤية المفوضية إلى ثلاث ركائز: 1) زيادة الاستثمار العام والخاص في الذكاء الاصطناعي لتعزيز امتصاصه ، 2) للتحضير للتغيير الاجتماعي والاقتصادي ، و 3) ضمان إطار أخلاقي وقانوني مناسب لتعزيز القيم الأوروبية. لدعم تنفيذ هذه الرؤية ، أنشأت المفوضية فريق الخبراء رفيع المستوى المعني بالذكاء الاصطناعي ، وهي مجموعة مستقلة مكلفة بوضع وثيقتين: 1) المبادئ التوجيهية الأخلاقية للذكاء الاصطناعي و 2) توصيات الاستثمار والسياسة.

بالنسبة للمجموعة ، فيما يتعلق بالوثيقة الخاصة بالإرشادات الأخلاقية للذكاء الاصطناعي ، يجب ألا يغيب عن الأذهان أن أنظمة الذكاء الاصطناعي ، بينما تقدم فوائد ملموسة للأفراد والمجتمع ، لا تزال تنطوي على مخاطر ولها آثار سلبية ، حتى يصعب التنبؤ بها. ، على سبيل المثال فيما يتعلق بالديمقراطية وسيادة القانون والعدالة التوزيعية أو العقل البشري نفسه. وهذا هو السبب في أنه من الضروري ، حسب رأي فريق الخبراء ، اتخاذ التدابير المناسبة للتخفيف من المخاطر ، بطريقة تتناسب مع مداها ، والنظر في طرق لضمان تنفيذها. بادئ ذي بدء ، بالنسبة للخبراء ، من الضروري تعزيز البحث والابتكار لدعم تقييم أنظمة الذكاء الاصطناعي وتحقيق الامتثال للمتطلبات ، ونشر النتائج ، لتدريب جيل جديد من الخبراء في أخلاقيات الذكاء الاصطناعي. وبالتالي ، إبلاغ أصحاب المصلحة بوضوح عن إمكانيات النظام وحدوده. تصبح الشفافية ، وتسهيل التتبع والتحقق من أنظمة الذكاء الاصطناعي ، لا سيما في السياقات أو المواقف الحرجة ، أمرًا ضروريًا بالإضافة إلى إشراك أصحاب المصلحة طوال دورة حياة نظام الذكاء الاصطناعي بالكامل وتعزيز التدريب والتعليم حتى يتم تدريب جميع أصحاب المصلحة وإبلاغهم بشأن الذكاء الاصطناعي الجدير بالثقة. بدءًا من الأخير ، أي الحاجة إلى امتلاك ذكاء اصطناعي موثوق به ، يجب التأكيد على أن الموثوقية هي شرط أساسي لتطوير وتوزيع واستخدام الأنظمة نفسها بالنسبة للأفراد والشركات. وبخلاف ذلك ، يمكن إعاقة استخدام التقنيات ذات الصلة وبالتالي يتم إبطاء الفوائد الاجتماعية والاقتصادية المحتملة. وبالتالي ، فإن الثقة في تطوير أنظمة الذكاء الاصطناعي وتوزيعها واستخدامها لا تتعلق فقط بالخصائص الجوهرية للتكنولوجيا ، ولكن أيضًا بخصائص الأنظمة التقنية والاجتماعية. وهكذا وضع فريق العمل ، في وثيقته الأولى ، المبادئ التوجيهية لذكاء اصطناعي موثوق به ، بشرط أن يستند إلى ثلاثة مكونات.

وقد تم تحديد هذه: أ) من الناحية القانونية ، الذكاء الاصطناعي هو ذكاء اصطناعي يخضع لجميع القوانين واللوائح المعمول بها في المسألة المحددة ؛ ب) الأخلاق ، يجب فهم الذكاء الاصطناعي على أنه مجموعة قواعد مدونة الأخلاق والمبادئ والقيم الأخلاقية ذات الصلة التي يجب وضعها في الاعتبار دائمًا ؛ ج) المتانة ، من الناحية التقنية والاجتماعية ، لأنه حتى مع أفضل النوايا ، يمكن أن تسبب أنظمة الذكاء الاصطناعي ضررًا غير مقصود. الآن كل من المكونات المذكورة أعلاه ضرورية في حد ذاتها ولكنها ليست كافية لذكاء اصطناعي موثوق. تستهدف هذه المكونات الثلاثة في المقام الأول أصحاب المصلحة وهي مؤشرات ملزمة حول كيفية تفعيل المبادئ الأخلاقية المذكورة أعلاه في النظم الاجتماعية والتقنية.

بدءًا من النهج القائم على الحقوق الأساسية ، أولاً وقبل كل شيء ، يتم تحديد المبادئ الأخلاقية والقيم ذات الصلة التي يجب احترامها في تطوير وتوزيع واستخدام أنظمة الذكاء الاصطناعي للانتقال بعد ذلك إلى المؤشرات حول كيفية إنشاء ذكاء اصطناعي موثوق به من خلال تحديد المتطلبات السبعة التي يجب أن تفي بها أنظمة الذكاء الاصطناعي والتي يمكن من أجل تنفيذها استخدام الأساليب الفنية وغير التقنية والتي يتم تحديدها: 1) - في التدخل البشري والمراقبة ؛ 2) - في المتانة التقنية والأمنية ، 3) - في خصوصية البيانات والحوكمة ، 4) - في الشفافية ، 5) - في التنوع وعدم التمييز والإنصاف ، 6) - في الرفاه الاجتماعي والبيئي و 7) - في 'مسئولية. أخيرًا ، اقترح فريق الخبراء قائمة مرجعية لتقييم موثوقية الذكاء الاصطناعي التي يمكن أن تساعد في تشغيل المتطلبات السبعة المذكورة أعلاه. أخيرًا ، في القسم الأخير من الوثيقة ، أمثلة على الفرص المفيدة والمخاوف الجادة التي تثيرها أنظمة الذكاء الاصطناعي ، على الرغم من الوعي بأن أوروبا تتمتع بميزة حصرية ، تنبع من التزامها بوضع المواطن في قلب الأنشطة الخاصة.

ميشيل جورجا ، المحامي ومكون المرصد لتنسيق AIDR DPOs

الأخلاق والذكاء الاصطناعي

| الأخبار, الدليل 3 |