يعمل الذكاء الاصطناعي بينما يتباطأ التنظيم

ماسيميليانو D'إيليا

بعد مرور عام على بدء الثورة التكنولوجية، المرتبطة بالفرص الجديدة التي توفرها تطبيقات الأنظمة المدروسة، من خلال خوارزميات الذكاء الاصطناعي، يتم تسليط الضوء على المخاوف الأخلاقية والأمنية، بما في ذلك المخاطر مثل التضليل وفقدان السيطرة على التكنولوجيا. يتبع الانفصال الشائعات وعمليات الإزالة القسرية داخل شركة OpenAI، وهي شركة رائدة في مجال الذكاء الاصطناعي، بين المكونات الخيرية والتجارية، هي نتيجة مباشرة لهذه الثورة التي تؤثر على المواطنين العاديين والشركات الكبيرة ولكن أيضًا على الدول التي تحاول تجنب الاستخدام الضار للذكاء الاصطناعي من قبل الجماعات الإرهابية و مجرمي الإنترنت.

مؤسس أول شركة في هذا القطاع Open AI، سام التمان، موجهة نحو الهدف في البداية بدون ربح، لقد تحول الاهتمام نحو الأعمال بسبب الفرص الجديدة غير العادية في السوق. نجاح المنصة الأولى شات جي بي تي لقد أدى في الواقع إلى تضخيم تناقضات البنية التي، على الرغم من أن هدفها الأولي كان تجنب الرأسمالية غير المنظمة، وجدت نفسها تحكم واقعًا ملتزمًا بتعظيم الربح.

OpenAI، أول منظمة تقترح نموذجًا مبتكرًا للذكاء الاصطناعي، يسمى ChatGPT، في السوق، كان عليها أن تواجه صراعًا داخليًا دمويًا داخل مجلس الإدارة، المكون من أعضاء المكون الخيري وأعضاء المكون التجاري التجاري . وظهرت بقوة التناقضات والرؤى المتباينة فيما يتعلق بالأخلاق والربح. على وجه الخصوص، قام ألتمان، على الرغم من مخاوفه الأخلاقية، بتحويل التوازن تدريجيًا نحو الأعمال ، إدراكًا لفرص السوق الاستثنائية التي يوفرها الذكاء الاصطناعي.

يوصف الصراع الداخلي الأخير في OpenAI بأنه المعركة الأولى لتحديد مستقبل الذكاء الاصطناعي، حيث يكون العنصر التجاري والموجه نحو الأعمال الأعمال لقد تفوقت على الجمعيات وغير الربحية.

ومع ذلك، يجب علينا الآن معالجة التحديات المباشرة، مثل خطر التضليل في انتخابات عام 2024، وخطر السيناريوهات المروعة. الظروف القاسية حيث يمكن للآلة (المجهزة بالذكاء الفائق) أن تسود على القرارات البشرية، مما يؤدي إلى تضخيم مفهوم "المدمر"، الذي أثاره مرارا وتكرارا أولئك الذين ما زالوا متشككين في مواجهة هذه التكنولوجيا غير المستكشفة التي، وفقا للرأي المشترك، يجب فرض مكابح تنظيمية عالمية عليها تجنب المواقف غير المتوقعة مع عدم وجود طريق للعودة.

وعلى الرغم من الجهود التعاونية بين الشركات والحكومات، إلا أننا نتجه نحو المواعيد الانتخابية المهمة التالية (الولايات المتحدة الأمريكية والاتحاد الأوروبي وتايوان) دون دفاعات كافية. في أوروبا، على سبيل المثال، لا يزال هناك جدل حول قانون الذكاء الاصطناعي، وهي الوثيقة التي ينبغي أن تنظم تطوير واستخدام المنصات التي تستغل نماذج الذكاء الاصطناعي. بين المشاكل المتعلقة بخصوصية المواطنين والاستخدام العشوائي للتعرف على الوجه، فإن الطريق شاق، في وقت حيث يتم إنشاء نظام عالمي جديد في أعقاب الصراع العنيف بين القوى العظمى التقليدية والناشئة.

نحن نحاول التنظيم

الاتحاد الاوروبي. التزم الاتحاد الأوروبي بأن يصبح لاعبًا رئيسيًا في تنظيم الذكاء الاصطناعي (AI) من خلال "قانون الذكاء الاصطناعي". وستكون الثلاثية المقبلة، المقرر إجراؤها في 6 ديسمبر/كانون الأول 2023، حاسمة لتحديد إمكانية الموافقة على النص بحلول نهاية عام 2023.عملية هيروشيما للذكاء الاصطناعيأعلن قادة مجموعة السبع عن أحد عشر مبدأً توجيهيًا ومدونة قواعد سلوك لمطوري الذكاء الاصطناعي.

وتهدف المبادئ التوجيهية إلى توفير التوجيه للمطورين والهيئات الأكاديمية والقطاعين العام والخاص المشاركين في تطوير أنظمة الذكاء الاصطناعي المتقدمة. وهي تشمل تدابير لتقييم المخاطر والتخفيف منها، والشفافية في قدرات الأنظمة والقيود، وتعزيز سياسات الحوكمة القائمة على المخاطر. تتضمن مدونة قواعد السلوك إرشادات عملية لمطوري الذكاء الاصطناعي، مع التركيز بشكل خاص على شفافية النماذج ونشر التقارير وتبادل المعلومات في المجتمع المدني.

تعتبر مدونة قواعد السلوك، المطبقة على أساس طوعي، ذات أهمية كبيرة لأنها قابلة للتطبيق على الفور ويمكن أن تمتد عالميًا. وعلى عكس قانون الذكاء الاصطناعي، يمكن أن يؤثر القانون على تنظيم الذكاء الاصطناعي في سياق زيادة الاهتمام وتقييمات المساءلة من قبل الشركات.

الولايات المتحدة الأميركية. يتناول الأمر التنفيذي الأمريكي، الصادر في 30 أكتوبر 2023 من قبل الرئيس جو بايدن، القضايا الحاسمة المتعلقة بالاستخدام الآمن للذكاء الاصطناعي (AI). فهو يفرض الشفافية على المطورين، ويتطلب مشاركة نتائج الاختبار مع الحكومة وتكليف الحكومة بإجراء الاختبارات المعهد الوطني للمعايير والتكنولوجيا مهمة تحديد معايير نماذج الذكاء الاصطناعي الآمنة. علاوة على ذلك، فإنه يركز على منع المعلومات الخاطئة عن طريق التعيين إلى وزارة التجارة الدليل الفني للتأكد من صحة المحتوى الناتج عن الذكاء الاصطناعي.

ويتناول الأمر أيضًا مسألة التحيز المعرفي، في محاولة لتجنب التمييز في القطاعات الحساسة. مطلوب مراجعة المعايير المستخدمة في أنظمة الذكاء الاصطناعي لتحديد أي تحيزات أو تباينات. علاوة على ذلك، من المتوقع إجراء دراسة متعمقة حول تأثير التقنيات على التوظيف والتجهيز أفضل الممارسات للتخفيف من الأضرار المحتملة وتعظيم الفوائد.

الاتفاقية الثلاثية. علاوة على ذلك، هناك اتفاق غير رسمي بين إيطاليا وفرنسا وألمانيا بتاريخ 19 نوفمبر 2023 بشأن تنظيم النماذج الأساسية في الذكاء الاصطناعي التوليدي. وتقترح هذه الاتفاقية، التي تختلف عن النهج القائم على المخاطر في قانون الذكاء الاصطناعي، التنظيم الذاتي الإلزامي من خلال مدونات قواعد السلوك. مطورو الذكاء الاصطناعي مدعوون لصياغة "بطاقات نموذجية"مع معلومات حول إمكانيات النماذج وقيودها. ستقوم هيئة حوكمة الذكاء الاصطناعي بمراقبة تطبيق قواعد السلوك هذه. والنقطة الحاسمة هي التي لا تنص على فرض عقوبات على "الانتهاك الأول"، مع الاحتفاظ بالعقوبات فقط على الانتهاكات المنهجية لقواعد السلوك. قد تؤثر هذه الاتفاقية على المفاوضات حول قانون الذكاء الاصطناعي بين الدول الأعضاء، مما قد يؤخر صدوره.

اشترك في نشرتنا الإخبارية!

يعمل الذكاء الاصطناعي بينما يتباطأ التنظيم