الذكاء الاصطناعي: فرصة أم سلاح كارثي؟ سلاح معصوم حتى بالنسبة للإرهابيين

ماسيميليانو D'إيليا

كل مساء، في برنامج أنطونيو ريتشي التلفزيوني "Striscia la Notizia"، نشاهد ونستمتع، زعيم يتلاعب السياسيون والمؤسسات بالرقصات غير المتوقعة بينما يغنون أغاني غريبة. أبطال الفيلم هم شخصيات بارزة مثل رئيس الوزراء الإيطالي الحالي ورئيس الجمهورية ومختلف زعماء المعارضة. إنهم على وجه التحديد، أحياء وبصحة جيدة، هم الذين ينشرون الهراء على شاشة التلفزيون بكل سرور. 

الجدارة للقطعة الأثرية هي أ نظام البرمجيات الذي يستخدم أساسيات الذكاء الاصطناعي (AI) لأداء معجزة تلفزيونية حقيقية. تتوفر أيضًا تطبيقات مماثلة مقابل رسوم على شبكات التواصل الاجتماعي (تيك توك). نحن فقط في بداية هذه التكنولوجيا المبتكرة والمثيرة والتي تحتاج إلى "التعامل معها بعناية" نظرًا للتأثيرات التي قد تحدثها في المستقبل غير البعيد. ولهذا السبب، نتحدث بشكل متزايد عن الحاجة إلى اعتماد مدونة أخلاقيات أثناء البحث والتطوير واستخدام التطبيقات التي يمكن من خلالها استدعاء الذكاء الاصطناعي للقيام بعمل مادي قادر على التدخل في العالم الحقيقي.

على سبيل المثال، يتفق الجميع على حقيقة أن الأجهزة المجهزة بالذكاء الاصطناعي يجب أن تكون مرخصة من قبل البشر قبل تنفيذ عمل مميت (في المجال العسكري البحت). البديهية التي، مع ذلك، تصبح مختزلة عندما تواجه التكنولوجيا التي، من الناحية النظرية، ستكون قادرة على التعلم والتطور وقبل كل شيء إرباك الخصم الذي يمكن أن يتطابق في يوم من الأيام مع الرجل المسؤول عن السيطرة عليه.  

بعض قدرات الذكاء الاصطناعي المحاكاة

في الصين، في إحدى الجامعات المرموقة (جامعة نانجينغ للملاحة الجوية والفضائية) قاموا بتطوير برنامج يحاكي معركة جوية بين مقاتلتين من أحدث جيل: أحدهما يقوده إنسان بكل حدوده الجسدية والنفسية، والآخر بواسطة الذكاء الاصطناعي. وفي أقل من ثماني ثوان وبسرعة تفوق سرعتها سرعة الصوت، أسقط المقاتل الذي يعمل بالذكاء الاصطناعي خصمه بسهولة، وأطلق صاروخا "في الاتجاه المعاكس"، متحديا كل قانون فيزيائي معروف.

في المحاكاة الحاسوبية، اشتبكت الطائرة التي تفوق سرعتها سرعة الصوت مع طائرة معادية تحلق بسرعة 1.3 ماخ، وهي سرعة قريبة من السرعة القصوى لطائرة F-35. تلقى طيار الطائرة التي تفوق سرعتها سرعة الصوت الأمر بإسقاط العدو. كان ينبغي أن توجه الغريزة الطيار نحو الهدف، لكن الطيار، مسترشدًا بالذكاء الاصطناعي، توجه إلى موقع غير متوقع، أمام طائرة العدو بمسافة كبيرة وأطلق صاروخًا إلى الخلف. أصاب الصاروخ الخصم الذي كان على بعد 30 كيلومترا، وبذلك أنهت المعركة في غضون ثوان.

وبعيدًا عن الاعتبارات والمخاوف، فقد أطلقت الدول بالفعل، على الأقل فيما يتعلق بالردع العسكري الخاص بها، برامج مستقبلية، مثل طائرات الجيل السادس التي سيتم دعمها في مهامها بأجهزة موجهة من كيانات مجهزة بالذكاء الاصطناعي. ومن هذا المنظور، تحاول مختلف الحكومات، قدر الإمكان، تنظيم النهج الثقافي والاجتماعي والإنتاجي لهذه التكنولوجيا الجديدة وغير المستكشفة.

الصين

المتطلبات الأمنية الأساسية لخدمة الذكاء الاصطناعي التوليدي هو عنوان وثيقة تم إصدارها مؤخرًا في شكل مسودة بواسطةالهيئة الوطنية الصينية لل توحيد أمن المعلومات الذي يحدد المواصفات التي يجب على الموردين الالتزام بها الخدمات القائمة على الذكاء الاصطناعي التوليدي. وتسلط الوثيقة، على الرغم من أنها لا تزال في نسخة غير نهائية، الضوء على نهج الحكومة الصينية في إدارة تأثير الذكاء الاصطناعي على العلاقات الاجتماعية والسياسية. فهو لا يشمل القواعد القانونية فحسب، بل يشمل أيضًا القواعد التقنية القادرة على الحصول على درجة أكبر من الفعالية الملموسة، حيث يجب احترامها. الأول لإتاحة الخدمة.

الولايات المتحدة

الرئيس الأمريكي، جو بايدن ومن المتوقع أن يوقع ترامب وثيقة الأسبوع المقبل تتناول التقدم السريع في الذكاء الاصطناعي، مما يمهد الطريق لتبني واشنطن للذكاء الاصطناعي كأداة في ترسانة أمنها القومي. ويحدد التقرير أن الشرط الأساسي هو أن تقوم الشركات بتطوير التكنولوجيا بطريقة آمنة. ولذلك تسعى الوثيقة إلى وضع مبادئ توجيهية لاستخدام الذكاء الاصطناعي من قبل الوكالات الفيدرالية، مع تسخير القوة الشرائية للحكومة لتوجيه الشركات نحو ما تعتبره أفضل الممارسات. كما نظم البيت الأبيض حدثا بعنوان "ذكاء اصطناعي آمن ومأمون وموثوق".

ولذلك تحتاج الإدارة الأمريكية إلى تنظيم الأمر لتطوير قدرات عسكرية جديدة ومبتكرة لضمان الردع العالمي الموثوق به مع مرور الوقت. ومن المخطط استخدام المعهد الوطني للمعايير والتكنولوجيا لتحديد معايير الصناعة لاختبار وتقييم أنظمة الذكاء الاصطناعي. والشرط الآخر هو إشراف الحكومة على التزامات الذكاء الاصطناعي التي تعهدت بها الشركات الأمريكية الكبرى مؤخرًا.

ومن بين القطاعات التي حددتها الحكومة الأمريكية التهديدات التي يتعرض لها الأمن السيبراني بعد ظهور الذكاء الاصطناعي. 

ومن المتوقع أن يصبح الذكاء الاصطناعي موردا هاما لتحديد التهديدات من خلال تحليل نقاط الضعف والمحاولات التصيدووسائل التواصل الاجتماعي والبريد الإلكتروني والدردشة. وقد يكون مفيدًا أيضًا في العثور على أنماط ضمن التقارير الاستخباراتية التي قد يفوتها البشر. قال باحثون أمنيون ومسؤولون استخباراتيون إن الذكاء الاصطناعي يمكن أن يكون أداة ضرورية لتحسين الدفاعات السيبرانية للشركات والبنية التحتية الحيوية والوكالات الحكومية والأفراد بشكل كبير. ولكن يمكن أيضًا استخدامه كسلاح من قبل الحكومات الأجنبية والمتسللين المجرمين للكتابة البرمجيات الخبيثة، أتمتة محاولات التطفل بسهولة أكبر، والاستجابة بسرعة للدفاعات الأمنية المتطورة.

إنجلترا

الذكاء الاصطناعي يمكن أن يساعد الإرهابيين على تطوير أسلحة الدمار الشامل، هذا التحذير وارد في وثيقة أعدت لرئيس الوزراء ريشي سوناك بمناسبة عيد ميلاده. خطاب إلى الغرف. ويوضح تحليل التقرير كيف أن الذكاء الاصطناعي، في حين يقدم فرصا كبيرة، “ينطوي أيضًا على مخاطر ومخاوف جديدة". تنص الوثيقة الحكومية، التي تمت كتابتها بدعم من 50 خبيرًا، على أنه بحلول عام 2025، يمكن استخدام الذكاء الاصطناعي لارتكاب جرائم الاحتيال والهجمات السيبرانية. وتوضح الوثيقة أن الذكاء الاصطناعي سيكون لديه القدرة على "تعزيز القدرات الإرهابية" في تطوير الأسلحة والتخطيط للهجمات في إنتاج الدعاية. تشمل مجموعة المخاطر الأكثر خطورة التي يمكن أن تنشأ بحلول عام 2030 ما يلي: "التضليل الجماعي" و"أزمة" تتعلق بالتوظيف بعد الاستخدام المكثف للذكاء الاصطناعي في الوظائف اليدوية حيث من المتوقع حاليًا استخدام البشر.

ولكن في الوقت نفسه، سيؤدي الذكاء الاصطناعي إلى "معارف جديدة، وفرص جديدة للنمو الاقتصادي، وإحراز تقدم جديد في القدرات البشرية، وإمكانية حل المشاكل التي كانت تعتبر ذات يوم غير قابلة للحل". 

وتشير الوثيقة أيضًا إلى أنه لا توجد حاليًا أدلة كافية لاستبعاد التهديد الذي يشكله الذكاء الاصطناعي على البشرية. 

ويسلط التقرير الضوء على أنه بحلول عام 2030، يمكن لشركات التكنولوجيا تطوير واحدة "الذكاء الفائق" جهاز اصطناعي قادر على تنفيذ مهام معقدة وخداع البشر، وهو ما يمثل خطرا "كارثيا". ويوضح مثال آخر كيف يمكن لشركة ما أن تكتسب الهيمنة التكنولوجية على حساب المنافسين العالميين. ويحذر التقرير أيضًا من أن الذكاء الاصطناعي يمكن أن "يؤدي إلى تفاقم المخاطر السيبرانية الحالية بشكل كبير" إذا تم استخدامه بشكل غير صحيح، على سبيل المثال من خلال شن هجمات سيبرانية بشكل مستقل.

"هذه الأنظمة قادرة على إكمال المهام المعقدة التي تتطلب التخطيط والتفكير، ويمكنها التفاعل مع بعضها البعض بمرونة"، كما جاء في التقرير. "وبمجرد أن يحددوا مهمة ما، فإنهم يطورون استراتيجية ذات أهداف فرعية، ويتعلمون مهارات جديدة.

ومع ذلك، يمكن أن تحدث "عواقب غير مقصودة"، بما في ذلك "تحويل" المعلومات والموارد لتحقيق الأهداف الكاملة.

وسوف يسمح الابتكار المستقبلي في مجال البرمجيات والأجهزة للذكاء الاصطناعي "بالتفاعل مع العالم المادي" من خلال الروبوتات والسيارات ذاتية القيادة. وجاء في التقرير أن "هذه الأنظمة المستقلة ستجمع كميات كبيرة من البيانات، والتي سيتم توجيهها لتحسين قدراتها".

اشترك في نشرتنا الإخبارية!

الذكاء الاصطناعي: فرصة أم سلاح كارثي؟ سلاح معصوم حتى بالنسبة للإرهابيين