يطلب "Musk & Company" عدم الركض بالذكاء الاصطناعي لتجنب السباق نحو سيناريو "Terminator"

بخطاب مفتوح نشرته المنظمة غير الربحية معهد مستقبل الحياة إيلون ماسك وألف باحث آخر دق ناقوس الخطر بشأنه مخاطر الذكاء الاصطناعي. الجملة ذات التأثير الأكبر هي التي تطرح سؤالًا قويًا على المجتمع العلمي: "الذكاء الاصطناعي يشكل مخاطر جسيمة على المجتمع والإنسانية ، ولهذا السبب ستكون هناك حاجة إلى استراحة لمدة ستة أشهر على الأقل لتدريب الأنظمة الأكثر تقدمًا".

دعا إيلون ماسك وعلماء آخرون إلى وقف أو تجميد الحكومات لتفادي 'سيناريو المنهي، من أجل السماح بتطوير بروتوكولات الأمان المشتركة.

قام المؤسس المشارك لشركة Apple بتوقيع الرسالة ستيف وزنياك ولكن أيضًا من بينترست e سكيب، وكذلك مؤسسي شركات الذكاء الاصطناعي الناشئة الاستقرار AI e الشخصيات. وقع الرسالة أكثر من ألف مدير وخبير في جميع أنحاء العالم.

المسك لا يريد شيطنة تقنية جديدة وناشئة أيضًا لأنها تريد تحسين العقل الذكي باستخدام Neuralink بعد احتلال الفضاء باستخدام SpaceX والسيارات باستخدام Tesla. استثمر ماسك مالياً بكثافة في شركات الذكاء الاصطناعي المرتبطة بـ Microsoft لمواكبة المستقبل الأكثر تقدمًا الذي يطمح إليه الجميع ليكون رادعًا استراتيجيًا وجذابًا.

اشترك في نشرتنا الإخبارية!

ومع ذلك ، في الوقت الحالي ، تثير الأنظمة الأكثر تقدمًا القلق GPT-4، روبوت الدردشة OpenAI القادر على رواية النكات واجتياز الاختبارات بسهولة مثل الذي يصبح محاميًا ، كما كتب Ansa.

"يجب تطوير أنظمة الذكاء الاصطناعي القوية فقط عندما تكون هناك ثقة في أن آثارها ستكون إيجابية ويمكن التحكم في مخاطرها"، تم التأكيد عليه في الرسالة. الخطاب عملي عندما يتحدث عن "الاندفاع الجامح لتطوير ونشر عقول رقمية قوية لا يمكن لأحد ، ولا حتى منشئوها ، فهمها والتنبؤ بها والتحكم فيها.

لقد حذرت الصين الولايات المتحدة بالفعل: "لا يصبح الذكاء الاصطناعي أداة أو سلاحًا لإتقان المراقبة التقنية الشمولية الأورويلية".

يمكن أن يؤدي الذكاء الاصطناعي إلى تدمير العالم من خلال استحضار العديد من أفلام الخيال العلمي ، ولهذا السبب ، من أجل تجنب مجرد التفكير في العواقب الكارثية ، تطلب الأسماء الكبيرة في مجال التكنولوجيا المتقدمة استراحة لمدة ستة أشهر لاستخدامها في ال "التطوير المشترك وتنفيذ البروتوكولات المشتركة "التي تضمن" أمن "الأنظمة" بما لا يدع مجالاً للشك ". تدعو الرسالة مختبرات الذكاء الاصطناعي إلى التركيز على تحقيق المزيد "دقيقة وشفافة وذات مصداقية وعادلة " الأنظمة الحالية بدلاً من الركض نحو تطوير وسائل أكثر قوة. "توقفت الشركة مؤقتًا عن استخدام تقنيات أخرى ذات آثار كارثية محتملة - تواصل الرسالة -. يمكننا أن نفعل ذلك في هذه الحالة أيضًا. دعونا نستمتع بصيف طويل من الذكاء الاصطناعي ، ولا نندفع إلى الخريف غير مستعدين ".

النص الكامل للرسالة

يمكن أن تشكل أنظمة الذكاء الاصطناعي ذات الذكاء التنافسي البشري مخاطر جسيمة على المجتمع والإنسانية ، كما يتضح من الأبحاث المكثفة والتي أقرتها أفضل مختبرات الذكاء الاصطناعي. كما ورد في المصادقة على نطاق واسع مبادئ Asilomar منظمة العفو الدوليةيمكن أن يمثل الذكاء الاصطناعي المتقدم تغييرًا عميقًا في تاريخ الحياة على الأرض ، ويجب التخطيط له وإدارته بما يتناسب مع العناية والموارد. لسوء الحظ ، لا يحدث هذا المستوى من التخطيط والإدارة ، على الرغم من أن الأشهر الأخيرة شهدت أن مختبرات الذكاء الاصطناعي تخوض سباقًا خارج نطاق السيطرة لتطوير ونشر عقول رقمية أكثر قوة لا يمكن لأحد - ولا حتى منشئوها - فهمها ، التنبؤ أو التحكم بشكل موثوق.

أصبحت أنظمة الذكاء الاصطناعي المعاصرة الآن قادرة على المنافسة بين البشر في المهام العامة ، وعلينا أن نسأل أنفسنا: وينبغي ندع الآلات تغمر قنواتنا الإعلامية بالدعاية والكذب؟ وينبغي نقوم بأتمتة جميع الوظائف ، بما في ذلك الوظائف؟ وينبغي نطور عقولًا غير بشرية قد تفوق في النهاية عددًا ، وتتفوق على الذكاء ، وتتقادم ، وتحل محلنا؟ وينبغي نحن نجازف بفقدان السيطرة على حضارتنا؟ يجب عدم تفويض مثل هذه القرارات لقادة تقنيين غير منتخبين. يجب تطوير أنظمة الذكاء الاصطناعي القوية فقط بمجرد أن نكون واثقين من أن آثارها ستكون إيجابية وأن مخاطرها ستكون تحت السيطرة. يجب أن تكون هذه الثقة مبررة جيدًا وأن تزداد مع حجم التأثيرات المحتملة للنظام. أوبن إيه آي بيان حديث بشأن الذكاء العام الاصطناعي، ينص علي "في مرحلة ما ، قد يكون من المهم الحصول على مراجعة مستقلة قبل البدء في تدريب الأنظمة المستقبلية ، وللجهود الأكثر تقدمًا للموافقة على الحد من معدل نمو الحوسبة المستخدمة لإنشاء نماذج جديدة." ونحن نتفق. هذه النقطة الآن.

ولذلك، ندعو جميع مختبرات الذكاء الاصطناعي إلى التوقف فورًا لمدة 6 أشهر على الأقل عن تدريب أنظمة الذكاء الاصطناعي الأكثر قوة من GPT-4. يجب أن يكون هذا التوقف علنيًا ويمكن التحقق منه ، وأن يشمل جميع الجهات الفاعلة الرئيسية. إذا لم يكن بالإمكان تفعيل مثل هذا الوقف بسرعة ، يجب على الحكومات التدخل وفرض تجميد.

يجب على مختبرات الذكاء الاصطناعي والخبراء المستقلين استخدام هذا التوقف المؤقت لتطوير وتنفيذ مجموعة من بروتوكولات السلامة المشتركة لتصميم وتطوير ذكاء اصطناعي متقدم يتم تدقيقها بدقة والإشراف عليها من قبل خبراء خارجيين مستقلين. يجب أن تضمن هذه البروتوكولات أن الأنظمة التي تلتزم بها آمنة بما لا يدع مجالاً للشك. هذا لا ليس يعني توقفًا مؤقتًا عن تطوير الذكاء الاصطناعي بشكل عام ، مجرد التراجع عن السباق الخطير إلى نماذج الصندوق الأسود الأكبر حجمًا والتي لا يمكن التنبؤ بها ذات القدرات الناشئة.

يجب إعادة تركيز أبحاث وتطوير الذكاء الاصطناعي على جعل أنظمة اليوم القوية والحديثة أكثر دقة وأمانًا وقابلية للتفسير وشفافية وقوة ومتسقة وجديرة بالثقة وولاء.

بالتوازي مع ذلك ، يجب على مطوري الذكاء الاصطناعي العمل مع صانعي السياسات لتسريع تطوير أنظمة حوكمة قوية للذكاء الاصطناعي. يجب أن تشمل هذه على الأقل ما يلي: سلطات تنظيمية جديدة وقادرة مخصصة للذكاء الاصطناعي ؛ الإشراف على أنظمة الذكاء الاصطناعي عالية القدرة وتتبعها ومجموعات كبيرة من القدرات الحسابية ؛ أنظمة المصدر والعلامات المائية للمساعدة في التمييز بين الحقيقي والتركيبي ولتتبع تسربات النماذج ؛ نظام بيئي قوي للتدقيق وإصدار الشهادات ؛ المسؤولية عن الضرر الناجم عن الذكاء الاصطناعي ؛ تمويل عام قوي لأبحاث السلامة التقنية للذكاء الاصطناعي ؛ ومؤسسات ذات موارد جيدة للتعامل مع الاضطرابات الاقتصادية والسياسية الدراماتيكية (خاصة الديمقراطية) التي سيحدثها الذكاء الاصطناعي.

يمكن للإنسانية الاستمتاع بمستقبل مزدهر مع الذكاء الاصطناعي. بعد أن نجحنا في إنشاء أنظمة ذكاء اصطناعي قوية ، يمكننا الآن الاستمتاع بـ "صيف الذكاء الاصطناعي" الذي نحصد فيه المكافآت ، ونصمم هذه الأنظمة لتحقيق المنفعة الواضحة للجميع ، ومنح المجتمع فرصة للتكيف. توقف المجتمع مؤقتًا عن استخدام التقنيات الأخرى ذات الآثار الكارثية المحتملة على المجتمع. يمكننا القيام بذلك هنا. دعونا نستمتع بصيف طويل للذكاء الاصطناعي ، وليس الاندفاع غير مستعدين للسقوط.

يطلب "Musk & Company" عدم الركض بالذكاء الاصطناعي لتجنب السباق نحو سيناريو "Terminator"

| الأخبار, الدليل 1 |