"مسک اینڈ کمپنی" مصنوعی ذہانت کے ساتھ نہ بھاگنے کو کہتے ہیں تاکہ "ٹرمینیٹر" منظر نامے کی طرف دوڑ سے بچ سکیں

غیر منفعتی کی طرف سے شائع کردہ ایک کھلے خط کے ساتھ زندگی انسٹی ٹیوٹ کا مستقبل یلون کستوری اور ایک ہزار دیگر محققین نے خطرے کی گھنٹی بجا دی ہے۔ مصنوعی ذہانت کے خطرات. سب سے زیادہ اثر والا جملہ وہ ہے جو سائنسی برادری کے سامنے ایک مضبوط سوال کھڑا کرتا ہے: "مصنوعی ذہانت معاشرے اور انسانیت کے لیے گہرے خطرات کا باعث ہے اور اس وجہ سے جدید ترین نظاموں کی تربیت کے لیے کم از کم چھ ماہ کا وقفہ درکار ہوگا۔"

ایلون مسک اور دیگر اسکالرز خوفناک صورتحال سے بچنے کے لیے حکومتوں کو روکنے یا روک دینے کا مطالبہ کر رہے ہیں۔ٹرمینیٹر کا منظر نامہمشترکہ سیکورٹی پروٹوکول کی ترقی کی اجازت دینے کے لیے۔

ایپل کے شریک بانی نے خط پر دستخط کیے۔ سٹیو Wozniak لیکن ان میں سے بھی Pinterest پر e اسکائپ، نیز مصنوعی ذہانت کے آغاز کے بانی استحکام AI e حروف.ai. دنیا بھر کے ایک ہزار سے زائد مینیجرز اور ماہرین نے اس خط پر دستخط کیے۔

کستوری شیطانی نہیں کرنا چاہتا ایک نئی اور ابھرتی ہوئی ٹیکنالوجی اس لیے بھی کہ وہ SpaceX اور Tesla کے ساتھ آٹوموٹیو کے ساتھ خلا کو فتح کرنے کے بعد Neuralink کے ساتھ ذہین دماغ کو بہتر بنانا چاہتی ہے۔ مسک نے مائیکروسافٹ سے متعلقہ AI کمپنیوں میں بہت زیادہ مالی سرمایہ کاری کی ہے تاکہ زیادہ ترقی یافتہ مستقبل کو برقرار رکھا جا سکے جس کی ہر کوئی تزویراتی طور پر روک تھام اور پرکشش ہونے کی خواہش رکھتا ہے۔

ہماری نیوز لیٹر کو سبسکرائب کریں!

تاہم، ابھی کے لیے، انتہائی جدید نظام تشویش کا باعث بن رہے ہیں۔ GPT-4، اوپن اے آئی چیٹ بوٹ لطیفے سنانے اور وکیل بننے جیسے امتحانات آسانی سے پاس کرنے کے قابل ہے، آنسا لکھتی ہیں۔

"طاقتور اے آئی سسٹم کو صرف اس وقت تیار کیا جانا چاہئے جب یہ یقین ہو کہ ان کے اثرات مثبت ہوں گے اور ان کے خطرات کا انتظام کیا جا سکتا ہے"، خط میں زور دیا گیا ہے۔ یادداشت عملی ہوتی ہے جب یہ "طاقتور ڈیجیٹل ذہنوں کو تیار کرنے اور ان کی تعیناتی کے لیے بھاگ دوڑ جس کو کوئی بھی، یہاں تک کہ ان کے تخلیق کاروں کو بھی، سمجھ، پیش گوئی اور کنٹرول نہیں کر سکتا۔

چین پہلے ہی امریکہ کو خبردار کر چکا ہے:مصنوعی ذہانت کامل تکنیکی مطلق العنان اورویلین نگرانی کے لیے ایک آلہ یا ہتھیار نہیں بنتی ہے۔".

مصنوعی ذہانت بہت سی سائنس فکشن فلمیں بنا کر دنیا کی تباہی کا باعث بن سکتی ہے اور اسی وجہ سے تباہ کن نتائج کے بارے میں سوچنے سے بچنے کے لیے ہائی ٹیک کے بڑے نام استعمال کرنے کے لیے چھ ماہ کا وقفہ مانگ رہے ہیں۔ "مشترکہ پروٹوکولز کی مشترکہ ترقی اور نفاذ" جو سسٹمز کی "سیکورٹی" کو یقینی بناتے ہیں "کسی بھی معقول شک سے بالاتر". خط میں اے آئی لیبز سے مطالبہ کیا گیا ہے کہ وہ مزید بنانے پر توجہ دیں۔درست، شفاف، معتبر اور منصفانہ" موجودہ نظام مزید طاقتور ذرائع کی ترقی کی طرف بھاگنے کے بجائے۔ "کمپنی نے ممکنہ طور پر تباہ کن اثرات کے ساتھ دیگر ٹیکنالوجیز کو روک دیا ہے۔ - خط جاری ہے -. ہم اس معاملے میں بھی ایسا کر سکتے ہیں۔ آئیے AI کے طویل موسم گرما سے لطف اندوز ہوں، اور بغیر تیاری کے خزاں میں جلدی نہ کریں۔"

خط کا مکمل متن

انسانی مسابقتی ذہانت کے ساتھ AI نظام معاشرے اور انسانیت کے لیے گہرے خطرات لاحق ہو سکتے ہیں، جیسا کہ وسیع تحقیق سے دکھایا گیا ہے اور اعلیٰ AI لیبز نے تسلیم کیا ہے۔ جیسا کہ وسیع پیمانے پر توثیق میں کہا گیا ہے۔ اسیلومر اے آئی اصولاعلی درجے کی AI زمین پر زندگی کی تاریخ میں ایک گہری تبدیلی کی نمائندگی کر سکتی ہے، اور اس کے لیے مناسب دیکھ بھال اور وسائل کے ساتھ منصوبہ بندی اور انتظام کیا جانا چاہیے۔. بدقسمتی سے، منصوبہ بندی اور انتظام کی اس سطح پر عمل نہیں ہو رہا ہے، حالانکہ حالیہ مہینوں نے AI لیبز کو پہلے سے زیادہ طاقتور ڈیجیٹل ذہنوں کو تیار کرنے اور تعینات کرنے کی دوڑ میں بند ہوتے دیکھا ہے جسے کوئی بھی - یہاں تک کہ ان کے تخلیق کار بھی نہیں سمجھ سکتے ہیں، پیشن گوئی، یا قابل اعتماد کنٹرول.

عصری AI نظام اب عام کاموں میں انسانوں سے مسابقتی بن رہے ہیں، اور ہمیں خود سے پوچھنا چاہیے: ہونا چاہئے ہم مشینوں کو اپنے انفارمیشن چینلز کو پروپیگنڈے اور جھوٹ سے بھرنے دیتے ہیں؟ ہونا چاہئے ہم تمام ملازمتوں کو خودکار کر دیتے ہیں، بشمول پورا کرنے والے؟ ہونا چاہئے ہم غیر انسانی ذہنوں کو تیار کرتے ہیں جو آخرکار ہماری تعداد سے کہیں زیادہ، ذہین، متروک اور ہماری جگہ لے سکتے ہیں؟ ہونا چاہئے کیا ہمیں اپنی تہذیب کے کنٹرول سے محروم ہونے کا خطرہ ہے؟ ایسے فیصلوں کو غیر منتخب ٹیک لیڈروں کے سپرد نہیں کیا جانا چاہیے۔ طاقتور AI نظام کو صرف اس وقت تیار کیا جانا چاہئے جب ہمیں یقین ہو کہ ان کے اثرات مثبت ہوں گے اور ان کے خطرات قابل انتظام ہوں گے۔ یہ اعتماد اچھی طرح سے جائز ہونا چاہیے اور نظام کے ممکنہ اثرات کی شدت کے ساتھ بڑھنا چاہیے۔ اوپن اے آئی مصنوعی جنرل انٹیلی جنس کے بارے میں حالیہ بیان، کہتا ہے "کسی وقت، مستقبل کے نظاموں کی تربیت شروع کرنے سے پہلے آزادانہ جائزہ لینا ضروری ہو سکتا ہے، اور نئے ماڈلز بنانے کے لیے استعمال ہونے والے کمپیوٹ کی شرح نمو کو محدود کرنے پر اتفاق کرنے کے لیے جدید ترین کوششوں کے لیے۔" ہم متفق ہیں. وہ نقطہ اب ہے۔

لہذا، ہم تمام AI لیبز سے مطالبہ کرتے ہیں کہ وہ GPT-6 سے زیادہ طاقتور AI سسٹمز کی تربیت کو کم از کم 4 ماہ کے لیے فوری طور پر روک دیں۔. یہ وقفہ عوامی اور قابل تصدیق ہونا چاہیے، اور اس میں تمام اہم اداکار شامل ہیں۔ اگر اس طرح کے وقفے کو فوری طور پر نافذ نہیں کیا جاسکتا ہے تو، حکومتوں کو قدم اٹھانا چاہئے اور اس پر پابندی لگانا چاہئے۔

AI لیبز اور آزاد ماہرین کو اس وقفے کا استعمال مشترکہ طور پر جدید AI ڈیزائن اور ترقی کے لیے مشترکہ حفاظتی پروٹوکول کے ایک سیٹ کو تیار کرنے اور لاگو کرنے کے لیے کرنا چاہیے جن کا سختی سے آڈٹ کیا جاتا ہے اور ان کی نگرانی آزاد بیرونی ماہرین کرتے ہیں۔ ان پروٹوکولز کو اس بات کو یقینی بنانا چاہیے کہ ان پر عمل کرنے والے نظام کسی معقول شک سے بالاتر ہیں۔ یہ کرتا ہے۔ نوٹ عام طور پر AI کی ترقی پر ایک وقفہ کا مطلب ہے، ابھرتی ہوئی صلاحیتوں کے ساتھ ہمیشہ سے بڑے غیر متوقع بلیک باکس ماڈلز کی خطرناک دوڑ سے پیچھے ہٹنا۔

AI تحقیق اور ترقی کو آج کے طاقتور، جدید ترین نظاموں کو زیادہ درست، محفوظ، قابل تشریح، شفاف، مضبوط، منسلک، قابل اعتماد، اور وفادار بنانے پر توجہ مرکوز کرنی چاہیے۔

متوازی طور پر، AI ڈویلپرز کو مضبوط AI گورننس سسٹمز کی ترقی کو ڈرامائی طور پر تیز کرنے کے لیے پالیسی سازوں کے ساتھ مل کر کام کرنا چاہیے۔ ان میں کم از کم شامل ہونا چاہیے: AI کے لیے وقف نئی اور قابل ریگولیٹری اتھارٹیز؛ انتہائی قابل AI سسٹمز اور کمپیوٹیشنل صلاحیت کے بڑے تالابوں کی نگرانی اور ٹریکنگ؛ اصلی سے مصنوعی فرق کرنے اور ماڈل لیکس کو ٹریک کرنے میں مدد کرنے کے لیے پرووینس اور واٹر مارکنگ سسٹم؛ ایک مضبوط آڈیٹنگ اور سرٹیفیکیشن ماحولیاتی نظام؛ AI کی وجہ سے ہونے والے نقصان کی ذمہ داری؛ تکنیکی AI حفاظتی تحقیق کے لیے مضبوط عوامی فنڈنگ؛ اور ڈرامائی معاشی اور سیاسی رکاوٹوں (خاص طور پر جمہوریت کے لیے) سے نمٹنے کے لیے اچھے وسائل والے ادارے جو AI کی وجہ سے ہوں گے۔

AI کے ساتھ انسانیت ایک پھلتے پھولتے مستقبل سے لطف اندوز ہو سکتی ہے۔ طاقتور AI سسٹمز بنانے میں کامیاب ہونے کے بعد، اب ہم "AI سمر" سے لطف اندوز ہو سکتے ہیں جس میں ہم انعامات حاصل کرتے ہیں، ان سسٹمز کو سب کے واضح فائدے کے لیے انجینئر کرتے ہیں، اور معاشرے کو اپنانے کا موقع دیتے ہیں۔ معاشرے نے دیگر ٹیکنالوجیز کو روک دیا ہے جس کے معاشرے پر ممکنہ طور پر تباہ کن اثرات ہیں۔ ہم یہاں ایسا کر سکتے ہیں۔ آئیے ایک طویل AI موسم گرما سے لطف اندوز ہوں، موسم خزاں میں بغیر تیاری کے جلدی نہ کریں۔

"مسک اینڈ کمپنی" مصنوعی ذہانت کے ساتھ نہ بھاگنے کو کہتے ہیں تاکہ "ٹرمینیٹر" منظر نامے کی طرف دوڑ سے بچ سکیں

| خبریں ', ایڈیشن 1 |