اخلاقیات اور مصنوعی ذہانت

(بذریعہ مشیل گورگا) آج تک انسانیت کے اس کے اصل سے لے کر آج تک کے راستے کا جائزہ لے کر ، ہم اس حقیقت تک پہنچ سکتے ہیں کہ ہماری تکنیکی ترقی کی حقیقت لکیری نہیں ، بلکہ تعزیراتی ہے اور اس بنیادی قانون کی بدولت جو اس کے تحت چلتی ہے۔ ریٹرن میں تیزی کے قانون کا نام۔ ایک قانون ، مؤخر الذکر ، جو صرف اسی صورت میں سمجھا جاسکتا ہے جب ہم کارٹیسین ہوائی جہاز میں پوائنٹس میں شامل ہوجائیں: خلاصہ محور پر x (افقی) ہم وقت طے کرتے ہیں ، ترتیب محور (عمودی) پر y تکنالوجی ترقی کی سطح پر پہنچ گئے۔ ایک خاص تاریخ تاہم ، اس کا نتیجہ کم یا زیادہ مائل سیدھی لائن نہیں ہے بلکہ ایک تعزیراتی منحنی خطوط پر مبنی ہے اور جس رجحان سے ہم اس سے اخذ کرسکتے ہیں ، ہم یقین کر سکتے ہیں کہ چند سالوں میں یہ آرڈینٹ کے متوازی سیدھی لائن بن جائے گا۔ لہذا آرڈینٹ سے اب کوئی رابطہ نہیں ہوگا اور نتیجہ یہ نکلے گا کہ اب ہم اس ابسسائ کو نہیں جان پائیں گے جہاں ہم ہر ایک لمحے پر ہیں اور اسی وجہ سے ہم اس حالت میں کود پائیں گے کہ کوانٹم فزکس واحدیت کو کہتے ہیں۔

"یکسانیت" سے ہمارا مطلب اس حالت میں ہے جس میں فطرت کی چار بنیادی قوتیں کام کرتی ہیں ، یعنی: کشش ثقل؛ برقی مقناطیسیت؛ ایک مضبوط قوت جو ایٹم میں نیوکلئس میں پروٹانوں کو متحد کرتی ہے۔ وہ کمزور قوت جو تابکار کشی کے اصول پر حکمرانی کرتی ہے۔ ہم ان قوتوں کی شناخت چار خطوں سے کرسکتے ہیں جو جینیات کا جی ہے۔ روبوٹکس کے آر؛ نینو ٹیکنالوجی کے ن؛ مصنوعی ذہانت کا I

ترتیب میں آگے بڑھتے ہوئے ، "جینیاتکس" کے جی ہمیں تمام جانداروں کی شناخت کرنے کی اجازت دیتے ہیں ، جینیاتی ضابطہ ہمیں معمولی نوعیت کے مطابق دوڑ میں بہتری لانے کی اجازت دیتا ہے جو کسی تاریخی لمحے میں اخلاقیات اور نظریہ کو عملی شکل دینے کی اجازت دیتا ہے لینڈنگ اور انسان ہونے کے قابل ، جو وہ بننا چاہتا ہے ، قطع نظر اس سے کہ وہ کچھ بھی ہو ، اور اسی وجہ سے نسلی تاریخی دور میں اخلاقیات اور سیاست کی کیا اجازت دے گی اس کی بنیاد پر جینیاتی طور پر تبدیل شدہ حیاتیات۔ اس کے لئے "روبوٹکس" کے آر کی طرف رجوع کرنا ہمارا مطلب ہونا چاہئے ، یہ نہیں کہ آج کا کیا روبوٹکس ہے ، بلکہ ایسی جدید مشینیں جن میں جگہ اور وقت کا علم ہوگا اور وہ انسانی پہلوؤں ، اینڈروئیڈس کو سنبھال سکیں گی ، جو جذباتی شعور رکھنے کی صلاحیت رکھتی ہیں [7 ]. لہذا روبوٹکس نہ صرف ذہانت سے چلنے والی مشینوں یا کام کے معاونین ، بلکہ ایسے ادارے جو انسان کے ساتھ پیشہ ورانہ سرگرمیوں سے وابستہ ہیں۔ روبوٹکس معاشرے اور سیاست پر جو نتیجہ نکلے گا وہ معاشرتی تحریکیں ہوں گی جن کا مقصد اینڈروئیڈز بنانا ہے اور عام طور پر جانوروں اور پودوں کی دنیا ، ماحولیات ، وغیرہ کو تسلیم کرنے والی تمام تخلیقیں بھی ، اس معاملے میں ، اخلاقیات اور سیاست بھی ہوں گے ایک موقف لینے پر مجبور

"نانو ٹکنالوجی" کے ل N N کے پاس اس کے ل we ہمارا مطلب لامحدود مائکرو ٹکنالوجی ، مائع عنصر جو انسانی وجود کی جگہ کو تبدیل کرکے اور اس میں ترمیم کرکے فوری طور پر حقیقت کے بیرونی اور اندرونی حص changeے کو تبدیل کرنے کے قابل ہیں۔ آخر میں ، "مصنوعی ذہانت" کے ذریعہ ہمارا مطلب ہے کہ تاریخی طور پر ہولی گرل سے کیا موازنہ کیا جاسکتا ہے ، - اے آئی کے معنی میں زندگی اور ابدی علم کے الگورتھم کی حیثیت سے - یا ڈیوس سابق مشینی [8] ، انتہائی خطرناک ٹیکنالوجی اور مستقبل کے منظرناموں کے ل a ، ایک ایسی ٹیکنالوجی جو اس قدر ناگوار ہے کہ قدروں کے نظام اور انسانی تہذیب اور انسان کی اساس کو کمزور کردے کیونکہ تاریخی طور پر اس کا تعین وقت کے ساتھ ساتھ ہوتا آیا ہے۔

مصنوعی ذہانت دراصل ، الگورتھم پر مبنی ہے جو تسلط ، کنٹرول ، کیریئرزم ، صارفیت ، مسابقت ، انسانی حواس باختہ کے لئے تمام مکم .ل ٹکنالوجی کی ہوسکتی ہے اور جو انسانیت کے وجود کو مجروح کرسکتی ہے۔ اور یہ عین مصنوعی ذہانت ہے کہ ، کسی بھی دوسری ٹکنالوجی کے مقابلے میں ، ہمارے معاشرے میں تیزی سے ترقی کر رہی ہے اور اس کے نتیجے میں صحت کی دیکھ بھال کی خدمات کو بہتر بنانے ، زراعت کی استعداد کار میں اضافہ ، آب و ہوا کی تبدیلی کو کم کرنے اور پیداوار کی استعداد کار کو بہتر بنانے میں ہماری زندگی بدل رہی ہے۔ حفاظت کے پہلوؤں میں اضافے کے ساتھ پیش گوئ تجزیہ کے ذریعے نظام۔ تاہم ، اسی وقت ، مصنوعی ذہانت اپنے ساتھ نئے خطرات لاتی ہے جو مبہم فیصلہ سازی کے طریقہ کار ، جنس پر مبنی ممکنہ امتیاز ، نجی زندگی میں دخل اندازی یا مجرمانہ مقاصد کے لئے استعمال ہونے والے آلات کے استعمال سے منسلک ہیں۔ EI ٹکنالوجی طاقتور ہے کیونکہ یہ شفاف ہوچکی ہے ، اور ہم سبھی ان الات پر انحصار کرتے ہیں جن کی ہم اب اپنے تکنیکی اور ادراک مصنوعی مصنوعی اعضاء کے طور پر بیان کرسکتے ہیں۔ اس وجہ سے ہم ان لوگوں کے ذریعہ ، جو غیر اخلاقی مقاصد کے لئے یا مجرمانہ مقاصد کے لئے ٹکنالوجی کا استعمال کرتے ہیں ، زیادہ کمزور ہوگئے ہیں۔

یہ وہ وجوہات ہیں جنہوں نے آئی ای کے نظم و ضبط کے لئے یورپی ہم آہنگی کی ضرورت کی طرف دھکیل دیا ہے اور اس کی وجہ انسانی اور اخلاقی مضمرات ہیں ، جو مصنوعی ذہانت میں شامل ہیں ، جدت کے لئے دیئے گئے بڑے کے استعمال کو بہتر بنانے کے لئے گہری عکاسی کی ضرورت کے ساتھ ، جو ایک طرف ایک لازمی ضابطے کی ضبطی اور سرمایہ کاری کی ضرورت کی وجہ سے ہے جس کا مقصد ایک طرف دوئم مقصد کو حاصل کرنا ہے ، یعنی ایک طرف ، AI کا وسیع پیمانے پر استعمال اور ، دوسری طرف ، نئی ڈیجیٹل ٹکنالوجی سے وابستہ ہر ممکنہ خطرات کو کم کرنے کے لئے۔ .

یہ 25 اپریل 2018 اور 7 دسمبر 2018 کی مواصلات کی گہری وجوہات ہیں ، جس کے ساتھ یوروپی کمیشن نے مصنوعی ذہانت (AI) کے بارے میں اپنا نظریہ پیش کیا ، جس نے بطور "AI" کو یورپ میں تیار کردہ 'اخلاقیات ، محفوظ اور منتقلی "کے نام سے بپتسمہ دیا۔

کمیشن کا نقطہ نظر تین ستونوں پر مبنی ہے: 1) اس کی افزائش کو فروغ دینے کے لئے اے آئی میں سرکاری اور نجی سرمایہ کاری میں اضافہ ، 2) معاشی و اقتصادی تبدیلی کی تیاری کے لئے اور 3) یوروپی اقدار کو مضبوط بنانے کے لئے ایک مناسب اخلاقی اور قانونی فریم ورک کو یقینی بنانے کے لئے۔ اس وژن کے نفاذ میں معاونت کے لئے ، کمیشن نے مصنوعی ذہانت پر ایک اعلی سطح کا ماہر گروپ قائم کیا ، ایک آزاد گروپ جس میں دو دستاویزات تیار کرنے کا کام سونپا گیا تھا: 1) اے آئی کے اخلاقی رہنما خطوط اور 2) سرمایہ کاری کی سفارشات اور سیاست۔

گروپ کے لئے ، AI کے لئے اخلاقی رہنما خطوط سے متعلق دستاویز کے سلسلے میں ، یہ بات ذہن میں رکھنی چاہئے کہ اے آئی نظام ، افراد اور معاشرے کو ٹھوس فوائد کی پیش کش کرتے ہوئے ، ابھی بھی خطرات میں مبتلا ہے اور اس کے منفی اثرات بھی ہیں ، یہاں تک کہ پیش گوئی کرنا بھی مشکل ہے۔ ، مثال کے طور پر جمہوریت ، قانون کی حکمرانی ، انصاف کی تقسیم یا خود انسانی ذہن پر۔ یہی وجہ ہے کہ ماہرین کے گروپ کے مطابق ، خطرات کو کم کرنے کے ل appropriate مناسب اقدامات کرنے کی ضرورت ہے ، اس طرح کہ ان کی حد کے متناسب ہو اور ان پر عمل درآمد کو یقینی بنانے کے ل methods طریقوں پر غور کیا جائے۔ سب سے پہلے ، ماہرین کے لئے یہ ضروری ہے کہ وہ AI اور اخلاقیات میں ماہرین کی نئی نسل کی تربیت کے ل AI ، اے آئی سسٹم کی تشخیص اور تقاضوں کی تعمیل کے حصول کی حمایت کے لئے ، تحقیق اور جدت کی حوصلہ افزائی کریں۔ اس کے نتیجے میں ، اسٹیک ہولڈرز کو سسٹم کی صلاحیتوں اور حدود کے بارے میں واضح طور پر آگاہ کریں۔ شفاف ہونے کے ناطے ، اے آئی سسٹم کی سراغ رساں اور تصدیق کی سہولت فراہم کرنا ، خاص طور پر تنقیدی سیاق و سباق یا حالات میں ، لازمی بننے کے ساتھ ہی اے آئی سسٹم کے پورے زندگی کے چکر میں اسٹیک ہولڈرز کو شامل کرنا اور تربیت اور تعلیم کو فروغ دینا تاکہ تمام اسٹیک ہولڈرز کو تربیت دی جائے اور باخبر کیا جائے۔ ثقہ AI کے بارے میں مؤخر الذکر سے ، یہ ایک قابل اعتماد AI رکھنے کی ضرورت ہے ، اس بات پر زور دیا جانا چاہئے کہ لوگوں اور کمپنیوں کے لئے ، خود نظاموں کی ترقی ، تقسیم اور استعمال کے لئے وشوسنییتا لازمی شرط ہے۔ بصورت دیگر متعلقہ ٹیکنالوجیز کے استعمال میں رکاوٹ پیدا ہوسکتی ہے اور یوں ممکنہ معاشی اور معاشی فوائد سست ہوجائیں گے۔ اعتماد ، لہذا ، اے آئی سسٹم کی ترقی ، تقسیم اور استعمال میں نہ صرف ٹکنالوجی کی اندرونی خصوصیات ، بلکہ تکنیکی اور معاشرتی نظام کی خصوصیات کی بھی فکر ہے۔ اس طرح قائم ورکنگ گروپ ، اپنی پہلی دستاویز میں ، قابل اعتماد مصنوعی ذہانت کے لئے رہنما اصول فراہم کرتا ہے کہ یہ تین اجزاء پر مبنی ہونا چاہئے۔

ان کی نشاندہی کی گئی ہے: الف) قانونی حیثیت میں ، اے آئی جو مصنوعی ذہانت ہے مخصوص معاملے میں لاگو تمام قوانین اور قواعد و ضوابط سے مشروط ہے۔ b) اخلاقیات ، AI کو ہمیشہ اخلاقیات کے ضابطہ اخلاق اور اس سے متعلق اخلاقی اصولوں اور اقدار کو ہمیشہ ذہن میں رکھنے کے لئے سمجھا جائے۔ ج) مضبوطی ، تکنیکی اور معاشرتی نقطہ نظر سے ، یہاں تک کہ بہترین نیتوں کے باوجود ، اے آئی سسٹم غیر ارادی نقصان کا سبب بن سکتا ہے۔ اب مذکورہ بالا ہر ایک اجزا اپنے آپ میں ضروری ہے لیکن اس کے باوجود قابل اعتماد مصنوعی ذہانت کے ل. کافی نہیں ہے۔ یہ تینوں اجزا بنیادی طور پر اسٹیک ہولڈرز کا مقصد ہیں اور یہ اس بات کا پابند اشارے ہیں کہ مذکورہ بالا اخلاقی اصولوں کو معاشرتی اور تکنیکی نظاموں میں کس طرح عمل میں لایا جاسکتا ہے۔

بنیادی حقوق پر مبنی نقطہ نظر سے شروع کرتے ہوئے ، سب سے پہلے ، اخلاقی اصولوں اور ان سے وابستہ اقدار کی نشاندہی کی جارہی ہے جن کو اے آئی سسٹم کی ترقی اور تقسیم اور استعمال میں احترام کرنا ضروری ہے اور اس کے بعد قابل اعتبار AI پیدا کرنے کے طریقوں پر اشارے پر آگے بڑھیں۔ ان سات تقاضوں کا انحطاط جس کو اے آئی سسٹم کو مطمئن کرنا چاہئے اور جن کے نفاذ کے لئے تکنیکی اور غیر تکنیکی طریقے استعمال کیے جاسکتے ہیں اور جن کی نشاندہی کی جاتی ہے: 1) - انسانی مداخلت اور نگرانی میں۔ 2) - تکنیکی اور حفاظتی مضبوطی میں ، 3) - ڈیٹا پرائیویسی اور گورننس میں ، 4) شفافیت میں ، 5) تنوع ، عدم تفریق اور انصاف پسندی ، 6) معاشرتی اور ماحولیاتی بہبود اور 7) - میں 'احتساب. آخر میں ، ماہر گروپ نے AI کی وشوسنییتا کا اندازہ کرنے کے لئے ایک چیک لسٹ کی تجویز پیش کی جو مندرجہ بالا درج سات ضروریات کو آپریشنل بنانے میں مدد کرسکتی ہے۔ آخر میں ، دستاویز کے آخری حصے میں ، فائدہ مند مواقع اور سنگین خدشات کی مثالیں جن سے اے آئی کے نظام میں اضافہ ہوتا ہے ، بیداری کے باوجود کہ یورپ کو ایک خاص فائدہ حاصل ہے ، جو شہریوں کو اپنی سرگرمیوں کے مرکز میں رکھنے کے عزم سے حاصل ہے۔

مشیل گورگا ، AIDR DPOs کے تال میل کے لئے وکیل اور رصدگاہی جزو

اخلاقیات اور مصنوعی ذہانت

| خبریں ', ایڈیشن 3 |