مصنوعي استخبارات چلیږي پداسې حال کې چې مقررات ورو کیږي

د مسیمیلیلو ډای الیا لخوا

د ټیکنالوژیک انقلاب له پیل څخه یو کال وروسته ، د مطالعې شوي سیسټمونو غوښتنلیکونو لخوا وړاندیز شوي نوي فرصتونو سره تړاو لري ، د مصنوعي استخباراتو (AI) الګوریتمونو له لارې ، اخالقي او امنیتي اندیښنې په ګوته شوي ، پشمول د خطرونو لکه ناسم معلومات او د ټیکنالوژۍ کنټرول له لاسه ورکول. د ماتیدو تعقیب افسوس او په AI کې یو مخکښ شرکت OpenAI کې د انسان دوستانه او سوداګریزو برخو ترمنځ جبري ایستل، د دې انقلاب مستقیمه پایله ده چې په عامو اتباعو، لوی شرکتونو بلکې هغه هیوادونه هم اغیزمن کوي ​​​​چې هڅه کوي د ترهګرو ډلو لخوا د AI ناوړه کارونې مخه ونیسي. سایبر جنایتکاران.

په سکټور کې د لومړي شرکت بنسټ ایښودونکی، Open AI، سیم عثمان، په پیل کې هدف لرونکی ګټه نشته ته پام اړولی دی د سوداګرۍ د غیر معمولي نوي بازار فرصتونو له امله. د لومړي پلیټ فارم بریالیتوب د GPT چیٹ دا په حقیقت کې، د جوړښت تضادونه پراخ کړي چې د ابتدايي هدف سره سره د غیر منظم پانګوالیزم مخنیوی و، په ځان کې د یو واقعیت اداره کول وموندل چې د ګټې اعظمي کولو لپاره ژمن دي.

OpenAI، لومړنی سازمان دی چې په بازار کې د AI نوښت ماډل وړاندیز کوي، چې د ChatGPT په نوم یادیږي، له همدې امله د مدیرانو په بورډ کې د خونړۍ داخلي مبارزې سره مخ شو، چې د دواړو خیریه برخې غړو او د سوداګرۍ - سوداګریزې برخې غړو څخه جوړ شوی و. د اخلاقو او ګټو په اړه تضادونه او مختلف لیدونه په زور سره راڅرګند شوي. په ځانګړې توګه، Altman، سره له دې چې د اخلاقي اندیښنو درلودو سره، په تدریجي ډول توازن په لور بدل کړ د سوداګرۍ، د مصنوعي استخباراتو لخوا وړاندیز شوي د بازار غیر معمولي فرصتونو پیژندل.

په OpenAI کې وروستۍ داخلي مبارزه د AI د راتلونکي تعریف کولو لپاره د لومړۍ جګړې په توګه تشریح شوې، چیرې چې سوداګریزې او سوداګریزې برخې د سوداګرۍ دا د اتحادیې او غیر انتفاعي څخه بهر شوي دي.

په هرصورت، موږ باید اوس سمدستي ننګونو ته ځواب ووایو، لکه د 2024 په ټاکنو کې د غلطو معلوماتو خطر، او د اپوکلپټیک سناریو خطر. خورا سخت شرایط چیرې چې ماشین (د عالي استخباراتو سره مجهز) کولی شي د انسان په پریکړو غالب شي، د ټرمینټر مفهوم پراخوي، په مکرر ډول د هغو کسانو لخوا رامینځته شوي چې د دې غیر کشف شوي ټیکنالوژۍ په وړاندې شکمن پاتې کیږي چې د ګډ نظر له مخې باید نړیوال تنظیمي بریکونه پلي شي. د بیرته راستنیدو پرته د غیر متوقع حالت څخه مخنیوی وکړئ.

د شرکتونو او حکومتونو ترمنځ د ګډو هڅو سره سره، په هرصورت، موږ د کافي دفاع پرته د راتلونکي مهم ټاکنیز مهال ویش (متحده ایالات، اروپايي اتحادیې او تایوان) په لور روان یو. په اروپا کې، د بیلګې په توګه، د AI قانون په اړه لاهم بحث شتون لري، یو سند چې باید د پلیټ فارمونو پراختیا او کارول تنظیم کړي چې د مصنوعي استخباراتو ماډلونه استثمار کوي. د اتباعو د محرمیت پورې اړوند ستونزو او د مخ پیژندنې بې توپیره کارونې تر مینځ ، سړک په داسې وخت کې لوړ دی چې په داسې وخت کې چې د دودیزو او راپورته کیدونکو زبرځواکونو ترمینځ د شدیدې شخړې وروسته د نړۍ نوی نظم رامینځته کیږي.

موږ د تنظیم کولو هڅه کوو

اروپایی اتحادیه. اروپایی اتحادیې ژمنه کړې چې د "AI قانون" له لارې د مصنوعي استخباراتو (AI) په تنظیم کې کلیدي لوبغاړی شي. راتلونکی ټریلاګ، چې د 6 دسمبر 2023 لپاره ټاکل شوی، د 2023 تر پایه د متن تصویب احتمال ټاکلو لپاره به خورا مهم وي.د هیروشیما AI پروسه "، د G7 مشرانو یوولس لارښود اصول او د AI پراختیا کونکو لپاره د چلند اصول اعلان کړل.

د لارښود اصولو هدف د پرمختلونکو AI سیسټمونو په پراختیا کې دخیل عامه او خصوصي سکتورونو پراختیا کونکو ، اکاډمیک ارګانونو ته لارښود چمتو کول دي. پدې کې د خطرونو ارزولو او کمولو لپاره اقدامات شامل دي، د سیسټم وړتیاوو او محدودیتونو کې روڼتیا، او د خطر پر بنسټ د حکومتدارۍ د پالیسیو وده. د چلند قانون د AI پراختیا کونکو لپاره عملي لارښوونې توضیح کوي، په ځانګړې توګه د ماډل شفافیت، د راپورونو خپرولو او په مدني ټولنه کې د معلوماتو شریکولو باندې ټینګار کوي.

د چلند قانون، چې په داوطلبانه توګه پلي کیږي، د پام وړ اهمیت لري ځکه چې دا سمدستي پلي کیږي او کولی شي په ټوله نړۍ کې وغځول شي. د AI قانون برخلاف، کوډ کولی شي د شرکتونو لخوا د پاملرنې او حساب ورکونې ارزونو د زیاتوالي په شرایطو کې د AI مقررات اغیزمن کړي.

امریکا. د متحده ایالاتو اجراییوي حکم ، د اکتوبر په 30 ، 2023 کې د ولسمشر جو بایډن لخوا صادر شوی ، د مصنوعي استخباراتو (AI) خوندي کارولو پورې اړوند مهم مسلې په ګوته کوي. دا په پراختیا کونکو باندې روڼتیا تحمیلوي، د حکومت سره د ازموینې پایلې شریکولو او سپارلو ته اړتیا لري. د معیارونو او ټیکنالوژۍ ملي انسټیټیوټ د خوندي AI ماډلونو لپاره د معیارونو ټاکلو دنده. سربیره پردې ، دا د ګمارلو له لارې د غلط معلوماتو مخنیوي باندې تمرکز کوي د سوداګرۍ ریاست تخنیکي لارښود چې د AI لخوا رامینځته شوي مینځپانګې اعتبار یقیني کړي.

حکم د مسلې مسله هم په ګوته کوي ادراکي تعصبونهپه حساسو سکټورونو کې د تبعیض د مخنیوي هڅه کوي. د AI سیسټمونو کې کارول شوي معیارونو بیاکتنې ته اړتیا ده ترڅو د هر ډول تعصب یا توپیر پیژندلو لپاره. سربیره پردې، په استخدام او پروسس کې د ټیکنالوژیو اغیزې په اړه ژوره مطالعه تمه کیږي غوره تمرین د احتمالي زیانونو کمولو او د ګټو اعظمي کولو لپاره.

درې اړخیز تړون. سربیره پردې، د ایټالیې، فرانسې او آلمان تر منځ د 19 نومبر 2023 یو غیر رسمي تړون شتون لري چې په تولیدي AI کې د بنسټ ماډلونو تنظیم کولو په اړه. دا تړون، د AI قانون د خطر پر بنسټ تګلارې څخه توپیر لري، د طرزالعملونو له لارې د لازمي ځان تنظیم کولو وړاندیز کوي. د AI پراختیا کونکو څخه غوښتل شوي چې مسوده چمتو کړي "ماډل کارتونهد موډلونو د وړتیاوو او محدودیتونو په اړه د معلوماتو سره. د AI حکومتدارۍ اداره به د دې طرزالعملونو پلي کولو څارنه وکړي. مهم ټکی دا دی چې د "لومړي سرغړونې" لپاره بندیزونه نه وړاندې کوي، یوازې د طرزالعملونو سیسټمیک سرغړونو لپاره بندیزونه خوندي کوي. دا تړون ممکن د غړو هیوادونو ترمنځ د AI قانون په اړه خبرې اترې اغیزمنې کړي، په بالقوه توګه د هغې پلي کول ځنډوي.

زموږ د خبرپاڼې لپاره ګډون وکړئ!

مصنوعي استخبارات چلیږي پداسې حال کې چې مقررات ورو کیږي