आर्टिफिशियल इंटेलिजेंस चलता है जबकि विनियमन धीमा हो जाता है

मैसिमिलियानो डी एलिया द्वारा

तकनीकी क्रांति की शुरुआत के एक साल बाद, कृत्रिम बुद्धिमत्ता (एआई) एल्गोरिदम के माध्यम से अध्ययन किए गए सिस्टम के अनुप्रयोगों द्वारा पेश किए गए नए अवसरों से जुड़े, नैतिक और सुरक्षा संबंधी चिंताओं पर प्रकाश डाला गया है, जिसमें गलत सूचना और प्रौद्योगिकी पर नियंत्रण खोने जैसे जोखिम भी शामिल हैं। ब्रेकअप के बाद अफवाहें और परोपकारी और वाणिज्यिक घटकों के बीच एआई में अग्रणी कंपनी ओपनएआई के भीतर जबरन निष्कासन, इस क्रांति का प्रत्यक्ष परिणाम है जो आम नागरिकों, बड़ी कंपनियों को प्रभावित करता है, बल्कि उन राज्यों को भी प्रभावित करता है जो आतंकवादी समूहों द्वारा एआई के दुर्भावनापूर्ण उपयोग से बचने की कोशिश करते हैं और साइबर अपराधी.

इस क्षेत्र की पहली कंपनी ओपन एआई के संस्थापक, सैम ऑल्टमैन, प्रारंभ में लक्ष्य-उन्मुख कोई लाभ नहीं, की ओर ध्यान केन्द्रित किया है व्यापार असाधारण नए बाज़ार अवसरों के कारण। पहले मंच की सफलता ChatGPT इसने, वास्तव में, एक संरचना के अंतर्विरोधों को बढ़ाया, जिसका प्रारंभिक उद्देश्य अनियमित पूंजीवाद से बचना था, फिर भी उसने खुद को लाभ को अधिकतम करने के लिए प्रतिबद्ध वास्तविकता को नियंत्रित करते हुए पाया।

ओपनएआई, बाज़ार में एक अभिनव एआई मॉडल का प्रस्ताव करने वाला पहला संगठन, जिसे चैटजीपीटी कहा जाता है, को निदेशक मंडल के भीतर एक खूनी आंतरिक संघर्ष का सामना करना पड़ा, जो परोपकारी घटक और व्यापार-वाणिज्यिक घटक दोनों के सदस्यों से बना था। नैतिकता और लाभ के संबंध में विरोधाभास और भिन्न-भिन्न दृष्टिकोण सशक्त रूप से उभरे हैं। विशेष रूप से, ऑल्टमैन ने नैतिक चिंताओं के बावजूद, धीरे-धीरे संतुलन को की ओर स्थानांतरित कर दिया व्यापार, कृत्रिम बुद्धिमत्ता द्वारा पेश किए गए असाधारण बाज़ार अवसरों को पहचानना।

ओपनएआई में हालिया आंतरिक संघर्ष को एआई के भविष्य को परिभाषित करने वाली पहली लड़ाई के रूप में वर्णित किया गया है, जहां वाणिज्यिक और व्यवसाय-उन्मुख घटक व्यापार इसने सहयोगी और गैर-लाभकारी लोगों को पछाड़ दिया है।

हालाँकि, अब हमें तत्काल चुनौतियों का समाधान करना होगा, जैसे कि 2024 के चुनावों में दुष्प्रचार का जोखिम, और सर्वनाश परिदृश्यों का खतरा। चरम स्थितियाँ जहां मशीन (सुपरइंटेलिजेंस से सुसज्जित) मानवीय निर्णयों पर हावी हो सकती है, टर्मिनेटर अवधारणा को बढ़ाती है, उन लोगों द्वारा बार-बार उत्पन्न होती है जो इस अज्ञात तकनीक के सामने संशय में रहते हैं, जिस पर, साझा राय के अनुसार, सार्वभौमिक नियामक ब्रेक लगाए जाने चाहिए उन अप्रत्याशित स्थितियों से बचें जिनके पास वापसी का कोई रास्ता नहीं है।

हालाँकि, कंपनियों और सरकारों के बीच सहयोगात्मक प्रयासों के बावजूद, हम पर्याप्त सुरक्षा के बिना अगली महत्वपूर्ण चुनावी समय सीमा (यूएसए, ईयू और ताइवान) की ओर बढ़ रहे हैं। उदाहरण के लिए, यूरोप में, एआई अधिनियम के बारे में अभी भी बहस चल रही है, एक दस्तावेज़ जिसे कृत्रिम बुद्धिमत्ता मॉडल का फायदा उठाने वाले प्लेटफार्मों के विकास और उपयोग को विनियमित करना चाहिए। नागरिकों की गोपनीयता से संबंधित समस्याओं और चेहरे की पहचान के अंधाधुंध उपयोग के बीच, रास्ता कठिन है, ऐसे समय में जब पारंपरिक और उभरती महाशक्तियों के बीच तीव्र संघर्ष के बाद एक नई विश्व व्यवस्था स्थापित की जा रही है।

हम विनियमित करने का प्रयास करते हैं

यूरोपीय संघ. यूरोपीय संघ "एआई अधिनियम" के माध्यम से आर्टिफिशियल इंटेलिजेंस (एआई) के विनियमन में एक प्रमुख खिलाड़ी बनने के लिए प्रतिबद्ध है। 6 दिसंबर 2023 के लिए निर्धारित अगली त्रयी, 2023 के अंत तक पाठ को मंजूरी देने की संभावना निर्धारित करने के लिए महत्वपूर्ण होगी। "के संदर्भ में"हिरोशिमा एआई प्रक्रिया", G7 नेताओं ने AI डेवलपर्स के लिए ग्यारह मार्गदर्शक सिद्धांतों और एक आचार संहिता की घोषणा की।

मार्गदर्शक सिद्धांतों का उद्देश्य उन्नत एआई सिस्टम के विकास में शामिल डेवलपर्स, शैक्षणिक निकायों और सार्वजनिक और निजी क्षेत्रों को मार्गदर्शन प्रदान करना है। इनमें जोखिमों का आकलन करने और उन्हें कम करने, सिस्टम क्षमताओं और सीमाओं में पारदर्शिता और जोखिम-आधारित शासन नीतियों को बढ़ावा देने के उपाय शामिल हैं। आचार संहिता एआई डेवलपर्स के लिए व्यावहारिक मार्गदर्शन का विवरण देती है, जिसमें मॉडल पारदर्शिता, रिपोर्ट प्रकाशित करने और नागरिक समाज में जानकारी साझा करने पर विशेष जोर दिया गया है।

स्वैच्छिक आधार पर लागू होने वाली आचार संहिता का बहुत महत्व है क्योंकि यह तुरंत लागू होती है और विश्व स्तर पर विस्तारित हो सकती है। एआई अधिनियम के विपरीत, कोड कंपनियों द्वारा बढ़ते ध्यान और जवाबदेही आकलन के संदर्भ में एआई के विनियमन को प्रभावित कर सकता है।

अमेरिका. राष्ट्रपति जो बिडेन द्वारा 30 अक्टूबर, 2023 को जारी अमेरिकी कार्यकारी आदेश, आर्टिफिशियल इंटेलिजेंस (एआई) के सुरक्षित उपयोग से संबंधित महत्वपूर्ण मुद्दों को संबोधित करता है। यह डेवलपर्स पर पारदर्शिता लागू करता है, जिसके लिए परीक्षण परिणामों को सरकार के साथ साझा करने और जिम्मेदारी सौंपने की आवश्यकता होती है राष्ट्रीय मानक और प्रौद्योगिकी संस्थान सुरक्षित एआई मॉडल के लिए मानकों को परिभाषित करने का कार्य। इसके अलावा, यह असाइन करके गलत सूचना को रोकने पर ध्यान केंद्रित करता है व्यापार महकमा एआई-जनित सामग्री की प्रामाणिकता सुनिश्चित करने के लिए तकनीकी मार्गदर्शिका।

आदेश इस मुद्दे को भी संबोधित करता है संज्ञानात्मक पूर्वाग्रहसंवेदनशील क्षेत्रों में भेदभाव से बचने की कोशिश की जा रही है। किसी भी पूर्वाग्रह या असमानता की पहचान करने के लिए एआई सिस्टम में उपयोग किए गए मानदंडों की समीक्षा आवश्यक है। इसके अलावा, रोजगार और प्रसंस्करण पर प्रौद्योगिकियों के प्रभाव पर गहन अध्ययन अपेक्षित है सबसे अच्छा अभ्यास संभावित नुकसान को कम करने और लाभ को अधिकतम करने के लिए।

त्रिराष्ट्रीय समझौता. इसके अलावा, जेनरेटर एआई में फाउंडेशन मॉडल के विनियमन के संबंध में इटली, फ्रांस और जर्मनी के बीच 19 नवंबर 2023 को एक अनौपचारिक समझौता हुआ है। यह समझौता, एआई अधिनियम के जोखिम-आधारित दृष्टिकोण से अलग, आचार संहिता के माध्यम से अनिवार्य स्व-नियमन का प्रस्ताव करता है। एआई डेवलपर्स को "ड्राफ्ट" के लिए बुलाया जाता हैमॉडल कार्डमॉडलों की क्षमताओं और सीमाओं की जानकारी के साथ। एक एआई शासन निकाय इन आचार संहिता के अनुप्रयोग की निगरानी करेगा। महत्वपूर्ण बात यह है कि "पहले उल्लंघन" के लिए प्रतिबंधों का प्रावधान नहीं है, केवल आचार संहिता के व्यवस्थित उल्लंघन के लिए प्रतिबंधों को आरक्षित किया गया है। यह समझौता सदस्य देशों के बीच एआई अधिनियम पर बातचीत को प्रभावित कर सकता है, जिससे इसके अधिनियमन में संभावित देरी हो सकती है।

आर्टिफिशियल इंटेलिजेंस चलता है जबकि विनियमन धीमा हो जाता है