मैसिमिलियानो डी एलिया द्वारा
एक सप्ताह की गहन बैठकों और चर्चाओं के बाद, संसद और परिषद ने अंततः कृत्रिम बुद्धिमत्ता के उपयोग पर पहले वैश्विक नियामक ढांचे के लिए राजनीतिक स्तर पर एक समाधान ढूंढ लिया है। मुख्य उद्देश्य इस क्रांतिकारी तकनीक के असाधारण अवसरों को यूरोपीय संघ के नागरिकों के मौलिक अधिकारों की रक्षा की प्राथमिकता के साथ संतुलित करना था। नए नियम सबसे कमजोर लोगों की सुरक्षा पर ध्यान केंद्रित करते हुए स्कूलों, कार्यस्थलों, अस्पतालों और अदालतों जैसे संवेदनशील संदर्भों में लागू किए जाएंगे।
वार्ता के दौरान, संसद ने अधिक प्रतिबंधात्मक नियमों की मांग की, जबकि सरकारों ने सुरक्षा और आर्थिक क्षेत्र दोनों के संदर्भ में पैंतरेबाजी की गुंजाइश पर जोर दिया। अब जो समझौता हुआ है, उसमें सार्वजनिक स्थानों पर पुलिस और सुरक्षा अधिकारियों द्वारा दूरस्थ बायोमेट्रिक पहचान के लिए कुछ अपवादों के साथ यूरोपीय स्तर पर प्रतिबंध लगाने का प्रावधान है। इसके अलावा, उच्च जोखिम वाले एआई सिस्टम का उपयोग करने वालों के लिए अधिक विस्तृत मूल्यांकन करने की आवश्यकता होगी।
के बारे मेंजनरेटिव आर्टिफिशियल इंटेलिजेंससमझौता डेटा गुणवत्ता सुनिश्चित करने, कॉपीराइट कानूनों के अनुपालन को सत्यापित करने और कृत्रिम ध्वनियों, छवियों और ग्रंथों की स्पष्ट रूप से पहचान करने के लिए सामान्य नियम स्थापित करता है। सख्त प्रतिबंध केवल अधिक शक्तिशाली प्रणालियों पर लागू होंगे।
विधायी पाठ, जो सिद्धांतों का उल्लंघन करने वाली कंपनियों के खिलाफ वित्तीय प्रतिबंधों का प्रावधान करता है, को संसद और परिषद द्वारा अंतिम वोट से पहले अधिक विवरण की आवश्यकता होगी। यह विनियमन दो वर्षों में पूरी तरह से लागू होने की उम्मीद है, जिससे यूरोपीय संघ कृत्रिम बुद्धिमत्ता को विनियमित करने वाला दुनिया का पहला क्षेत्राधिकार बन जाएगा।
माइक्रोचिप आपातकाल
विनियामक प्रगति के बावजूद, यूरोप माइक्रोचिप के मोर्चे पर पीछे है: केवल फ्रांस और जर्मनी इस अंतर को भरने के लिए आशाजनक स्टार्ट-अप में निवेश कर रहे हैं। यूरोपीय चिप्स अधिनियम का लक्ष्य 2030 तक माइक्रोचिप्स के उत्पादन को दोगुना करना है। इटली, आज तक, स्पष्ट रणनीति की कमी को दर्शाता है और उदाहरण के लिए, "के निर्माण के साथ शुरुआत करके तेजी से आगे बढ़ना होगा"नींव मॉडल“राष्ट्रीय सांस्कृतिक अवसरों को दूसरों से पहले रोकने में सक्षम नागरिक।
एआई अधिनियम
एल 'आर्टिफिशियल इंटेलिजेंस एक्ट कृत्रिम बुद्धिमत्ता प्रणालियों को चार जोखिम श्रेणियों में विभाजित करता है, कम जोखिम वाले लोगों के लिए लाभ और उच्च जोखिम वाले लोगों के लिए विशिष्ट दायित्व। अस्वीकार्य जोखिम वाले सिस्टम स्पष्ट रूप से निषिद्ध हैं, जबकि पारदर्शिता के जोखिम का मूल्यांकन "जैसे मामलों में किया जाता है"गहरा झूठ".
का संबंध है बॉयोमीट्रिक मान्यता, केवल विशिष्ट संदर्भों में ही अनुमति है, जैसे पीड़ितों के लिए लक्षित खोज या आतंकवादी खतरों की रोकथाम। बायोमेट्रिक वर्गीकरण प्रणालियों में संवेदनशील विशेषताओं को शामिल करने वाली प्रथाएँ निषिद्ध हैं।
समझौता "को नियंत्रित करता है"नींव मॉडल“, बाज़ार तक पहुँचने से पहले उच्च प्रभाव वाले लोगों के लिए निवारक मूल्यांकन की आवश्यकता होती है। उच्च जोखिम वाली प्रणालियों के लिए, दायित्व मॉडल मूल्यांकन से लेकर साइबर सुरक्षा तक होते हैं। अस्वीकार्य जोखिम की प्रणालियाँ, जैसे कि वे जो मानव व्यवहार में हेरफेर करती हैं, स्पष्ट रूप से निषिद्ध हैं, जैसे कि वे जो "सामाजिक स्कोरिंग" कंपनियों और सरकारों द्वारा.
इसके अलावा, पाठ का उल्लेख है ChatGPT di OpenAI में से एक के रूप में जनरेटिव एआई जबकि, अधिक शक्तिशाली मिथुन राशि Google की ओर से इसे एक महत्वपूर्ण प्रतिक्रिया के रूप में प्रस्तुत किया गया है। यूरोप में, क्युताई अनुसंधान प्रयोगशाला पर ध्यान केंद्रित किया गया हैखुला स्रोत और कृत्रिम बुद्धिमत्ता के लोकतंत्रीकरण पर। चीन से, एर्नी बॉट के एक ऐप के रूप में उभरता है होम एआई चैटजीपीटी के समान कार्यक्षमता के साथ, पाठ वार्तालाप, प्रश्नों के उत्तर देने और गणित की समस्याओं को हल करने में विशेषज्ञता।
हमारे समाचार पत्र के सदस्य बनें!