توسط Massimiliano D'Elia
پس از یک هفته فشرده جلسات و بحثها، پارلمان و شورا بالاخره راهحل مناسب را در سطح سیاسی برای اولین معماری جهانی نظارتی در زمینه استفاده از هوش مصنوعی پیدا کردند. هدف اصلی ایجاد توازن بین فرصتهای فوقالعاده این فناوری انقلابی با نیاز اساسی به حمایت از حقوق اساسی شهروندان اتحادیه اروپا بود. قوانین جدید در زمینه های حساس مانند مدارس، محل کار، بیمارستان ها و دادگاه ها با تمرکز بر حمایت از آسیب پذیرترین افراد اعمال خواهد شد.
در طول مذاکرات، پارلمان به دنبال قوانین محدودتر بود، در حالی که دولت ها بر فضای مانور، هم از نظر امنیتی و هم در بخش اقتصادی اصرار داشتند. توافقی که اکنون به دست آمده است، اعمال ممنوعیتها را در سطح اروپایی با استثناهایی برای شناسایی بیومتریک از راه دور توسط پلیس و مقامات امنیتی در فضاهای عمومی فراهم میکند. علاوه بر این، برای کسانی که از سیستمهای هوش مصنوعی پرخطر استفاده میکنند، نیاز به انجام ارزیابیهای دقیقتر وجود خواهد داشت.
per quanto riguarda l 'هوش مصنوعی مولد، این سازش قوانین مشترکی را برای اطمینان از کیفیت داده ها، تأیید انطباق با قوانین حق چاپ و شناسایی واضح صداها، تصاویر و متون مصنوعی ایجاد می کند. محدودیت های سخت گیرانه فقط برای سیستم های قدرتمندتر اعمال می شود.
متن قانونی که تحریمهای مالی را علیه شرکتهایی که اصول را نقض میکنند پیشبینی میکند، قبل از رایگیری نهایی توسط پارلمان و شورا به جزئیات بیشتری نیاز دارد. انتظار میرود این مقررات تا دو سال دیگر اجرایی شود و اتحادیه اروپا را به اولین حوزه قضایی در جهان تبدیل کند که هوش مصنوعی را تنظیم میکند.
اورژانس ریزتراشه
علیرغم پیشرفت قوانین، اروپا همچنان در زمینه ریزتراشه عقب مانده است: فقط فرانسه و آلمان در استارت آپ های امیدوارکننده برای پر کردن شکاف سرمایه گذاری می کنند. قانون تراشههای اروپا قصد دارد تولید ریزتراشهها را تا سال 2030 دو برابر کند. ایتالیا تا به امروز فقدان استراتژی روشنی را نشان میدهد و باید به سرعت با شروع، به عنوان مثال، با ایجاد «مدل های پایهاتباع قادر به رهگیری فرصت های فرهنگی ملی قبل از دیگران.
قانون هوش مصنوعی
'Lقانون هوش مصنوعی سیستمهای هوش مصنوعی را به چهار دسته ریسک تقسیم میکند که مزایای آن برای کم خطر و تعهدات خاص برای پرخطر است. سیستم های با ریسک غیرقابل قبول به وضوح ممنوع هستند، در حالی که خطر شفافیت در مواردی مانند "جعلی عمیق”.
با توجه به تشخیص بیومتریک، فقط در زمینه های خاص مانند جستجوی هدفمند برای قربانیان یا جلوگیری از تهدیدات تروریستی مجاز است. اعمال مربوط به ویژگی های حساس در سیستم های طبقه بندی بیومتریک ممنوع است.
این توافقنامه تنظیم می کند "مدل های پایه"، نیاز به ارزیابی قبلی برای موارد با تاثیر بالا قبل از دسترسی به بازار. برای سیستم های پرخطر، تعهدات از ارزیابی مدل تا امنیت سایبری متغیر است. سیستمهای ریسک غیرقابل قبول، مانند آنهایی که رفتار انسان را دستکاری میکنند، به صراحت ممنوع هستند، همانطور که سیستمهایی که امکان «نمره گذاری اجتماعی” توسط شرکت ها و دولت ها
علاوه بر این، متن ذکر شده است GPT چت di OpenAI به عنوان یکی از هوش مصنوعی مولد قوی تر، در حالی که برج جوزا از طرف گوگل به عنوان یک پاسخ قابل توجه ارائه شده است. در اروپا، آزمایشگاه تحقیقاتی کیوتای بر رویمنبع باز و در مورد دموکراتیک کردن هوش مصنوعی. از چین، ارنی بات به عنوان یک برنامه از هوش مصنوعی خانه با عملکردی مشابه ChatGPT، متخصص در مکالمات متنی، پاسخگویی به سوالات و حل مسائل ریاضی.
مشترک شدن در خبرنامه ما!