با نامه سرگشاده منتشر شده توسط غیرانتفاعی موسسه آینده زندگی Elon مشک و هزار محقق دیگر زنگ خطر را به صدا درآورده اند خطرات هوش مصنوعی. جمله ای که بیشترین تاثیر را دارد جمله ای است که یک سوال قوی برای جامعه علمی ایجاد می کند: هوش مصنوعی خطرات عمیقی را برای جامعه و بشریت به همراه دارد و به همین دلیل برای آموزش پیشرفتهترین سیستمها به یک وقفه حداقل شش ماهه نیاز است.
ایلان ماسک و سایر محققان خواستار توقف یا تعلیق دولت ها برای جلوگیری از مخوف هستند.سناریوی ترمیناتور، به منظور امکان توسعه پروتکل های امنیتی مشترک.
یکی از بنیانگذاران اپل این نامه را امضا کرد استیو ووزنیاک (Steve Wozniak) بلکه کسانی که از پینترست e اسکایپو همچنین بنیانگذاران استارت آپ های هوش مصنوعی هوش مصنوعی پایداری e Characters.ai. بیش از هزار مدیر و کارشناس در سراسر جهان این نامه را امضا کردند.
ماسک نمی خواهد شیطان سازی کند یک فناوری جدید و نوظهور همچنین به این دلیل که می خواهد مغز هوشمند را با Neuralink پس از فتح فضا با SpaceX و خودرو با تسلا بهبود بخشد. ماسک از نظر مالی زیادی در شرکتهای هوش مصنوعی مرتبط با مایکروسافت سرمایهگذاری کرده است تا با آینده پیشرفتهتری که همه میخواهند از نظر استراتژیک بازدارنده و جذاب باشند، همگام شود.
مشترک شدن در خبرنامه ما!
با این حال، در حال حاضر، پیشرفته ترین سیستم ها باعث نگرانی هستند GPT-4آنسا می نویسد، ربات چت OpenAI قادر است جوک بگوید و به راحتی امتحاناتی مانند وکیل شدن را پشت سر بگذارد.
سیستمهای هوش مصنوعی قدرتمند تنها زمانی باید توسعه یابند که اطمینان حاصل شود که تأثیرات آنها مثبت خواهد بود و خطرات آنها قابل کنترل خواهد بود.»، در نامه تاکید شده است. پیام زمانی که از یک " صحبت می کند عمل گرا است.عجله فراری برای توسعه و استقرار ذهنهای دیجیتالی قدرتمندی که هیچکس، حتی سازندگان آنها، نمیتوانند آنها را درک، پیشبینی و کنترل کنند.
چین قبلا به آمریکا هشدار داده است:هوش مصنوعی به ابزار یا سلاحی برای تکمیل نظارت تکنو-توتالیتر اورول تبدیل نمی شود.".
هوش مصنوعی میتواند با برانگیختن بسیاری از فیلمهای علمی تخیلی منجر به نابودی جهان شود و به همین دلیل، برای جلوگیری از فکر عواقب فاجعهبار، نامهای بزرگ فناوری پیشرفته خواهان یک وقفه شش ماهه برای استفاده از آن هستند. "توسعه و اجرای مشترک پروتکل های مشترک" که "امنیت" سیستم ها را "فراتر از هرگونه شک منطقی" تضمین می کند.. این نامه از آزمایشگاههای هوش مصنوعی میخواهد بر روی ایجاد بیشتر تمرکز کنند.دقیق، شفاف، معتبر و منصفانه" سیستم های فعلی به جای اینکه به سمت توسعه ابزارهای قدرتمندتر حرکت کنند. "این شرکت روی فناوریهای دیگر با اثرات فاجعهبار بالقوه توقف کرده است - ادامه نامه -. در این مورد هم می توانیم انجام دهیم. بیایید از تابستان طولانی هوش مصنوعی لذت ببریم و بدون آمادگی وارد پاییز نشویم."
متن کامل نامه
سیستمهای هوش مصنوعی با هوش رقابتی انسانها میتوانند خطرات عمیقی برای جامعه و بشریت ایجاد کنند، همانطور که تحقیقات گسترده نشان میدهد و آزمایشگاههای برتر هوش مصنوعی نیز تأیید کردهاند. همانطور که در به طور گسترده تایید شده است اصل اسلومار AI, هوش مصنوعی پیشرفته می تواند نشان دهنده یک تغییر عمیق در تاریخ حیات روی زمین باشد و باید برای آن برنامه ریزی و با دقت و منابع متناسب مدیریت شود.. متأسفانه، این سطح از برنامهریزی و مدیریت اتفاق نمیافتد، حتی اگر در ماههای اخیر آزمایشگاههای هوش مصنوعی در رقابتی خارج از کنترل برای توسعه و استقرار ذهنهای دیجیتالی قدرتمندتر که هیچکس - حتی سازندگان آنها - نمیتوانند آن را درک کنند، قفل شدهاند. پیش بینی، یا به طور قابل اعتماد کنترل کنید.
سیستمهای هوش مصنوعی امروزی در حال تبدیل شدن به رقابت برای انسان در وظایف عمومی هستند و ما باید از خود بپرسیم: باید آیا اجازه می دهیم ماشین ها کانال های اطلاعاتی ما را با تبلیغات و دروغ پر کنند؟ باید ما تمام مشاغل، از جمله آنهایی که انجام می دهند را خودکار می کنیم؟ باید ما ذهنهای غیرانسانی را پرورش میدهیم که ممکن است در نهایت از تعداد، پیشی گرفته، منسوخ و جایگزین ما شوند؟ باید آیا در خطر از دست دادن کنترل تمدن خود هستیم؟ چنین تصمیماتی نباید به رهبران فناوری منتخب واگذار شود. سیستمهای هوش مصنوعی قدرتمند تنها زمانی باید توسعه یابند که مطمئن شویم اثرات آنها مثبت و خطرات آنها قابل مدیریت خواهد بود. این اطمینان باید به خوبی توجیه شود و با بزرگی اثرات بالقوه یک سیستم افزایش یابد. OpenAI بیانیه اخیر در مورد هوش عمومی مصنوعی، کشورهایی که در برخی موارد، ممکن است مهم باشد که قبل از شروع به آموزش سیستمهای آینده، بررسی مستقل انجام شود، و برای پیشرفتهترین تلاشها برای محدود کردن نرخ رشد محاسبات مورد استفاده برای ایجاد مدلهای جدید موافقت شود. ما موافقیم. آن نقطه اکنون است.
از این رو، ما از همه آزمایشگاههای هوش مصنوعی میخواهیم که آموزش سیستمهای هوش مصنوعی قدرتمندتر از GPT-6 را به مدت حداقل 4 ماه متوقف کنند.. این مکث باید عمومی و قابل تأیید باشد و همه بازیگران کلیدی را شامل شود. اگر چنین مکثی نمی تواند به سرعت اجرا شود، دولت ها باید وارد عمل شوند و یک تعلیق وضع کنند.
آزمایشگاههای هوش مصنوعی و کارشناسان مستقل باید از این مکث برای توسعه و اجرای مشترک مجموعهای از پروتکلهای ایمنی مشترک برای طراحی و توسعه هوش مصنوعی استفاده کنند که بهشدت توسط کارشناسان مستقل خارجی بررسی و نظارت میشوند. این پروتکلها باید اطمینان حاصل کنند که سیستمهایی که به آنها پایبند هستند، فراتر از یک شک منطقی ایمن هستند. این کار را انجام می دهد نه به معنای توقف توسعه هوش مصنوعی به طور کلی، صرفاً یک عقبنشینی از مسابقه خطرناک به سمت مدلهای جعبه سیاه غیرقابل پیشبینی بزرگتر با قابلیتهای نوظهور.
تحقیق و توسعه هوش مصنوعی باید بر روی ساختن سیستمهای قدرتمند و پیشرفته امروزی دقیقتر، ایمنتر، قابل تفسیرتر، شفافتر، قویتر، همسوتر، قابل اعتمادتر و وفادارتر متمرکز شود.
به موازات آن، توسعه دهندگان هوش مصنوعی باید با سیاست گذاران برای تسریع چشمگیر توسعه سیستم های مدیریتی قوی هوش مصنوعی همکاری کنند. این موارد حداقل باید شامل موارد زیر باشد: مقامات نظارتی جدید و توانمند که به هوش مصنوعی اختصاص داده شده اند. نظارت و ردیابی سیستمهای هوش مصنوعی بسیار توانمند و مجموعههای بزرگ توانایی محاسباتی؛ سیستم های منشأ و واترمارکینگ برای کمک به تشخیص واقعی از مصنوعی و ردیابی نشت مدل. یک اکوسیستم حسابرسی و صدور گواهینامه قوی؛ مسئولیت آسیب ناشی از هوش مصنوعی؛ بودجه عمومی قوی برای تحقیقات ایمنی فنی هوش مصنوعی؛ و موسسات دارای منابع مناسب برای مقابله با اختلالات اقتصادی و سیاسی چشمگیر (به ویژه در دموکراسی) که هوش مصنوعی ایجاد خواهد کرد.
بشریت می تواند با هوش مصنوعی از آینده ای شکوفا برخوردار شود. با موفقیت در ایجاد سیستمهای هوش مصنوعی قدرتمند، اکنون میتوانیم از «تابستان هوش مصنوعی» لذت ببریم که در آن پاداشها را درو میکنیم، این سیستمها را برای منافع آشکار همه مهندسی میکنیم و به جامعه فرصتی برای سازگاری میدهیم. جامعه دیگر فناوریها را با اثرات فاجعهبار بالقوه بر جامعه متوقف کرده است. ما می توانیم این کار را در اینجا انجام دهیم. بیایید از یک تابستان طولانی هوش مصنوعی لذت ببریم، نه اینکه برای پاییز عجله کنیم.