«ماسک و شرکت» برای اجتناب از رقابت به سمت سناریوی «ترمیناتور» از هوش مصنوعی خواسته است.

با نامه سرگشاده منتشر شده توسط غیرانتفاعی موسسه آینده زندگی Elon مشک و هزار محقق دیگر زنگ خطر را به صدا درآورده اند خطرات هوش مصنوعی. جمله ای که بیشترین تاثیر را دارد جمله ای است که یک سوال قوی برای جامعه علمی ایجاد می کند: هوش مصنوعی خطرات عمیقی را برای جامعه و بشریت به همراه دارد و به همین دلیل برای آموزش پیشرفته‌ترین سیستم‌ها به یک وقفه حداقل شش ماهه نیاز است.

ایلان ماسک و سایر محققان خواستار توقف یا تعلیق دولت ها برای جلوگیری از مخوف هستند.سناریوی ترمیناتور، به منظور امکان توسعه پروتکل های امنیتی مشترک.

یکی از بنیانگذاران اپل این نامه را امضا کرد استیو ووزنیاک (Steve Wozniak) بلکه کسانی که از پینترست e اسکایپو همچنین بنیانگذاران استارت آپ های هوش مصنوعی هوش مصنوعی پایداری e Characters.ai. بیش از هزار مدیر و کارشناس در سراسر جهان این نامه را امضا کردند.

ماسک نمی خواهد شیطان سازی کند یک فناوری جدید و نوظهور همچنین به این دلیل که می خواهد مغز هوشمند را با Neuralink پس از فتح فضا با SpaceX و خودرو با تسلا بهبود بخشد. ماسک از نظر مالی زیادی در شرکت‌های هوش مصنوعی مرتبط با مایکروسافت سرمایه‌گذاری کرده است تا با آینده پیشرفته‌تری که همه می‌خواهند از نظر استراتژیک بازدارنده و جذاب باشند، همگام شود.

با این حال، در حال حاضر، پیشرفته ترین سیستم ها باعث نگرانی هستند GPT-4آنسا می نویسد، ربات چت OpenAI قادر است جوک بگوید و به راحتی امتحاناتی مانند وکیل شدن را پشت سر بگذارد.

سیستم‌های هوش مصنوعی قدرتمند تنها زمانی باید توسعه یابند که اطمینان حاصل شود که تأثیرات آنها مثبت خواهد بود و خطرات آنها قابل کنترل خواهد بود.»، در نامه تاکید شده است. پیام زمانی که از یک " صحبت می کند عمل گرا است.عجله فراری برای توسعه و استقرار ذهن‌های دیجیتالی قدرتمندی که هیچ‌کس، حتی سازندگان آنها، نمی‌توانند آن‌ها را درک، پیش‌بینی و کنترل کنند.

چین قبلا به آمریکا هشدار داده است:هوش مصنوعی به ابزار یا سلاحی برای تکمیل نظارت تکنو-توتالیتر اورول تبدیل نمی شود.".

هوش مصنوعی می‌تواند با برانگیختن بسیاری از فیلم‌های علمی تخیلی منجر به نابودی جهان شود و به همین دلیل، برای جلوگیری از فکر عواقب فاجعه‌بار، نام‌های بزرگ فناوری پیشرفته خواهان یک وقفه شش ماهه برای استفاده از آن هستند. "توسعه و اجرای مشترک پروتکل های مشترک" که "امنیت" سیستم ها را "فراتر از هرگونه شک منطقی" تضمین می کند.. این نامه از آزمایشگاه‌های هوش مصنوعی می‌خواهد بر روی ایجاد بیشتر تمرکز کنند.دقیق، شفاف، معتبر و منصفانه" سیستم های فعلی به جای اینکه به سمت توسعه ابزارهای قدرتمندتر حرکت کنند. "این شرکت روی فناوری‌های دیگر با اثرات فاجعه‌بار بالقوه توقف کرده است - ادامه نامه -. در این مورد هم می توانیم انجام دهیم. بیایید از تابستان طولانی هوش مصنوعی لذت ببریم و بدون آمادگی وارد پاییز نشویم."

متن کامل نامه

سیستم‌های هوش مصنوعی با هوش رقابتی انسان‌ها می‌توانند خطرات عمیقی برای جامعه و بشریت ایجاد کنند، همانطور که تحقیقات گسترده نشان می‌دهد و آزمایشگاه‌های برتر هوش مصنوعی نیز تأیید کرده‌اند. همانطور که در به طور گسترده تایید شده است اصل اسلومار AIهوش مصنوعی پیشرفته می تواند نشان دهنده یک تغییر عمیق در تاریخ حیات روی زمین باشد و باید برای آن برنامه ریزی و با دقت و منابع متناسب مدیریت شود.. متأسفانه، این سطح از برنامه‌ریزی و مدیریت اتفاق نمی‌افتد، حتی اگر در ماه‌های اخیر آزمایشگاه‌های هوش مصنوعی در رقابتی خارج از کنترل برای توسعه و استقرار ذهن‌های دیجیتالی قدرتمندتر که هیچ‌کس - حتی سازندگان آنها - نمی‌توانند آن را درک کنند، قفل شده‌اند. پیش بینی، یا به طور قابل اعتماد کنترل کنید.

سیستم‌های هوش مصنوعی امروزی در حال تبدیل شدن به رقابت برای انسان در وظایف عمومی هستند و ما باید از خود بپرسیم: باید آیا اجازه می دهیم ماشین ها کانال های اطلاعاتی ما را با تبلیغات و دروغ پر کنند؟ باید ما تمام مشاغل، از جمله آنهایی که انجام می دهند را خودکار می کنیم؟ باید ما ذهن‌های غیرانسانی را پرورش می‌دهیم که ممکن است در نهایت از تعداد، پیشی گرفته، منسوخ و جایگزین ما شوند؟ باید آیا در خطر از دست دادن کنترل تمدن خود هستیم؟ چنین تصمیماتی نباید به رهبران فناوری منتخب واگذار شود. سیستم‌های هوش مصنوعی قدرتمند تنها زمانی باید توسعه یابند که مطمئن شویم اثرات آن‌ها مثبت و خطرات آن‌ها قابل مدیریت خواهد بود. این اطمینان باید به خوبی توجیه شود و با بزرگی اثرات بالقوه یک سیستم افزایش یابد. OpenAI بیانیه اخیر در مورد هوش عمومی مصنوعی، کشورهایی که در برخی موارد، ممکن است مهم باشد که قبل از شروع به آموزش سیستم‌های آینده، بررسی مستقل انجام شود، و برای پیشرفته‌ترین تلاش‌ها برای محدود کردن نرخ رشد محاسبات مورد استفاده برای ایجاد مدل‌های جدید موافقت شود. ما موافقیم. آن نقطه اکنون است.

از این رو، ما از همه آزمایشگاه‌های هوش مصنوعی می‌خواهیم که آموزش سیستم‌های هوش مصنوعی قدرتمندتر از GPT-6 را به مدت حداقل 4 ماه متوقف کنند.. این مکث باید عمومی و قابل تأیید باشد و همه بازیگران کلیدی را شامل شود. اگر چنین مکثی نمی تواند به سرعت اجرا شود، دولت ها باید وارد عمل شوند و یک تعلیق وضع کنند.

آزمایشگاه‌های هوش مصنوعی و کارشناسان مستقل باید از این مکث برای توسعه و اجرای مشترک مجموعه‌ای از پروتکل‌های ایمنی مشترک برای طراحی و توسعه هوش مصنوعی استفاده کنند که به‌شدت توسط کارشناسان مستقل خارجی بررسی و نظارت می‌شوند. این پروتکل‌ها باید اطمینان حاصل کنند که سیستم‌هایی که به آنها پایبند هستند، فراتر از یک شک منطقی ایمن هستند. این کار را انجام می دهد نه به معنای توقف توسعه هوش مصنوعی به طور کلی، صرفاً یک عقب‌نشینی از مسابقه خطرناک به سمت مدل‌های جعبه سیاه غیرقابل پیش‌بینی بزرگتر با قابلیت‌های نوظهور.

تحقیق و توسعه هوش مصنوعی باید بر روی ساختن سیستم‌های قدرتمند و پیشرفته امروزی دقیق‌تر، ایمن‌تر، قابل تفسیرتر، شفاف‌تر، قوی‌تر، همسوتر، قابل اعتمادتر و وفادارتر متمرکز شود.

به موازات آن، توسعه دهندگان هوش مصنوعی باید با سیاست گذاران برای تسریع چشمگیر توسعه سیستم های مدیریتی قوی هوش مصنوعی همکاری کنند. این موارد حداقل باید شامل موارد زیر باشد: مقامات نظارتی جدید و توانمند که به هوش مصنوعی اختصاص داده شده اند. نظارت و ردیابی سیستم‌های هوش مصنوعی بسیار توانمند و مجموعه‌های بزرگ توانایی محاسباتی؛ سیستم های منشأ و واترمارکینگ برای کمک به تشخیص واقعی از مصنوعی و ردیابی نشت مدل. یک اکوسیستم حسابرسی و صدور گواهینامه قوی؛ مسئولیت آسیب ناشی از هوش مصنوعی؛ بودجه عمومی قوی برای تحقیقات ایمنی فنی هوش مصنوعی؛ و موسسات دارای منابع مناسب برای مقابله با اختلالات اقتصادی و سیاسی چشمگیر (به ویژه در دموکراسی) که هوش مصنوعی ایجاد خواهد کرد.

بشریت می تواند با هوش مصنوعی از آینده ای شکوفا برخوردار شود. با موفقیت در ایجاد سیستم‌های هوش مصنوعی قدرتمند، اکنون می‌توانیم از «تابستان هوش مصنوعی» لذت ببریم که در آن پاداش‌ها را درو می‌کنیم، این سیستم‌ها را برای منافع آشکار همه مهندسی می‌کنیم و به جامعه فرصتی برای سازگاری می‌دهیم. جامعه دیگر فناوری‌ها را با اثرات فاجعه‌بار بالقوه بر جامعه متوقف کرده است. ما می توانیم این کار را در اینجا انجام دهیم. بیایید از یک تابستان طولانی هوش مصنوعی لذت ببریم، نه اینکه برای پاییز عجله کنیم.

«ماسک و شرکت» برای اجتناب از رقابت به سمت سناریوی «ترمیناتور» از هوش مصنوعی خواسته است.

| 'اخبار, شواهد 1 |