«Маск и компания» просят не запускать искусственный интеллект, чтобы избежать гонки по сценарию «Терминатора»

С открытым письмом, опубликованным некоммерческой Институт будущего жизни Elon Musk и тысяча других исследователей забили тревогу по поводу опасности искусственного интеллекта. Предложение с наибольшим влиянием — это предложение, которое ставит перед научным сообществом сильный вопрос: «Искусственный интеллект представляет глубокую опасность для общества и человечества, и по этой причине для обучения самых передовых систем потребуется перерыв не менее шести месяцев».

Илон Маск и другие ученые призывают к остановке или мораторию на правительства, чтобы избежать ужасногоСценарий Терминатора, чтобы разрешить разработку общих протоколов безопасности.

Соучредитель Apple подписал письмо Стив Возняк но и те из Pinterest e Skype, а также основатели стартапов в области искусственного интеллекта Стабильность ИИ e Персонажи.ai. Письмо подписали более тысячи менеджеров и экспертов по всему миру.

Маск не хочет демонизировать новая и появляющаяся технология еще и потому, что она хочет улучшить интеллектуальный мозг с помощью Neuralink после завоевания космоса с помощью SpaceX и автомобилестроения с помощью Tesla. Маск вложил значительные финансовые средства в связанные с Microsoft компании, занимающиеся искусственным интеллектом, чтобы не отставать от более продвинутого будущего, которое все стремятся сделать стратегически сдерживающим и привлекательным.

Подписывайтесь на нашу новостную рассылку!

Однако пока опасения вызывают самые передовые системы GPT-4, чат-бот OpenAI, способный рассказывать анекдоты и легко сдавать экзамены, например, на юриста, пишет Ansa.

«Мощные системы искусственного интеллекта следует разрабатывать только тогда, когда есть уверенность в том, что их эффекты будут положительными, а их риски управляемыми»., - подчеркивается в письме. Послание прагматично, когда в нем говорится о «безудержное стремление разрабатывать и развертывать мощные цифровые умы, которые никто, даже их создатели, не может понять, предсказать и контролировать.

Китай уже предупредил США: «искусственный интеллект не становится инструментом или оружием для идеальной техно-тоталитарной слежки по Оруэллу.».

Искусственный интеллект может привести к разрушению мира, напомнив о многих научно-фантастических фильмах, и по этой причине, чтобы избежать одной лишь мысли о катастрофических последствиях, громкие имена в сфере высоких технологий просят шестимесячный перерыв, чтобы использовать его для "совместная разработка и внедрение общих протоколов», обеспечивающих «безопасность» систем «вне всяких разумных сомнений». В письме содержится призыв к лабораториям искусственного интеллекта сосредоточиться на том, чтобы сделать больше «точным, прозрачным, заслуживающим доверия и справедливым» нынешних систем вместо того, чтобы бежать в сторону разработки еще более мощных средств. “Компания остановилась на других технологиях с потенциально катастрофическими последствиями. – продолжает письмо – . Мы можем сделать это и в этом случае. Давайте наслаждаться долгим летом искусственного интеллекта и не бросаться в осень неподготовленными».

Полный текст письма

Системы искусственного интеллекта с интеллектом, конкурирующим с человеком, могут представлять серьезную опасность для общества и человечества, как показывают обширные исследования и признают ведущие лаборатории искусственного интеллекта. Как говорится в широко одобренном Принципы Асиломар А.И.Усовершенствованный ИИ может представлять собой глубокое изменение в истории жизни на Земле, и его следует планировать и управлять им с соразмерной тщательностью и ресурсами.. К сожалению, такого уровня планирования и управления не существует, даже несмотря на то, что в последние месяцы лаборатории искусственного интеллекта застряли в неконтролируемой гонке по разработке и развертыванию все более мощных цифровых умов, которые никто — даже их создатели — не может понять. прогнозировать или надежно контролировать.

Современные системы искусственного интеллекта в настоящее время становятся конкурентоспособными в решении общих задач, и мы должны задать себе вопрос: Должен мы позволяем машинам наводнять наши информационные каналы пропагандой и неправдой? Должен мы автоматизируем все рабочие места, в том числе выполняющие? Должен мы развиваем нечеловеческие умы, которые в конечном итоге могут превзойти нас численностью, перехитрить, устаревать и заменить нас? Должен мы рискуем потерять контроль над нашей цивилизацией? Такие решения не должны делегироваться неизбранным лидерам технологий. Мощные системы искусственного интеллекта следует разрабатывать только тогда, когда мы уверены, что их эффекты будут положительными, а риски управляемыми. Эта уверенность должна быть хорошо обоснована и возрастать с величиной потенциальных эффектов системы. OpenAI недавнее заявление об искусственном общем интеллекте, говорится, что «В какой-то момент может быть важно получить независимую оценку, прежде чем начинать обучение будущих систем, а для самых продвинутых усилий согласиться ограничить скорость роста вычислений, используемых для создания новых моделей». Мы согласны. Этот момент сейчас.

Следовательно, призываем все лаборатории ИИ немедленно приостановить как минимум на 6 месяцев обучение систем ИИ мощнее ГПТ-4. Эта пауза должна быть общедоступной и поддающейся проверке, и в ней должны участвовать все ключевые участники. Если такую ​​паузу нельзя ввести быстро, правительства должны вмешаться и ввести мораторий.

Лаборатории искусственного интеллекта и независимые эксперты должны использовать эту паузу для совместной разработки и внедрения набора общих протоколов безопасности для усовершенствованного проектирования и разработки искусственного интеллекта, которые тщательно проверяются и контролируются независимыми внешними экспертами. Эти протоколы должны гарантировать, что системы, придерживающиеся их, вне всяких разумных сомнений безопасны. Это делает не означают паузу в развитии ИИ в целом, просто шаг назад от опасной гонки к все более крупным непредсказуемым моделям черного ящика с новыми возможностями.

Исследования и разработки в области ИИ должны быть переориентированы на то, чтобы сделать сегодняшние мощные современные системы более точными, безопасными, интерпретируемыми, прозрачными, надежными, согласованными, заслуживающими доверия и лояльными.

Параллельно разработчики ИИ должны работать с политиками, чтобы значительно ускорить разработку надежных систем управления ИИ. Они должны как минимум включать: новые и дееспособные регулирующие органы, занимающиеся вопросами ИИ; надзор и отслеживание высокопроизводительных систем искусственного интеллекта и больших пулов вычислительных мощностей; системы происхождения и водяных знаков, помогающие отличить настоящие от синтетических и отслеживать утечки моделей; надежная экосистема аудита и сертификации; ответственность за вред, причиненный ИИ; надежное государственное финансирование технических исследований безопасности ИИ; и хорошо обеспеченные ресурсами институты для преодоления серьезных экономических и политических потрясений (особенно демократии), которые вызовет ИИ.

Человечество может наслаждаться процветающим будущим с ИИ. Добившись успеха в создании мощных систем ИИ, мы теперь можем наслаждаться «летом ИИ», во время которого мы пожинаем плоды, разрабатываем эти системы на благо всех и даем обществу возможность адаптироваться. Общество поставило на паузу другие технологии с потенциально катастрофическими последствиями для общества. Мы можем сделать это здесь. Наслаждаемся долгим летом с искусственным интеллектом, а не бросаемся в осень неподготовленными.

«Маск и компания» просят не запускать искусственный интеллект, чтобы избежать гонки по сценарию «Терминатора»