Этика и искусственный интеллект

(Микеле Горга) Оценивая путь человечества от его происхождения до наших дней, мы можем достичь уверенности в том, что наша реальность технологического развития не линейна, а экспоненциальна, и это в силу фундаментального закона, который идет под названием закон ускорения отдачи. Последний закон, который можно понять, только если мы соединим точки на декартовой плоскости: по оси абсцисс x (по горизонтали) мы устанавливаем время, по оси ординат (по вертикали) y - уровень технического прогресса. достигнуто в определенную дату. Однако в результате получается не более или менее наклонная прямая линия, а экспоненциальная кривая, и, основываясь на тенденции, которую мы можем вывести из нее, мы можем полагать, что через несколько лет она станет прямой линией, параллельной ординате. Таким образом, больше не будет никакой точки соприкосновения с ординатой, и следствием этого будет то, что мы больше не будем знать абсциссу, где мы находимся в каждый отдельный момент, и, следовательно, мы перейдем в состояние, которое квантовая физика называет сингулярностью.

Под «сингулярностью» мы подразумеваем то состояние, в котором действуют четыре фундаментальные силы природы, а именно: гравитация; электромагнетизм; сильная сила, объединяющая протоны в ядре атома; слабая сила, которая управляет принципом радиоактивного распада. Мы можем идентифицировать эти силы с четырьмя соответствующими буквами, то есть G генетики; R робототехники; нано технологии; Я искусственного интеллекта.

Следуя по порядку, G «генетики» позволяет нам идентифицировать всех живых существ, генетический код позволит нам улучшить расу в соответствии с нормотипом, который в данный исторический момент мораль и действующая идеология позволят приземление и способность быть для человека тем, кем он хочет быть, независимо от того, кем он является, и, следовательно, генетически модифицированными организмами на основе того, что мораль и политика позволят в относительный исторический период. Обращаясь к R в слове «Робототехника», мы должны иметь в виду не то, чем является сегодня робототехника, а передовые машины, которые будут обладать знанием пространства и времени и способны воспринимать человеческие аспекты, андроидов, способных обладать эмоциональным сознанием [7 ]. Итак, робототехника не только как интеллектуальные машины или помощники по работе, но и как сущности, способные в профессиональной деятельности взаимодействовать с человеком. Последствиями, которые робототехника будет иметь для общества и политики, будут социальные движения, направленные на то, чтобы сделать Android-устройства и вообще все творения признанными для животного и растительного мира, окружающей среды и т. Д., Также в этом случае мораль и политика будут вынужден занять позицию.

Переходя к N для «нанотехнологии», мы должны иметь в виду бесконечно микротехнологию, жидкие элементы, которые мгновенно могут изменять внешнюю и внутреннюю часть реальности, заменяя и видоизменяя само пространство человеческого существования. Наконец, под «искусственным интеллектом» мы имеем в виду то, что исторически можно сравнить со Святым Граалем - в смысле ИИ как алгоритма жизни и вечного знания - или Deus ex-machina [8], наиболее опасной технологией, а для сценариев Будущее, технология настолько агрессивна, что подорвет систему ценностей и основы человеческой цивилизации и человека, как это исторически стало определяться с течением времени.

Фактически, искусственный интеллект основан на алгоритмах, которые могут быть доминирующими, контролирующими, карьеристскими, потребительскими, конкурентными, всеми мощными технологиями для человеческого старения и которые могут подорвать само существование человечества. И именно искусственный интеллект быстрее, чем любая другая технология, быстро развивается в нашем обществе и, следовательно, меняет нашу жизнь, улучшая медицинские услуги, повышая эффективность сельского хозяйства, помогая смягчить последствия изменение климата и повышение эффективности производственных систем посредством прогнозного анализа с повышением аспектов безопасности. Однако в то же время искусственный интеллект несет с собой новые риски, связанные с непрозрачными механизмами принятия решений, возможной дискриминацией по признаку пола, вторжением в частную жизнь или использованием устройств, используемых в преступных целях. Технология EI является мощной, потому что она стала прозрачной, и мы все полагаемся на устройства, которые теперь можем определить как наши технологические и когнитивные протезы. По этой причине мы стали более уязвимыми из-за тех, кто использует технологии в неэтичных или преступных целях.

Это причины, которые привели к необходимости европейской координации дисциплины IE, и это связано с человеческими и этическими последствиями, присущими искусственному интеллекту, с необходимостью глубокого осмысления для улучшения использования больших технологий. дается для инноваций, которые в связи с необходимостью обязательной нормативной дисциплины и инвестиций, направленных на достижение двойной цели, а именно, способствовать, с одной стороны, широкому использованию ИИ, а с другой стороны, смягчить все возможные риски, связанные с новыми цифровыми технологиями.

Это глубокие причины, лежащие в основе сообщений от 25 апреля 2018 года и 7 декабря 2018 года, в которых Европейская комиссия представила свое видение искусственного интеллекта (ИИ), получившего название «ИИ, созданное в Европе», этика. безопасный и авангардный ».

Видение Комиссии основано на трех столпах: 1) увеличение государственных и частных инвестиций в ИИ для содействия его внедрению, 2) подготовка к социально-экономическим изменениям и 3) обеспечение адекватной этической и правовой базы для укрепления европейских ценностей. Для поддержки реализации этого видения Комиссия создала Экспертную группу высокого уровня по искусственному интеллекту, независимую группу, которой было поручено разработать два документа: 1) этические принципы для ИИ и 2) рекомендации по инвестициям. и политика.

Что касается документа, касающегося этических принципов ИИ, группа считает, что системы ИИ, хотя и предлагают конкретные преимущества для людей и общества, все же сопряжены с рисками и имеют негативные последствия, которые даже трудно предсказать. , например, о демократии, верховенстве закона, справедливости распределения или самом человеческом разуме. Вот почему, по мнению группы экспертов, необходимо принять соответствующие меры по снижению рисков, соразмерным их масштабам, и рассмотреть методы, обеспечивающие их реализацию. Прежде всего, для экспертов необходимо стимулировать исследования и инновации для поддержки оценки систем ИИ и достижения соответствия требованиям, распространения результатов, для подготовки нового поколения экспертов по этике ИИ. Следовательно, четко проинформируйте заинтересованные стороны о возможностях и ограничениях системы. Обеспечение прозрачности, облегчение прослеживаемости и проверяемости систем ИИ, особенно в критических контекстах или ситуациях, становится важным, а также вовлечение заинтересованных сторон на протяжении всего жизненного цикла системы ИИ и содействие обучению и обучению. чтобы все заинтересованные стороны были обучены и проинформированы о заслуживающем доверия ИИ. Исходя из последнего, то есть необходимости в надежном ИИ, следует подчеркнуть, что для людей и компаний надежность является предпосылкой для разработки, распространения и использования самих систем. В противном случае использование соответствующих технологий может быть затруднено, и, таким образом, возможные социальные и экономические выгоды будут замедлены. Таким образом, уверенность в разработке, распространении и использовании систем искусственного интеллекта касается не только внутренних свойств технологии, но также качества технических и социальных систем. Таким образом, рабочая группа установила в своем первом документе руководящие принципы для надежного искусственного интеллекта, при условии, что он должен быть основан на трех компонентах.

Они были определены: а) законно, ИИ, который является искусственным интеллектом, на который распространяются все законы и правила, применимые в конкретном вопросе; б) этика, ИИ следует понимать как набор правил этического кодекса и связанных с ними этических принципов и ценностей, которые необходимо всегда помнить; c) надежность с технической и социальной точки зрения, поскольку даже при самых лучших намерениях системы ИИ могут нанести непреднамеренный ущерб. Теперь каждый из вышеупомянутых компонентов сам по себе необходим, но, тем не менее, недостаточен для надежного искусственного интеллекта. Эти три компонента в первую очередь нацелены на заинтересованные стороны и являются обязательными показателями того, как вышеупомянутые этические принципы могут быть реализованы в социальных и технических системах.

Начиная с подхода, основанного на фундаментальных правах, в первую очередь определяются этические принципы и связанные с ними ценности, которые необходимо соблюдать при разработке, распространении и использовании систем ИИ, чтобы затем перейти к указаниям о том, как создать надежный ИИ. через отклонение семи требований, которым должны удовлетворять системы ИИ и для реализации которых могут использоваться технические и нетехнические методы и которые определены: 1) - при вмешательстве человека и наблюдении; 2) - в технической надежности и безопасности, 3) - в конфиденциальности данных и управлении, 4) - в прозрачности, 5) - в разнообразии, недискриминации и справедливости, 6) - в социальном и экологическом благополучии и 7) - в подотчетность. Наконец, группа экспертов предложила контрольный список для оценки надежности ИИ, который может помочь выполнить семь перечисленных выше требований. Наконец, в последнем разделе документа приведены примеры выгодных возможностей и серьезных опасений, которые вызывают системы искусственного интеллекта, несмотря на осознание того, что Европа обладает исключительным преимуществом, которое проистекает из ее стремления поставить гражданина в центр внимания. собственная деятельность.

Мишель Горга, юрист и наблюдательный компонент по координации деятельности организаций гражданского общества AIDR

Этика и искусственный интеллект