3 Этика искусственного интеллекта
Машина, тупая, бесхитростная, неспособная пораскинуть умом, делает, что прикажут. А смышленая сначала соображает, что выгоднее: решить предложенную задачу или попробовать от нее отвертеться?

— С. Лем. Футурологический конгресс

3.1 Зачем искусственному интеллекту этика?

Авторы раздела
Готовцев П. М.
Карпов В. Э.
Нестик Т. А.
Потапова Е. Г.

Время чтения — 4 минуты
Этика ИИ рассматривается в двух основных аспектах: этические принципы, лежащие в основе принимаемых ИИ решений, и этичное поведение ИИ в ситуации, напрямую касающейся людей. Второй аспект принципиально отличает этику ИИ от этики других цифровых технологий.
Внедрение систем ИИ в повседневную жизнь сопряжено со множеством этических проблем, которые уже в ближайшие годы будут все серьезнее и сложнее. Первыми примерами стали смертельные исходы в автокатастрофах с самоуправляемыми автомобилями Tesla (2016) и Uber (2018), протест разработчиков ИИ в компании Google против участия в военных проектах Минобороны США, случаи манипулирования доступностью информации, сексизма и расизма в алгоритмах распознавания лиц и таргетированной рекламы с использованием ИИ. Масштабные этические проблемы возникают при использовании ИИ государственными службами для контроля за гражданами. Возможные негативные социальные последствия применения алгоритмов в работе государства широко обсуждаются в СМИ, а также в органах власти в некоторых странах.
На прошедшей в ноябре 2019 года в Москве конференции по искусственному интеллекту AI Journey Президент Р Ф Владимир Путин предложил разработать этические нормы взаимодействия человека с искусственным интеллектом:
«Сейчас во всем мире разворачивается дискуссия о социальных аспектах и последствиях использования искусственного интеллекта, это очень важная тема. Предлагаю профессиональному сообществу, компаниям подумать над формированием свода этических правил взаимодействия человека с искусственным интеллектом».

Владимир Владимирович Путин
Президент РФ
Однако этика ИИ принципиально отличается от этики других технологий, например дата-этики. В отношении остальных технологий обсуждаются общие вопросы изменений в профессиональной этике, этике применения, этике ответа на социальные вызовы (например, риск массовой безработицы) и т. д., тогда как в этике ИИ есть еще совершенно другое, очень важное изменение. Этику И И технологий от этики других областей отличает проблема этичного поведения интеллектуальной системы (ИС) в ситуации, когда ее решение касается людей.

Принципиально важно, что система ИИ способна:

  • самостоятельно принимать решения, касающиеся человека,
  • анализировать данные в таких объемах и с такой скоростью, как человек делать не в состоянии (следовательно, человек не может проверить верность решений).

Соответственно, основная проблема ― определение того, насколько решения, принимаемые интеллектуальной автономной системой (ИАС), соответствуют этическим нормам, то есть насколько она этична.
Поэтому мы можем говорить о двух совершенно разных аспектах этики ИИ (рисунок 4). Также нужно помнить о профессиональной этике производителей ИС.
Ответственность разработчика подробнее рассматривается в соответствующем разделе второго тома данного доклада: Этика и «цифра»: Этические проблемы цифровых технологий в госуправлении: в 2 т. М.: РАНХиГС, 2020. Т. 2. Раздел 3.3
Рисунок 4
Два аспекта этики ИИ: этичность решения и этичность применения
Первый аспект предполагает, что первоначально программу для ИИ пишут люди, но в дальнейшем система ИИ ведет себя уже почти самостоятельно, может самосовершенствоваться, реструктуризироваться, улучшать свои параметры и пр. Создавая И С, которая принимает критически важные для человека решения, мы хотим получить гарантии, что система руководствуется этическими соображениями. Поэтому столь важно привнести этичность в саму технологию ИИ. Сложность состоит в том, что моральный выбор — это выбор, который определяется не четко обозначенными нормами закона, а примерно сформулированными правилами, принципами, личными мнениями и всем тем, что можно оценить как «хорошо» или «плохо». Соответственно, его сложно формализовать и заложить в ИИ.
Второй аспект этики ИИ подразумевает анализ и предотвращение этических коллизий, возникающих в процессе применения ИИ, к ним отнесены: нарушение приватности, возможная дискриминация, социальное расслоение, проблемы трудоустройства и т. д. (см. раздел 5). Отдельно стоит тема профессиональной этики разработчиков систем ИИ, она также требует рассмотрения, и в перспективе возможно создание этических кодексов и рекомендаций для разработчиков.
В последние несколько лет десятки стран включились в технологическую гонку по разработке ИИ: к ноябрю 2019 года были приняты 34 национальные стратегии по ИИ (еще три находятся на стадии принятия). В будущем человечество не откажется от ИИ, скорее всего, ИИ будет все больше, шире и активнее использоваться в самых разных сферах. Важно как можно оперативнее задать этические рамки, в которых будет развиваться ИИ, ограничить возможности его неэтичного применения и направить энергию разработчиков и идеи законодателей в русло, обеспечивающее максимальную безопасность и выгоду для общества.