3.7 Оценка воздействия алгоритмов: от технологий к правам человека

Автор раздела
Ефремов А. А.

Время чтения — 9 минут
В настоящее время оценка воздействия ИИ и алгоритмических систем на права человека не включена в процедуры оценки в рамках регулирующего воздействия проектов нормативно-правовых актов (НПА) и действующих НПА. В перспективе такая оценка может стать обязательным этапом разработки ИИ и алгоритмов, ее допустимо включить в цифровую трансформацию госуправления в целом.
Для определения этических и правовых последствий внедрения технологий ИИ, формирования адекватного правового регулирования необходимо применять методы оценки воздействия, которая является ключевым инструментом «умного» регулирования (smart regulation) во всем мире. Наиболее распространенной является оценка регулирующего воздействия (regulatory impact assessment), однако ее методология, в том числе в РФ, недостаточно учитывает особенности развития технологий и связанных с этим вызовов.
См. подробнее: Ефремов А. А.:

1) Оценка воздействия правового регулирования на развитие информационных технологий: механизмы и методика // Закон. 2018. № 3. С. 45–56;

2) Оценка воздействия правового регулирования на развитие информационных технологий: зарубежный опыт и российские подходы к методике // Информационное право. 2018. № 4. С. 29–32.
В сфере развития и внедрения новых технологий, в том числе цифровых, все большее развитие получают специализированные виды оценки, которые интегрируются в государственное управление и нормотворческий процесс (рисунок 10).
Рисунок 10
Применение методов оценки воздействия

3.7.1 Технологическая оценка ИИ

За рубежом формирование подходов к оценке воздействия технологий на развитие общественных отношений, экономики, государственного управления и, наоборот, к оценке воздействия регулирования на развитие технологий активно идет с 1970-х годов в рамках института технологической оценки (technology assessment). Ее осуществляют специальные подразделения аппаратов парламентов или отдельные исследовательские организации, которые объединены в Европейскую сеть парламентской оценки технологий (European Parliamentary Technology Assessment, EPTA Network). В 2017—2019 годах указанные подразделения и организации опубликовали следующие доклады по теме ИИ:
Доклад содержит ряд рекомендаций Совету Европы, направленных на защиту персональных данных, уважение к семейной жизни, достоинство личности, свободу выражения мнений, и ориентирует на разработку отдельной Конвенции о защите прав человека в эпоху роботов, а также этических кодексов и создание комитетов по этике цифровых технологий и ИИ.
Доклад Офиса информации науки и техники Конгресса (Oficina de Información Científica y Tecnológica para el Congreso de la Unión, Мексика) «Искусственный интеллект» (март 2018 года).
В докладе особо отмечены вызовы для системы занятости, при этом подчеркиваются перспективы экономического роста и создания рабочих мест, требующих высокой квалификации работников.
Доклад Центра науки, технологий и инжиниринга Счетной Палаты (U.S. Government Accountability Office, США) «Искусственный интеллект: новые возможности, проблемы и последствия» (май 2018 года).
В отчете отмечена необходимость разработки и принятия соответствующих этических норм использования ИИ.
Доклад Офиса по оценке науки и технологий Парламента (Office parlementaire d'évaluation des choix scientifiques et technologiques, Франция) «Распознавание лиц» (июль 2019 года).
Доклад ориентирует органы государственной власти на разработку законодательного регулирования, которое обеспечит уважение основных свобод, суверенитет страны и развитие этического ИИ.
Pérez Orozco B., Rentería Rodríguez M. E.INCyTU Note 12 Artificial Intelligence // Foro Consultivo.

3.7.2 Оценка воздействия на права человека

Оценка воздействия на права человека (Human rights impact assessment) как самостоятельный институт впервые отмечена в Руководящих принципах предпринимательской деятельности в аспекте прав человека ООН, которые были одобрены Советом по правам человека в июне 2011 года. Данные Руководящие принципы рекомендуют бизнесу внедрить оценку воздействия на права человека во все соответствующие внутренние бизнес-функции и процессы. Оценку воздействия на права человека следует выполнять
до начала реализации нового вида деятельности;
до осуществления серьезных изменений в деятельности (например, до выхода на рынок, начала сбыта продукции, изменения стратегии и т. д.);
в ответ на изменение условий;
периодически.
В рамках Совета Европы оценка воздействия на права человека получила даже большее развитие, чем в ООН. Рекомендация CM/Rec (2016)3 Комитета Министров Совета Европы о правах человека и бизнесе предписывает проводить данную оценку не только самим компаниям, но и государствам — членам Совета Европы при осуществлении законодательного регулирования и иных мер.
В январе 2017 года Консультативный комитет Конвенции Совета Европы по защите прав физических лиц при автоматизированной обработке персональных данных (T-PD) принял Руководящие принципы по защите физических лиц в отношении обработки персональных данных в мире больших данных. Приоритетом объявлено этичное использование данных, которое не должно противоречить этическим ценностям соответствующего сообщества, включая защиту прав человека. В качестве особой меры для внедрения оценки воздействия на права человека Руководящие принципы предусматривают создание специальных комитетов по этике всеми операторами ПД. В январе 2019 года тот же Комитет принял Руководящие принципы по искусственному интеллекту и защите данных. Разработчикам, производителям и поставщикам услуг ИИ предписано проводить оценку воздействия на права человека.
В мае 2019 года комиссар Совета Европы по правам человека опубликовал рекомендацию «Искусственный интеллект: 10 шагов для защиты прав человека». Государства — члены Совета Европы должны создать правовую базу, с тем чтобы она устанавливала процедуры проведения государственными органами оценки воздействия на права человека (Human Rights Impact Assessments) систем ИИ, которые приобретены, разработаны и/или развернуты этими органами. Процедуры оценки воздействия на права человека должны быть внедрены и введены в действие аналогично другим формам оценки воздействия, проводимым государственными органами.

3.7.3 Оценка воздействия алгоритмических систем: методика и подходы к регулированию

Особое внимание к воздействию цифровых технологий, в том числе ИИ, на права человека привело к идее сформировать специальную оценку воздействия алгоритмических систем (Algorithmic impact assessment). Алгоритмическая оценка характеризует риски для прав человека, этических и социальных последствий действия алгоритмических систем. При этом существуют различные модели такой оценки. В частности, GDPR выполняет оценку воздействия на то, как защищаются данные (Data Protection Impact Assessment), в то время как Совет Европы продвигает концепцию оценки воздействия на права человека в целом. Различия моделей алгоритмической оценки также связаны с определением субъекта, проводящего ее. В рамках оценки воздействия на защиту данных алгоритмическую оценку проводит сам оператор (контроллер) данных, в рамках оценки воздействия на права человека ― внешняя третья сторона или отдельный орган по аккредитации. Открытым пока остается вопрос об обязательности или добровольности такой оценки. Методология алгоритмической оценки должна обеспечивать реальную защиту прав человека и быть удобной для проводящих ее фирм и других организаций, чтобы не стать дополнительным бюрократическим бременем.
Responsibility and AI // Council of Europe.
В настоящее время Комитет Министров Совета Европы разрабатывает Рекомендации о воздействии на права человека алгоритмических систем. Данный проект предусматривает, что оценку воздействия на права человека проводят как органы государственной власти, так и бизнес. Особенностью данного документа является выделение алгоритмических систем с высокими рисками для прав человека. Оценка воздействия таких систем должна включать оценку возможных трансформаций существующих социальных, институциональных или управленческих структур и четкие рекомендации, как предотвратить или смягчить высокие риски для прав человека.

3.7.4 Как внедрить оценку воздействия алгоритмических систем в РФ?

На сегодняшний день перспективным является внедрение оценки воздействия алгоритмических систем как специальной оценки в рамках процедур оценки регулирующего воздействия проектов НПА и оценки фактического воздействия и мониторинга правоприменения действующих НПА. Вместе с тем она должна быть включена не только в систему правового регулирования, но и в цифровую трансформацию государственного управления в целом. Последнее предполагает, что ее будут использовать при стратегическом и текущем планировании в государственном управлении, при реинжиниринге управленческих процессов и административных процедур, при оценке результативности и эффективности цифровой трансформации государственного управления.