6 Социальные вызовы технологий
Человеку нужен человек.

С. Лем Солярис

6.1 Дискриминация и цифровое неравенство

Автор раздела
Шепелева О. С.

Время чтения — 10 минут
Законодательно дискриминация запрещена на международном уровне, фактически же проявляется в некоторых сферах из-за предубеждений и стереотипов. Технологии, особенно алгоритмы и искусственный интеллект (ИИ), могут закреплять и усиливать существующие предубеждения и предрассудки, усугублять дискриминацию и социальную изоляцию.
Один из вопросов, возникающих в связи с внедрением в жизнь новых технологий, состоит в том, не приведет ли оно к усилению дискриминации. Чтобы оценить риски дискриминации, связанные с цифровыми технологиями, нужно сначала дать определение этому многозначному термину. Законодательство многих стран и принятые на международном уровне документы запрещают дискриминацию. Сейчас дискриминация — это в первую очередь нормативная концепция. В качестве примера можно привести определение дискриминации, данное Европейским судом по правам человека:

[Для того чтобы возник вопрос о дискриминации], должна быть разница в обращении с людьми, находящимися в одинаковых или аналогичных ситуациях. Разница в обращении будет дискриминационной, если у нее нет объективного и здравого обоснования… Статья 14 запрещает не любую разницу в обращении, а только ту, где различие основано на идентифицируемой объективной или персональной характеристике или статусе, за счет которых индивиды и группы отличают одних от других. В перечень таких статусов входят, в частности, пол и раса [, а также цвет кожи, язык, религия, политические или иные убеждения, национальное или социальное происхождение и т.д.]. Словосочетание «и иным признакам» обычно понимается широко и не ограничивается врожденными неотъемлемыми характеристиками личности.
Если упростить, дискриминация — это когда людей куда-то не допускают, в чем-то ограничивают, чего-то лишают или что-то предоставляют им в меньшем объеме, требуют от них выполнения каких-то обязанностей, которых нет у других. Например, не принимают на работу, отказываются продать какой-то товар, не допускают к голосованию на выборах, платят меньшую зарплату, занижают оценки, чаще, чем у других, проверяют документы и досматривают на улицах. Причем причины и основания для различия должны быть несправедливыми, иррациональными, основанными на предубеждениях или стереотипах. Например, дискриминационным будет отказ отцу в отпуске по уходу за ребенком только на том основании, что он мужчина, а не женщина, хотя он в действительности несет основную нагрузку по уходу за младенцем. Несправедливость оснований для худшего отношения к каким-то людям и беспочвенность проводимых различий — вот две причины считать дискриминацию неэтичной, противоречащей общественной морали.

Дискриминация бывает прямой и косвенной:
Когда есть цель ущемить и ограничить представителей какой-то группы, даже если дискриминационный мотив маскируется или не вполне осознается.
Ситуации, когда какие-то правила применяются ко всем одинаково, но для какой-то группы в силу ее особенностей и отличий они создают серьезную проблему.
Очевидный пример косвенной дискриминации дает устройство городской среды. Транспорт, магазины, кафе, различные общественные учреждения организуются без намерения ограничить кому-то вход и возможность перемещения. Зачастую они вполне удобны для людей, не имеющих физических ограничений, но те, у кого ограничена подвижность, есть проблемы со зрением или какие-то иные особенности здоровья, оставшись в изоляции, могут столкнуться с непреодолимыми препятствиями.
Можем ли мы ждать снижения или, наоборот, усиления дискриминации в связи с широким внедрением цифровых технологий? Эксперты ООН указывают, что технологии, в частности алгоритмы, могут усиливать существующие предубеждения и предрассудки, усугублять дискриминацию и социальную изоляцию. ИИ дает наиболее очевидные примеры переноса доцифровой дискриминации в цифровую среду и ее масштабирования. В связи с этим, в частности, регламент GDPR устанавливает дополнительные ограничения по работе с информацией о человеке, которая может стать основанием для дискриминации. Имеются в виду сведения о политических взглядах, религиозных и философских убеждениях, членстве в профсоюзах, расе и этническом происхождении, сексуальной жизни.
Действительно, прямая дискриминация основана на негативном отношении к той или иной группе, вызванном разного рода предубеждениями и стереотипами. Предмет и содержание предубеждений и стереотипов могут меняться с течением времени, но вряд ли можно ожидать, что распространение цифровых технологий трансформирует сознание людей таким образом, что стереотипы и предубеждения перестанут возникать.
Статья 14 Европейской конвенции о защите прав человека и основных свобод, запрещающая дискриминацию.
Altman A. Discrimination // The Stanford Encyclopedia of Philosophy.
Altman A. Discrimination // The Stanford Encyclopedia of Philosophy.
Защита личности от дискриминации: в 3 т. / [С. С. Дикман С.С. и др.]. М.: Новая юстиция, 2009. Т 1. С. 16.
См.: Этика и «цифра»: Этические проблемы цифровых технологий: в 2 т. М.: РАНХиГС, 2020. Т. 1. Раздел 3.3.
См.: Этика и «цифра»: Этические проблемы цифровых технологий: в 2 т. М.: РАНХиГС, 2020. Т. 1. Раздел 2.3.
С технологиями связан еще один значимый аспект проблемы. Как различить обоснованное различие в обращении с людьми и дискриминацию? Многое из того, что мы считаем предубеждениями сейчас, когда-то рассматривалось как объективное научное знание. Наиболее яркий пример — евгеника, которая в первой половине ХХ века считалась научной концепцией и даже легла в основу политики по улучшению генофонда населения в отдельных европейских государствах и в США. Евгеника сначала была дискредитирована нацистской Германией, проводившей на основании евгеники массовое уничтожение людей, а затем окончательно утратила свой научный смысл благодаря развитию генетики. Этот и другие случаи, когда научные обоснования для разного обращения с разными группами людей опровергались и пересматривались, показывают, что успехи в науке и технологиях могут создавать опасные иллюзии, человеческие общества не застрахованы от ошибок, а точность и полнота человеческих знаний о мире, очевидно, не абсолютные.
Все более широкое внедрение цифровых технологий в повседневную жизнь увеличивает риски косвенной дискриминации. Во-первых, риск ненамеренного, но ощутимого ущемления прав отдельных групп может быть связан с тем, что разные группы в обществе имеют разный уровень доступа к технологиям, а некоторые группы находятся в состоянии цифровой эксклюзии (см. раздел 2.2). Например, кто-то живет в местностях, где нет современных средств связи, у кого-то не хватает денег, чтобы купить устройство, поддерживающее работу современных приложений, кто-то не имеет навыков, чтобы при помощи цифровых технологий безопасно и эффективно общаться, делать покупки, работать, учиться и пр. Для этих людей повсеместная цифровизация государственных и коммерческих сервисов означает либо полную утрату доступа к ним, либо существенное снижение их доступности. Данный эффект специально не планируется: переход на «цифру» проводится потому, что это открывает новые возможности, ускоряет, упрощает и удешевляет многие процессы. Тем не менее люди, ограниченные в доступе к технологиям, оказываются ущемлены.
Исследования показывают, что лица, страдающие от цифровой эксклюзии, не распределяются равномерно по всем социальным стратам, а сконцентрированы в группах, которые и без того относятся к уязвимым и неблагополучным. Это пожилые, люди с физическими ограничениями и серьезными заболеваниями (с инвалидностью), бедные, мигранты, представители этнических и языковых меньшинств. Фактически цифровизация государственных и коммерческих сервисов приводит к дискриминации указанных групп, если не предпринимаются специальные меры, например дизайн, разработанный специально для людей с физическими ограничениями, сохранение аналоговой формы получения услуги (то есть личное обращение, звонок в контактный центр, использование бумажных документов вместо электронных, привлечение человека-посредника, например социального работника, и др.) и т.д. Кроме того, избежать дискриминации, связанной с ограниченным доступом к технологиям, позволят шаги по снижению уровня эксклюзии в целом, например программы обучения цифровой грамотности, выпуск дешевых устройств связи, создание инфраструктуры для доступа в интернет и пр.
Те, кто имеет доступ к технологиям, также могут столкнуться с косвенной дискриминацией, в силу побочных, незапланированных эффектов того или иного технологического решения. Самый очевидный пример — это автоматический скоринг и алгоритмы, используемые для отбора кандидатов на работу. Про возможные дискриминационные эффекты этих технологий уже известно, и специалисты уже ищут юридические способы решения проблемы.

В США НКО, защищающие права граждан, обратились в Федеральную торговую комиссию с требованием провести расследование в отношении рекрутинговой компании Hire Vue, использующей ИИ для анализа интервью с целью выбрать сотрудников, подходящих под требования заказчиков-работодателей. В штате Иллинойс был принят первый закон, который обязал работодателей, которые используют при подборе сотрудников ИИ, публиковать информацию о том, как именно он работает.
Однако ИИ может применяться и в других сферах, где тоже возможны дискриминационные последствия. Кроме того, это не единственная технология, которая активно меняет жизнь людей. Следовательно, самые разные технологические решения могут нести в себе риски косвенной дискриминации.
Подводя итог, можно констатировать:
  • Есть вероятность переноса практик прямой дискриминации в цифровую среду.
  • Есть риски возникновения новых оснований для неравного обращения с разными группами, которые, на первый взгляд, могут казаться объективными и научно обоснованными.
  • Все более глубокая цифровизация повседневности может иметь своим последствием дискриминацию людей, не имеющих доступа к технологиям.
  • Различные технологические решения могут нести в себе риски косвенной дискриминации.
Чтобы не допустить усиления дискриминации в связи с цифровизацией, имеет смысл делать следующее:
  • Создавая государственные цифровые сервисы, специально следить, чтобы их дизайн был максимально прост и подходил для использования людьми с различными физическими ограничениями, сохранять и поддерживать нецифровые каналы, которые позволяли бы людям, не обладающим доступом к технологиям, тем не менее, получать доступ к государственным сервисам.
  • Проверять различные цифровые продукты, сервисы и процессы, ориентированные на людей, работу с ними и принятие решений в их отношении, в плане того, насколько возможна косвенная дискриминация.
  • При формулировании правил, которые создают различные условия для отдельных групп в обществе, нужно критично относиться к основаниям для выделения этих групп.