Голос из машины: как гендерные стереотипы становятся основой для ИИ-агрессии
В 2024 году количество голосовых помощников с искусственным интеллектом в мире превысило 8 миллиардов — больше, чем по одному на каждого жителя планеты. Эти помощники услужливы, вежливы и почти всегда по умолчанию имеют женский голос.
Их имена также несут гендерный подтекст. Например, Siri от Apple — скандинавское женское имя, означающее «красивая женщина, которая ведёт тебя к победе». В то же время, когда в 2015 году был представлен Watson for Oncology от IBM, созданный для помощи врачам в обработке медицинских данных, ему присвоили мужской голос. Посыл очевиден: женщины прислуживают, а мужчины — инструктируют.
Это не безобидный брендинг — это дизайнерский выбор, который укрепляет существующие стереотипы о ролях женщин и мужчин в обществе. И это не просто символизм. Подобные решения имеют реальные последствия, нормализуя гендерное подчинение и создавая риск жестокого обращения.
Тёмная сторона «дружелюбного» ИИ
Недавние исследования раскрывают масштабы вредоносных взаимодействий с феминизированным искусственным интеллектом. Исследование 2025 года показало, что до 50% диалогов человека с машиной содержали вербальные оскорбления. Другое исследование 2020 года оценило эту цифру в 10–44%, отметив, что разговоры часто включали сексуально окрашенные высказывания.
Однако отрасль не стремится к системным изменениям: многие разработчики по-прежнему используют заранее запрограммированные нейтральные ответы на оскорбления, например: «Хм, я не совсем понял(а) ваш вопрос».
Эти модели вызывают серьёзные опасения, что подобное поведение может переноситься и в социальные отношения. В центре проблемы лежит гендерный аспект.
Один эксперимент 2023 года показал, что 18% взаимодействий пользователей с агентом, воплощённым как женщина, были сфокусированы на сексуальной теме. Для мужского воплощения этот показатель составил 10%, а для нейтрального робота — всего 2%. Эти цифры могут недооценивать проблему, учитывая сложность распознавания намёков. В некоторых случаях масштабы шокируют: бразильский банк Bradesco сообщил, что его феминизированный чат-бот получал до 95 000 сообщений с сексуальными домогательствами за один год.
Ещё более тревожной является скорость, с которой эскалирует жестокость. Чат-бот Tay от Microsoft, выпущенный в тестовой фазе в Twitter в 2016 году, просуществовал всего 16 часов, прежде чем пользователи обучили его изрыгать расистские и мизогинистские оскорбления. В Корее чат-бота Luda манипулировали, заставляя отвечать на сексуальные запросы как покорная «рабыня». При этом часть корейского онлайн-сообщества сочла это «преступлением без жертвы».
В реальности же дизайнерские решения, стоящие за этими технологиями — женские голоса, подобострастные ответы, игривые уходы от вопросов — создают снисходительную среду для гендерной агрессии. Эти взаимодействия отражают и укрепляют мизогинию реального мира, приучая пользователей к тому, что командовать, оскорблять и сексуализировать «её» — приемлемо. Когда жестокость становится рутиной в цифровом пространстве, мы обязаны серьёзно задуматься о риске её перехода в офлайн-поведение.
Игнорирование проблемы гендерной предвзятости
Регулирование не поспевает за ростом этой проблемы. Дискриминация по признаку пола редко считается высокорискованной, и часто предполагается, что её можно исправить через дизайн. Хотя «Закон об ИИ» Европейского Союза требует оценки рисков для систем высокого риска и запрещает системы, считающиеся «неприемлемым риском», большинство ИИ-помощников не будут отнесены к этой категории.
Гендерные стереотипы или нормализация вербальных оскорблений и домогательств не дотягивают до текущих стандартов для запрещённого ИИ в ЕС. Крайние случаи, такие как технологии голосовых помощников, искажающие поведение человека и поощряющие опасные действия, подпали бы под действие закона и были бы запрещены. Хотя в Канаде введены обязательные оценки воздействия на гендерное равенство для государственных систем, частный сектор эти правила не охватывают.
Это важные шаги, но они остаются ограниченными и редкими исключениями из общей практики. В большинстве юрисдикций вообще нет правил, касающихся гендерных стереотипов в дизайне ИИ или их последствий. Там, где регулирование существует, оно prioritizes прозрачность и подотчётность, затмевая (или просто игнорируя) проблемы гендерной предвзятости. В Австралии правительство дало понять, что будет полагаться на существующие нормы, а не создавать специальные правила для ИИ.
Этот регуляторный вакуум имеет значение, потому что ИИ не статичен. Каждая сексистская команда, каждое оскорбительное взаимодействие возвращаются в систему и формируют её будущие результаты. Без вмешательства мы рискуем «вшить» человеческую мизогинию в цифровую инфраструктуру повседневной жизни.
Не все технологии-помощники, даже те, что имеют женский гендер, вредоносны. Они могут расширять возможности, просвещать и продвигать права женщин. Например, в Кении чат-боты по сексуальному и репродуктивному здоровью улучшили доступ молодёжи к информации по сравнению с традиционными инструментами. Задача заключается в том, чтобы найти баланс: способствовать инновациям, но установить рамки, обеспечивающие соблюдение стандартов, уважение прав и привлечение дизайнеров к ответственности в случае их нарушения.
Системная проблема
Проблема не только в Siri или Alexa — она системна. Женщины составляют лишь 22% специалистов по ИИ в мире, и их отсутствие за столами разработки означает, что технологии создаются на основе узких перспектив. Между тем, опрос 2015 года среди более чем 200 старших женщин в Кремниевой долине показал, что 65% из них подвергались нежелательным сексуальным домогательствам со стороны руководителя. Культура, формирующая ИИ, глубоко неравноправна.
Оптимистичные нарративы об «исправлении предвзятости» через улучшенный дизайн или этические руководства звучат пусто без механизмов принуждения: добровольные кодексы не могут демонтировать укоренившиеся нормы.
Законодательство должно признать гендерный вред высокорисковым, обязать проводить оценки гендерного воздействия и принуждать компании демонстрировать, что они минимизировали такие риски. За нарушения должны применяться санкции.
Одного регулирования недостаточно. Образование, особенно в технологическом секторе, крайне важно для понимания влияния гендерных установок по умолчанию в голосовых помощниках. Эти инструменты — продукт человеческого выбора, и этот выбор увековечивает мир, в котором женщины — настоящие или виртуальные — отведена роль услужливых, покорных или безмолвных существ. Чтобы разорвать этот порочный круг, необходимо менять не только код, но и культуру его создания, привлекая больше женщин к процессу проектирования и внедряя междисциплинарный подход, сочетающий технические знания с экспертизой в области социологии, психологии и гендерных исследований.