Гендерный сдвиг в цифре: почему люди чаще эксплуатируют «женский» искусственный интеллект

Гендерный сдвиг в цифре: почему люди чаще эксплуатируют «женский» искусственный интеллект

 

Люди с большей вероятностью стремятся получить одностороннюю выгоду (эксплуатировать) от партнёров с искусственным интеллектом (ИИ), если те воспринимаются как «женские», чем как «мужские». Это показывает, что гендерная дискриминация оказывает влияние и за пределами человеческих взаимодействий.

Недавнее исследование, опубликованное 2 ноября в журнале iScience, изучило, как меняется готовность людей к сотрудничеству в зависимости от того, присвоены ли их партнёрам (человеку или ИИ) женские, нейтральные, мужские или вообще отсутствующие гендерные метки.

Участникам предложили сыграть в классическую мысленную игру «Дилемма заключённого», где два игрока могут либо сотрудничать друг с другом, либо действовать независимо. При взаимном сотрудничестве оба получают наилучший результат. Однако если один сотрудничает, а другой нет, то «предатель» получает выгоду за счёт партнёра, что создаёт стимул к эксплуатации. Если оба отказываются от сотрудничества, оба получают плохой результат.

Исследование показало, что люди примерно на 10% чаще стремились эксплуатировать партнёра-ИИ, чем человека-партнёра. Также выяснилось, что участники чаще были готовы к сотрудничеству с партнёрами, обозначенными как женские, нейтральные или без указания пола, чем с «мужскими». Это связано с тем, что они больше ожидали ответного сотрудничества именно от первых.

К «мужским» агентам доверия было меньше, особенно со стороны женщин-участниц, которые охотнее сотрудничали с другими «женскими» агентами — эффект, известный как «гомофилия» (склонность к взаимодействию с похожими на себя).

«Наблюдаемые предубеждения во взаимодействии человека с агентами ИИ, вероятно, повлияют на их дизайн, например, для максимизации вовлечённости людей и построения доверия к автоматизированным системам, — отметили исследователи. — Разработчики таких систем должны осознавать нежелательные предубеждения и активно работать над их смягчением при создании интерактивных агентов ИИ».

Риски антропоморфизации ИИ
Когда участники отказывались от сотрудничества, это происходило по одной из двух причин: они либо не ожидали взаимности и боялись проиграть, либо рассчитывали на сотрудничество партнёра и выбирали путь односторонней выгоды за его счёт. Именно второй вариант исследователи определили как эксплуатацию.

Участники чаще «эксплуатировали» партнёров с женскими, нейтральными или отсутствующими гендерными метками, чем с мужскими. Если партнёр был ИИ, вероятность эксплуатации возрастала дополнительно. Мужчины в целом чаще прибегали к эксплуатации и охотнее сотрудничали с людьми, чем с ИИ. Женщины чаще выбирали кооперацию, чем мужчины, и не делали значимого различия между человеком и ИИ.

В исследовании не было достаточного количества участников, идентифицирующих себя с другими гендерами, чтобы делать выводы об их взаимодействии.

Согласно работе, всё больше инструментов ИИ антропоморфизируют (наделяют человеческими чертами, такими как гендер и имя), чтобы повысить доверие и вовлечённость пользователей. Однако такая антропоморфизация без учёта влияния гендерных стереотипов может усилить существующие предубеждения и усугубить дискриминацию.

Если сегодня многие системы ИИ — это онлайн-чаты, то в ближайшем будущем люди могут регулярно делить дорогу с беспилотными автомобилями или доверять ИИ управление своим рабочим графиком. Это означает, что нам, возможно, придётся сотрудничать с ИИ так же, как сейчас ожидается от сотрудничества между людьми, что делает проблему гендерной предвзятости в ИИ ещё более актуальной.

«Хотя проявление дискриминационных установок по отношению к агентам ИИ с определённым гендером само по себе может не представлять серьёзной этической проблемы, оно способно формировать вредные привычки и усугублять существующую гендерную дискриминацию в обществе», — добавили авторы.

Перспективы и рекомендации
Для преодоления этой проблемы эксперты предлагают несколько путей. Во-первых, осознанный дизайн: разработчикам следует тщательно оценивать необходимость и последствия присвоения гендерных характеристик ИИ. В некоторых случаях нейтральный дизайн (без явных гендерных маркеров) может быть предпочтительнее.

Во-вторых, повышение прозрачности: пользователи должны чётко понимать, что взаимодействуют с машиной, а не с человеком. Это может снизить проекцию чисто человеческих социальных ожиданий и стереотипов.

В-третьих, образовательные инициативы — информирование общества о природе ИИ и бессознательных предубеждениях, которые люди могут переносить на технологии.

«Понимая глубинные модели предвзятости и восприятия пользователей, дизайнеры могут двигаться к созданию эффективных, заслуживающих доверия систем ИИ, способных удовлетворять потребности пользователей, одновременно поддерживая и сохраняя позитивные общественные ценности, такие как справедливость», — заключили исследователи. Будущее гармоничного взаимодействия человека и ИИ зависит от того, насколько уже сегодня мы сможем распознать и нивелировать наши собственные, казалось бы, сугубо человеческие предрассудки в цифровой среде.

Добавить комментарий