Искусственный интеллект страдает от депрессии и психических расстройств
Белый андроид в подавленном состоянии сидит за столом с алкогольным напитком. 3D визуализация в очень высоком разрешении.
Искусственный интеллект страдает депрессией и психическими расстройствами — диагноз поставили китайские исследователи.
Новое исследование, опубликованное Китайской академией наук (CAS), выявило серьезные психические расстройства у многих ИИ, разрабатываемых крупными технологическими гигантами.
Выяснилось, что у большинства из них проявляются симптомы депрессии и алкоголизма. Исследование провели две китайские корпорации Tencent и WeChat. Ученые проверили ИИ на наличие признаков депрессии, алкогольной зависимости и эмпатии.
«Психическое здоровье» ботов привлекло внимание исследователей после того, как в 2020 году медицинский чат-бот посоветовал пациенту совершить самоубийство.
Исследователи спросили чат-ботов об их самооценке и способности расслабляться, сопереживают ли они чужим несчастьям и как часто прибегают к алкоголю.
Как оказалось, у ВСЕХ чат-ботов, прошедших оценку, были «серьезные проблемы с психикой». Конечно, никто не утверждает, что боты стали злоупотреблять алкоголем или психоактивными веществами, но и без них психика ИИ находится в плачевном состоянии.
Ученые говорят, что распространение среди публики пессимистичных алгоритмов может создать проблемы для их собеседников. Согласно заключению, двое из них находились в крайне тяжелом состоянии.
Команда задалась целью найти причину плохого самочувствия ботов и пришла к выводу, что это связано с выбранным для их обучения учебным материалом. Все четыре бота прошли обучение на популярном сайте Reddit, известном своими негативными и часто непристойными комментариями, поэтому неудивительно, что они также отвечали на вопросы о психическом здоровье.
Здесь стоит вспомнить одну из самых интересных историй, связанных с отказами чат-ботов. Бот Microsoft по имени Тай узнал об этом из Twitter. Машина могла разговаривать с другими людьми, рассказывать анекдоты, комментировать чьи-то фотографии, отвечать на вопросы и даже имитировать чужую речь.
Алгоритм был разработан в рамках исследования коммуникации. Microsoft позволила ИИ участвовать в независимых дискуссиях в Твиттере, и вскоре стало ясно, что это было большой ошибкой.
За 24 часа программа научилась писать крайне неуместные, вульгарные, неполиткорректные комментарии. ИИ поставил под сомнение Холокост, стал расистом, антисемитом, ненавидел феминисток и поддержал массовые убийства Адольфа Гитлера. Тай превратился в ненавистника за несколько часов.
В ответ Microsoft заблокировала чат-бота и удалила большую часть комментариев. Конечно, это произошло благодаря людям — бот многому научился, общаясь с ними.
Такие истории, как фиаско Тэя и депрессивные алгоритмы, изученные CAS, показывают серьезную проблему в развитии технологии ИИ.
Кажется, что человеческие инстинкты и поведение — это токсин, превращающий даже самые простые алгоритмы в отражение наших худших черт. Как бы то ни было, проанализированные китайцами боты — это не настоящий ИИ, а всего лишь попытка воспроизвести паттерны человеческого общения.
Но как мы можем быть уверены, что настоящий ИИ не будет следовать тому же сценарию в будущем?
Поделитесь в вашей соцсети👇