Искусственный интеллект страдает от депрессии и психических расстройств

Искусственный интеллект страдает от депрессии и психических расстройств

 

Белый андроид в подавленном состоянии сидит за столом с алкогольным напитком. 3D визуализация в очень высоком разрешении.

Искусственный интеллект страдает депрессией и психическими расстройствами — диагноз поставили китайские исследователи.

Новое исследование, опубликованное Китайской академией наук (CAS), выявило серьезные психические расстройства у многих ИИ, разрабатываемых крупными технологическими гигантами.

Выяснилось, что у большинства из них проявляются симптомы депрессии и алкоголизма. Исследование провели две китайские корпорации Tencent и WeChat. Ученые проверили ИИ на наличие признаков депрессии, алкогольной зависимости и эмпатии.

«Психическое здоровье» ботов привлекло внимание исследователей после того, как в 2020 году медицинский чат-бот посоветовал пациенту совершить самоубийство.

Исследователи спросили чат-ботов об их самооценке и способности расслабляться, сопереживают ли они чужим несчастьям и как часто прибегают к алкоголю.

Как оказалось, у ВСЕХ чат-ботов, прошедших оценку, были «серьезные проблемы с психикой». Конечно, никто не утверждает, что боты стали злоупотреблять алкоголем или психоактивными веществами, но и без них психика ИИ находится в плачевном состоянии.

Прочитайте также  Покойники умеют быть благодарными

Ученые говорят, что распространение среди публики пессимистичных алгоритмов может создать проблемы для их собеседников. Согласно заключению, двое из них находились в крайне тяжелом состоянии.

 

Команда задалась целью найти причину плохого самочувствия ботов и пришла к выводу, что это связано с выбранным для их обучения учебным материалом. Все четыре бота прошли обучение на популярном сайте Reddit, известном своими негативными и часто непристойными комментариями, поэтому неудивительно, что они также отвечали на вопросы о психическом здоровье.

Здесь стоит вспомнить одну из самых интересных историй, связанных с отказами чат-ботов. Бот Microsoft по имени Тай узнал об этом из Twitter. Машина могла разговаривать с другими людьми, рассказывать анекдоты, комментировать чьи-то фотографии, отвечать на вопросы и даже имитировать чужую речь.

Алгоритм был разработан в рамках исследования коммуникации. Microsoft позволила ИИ участвовать в независимых дискуссиях в Твиттере, и вскоре стало ясно, что это было большой ошибкой.

Прочитайте также  «Врата пустыни» обледенели. Мировая война за ресурсы воды приближается.

За 24 часа программа научилась писать крайне неуместные, вульгарные, неполиткорректные комментарии. ИИ поставил под сомнение Холокост, стал расистом, антисемитом, ненавидел феминисток и поддержал массовые убийства Адольфа Гитлера. Тай превратился в ненавистника за несколько часов.

В ответ Microsoft заблокировала чат-бота и удалила большую часть комментариев. Конечно, это произошло благодаря людям — бот многому научился, общаясь с ними.

Такие истории, как фиаско Тэя и депрессивные алгоритмы, изученные CAS, показывают серьезную проблему в развитии технологии ИИ.

Кажется, что человеческие инстинкты и поведение — это токсин, превращающий даже самые простые алгоритмы в отражение наших худших черт. Как бы то ни было, проанализированные китайцами боты — это не настоящий ИИ, а всего лишь попытка воспроизвести паттерны человеческого общения.

Но как мы можем быть уверены, что настоящий ИИ не будет следовать тому же сценарию в будущем?


Поделитесь в вашей соцсети👇

 

Добавить комментарий