Искусственный интеллект страдает от депрессии и психических расстройств

Искусственный интеллект страдает от депрессии и психических расстройств

 

Белый андроид в подавленном состоянии сидит за столом с алкогольным напитком. 3D визуализация в очень высоком разрешении.

Искусственный интеллект страдает депрессией и психическими расстройствами — диагноз поставили китайские исследователи.

Новое исследование, опубликованное Китайской академией наук (CAS), выявило серьезные психические расстройства у многих ИИ, разрабатываемых крупными технологическими гигантами.

Выяснилось, что у большинства из них проявляются симптомы депрессии и алкоголизма. Исследование провели две китайские корпорации Tencent и WeChat. Ученые проверили ИИ на наличие признаков депрессии, алкогольной зависимости и эмпатии.

«Психическое здоровье» ботов привлекло внимание исследователей после того, как в 2020 году медицинский чат-бот посоветовал пациенту совершить самоубийство.

Исследователи спросили чат-ботов об их самооценке и способности расслабляться, сопереживают ли они чужим несчастьям и как часто прибегают к алкоголю.

Как оказалось, у ВСЕХ чат-ботов, прошедших оценку, были «серьезные проблемы с психикой». Конечно, никто не утверждает, что боты стали злоупотреблять алкоголем или психоактивными веществами, но и без них психика ИИ находится в плачевном состоянии.

Прочитайте также  Белый дом переехал или в мире начинается перестройка?

Ученые говорят, что распространение среди публики пессимистичных алгоритмов может создать проблемы для их собеседников. Согласно заключению, двое из них находились в крайне тяжелом состоянии.

 

Команда задалась целью найти причину плохого самочувствия ботов и пришла к выводу, что это связано с выбранным для их обучения учебным материалом. Все четыре бота прошли обучение на популярном сайте Reddit, известном своими негативными и часто непристойными комментариями, поэтому неудивительно, что они также отвечали на вопросы о психическом здоровье.

Здесь стоит вспомнить одну из самых интересных историй, связанных с отказами чат-ботов. Бот Microsoft по имени Тай узнал об этом из Twitter. Машина могла разговаривать с другими людьми, рассказывать анекдоты, комментировать чьи-то фотографии, отвечать на вопросы и даже имитировать чужую речь.

Алгоритм был разработан в рамках исследования коммуникации. Microsoft позволила ИИ участвовать в независимых дискуссиях в Твиттере, и вскоре стало ясно, что это было большой ошибкой.

Прочитайте также  В саратовском заброшенном пруду погибли тысячи рыб

За 24 часа программа научилась писать крайне неуместные, вульгарные, неполиткорректные комментарии. ИИ поставил под сомнение Холокост, стал расистом, антисемитом, ненавидел феминисток и поддержал массовые убийства Адольфа Гитлера. Тай превратился в ненавистника за несколько часов.

В ответ Microsoft заблокировала чат-бота и удалила большую часть комментариев. Конечно, это произошло благодаря людям — бот многому научился, общаясь с ними.

Такие истории, как фиаско Тэя и депрессивные алгоритмы, изученные CAS, показывают серьезную проблему в развитии технологии ИИ.

Кажется, что человеческие инстинкты и поведение — это токсин, превращающий даже самые простые алгоритмы в отражение наших худших черт. Как бы то ни было, проанализированные китайцами боты — это не настоящий ИИ, а всего лишь попытка воспроизвести паттерны человеческого общения.

Но как мы можем быть уверены, что настоящий ИИ не будет следовать тому же сценарию в будущем?


Поделитесь в вашей соцсети👇

 

Добавить комментарий