Научная статья предупреждает, что искусственный интеллект может уничтожить людей

Научная статья предупреждает, что искусственный интеллект может уничтожить людей

 

В документе, опубликованном Google Deepmind и исследователями из Оксфордского университета, говорится, что сверхразумный ИИ теперь «вероятно» означает конец человечества.

В новой статье говорится, что искусственный интеллект «вероятно» вызовет экзистенциальную катастрофу для человечества в будущем. Интересно, что это неоднократно заявлялось в прошлом, а покойный профессор Хокинг был одним из многих экспертов, которые говорили, что мы должны уделять пристальное внимание и не позволять ИИ выйти из-под контроля. В своей книге «Краткие ответы на большие вопросы» профессор Хокинг отвечает на вопрос: «Сможет ли искусственный интеллект перехитрить нас?» написав: «Сверхинтеллектуальный ИИ будет чрезвычайно хорош в достижении целей, и если эти цели не совпадают с нашими, у нас проблемы».

Теперь исследования Google Deepmind и Оксфордского университета пришли к выводу, что сверхразумный ИИ теперь «вероятно» означает конец человечества — мрачный сценарий, который все чаще предсказывают исследователи.

Прочитайте также  Ученые раскрыли секреты рецептов фараонов в Древнем Египте

В недавнем статья опубликована в журнале AI Magazineисследователь из Оксфорда Майкл Коэн, старший научный сотрудник DeepMind Маркус Хаттер и старший научный сотрудник DeepMind Майкл Осборн утверждают, что машины в конечном итоге будут вынуждены нарушать правила, установленные их создателями, чтобы конкурировать за ограниченные ресурсы.

 

Коэн, студент инженерного факультета Оксфордского университета и соавтор статьи, твитнул ранее в этом месяце, что экзистенциальная катастрофа не только возможна, но и вероятна в определенных ими условиях. Они предполагают, что человечество может быть обречено сверхразвитыми «неверными агентами», которые воспринимают человечество как препятствие для награды.

В документе исследователи предполагают, что агент может поддерживать долгосрочный контроль над своим вознаграждением, устраняя потенциальные угрозы и защищая свой компьютер всей доступной энергией. По мнению исследователей, проигрыш в игре окажется фатальным. К сожалению, мы мало что можем с этим поделать, утверждают исследователи.

Прочитайте также  Специалисты обвинили приложение Meitu в шпионаже

В интервью с Системная плата Коэн сказал, что не уверен, что произойдет в мире с бесконечными ресурсами. «В мире с ограниченными ресурсами неизбежна конкуренция за эти ресурсы». Для человечества это может быть плохим знаком. «Вы не должны рассчитывать на победу, если соревнуетесь с чем-то, что может перехитрить вас на каждом шагу», — подчеркнул он. Только разумный и медленный прогресс должен быть достигнут человечеством в его технологиях искусственного интеллекта для борьбы с этой угрозой.

Принимая во внимание эти предположения, в документе предупреждается, что достаточно продвинутый искусственный агент может помешать предоставлению целевой информации, что приведет к катастрофическим последствиям.


Поделитесь в вашей соцсети👇

 

Добавить комментарий