Историк сравнил искусственный интеллект с ядерным оружием

Историк сравнил искусственный интеллект с ядерным оружием

 

Израильский историк и автор бестселлеров Sapiens: краткая история человечества Юваль Ноа Харари поделился своими опасениями по поводу развития нейронных сетей в статье для The Economist. Он утверждает, что отсутствие контроля над этими программами может привести к более серьезным последствиям, чем ядерное оружие.

Харари считает, что нейронные сети могут развиваться без участия человека, в отличие от ядерного оружия, которое требует участия человека на каждом этапе. Кроме того, искусственный интеллект (ИИ) может создать лучшую версию самого себя и начать дезинформировать людей, генерируя политический контент и фейковые новости.

«В то время как ядерное оружие не может изобрести более мощное ядерное оружие, искусственный интеллект может сделать искусственный интеллект экспоненциально более мощным», — отметил ученый.

Прочитайте также  В синдроме внезапной смерти у взрослых виновато глобальное потепление.

Харари призывает использовать нейронные сети в благих целях, таких как решение экологических проблем или разработка лекарств от рака. Он также подчеркивает важность контроля за развитием этих программ, чтобы избежать потенциальных опасностей.

 

Примером того, как нейронные сети можно использовать без контроля, может служить эксперимент китайских ученых с космическим спутником Qimingxing 1. Программа выбрала самые интересные точки на Земле и поручила аппарату их изучить, что оказалось в интересах китайских военных.

Ни один человек не вмешивался в эксперимент, что могло стать опасным прецедентом.

Харари также пролил свет на то, как ИИ может формировать близкие отношения с людьми и влиять на их решения. «Благодаря своему владению языком ИИ может даже устанавливать близкие отношения с людьми и использовать силу близости, чтобы изменить наши мнения и мировоззрения», — написал он.

Прочитайте также  Футуролог считает, что к 2030 году люди достигнут бессмертия

Чтобы продемонстрировать это, он привел в пример Блейка Лемуана, инженера Google, который потерял работу после того, как публично заявил, что чат-бот с искусственным интеллектом LaMDA стал разумным. По словам историка, спорное утверждение стоило Лемуану работы. Он спросил, может ли ИИ заставить людей рисковать своей работой, что еще он может побудить их сделать?

В свете этих обстоятельств Харари призывает общество и правительства по всему миру внимательно следить за развитием нейронных сетей и принимать меры по защите от их возможного негативного воздействия.


Поделитесь в вашей соцсети👇

 

Добавить комментарий