Искусственный сверхразум способен уничтожить человечество «случайно»

Искусственный сверхразум способен уничтожить человечество «случайно»

 

К середине 21 века человечество сможет создать по-настоящему мощный искусственный интеллект, который уничтожит нашу цивилизацию, если что-то пойдет не так в его работе.

Согласно Вашингтон пост такую ​​угрозу считает реальной Эмиль Торрес, философ и специалист по оценке вероятности глобальных катастроф.

Торрес уверен, что к 2050 году в мире появится так называемый искусственный сверхинтеллект — машина, возможности которой превзойдут возможности человека.

«Создание искусственного сверхразума приведет к технологическому прорыву в самых разных областях, но нам также придется столкнуться с очень серьезными опасностями.

 

«Если люди доверяют сверхразуму какие-то действительно важные вещи, то велика вероятность того, что машина уничтожит человечество или сильно ему навредит. Потребуются очень сложные алгоритмы управления ИИ, но где вероятность, что компьютерный супергений не сможет их обойти? Даже в сегодняшних алгоритмах ИИ есть аспекты, которые ускользают от нашего понимания, и в будущем люди будут все меньше и меньше понимать, как работает мощный ИИ», — предупредил Торрес.

Эксперт считает, что глобальная катастрофа, вызванная ИИ, может произойти, если люди будут доверять машине слишком сложные и абстрактные задачи. Например, они поручат ИИ «устроить мир во всем мире», в результате чего компьютер просто уничтожит всех людей (нет людей — некому воевать друг с другом).

Прочитайте также  Как голографическая интерферометрия может повлиять на будущее

Неясно, будет ли человечество когда-либо готово к сверхразуму, но сейчас мы точно не готовы. При всей нашей глобальной нестабильности и все еще зарождающемся понимании технологий добавление ASI было бы равносильно зажиганию спички рядом с фабрикой фейерверков.

Исследования в области искусственного интеллекта должны замедлиться или даже приостановиться. И если исследователи не примут это решение, правительства должны сделать это за них.


Поделитесь в вашей соцсети👇

 

Добавить комментарий