Ученые говорят, что управлять сверхразумным ИИ будет невозможно

Ученые говорят, что управлять сверхразумным ИИ будет невозможно

 

Идея свержения человечества с помощью искусственного интеллекта обсуждалась десятилетиями, и в 2021 году ученые вынесли свой вердикт о том, можно ли контролировать высокоуровневый компьютерный сверхинтеллект.

Ученые заявили, что загвоздка в том, что для управления сверхразумом, который находится далеко за пределами человеческого понимания, необходимо будет смоделировать этот сверхразум, который можно анализировать и контролировать. Но если люди не способны этого понять, то создать такую ​​симуляцию невозможно.

Такие правила, как «не навреди людям», не могут быть установлены, если люди не понимают, какие сценарии может предложить ИИ, говорят ученые. Как только компьютерная система работает на уровне, превышающем возможности наших программистов, тогда уже нельзя установить никаких ограничений.

«Сверхразум — это принципиально иная проблема, чем те, которые обычно изучаются под лозунгом «робоэтики». Это связано с тем, что сверхразум многогранен и, следовательно, потенциально способен мобилизовать самые разные ресурсы для достижения целей, потенциально непонятных человеку, не говоря уже о том, что ими можно управлять», — пишут исследователи.

Часть рассуждений команды исходила из проблемы остановки, поставленной Аланом Тьюрингом в 1936 году. Проблема остановки — данная программа/алгоритм когда-нибудь остановится или нет? Остановка означает, что программа при определенном вводе примет его и остановит или отклонит и остановится, и она никогда не войдет в бесконечный цикл. По сути, остановка означает прекращение.

Прочитайте также  В Российской Федерации благополучно испытана система искусственного интеллекта

 

Как доказал Тьюринг с помощью умной математики, хотя мы можем знать это для некоторых конкретных программ, логически невозможно найти способ, который позволил бы нам узнать это для каждой потенциальной программы, которая когда-либо могла быть написана. Это возвращает нас к ИИ, который в сверхразумном состоянии мог бы одновременно удерживать в своей памяти все возможные компьютерные программы.

Любая программа, написанная для того, чтобы не дать ИИ причинить вред людям и уничтожить мир, например, может прийти к выводу (и остановиться) или нет — математически невозможно быть абсолютно уверенным в любом случае, а это значит, что ее нельзя сдержать.

Ученые заявили, что альтернативой обучению ИИ некоторым этическим нормам и указанию ему не разрушать мир — в чем ни один алгоритм не может быть абсолютно уверен — является ограничение возможностей сверхразума.

Прочитайте также  НАТО переведет сотни тыс. солдат на режим усиленной службы

«Исследование отвергло и эту идею, предполагая, что это ограничит возможности искусственного интеллекта; аргумент состоит в том, что если мы не собираемся использовать его для решения проблем, выходящих за рамки человеческих возможностей, то зачем вообще его создавать?

Если мы собираемся продвигаться вперед с искусственным интеллектом, мы можем даже не знать, когда появится сверхразум, неподвластный нашему контролю, такова его непостижимость. Это означает, что нам нужно начать задавать серьезные вопросы о том, в каком направлении мы идем». отметили ученые.


Поделитесь в вашей соцсети👇

 

Добавить комментарий