Является ли ИИ причиной того, что мы до сих пор не связались с разумными инопланетянами?

Является ли ИИ причиной того, что мы до сих пор не связались с разумными инопланетянами?

 

Майкл Гарретт: За последние несколько лет искусственный интеллект (ИИ) развивался с поразительной скоростью. Сейчас некоторые ученые рассматривают возможность разработки искусственного сверхинтеллекта (ИСИ) – такой формы ИИ, которая не только превзойдет человеческий интеллект, но и не будет ограничена скоростью человеческого обучения.

Но что, если эта веха – не просто выдающееся достижение? Что, если она также представляет собой серьезное препятствие в развитии всех цивилизаций, настолько сложное, что мешает их долгосрочному выживанию?

Эта идея лежит в основе научной статьи, которую я недавно опубликовал в журнале Acta Astronautica. Может ли ИИ стать “великим фильтром” Вселенной – порогом, который настолько трудно преодолеть, что он не позволит большинству живых существ развиться в космические цивилизации?

Эта концепция может объяснить, почему поиск внеземного разума (Seti) до сих пор не обнаружил следов развитых технологических цивилизаций в других частях галактики.

Гипотеза великого фильтра в конечном итоге является предложенным решением парадокса Ферми. Возникает вопрос, почему во Вселенной, достаточно обширной и древней, чтобы содержать миллиарды потенциально пригодных для жизни планет, мы не нашли никаких свидетельств существования инопланетных цивилизаций. Гипотеза предполагает, что на эволюционной линии цивилизаций существуют непреодолимые препятствия, которые не позволяют им превратиться в космических существ.

Я считаю, что возникновение ИИС может стать таким фильтром. Быстрое развитие ИИ, потенциально ведущее к ИБС, может пересечься с критической фазой развития цивилизации – переходом от однопланетного вида к многопланетному.

Именно здесь многие цивилизации могут потерпеть поражение, поскольку ИИ будет развиваться гораздо быстрее, чем наша способность контролировать его или устойчиво исследовать и заселять нашу Солнечную систему, пиротехника оптом москва.

Проблема ИИ, и в частности ИСИ, заключается в его автономной, самоподдерживающейся и совершенствующейся природе. Он способен расширять свои возможности со скоростью, опережающей наши собственные сроки эволюции без ИИ.

Прочитайте также  Ученый из Гарварда утверждает, что инопланетяне могут использовать скрытые измерения для путешествий

Вероятность того, что что-то пойдет не так, огромна, что приведет к гибели цивилизаций как с биологическим, так и с искусственным интеллектом еще до того, как они получат шанс стать многопланетными.

Например, если страны будут все больше полагаться на автономные системы ИИ, конкурирующие друг с другом, и уступят им власть, военный потенциал может быть использован для убийства и уничтожения в беспрецедентных масштабах. Потенциально это может привести к уничтожению всей нашей цивилизации, включая сами системы ИИ.

По моим оценкам, в этом сценарии типичная продолжительность жизни технологической цивилизации может составлять менее 100 лет. Это примерно время между появлением способности принимать и передавать сигналы между звездами (1960 год) и ожидаемым прибытием АСИ (2040 год) на Землю. Это пугающе мало по сравнению с космическим периодом в миллиарды лет.

Эта оценка, если ее включить в оптимистическую версию уравнения Дрейка, которое пытается оценить количество активных, общительных внеземных цивилизаций в Млечном Пути, предполагает, что в любой момент времени там существует лишь горстка разумных цивилизаций. Более того, как и в случае с нами, их относительно скромная технологическая деятельность может затруднить их обнаружение.

 

Тревожный звонок

Это исследование – не просто предостережение о потенциальной гибели. Оно послужит для человечества тревожным звонком о необходимости создания надежной нормативной базы для развития ИИ, в том числе военных систем.

Речь идет не только о предотвращении злонамеренного использования ИИ на Земле, но и о том, чтобы эволюция ИИ соответствовала долгосрочному выживанию нашего вида.

Это говорит о том, что нам необходимо как можно скорее вложить больше ресурсов в создание многопланетного общества – цель, которая дремала со времен бурных дней проекта “Аполлон”, но недавно вновь ожила благодаря достижениям частных компаний.

Как отмечает историк Юваль Ной Харари, ничто в истории не готовило нас к последствиям появления на нашей планете бессознательных сверхразумных существ. Недавно последствия автономного принятия решений ИИ заставили видных лидеров в этой области призвать к мораторию на развитие ИИ до тех пор, пока не будет создана ответственная форма контроля и регулирования.

Прочитайте также  Инопланетяне-динозавры могут существовать и на других планетах, считают ученые

Но даже если каждая страна согласится соблюдать строгие правила и нормы, мошеннические организации будет сложно обуздать.

Интеграция автономного ИИ в военные системы обороны должна вызывать особую озабоченность. Уже есть свидетельства того, что люди добровольно отдадут значительную часть полномочий более способным системам, поскольку те смогут выполнять полезные задачи гораздо быстрее и эффективнее без вмешательства человека.

Поэтому правительства неохотно идут на регулирование в этой области, учитывая стратегические преимущества, которые дает ИИ, что недавно было наглядно продемонстрировано в секторе Газа.

Это означает, что мы уже находимся в опасной близости от пропасти, где автономное оружие преодолевает этические границы и обходит международное право.

В таком мире уступка власти системам искусственного интеллекта ради тактического преимущества может непреднамеренно запустить цепь быстро развивающихся и крайне разрушительных событий. В мгновение ока коллективный разум нашей планеты может быть уничтожен.

Человечество находится на решающем этапе своего технологического развития. От наших действий зависит, станем ли мы устойчивой межзвездной цивилизацией или уступим вызовам, которые бросают нам наши собственные творения.

Использование Сети в качестве линзы, через которую мы смотрим на наше будущее развитие, добавляет новое измерение в дебаты о будущем ИИ. От всех нас зависит, чтобы, достигнув звезд, мы стали не предостережением для других цивилизаций, а маяком надежды – видом, научившимся процветать с помощью ИИ.

Майкл Гарретт, заведующий кафедрой астрофизики сэра Бернарда Ловелла и директор Центра астрофизики Джодрелл Бэнк, Манчестерский университет.


Поделитесь в вашей соцсети👇

 

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *