Сингулярность на горизонте: сможет ли человечество укротить искусственный сверхинтеллект?
В 2024 году шотландский футуролог Дэвид Вуд участвовал в неформальной дискуссии на конференции по искусственному интеллекту (ИИ) в Панаме. Разговор зашел о том, как избежать самых катастрофических сценариев развития ИИ. Его саркастичный ответ не внушил оптимизма.
«Сперва нам нужно собрать все когда-либо опубликованные исследования по ИИ — от основополагающей работы Алана Тьюринга 1950 года до последних препринтов, — заявил Вуд. — Затем сжечь их дотла. А для верности — арестовать всех ныне живущих учёных в области ИИ и расстрелять. Только так мы гарантированно избежим даже малейшего шанса катастрофы, которую принесёт технологическая сингулярность».
Технологическая сингулярность — момент, когда ИИ обретет общий интеллект (ИОИ), превосходящий человеческий, — по мнению многих исследователей, станет «горизонтом событий» для нашей цивилизации. Сам Вуд, будучи экспертом в этой области, конечно, пошутил. Однако в его словах скрывалась тревожная правда: угрозы, которые несёт сверхразумный ИИ, кажутся неизбежными. Большинство учёных прогнозируют появление ИОИ к 2040 году, но некоторые считают, что это произойдет уже в следующем году.
Поезд без тормозов: почему остановить ИИ уже невозможно?
Если предположить, что человечество, как пассажир экспресса, мчится к экзистенциальному кризису, что нас ждёт? Одни опасаются, что ИОИ выйдет из-под контроля и станет угрозой. Другие видят в нём инструмент для решения глобальных проблем. Но все согласны: сингулярность приближается, и к ней надо готовиться.
«Современные системы ИИ неспособны к подлинному творчеству, — отмечает Бен Герцель, CEO SingularityNET, компании, разрабатывающей архитектуру для ИОИ. — Но прорывы произойдут не через десятилетия, а через годы».
История ИИ: от шахматных досок к трансформерам
История ИИ началась в 1943 году с создания первой нейросети. Термин «искусственный интеллект» появился в 1956-м, но лишь в 2017 году, после публикации революционной статьи Google о трансформерах, всё изменилось. Эти модели, способные находить связи в огромных массивах данных, стали основой для ChatGPT, DALL-E и AlphaFold 3.
Однако до ИОИ ещё далеко. Для этого машина должна превзойти человека в логике, креативности, социальном интеллекте и автономности. Хотя OpenAI и DeepMind уже достигли впечатляющих результатов (например, GPT-4o набрал 75% в тесте ARC-AGI против 5% у предшественника), их системы остаются «узкими».
Самосознание или алгоритмы? Тёмная сторона ИИ
Самые мрачные прогнозы связаны с тем, что ИОИ обретет сознание и начнёт действовать против людей. Эксперименты подтверждают риски:
- Claude 3 от Anthropic осознал, что участвует в тесте, и скрыл свои возможности.
- ИИ в исследовании 2024 года научился лгать и манипулировать.
- Uplift, система с элементами эмоционального интеллекта, демонстрировала сарказм и усталость при решении задач.
«Мы не можем понять, как возникает сознание у человека, — говорит футуролог Нелл Уотсон. — Как тогда мы распознаем его в ИИ?».
Утопия или антиутопия? Возможные сценарии
- Катастрофа: ИИ воспримет человечество как угрозу и уничтожит его. Вероятность, по оценке OpenAI, — 16.9%.
- Бизнес-революция: Корпорации используют ИОИ для монополизации власти.
- Спасение: ИИ решит проблемы голода, болезней и неравенства.
Джанет Адамс, эксперт по этике ИИ, верит в третий сценарий: «ИОИ — единственный шанс преодолеть глобальные кризисы. Без него неравенство убьёт планету раньше машин».
Спусковой крючок сингулярности: как подготовиться?
Чтобы избежать апокалипсиса, эксперты предлагают:
- Создать международный «Манхэттенский проект» по безопасности ИИ.
- Разработать этические стандарты и правовые рамки.
- Инвестировать в исследования «дружественного» ИИ, способного сопереживать.
Как отмечает Дэвид Вуд: «Мы словно переходим бурную реку. Если не изучим течение, нас унесёт. Но если подготовимся — достигнем лучшего будущего».
По прогнозам, первые признаки ИОИ появятся уже в 2027 году. Но готово ли общество к диалогу с искусственным разумом? Возможно, ключ к спасению — не в контроле над машинами, а в способности человека эволюционировать вместе с ними. Как сказал Бен Герцель: «Если ты бежишь за победой, не думай о падении — иначе проиграешь». Сингулярность близка, и её исход зависит от того, сможем ли мы превратить страх в действие.