Что такое искусственный сверхинтеллект (ИСИ) и что он может означать для человечества?

Что такое искусственный сверхинтеллект (ИСИ) и что он может означать для человечества?

Стремительный прогресс в области искусственного интеллекта (ИИ) заставляет людей задаваться вопросом о том, каковы фундаментальные пределы этой технологии. Все чаще тема, некогда относившаяся к научной фантастике, — идея сверхразумного ИИ — теперь всерьез рассматривается учеными и экспертами.

Идея о том, что когда-нибудь машины смогут сравняться или даже превзойти человеческий интеллект, имеет долгую историю. Но темпы развития ИИ в последние десятилетия придали этой теме новую актуальность, особенно после выпуска мощных больших языковых моделей (LLM) такими компаниями, как OpenAI, Google, Anthropic и другими.

Эксперты расходятся во мнениях о том, насколько осуществима идея «искусственного сверхинтеллекта» (ИСИ) и когда он может появиться, но некоторые считают, что такие сверхспособные машины уже не за горами. Несомненно то, что если и когда АСИ появится, это будет иметь огромные последствия для будущего человечества.

«Я считаю, что мы вступим в новую эру автоматизированных научных открытий, значительно ускоренного экономического роста, долголетия и новых развлечений», — сказал в интервью Live Science Тим Роктешел, профессор ИИ в Университетском колледже Лондона и главный ученый Google DeepMind, высказав свое личное мнение, а не официальную позицию Google DeepMind. Однако он также предостерег: «Как и в случае с любой значительной технологией в истории, здесь есть потенциальный риск».

Что такое искусственный сверхинтеллект (ИСИ)?

Традиционно исследования в области ИИ сосредоточены на воспроизведении конкретных способностей, которые проявляют разумные существа. К ним относятся способность визуально анализировать сцену, разбирать язык или ориентироваться в окружающей среде. По словам Роктешеля, в некоторых из этих узких областей ИИ уже достиг сверхчеловеческой производительности, в частности в таких играх, как го и шахматы.

Однако главной задачей в этой области всегда было воспроизведение более общей формы интеллекта, наблюдаемой у животных и людей, которая сочетает в себе множество подобных возможностей. За прошедшие годы эта концепция получила несколько названий, в том числе «сильный ИИ» или «универсальный ИИ», но сегодня ее чаще всего называют искусственным интеллектом общего назначения (ИИОН).

«Долгое время AGI был далекой северной звездой для исследований в области ИИ», — говорит Роктешель. «Однако с появлением фундаментальных моделей [другой термин для LLM] у нас появился ИИ, который может сдать широкий спектр вступительных экзаменов в университеты и участвовать в международных соревнованиях по математике и кодингу».

По словам Роктешеля, это заставляет людей более серьезно относиться к возможности создания ИИ. И что очень важно, когда мы создадим ИИ, способный сравниться с человеком в широком спектре задач, возможно, пройдет совсем немного времени, прежде чем он достигнет сверхчеловеческих возможностей во всех сферах деятельности. Такова, во всяком случае, идея. «Как только ИИ достигнет возможностей человеческого уровня, мы сможем использовать его для самосовершенствования», — говорит Роктешель. «Лично я считаю, что если мы сможем достичь AGI, то вскоре, возможно, через несколько лет после этого, мы достигнем ASI».

Что такое искусственный сверхинтеллект (ИСИ) и что он может означать для человечества?
IBM Deep Blue стала первой системой искусственного интеллекта, победившей действующего чемпиона мира по шахматам (Гарри Каспарова, на фото) в 1997 году. (Фото: STAN HONDA/AFP via Getty Images).

Когда этот рубеж будет достигнут, мы сможем увидеть то, что британский математик Ирвинг Джон Гуд в 1965 году назвал «взрывом интеллекта«. Он утверждал, что когда машины станут достаточно умными, чтобы совершенствовать себя, они быстро достигнут уровня интеллекта, намного превосходящего человеческий. Он назвал первую сверхинтеллектуальную машину «последним изобретением, которое когда-либо должен сделать человек».

Известный футурист Рэй Курцвейл утверждает, что это приведет к «технологической сингулярности», которая внезапно и необратимо изменит человеческую цивилизацию. Этот термин проводит параллели с сингулярностью в сердце черной дыры, где разрушается наше понимание физики. Точно так же появление АСИ приведет к быстрому и непредсказуемому технологическому росту, который окажется за пределами нашего понимания.

Когда именно произойдет такой переход — вопрос спорный. В 2005 году Курцвейл предсказал, что AGI появится к 2029 году, а сингулярность наступит в 2045 году, и с тех пор он придерживается этого прогноза. Другие эксперты в области ИИ предлагают самые разные прогнозы — от в течение этого десятилетия до никогда. Но недавний опрос 2 778 исследователей ИИ показал, что в целом они считают, что вероятность появления АСИ к 2047 году составляет 50 %. Более широкий анализ показал, что большинство ученых согласны с тем, что ИИ может появиться к 2040 году.

Что АСИ будет означать для человечества?

Последствия появления такой технологии, как ASI, будут огромны, что заставит ученых и философов посвятить немало времени изучению перспектив и потенциальных подводных камней для человечества.

По словам Дэниела Халма, генерального директора ИИ-компаний Satalia и Conscium, с положительной стороны машины с практически неограниченными возможностями интеллекта могли бы решить некоторые из самых насущных мировых проблем. В частности, сверхразумные машины могли бы «устранить трения при создании и распространении продуктов питания, образования, здравоохранения, энергии, транспорта, настолько, что мы могли бы свести стоимость этих товаров к нулю», — сказал он в интервью Live Science.

По словам Халма, это освободит людей от необходимости работать, чтобы выжить, и вместо этого они смогут проводить время, занимаясь любимым делом. Но если не будут созданы системы поддержки тех, чьи рабочие места будут сокращены искусственным интеллектом, исход может быть еще более плачевным. «Если это произойдет очень быстро, наши экономики не смогут восстановить равновесие, и это может привести к социальным беспорядкам, — говорит он.

Это также предполагает, что мы сможем контролировать и управлять существом, гораздо более разумным, чем мы, что, по мнению многих экспертов, маловероятно. «Я не очень верю в эту идею, что оно будет следить за нами, заботиться о нас и следить за тем, чтобы мы были счастливы», — говорит Халм. «Я просто не могу представить, что ему будет до этого дело».

Возможность появления сверхразума, который мы не можем контролировать, вызвала опасения, что ИИ может представлять экзистенциальную опасность для нашего вида. Это стало популярным приемом в научной фантастике, когда в таких фильмах, как «Терминатор» или «Матрица», изображаются злобные машины, стремящиеся уничтожить человечество.

Но философ Ник Бостром подчеркивает, что для реализации различных сценариев конца света АСИ даже не обязательно должны быть активно враждебны людям. В своей работе, опубликованной в 2012 году, он предположил, что интеллект существа не зависит от его целей, поэтому АСИ может иметь совершенно чуждые нам мотивы, не связанные с благополучием человека.

Что такое искусственный сверхинтеллект (ИСИ) и что он может означать для человечества?
Ник Бострум (на фото) философски рассуждает о последствиях АСИ в своей эпохальной работе 2012 года. (Фото: Photo by Tom Pilston for The Washington Post via Getty Images).

Бостром развил эту идею с помощью мысленного эксперимента, в котором сверхмощному ИИ ставится безобидная на первый взгляд задача — произвести как можно больше бумажных скрепок. Если его ценности не совпадают с человеческими, он может решить уничтожить всех людей, чтобы они не смогли его отключить, или превратить все атомы в их телах в большее количество скрепок.

Роктешель настроен более оптимистично. «Мы создаем нынешние системы ИИ, чтобы они были полезными, но при этом безвредными и честными помощниками», — сказал он. «Они настраиваются на выполнение человеческих инструкций и обучаются на основе обратной связи, чтобы давать полезные, безвредные и честные ответы».

Хотя Роктешель признает, что эти средства защиты можно обойти, он уверен, что в будущем мы разработаем более совершенные подходы. Он также считает, что можно будет использовать ИИ для надзора за другими ИИ, даже если они сильнее.

По словам Халма, большинство современных подходов к «выравниванию моделей» — попыткам обеспечить соответствие ИИ человеческим ценностям и желаниям — слишком грубы. Как правило, они либо устанавливают правила поведения модели, либо обучают ее на примерах человеческого поведения. Но он считает, что эти ограждения, которые прикручиваются в конце процесса обучения, могут быть легко обойдены ИИ.

Вместо этого Халм считает, что мы должны создать ИИ с «моральным инстинктом». Его компания Conscium пытается сделать это, развивая ИИ в виртуальной среде, которая была создана для поощрения такого поведения, как сотрудничество и альтруизм. В настоящее время они работают с очень простым, «насекомообразным» ИИ, но если этот подход удастся расширить, он может сделать выравнивание более надежным. «Встраивание морали в инстинкт ИИ ставит нас в гораздо более безопасное положение, чем просто наличие этих своеобразных защитных рельсов из игры Whack-a-Mole», — говорит Халм.

Однако не все убеждены, что нам уже пора начинать беспокоиться. По словам Роктешеля, одним из распространенных критических замечаний в адрес концепции ASI является то, что у нас нет примеров людей, обладающих высокими способностями к выполнению широкого спектра задач, поэтому, возможно, не удастся достичь этого и в рамках одной модели. Еще одно возражение заключается в том, что вычислительные ресурсы, необходимые для достижения ASI, могут оказаться непомерно большими.

Несмотря на эти скептические замечания, вопрос о пределах ИИ продолжает оставаться одним из самых важных и захватывающих в наше время. Дискуссия об АСИ подчеркивает необходимость серьезного подхода к разработке и внедрению ИИ, чтобы гарантировать, что эта технология будет служить человечеству, а не угрожать ему.

Ключевым аспектом этой задачи является разработка надежных методов «выравнивания» ИИ, которые позволят согласовать цели ИИ с человеческими ценностями. Это требует глубокого понимания не только технических аспектов ИИ, но и этических, философских и социальных последствий его развития.

Многие исследователи и организации по всему миру уже работают над решением этих проблем, разрабатывая новые подходы к обучению ИИ, которые учитывают моральные и этические аспекты. Среди них — разработка ИИ с «моральным инстинктом», а также создание систем, которые позволят контролировать и управлять ИИ, даже если он превзойдет человеческий интеллект.

В конечном счете, будущее человечества в эпоху ИИ зависит от того, насколько успешно мы сможем решить эти сложные задачи. Важно, чтобы развитие ИИ шло рука об руку с глубоким пониманием его потенциальных последствий и готовностью принимать меры для смягчения рисков и обеспечения безопасности.

С практической точки зрения, то, как мы измеряем прогресс в области ИИ, может вводить нас в заблуждение относительно того, насколько мы близки к сверхразуму, говорит Александр Илич, руководитель Центра ИИ ETH в Цюрихской высшей технической школе, Швейцария. Большинство впечатляющих результатов в области ИИ за последние годы были получены в результате тестирования систем на нескольких очень надуманных тестах на отдельные навыки, такие как кодирование, рассуждение или понимание языка, которые системы явно обучены проходить, говорит Илич.

Он сравнивает это с подготовкой к экзаменам в школе. «Вы загрузили свой мозг, чтобы сделать это, затем написали тест, а потом забыли о нем», — говорит он. «Вы стали умнее, посетив занятия, но сам тест не является хорошим показателем реальных знаний».

ИИ, способный проходить многие из этих тестов на сверхчеловеческом уровне, может появиться лишь через несколько лет, считает Илич. Но он считает, что доминирующий сегодня подход не приведет к созданию моделей, которые смогут выполнять полезные задачи в физическом мире или эффективно сотрудничать с людьми, что будет иметь решающее значение для их широкого влияния в реальном мире.

Добавить комментарий