Что произойдет, когда искусственный интеллект неизбежно превзойдет тест Тьюринга?
В 1950 г. британский компьютерщик Алан Тьюринг предложил экспериментальный метод для ответа на вопрос: могут ли машины мыслить? Он предположил, что если человек после пяти минут расспросов не сможет определить, с кем он разговаривает — с машиной с искусственным интеллектом (ИИ) или с другим человеком, то это будет свидетельствовать о наличии у ИИ интеллекта, подобного человеческому.
Хотя при жизни Тьюринга системы ИИ еще были далеки от прохождения теста, он предполагал, что
«[…] лет через пятьдесят можно будет запрограммировать компьютеры […] так, что они будут играть в имитационную игру настолько хорошо, что у среднего дознавателя не будет более 70% шансов провести правильную идентификацию после пяти минут допроса.
Сегодня, спустя более 70 лет после предложения Тьюринга, ни один ИИ не смог успешно пройти тест, выполнив описанные им условия. Тем не менее, как свидетельствуют некоторые заголовки, несколько систем подошли к этому очень близко.
В одном из недавних экспериментов были протестированы три большие языковые модели, в том числе GPT-4 (технология искусственного интеллекта, лежащая в основе ChatGPT). Участники эксперимента в течение двух минут общались либо с другим человеком, либо с системой искусственного интеллекта. ИИ было предложено сделать небольшие орфографические ошибки — и выйти из игры, если тестируемый становился слишком агрессивным.
С помощью этой подсказки ИИ удалось неплохо обмануть тестировщиков. В паре с ИИ-ботом тестируемые только в 60% случаев могли правильно определить, что они разговаривают с ИИ-системой.
Учитывая стремительный прогресс, достигнутый в разработке систем обработки естественного языка, мы можем увидеть, как ИИ пройдет тест Тьюринга уже в ближайшие несколько лет. VPS Hosting.
Но действительно ли подражание человеку является эффективным тестом на интеллект? И если нет, то какие альтернативные критерии мы можем использовать для оценки возможностей ИИ?
Ограничения теста Тьюринга
Хотя система, прошедшая тест Тьюринга, дает нам некоторое свидетельство того, что она разумна, этот тест не является решающим в определении интеллекта. Одна из проблем заключается в том, что он может давать «ложноотрицательные результаты».
Современные большие языковые модели часто разрабатываются таким образом, чтобы сразу заявить, что они не являются человеческими. Например, когда вы задаете вопрос ChatGPT, он часто предваряет свой ответ фразой «как языковая модель ИИ». Даже если системы искусственного интеллекта обладают способностью проходить тест Тьюринга, подобное программирование отменяет эту способность.
Тест также чреват определенными «ложными срабатываниями». Как отмечал философ Нед Блок в статье 1981 года, система может пройти тест Тьюринга, просто будучи жестко закодированной с человекоподобной реакцией на любые возможные входные данные.
Кроме того, тест Тьюринга нацелен, в частности, на человеческое познание. Если познание ИИ отличается от познания человека, то эксперт, проводящий опрос, сможет найти задачу, в которой ИИ и человек различаются по производительности.
Касаясь этой проблемы, Тьюринг писал:
Это возражение очень сильное, но, по крайней мере, мы можем сказать, что если, тем не менее, можно построить машину для удовлетворительной игры в имитацию, то это возражение нас не должно беспокоить.
Другими словами, если прохождение теста Тьюринга является хорошим доказательством того, что система разумна, то его провал не является хорошим доказательством того, что система не разумна.
Кроме того, тест не является хорошим мерилом того, обладают ли ИИ сознанием, могут ли они чувствовать боль и удовольствие, имеют ли они моральное значение.
По мнению многих ученых-когнитологов, сознание включает в себя определенный набор ментальных способностей, в том числе наличие рабочей памяти, мыслей высшего порядка, способность воспринимать окружающую среду и моделировать движение своего тела по ней.
Тест Тьюринга не дает ответа на вопрос, обладают ли системы ИИ такими способностями.
Растущие возможности искусственного интеллекта
Тест Тьюринга основан на определенной логике. То есть: люди разумны, поэтому все, что может эффективно имитировать человека, скорее всего, будет разумным.
Но эта идея ничего не говорит нам о природе интеллекта. Другой способ измерения интеллекта ИИ предполагает более критическое осмысление того, что такое интеллект.
В настоящее время не существует единого теста, который мог бы авторитетно измерить искусственный или человеческий интеллект.
На самом широком уровне мы можем рассматривать интеллект как способность достигать различных целей в различных условиях. Более интеллектуальные системы — это те, которые могут достигать более широкого спектра целей в более широком диапазоне сред.
Поэтому лучшим способом отслеживания прогресса в разработке систем ИИ общего назначения является оценка их производительности в различных задачах. Исследователи в области машинного обучения разработали целый ряд эталонов, позволяющих это сделать.
Так, например, GPT-4 смог правильно ответить на 86% вопросов в массивном многозадачном тесте на понимание языка — эталонном тесте на выбор из нескольких вариантов по целому ряду учебных предметов на уровне колледжа.
Он также получил положительные результаты в AgentBench — инструменте, позволяющем оценить способность большой языковой модели вести себя как агент, например, просматривать веб-страницы, покупать товары в Интернете и соревноваться в играх.
Остается ли тест Тьюринга актуальным?
Тест Тьюринга является мерой имитации — способности ИИ имитировать поведение человека. Большие языковые модели являются экспертами в области имитации, что в настоящее время отражается на их способности пройти тест Тьюринга. Однако интеллект — это не то же самое, что имитация.
Существует столько же типов интеллекта, сколько и целей, которые необходимо достичь. Лучший способ понять интеллект ИИ — следить за его прогрессом в развитии целого ряда важных возможностей.
В то же время важно не допустить «перестановки мест слагаемых» в вопросе о том, является ли ИИ интеллектуальным. Поскольку возможности ИИ быстро совершенствуются, критики идеи интеллектуальности ИИ постоянно находят новые задачи, с которыми системы ИИ могут столкнуться, и только потом обнаруживают, что они преодолели очередное препятствие.
В этой ситуации актуальным является вопрос не о том, являются ли системы ИИ интеллектуальными, а, точнее, о том, какими видами интеллекта они могут обладать.
Саймон Гольдштейн, доцент, Институт философии Дианойи, Австралийский католический университет, Австралийский католический университет и Камерон Доменико Кирк-Джаннини, доцент философии, Ратгерский университет.
Поделитесь в вашей соцсети👇