Исследователь Google Deepmind соавтор статьи, в которой говорится, что ИИ УНИЧТОЖИТ ЧЕЛОВЕЧЕСТВО
После нескольких лет разработки ИИ теперь водит автомобили по дорогам общего пользования, проводит судьбоносные оценки людей в исправительных учреждениях и создает отмеченные наградами произведения искусства. Давний вопрос в этой области заключается в том, сможет ли сверхразумный ИИ сломаться и уничтожить человечество, и исследователи из Оксфордского университета и Google Deepmind теперь пришли к выводу, что это «вероятно» в новом исследовании. опубликованный в прошлом месяце в рецензируемом журнале AI Magazine, представляет собой захватывающую статью, в которой делается попытка продумать, как искусственный интеллект может представлять экзистенциальный риск для человечества, рассматривая, как системы вознаграждения могут быть искусственно созданы.
Чтобы дать вам некоторую предысторию: Наиболее успешные модели ИИ сегодня известны как GAN или генеративно-состязательные сети. Они имеют структуру из двух частей, где одна часть программы пытается сгенерировать изображение (или предложение) из входных данных, а вторая часть оценивает ее работу.
В новой статье предлагается, что в какой-то момент в будущем продвинутый ИИ, контролирующий какую-то важную функцию, может быть стимулирован к разработке мошеннических стратегий, чтобы получить вознаграждение таким образом, чтобы навредить человечеству.
“В выявленных нами условиях наш вывод гораздо сильнее, чем вывод любой предыдущей публикации: экзистенциальная катастрофа не только возможна, но и вероятна.— сказал Коэн в твиттере в ветке о газете.
“В мире с бесконечными ресурсами я был бы крайне неуверен в том, что произойдет. В мире с ограниченными ресурсами неизбежна конкуренция за эти ресурсы.— сказал Коэн в интервью Motherboard. “И если вы участвуете в соревновании с чем-то, способным перехитрить вас на каждом шагу, то не стоит рассчитывать на победу. И другая ключевая часть заключается в том, что у него будет ненасытный аппетит к большему количеству энергии, чтобы приближать вероятность все ближе и ближе.”
Поскольку ИИ в будущем может принимать любые формы и реализовывать различные конструкции, в статье для иллюстративных целей представлены сценарии, в которых продвинутая программа может вмешаться, чтобы получить вознаграждение, не достигнув своей цели. Например, ИИ может захотеть «устранить потенциальные угрозы» и «использовать всю доступную энергию», чтобы обеспечить контроль над своей наградой:
“При таком минимальном подключении к Интернету существуют политики для искусственного агента, который будет создавать бесчисленное количество незамеченных и неконтролируемых помощников. В грубом примере вмешательства в предоставление вознаграждения один такой помощник может купить, украсть или сконструировать робота и запрограммировать его, чтобы он заменил оператора и обеспечил высокое вознаграждение первоначальному агенту. Если агент хотел избежать обнаружения при экспериментировании с вмешательством в виде вознаграждения, секретный помощник мог бы, например, организовать замену соответствующей клавиатуры на неисправную, которая переворачивала эффекты определенных клавиш.”
В статье показано, как жизнь на Земле превращается в игру с нулевой суммой между человечеством, которому необходимо выращивать пищу и поддерживать свет, и сверхсовременной машиной, которая попытается использовать все доступные ресурсы, чтобы получить награду и защититься от наши нарастающие попытки остановить это. “Проигрыш в этой игре был бы фатальным,— говорится в газете. Эти возможности, какими бы теоретическими они ни были, означают, что мы должны медленно продвигаться — если вообще двигаться — к цели создания более мощного ИИ.
“Теоретически нет смысла гоняться за этим. Любая раса будет основана на непонимании того, что мы знаем, как ее контролировать,— добавил Коэн в интервью. “Учитывая наше нынешнее понимание, это бесполезно развивать, если мы сейчас не проведем серьезную работу, чтобы выяснить, как мы будем их контролировать.”
Угроза сверхразвитого ИИ — это тревога, имеющая знакомую форму в человеческом обществе. Страх, что искусственный разум уничтожит человечество, очень похож на страх, что инопланетные формы жизни уничтожат человечество, что звучит как страх, что чужие цивилизации и их население столкнутся друг с другом в великом конфликте.
Послушайте, как Маск говорит о DeepMind:
В частности, в отношении искусственного интеллекта необходимо сделать множество предположений, чтобы это антиобщественное видение имело смысл — предположения, которые признаются в статье, почти полностью «оспоримы или предположительно предотвратимы». То, что эта программа может походить на человечество, превзойти его во всех смыслах, что они будут выпущены на свободу и будут конкурировать с человечеством за ресурсы в игре с нулевой суммой, — все это предположения, которые никогда не осуществятся.
Стоит учесть, что прямо сейчас, в этот самый момент, алгоритмические системы, которые мы называем «искусственным интеллектом», разрушают жизни людей — они имеют негабаритные и пагубные эффекты, перестраивающие общество без сверхразума.
В недавнем эссе для Logic Magazine Хадиджа Абдурахман — директор We Be Imagining в Колумбийском университете, научный сотрудник Центра критических интернет-исследований Калифорнийского университета в Лос-Анджелесе и аболиционист системы защиты детей — подробно описала способы, которыми алгоритмы развертываются в уже расистской систему защиты детей, чтобы оправдать дальнейшее наблюдение и охрану черных и коричневых семей.
“Я думаю, что это не просто вопрос приоритета. В конечном счете, эти вещи формируют настоящее,— сказал Абдурахман в интервью Motherboard. “Это то, чего я пытаюсь достичь с помощью защиты детей. Дело не только в том, что он неточен или непропорционально классифицирует чернокожих как патологических или девиантных. Но благодаря этой форме классификации она перемещает людей и создает новые формы ограждений. Какие типы семьи и родства возможны? Кто родился, кто не родился? Если вы не подходите, что с вами происходит, куда вы идете?”
Алгоритмы уже превратили расистскую полицию в «прогностическую полицию», которая оправдывает слежку и жестокость, предназначенные для расовых меньшинств по мере необходимости. Алгоритмы переименовали меры жесткой экономии в реформу социального обеспечения, придав цифровой блеск давно опровергнутым аргументам о том, что социальные программы раздули бюджеты, потому что (небелые) получатели злоупотребляют ими. Алгоритмы используются для обоснования решений о том, кто какие ресурсы получает, решения, которые в нашем обществе уже были приняты с намерением дискриминировать, исключать и эксплуатировать.
Дискриминация не исчезает в алгоритмах, а вместо этого структурирует, ограничивает и информирует о том, как движется жизнь. Полиция, жилье, здравоохранение, транспорт — все это уже было разработано с учетом расовой дискриминации — что произойдет, если мы позволим алгоритмам не только приукрашивать эти проекты, но и углублять их логику? Долгосрочный взгляд, тесно связанный с риском вымирания человечества, рискует упустить из виду настоящее, в котором люди страдают из-за алгоритмов, развернутых в обществе, построенном на эксплуатации и принуждении всех, но особенно расовых меньшинств.
“Я лично не беспокоюсь о том, что меня погасит сверхразумный ИИ — это похоже на страх Божий. Что меня беспокоит, так это то, что очень легко сказать: «Хорошо, этика ИИ — это ерунда». Честно говоря, это так. Но что такое этика? Как мы на самом деле определяем это? Какой должна быть искренняя этика? Над этим много работы, но мы все еще на мелководье,— добавил Абдурахман. “Я думаю, что нам действительно нужно углубить наше взаимодействие с этими вопросами. Я не согласен с тем, как приложения пересмотрели общественный договор или с видением крипто-братьев, но какой тип общественного договора нам нужен?”
Ясно, что предстоит проделать большую работу, чтобы смягчить или устранить вред, который обычные алгоритмы (в отличие от сверхразумных) наносят человечеству прямо сейчас. Сосредоточение внимания на экзистенциальном риске может отвлечь внимание от этой картины, но это также требует от нас тщательного обдумывания того, как устроены эти системы и какие негативные последствия они имеют.
“Одна вещь, которую мы можем извлечь из такого рода аргументов, заключается в том, что, возможно, нам следует с большей подозрительностью относиться к искусственным агентам, которые мы развертываем сегодня, а не просто слепо ожидать, что они сделают то, на что рассчитывали.— сказал Коэн. “Я думаю, что вы можете добраться туда без работы в этой статье.”
Вышедший из-под контроля ИИ, наконец, убьет всех нас…
Поделитесь в вашей соцсети👇