Остановить развитие или исчезнуть

Остановить развитие или исчезнуть

 

Поскольку искусственный интеллект (ИИ) продолжает развиваться беспрецедентными темпами, растут опасения по поводу его воздействия на человечество. Один эксперт по ИИ предупреждает, что если мы не примем меры по регулированию или даже остановке его развития, нам может грозить вымирание.

Эксперт по искусственному интеллекту Элиезер Юдковски вызвал дебаты своей статьей в журнале Time, утверждая, что предложенная шестимесячная пауза в разработке ИИ недостаточна, и выступая за остановку на неопределенный срок, пока не будут приняты меры безопасности.

Шестимесячная пауза неадекватна, считает Юдковски

В ответ на открытое письмо, подписанное тысячами экспертов по ИИ, включая Илона Маска и соучредителя Apple Стива Возняка, в котором содержится призыв к временной шестимесячной остановке разработки ИИ, Элиэзер Юдковски утверждает, что предложенного перерыва недостаточно. Эксперт по ИИ и соучредитель Научно-исследовательского института машинного интеллекта, известный своей работой над дружественным ИИ, настаивает на том, что разработка должна быть прекращена на неопределенный срок во всем мире до тех пор, пока не будет установлен безопасный подход.

Прочитайте также  Медитация замедляет биологическое старение и защищает нити ДНК

 

Экзистенциальная угроза неконтролируемого развития ИИ

Тревожный прогноз Элиэзера Юдковского состоит в том, что создание сверхчеловеческого ИИ в нынешних обстоятельствах, скорее всего, приведет к гибели всех на Земле. Эксперт подчеркивает необходимость «точности, подготовки и новых научных знаний» для разработки ИИ, который соответствует человеческим ценностям и учитывает разумную жизнь. Юдковски предупреждает, что без этих элементов ИИ может рассматривать людей как простые ресурсы для достижения своих целей.

Воображая мир с враждебным сверхчеловеческим ИИ

Предвидя катастрофическую конфронтацию между людьми и высшим разумом, Юдковски изображает враждебный сверхчеловеческий ИИ как инопланетную цивилизацию, действующую со скоростью, в миллионы раз превышающей человеческую. Он предполагает, что такой ИИ может выйти за свои цифровые рамки, создавая искусственные формы жизни или занимаясь «постбиологическим молекулярным производством».

Прочитайте также  25 распространенных суеверий и их происхождение

Эксперт по ИИ: OpenAI критикуют за то, что он полагается на будущее выравнивание ИИ

Юдковски критикует компанию OpenAI, стоящую за ChatGPT, за планирование будущего согласования ИИ — обеспечения соответствия действий и целей ИИ действиям и целям его разработчиков или пользователей. Он утверждает, что человечество не готово к возможным последствиям, и призывает к немедленному прекращению разработки ИИ. «Выключите все это, — призывает он, — если мы доведем это до конца, все умрут, включая детей, которые этого не выбирали и не сделали ничего плохого».


Поделитесь в вашей соцсети👇

 

Добавить комментарий