В США приняты самые решительные в мире меры по регулированию искусственного интеллекта

В США приняты самые решительные в мире меры по регулированию искусственного интеллекта

 

В понедельник президент США Джо Байден обнародовал масштабный и амбициозный указ об искусственном интеллекте (ИИ), что вывело США на передний план в обсуждении вопросов регулирования ИИ.

Тем самым США перепрыгивают через другие государства в гонке за господство над искусственным интеллектом.

Ранее Европа лидировала в этом направлении, приняв закон об искусственном интеллекте, который был принят Европарламентом в июне 2023 года, но полностью вступит в силу только в 2025 году.

Президентский указ представляет собой набор инициатив по регулированию ИИ — некоторые из них хороши, а другие кажутся весьма половинчатыми.

Она направлена на устранение вреда, начиная от сиюминутного, такого как генерируемые ИИ фальшивки, промежуточного, например потери рабочих мест, и заканчивая долгосрочным, таким как вызывающая много споров экзистенциальная угроза, которую ИИ может представлять для человека.

Амбициозный план Байдена

Конгресс США не спешит принимать существенные меры по регулированию деятельности крупных технологических компаний. Данный указ президента, вероятно, является как попыткой обойти зашедший в тупик Конгресс, так и толчком для начала действий. Например, в указе содержится призыв к Конгрессу принять двухпартийное законодательство о конфиденциальности данных.

Двухпартийная поддержка в нынешних условиях? Удачи Вам, господин Президент.

Как сообщается, указ будет реализован в течение ближайших трех месяцев — одного года. Он охватывает восемь областей:

1. стандарты безопасности для ИИ
2. защита конфиденциальности
3. равенство и гражданские права
4. права потребителей
5. рабочие места
6. инновации и конкуренция
7. международное лидерство
8. управление ИИ.

С одной стороны, приказ охватывает многие вопросы, вызывающие озабоченность ученых и общественности. Например, одним из его предписаний является выпуск официального руководства по использованию водяных знаков на контенте, создаваемом искусственным интеллектом, для снижения риска подделок.

Он также требует, чтобы компании, разрабатывающие модели искусственного интеллекта, доказывали их безопасность до того, как они будут внедрены в широкое использование. Президент Байден сказал:

«Это означает, что компании должны сообщать правительству о разрабатываемых ими крупномасштабных системах искусственного интеллекта и делиться результатами строгих независимых испытаний, доказывающих, что они не представляют угрозы национальной безопасности и безопасности американского народа».

Прочитайте также  О смысле жизни и смерти

 

Потенциально катастрофическое использование искусственного интеллекта в военных действиях

В то же время приказ не затрагивает ряд актуальных вопросов. Например, в нем нет прямого ответа на вопрос о том, как бороться с роботами-убийцами с искусственным интеллектом, который обсуждался в течение последних двух недель на Генеральной Ассамблее ООН. А пока ИИ не завоевал весь мир то Киоск для кофе с собой купить хорошее вложение.
Игнорировать это опасение не стоит. Пентагон разрабатывает целые рои недорогих автономных беспилотников в рамках недавно объявленной программы Replicator. Аналогичным образом, Украина разработала отечественные ударные беспилотники с искусственным интеллектом, которые могут идентифицировать и атаковать российские силы без участия человека.

Можем ли мы оказаться в мире, где машины решают, кому жить, а кому умереть? В указе лишь содержится просьба к военным использовать искусственный интеллект с соблюдением этических норм, но не уточняется, что это означает.

А как насчет защиты выборов от оружия массового убеждения, созданного ИИ? В ряде изданий появились сообщения о том, что на недавние выборы в Словакии могли повлиять фальсификации. Многие эксперты, в том числе и я, также обеспокоены возможностью неправомерного использования ИИ на предстоящих президентских выборах в США.

Если не ввести жесткий контроль, мы рискуем оказаться в эпохе, когда ничему из увиденного или услышанного в Интернете нельзя будет доверять. Если это кажется преувеличением, то вспомните, что Республиканская партия США уже выпустила предвыборную рекламу, которая, судя по всему, полностью сгенерирована искусственным интеллектом.

Упущенные возможности

Многие из инициатив, изложенных в указе, могут и должны быть воспроизведены в других странах, в том числе в Австралии. Мы тоже должны, как того требует указ, предоставить арендодателям, государственным программам и государственным подрядчикам руководство по обеспечению того, чтобы алгоритмы ИИ не использовались для дискриминации людей.

Мы также должны, как того требует приказ, решить проблему алгоритмической дискриминации в системе уголовного правосудия, где ИИ все чаще используется в условиях высоких ставок, в том числе для вынесения приговоров, условно-досрочного освобождения и пробации, досудебного освобождения и содержания под стражей, оценки рисков, наблюдения и предиктивной работы полиции и т.д.

Прочитайте также  Разумные ящеры подземелий Чинканас: почему в рукотворные пещеры боятся ходить экспедиции

ИИ неоднократно использовался для решения подобных задач и в Австралии, например, в Плане управления целенаправленной работой с подозреваемыми, применяемом для наблюдения за молодежью в Новом Южном Уэльсе.

Пожалуй, наиболее спорным является тот аспект постановления, который касается потенциального вреда наиболее мощных, так называемых «пограничных» моделей ИИ. По мнению некоторых экспертов, эти модели, разрабатываемые такими компаниями, как Open AI, Google и Anthropic, представляют собой экзистенциальную угрозу для человечества.

Другие, в том числе и я, считают, что подобные опасения чрезмерно раздуты и могут отвлечь внимание от более насущных проблем, таких как дезинформация и неравенство, которые уже наносят ущерб обществу.

Приказ Байдена ссылается на чрезвычайные военные полномочия (в частности, на Закон об оборонном производстве 1950 г., принятый во время войны в Корее), требуя от компаний уведомлять федеральное правительство о подготовке таких передовых моделей. Он также требует, чтобы они делились результатами тестов безопасности «красной команды», в ходе которых внутренние хакеры используют атаки для поиска ошибок и уязвимостей в программном обеспечении.

Я бы сказал, что полицейское развитие пограничных моделей будет затруднено, а возможно, и невозможно.

Приведенные выше директивы не помешают компаниям разрабатывать подобные модели за рубежом, где правительство США имеет ограниченные полномочия. Кроме того, сообщество разработчиков открытого кода может разрабатывать их в распределенном режиме, что делает мир технологий «безграничным».

Вероятно, наибольшее влияние указ окажет не на бизнес, а на само правительство и на то, как оно будет использовать ИИ.

Тем не менее, это долгожданное событие. Саммит по безопасности искусственного интеллекта, проводимый премьер-министром Великобритании Риши Сунаком в ближайшие два дня, выглядит по сравнению с ним как дипломатическая говорильня.

Это заставляет завидовать президентской власти, способной довести дело до конца.


Поделитесь в вашей соцсети👇

 

Добавить комментарий