Глобальный приоритет или глобальная угроза?

 

Искусственный интеллект (ИИ) стал одной из самых революционных технологий нашего времени, революционизировавшей отрасли и изменившей наш образ жизни и работы. Однако по мере того, как ИИ продолжает развиваться беспрецедентными темпами, возникают вопросы относительно его роли в обществе: является ли он глобальным приоритетом, который держит ключ к решению сложных проблем, или он представляет собой надвигающуюся угрозу, которая потенциально может разрушить наш образ жизни?

Ведущие деятели из нескольких секторов собрались, чтобы выступить с суровым предупреждением о возможных опасностях, связанных с искусственным интеллектом (ИИ). Центральная тема была ясна: растущие возможности ИИ и его интеграция в повседневную жизнь могут создать значительные и ранее непредвиденные риски в ближайшие годы. Является ли искусственный интеллект подходящим вариантом или он представляет собой глобальную угрозу?

Поскольку ИИ продолжает развиваться беспрецедентными темпами, потенциальные опасности, которые он может принести, все чаще вызывают беспокойство у тех, кто находится на переднем крае его разработки и применения. Разговор перешел от теоретических соображений к насущному диалогу о практических и этических последствиях этих передовых технологий.

Предупреждение служит суровым напоминанием об ответственности, связанной с преимуществами ИИ. Послание, которое они совместно передали в этот день, было направлено на их сверстников и предназначалось для политиков, бизнеса и широкой общественности. Намерение? Повышать осведомленность, способствовать диалогу и незамедлительным действиям по смягчению этих возникающих рисков до того, как они станут реальностью нашего будущего мира.

Прочитайте также  Путешествие по планетам теперь возможно с Google Maps

Риск ИИ наравне с пандемиями и ядерной войной

«Предотвращение превращения ИИ в экзистенциальную угрозу должно быть заботой всего мира», — Центр безопасности ИИ (CAIS) в недавнем заявлении. CAIS, занимающаяся сдерживанием социальных рисков ИИ посредством пропаганды, исследований и полевых исследований, приравнивает потенциальные опасности ИИ к пандемиям и ядерной войне, которые представляют серьезную угрозу для земной жизни.

 

Известный новатор в области ИИ среди подписантов

В соответствии с подведение итогов, среди подписантов — Джеффри Хинтон, первопроходец в области машинного обучения, известный своими настойчивыми предупреждениями о разрушительном потенциале ИИ. Недавно Хинтон ушел из Google из-за опасений, связанных с искусственным интеллектом, и его желания открыто решить эту проблему. Заявление также поддержал генеральный директор ChatGPT Сэм Альтман и несколько других влиятельных лиц.

Искусственный интеллект; глобальная угроза?

Дискуссия о потенциальных опасностях ИИ в последние годы обострилась, особенно с появлением чат-ботов с искусственным интеллектом, таких как ChatGPT и Google Bard. CAIS предупреждает: «ИИ, хотя и полезен, потенциально может увековечить предвзятость, сделать возможным использование автономного оружия, распространять дезинформацию и спровоцировать кибератаки».

Искусственный интеллект: повышение автономии, повышение риска

По мере того, как агенты ИИ получают больше автономии, даже при участии человека, они могут представлять повышенный риск причинения вреда. CAIS определяет восемь потенциальных рисков, связанных с ИИ, включая его использование в качестве оружия, распространение дезинформации, прокси-игры и риск потери человеком контроля из-за возникающих целей ИИ.

Прочитайте также  Неработающие и устаревшие iOS-приложение будут удалены из App Store 7 сентября

Реагирование регулирующих органов на возможное неправомерное использование ИИ

После этих предупреждений о возможном неправильном использовании ИИ и непредвиденных проблемах, связанных с его разработкой, многие страны в настоящее время предпринимают шаги по регулированию роста ИИ. Принятый в Европейском Союзе Закон об ИИ готов стать первым законом об ИИ, принятым важным регулирующим органом и касающимся трех основных категорий рисков, связанных с ИИ.

Предварительные предупреждения от лидеров отрасли

Это не первый раз, когда руководители отрасли и ученые совместно бьют тревогу по поводу подобных угроз. Ранее в этом году Илон Маск и еще более 1000 человек подписали открытое письмо с просьбой о шестимесячном перерыве в разработке ИИ, чтобы должным образом оценить потенциальные результаты и риски.

«Мощные системы искусственного интеллекта следует разрабатывать только тогда, когда мы можем с уверенностью определить, что их влияние будет полезным, а их риски управляемыми», — говорится в письме, подчеркивая необходимость обоснованной уверенности, пропорциональной потенциальным эффектам системы.


Поделитесь в вашей соцсети👇

 

Добавить комментарий