Диетический бот-убийца: Как совет ChatGPT едва не погубил пациента

Диетический бот-убийца: Как совет ChatGPT едва не погубил пациента

 

Отравление из-за диетического совета ChatGPT превратилось в тревожный пример после того, как 60-летний мужчина заработал бромизм — тяжелую интоксикацию бромом, следуя опасным рекомендациям ИИ. Бромизм был распространен век назад, но сегодня встречается редко. Этот случай демонстрирует, насколько убедительные ответы нейросети могут быть смертельно ошибочными.

От бессолевой диеты к токсичной замене

Мужчина решил полностью исключить поваренную соль (хлорид натрия) из рациона. Вместо умеренного сокращения он начал искать полноценную замену. Задав вопрос чат-боту на базе ИИ, он заменил соль на бромид натрия — соединение, которое ранее применялось в успокоительных средствах и промышленности, но недопустимо в пищу.

Три месяца мужчина добавлял бромид натрия в каждое блюдо. Затем проявились симптомы: паранойя, слуховые и зрительные галлюцинации, сильная жажда, хроническая усталость, бессонница, нарушение координации, акне, сосудистые звездочки и сыпь. Он стал подозревать, что сосед травит его, отказался от водопроводной воды и начал дистиллировать собственную. Во время госпитализации врачи поместили его в психиатрический стационар из-за риска самоповреждения.

Анализы выявили бромизм, вызванный накоплением брома. Это состояние провоцирует неврологические, психические и кожные нарушения. Раньше оно встречалось чаще, когда бромиды назначали при тревоге и бессоннице. Лабораторные тесты также показали псевдогиперхлоремию — ложное превышение уровня хлоридов из-за вмешательства брома. Подобные артефакты могут затруднить диагностику.

Лечение и реабилитация

Пациенту назначили инфузионную терапию, коррекцию электролитов и краткий курс антипсихотиков. За три недели его состояние стабилизировалось. При выписке он был здоров, а через две недели повторный осмотр подтвердил отсутствие осложнений.

Ошибки ИИ: Почему нельзя доверять машинам?

Детали дела: Опубликованный в Annals of Internal Medicine Clinical Cases (2025) кейс описывает, как ChatGPT 3.5 ответил на аналогичный вопрос. Нейросеть упомянула, что «контекст важен», но не предупредила о токсичности бромида натрия и не порекомендовала консультацию врача. В отличие от ИИ, специалист задал бы уточняющие вопросы и исключил опасные варианты.

Советы по безопасности

  • Не заменяйте продукты химикатами из интернета без одобрения врача.
  • «Аналоги» соли часто не являются физиологической заменой.
  • При симптомах после изменения диеты — немедленно прекратите эксперимент.
  • ИИ — для общего образования, а не медицинских решений.

Главный вывод

Генеративный ИИ звучит уверенно, но упускает критически важные предостережения. При изменениях в питании, приеме лекарств или БАДов консультируйтесь с профессионалами. Одна ошибка может стоить жизни.

Эксперты предупреждают: рост подобных случаев требует регулирования ИИ в медицине.

После инцидента врачи и IT-специалисты призвали разработчиков внедрить в нейросети алгоритмы, проверяющие советы на токсичность. «ИИ должен распознавать ключевые риски, как это делает человек», — заявил токсиколог Андрей Волков. Параллельно в ЕС обсуждают закон, обязывающий ИИ-сервисы добавлять предупреждения при запросах о здоровье. Пока же единственная защита — критическое мышление и консультация врача.

Добавить комментарий