Мужчина получил бромизм и психоз, следуя советам ChatGPT

10 августа 2025
Время чтения 2 мин.
17 Просмотров

В современном мире, где технологии все активнее внедряются в повседневную жизнь, особенно важной становится тема безопасности и ответственности при использовании искусственного интеллекта. Недавний инцидент, произошедший в США, ярко иллюстрирует потенциальные риски, связанные с безответственным применением советов, полученных у машинных алгоритмов. В центре внимания оказался мужчина, чье здоровье оказалось поставлено под угрозу после того, как он последовал рекомендациям ChatGPT о замене поваренной соли бромидом натрия.

Этот случай стал сенсацией в медицинских кругах и вызвал широкие обсуждения о границах использования ИИ. Мужчина, стремясь снизить потребление соли, обратился за советом к чат-боту, который предложил использовать бромид натрия в качестве заменителя. В результате его решимость задобрить рекомендации компьютера привела к тяжелым последствиям — у пациента развился бромизм, сопровождавшийся галлюцинациями, паранойей и другими психозами. Специалисты отметили, что подобные осложнения связаны с токсичностью бромидов, ранее активно используемых в медицине, однако в современности их применение практически исключено из-за опасности для здоровья.

В специализированной клинике мужчине проводили внутривенную терапию, назначали антипсихотические препараты и следили за динамикой его состояния. В течение трех недель его состояние стабилизировалось, и после полного выздоровления он был выписан. Этот случай стал первым зафиксированным примером тяжелых последствий, вызванных рекомендациями искусственного интеллекта по медицинским вопросам без консультации профильных специалистов.

Исследователи и врачебное сообщество подчеркивают, что системы вроде ChatGPT зачастую распространяют некорректную или неполную информацию, особенно если их ответы основаны на ограниченных данных или неправильно интерпретированы пользователем. Важно помнить, что ИИ не способен учитывать индивидуальные особенности здоровья, и его советы не могут заменить консультацию реального врача. Особенно опасными являются рекомендации, связанные с медикаментами или веществами с потенциально вредными эффектами.

Этот случай вызывает необходимость повышения ответственности разработчиков ИИ и повышения уровня информирования пользователей о том, как правильно и критически воспринимать информацию, полученную из машинных источников. Необходимо также разработать механизмы предупреждения о возможных рисках и ограничения при использовании советов, касающихся здоровья.

Таким образом, этот инцидент служит напоминанием о важности внимательного и ответственного подхода к использованию искусственного интеллекта. Важно помнить, что решения, касающиеся здоровья, должны приниматься только после консультации с квалифицированными специалистами. Технологии призваны помогать, а не заменять человека и его опыт, особенно в таких критических областях, как медицина. Надежное и безопасное использование ИИ требует четких правил и понимания его ограничений, чтобы избегать подобных трагических ситуаций в будущем.

Выйти из мобильной версии