Советы чат-бота по питанию довели до бромизма и принудительного психиатрического лечения
Журнал Annals of Internal Medicine Clinical Cases опубликовал отчет о пациенте, у которого развился бромизм после обращения к чат-боту ChatGPT для получения медицинской информации об изменении рациона питания.
60-летний американец решил сделать свой рацион более здоровым. До этого он читал о негативном влиянии на здоровье чрезмерного потребления поваренной соли, также известной как хлорид натрия. Известно, что избыток соли наносит вред организму, провоцируя повышение артериального давления и проблемы с суставами
«Он был удивлен, что смог найти только литературу, посвященную сокращению потребления натрия, а не хлорида», — отмечается в отчете. — Вдохновленный своим опытом изучения диетологии в колледже, он решил провести личный эксперимент по исключению хлорида из своего рациона».
В отчете отмечается, что решение отказаться от хлорида является опасным, так как соединения хлора очень важны для поддержания нормального объема крови и оптимального артериального давления, при слишком низком (как и слишком высоком) уровне хлора в крови могут возникнуть серьезные проблемы со здоровьем.
Мужчина обратился за рекомендациями к ChatGPT. Он воспользовался ChatGPT 3.5 или 4.0, в зависимости от хронологии случая. Авторы отчета не получили доступа к журналу разговоров пациента, поэтому точная формулировка, сгенерированная большой языковой моделью (LLM), неизвестна. Однако мужчина сообщил, что ChatGPT указал, что хлорид можно заменить бромидом, поэтому он заменил весь хлорид натрия в своем рационе на бромид натрия, который тоже имеет соленый вкус. Так в рационе мужчины вместо привычной соли появились биологически активные добавки с бромидом натрия, которые он приобрел в интернете.
Отравление бромидами (бромизм)
Соединения брома когда-то широко применялись в медицине — в XIX—XX веках их широко назначали в качестве седативных и противосудорожных препаратов. Однако позже выяснилось, что при хроническом употреблении они вызывают бромизм — состояние, которое сопровождается психозами, нарушениями памяти, координации движений и другими серьезными симптомами. К 1980-м годам использование бромидов в безрецептурных лекарствах практически прекратилось, да и в целом их стали применять все реже, поэтому случаи бромизма стали редкостью. Тем не менее, добавки с бромидами в США можно приобрести онлайн, и если употреблять их сверх меры, как в данном случае, когда ими заменили всю поваренную соль, проблемы неизбежны.
В течение трех месяцев мужчина употреблял бромид натрия вместо соли, не подозревая, что вещество накапливается в организме и нарушает работу нейронов. В итоге он оказался в больнице с психозом и бредовыми идеями о том, что его пытается отравить сосед. Дополнительно у него наблюдались усталость, бессонница, нарушения координации, чрезмерная жажда, сыпь и высыпания на лице — типичные признаки бромизма.
Состояние пациента продолжало ухудшаться даже в больнице. В течение первых 24 часов после поступления у него усилилась паранойя, а также слуховые и зрительные галлюцинации, которые после попытки побега привели к принудительному психиатрическому лечению.
Чат-боты не предназначены для постановки диагнозов или назначения лечения
Через три недели пациент был выписан в стабильном состоянии, что подтвердилось и при повторном осмотре. Ученые подчеркивают, что этот случай является яркой иллюстрацией рисков, связанных с безусловным доверием ИИ, особенно в вопросах здоровья. ChatGPT и подобные системы не предназначены для постановки диагнозов или назначения лечения (об этом, кстати, в условиях предоставления услуг ChatGPT есть соответствующее предупреждение), а их ответы без оценки квалифицированных специалистов могут быть опасны для здоровья и даже жизни.
Авторы отчете отмечают, что когда они спросили ChatGPT 3.5, чем можно заменить хлорид, то также получили ответ, включающий бромид. Хотя в ответе говорилось, что контекст важен, в нем не было конкретного предупреждения о вреде для здоровья и не было вопроса о том, почему мы хотели это узнать, как, по нашему мнению, поступил бы медицинский работник.
Издание Live Science связалось с компанией OpenAI, разработчиком ChatGPT, по поводу этого случая. Представитель компании указал журналисту на условия предоставления услуг , в которых указано, что ее услуги не предназначены для диагностики или лечения каких-либо заболеваний, а также на условия использования , в которых указано: «Вы не должны полагаться на результаты наших услуг как на единственный источник достоверной или фактической информации или как на замену профессиональной консультации». Представитель добавил, что службы безопасности OpenAI стремятся снизить риск использования услуг компании и обучить пользователей продуктам обращаться за профессиональной консультацией.
«Детали», Ю.Л. Фото: Depositphotos.com
Будьте всегда в курсе главных событий:
