El insólito caso de un hombre que terminó intoxicado por seguir consejos de dieta de ChatGPT
El paciente, que no tenía antecedentes médicos ni psiquiátricos, presentó síntomas de paranoia y creía que un vecino lo estaba envenenando


Un caso médico inusual ha puesto en manifiesto los riesgos potenciales del uso inadecuado de la inteligencia artificial para obtener consejos de salud. Un hombre de 60 años desarrolló una grave intoxicación por bromuro después de sustituir su sal de mesa por bromuro de sodio, siguiendo recomendaciones obtenidas a través de ChatGPT.
El paciente, que no tenía antecedentes médicos ni psiquiátricos, llegó a la sala de emergencias del Hospital de la Universidad de Washington presentando síntomas de paranoia. Inicialmente creía que su vecino lo estaba envenenando, lo que llevó a los médicos a realizar una investigación exhaustiva.
MIRA AQUÍ: Video: Con pelucas y maquillaje, dos hombres trataron de robar una joyería en España
Los análisis de laboratorio revelaron alteraciones significativas en sus electrolitos, incluyendo niveles anormalmente altos de cloruro y un desequilibrio metabólico severo. Durante su hospitalización, el paciente desarrolló alucinaciones auditivas y visuales que requirieron tratamiento psiquiátrico.
La causa de su condición se descubrió cuando el paciente reveló que había estado realizando un “experimento personal” durante tres meses. Preocupado por los efectos negativos del cloruro de sodio (sal común) en la salud, consultó a ChatGPT sobre posibles sustitutos y procedió a reemplazar su sal de mesa por bromuro de sodio, que adquirió por Internet.
Los síntomas del paciente incluyeron acné facial, manchas rojas en la piel, fatiga, insomnio, problemas de coordinación y sed excesiva. Sus niveles de bromuro alcanzaron 1700 mg/L, muy por encima del rango normal de 0.9 a 7.3 mg/L.
Después de tres semanas de tratamiento, que incluyó la eliminación del bromuro de su dieta y terapia de hidratación, el paciente se recuperó completamente y fue dado de alta sin necesidad de medicación.
Este caso, publicado en Annals of Internal Medicine: Clinical Cases, sirve como advertencia sobre los riesgos de confiar ciegamente en la inteligencia artificial para tomar decisiones de salud sin consultar a profesionales médicos calificados.