Le pidió un consejo a ChatGPT y terminó internado con una enfermedad pasada de moda

Noticias Relacionadas

En medio de una semana de grandes anuncios, como el lanzamiento de GPT-5, la inteligencia artificial mantiene su protagonismo, aunque no solo por las buenas noticias, sino también por sus malos usos y efectos perjudiciales. Recientemente se conoció el caso de un hombre de 60 años que utilizó la plataforma de Open AI para pedir un consejo para su dieta, y el resultado final fue menos favorable de lo previsto.

Según difundió la revista Annals of Internal Medicine Clinical Cases, este hombre buscaba un sustituto para la sal en sus comidas, y, luego de seguir el consejo que le dio ChatGPT terminó internado por casi un mes. Es que la inteligencia artificial le recomendó reemplazar la sal por bromuro de sodio, dieta que mantuvo durante tres meses y que resultó en una intoxicación conocida como bromismo, relativamente común en el siglo XIX.

El hombre internado tuvo paranoia que iba en aumento, alucinaciones auditivas y visualesFreepik

“El bromismo se genera por el uso de sustancias que contienen exceso de bromo. Este es un elemento que, en forma natural, se encuentra en algunos alimentos o en el agua de mar y que, en ese sentido, no es tóxico. Se vuelve tóxico cuando se ingiere en cantidades exageradas o en compuestos que pueden alterar el organismo», explica María Isabel Rosón, Lic. y Dra. en Nutrición, profesora de la UBA y directora en la Universidad de la Cuenca del Plata.

Aclara que nunca se debe consumir como un único elemento; explica que se puede usar como un componente más de algún medicamento, “en cantidades muy controladas, de hecho, en nanogramos, ni siquiera llega a un miligramo”. Señala que, anteriormente, no se utilizaba bien, como fue el caso de un compuesto que contenía bromo, que generaba cierta textura en el pan (una costra más firme y crocante), pero dejó de emplearse cuando detectaron que podía tener efectos adversos a largo plazo. También señala que se utiliza como desinfectante para piletas de natación y, si se aplica de forma equivocada, puede producir daños irreversibles, como lesiones cutáneas en la piel.

Ese fue el caso del protagonista de esta historia, quien, 24 horas después de ser ingresado al hospital, comenzó a mostrar paranoia, alucinaciones auditivas y visuales. Incluso llegó a intentar escapar, lo que derivó en una retención psiquiátrica involuntaria por discapacidad grave. Finalmente, el paciente debió permanecer internado durante tres semanas.

No es la primera vez que la inteligencia artificial se utiliza en salud. De hecho, “un estudio publicado en JAMA Network Open en 2024, con más de 4000 usuarios de ChatGPT, mostró que el 43% había hecho al menos una consulta de salud», señala Hernán Seoane, consultor en innovación estratégica en salud, inteligencia artificial y laboratorios.

El hombre internado buscaba reemplazar la sal en su dieta

“Es importante considerar que ChatGPT y otros sistemas de IA pueden generar imprecisiones científicas, carecer de la capacidad de discutir críticamente los resultados y, en última instancia, alimentar la propagación de información errónea“, concluye la revista que reporta el caso de estudio.

En ese contexto, vale señalar que el medio Live Science contactó a OpenAI, desarrollador de ChatGPT, por este caso y desde la empresa hicieron referencia a lo que establecen sus condiciones de servicio: “No debe confiar en los resultados de nuestros servicios como única fuente de información veraz u objetiva, ni como sustituto del asesoramiento profesional”. El vocero también señaló que desde Open AI se busca reducir los riesgos, capacitando a la herramienta para que anime a los usuarios a acudir a la consulta de un profesional.

Cerca del 60% de los médicos argentinos encuestados coincide en que la IA podría ayudar a reducir errores humanosShutterstock

En ese sentido, la doctora Roson señala que la inteligencia artificial puede responder muchas consultas, pero “si no tenés un profesional que te las interprete, podés cometer equivocaciones muy graves como las que adoptó este señor. Si volvemos a este caso, el bromuro de sodio sí es una sal, pero en determinadas cantidades te puede matar”. Además, explica que la IA es una herramienta que no tiene en cuenta a la persona que está adelante, “no sabe cuál es su estado nutricional, ni cuáles son las enfermedades o patologías asociadas que puede tener esa persona”.

Seoane coincide con Roson y señala que “la IA debe ser complementaria, nunca sustitutiva del profesional de la salud”. Y detalla que, en el caso de los pacientes, puede traducir información médica compleja a un lenguaje sencillo, recordar medicación, dar seguimiento de síntomas o detectar patrones que una persona podría pasar por alto. Para el caso de los profesionales, “puede asistir en diagnósticos diferenciales, mantener al día con la literatura más reciente o analizar grandes volúmenes de datos clínicos imposibles de procesar manualmente. Esto es lo que llamamos IA aumentada: la tecnología amplifica las capacidades humanas”.

No es menor el hecho de que, según una encuesta realizada por la plataforma Medscape, el 42% de los profesionales argentinos aseguró que siente “mucha” o “alguna” preocupación sobre la posibilidad de que la IA reemplace su criterio clínico, así como también un 84% exige un marco jurídico y el 72% considera fundamental que el uso de la IA en la medicina esté bajo supervisión gubernamental o de asociaciones médicas.

Al mismo tiempo, cerca del 60% de los médicos argentinos coincide en que la IA podría ayudar a reducir errores humanos. No hay dudas de que el dilema está sobre la mesa; el tiempo dirá en qué dirección avanza esta encrucijada.

Últimas Publicaciones