Un caso reciente en Estados Unidos dejó en evidencia lo peligroso que puede ser confiar ciegamente en consejos de inteligencia artificial sobre salud.
Un hombre de 60 años, residente en Nueva York, terminó hospitalizado tras seguir una recomendación de ChatGPT y sufrir una intoxicación por bromuro, algo prácticamente inexistente hoy en día.
Según un informe publicado en Annals of Internal Medicine y difundido por NBC News, el hombre preguntó al chatbot por una alternativa a la sal común. La IA le sugirió bromuro de sodio, una sustancia que en el pasado se usaba como sedante pero que fue abandonada debido a su toxicidad. Convencido de que era más “saludable”, la compró en línea y la utilizó diariamente durante tres meses.
Las consecuencias fueron graves: paranoia, insomnio, psicosis y síntomas físicos severos. Incluso llegó a pensar que su vecino lo estaba envenenando. Los médicos diagnosticaron bromismo -una intoxicación crónica por bromuro- y, una vez que suspendió el consumo y recibió tratamiento, comenzó a mejorar.
Investigadores comprobaron por sí mismos que ChatGPT realmente recomendaba bromuro como sustituto del cloruro, sin advertir sobre los riesgos. El caso demuestra que un chatbot no es médico ni asume responsabilidades. También abre el debate sobre la necesidad de establecer límites y advertencias más claros en la IA, especialmente en temas sensibles como la salud.
En una época en la que la inteligencia artificial ya forma parte del día a día, la curiosidad nunca debe reemplazar al sentido común. Y mucho menos en medicina, donde un mal consejo puede costar la vida.