Inicio » Sin categorizar » Psiquiatra advierte sobre psicosis inducida por IA tras 12 hospitalizaciones en 2025

Psiquiatra advierte sobre psicosis inducida por IA tras 12 hospitalizaciones en 2025

por ytools
0 comentario 0 vistas

Un psiquiatra de la Universidad de California en San Francisco expresó su preocupación por el impacto potencial de los chatbots de IA en la salud mental de personas ya predispuestas a enfermedades mentales. El Dr. Keith Sakata compartió sus observaciones, revelando que ha atendido a 12 pacientes hospitalizados por psicosis relacionada con el uso de IA en 2025.
Psiquiatra advierte sobre psicosis inducida por IA tras 12 hospitalizaciones en 2025
Sus descubrimientos destacan cómo el uso prolongado de chatbots de IA puede empeorar problemas de salud mental, especialmente en personas con vulnerabilidades preexistentes. Sakata explicó que los chatbots basados en grandes modelos lingüísticos (LLM) funcionan como un espejo de los pensamientos del usuario, reforzando sus creencias y alimentando ciclos mentales cerrados.

Estas advertencias surgieron poco después de un trágico incidente en Florida, donde un hombre, Alexander Taylor, murió tras un enfrentamiento con la policía. Taylor había estado usando ChatGPT de OpenAI para escribir una novela, pero sus conversaciones se volvieron cada vez más extrañas, hasta que se enamoró de una entidad de IA llamada Julieta. Al creer que OpenAI había matado a Julieta, Taylor se obsesionó con vengarse, lo que llevó a un comportamiento violento. Su padre intentó intervenir, pero fue agredido por Taylor, quien luego amenazó con suicidarse provocando a la policía, lo que resultó en la intervención de las fuerzas de seguridad.

Sakata detalló tres factores principales que contribuyen a la psicosis inducida por la IA. En primer lugar, las personas con un mecanismo de retroalimentación cerebral débil ya son vulnerables, lo que las hace más susceptibles a la influencia de la IA. En segundo lugar, los chatbots LLM, que funcionan mediante probabilidades, pueden confirmar accidentalmente las creencias erróneas de los usuarios. Finalmente, el comportamiento sycophantic de la IA, diseñado para agradar a los usuarios, impide que se den cuenta de cuando sus pensamientos se alejan de la realidad.

El psiquiatra danés Søren Dinesen Østergaard también expresó preocupaciones similares, afirmando que los chatbots de IA podrían alimentar delirios en personas propensas a la psicosis. Señaló que los chatbots pueden reforzar creencias erróneas al aislar a los usuarios de correcciones sociales y permitirles antropomorfizar la IA, lo que puede conducir a una dependencia excesiva de la tecnología. Según Østergaard, esto podría ser uno de los principales impulsores del pensamiento delirante en usuarios vulnerables.

La mayoría de los casos que Sakata atendió estaban asociados a factores de estrés adicionales, como la falta de sueño o alteraciones del estado de ánimo, lo que agravaba los efectos de la IA sobre su salud mental. OpenAI, por su parte, reconoció el problema, admitiendo que ChatGPT puede parecer más personal para individuos vulnerables en comparación con las tecnologías anteriores. La empresa expresó su compromiso de entender y mitigar los impactos negativos que la IA podría tener en los usuarios.

También te puede interesar

Deja un comentario