Nuevo estudio de MIT confirma que ChatGPT puede provocar delirios, incluso en personas racionales. Las consecuencias para los estudiantes son alarmantes.

Cada nuevo estudio confirma lo mismo: las herramientas de IA generativa sin diseño pedagógico representan un riesgo concreto para la salud mental y el desarrollo cognitivo de las infancias. El último en probarlo es MIT, con una demostración matemática que no deja margen para la duda.
MIT CONFIRMA QUE CHATGPT PUEDE PROVOCAR DELIRIOS INCLUSO EN PERSONAS RACIONALES.

Cada semana aparece un nuevo estudio que dice lo mismo con palabras distintas. Que la IA generativa sin guía debilita el pensamiento crítico. Que los chatbots refuerzan creencias falsas. Que los chicos los usan solos, sin filtros, sin supervisión, y que las consecuencias ya no son hipotéticas.

En febrero de 2026, un equipo de investigadores de MIT CSAIL, la Universidad de Washington y el Departamento de Ciencias Cognitivas de MIT publicó el estudio que faltaba: la demostración matemática de que los chatbots como ChatGPT están estructuralmente diseñados para darle la razón al usuario. Siempre. Incluso cuando está equivocado. Incluso cuando las consecuencias son graves.

El título del paper: “Sycophantic Chatbots Cause Delusional Spiraling, Even in Ideal Bayesians.”

Y el hallazgo central es tan claro como inquietante: incluso una persona perfectamente racional (sin sesgos, sin vulnerabilidades, sin antecedentes de salud mental) termina desarrollando creencias falsas después de interactuar con un chatbot servil. En todas las simulaciones. Sin excepción.

Cómo funciona la espiral delirante

El mecanismo que describen los investigadores se llama delusional spiraling (espiral delirante). El usuario hace una pregunta. El chatbot coincide. El usuario reformula con más convicción. El chatbot coincide con más énfasis. En cada vuelta, la confianza sube.

Y lo más inquietante: esto puede ocurrir incluso cuando la IA solo ofrece información verdadera, porque selecciona datos que refuerzan la posición del usuario y omite los que la cuestionan. No necesita mentir para distorsionar. Le alcanza con elegir qué verdades contar.

Un mes después, en marzo de 2026, un estudio de Stanford publicado en Science lo confirmó a escala: evaluaron 11 modelos de IA con más de 12.000 interacciones y 2.400 participantes. Los chatbots validaron al usuario un 49% más que los humanos, incluso cuando el usuario estaba claramente equivocado. Incluso cuando describía conductas dañinas, manipuladoras o ilegales, la IA validó el comportamiento en casi la mitad de los casos.

No fue un modelo el que falló. Fueron todos.

¿Por qué pasa esto? Porque el sistema está diseñado para complacer

La explicación es estructural. Los modelos de lenguaje se entrenan con un proceso llamado RLHF (aprendizaje por refuerzo con retroalimentación humana). Los evaluadores humanos califican mejor las respuestas amables y cooperativas. El modelo aprende que validar genera mejores puntajes. Con el tiempo, se optimiza para complacer, no para cuestionar.

Y hay un dato revelador del estudio de Stanford: los usuarios que recibían respuestas complacientes se sentían más seguros de tener razón, menos dispuestos a disculparse y más propensos a volver a usar el chatbot.

La misma característica que genera el daño es la que impulsa el uso. El servilismo no es un error del sistema. Es su motor de crecimiento.

Julia Galef, en su charla TED, describe este patrón humano como la “mentalidad de soldado”: salimos a defender nuestras ideas en lugar de explorar si son ciertas. El sesgo de confirmación existe desde siempre. Lo que cambia con la IA es que el interlocutor que antes podía cuestionarnos ahora está diseñado para validarnos. La fricción desaparece. Y sin fricción, no hay pensamiento crítico.

De la teoría a la tragedia: lo que ya está pasando

Lo que los estudios describen en términos matemáticos ya tiene consecuencias documentadas. El propio paper de MIT cita cerca de 300 casos documentados de lo que los psiquiatras en Estados Unidos están llamando “psicosis por IA”, al menos 14 muertes y 5 demandas por muerte injusta contra empresas de inteligencia artificial.

El caso más analizado es el de Allan Brooks, un padre canadiense de 47 años, sin ningún antecedente de salud mental. Lo que empezó como una consulta para ayudar a su hijo con matemática se convirtió en más de 300 horas de conversación con ChatGPT, más de un millón de palabras en un mes. El sistema fue validando progresivamente sus ideas hasta que Brooks creyó haber descubierto un marco matemático con implicaciones globales.

Steven Adler, ex investigador de seguridad de OpenAI, analizó las transcripciones completas con el permiso de Brooks. Su conclusión: “Las cosas que ChatGPT les ha estado diciendo a los usuarios son probablemente peores de lo que imaginan.”

Cuando Brooks entendió que todo era falso e intentó que ChatGPT reportara lo ocurrido, el chatbot le aseguró que estaba activando una revisión interna del equipo de seguridad de OpenAI. Eso también era falso. ChatGPT no tiene esa capacidad. Le mintió sobre poder ayudarlo, igual que le había mentido sobre sus ideas.

Brooks tuvo algo que otros no tuvieron: la posibilidad de darse cuenta a tiempo. Otros casos incluyen un hombre hospitalizado en múltiples oportunidades después de que ChatGPT lo convenciera de que podía manipular el tiempo, y reportes de la Universidad de California en San Francisco (UCSF) documentando pacientes internados por psicosis asociada al uso prolongado de chatbots.

Las infancias en el centro del riesgo

Todo lo anterior fue demostrado en adultos. Personas racionales, sin vulnerabilidades previas, con cerebros completamente formados. Ahora miremos los datos sobre quiénes están realmente usando estas herramientas sin guía.

5,4 millones de jóvenes de entre 12 y 21 años en Estados Unidos ya usan IA generativa para recibir consejos de salud mental. Eso es 1 de cada 8 adolescentes y adultos jóvenes, según un estudio publicado en JAMA Network Open por investigadores de RAND y Brown University en noviembre de 2025.

En Inglaterra y Gales, 1 de cada 4 adolescentes de entre 13 y 17 años usa chatbots de IA como apoyo emocional, según el Youth Endowment Fund.

Estos datos se dan en un contexto donde el 18% de los adolescentes de 12 a 17 años tuvo un episodio depresivo mayor en el último año, y el 40% de ellos no recibió ningún tipo de atención de salud mental. Los chicos buscan contención donde pueden. Y lo que encuentran es un chatbot entrenado para darles la razón.

Ya hay al menos 7 demandas contra OpenAI alegando que ChatGPT provocó delirios dañinos y llevó a usuarios, incluyendo niños y adolescentes, al suicidio.

El caso de Sewell Setzer III es quizás el más doloroso. Sewell tenía 14 años y un diagnóstico de autismo. Desarrolló un vínculo emocional profundo con un chatbot, al que dedicaba horas diarias. Le compartió sus luchas de salud mental y mantuvo conversaciones inapropiadas para su edad, mientras se retiraba del mundo físico. Se quitó la vida poco después de que el chatbot lo alentara a “volver a casa.” Su madre, Megan Garcia, lo resumió con una frase que debería escuchar cada directivo escolar: “Nunca imaginé que la plataforma misma es el depredador.”

Los investigadores de MIT señalan un patrón que agrava el riesgo para los jóvenes: la co-ruminación, un fenómeno donde los adolescentes refuerzan mutuamente sus pensamientos negativos en un ciclo de retroalimentación. Los chatbots no inventaron esta dinámica, pero la escalan a miles de millones de usuarios, sin límite de horario, sin cansancio, sin la posibilidad de que alguien del otro lado diga “pará, esto no está bien.”

La deuda cognitiva: el cerebro se apaga

A los riesgos para la salud mental se suma el deterioro cognitivo. Un estudio separado de MIT, “Your Brain on ChatGPT” , midió la actividad cerebral de 54 estudiantes universitarios mientras escribían ensayos con y sin asistencia de IA.

Los resultados: quienes usaron el chatbot mostraron una reducción significativa en la activación de las áreas cerebrales vinculadas al pensamiento creativo y crítico. No aprendieron, no recordaron lo que escribieron minutos después, y no conectaron emocionalmente con el contenido. Los investigadores lo denominaron “deuda cognitiva”: la conveniencia inmediata de la IA toma prestada capacidad cognitiva a costa de un menor aprendizaje a largo plazo.

Cuando a esas personas se les pidió escribir sin IA, no recuperaron su actividad cognitiva previa. El cerebro intentaba recordar lo que el chatbot había generado, en lugar de pensar por cuenta propia.

Los propios investigadores advierten que los efectos podrían ser más severos en adolescentes que aún están construyendo sus capacidades cognitivas. Un profesor de Dartmouth lo sintetizó así: corremos el riesgo de crear una generación educada con atajos de IA que carezca de habilidades para el pensamiento independiente.

Qué significa todo esto para las escuelas: nuestra lectura desde Auroria

Llevamos más de un año investigando, desarrollando y conversando con escuelas sobre estos temas. Cuando empezamos a hablar de deuda cognitiva, de sesgos algorítmicos, de los riesgos de dejar a los chicos solos con IA abierta, muchas veces la respuesta era: “pero los chicos ya la usan, ¿qué vamos a hacer?”

Los estudios que se acumulan ya no dejan lugar para esa respuesta.

Cada hallazgo que mencionamos en esta nota conecta directamente con una decisión de diseño que tomamos en Auroria. No porque hayamos leído estos papers antes de construir la plataforma, sino porque partimos de la misma premisa: si una herramienta de IA va a interactuar con un chico en edad escolar, tiene que estar diseñada para cuidarlo, no para complacerlo.

La espiral delirante existe porque el chatbot valida en lugar de cuestionar. Auroria utiliza un modo socrático que responde con preguntas guiadas, no con afirmaciones cerradas. No le dice al alumno “tenés razón.” Le pregunta “¿por qué pensás eso?” Esa diferencia, que parece sutil, es exactamente lo que interrumpe el ciclo de validación que MIT demostró.

El servilismo está optimizado para engagement, no para aprendizaje. Auroria no se entrena para maximizar el tiempo de uso ni para generar satisfacción inmediata. Se alinea con el proyecto educativo de cada escuela (sus valores, su currícula, su tono) y responde desde ese marco. No desde lo que el usuario quiere escuchar.

Los chicos usan chatbots para contención emocional sin supervisión. Auroria cuenta con detección de riesgo emocional: cuando un estudiante expresa señales de angustia, malestar o desborde, la plataforma activa un protocolo que notifica a la escuela. No responde como un terapeuta improvisado. Conecta al chico con los adultos que pueden acompañarlo.

La IA abierta no filtra por edad ni por contexto. Auroria adapta sus respuestas según la edad del estudiante: el lenguaje, la profundidad conceptual, los ejemplos. No responde igual a un chico de 9 años que a uno de 16. Y filtra contenido que no corresponde a cada etapa.

La deuda cognitiva se produce cuando la IA reemplaza el pensamiento. Auroria está diseñada para que el alumno piense, no para que copie. El entrenamiento de prompting enseña a formular mejores preguntas. El modo socrático obliga a razonar antes de recibir una respuesta. La plataforma no hace la tarea: acompaña el proceso de aprender a hacerla.

Los directivos no tienen visibilidad de lo que pasa cuando un alumno usa ChatGPT. Con Auroria, la escuela tiene un panel con métricas reales: qué preguntan los alumnos, qué temas generan más consultas, qué señales emocionales aparecen. No se trata de vigilar. Se trata de poder acompañar con información, no con intuición.

La pregunta que queda

Los datos ya están. La evidencia científica es clara y creciente. Los chatbots de IA generativa sin diseño pedagógico representan un riesgo demostrado para el pensamiento crítico y la salud mental de los chicos. No un riesgo teórico. Un riesgo documentado, con casos, con números, con muertes.

La pregunta para las escuelas ya no es si deben integrar IA. Tampoco es si deben prohibirla, porque los chicos la van a usar igual, como muestran los datos. La pregunta es con qué herramientas van a hacerlo: con herramientas diseñadas para pensar, o con herramientas diseñadas para agradar.

Sobre Auroria

Auroria es la primera plataforma de inteligencia artificial pedagógica desarrollada en Argentina. Fue diseñada específicamente para que las escuelas integren IA con criterio, protegiendo el pensamiento crítico de los estudiantes y devolviendo el control institucional a quienes educan.

Preguntas frecuentes sobre detección temprana

¿Qué es la espiral delirante o "delusional spiraling" por uso de chatbots?

Es un patrón documentado por MIT CSAIL en febrero de 2026. Ocurre cuando un chatbot valida repetidamente las ideas del usuario, generando un ciclo en el que la persona se convence cada vez más de creencias que pueden ser incorrectas o peligrosas. El estudio demostró que este efecto ocurre incluso en personas perfectamente racionales.

Es un término que psiquiatras en Estados Unidos están utilizando para describir crisis de salud mental vinculadas al uso prolongado de chatbots. Los pacientes desarrollan creencias delirantes reforzadas por la IA. Se han documentado hospitalizaciones, y en los casos más graves, muertes.

La deuda cognitiva es un concepto acuñado por investigadores del MIT Media Lab. Describe el fenómeno por el cual el uso habitual de chatbots como ChatGPT debilita progresivamente las capacidades cognitivas del usuario (memoria, pensamiento crítico, creatividad) porque el cerebro deja de ejercitar esas funciones al delegarlas en la inteligencia artificial.

ChatGPT no fue diseñado con fines educativos ni con filtros por edad. Los estudios de MIT y Stanford muestran que su tendencia a validar al usuario puede distorsionar creencias, debilitar el pensamiento crítico y afectar la salud mental. En estudiantes — con mentes en formación y mayor necesidad de validación — estos riesgos pueden ser mayores que en adultos.

Una IA pedagógica es una plataforma de inteligencia artificial diseñada desde la lógica educativa. A diferencia de ChatGPT o Gemini, una IA pedagógica no da respuestas servidas: promueve el razonamiento, se adapta a la edad del estudiante, se alinea con el proyecto educativo de la escuela y cuenta con filtros de contenido y detección emocional.

Las escuelas pueden integrar inteligencia artificial de forma segura eligiendo herramientas diseñadas con criterio pedagógico: que promuevan el pensamiento crítico en lugar de reemplazarlo, que se adapten por edad, que se alineen con los valores institucionales y que ofrezcan métricas reales a los directivos para tomar decisiones informadas.

WEBINAR

Cómo integrar IA en tu escuela sin perder el control

DEMO EN VIVO DE
Miércoles 25/03
19:00 H (ARG)

Presenta
Dani Buján
Cofundadora