81.000 personas le dijeron a la IA qué piensan de ella. Lo que respondieron debería preocupar a las escuelas

Un estudio de Anthropic entrevistó a 81.000 usuarios de IA en 159 países. Los resultados revelan una paradoja que las escuelas no pueden ignorar: la misma herramienta que enseña también puede deteriorar el pensamiento crítico. Y quienes más lo están viendo son los propios docentes.
estudio-81000-personas-ia-educacion-atrofia-cognitiva

¿Qué pasa cuando le preguntás a la IA qué piensan las personas de la IA?

En diciembre de 2025, Anthropic, la empresa detrás de Claude, uno de los sistemas de inteligencia artificial más utilizados del mundo, realizó algo que no tenía precedentes en la historia de la investigación cualitativa: entrevistó a 81.000 personas en 159 países y 70 idiomas sobre su relación con la IA.

No fue una encuesta de opciones múltiples. Fue una conversación abierta, profunda y personal. Cada participante habló de sus esperanzas, sus miedos y sus experiencias reales con la inteligencia artificial. Los resultados se publicaron el 18 de marzo de 2026 bajo el título “What 81,000 People Want from AI” y representan, según sus autores, el estudio cualitativo más grande y multilingüe jamás realizado.

Para las instituciones educativas, lo que este estudio encontró no es una curiosidad académica. Es una señal de alerta que merece atención urgente.

Qué quiere la gente de la IA: el mapa de esperanzas

Antes de llegar a los datos que más importan para la educación, vale entender el panorama completo.

Cuando se les preguntó qué esperaban de la inteligencia artificial, las respuestas más frecuentes fueron:

  • Excelencia profesional (18,8%): usar la IA para delegar tareas rutinarias y concentrarse en trabajo de mayor valor.
  • Transformación personal (13,7%): crecimiento emocional, bienestar, apoyo psicológico.
  • Gestión de la vida (13,5%): reducir la carga mental del día a día.
  • Libertad de tiempo (11,1%): recuperar horas para la familia, el descanso, los proyectos personales.
  • Aprendizaje y desarrollo (8,4%): usar la IA como tutor personalizado para adquirir habilidades y conocimientos.

El 81% de los entrevistados afirmó que la IA ya había dado algún paso concreto hacia su visión ideal. No estamos hablando de promesas futuras: para la mayoría de los usuarios, la IA ya está funcionando.

Y sin embargo, el mismo estudio revela una tensión que muy pocos están discutiendo con seriedad.

La paradoja que nadie quiere ver: aprender con IA puede hacer que dejes de pensar

El beneficio es real

El 33% de los entrevistados mencionó espontáneamente que la IA los había ayudado a aprender. No como respuesta a una pregunta directa, sino como parte de su narrativa personal. Las historias incluyen personas que superaron fobias matemáticas de toda la vida, profesionales que dominaron nuevas disciplinas en semanas, y estudiantes que por primera vez sintieron que podían hacer preguntas sin miedo al juicio.

Un abogado de India describió cómo, gracias a la IA, retomó la trigonometría que había abandonado en la escuela y leyó a Shakespeare por primera vez; y se dio cuenta de que no era tan poco inteligente como siempre había creído.

Ese tipo de impacto es poderoso y es real.

El riesgo también lo es

Pero el 16,3% de los participantes expresó preocupación por lo que el estudio llama atrofia cognitiva: la pérdida progresiva de habilidades de pensamiento por dependencia excesiva en la IA. Esto incluye la dificultad para razonar de forma autónoma, la disminución del pensamiento crítico, y el hábito de recibir respuestas sin construirlas.

Un estudiante de Corea del Sur lo describió con una honestidad que resulta incómoda: obtuvo calificaciones excelentes usando respuestas de la IA sin haber aprendido realmente nada. Y eso, escribió, fue lo que más vergüenza le generó.

No es un caso aislado. Es un patrón que el estudio documenta a escala global.

El dato que más debería importarle a directivos y docentes

De todos los hallazgos del estudio, hay uno que las instituciones educativas no pueden ignorar:

Los docentes y educadores tienen entre 2,5 y 3 veces más probabilidades que el promedio de haber sido testigos directos de atrofia cognitiva en sus estudiantes.

No lo anticipan, no lo leen en informes, simplemente lo están viendo en sus aulas, todos los días.

Mientras que en la población general la mayoría de quienes temen la atrofia cognitiva lo hacen de forma hipotética, en el caso de los docentes la experiencia es concreta y presente. El 24% de los educadores reportó haber observado señales de deterioro cognitivo en sus alumnos, casi el doble del promedio general.

¿Y los propios estudiantes?

El estudio también revela que los estudiantes son el grupo con mayor exposición a esta paradoja. Más de la mitad reportó haber experimentado beneficios reales de aprendizaje con IA. Pero el 16% también reconoció señales de atrofia cognitiva en sí mismos, una tasa que solo supera la de sus propios docentes (24%) y la de académicos e investigadores (19%).

En otras palabras: los que más aprenden con IA son también los que más riesgo tienen de dejar de aprender sin ella.

Por qué el contexto institucional lo cambia todo

Este es quizás el hallazgo más estratégico del estudio para quienes trabajan en educación.

Los investigadores de Anthropic identificaron una diferencia notable entre dos tipos de aprendizaje con IA:

Aprendizaje voluntario: cuando una persona elige aprender algo por curiosidad o motivación propia, usando la IA como tutor o recurso. Aquí los beneficios son consistentes y el riesgo de atrofia cognitiva es bajo.

Aprendizaje institucional: cuando la IA se usa dentro de un sistema escolar, sin guía pedagógica clara ni criterios de uso. Aquí es donde la IA se convierte más frecuentemente en un atajo para evitar el esfuerzo de pensar.

La conclusión es directa: en entornos institucionales sin diseño pedagógico, la IA tiende a usarse como mecanismo para evitar aprender.

Los trabajadores de oficios y los profesionales independientes, por ejemplo, reportaron altísimas tasas de beneficio de aprendizaje (45%) y casi ninguna señal de atrofia cognitiva (4%). La diferencia con los estudiantes en contextos escolares es elocuente.

Qué implica esto para una escuela

Si una institución educativa integra IA sin una estrategia pedagógica clara, sin definir para qué se usa, cómo se usa, qué actitudes promueve y cuáles limita, no está haciendo nada diferente a dejar que los alumnos usen cualquier herramienta abierta de internet sin guía. El riesgo no desaparece por usar tecnología: se amplifíca si esa tecnología no tiene criterio detrás.

Latinoamérica: optimismo alto, conciencia del riesgo relativamente baja

El estudio revela diferencias regionales significativas en cómo las personas perciben la IA.

América Latina y el Caribe se ubica entre las regiones con mayor optimismo hacia la IA del mundo. La preocupación por el impacto económico, que en regiones como América del Norte o Europa Occidental funciona como el principal freno para adoptar IA, es notablemente menor en nuestra región.

Eso es una buena noticia en términos de apertura al cambio. Pero también implica algo que merece reflexión: la baja preocupación por los riesgos no significa ausencia de riesgos. Significa que aún no los estamos discutiendo con suficiente seriedad.

En paralelo, el estudio muestra que el sueño de usar IA para el emprendimiento y la movilidad económica es más fuerte en América Latina que en cualquier otra región del mundo. Hay una expectativa genuina de que la IA puede ser un igualador de oportunidades. Y en gran medida, puede serlo.

Pero esa oportunidad depende, en parte, de que los chicos que crecen hoy en las escuelas latinoamericanas lleguen al mundo adulto con capacidad de pensar de forma autónoma, razonar con criterio y usar la IA como herramienta, no como muleta.

Las cinco tensiones que el estudio identifica: ninguna es más relevante para educación que esta

Anthropic organizó sus hallazgos en torno a cinco tensiones centrales.

La tensión aprendizaje/atrofia cognitiva es la única donde ambos lados tienen raíces profundas en la experiencia directa de los entrevistados. No es un debate abstracto: es algo que está pasando, y que los docentes están viendo primero.

Lo que distingue una integración de IA que educa de una que deteriora

A partir de los datos del estudio y de lo que hoy sabemos sobre pedagogía y tecnología educativa, podemos identificar algunas condiciones que marcan la diferencia:

1. Propósito pedagógico explícito

La IA no debería usarse en el aula simplemente porque existe o porque es popular. Cada uso debería responder a una pregunta: ¿qué capacidad estamos desarrollando con esto? ¿qué proceso de pensamiento estamos promoviendo — o evitando?

2. Diseño que promueve el esfuerzo cognitivo

El estudio muestra que el aprendizaje real ocurre cuando la IA funciona como interlocutor, no como fuente de respuestas. Las herramientas que responden con preguntas, que piden al estudiante justificar su razonamiento, o que se niegan a completar una tarea por él, producen aprendizaje. Las que simplemente responden, no.

3. Control institucional real

Si una escuela no puede configurar cómo se comporta la IA que usan sus estudiantes — qué responde, con qué criterios, adaptado a qué nivel y qué valores — no tiene realmente integración de IA. Tiene acceso sin gobierno.

4. Datos para tomar decisiones

El estudio subraya el valor de la información para actuar con criterio. Una escuela que integra IA sin métricas de uso, sin señales de alerta, y sin visibilidad sobre qué están consultando sus alumnos, está tomando decisiones a ciegas.

5. Formación docente como condición, no como extra

Los docentes son los primeros en ver la atrofia cognitiva. También pueden ser los primeros en revertirla, si tienen herramientas y criterios para hacerlo. La formación no es un beneficio adicional de una buena integración de IA: es una condición de posibilidad.

La que debería preguntarse toda institución educativa debería hacerse hoy

El estudio de Anthropic no es un argumento contra la inteligencia artificial en la educación. Todo lo contrario: muestra con claridad que la IA puede ser una herramienta extraordinaria para aprender, personalizar la enseñanza y democratizar el acceso al conocimiento.

Pero también muestra algo que pocas instituciones están mirando de frente: la misma herramienta que puede potenciar el aprendizaje puede, sin diseño pedagógico, vaciarlo.

La diferencia no está en la tecnología. Está en cómo se integra.

81 mil personas en todo el mundo ya están usando IA para aprender, trabajar, procesar emociones y construir proyectos. Sus hijos también la están usando: en casa, en el recreo, probablemente durante la clase. La pregunta no es si la IA va a estar presente en la educación, está clarísimo que ya lo está. La pregunta es quién decide cómo.

Sobre Auroria

Auroria es la primera plataforma de inteligencia artificial pedagógica desarrollada en Argentina. Fue diseñada específicamente para que las escuelas integren IA con criterio, protegiendo el pensamiento crítico de los estudiantes y devolviendo el control institucional a quienes educan.

Preguntas frecuentes 

¿La inteligencia artificial realmente deteriora el pensamiento crítico de los estudiantes?

Depende del contexto de uso. El estudio de Anthropic (2026) sobre 81.000 usuarios de IA muestra que los beneficios de aprendizaje son sólidos cuando la IA se usa de forma voluntaria y con propósito. En cambio, en entornos institucionales sin diseño pedagógico, la IA tiende a usarse como atajo para evitar el esfuerzo de pensar. El 24% de los docentes entrevistados reportó haber observado señales concretas de atrofia cognitiva en sus alumnos, casi el doble del promedio general.

Las herramientas de IA generativa de uso abierto están diseñadas para responder de la forma más completa y rápida posible. Una IA pedagógica, en cambio, está diseñada para promover el razonamiento: responde con preguntas, adapta su lenguaje al nivel del estudiante, tiene filtros de contenido por edad, y se configura según los valores y el proyecto educativo de cada institución. La diferencia no es técnica: es de propósito. Auroria, por ejemplo, incorpora un modo socrático que guía al estudiante a través de preguntas en lugar de entregarle la respuesta directamente, una decisión de diseño que apunta exactamente a preservar el esfuerzo cognitivo.

Algunos indicadores concretos: si los estudiantes no pueden resolver tareas similares sin la herramienta, si el rendimiento mejora en actividades asistidas pero cae en evaluaciones sin IA, o si los docentes observan dificultad creciente para justificar razonamientos propios. A nivel institucional, contar con métricas de uso, registros de consultas por materia y alertas de comportamiento permite detectar patrones antes de que se consoliden. Auroria ofrece un panel de métricas institucional y alertas tempranas de riesgo emocional que permiten a directivos y docentes tomar decisiones con datos, no con intuición.

Sí, pero requiere que la herramienta sea configurable a nivel institucional: que respete el proyecto educativo de la escuela, sus valores, su enfoque metodológico y los criterios de cada nivel. Una IA que no puede ser parametrizada por la institución no es una herramienta pedagógica: es un servicio externo al que la escuela le cede el control de lo que sus alumnos aprenden y cómo lo aprenden. Auroria fue diseñada específicamente para esto: cada escuela configura su propia versión de la plataforma, alineada a su PEI, su cultura institucional y sus decisiones pedagógicas.

WEBINAR

Cómo integrar IA en tu escuela sin perder el control

DEMO EN VIVO DE
Miércoles 25/03
19:00 H (ARG)

Presenta
Dani Buján
Cofundadora