El docente solo ante la IA: cómo el uso sin criterio institucional está fragmentando la experiencia educativa

El 60% de los docentes ya usa inteligencia artificial. El 68% lo hace sin capacitación. Solo 1 de cada 5 trabaja en una escuela con alguna política al respecto. Datos, consecuencias y por qué la solución no es prohibir la IA, sino decidir qué hacer con ella.
docentes-usan-inteligencia-artificial

Imaginá esta escena, que ocurre a diario en miles de instituciones educativas de Argentina y toda Latinoamérica.

En primer año, la profesora de Lengua prohíbe el uso de cualquier herramienta de IA bajo pena de desaprobación. En cuarto año, el docente de Ciencias Sociales usa ChatGPT todas las semanas para preparar sus clases y en silencio lo recomienda a sus alumnos para investigar. En la sala de docentes, nadie habló del tema. La dirección nunca tomó una posición. Y los alumnos, en el medio, reciben mensajes contradictorios de adultos que tampoco saben bien qué hacer.

Esto no es una excepción. Es la norma. Y tiene consecuencias que van mucho más allá de si un alumno “hizo trampa con IA” en una tarea.

El dato que parece una buena noticia (pero no lo es del todo)

Los números recientes sobre adopción de IA en el aula parecen alentadores. Según el estudio de Gallup y Walton Family Foundation realizado entre marzo y abril de 2025 con más de 2.200 docentes de nivel primario y secundario en Estados Unidos, la adopción de IA entre docentes creció de forma sostenida:

60% de los docentes de nivel K-12 usó al menos una herramienta de IA durante el ciclo 2024–2025. El 32% lo hace de forma semanal, y los que la usan regularmente reportan ahorrar hasta 5,9 horas de trabajo por semana.

Más tiempo. Menos carga administrativa. Mejores materiales en menos minutos. Todo eso es real. Los docentes que usan IA bien acompañados reportan mejoras concretas en la calidad de su trabajo. El problema es lo que rodea ese 60%: el contexto institucional, o más bien, su ausencia.

 

La brecha que nadie nombra: entre usar IA y usarla bien

Que un docente use IA no significa que su institución haya decidido algo al respecto. Y esa diferencia es enorme.

  • 68% de los docentes que usaron IA durante el ciclo 2024–2025 no recibió ningún tipo de capacitación para hacerlo. La mayoría aprendió por su cuenta, probando herramientas sin marco pedagógico ni orientación institucional. Gallup / Walton Family Foundation, 2025
  • 19% es el porcentaje de docentes que trabaja en una escuela con una política institucional formal sobre el uso de IA. El 81% restante improvisa, cada uno a su manera. Gallup / Walton Family Foundation, 2025

 

Y si miramos más de cerca, los números se vuelven aún más reveladores. Según datos de la organización de investigación EdTech RAND: el 85% dice sentirse poco preparado para gestionar el uso de IA en el aula de forma pedagógicamente responsable. RAND Corporation / AIPRM, 2025

En América Latina, donde los sistemas de formación docente tienen aún menos recursos para esta transición, los porcentajes son comparables o peores. La gran mayoría de los docentes de la región está navegando la era de la IA sin mapa, sin brújula y, sobre todo, sin que nadie en su institución haya definido el rumbo.

 

¿Cómo usan la IA los docentes hoy?

Cuando los docentes acceden a herramientas de IA por su cuenta, los usos más frecuentes son:

Usos más comunes de IA por parte de docentes (2024–2025)

  • Investigación y búsqueda de contenidos: 44% de los docentes que usan IA
  • Creación de planes de clase: 38%
  • Resumen de información: 38%
  • Generación de materiales (fichas, actividades): 37%
  • Preparación de evaluaciones: 25%
  • Calificación y retroalimentación: 16%
  • Análisis de datos de alumnos: 12%

Fuente: Gallup / Walton Family Foundation, 2025 · Digital Education Council, 2024

Todos esos usos tienen algo en común: son herramientas de productividad personal. El docente las usa para prepararse, para ahorrar tiempo, para trabajar mejor. Casi ninguno está orientado a transformar la experiencia de aprendizaje del alumno de manera consciente, sistemática y alineada al proyecto educativo de la institución.

En otras palabras: los docentes están usando IA como si fuera una herramienta individual, cuando en realidad tiene un impacto colectivo. Lo que un docente hace (o no hace) con IA afecta lo que el alumno aprende, espera y recibe del conjunto de la institución.

“Los docentes son 1,8 veces más propensos que sus propios alumnos a usar ChatGPT semanalmente. Pero lo hacen sin que nadie en la escuela haya decidido qué significa eso para el aprendizaje.” Dani Buján, cofundadora de Auroria.
 

El problema real no es tecnológico: es de conducción institucional

Hay un fenómeno que se repite en las escuelas que no han tomado decisiones institucionales sobre IA: cada docente termina siendo una isla. Y el archipiélago resultante no tiene coherencia pedagógica.

La investigadora de políticas educativas del Center on Reinventing Public Education (CRPE) lo documenta con claridad: sin lineamientos compartidos, los docentes en una misma institución experimentan expectativas distintas, niveles de formación dispares y modelos de uso completamente diferentes. Como resultado, sus alumnos reciben una educación en alfabetización digital que varía según el aula en la que estén sentados.

Las tres consecuencias más documentadas de la fragmentación

Cuando una escuela no toma una posición institucional sobre la IA, las consecuencias no son abstractas:

1. Para los alumnos: mensajes contradictorios y ausencia de criterio

Un alumno que recibe “acá la IA está prohibida” de un docente y “podés usarla para investigar” de otro no está aprendiendo a usar IA con criterio. Está aprendiendo que las reglas son arbitrarias. Según datos de Pew Research (2025), el uso de ChatGPT entre adolescentes se duplicó en un año, y la mayoría lo usa sin ningún tipo de orientación escolar.

2. Para los docentes: carga solitaria y ansiedad profesional

El 34% de los docentes expresa preocupación por el aumento del plagio generado por IA. El 27% teme que los alumnos se vuelvan dependientes. El 26% está preocupado por la desinformación. Y el 25% directamente cree que la IA hace más daño que bien. Estas preocupaciones son válidas, pero sin un marco institucional, cada docente las resuelve (o las evita) a su manera.

3. Para los directivos: pérdida de visibilidad y control institucional

Cuando los docentes usan herramientas externas (ChatGPT, Gemini, Copilot) de forma individual, la dirección no sabe qué datos se están compartiendo, si las respuestas están alineadas a los valores del colegio, ni si el uso es coherente con el PEI. El promedio de herramientas ed-tech usadas por un docente en un ciclo lectivo es de 150. Sin coordinación central, eso es ingobernable.

El elefante en la sala: ¿qué pasa cuando los docentes usan ChatGPT sin criterio pedagógico?

ChatGPT no es mala herramienta. Es una herramienta poderosa, general, diseñada para adultos y orientada a la productividad. El problema no es la herramienta en sí: es usarla en un contexto educativo para el que no fue diseñada, sin adaptación pedagógica y sin que la institución tenga control sobre lo que produce.

Algunos escenarios concretos que ya están ocurriendo:

SituaciónQué genera en la práctica
El docente usa ChatGPT para generar actividades sin revisión pedagógicaRiesgo. Actividades que no se alinean al PEI, al nivel real del grupo ni al enfoque metodológico de la institución
Un alumno entrega una tarea generada por IA; el docente no tiene protocolo claroRiesgo. Respuestas inconsistentes entre docentes; conflictos con familias; inequidad entre alumnos
La escuela “prohíbe” la IA pero no puede controlar el uso en dispositivos personalesRiesgo. Falsa sensación de control; los alumnos siguen usando IA sin guía ni criterio
La escuela habilita una plataforma de IA pedagógica con criterios compartidosOportunidad. Uso coherente, alineado al PEI, con métricas visibles y sin pérdida del rol docente
Los docentes reciben capacitación y una herramienta diseñada para el aulaOportunidad. Adopción confiada, menor estrés, mejor planificación y experiencia consistente para los alumnos

 

La ilusión del control: por qué prohibir tampoco funciona

New York City prohibió el uso de ChatGPT en las escuelas públicas a principios de 2023, argumentando que “no desarrolla el pensamiento crítico”. Meses después, dio marcha atrás. El sistema educativo más grande de EE.UU. tardó menos de un año en reconocer lo que los docentes ya sabían: no hay forma de impedir que los alumnos accedan a IA desde sus dispositivos personales.

El 89% de los estudiantes de secundaria y universidad reporta usar IA para la escuela, según Quizlet (2025). Prohibirla en los dispositivos del colegio no cambia nada en el fondo. Solo garantiza que los alumnos la usen sin guía, sin filtros y sin que nadie los acompañe.

 

¿Preferimos que la IA entre por la puerta principal o por la ventana?

Si los alumnos van a usarla de todas formas (y los datos confirman que ya lo hacen), la pregunta no es si se permite o se prohíbe. La pregunta es si la institución quiere tener control sobre cómo se usa dentro de su comunidad educativa.

Una escuela que decide activamente cómo integrar la IA puede definir valores, filtros, límites pedagógicos y métricas. Una escuela que no decide cede ese control a los algoritmos de herramientas diseñadas para otro propósito.

Lo que hacen diferente las instituciones que están navegando bien esta transición

Las escuelas que están integrando la IA con más solidez no necesariamente tienen más presupuesto ni más tecnología. Tienen algo más valioso: una decisión institucional clara y un marco compartido.

Las características que las distinguen:

  • Definieron qué lugar ocupa la IA en su proyecto educativo, no como un extra tecnológico sino como una decisión pedagógica.
  • Capacitaron a sus docentes antes de darles acceso a las herramientas, no después.
  • Eligieron herramientas diseñadas para el contexto escolar, no herramientas genéricas de productividad adaptadas.
  • Le dieron visibilidad a la dirección: métricas de uso, alertas, coherencia con el PEI.
  • Comunicaron a las familias qué se usa, con qué criterio y con qué protecciones.

El común denominador no es tecnológico. Es de liderazgo pedagógico. La IA bien implementada empieza en la reunión de equipo directivo, no en la app store.

IA genérica vs. IA pedagógica: una diferencia que importa mucho más de lo que parece

No toda IA es igual. Y en el contexto educativo, esa diferencia tiene consecuencias directas en lo que los alumnos aprenden, en la carga de trabajo de los docentes y en el control que tiene la institución sobre su propio proceso educativo.

DimensiónIA genérica (ChatGPT, Gemini)IA pedagógica (Auroria)
Diseñada paraAdultos. Productividad general.El ecosistema escolar completo: alumnos, docentes y directivos.
RespuestasDirectas, completas, sin filtro pedagógico.Adaptadas por edad, nivel y enfoque socrático.
Alineación institucionalNinguna. Responde igual para todos.Personalizada por PEI, valores y currícula de cada escuela.
Control del directivoNulo. No hay visibilidad de uso.Panel de métricas, alertas, configuración por perfil.
Cuidado emocionalNo contemplado.Detección de riesgo emocional y protocolo de alerta.
Impacto en pensamiento críticoTiende a sustituir el razonamiento.Diseñada para estimularlo.

Conclusión: el problema de la IA en las escuelas no es tecnológico

La inteligencia artificial no va a esperar a que las instituciones educativas tomen decisiones. Ya está en el aula. Ya está en los dispositivos de los alumnos. Ya está en la pestaña del navegador del docente que prepara su clase a las 11 de la noche.

La pregunta no es si integrar la IA. La pregunta es si las escuelas van a liderar esa integración o van a ser arrastradas por ella.

Cada semana que pasa sin una decisión institucional es una semana más en que cada docente improvisa solo, cada alumno usa IA sin guía, y la dirección pierde visibilidad sobre algo que ya está ocurriendo dentro de su institución.

El pensamiento crítico no se terceriza. Y la decisión pedagógica tampoco.

¿Tu escuela ya decidió cómo integrar la IA?

Auroria es la plataforma de IA pedagógica que unifica la experiencia para toda la comunidad escolar: alumnos, docentes y directivos, alineada al proyecto educativo de tu institución

Preguntas frecuentes sobre IA, herramientas y marco pedagógico

¿Está mal que los docentes usen ChatGPT para preparar sus clases?

No necesariamente. El problema no es la herramienta, sino el contexto en el que se usa. Un docente que usa ChatGPT para ahorrar tiempo en tareas administrativas o explorar ideas nuevas puede estar haciéndolo bien. El riesgo aparece cuando ese uso es completamente individual, sin alineación al proyecto educativo de la institución, sin criterio pedagógico compartido y sin que la dirección tenga visibilidad de lo que está ocurriendo. La escuela necesita una posición institucional, no prohibiciones ni permisividad ciega. Auroria les ofrece esa alternativa.

Principalmente de recursos y prioridades institucionales. Los docentes tienen agendas saturadas y no siempre cuentan con el tiempo, el acceso ni el apoyo para formarse en nuevas tecnologías. Muchos aprendieron a usar herramientas de IA por necesidad, por curiosidad o porque sus propios alumnos los pusieron en situaciones para las que no estaban preparados. La responsabilidad no recae en el docente individual: recae en las instituciones y sistemas que no han priorizado la formación en alfabetización de IA como parte de su agenda pedagógica.

Una política institucional efectiva no necesita ser un documento técnico complejo. En términos prácticos, debería responder al menos estas preguntas: (1) ¿Qué herramientas de IA están habilitadas y cuáles no, y por qué? (2) ¿Cómo se usa la IA en el aula, con qué criterio pedagógico? (3) ¿Cuál es la posición de la institución ante trabajos generados por IA? (4) ¿Cómo se capacita al equipo docente? (5) ¿Qué se comunica a las familias? Una buena política no prohíbe ni ignora: define, orienta y acompaña.

Esta es una de las preguntas que más angustia a los docentes hoy. Los detectores de IA existen pero son imprecisos: algunos estudios muestran que generan falsos positivos casi la mitad de las veces. La respuesta más efectiva no es la detección, sino el rediseño pedagógico: actividades que requieren proceso, no solo resultado; instancias orales de defensa; trabajos que integran experiencias personales o contexto local que la IA no puede replicar. Ofrecer una IA pedagógica refuerza este proceso, ya que como Auroria, no ofrecen respuestas servidas.

La diferencia es estructural, no cosmética. ChatGPT es una herramienta de propósito general, diseñada para adultos, que responde de forma directa sin filtros pedagógicos, sin adaptación por edad y sin alineación a ningún proyecto educativo. Auroria es una plataforma diseñada específicamente desde la lógica escolar: personaliza sus respuestas según la edad y el nivel del alumno, opera en modo socrático (pregunta en lugar de responder todo), se configura según los valores y la currícula de cada institución, y le da al equipo directivo visibilidad real sobre cómo se usa. No es ChatGPT con un logo de escuela: es una herramienta construida para educar, no para producir.

Es uno de los efectos más documentados y preocupantes. Cuando los alumnos delegan sistemáticamente el razonamiento en herramientas de IA, tienden a desarrollar lo que los investigadores del MIT Media Lab llaman una “ilusión de competencia”: saben la respuesta, pero no el camino. Con el tiempo, eso genera menor retención conceptual, dificultad para transferir conocimientos a nuevos contextos y baja tolerancia a los procesos de pensamiento que requieren esfuerzo y tiempo. El antídoto no es prohibir la IA, sino diseñar formas de usarla que preserven y estimulen el proceso de razonamiento, como el enfoque socrático que propone Auroria.