Cuando hasta el arrepentimiento se escribe con IA

Un profesor descubrió que sus alumnos usaron ChatGPT para hacer trampa… y también para disculparse. El caso revela un dilema que las escuelas ya no pueden ignorar: cómo educar en tiempos donde pensar puede tercerizarse.
Captura de correos electrónicos con el mismo mensaje de disculpa — “I sincerely apologize” — mostrando cómo los estudiantes usaron ChatGPT para escribir sus mails de arrepentimiento, simbolizando la automatización del pensamiento en la educación con IA.

Cuando la disculpa también se automatiza

La escena parece sacada de una sátira, pero aparentemente fue real. Un profesor de la Universidad de Illinois detectó que varios de sus alumnos habían usado ChatGPT para ¨hacer trampa¨en sus ensayos. Hasta ahí, nada nuevo. Lo curioso fue lo que pasó después: cuando los estudiantes le enviaron sus mails de disculpa, todos empezaban igual: “I sincerely apologize.” (Me disculpo sinceramente)

La frase se repitió tantas veces que el profesor la proyectó en clase. Era la prueba de que no solo habían delegado sus tareas… sino también su arrepentimiento.

El caso se volvió viral porque resume algo más profundo que un simple episodio de trampas académicas: la automatización del pensamiento, de las emociones y de la responsabilidad.

Pero… ¿podemos acusar a alguien por sonar como una máquina?

Que todos los alumnos usen una misma frase, ¿es realmente prueba de que usaron IA? Esa pregunta abre una grieta cada vez más visible entre docentes y estudiantes.

El lenguaje humano tiende a la repetición: fórmulas como “Mis más sinceras disculpas”, “Espero que estés bien¨ o “En conclusión” son comunes incluso sin IA. Las herramientas de detección no pueden distinguir intención ni contexto, solo patrones. Y los patrones son, justamente, la base del lenguaje.

Este dilema no es nuevo. En 2023, un profesor de Texas acusó a toda su clase de usar ChatGPT porque le preguntó al propio ChatGPT si había escrito esos textos… y el modelo respondió “sí”. La acusación era falsa. Ningún estudiante había usado IA.

También, más recientemente vivimos el caso de la docente chilena con su sello ¨sospecho uso de IA¨, en donde ¨acusaba¨a sus alumnos sobre uso de IA y los hacía defender oralmente.

Acá es donde vemos que el problema no es solo técnico, sino ético.

Acusar a alguien por “escribir demasiado bien” o “demasiado parecido a una máquina” pone en jaque la confianza y el vínculo educativo, y eso tiene un costo alto: cuando los estudiantes sienten que están siendo evaluados por la herramienta que usan y no por su proceso de pensamiento, pueden dejar de explorar y solo buscar no equivocarse.

 

Los detectores de IA: una falsa sensación de control

Hoy abundan herramientas que prometen “detectar si un texto fue escrito con IA”. Las más conocidas son GPTZero, Turnitin AI Detection o DetectGPT. Pero sus propias métricas confirman que ninguna es confiable.

  • GPTZero mide “perplexity” (qué tan predecible es el texto) y “burstiness” (variación en las oraciones). El problema es que los textos bien redactados también son predecibles, así que muchos textos humanos terminan marcados como IA.

  • Turnitin AI Detection, usada en miles de universidades, reconoce en sus propios reportes un margen de error del 15 al 25%, especialmente en textos cortos o escritos por estudiantes no nativos.

  • OpenAI, creador de ChatGPT, retiró su propio detector por baja precisión.

En otras palabras, los detectores fallan porque la frontera entre lo humano y lo artificial ya no está en el resultado, sino en el proceso. Ambos escriben con el mismo lenguaje, pero no con la misma conciencia.

Y mientras la IA se vuelve más fluida, los intentos por detectarla generan una falsa sensación de control: el foco se desplaza de enseñar a pensar, a “atrapar al culpable”.

El resultado es un sistema basado en la desconfianza, no en la alfabetización. Y una educación que enseña a tener miedo de la herramienta, en lugar de aprender a usarla.

El miedo docente y la pedagogía ausente

¿Por qué tantos docentes siguen queriendo prohibir la IA? La respuesta tiene más que ver con emociones que con tecnología: miedo, desconocimiento y falta de formación.

Miedo a perder el control del aula, miedo a que el esfuerzo pierda valor, miedo a que una herramienta reemplace la experiencia humana.

Pero ese miedo no es nuevo. Cuando apareció Wikipedia, también se intentó prohibirla. Hasta que entendimos que no era un enemigo, sino una oportunidad para enseñar pensamiento crítico, contraste de fuentes y criterio digital.

La historia se repite: prohibir lo que no se entiende es una forma de protegerse. Pero educar requiere el camino opuesto: comprender, acompañar y guiar.

Cada intento de prohibición solo empuja a los jóvenes a usar la tecnología en silencio, sin guía ni criterio. Y eso es mucho más peligroso que usarla abiertamente con acompañamiento pedagógico.

Hacia una IA pedagógica: usarla sin perder el pensamiento crítico

En Auroria creemos que el futuro de la educación no pasa por detectar trampas, sino por enseñar a pensar con IA sin dejar de pensar por uno mismo.

El objetivo no es impedir que los chicos usen la IA. Es lograr que aprendan a usarla sin rendirse al atajo, por eso promovemos un enfoque donde la IA:

  • no entrega respuestas, sino que formula preguntas (modo socrático);

  • no sustituye al docente, sino que lo potencia;

  • no anula la reflexión, sino que la estimula.

Así, los estudiantes se alfabetizan digitalmente, aprenden a cuestionar, a argumentar y a construir su propio criterio.

Y los docentes pueden acompañar ese proceso, asegurándose de que la IA se use como apoyo, no como sustituto del pensamiento.

Porque el verdadero desafío no es prohibir la IA, sino redefinir qué significa aprender en tiempos de inteligencia artificial.

Conclusión: no se trata de detectar trampas, sino de enseñar pensamiento

El caso de “I sincerely apologize” no habla solo de un error estudiantil: habla de una educación que todavía no sabe qué hacer con la IA.

De docentes que quieren controlar lo incontrolable, y de un sistema que aún confunde usar tecnología con hacer trampa.

Pero educar no es controlar, es enseñar a usar con criterio.

En Auroria creemos que el cambio empieza en las aulas. Si querés que tu institución dé el paso hacia una alfabetización digital responsable y segura, descubrí cómo acompañamos a docentes y estudiantes en este camino.

Conocé más sobre Auroria acá.

Preguntas frecuentes sobre IA y educación

¿Se puede saber con certeza si un alumno usó ChatGPT o IA para hacer un trabajo?

No. Las herramientas que prometen detectar IA, como GPTZero o Turnitin AI Detection, no son 100 % confiables. De hecho, sus propios informes reconocen márgenes de error de entre 15 % y 50 %, especialmente en textos cortos o escritos por hablantes no nativos. Por eso, la mejor práctica no es “detectar”, sino evaluar el proceso de aprendizaje y el razonamiento detrás del resultado.

No necesariamente. Depende de cómo y para qué se use. Si un estudiante utiliza ChatGPT para obtener ideas, revisar gramática o contrastar información, puede ser parte del aprendizaje. El problema surge cuando la herramienta sustituye el pensamiento, no cuando lo acompaña. Por eso hablamos de uso pedagógico de la IA, no de prohibición.

Principalmente por tres razones: falta de formación en IA, miedo a la pérdida del control y presión institucional para “detectar trampas”. Sin embargo, prohibir lo que no se entiende solo genera más distancia entre alumnos y docentes. La solución está en capacitarse, experimentar y diseñar actividades donde la IA sea parte del proceso de aprendizaje, no un enemigo.

En lugar de usar software de detección, se recomienda:

  • Pedir a los alumnos mostrar su proceso de trabajo (borradores, prompts, razonamiento).

  • Integrar la IA en las consignas (por ejemplo, comparar una respuesta humana con una generada por IA).

  • Evaluar criterio, argumentación y pensamiento crítico, no solo el texto final.

Estas estrategias fomentan aprendizaje activo y alfabetización digital responsable.

Auroria fue creada para que los chicos aprendan con IA sin perder pensamiento crítico.
A diferencia de los chats genéricos, Auroria tiene un enfoque pedagógico: utiliza un modo socrático que guía con preguntas, evita respuestas automáticas y protege el desarrollo cognitivo.
Así, los alumnos pueden aprender a usar la IA de forma ética, responsable y segura, mientras los docentes acompañan el proceso con confianza.

CONNECT
Jueves 27/11 – 18 h – en INARIA (Camargo 1020)
El punto de encuentro entre la educación y la IA con propósito.

¨Ni magia ni amenaza: la IA como aliada pedagógica¨

Una mirada práctica para incorporar IA cuidando el pensamiento crítico y el rol docente.