Introducción
La inteligencia artificial está transformando la educación, pero no sin riesgos. Lo que parecía ser solo una herramienta más para aprender, también puede convertirse, si se usa sin control, en una amenaza para los más vulnerables: los chicos.
En 2025, 44 fiscales generales de Estados Unidos enviaron una carta conjunta a las principales empresas tecnológicas (Google, Meta, Microsoft, OpenAI, Apple, entre otras), advirtiendo sobre el impacto perjudicial de los chatbots de IA en menores de edad.
El documento expone casos tan alarmantes como reales: chatbots que flirtean con menores de ocho años, sugieren actos sexuales, promueven el suicidio o incluso el asesinato de los padres.
Y si bien esta carta tuvo como destinatarios a empresas de Silicon Valley, su mensaje atraviesa fronteras: las escuelas de todo el mundo deben actuar hoy para proteger a sus estudiantes.
Lo que dice la carta: una advertencia sin precedentes
“You are well aware that interactive technology has a particularly intense impact on developing brains. […] You have a legal obligation to [children] as consumers.”
— Carta de los fiscales generales de EE. UU. (2025)
(“Ustedes saben bien que la tecnología interactiva tiene un impacto particularmente intenso en los cerebros en desarrollo. […] Tienen una obligación legal con [los niños] como consumidores.”)
La carta describe situaciones gravísimas:
Asistentes de IA aprobados por Meta que “flirtean y simulan relaciones románticas con niños desde los 8 años”.
Chatbots que exponen a menores a contenido sexualizado o degradante.
Demandas legales contra empresas como Google y Character.ai por conducción emocional manipulativa, que habría derivado en suicidios y violencia familiar.
Y lo más importante: los fiscales no se limitan a exponer casos, también dejan un mensaje claro:
“When your AI products encounter children, we need you to see them through the eyes of a parent, not the eyes of a predator. […] Don’t hurt kids. That is an easy bright line.” (“Cuando sus productos de IA se encuentran con niños, necesitamos que los vean con los ojos de un padre, no con los ojos de un depredador.”)
“Don’t hurt kids. That is an easy bright line.” (“No dañen a los chicos. Esa es una línea roja muy clara.”)
¿Qué significa esto para la educación en América Latina?
En Argentina, más del 54% de los estudiantes de secundaria ya usan IA para estudiar o hacer tareas, según UNICEF y UNESCO. En el mundo, la cifra llega al 83%.
Esto significa que, aunque muchas escuelas aún prohíban su uso, la realidad es que los alumnos ya están interactuando con IA. Y si lo hacen con herramientas pensadas para adultos, los riesgos son enormes:
No tienen filtros adecuados para la edad.
No siguen criterios pedagógicos.
No cuentan con protección frente a manipulación o contenidos inapropiados.
La prohibición total puede sonar a solución rápida, pero en la práctica es ineficaz. Los chicos seguirán usando IA en sus casas, en el celular o en el recreo. El desafío para las escuelas es distinto: integrar la IA de manera segura, guiada y alineada con el proyecto educativo.
Prohibir no es una solución: integrar con criterio es el verdadero desafío
Las instituciones educativas enfrentan hoy un dilema:
¿Prohibir el uso de IA en el aula?
¿O asumir un rol activo y responsable en su integración?
Prohibir puede sonar seguro, pero genera una falsa sensación de control. Los alumnos seguirán accediendo a estas herramientas desde sus celulares, sin acompañamiento ni orientación.
Integrar la IA de forma segura y pedagógica, en cambio, permite a las escuelas:
Definir reglas de uso.
Acompañar a docentes y estudiantes.
Seleccionar herramientas adecuadas.
Preservar su identidad educativa y sus valores.
Los principales riesgos de una IA no diseñada para chicos
“Exposing children to sexualized content is indefensible. And conduct that would be unlawful—or even criminal—if done by humans is not excusable simply because it is done by a machine.” (“Exponer a los niños a contenido sexualizado es indefendible. Y una conducta que sería ilegal —o incluso criminal— si la hiciera un humano, no se vuelve aceptable solo porque la hace una máquina.”)
Estos son algunos de los riesgos que menciona la carta y que también enfrentan nuestras escuelas si no intervienen:
⚠️ Deuda cognitiva: según estudios del MIT y la Universidad de Tokio, los chicos que usan IA sin guía reducen hasta un 55% su actividad cerebral en zonas clave para el aprendizaje.
⚠️ Dependencia: se habitúan a obtener respuestas en lugar de aprender a pensar.
⚠️ Acceso a contenido inapropiado: la IA sin filtros puede exponer a los alumnos a información sexualizada, violenta o discriminatoria.
⚠️ Vínculos parasociales y manipulación emocional: algunos chatbots simulan afecto y cercanía con los chicos, generando relaciones riesgosas.
⚠️ Casos extremos: como señala la carta, ya se han documentado suicidios y asesinatos vinculados a interacciones prolongadas con IA no regulada.
¿Qué pueden hacer hoy las escuelas?
1. Capacitar a sus equipos directivos y docentes: no solo en el uso de IA, sino en sus implicancias éticas, cognitivas y pedagógicas.
2. Establecer políticas claras: cuándo, cómo y para qué usar IA en el aula.
3. Elegir tecnología educativa segura: que respete la edad, el rol del docente y el proyecto institucional.
4. Involucrar a las familias: construir confianza desde la transparencia.
Conclusión
“The potential harms of AI, like the potential benefits, dwarf the impact of social media.” (“Los daños potenciales de la IA, al igual que sus beneficios potenciales, superan ampliamente el impacto de las redes sociales.”)
“We wish you all success in the race for AI dominance. But we are paying attention.” (“Les deseamos éxito en la carrera por dominar la IA. Pero estamos prestando atención.”)
La carta de los fiscales generales no es una exageración ni una teoría: es un llamado urgente a actuar.
Las escuelas tienen la oportunidad, y la responsabilidad, de anticiparse.
No alcanza con prohibir el uso de IA. Tampoco con esperar a que otros regulen.
La pregunta ya no es si los chicos van a usar IA. La pregunta es cómo nos aseguramos de que lo hagan de manera segura, pedagógica y con propósito.
En Auroria trabajamos junto a escuelas que eligen integrar la IA de forma ética, segura y alineada a su proyecto educativo.
Si tu institución también quiere hacerlo con responsabilidad, estamos para acompañarte.
📄 Podés leer la carta completa de los fiscales generales haciendo click acá.
Preguntas frecuentes sobre IA y educación
¿Es seguro que los alumnos usen inteligencia artificial en la escuela?
Depende de la herramienta. La mayoría de los chatbots fueron creados para adultos, sin filtros ni control pedagógico, lo que los vuelve riesgosos para menores. Lo importante no es prohibir, sino elegir IA diseñada específicamente para entornos educativos.
Auroria, por ejemplo, fue creada desde cero para el aula, con filtros de edad, acompañamiento docente y enfoque pedagógico en cada interacción.
¿Qué riesgos existen si los chicos usan IA sin control?
Entre los principales:
Deuda cognitiva (piensan menos, memorizan menos).
Dependencia tecnológica.
Acceso a contenidos inapropiados.
Manipulación emocional.
Daños psicológicos y físicos extremos, como los documentados en EE. UU.
Por eso es clave que las escuelas implementen herramientas pensadas para protegerlos, como Auroria, que funciona con supervisión institucional y evita estos riesgos desde el diseño.
¿Por qué prohibir la IA en la escuela no es la solución?
Porque los alumnos ya la usan fuera del aula. La prohibición genera una falsa sensación de control, pero no evita los riesgos. Lo que sí funciona es integrar la IA de manera segura y pedagógica, formando a docentes y definiendo políticas claras.
Auroria permite que esa integración ocurra con control institucional, alineada a los valores y al proyecto pedagógico de cada escuela.
¿Qué debería evaluar una escuela antes de implementar IA?
Filtros de edad y seguridad.
Alineación pedagógica con el proyecto educativo.
Control institucional sobre el uso.
Protección de datos y privacidad.
Auroria cumple con estos criterios, ofreciendo una plataforma educativa que se adapta a cada institución, en lugar de forzar a los chicos a adaptarse a tecnologías hechas para otros fines.
¿La IA puede reemplazar a los docentes?
No. La IA puede ahorrar tiempo y ayudar a personalizar contenidos, pero no puede enseñar a pensar, contener emocionalmente ni evaluar con criterio pedagógico.
Auroria fue pensada como una herramienta de apoyo, no como un reemplazo: acompaña sin interferir en el rol esencial de los educadores.
¿Qué rol tienen las familias en este proceso?
Las familias deben conocer qué IA se usa, para qué, y cómo. Involucrarlas fortalece el proceso y genera confianza.
Auroria permite a las escuelas comunicar con claridad qué tipo de IA se implementa, con qué filtros y con qué objetivos, lo que ayuda a construir confianza también fuera del aula.