Una estudiante de último año de secundaria en Nueva Jersey reveló con consentimiento de sus padres a The Wall Street Journal, cómo utilizó herramientas de IA como ChatGPT y Gemini para completar tareas en inglés, matemáticas e historia durante el año escolar, obteniendo altas calificaciones aunque aprendiendo “mucho menos” de lo esperado.
"MACHETE INTELIGENTE"
Alumnos tramposos: La IA invade las aulas en USA
IA ¿Es el futuro de la educación un juego de algoritmos? Educadores y empresas libran una batalla entre innovación tecnológica y fraude
Su caso ilustra la creciente dependencia de la IA en la educación estadounidense, donde alumnos externalizan trabajos académicos a algoritmos, desafiando a educadores a equilibrar su potencial pedagógico con el riesgo de fraude.
Impacto de la IA: accesibilidad
OpenAI reporta 400 millones de usuarios semanales de ChatGPT, con estudiantes como principales consumidores. Una encuesta de Impact Research indica que casi el 40% de estudiantes de secundaria y el 50% de universitarios usan IA sin permiso para tareas. El informe revela también las facilidades de acceso a herramientas gratuitas o de bajo costo y la evasión de restricciones de edad facilitan el uso clandestino.
Adaptación tecnológica "humanizadora"
El desarrollo de aplicaciones "humanizantes" decantan en la detección insuficiente por parte de los padres y profesores. Softwares como Turnitin afirma detectar IA en el 85% de casos, pero los errores en identificaciones son comunes. Empresas como Pangram Labs luchan contra aplicaciones humanizadoras que enmascaran textos generados por IA.
Según revela el mismo informe, algunos profesores, como Jody Stallings (Carolina del Sur), priorizan ejercicios reflexivos en clase, mientras Patricia Webb (Universidad Estatal de Arizona) asigna tareas basadas en experiencias personales para evitar el plagio.
La producción autónoma y auténtica del estudiante se hace muy difícil de detectar porque los docentes notan dificultades en la utilización plena del idioma y su manejo apropiado.
Divergencias entre empresas de IA y educadores
OpenAI, por ejemplo, minimiza su responsabilidad en el fraude: “No inventamos las trampas”, afirma Siya Raj Purohit, mientras Caktus AI promociona su software con eslóganes como “Los profesores nos odian”, alegando preparar a estudiantes para el mercado laboral.
En oposición, Marc Watkins (Universidad de Mississippi) advierte que la IA humanizadora es un “experimento público no consentido”, y John B. King Jr. (exsecretario de Educación) alerta sobre el vacío de aprendizaje: “Muchos usaron ChatGPT sin aprender nada”.
Innovación vs. ética
Aithor promocionó ensayos “impecables en un clic”, pero revisó su lenguaje tras críticas. Mientras, psicólogos como Daniel Willingham (Universidad de Virginia) defienden la escritura como ejercicio cognitivo irremplazable. Carter Wright (profesor en Texas) destaca la imposibilidad de erradicar el fraude sin prohibir la tecnología: “Los estudiantes van un paso adelante”.
El artículo concluye con un llamado a equilibrar la integración de la IA en la educación sin socavar habilidades fundamentales. Mientras empresas y educadores libran una batalla tecnológica, el caso de la estudiante de Nueva Jersey —quien dejó de usar IA por conciencia propia— subraya la necesidad de un enfoque ético y pedagógico renovado.
Más contenido de Urgente24
Fuerte baja de aranceles para ropa y calzado importados
Economistas prenden el alerta por el avance de la inflación núcleo
Por qué Alejandro Garnacho se quedó afuera de la Selección Argentina