Las universidades inicialmente enmarcaron la IA como un problema de trampa: estudiantes usando ChatGPT para escribir ensayos que deberían escribir ellos mismos. Pero está emergiendo una imagen más compleja. Muchos estudiantes no están haciendo trampa deliberadamente: genuinamente no pueden producir trabajo sin asistencia de IA porque nunca desarrollaron las habilidades para hacerlo.
La brecha de habilidades bajo la superficie
Los estudiantes que han usado IA durante toda la secundaria pueden llegar a la universidad sin capacidades básicas: estructurar un argumento, sintetizar fuentes, escribir un párrafo coherente desde cero. Estos no son estudiantes que eligen la IA sobre el esfuerzo: son estudiantes para quienes la IA siempre ha sido parte de cómo se hace el trabajo. La línea entre uso de herramienta y dependencia se ha difuminado más allá del reconocimiento.
Repensar las políticas de integridad
Las políticas tradicionales de integridad académica asumen que los estudiantes pueden hacer el trabajo y eligen no hacerlo. La dependencia de la IA desafía esta suposición. Sancionar a un estudiante que no puede escribir sin IA es diferente de sancionar a un estudiante que puede pero elige el atajo. Las instituciones están empezando a reconocer que algunos estudiantes necesitan desarrollo de habilidades, no sanciones.
Avanzar
Algunas universidades están introduciendo evaluaciones libres de IA —escritura en clase, exámenes orales, portafolios de proceso— que revelan lo que los estudiantes realmente pueden hacer de forma independiente. Estas evaluaciones no se tratan de prohibir la IA; se tratan de asegurar que los estudiantes desarrollen capacidades fundamentales junto con sus habilidades de IA.
Explore este tema más a fondo. Nuestros recursos de sensibilización apoyan a las instituciones educativas.