Les universités ont initialement présenté l'IA comme un problème de triche : des étudiants utilisant ChatGPT pour écrire des dissertations qu'ils devraient écrire eux-mêmes. Mais un tableau plus complexe émerge. De nombreux étudiants ne trichent pas délibérément — ils sont véritablement incapables de produire un travail sans assistance de l'IA parce qu'ils n'ont jamais développé les compétences pour le faire.

Le déficit de compétences sous la surface

Les étudiants qui ont utilisé l'IA tout au long du lycée peuvent arriver à l'université sans les capacités de base : structurer un argument, synthétiser des sources, rédiger un paragraphe cohérent de toutes pièces. Ce ne sont pas des étudiants qui choisissent l'IA plutôt que l'effort — ce sont des étudiants pour qui l'IA a toujours fait partie de la façon dont le travail se fait. La frontière entre utilisation d'outil et dépendance est devenue floue au-delà de toute reconnaissance.

Repenser les politiques d'intégrité

Les politiques traditionnelles d'intégrité académique supposent que les étudiants sont capables de faire le travail et choisissent de ne pas le faire. La addiction à l'IA remet en question cette hypothèse. Sanctionner un étudiant qui ne peut pas écrire sans IA est différent de sanctionner un étudiant qui le peut mais choisit de prendre un raccourci. Les établissements commencent à reconnaître que certains étudiants ont besoin de renforcement des compétences, pas de sanctions.

Aller de l'avant

Certaines universités introduisent des évaluations sans IA — rédaction en classe, examens oraux, portfolios de processus — qui révèlent ce que les étudiants sont réellement capables de faire de manière autonome. Ces évaluations ne visent pas à interdire l'IA ; elles visent à s'assurer que les étudiants développent des compétences fondamentales en parallèle de leurs compétences en IA.

Approfondissez ce sujet. Nos ressources de sensibilisation accompagnent les établissements d'enseignement.