Un temps de correction des copies divisé par trois : quand l'IA vient à la rescousse des professeurs

De plus en plus d’enseignants adoptent l’IA pour faciliter la correction des copies, même si ces outils, qui promettent, gain de temps et impartialité, ne sont pas infaillibles.

Article rédigé par Anicet Mbida
Radio France
Publié
Temps de lecture : 2min
Une enseignante au lycée corrige des copies, Paris, le 11 décembre 2020. (LEO PIERRE / HANS LUCAS / AFP)
Une enseignante au lycée corrige des copies, Paris, le 11 décembre 2020. (LEO PIERRE / HANS LUCAS / AFP)

Il n’y a pas que les étudiants qui utilisent l’intelligence artificielle pour leurs devoirs. Désormais, les professeurs aussi s’y mettent pour corriger les copies. Chaque semaine, un enseignant passe en moyenne plus de 6h30 en moyenne. Non seulement c’est chronophage, mais en plus, c’est répétitif, rébarbatif. Donc évidemment, on se dit que l’intelligence artificielle pourrait leur faire gagner du temps.

C’est pourquoi on voit arriver de plus en plus d’outils d’assistance à la correction des copies. Ils s’appellent Ed.ai, Examino, Gingo ou encore PyxiScience. Quasiment toutes les matières sont gérées, des maths aux dissertations. Ils promettent de diviser le temps de correction par trois, d’éliminer les biais et les erreurs liées à la fatigue. L’objectif étant d’arriver à une plus grande impartialité des évaluations.

Pas des correcteurs mais de simples assistants

Une fois la copie prise en photo ou scannée, elle passe à la moulinette de l’outil. Il va faire une pré-correction, une sorte de première passe que le professeur n’aura ensuite qu’à affiner ou à valider. Tous les critères sont fixés par l’enseignant : le barème de points, les consignes particulières à respecter et le type de réponse ou de mots clés attendus pour chaque question. Il ne s’agit pas de correction automatique. L’outil fonctionne simplement comme un assistant. L’enseignant garde tout le contrôle et toute la responsabilité de la note.

Mais il ne faut pas trop faire confiance à l'IA non plus car c’est malheureusement le principal travers des utilisateurs. Plus les résultats de l'IA sont bons, plus elle est efficace, et moins on a tendance à vérifier ce qu’elle produit. C’est comme cela que l’on se retrouve avec des rapports de recherche truffés d’erreurs dans les publications scientifiques ou des comptes-rendus d’avocats au tribunal qui inventent des faits. Sans oublier les problèmes classiques d’interprétation de l’écriture manuscrite. Parfois, les profs ont du mal à relire les élèves. Alors, imaginez une machine… On ne le répètera jamais assez : l’IA n’est pas aussi fiable qu’une calculatrice. On ne peut pas avoir une confiance aveugle. Il faut considérer ces outils pour ce qu’ils sont : des outils. Rien de plus.

Commentaires

Connectez-vous ou créez votre espace franceinfo pour commenter.