À l’heure où l’IA dit que les génératifs nous mettent en danger par leurs prouesses, comment évaluer correctement les acquis des étudiants et étudiantes ? L’irruption du robot conversationnel Chatgpt est-elle de nature à bouleverser les pratiques évaluatives ? Les enjeux se posent-ils d’une manière radicalement nouvelle ou n’y a-t-il rien de nouveau sous le soleil de ces jugements appréciatifs que sont les jugements de notation et d’évaluation ?
Le fait significatif est que les IA génératives sont capables, à partir des instructions qui leur sont données, « invites »pour créer du texte, des images ou même de la musique. Les machines s’emparent de ce qui semble nous constituer en soi. Ne deviendront-ils pas capables d’accomplir, et mieux que nous, n’importe quelle tâche cognitive humaine ?
Le risque est que l’outil “Intelligence générative” être utilisé massivement pour tricher. Si les acquis que visent les actions éducatives sont précisément de l’ordre de tâches cognitives complexes, la tentation peut être forte, chez certains, de faire faire à des machines intelligentes ce qu’elles sont censées avoir appris à faire au cours de leur formation, comme écrire un mémoire.
Bien identifier les compétences à évaluer
C’est toute évaluation réalisée en dehors des strictes conditions d’examen, notamment « à domicile », qui devient suspecte. Certes, les remèdes sont assez évidents : imposer des temps d’évaluation indispensables en milieu « fermé » ; Interdire ou, mieux, modérer ou encadrer, l’utilisation éventuelle d’une IA générative en situation d’examen.
Pour autant, cette possibilité de tricherie, qui n’est que la figure moderne du classique « s’en faire faire par autrui » avec l’usurpation d’identité, ne doit pas nous détourner du problème central qui est toujours le même : comment permettre à l’apprenant évalué de « prouver » lui-même”, c’est-à-dire apporter une preuve authentique de la réalité de ses réalisations ?
Lire aussi : Dan AIs enseignement supérieur : les leçons de Platon et le mythe de Theuth
Comme lors des périodes précédant Chatgpt, deux conditions sont requises. La première condition est d’avoir une idée précise de l’objectif pédagogique poursuivi. En d’autres termes, il faut pouvoir définir en termes opérationnels la capacité ou la compétence à laquelle se réfère l’action éducative ; et donc par contrôle ou devoir sur la table, ceux-ci visant à dire si l’objectif est atteint.
On observera qu’il ne suffira pas de désigner des savoirs, mais qu’il faudra dire ce que la « possession » de ces savoirs rend l’étudiant capable de faire de manière visible. Dire de quoi la maîtrise de ce savoir le rend capable, concrètement, de faire : en quoi peut-on distinguer clairement celui qui possède ce savoir, et celui qui ne le possède pas ?
La deuxième condition, qui va de pair avec la première, est de trouver des « épreuves » d’examen, c’est-à-dire des « tâches », qui nécessitent d’affronter une situation où l’on peut, justement, faire ses preuves. Par exemple : simplifier des fractions, construire un texte argumentatif, rédiger la synthèse d’un texte philosophique. On retombe alors sur l’obstacle d’un éventuel remplacement par une IA générative : elle ne pourra pas, justement, faire “mes” preuves, à ma place, si je laisse croire que son œuvre est la mienne ?
Créez de nouveaux exercices avec l’IA
Au-delà du problème moral, et de police, constatons que cela oblige à faire l’effort, dans chaque cas, de rechercher la compétence centrale ciblée dans chaque tâche cognitive pouvant faire l’objet d’un apprentissage scolaire ou universitaire. Raisonner donc en termes de capacités concrètement opérationnelles, de l’ordre du savoir-faire.
Ces capacités peuvent être visibles chez les étudiants à travers les résultats qu’ils obtiennent (par exemple savoir s’orienter dans une ville à l’aide d’un plan), et non en termes de contenus pouvant être inscrits dans un programme (comme connaître la liste des préfectures). ). Cela peut conduire à Distinguer les niveaux d’objectifs d’apprentissage et les situations d’évaluationen fonction du type de capacité en jeu.
Au lieu de se lamenter sur les (très relativement) nouvelles possibilités de triche, le plus utile est de se demander si l’IA générative n’offrirait pas des perspectives d’amélioration significative de l’apprentissage. Faisant ainsi un usage intelligent de l’outil qu’ils proposent, entre autres en termes de contenu, d’illustrations, ou encore d’idées de scénarisation de cours, ou de création d’exercices.
[Déjà plus de 120 000 abonnements aux newsletters The Conversation. Et vous ? Abonnez-vous aujourd’hui pour mieux comprendre les grands enjeux du monde.]
Pour les étudiants et étudiantes, l’IA peut aider à mettre en place un apprentissage personnalisé, en proposant des ressources sur mesure, ou en impliquant des assistants d’apprentissage interactifs.
Enfin, on pourrait, en dépassant la simple problématique de l’évaluation, identifier des axes de travail pour une Pédagogie assistée par l’IA générative. Une première piste serait de donner aux individus les moyens de maîtriser les outils numériques, qui ne sont jamais que des outils.
Une autre piste serait d’essayer de comprendre, à cette occasion, comment fonctionne l’intelligence logique ; Et, de manière plus large, comment se développe la pensée, en interrogeant, derrière les problèmes d’algorithmes, et de fonctionnement des mécanismes techniques, des enjeux proprement éthiques. Cela peut se faire en co-construisant les tests avec les élèves et les étudiants. Car l’impact de l’IA générative, sur l’évaluation, comme en général, sera essentiellement fonction de l’usage, bon ou mauvais, qui en sera fait.
#Chatgpt #change #dans #lévaluation #des #étudiants