2024-04-23 13:47:47
De nombreuses personnes ont aidé ma fille à grandir en tant qu’écrivain : mon mari et moi l’avons encouragée à lire et l’avons emmenée dans des aventures. Pendant une décennie, des enseignants l’ont coachée dans l’écriture et ont mis à l’épreuve sa réflexion. D’innombrables auteurs lui ont montré comment mettre des mots sur l’émotion et l’expérience.
Mais maintenant qu’il est temps pour l’État du Texas d’évaluer les compétences académiques de ma fille de 16 ans, un programme informatique décidera si son écriture est suffisamment bonne.
Nous sommes au cœur d’une saison de tests STAAR avec une touche de science-fiction : cette année, les réponses libres aux examens d’évaluation de la préparation académique de l’État du Texas seront notées par de nouveaux « moteurs de notation automatisés » conçus pour « lire » ce que les élèves écrivent.
Cela comprend les réponses écrites courtes aux tests STAAR de sciences et d’études sociales, ainsi que les composantes écrites à réponses courtes et plus longues des examens de lecture et d’arts du langage en anglais. Au total, les réponses dactylographiées des étudiants à environ 5,4 millions de tests STAAR cette année seront notées avec cette technologie, réduisant ainsi le besoin de correcteurs humains de 6 000 l’année dernière à environ 2 000 cette année.
Et même si les étudiants et les enseignants s’inquiètent, à juste titre, de la fiabilité de cette technologie, « À quel point est cet ordinateur?” a demandé mon adolescent sceptique : je m’inquiète de ce que deviendra l’écriture lorsque les étudiants se concentreront sur l’obtention d’une note de passage d’un robot informatisé.
La compétence de cette technologie a été la question la plus immédiate, compte tenu des enjeux élevés du STAAR. Les étudiants doivent réussir certains de ces tests pour progresser dans une année ou obtenir leur diplôme d’études secondaires, et tous les examens sont utilisés pour juger les écoles et les districts.
La Texas Education Agency souligne que les humains sont impliqués dans chaque étape du développement et de la vérification des performances des moteurs de notation automatisés. Chaque outil informatisé est conçu pour noter une question spécifique et puis testé de manière approfondie par rapport à la façon dont les humains ont évalué les réponses à cette même question, a déclaré Chris Rozunick, directeur du développement de l’évaluation à la TEA.
Ces outils ne sont pas de l’intelligence artificielle, a-t-elle ajouté. Ils n’apprennent pas et ne s’adaptent pas à mesure qu’ils consomment plus d’informations.
En d’autres termes : si ChatGPT est « une belle Ferrari boostée », m’a dit Rozunick, les moteurs de notation automatisés STAAR ressemblent davantage à un kart à pédales.
Beaucoup plus simple et moins susceptible de dévier de sa trajectoire.
La TEA s’attend à ce qu’environ 25 % des réponses notées par ordinateur soient également examinées par des humains. Certains seront des contrôles ponctuels pour garantir que la note informatique correspond à ce qu’une personne donnerait. Dans d’autres cas, l’ordinateur signalera les tests pour lesquels il a une « faible confiance » quant à l’exactitude du score, car la réponse de l’étudiant ne ressemble pas à ce que le robot s’attendait à voir. Un marqueur humain y regardera de plus près.
“Nous n’allons pas pénaliser les enfants qui arrivent avec des réponses très différentes”, a déclaré Rozunick. “En fait, nous aimons voir (l’ordinateur signaler ces réponses) parce que c’est une bonne indication que le système fonctionne.”
Ce qui m’inquiète, c’est ce qui se passe beaucoup plus en amont.
Préoccupés par la capacité de l’ordinateur à « lire » les réponses des élèves, certains enseignants exhortent cette année les enfants à garder leurs phrases courtes et leur message simple. Et bien qu’il s’agisse d’un conseil judicieux pour s’engager dans cette technologie, le principe même d’écrire à un robot aggrave le problème de la prose stéréotypée longtemps favorisée par les tests standardisés.
Lorsque l’espace est limité et que les enjeux des tests sont élevés, les étudiants s’appuient sur les règles d’écriture. Ils ne veulent pas se faire saper. Certains écriront d’une manière rigide qui devient leur approche de prédilection même en dehors du STAAR, soit parce qu’ils pensent que toute écriture est censée être ainsi, soit parce qu’ils n’ont pas eu suffisamment d’opportunités en dehors du monde de la préparation aux tests pour développer leur voix.
“Nous avions l’habitude d’entendre des témoignages lors d’audiences législatives sur la façon dont les collèges d’autres États pouvaient reconnaître instantanément les étudiants du Texas qui postulaient en raison de la manière dont ils écrivaient, et cela était directement lié au système de tests”, Holly Eaton, directrice du développement professionnel. et le plaidoyer pour la Texas Classroom Teachers Association, m’a dit.
Et tandis que le Texas tente de résoudre ce problème, le passage à la notation informatisée des réponses écrites menace de nous faire revenir en arrière.
Lorsque la nouvelle a éclaté pour la première fois selon laquelle le Texas utilisait des outils informatisés pour noter les réponses écrites du STAAR, la représentante de l’État Erin Zwiener, D-Driftwood, a déploré sur les réseaux sociaux : « J’ai enseigné l’écriture à l’université. L’une des premières choses que les professeurs d’écriture universitaires doivent faire est d’*abandonner* la rédaction des tests standardisés et guindés.
“Une machine ne peut pas reconnaître une bonne écriture”, a-t-elle ajouté. “Une machine ne peut reconnaître que l’écriture qui suit une formule.”
Malheureusement, une partie de moi reconnaît que parler aux ordinateurs devient une compétence nécessaire. Les chatbots constituent le premier niveau de service client pour de nombreuses entreprises et, dans de nombreux cas, les CV des chercheurs d’emploi seront scanné et trié par technologie avant qu’un candidat n’atteigne un humain. Interagir avec cette technologie fait partie de nos vies.
Mais il existe au-delà de cela un monde de pensée et d’expression bien plus riche. Le Texas doit former des penseurs et des communicateurs adaptés à ce monde – des gens capables d’analyser les problèmes, d’articuler des solutions et de sympathiser avec les autres.
Quelle que soit la précision des « moteurs de notation automatisés » du STAAR, nous nous retrouvons toujours avec des questions de test et des réponses des étudiants conçues pour une utilisation informatique. Il s’agit d’un exercice de traitement de données au lieu de développer des rédacteurs. Le Texas ne s’en portera pas mieux.
Grumet est le chroniqueur du Statesman’s Metro. Sa chronique, ATX in Context, contient ses opinions. Partagez le vôtre par e-mail à [email protected] ou sur X à @bgrumet. Retrouvez ses travaux antérieurs sur statesman.com/opinion/columns.
Si vous avez des questions sur les réponses
Une fois qu’un test STAAR a été noté, les parents peuvent visiter texasassessment.gov pour voir le score global de leur enfant. Ils peuvent également voir les réponses de leur enfant à toutes les questions du test et comment ces réponses ont été notées. Les parents peuvent faire part de leurs préoccupations à l’école de leur enfant. Si les responsables de l’école conviennent qu’il y a un problème, le coordinateur des tests du district scolaire peut demander aux responsables de l’État d’y jeter un deuxième regard.
#Dans #STAAR #cette #année #les #écrits #des #étudiants #Texas #sont #notés #par #ordinateur
1713880175