Dispositifs d’évaluation à distance à correction automatisée versus non automatisée : analyse comparative de deux formes emblématiques
e-Assessment with automated versus non-automated correction: comparative analysis of two emblematic forms
Type de référence
Date
2020-05-01Langue de la référence
FrançaisEntité(s) de recherche
Résumé
La crise sanitaire Covid-19 conduit chaque enseignant à envisager de concevoir des évaluations en ligne. Dès lors, la sensibilisation de ces derniers à la qualité de leurs dispositifs est cruciale, d’autant plus que la régulation efficace des enseignements-apprentissages à distance requiert des dispositifs d’évaluation fiables. Partant de ce constat, nous rappelons neuf critères de qualité tirés de la littérature et devant s’appliquer à tout type d’évaluation. Nous avons ensuite comparé deux formes emblématiques d’évaluations utilisées dans le contexte de la pandémie : les Questions à choix multiple (QCM) en ligne et les Questions à réponses ouvertes longues (QROL) gérées à distance. L’une autorise une correction entièrement automatisée et l’autre nécessite l’intervention de l’enseignant lors de la correction. L’examen de ces dispositifs met en évidence des avantages et des inconvénients pour chacune des deux formes. Il apparaît que les avantages de l’une pourraient compenser les désavantages de l’autre et, dans le contexte actuel de pandémie où des dispositifs d’évaluation à distance se mettent en place dans l’urgence, nous conseillons aux enseignants de ne pas choisir l’une au détriment de l’autre. Une utilisation combinée est préférable de manière à tirer parti des avantages des deux formes d’évaluation tout en limitant les désavantages de chacune. Nous concluons en soulignant que le gain de temps permis par la correction automatisée des QCM pourrait être avantageusement mis à profit par les enseignants pour améliorer la fiabilité de la correction des QROL et peaufiner des feedbacks dans une perspective de soutien aux apprentissages.
Résumé traduit en anglais
The Covid-19 health crisis is leading every teacher to consider designing online assessments. Consequently, it is crucial to make them aware of the quality of their systems, especially as the effective regulation of distance learning requires reliable evaluation systems. On the basis of this observation, we recall nine quality criteria drawn from the literature that should be applied to any type of evaluation. We then compared two emblematic forms of evaluation used in the context of the pandemic: online Multiple-Choice Questions (MCQs) and Open-ended Questions (OQs) managed via the Internet. One allows for fully automated scoring and the other requires teacher intervention during scoring. A review of these types of assessments reveals advantages and disadvantages for both. It appears that the advantages of one may outweigh the disadvantages of the other, and in the current pandemic context where remote assessment systems are being implemented in an emergency, teachers are advised not to choose one at the expense of the other. A combined use is preferable so as to take advantage of the benefits of both while limiting the disadvantages of each. We conclude by emphasizing that the time saved by the automated correction of MCQs could be advantageously used by teachers to improve the reliability of the correction of the QROLs and to refine feedback in a Assessment for Learning (AfL) perspective.Titre du périodique
Evaluer : journal international de recherche en éducation et formation - e-JIREFMaison d’édition
Association pour le développement des méthodologies d'évaluation en éducation (ADMEE-Europe)Ville d’édition
NeuchâtelPays d'édition
Suissee-ISSN
1374-1217Evaluation par les pairs (peer reviewing)
ouiVolume / tome
Numéro Hors-sérieFascicule
1Pagination
143-154URL permanente ORFEE
http://hdl.handle.net/20.500.12162/3865URL non permanente
http://journal.admee.org/index.php/ejiref/article/view/227La publication existe uniquement sous forme électronique
ouiDocument(s) associé(s) à la référence
Texte intégral :
Fichier
Accès
Commentaire
Version
Taille
Ouvert
Article avec bibliographie complète
postprint éditeur
483.8ko
- Tout ORFEE
- Détail référence