DI-UMONS : Dépôt institutionnel de l’université de Mons

Recherche transversale
Rechercher
(titres de publication, de périodique et noms de colloque inclus)
2017-05-01 - Article/Dans un journal avec peer-review - Français - 38 page(s)

Casanova Dominique, Demeuse Marc , "Evaluateurs évalués: évaluation diagnostique des compétences en évaluation des correcteurs d'une épreuve d'expression écrite à forts enjeux" in Mesure et Evaluation en Education, 39, 3, 59-96

  • Edition : Association pour le Développement des Méthodologies d'Evaluation en Education (ADMEE), Québec (Canada)
  • Codes CREF : Psychométrie (DI4283), Evaluation [sociologie] (DI4129), Enseignement des langues étrangères (DI5328), Statistique appliquée (DI1133)
  • Unités de recherche UMONS : Méthodologie et formation (P316)
  • Instituts UMONS : Institut de Recherche sur les Systèmes Complexes (Complexys), Institut de Recherche en Développement Humain et des Organisations (HumanOrg)
Texte intégral :

Abstract(s) :

(Anglais) Raters are a key element of language proficiency assessment systems. They ought to be monitored cosely to keep the quality of assessments at a high level. This article compares two methods in order to determine the raters’ severity profiles using real rating data, for a writing test of French as a foreign language. The first method makes use of the Classical Test Theory while the second is based on the Item Response Theory using the multifaceted Rasch Model (MFRM). The concurring results of both methods show that in order to improve the reliability of a test, it is important to take into account a rater’s severity at each cut-off score, even if this consideration only explains a relatively small portion of the error variance. This information also allows for drawing up the raters’ individual evaluation profiles, which could prove useful for more focused training activities.

(Français) Les évaluateurs constituent un maillon essentiel des dispositifs d’évaluation des compétences langagières et doivent bénéficier d’un accompagnement continu pour maintenir la qualité des évaluations à un niveau satisfaisant. Cet article compare deux méthodes pour la détermination des profils de sévérité d’évaluateurs d’une épreuve d’expression écrite en français langue étrangère, à partir de leurs données de production. La première méthode s’inscrit dans le cadre de la théorie classique des tests et la seconde s’appuie sur la théorie de réponse aux items, par la mise en œuvre d’un modèle multifacettes de Rasch. Les résultats concordants des deux méthodes montrent l’utilité de tenir compte de la sévérité des correcteurs aux différents points de césure pour améliorer la fidélité du test, même si cette dernière n’explique qu’une part limitée de la variance d’erreur. Ces informations permettent également de dresser des profils d’évaluation individuels des correcteurs, qui peuvent être exploités dans le cadre de leur suivi pour la mise en œuvre d’actions de remédiation ciblées.


Mots-clés :
  • (Anglais) TEF
  • (Anglais) diagnosis assessment
  • (Anglais) raters monitoring
  • (Français) TEF
  • (Français) Test d'évaluation de français
  • (Français) évaluation diagnostique
  • (Français) accompagnement des évaluateurs
  • (Anglais) quality management
  • (Anglais) French Profiency Test
  • (Français) management de la qualité