Aller au contenu principal
Accueil
MDesigner.org

Navigation principale

  • Accueil
  • Formations
    • Communication et Marketing
    • Intelligence Artificielle et Technologies
    • Relations Internationales et Interculturalités
  • Recherche
    • Narration et Discours
    • Pédagogie et Théâtre
    • Créativité Computationnelle
  • Évènements
    • Calendrier ÆØΞΣ
    • Sessions ÆØΞΣ

Fil d'Ariane

  1. Accueil

Évaluation de la confiance accordée aux feedbacks produits par l'IA en co-production avec les étudiants universitaires

Évaluation de la confiance accordée aux feedbacks produits par l'IA en co-production avec les étudiants universitaires

Cette recherche s'inscrit dans un contexte éducatif en pleine transformation avec l'émergence des technologies d'intelligence artificielle (IA) dans les pratiques pédagogiques, notamment dans le domaine du feedback formateur. L'objectif principal de cette étude est d'analyser de manière approfondie la confiance que les étudiants de niveau universitaire accordent aux différents types de feedback : ceux générés exclusivement par l'IA, ceux produits uniquement par des humains, et ceux co-créés par une collaboration entre humains et IA.

La recherche poursuit trois objectifs spécifiques interconnectés. Premièrement, elle vise à effectuer une comparaison systématique de la confiance des étudiants vis-à-vis de ces trois modalités de feedback. Cette analyse comparative permet de mieux comprendre comment les différentes origines des feedbacks influencent leur perception et leur valeur perçue par les apprenants.

Deuxièmement, l'étude cherche à examiner les mécanismes cognitifs et perceptifs qui permettent aux étudiants de différencier ces types de feedback. Cette investigation inclut l'analyse des indices spécifiques et des caractéristiques distinctives que les étudiants utilisent pour identifier la source des feedbacks, qu'elle soit humaine, artificielle ou hybride.

Troisièmement, la recherche se propose d'explorer les biais potentiels, conscients ou inconscients, que les étudiants peuvent nourrir à l'égard des différents types de feedback. Cette dimension cruciale de l'étude vise à identifier les préjugés systématiques qui pourraient affecter négativement l'acceptation et l'efficacité des feedbacks générés par l'IA ou co-produits, et à comprendre comment ces biais se manifestent selon les caractéristiques individuelles des étudiants.

Ces objectifs de recherche répondent à un besoin urgent de compréhension scientifique alors que les institutions d'enseignement supérieur sont de plus en plus amenées à intégrer les technologies d'IA dans leurs pratiques pédagogiques. Les résultats attendus devraient fournir des informations essentielles pour guider l'implémentation efficace de ces nouvelles formes de feedback dans le contexte éducatif.

Méthodologie

Cette recherche repose sur une méthodologie expérimentale rigoureuse mettant en œuvre un dispositif de recherche innovant. L'étude a été menée auprès d'un échantillon composé de 91 étudiants inscrits en psychologie à l'Université College London, répartis entre les niveaux licence 1 et licence 2. La sélection de ce public spécifique s'explique par leur familiarité avec les protocoles de recherche expérimentale, acquis dans le cadre de leur cursus académique.

Le design expérimental repose sur une approche intra-sujets avec trois conditions expérimentales distinctes :

  1. Un feedback généré exclusivement par un enseignant humain, représentant la méthode traditionnelle d'évaluation
  2. Un feedback entièrement généré par l'intelligence artificielle Claude 3.5 Sonnet, spécifiquement paramétré pour cette tâche
  3. Un feedback co-produit résultant de la collaboration entre l'enseignant humain et l'intelligence artificielle

La procédure expérimentale a été structurée en deux phases distinctes afin d'examiner l'évolution des perceptions des participants :

Phase 1 : Évaluation en aveugle Les participants ont initialement évalué les trois types de feedback sans connaissance de leur origine respective. Cette étape cruciale permet d'obtenir des jugements non biaisés par des préconceptions potentielles concernant les différentes sources de feedback.

Phase 2 : Évaluation informée Après avoir révélé l'origine de chaque type de feedback aux participants, une seconde série d'évaluations a été réalisée. Cette phase permet d'examiner comment la connaissance explicite de la source influence les perceptions initiales des étudiants.

Cette méthodologie en deux temps offre plusieurs avantages significatifs :

  • Elle permet de contrôler les biais potentiels liés aux préjugés contre ou en faveur de certaines sources de feedback
  • Elle fournit des données comparatives avant et après révélation de la source
  • Elle permet d'analyser l'impact de la divulgation de l'origine sur la perception des feedbacks

L'ensemble du protocole expérimental a reçu l'approbation éthique du Comité d'éthique de la recherche de l'UCL Institute of Education (référence REC2063), garantissant ainsi le respect des normes éthiques requises pour la recherche impliquant des participants humains.

Les données ont été collectées via une application web spécialement développée pour l'étude, assurant une présentation standardisée des stimuli et une collecte systématique des réponses. Le système informatique reposait sur une architecture combinant le framework Svelte pour l'interface utilisateur, FastAPI pour le backend, et AWS DynamoDB pour le stockage des données au format JSON, garantissant ainsi la fiabilité et la sécurité des données recueillies tout au long de l'expérience.

Résultats Principaux de l'Étude

L'analyse des données a révélé plusieurs tendances significatives concernant la perception des étudiants vis-à-vis des différents types de feedback. Premièrement, une préférence marquée émerge en faveur des feedbacks générés par l'intelligence artificielle (IA) et des feedbacks co-produits par rapport aux feedbacks purement humains. Cette préférence se manifeste à travers des évaluations significativement plus élevées sur plusieurs dimensions clés : l'utilité perçue (p < .001), l'objectivité (p < .001) et la sincérité initiale (p < .024). Ces résultats contrastent avec les hypothèses initiales qui postulaient une préférence traditionnelle pour le feedback humain.

Un phénomène notable concerne l'évolution de la perception de sincérité après la divulgation de la source du feedback. Alors que les évaluations de sincérité pour les feedbacks humains et co-produits demeurent relativement stables avant et après révélation de leur origine, une diminution significative est observée pour les feedbacks purement générés par IA (p < .001). Cette baisse spécifique pourrait s'expliquer par l'effet d'aversion algorithmique bien documenté dans la littérature, où la connaissance explicite de l'origine non-humaine engendre une résistance affective chez les apprenants.

L'étude met également en lumière l'impact différencié de l'expérience avec les technologies d'IA sur la perception des feedbacks. Les résultats montrent qu'une exposition éducative prolongée aux outils d'IA (mesurée en années d'utilisation dans un contexte pédagogique) améliore significativement la capacité des étudiants à identifier correctement les feedbacks générés par IA (χ2 = 4.08, p = .028). Paradoxalement, cette même expérience éducative avec l'IA s'accompagne d'une augmentation générale de confiance dans tous les types de feedback, y compris ceux d'origine humaine.

En revanche, l'expérience générale avec les technologies d'IA (au-delà du contexte éducatif) présente un effet inverse. Les étudiants ayant une plus grande exposition générale aux technologies d'IA tendent à évaluer tous les types de feedback comme étant moins utiles (p = .024, β = -0.36) et moins crédibles (p = .025, β = -0.27). Cette dichotomie entre l'expérience éducative spécifique et l'expérience générale avec l'IA souligne la complexité des facteurs influençant la perception des feedbacks technologiques.

Un dernier résultat d'importance concerne les différences de genre dans l'évaluation des feedbacks. Les analyses révèlent que les participants masculins attribuent systématiquement des scores d'utilité significativement plus bas à tous les types de feedback par rapport à leurs homologues féminins et non-binaires (p = .051, β = -0.40). Cette tendance est particulièrement marquée pour le feedback humain, où les étudiants masculins attribuent des scores d'utilité nettement inférieurs (M = 2.67) comparés aux scores attribués par les femmes et les participants non-binaires (M = 3.46, p = .001). Cette variation selon le genre ouvre de nouvelles perspectives de recherche sur les dynamiques d'engagement avec les mécanismes de feedback dans les environnements d'apprentissage.

Ces résultats collectifs fournissent des informations cruciales pour la conception de systèmes de feedback efficaces dans le contexte de l'enseignement supérieur, soulignant la nécessité de stratégies d'intégration adaptées aux perceptions variées des apprenants face aux différentes modalités de feedback.

Implications de l'Étude

Les résultats de cette recherche soulèvent plusieurs implications majeures pour la conception et la mise en œuvre des systèmes de feedback dans l'enseignement supérieur, particulièrement dans le contexte de l'intégration croissante des technologies d'intelligence artificielle.

Premièrement, le feedback co-produit émerge comme une solution hybride prometteuse qui permet de concilier les avantages respectifs des approches purement humaines et purement automatisées. Cette modalité de feedback, qui combine l'expertise pédagogique humaine avec les capacités computationnelles de l'IA, offre un compromis optimal entre qualité perçue et efficacité opérationnelle. Les données montrent que les étudiants attribuent au feedback co-produit un niveau de crédibilité comparable à celui du feedback humain tout en bénéficiant des améliorations apportées par l'IA en termes de clarté et de précision. Cette approche pourrait donc représenter une voie médiane viable pour les institutions cherchant à moderniser leurs pratiques d'évaluation sans sacrifier la confiance des apprenants.

Deuxièmement, les variations significatives observées dans la perception des feedbacks selon l'exposition préalable des étudiants aux technologies d'IA soulignent l'importance cruciale de développer la littératie numérique dans l'enseignement supérieur. Les résultats démontrent que l'expérience éducative spécifique avec l'IA améliore non seulement la capacité des étudiants à identifier correctement les feedbacks générés par IA, mais augmente également leur confiance globale dans tous les types de feedback. Cependant, l'étude révèle également que l'exposition générale à l'IA (en dehors du contexte éducatif) peut entraîner une perception plus critique et potentiellement biaisée des feedbacks technologiques. Ces constats mettent en lumière la nécessité d'une formation structurée qui aide les étudiants à développer une compréhension nuancée des applications éducatives de l'IA, y compris leurs forces et limitations.

Troisièmement, les résultats de cette recherche soulignent l'urgence d'établir des lignes directrices institutionnelles claires pour l'intégration responsable de l'IA dans les systèmes de feedback pédagogique. Plusieurs dimensions doivent être prises en compte dans l'élaboration de ces directives :

  1. La transparence : Les politiques doivent préciser les modalités de divulgation de l'utilisation de l'IA dans la production de feedback, tout en considérant les effets potentiels sur la perception des étudiants.
  2. La standardisation : Des protocoles doivent être développés pour assurer la cohérence et la qualité des feedbacks co-produits, notamment en ce qui concerne la conception des prompts et la validation humaine des suggestions de l'IA.
  3. L'inclusion : Les lignes directrices doivent prendre en compte les différences individuelles observées dans l'étude, notamment les variations selon le genre et l'expérience préalable avec l'IA.
  4. Le développement professionnel : Les enseignants doivent recevoir une formation adéquate sur l'utilisation efficace des outils d'IA pour la co-production de feedback, y compris sur la conception de prompts optimisés et l'évaluation critique des suggestions générées par l'IA.

Ces implications collectives mettent en évidence la complexité de l'intégration de l'IA dans les pratiques éducatives traditionnelles et soulignent la nécessité d'une approche stratégique et réfléchie. Elles offrent des pistes concrètes pour les décideurs universitaires et les praticiens cherchant à tirer parti des avantages de l'IA tout en préservant la qualité et la crédibilité des processus d'évaluation formative.

Limites de l'Étude et Perspectives de Recherche

L'interprétation des résultats de cette recherche doit être considérée à la lumière de plusieurs limitations méthodologiques significatives qui ouvrent également des perspectives pour des travaux futurs.

Premièrement, l'étude présente une limitation notable liée à la spécificité disciplinaire de l'échantillon. Les données ont été recueillies exclusivement auprès d'étudiants inscrits dans des modules de statistique au sein du département de psychologie. Cette focalisation disciplinaire restreinte pourrait limiter la généralisabilité des conclusions à d'autres domaines académiques. En particulier, les disciplines des sciences sociales et des arts, caractérisées par des tâches d'apprentissage plus ouvertes et permettant des solutions diversifiées, pourraient présenter des dynamiques différentes dans la perception des feedbacks générés par l'IA par rapport aux feedbacks humains. Des recherches futures devraient explorer systématiquement l'efficacité des feedbacks générés par l'IA dans des contextes académiques variés afin de mieux comprendre ces variations potentielles.

Deuxièmement, bien que la taille de l'échantillon ait été suffisante pour détecter des effets de magnitude moyenne selon les analyses de puissance préalables, l'inclusion d'un échantillon plus large et la réplication de l'étude dans des environnements d'apprentissage diversifiés renforceraient la robustesse des résultats. L'augmentation de la diversité de l'échantillon permettrait d'examiner plus profondément comment les capacités des feedbacks générés par l'IA interagissent avec les perceptions des étudiants dans différents contextes éducatifs. Cela inclurait notamment l'exploration des variations culturelles et institutionnelles dans la réception des feedbacks technologiques.

Troisièmement, la conception de l'étude n'a pas pleinement pris en compte la variation potentielle dans les styles de feedback des assistants pédagogiques impliqués. Dans les cours de grande taille, plusieurs assistants pédagogiques interagissent généralement avec les devoirs des étudiants, chacun apportant son propre style d'évaluation et ses standards de notation. Cette variabilité pourrait influencer significativement la qualité et la cohérence des feedbacks humains utilisés comme référence dans l'étude. Une standardisation plus rigoureuse des pratiques de feedback ou une formation institutionnelle spécifique pourrait atténuer ces variations et améliorer la comparabilité entre les différentes modalités de feedback.

Enfin, il existe un besoin crucial d'études longitudinales supplémentaires examinant l'évolution des perceptions des étudiants vis-à-vis des feedbacks intégrant l'IA dans divers contextes académiques. Ces recherches futures devraient idéalement incorporer des mesures qualitatives complémentaires, telles que des entretiens semi-directifs, pour approfondir la compréhension des mécanismes sous-jacents aux perceptions des étudiants. L'exploration de l'impact des feedbacks sur les résultats d'apprentissage réels, plutôt que sur les perceptions déclarées, constitue également une direction de recherche essentielle pour valider l'efficacité pédagogique des différentes modalités de feedback.

Ces limitations identifiées soulignent la nécessité de poursuivre les investigations dans ce domaine émergent, en adoptant des approches méthodologiques diversifiées et en explorant différents contextes éducatifs pour enrichir notre compréhension de l'intégration de l'IA dans les pratiques d'évaluation formative.

Liens sources
Zhang, A., Gao, Y., Suraworachet, W., Nazaretsky, T., & Cukurova, M. (2025). E…

Recherche

  • Créativité Computationnelle
Vocabulaire
  1. "Evaluating Trust" → "Évaluation de la confiance accordée/envers" (captures the active evaluation process)
  2. "Co-produced" → "co-production" (standard French term in academic contexts)
  3. "Undergraduate students" → "étudiants universitaires" (more natural than "étudiants de premier cycle" in French)

Voyage vers les Sociétés de la Connaissance

COMMUNICATION ET MARKETING
communication, design, science des données, dialogue, éducation, cinéma, journalisme, marketing, médias, médias sociaux, narration, actualités, production, radio, social, web, art, jeux, gestion, sport, cinéma


INTELLIGENCE ARTIFICIELLE ET TECHNOLOGIES
IA, connaissance, informatique, innovation, logiciels, mathématiques, recherche, astronomie, botanique, finance, industrie, apprentissage en ligne, psychologie


RELATIONS INTERNATIONALES ET INTERCULTURALITÉ
anthropologie, culture, diplomatie, droit, économie, géographie, histoire, langues, littérature, livres, musée, musique, philosophie, politique, religion, sexualité, tourisme