Évaluation de l’information : prédominance de la pertinence de l’information dans les propos de futurs enseignants burkinabè du secondaire

Auteurs : Émile Ouédraogo (Enseignant-Ministère de l’éducation nationale et de l’alphabétisation (Burkina Faso)), Martine Mottet (Professeure titulaire – Université Laval (Québec)) et Sylvie Gladys Bidjang (Professionnelle de recherche- Université Laval (Québec))

Cet article a été écrit avec la collaboration de Mesdames Martine Mottet et Sylvie Gladys Bidjang. Cette étude a fait l’objet de la thèse de doctorat de Monsieur Émile Ouédraogo, qui porte sur l’évaluation de l’information à l’ère numérique. Le Web est en effet une source importante d’information pour les étudiants universitaires, y compris les futurs enseignants, quoique la qualité de l’information sur le Web fasse l’objet de nombreux débats tant dans le monde de l’information que dans celui de l’éducation. Ainsi, bien que de nombreuses études sur les compétences informationnelles aient été réalisées auprès d’étudiants des pays du Nord, par contre, dans ceux du Sud – en particulier en Afrique – l’évaluation de l’information chez les étudiants et futurs enseignants a été très peu étudiée.

Voilà pourquoi nous avons exploré comment de futurs enseignants burkinabè du secondaire de disciplines scientifiques évaluent l’information provenant du Web. Nous voulions déterminer : 1) les objets qu’ils évaluent, soient la source, l’auteur, l’information et le support d’après Serres (2012); 2) les indicateurs des objets qu’ils évaluent; et 3) leurs forces et faiblesses dans l’évaluation de l’information provenant du Web.

Afin d’atteindre ces objectifs, nous avons opté pour une recherche qualitative. Mais avant d’aborder la méthodologie utilisée, voyons sur quoi fonder l’évaluation d’une information. Des auteurs comme Serres (2012) et Simonnot (2007) préconisent d’évaluer notamment la crédibilité, la fiabilité, l’exactitude, l’actualité, la pertinence. Ainsi, dans notre étude, évaluer une information, c’est juger de façon critique celle-ci.

Pour en revenir à notre méthodologie, dès lors que notre question de recherche porte sur le « comment » de l’évaluation de l’information, nous avons choisi une approche descriptive exploratoire. Huit futurs enseignants burkinabè du secondaire de disciplines scientifiques ont participé à cette recherche. Ils ont été sélectionnés sur la base d’un échantillonnage par choix raisonné. Les outils de mesure étaient constitués de cinq tâches à réaliser individuellement et d’un entretien d’explicitation également individuel. Chaque tâche était constituée d’une page de mise en contexte de l’activité et de pages Web à retenir ou à écarter. Étant donné qu’Internet est instable au Burkina Faso, nous avons monté de toutes pièces, à partir de sites réels, quinze sites au format papier tout en nous assurant que les indicateurs ciblés étaient répartis dans les différents sites et dans les différentes tâches.

Concernant la collecte des données, nos huit participants ont été soumis individuellement aux tâches d’évaluation de l’information provenant du Web, puis à un entretien d’explicitation afin qu’ils argumentent leurs décisions de retenir ou d’écarter les sites mis à leur disposition. Les données qualitatives que nous avons recueillies ont été transcrites et soumises à une analyse thématique.

Nos résultats ont révélé que, parmi les huit participants, deux (P4 et P6) ont réussi quatre des cinq tâches, deux autres (P1 et P7) en ont réussi deux, tandis que les quatre autres (P2, P3, P5 et P8) n’en ont réussi qu’une seule. Ainsi, dans l’ensemble, les participants ont réussi peu de tâches. Ce constat traduit les difficultés de ces futurs enseignants burkinabè du secondaire de disciplines scientifiques à évaluer l’information provenant du Web, d’où la nécessité d’identifier les objets évalués par ceux-ci.

Ainsi, sur les quatre objets à évaluer, soit source, auteur, information et support, trois l’ont été : source, auteur et information, aucun commentaire n’ayant été fait quant à l’objet support. C’est l’objet information qui a été – et de loin – le plus évalué, chaque participant évaluant essentiellement cet objet dans les cinq tâches. D’ailleurs, dans quatre des cinq tâches (la tâche 5 étant exclue), quatre participants, c’est-à-dire P1, P2, P3 et P8 n’ont pris en considération que cet objet, l’objet information étant donc le plus évalué dans toutes les tâches et par tous les participants. Nos résultats concordent avec la recension d’écrits de Serola et Vakkari (2005), qui soulignent que les chercheurs d’information évaluent généralement des indicateurs de l’objet information, ainsi qu’avec l’étude de Head et Eisenberg (2010) dont les participants évaluent aussi davantage des indicateurs de l’objet information.

Au regard du nombre d’objets évalués, nous avons mis en évidence trois profils de participants, à savoir le profil 3 (ceux qui évaluent les trois objets source, auteur et information), le profil 2 (ceux qui évaluent les deux objets source et information) et le profil 1 (ceux qui évaluent uniquement l’objet information). Une fois les profils dressés, nous avons constaté que les deux participants ayant réussi le plus de tâches, soit quatre des cinq tâches, ont le profil 3. Toutefois, deux autres (P5 et P7) dont les taux de réussite aux tâches (respectivement une tâche et deux tâches) sont faibles ont aussi ce profil. Nous avons ainsi estimé judicieux de croiser les participants et le nombre de commentaires. Il en est ressorti que P4 et P6 ont émis plus de commentaires dans les quatre tâches qu’ils ont réussies (la tâche 4 étant exclue). De plus, nous avons constaté que non seulement seul P7 a réussi la tâche 4, mais aussi qu’il a formulé plus de commentaires et évalué plus d’objets que les autres participants dans cette tâche. Cela signifie que les participants ayant réussi des tâches ont à la fois évalué plus d’objets et formulé plus de commentaires dans les tâches concernées. Les objets étant évalués par l’entremise de leurs indicateurs, nous nous sommes également intéressés à ceux-ci.

S’agissant des indicateurs, la « pertinence de l’information » (65,3 % des commentaires) prédomine largement dans toutes les tâches. Viennent ensuite l’« exactitude de l’information » (11,9 % des commentaires) et l’« actualité de l’information » (4,1 % des commentaires). De plus, à partir des propos des participants, nous avons identifié neuf critères de l’indicateur « pertinence de l’information » : l’adéquation par rapport au thème de la leçon à donner aux élèves, la nouveauté de l’information, l’intérêt pour soi ou pour les autres, la quantité de l’information, le niveau de détail ou de précision de l’information, la présence d’images, la présence de données statistiques ou chiffrées, la commodité et l’accessibilité, et enfin le titre accrocheur. Parmi ces critères, « l’adéquation par rapport au thème » occupe une place importante dans les commentaires. Toutefois, nous notons que nos participants utilisent ces critères tantôt à raison, tantôt à tort pour argumenter leurs choix de sites Web.

Tout compte fait, l’analyse du nombre de tâches réussies et l’appréhension de la manière dont nos huit futurs enseignants burkinabè du secondaire argumentent leurs décisions de retenir ou d’écarter les sites Web indiquent que ceux-ci ont d’importantes lacunes quant à évaluer l’information provenant du Web et qu’il est indispensable de les former à cette évaluation de sorte qu’ils puissent choisir de meilleurs sites pour eux et pour leurs élèves et qu’ils puissent aussi former ceux-ci à l’évaluation de l’information provenant du Web. Ce à quoi nous nous attachons depuis notre retour au Burkina Faso.

 

Références :

Head, A. J. et Eisenberg, M. B. (2010). How College Students Evaluate and  Use Information in the Digital Age.  Repéré à http://projectinfolit.org/images/pdfs/pil_fall2010_survey_fullreport1.pdf, le 26 juillet 2015.

Serola, S. et Vakkari, P. (2005). The anticipated and assessed contribution of information types in references retrieved for preparing a research proposal. Journal of the American Society for Information Science and Technology, 56(4), 373-381 doi : https://doi.org/10.1002/asi.20113.

Serres, A. (2012). Dans le labyrinthe : évaluer l’information sur Internet. Caen : C & F editions.

Simonnot, B. (2007). Évaluer l’information. Documentaliste-Sciences de l’Information, 44(3), 210-216. Repéré à http://www.cairn.info/revue-documentaliste-sciences-de-l-information-2007-3-page-210.htm, le 16 février 2014.

Publicités

2 Réponses vers “Évaluation de l’information : prédominance de la pertinence de l’information dans les propos de futurs enseignants burkinabè du secondaire”

  1. Alexis Salvador Loyé Réponse 23 février 2018 à 10:26

    Excellent travail. Il est vraiment important d’évaluer l’information surtout dans l’enseignement au regard de l’utilisation actuelle des médias sociaux et canaux de communication. Savoir choisir a bonne information est important pour tout le monde.

    J'aime

  2. congratulations Emile

    J'aime

Laisser un commentaire

Entrez vos coordonnées ci-dessous ou cliquez sur une icône pour vous connecter:

Logo WordPress.com

Vous commentez à l'aide de votre compte WordPress.com. Déconnexion /  Changer )

Photo Google+

Vous commentez à l'aide de votre compte Google+. Déconnexion /  Changer )

Image Twitter

Vous commentez à l'aide de votre compte Twitter. Déconnexion /  Changer )

Photo Facebook

Vous commentez à l'aide de votre compte Facebook. Déconnexion /  Changer )

Connexion à %s

%d blogueurs aiment cette page :