Bulletin de veille : évaluation des compétences informationnelles

Ce bulletin de veille porte sur l’évaluation des compétences informationnelles (CI). Cette recension présente plusieurs articles sélectionnés à partir de centaines d’articles répertoriés dans les derniers mois sur cette thématique.

Incontournable

Un rapport de recherche -qui tombe vraiment à point!- a été publié en octobre dernier par l’organisation Educational Testing Service (ETS) (Sparks, 2016). Cette recension, proposée par l’ETS, est un incontournable en termes de tests d’évaluation sur les CI chez les étudiants universitaires car elle répertorie, détaille et compare les différents tests d’évaluation des CI disponibles sur le marché à l’heure actuelle. Par exemple, ce document propose plusieurs tableaux comparant la clientèle ciblée, la durée des tests, les tarifs et les compétences qui sont spécifiquement évaluées auprès des cohortes. Cette étude présente et comparent également quels sont les référentiels sur lesquels les tests se sont basés afin d’évaluer les CI chez les étudiants universitaires. Le seul bémol, un absent : le test Threshold Achievement Test for Information Literacy (TATIL) n’est pas inclut dans cette étude étant donné que son processus d’élaboration n’est pas complètement terminé pour ce dernier à ce jour. Le test TATIL s’arrime au Référentiel de CI en enseignement supérieur de l’Association of College & Research Librairies (ACRL). Ceci-dit, cette étude reste un incontournable afin d’obtenir un tableau détaillé de l’offre actuelle et se faire une tête quant aux tests d’évaluation des CI auprès d’une clientèle universitaire.

Tests/instruments de mesure des CI

Podgornik (2015) nous présente ses résultats de recherche concernant l’expérimentation du test Information Literacy Test (ILT) qui évalue les CI auprès d’étudiants universitaires. Ce test est basé sur les recommandations et les standards préconisés par l’ACRL (2000 et 2015). L’ILT a été conçu avec des questions à choix multiples, que l’auteur a rendues disponibles dans l’annexe de l’article. Le test a été distribué auprès de 536 étudiants universitaires afin de vérifier et de valider sa fiabilité. Ces étudiants provenaient de différents programmes, tels que Sciences, santé, technologies et Sciences de l’éducation et ces derniers pouvaient être à différents moments de leur parcours universitaire lors de la passation du test. Une large part de l’échantillon comprenait des étudiants au premier cycle, en première, deuxième ou troisième année de leur parcours mais aussi des étudiants aux cycles supérieurs. Les résultats de cette étude démontrent que le test ILT s’est avéré fiable en ce qui a trait à la comparaison des résultats entre les pré-tests et les post-tests qui ont été effectués auprès des étudiants. Les données démontrent que les étudiants ont amélioré leurs CI entre les résultats des pré-tests effectués lors de leur première année d’étude avec les résultats des post-tests effectués lors de leur dernière année d’étude, qui se sont avérés plus élevés.

Holliday (2015) a choisi d’évaluer les CI auprès de 900 étudiants selon l’Information Literacy VALUE Rubric proposé par l’Association of American Colleges & Universities (AAC&U). L’évaluation été effectuée sous forme de captures instantanées, et ce, pour des raisons financières. Donc, ce ne sont pas les mêmes étudiants qui ont été suivis, mais différents étudiants du même programme d’études qui ont été ciblés dans quatre différents cours à divers moments de leur parcours. Le but était d’avoir un portrait de la performance des étudiants en ce qui a trait à leurs CI, et ce, à l’intérieur d’une période de 12-18 mois durant leur cheminement d’étude. Dans l’ensemble, les résultats observés de cette recherche démontrent que les étudiants se sont améliorés entre le début et leur fin de parcours. L’étude a également relevé que les étudiants ont eu de très bons résultats lors des questions concernant l’accès et la recherche d’information ainsi qu’à son utilisation éthique. Toutefois, les résultats ont été plus faibles auprès des étudiants lorsque ceux-ci devaient fournir une pensée critique, tel qu’évaluer, synthétiser et d’utiliser l’information adéquatement lors de la rédaction de leurs travaux.

À lire ou à relire, en guise de rafraîchissement, un article rédigé il y a quelques mois par un collègue de Tribune CI, M. Bernard Pochet, abordant trois enquêtes (celle de la FADBEN, celle de Thirion & Pochet ainsi que celle de Mittermeyer & Quirion) sur l’évaluation des CI auprès des étudiants.

Intégration de l’évaluation des CI

Mezick (2016) a expérimenté l’utilisation de « rubriques » comme outil de collaboration avec les professeurs afin d’évaluer les CI des étudiants, et ce, dans une classe en finances. Par « rubrique », l’auteur entend une liste de critères gradués selon le type de document qui pourrait être consulté par l’étudiant lors de ses recherches documentaires. L’utilisation de rubriques a montré des résultats bénéfiques pour atteindre les standards de l’ACRL chez les étudiants. Pour sa part, Stowe (2013) partage, avec détails, une étude de cas où un programme d’évaluation des CI a été conçu et implanté du début à la fin dans une bibliothèque universitaire aux États-Unis. Cette étude de cas présente en détails les différentes étapes de l’intégration d’un programme d’évaluation des CI dans un cursus universitaire, non sans heurts. Plusieurs suggestions sont proposées par l’auteure et moult tableaux, outils et processus utilisés lors de l’implantation sont illustrés et partagés au lecteur.

Portée de l’évaluation des CI

Stonebraker et Fundator (2016) proposent une étude longitudinale qui porte sur l’évaluation de la portée d’un cours obligatoire d’un crédit sur les CI offert par des bibliothécaires à des étudiants inscrit dans un programme en gestion. Les étudiants devaient passer des pré-tests et des post-tests étalés entre une série de cours en gestion afin de déterminer si ce cours crédité sur les CI avait un effet à long terme sur l’apprentissage des étudiants. Les résultats de cette étude ont démontré que les cours sur les CI crédités offerts à des étudiants dans le cadre d’un programme universitaire ont un impact à long terme sur leur apprentissage. Cet impact se manifeste plus particulièrement sur l’amélioration de leurs résultats scolaires ainsi que sur le développement plus poussé de leurs CI.

Fain (2011) s’est intéressée à examiner les résultats d’une évaluation des CI effectuée par le truchement de pré-tests et de post-tests. L’auteur voulait examiner s’il y avait un changement ou une évolution en ce qui a trait aux CI des étudiants à la suite d’une formation sur les ressources de la bibliothèque. Un pré-test et un post-test furent conçus et le test Library Skills Assesment fut administré aux étudiants au début et à la fin de leur première session. Les résultats observés par la chercheure indiquent un changement significatif dans le développement des CI chez les étudiants qui se sont prêtés à l’étude.

 

Références

Association des professeurs documentalistes de l’Éducation nationale. (2016). Page consultée à http://www.apden.org/

Association of American Colleges & Universities. (n.d.). Information Literacy VALUE Rubric. Page consultée à https://www.aacu.org/value/rubrics/information-literacy

Association of College & Research Librairies. (2016). Framework for Information Literacy for Higher Education. Page consultée à http://www.ala.org/acrl/standards/ilframework

Boh Podgornik, B., Dolničar, D., Šorgo, A., & Bartol, T. (2016). Development, testing, and validation of an information literacy test ( ILT) for higher education. Journal of the Association for Information Science & Technology, 67(10), 2420-2436. http://dx.doi.org/10.1002/asi.23586

Educational Testing Service. (2017). Page consultée à https://www.ets.org/

Fain, M. (2011). Assessing information literacy skills development in first year students: a multi-year study. The Journal of Academic Librarianship, 37(2), 109-119. http://dx.doi.org/10.1016/j.acalib.2011.02.002.

Holliday, W., Dance, B., Davis, E., Fagerheim, B., Hedrich, A., Lundstrom, K., & Martin, P. (2015). An information literacy snapshot: Authentic assessment across the curriculum. College & Research Libraries, 76(2), 170-187.

Boh Podgornik, B., Dolničar, D., Šorgo, A., & Bartol, T. (2014). Using item analysis to evaluate the validity and reliability of an existing online information literacy skills assessment instrument. South African Journal of Libraries & Information Science, 80(2), 36-45. http://dx.doi.org/10.7553/80-2-1515

Madison Assessment. (2017). Information Literacy Test. Page consultée à http://www.madisonassessment.com/assessment-testing/information-literacy-test

Mezick, E. M., & Hiris, L. (2016). Using rubrics for assessing information literacy in the finance classroom: A collaboration. Journal of Business & Finance Librarianship, 21(2), 95-113. http://dx.doi.org/10.1080/08963568.2016.1169970

Pochet, B. (2016). Évaluation des compétences informationnelles des étudiants : trois enquêtes, un même constat. Page consultée à https://tribuneci.wordpress.com/2016/09/27/evaluation-des-competences-informationnelles-des-etudiants-trois-enquetes-un-meme-constat/

Sparks, J. R., Katz, I. R., & Beile, P. M. (2016). Assessing Digital Information Literacy in Higher Education: A Review of Existing Frameworks and Assessments With Recommendations for Next‐Generation Assessment. ETS Research Report Series.

Stonebraker, I. R., & Fundator, R. (2016). Use It or Lose It? A Longitudinal Performance Assessment of Undergraduate Business Students’ Information Literacy. Journal of Academic Librarianship, 42(4), 438-444. http://dx.doi.org/10.1016/j.acalib.2016.04.004

Stowe, B. (2013). Designing and Implementing an Information Literacy Instruction Outcomes Assessment Program. College & Undergraduate Libraries, 20(3/4), 242-276. http://dx.doi.org/10.1080/10691316.2013.829363

Threshold Achievement Test of Information Literacy. (n.d). About the test. Page consultée à https://thresholdachievement.com/thetest/about-the-test/

William R. & Norma B. Harvey Library. (n.d.). Library Instructional Services: Pre-Test Library Skills Assessment: Pre-Test Library Skills Assessment. Page consultée à http://hamptonu.libguides.com/instruction/pre-test

Advertisements

Pas encore de commentaire... Lancez-vous!

Laisser un commentaire

Entrez vos coordonnées ci-dessous ou cliquez sur une icône pour vous connecter:

Logo WordPress.com

Vous commentez à l'aide de votre compte WordPress.com. Déconnexion / Changer )

Image Twitter

Vous commentez à l'aide de votre compte Twitter. Déconnexion / Changer )

Photo Facebook

Vous commentez à l'aide de votre compte Facebook. Déconnexion / Changer )

Photo Google+

Vous commentez à l'aide de votre compte Google+. Déconnexion / Changer )

Connexion à %s

%d blogueurs aiment cette page :