Artículos

Alfabetización Mediática, Informacional y Digital: análisis de instrumentos de evaluación

Media, Information and Digital Literacy: Assessment Instrument Analysis

José-Luis Hernández-Marín* 

Martha-Delia Castro-Montoya** 

Sebastián Figueroa-Rodríguez*** 

* Centro de Iniciación Musical Infantil, Universidad Veracruzana, México. josehernandez05@uv.mx

** Unidad de Servicios Bibliotecarios y de Información, Universidad Veracruzana, México. macastro@uv.mx.

*** Facultad de Psicología Xalapa, Universidad Veracruzana, México. sfigueroa@uv.mx

Resumen

La Alfabetización Mediática, Informacional y Digital (AMID) conjunta conocimientos, habilidades y actitudes que capacitan a los ciudadanos para interactuar crítica y reflexivamente con los medios de comunicación e información en la era digital. Este artículo presenta una revisión sistemática exploratoria que analiza 34 estudios (publicados entre 2019 y 2023) que usan herramientas cuantitativas para evaluar la AMID en estudiantes y docentes en el ámbito de la educación formal. Los resultados revelan que la población más estudiada es la universitaria, con predominancia de estudiantes de nacionalidad española y mexicana. Los principales constructos derivados de esta investigación se ajustaron a tres referentes: el Marco Común de Competencia Digital Docente, el cuestionario ALFA-MED y el cuestionario ALFIN-HUMASS. Los instrumentos demostraron sólidas propiedades psicométricas, tanto en términos de confiabilidad como de validez. Las escalas de actitud con formato Likert fueron las más utilizadas en los estudios descriptivos; estas son valiosas para identificar fortalezas y debilidades, pero no siempre son suficientes para brindar un diagnóstico completo. Para ello, es necesario recurrir a otras herramientas que permitan evaluar el desempeño real y vincular los resultados con implicaciones pedagógicas concretas. Finalmente, el artículo recomienda diagnosticar estas competencias en los docentes de educación primaria, secundaria y bachillerato, ya que son fundamentales para el crecimiento académico y personal de los estudiantes.

Palabras clave: Alfabetización mediática; Alfabetización informacional; Alfabetización digital; Instrumentos de evaluación

Abstract

Media, Information, and Digital Literacy (MIDL) is the set of knowledge, skills, and attitudes that enable citizens to interact critically and reflectively with media and information in the digital age. This article presents a scoping review analyzing 34 studies -published between 2019 and 2023- that used quantitative tools to assess MIDL in students and teachers in formal education. The results reveal that the most studied population is university students, with the predominance of Spanish and Mexican students. The main constructs were aligned to three frameworks: The Common Digital Competence Framework for Teachers, the ALFAMED questionnaire, and the IL-HUMASS questionnaire. These instruments demonstrated strong psychometric properties in terms of reliability and validity. Likert-type attitude scales were the most widely used in descriptive studies; these are valuable in identifying strengths and weaknesses but are not always sufficient to provide a complete diagnosis. For this reason, other tools that allow us to assess actual performance and link the results with concrete pedagogical implications are needed. Finally, the article recommends diagnosing these competencies in primary, secondary, and high school teachers since they are crucial to the academic and personal growth of students.

Keywords: Media Literacy; Information Literacy; Digital Literacy; Assessment Instruments

Introducción

En 2023 el uso de Internet alcanzó al 64.4% de la población mundial, lo cual refleja que las personas, en promedio, pasan seis horas diarias conectadas a la red. Esta expansión se ha manifestado con un incremento anual del 7.4% en la última década (Kemp, 2023). Sin embargo, esta hiperconectividad ha traído consigo desafíos significativos, como la proliferación de desinformación, la cual erosiona la confianza en las instituciones y fragmenta la cohesión social (Unesco, 2023). Las Tecnologías de la Información y las Comunicaciones (TIC) han facilitado el acceso a una gran cantidad de información, pero también han complejizado el proceso para recabar contenido relevante y fiable. Por esta razón, es necesario desarrollar habilidades para identificar y seleccionar fuentes de información adecuadas, para evaluar su fiabilidad y credibilidad y, también, para la organización eficaz de información.

La definición de los conceptos 'habilidad' y 'competencia', así como la exploración de su interrelación, son consideraciones de notable importancia. Por un lado, Rychen y Salganik (2003) definen 'competencia' como más que solo conocimiento o habilidades; esta implica la capacidad de satisfacer demandas complejas aprovechando y movilizando los recursos psicosociales (incluidas las habilidades y actitudes) en un contexto particular. Por otro lado, la conceptualización de 'alfabetización' ha evolucionado desde su significado tradicional, que es el de aprender a leer, escribir y calcular, y ha llegado a la idea del desarrollo de competencias que permiten a las personas comprender su entorno (Pérez, 2008). En este sentido, la Alfabetización Mediática, Informacional y Digital (en adelante, AMID) contiene tres conceptos interconectados que emergen como una extensión de la noción tradicional.

La alfabetización mediática es la capacidad para acceder, analizar, evaluar y crear mensajes en una variedad de contextos (Livingstone, 2003). La alfabetización informacional es el conjunto de habilidades que faculta a las personas para el reconocimiento de sus necesidades de información, para localizar información eficazmente, evaluarla críticamente y usarla efectivamente (ALA, 2000). La alfabetización digital es la habilidad para localizar, evaluar, usar y crear información a través de tecnologías, herramientas de comunicación y redes digitales (Unesco, 2018). La AMID se convierte así en un prisma a través del cual los ciudadanos pueden filtrar la información, distinguiendo lo veraz de lo falso y satisfacer la necesidad de una participación crítica en el espacio digital (Sánchez-Obando y Duque-Méndez, 2022). Esta necesidad es urgente, ya que la cantidad de información disponible en línea es cada vez mayor y más diversa, por lo que puede concluirse que la capacidad de distinción entre información veraz y falsa es esencial para tomar decisiones informadas.

El profesorado puede actuar como un agente de cambio crucial en este contexto, puesto que sus prácticas pedagógicas pueden impactar positivamente en la formación de ciudadanos capaces de navegar el ecosistema digital críticamente (Grizzle et al., 2021). Los docentes pueden enseñar al estudiantado a evaluar la credibilidad de las fuentes de información, a identificar sesgos y manipulaciones y a reflexionar críticamente sobre los mensajes que reciben. A pesar de su relevancia, hay una brecha significativa en la evaluación efectiva de la AMID en contextos educativos. Existen cuestionarios y otros instrumentos, pero muchos carecen de la capacidad para medir el desempeño real o para vincular los resultados con aplicaciones pedagógicas tangibles (Corral, 2010). Esta carencia subraya el menester de una investigación que examine críticamente la literatura existente y desarrolle herramientas de evaluación más efectivas y diagnósticas.

El propósito de este artículo es realizar una revisión de la literatura sobre los instrumentos cuantitativos utilizados para evaluar la Alfabetización Mediática, Informacional y Digital en la educación formal, con un enfoque en los tipos de estudios, poblaciones y constructos seleccionados. El presente análisis busca referir las fortalezas y debilidades de las herramientas actuales, así como sugerir direcciones para futuras investigaciones y prácticas educativas que fortalezcan la AMID. Los hallazgos de este estudio brindan una base importante para informar y mejorar la calidad de la evaluación de la AMID, contribuyendo así a la capacitación de docentes y estudiantes con el fin de construir una sociedad más informada y crítica.

Metodología

Este artículo se realizó a través de una Revisión Sistemática Exploratoria (RSE), también conocida como scoping review. El propósito de la RSE es determinar el alcance de la literatura relacionada con un tema específico, proporcionando una visión global de los estudios disponibles y sus respectivos enfoques (Munn et al., 2018). Para hacer esto, seguimos la metodología propuesta por Arksey y O'Malley (2005), la cual está estructurada en cinco fases (Figura 1):

Fuente: "Scoping Studies: Towards a Methodological Framework" (Arksey y O'Malley 2005: 22)

Figura 1 Fases de la revisión sistemática exploratoria 

En la primera fase, formulamos la pregunta de investigación siguiendo el formato CPC (Concepto, Población, Contexto). El enfoque fue guiado por la interrogante: ¿Cuál es el alcance de la literatura sobre los instrumentos para evaluar la Alfabetización Mediática, Informacional y Digital (AMID) en estudiantes y docentes en entornos educativos formales?

Después, en la segunda fase, fueron establecidos los criterios de inclusión y exclusión siguiendo la recomendación de Levac, Colquhoun y O'Brien (2010). Tales criterios abarcaron los siguientes aspectos:

a) Criterios de inclusión:

  1. Estudios cuantitativos publicados en español e inglés entre 2019 y 2023;

  2. Investigaciones que involucren a estudiantes y docentes en entornos educativos formales;

  3. Disponibilidad del instrumento de evaluación para su consulta.

b) Criterios de exclusión:

  1. Artículos que no presentan nuevos hallazgos o análisis originales, sino que se centran únicamente en resúmenes de investigaciones anteriores.

Para la búsqueda de información consultamos seis bases de datos: Dialnet, Redalyc, Scielo, ScienceDirect, Springer Link y ERIC. Se filtraron los trabajos de investigación que abordaban la conceptualización de AMID en concordancia con las tres perspectivas definidas por Sánchez-Obando y Duque-Méndez (2022):

  1. Alfabetización Mediática;

  2. Alfabetización Informacional;

  3. Alfabetización Digital.

El filtro fue aplicado en el título, resumen y palabras clave de los artículos. Ello permitió focalizar y optimizar la obtención de información relevante. Además, se implementaron cadenas de búsqueda específicas que incluían los términos "validez" y "validación". El objetivo era identificar y analizar instrumentos que midieran la alfabetización en los contextos mediáticos, informacionales y digitales que también hubieran sido sometidos a procesos sistemáticos de validación:

  1. "Media Literacy" OR "Alfabetización Mediática" AND ("Validity" OR "Validation" OR "Validez" OR "Validación");

  2. "Information Literacy" OR "Alfabetización Informacional" AND ("Validity" OR "Validation" OR "Validez" OR "Validación");

  3. "Digital Literacy" OR "Alfabetización Digital" AND ("Validity" OR "Validation" OR "Validez" OR "Validación").

En la tercera fase, se identificaron 221 estudios después de eliminar los duplicados. De estos fueron descartaron 183 que no cumplían con los criterios específicos. Tras un análisis minucioso, obtuvimos 38 estudios, de los cuales 4 fueron excluidos por no proporcionar información relevante. Por consiguiente, 34 estudios formaron parte del corpus final (Figura 2):

Fuente: elaboración propia

Figura 2. Esquema del proceso de búsqueda y selección de estudios 

En la cuarta fase, extrajimos los datos de los estudios seleccionados utilizando un formato adaptado para las RSE (Anexo 1), siguiendo las pautas de Peters et al. (2015). Este procedimiento facilitó la recopilación de información coherente y descriptiva de los datos. A continuación, en la quinta fase, los resultados fueron presentados mediante la interpretación de los datos a través de tablas y figuras que mostraban las frecuencias encontradas en la literatura. Posteriormente, se discutieron las implicaciones de estos descubrimientos en el campo respectivo y fue destacado su potencial aplicación en el mejoramiento del diagnóstico y su utilidad para fomentar la AMID entre los docentes y los estudiantes.

Análisis y resultados

A partir del análisis de las publicaciones seleccionadas, es evidente una proporción lingüística equitativa: 50% está en inglés y 50% en español. La distribución temporal de estos artículos puede observarse en la Figura 3. En términos de ubicación geográfica, España encabeza la lista con 39%, seguida de México con 11% en lo concerniente a menciones de países donde la AMID ha sido evaluada. Tal puede verse en el mapa de la Figura 4.

Fuente: elaboración propia

Figura 3. Distribución de publicaciones por año 

Fuente: elaboración propia

Figura 4. Mapa coroplético de países mencionados en las publicaciones 

En la AMID, se evaluaron 9 constructos clave. La distribución de estos es presentada en la Figura 5, donde resalta una mayor concentración en el rubro de la Competencia Digital, con 26%, seguida de la Competencia Informacional, con 20%, y la Competencia Mediática, con 15%.

Fuente: elaboración propia

Figura 5. Distribución porcentual de los constructos 

Las prioridades de los estudios se enfocaron en diversas poblaciones. La Figura 6 muestra que la población universitaria, la cual incluye a estudiantes y profesores, representa el 73%, mientras que los grupos de educación primaria y secundaria el 27%:

Fuente: elaboración propia

Figura 6 Distribución porcentual de la población 

En la Tabla 1 aparece una descripción completa de los atributos de los cuestionarios de evaluación aplicados en el ámbito de la AMID. A partir de estos datos, puede extraerse lo siguiente:

La AMID fue evaluada principalmente mediante escalas tipo Likert de 21 a 30 ítems en estudios predominantemente descriptivos. El coeficiente Alfa de Cronbach (α) se utilizó para determinar la confiabilidad de los instrumentos en el 82% de las publicaciones. La validación de contenido y constructo fue empleada en prácticamente la mitad de los cuestionarios. En una tercera parte de los casos las muestras evaluadas constaron de 101 a 500 participantes.

Tabla 1 Atributos de los cuestionarios 

Enfoque
Autopercepción (30) Autoevaluación y objetivas (3) No definidos (1)
Estudios
Descriptivo (11) Validación (9) Explicativo (4) Comparativo (3)
Cuasiexperimental (3) Preexperimental (1) Exploratorio (1) No definidos (2)
Respuesta
Likert tres puntos (1) Likert cuatro puntos (3) Likert cinco puntos (12) Likert seis puntos (2)
Likert siete puntos (2) Likert ocho puntos (1) Likert nueve puntos (3) Likert once puntos (1)
Autoevaluación (7) Variadas (1) No definidos (2)
Items
<20 (2) 21-30 17) 31-40 (6) 41-50 (3)
51-60 (2) 61-70 (2) >70 (2)
Confíabilidad
Alfa de Cronbach (27) Omega de McDonald (2) No definidos (5)
Validez
Juicio de Expertos (17) Delphi (2) Discriminante (1) Convergente (1)
AFE (14) AFC (8) No definidos (9)
Muestras
<50 (1) 51-100 (3) 101-500 (11) 500- 1000 (8)
> 1000 (10) No definidos (1)

Fuente: elaboración propia

Discusiones

El análisis de los 34 estudios reveló una notable prevalencia geográfica en la producción de investigaciones donde España destaca como líder en el campo de la educación universitaria y las competencias digitales. Esta tendencia no solo es coherente con los resultados de investigaciones anteriores, sino que también refuerza la creciente prominencia de España en este campo (Ferrando-Rodríguez, Gabarda y Marín-Suelves, 2022; Solano Hernández, Marín Juarros y Rocha Vásquez, 2022; Cisneros-Barahona et al., 2022).

El constructo 'competencias' fue el más identificado en las publicaciones, superando al de 'alfabetización'. Si bien estos términos a menudo son usados indistintamente en el marco europeo (Ferrari, 2013), no siempre tienen las mismas implicaciones, ni el mismo grado de generalidad dependiendo del contexto lingüístico y la perspectiva desde la que sean aplicados (Meyers, Erickson y Small, 2013). Los constructos predominantes derivaron de tres referentes clave; estos son presentados en el Anexo 2. Dichos referentes brindan un sólido marco teórico y una base confiable para la investigación, lo que los convierte en valiosas fuentes de información para el análisis de la AMID.

El primero es el Marco Común de Competencia Digital Docente, conforme a las directrices delineadas por el Instituto Nacional de Tecnologías Educativas y de Formación del Profesorado (INTEF, 2017; 2022). Este marco constituye una guía integral para el diagnóstico y el desarrollo de conocimientos, habilidades y actitudes esenciales en el usuario de la información, lo que lo establece como una base conceptual sólida. El segundo es el cuestionario ALFAMED (Ferrés y Piscitelli, 2012), que es utilizado ampliamente por la Red Interuniversitaria Euroamericana de Investigación sobre competencias mediáticas. Este cuestionario es una herramienta eficaz para analizar la percepción e interacción de los individuos con los mensajes, tanto en términos de análisis como de expresión. El tercero y último es el cuestionario IL-HUMASS (Pinto, 2010), el cual se basa en las normativas propuestas por la Association for College and Research Libraries. Este instrumento evalúa las competencias informacionales de los estudiantes de humanidades y sociologías en la educación superior, centrándose en el manejo y uso de la información.

La medición de la actitud, por otro lado, ha sido el principal punto de atención en los artículos revisados. Al respecto, García-Vandewalle et al. (2021) advierten que evaluar la subjetividad puede presentar limitaciones. La razón principal en torno a esto es que los encuestados tienden a sobreestimarse, especialmente en lo que respecta a las habilidades técnicas (Ala-Mutka, 2011).

Las escalas Likert de cinco puntos son sobradamente utilizadas en los cuestionarios; conforman el método de respuesta más frecuente. Matas (2018) defiende su uso argumentando que las opciones intermedias permiten a los encuestados evitar tomar una posición extrema a favor o en contra de un ítem. Sin embargo, esta perspectiva no es unánime; Kline (2005) sostiene que una escala de cinco puntos no provee más información útil que una escala de tres puntos. La discusión sobre el número óptimo de opciones en las escalas Likert es un elemento clave para el diseño y refinamiento efectivo de estos instrumentos de medición.

En paralelo, Moráles, Urosa y Blanco (2003) señalan una limitación significativa de estas escalas: la posibilidad de que diferentes sujetos alcancen la misma puntuación total mediante respuestas variadas. Esta problemática subraya la importancia de una cuidadosa construcción de la escala y de un análisis minucioso de los ítems para mitigar estas limitaciones. Este enfoque permite obtener resultados más precisos y confiables, asegurando que las escalas Likert proporcionen una medición efectiva de las variables de interés.

El intervalo de 21 a 30 ítems fue el más común en las encuestas. Kline (2005) sugiere que este rango es adecuado para evaluar un constructo, ya que requieren al menos 20 elementos. Nunnally (1978) coincide en que esta cantidad de ítems es adecuada para la creación de un cuestionario definitivo. Además, este último autor recomienda que haya un mínimo de cinco sujetos por ítem y no menos de 100 individuos por análisis.

Los coeficientes de confiabilidad de los instrumentos variaron considerablemente, desde 0.60 hasta 0.98. El Alfa de Cronbach es una medida frecuentemente socorrida en las ciencias sociales para evaluar la consistencia interna de un instrumento (Cortina, 1993). Un valor de 0.80 o superior indica una excelente consistencia interna, mientras que un valor de 0.70 o superior es considerado como aceptable (Nunnally y Bernstein, 1994).

En la investigación psicoeducativa, la evaluación de la calidad de un instrumento o medida es esencial para garantizar la confiabilidad de los resultados. Valdés et al. (2019) identifican tres tipos de validez particularmente importantes: la validez de contenido, la validez de constructo y la validez de criterio. Por un lado, la validez de contenido de esta investigación fue evaluada mediante el juicio de expertos, un método reconocido por garantizar un amplio consenso en torno a la relevancia y claridad de los ítems. Por otro lado, la validez de constructo se determinó a través del análisis factorial tanto exploratorio como confirmatorio.

Los valores del índice Kaiser-Meyer-Olkin (KMO) fueron satisfactorios, pues indicaron un rango promedio de 0.77 a 0.97. Kaiser (1974) calificó estos valores como 'medianos' a 'maravillosos'. Los índices de ajuste también cumplieron con los criterios establecidos en Hu y Bentler (1999). En particular, los valores absolutos (RMSEA ≤ 0.08 y SRMR ≤ 0.09) fueron apropiados y los valores comparativos (CFI y TLI ≥ 0.95) también lo fueron.

La revisión de la validez de contenido y de constructo en los instrumentos se realizó con gran detalle y precisión. En cambio, puede observarse una notable carencia en la evaluación de la validez de criterio, un elemento sustancial para asegurar la calidad de los resultados de cualquier estudio. Souza, Alexandre y Guirardello (2017) subrayan que la validez de criterio es fundamental para determinar si un instrumento mide efectivamente lo que propone medir. La ausencia de esta validez en los estudios revisados constituye una brecha importante en la evaluación integral de la calidad de los instrumentos utilizados.

Conclusiones

Al realizar este estudio sobre la evaluación de la Alfabetización Mediática, Informacional y Digital (AMID) en la educación formal, es importante reflexionar sobre las herramientas empleadas para medir su efectividad, así como en su impacto en el proceso de enseñanza-aprendizaje.

Las escalas de actitudes se han consolidado como elementos valiosos en la evaluación educativa, permitiendo capturar de manera satisfactoria las percepciones de los participantes acerca de su propio aprendizaje. Andrade (2019) señala que la autoevaluación, en particular, resulta ser un método excepcionalmente eficaz para medir las actitudes. No obstante, para obtener una perspectiva más completa y precisa del aprendizaje es necesario complementar las escalas de actitudes con otros métodos. Los cuestionarios, indicados por Sans Martín (2008) como valiosas herramientas para la recopilación sistemática de datos cuantitativos, son importantes en el seguimiento del proceso educativo. La combinación de autoevaluaciones y cuestionarios estructurados ofrece una visión más amplia y confiable sobre la efectividad de las estrategias implementadas.

En futuras investigaciones debe priorizarse el desarrollo de instrumentos específicos para la evaluación experimental de la AMID. Como señalan Aguaded, Marín-Gutiérrez y Caldeiro-Pedreira (2018), la incorporación de datos precisos es imprescindible para tomar decisiones informadas y diseñar intervenciones educativas efectivas. Además, es conveniente desarrollar instrumentos más inclusivos y adaptativos. Por ende, es recomendable centrarse en la creación de métodos de evaluación que consideren la diversidad cultural y los diversos niveles educativos, así como el análisis de la eficacia de estas herramientas en diversos entornos de aprendizaje.

En el marco de las prácticas educativas, se resalta que la comunidad estudiantil desarrolle la capacidad de análisis crítico de la información que recibe a través de los medios digitales de comunicación. Esto incluye la capacidad de comentar y valorar noticias, leer opiniones publicadas y de detectar comentarios de odio. De acuerdo con Zorrilla Luque, García Ruiz y Hernando Gómez (2021), el análisis crítico es una habilidad esencial para que los individuos puedan formar su criterio sobre los acontecimientos y fenómenos que ocurren en el mundo. También es importante para participar activamente en la sociedad como ciudadanos comprometidos con principios cívicos y éticos.

La investigación sobre AMID en el bachillerato presenta una brecha significativa. El Ministerio de Educación, Cultura y Deporte (2016) subraya la importancia de fomentar estas competencias tanto en la educación básica como en el bachillerato. Esto es decisivo para formar integralmente a los estudiantes y adaptarlos a un entorno digital en constante evolución. Koltay (2011) acentúa la relevancia de comprender las diferentes dimensiones de la alfabetización en el contexto digital. Este conocimiento proporciona una comprensión global de cómo funciona la información en línea y las habilidades requeridas para su interpretación efectiva. Por lo tanto, es primordial realizar una evaluación en el ámbito educativo que no solo mida las actitudes hacia el aprendizaje, sino que también examine las habilidades prácticas y críticas necesarias para el manejo eficiente de la información y las tecnologías digitales.

El análisis presentado ofrece un punto de partida para futuras investigaciones y prácticas educativas al tiempo que fomenta un entendimiento más profundo y aplicado de la Alfabetización Mediática, Informacional y Digital. Además, contribuye significativamente al desarrollo de ciudadanos informados, críticos y participativos, capaces de enfrentar los desafíos actuales del entorno tecnológico y colabora activamente en la construcción de una sociedad más informada, inclusiva y democrática.

Referencias

Aguaded, Ignacio, Isidro Marín-Gutiérrez y Mari-Carmen Caldeiro-Pedreira. 2018. "Desarrollo de la competencia mediática en el contexto ibero-americano". Revista Letral 20: 156-82. https://doi.org/10.30827/RL.v1i20.7814.

ALA (American Library Association). 2000. Information Literacy Competency Standards for Higher Education. Chicago: Association for College and Research Libraries. http://hdl.handle.net/10150/105645.

Ala-Mutka, Kirsti. 2011. Mapping Digital Competence: Towards a Conceptual Understanding. Luxembourg: Publications Office of the European Union. https://doi.org/10.13140/RG.2.2.18046.00322.

Andrade, Heidi. 2019. "A Critical Review of Research on Student Self-Assessment". Frontiers in Education 4: 1-13. https://doi.org/10.3389/feduc.2019.00087.

Arksey, Hilary, y Lisa O'Malley. 2005. "Scoping Studies: Towards a Methodological Framework". International Journal of Social Research Methodology 8(1): 19-32. https://doi.org/10.1080/1364557032000119616.

Cisneros-Barahona, Andrés, Luis Marqués, Nicolay Samaniego, María Uvidia, Wilson Castro-Ortiz y Pablo Rosas-Chávez. 2022. "Competencia digital del profesorado universitario: Una panorámica del estado de la cuestión". Revista Internacional de Humanidades 11: 1-25. https://doi.org/10.37467/revhuman.v11.4355.

Corral, Yadira. 2010. "Diseño de cuestionario para la recolección de datos". Revista Ciencias de la Educación 20(36): 152-68.

Cortina, Jose. 1993. "What Is Coefficient Alpha? An Examination of Theory and Applications". Journal of Applied Psychology 78(1): 98-104. https://doi.org/10.1037/0021-9010.78.1.98.

Ferrando-Rodríguez, María, Vicente Gabarda y Diana Marín-Suelves. 2022. "La competencia digital del profesorado universitario en Iberoamérica: revisión de la literatura". ReiDoCrea: Revista Electrónica de Investigación Docencia Creativa 11(16): 177-88. https://doi.org/10.30827/Digibug.73540.

Ferrari, Anusca. 2013. DIGCOMP: A Framework for Developing and Understanding Digital Competence in Europe. Luxembourg: Publications Office of the European Union . https://shre.ink/UvWm.

Ferrés, Joan, y Alejandro Piscitelli. 2012. "Media Competence. Articulated Proposal of Dimensions and Indicators". Comunicar: Revista Científica de Comunicación y Educación 19(38): 75-82. https://doi.org/10.3916/C38-2012-02-08.

García-Vandewalle, José, Marina García-Carmona, Juan Trujillo y Pablo Moya. 2021. "Analysis of Digital Competence of Educators (DigCompEdu) in Teacher Trainees: The Context of Melilla, Spain". Technology, Knowledge and Learning 28(2): 585-612. https://doi.org/10.1007/s10758-021-09546-x.

Grizzle, Alton, Carolyn Wilson, Ramon Tuazon, Chi-Kim Cheung, Jesus Lau, Rachel Fischer, Dorothy Gordon et al. 2021. Think Critically, Click Wisely! Paris: United Nations Educational, Scientific and Cultural Organization. https://unesdoc.unesco.org/ark:/48223/pf0000377068.

Hu, Litze, y Peter Bentler. 1999. "Cutoff Criteria for Fit Indexes in Covariance Structure Analysis: Conventional Criteria versus New Alternatives". Structural Equation Modeling: A Multidisciplinary Journal 6(1): 1-55. https://doi.org/10.1080/10705519909540118.

INTEF (Instituto Nacional de Tecnologías Educativas y Formación del Profesorado). 2017. Common Digital Competences Framework for Teachers. October 2017. Spain: Ministry of Education, Culture and Sport. https://shre.ink/l3Bs.

INTEF (Instituto Nacional de Tecnologías Educativas y Formación del Profesorado). 2022. Marco de referencia de la competencia digital docente. Enero 2022. España: Ministerio de Educación, Cultura y Deporte. https://bit.ly/3lqb1y4.

Kaiser, Henry. 1974. "An Index of Factorial Simplicity". Psychometrika 39(1): 31-36. https://doi.org/10.1007/BF02291575.

Kemp, Simon. 2023. "Digital 2023: Global Overview Report". DataReportal - Global Digital Insights. 26 de enero. https://datareportal.com/reports/digital-2023-global-overview-report.

Kline, Theresa. 2005. Psychological Testing: A Practical Approach to Design and Evaluation. California: Sage Publications.

Koltay, Tibor. 2011. "The Media and the Literacies: Media Literacy, Information Literacy, Digital Literacy". Media, Culture & Society 33(2): 211-21. https://doi.org/10.1177/0163443710393382.

Levac, Danielle, Heather Colquhoun y Kelly K. O'Brien. 2010. "Scoping Studies: Advancing the Methodology". Implementation Science 5(1): 1-9. https://doi.org/10.1186/1748-5908-5-69.

Livingstone, Sonia. 2003. "The Changing Nature and Uses of Media Literacy". MEDIA@LSE Electronic Working Papers (4): 1-31. https://shre.ink/r7SX.

Matas, Antonio. 2018. "Diseño del formato de escalas tipo Likert: un estado de la cuestión". Revista Electrónica de Investigación Educativa 20(1): 38-47. https://doi.org/10.24320/redie.2018.20.1.1347.

Meyers, Eric, Ingrid Erickson y Ruth Small. 2013. "Digital Literacy and Informal Learning Environments: An Introduction". Learning, Media and Technology 38(4): 355-67. https://doi.org/10.1080/17439884.2013.783597.

Ministerio de Educación, Cultura y Deporte de España. 2016. Integración de las competencias ALFIN/AMI en el sistema educativo: referencias, contexto y propuestas. Madrid: Secretaría General Técnica, Subdirección General de Documentación y Publicaciones. https://shre.ink/UGXE.

Moráles, Pedro, Belén Urosa y Angeles Blanco. 2003. Construcción de escala de actitudes tipo Likert. Madrid: Editorial La Muralla.

Munn, Zachary, Micah Peters, Cindy Stern, Catalin Tufanaru, Alexa McArthur y Edoardo Aromataris. 2018. "Systematic Review or Scoping Review? Guidance for Authors When Choosing between a Systematic or Scoping Review Approach". BMC Medical Research Methodology 18(1): 1-7. https://doi.org/10.1186/s12874-018-0611-x.

Nunnally, Jum. 1978. Psychometric Theory. Nueva York: McGraw-Hill.

Nunnally, Jum, e Ira Bernstein. 1994. Psychometric Theory. Nueva York: McGraw-Hill .

Pérez, José. 2008. Teacher Training Curricula for Media and Information Literacy. Paris: United Nations Educational, Scientific and Cultural Organization . https://shre.ink/UdvX.

Peters, Micah, Christina Godfrey, Hanan Khalil, Patricia Mcinerney, Deborah Parker y Cassia Baldini Soares. 2015. "Guidance for Conducting Systematic Scoping Reviews". International Journal of Evidence-Based Healthcare 13(3): 141-46. https://doi.org/10.1097/XEB.0000000000000050.

Pinto, Maria. 2010. "Design of the IL-HUMASS Survey on Information Literacy in Higher Education: A Self-Assessment Approach". Journal of Information Science 36(1): 86-103. https://doi.org/10.1177/0165551509351198.

Rychen, Dominique, y Laura Salganik, eds. 2003. Key Competencies for a Successful Life and a Well-Functioning Society. Cambridge: Hogrefe & Huber Publishers.

Sánchez-Obando, John Wilder, y Néstor Duque-Méndez. 2022. "Alfabetización Mediática Informacional y Digital: evolución del concepto y perspectivas encontradas". Revista Colombiana de Educación (86): 211-32. https://doi.org/10.17227/rce.num86-12524.

Sans Martín, Antoni. 2008. La evaluación de los aprendizajes: construcción de instrumentos. Barcelona: Instituto de Ciencias de la Educación, Universidad de Barcelona ; Ediciones Octaedro.

Solano Hernández, Ernesto, Victoria Marín Juarros y Alba Rocha Vásquez. 2022. "Competencia digital docente de profesores universitarios en el contexto iberoamericano. Una revisión". Tesis Psicológica 17(1): 206-26. https://doi.org/10.37511/tesis.v17n1a11.

Souza, Ana Cláudia de, Neusa Maria Costa Alexandre y Edinêis de Brito Guirardello. 2017. "Psychometric Properties in Instruments Evaluation of Reliability and Validity". Epidemiologia e Serviços de Saúde 26(3): 649-59. https://doi.org/10.5123/S1679-49742017000300022.

Unesco (United Nations Educational, Scientific and Cultural Organization). 2018. UNESCO ICT Competency Framework for Teachers. Paris: United Nations Educational, Scientific and Cultural Organization . https://unesdoc.unesco.org/ark:/48223/pf0000265721.

Unesco (United Nations Educational, Scientific and Cultural Organization). 2023. Seoul Declaration on Media and Information Literacy for Everyone and by Everyone: A Defence against Disinfodemics. Seoul: United Nations Educational, Scientific and Cultural Organization. https://en.unesco.org/sites/default/files/seoul_declaration_mil_disinfodemic_en.pdf.

Valdés Cuervo, Angel Alberto, Fernanda Inéz García Vázquez, Gisela Margarita Torres Acuña, Maricela Urías Murrieta y Christian Samhir Grijalva Quiñonez. 2019. Medición en Investigación Educativa con Apoyo del SPSS y el AMOS. Ciudad de México: AM Editores.

Zorrilla Luque, José Luis, Carmen Rosa García Ruiz y Angel Hernando Gómez. 2021. "Discurso de odio en la prensa digital: alfabetización mediática en alumnado de secundaria". Didácticas Específicas (25): 128-49. https://doi.org/10.15366/didacticas2021.25.007.

Para citar este texto: Hernández-Marín, José-Luis, Martha-Delia Castro-Montoya y Sebastián Figueroa-Rodríguez. 2024. "Alfabetización mediática, informacional y digital: análisis de instrumentos de evaluación". Investigación Bibliotecológica: archivonomía, bibliotecología e información 38 (99): 55-73. http://dx.doi.org/10.22201/iibi.24488321xe.2024.99.58865.

ANEXOS

Anexo 1

Nro. de
caso
Población Enfoque Área
1 Docentes de universidad Validación instrumento CD
2 Docentes de universidad Validación instrumento CD
3 Docentes de universidad Validación instrumento CD
4 Estudiantes de universidad Validación instrumento CD
5 Estudiantes y docentes de universidad Exploratorio CD
6 Docentes de primaria Descriptivo CD
7 Docentes de universidad Descriptivo CD
8 Docentes de universidad Descriptivo CD
9 Estudiantes de universidad Explicativo CD
10 Estudiantes de universidad Explicativo CI
11 Estudiantes de universidad y docentes de secundaria Explicativo CI
12 Estudiantes de universidad Descriptivo CI
13 Estudiantes de universidad Descriptivo CI
14 Estudiantes y docentes de primaria Preexperimental CI
15 Estudiantes de universidad Cuasiexperimental CI
16 Estudiantes de universidad Cuasiexperimental CI
17 Estudiantes de secundaria Descriptivo CM
18 Estudiantes de universidad Descriptivo CM
19 Estudiantes de universidad Descriptivo CM
20 Estudiantes de universidad Comparativo CM
21 Estudiantes de universidad Validación instrumento CM
22 Estudiantes de universidad Validación instrumento AI
23 Estudiantes de universidad Validación instrumento AI
24 Estudiantes de universidad Descriptivo AI
25 Estudiantes de universidad Comparativo AI
26 Estudiantes de secundaria Cuasiexperimental AMI
27 Estudiantes de secundaria Descriptivo AMI
28 Estudiantes de universidad Nodefinido AMI
29 Estudiantes de secundaria Validación instrumento AM
30 Estudiantes de primaria Comparativo AM
31 Estudiantes de universidad Validación instrumento AD
32 Estudiantes de universidad Descriptivo AD
33 Estudiantes de primaria Explicativo ADI
34 Estudiantes de universidad No definido AMIT

CD: Competencia Digital; CI: Competencia Informacional; CM: Competencia Mediática; AM: Alfabetización Mediática; AI: Alfabetización Informacional; AMI: Alfabetización Mediática e Informacional; AD: Alfabetización Digital; ADI: Alfabetización Digital e Informacional; AMIT: Alfabetización Mediática, Informacional y Tecnológica.

Para consultar los datos bibliográficos completos visite: https://shre.ink/rLsY

Anexo 2

Marco Común de Competencia Digital Docente Marco de Referencia de la Competencia Digital Docente
Áreas Áreas
2017 2022
1. Información y alfabetización informacional 1. Compromiso profesional
2. Comunicación y colaboración 2. Contenidos digitales
3. Creación de contenidos digitales 3. Enseñanza y aprendizaje
4. Seguridad 4. Evaluación y retroalimentación
5. Resolución de problemas 5. Empoderamiento del alumnado
6. Desarrollo de la competencia digital del alumnado
ALFAMED
Indicadores
1. Lenguaje
2. Tecnología
3. Interacción
4. Producción y difusión
5. Ideología
6. Estética
IL-HUMASS (Information Literacy Humanities Social Sciences Survey)
Dimensiones
1. Búsqueda
2. Evaluación
3. Tratamiento
4. Comunicación y difusión

Recibido: 10 de Noviembre de 2023; Aprobado: 12 de Febrero de 2024