Introducción
En 2023 el uso de Internet alcanzó al 64.4% de la población mundial, lo cual refleja que las personas, en promedio, pasan seis horas diarias conectadas a la red. Esta expansión se ha manifestado con un incremento anual del 7.4% en la última década (Kemp, 2023). Sin embargo, esta hiperconectividad ha traído consigo desafíos significativos, como la proliferación de desinformación, la cual erosiona la confianza en las instituciones y fragmenta la cohesión social (Unesco, 2023). Las Tecnologías de la Información y las Comunicaciones (TIC) han facilitado el acceso a una gran cantidad de información, pero también han complejizado el proceso para recabar contenido relevante y fiable. Por esta razón, es necesario desarrollar habilidades para identificar y seleccionar fuentes de información adecuadas, para evaluar su fiabilidad y credibilidad y, también, para la organización eficaz de información.
La definición de los conceptos 'habilidad' y 'competencia', así como la exploración de su interrelación, son consideraciones de notable importancia. Por un lado, Rychen y Salganik (2003) definen 'competencia' como más que solo conocimiento o habilidades; esta implica la capacidad de satisfacer demandas complejas aprovechando y movilizando los recursos psicosociales (incluidas las habilidades y actitudes) en un contexto particular. Por otro lado, la conceptualización de 'alfabetización' ha evolucionado desde su significado tradicional, que es el de aprender a leer, escribir y calcular, y ha llegado a la idea del desarrollo de competencias que permiten a las personas comprender su entorno (Pérez, 2008). En este sentido, la Alfabetización Mediática, Informacional y Digital (en adelante, AMID) contiene tres conceptos interconectados que emergen como una extensión de la noción tradicional.
La alfabetización mediática es la capacidad para acceder, analizar, evaluar y crear mensajes en una variedad de contextos (Livingstone, 2003). La alfabetización informacional es el conjunto de habilidades que faculta a las personas para el reconocimiento de sus necesidades de información, para localizar información eficazmente, evaluarla críticamente y usarla efectivamente (ALA, 2000). La alfabetización digital es la habilidad para localizar, evaluar, usar y crear información a través de tecnologías, herramientas de comunicación y redes digitales (Unesco, 2018). La AMID se convierte así en un prisma a través del cual los ciudadanos pueden filtrar la información, distinguiendo lo veraz de lo falso y satisfacer la necesidad de una participación crítica en el espacio digital (Sánchez-Obando y Duque-Méndez, 2022). Esta necesidad es urgente, ya que la cantidad de información disponible en línea es cada vez mayor y más diversa, por lo que puede concluirse que la capacidad de distinción entre información veraz y falsa es esencial para tomar decisiones informadas.
El profesorado puede actuar como un agente de cambio crucial en este contexto, puesto que sus prácticas pedagógicas pueden impactar positivamente en la formación de ciudadanos capaces de navegar el ecosistema digital críticamente (Grizzle et al., 2021). Los docentes pueden enseñar al estudiantado a evaluar la credibilidad de las fuentes de información, a identificar sesgos y manipulaciones y a reflexionar críticamente sobre los mensajes que reciben. A pesar de su relevancia, hay una brecha significativa en la evaluación efectiva de la AMID en contextos educativos. Existen cuestionarios y otros instrumentos, pero muchos carecen de la capacidad para medir el desempeño real o para vincular los resultados con aplicaciones pedagógicas tangibles (Corral, 2010). Esta carencia subraya el menester de una investigación que examine críticamente la literatura existente y desarrolle herramientas de evaluación más efectivas y diagnósticas.
El propósito de este artículo es realizar una revisión de la literatura sobre los instrumentos cuantitativos utilizados para evaluar la Alfabetización Mediática, Informacional y Digital en la educación formal, con un enfoque en los tipos de estudios, poblaciones y constructos seleccionados. El presente análisis busca referir las fortalezas y debilidades de las herramientas actuales, así como sugerir direcciones para futuras investigaciones y prácticas educativas que fortalezcan la AMID. Los hallazgos de este estudio brindan una base importante para informar y mejorar la calidad de la evaluación de la AMID, contribuyendo así a la capacitación de docentes y estudiantes con el fin de construir una sociedad más informada y crítica.
Metodología
Este artículo se realizó a través de una Revisión Sistemática Exploratoria (RSE), también conocida como scoping review. El propósito de la RSE es determinar el alcance de la literatura relacionada con un tema específico, proporcionando una visión global de los estudios disponibles y sus respectivos enfoques (Munn et al., 2018). Para hacer esto, seguimos la metodología propuesta por Arksey y O'Malley (2005), la cual está estructurada en cinco fases (Figura 1):

Fuente: "Scoping Studies: Towards a Methodological Framework" (Arksey y O'Malley 2005: 22)
Figura 1 Fases de la revisión sistemática exploratoria
En la primera fase, formulamos la pregunta de investigación siguiendo el formato CPC (Concepto, Población, Contexto). El enfoque fue guiado por la interrogante: ¿Cuál es el alcance de la literatura sobre los instrumentos para evaluar la Alfabetización Mediática, Informacional y Digital (AMID) en estudiantes y docentes en entornos educativos formales?
Después, en la segunda fase, fueron establecidos los criterios de inclusión y exclusión siguiendo la recomendación de Levac, Colquhoun y O'Brien (2010). Tales criterios abarcaron los siguientes aspectos:
a) Criterios de inclusión:
Estudios cuantitativos publicados en español e inglés entre 2019 y 2023;
Investigaciones que involucren a estudiantes y docentes en entornos educativos formales;
Disponibilidad del instrumento de evaluación para su consulta.
b) Criterios de exclusión:
Artículos que no presentan nuevos hallazgos o análisis originales, sino que se centran únicamente en resúmenes de investigaciones anteriores.
Para la búsqueda de información consultamos seis bases de datos: Dialnet, Redalyc, Scielo, ScienceDirect, Springer Link y ERIC. Se filtraron los trabajos de investigación que abordaban la conceptualización de AMID en concordancia con las tres perspectivas definidas por Sánchez-Obando y Duque-Méndez (2022):
El filtro fue aplicado en el título, resumen y palabras clave de los artículos. Ello permitió focalizar y optimizar la obtención de información relevante. Además, se implementaron cadenas de búsqueda específicas que incluían los términos "validez" y "validación". El objetivo era identificar y analizar instrumentos que midieran la alfabetización en los contextos mediáticos, informacionales y digitales que también hubieran sido sometidos a procesos sistemáticos de validación:
"Media Literacy" OR "Alfabetización Mediática" AND ("Validity" OR "Validation" OR "Validez" OR "Validación");
"Information Literacy" OR "Alfabetización Informacional" AND ("Validity" OR "Validation" OR "Validez" OR "Validación");
"Digital Literacy" OR "Alfabetización Digital" AND ("Validity" OR "Validation" OR "Validez" OR "Validación").
En la tercera fase, se identificaron 221 estudios después de eliminar los duplicados. De estos fueron descartaron 183 que no cumplían con los criterios específicos. Tras un análisis minucioso, obtuvimos 38 estudios, de los cuales 4 fueron excluidos por no proporcionar información relevante. Por consiguiente, 34 estudios formaron parte del corpus final (Figura 2):
En la cuarta fase, extrajimos los datos de los estudios seleccionados utilizando un formato adaptado para las RSE (Anexo 1), siguiendo las pautas de Peters et al. (2015). Este procedimiento facilitó la recopilación de información coherente y descriptiva de los datos. A continuación, en la quinta fase, los resultados fueron presentados mediante la interpretación de los datos a través de tablas y figuras que mostraban las frecuencias encontradas en la literatura. Posteriormente, se discutieron las implicaciones de estos descubrimientos en el campo respectivo y fue destacado su potencial aplicación en el mejoramiento del diagnóstico y su utilidad para fomentar la AMID entre los docentes y los estudiantes.
Análisis y resultados
A partir del análisis de las publicaciones seleccionadas, es evidente una proporción lingüística equitativa: 50% está en inglés y 50% en español. La distribución temporal de estos artículos puede observarse en la Figura 3. En términos de ubicación geográfica, España encabeza la lista con 39%, seguida de México con 11% en lo concerniente a menciones de países donde la AMID ha sido evaluada. Tal puede verse en el mapa de la Figura 4.
En la AMID, se evaluaron 9 constructos clave. La distribución de estos es presentada en la Figura 5, donde resalta una mayor concentración en el rubro de la Competencia Digital, con 26%, seguida de la Competencia Informacional, con 20%, y la Competencia Mediática, con 15%.
Las prioridades de los estudios se enfocaron en diversas poblaciones. La Figura 6 muestra que la población universitaria, la cual incluye a estudiantes y profesores, representa el 73%, mientras que los grupos de educación primaria y secundaria el 27%:
En la Tabla 1 aparece una descripción completa de los atributos de los cuestionarios de evaluación aplicados en el ámbito de la AMID. A partir de estos datos, puede extraerse lo siguiente:
La AMID fue evaluada principalmente mediante escalas tipo Likert de 21 a 30 ítems en estudios predominantemente descriptivos. El coeficiente Alfa de Cronbach (α) se utilizó para determinar la confiabilidad de los instrumentos en el 82% de las publicaciones. La validación de contenido y constructo fue empleada en prácticamente la mitad de los cuestionarios. En una tercera parte de los casos las muestras evaluadas constaron de 101 a 500 participantes.
Tabla 1 Atributos de los cuestionarios
| Enfoque | |||||||
| Autopercepción | (30) | Autoevaluación y objetivas | (3) | No definidos | (1) | ||
| Estudios | |||||||
| Descriptivo | (11) | Validación | (9) | Explicativo | (4) | Comparativo | (3) |
| Cuasiexperimental | (3) | Preexperimental | (1) | Exploratorio | (1) | No definidos | (2) |
| Respuesta | |||||||
| Likert tres puntos | (1) | Likert cuatro puntos | (3) | Likert cinco puntos | (12) | Likert seis puntos | (2) |
| Likert siete puntos | (2) | Likert ocho puntos | (1) | Likert nueve puntos | (3) | Likert once puntos | (1) |
| Autoevaluación | (7) | Variadas | (1) | No definidos | (2) | ||
| Items | |||||||
| <20 | (2) | 21-30 | 17) | 31-40 | (6) | 41-50 | (3) |
| 51-60 | (2) | 61-70 | (2) | >70 | (2) | ||
| Confíabilidad | |||||||
| Alfa de Cronbach | (27) | Omega de McDonald | (2) | No definidos | (5) | ||
| Validez | |||||||
| Juicio de Expertos | (17) | Delphi | (2) | Discriminante | (1) | Convergente | (1) |
| AFE | (14) | AFC | (8) | No definidos | (9) | ||
| Muestras | |||||||
| <50 | (1) | 51-100 | (3) | 101-500 | (11) | 500- 1000 | (8) |
| > 1000 | (10) | No definidos | (1) | ||||
Fuente: elaboración propia
Discusiones
El análisis de los 34 estudios reveló una notable prevalencia geográfica en la producción de investigaciones donde España destaca como líder en el campo de la educación universitaria y las competencias digitales. Esta tendencia no solo es coherente con los resultados de investigaciones anteriores, sino que también refuerza la creciente prominencia de España en este campo (Ferrando-Rodríguez, Gabarda y Marín-Suelves, 2022; Solano Hernández, Marín Juarros y Rocha Vásquez, 2022; Cisneros-Barahona et al., 2022).
El constructo 'competencias' fue el más identificado en las publicaciones, superando al de 'alfabetización'. Si bien estos términos a menudo son usados indistintamente en el marco europeo (Ferrari, 2013), no siempre tienen las mismas implicaciones, ni el mismo grado de generalidad dependiendo del contexto lingüístico y la perspectiva desde la que sean aplicados (Meyers, Erickson y Small, 2013). Los constructos predominantes derivaron de tres referentes clave; estos son presentados en el Anexo 2. Dichos referentes brindan un sólido marco teórico y una base confiable para la investigación, lo que los convierte en valiosas fuentes de información para el análisis de la AMID.
El primero es el Marco Común de Competencia Digital Docente, conforme a las directrices delineadas por el Instituto Nacional de Tecnologías Educativas y de Formación del Profesorado (INTEF, 2017; 2022). Este marco constituye una guía integral para el diagnóstico y el desarrollo de conocimientos, habilidades y actitudes esenciales en el usuario de la información, lo que lo establece como una base conceptual sólida. El segundo es el cuestionario ALFAMED (Ferrés y Piscitelli, 2012), que es utilizado ampliamente por la Red Interuniversitaria Euroamericana de Investigación sobre competencias mediáticas. Este cuestionario es una herramienta eficaz para analizar la percepción e interacción de los individuos con los mensajes, tanto en términos de análisis como de expresión. El tercero y último es el cuestionario IL-HUMASS (Pinto, 2010), el cual se basa en las normativas propuestas por la Association for College and Research Libraries. Este instrumento evalúa las competencias informacionales de los estudiantes de humanidades y sociologías en la educación superior, centrándose en el manejo y uso de la información.
La medición de la actitud, por otro lado, ha sido el principal punto de atención en los artículos revisados. Al respecto, García-Vandewalle et al. (2021) advierten que evaluar la subjetividad puede presentar limitaciones. La razón principal en torno a esto es que los encuestados tienden a sobreestimarse, especialmente en lo que respecta a las habilidades técnicas (Ala-Mutka, 2011).
Las escalas Likert de cinco puntos son sobradamente utilizadas en los cuestionarios; conforman el método de respuesta más frecuente. Matas (2018) defiende su uso argumentando que las opciones intermedias permiten a los encuestados evitar tomar una posición extrema a favor o en contra de un ítem. Sin embargo, esta perspectiva no es unánime; Kline (2005) sostiene que una escala de cinco puntos no provee más información útil que una escala de tres puntos. La discusión sobre el número óptimo de opciones en las escalas Likert es un elemento clave para el diseño y refinamiento efectivo de estos instrumentos de medición.
En paralelo, Moráles, Urosa y Blanco (2003) señalan una limitación significativa de estas escalas: la posibilidad de que diferentes sujetos alcancen la misma puntuación total mediante respuestas variadas. Esta problemática subraya la importancia de una cuidadosa construcción de la escala y de un análisis minucioso de los ítems para mitigar estas limitaciones. Este enfoque permite obtener resultados más precisos y confiables, asegurando que las escalas Likert proporcionen una medición efectiva de las variables de interés.
El intervalo de 21 a 30 ítems fue el más común en las encuestas. Kline (2005) sugiere que este rango es adecuado para evaluar un constructo, ya que requieren al menos 20 elementos. Nunnally (1978) coincide en que esta cantidad de ítems es adecuada para la creación de un cuestionario definitivo. Además, este último autor recomienda que haya un mínimo de cinco sujetos por ítem y no menos de 100 individuos por análisis.
Los coeficientes de confiabilidad de los instrumentos variaron considerablemente, desde 0.60 hasta 0.98. El Alfa de Cronbach es una medida frecuentemente socorrida en las ciencias sociales para evaluar la consistencia interna de un instrumento (Cortina, 1993). Un valor de 0.80 o superior indica una excelente consistencia interna, mientras que un valor de 0.70 o superior es considerado como aceptable (Nunnally y Bernstein, 1994).
En la investigación psicoeducativa, la evaluación de la calidad de un instrumento o medida es esencial para garantizar la confiabilidad de los resultados. Valdés et al. (2019) identifican tres tipos de validez particularmente importantes: la validez de contenido, la validez de constructo y la validez de criterio. Por un lado, la validez de contenido de esta investigación fue evaluada mediante el juicio de expertos, un método reconocido por garantizar un amplio consenso en torno a la relevancia y claridad de los ítems. Por otro lado, la validez de constructo se determinó a través del análisis factorial tanto exploratorio como confirmatorio.
Los valores del índice Kaiser-Meyer-Olkin (KMO) fueron satisfactorios, pues indicaron un rango promedio de 0.77 a 0.97. Kaiser (1974) calificó estos valores como 'medianos' a 'maravillosos'. Los índices de ajuste también cumplieron con los criterios establecidos en Hu y Bentler (1999). En particular, los valores absolutos (RMSEA ≤ 0.08 y SRMR ≤ 0.09) fueron apropiados y los valores comparativos (CFI y TLI ≥ 0.95) también lo fueron.
La revisión de la validez de contenido y de constructo en los instrumentos se realizó con gran detalle y precisión. En cambio, puede observarse una notable carencia en la evaluación de la validez de criterio, un elemento sustancial para asegurar la calidad de los resultados de cualquier estudio. Souza, Alexandre y Guirardello (2017) subrayan que la validez de criterio es fundamental para determinar si un instrumento mide efectivamente lo que propone medir. La ausencia de esta validez en los estudios revisados constituye una brecha importante en la evaluación integral de la calidad de los instrumentos utilizados.
Conclusiones
Al realizar este estudio sobre la evaluación de la Alfabetización Mediática, Informacional y Digital (AMID) en la educación formal, es importante reflexionar sobre las herramientas empleadas para medir su efectividad, así como en su impacto en el proceso de enseñanza-aprendizaje.
Las escalas de actitudes se han consolidado como elementos valiosos en la evaluación educativa, permitiendo capturar de manera satisfactoria las percepciones de los participantes acerca de su propio aprendizaje. Andrade (2019) señala que la autoevaluación, en particular, resulta ser un método excepcionalmente eficaz para medir las actitudes. No obstante, para obtener una perspectiva más completa y precisa del aprendizaje es necesario complementar las escalas de actitudes con otros métodos. Los cuestionarios, indicados por Sans Martín (2008) como valiosas herramientas para la recopilación sistemática de datos cuantitativos, son importantes en el seguimiento del proceso educativo. La combinación de autoevaluaciones y cuestionarios estructurados ofrece una visión más amplia y confiable sobre la efectividad de las estrategias implementadas.
En futuras investigaciones debe priorizarse el desarrollo de instrumentos específicos para la evaluación experimental de la AMID. Como señalan Aguaded, Marín-Gutiérrez y Caldeiro-Pedreira (2018), la incorporación de datos precisos es imprescindible para tomar decisiones informadas y diseñar intervenciones educativas efectivas. Además, es conveniente desarrollar instrumentos más inclusivos y adaptativos. Por ende, es recomendable centrarse en la creación de métodos de evaluación que consideren la diversidad cultural y los diversos niveles educativos, así como el análisis de la eficacia de estas herramientas en diversos entornos de aprendizaje.
En el marco de las prácticas educativas, se resalta que la comunidad estudiantil desarrolle la capacidad de análisis crítico de la información que recibe a través de los medios digitales de comunicación. Esto incluye la capacidad de comentar y valorar noticias, leer opiniones publicadas y de detectar comentarios de odio. De acuerdo con Zorrilla Luque, García Ruiz y Hernando Gómez (2021), el análisis crítico es una habilidad esencial para que los individuos puedan formar su criterio sobre los acontecimientos y fenómenos que ocurren en el mundo. También es importante para participar activamente en la sociedad como ciudadanos comprometidos con principios cívicos y éticos.
La investigación sobre AMID en el bachillerato presenta una brecha significativa. El Ministerio de Educación, Cultura y Deporte (2016) subraya la importancia de fomentar estas competencias tanto en la educación básica como en el bachillerato. Esto es decisivo para formar integralmente a los estudiantes y adaptarlos a un entorno digital en constante evolución. Koltay (2011) acentúa la relevancia de comprender las diferentes dimensiones de la alfabetización en el contexto digital. Este conocimiento proporciona una comprensión global de cómo funciona la información en línea y las habilidades requeridas para su interpretación efectiva. Por lo tanto, es primordial realizar una evaluación en el ámbito educativo que no solo mida las actitudes hacia el aprendizaje, sino que también examine las habilidades prácticas y críticas necesarias para el manejo eficiente de la información y las tecnologías digitales.
El análisis presentado ofrece un punto de partida para futuras investigaciones y prácticas educativas al tiempo que fomenta un entendimiento más profundo y aplicado de la Alfabetización Mediática, Informacional y Digital. Además, contribuye significativamente al desarrollo de ciudadanos informados, críticos y participativos, capaces de enfrentar los desafíos actuales del entorno tecnológico y colabora activamente en la construcción de una sociedad más informada, inclusiva y democrática.




