Logotipo del repositorio
  • English
  • Español
  • Français
  • Iniciar sesión
    Identificación habilitada exclusivamente para personal de Biblioteca.
    ¿Has olvidado tu contraseña?
Logotipo del repositorio
  • Comunidades
  • Filtrar búsqueda
  • Depositar
  • English
  • Español
  • Français
  • Iniciar sesión
    Identificación habilitada exclusivamente para personal de Biblioteca.
    ¿Has olvidado tu contraseña?
  1. Inicio
  2. Buscar por autor

Examinando por Autor "Sanz, Susana"

Mostrando 1 - 2 de 2
Resultados por página
Opciones de ordenación
  • Cargando...
    Miniatura
    Publicación
    Enhancing Content Validity Assessment With Item Response Theory Modeling
    (Colegio Oficial de Psicólogos del Principado de Asturias, 2024) Nájera, Pablo; Sanz, Susana; Sorrel, M. A.; Schames Kreitchmann, Rodrigo
    Antecedentes: Garantizar la validez de evaluaciones requiere un examen exhaustivo del contenido de una prueba. Es común emplear expertos en la materia (EM) para evaluar la relevancia, representatividad y adecuación de los ítems. Este artículo propone integrar la teoría de respuesta al ítem (TRI) en las evaluaciones hechas por EM. La TRI ofrece parámetros de discriminación y umbral de los EM, evidenciando su desempeño al diferenciar ítems relevantes/ irrelevantes, detectando desempeños subóptimos, mejorando también la estimación de la relevancia de los ítems. Método: Se comparó el uso de la TRI frente a índices tradicionales (índice de validez de contenido y V de Aiken) en ítems de responsabilidad. Se evaluó la precisión de los EM al discriminar si los ítems medían responsabilidad o no, y si sus evaluaciones permitían predecir los pesos factoriales de los ítems. Resultados: Las puntuaciones de TRI identificaron bien los ítems de responsabilidad (R2 = 0,57) y predijeron sus cargas factoriales (R2 = 0,45). Además, mostraron validez incremental, explicando entre 11% y 17% más de varianza que los índices tradicionales. Conclusiones: La TRI en las evaluaciones de los EM mejora la alineación de ítems y predice mejor los pesos factoriales, mejorando validez del contenido de los instrumentos.
  • Cargando...
    Miniatura
    Publicación
    FoCo: una aplicación Shiny para la evaluación formativa usando modelos de diagnóstico cognitivo
    (Colegio Oficial de la Psicología de Madrid, 2023-05-03) Sanz, Susana; Nájera, Pablo; Moreno, José David; Sorrel, M. A.; Schames Kreitchmann, Rodrigo; Martínez Huertas, José Ángel
    La combinación de evaluaciones formativas y sumativas podría mejorar la evaluación. El modelado de diagnóstico cognitivo (MDC) se ha propuesto para diagnosticar fortalezas y debilidades de estudiantes en la evaluación formativa. Sin embargo, ningún software permite implementarlo fácilmente. Así, se ha desarrollado FoCo (https://foco.shinyapps.io/FoCo/), permitiendo realizar análisis MDC y teoría clásica de tests. Se analizaron respuestas de 86 estudiantes de grado a un examen de métodos de investigación, diagnosticándose sus fortalezas y necesidades en cuanto a su dominio de los contenidos de la asignatura y las tres primeras competencias de la taxonomía de Bloom y se analizó la validez de los resultados. El análisis ha sido informativo, ya que para estudiantes con puntuaciones similares ha sido posible detectar diferentes fortalezas y debilidades. Además, se encontró que estos atributos predicen criterios relevantes. Se espera que FoCo facilite el uso de MDC en contextos educativos.
Enlaces de interés

Aviso legal

Política de privacidad

Política de cookies

Reclamaciones, sugerencias y felicitaciones

Recursos adicionales

Biblioteca UNED

Depósito de datos de investigación

Portal de investigación UNED

InvestigaUNED

Contacto

Teléfono: 913988766 / 6633 / 7891 / 6172

Correo: repositoriobiblioteca@adm.uned.es