Trabajos de fin de máster (TFM)

URI permanente para esta colección

Examinar

Envíos recientes

Mostrando 1 - 20 de 1548
  • Publicación
    Salem 1692 and after: 17th Century witchcraft in 19th Century Anglo-American historical fiction
    (Universidad Nacional de Educación a Distancia (UNED), 2025, 2025-07-11) González Criado, Almudena; Llorens Cubedo, Didac
    The Salem witchcraft crisis in 1692 was a historical event with remarkable social, political, and religious repercussions which affected the future and the formation of what would be the new American postcolonial society. There are many documents and manuscripts of this episode which are preserved in the archives thanks to official and personal accounts written by the very participants involved —judges, accusers, accused, and witnesses. Hence, the Salem witchcraft delusion is one of the best recorded events of Colonial America. Some 19th Century American authors relied on these historical records to create their fictions with the intention to give their literature a genuine “American” topic. Meanwhile, in Great Britain, Victorian authors like Elizabeth Gaskell engaged with Gothic themes also based on historical events so as to put into context their present social and religious conflicts. This dissertation aims at demonstrating how the Salem trials of the 17th century supplied Anglo-American writers of the 19th century with an appropriate subject-matter for their fictions, which in turn allowed them to understand their contemporary historical, social, and religious background. To carry out this study, the fictions chosen will be John Neal’s Rachel Dyer (1828), Nathaniel Hawthorne’s The House of the Seven Gables (1851), Henry Wadsworth Longfellow’s Giles Corey of the Salem Farms (1868), and Elizabeth Gaskell’s Lois the Witch (1859). Each of these authors follows his/her own approach to shape their stories which will be deeply analyzed with the conventions of historical fiction in mind. Characters and events, both fictional and real, will also be explored through a gender perspective, taking into consideration the concept of “otherness,” and how they were historically discriminated and/or used as scapegoats, and subsequently, how they are portrayed in those terms in the fictions studied. The conclusions achieved in this dissertation will prove that, for these authors, it is a must to learn from history to avoid repeating past mistakes in the present and in the future.
  • Publicación
    En los albores de la literatura francocanadiense: Maria Chapdelaine
    (Universidad Nacional de Educación a Distancia (UNED). Facultad de Filología. Departamento de Filología Francesa, 2025-07-09) Palomo Merino, Manuel; Mariño Espuelas, Alicia
  • Publicación
    Naturalización de pinares de repoblación de media-alta montaña en Sierra Nevada. Densidades resultantes óptimas tras las claras en una fase
    (Universidad Nacional de Educación a Distancia (UNED). Facultad de Geografía e Historia, 2025-07-09) Lastra Ruiz, Gonzalo; Pellitero Ondicol, Ramón
    Los pinares de repoblación están sufriendo un fenómeno de decaimiento en gran parte de la geografía española. En Sierra Nevada estarían funcionando ya como emisores de carbono en algunos casos. La ejecución de claras mecanizadas en los pinares de repoblación del Espacio Natural Sierra Nevada no está consiguiendo su naturalización. Las intensidades máximas de corta que se están llevando a cabo están por debajo del 50%, lo que supone que las densidades resultantes sean todavía excesivamente elevadas. En este trabajo se ha estudiado el efecto de densidades bajas del pinar, tras la ejecución de claras intensas mecanizadas en una sola fase. Para ello se establecieron distintas parcelas (clasificadas según su densidad resultante) en las que se llevaron a cabo seguimientos de diferentes parámetros indicadores del grado de naturalización conseguido. Los resultados obtenidos indican que densidades resultantes inferiores a 500-300 pies/ha resultan beneficiosas para el desarrollo tanto del pinar remanente como de la vegetación natural bajo su cubierta, consiguiéndose formaciones más resilientes ante el cambio climático.
  • Publicación
    Plataforma IoT para el Análisis e Investigación de la Ciberseguridad en Entornos Rurales Inteligentes
    (Universidad Nacional de Educación a Distancia (UNED). E.T.S. de Ingeniería Informática, 2025-06) Sernandez Iglesias, Daniel; Robles Gómez, Antonio; Pastor Vargas, Rafael
    Las áreas rurales se enfrentan a importantes barreras para la adopción de tecnologías IoT debido a conectividad limitada, restricciones energéticas y una infraestructura técnica deficiente. Mientras que los entornos urbanos se benefician de sistemas digitales avanzados y servicios en la nube, las áreas rurales a menudo carecen de las condiciones necesarias para desplegar y evaluar soluciones IoT seguras y autónomas. Con el objetivo de contribuir a superar esta brecha, este trabajo presenta el Smart Rural IoT Lab, un banco de pruebas modular y reproducible diseñado para replicar las condiciones de despliegue de sistemas IoT en zonas rurales mediante el uso de herramientas de código abierto y hardware comercialmente asequible. El laboratorio integra tecnologías de comunicación de corto y largo alcance en seis escenarios experimentales, implementando protocolos como MQTT, HTTP, UDP y CoAP. Estos escenarios simulan casos de uso rurales realistas, entre ellos la monitorización ambiental, el seguimiento de ganado, el control de acceso a infraestructuras y la protección de bienes patrimoniales. El procesamiento local de datos se realiza a través de servicios desplegados en contenedores Docker, como Node-RED, InfluxDB, MongoDB y Grafana, lo que garantiza una autonomía completa sin necesidad de recurrir a servicios en la nube. Una de las principales aportaciones del laboratorio es la generación de conjuntos de datos estructurados a partir del tráfico real de red capturado con Tcpdump y preprocesado con Zeek. A diferencia de los conjuntos de datos simulados, los datos recogidos reflejan patrones de comunicación generados por dispositivos reales. Aunque el conjunto actual solo incluye tráfico benigno, la plataforma está preparada para la futura incorporación de escenarios adversos (como suplantación de identidad o ataques de denegación de servicio) que respalden investigaciones en ciberseguridad basada en inteligencia artificial. Si bien los experimentos se llevaron a cabo en un entorno controlado en interiores, la arquitectura del banco de pruebas es portátil y adecuada para futuras implementaciones en exteriores. El Smart Rural IoT Lab responde así a una necesidad crítica en la infraestructura de investigación actual, proporcionando una base realista y flexible para el desarrollo de soluciones IoT seguras e independientes de la nube, contribuyendo a la transformación digital de las regiones rurales.
  • Publicación
    Implementación de una SDN en un entorno industrial simulado
    (Universidad Nacional de Educación a Distancia (UNED). E.T.S. de Ingeniería Informática, 2025-07) Carrillo Guevara, César; Romero Hortelano, Miguel; Robles Gómez, Antonio
    La demanda tecnológica en los entornos industriales y productivos, como son aquellos encargados de infraestructuras críticas y en tiempo real; son cada vez más grandes y complejas hoy en día. Soportado a nivel de comunicación por lo conocido en el mundo de las TICs como “redes tradicionales”, que, a pesar de ser una tecnología medianamente estable y sólida, existe una alternativa como solución a las desventajas que pueden presentar, una opción que dispone de muchas ventajas y que tarde o temprano terminará siendo considerada, si no lo es ya, como la evolución de las redes como las conocemos actualmente, con esto hago referencia a las SDN. Las redes definidas por software, conocidas por su acrónico SDN, son una tecnología relativamente nueva cuyo paradigma se puede resumir y definir como una red altamente programable y centralizada; es una tecnología moderna en constante desarrollo y evolución, su arquitectura dividida en tres capas le permite gestionar la red de una manera mucho más sencilla, adaptándose más fácilmente al entorno y configurándose de acuerdo con las necesidades de este. En este trabajo de investigación se realiza un estudio inicial la arquitectura SDN y todos los elementos que lo componen, así como los principales elementos de un entorno industrial con la finalidad de simular uno y poder integrar la SDN en este; se realiza un estudio de los antecedentes de otras investigaciones relacionadas y se fija una metodología de trabajo, seguido de un diseño tanto de la arquitectura simulada del entorno industrial como la arquitectura de red de la SDN; todo esto es llevado a un prototipo físico empleando tanto componentes hardware (como Raspberry Pi y Arduino UNO) como software (controlador ODL y Mininet) y se analiza las comunicaciones entre los diferentes niveles de la arquitectura; finalmente se presentan las conclusiones y recomendaciones para futuros trabajos.
  • Publicación
    Zero trust framework for microservices security: analysis, design, and implementation
    (Universidad Nacional de Educación a Distancia (UNED), 2025-07-09) Lafarga Poyo, Francisco; Abad Cardiel, Ismael
    In the contemporary landscape of cloud-native software development, microservices architecture has gained traction due to its modularity, scalability, and agility. However, this shift introduces notable security challenges, particularly around authentication and access control. This thesis explores the comparative e ectiveness of centralized and distributed authentication models within a Zero Trust Architecture (ZTA) framework. The study follows three main phases: analysis of the state of the art, design and implementation of both authentication models, and empirical evaluation through simulated attack scenarios. The centralized model employs a single Identity Provider (IdP) and an API gateway to manage authentication and authorization, simplifying policy enforcement but potentially creating a single point of failure. In contrast, the distributed model delegates authentication to each microservice, enforcing mutual Transport Layer Security (TLS) and local JSON Web Token (JWT) validation to better re ect Zero Trust principles. To assess their resilience, both models were deployed in a uni ed cloud environment and subjected to attacks such as lateral movement, token replay, identity spoo ng, and denial-of-service (DoS). Results show that the distributed model provides stronger defense-in- depth, e ectively blocking internal unauthorized access and spoo ng attempts through per- service validation and cryptographic identities. However, it adds operational complexity in managing certi cates and keys. In terms of performance, both architectures exhibited acceptable response times under normal load. Under stress, the centralized gateway absorbed load more predictably, while the distributed model preserved availability by dispersing requests, albeit with higher tail latency and occasional errors. Operationally, the centralized model favors simplicity and rapid policy rollout, while the distributed model requires greater automation and engineering discipline. The study concludes that model selection should align with organizational priorities: Centralized authentication suits API-centric systems with streamlined governance needs, while distributed models are better for highly regulated, multi-tenant, or security-sensitive environments. This research contributes a practical, evidence-based comparison of two leading authentication strategies in microservices under ZTA, providing architectural guidance and a replicable testing framework for future research and enterprise use.
  • Publicación
    Análisis forense de imágenes y vídeos manipulados (deepfake)
    (Universidad Nacional de Educación a Distancia (UNED). E.T.S. de Ingeniería Informática, 2022-10-03) Falcón López, Sergio Adrián; Tobarra Abad, María de los Llanos; Robles Gómez, Antonio
    El contenido de este trabajo consiste en realizar un estudio de las técnicas de generación y detección de deepfake existentes, sobre archivos multimedia de imagen y vídeo. En primer lugar se comienza por la búsqueda de noticias en las que estos deepfakes han tenido una destacada repercusión, así como su aparición e influencia en redes sociales y la vida cotidiana para continuar con el análisis de aquellos métodos utilizados para la creación de contenido deepfake. Una vez estudiadas las diferentes técnicas de generación se procederá a la creación de un pequeño repositorio de imágenes y vídeos deepfake, en el que se incluirán también algunos archivos con contenido real. A continuación se estudian las técnicas de detección de manipulaciones tradicionales y se buscan herramientas disponibles que sean capaces de aplicar dichas técnicas, para posteriormente enfrentarlas a los ficheros del repositorio creado previamente, con la finalidad de analizar si las técnicas tradicionales son de utilidad, para conseguir la detección de anomalías en ficheros multimedia de imágenes y vídeos, generados con las técnicas de deepfake. Después de estudiar las técnicas convencionales se continúa con el estudio de aquellas técnicas de detección de manipulaciones especializadas en deepfake y se realiza una búsqueda de aquellas utilidades que implementen dichas técnicas especializadas, para poder aplicarlas también sobre nuestro repositorio. Una vez concluido el estudio de todas las técnicas y todas las pruebas realizadas sobre el repositorio, se realiza una comparativa entre las técnicas tradicionales y las especializadas en deepfake. Por último se desarrolla una pequeña metodología con una serie de consejos, frutos de la experiencia obtenida en la realización de este trabajo, que están orientados a ser una guía para el analista forense, a la hora de enfrentarse a la detección de anomalías en el análisis de vídeos e imágenes que podrían haber sido manipuladas o generadas mediante técnicas específicas de deepfake.
  • Publicación
    Análisis forense de dispositivos deportivos
    (Universidad Nacional de Educación a Distancia (UNED). E.T.S. de Ingeniería Informática, 2022-10-03) Donaire Calleja, Pablo; Robles Gómez, Antonio; Tobarra Abad, María de los Llanos
    El sector de los dispositivos móviles está en continuo auge, y más en especial en los denominados wearables o, buscando una traducción valida, la tecnología vestible. Este tipo de dispositivos han pasado a ser un elemento común en el día a día de todos, aceptando de forma inconsciente la recopilación continua de información sobre nuestros hábitos y ubicaciones. Este trabajo trata de mostrar en primer lugar el escollo que han encontrado los equipos de análisis forense en este sector, ya que la falta de estándares y el uso de formatos comerciales privados, hace prácticamente imposible que un forense digital pueda especializarse plenamente en el sector. Pese a que se han intentado realizar estudios y buscar procedimientos comunes para actuar ante estos aparatos, aún queda mucho camino por recorrer hasta llegar a un formato común y válido. La idea de este proyecto es realizar un análisis forense completo de uno de estos dispositivos que se puede encontrar actualmente en el mercado, siguiendo unos procedimientos clásicos estandarizados y claramente detallados, permitiendo al lector emular cada una de las acciones realizadas que aquí se exponen. Por último, se expondrán unas conclusiones que muestran como las compañías cada vez toman más en consideración la privacidad del usuario de cara a evitar fugas de información no deseadas y se ofrecerán unas pequeñas recomendaciones de seguridad que los portadores de estos aparatos deberían seguir en la medida de lo posible.
  • Publicación
    Automatización de la adquisición de evidencias para el análisis forense: un enfoque práctico
    (Universidad Nacional de Educación a Distancia (UNED). E.T.S. de Ingeniería Informática, 2021-07) García Fernández, David; Tobarra Abad, María de los Llanos; Robles Gómez, Antonio
    El objetivo principal del proyecto es investigar, dentro del marco del análisis forense, la posibilidad de adquirir evidencias de forma automática y remota, con especial énfasis en la adquisición de memoria. Esta capacidad de adquisición automatizada y en remoto sería realmente interesante para compañías con redes extensas y/o diversas sedes al permitir delegar y centralizar la tarea de adquisición en un único punto de su estructura, al tiempo que supondría un ahorro de costes en tiempo y desplazamientos. A este tipo de redes distribuidas habría que añadir también el efecto del aumento del teletrabajo. Cada vez más empleados trabajan desde su casa, en algunos casos todos los días, o más habitualmente en esquemas de trabajo híbridos que combinan días en la oficina con días de teletrabajo. En estos casos se vuelve a poner de relevancia la conveniencia de disponer de la capacidad de adquisición remota y automatizada. Para alcanzar la automatización se utilizarán herramientas de automatización para la administración de sistemas ya existentes en el mercado. Entre las alternativas disponibles, Ansible será la opción elegida. Las razones para su elección incluyen entre otros puntos: Su condición de software de código abierto, la extensa comunidad que da soporte tanto a la herramienta, como a la documentación disponible, y su propuesta sin agentes en los endpoints, lo que minimiza la configuración previa que estos necesitan. La adquisición se realizará también utilizando herramientas ya existentes y probadas. Estas herramientas deben mantener el valor probatorio de las evidencias que se adquieran. Se buscarán aquellas más convenientes entre las disponibles dependiendo del tipo de evidencia a adquirir y del sistema operativo del endpoint. Por ejemplo, para la adquisición de memoria se experimentarán las opciones de LiME para sistemas Linux y WinPmem en el caso de sistemas Windows, mientras que para la adquisición de información del sistema de archivos en Linux se explorará la alternativa de Sleuthkit. Esta investigación se realizará utilizando una única máquina física, sobre la que se habilitará un laboratorio basado en una red virtual creada con Virtual Box. En dicha red virtual se incluirán tanto la máquina desde la que se quieren automatizar las adquisiciones como los endpoints de los que se quiere recuperar evidencias. El grupo de endpoints se conformará por diferentes máquinas con diferentes sistemas operativos, y diferentes versiones de los mismos, con el objetivo de analizar la viabilidad de la adquisición en diferentes escenarios, ya que se entiende que las redes distribuidas descritas al principio de este resumen no son homogéneas en el mundo real.
  • Publicación
    Estudio de amenazas de seguridad en una arquitectura SDN y la implementación de una solución para detectarlas y mitigarlas
    (Universidad Nacional de Educación a Distancia (UNED). E.T.S. de Ingeniería Informática, 2023-06) Carrillo Guevara, César; Robles Gómez, Antonio; Romero Hortelano, Miguel
    Las redes definidas por software, o también conocidas por su acrónico SDN, son una tecnología emergente y relativamente nueva que aporta un paradigma y un diseño diferente al conocido en las redes tradicionales, siendo su principal característica lo altamente programables que pueden llegar a ser. Dentro de su arquitectura, su elemento principal es el controlador encargado de brindar la inteligencia necesaria a la red, por lo tanto, es considerado un punto único de fallo. Al ser una tecnología moderna que sigue en constante evolución y crecimiento, muchas investigaciones indican que se ha enfocado mucho en el diseño y la funcionalidad de este nuevo modelo de arquitectura de red, y se ha dejado un poco de lado el aspecto de la seguridad, el cual es un factor muy importante para tomar en cuenta vista la naturaleza inherente de una SDN. En este proyecto se realiza un estudio inicial de la arquitectura de una SDN, sus elementos y sus principales características, se elige un controlador para ser implementado en un entorno virtualizado, concretamente se elige el controlador de ONOS; luego se realiza sobre esta arquitectura un pentesting, con el objetivo de estudiar y analizar las vulnerabilidades y las principales amenazas de seguridad; finalmente se plantea un plan de mitigación y se estudian diversas soluciones que permitan detectar y mitigar las amenazas de seguridad identificadas, para implementarla dentro del entorno virtualizado y poder discernir si efectivamente la solución elegida se adapta bien a las necesidades de seguridad; concretamente se implementa el SIEM de Wazuh que presenta muchas característica interesante que pueden ayudar a mitigar las amenazas dentro de la arquitectura SDN. En el proceso de estudio y análisis de amenazas se ejecutan diversas metodologías que permiten aplicar mejores prácticas para analizar, testear y encontrar una solución de seguridad de tipo open source que se adapte lo mejor posible a la arquitectura SDN virtualizada. Finalmente, se presentan las conclusiones y recomendaciones del estudio realizado en base a los resultados obtenidos.
  • Publicación
    Generación y detección de deepfakes en archivos de audio
    (Universidad Nacional de Educación a Distancia (UNED). E.T.S. de Ingeniería Informática, 2025-07) Téllez Rodríguez, Álvaro; Robles Gómez, Antonio
    La inteligencia artificial generativa ofrece la posibilidad de generar textos o archivos de imagen, vídeo o audio, con una gran calidad, y de forma cada vez más sencilla. Esto ha democratizado su uso, y a día de hoy, gran cantidad de gente usa a diario estas tecnologías como ayuda a tareas cotidianas, ya sean personales o profesionales. Sin embargo, también han proliferado los malos usos que se dan a estas tecnologías, permitiendo que sea bastante fácil generar material con el objetivo de crear un impacto negativo en la reputación de individuos, influir en la opinión pública, generar material de carácter sexual falso con la cara de personas conocidas, o estafar a gente impersonando a amigos o familiares de la posible víctima. Puesto que la calidad de los contenidos generados es bastante buena, muchas veces no es sencillo detectar que se trata de contenido falso, y los consumidores no intencionados de este material pueden verse influenciados por los mismos. En la actualidad aún no se dispone de muchas herramientas de detección de este tipo de contenidos falsos, y las que existen son de pago o no están integradas en las aplicaciones que la gente usa habitualmente. Es por ello que la gente actualmente no dispone de mecanismos adecuados para poder defenderse de estos contenidos con propósitos maliciosos. Debido a ello, es necesario trabajar en el desarrollo de nuevas herramientas que puedan llegar a ayudar a los usuarios en la detección rápida de contenidos falsos, para que así puedan evitar ser engañados por dichos contenidos.
  • Publicación
    Detección de autoría en redes sociales
    (Universidad Nacional de Educación a Distancia (UNED). E.T.S. de Ingeniería Informática, 2025-06-04) Víctor Dorado, Víctor; Rodrigo Yuste, Álvaro; Pérez García-Plaza, Alberto
    La atribución de autoría en textos breves como los tuits plantea desafíos importantes por su escasa longitud, la variabilidad estilística y la alta ambigüedad entre usuarios. Este TFM se desarrolla a partir de tuits en español e inglés relacionados con la Cumbre Climática COP27 (Sharm el-Sheikh, noviembre de 2022), con el objetivo de construir un modelo que identifique a los autores más probables a partir de los textos. Para ello se emplean arquitecturas tipo Transformer. Los resultados muestran un rendimiento aceptable con pocos autores, pero una degradación clara a medida que se amplía el número de candidatos, especialmente en el caso del inglés.
  • Publicación
    Análisis de la relación entre métricas de habilidades técnicas y resultado en voleibol: un estudio con técnicas multivariantes
    (Universidad Nacional de Educación a Distancia (UNED). E.T.S. de Ingeniería Informática, 2025) Soler Rocha, Sergio; Letón Molina, Emilio
    Este trabajo tiene como objetivo analizar la predicción de los resultados de los partidos de voleibol a nivel profesional mediante el uso de métricas de habilidades técnicas para aclarar si es necesaria la inclusión de métricas avanzadas, tal como ocurre en otros deportes de élite. Para ello, mediante el uso de técnicas multivariantes, se ha construido un conjunto de modelos de predicción con datos de la PlusLiga polaca entre los años 2008 y 2023. Se proponen dos enfoques: enfoque individual, en el cual solo se tienen en cuenta las estadísticas de un solo equipo, sin importar lo que haga el equipo rival, y enfoque comparativo, en el cual se tienen en cuenta las estadísticas de ambos adversarios, proponiéndose como variables las diferencias de dichas estadísticas. En cada enfoque se crean dos modelos: un modelo de regresión logística en el que solo se utilizan habilidades técnicas y otro modelo bayesiano jerárquico, que tiene en cuenta efectos aleatorios por equipos más allá de las habilidades técnicas. Los resultados muestran un buen rendimiento de los modelos para predecir la victoria. Al hacer una evaluación específica de la duración de los partidos (tres, cuatro o cinco sets), se evidencia el excelente rendimiento que ofrecen para partidos de tres sets. En los partidos de cuatro sets, el rendimiento de los modelos desciende levemente, y en los que se juegan a cinco sets la capacidad predictiva aún decae más. Para examinar la validación de los modelos en otras ligas de élite, se utilizaron datos de partidos de la Superliga rusa masculina de la temporada 2024-2025, ofreciendo resultados similares o superiores a los obtenidos con los datos de la liga polaca. Del enfoque individual se pudo conseguir un ranking de importancia de métricas técnicas, destacando en este orden los ataques con remates, las defensas o digs, y los bloqueos con puntos. En el enfoque comparativo se consiguieron reducir las variables predictivas a solo dos: diferencias de la eficiencia en ataque y diferencias de la eficiencia en saque; pudiéndose de esta manera visualizar la naturaleza lineal del modelo. También se analizó la influencia sobre la victoria que tiene una nueva variable, Blk_As (bloqueo que posibilita una jugada de contraataque), llegando a la conclusión de que no hay evidencias de que sea una variable relevante en lo que a victoria se refiere. Se propusieron mejoras como la obtención de conjuntos de datos en que las estadísticas de los partidos están separadas por sets para construir modelos con mejor rendimiento. Finalmente, se llegó a la conclusión de que, a pesar del buen desempeño de los modelos, sería muy positiva la inclusión de métricas avanzadas, no solo para predecir el resultado final de un partido, sino para tener más conocimiento y entender lo que ocurre en el juego, que no puede ser explicado con métricas básicas.
  • Publicación
    Pronóstico de Consumo Eléctrico y Detección de Anomalías mediante Machine Learning
    (Universidad Nacional de Educación a Distancia (UNED). E.T.S. de Ingeniería Informática, 2025-06-08) Sánchez López, José Manuel; Rodríguez Anaya, Antonio
    El objetivo principal de esta Tesis de Máster es desarrollar un modelo para predecir el consumo energético y detectar anomalías en una red extensa y heterogénea de supermercados. En concreto, utilizaremos como caso de estudio la red de tiendas de Grupo Dia en España. Esta red se compone de aproximadamente 2300 supermercados distribuidos por todo el territorio nacional peninsular, caracterizados por una notable heterogeneidad en términos de tamaño, horarios de apertura, ubicaciones (locales comerciales de edificios, centros comerciales o naves independientes) y antigüedad de las edificaciones, así como una marcada estacionalidad del consumo energético mensual y semanal, influenciado además por efectos de calendario, como días festivos. Para lograr el objetivo de predicción, se evaluarán tres técnicas de pronóstico a corto plazo (14 días) que proyectarán consumos energéticos para cada tienda a nivel diario y por franjas horarias. Los modelos que se implementarán son: Random Forest (Ensemble), Redes Neuronales LSTM (Deep Learning) y Prophet (Modelo Estadístico y ML). Simultáneamente, para el análisis de ineficiencias y la detección de anomalías, se empleará un enfoque de aprendizaje no supervisado basado en clustering para crear grupos de tiendas, con posterior detección de anomalías dentro de cada grupo. Se utilizarán los algoritmos K- Means, Agglomerative, DB-SCAN y GMM para Clustering y el Rango Intercuartílico para la detección de anomalías. Todos los algoritmos serán entrenados con datos reales históricos de consumo de energía a nivel horario, un extenso conjunto de características de cada tienda y variables de entorno, como la temperatura, que combinadas, permitirán mejorar la precisión de los modelos. Descubriremos cómo un modelo que no está pensado para pronosticar series temporales, como Random Forest, es capaz de conseguir los mejores resultados para una predicción a corto plazo sobre una secuencia de datos, gracias a la fortaleza de los modelos Ensemble y a su capacidad de detectar patrones no lineales y, por otro lado, cómo un meticuloso análisis de datos nos puede ayudar a dar un perfil de tienda ineficiente y a visualizar anomalías de consumo. El trabajo incluye un análisis exhaustivo del estado del arte en modelos predictivos de consumo energético y detección de anomalías, con énfasis en su aplicación en el sector minorista o similar. Además, se explorarán posibles mejoras a los modelos propuestos que podrían implementarse en el futuro para optimizar aún más la gestión energética de la compañía.
  • Publicación
    Estudio de arquitecturas espacio-temporales de aprendizaje profundo para la detección de fase cardíaca
    (Universidad Nacional de Educación a Distancia (UNED). E.T.S. de Ingeniería Informática, 2025-06) Román Garzón, Juan Alonso; Pérez Martín, Jorge; Fernández de Toro Espejel, Belén
    La enfermedad cardíaca reumática es una complicación grave de la fiebre reumática que causa daños en las válvulas del corazón. La detección y tratamiento tempranos de esta enfermedad pueden reducir significativamente la mortalidad asociada a ella. Es importante utilizar las nuevas tecnologías, como la inteligencia artificial (IA), para poder abordar estos problemas en países donde esta enfermedad es endémica y se carece de personal cualificado para su detección. La correcta interpretación de ecocardiografías para su diagnóstico de forma automatizada, para realizar una previa clasificación y reducir el enorme trabajo que supone para los profesionales, es un paso importante en este camino. Este Trabajo de fin de máster forma parte del proyecto CES-BC-RHD, cuyo objetivo es desarrollar herramientas basada en aprendizaje profundo para ayudar al diagnóstico de esta enfermedad en países endémicos. En él, abordamos la evaluación de distintas arquitecturas y técnicas de optimización de modelos de aprendizaje profundo para la categorización de cada fotograma de una ecocardiografía en las distintas fases del ciclo cardíaco. Esto, mediante técnicas de integración con otros modelos de aprendizaje automático, podría ayudar al diagnóstico de la enfermedad cardíaca reumática. Es justo en el cambio de sístole a diástole (y viceversa) cuando más información relevante arrojan los ecocardiogramas. Se han estudiado tres arquitecturas distintas: una 3D-CNN, y dos CNN+RNN; y se utilizó Optuna para la optimización de hiperparámetros. Los modelos se entrenaron con el conjunto de datos públicos TED, con 98 pacientes. Se evaluaron distintas técnicas de mejora como el uso de filtro CLAHE, aumento de datos o el flujo óptico, entre otras. Para esta evaluación se utilizó validación cruzada sobre un conjunto de datos de entrenamiento, dejando 10 pacientes para la fase de test. Se evaluó la generalización de los modelos en 200 vídeos de EchoNet-Dynamic, donde se estimó el ciclo completo mediante una heurística basada en el índice de similitud estructural (SSIM). El flujo óptico, técnica que analiza el movimiento de objetos en una secuencia de imágenes, ha demostrado ser el componente con mayor impacto en los modelos, llegando a incrementar en más de un 18 % los resultados obtenidos en términos de F1-score. La mejor configuración alcanzó un F1-score de 0.95, Accuracy de 0.95 y AUC de 0.98 en nuestro conjunto de test. Aunque fue otro modelo el que mostró mejor generalización en EchoNet, con un F1-score de 0.93 y AUC de 0.98. El aumento de datos redujo la varianza entre folds. La mayor limitación ha sido la falta de un conjunto de datos grande, ya que el que hemos usado tiene apenas un centenar de pacientes y un sólo ciclo cardíaco completo por paciente. En líneas futuras podrían explorarse la codificación temporal utilizando transformadores, distintas técnicas de fusión de flujo óptico y explorar la ayuda al etiquetado utilizando técnicas como SSIM.
  • Publicación
    Estudio del impacto del aumento de datos con GANs sobre imágenes térmicas en un modelo predictivo del cáncer de mama
    (Universidad Nacional de Educación a Distancia (UNED). E.T.S. de Ingeniería Informática, 2025-06) Román Aguilar, Rafael; Persona Rincón Zamorano, Mariano; Cuadra Troncoso, José Manuel
    El carcinoma de mama es una de las causas principales de muerte entre las mujeres, lo que hace fundamental su detección temprana. Diversos estudios han destacado el uso de imágenes térmicas como una herramienta prometedora para la detección temprana. En un trabajo de fin de máster previo, se desarrollaron modelos de aprendizaje profundo con mecanismos de atención para detectar el cáncer de mama a partir de imágenes térmicas. Este arrojó buenos resultados pero se llevó a cabo con un conjunto de datos de 260 imágenes, lo que dificulta la generalización de los resultados. Este proyecto propone utilizar aumento de datos mediante Redes Generativas Adversativas (GANs por sus siglas en inglés) para generar imágenes nuevas al conjunto de datos y evaluar el impacto en los resultados obtenidos con el mejor modelo del anterior trabajo, que utiliza mecanismos de atención dura. Se selecciona StyleGAN como modelo generativo adversativo por la robustez durante el entrenamiento y la calidad de las imágenes generadas y se utiliza KID y FID Score como métricas de evaluación, ya que permiten comparar el rendimiento de los modelos y cuantificar la calidad de las imágenes generadas. Gracias a estas métricas, se define un procedimiento con el que poder seleccionar las mejores imágenes generadas para el aumento de datos y se realiza una afinación de hiperparámetros a los modelos que generan tanto las muestras sanas como las enfermas. Se diseña un procedimiento para evaluar el modelo de predicción que consiste en una validación cruzada y se repite 10 veces para evitar sesgos en los resultados. Se llevan a cabo experimentos incorporando distintas cantidades de imágenes generadas: 0 (datos reales más aquellos con transformaciones de aumento de datos), 768 (25 % del conjunto de datos), 1536 (50 %), 2304 (75 %) y 3072 (100 %). Este número de imágenes generadas se integran al conjunto de datos para analizar el impacto en el rendimiento del modelo predictivo. Para evaluar el modelo de predicción se emplean las mismas métricas que en el trabajo anterior: exactitud, especificidad, precisión, exhaustividad, puntuación F1, área bajo la curva ROC (AUC) y matriz de confusión. Los experimentos donde se incluyen imágenes generadas muestran mejores resultados que aquel donde se utiliza únicamente el conjunto de datos base. Se destaca el experimento donde se introduce un 50 % de imágenes generadas por obtener mejor valor AUC, menor tiempo de ejecución que otros experimentos y conseguir una exhaustividad media de 0.845 con una varianza/desviación de 0.008/0.09, con respecto al experimento del conjunto base que obtuvo una media, varianza y desviación típica de 0.838 y 0.006/0.08 respectivamente. Esos resultados sugieren el impacto positivo del aumento de datos mediante imágenes generadas en conjuntos de datos pequeños.
  • Publicación
    Comparativa de algoritmos de reconocimiento de voz y subtitulado automático considerando la estructura y el contenido del texto
    (Universidad Nacional de Educación a Distancia (UNED). E.T.S. de Ingeniería Informática, 2025) Rodriguez Parrondo, Paula; Pérez Martín, Jorge; Rodrigo Yuste, Álvaro
    En una sociedad donde los contenidos digitales están cada vez más presentes, los sistemas de reconocimiento automático del habla (Automatic Speech Recognition, ASR) se posicionan como herramientas esenciales para garantizar el acceso universal a la información. Sin embargo, estos sistemas aún presentan errores que pueden comprometer la fiabilidad de sus transcripciones. Detectarlos, comprenderlos y corregirlos no es sólo un objetivo técnico, sino un paso necesario hacia una tecnología más inclusiva, precisa y fiable. Este trabajo aborda precisamente esa necesidad mediante el análisis del rendimiento de modelos de transcripción automática usando contenidos educativos. Para ello, se han diseñado y ejecutado varios experimentos utilizando los modelos Whisper y WhisperX, en los que se evaluó su comportamiento combinando varias métricas obtenidas de forma automática (WER, CER, BLEU y ROUGE) con un análisis cualitativo de los errores cometidos. Esta metodología ha permitido identificar patrones recurrentes, como dificultades en la transcripción de nombres propios o términos técnicos, y valorar el impacto de estrategias específicas, como la incorporación de contexto textual o la segmentación del audio. Más allá de los resultados cuantitativos, este trabajo pone de manifiesto que avanzar en la accesibilidad real requiere algo más que modelos de reconocimiento del habla funcionales. Es necesario que estos sistemas sean capaces de adaptarse a la diversidad lingüística de los usuarios y gestionar de forma eficaz los errores que cometen. El futuro del reconocimiento automático del habla pasa no sólo por mejorar la potencia de los modelos, sino también por desarrollar soluciones más robustas, precisas y capaces de responder ante las variaciones naturales del lenguaje.
  • Publicación
    Aplicación de la teoría de cópulas al modelado estadístico de dos biomarcadores
    (Universidad Nacional de Educación a Distancia (UNED). E.T.S. de Ingeniería Informática, 2025-06) Rellán Vega, César; Letón Molina, Emilio
    En este trabajo exploramos el uso de cópulas bivariantes para modelar la dependencia entre dos biomarcadores, con el objetivo de mejorar el rendimiento diagnóstico respecto al uso individual de cada uno. A través del estudio teórico y práctico de la teoría de cópulas, implementamos un algoritmo basado en el teorema de Sklar y la generación condicional, asumiendo distribuciones marginales normales para los biomarcadores. Aplicamos el método tanto a datos simulados como a tres conjuntos de datos reales relacionados con la diabetes, el cáncer de páncreas y el cáncer de próstata. Nuestros resultados muestran que, cuando se verifica la normalidad marginal, el modelo conjunto mejora los valores de AUC en comparación con el análisis univariante. Además, identificamos limitaciones derivadas de la suposición de normalidad y proponemos líneas de trabajo futuras para extender el método a otros tipos de distribuciones, métricas y familias de cópulas. Con este trabajo buscamos ofrecer tanto una aplicación práctica como una introducción accesible a una herramienta estadística poderosa y poco utilizada.
  • Publicación
    Desarrollo y evaluación de un sistema de reconocimiento de voz robusto para entornos industriales
    (Universidad Nacional de Educación a Distancia (UNED). E.T.S. de Ingeniería Informática, 2025-06) Ramírez Faura, Antonio Francisco; Pérez Martín, Jorge; Rodrigo Yuste, Álvaro
    El reconocimiento automático del habla (ASR) ha demostrado ser una tecnología efectiva y ampliamente adoptada en múltiples aplicaciones, especialmente en entornos controlados o domésticos. Sin embargo, su implementación para el reconocimiento de instrucciones en entornos industriales presenta desafíos significativos debido a la severa degradación de la señal acústica y la escasez de conjuntos de datos específicos. El objetivo principal de este Trabajo de Fin de Máster es identificar y validar el motor ASR de código abierto más robusto y eficiente para un futuro sistema de reconocimiento de instrucciones. Para ello, se ha desarrollado una metodología que incluyó, en primer lugar, la creación de un dataset sintético anotado. Este dataset se generó combinando locuciones limpias con cuatro tipos de ruido (dos estacionarios y dos variables) a once niveles de Relación Señal- Ruido (SNR) distintos, desde 0 dB hasta 100 dB, resultando en 22 horas de audio ruidoso. Posteriormente, se realizó una evaluación comparativa exhaustiva de cuatro modelos ASR de código abierto (Wav2Vec2, Whisper, Faster Whisper y WhisperX), considerando dos tamaños representativos para cada uno. El análisis abarcó la eficiencia computacional, el rendimiento cuantitativo y un análisis cualitativo de errores. Los resultados experimentales demostraron la superioridad general de la familia de modelos Whisper sobre Wav2Vec2 en presencia de ruido, observándose además que el ruido de tipo variable resultó ser más perjudicial que el estacionario para la mayoría de los modelos. Las implementaciones optimizadas, Faster Whisper y WhisperX, mostraron mejoras sustanciales en eficiencia (velocidad y uso de memoria) respecto al modelo Whisper original. Aunque WhisperX ofreció un rendimiento cuantitativo comparable a Faster Whisper, el análisis cualitativo reveló en el primero una tendencia a la omisión de segmentos en ruido extremo, posiblemente atribuible a su componente VAD. Se concluye que el modelo Faster Whisper, en su configuración large, representa la opción más robusta, eficiente y equilibrada entre las evaluadas, constituyendo el candidato idóneo para el motor ASR del sistema de reconocimiento de instrucciones propuesto. Este trabajo no solo valida un modelo específico, sino que también aporta una metodología y un dataset para la evaluación de ASR en entornos industriales simulados, sentando una base sólida para futuros desarrollos en este ámbito.
  • Publicación
    Extracción y visualización de temáticas del Servicio online de quejas y sugerencias del Ayuntamiento de Zaragoza
    (Universidad Nacional de Educación a Distancia (UNED). E.T.S. de Ingeniería Informática, 2025) Notivo Bezares, Rubén; Delgado Muñoz, Agustín Daniel
    Este trabajo aborda el desarrollo de un sistema de análisis y visualización temática a partir del Servicio de Quejas y Sugerencias del Ayuntamiento de Zaragoza, con el objetivo de extraer las principales preocupaciones ciudadanas mediante técnicas de procesamiento del lenguaje natural, en particular modelado de tópicos y clustering. Estas técnicas permiten estructurar y comprender grandes volúmenes de texto no estructurado. Se ha diseñado una metodología basada en varias fases: desde la recopilación y preprocesamiento de datos, hasta la evaluación cuantitativa y cualitativa de los distintos algoritmos de modelado de temas y clustering seleccionados, pasando por un post-clustering. Para finalizar, se ha realizado una integración de una visualización interactiva en la sede electrónica del Ayuntamiento. Se ha realizado una completa y diversa selección de algoritmos para abarcar los diferentes tipos de modelos asistentes: tradicionales como LDA, específicos para textos cortos como GSDMM y basados en redes neuronales como BERTopic. En el caso del clustering, se utilizaron algoritmos clásicos basados en particiones (K-means) y jerárquicos (aglomerativo), combinados con dos representaciones de características complementarias: TF-IDF, centrada en el contenido literal, y Word2Vec, orientada a la semántica. La evaluación cuantitativa se ha basado en métricas extrínsecas (ARI, NMI y Bcubed), tomando como referencia (ground truth) el código de servicio asociado a cada queja o sugerencia. Esta evaluación se ha complementado con una evaluación humana, centrada en dos aspectos: (1) la calidad de los tópicos, evaluando las palabras más representativas de los 20 más grandes; y (2) la coherencia entre los tópicos y los documentos más representativos asociados. Asimismo, se ha abordado el desafío de manejar un número elevado de categorías iniciales (61), proponiendo un proceso de post-clustering que ha facilitado la estructuración y simplificación temática para su representación visual. Para la visualización final, se han valorado las diferentes opciones existentes para modelado de tópicos. Se ha optado por Treemap, dada su capacidad para mostrar jerarquías temáticas de forma intuitiva y enlazar palabras clave con los documentos más representativos. Esta opción supera limitaciones de otras herramientas como pyLDAvis o wordclouds, al reforzar la interpretabilidad y el contexto semántico de los temas detectados. En conjunto, este trabajo constituye una contribución innovadora en el ámbito de la administración pública, al aplicar técnicas avanzadas de PLN a un servicio real de interacción ciudadana, contribuyendo así a la transparencia, la mejora de la calidad de los servicios municipales y la toma de decisiones basada en evidencia.