Examinar
Envíos recientes
Publicación Análisis de la traducción de The Gruffalo desde una perspectiva funcionalista: Recreación poética, cultural y multimodal en literatura infantil(2025-06) Rodríguez Manso, Laura; Bermúdez Bausela, MontserratPublicación De los patrios lares al orbis exterior: los viajes y el sedentarismo en los propemptica augústeos(2025-07-09) Frankenberg, Emily Rose; Villarroel Fernández, IrenePublicación El papel de las herramientas multimodales en la alternancia de turnos del discurso digital. Un análisis de corpus sobre la conversación coloquial en WhatsApp(2025-06) Lumbreras Mayans, Julia; Lertola, JenniferPublicación Female empowerment through death: Women's journey from subalternity to self-realization in Poe's Gothic tales(2025-06) Del Pozo Muñoz, María; Llorens Cubedo, DidacDue to his exploitation of the theme of female death, Edgar Allan Poe has often been branded a misogynist and a supporter of the patriarchal ideology that dominated the first half of nineteenth-century America. However, an alternative reading of Poe's gothic tales might reveal quite the opposite: a deeply tormented and frustrated man who empathized with the female subaltern and who found in literature an incendiary platform to channel a harsh social critique against the discrimination and denigration suffered by contemporary women. Therefore, in order to debunk traditionally held perspectives on Poe, the primary aim of this study will be to analyze how the author portrayed the dialectical conflict that conditioned gender relationships in his contemporary society, by redefining death as a virgin space for female self-transformation and a place for women to reclaim their long deprived agency and to gain empowerment. Therefore, the present dissertation aims to explore Poe's gothic heroines' transitional journey from submission to full self-realization, by exploring the detrimental and castrating effects that the legitimate patriarchal discourse had on both women and men.Publicación Entre el dolor y la muerte. La bella fragilidad del vivir(2025-06-16) De Matos Mateos, Ismael; Lavernia Biescas, KilianPublicación Régimen legal y aspectos mercantiles de las Uniones Temporales de Empresas(2025-04-10) Rubio García, Eduardo; Curto Polo, Mª MercedesEn este trabajo se pretende realizar un análisis exhaustivo el marco normativo español de las UTEs, una figura jurídica común en proyectos de gran magnitud. En la introducción se justifica la relevancia de las UTEs en la cooperación empresarial y detalla los objetivos del trabajo centrados en aclarar su régimen jurídico mercantil. Las características fundamentales de las UTES, incluyen: temporalidad, diversidad de empresas, falta de personalidad jurídica propia y responsabilidad solidaria de sus socios ante terceros. La normativa de referencia es la Ley 18/1982, que define su sistema fiscal, posibilitando que los rendimientos de la UTE se atribuyan directamente a las compañías que la integran, previniendo de esta manera la doble imposición. Igualmente, se analiza la Ley 9/2017 de Contratos del Sector Público, que autoriza a las UTEs a participar en licitaciones públicas. En este estudio, se examina la estructura interna de las UTEs, su sistema de responsabilidad ante terceros y los desafíos legales y fiscales, que incluyen la responsabilidad penal y el derecho a la competencia. Se concluye la importancia de las UTEs como un mecanismo flexible de colaboración, a la par que se señala los desafíos legales que enfrentan en el entorno mercantil español y europeo. Se excluye de este trabajo por razones de extensión, el estudio del derecho comparado de la figura de las UTEs con otras similares en ordenamientos jurídicos de países de nuestro entorno.Publicación Salem 1692 and after: 17th Century witchcraft in 19th Century Anglo-American historical fiction(Universidad Nacional de Educación a Distancia (UNED), 2025, 2025-07-11) González Criado, Almudena; Llorens Cubedo, DidacThe Salem witchcraft crisis in 1692 was a historical event with remarkable social, political, and religious repercussions which affected the future and the formation of what would be the new American postcolonial society. There are many documents and manuscripts of this episode which are preserved in the archives thanks to official and personal accounts written by the very participants involved —judges, accusers, accused, and witnesses. Hence, the Salem witchcraft delusion is one of the best recorded events of Colonial America. Some 19th Century American authors relied on these historical records to create their fictions with the intention to give their literature a genuine “American” topic. Meanwhile, in Great Britain, Victorian authors like Elizabeth Gaskell engaged with Gothic themes also based on historical events so as to put into context their present social and religious conflicts. This dissertation aims at demonstrating how the Salem trials of the 17th century supplied Anglo-American writers of the 19th century with an appropriate subject-matter for their fictions, which in turn allowed them to understand their contemporary historical, social, and religious background. To carry out this study, the fictions chosen will be John Neal’s Rachel Dyer (1828), Nathaniel Hawthorne’s The House of the Seven Gables (1851), Henry Wadsworth Longfellow’s Giles Corey of the Salem Farms (1868), and Elizabeth Gaskell’s Lois the Witch (1859). Each of these authors follows his/her own approach to shape their stories which will be deeply analyzed with the conventions of historical fiction in mind. Characters and events, both fictional and real, will also be explored through a gender perspective, taking into consideration the concept of “otherness,” and how they were historically discriminated and/or used as scapegoats, and subsequently, how they are portrayed in those terms in the fictions studied. The conclusions achieved in this dissertation will prove that, for these authors, it is a must to learn from history to avoid repeating past mistakes in the present and in the future.Publicación En los albores de la literatura francocanadiense: Maria Chapdelaine(Universidad Nacional de Educación a Distancia (UNED). Facultad de Filología. Departamento de Filología Francesa, 2025-07-09) Palomo Merino, Manuel; Mariño Espuelas, AliciaPublicación Naturalización de pinares de repoblación de media-alta montaña en Sierra Nevada. Densidades resultantes óptimas tras las claras en una fase(Universidad Nacional de Educación a Distancia (UNED). Facultad de Geografía e Historia, 2025-07-09) Lastra Ruiz, Gonzalo; Pellitero Ondicol, RamónLos pinares de repoblación están sufriendo un fenómeno de decaimiento en gran parte de la geografía española. En Sierra Nevada estarían funcionando ya como emisores de carbono en algunos casos. La ejecución de claras mecanizadas en los pinares de repoblación del Espacio Natural Sierra Nevada no está consiguiendo su naturalización. Las intensidades máximas de corta que se están llevando a cabo están por debajo del 50%, lo que supone que las densidades resultantes sean todavía excesivamente elevadas. En este trabajo se ha estudiado el efecto de densidades bajas del pinar, tras la ejecución de claras intensas mecanizadas en una sola fase. Para ello se establecieron distintas parcelas (clasificadas según su densidad resultante) en las que se llevaron a cabo seguimientos de diferentes parámetros indicadores del grado de naturalización conseguido. Los resultados obtenidos indican que densidades resultantes inferiores a 500-300 pies/ha resultan beneficiosas para el desarrollo tanto del pinar remanente como de la vegetación natural bajo su cubierta, consiguiéndose formaciones más resilientes ante el cambio climático.Publicación Plataforma IoT para el Análisis e Investigación de la Ciberseguridad en Entornos Rurales Inteligentes(Universidad Nacional de Educación a Distancia (UNED). E.T.S. de Ingeniería Informática, 2025-06) Sernandez Iglesias, Daniel; Robles Gómez, Antonio; Pastor Vargas, RafaelLas áreas rurales se enfrentan a importantes barreras para la adopción de tecnologías IoT debido a conectividad limitada, restricciones energéticas y una infraestructura técnica deficiente. Mientras que los entornos urbanos se benefician de sistemas digitales avanzados y servicios en la nube, las áreas rurales a menudo carecen de las condiciones necesarias para desplegar y evaluar soluciones IoT seguras y autónomas. Con el objetivo de contribuir a superar esta brecha, este trabajo presenta el Smart Rural IoT Lab, un banco de pruebas modular y reproducible diseñado para replicar las condiciones de despliegue de sistemas IoT en zonas rurales mediante el uso de herramientas de código abierto y hardware comercialmente asequible. El laboratorio integra tecnologías de comunicación de corto y largo alcance en seis escenarios experimentales, implementando protocolos como MQTT, HTTP, UDP y CoAP. Estos escenarios simulan casos de uso rurales realistas, entre ellos la monitorización ambiental, el seguimiento de ganado, el control de acceso a infraestructuras y la protección de bienes patrimoniales. El procesamiento local de datos se realiza a través de servicios desplegados en contenedores Docker, como Node-RED, InfluxDB, MongoDB y Grafana, lo que garantiza una autonomía completa sin necesidad de recurrir a servicios en la nube. Una de las principales aportaciones del laboratorio es la generación de conjuntos de datos estructurados a partir del tráfico real de red capturado con Tcpdump y preprocesado con Zeek. A diferencia de los conjuntos de datos simulados, los datos recogidos reflejan patrones de comunicación generados por dispositivos reales. Aunque el conjunto actual solo incluye tráfico benigno, la plataforma está preparada para la futura incorporación de escenarios adversos (como suplantación de identidad o ataques de denegación de servicio) que respalden investigaciones en ciberseguridad basada en inteligencia artificial. Si bien los experimentos se llevaron a cabo en un entorno controlado en interiores, la arquitectura del banco de pruebas es portátil y adecuada para futuras implementaciones en exteriores. El Smart Rural IoT Lab responde así a una necesidad crítica en la infraestructura de investigación actual, proporcionando una base realista y flexible para el desarrollo de soluciones IoT seguras e independientes de la nube, contribuyendo a la transformación digital de las regiones rurales.Publicación Implementación de una SDN en un entorno industrial simulado(Universidad Nacional de Educación a Distancia (UNED). E.T.S. de Ingeniería Informática, 2025-07) Carrillo Guevara, César; Romero Hortelano, Miguel; Robles Gómez, AntonioLa demanda tecnológica en los entornos industriales y productivos, como son aquellos encargados de infraestructuras críticas y en tiempo real; son cada vez más grandes y complejas hoy en día. Soportado a nivel de comunicación por lo conocido en el mundo de las TICs como “redes tradicionales”, que, a pesar de ser una tecnología medianamente estable y sólida, existe una alternativa como solución a las desventajas que pueden presentar, una opción que dispone de muchas ventajas y que tarde o temprano terminará siendo considerada, si no lo es ya, como la evolución de las redes como las conocemos actualmente, con esto hago referencia a las SDN. Las redes definidas por software, conocidas por su acrónico SDN, son una tecnología relativamente nueva cuyo paradigma se puede resumir y definir como una red altamente programable y centralizada; es una tecnología moderna en constante desarrollo y evolución, su arquitectura dividida en tres capas le permite gestionar la red de una manera mucho más sencilla, adaptándose más fácilmente al entorno y configurándose de acuerdo con las necesidades de este. En este trabajo de investigación se realiza un estudio inicial la arquitectura SDN y todos los elementos que lo componen, así como los principales elementos de un entorno industrial con la finalidad de simular uno y poder integrar la SDN en este; se realiza un estudio de los antecedentes de otras investigaciones relacionadas y se fija una metodología de trabajo, seguido de un diseño tanto de la arquitectura simulada del entorno industrial como la arquitectura de red de la SDN; todo esto es llevado a un prototipo físico empleando tanto componentes hardware (como Raspberry Pi y Arduino UNO) como software (controlador ODL y Mininet) y se analiza las comunicaciones entre los diferentes niveles de la arquitectura; finalmente se presentan las conclusiones y recomendaciones para futuros trabajos.Publicación Zero trust framework for microservices security: analysis, design, and implementation(Universidad Nacional de Educación a Distancia (UNED), 2025-07-09) Lafarga Poyo, Francisco; Abad Cardiel, IsmaelIn the contemporary landscape of cloud-native software development, microservices architecture has gained traction due to its modularity, scalability, and agility. However, this shift introduces notable security challenges, particularly around authentication and access control. This thesis explores the comparative e ectiveness of centralized and distributed authentication models within a Zero Trust Architecture (ZTA) framework. The study follows three main phases: analysis of the state of the art, design and implementation of both authentication models, and empirical evaluation through simulated attack scenarios. The centralized model employs a single Identity Provider (IdP) and an API gateway to manage authentication and authorization, simplifying policy enforcement but potentially creating a single point of failure. In contrast, the distributed model delegates authentication to each microservice, enforcing mutual Transport Layer Security (TLS) and local JSON Web Token (JWT) validation to better re ect Zero Trust principles. To assess their resilience, both models were deployed in a uni ed cloud environment and subjected to attacks such as lateral movement, token replay, identity spoo ng, and denial-of-service (DoS). Results show that the distributed model provides stronger defense-in- depth, e ectively blocking internal unauthorized access and spoo ng attempts through per- service validation and cryptographic identities. However, it adds operational complexity in managing certi cates and keys. In terms of performance, both architectures exhibited acceptable response times under normal load. Under stress, the centralized gateway absorbed load more predictably, while the distributed model preserved availability by dispersing requests, albeit with higher tail latency and occasional errors. Operationally, the centralized model favors simplicity and rapid policy rollout, while the distributed model requires greater automation and engineering discipline. The study concludes that model selection should align with organizational priorities: Centralized authentication suits API-centric systems with streamlined governance needs, while distributed models are better for highly regulated, multi-tenant, or security-sensitive environments. This research contributes a practical, evidence-based comparison of two leading authentication strategies in microservices under ZTA, providing architectural guidance and a replicable testing framework for future research and enterprise use.Publicación Análisis forense de imágenes y vídeos manipulados (deepfake)(Universidad Nacional de Educación a Distancia (UNED). E.T.S. de Ingeniería Informática, 2022-10-03) Falcón López, Sergio Adrián; Tobarra Abad, María de los Llanos; Robles Gómez, AntonioEl contenido de este trabajo consiste en realizar un estudio de las técnicas de generación y detección de deepfake existentes, sobre archivos multimedia de imagen y vídeo. En primer lugar se comienza por la búsqueda de noticias en las que estos deepfakes han tenido una destacada repercusión, así como su aparición e influencia en redes sociales y la vida cotidiana para continuar con el análisis de aquellos métodos utilizados para la creación de contenido deepfake. Una vez estudiadas las diferentes técnicas de generación se procederá a la creación de un pequeño repositorio de imágenes y vídeos deepfake, en el que se incluirán también algunos archivos con contenido real. A continuación se estudian las técnicas de detección de manipulaciones tradicionales y se buscan herramientas disponibles que sean capaces de aplicar dichas técnicas, para posteriormente enfrentarlas a los ficheros del repositorio creado previamente, con la finalidad de analizar si las técnicas tradicionales son de utilidad, para conseguir la detección de anomalías en ficheros multimedia de imágenes y vídeos, generados con las técnicas de deepfake. Después de estudiar las técnicas convencionales se continúa con el estudio de aquellas técnicas de detección de manipulaciones especializadas en deepfake y se realiza una búsqueda de aquellas utilidades que implementen dichas técnicas especializadas, para poder aplicarlas también sobre nuestro repositorio. Una vez concluido el estudio de todas las técnicas y todas las pruebas realizadas sobre el repositorio, se realiza una comparativa entre las técnicas tradicionales y las especializadas en deepfake. Por último se desarrolla una pequeña metodología con una serie de consejos, frutos de la experiencia obtenida en la realización de este trabajo, que están orientados a ser una guía para el analista forense, a la hora de enfrentarse a la detección de anomalías en el análisis de vídeos e imágenes que podrían haber sido manipuladas o generadas mediante técnicas específicas de deepfake.Publicación Análisis forense de dispositivos deportivos(Universidad Nacional de Educación a Distancia (UNED). E.T.S. de Ingeniería Informática, 2022-10-03) Donaire Calleja, Pablo; Robles Gómez, Antonio; Tobarra Abad, María de los LlanosEl sector de los dispositivos móviles está en continuo auge, y más en especial en los denominados wearables o, buscando una traducción valida, la tecnología vestible. Este tipo de dispositivos han pasado a ser un elemento común en el día a día de todos, aceptando de forma inconsciente la recopilación continua de información sobre nuestros hábitos y ubicaciones. Este trabajo trata de mostrar en primer lugar el escollo que han encontrado los equipos de análisis forense en este sector, ya que la falta de estándares y el uso de formatos comerciales privados, hace prácticamente imposible que un forense digital pueda especializarse plenamente en el sector. Pese a que se han intentado realizar estudios y buscar procedimientos comunes para actuar ante estos aparatos, aún queda mucho camino por recorrer hasta llegar a un formato común y válido. La idea de este proyecto es realizar un análisis forense completo de uno de estos dispositivos que se puede encontrar actualmente en el mercado, siguiendo unos procedimientos clásicos estandarizados y claramente detallados, permitiendo al lector emular cada una de las acciones realizadas que aquí se exponen. Por último, se expondrán unas conclusiones que muestran como las compañías cada vez toman más en consideración la privacidad del usuario de cara a evitar fugas de información no deseadas y se ofrecerán unas pequeñas recomendaciones de seguridad que los portadores de estos aparatos deberían seguir en la medida de lo posible.Publicación Automatización de la adquisición de evidencias para el análisis forense: un enfoque práctico(Universidad Nacional de Educación a Distancia (UNED). E.T.S. de Ingeniería Informática, 2021-07) García Fernández, David; Tobarra Abad, María de los Llanos; Robles Gómez, AntonioEl objetivo principal del proyecto es investigar, dentro del marco del análisis forense, la posibilidad de adquirir evidencias de forma automática y remota, con especial énfasis en la adquisición de memoria. Esta capacidad de adquisición automatizada y en remoto sería realmente interesante para compañías con redes extensas y/o diversas sedes al permitir delegar y centralizar la tarea de adquisición en un único punto de su estructura, al tiempo que supondría un ahorro de costes en tiempo y desplazamientos. A este tipo de redes distribuidas habría que añadir también el efecto del aumento del teletrabajo. Cada vez más empleados trabajan desde su casa, en algunos casos todos los días, o más habitualmente en esquemas de trabajo híbridos que combinan días en la oficina con días de teletrabajo. En estos casos se vuelve a poner de relevancia la conveniencia de disponer de la capacidad de adquisición remota y automatizada. Para alcanzar la automatización se utilizarán herramientas de automatización para la administración de sistemas ya existentes en el mercado. Entre las alternativas disponibles, Ansible será la opción elegida. Las razones para su elección incluyen entre otros puntos: Su condición de software de código abierto, la extensa comunidad que da soporte tanto a la herramienta, como a la documentación disponible, y su propuesta sin agentes en los endpoints, lo que minimiza la configuración previa que estos necesitan. La adquisición se realizará también utilizando herramientas ya existentes y probadas. Estas herramientas deben mantener el valor probatorio de las evidencias que se adquieran. Se buscarán aquellas más convenientes entre las disponibles dependiendo del tipo de evidencia a adquirir y del sistema operativo del endpoint. Por ejemplo, para la adquisición de memoria se experimentarán las opciones de LiME para sistemas Linux y WinPmem en el caso de sistemas Windows, mientras que para la adquisición de información del sistema de archivos en Linux se explorará la alternativa de Sleuthkit. Esta investigación se realizará utilizando una única máquina física, sobre la que se habilitará un laboratorio basado en una red virtual creada con Virtual Box. En dicha red virtual se incluirán tanto la máquina desde la que se quieren automatizar las adquisiciones como los endpoints de los que se quiere recuperar evidencias. El grupo de endpoints se conformará por diferentes máquinas con diferentes sistemas operativos, y diferentes versiones de los mismos, con el objetivo de analizar la viabilidad de la adquisición en diferentes escenarios, ya que se entiende que las redes distribuidas descritas al principio de este resumen no son homogéneas en el mundo real.Publicación Estudio de amenazas de seguridad en una arquitectura SDN y la implementación de una solución para detectarlas y mitigarlas(Universidad Nacional de Educación a Distancia (UNED). E.T.S. de Ingeniería Informática, 2023-06) Carrillo Guevara, César; Robles Gómez, Antonio; Romero Hortelano, MiguelLas redes definidas por software, o también conocidas por su acrónico SDN, son una tecnología emergente y relativamente nueva que aporta un paradigma y un diseño diferente al conocido en las redes tradicionales, siendo su principal característica lo altamente programables que pueden llegar a ser. Dentro de su arquitectura, su elemento principal es el controlador encargado de brindar la inteligencia necesaria a la red, por lo tanto, es considerado un punto único de fallo. Al ser una tecnología moderna que sigue en constante evolución y crecimiento, muchas investigaciones indican que se ha enfocado mucho en el diseño y la funcionalidad de este nuevo modelo de arquitectura de red, y se ha dejado un poco de lado el aspecto de la seguridad, el cual es un factor muy importante para tomar en cuenta vista la naturaleza inherente de una SDN. En este proyecto se realiza un estudio inicial de la arquitectura de una SDN, sus elementos y sus principales características, se elige un controlador para ser implementado en un entorno virtualizado, concretamente se elige el controlador de ONOS; luego se realiza sobre esta arquitectura un pentesting, con el objetivo de estudiar y analizar las vulnerabilidades y las principales amenazas de seguridad; finalmente se plantea un plan de mitigación y se estudian diversas soluciones que permitan detectar y mitigar las amenazas de seguridad identificadas, para implementarla dentro del entorno virtualizado y poder discernir si efectivamente la solución elegida se adapta bien a las necesidades de seguridad; concretamente se implementa el SIEM de Wazuh que presenta muchas característica interesante que pueden ayudar a mitigar las amenazas dentro de la arquitectura SDN. En el proceso de estudio y análisis de amenazas se ejecutan diversas metodologías que permiten aplicar mejores prácticas para analizar, testear y encontrar una solución de seguridad de tipo open source que se adapte lo mejor posible a la arquitectura SDN virtualizada. Finalmente, se presentan las conclusiones y recomendaciones del estudio realizado en base a los resultados obtenidos.Publicación Generación y detección de deepfakes en archivos de audio(Universidad Nacional de Educación a Distancia (UNED). E.T.S. de Ingeniería Informática, 2025-07) Téllez Rodríguez, Álvaro; Robles Gómez, AntonioLa inteligencia artificial generativa ofrece la posibilidad de generar textos o archivos de imagen, vídeo o audio, con una gran calidad, y de forma cada vez más sencilla. Esto ha democratizado su uso, y a día de hoy, gran cantidad de gente usa a diario estas tecnologías como ayuda a tareas cotidianas, ya sean personales o profesionales. Sin embargo, también han proliferado los malos usos que se dan a estas tecnologías, permitiendo que sea bastante fácil generar material con el objetivo de crear un impacto negativo en la reputación de individuos, influir en la opinión pública, generar material de carácter sexual falso con la cara de personas conocidas, o estafar a gente impersonando a amigos o familiares de la posible víctima. Puesto que la calidad de los contenidos generados es bastante buena, muchas veces no es sencillo detectar que se trata de contenido falso, y los consumidores no intencionados de este material pueden verse influenciados por los mismos. En la actualidad aún no se dispone de muchas herramientas de detección de este tipo de contenidos falsos, y las que existen son de pago o no están integradas en las aplicaciones que la gente usa habitualmente. Es por ello que la gente actualmente no dispone de mecanismos adecuados para poder defenderse de estos contenidos con propósitos maliciosos. Debido a ello, es necesario trabajar en el desarrollo de nuevas herramientas que puedan llegar a ayudar a los usuarios en la detección rápida de contenidos falsos, para que así puedan evitar ser engañados por dichos contenidos.Publicación Detección de autoría en redes sociales(Universidad Nacional de Educación a Distancia (UNED). E.T.S. de Ingeniería Informática, 2025-06-04) Víctor Dorado, Víctor; Rodrigo Yuste, Álvaro; Pérez García-Plaza, AlbertoLa atribución de autoría en textos breves como los tuits plantea desafíos importantes por su escasa longitud, la variabilidad estilística y la alta ambigüedad entre usuarios. Este TFM se desarrolla a partir de tuits en español e inglés relacionados con la Cumbre Climática COP27 (Sharm el-Sheikh, noviembre de 2022), con el objetivo de construir un modelo que identifique a los autores más probables a partir de los textos. Para ello se emplean arquitecturas tipo Transformer. Los resultados muestran un rendimiento aceptable con pocos autores, pero una degradación clara a medida que se amplía el número de candidatos, especialmente en el caso del inglés.Publicación Análisis de la relación entre métricas de habilidades técnicas y resultado en voleibol: un estudio con técnicas multivariantes(Universidad Nacional de Educación a Distancia (UNED). E.T.S. de Ingeniería Informática, 2025) Soler Rocha, Sergio; Letón Molina, EmilioEste trabajo tiene como objetivo analizar la predicción de los resultados de los partidos de voleibol a nivel profesional mediante el uso de métricas de habilidades técnicas para aclarar si es necesaria la inclusión de métricas avanzadas, tal como ocurre en otros deportes de élite. Para ello, mediante el uso de técnicas multivariantes, se ha construido un conjunto de modelos de predicción con datos de la PlusLiga polaca entre los años 2008 y 2023. Se proponen dos enfoques: enfoque individual, en el cual solo se tienen en cuenta las estadísticas de un solo equipo, sin importar lo que haga el equipo rival, y enfoque comparativo, en el cual se tienen en cuenta las estadísticas de ambos adversarios, proponiéndose como variables las diferencias de dichas estadísticas. En cada enfoque se crean dos modelos: un modelo de regresión logística en el que solo se utilizan habilidades técnicas y otro modelo bayesiano jerárquico, que tiene en cuenta efectos aleatorios por equipos más allá de las habilidades técnicas. Los resultados muestran un buen rendimiento de los modelos para predecir la victoria. Al hacer una evaluación específica de la duración de los partidos (tres, cuatro o cinco sets), se evidencia el excelente rendimiento que ofrecen para partidos de tres sets. En los partidos de cuatro sets, el rendimiento de los modelos desciende levemente, y en los que se juegan a cinco sets la capacidad predictiva aún decae más. Para examinar la validación de los modelos en otras ligas de élite, se utilizaron datos de partidos de la Superliga rusa masculina de la temporada 2024-2025, ofreciendo resultados similares o superiores a los obtenidos con los datos de la liga polaca. Del enfoque individual se pudo conseguir un ranking de importancia de métricas técnicas, destacando en este orden los ataques con remates, las defensas o digs, y los bloqueos con puntos. En el enfoque comparativo se consiguieron reducir las variables predictivas a solo dos: diferencias de la eficiencia en ataque y diferencias de la eficiencia en saque; pudiéndose de esta manera visualizar la naturaleza lineal del modelo. También se analizó la influencia sobre la victoria que tiene una nueva variable, Blk_As (bloqueo que posibilita una jugada de contraataque), llegando a la conclusión de que no hay evidencias de que sea una variable relevante en lo que a victoria se refiere. Se propusieron mejoras como la obtención de conjuntos de datos en que las estadísticas de los partidos están separadas por sets para construir modelos con mejor rendimiento. Finalmente, se llegó a la conclusión de que, a pesar del buen desempeño de los modelos, sería muy positiva la inclusión de métricas avanzadas, no solo para predecir el resultado final de un partido, sino para tener más conocimiento y entender lo que ocurre en el juego, que no puede ser explicado con métricas básicas.Publicación Pronóstico de Consumo Eléctrico y Detección de Anomalías mediante Machine Learning(Universidad Nacional de Educación a Distancia (UNED). E.T.S. de Ingeniería Informática, 2025-06-08) Sánchez López, José Manuel; Rodríguez Anaya, AntonioEl objetivo principal de esta Tesis de Máster es desarrollar un modelo para predecir el consumo energético y detectar anomalías en una red extensa y heterogénea de supermercados. En concreto, utilizaremos como caso de estudio la red de tiendas de Grupo Dia en España. Esta red se compone de aproximadamente 2300 supermercados distribuidos por todo el territorio nacional peninsular, caracterizados por una notable heterogeneidad en términos de tamaño, horarios de apertura, ubicaciones (locales comerciales de edificios, centros comerciales o naves independientes) y antigüedad de las edificaciones, así como una marcada estacionalidad del consumo energético mensual y semanal, influenciado además por efectos de calendario, como días festivos. Para lograr el objetivo de predicción, se evaluarán tres técnicas de pronóstico a corto plazo (14 días) que proyectarán consumos energéticos para cada tienda a nivel diario y por franjas horarias. Los modelos que se implementarán son: Random Forest (Ensemble), Redes Neuronales LSTM (Deep Learning) y Prophet (Modelo Estadístico y ML). Simultáneamente, para el análisis de ineficiencias y la detección de anomalías, se empleará un enfoque de aprendizaje no supervisado basado en clustering para crear grupos de tiendas, con posterior detección de anomalías dentro de cada grupo. Se utilizarán los algoritmos K- Means, Agglomerative, DB-SCAN y GMM para Clustering y el Rango Intercuartílico para la detección de anomalías. Todos los algoritmos serán entrenados con datos reales históricos de consumo de energía a nivel horario, un extenso conjunto de características de cada tienda y variables de entorno, como la temperatura, que combinadas, permitirán mejorar la precisión de los modelos. Descubriremos cómo un modelo que no está pensado para pronosticar series temporales, como Random Forest, es capaz de conseguir los mejores resultados para una predicción a corto plazo sobre una secuencia de datos, gracias a la fortaleza de los modelos Ensemble y a su capacidad de detectar patrones no lineales y, por otro lado, cómo un meticuloso análisis de datos nos puede ayudar a dar un perfil de tienda ineficiente y a visualizar anomalías de consumo. El trabajo incluye un análisis exhaustivo del estado del arte en modelos predictivos de consumo energético y detección de anomalías, con énfasis en su aplicación en el sector minorista o similar. Además, se explorarán posibles mejoras a los modelos propuestos que podrían implementarse en el futuro para optimizar aún más la gestión energética de la compañía.