Examinar
Envíos recientes
Publicación Eficacia de un programa de coherencia cardíaca en pacientes con fibromialgia(2025-07) Alejano Martín, Luis; Mas Hesse, BlancaLa fibromialgia (FM) es un síndrome crónico caracterizado por dolor generalizado, fatiga, alteraciones del sueño, cognitivas, emocionales, asociado a disfunción autonómica, estrés y baja calidad de vida. Su causa no es conocida y no existe aún un tratamiento definitivo. Objetivo: Estudiar una nueva intervención basada en el biofeedbak coherencia cardíaca (CC). Método: Se evaluará con diseño ensayo clínico aleatorio el Programa de Coherencia Cardíaca para la Fibromialgia de 8 semanas (16 sesiones), basado en respiración rítmica y evocación de emociones positivas con biofeedback (Inner Balance). Participarán 60 pacientes con FM, asignados aleatoriamente a un grupo experimental o control en lista de espera. Análisis de datos: Se aplicarán MANOVA mixto, y de Cohen. Resultados esperados: Se anticipan mejoras significativas en el grupo experimental en dolor, fatiga, sueño, ansiedad, depresión, memoria, concentración, el patrón VFC, estrés y calidad de vida. Conclusión: La CC será una intervención eficaz, sostenible y de fácil implementación en el abordaje integral de la FM.Publicación Segmentación de núcleo isquémico con imágenes de perfusión en bruto utilizando redes neuronales(2025-07) Victoria Rodríguez, Inés; Santa Marta Pastrana, Cristina María; Rodríguez González, DavidEl ictus isquémico es una de las principales causas de discapacidad y mortalidad, cuya detección y tratamiento precoz resultan fundamentales para mejorar el pronóstico. Este Trabajo Fin de Máster explora un enfoque alternativo para la segmentación automática del núcleo isquémico directamente a partir de imágenes de perfusión por tomografía computarizada (CTP) en bruto, sin depender de los mapas hemodinámicos derivados que introducen variabilidad y sesgos. Para ello, se entrena una red neuronal basada en la arquitectura U-Net, evaluada sobre el conjunto de datos ISLES2018 tras un preprocesamiento que incluye normalización de intensidades, eliminación automática del cráneo y simetrización anatómica. El modelo PerfU-Net y sus variantes se comparan con un enfoque convencional basado en mapas (Maps-Net), tanto en 2D como en 3D, con un análisis cuantitativo y cualitativo intra e inter-modelo. Aunque aún no se alcanzan niveles clínicamente óptimos, los resultados obtenidos respaldan el potencial de este enfoque como herramienta de asistencia en diagnóstico.Publicación Las nanopartículas magnéticas en medicina: enfoque en la terapia de hipertermia magnética(2025-06-19) García García, Paola; Santa Marta Pastrana, Cristina MaríaLa hipertermia magnética, basada en la capacidad de las nanopartículas magnéticas para generar calor bajo un campo magnético alterno, es una técnica prometedora en oncología, especialmente como complemento de la radioterapia o la quimioterapia. Sin embargo, su eficacia depende críticamente de las propiedades físico-biológicas de las nanopartículas empleadas. Este trabajo parte de la hipótesis de que el tamaño de las nanopartículas de magnetita (Fe₃O₄) influye significativamente en su eficiencia térmica y distribución intratumoral. Se propone que aquellas con diámetro intermedio (entre 10 y 20 nm), ofrecen un rendimiento óptimo, al maximizar la disipación energética mediante relajaciones de Néel y Brown, minimizar la aglomeración y garantizar una buena dispersión en el tejido. Para evaluar esta hipótesis, se desarrollaron tres modelos computacionales en MATLAB: (1) un modelo para calcular la influencia del tamaño de las nanopartículas en la generación de calor a través de la tasa de absorción específica (𝑆𝐴𝑅); (2) un modelo para simular la distribución espacial de las nanopartículas en un tumor esférico heterogéneo mediante técnicas de Monte Carlo; y (3) un modelo basado en la ecuación de Pennes para describir la distribución térmica y el daño celular, considerando tratamientos con hipertermia sola, radioterapia y su combinación. Los resultados confirman la existencia de un intervalo óptimo de tamaño que maximiza la eficacia terapéutica (concretamente entre 14 y 16 nm), logrando una distribución térmica homogénea y una mayor destrucción tumoral, especialmente cuando se combina con la radioterapia. Además, se destaca la importancia de una adecuada difusión previa al tratamiento, aunque su extensión debe equilibrarse con los posibles efectos secundarios sobre el tejido sano. En conclusión, el trabajo aporta una herramienta teórica útil para la optimización de terapias basadas en hipertermia magnética, subrayando la necesidad de seguir desarrollando modelos computacionalmente más eficientes y representativos del entorno fisiológico real.Publicación Análisis de la traducción de The Gruffalo desde una perspectiva funcionalista: Recreación poética, cultural y multimodal en literatura infantil(2025-06) Rodríguez Manso, Laura; Bermúdez Bausela, MontserratPublicación De los patrios lares al orbis exterior: los viajes y el sedentarismo en los propemptica augústeos(2025-07-09) Frankenberg, Emily Rose; Villarroel Fernández, IrenePublicación El papel de las herramientas multimodales en la alternancia de turnos del discurso digital. Un análisis de corpus sobre la conversación coloquial en WhatsApp(2025-06) Lumbreras Mayans, Julia; Lertola, JenniferPublicación Female empowerment through death: Women's journey from subalternity to self-realization in Poe's Gothic tales(2025-06) Del Pozo Muñoz, María; Llorens Cubedo, DidacDue to his exploitation of the theme of female death, Edgar Allan Poe has often been branded a misogynist and a supporter of the patriarchal ideology that dominated the first half of nineteenth-century America. However, an alternative reading of Poe's gothic tales might reveal quite the opposite: a deeply tormented and frustrated man who empathized with the female subaltern and who found in literature an incendiary platform to channel a harsh social critique against the discrimination and denigration suffered by contemporary women. Therefore, in order to debunk traditionally held perspectives on Poe, the primary aim of this study will be to analyze how the author portrayed the dialectical conflict that conditioned gender relationships in his contemporary society, by redefining death as a virgin space for female self-transformation and a place for women to reclaim their long deprived agency and to gain empowerment. Therefore, the present dissertation aims to explore Poe's gothic heroines' transitional journey from submission to full self-realization, by exploring the detrimental and castrating effects that the legitimate patriarchal discourse had on both women and men.Publicación Entre el dolor y la muerte. La bella fragilidad del vivir(2025-06-16) De Matos Mateos, Ismael; Lavernia Biescas, KilianPublicación Régimen legal y aspectos mercantiles de las Uniones Temporales de Empresas(2025-04-10) Rubio García, Eduardo; Curto Polo, Mª MercedesEn este trabajo se pretende realizar un análisis exhaustivo el marco normativo español de las UTEs, una figura jurídica común en proyectos de gran magnitud. En la introducción se justifica la relevancia de las UTEs en la cooperación empresarial y detalla los objetivos del trabajo centrados en aclarar su régimen jurídico mercantil. Las características fundamentales de las UTES, incluyen: temporalidad, diversidad de empresas, falta de personalidad jurídica propia y responsabilidad solidaria de sus socios ante terceros. La normativa de referencia es la Ley 18/1982, que define su sistema fiscal, posibilitando que los rendimientos de la UTE se atribuyan directamente a las compañías que la integran, previniendo de esta manera la doble imposición. Igualmente, se analiza la Ley 9/2017 de Contratos del Sector Público, que autoriza a las UTEs a participar en licitaciones públicas. En este estudio, se examina la estructura interna de las UTEs, su sistema de responsabilidad ante terceros y los desafíos legales y fiscales, que incluyen la responsabilidad penal y el derecho a la competencia. Se concluye la importancia de las UTEs como un mecanismo flexible de colaboración, a la par que se señala los desafíos legales que enfrentan en el entorno mercantil español y europeo. Se excluye de este trabajo por razones de extensión, el estudio del derecho comparado de la figura de las UTEs con otras similares en ordenamientos jurídicos de países de nuestro entorno.Publicación Salem 1692 and after: 17th Century witchcraft in 19th Century Anglo-American historical fiction(Universidad Nacional de Educación a Distancia (UNED), 2025, 2025-07-11) González Criado, Almudena; Llorens Cubedo, DidacThe Salem witchcraft crisis in 1692 was a historical event with remarkable social, political, and religious repercussions which affected the future and the formation of what would be the new American postcolonial society. There are many documents and manuscripts of this episode which are preserved in the archives thanks to official and personal accounts written by the very participants involved —judges, accusers, accused, and witnesses. Hence, the Salem witchcraft delusion is one of the best recorded events of Colonial America. Some 19th Century American authors relied on these historical records to create their fictions with the intention to give their literature a genuine “American” topic. Meanwhile, in Great Britain, Victorian authors like Elizabeth Gaskell engaged with Gothic themes also based on historical events so as to put into context their present social and religious conflicts. This dissertation aims at demonstrating how the Salem trials of the 17th century supplied Anglo-American writers of the 19th century with an appropriate subject-matter for their fictions, which in turn allowed them to understand their contemporary historical, social, and religious background. To carry out this study, the fictions chosen will be John Neal’s Rachel Dyer (1828), Nathaniel Hawthorne’s The House of the Seven Gables (1851), Henry Wadsworth Longfellow’s Giles Corey of the Salem Farms (1868), and Elizabeth Gaskell’s Lois the Witch (1859). Each of these authors follows his/her own approach to shape their stories which will be deeply analyzed with the conventions of historical fiction in mind. Characters and events, both fictional and real, will also be explored through a gender perspective, taking into consideration the concept of “otherness,” and how they were historically discriminated and/or used as scapegoats, and subsequently, how they are portrayed in those terms in the fictions studied. The conclusions achieved in this dissertation will prove that, for these authors, it is a must to learn from history to avoid repeating past mistakes in the present and in the future.Publicación En los albores de la literatura francocanadiense: Maria Chapdelaine(Universidad Nacional de Educación a Distancia (UNED). Facultad de Filología. Departamento de Filología Francesa, 2025-07-09) Palomo Merino, Manuel; Mariño Espuelas, AliciaPublicación Naturalización de pinares de repoblación de media-alta montaña en Sierra Nevada. Densidades resultantes óptimas tras las claras en una fase(Universidad Nacional de Educación a Distancia (UNED). Facultad de Geografía e Historia, 2025-07-09) Lastra Ruiz, Gonzalo; Pellitero Ondicol, RamónLos pinares de repoblación están sufriendo un fenómeno de decaimiento en gran parte de la geografía española. En Sierra Nevada estarían funcionando ya como emisores de carbono en algunos casos. La ejecución de claras mecanizadas en los pinares de repoblación del Espacio Natural Sierra Nevada no está consiguiendo su naturalización. Las intensidades máximas de corta que se están llevando a cabo están por debajo del 50%, lo que supone que las densidades resultantes sean todavía excesivamente elevadas. En este trabajo se ha estudiado el efecto de densidades bajas del pinar, tras la ejecución de claras intensas mecanizadas en una sola fase. Para ello se establecieron distintas parcelas (clasificadas según su densidad resultante) en las que se llevaron a cabo seguimientos de diferentes parámetros indicadores del grado de naturalización conseguido. Los resultados obtenidos indican que densidades resultantes inferiores a 500-300 pies/ha resultan beneficiosas para el desarrollo tanto del pinar remanente como de la vegetación natural bajo su cubierta, consiguiéndose formaciones más resilientes ante el cambio climático.Publicación Plataforma IoT para el Análisis e Investigación de la Ciberseguridad en Entornos Rurales Inteligentes(Universidad Nacional de Educación a Distancia (UNED). E.T.S. de Ingeniería Informática, 2025-06) Sernandez Iglesias, Daniel; Robles Gómez, Antonio; Pastor Vargas, RafaelLas áreas rurales se enfrentan a importantes barreras para la adopción de tecnologías IoT debido a conectividad limitada, restricciones energéticas y una infraestructura técnica deficiente. Mientras que los entornos urbanos se benefician de sistemas digitales avanzados y servicios en la nube, las áreas rurales a menudo carecen de las condiciones necesarias para desplegar y evaluar soluciones IoT seguras y autónomas. Con el objetivo de contribuir a superar esta brecha, este trabajo presenta el Smart Rural IoT Lab, un banco de pruebas modular y reproducible diseñado para replicar las condiciones de despliegue de sistemas IoT en zonas rurales mediante el uso de herramientas de código abierto y hardware comercialmente asequible. El laboratorio integra tecnologías de comunicación de corto y largo alcance en seis escenarios experimentales, implementando protocolos como MQTT, HTTP, UDP y CoAP. Estos escenarios simulan casos de uso rurales realistas, entre ellos la monitorización ambiental, el seguimiento de ganado, el control de acceso a infraestructuras y la protección de bienes patrimoniales. El procesamiento local de datos se realiza a través de servicios desplegados en contenedores Docker, como Node-RED, InfluxDB, MongoDB y Grafana, lo que garantiza una autonomía completa sin necesidad de recurrir a servicios en la nube. Una de las principales aportaciones del laboratorio es la generación de conjuntos de datos estructurados a partir del tráfico real de red capturado con Tcpdump y preprocesado con Zeek. A diferencia de los conjuntos de datos simulados, los datos recogidos reflejan patrones de comunicación generados por dispositivos reales. Aunque el conjunto actual solo incluye tráfico benigno, la plataforma está preparada para la futura incorporación de escenarios adversos (como suplantación de identidad o ataques de denegación de servicio) que respalden investigaciones en ciberseguridad basada en inteligencia artificial. Si bien los experimentos se llevaron a cabo en un entorno controlado en interiores, la arquitectura del banco de pruebas es portátil y adecuada para futuras implementaciones en exteriores. El Smart Rural IoT Lab responde así a una necesidad crítica en la infraestructura de investigación actual, proporcionando una base realista y flexible para el desarrollo de soluciones IoT seguras e independientes de la nube, contribuyendo a la transformación digital de las regiones rurales.Publicación Implementación de una SDN en un entorno industrial simulado(Universidad Nacional de Educación a Distancia (UNED). E.T.S. de Ingeniería Informática, 2025-07) Carrillo Guevara, César; Romero Hortelano, Miguel; Robles Gómez, AntonioLa demanda tecnológica en los entornos industriales y productivos, como son aquellos encargados de infraestructuras críticas y en tiempo real; son cada vez más grandes y complejas hoy en día. Soportado a nivel de comunicación por lo conocido en el mundo de las TICs como “redes tradicionales”, que, a pesar de ser una tecnología medianamente estable y sólida, existe una alternativa como solución a las desventajas que pueden presentar, una opción que dispone de muchas ventajas y que tarde o temprano terminará siendo considerada, si no lo es ya, como la evolución de las redes como las conocemos actualmente, con esto hago referencia a las SDN. Las redes definidas por software, conocidas por su acrónico SDN, son una tecnología relativamente nueva cuyo paradigma se puede resumir y definir como una red altamente programable y centralizada; es una tecnología moderna en constante desarrollo y evolución, su arquitectura dividida en tres capas le permite gestionar la red de una manera mucho más sencilla, adaptándose más fácilmente al entorno y configurándose de acuerdo con las necesidades de este. En este trabajo de investigación se realiza un estudio inicial la arquitectura SDN y todos los elementos que lo componen, así como los principales elementos de un entorno industrial con la finalidad de simular uno y poder integrar la SDN en este; se realiza un estudio de los antecedentes de otras investigaciones relacionadas y se fija una metodología de trabajo, seguido de un diseño tanto de la arquitectura simulada del entorno industrial como la arquitectura de red de la SDN; todo esto es llevado a un prototipo físico empleando tanto componentes hardware (como Raspberry Pi y Arduino UNO) como software (controlador ODL y Mininet) y se analiza las comunicaciones entre los diferentes niveles de la arquitectura; finalmente se presentan las conclusiones y recomendaciones para futuros trabajos.Publicación Zero trust framework for microservices security: analysis, design, and implementation(Universidad Nacional de Educación a Distancia (UNED), 2025-07-09) Lafarga Poyo, Francisco; Abad Cardiel, IsmaelIn the contemporary landscape of cloud-native software development, microservices architecture has gained traction due to its modularity, scalability, and agility. However, this shift introduces notable security challenges, particularly around authentication and access control. This thesis explores the comparative e ectiveness of centralized and distributed authentication models within a Zero Trust Architecture (ZTA) framework. The study follows three main phases: analysis of the state of the art, design and implementation of both authentication models, and empirical evaluation through simulated attack scenarios. The centralized model employs a single Identity Provider (IdP) and an API gateway to manage authentication and authorization, simplifying policy enforcement but potentially creating a single point of failure. In contrast, the distributed model delegates authentication to each microservice, enforcing mutual Transport Layer Security (TLS) and local JSON Web Token (JWT) validation to better re ect Zero Trust principles. To assess their resilience, both models were deployed in a uni ed cloud environment and subjected to attacks such as lateral movement, token replay, identity spoo ng, and denial-of-service (DoS). Results show that the distributed model provides stronger defense-in- depth, e ectively blocking internal unauthorized access and spoo ng attempts through per- service validation and cryptographic identities. However, it adds operational complexity in managing certi cates and keys. In terms of performance, both architectures exhibited acceptable response times under normal load. Under stress, the centralized gateway absorbed load more predictably, while the distributed model preserved availability by dispersing requests, albeit with higher tail latency and occasional errors. Operationally, the centralized model favors simplicity and rapid policy rollout, while the distributed model requires greater automation and engineering discipline. The study concludes that model selection should align with organizational priorities: Centralized authentication suits API-centric systems with streamlined governance needs, while distributed models are better for highly regulated, multi-tenant, or security-sensitive environments. This research contributes a practical, evidence-based comparison of two leading authentication strategies in microservices under ZTA, providing architectural guidance and a replicable testing framework for future research and enterprise use.Publicación Análisis forense de imágenes y vídeos manipulados (deepfake)(Universidad Nacional de Educación a Distancia (UNED). E.T.S. de Ingeniería Informática, 2022-10-03) Falcón López, Sergio Adrián; Tobarra Abad, María de los Llanos; Robles Gómez, AntonioEl contenido de este trabajo consiste en realizar un estudio de las técnicas de generación y detección de deepfake existentes, sobre archivos multimedia de imagen y vídeo. En primer lugar se comienza por la búsqueda de noticias en las que estos deepfakes han tenido una destacada repercusión, así como su aparición e influencia en redes sociales y la vida cotidiana para continuar con el análisis de aquellos métodos utilizados para la creación de contenido deepfake. Una vez estudiadas las diferentes técnicas de generación se procederá a la creación de un pequeño repositorio de imágenes y vídeos deepfake, en el que se incluirán también algunos archivos con contenido real. A continuación se estudian las técnicas de detección de manipulaciones tradicionales y se buscan herramientas disponibles que sean capaces de aplicar dichas técnicas, para posteriormente enfrentarlas a los ficheros del repositorio creado previamente, con la finalidad de analizar si las técnicas tradicionales son de utilidad, para conseguir la detección de anomalías en ficheros multimedia de imágenes y vídeos, generados con las técnicas de deepfake. Después de estudiar las técnicas convencionales se continúa con el estudio de aquellas técnicas de detección de manipulaciones especializadas en deepfake y se realiza una búsqueda de aquellas utilidades que implementen dichas técnicas especializadas, para poder aplicarlas también sobre nuestro repositorio. Una vez concluido el estudio de todas las técnicas y todas las pruebas realizadas sobre el repositorio, se realiza una comparativa entre las técnicas tradicionales y las especializadas en deepfake. Por último se desarrolla una pequeña metodología con una serie de consejos, frutos de la experiencia obtenida en la realización de este trabajo, que están orientados a ser una guía para el analista forense, a la hora de enfrentarse a la detección de anomalías en el análisis de vídeos e imágenes que podrían haber sido manipuladas o generadas mediante técnicas específicas de deepfake.Publicación Análisis forense de dispositivos deportivos(Universidad Nacional de Educación a Distancia (UNED). E.T.S. de Ingeniería Informática, 2022-10-03) Donaire Calleja, Pablo; Robles Gómez, Antonio; Tobarra Abad, María de los LlanosEl sector de los dispositivos móviles está en continuo auge, y más en especial en los denominados wearables o, buscando una traducción valida, la tecnología vestible. Este tipo de dispositivos han pasado a ser un elemento común en el día a día de todos, aceptando de forma inconsciente la recopilación continua de información sobre nuestros hábitos y ubicaciones. Este trabajo trata de mostrar en primer lugar el escollo que han encontrado los equipos de análisis forense en este sector, ya que la falta de estándares y el uso de formatos comerciales privados, hace prácticamente imposible que un forense digital pueda especializarse plenamente en el sector. Pese a que se han intentado realizar estudios y buscar procedimientos comunes para actuar ante estos aparatos, aún queda mucho camino por recorrer hasta llegar a un formato común y válido. La idea de este proyecto es realizar un análisis forense completo de uno de estos dispositivos que se puede encontrar actualmente en el mercado, siguiendo unos procedimientos clásicos estandarizados y claramente detallados, permitiendo al lector emular cada una de las acciones realizadas que aquí se exponen. Por último, se expondrán unas conclusiones que muestran como las compañías cada vez toman más en consideración la privacidad del usuario de cara a evitar fugas de información no deseadas y se ofrecerán unas pequeñas recomendaciones de seguridad que los portadores de estos aparatos deberían seguir en la medida de lo posible.Publicación Automatización de la adquisición de evidencias para el análisis forense: un enfoque práctico(Universidad Nacional de Educación a Distancia (UNED). E.T.S. de Ingeniería Informática, 2021-07) García Fernández, David; Tobarra Abad, María de los Llanos; Robles Gómez, AntonioEl objetivo principal del proyecto es investigar, dentro del marco del análisis forense, la posibilidad de adquirir evidencias de forma automática y remota, con especial énfasis en la adquisición de memoria. Esta capacidad de adquisición automatizada y en remoto sería realmente interesante para compañías con redes extensas y/o diversas sedes al permitir delegar y centralizar la tarea de adquisición en un único punto de su estructura, al tiempo que supondría un ahorro de costes en tiempo y desplazamientos. A este tipo de redes distribuidas habría que añadir también el efecto del aumento del teletrabajo. Cada vez más empleados trabajan desde su casa, en algunos casos todos los días, o más habitualmente en esquemas de trabajo híbridos que combinan días en la oficina con días de teletrabajo. En estos casos se vuelve a poner de relevancia la conveniencia de disponer de la capacidad de adquisición remota y automatizada. Para alcanzar la automatización se utilizarán herramientas de automatización para la administración de sistemas ya existentes en el mercado. Entre las alternativas disponibles, Ansible será la opción elegida. Las razones para su elección incluyen entre otros puntos: Su condición de software de código abierto, la extensa comunidad que da soporte tanto a la herramienta, como a la documentación disponible, y su propuesta sin agentes en los endpoints, lo que minimiza la configuración previa que estos necesitan. La adquisición se realizará también utilizando herramientas ya existentes y probadas. Estas herramientas deben mantener el valor probatorio de las evidencias que se adquieran. Se buscarán aquellas más convenientes entre las disponibles dependiendo del tipo de evidencia a adquirir y del sistema operativo del endpoint. Por ejemplo, para la adquisición de memoria se experimentarán las opciones de LiME para sistemas Linux y WinPmem en el caso de sistemas Windows, mientras que para la adquisición de información del sistema de archivos en Linux se explorará la alternativa de Sleuthkit. Esta investigación se realizará utilizando una única máquina física, sobre la que se habilitará un laboratorio basado en una red virtual creada con Virtual Box. En dicha red virtual se incluirán tanto la máquina desde la que se quieren automatizar las adquisiciones como los endpoints de los que se quiere recuperar evidencias. El grupo de endpoints se conformará por diferentes máquinas con diferentes sistemas operativos, y diferentes versiones de los mismos, con el objetivo de analizar la viabilidad de la adquisición en diferentes escenarios, ya que se entiende que las redes distribuidas descritas al principio de este resumen no son homogéneas en el mundo real.Publicación Estudio de amenazas de seguridad en una arquitectura SDN y la implementación de una solución para detectarlas y mitigarlas(Universidad Nacional de Educación a Distancia (UNED). E.T.S. de Ingeniería Informática, 2023-06) Carrillo Guevara, César; Robles Gómez, Antonio; Romero Hortelano, MiguelLas redes definidas por software, o también conocidas por su acrónico SDN, son una tecnología emergente y relativamente nueva que aporta un paradigma y un diseño diferente al conocido en las redes tradicionales, siendo su principal característica lo altamente programables que pueden llegar a ser. Dentro de su arquitectura, su elemento principal es el controlador encargado de brindar la inteligencia necesaria a la red, por lo tanto, es considerado un punto único de fallo. Al ser una tecnología moderna que sigue en constante evolución y crecimiento, muchas investigaciones indican que se ha enfocado mucho en el diseño y la funcionalidad de este nuevo modelo de arquitectura de red, y se ha dejado un poco de lado el aspecto de la seguridad, el cual es un factor muy importante para tomar en cuenta vista la naturaleza inherente de una SDN. En este proyecto se realiza un estudio inicial de la arquitectura de una SDN, sus elementos y sus principales características, se elige un controlador para ser implementado en un entorno virtualizado, concretamente se elige el controlador de ONOS; luego se realiza sobre esta arquitectura un pentesting, con el objetivo de estudiar y analizar las vulnerabilidades y las principales amenazas de seguridad; finalmente se plantea un plan de mitigación y se estudian diversas soluciones que permitan detectar y mitigar las amenazas de seguridad identificadas, para implementarla dentro del entorno virtualizado y poder discernir si efectivamente la solución elegida se adapta bien a las necesidades de seguridad; concretamente se implementa el SIEM de Wazuh que presenta muchas característica interesante que pueden ayudar a mitigar las amenazas dentro de la arquitectura SDN. En el proceso de estudio y análisis de amenazas se ejecutan diversas metodologías que permiten aplicar mejores prácticas para analizar, testear y encontrar una solución de seguridad de tipo open source que se adapte lo mejor posible a la arquitectura SDN virtualizada. Finalmente, se presentan las conclusiones y recomendaciones del estudio realizado en base a los resultados obtenidos.Publicación Generación y detección de deepfakes en archivos de audio(Universidad Nacional de Educación a Distancia (UNED). E.T.S. de Ingeniería Informática, 2025-07) Téllez Rodríguez, Álvaro; Robles Gómez, AntonioLa inteligencia artificial generativa ofrece la posibilidad de generar textos o archivos de imagen, vídeo o audio, con una gran calidad, y de forma cada vez más sencilla. Esto ha democratizado su uso, y a día de hoy, gran cantidad de gente usa a diario estas tecnologías como ayuda a tareas cotidianas, ya sean personales o profesionales. Sin embargo, también han proliferado los malos usos que se dan a estas tecnologías, permitiendo que sea bastante fácil generar material con el objetivo de crear un impacto negativo en la reputación de individuos, influir en la opinión pública, generar material de carácter sexual falso con la cara de personas conocidas, o estafar a gente impersonando a amigos o familiares de la posible víctima. Puesto que la calidad de los contenidos generados es bastante buena, muchas veces no es sencillo detectar que se trata de contenido falso, y los consumidores no intencionados de este material pueden verse influenciados por los mismos. En la actualidad aún no se dispone de muchas herramientas de detección de este tipo de contenidos falsos, y las que existen son de pago o no están integradas en las aplicaciones que la gente usa habitualmente. Es por ello que la gente actualmente no dispone de mecanismos adecuados para poder defenderse de estos contenidos con propósitos maliciosos. Debido a ello, es necesario trabajar en el desarrollo de nuevas herramientas que puedan llegar a ayudar a los usuarios en la detección rápida de contenidos falsos, para que así puedan evitar ser engañados por dichos contenidos.