Trabajos de fin de máster (TFM)
URI permanente para esta colección
Examinar
Examinando Trabajos de fin de máster (TFM) por Palabra clave "12 Matemáticas::1203 Ciencia de los ordenadores ::1203.17 Informática"
Mostrando 1 - 20 de 34
Resultados por página
Opciones de ordenación
Publicación Análisis de imagen médica usando redes neuronales siamesas(Universidad de Educación a Distancia (UNED), 2024-10) Roig Martín, Roberto; Rincón Zamorano, Mariano; Guerrero Martín, JuanEste Trabajo Fin de Máster se enmarca en el proyecto de análisis de imágenes médicas mediante el uso de técnicas de deep learning, con un enfoque particular en la implementación de redes neuronales siamesas para la detección temprana de cáncer de mama a través de imágenes térmicas. El objetivo principal de este estudio ha sido aplicar un enfoque eficiente para la detección temprana de cáncer de mama, dado el desafío de trabajar con un conjunto de datos pequeño y limitado en información. Se ha optado por el uso de redes siamesas, que se destacan por su capacidad para manejar pares de imágenes. Esta metodología ha demostrado ser efectiva en el contexto de imágenes térmicas, permitiendo una detección temprana con precisión adecuada incluso con pocas imágenes. Además, se ha comparado el rendimiento de este enfoque con una implementación de redes neuronales convolucionales (CNN) utilizada como línea base, destacando las ventajas de las redes siamesas en la clasificación de imágenes médicas con recursos limitados. Se proponen también mejoras futuras, como la implementación de redes siamesas con tripletas y la inclusión de datos clínicos adicionales para mejorar el rendimiento del modelo.Publicación Análisis Predictivo del Precio del Oro: Correlaciones con Indicadores Técnicos y Fundamentales en el Contexto de Mercados Financieros(Universidad de Educación a Distancia (UNED), 2024-09) Devis Rodriguez, Fernando; López Ostenero, FernandoEste trabajo de fin de máster titulado "Análisis Predictivo del Precio del Oro: Correlaciones con Indicadores Técnicos y Fundamentales en el Contexto de Mercados Financieros" abarca un estudio detallado del precio del oro utilizando el conocimiento adquirido de todo el máster. El proyecto se estructura en varios capítulos, comenzando con un análisis histórico del valor del oro y su relevancia en el contexto económico actual. En la fase de recopilación de datos, se examinan diversos indicadores fundamentales como la oferta y demanda, políticas monetarias y factores geopolíticos, así como indicadores técnicos como la media móvil, el RSI, y el MACD. Estos datos se descargan y organizan para su análisis posterior, mediante procesos ETL. También se tiene en cuenta el estado del arte actual, que se divide en dos vertientes, por un lado, la explicación de cómo se utilizan algoritmos de aprendizaje automático en los indicadores más adecuados, y por otro, las soluciones completas de software que existen al respecto, tanto dirigidas al público final, como a grandes inversores e instituciones El siguiente paso es la construcción de un modelo sencillo de regresión lineal utilizando datos históricos del oro obtenidos del Nasdaq. Se evalúan las variables explicativas y se prueba la eficacia del modelo para predecir el precio del oro del día siguiente. A pesar de sus limitaciones, este modelo proporciona una base para comparaciones posteriores. Posteriormente, se implementa un modelo avanzado utilizando Redes Neuronales LSTM, que permite capturar patrones más complejos en los datos. El proceso ETL (Extract, Transform, Load) se describe en detalle, y se realiza una fusión de varios conjuntos de datos para construir un dataset completo. Los resultados de este modelo se comparan con los obtenidos mediante regresión lineal, destacando las mejoras y la precisión alcanzada. Finalmente, se presentan las conclusiones del estudio, resaltando las limitaciones encontradas y las posibles mejoras futuras.Publicación Análisis y estudio de actividad e interacción de usuarios en la plataforma Ágora de la UNED e implementación de un sistema que realice y plasme visualmente dicho análisis(2024-06) García Mateos, Rubén; Rodrigo Yuste, Álvaro; Rodríguez Anaya, AntonioEn el siguiente trabajo se realizará el análisis y estudio de las interacciones de los usuarios en el foro de las asignaturas “Minería de datos en educación y modelado del estudiante” y “Sistemas interactivos de enseñanza/aprendizaje”, que están presentes en la plataforma Ágora de la UNED. Por otro lado, se realizará la implementación de una herramienta que permita plasmar, visualizar y analizar dicho estudio previo por parte del equipo docente. Para ello, se utilizarán técnicas de aprendizaje automático, análisis de redes sociales y minería de textos. Para la implementación de la herramienta se hará bajo el lenguaje de programación Python y sus respectivas librerías más comunes de Machine learning como son Scikit learn, Pandas, Numpy, Matplotlib…etc. En el análisis realizado a las diferentes asignaturas, se ha podido comprobar que en ellas siempre hay un representante o nodo influyente por el que circula gran parte de la información relevante, además de coincidencias en grupos similares como son alumnos muy activos, semiactivos e inactivos cuando se aplican las técnicas de agrupamiento. Los alumnos semiactivos son aquellos que se centran en la lectura de los foros y la navegación por la plataforma, pero no en la interacción directa con el resto. En los grafos visualizados, la mayoría de los nodos están bien conectados y presentan una buena actividad en la red. Como conclusión general podemos indicar que gran parte de los usuarios de la plataforma interactúan de forma activa al principio del curso y se presenta una atención especial a los mensajes relacionados con la evaluación y prácticas de las asignaturas. Gran parte de los usuarios responde a las presentaciones, y a medida que avanza el curso virtual, se van alejando las interacciones y mensajes enviados a la plataforma.Publicación Analysing the Use of ChatGPT in Research Articles(Universidad de Educación a Distancia (UNED), 2024-06) Picazo Sanchez, Pablo; Peñas Padilla, AnselmoLos Modelos de Lenguaje Grandes (LLMs, por sus siglas en inglés) son un tipo de Machine Learning (ML) que maneja una amplia gama de escenarios de Procesamiento de Lenguaje Natural (NLP, por sus siglas en inglés). Recientemente, en diciembre de 2022, una empresa llamada OpenAI lanzó ChatGPT, una herramienta que, en pocos meses, se convirtió en el ejemplo más representativo del uso de los LLMs, generando automáticamente textos únicos y coherentes sobre muchos temas, resumiéndolos, reescribiéndolos e incluso traduciéndolos a otros idiomas. ChatGPT generó cierta controversia en el ámbito académico, ya que los estudiantes pueden generar textos automáticamente e únicos, siendo a veces extremadamente difícil distinguir si provienen de ChatGPT o de una persona. En la investigación, algunas revistas específicamente prohibieron el uso de ChatGPT en trabajos científicos. Sin embargo, cuando se usa correctamente, se convierte en una herramienta poderosa para reescribir, por ejemplo, trabajos científicos y, así, transmitir mensajes e investigaciones complejas de una manera más sencilla y accesible para todo el público. En este documento, presentamos el resultado de un estudio empírico acerca del impacto de ChatGPT a la hora de escribir artículos de investigación. Para ello, descargamos el resumen de más de 45,000 artículos de investigación de más de 300 revistas desde diciembre de 2022 hasta febrero de 2023 pertenecientes a diferentes editoriales. Tras esto, utilizamos cuatro de las herramientas de detección de ChatGPT más conocidas y concluimos que ChatGPT estuvo involucrado en la escritura de alrededor del 10% de los trabajos publicados en cada editorial, lo que demuestra que los autores de diferentes campos han adoptado rápidamente dicha herramienta en su proceso de escritura.Publicación Aplicación del machine learning en la detección de intrusiones para ciberseguridad(Universidad Nacional de Educación a Distancia (UNED). E.T.S. de Ingeniería Informática. Departamento de Sistemas de Comunicación y Control, 2024-12) Moreno Ruiz, José; Robles Gómez, Antonio; Tobarra Abad, María de los LlanosEste proyecto de investigación se centra en los desafíos que han surgido con el avance de la tecnología y las implicaciones que esto tiene para la ciberseguridad. A medida que las amenazas evolucionan y se vuelven más sofisticadas, los sistemas de detección tradicionales, como los antivirus, se han vuelto inadecuados, ya que las tecnologías tradicionales de detección no son efectivas para identificar estas amenazas emergentes. En respuesta a esto, el presente trabajo propone el uso de algoritmos de machine learning para mejorar la detección de dichas amenazas, empleando técnicas que permitan anticipar la naturaleza de los archivos y enfrentar de manera más efectiva las amenazas actuales y futuras. En este trabajo se van a implementar diferentes algoritmos de machine learning de filosofías diferentes, optimizándolos de tal forma que sean capaces de predecir la posible naturaleza del tráfico de una red. Para que estos algoritmos funcionen, necesitan nutrirse de datos preexistentes que les ayuden a predecir nuevas intrusiones. Existen varias bases de datos con cientos de miles de registros que sirven para entrenar a estos modelos. Una de estas bases de datos se usará para el entrenamiento de estos algoritmos. Después, se compararán los resultados obtenidos de cada modelo, comparándolos entre sí para encontrar cual de ellos es el más eficaz a la hora de detectar intrusiones.Publicación Aplicación para la asignación, gestión y optimización de guardias médicas(Universidad de Educación a Distancia (UNED), 2024-10) Domínguez de la Torre González, Bárbara; Aranda Escolástico, Ernesto; Bernaldo de Quirós Fernández, MercedesActualmente, existen algunos puestos de trabajo que requieren la realización de guardias fuera del horario laboral normal. Estas guardias pueden ser solo unas horas, por ejemplo hasta las 20.00, hasta el día siguiente, es decir, tras la jornada laboral normal, se realiza una guardia hasta que se inicie la jornada laboral del día siguiente, o de todo el día, por ejemplo un fin de semana en el que no se preste servicio durante el horario laboral habitual. Además del tiempo que dure la guardia, también hay distintos tipos dependiendo de su ejecución. Puede ser una guardia de disponibilidad, esto implica que la persona de guardia debe estar disponible y contactable por si ocurre una emergencia, en otras palabras, por si es necesaria su actuación. En estos casos, el usuario puede hacer más o menos una vida normal, pero debe estar preparado por si le necesitan, ya que suele ser condición del servicio que el trabajador responda en un tiempo determinado, que pueden ser 30 minutos, una hora, o el tiempo que se haya acordado. Con el teletrabajo, algunas guardias, especialmente las de disponibilidad, han modificado su ejecución. Actualmente puede que en ningún momento se necesite la presencia del trabajador en el puesto de trabajo, de tal forma que el trabajador deba actuar de forma remota. En este tipo de guardias se suele acordar un precio/hora por la disponibilidad, es decir, porque el trabajador este pendiente del teléfono por si surge una llamada, y otro precio/hora por la actuación. Además, en busca de un buen uso de este servicio, puede incluso acordarse que el precio por intervención incremente en función del número de intervenciones en un mismo periodo de guardia. Por otro lado, puede ser una guardia presencial, esto es que durante el tiempo que dure la guardia, el trabajador debe estar presencialmente en su puesto de trabajo. En estos casos, se suele acordar un precio/hora por el servicio prestado, sin importar si se produce alguna actuación. La realización de guardias prolongada en el tiempo puede suponer un riesgo para la salud del trabajador, puede padecer enfermedades cardiovasculares, gástricas o mentales, entre muchas otras. Además, también supone un problema para su vida social, ya que sus horarios laborales suelen coincidir con las horas de sueño de la mayoría de personas, y sus horarios de sueño con los horarios de ocio de la gente que les rodea. Además, la repartición de guardias puede suponer también un problema entre los trabajadores pudiendo llegar a crear un mal ambiente laboral. A la hora de crear un calendario de guardias se debe intentar ser lo más justo posibles, dividiendo equitativamente los festivos del año y los fines de semana, del mismo modo se debe tratar que cada trabajador tenga asignado aproximadamente el mismo número de guardias. Obviamente, esto es complicado debido a múltiples factores. El primero es que puede que no haya festivos suficientes para que todos hagan el mismo número, lo mismo puede pasar con los fines de semana. Además, puede darse el caso de que existan requisitos para asignar o no a un usuario un día determinado de guarida, esto se conoce como “reglas” su uso y creación será una parte importante de investigación en este proyecto. Si esto no fuera ya suficientemente complejo, se dan casuísticas inesperadas, como bajas laborales, que pueden complicar aún más este complicado puzle. Conseguir llegar a una asignación justa, que cumpla todas las reglas, es un gran reto que a día de hoy se hace de forma manual y que implica mucho tiempo para los encargados de su realización. Proporcionar una ayuda que aligere esta carga es un reto aún mayor y que se busca conseguir con la realización de este proyecto.Publicación Aplicación para la gestión de eventos(Universidad de Educación a Distancia (UNED), 2024-10) Sevilla Romero, Alejandro; Aranda Escolástico, ErnestoEste trabajo de fin de máster se centra en el desarrollo de una aplicación web para la gestión de eventos, priorizando la asignación de turnos en cada uno de ellos a los artistas a través de un algoritmo de programación lineal. El proyecto aborda tanto el desarrollo del frontend como del backend, integrando tecnologías como HTML, CSS, JavaScript, y Python para garantizar una solución completa y eficiente. Además, se ha implementado un sistema de base de datos relacional utilizando PostgreSQL, donde se almacenan todos los datos relevantes de los eventos y preferencias de los usuarios.Publicación Bayesian Inference on the Pleiades Open Cluster(Universidad de Educación a Distancia (UNED), 2023-09) Palmero Moya, Francisco José; Olivares Romero, Javier; Sarro Baro, Luis ManuelContext: Age is one of the fundamental parameters of any astrophysical object, being it a galaxy, a star, or a planet. The main three stellar dating techniques in astrophysics are dynamical ages, isochrone ages, and the chemical abundance of the Lithium isotopes. However, these methods produce ages that differ by up to 50 % for stars younger than the Sun. The main culprit for these differences is the lack of a consistent and robust age calibration due to the fact that the only sufficiently precise age available is that of the Sun. Aims: Our aim is to define and implement a Bayesian hierarchical model able to determine the ages of star clusters and associations through two age dating techniques: isochrones and Lithium abundance. Methods: The resulting model combines existent photometric, parallax, and chemical abundance of Lithium data sets of stars belonging to stellar open clusters to infer its age distribution through modern and robust artificial intelligence methods. A Neural Network is trained given a grid of pre-calculated BT-Settl models to interpolate the spectral energy distributions of stars, working as a black-box interpolator in the model. The Bayesian hierarchical model not only facilitates simultaneous inference of star-level parameters but also offers an elegant framework for effectively pooling open cluster information and propagating uncertainty. Markov Chain Monte Carlo techniques allow us to sample the posterior distribution using the Hamiltonian Monte Carlo algorithm. Results: Our model’s robust performance on a synthetic dataset with known parameters, coupled with its successful age estimation of the Pleiades Open Cluster (116.8 ± 1.9 Myr), represents a significant advancement in the field by overcoming key challenges that have hindered previous attempts mixing artifical intelligence paradigms. The resulting model signifies a new methodology for age estimation that can be applied to a wide range of open clusters, with the Pleiades serving as the initial test benchmark.Publicación Clasificación de niveles de experiencia de Aikido mediante segmentación de series temporales y algoritmos de aprendizaje supervisado(Universidad Nacional de Educación a Distancia (UNED). E.T.S. de Ingeniería Informática. Departamento de Inteligencia Artificial, 2025-02) Mazzuka Cassani, Stefano; Santos, Olga C.; Portaz Collado, Miguel ÁngelEl presente Trabajo Fin de Máster se centra en la clasificación del nivel de experiencia en Aikido mediante la segmentación de series temporales y el uso de algoritmos de aprendizaje supervisado. Para ello, se han empleado datos inerciales capturados a través de sensores, con el objetivo de evaluar la calidad de los movimientos realizados por los practicantes. En este estudio se ha desarrollado un sistema de clasificación supervisado que permite distinguir entre tres niveles de destreza (bajo, medio y alto), ampliando el enfoque previo que diferenciaba únicamente entre principiantes y expertos. La segmentación de las series temporales en fases específicas de los movimientos ha permitido un análisis más detallado del desempeño de los participantes, favoreciendo la detección de patrones diferenciadores en cada nivel de experiencia. Para ello, se han utilizado tres técnicas principales de aprendizaje supervisado: Regresión con Procesos Gaussianos (GPR), que permite manejar la incertidumbre en los datos. Redes Convolucionales Temporales (TCN), utilizadas para la clasificación de secuencias de datos inerciales. Gradient Boosted Decision Trees (GBDT), que optimizan la clasificación a través de un conjunto de árboles de decisión.Publicación A Comparative Study of Three Supervised Federated Learning Methods for Breast Cancer Classification(Universidad de Educación a Distancia (UNED), 2023-09-12) Bernués García, Jorge; Rincón Zamorano, Mariano; Cuadra Troncoso, José ManuelFederated learning is a machine learning approach that allows deep learning models to be trained on local servers and aggregated on a global server by uploading the parameters and keeping all data on the local servers. Federated-Averaging, which is the earliest and most popular federated learning algorithm, is compared with new alternatives that add improvements, Federated Dynamic-regularization and Federated- Ensemble. In this work, a comparison between these three supervised algorithms has been performed in a breast cancer classification problem using ultrasound images. Usually, medical organizations are unwilling to share their data with external servers due to data privacy constraints and, furthermore, due to the lack of data from each institution, usually more than one institution has to be involved in the training process. Therefore, this is a perfect field where federated learning can be applied. In this comparison, the performance of these methods have been analyzed at both global server and client level, so it has been possible to carry out an assessment of the impact of the number of clients and the amount of data used by each client on each algorithm. It has been observed that the new FedENS algorithm yields to higher accuracy at global level, more stable results at client level and is less affected by client distribution. Keywords— Ensemble, Federated Learning, Deep Learning, Breast cancer classification, FedENSPublicación Creación de una herramienta para identificar y agrupar afinidades mediante la inteligencia artificial en los Mass Media(Universidad Nacional de Educación a Distancia (UNED). E.T.S. de Ingeniería Informática. Departamento de Inteligencia Artificial, 2025) Cuevas Márquez, Francisco Manuel; Rodríguez Anaya, Antonio; Cabrera Lara, Francisco ElíasEn la era de la información, entender la orientación política de los medios de comunicación se ha vuelto crucial para los consumidores de noticias. La polarización mediática y la proliferación de fuentes de información presenta un panorama complejo en el que resulta desafiante discernir los sesgos en la cobertura de las noticias. Existen herramientas comerciales que proveen información sobre el alineamiento político de los medios de comunicación masivos, y que permiten comparar cómo se tratan las noticias en las distintas posiciones del espectro de alineación política. Sin embargo, el posicionamiento de cada medio de comunicación dentro del espectro sigue siendo una tarea manual, lo que aumenta el riesgo de incluir sesgos en la valoración. Por otra parte, la actualidad de las noticias y el discurso de los mass media evoluciona con el tiempo, lo que aumenta la complejidad de identificar objetivamente la alineación política de cada medio. Además, el tratar el alineamiento político como un simple eje izquierda-derecha no tiene en cuenta las múltiples facetas de los medios. Varios medios pueden estar de acuerdo en algunas dimensiones políticas, pero discrepar en la visión general, de manera que para ser precisos debemos analizar los intereses de los medios desde un punto de vista multidimensional. En este trabajo se propone una nueva herramienta de análisis de medios de comunicación, que permite realizar un agrupamiento de noticias publicadas por distintos medios mediante técnicas que combinan inteligencia artificial y PLN (Procesamiento del Lenguaje Natural). La herramienta propuesta permite agrupar conjuntos de noticias similares utilizando métodos de aprendizaje no supervisado (clustering) en combinación con modelos de lenguaje natural para facilitar la comprensión de dichas agrupaciones. La herramienta propuesta ha sido aplicada sobre un grupo seleccionado de medios de comunicación masivos de ámbito nacional en España.Publicación Desarrollo de una librería para la obtención masiva de imágenes Sentinel y su aplicación en la detección de incendios con Deep Learning(Universidad de Educación a Distancia (UNED), 2024-09) García Flores, María Beatriz; Pastor Vargas, Rafael; Haut Hurtado, Juan MarioEste Trabajo Fin de Máster presenta el desarrollo de un modelo predictivo para la detección de incendios forestales utilizando técnicas de aprendizaje profundo (Deep Learning) aplicadas a imágenes multiespectrales del satélite Sentinel-2 y datos de incendios activos proporcionados por el sistema FIRMS (Fire Information for Resource Management System). Dada la creciente amenaza que representan los incendios forestales para los ecosistemas y las zonas habitadas, este proyecto busca facilitar una intervención temprana y mejorar la gestión eficiente de incendios mediante la integración de imágenes satelitales y análisis avanzado. El proceso incluye el preprocesamiento de imágenes multiespectrales y la generación de etiquetas de referencia utilizando el índice de Pierre Markuse, especializado en la identificación de áreas quemadas. Se implementaron modelos de segmentación semántica, como U-Net y SegNet, entrenados para identificar áreas afectadas por incendios. Estos modelos capturaron características clave de las imágenes, mejorando la precisión de la segmentación. Se utilizaron encoders como MobileNetV3 y EfficientNetV2 para extraer características complejas. Los resultados destacan la importancia de las bandas NIR y SWIR, que permiten identificar áreas con estrés hídrico o cambios en la vegetación, factores que influyen en la propagación de incendios. La combinación de teledetección satelital y Deep Learning proporciona un marco sólido para la detección temprana de incendios, mejorando las capacidades de respuesta y mitigación. Este trabajo también identifica algunas limitaciones, como el alto coste computacional en el procesamiento de grandes volúmenes de datos y la necesidad de optimizar los modelos. Para futuras investigaciones, se sugiere la inclusión de datos meteorológicos para mejorar la precisión y el rendimiento predictivo.Publicación Detección de autoría en redes sociales(Universidad de Educación a Distancia (UNED), 2024) Macanás Valera, Joaquín; Rodrigo Yuste, Álvaro; Pérez García-Plaza, AlbertoPublicación Estudio del orden de composición en el marco teórico ICDS: propuesta de orden para oraciones simples(Universidad de Educación a Distancia (UNED), 2024-06) Vázquez García, Carmen; Fresno Fernández, Víctor DiegoEn el ámbito del procesamiento del lenguaje natural (PLN), la representación del significado textual es un problema fundamental que implica codificar el lenguaje natural de manera que pueda ser manejado eficazmente por los sistemas de gestión de información. Esta investigación presenta una exploración integral de la semántica distribucional composicional basada en la teoría de la información (ICDS), un marco que tiene como objetivo integrar los principios de la hipótesis distribucional y el principio de composicionalidad. El objetivo es cerrar la brecha entre el espacio de representación y la teoría de la información, proporcionando restricciones formales para las funciones de embedding, composición y similitud. Este trabajo plantea la incorporación del orden sintáctico en las representaciones semánticas dentro del marco ICDS. Esto se debe a que en este marco ya se ha expuesto que el orden influye en la representación semántica, por lo que se ha planteado una propuesta de orden basada en el orden sintáctico. A través de una revisión del estado del arte dentro del marco ICDS, pero desde una perspectiva lingüística, se ha planteado que el orden y la estructura inherentes en los elementos lingüísticos podrían influir significativamente en la representación semántica. Inicialmente, esta investigación se centra en oraciones simples para establecer un enfoque fundamental de representación semántica. Sin embargo, también se plantea la posibilidad de extender el marco para incluir oraciones subordinadas, que funcionan como sustantivos, adjetivos o adverbios dentro de las oraciones principales. Cada oración subordinada posee su propia estructura interna e interactúa jerárquicamente con la oración principal, por lo que el enfoque es extrapolable a otro tipo de oraciones más complejas. El propuesto basado en el orden enfatiza la importancia de la estructuración sintáctica en la mejora de la coherencia semántica. Al basar el método en cómo se codifican y representan los elementos lingüísticos, se busca desarrollar un modelo que capture las complejas relaciones dentro y entre las oraciones. Este enfoque no solo se alinea con la teoría lingüística, sino que también aborda los desafíos prácticos en el PLN. Los hallazgos de esta investigación destacan la naturaleza esencial del orden sintáctico en la representación semántica y proponen una metodología estructurada para integrar estos elementos dentro del marco ICDS.Publicación Evaluación Comparativa de las Arquitecturas Mamba y Transformers(Universidad de Educación a Distancia (UNED), 2024-09) Trujillo Trujillo, Iván; Pastor Vargas, Rafael; Cuadra Troncoso, José ManuelEste trabajo se enfoca en el estudio comparativo de las arquitecturas de redes neuronales basadas en Transformers, ampliamente utilizadas en la actualidad, y una nueva propuesta denominada Mamba, la cual promete mejorar las capacidades de las arquitecturas tradicionales. El objetivo es evaluar el rendimiento de Mamba en dos áreas principales: la clasificación de texto, específicamente en tuits sobre desastres naturales, y el aprendizaje por refuerzo en juegos de Atari. Se plantea una comparación teórica y práctica de las dos arquitecturas, analizando sus ventajas y desventajas, con el objetivo de determinar su viabilidad y utilidad en aplicaciones reales. Los experimentos llevados a cabo para evaluar Mamba en la tarea de clasificación de texto muestran que los modelos preentrenados disponibles actualmente carecen de la compresión de texto suficiente para rivalizar con modelos como GPT-3.5 o Llama-3. En el ámbito del aprendizaje por refuerzo, Mamba ha mostrado resultados prometedores, aunque todavía se encuentra por detrás de otras arquitecturas consolidadas. Aunque Mamba es una propuesta innovadora, aún requiere de más investigación y refinamiento para igualar o superar a las arquitecturas Transformer en tareas específicas.Publicación Evaluación del rendimiento de algoritmos sobre frameworks Hadoop y Spark(Universidad de Educación a Distancia (UNED), 2024-09) Cañada Rostro, Carlos; Pastor Vargas, Rafael; Haut Hurtado, Juan MarioBig Data e inteligencia artificial son conceptos que están a la orden del día en la actualidad, pero cómo funcionan internamente es una incógnita para la mayoría de la sociedad, por ello en este documento se busca esclarecer dichos términos y como consecuencia entender y evaluar distintas metodologías que llevan a su utilización. Para ello, se cuenta con frameworks como Apache Hadoop o Apache Spark, los cuales brindan la posibilidad de procesar grandes cantidades de datos distribuyéndolos en diferentes máquinas para su procesamiento. Como parte del análisis, se comparará la eficiencia de ambos frameworks, no solo en términos de tiempo de ejecución, sino también en el uso de recursos como CPU, memoria y red, proporcionando una evaluación más exhaustiva de su rendimiento en un entorno distribuido. Como caso práctico en este trabajo, se utilizarán datos de imágenes por satélite, las cuales pueden alcanzar un tamaño considerable haciendo imposible siquiera su apertura en una configuración local, mucho menos su procesamiento. Estas imágenes, a diferencia de las que son utilizadas continuamente cuentan con más de tres bandas de color (RGB), es decir, son multibanda o multiespectrales, permitiendo realizar una serie de cálculos sobre ellas realmente útiles en el ámbito de la teledetección. Además, los resultados obtenidos tras el procesamiento de estas imágenes podrán ser visualizados y empleados para la toma de decisiones en áreas como la agricultura de precisión o el monitoreo ambiental, subrayando el valor práctico de la información extraída. La metodología a seguir será el desarrollo y puesta en marcha de una infraestructura capaz de cargar ingentes cantidades de datos, distribuirlos en un clúster compuesto por varias máquinas, realizar el cálculo pertinente de manera distribuida y recuperar el resultado final. Además de probar y evaluar los dos frameworks mencionados anteriormente, se utilizarán herramientas y plataformas extra como Apache Hive y Amazon Web Services, proporcionando un entorno robusto y escalable para manejar grandes volúmenes de datos.Publicación Exploración de patrones en series temporales de datos inerciales usando técnicas de segmentación no supervisada(Universidad Nacional de Educación a Distancia (UNED). E.T.S. de Ingeniería Informática. Departamento de Inteligencia Artificial, 2025-02) Ventura Farias, Irene Josefina; Santos, Olga C.; Portaz Collado, Miguel ÁngelEste Trabajo de Fin de Máster (TFM) explora la aplicación de técnicas de segmentación no supervisada a series temporales de datos inerciales para el análisis de habilidades motoras en Aikido. El TFM se basa en investigaciones previas que emplearon métodos supervisados, buscando validar estos resultados con un enfoque exploratorio. El objetivo principal es identificar patrones y estructuras subyacentes en los datos sin necesidad de etiquetas predefinidas, diferenciándose de enfoques supervisados anteriores. La investigación busca validar si la segmentación no supervisada puede identificar segmentos significativos en series temporales de datos inerciales. Se analizan dos datasets: uno de golpes con espada (Bokken) (D1) y otro de desplazamientos de rodillas (Shikko) (D2). Se realiza una extracción de características tanto de los datos de los participantes, como las series temporales, con el fin de homogeneizar la información, utilizando descriptores estadísticos, temporales y espectrales, y se seleccionan las más relevantes con el modelo LASSO. Para ello se emplean datos de sensores inerciales, específicamente acelerómetros y giroscopios, para capturar movimientos tridimensionales. Los datos provienen de estudios previos de Portaz y Corbí, quienes utilizaron técnicas de clasificación supervisada. En este TFM, se implementan algoritmos como K-Means y K-Medoids. Estos algoritmos se seleccionaron por su capacidad para identificar transiciones y patrones en los datos sin etiquetas. El análisis compara los resultados de los algoritmos no supervisados con segmentaciones manuales y enfoques supervisados, para validar la efectividad de cada método en la clasificación de niveles de experiencia en Aikido, buscando validar y enriquecer estos resultados. Finalmente, se discuten las limitaciones y se proponen futuras líneas de investigación.Publicación From Web to RheumaLpack: Creating a Linguistic Corpus for Exploitation and Knowledge Discovery in Rheumatology(Universidad de Educación a Distancia (UNED), 2024) Madrid García, Alfredo; Peñas Padilla, Anselmo; Rodríguez González, AlejandroEste trabajo de fin de máster presenta RheumaLinguisticpack (RheumaLpack ), el primer corpus web lingüístico especializado y diseñado específicamente para el campo de la patología reumática y musculoesquelética. Al combinar técnicas de minería web (e.g., web scraping), de procesamiento de lenguaje natural (PLN), así como experiencia clínica; RheumaLpack recoge datos estructurados y no estructurados de distintas fuentes web, como plataformas de medios sociales (Reddit), bases de datos bibliográficas (PubMed), registros de ensayos clínicos (ClinicalTrials.gov), y prospectos de medicamentos de agencias médicas (CIMA, EMA), y de plataformas médicas acreditadas (MedlinePlus). Por lo tanto, RheumaLpack ofrece un conjunto de datos útil para i) el entrenamiento de algoritmos de inteligencia artificial (IA) y el desarrollo de soluciones de PLN; y para ii) el descubrimiento de conocimiento y la investigación en el contexto de las enfermedades reumáticas y musculoesqueléticas (ERMs). La motivación de este trabajo se basa en el reconocimiento de la gran cantidad de datos disponibles en la web, que, si se aprovechan adecuadamente, pueden proporcionar información muy valiosa en dominios específicos como las ERMs. Estas enfermedades, que constituyen la principal causa de discapacidad en todo el mundo, se caracterizan por su complejidad y por las diversas repercusiones que tienen en la vida de los pacientes. Por ello, disponer de herramientas de IA y promover la investigación con estas técnicas puede ayudar a minimizar el impacto de las enfermedades musculoesqueléticas en la calidad de vida de los pacientes. Para construir RheumaLpack, se aplica una metodología de seis pasos: identificación de la fuente de datos; caracterización de la fuente de datos; selección de datos; recopilación de datos, selección de características, preprocesamiento y convención de nomenclatura; procesamiento de datos; y construcción y descripción del corpus. Después de aplicar esta metodología, se crea un corpus no anotado, multilingüe (español/inglés) y dinámico (ya que está previsto añadir más datos) compuesto por casi 3 millones de registros, y con información comprendida entre los años 2000 y 2023. Para demostrar la utilidad de este nuevo recurso lingüístico, se muestra un caso de uso en el que se pretende ilustrar cómo utilizando RheumaLpack y aplicando novedosas técnicas de modelado de temas, BERTopic, basadas en transformadores, se puede caracterizar la evolución de los temas de investigación a lo largo de los años en las ERMs. En resumen, RheumaLpack constituye un esfuerzo pionero que busca conectar la amplia información disponible en Internet con las necesidades específicas de investigación en reumatología. Mediante la creación de este recurso lingüístico, se allana el camino para el desarrollo de herramientas y aplicaciones innovadoras de IA que puedan mejorar la atención al paciente y los resultados en esta área de la medicina. El código y los detalles sobre cómo construir RheumaLpack también se proporcionan, con el objetivo de facilitar la difusión de este recurso.Publicación Gallinero IoT. Aplicación de la tecnología de redes LoRaWAN en el desarrollo de un sistema de ayuda a la selección de gallinas ponedoras(Universidad de Educación a Distancia (UNED), 2024-10) Finistrosa Nieto, Roberto; Mañoso Hierro, María Carolina; Pérez de Madrid y Pablo, ÁngelEl proyecto Gallinero IoT presentado en este documento es una innovadora iniciativa destinada a modernizar y optimizar el proceso de selección de gallinas ponedoras en avicultura ecológica mediante el uso de tecnologías avanzadas de Internet de las Cosas y redes LoRaWAN. El objetivo es identificar y monitorear de manera automática y precisa qué gallina utiliza cada ponedero, para mejorar la eficiencia en la producción de huevos y analizar el bienestar animal. Para el desarrollo del proyecto, se han utilizado varios componentes tecnológicos, integrados de forma que componen un sistema: • Lectores NFC: Colocados en los ponederos y en las gallinas para la identificación automática. • Sensores de Temperatura y Humedad: Utilizados para monitorear las condiciones ambientales dentro del gallinero. • Controladores ESP32 y Arduino: Actúan como nodos para recopilar y transmitir datos de los sensores. • Tecnología LoRaWAN: Proporciona una comunicación inalámbrica de largo alcance y bajo consumo, adecuada en zonas rurales. • Aplicaciones WEB, móvil y mensajería: Utilizadas para proporcionar información al usuario. • Análisis de datos: Se han elaborado ejemplos de valor añadido con los datos obtenidos de forma simulada. La forma en la que opera el sistema es colocando etiquetas NFC (tags) en las gallinas que son leídas por sensores ubicados en los ponederos. Los datos recopilados se envían a través de la red LoRaWAN a una plataforma centralizada donde se almacenan y analizan. Utilizando herramientas de visualización, los usuarios pueden monitorear en tiempo real el uso de los ponederos, identificar patrones de comportamiento y detectar posibles problemas de salud o producción, sin perder de vista la selección de las gallinas ponedoras, que el objetivo principal.Publicación Impacto de las calificaciones ESG en el rendimiento financiero de empresas turísticas cotizadas(Universidad de Educación a Distancia (UNED), 2024-09) Maestro Prieto, Jose Alberto; Pérez Martín, Jorge; Pra Martos, Inmaculada; Arguedas Sanz, RaquelEl presente trabajo explora la posible existencia de una relación entre el rendimiento financiero de empresas cotizadas en países desarrollados del sector de turismo con la calificación ESG Environmental, Social & Governance) que obtienen estas empresas. El trabajo comienza con una revisión bibliográfica sobre este sector en concreto y de los resultados que se han ido obteniendo cuando se ha tratado de identificar la existencia de esta relación. A partir de esta revisión se ve que hay una gran disparidad de criterios, metodologías que conducen a resultados no concluyentes y que se pueden alcanzar distintas conclusiones, incluyendo que no hay relación, que hay relación lineal positiva, negativa, que la relación es en forma de U o en forma de U invertida. Se ha elegido un modelo sencillo para empresas cotizadas de Noruega, planteado en una de las publicaciones revisadas y se ha intentado replicar sus resultados. Este estudio se planteaba la existencia de una relación con forma de U entre el rendimiento financiero de las empresas y la calificación ESG. Los resultados que se han obtenido con los datos de las empresas de Noruega han sido parciales, y se han explorado otro tipo de modelos, con datos de empresas del sector de turismo en distintos países. Hay dos suposiciones subyacentes en esta elección: (1) el sector de turismo tiene determinadas particularidades que lo diferencian de otros sectores y por tanto, tiene sentido su estudio por separado; y (2) el desarrollo económico de los países en los que se radican las empresas y la actividad turística influye en los posibles resultados. Se han probado distintos tipos de regresiones lineales, dos redes neuronales recurrentes (RNN) y otros métodos y técnicas de IA, en con tres conjuntos de datos distintos: empresas turísticas de Europa, de América del norte (Estados Unidos y Canadá) y de los países del G7 (Alemania, Italia, Francia, Reino Unido, Estados Unidos, Canadá y Japón). Los resultados obtenidos son similares para los tres conjuntos de datos: no parece haber una relación clara entre la calificación ESG, que tiene tendencia ascendente con el tiempo, y el rendimiento financiero de las distintas empresas. Pero, se ha visto que en general, los modelos obtenidos, ajustan bastante mal el conjunto de datos. Los modelos que obtienen mejor ajuste son los que utilizan métodos y técnicas de IA, pero solo cuando se modelan algunas relaciones, en concreto, cuando se obtiene un modelo para la variable TobinQ.