TFM, TFG y otros trabajos académicos
URI permanente para esta comunidad
Examinar
Examinando TFM, TFG y otros trabajos académicos por Centro "Facultades y escuelas::E.T.S. de Ingeniería Informática"
Mostrando 1 - 20 de 309
Resultados por página
Opciones de ordenación
Publicación A Bayesian Graphical Model for Frequency Recovery of Periodic Variable Stars(Universidad Nacional de Educación a Distancia (España). Escuela Técnica Superior de Ingeniería Informática. Departamento de Inteligencia Artificial., 2014-02-27) Delgado-Ureña Poirier, Héctor; Sarro Baro, Luis ManuelThis thesis has been developed in the context of the recently launched European Space Agency’s Gaia mission. The thesis has addressed the problem of determining the probability distributions of the real physical parameters for a variable star population, given their recovered values by the Data Processing and Analysis Consortium (DPAC) from the telemetry of the satellite. These recovered values are affected by a number of stochastic errors and systematic biases due to the aliasing phenomenon as a product of the Gaia scanning law, the optical and photometric resolution of the satellite and the algorithms used in the recovery process. The purpose of the thesis has been to model the data recovery process and infer the real distributions for the frequencies, apparent Gmagnitudes and amplitudes for a Large Magellanic Cloud (LMC) classic Cepheid star population. A two level Bayesian graphical model was constructed with the aid of a domain expert to model the recovery process and a Markov chain Monte Carlo (MCMC) algorithm specified to perform the inference. The system was implemented in the declarative BUGS language. The system was trained from a set of recovered data from an artificially generated real distribution of LMC Cepheids. The system was tested by comparing the parameters of the artificially generated real distributions with the distributions inferred by the MCMC algorithm. The results obtained have shown that the system remove successfully the systematic biases and is able to infer correctly the real frequency distribution. The results have also shown a correct inference for the real apparent magnitudes in the G band. Nevertheless, the results obtained for the case of the real amplitude distribution have not allowed to establish significant conclusions.Publicación A Deep Neural Network For Describing Breast Ultrasound Images in Natural Language(Universidad Nacional de Educación a Distancia (España). Escuela Técnica Superior de Ingeniería Informática. Departamento de Inteligencia Artificial, 2022-09-01) Carrilero Mardones, Mikel; Nogales Moyano, Alberto; Pérez Martín, Jorge; Díez Vegas, Francisco JavierEl cáncer de mama es el tipo de cáncer más común y la principal causa de mortalidad en la población femenina. Sin embargo, su detección temprana puede incrementar la tasa de supervivencia relativa a cinco años del 29% al 99%. La ecografía es una de las técnicas más utilizadas para el diagnóstico de cáncer de mama, pero es necesario un experto para interpretar sus resultados de forma correcta. Esto no es común en algunos países que no cuentan con un programa de cribado apropiado, suponiendo una bajada de la tasa al 20%. Los diagnósticos asistidos por ordenador (CAD) tratan de ayudar a los médicos en este proceso, mejorando los resultados y ahorrando tiempo. Los expertos en cáncer de mama emplean la clasificación BI-RADS para describir tumores, estimar su malignidad y establecer el tratamiento a seguir. Mientras la mayoría de sistemas CAD se limitan a clasificar imágenes según su malignidad, presentamos un modelo basado en dos sistemas para la detección y descripción en lenguaje BI-RADS de tumores en tiempo real. El primer sistema es un algoritmo de detección basado en YOLO que obtiene una precisión de 0.965, una exhaustividad de 0.95 y un área bajo la curva de precisión-exhaustividad de 0.97. El segundo es un sistema de descripción que recibe el tumor detectado y devuelve, en lenguaje natural, su descripción en BI-RADS y una estimación de su malignidad. Para este sistema hemos realizado tres experimentos en colaboración con una radióloga experta en mama y hemos obtenido unos valores de concordancia con sus diagnósticos que se encuentran entre los valores de intercorrelación e intracorrelación entre expertos que hemos encontrado en la literatura. Además, observamos que entrenar los modelos con los descriptores BI-RADS mejora la clasificación según malignidad y los acerca al razonamiento experto.Publicación A new Spatio-Temporal neural network approach for traffic accident forecasting(Universidad Nacional de Educación a Distancia (España). Escuela Técnica Superior de Ingeniería Informática. Departamento de Inteligencia Artificial., 2019-09-26) Medrano López, Rodrigo de; Aznarte Mellado, José LuisTraffic accidents forecasting represents a major priority for traffic governmental organisms around the world to ensure a decrease in life, property and economic losses. The increasing amounts of traffic accident data have been used to train machine learning predictors, although this is a challenging task due to the relative rareness of accidents, inter-dependencies of traffic accidents both in time and space and high dependency on human behavior. Recently, deep learning techniques have shown significant prediction improvements over traditional models, but some difficulties and open questions remain around their applicability, accuracy and ability to provide practical information. This paper proposes a new spatio-temporal deep learning framework based on a latent model for simultaneously predicting the number of traffic accidents in each neighborhood in Madrid, Spain, over varying training and prediction time horizons.Publicación A novel approach to the placement problem for FPGAs based on genetic algorithms.(Universidad Nacional de Educación a Distancia (España). Escuela Técnica Superior de Ingeniería Informática. Departamento de Inteligencia Artificial, 2017-07-07) Veredas Ramírez, Francisco Javier; Carmona Suárez, Enrique JavierThis Master's thesis investigates the critical path optimization in the FPGA's placement. An initial investigation of the FPGA's placement problem shows that the minimization of the traditional cost function used in the simulated annealing's placement not always produce a minimal critical path. Therefore, it is proposed to use the routing algorithm as a cost function to improve the nal critical path. The experimental results conrm that this new cost function has better quality results than the traditional cost function, at the expenses of longer execution time. A genetic algorithm using the routing algorithm as a cost function is found to reduce the execution time meanwhile is maintained a minimal critical path. The use of genetic algorithms with the new cost function will be useful in those cases where a minimum critical path is needed. Furthermore, this work investigates the use of genetic algorithm using the traditional cost function. In this case, no better critical path in comparison with a simulated annealing's placement is observed.Publicación A Probabilistic Graphical Model for Total Knee Arthroplasty(Universidad Nacional de Educación a Distancia (España). Escuela Técnica Superior de Ingeniería Informática. Departamento de Inteligencia Artificial., 2011-07-13) León Guerra, Diego; Díez Vegas, JavierPublicación A quantum evolutionary approach to solving the team formation problem in social networks(Universidad Nacional de Educación a Distancia (España). Escuela Técnica Superior de Ingeniería Informática. Departamento de Inteligencia Artificial, 2019-09-24) Álvarez Lois, Pedro Pablo; Fernández Galán, SeverinoRecent advances in information and communication technologies have led to the expansion of collaborative work. Complex problems in science, engineering, or business are being solved by teams of people working closely with one another. However, forming teams of experts is a computationally challenging problem that requires powerful solution techniques. A metaheuristic algorithm that incorporates some of the principles of quantum computing into an evolutionary structure is presented. The resulting Quantum Evolutionary Algorithm (QEA) has the ability to produce an adequate balance between intensification and diversification during the search process. Numerical experiments have shown that the QEA is able to significantly improve the quality of the solutions for hard instances of the team formation problem, particularly when compared to a standard genetic algorithm. The successful performance of the algorithm requires careful parameter tuning, as well as a mechanism to effectively share information across the population of candidate solutions.Publicación Agricultura de precisión. Optimización del uso de herbicidas mediante visión artificial(Universidad Nacional de Educación a Distancia (España). Escuela Técnica Superior de Ingeniería Informática. Departamento de Inteligencia Artificial, 2023-03-14) Pina Herce, Luis Enrique; Pastor Vargas, RafaelDurante miles de años, los agricultores han buscado formas de aumentar la producción de alimentos en parcelas. A medida que los equipos y la tecnología han evolucionado, las granjas se han vuelo más grandes y los rendimientos han aumentado. Sin embargo, este desafío continua hoy en día y la versión moderna ha recibido un nombre: Agricultura de precisión. La presente memoria busca estudiar una de las ramas a explotar en la agricultura de precisión, la aplicación de herbicidas, mediante el uso de la visión artificial. El proyecto se centra en investigar un modelo rápido y eficiente para la detección de mala hierba en imágenes. Este modelo es la pieza principal de un sistema que recibe imágenes del suelo en tiempo real, y en función de lo que ve, aplica o no el herbicida sobre el suelo.Publicación Agrupación automática de mensajes de foros(Universidad Nacional de Educación a Distancia (España). Escuela Técnica Superior de Ingeniería Informática., 2024) Priego Wood, MartínLos foros de discusión permiten formular preguntas y obtener respuestas aprovechando la denominada sabiduría de las masas, y se han convertido en herramientas esenciales de cursos en línea, como los de la UNED. Los foros suelen estar divididos en subforos dedicados a temas específicos, pero a menudo los usuarios escriben mensajes en el subforo equivocado, lo que dificulta su visibilidad y puede hacer necesaria una reubicación manual. Para ayudar a prevenir estos errores y aliviar las tareas de mantenimiento, en este trabajo se desarrolla un sistema que agrupa automáticamente foros como los de la UNED y permite medir la similitud semántica entre mensajes. Asimismo, dada una estructura de subforos llena de mensajes y un mensaje nuevo, el sistema es capaz de generar recomendaciones de inserción basadas en similitud. El trabajo incluye una parte investigativa fundamental en la que se lleva a cabo un análisis exploratorio de 7 foros de la UNED y se experimenta con diversas técnicas de procesamiento de lenguaje natural y de aprendizaje no supervisado. Por ejemplo, se ensaya con representaciones vectoriales de documentos de tipo bolsa de palabras así como con otras más modernas, como los embeddings de palabras e incluso de frases. Los mejores resultados se obtienen con versiones ponderadas de la bolsa de palabras y con modelos multilingües de codificación de frases pre-entrenados. En cuanto a la similitud entre mensajes, las métricas coseno y angular producen resultados parecidos, mas la segunda tiene la posible ventaja de ser propiamente una distancia. Por ´ultimo, se prueban los algoritmos de clustering k-medias, aglomerativo y HDBSCAN, que también es jerárquico pero basado en densidad. Los agrupamientos se evalúan usando medidas externas, como la información mutua ajustada, y también internas, como la silueta y el índice de validación basado en densidad. El algoritmo k-medias consigue el mejor alineamiento medio con la estructura de subforos original, pero los otros dos tienen asimismo ventajas, en cuanto a tiempo de ejecución y la información adicional que proporcionan sus jerarquías. El método HDBSCAN destaca por su flexibilidad, robustez y el carácter intuitivo de sus parámetros. El sistema de agrupación desarrollado es capaz de identificar por sí solo grupos que tienen pleno sentido. En ocasiones, dichos grupos son subconjuntos de un subforo original, e incluso pueden ser parientes cercanos de otros subconjuntos del mismo subforo en un agrupamiento jerárquico. Otras veces, los grupos generados son transversales a la estructura original, debido a la presencia de mensajes semejantes, por ejemplo agradecimientos, a través de los subforos. Aun cuando la estructura original resulte difícil de reproducir automáticamente, el ranking de similitud creado por el sistema debería de facilitar la colocación correcta de mensajes nuevos.Publicación An Artificial Intelligence Approach for Generalizability of Cognitive Impairment Recognition in Language(Universidad Nacional de Educación a Distancia (España). Escuela Técnica Superior de Ingeniería Informática. Departamento de Inteligencia Artificial, 2022-02-01) González Machorro, Mónica; Martínez Tomás, RafaelIntroducción: Trastornos en el lenguaje se considera uno de los primeros signos del deterioro cognitivo. Objetivos: Un reto, sin embargo, es la desconexión entre los resultados obtenidos en previas investigaciones y su aplicación en contextos clínicos. Esto se debe, en gran parte, a la falta de estandarización y de datos en este campo. La propuesta de este trabajo es emplear técnicas de inteligencia artificial para abordar este reto: la generalización. Metodología: En este trabajo estudiamos el lenguaje en dos modalidades: el habla, que se refiere a la manifestación acústica del lenguaje y la información lingüística entendida como la gramática. Para la primera modalidad empleamos grabaciones y para la segunda transcripciones de las grabaciones. El conjunto de datos empleado es un subconjunto del Corpus Pitt que contiene pacientes con deterioro cognitivo leve y Alzheimer. Nuestra propuesta incluye explorar métodos de aprendizaje transferido y end-to-end tales como wav2vec, HuBERT, BERT y RoBERTa; aplicar herramientas de ASR para obtener transcripciones automáticas, explorar variables que sean independientes de la lengua y del contenido; analizar la unidad del habla más pequeñas: los fonemas; y por último, evaluar los métodos más prometedores en un conjunto de datos externo. Resultados: Los resultados demostraron que, en el caso de métodos de aprendizaje de transferencia, la modalidad acústica no solo proporciona una solución independiente del contenido lingüístico, sino que también obtiene un mayor rendimiento que aquellos métodos basados en transcripciones producidas mediante herramientas de ASR. Los resultados también demuestran que los métodos de la modalidad lingüística son más robustos que los de la modalidad acústica. Conclusión: Este trabajo destaca la necesidad de una herramienta ASR adecuada para la transcripción de demencia y de explorar el habla espontánea. La mayor aportación es la aplicación exitosa de modelos end-to-end y de aprendizaje transferido en la detección de demencia.Publicación An empirical comparison of Influence Diagrams algorithms(Universidad Nacional de Educación a Distancia (España). Escuela Técnica Superior de Ingeniería Informática. Departamento de Inteligencia Artificial., 2014-09-29) Artaso, Miguel A.; Luque Gallego, Manuel; Díez Vegas, Francisco JavierLos Modelos Gráficos Probabilistas (MGP) son ampliamente usados en diferentes dominios donde hay que tratar con incertidumbre. Se emplean para obtener la máxima utilidad esperada y la política óptima, las mejores decisiones, en diferentes escenarios. Cuando se afrontan problemas de la vida real, el modelo final que los representa puede ser harto complicado. Debido a que no todos los algoritmos de inferencia son igual de eficientes, es importante saber cuál es mejor aplicar dependiendo de las circunstancias. Por lo tanto, es importante comparar la eficiencia de los algoritmos cuando ante diferentes modelos. En este Trabajo fin de máster, comparamos cuatro algoritmos para diagramas de influencia: eliminación de variables, inversión de arcos, árbol de uniones fuerte y conversión a LIMID. Para nuestros experimentos hemos utilizado OpenMarkov2, una herramienta de código abierto desarrollada por el Centro de Investigación sobre Sistemas Inteligentes de Ayuda a la Decisión (CISIAD) de la UNED. El primer algoritmo estaba ya implementado en esta herramienta; los demás han sido implementados por el autor de este trabajo. Además, hemos implementado la generación de diferentes diagramas de influencia, que después han sido utilizados para comparar los citados algoritmos. Después, hemos contrastado el tiempo y la memoria empleados por los algoritmos en la inferencia de estas redes y el análisis de los resultados nos ha llevado a dar algunas recomendaciones sobre qué algoritmo utilizar dependiendo de la estructura del modelo.Publicación Análisis de Conceptos Formales en el área de recomendación. Aplicación experimental basada en RecSys 2019(Universidad Nacional de Educación a Distancia (España). Escuela Técnica Superior de Ingeniería Informática. Departamento de Lenguajes y Sistemas Informáticos, 2023-07-07) Ortega Sánchez, Carlos Ismael; Cigarrán Recuero, Juan ManuelCon el auge de internet y la creciente cantidad de datos disponibles, los sistemas de recomendación se han convertido en una herramienta esencial para ayudar a los usuarios a encontrar información relevante. En particular, la explosión de contenido generado por los usuarios ha aumentado la necesidad de sistemas de recomendación que puedan manejar grandes cantidades de datos y proporcionar recomendaciones personalizadas. En los últimos años, ha surgido una tendencia en la utilización de sistemas basados en Aprendizaje Profundo para abordar una amplia gama de problemas. Si bien estos sistemas han demostrado ser altamente efectivos en diversas tareas, también presentan desafíos en términos de su interpretación y predictibilidad. Esta falta de transparencia y comprensión en los modelos de Aprendizaje Profundo plantea preocupaciones significativas en aplicaciones críticas, como la atención médica, la justicia penal o la toma de decisiones financieras. La opacidad de estos modelos dificulta la confianza y la aceptación de los resultados, lo que puede limitar su utilidad en determinados contextos. Una posible alternativa puede ser la teoría del Análisis de Conceptos Formales (FCA) que permite la organización automática de distintos datos en una estructura llamada retículo con relaciones generalización-especificación. Esta representación revela relaciones ocultas que pueden escapar a la percepción humana y puede ser útil para mejorar la precisión y la interpretación de los sistemas de recomendación. Al proporcionar una representación más entendible y navegable de la información, el enfoque del FCA puede ayudar a los usuarios a comprender mejor las recomendaciones y a confiar en los resultados. El presente trabajo trata de analizar la utilidad del FCA en el contexto de la recomendación basándose en la convención de RecSys 2019. Para ello, primero se ha tenido que explorar la creación del retículo y su estudio. Referente a esto, se proponen distintas aproximaciones de posibles usos que se pueden dar al retículo de conceptos formales generados para así poder realizar una recomendación. Posteriormente se han realizado distintas aproximaciones para la extracción de la información representada en el retículo y así poder usarla en la recomendación. Por ultimo, se han comparado las distintas aproximaciones entre sí para comprobar su utilidad. Los resultados obtenidos en este experimento demostraron la utilidad de la FCA para mejorar los sistemas de recomendación, obteniéndose una mejoría de un 20.12% en una de las propuestas. Esto favorece la idea de que la FCA puede ser una teoría útil y efectiva en el campo de la recomendación.Publicación Análisis de coste-efectividad en OpenMarkov. Aplicación al implante coclear bilateral pediátrico en España(Universidad Nacional de Educación a Distancia (España). Escuela Técnica Superior de Ingeniería Informática. Departamento de Inteligencia Artificial., 2015-10-05) Pérez Martín, Jorge; Díez Vegas, Francisco JavierEl uso de implantes cocleares es, a día de hoy la terapia más efectiva para el tratamiento de la sordera severa y profunda. Diferentes estudios han demostrado que el implante coclear unilateral es coste-efectivo en niños y en adultos. Investigaciones recientes indican que el implante coclear bilateral (un implante en cada oído) es coste-efectivo en niños, pero el grado de incertidumbre sigue siendo elevado. El objetivo de este estudio consiste en determinar con la mayor precisión posible si el implante coclear bilateral pediátrico es coste-efectivo. Con este fin se ha construido un modelo gráfico probabilista que representa los sucesos que pueden producirse a lo largo de la vida del usuario, su impacto en la calidad de vida y los costes asociados, distinguiendo los costes que cubre el sistema nacional de sanidad de los que en España asumen los usuarios y sus familias. La construcción y la evaluación del modelo se han realizado con la herramienta de software libre OpenMarkov, desarrollada en Centro de Investigación sobre Sistemas Inteligentes de Ayuda a la Decisión (CISIAD) de la UNED, para lo cual se han añadido nuevas funcionalidades y se han extendido algunas de las ya existentes. Varios estudios han estimado que la disposición a pagar (también conocida como “umbral de coste-efectividad”) implícitamente utilizada por el sistema de sanidad español si sitúa entre entre 30.000 y 35.000 € por año de vida ajustado en calidad (AVAC). Según los resultados de nuestro modelo, la razón de coste-efectividad incremental (RCEI) del implante simultáneo frente al unilateral para niños de un año de edad es de 12.133 €/AVAC, lo cual implica que conviene poner dos implantes todos los que los necesitan. El análisis de sensibilidad confirma esta conclusión, pues para un umbral de 30.000 €/AVAC la probabilidad de que esta intervención sea coste-efectivo alcanza el 98 %. Incluso en el caso de que el sistema nacional de salud asumiera los costes que en nuestro país cubren actualmente las familias,la intervención seguiría siendo coste-efectiva, con una RCEI de 17.263 €/AVAC y una probabilidad del 94 %. La implantación debe hacerse de forma simultánea, es decir, en una sola operación quirúrgica, porque la implantación secuencial tiene la misma efectividad pero mayor coste para el sistema sanitario y para la familia. Nuestro modelo no es capaz de estimar la RCEI para niños mayores de un año porque la efectividad depende de muchos factores, principalmente de la edad actual, cuándo apareció la sordera, cuándo fue diagnosticada y, en su caso, cuándo se realizó el primer implante. Este modelo estará disponible públicamente para que otros investigadores puedan reproducir los resultados y adaptarlo a otros contextos. En particular, sería interesante analizar la RCEI en adultos y en otros países.Publicación Análisis de entornos colaborativos con tecnologías de análisis de redes y Learning Analytics(Universidad Nacional de Educación a Distancia (España). Escuela Técnica Superior de Ingeniería Informática, 2023-09) Adame Toledano, Félix; Rodríguez Anaya, AntonioEl presente Trabajo Fin de Máster consiste en la realización y prueba de una aplicación que permita el análisis de sentimientos y emociones, así como el análisis de la red social subyacente de los foros de los cursos virtuales de los diferentes estudios que se pueden cursar en la UNED y por extensión se puede utilizar para analizar otros foros o cualesquiera colecciones de mensajes o textos. Sobre la base teórica y práctica de trabajos previos se ha construido una aplicación que pretende ser más amigable y fácil de usar y con un potencial uso práctico y de investigación. Este trabajo se apoya en dos trabajos previos dentro del ámbito de la UNED, como son otro trabajo de fin de máster de la alumna Andrea Rey Presas y la aplicación web appForum , presentada en las XI Jornadas de Investigación en Innovación Docente de la UNED, si bien es importante reseñar que esta es una aplicación totalmente distinta a cualesquiera otras, tanto en lo que se refiere a la filosofía como a la funcionalidad, presentación, etc. Lo que aquí nos encontramos es una aplicación de escritorio con una interfaz gráfica basada en Tkinter (Python). Se organiza en diferentes módulos funcionales, destacando el módulo de modelos e informes, el cual permite obtener un resumen de los análisis realizados y generar un informe automático en formato PDF. De los mencionados trabajos se han aprovechado algunas estructuras algorítmicas de los mismos, se ha extendido la funcionalidad, se ha creado una interfaz lo más amigable posible y se ha dotado de flexibilidad para poder trabajar con diferentes tipos de archivos, así como configuraciones de los mismos. Se propone un método alternativo para el descubrimiento de sentimientos de los mensajes. Dicho método consiste en la combinación lineal de varios métodos, cuya fórmula es configurable. Respecto del análisis de emociones se realizan dos análisis diferentes que pueden compararse. Un primer análisis basado en regiones de Russell a partir de un corpus de términos etiquetados con valores de valencia y excitación. El segundo método consiste también en la utilización de un corpus de términos, pero en este caso se les han asignado puntuaciones para cada una de varias emociones consideradas primarias. Este segundo método se ha probado con el corpus de 2.226 palabras puntuadas para cinco emociones primarias creado por (Ferré et al.) en el trabajo Moved by words: Affective ratings for a set of 2,266 Spanish words in five discrete emotion categories. La aplicación se ha probado con datos reales de foros de la UNED anonimizados y se ha utilizado como herramienta para analizar sentimientos en otro trabajo fin de máster: Estudio sobre la búsqueda de mentor utilizando aprendizaje automático realizado por D. Juan García Ruiz y dirigido también por el Dr. Antonio Rodríguez Anaya.Publicación Análisis de imagen médica usando redes neuronales siamesas(Universidad de Educación a Distancia (UNED), 2024-10) Roig Martín, Roberto; Rincón Zamorano, Mariano; Guerrero Martín, JuanEste Trabajo Fin de Máster se enmarca en el proyecto de análisis de imágenes médicas mediante el uso de técnicas de deep learning, con un enfoque particular en la implementación de redes neuronales siamesas para la detección temprana de cáncer de mama a través de imágenes térmicas. El objetivo principal de este estudio ha sido aplicar un enfoque eficiente para la detección temprana de cáncer de mama, dado el desafío de trabajar con un conjunto de datos pequeño y limitado en información. Se ha optado por el uso de redes siamesas, que se destacan por su capacidad para manejar pares de imágenes. Esta metodología ha demostrado ser efectiva en el contexto de imágenes térmicas, permitiendo una detección temprana con precisión adecuada incluso con pocas imágenes. Además, se ha comparado el rendimiento de este enfoque con una implementación de redes neuronales convolucionales (CNN) utilizada como línea base, destacando las ventajas de las redes siamesas en la clasificación de imágenes médicas con recursos limitados. Se proponen también mejoras futuras, como la implementación de redes siamesas con tripletas y la inclusión de datos clínicos adicionales para mejorar el rendimiento del modelo.Publicación Análisis de pulsera inteligente para la detección de estados afectivos mediante aprendizaje no supervisado sobre series temporales(Universidad Nacional de Educación a Distancia (España). Escuela Técnica Superior de Ingeniería Informática. Departamento de Inteligencia Artificial, 2022) Herráiz Montalvo, Carlos Ilia; Santos Martín, Olga C.; Cabestrero Alonso, RaúlLa utilización de relojes y pulseras inteligentes es una tendencia que cada día está más en auge. La presente memoria busca estudiar las posibilidades de estos dispositivos comerciales para identificar cambios en el estado afectivo durante la realización de la tareas de resolución problemas con el fin de evaluar su posible aplicabilidad al Marco Lógico Colaborativo. El proyecto aborda la construcción de una plataforma para la recogida de datos, el estudio comparativo de la aplicación a series temporales de diversos algoritmos de aprendizaje automático y la visualización de resultados en tiempo real. Dentro de la tarea de extracción de los datos se implementará una aplicación específica para el reloj inteligente que permitirá construir a partir de los datos disponibles de los sensores, un conjunto de datos mediante el uso de una API. En el análisis de los datos se aplicarán diferentes algoritmos de agrupamiento a las series temporales. Se estudiará la aplicación de algoritmos a las series temporales mediante cambios en la representación de los datos, así como otros algoritmos que procesan las series temporales directamente. Finalmente se realiza una implementación que permite realizar una actividad y en tiempo real extraer los datos, enviarlos a un algoritmo de agrupamiento y visualizar en todo momento la evolución de la experiencia. Cuando el algoritmo señala que hay una alteración, el resultado es mostrado en la pulsera, permitiendo al usuario recibir este dato como estímulo visual y táctil.Publicación Análisis de redes sociales dinámicas de aprendizaje colaborativo(Universidad Nacional de Educación a Distancia (España). Escuela Técnica Superior de Ingeniería Informática. Departamento de Inteligencia Artificial, 2023-06) Alarcón Rubio, David; Rodríguez Anaya, AntonioEl aprendizaje en redes sociales ha revolucionado la forma en que adquirimos conocimientos y nos relacionamos con los demás. A través de estas plataformas, podemos interactuar, colaborar y compartir ideas con personas de todo el mundo. El análisis de redes sociales aplicado a entornos educativos nos permite comprender las interacciones y la estructura social en la comunidad educativa en línea. Estas herramientas nos ayudan a evaluar el progreso de los estudiantes, identificar líderes y fomentar la colaboración efectiva. En este trabajo, se explora el impacto de los factores de diseño temporal en las redes sociales, centrándose en el análisis de los mensajes de los foros de las asignaturas. Utilizando técnicas de análisis de redes sociales y procesamiento del lenguaje natural, se extraen medidas de las interacciones de los estudiantes en los foros, así como del sentimiento y las emociones expresadas en los mensajes. Estas medidas se utilizan en procedimientos de aprendizaje automático supervisado para predecir la posibilidad de que un estudiante abandone la asignatura. Para capturar las dinámicas temporales de la red y mejorar la utilidad de la predicción, se experimenta con diferentes medidas temporales, como el rango de tiempo analizado del foro, la subdivisión en bloques y su tamaño, así como el uso de sistemas de bloques secuenciales o encadenados en la obtención de las métricas de centralidad. Además, se sigue la teoría social del aprendizaje y se analiza cómo afectan a la predicción parámetros como la obtención de medidas ponderadas de la red social, el uso de medidas personales o globales, y la inclusión de medidas del sentimiento y la emoción. En conclusión, el análisis de redes sociales dinámicas con rangos de tiempo variable ha demostrado ser útil en la predicción del abandono de los estudiantes. Sin embargo, es necesario considerar varios factores, como el porcentaje de cobertura temporal, la subdivisión en bloques y la cantidad de información analizada, para obtener resultados más precisos y significativos en la predicción. Las decisiones metodológicas relacionadas con la configuración temporal de las redes sociales dinámicas son fundamentales para evaluar la eficacia de la predicción del abandono de los estudiantes en una asignatura específica. El uso de rangos temporales dinámicos y la subdivisión de bloques secuenciales o encadenados tienen una gran importancia en la captura de la evolución temporal de las interacciones en las redes sociales y in impacto en la predicción del abandono de los estudiantes. En conjunto, este trabajo destaca la importancia del análisis de redes sociales dinámicas en el contexto educativo. Proporciona ideas valiosas sobre cómo aprovechar la información de las interacciones en las redes sociales y cómo aplicar técnicas de aprendizaje automático para mejorar la predicción del abandono de los estudiantes. Las conclusiones obtenidas contribuyen al avance de la investigación en este campo y brindan recomendaciones para futuros estudios y aplicaciones prácticas en el ámbito educativo.Publicación Análisis de reputación en redes sociales en ámbitos locales(Universidad Nacional de Educación a Distancia (España). Escuela Técnica Superior de Ingeniería Informática. Departamento de Lenguajes y Sistemas Informáticos, 2019-09-01) Porras Gómez, Javier; Amigó, EnriqueEl presente trabajo pretende estudiar diferentes criterios de búsqueda de términos de filtrado para la extracción y clasificación de mensajes en redes sociales pertenecientes a un mismo contexto político. En concreto se analizarán funciones de pesado, técnicas de análisis lingüístico y, finalmente, heurística Además, pretende analizar la calidad de los datos obtenidos al filtrar mensajes en redes sociales aplicando dichos términos y que, además, hayan sido geolocalización tomando como caso de estudio la ciudad de Talavera de la Reina (Toledo) en periodo pre-electoral municipal. Por tratarse de temática concreta y delimitada en un radio pequeño, la densidad de los datos termina siendo realmente baja, de manera que el uso de funciones de pesado y técnicas de análisis lingüístico terminan siendo ineficaces en la mayoría de los casos.Publicación Análisis de variación de frecuencia en cultivos neuronales para la caracterización de la respuesta al estímulo(Universidad Nacional de Educación a Distancia (España). Escuela Técnica Superior de Ingeniería Informática. Departamento de Inteligencia Artificial, 2017-08-05) Val Calvo, Mikel; Álvarez Sánchez, Jose Ramón; Ferrández, Jose Manuel; Paz López, Félix de laLos cultivos neuronales in vitro embedidos en un sistema de control de lazo cerrado se han utilizado recientemente para estudiar las dinámicas neuronales. Este proceso permite el desarrollo de neuronas en un ambiente controlado con el propósito de explorar las capacidades computacionales de redes neuronales biológicas. Debido a las propiedades intrínsecas de los cultivos neuronales in vitro y la forma en que el tejido neuronal crece en ellos, las formas en que las señales se transmiten y generan dentro y a lo largo del cultivo son difíciles de caracterizar. El código neural está formado por patrones de spikes cuyas propiedades son en esencia no lineales y no estacionarias. El enfoque habitual para esta caracterización ha sido el uso del histograma de tiempo post-estímulo (PSTH). El PSTH se calcula contando los spikes detectados en cada electrodo del cultivo neuronal durante la ventana de tiempo tras un estímulo en uno de los electrodos. La principal estrategia empleada hasta la actualidad consiste en encontrar pares de electrodos Cn = Eest,Eresp disjuntos de forma que C1 6= C2. El objetivo de este trabajo es explorar otras formas posibles de extraer información relevante de la respuesta global al estímulo en el cultivo mediante el estudio de las variaciones en los patrones a lo largo del tiempo para la tasa de disparo(firing rate-FR), estimada a partir de intervalos interspike en cada electrodo. A continuación se pueden aplicar métodos de aprendizaje automático para distinguir el electrodo estimulado a raíz de la la respuesta global del cultivo, con el fin de obtener una mejor caracterización del cultivo y sus capacidades computacionales, de modo que pueda ser útil para aplicaciones robóticas.Publicación Análisis del Abandono desde la perspectiva de los foros(Universidad Nacional de Educación a Distancia (España). Escuela Técnica Superior de Ingeniería Informática. Departamento de Inteligencia Artificial, 2022-06-01) Castillejo Camacho, David; Rodrigo Yuste, ÁlvaroLa educación a distancia se ha consolidado en los últimos años como un método de enseñanza presente en todos los niveles a partir de la educación primaria. Este modo de aprendizaje se ha consolidado y expandido de forma más intensa a causa de la situación de pandemia vivida durante los años 2020 y 2021. Existen multitud de disciplinas de estudios, oficiales o no, que optan por esta modalidad para impartir contenidos y valorar los resultados del aprendizaje. Dentro de este campo, la Universidad Nacional de Educación Distancia con más de 50 años de experiencia ha sido pionera en la modalidad eLearning. Dentro de los cursos virtuales de cada asignatura, los foros de alumnos de la UNED constituyen una herramienta de estudio en la que los alumnos comparten dudas, y participan dando respuestas y generan nuevos contenidos sobre los temas de cada asignatura siendo en sí mismos una nueva fuente de bibliografía añadida a la propuesta por el equipo docente. Además, el equipo docente puede proponer cuestiones que promuevan profundizar en aspectos importantes de la materia que se imparte. El estudio de la calidad de las aportaciones de los estudiantes, tanto a la hora de proponer preguntas y nuevos temas de debate como cuando se trata de dar respuesta a las cuestiones planteadas por los compañeros puede suponer un retorno de información muy valioso para la mejora de la actividad docente y la oferta formativa. La interacción de los alumnos dentro de cada curso virtual y en concreto la interacción entre alumnos y de alumnos con profesores queda registrada y compone una información con la que no se suele contar para la modalidad de educación presencial. Mediante las técnica de análisis recogidas bajo el nombre de learning analytics y educational data minning se estudian los datos extraídos de las comunicaciones dentro de los foros para inferir resultados como el abandono temprano de una asignatura o la calificación del alumno. Existen numerosos motivos por los que un alumno puede abandonar el estudio de una asignatura, la detección temprana del abandono puede ayudar en la tarea docente para la consecución de los objetivos educativos de los Grados y Masters, así como a los propios alumnos a conocer su propia situación. El objeto de este Trabajo Fin de Master es analizar, en base a las participaciones en los foros de estudiantes de la UNED, el abandono y las distribuciones en las calificaciones de las asignaturas de la UNED. Para este estudio se ha partido de una asignatura de tercero del grado de informática. Más concretamente, en este trabajo se van a realizar predicciones de las notas y posibles abandonos de los alumnos. Estas predicciones estarán basadas en modelos de Aprendizaje Automático y para ello, se analizarán los mensajes escritos en los foros mediante técnicas de procesamiento del lenguaje natural. Como resultado del análisis de los datos, por un lado, vemos que la participación en los foros influye en la calificación final ya que el 84.6% de los alumnos que participan, se presentan en alguna de las convocatorias y el 68.3% aprueban. Por otro lado, en los ensayos realizados se concluye que con los métodos utilizados sobre el conjunto de datos suministrado, no se puede identificar con precisión a los alumnos que abandonan o suspenden la asignatura. Afecta especialmente el hecho de tener un conjunto de datos de entrenamiento fuertemente desbalanceado.Publicación Análisis del aprendizaje y evaluación en plataformas en entornos Big Data y servicios en la nube(Universidad Nacional de Educación a Distancia (España). Escuela Técnica Superior de Ingeniería Informática, 2023-06-20) Fraile Pérez, Sergio; Pastor Vargas, Rafael; Robles Gómez, AntonioEste proyecto se centra en el Learning Analytics, una disciplina cuyo objetivo es mejorar el aprendizaje y la enseñanza a través del análisis de los datos obtenidos a partir de los estudiantes, contenidos y procesos de enseñanza, identificando patrones que permiten medir el rendimiento del estudiante, así como la detección de problemas derivados de los recursos educativos y proponer soluciones o decisiones que mejoren la capacidad de la enseñanza. Por ello el objetivo general del presente proyecto será mejorar la actuación docente mediante el análisis de los datos recopilados, proporcionando información útil para la modificación de recursos y/o mejorar la individualidad del aprendizaje. Para cumplir con el objetivo propuesto se desarrolla una arquitectura que posibilita la recopilación, almacenamiento y análisis de datos obtenidos de plataformas de aprendizaje interactivo mediante la implementación de todos los subsistemas necesarios. La integración de dichos subsistemas se llevará a cabo mediante una tecnología de virtualización ligera y portable, utilizando contenedores Docker. Dicha tecnología permitirá desplegar el sistema rápida y eficientemente en cualquier equipo. En referencia a la estructura de los datos, se utilizará el estándar xAPI. Estándar con mayor flexibilidad y claridad, con una disposición similar al lenguaje humano, facilitando el proceso de análisis. La fase de análisis se llevará a cabo mediante funciones estadísticas y un algoritmo de inteligencia artificial. La motivación de este proyecto deriva de la posibilidad de mejorar el aprendizaje solucionando problemas que mejoren la calidad de la enseñanza y a su vez trabajar con diferentes tecnologías como servidores, bases de datos, inteligencia artificial, páginas web….