TFM, TFG y otros trabajos académicos
URI permanente para esta comunidad
Examinar
Examinando TFM, TFG y otros trabajos académicos por Palabra clave "33 Ciencias Tecnológicas"
Mostrando 1 - 16 de 16
Resultados por página
Opciones de ordenación
Publicación Análisis de la relación entre métricas de habilidades técnicas y resultado en voleibol: un estudio con técnicas multivariantes(Universidad Nacional de Educación a Distancia (UNED). E.T.S. de Ingeniería Informática (UNED), 2025, 2025) Soler Rocha, Sergio; Letón Molina, EmilioEste trabajo tiene como objetivo analizar la predicción de los resultados de los partidos de voleibol a nivel profesional mediante el uso de métricas de habilidades técnicas para aclarar si es necesaria la inclusión de métricas avanzadas, tal como ocurre en otros deportes de élite. Para ello, mediante el uso de técnicas multivariantes, se ha construido un conjunto de modelos de predicción con datos de la PlusLiga polaca entre los años 2008 y 2023. Se proponen dos enfoques: enfoque individual, en el cual solo se tienen en cuenta las estadísticas de un solo equipo, sin importar lo que haga el equipo rival, y enfoque comparativo, en el cual se tienen en cuenta las estadísticas de ambos adversarios, proponiéndose como variables las diferencias de dichas estadísticas. En cada enfoque se crean dos modelos: un modelo de regresión logística en el que solo se utilizan habilidades técnicas y otro modelo bayesiano jerárquico, que tiene en cuenta efectos aleatorios por equipos más allá de las habilidades técnicas. Los resultados muestran un buen rendimiento de los modelos para predecir la victoria. Al hacer una evaluación específica de la duración de los partidos (tres, cuatro o cinco sets), se evidencia el excelente rendimiento que ofrecen para partidos de tres sets. En los partidos de cuatro sets, el rendimiento de los modelos desciende levemente, y en los que se juegan a cinco sets la capacidad predictiva aún decae más. Para examinar la validación de los modelos en otras ligas de élite, se utilizaron datos de partidos de la Superliga rusa masculina de la temporada 2024-2025, ofreciendo resultados similares o superiores a los obtenidos con los datos de la liga polaca. Del enfoque individual se pudo conseguir un ranking de importancia de métricas técnicas, destacando en este orden los ataques con remates, las defensas o digs, y los bloqueos con puntos. En el enfoque comparativo se consiguieron reducir las variables predictivas a solo dos: diferencias de la eficiencia en ataque y diferencias de la eficiencia en saque; pudiéndose de esta manera visualizar la naturaleza lineal del modelo. También se analizó la influencia sobre la victoria que tiene una nueva variable, Blk_As (bloqueo que posibilita una jugada de contraataque), llegando a la conclusión de que no hay evidencias de que sea una variable relevante en lo que a victoria se refiere. Se propusieron mejoras como la obtención de conjuntos de datos en que las estadísticas de los partidos están separadas por sets para construir modelos con mejor rendimiento. Finalmente, se llegó a la conclusión de que, a pesar del buen desempeño de los modelos, sería muy positiva la inclusión de métricas avanzadas, no solo para predecir el resultado final de un partido, sino para tener más conocimiento y entender lo que ocurre en el juego, que no puede ser explicado con métricas básicas.Publicación Análisis estadístico y ML aplicado: factores influyentes en el abandono de estudios a distancia en la Universidad de Buenos Aires(2024) Bernáldez Escalada, Daniel; Rodríguez Anaya, AntonioEl objetivo de este trabajo es predecir el abandono temprano de los estudiantes de la Universidad de Buenos Aires UBA antes de que ocurra. No buscamos clasificar a los alumnos de manera estigmatizante, ya que consideramos que señalar perfiles específicos basados en género, renta o tipo de estudios solo genera prejuicios y no aporta valor positivo. Es crucial detectar el proceso de abandono mientras los estudiantes aún están cursando sus estudios, de manera que la detección sea aplicable a lo largo de su evolución durante el curso. Necesitamos identificar parámetros que nos ayuden a entender cómo los alumnos interactúan y se comprometen con las clases, tutores y compañeros. No se trata solamente de saber quién está en riesgo de abandono, se trata de saber qué características nos llevan a esa conclusión, de aquí la preponderancia en el trabajo de los árboles de decisión como algoritmos a considerar. El propósito de este trabajo no es incluir una gran cantidad de algoritmos de aprendizaje automático para demostrar capacidad técnica, ya que en etapas anteriores del máster de la UNED ya se ha acreditado dicha competencia. Lo que buscamos es interpretabilidad, continuidad en el tiempo, adaptación y un uso óptimo de los datos disponibles. No estamos en posición de imponer requisitos de datos a nuestro cliente; en cambio, nos adaptamos a los datos disponibles para obtener resultados positivos. Finalmente, se harán recomendaciones a la Universidad de Buenos Aires sobre la captación de información y la infraestructura necesaria para futuras investigaciones, con el fin de mejorar la detección temprana del abandono estudiantil. Pensemos que, aunque el trabajo está enfocado a ayudar a la Universidad de Buenos Aires UBA, pretendemos que otras instituciones puedan sacar alguna utilidad de él.Publicación Análisis y estudio de actividad e interacción de usuarios en la plataforma Ágora de la UNED e implementación de un sistema que realice y plasme visualmente dicho análisis(2024-06) García Mateos, Rubén; Rodrigo Yuste, Álvaro; Rodríguez Anaya, AntonioEn el siguiente trabajo se realizará el análisis y estudio de las interacciones de los usuarios en el foro de las asignaturas “Minería de datos en educación y modelado del estudiante” y “Sistemas interactivos de enseñanza/aprendizaje”, que están presentes en la plataforma Ágora de la UNED. Por otro lado, se realizará la implementación de una herramienta que permita plasmar, visualizar y analizar dicho estudio previo por parte del equipo docente. Para ello, se utilizarán técnicas de aprendizaje automático, análisis de redes sociales y minería de textos. Para la implementación de la herramienta se hará bajo el lenguaje de programación Python y sus respectivas librerías más comunes de Machine learning como son Scikit learn, Pandas, Numpy, Matplotlib…etc. En el análisis realizado a las diferentes asignaturas, se ha podido comprobar que en ellas siempre hay un representante o nodo influyente por el que circula gran parte de la información relevante, además de coincidencias en grupos similares como son alumnos muy activos, semiactivos e inactivos cuando se aplican las técnicas de agrupamiento. Los alumnos semiactivos son aquellos que se centran en la lectura de los foros y la navegación por la plataforma, pero no en la interacción directa con el resto. En los grafos visualizados, la mayoría de los nodos están bien conectados y presentan una buena actividad en la red. Como conclusión general podemos indicar que gran parte de los usuarios de la plataforma interactúan de forma activa al principio del curso y se presenta una atención especial a los mensajes relacionados con la evaluación y prácticas de las asignaturas. Gran parte de los usuarios responde a las presentaciones, y a medida que avanza el curso virtual, se van alejando las interacciones y mensajes enviados a la plataforma.Publicación Aplicación de la teoría de cópulas al modelado estadístico de dos biomarcadores(Universidad Nacional de Educación a Distancia (UNED), 2025-06) Rellán Vega, César; Letón Molina, EmilioEn este trabajo exploramos el uso de cópulas bivariantes para modelar la dependencia entre dos biomarcadores, con el objetivo de mejorar el rendimiento diagnóstico respecto al uso individual de cada uno. A través del estudio teórico y práctico de la teoría de cópulas, implementamos un algoritmo basado en el teorema de Sklar y la generación condicional, asumiendo distribuciones marginales normales para los biomarcadores. Aplicamos el método tanto a datos simulados como a tres conjuntos de datos reales relacionados con la diabetes, el cáncer de páncreas y el cáncer de próstata. Nuestros resultados muestran que, cuando se verifica la normalidad marginal, el modelo conjunto mejora los valores de AUC en comparación con el análisis univariante. Además, identificamos limitaciones derivadas de la suposición de normalidad y proponemos líneas de trabajo futuras para extender el método a otros tipos de distribuciones, métricas y familias de cópulas. Con este trabajo buscamos ofrecer tanto una aplicación práctica como una introducción accesible a una herramienta estadística poderosa y poco utilizada.Publicación Aproximación al uso de blockchain para la gestión de accesos a laboratorios en línea(Universidad Nacional de Educación a Distancia (UNED) E.T.S. de Ingeniería Informática. Departamento de Informática y Automática, 2023-09-19) Ramos Villalón, Juan Luis; Torre Cubillo, Luis de laEl uso de laboratorios en línea para la enseñanza de la ciencia y la tecnología lleva creciendo y evolucionado intensamente en las dos últimas décadas. Disponer de estos recursos a través de Internet permite que las instituciones propietarias puedan colaborar entre ellas compartiéndolos o cediendo su uso a cambio de un desembolso económico. En paralelo, los avances en el desarrollo de las tecnologías blockchain más allá de las criptomonedas y su capacidad para generar aplicaciones descentralizadas, así como la necesidad creciente de securizar el acceso de forma automatizada a dispositivos autónomos conectados (IoT), se puede hacen converger para gestionar la publicación y acceso a los laboratorios en línea y efectuar intercambio de fondos en la transacción de forma nativa. En este trabajo se hace una revisión del estado del arte de los componentes antes mencionados. Se considera a los laboratorios en línea como objetos de aprendizaje y a la vez como sistemas ciberfísicos, se revisan algunas técnicas de control de acceso a activos digitales y la forma en que se pueden utilizan las cadenas de bloques para gestionar esa funcionalidad, así como los enfoques que se están utilizando al aplicar estas técnicas en los ecosistemas IoT. Se ha elaborado una pequeña prueba de concepto con herramientas de software libre en la que se simula la publicación, reserva y acceso a laboratorios en línea con intercambio de fondos. Finalmente, tras las conclusiones, se plantean líneas de trabajo futuro, profundizando en la modelización del problema planteado y su solución.Publicación Codificación de estrategias de inversión en mercados de capitales: Aproximación teórico práctica mediante asistente automático(Universidad Nacional de Educación a Distancia (UNED), 2022-10-14) Fumanal Andrés, Ignacio; Abad Cardiel, IsmaelLa inversión de dinero con fines de crecimiento de capital es una actividad que ha ganado millones de adeptos desde la temprana existencia de los mercados de inversión. Con la evolución y tecnologización del mercado de capitales la afluencia de dinero de particulares y empresas ha creado una masa dineraria flotante de tamaño enorme, que ha dado lugar a un interés sin precedentes por hacerse con una pequeña parte de esa riqueza. Mediante técnicas de análisis de mercado se han logrado grandes avances en el seguimiento de la evolución del precio de los diferentes activos, hasta alcanzar una capacidad muy alta de detectar tendencias, patrones, y mecanismos de predicción de avances y retrocesos del valor. La formulación del momento en el cual entrar y salir del mercado y por cuanto tiempo permanecer en él en una posición de compra o de venta y con qué volumen y qué exposición al riesgo de pérdidas, es lo que llamamos una estrategia de inversión. Con el advenimiento de sistemas basados en lógica difusa, ha sido posible flexibilizar las estrategias de inversión para formularlas de manera más próxima a la lógica y verbalización humanas, más analógicas, y menos rígidas y digitales. En este trabajo se desarrolla la formulación de estrategias de inversión tal como pensamos los seres humanos, y se propone una mejora de traducción de esas estrategias a su codificación automática en código software mediante la aplicación de ingeniería de software.Publicación Comparativa de algoritmos de reconocimiento de voz y subtitulado automático considerando la estructura y el contenido del texto(Universidad Nacional de Educación a Distancia (UNED), 2025) Rodriguez Parrondo, Paula; Pérez Martín, Jorge; Rodrigo Yuste, ÁlvaroEn una sociedad donde los contenidos digitales están cada vez más presentes, los sistemas de reconocimiento automático del habla (Automatic Speech Recognition, ASR) se posicionan como herramientas esenciales para garantizar el acceso universal a la información. Sin embargo, estos sistemas aún presentan errores que pueden comprometer la fiabilidad de sus transcripciones. Detectarlos, comprenderlos y corregirlos no es sólo un objetivo técnico, sino un paso necesario hacia una tecnología más inclusiva, precisa y fiable. Este trabajo aborda precisamente esa necesidad mediante el análisis del rendimiento de modelos de transcripción automática usando contenidos educativos. Para ello, se han diseñado y ejecutado varios experimentos utilizando los modelos Whisper y WhisperX, en los que se evaluó su comportamiento combinando varias métricas obtenidas de forma automática (WER, CER, BLEU y ROUGE) con un análisis cualitativo de los errores cometidos. Esta metodología ha permitido identificar patrones recurrentes, como dificultades en la transcripción de nombres propios o términos técnicos, y valorar el impacto de estrategias específicas, como la incorporación de contexto textual o la segmentación del audio. Más allá de los resultados cuantitativos, este trabajo pone de manifiesto que avanzar en la accesibilidad real requiere algo más que modelos de reconocimiento del habla funcionales. Es necesario que estos sistemas sean capaces de adaptarse a la diversidad lingüística de los usuarios y gestionar de forma eficaz los errores que cometen. El futuro del reconocimiento automático del habla pasa no sólo por mejorar la potencia de los modelos, sino también por desarrollar soluciones más robustas, precisas y capaces de responder ante las variaciones naturales del lenguaje.Publicación Desarrollo de un cuadro de mandos dinámico y responsivo para el análisis de malware(Universidad Nacional de Educación a Distancia (UNED). , 2025-06) Barreto Pestaña, Clemente; Robles Gómez, AntonioEste trabajo de fin de máster tiene como objetivo el diseño e implementación de un sistema integral para el análisis de malware, capaz de capturar, procesar y visualizar información en tiempo casi real desde múltiples fuentes abiertas. La solución propuesta intenta mejorar un trabajo previo, incorporando la consulta dinámica de fuentes de datos, el uso de tecnologías de procesamiento y almacenamiento masivo y la implementación de técnicas de visualización responsiva. El sistema desarrollado se basa en una arquitectura contenerizada y escalable que emplea Apache Airflow para la orquestación de flujos ETL, Elasticsearch para el almacenamiento no relacional de datos en distintos niveles (Bronze, Silver, Gold) y Dash Plotly para la creación de un cuadro de mandos interactivo. La integración de diversas APIs públicas permite la recogida dinámica de muestras de malware, que son enriquecidas y analizadas de forma paralela antes de ser presentadas mediante distintos tipos de visualizaciones. El trabajo realizado pretende ser una herramienta útil para asistir en el análisis técnico de malware y en la toma de decisiones en el ámbito de la ciberseguridad.Publicación Desarrollo y evaluación de un sistema de reconocimiento de voz robusto para entornos industriales(Universidad Nacional de Educación a Distancia (UNED), 2025-06) Ramírez Faura, Antonio Francisco; Pérez Martín, Jorge; Rodrigo Yuste, ÁlvaroEl reconocimiento automático del habla (ASR) ha demostrado ser una tecnología efectiva y ampliamente adoptada en múltiples aplicaciones, especialmente en entornos controlados o domésticos. Sin embargo, su implementación para el reconocimiento de instrucciones en entornos industriales presenta desafíos significativos debido a la severa degradación de la señal acústica y la escasez de conjuntos de datos específicos. El objetivo principal de este Trabajo de Fin de Máster es identificar y validar el motor ASR de código abierto más robusto y eficiente para un futuro sistema de reconocimiento de instrucciones. Para ello, se ha desarrollado una metodología que incluyó, en primer lugar, la creación de un dataset sintético anotado. Este dataset se generó combinando locuciones limpias con cuatro tipos de ruido (dos estacionarios y dos variables) a once niveles de Relación Señal- Ruido (SNR) distintos, desde 0 dB hasta 100 dB, resultando en 22 horas de audio ruidoso. Posteriormente, se realizó una evaluación comparativa exhaustiva de cuatro modelos ASR de código abierto (Wav2Vec2, Whisper, Faster Whisper y WhisperX), considerando dos tamaños representativos para cada uno. El análisis abarcó la eficiencia computacional, el rendimiento cuantitativo y un análisis cualitativo de errores. Los resultados experimentales demostraron la superioridad general de la familia de modelos Whisper sobre Wav2Vec2 en presencia de ruido, observándose además que el ruido de tipo variable resultó ser más perjudicial que el estacionario para la mayoría de los modelos. Las implementaciones optimizadas, Faster Whisper y WhisperX, mostraron mejoras sustanciales en eficiencia (velocidad y uso de memoria) respecto al modelo Whisper original. Aunque WhisperX ofreció un rendimiento cuantitativo comparable a Faster Whisper, el análisis cualitativo reveló en el primero una tendencia a la omisión de segmentos en ruido extremo, posiblemente atribuible a su componente VAD. Se concluye que el modelo Faster Whisper, en su configuración large, representa la opción más robusta, eficiente y equilibrada entre las evaluadas, constituyendo el candidato idóneo para el motor ASR del sistema de reconocimiento de instrucciones propuesto. Este trabajo no solo valida un modelo específico, sino que también aporta una metodología y un dataset para la evaluación de ASR en entornos industriales simulados, sentando una base sólida para futuros desarrollos en este ámbito.Publicación Detección de autoría en redes sociales(Universidad Nacional de Educación a Distancia (UNED), 2025-06-04) Víctor Dorado, Víctor; Rodrigo Yuste, Álvaro; Pérez García-Plaza, AlbertoLa atribución de autoría en textos breves como los tuits plantea desafíos importantes por su escasa longitud, la variabilidad estilística y la alta ambigüedad entre usuarios. Este TFM se desarrolla a partir de tuits en español e inglés relacionados con la Cumbre Climática COP27 (Sharm el-Sheikh, noviembre de 2022), con el objetivo de construir un modelo que identifique a los autores más probables a partir de los textos. Para ello se emplean arquitecturas tipo Transformer. Los resultados muestran un rendimiento aceptable con pocos autores, pero una degradación clara a medida que se amplía el número de candidatos, especialmente en el caso del inglés.Publicación Estudio de arquitecturas espacio-temporales de aprendizaje profundo para la detección de fase cardíaca(Universidad Nacional de Educación a Distancia (UNED), 2025-06) Román Garzón, Juan Alonso; Pérez Martín, Jorge; Fernández de Toro Espejel, BelénLa enfermedad cardíaca reumática es una complicación grave de la fiebre reumática que causa daños en las válvulas del corazón. La detección y tratamiento tempranos de esta enfermedad pueden reducir significativamente la mortalidad asociada a ella. Es importante utilizar las nuevas tecnologías, como la inteligencia artificial (IA), para poder abordar estos problemas en países donde esta enfermedad es endémica y se carece de personal cualificado para su detección. La correcta interpretación de ecocardiografías para su diagnóstico de forma automatizada, para realizar una previa clasificación y reducir el enorme trabajo que supone para los profesionales, es un paso importante en este camino. Este Trabajo de fin de máster forma parte del proyecto CES-BC-RHD, cuyo objetivo es desarrollar herramientas basada en aprendizaje profundo para ayudar al diagnóstico de esta enfermedad en países endémicos. En él, abordamos la evaluación de distintas arquitecturas y técnicas de optimización de modelos de aprendizaje profundo para la categorización de cada fotograma de una ecocardiografía en las distintas fases del ciclo cardíaco. Esto, mediante técnicas de integración con otros modelos de aprendizaje automático, podría ayudar al diagnóstico de la enfermedad cardíaca reumática. Es justo en el cambio de sístole a diástole (y viceversa) cuando más información relevante arrojan los ecocardiogramas. Se han estudiado tres arquitecturas distintas: una 3D-CNN, y dos CNN+RNN; y se utilizó Optuna para la optimización de hiperparámetros. Los modelos se entrenaron con el conjunto de datos públicos TED, con 98 pacientes. Se evaluaron distintas técnicas de mejora como el uso de filtro CLAHE, aumento de datos o el flujo óptico, entre otras. Para esta evaluación se utilizó validación cruzada sobre un conjunto de datos de entrenamiento, dejando 10 pacientes para la fase de test. Se evaluó la generalización de los modelos en 200 vídeos de EchoNet-Dynamic, donde se estimó el ciclo completo mediante una heurística basada en el índice de similitud estructural (SSIM). El flujo óptico, técnica que analiza el movimiento de objetos en una secuencia de imágenes, ha demostrado ser el componente con mayor impacto en los modelos, llegando a incrementar en más de un 18 % los resultados obtenidos en términos de F1-score. La mejor configuración alcanzó un F1-score de 0.95, Accuracy de 0.95 y AUC de 0.98 en nuestro conjunto de test. Aunque fue otro modelo el que mostró mejor generalización en EchoNet, con un F1-score de 0.93 y AUC de 0.98. El aumento de datos redujo la varianza entre folds. La mayor limitación ha sido la falta de un conjunto de datos grande, ya que el que hemos usado tiene apenas un centenar de pacientes y un sólo ciclo cardíaco completo por paciente. En líneas futuras podrían explorarse la codificación temporal utilizando transformadores, distintas técnicas de fusión de flujo óptico y explorar la ayuda al etiquetado utilizando técnicas como SSIM.Publicación Generación y detección de deepfakes en archivos de audio(Universidad Nacional de Educación a Distancia (UNED), 2025-07) Téllez Rodríguez, Álvaro; Robles Gómez, AntonioLa inteligencia artificial generativa ofrece la posibilidad de generar textos o archivos de imagen, vídeo o audio, con una gran calidad, y de forma cada vez más sencilla. Esto ha democratizado su uso, y a día de hoy, gran cantidad de gente usa a diario estas tecnologías como ayuda a tareas cotidianas, ya sean personales o profesionales. Sin embargo, también han proliferado los malos usos que se dan a estas tecnologías, permitiendo que sea bastante fácil generar material con el objetivo de crear un impacto negativo en la reputación de individuos, influir en la opinión pública, generar material de carácter sexual falso con la cara de personas conocidas, o estafar a gente impersonando a amigos o familiares de la posible víctima. Puesto que la calidad de los contenidos generados es bastante buena, muchas veces no es sencillo detectar que se trata de contenido falso, y los consumidores no intencionados de este material pueden verse influenciados por los mismos. En la actualidad aún no se dispone de muchas herramientas de detección de este tipo de contenidos falsos, y las que existen son de pago o no están integradas en las aplicaciones que la gente usa habitualmente. Es por ello que la gente actualmente no dispone de mecanismos adecuados para poder defenderse de estos contenidos con propósitos maliciosos. Debido a ello, es necesario trabajar en el desarrollo de nuevas herramientas que puedan llegar a ayudar a los usuarios en la detección rápida de contenidos falsos, para que así puedan evitar ser engañados por dichos contenidos.Publicación La influencia de la Inteligencia Artificial Generativa en la Ciberseguridad: Deepfakes(2024-06) López Delgado, Juan Luis; Pastor Vargas, RafaelLa Inteligencia Arti cial ha avanzado mucho desde su inicio en 1943, cuando se propuso el primer modelo que simulaba la actividad de una red neuronal. Desde entonces, se han llevado a cabo muchas investigaciones que han llevado a la tecnología al punto de partida del que hoy en día se encuenta y desde el que parece que puede llegar a cambiar e in uir en nuestra vida de un modo indiscutible. Cabe destacar el trabajo de Goodfellow en 2014, cuando publicó su importante trabajo sobre la Inteligencia Arti cial desde un punto de vista totalmente distinto. En la década de 1960, la Inteligencia Arti cial Generativa había comenzado a emerger con chatbots. Estos no estaban demasiado desarrollados, aunque cumplían con su función. Good-fellow publicó entonces un modelo que era capaz de poder generar imágenes, vídeos y audios sintéticos. A este modelo se le bautizó como Redes Generativas Adversarias. Las aplicaciones de este modelo demostraron posteriormente ser muy numerosas: automatización de la generación de arte para redes sociales, pancartas o infografías; canciones generadas sintéticamente o incluso vídeos vídeos sin tener si quiera que ser grabados. Sin embargo, entre las aplicaciones también se puede encontrar alguna con nes maliciosos. Esta tecnología puede permitir suplantar identidades vulnerando principios tales como la integridad o la privacidad y suponer un riesgo muy alto en la ciberseguridad. Este Trabajo de Fin de Máster tiene como objetivo enumerar estos riesgos, centrándose principalmente en los deepfakes y la tecnología que los soporta. También se enumeran otras aplicaciones en ciberseguridad.Publicación Metodología y creación de dataset de la cesta básica de la compra mediante la clasificación por IA de productos alimenticios de supermercados(2024-06) Vera Bravo, Antonio José; Pastor Vargas, RafaelLa inflación es un fenómeno económico que hace que el poder adquisitivo de la población baje y el coste de vida suba. Por lo general es algo normal, la inflación anual suele estar entorno al 2 % pero en los últimos años hemos vivido una subida muy superior a ese 2 % y, en España, haciendo especial hincapié en la lista de la compra. Esto ha hecho que muchas familias sin capacidad de ahorro tenga que recurrir a la deuda. El objetivo de este trabajo es obtener los productos de los tres principales supermercados españoles, creando un dataset actualizable donde el usuario pueda conocer cual es el precio de antemano sin tener que ir al supermercado, pudiendo saber que comprar, donde y a que precio. Este trabajo da un punto de partida para poder seguir ayudando a los consumidores a optimizar sus gastos. Crea una base sólida para continuar el trabajo, mejorando la clasificación de los productos o incrementando los datos del dataset, tanto la cantidad de datos de cada producto como la cantidad de fuentes de datos.Publicación Pronóstico de Consumo Eléctrico y Detección de Anomalías mediante Machine Learning(Universidad Nacional de Educación a Distancia (UNED), 2025-06-08) Sánchez López, José Manuel; Rodríguez Anaya, AntonioEl objetivo principal de esta Tesis de Máster es desarrollar un modelo para predecir el consumo energético y detectar anomalías en una red extensa y heterogénea de supermercados. En concreto, utilizaremos como caso de estudio la red de tiendas de Grupo Dia en España. Esta red se compone de aproximadamente 2300 supermercados distribuidos por todo el territorio nacional peninsular, caracterizados por una notable heterogeneidad en términos de tamaño, horarios de apertura, ubicaciones (locales comerciales de edificios, centros comerciales o naves independientes) y antigüedad de las edificaciones, así como una marcada estacionalidad del consumo energético mensual y semanal, influenciado además por efectos de calendario, como días festivos. Para lograr el objetivo de predicción, se evaluarán tres técnicas de pronóstico a corto plazo (14 días) que proyectarán consumos energéticos para cada tienda a nivel diario y por franjas horarias. Los modelos que se implementarán son: Random Forest (Ensemble), Redes Neuronales LSTM (Deep Learning) y Prophet (Modelo Estadístico y ML). Simultáneamente, para el análisis de ineficiencias y la detección de anomalías, se empleará un enfoque de aprendizaje no supervisado basado en clustering para crear grupos de tiendas, con posterior detección de anomalías dentro de cada grupo. Se utilizarán los algoritmos K- Means, Agglomerative, DB-SCAN y GMM para Clustering y el Rango Intercuartílico para la detección de anomalías. Todos los algoritmos serán entrenados con datos reales históricos de consumo de energía a nivel horario, un extenso conjunto de características de cada tienda y variables de entorno, como la temperatura, que combinadas, permitirán mejorar la precisión de los modelos. Descubriremos cómo un modelo que no está pensado para pronosticar series temporales, como Random Forest, es capaz de conseguir los mejores resultados para una predicción a corto plazo sobre una secuencia de datos, gracias a la fortaleza de los modelos Ensemble y a su capacidad de detectar patrones no lineales y, por otro lado, cómo un meticuloso análisis de datos nos puede ayudar a dar un perfil de tienda ineficiente y a visualizar anomalías de consumo. El trabajo incluye un análisis exhaustivo del estado del arte en modelos predictivos de consumo energético y detección de anomalías, con énfasis en su aplicación en el sector minorista o similar. Además, se explorarán posibles mejoras a los modelos propuestos que podrían implementarse en el futuro para optimizar aún más la gestión energética de la compañía.Publicación Sistema de Búsqueda y Recuperación de Información en el ámbito de la Comercialización Pesquera(Universidad de Educación a Distancia (UNED) E.T.S. de Ingeniería Informática. Departamento de Lenguajes y Sistemas Informáticos, 2024-11-22) Cobo Castillo, Raúl; Pérez García-Plaza, Alberto; Rodrigo Yuste, ÁlvaroLos datos de comercialización pesquera tienen una gran importancia fuera y dentro de la Administración. Dentro de la Administración, estos datos se usan para la toma de deci siones en cuanto a reparto de cuota, apertura y cierre de pesquerías, informes de Inspec ción Pesquera, etc. Fuera de la Administración, estos datos se usan para el control de especies, seguimiento y evaluación de la actividad pesquera, así como el seguimiento del valor de mercado de las especies comercializadas. Este proyecto se centra en la creación de un panel de control o dashboard que sirva para el análisis de los datos de la comercialización pesquera. La aplicación contiene los datos de pesca fresca de la comunidad autónoma de Andalucía entre los años 2000 y 2023, pero es escalable a otras comunidades. La aplicación se ha desarrollado usando software libre, pensando en su implementación en cualquier Administración. A nivel técnico, se hace uso del framework de Django para el despliegue de la aplicación, así como el framework Dash para la creación del dashboard. A nivel de diseño, se hace uso de la librería Bootstrap para crear un diseño responsive y adaptable, así como una consistencia visual en el diseño. A nivel de persistencia de datos, se hace uso de Opensearch, que es un motor de búsqueda distribuido y NoSQL, que per mite la indexación y el acceso de manera rápida a grandes volúmenes de datos. La aplicación tendrá por nombre 'Pescavolution', haciendo hincapié en que tratará sobre datos de evolución pesquera, y tratando de ser una evolución con respecto a las aplicaciones existentes.