Examinando por Autor "Pastor Vargas, Rafael"
Mostrando 1 - 20 de 51
Resultados por página
Opciones de ordenación
Publicación A Cloud Game-based Educative Platform Architecture: the CyberScratch Project(MDPI, 2021) Utrilla, Alejandro; Tobarra Abad, María de los Llanos; Robles Gómez, Antonio; Pastor Vargas, Rafael; Hernández Berlinches, RobertoThe employment of modern technologies is widespread in our society, so the inclusion of practical activities for education has become essential and useful at the same time. These activities are more noticeable in Engineering, in areas such as cybersecurity, data science, artificial intelligence, etc. Additionally, these activities acquire even more relevance with a distance education methodology, as our case is. The inclusion of these practical activities has clear advantages , such as (1) promoting critical thinking and (2) improving students’ abilities and skills for their professional careers. There are several options, such as the use of remote and virtual laboratories, virtual reality and gamebased platforms, among others. This work addresses the development of a new cloud game-based educational platform, which defines a modular and flexible architecture (using light containers). This architecture provides interactive and monitoring services and data storage in a transparent way. The platform uses gamification to integrate the game as part of the instructional process. The CyberScratch project is a particular implementation of this architecture focused on cybersecurity game-based activities. The data privacy management is a critical issue for these kinds of platforms, so the architecture is designed with this feature integrated in the platform components. To achieve this goal, we first focus on all the privacy aspects for the data generated by our cloud game-based platform, by considering the European legal context for data privacy following GDPR and ISO/IEC TR 20748-1:2016 recommendations for Learning Analytics (LA). Our second objective is to provide implementation guidelines for efficient data privacy management for our cloud game-based educative platform. All these contributions are not found in current related works. The CyberScratch project, which was approved by UNED for the year 2020, considers using the xAPI standard for data handling and services for the game editor, game engine and game monitor modules of CyberScratch. Therefore, apart from considering GDPR privacy and LA recommendations, our cloud game-based architecture covers all phases from game creation to the final users’ interactions with the game.Publicación Agricultura de precisión. Optimización del uso de herbicidas mediante visión artificial(Universidad Nacional de Educación a Distancia (España). Escuela Técnica Superior de Ingeniería Informática. Departamento de Inteligencia Artificial, 2023-03-14) Pina Herce, Luis Enrique; Pastor Vargas, RafaelDurante miles de años, los agricultores han buscado formas de aumentar la producción de alimentos en parcelas. A medida que los equipos y la tecnología han evolucionado, las granjas se han vuelo más grandes y los rendimientos han aumentado. Sin embargo, este desafío continua hoy en día y la versión moderna ha recibido un nombre: Agricultura de precisión. La presente memoria busca estudiar una de las ramas a explotar en la agricultura de precisión, la aplicación de herbicidas, mediante el uso de la visión artificial. El proyecto se centra en investigar un modelo rápido y eficiente para la detección de mala hierba en imágenes. Este modelo es la pieza principal de un sistema que recibe imágenes del suelo en tiempo real, y en función de lo que ve, aplica o no el herbicida sobre el suelo.Publicación Alf : un entorno abierto para el desarrollo de comunidades virtuales de trabajo y cursos adaptados a la educación superior(2005-02-23) Raffenne, Emmanuelle; Aguado, M.; Arroyo, D.; Cordova, M. A.; Guzmán Sánchez, José Luis; Hermira, S.; Ortíz, J.; Pesquera, A.; Morales, R.; Romojaro Gómez, Héctor; Valiente, S.; Carmona, G.; Tejedor, D.; Alejo, J. A.; García Saiz, Tomás; González Boticario, Jesús; Pastor Vargas, RafaelAlf, entorno de trabajo, comunidades virtuales, enseñanza superiorPublicación Análisis del aprendizaje y evaluación en plataformas en entornos Big Data y servicios en la nube(Universidad Nacional de Educación a Distancia (España). Escuela Técnica Superior de Ingeniería Informática, 2023-06-20) Fraile Pérez, Sergio; Pastor Vargas, Rafael; Robles Gómez, AntonioEste proyecto se centra en el Learning Analytics, una disciplina cuyo objetivo es mejorar el aprendizaje y la enseñanza a través del análisis de los datos obtenidos a partir de los estudiantes, contenidos y procesos de enseñanza, identificando patrones que permiten medir el rendimiento del estudiante, así como la detección de problemas derivados de los recursos educativos y proponer soluciones o decisiones que mejoren la capacidad de la enseñanza. Por ello el objetivo general del presente proyecto será mejorar la actuación docente mediante el análisis de los datos recopilados, proporcionando información útil para la modificación de recursos y/o mejorar la individualidad del aprendizaje. Para cumplir con el objetivo propuesto se desarrolla una arquitectura que posibilita la recopilación, almacenamiento y análisis de datos obtenidos de plataformas de aprendizaje interactivo mediante la implementación de todos los subsistemas necesarios. La integración de dichos subsistemas se llevará a cabo mediante una tecnología de virtualización ligera y portable, utilizando contenedores Docker. Dicha tecnología permitirá desplegar el sistema rápida y eficientemente en cualquier equipo. En referencia a la estructura de los datos, se utilizará el estándar xAPI. Estándar con mayor flexibilidad y claridad, con una disposición similar al lenguaje humano, facilitando el proceso de análisis. La fase de análisis se llevará a cabo mediante funciones estadísticas y un algoritmo de inteligencia artificial. La motivación de este proyecto deriva de la posibilidad de mejorar el aprendizaje solucionando problemas que mejoren la calidad de la enseñanza y a su vez trabajar con diferentes tecnologías como servidores, bases de datos, inteligencia artificial, páginas web….Publicación Analyzing the Users’ Acceptance of an IoT Cloud Platform using the UTAUT/TAM Model(Institute of Electrical and Electronics Engineers, 2021) Haut, Juan M.; Robles Gómez, Antonio; Tobarra Abad, María de los Llanos; Pastor Vargas, Rafael; Hernández Berlinches, RobertoAntonio Robles-Gómez, Llanos Tobarra, Rafael Pastor-Vargas, Roberto Hernández, Juan M. Haut; Título:; Publicación: . ISSN (https://doi.org/10.1109/ACCESS.2021.3125497);Publicación Aplicación de algoritmos predictivos para la diferenciación de muestras alimentarias en base a su perfil químico(Universidad Nacional de Educación a Distancia (España). Escuela Técnica Superior de Ingeniería Informática. Departamento de Inteligencia Artificial, 2022-09-01) Aguilera Castro, David; Pastor Vargas, Rafael; Muñoz Redondo, José ManuelLa metabolómica es una rama de la ciencia que se basa en el estudio de las pequeñas moléculas orgánicas, denominadas metabolitos, que se hallan presentes en un organismo o muestra biológica. El estudio de la composición química de determinadas muestras biológicas permite establecer comparativas e identificar los compuestos representativos de cada una de ellas. Así, la metabolómica permite determinar los compuestos que diferencian las muestras y, de esta forma, establecer los más singulares (biomarcadores) para identificar una característica o expresión determinadas. Dado que los experimentos de metabolómica producen grandes cantidades de datos, se necesitan herramientas estadísticas avanzadas que puedan efectuar un procesamiento adecuado de los mismos, mediante un manejo eficiente que permita preservar la información biológicamente relevante. El objetivo del presente trabajo ha sido desarrollar una herramienta estadística en R que permita implementar de manera sencilla y ágil los principales pretratamientos y análisis estadísticos utilizados en datos de metabolómica. Con objeto de simplificar el uso de la herramienta, se definió un flujo basado en pasos de procesamiento que pueden encadenarse y que aportan flexibilidad a la programación de pretratamientos. Una vez creada esta herramienta, se aplicó sobre datos del perfil volátil de vinos espumosos de diferente tipología (Andaluz, Cavas y Champagnes). Mediante esta herramienta se consiguió establecer un flujo de pretratamiento óptimo, obteniendo una matriz final de datos a la que poder aplicar distintas técnicas de machine learning: proyección sobre estructuras latentes-análisis discriminante (PLS-DA), k vecinos más próximos (k-NN), Random Forest (RF) y análisis discriminante lineal (LDA). Los métodos de análisis multivariante permitieron reducir la complejidad de la matriz de datos y sintetizar la información de cara a poder realizar una interpretación más sencilla. Los modelos permitieron clasificar las muestras de vinos en base a su perfil volátil y se identificaron los principales compuestos marcadores de cada tipología de vino. A su vez, se aplicaron técnicas de selección de características, optimización de hiperparámetros y procesos de validación cruzada para obtener una comparativa de los resultados de las métricas obtenidos por los diferentes clasificadores.Publicación Arquitectura de un Toolbox integrado de análisis de datos(Universidad Nacional de Educación a Distancia (España). Escuela Técnica Superior de Ingeniería Informática. Departamento de Inteligencia Artificial, 2021-10-01) Blázquez Herranz, Alberto; Pastor Vargas, Rafael; Menasalvas Ruíz, ErnestinaEn el mundo actual, casi todas las nuevas tecnologías tienen múltiples sensores que miden diversos datos a nuestro alrededor y están provistos de una conexión constante a Internet. En la explotación conjunta de estas características basan la provisión de sus servicios los teléfonos inteligentes, los dispositivos portátiles, el ámbito de la domótica, los coches inteligentes, etc. Nos referimos al ámbito referido a este tipo de dispositivos como IoT, o “Internet de las cosas” y, aunque abarca múltiples definiciones, es de especial interés la asociada a la operación de dispositivos físicos con capacidad de procesamiento que están conectados entre sí a través de una red. Esto puede implicar sensores, teléfonos, “wearables”, elementos de domótica… cualquier cosa a la que se le pueda añadir un procesador y que esté conectada a Internet puede formar parte del IoT, creando una cantidad ingente de datos brutos provenientes de distintos ámbitos. Esta producción masiva de datos invita a la revisión de otro concepto: el de "Big Data".Publicación Artificial Intelligence predicitve models for local renewable energy markets(Universidad Nacional de Educación a Distancia (España). Escuela Internacional de Doctorado. Programa de Doctorado en Tecnologías Industriales, 2024) Rozas Rodríguez, Carlos Wolfram; Pastor Vargas, Rafael; Carpio Ibáñez, JoséPublicación Automated IoT vulnerability classification using Deep Learning(2025-07) Sernández Iglesias, Daniel; Enrique Fernández Morales,; Garcia Merino, Jose Carlos; Tobarra Abad, María de los Llanos; Pastor Vargas, Rafael; Robles Gómez, Antonio; Sarraipa, JoaoTechnological advancements in the development of low-power chips have enabled everyday objects to connect to the Internet, giving rise to the concept known as the Internet of Things (IoT). It is currently estimated that there are approximately 16 billion IoT connections worldwide, a figure expected to double by 2030. However, this rapid growth of the IoT ecosystem has introduced new vulnerabilities that could be exploited by malicious actors. Since many IoT devices handle personal and sensitive information, threats to these devices can have severe consequences. Moreover, a series of cybersecurity incidents could undermine public trust in IoT technology, potentially delaying its widespread adoption across various sectors.Common Vulnerabilities and Exposures records (also known by their acronym as CVEs) is a public cataloging system designed to identify and list known security vulnerabilities in software and hardware products. This system is developed and maintained by MITRE with the support of the cybersecurity community and sponsored by the U.S. Department of Homeland Security (DHS) through the Cybersecurity and Infrastructure Security Agency (CISA). CVE provides a reference database that enables security researchers, manufacturers, and organizational security managers to more effectively identify and address security issues.In our study, we have focused on CVEs exclusively oriented towards IoT systems, with the aim of analyzing the main vulnerabilities detected from 2010 to nowadays as a basis for detecting the main attack vectors in IoT systems. As part of this effort we have created the following dataset. CVEs records include various metrics such as: - Common Weakness Enumeration (CWE), mainly focused on technical classification of vulnerabilities. - Common Vulnerability Scoring System (CVSS), which reports about different metrics such as the attack vector, the severity of the vulnerability or the impact level of the exploitation of the vulnerability. This is one of the most informative metric. - Stakeholder-Specific Vulnerability Categorization (SSVC), oriented towards help cybersecurity team to handle properly the vulnerability. These metrics allow security teams on the one hand to prioritize, such vulnerabilities within their security program, evaluating efforts to mitigate them. But according to our analysis of our dataset, around the 14% of CVEs records do not contain any metric. Around the 83% of CVEs registries contain CWE metric (an ID or its textual description). This metric, as it is explained before, only reports about the type of vulnerability from a technic point of view. Only the 10% of CVEs registries contain SSVC metrics. And CVSS, in its different versions, appears only in the 40% of the studied CVEs registries. Additionally, most of studied records includes metrics a retrospectively, several weeks or months later the vulnerability is disclosed. Thus, cybersecurity teams must trust their previous knowledge in order to distinguish which vulnerabilities are relevant and which not.To tackled this situation, our proposal is focused in the application of Deep Learning techniques in order to classify the severity of CVE records from its textual description. Textual description is a mandatory field that is present in all CVEs records. To achieve this objective, we trained the BiLSTM algorithm using the CVE records with CVSS metrics and its description field; and performed a comparative study of different hyperparameter configurations to find the optimal configuration. The metrics for model evaluation that have been studied are accuracy, loss and F1-score.Publicación Clasificación automática de textos sobre Trastornos de Conducta Alimentaria (TCA) obtenidos de Twitter(Universidad Nacional de Educación a Distancia (España). Escuela Técnica Superior de Ingeniería Informática. Departamento de Inteligencia Artificial, 2021-06-25) Benítez Andrades, José Alberto; Pastor Vargas, Rafael; García Ordás, María TeresaGran parte de nuestra sociedad da mucha importancia al aspecto físico. Tener un aspecto físico bonito, o ideal, no tiene por qué ser sinónimo de padecer una buena salud. Hay personas que pueden poseer un cuerpo delgado, fuerte y con una buena definición muscular, pero no mantener una vida muy saludable debido al uso de sustancias que no son precisamente sanas. En la búsqueda de un aspecto físico delgado, muchos piensan que también encontrarán la felicidad y, sin embargo, en muchas ocasiones esto no es así. La presión que imponen los cánones de belleza extendidos en la sociedad han provocado que gran parte de la sociedad padezca enfermedades mentales relacionados con la alimentación y más conocidos como trastornos de conducta alimentaria (TCA). Algunos ejemplos son la anorexia, la bulimia, la bulimarexia, trastornos por atracón, etc. Los medios sociales y, más concretamente, las redes sociales, son herramientas tecnológicas que cada vez tienen un mayor número de usuarios y mediante los cuales es sencillo difundir y divulgar información entre la sociedad de forma rápida. A pesar de las bondades de las redes sociales, cuando una persona padece un TCA, pueden fomentar o provocar un empeoramiento en la propia enfermedad del paciente. Twitter es una de las redes sociales más utilizadas en el ámbito de la recopilación de datos para su posterior estudio y, en el ámbito de la salud, es la herramienta más utilizada en el ámbito de la investigación en lo que a redes sociales se refiere. Son muchos los estudios que están centrándose en obtener tuits y generar modelos capaces de clasificar textos o analizar el sentimiento en distintas temática sanitarias. Por todo lo anteriormente expuesto, en esta investigación se ha propuesto aplicar distintas técnicas de minería de datos recopilando distintos tuits relacionados con TCA. Posteriormente, se han aplicado técnicas de minería de textos y procesamiento de lenguaje natural que han permitido generar modelos predictivos haciendo uso de distintas técnicas de aprendizaje automático supervisado como bosques aleatorios, redes neuronales recurrentes e incluso modelos conocidos como Bidirectional Long Short-Term Memory (Bi-LSTM). Tras la aplicación de estos modelos, se ha puesto en valor la exactitud obtenida de los diferentes modelos de clasificación para clasificar tuits relacionados con TCA dentro de cuatro categorías diferentes que pueden ser de interés para la comunidad científica: (i) mensajes escritos por personas que padecen, o no, TCA, (ii) mensajes que fomentan, o no, el padecer un TCA, (iii) mensajes de carácter informativo, o de opinión y (iv) mensajes de carácter científico, o no.Publicación Cloud Implementation of Extreme Learning Machine for Hyperspectral Image Classification(IEEE, 2023) Haut, Juan M.; Moreno Álvarez, Sergio; Moreno Ávila, Enrique; Ayma Quirita, Victor Andrés; Pastor Vargas, Rafael; Paoletti, Mercedes Eugenia; https://orcid.org/0000-0001-6701-961X; https://orcid.org/0000-0003-2987-2761; https://orcid.org/0000-0002-4089-9538; https://orcid.org/0000-0003-1030-3729Classifying remotely sensed hyperspectral images (HSIs) became a computationally demanding task given the extensive information contained throughout the spectral dimension. Furthermore, burgeoning data volumes compound inherent computational and storage challenges for data processing and classification purposes. Given their distributed processing capabilities, cloud environments have emerged as feasible solutions to handle these hurdles. This encourages the development of innovative distributed classification algorithms that take full advantage of the processing capabilities of such environments. Recently, computational-efficient methods have been implemented to boost network convergence by reducing the required training calculations. This letter develops a novel cloud-based distributed implementation of the extreme learning machine ( CC-ELM ) algorithm for efficient HSI classification. The proposal implements a fault-tolerant and scalable computing design while avoiding traditional batch-based backpropagation. CC-ELM has been evaluated over state-of-the-art HSI classification benchmarks, yielding promising results and proving the feasibility of cloud environments for large remote sensing and HSI data volumes processing. The code available at https://github.com/mhaut/scalable-ELM-HSIPublicación Cloud-Based Analysis of Large-Scale Hyperspectral Imagery for Oil Spill Detection(IEEE, 2024) Haut, Juan M.; Moreno Álvarez, Sergio; Pastor Vargas, Rafael; Pérez García, Ámbar; Paoletti, Mercedes Eugenia; https://orcid.org/0000-0001-6701-961X; https://orcid.org/0000-0002-4089-9538; https://orcid.org/0000-0002-2943-6348; https://orcid.org/0000-0003-1030-3729Spectral indices are of fundamental importance in providing insights into the distinctive characteristics of oil spills, making them indispensable tools for effective action planning. The normalized difference oil index (NDOI) is a reliable metric and suitable for the detection of coastal oil spills, effectively leveraging the visible and near-infrared (VNIR) spectral bands offered by commercial sensors. The present study explores the calculation of NDOI with a primary focus on leveraging remotely sensed imagery with rich spectral data. This undertaking necessitates a robust infrastructure to handle and process large datasets, thereby demanding significant memory resources and ensuring scalability. To overcome these challenges, a novel cloud-based approach is proposed in this study to conduct the distributed implementation of the NDOI calculation. This approach offers an accessible and intuitive solution, empowering developers to harness the benefits of cloud platforms. The evaluation of the proposal is conducted by assessing its performance using the scene acquired by the airborne visible infrared imaging spectrometer (AVIRIS) sensor during the 2010 oil rig disaster in the Gulf of Mexico. The catastrophic nature of the event and the subsequent challenges underscore the importance of remote sensing (RS) in facilitating decision-making processes. In this context, cloud-based approaches have emerged as a prominent technological advancement in the RS field. The experimental results demonstrate noteworthy performance by the proposed cloud-based approach and pave the path for future research for fast decision-making applications in scalable environments.Publicación A Data-Driven Approach to Engineering Instruction: Exploring Learning Styles, Study Habits, and Machine Learning(IEEE Xplore, 2025-01-10) Isaza Domínguez, Lauren Genith; Robles Gómez, Antonio; Pastor Vargas, RafaelThis study examined the impact of learning style and study habit alignment on the academic success of engineering students. Over a 16-week semester, 72 students from Process Engineering and Electronic Engineering programs at the Universidad de Los Llanos participated in this study. They completed the Learning Styles Index questionnaire on the first day of class, and each week, teaching methods and class activities were aligned with one of the four learning dimensions of the Felder-Silverman Learning Styles Model. Lesson 1 focused on one side of a learning dimension, lesson 2 on the opposite side, and the tutorial session incorporated both. Quizzes and engagement surveys assessed short-term academic performance, whereas midterm and final exam results measured long-term performance. Paired t-tests, Cohen’s effect size, and two-way ANOVA showed that aligning teaching methods with learning styles improved students’short-term exam scores and engagement. However, multiple regression analysis indicated that study habits (specifically time spent studying, frequency, and scores on a custom-developed study quality survey) were much stronger predictors of midterm and final exam performance. Several machine learning models, including Random Forest and Voting Ensemble, were tested to predict academic performance using study behavior data. Voting Ensemble was found to be the strongest model, explaining 83% of the variance in final exam scores, with a mean absolute error of 3.18. Our findings suggest that, while learning style alignment improves short-term engagement and comprehension, effective study habits and time management play a more important role in long-term academic success.Publicación Dataset Generation and Study of Deepfake Techniques(Springer, 2023) Falcón López, Sergio Adrián; Robles Gómez, Antonio; Tobarra Abad, María de los Llanos; Pastor Vargas, RafaelThe consumption of multimedia content on the Internet has nowadays been expanded exponentially. These trends have contributed to fake news can become a very high influence in the current society. The latest techniques to influence the spread of digital false information are based on methods of generating images and videos, known as Deepfakes. This way, our research work analyzes the most widely used Deepfake content generation methods, as well as explore different conventional and advanced tools for Deepfake detection. A specific dataset has also been built that includes both fake and real multimedia contents. This dataset will allow us to verify whether the used image and video forgery detection techniques can detect manipulated multimedia content.Publicación Desarrollo de un sistema basado en aprendizaje automático para el reconocimiento de patrones de expresión asociados a mutaciones a partir de secuenciación de ARNm en células individuales(Universidad Nacional de Educación a Distancia (España). Escuela Técnica Superior de Ingeniería Informática. Departamento de Inteligencia Artificial, 2022-09-01) Rodríguez Bouza, Víctor; Suárez Puente, Xose Antón; Pastor Vargas, RafaelEn este trabajo se ha estudiado la posibilidad de construir modelos de aprendizaje automático que identifiquen la presencia de mutaciones en secuenciaciones individuales de ARN mensajero (single cell RNA-sequencing) utilizando datos de pacientes de leucemia linfática crónica (LLC). Para ello, se han creado simulaciones de Montecarlo que permitieron replicar secuenciaciones de scRNA-seq. Los resultados confirman que existen diferencias que permiten identificar estas mutaciones en secuenciaciones individuales de ARNm. Sin embargo, debido al reducido número de datos no es posible obtener un modelo final estable.Publicación Desarrollo de una librería para la obtención masiva de imágenes Sentinel y su aplicación en la detección de incendios con Deep Learning(Universidad de Educación a Distancia (UNED), 2024-09) García Flores, María Beatriz; Pastor Vargas, Rafael; Haut Hurtado, Juan MarioEste Trabajo Fin de Máster presenta el desarrollo de un modelo predictivo para la detección de incendios forestales utilizando técnicas de aprendizaje profundo (Deep Learning) aplicadas a imágenes multiespectrales del satélite Sentinel-2 y datos de incendios activos proporcionados por el sistema FIRMS (Fire Information for Resource Management System). Dada la creciente amenaza que representan los incendios forestales para los ecosistemas y las zonas habitadas, este proyecto busca facilitar una intervención temprana y mejorar la gestión eficiente de incendios mediante la integración de imágenes satelitales y análisis avanzado. El proceso incluye el preprocesamiento de imágenes multiespectrales y la generación de etiquetas de referencia utilizando el índice de Pierre Markuse, especializado en la identificación de áreas quemadas. Se implementaron modelos de segmentación semántica, como U-Net y SegNet, entrenados para identificar áreas afectadas por incendios. Estos modelos capturaron características clave de las imágenes, mejorando la precisión de la segmentación. Se utilizaron encoders como MobileNetV3 y EfficientNetV2 para extraer características complejas. Los resultados destacan la importancia de las bandas NIR y SWIR, que permiten identificar áreas con estrés hídrico o cambios en la vegetación, factores que influyen en la propagación de incendios. La combinación de teledetección satelital y Deep Learning proporciona un marco sólido para la detección temprana de incendios, mejorando las capacidades de respuesta y mitigación. Este trabajo también identifica algunas limitaciones, como el alto coste computacional en el procesamiento de grandes volúmenes de datos y la necesidad de optimizar los modelos. Para futuras investigaciones, se sugiere la inclusión de datos meteorológicos para mejorar la precisión y el rendimiento predictivo.Publicación Detección de eventos adversos en historiales clínicos mediante Procesamiento del Lenguaje Natural(Universidad Nacional de Educación a Distancia (España). Escuela Técnica Superior de Ingeniería Informática. Departamento de Inteligencia Artificial, 2021-10-07) Martos López, Daniel; Pastor Vargas, Rafael; Sánchez Bocanegra, Carlos LuisEl objetivo de este Trabajo Fin de Máster (TFM) es poner en práctica las competencias adquiridas en las enseñanzas del Máster en Ingeniería y Ciencia de Datos, más concretamente en el área del Procesamiento del Lenguaje Natural aplicado a textos clínicos. Mediante este trabajo se pretende diseñar un método que ayude al profesional sanitario a predecir eventos adversos, los cuales se definen como el daño físico no intencionado que es causado por los cuidados sanitarios más que por la enfermedad subyacente del paciente, a través de un catálogo de triggers ya definido, buscar patrones y agrupar en virtud de éstos obteniendo como resultado una mejora en la Seguridad del Paciente. La metodología seguida ha sido la evaluación de diferentes herramientas cuya finalidad es la identificación de términos o conceptos clínicos en español o inglés dentro del vocabulario SNOMED-CT y su integración con el lenguaje de programación Python para la construcción de nuestra propia herramienta detectora de eventos adversos. El resultado ha sido un método capaz de detectar posibles eventos adversos en texto clínico en español.Publicación Detection of Cerebral Ischaemia using Transfer Learning Techniques(IEEE) Antón Munárriz, Cristina; Haut, Juan M.; Paoletti, Mercedes E.; Benítez Andrades, José Alberto; Pastor Vargas, Rafael; Robles Gómez, AntonioCerebrovascular accident (CVA) or stroke is one of the main causes of mortality and morbidity today, causing permanent disabilities. Its early detection helps reduce its effects and its mortality: time is brain. Currently, non-contrast computed tomography (NCCT) continues to be the first-line diagnostic method in stroke emergencies because it is a fast, available, and cost-effective technique that makes it possible to rule out haemorrhage and focus attention on the ischemic origin, that is, due to obstruction to arterial flow. NCCT are quantified using a scoring system called ASPECTS (Alberta Stroke Program Early Computed Tomography Score) according to the affected brain structures. This paper aims to detect in an initial phase those CTs of patients with stroke symptoms that present early alterations in CT density using a binary classifier of CTs without and with stroke, to alert the doctor of their existence. For this, several well-known neural network architectures are implemented in the ImageNet challenges (VGG, NasNet, ResNet and DenseNet), with 3D images, covering the entire brain volume. The training results of these networks are exposed, in which different parameters are tested to obtain maximum performance, which is achieved with a DenseNet3D network that achieves an accuracy of 98% in the training set and 95% in the test setPublicación Easy Java Simulations: an Open-Source Tool to Develop Interactive Virtual Laboratories Using MATLAB/Simulink(TEMPUS Publications, The International Journal of Engineering Education: Especial issue on Matlab/Simulink in engineering education, 21, 5, 798-813, 2005, 2005-01-01) Esquembre Martínez, Francisco; Dormido Bencomo, Sebastián; Sánchez Moreno, José; Martín Villalba, Carla; Dormido Canto, Sebastián; Dormido Canto, Raquel; Pastor Vargas, Rafael; Urquía Moraleda, AlfonsoPublicación Emulating and Evaluating Virtual Remote Laboratories for Cybersecurity(MDPI, 2020) Cano, Jesús; Robles Gómez, Antonio; Tobarra Abad, María de los Llanos; Pastor Vargas, Rafael; Hernández Berlinches, RobertoOur society is nowadays evolving towards a digital era, due to the extensive use of computer technologies and their interconnection mechanisms, i.e., social networks, Internet resources, IoT services, etc. This way, new threats and vulnerabilities appear. Therefore, there is an urgent necessity of training students in the topic of cybersecurity, in which practical skills have to be acquired. In distance education, the inclusion of on-line resources for hands-on activities in its curricula is a key step in meeting that need. This work presents several contributions. First, the fundamentals of a virtual remote laboratory hosted in the cloud are detailed. This laboratory is a step forward since the laboratory combines both virtualization and cloud paradigms to dynamically create emulated environments. Second, this laboratory has also been integrated into the practical curricula of a cybersecurity subject, as an additional on-line resource. Third, the students’ traceability, in terms of their interactions with the laboratory, is also analyzed. Psychological TAM/UTAUT factors (perceived usefulness, estimated effort, social influence, attitude, ease of access) that may affect the intention of using the laboratory are analyzed. Fourth, the degree of satisfaction is analyzed with a great impact, since the mean values of these factors are most of them higher than 4 points out of 5. In addition to this, the students’ acceptance of the presented technology is exhaustively studied. Two structural equation models have been hypothesized and validated. Finally, the acceptance of the technology can be concluded as very good in order to be used in @? other Engineering contexts. In this sense, the calculated statistical values for the improved proposed model are within the expected ranges of reliability (X2 = 0.6, X2/DF = 0.3, GFI = 0.985, CIF = 0.985, RMSEA = 0) by considering the literature
- «
- 1 (current)
- 2
- 3
- »