Persona: Cuadra Troncoso, José Manuel
Cargando...
Dirección de correo electrónico
ORCID
0000-0003-3616-0404
Fecha de nacimiento
Proyectos de investigación
Unidades organizativas
Puesto de trabajo
Apellidos
Cuadra Troncoso
Nombre de pila
José Manuel
Nombre
2 resultados
Resultados de la búsqueda
Mostrando 1 - 2 de 2
Publicación Modelado adaptativo del medio para la navegación de robots autónomos utilizando algoritmos basados en el centro de áreas(Universidad Nacional de Educación a Distancia (España). Escuela Técnica Superior de Ingeniería Informática. Departamento de Inteligencia Artificial, 2011-05-09) Cuadra Troncoso, José Manuel; Álvarez Sánchez, José Ramón; Paz López, Félix de laEsta tesis tiene como objetivo la investigación de nuevos métodos de navegación reactiva para robots autónomos, considerada como base de cualquier otra forma de navegación de más alto nivel. En la navegación reactiva el robot se mueve en función únicamente de lo que percibe, no hay una planificación previa de la ruta a seguir. El tipo de robot que consideraremos en este trabajo es el robot terrestre equipado con sensores de rango 2D. Estos sensores proporcionan al robot mediciones de las distancias a las que se encuentran los objetos que le rodean, rescindiendo dichas mediciones a un plano paralelo al suelo. Estamos por lo tanto, en un contexto de movimientos y mediciones bidimensionales.Publicación Self-Learning Robot Autonomous Navigation with Deep Reinforcement Learning Techniques(MDPI, 2023-12-30) Pintos Gómez de las Heras, Borja; Martínez Tomás, Rafael; Cuadra Troncoso, José ManuelComplex and high-computational-cost algorithms are usually the state-of-the-art solution for autonomous driving cases in which non-holonomic robots must be controlled in scenarios with spatial restrictions and interaction with dynamic obstacles while fulfilling at all times safety, comfort, and legal requirements. These highly complex software solutions must cover the high variability of use cases that might appear in traffic conditions, especially when involving scenarios with dynamic obstacles. Reinforcement learning algorithms are seen as a powerful tool in autonomous driving scenarios since the complexity of the algorithm is automatically learned by trial and error with the help of simple reward functions. This paper proposes a methodology to properly define simple reward functions and come up automatically with a complex and successful autonomous driving policy. The proposed methodology has no motion planning module so that the computational power can be limited like in the reactive robotic paradigm. Reactions are learned based on the maximization of the cumulative reward obtained during the learning process. Since the motion is based on the cumulative reward, the proposed algorithm is not bound to any embedded model of the robot and is not being affected by uncertainties of these models or estimators, making it possible to generate trajectories with the consideration of non-holonomic constrains. This paper explains the proposed methodology and discusses the setup of experiments and the results for the validation of the methodology in scenarios with dynamic obstacles. A comparison between the reinforcement learning algorithm and state-of-the-art approaches is also carried out to highlight how the methodology proposed outperforms state-of-the-art algorithms.