Gorrotxategi Zipitria, Mikel2024-05-202024-05-202019-09-25https://hdl.handle.net/20.500.14468/14101En las Estaciones Depuradoras de Aguas Residuales (EDAR) tienen lugar complejos procesos físicos, químicos y biológicos. Éste hecho junto con las variaciones que se dan en el influente y en el medio hacen que los controles tradicionales en la industria, como por ejemplo los PIDs, ofrezcan resultados limitados. En el intento de mejorar estos controles, tanto desde el punto de vista de la calidad del efluente como del consumo energético, se ha empleado la Inteligencia Artificial (IA) en dichos controles de formas muy diferentes. En este documento se comparan los resultados del uso de PIDs, el control clásico, y de un agente de Aprendizaje por Refuerzo (Reinforcement Learning, RL) sin modelo inicial del medio en una EDAR del tipo BSM1 (Benchmark Simulation Model No.1), un modelo ampliamente utilizado en la industria y que es el estándar en la simulación de las EDARs. Tanto los PIDs como el agente de RL controlan la misma variable, el nivel de oxígeno disuelto, con el objetivo de mantener la planta dentro de los niveles adecuados, pero con un consumo de energía bajo. Previamente se describe el modelo de EDAR empleado, se familiariza con él para percibir su complejidad y se busca el ajuste óptimo de los PIDs que se emplearán en la comparación. Los resultados revelan que el uso de un agente de RL mejora los resultados de los PIDs estudiados, ya que la IA es capaz de adaptar su estrategia de control el busca del óptimo y así mejorar los resultados de los PIDs. Por todo ello la IA es una alternativa real en el control de EDARs.esAtribución-NoComercial-SinDerivadas 4.0 Internacionalinfo:eu-repo/semantics/openAccessAprendizaje por refuerzo en el control de plantas de depuración de aguas residuales: Comparación con el enfoque clásicotesis de maestríaEDARaprendizaje por refuerzo