Galletero Romero, Marcos2024-05-202024-05-202021-10-08https://hdl.handle.net/20.500.14468/14205Las fuentes de datos para estudios de NLP no académicas suelen estar protegidas detrás de un acceso privativo. Los web crawlers (programas que de forma iterativa descargan los archivos HTML de un determinado dominio) permiten que investigadores en NLP tengan acceso a la gran fuente de información que es la red. Sin embargo, estos no ofrecen una solución completa, pues no pueden acceder a versiones anteriores de webs modificadas o borradas, además de que algunos son difíciles de mantener. Common Crawl ofrece solución al primero de estos problemas, manteniendo un back-up de un gran grupo de dominios a lo largo del tiempo. La resolución del segundo problema es el objeto de este proyecto, que pretende hacer el acceso a los datos de Common Crawl fácil y rápido mediante un diseño cloud.esinfo:eu-repo/semantics/openAccessConstrucción eficiente de datasets de noticias para proyectos de NLPtesis de maestríascrappingCommon CrawlNLPtext miningcloud architecturesparallel computingdata democratization