Publicación:
Desambiguación de acrónimos en literatura médica española

dc.contributor.authorGarcía García, María Elena
dc.contributor.directorMartínez Unanue, Raquel
dc.contributor.directorMontalvo Herranz, Soto
dc.date.accessioned2024-05-20T12:34:04Z
dc.date.available2024-05-20T12:34:04Z
dc.date.issued2021-09-01
dc.description.abstractLa literatura biomédica esta repleta de abreviaciones y acrónimos, los cuales en muchas ocasiones son ambiguos. En las tareas de Procesamiento del Lenguaje Natural en los que este tipo de textos están involucrados, supone un gran problema por parte del sistema, para poder identificar y comprender tanto el documento como este tipo de palabras. En la última década se han desarrollado muchas investigaciones para poder desambiguar los acrónimos en literatura médica según el contexto del documento. Sin embargo, el reto siempre ha estado en el coste computacional que supone entrenar un modelo con textos de un ámbito concreto. Recientemente ha habido avances en este tema gracias a modelos lingüísticos basados en mecanismos de atención llamados Transformers, especialmente aquellos preentrenados ya con grandes corpus, como BERT (Bidirectional Encoder Representations from Transformers). Estos novedosos modelos han sido usados en los últimos tres años para la desambiguación de acrónimos en literatura médica, especialmente inglesa. En este trabajo se propone adaptarlos para poder realizarlo en literatura médica española.es
dc.description.abstractBiomedical literature is full of abbreviations and acronyms, which are often ambiguous. In Natural Language Processing tasks in which these types of texts are involved, it is a big problem for the system to identify and understand both the document and these types of words. In the last decade, a lot of research has been done to disambiguate acronyms in medical literature according to the context of the document. However, the challenge has always been the computational cost of training a model with texts from a specific field. Recently there have been advances in this subject thanks to linguistic models based on attention mechanisms called Transformers, especially those already pre-trained with large corpus, such as BERT (Bidirectional Encoder Representations from Transformers). These models have been used in the last three years for the disambiguation of acronyms in medical literature, especially in English. In this document we propose to adapt them to use in Spanish medical literature.en
dc.description.versionversión final
dc.identifier.urihttps://hdl.handle.net/20.500.14468/14528
dc.language.isoes
dc.publisherUniversidad Nacional de Educación a Distancia (España). Escuela Técnica Superior de Ingeniería Informática. Departamento de Lenguajes y Sistemas Informáticos
dc.relation.centerFacultades y escuelas::E.T.S. de Ingeniería Informática
dc.relation.degreeMáster Universitario en I.A. Avanzada: Fundamentos, Métodos y Aplicaciones
dc.relation.departmentInteligencia Artificial
dc.rightsinfo:eu-repo/semantics/openAccess
dc.rights.urihttps://creativecommons.org/licenses/by-nc-nd/4.0/deed.es
dc.subject.keywordsacrónimo
dc.subject.keywordsdesambiguación
dc.subject.keywordsBiomedicina
dc.subject.keywordsTransformers
dc.subject.keywordsmecanismos de atención
dc.subject.keywordsBERT
dc.subject.keywordsBETO
dc.subject.keywordsacronym
dc.subject.keywordsdisambiguation
dc.subject.keywordsBiomedical
dc.subject.keywordsTransformers
dc.subject.keywordsattention mechanisms
dc.titleDesambiguación de acrónimos en literatura médica españolaes
dc.typetesis de maestríaes
dc.typemaster thesisen
dspace.entity.typePublication
Archivos
Bloque original
Mostrando 1 - 1 de 1
Cargando...
Miniatura
Nombre:
Garcia_Garcia_MariaElena_TFM.pdf
Tamaño:
2.45 MB
Formato:
Adobe Portable Document Format