Publicación:
Respuestas observables y estados ocultos en redes neuronales artificiales para razonar sobre aspectos cognitivos del lenguaje

dc.contributor.authorJorge Botana, Guillermo de
dc.contributor.authorMartínez Huertas, José Ángel
dc.contributor.authorMartínez Mingo, Alejandro
dc.contributor.funderAgencia Estatal de Investigación
dc.date.accessioned2025-10-27T13:01:47Z
dc.date.available2025-10-27T13:01:47Z
dc.date.issued2025-06-30
dc.descriptionThe registered version of this article, first published in Acción Psicológica, is available online at the publisher's website: Universidad Nacional de Educación a Distancia (UNED), https://doi.org/10.5944/ap.22.1.43347
dc.descriptionLa versión registrada de este artículo, publicado por primera vez en Acción Psicológica, está disponible en línea en el sitio web del editor: Universidad Nacional de Educación a Distancia (UNED), https://doi.org/10.5944/ap.22.1.43347
dc.descriptionEsta publicación es parte del Proyecto de I+D+i PID2022-136905OB-C22 financiado por el Ministerio de Ciencia e Innovación MCIN/ AEI/ 10.13039/501100011033/ FEDER, UE.
dc.description.abstractPara estudiar los procesos psicológicos involucrados en el lenguaje, la Ciencia Cognitiva indaga sobre las representaciones internas que se manejan a la hora de comprender o producir lenguaje. También postula las operaciones que modifican esas mismas representaciones dadas unas constricciones contextuales. Así, contexto y representación interactúan para crear significados. Con arreglo a esto, se ofrecen diferentes hipótesis de como el sistema cognitivo produce lenguaje. Al igual que existen metodologías experimentales para su estudio, distintas arquitecturas de redes neuronales artificiales permiten dotar a dichas hipótesis de un aparataje formal. En estos modelos, las representaciones y las operaciones participantes quedan exhaustivamente caracterizadas. Las redes neuronales recurrentes (RNNs) con mecanismos LSTM y los Transformers destacan como arquitecturas especialmente útiles para modelar la secuencialidad contextual presente en el lenguaje. Este número especial nos brinda la ocasión para explicar el uso de sus expresiones externas (sus salidas) como de sus representaciones internas (estados ocultos) para entender en términos cognitivos el efecto que tienen los cambios de expectativas en distintas marcas temporales de las frases. Para hacerlo, se ilustra la formalización mediante una RNN Secuencia-Secuencia con codificador y decodificador y se homologan sus mediciones a los experimentos de potenciales evento-relacionados (ERPs) en un tema nuclear en el lenguaje: la composicionalidad sistemática.es
dc.description.abstractIn order to study the psychological processes involved in language, Cognitive Science investigates the internal representations involved in understanding or producing language. It also postulates the operations that modify those representations given contextual constraints. Thus, context and representation interact to create meanings. Accordingly, there are different hypotheses about how the cognitive system produces language. Just as there are experimental methodologies for their study, different architectures of artificial neural networks make it possible to provide these hypotheses with a formal apparatus. In these models, the representations and operations involved are exhaustively characterized. Recurrent neural networks (RNNs) with LSTM mechanisms and Transformers stand out as particularly useful architectures for modeling the contextual sequentiality of language. This special issue gives us the opportunity to explain how to use their external expressions (outputs) as well as their internal representations (hidden states) to understand, in cognitive terms, the effect that changes of expectations have on different temporal markings of sentences. To do so, we illustrate such formalization using a Sequence-Sequence RNN with encoder and decoder and relate its measures with event-related potentials (ERPs) experiments on a nuclear issue in language: systematic compositionality.en
dc.description.versionversión publicada
dc.identifier.citationJorge-Botana, G., Martínez-Huertas, J. Á., & Martínez-Mingo, A. (2025). Respuestas observables y estados ocultos en redes neuronales artificiales para razonar sobre aspectos cognitivos del lenguaje [Observable responses and hidden states in artificial neural networks to reason about cognitive aspects of language]. Acción Psicológica, 22(1), 41–56. https://doi.org/10.5944/ap.22.1.43347
dc.identifier.doihttps://doi.org/10.5944/ap.22.1.43347
dc.identifier.issn2255-1271
dc.identifier.urihttps://hdl.handle.net/20.500.14468/30638
dc.journal.issue1
dc.journal.titleAcción Psicológica
dc.journal.volume22
dc.language.isoes
dc.page.final56
dc.page.initial41
dc.publisherUniversidad Nacional de Educación a Distancia (UNED)
dc.relation.centerFacultad de Psicología
dc.relation.departmentMetodología de las Ciencias del Comportamiento
dc.relation.projectidinfo:eu-repo/grantAgreement/AEI/Plan Estatal de Investigación Científica y Técnica y de Innovación 2021-2023/PID2022-136905OB-C22
dc.rightsinfo:eu-repo/semantics/openAccess
dc.rights.urihttp://creativecommons.org/licenses/by-nc/4.0/deed.es
dc.subject6106 Psicología experimental
dc.subject6104.01 Procesos cognitivos
dc.subject.keywordsredes neuronales artificialeses
dc.subject.keywordsredes recurrenteses
dc.subject.keywordsLSTMes
dc.subject.keywordsestados ocultoses
dc.subject.keywordssorpresividades
dc.subject.keywordslenguajees
dc.subject.keywordspotenciales eventor-relacionadoses
dc.subject.keywordsTransformerses
dc.subject.keywordsartificial neural networksen
dc.subject.keywordsrecurrent networksen
dc.subject.keywordsLSTMen
dc.subject.keywordshidden statesen
dc.subject.keywordssurprisalen
dc.subject.keywordslanguageen
dc.subject.keywordsevent-related potentialsen
dc.subject.keywordsTransformersen
dc.titleRespuestas observables y estados ocultos en redes neuronales artificiales para razonar sobre aspectos cognitivos del lenguajees
dc.titleObservable responses and hidden states in artificial neural networks to reason about cognitive aspects of languageen
dc.typeartículoes
dc.typejournal articleen
dspace.entity.typePublication
relation.isAuthorOfPublicationca510876-0be8-438a-a565-ac5f8953fb78
relation.isAuthorOfPublicationb983cf3d-276e-461e-a115-b07f4de7a599
relation.isAuthorOfPublication.latestForDiscoveryca510876-0be8-438a-a565-ac5f8953fb78
Archivos
Bloque original
Mostrando 1 - 1 de 1
Cargando...
Miniatura
Nombre:
respuestas observables.pdf
Tamaño:
5.18 MB
Formato:
Adobe Portable Document Format
Bloque de licencias
Mostrando 1 - 1 de 1
No hay miniatura disponible
Nombre:
license.txt
Tamaño:
3.62 KB
Formato:
Item-specific license agreed to upon submission
Descripción: