Fecha
2025-06-30
Editor/a
Director/a
Tutor/a
Coordinador/a
Prologuista
Revisor/a
Ilustrador/a
Derechos de acceso
info:eu-repo/semantics/openAccess
Título de la revista
ISSN de la revista
Título del volumen
Editorial
Universidad Nacional de Educación a Distancia (UNED)
Resumen
Para estudiar los procesos psicológicos involucrados en el lenguaje, la Ciencia Cognitiva   indaga sobre las representaciones internas que se manejan a la hora de comprender o producir lenguaje.  También postula las operaciones que modifican esas mismas representaciones dadas unas constricciones contextuales.  Así, contexto y representación interactúan para crear significados.  Con arreglo a esto, se ofrecen diferentes hipótesis de como el sistema cognitivo produce lenguaje. Al igual que existen metodologías experimentales para su estudio, distintas arquitecturas de redes neuronales artificiales permiten dotar a dichas hipótesis de un aparataje formal. En estos modelos, las representaciones y las operaciones participantes quedan exhaustivamente caracterizadas. Las redes neuronales recurrentes (RNNs) con mecanismos LSTM y los Transformers destacan como arquitecturas especialmente útiles para modelar la secuencialidad contextual presente en el lenguaje. Este número especial nos brinda la ocasión para explicar el uso de sus expresiones externas (sus salidas) como de sus representaciones internas (estados ocultos) para entender en términos cognitivos el efecto que tienen los cambios de expectativas en distintas marcas temporales de las frases. Para hacerlo, se ilustra la formalización mediante una RNN Secuencia-Secuencia con codificador y decodificador y se homologan sus mediciones a   los experimentos de potenciales evento-relacionados (ERPs) en un tema nuclear en el lenguaje: la composicionalidad sistemática.
In order to study the psychological processes involved in language, Cognitive Science investigates the internal representations involved in understanding or producing language. It also postulates the operations that modify those representations given contextual constraints. Thus, context and representation interact to create meanings. Accordingly, there are different hypotheses about how the cognitive system produces language. Just as there are experimental methodologies for their study, different architectures of artificial neural networks make it possible to provide these hypotheses with a formal apparatus. In these models, the representations and operations involved are exhaustively characterized. Recurrent neural networks (RNNs) with LSTM mechanisms and Transformers stand out as particularly useful architectures for modeling the contextual sequentiality of language. This special issue gives us the opportunity to explain how to use their external expressions (outputs) as well as their internal representations (hidden states) to understand, in cognitive terms, the effect that changes of expectations have on different temporal markings of sentences. To do so, we illustrate such formalization using a Sequence-Sequence RNN with encoder and decoder and relate its measures with event-related potentials (ERPs) experiments on a nuclear issue in language: systematic compositionality.
In order to study the psychological processes involved in language, Cognitive Science investigates the internal representations involved in understanding or producing language. It also postulates the operations that modify those representations given contextual constraints. Thus, context and representation interact to create meanings. Accordingly, there are different hypotheses about how the cognitive system produces language. Just as there are experimental methodologies for their study, different architectures of artificial neural networks make it possible to provide these hypotheses with a formal apparatus. In these models, the representations and operations involved are exhaustively characterized. Recurrent neural networks (RNNs) with LSTM mechanisms and Transformers stand out as particularly useful architectures for modeling the contextual sequentiality of language. This special issue gives us the opportunity to explain how to use their external expressions (outputs) as well as their internal representations (hidden states) to understand, in cognitive terms, the effect that changes of expectations have on different temporal markings of sentences. To do so, we illustrate such formalization using a Sequence-Sequence RNN with encoder and decoder and relate its measures with event-related potentials (ERPs) experiments on a nuclear issue in language: systematic compositionality.
Descripción
The registered version of this article, first published in Acción Psicológica, is available online at the publisher's website: Universidad Nacional de Educación a Distancia (UNED), https://doi.org/10.5944/ap.22.1.43347
La versión registrada de este artículo, publicado por primera vez en Acción Psicológica, está disponible en línea en el sitio web del editor: Universidad Nacional de Educación a Distancia (UNED), https://doi.org/10.5944/ap.22.1.43347
Esta publicación es parte del Proyecto de I+D+i PID2022-136905OB-C22 financiado por el Ministerio de Ciencia e Innovación MCIN/ AEI/ 10.13039/501100011033/ FEDER, UE.
La versión registrada de este artículo, publicado por primera vez en Acción Psicológica, está disponible en línea en el sitio web del editor: Universidad Nacional de Educación a Distancia (UNED), https://doi.org/10.5944/ap.22.1.43347
Esta publicación es parte del Proyecto de I+D+i PID2022-136905OB-C22 financiado por el Ministerio de Ciencia e Innovación MCIN/ AEI/ 10.13039/501100011033/ FEDER, UE.
Categorías UNESCO
Palabras clave
redes neuronales artificiales, redes recurrentes, LSTM, estados ocultos, sorpresividad, lenguaje, potenciales eventor-relacionados, Transformers, artificial neural networks, recurrent networks, LSTM, hidden states, surprisal, language, event-related potentials, Transformers
Citación
Jorge-Botana, G., Martínez-Huertas, J. Á., & Martínez-Mingo, A. (2025). Respuestas observables y estados ocultos en redes neuronales artificiales para razonar sobre aspectos cognitivos del lenguaje [Observable responses and hidden states in artificial neural networks to reason about cognitive aspects of language]. Acción Psicológica, 22(1), 41–56. https://doi.org/10.5944/ap.22.1.43347
Centro
Facultad de Psicología
Departamento
Metodología de las Ciencias del Comportamiento



