Memoria semántica

publicado en: Articles | 0

la esencia de la memoria semántica es que su contenido no está ligado a ningún caso particular de experiencia, como en la memoria episódica. En cambio, lo que se almacena en la memoria semántica es la «esencia» de la experiencia, una estructura abstracta que se aplica a una amplia variedad de objetos experienciales y delinea relaciones categóricas y funcionales entre dichos objetos. Por lo tanto, una teoría completa de la memoria semántica debe tener en cuenta no solo la estructura representacional de tales «gists», sino también cómo pueden extraerse de la experiencia., Se han propuesto numerosos modelos de memoria semántica, que se resumen a continuación.

modelos de Rededitar

Las Redes de varios tipos juegan un papel integral en muchas teorías de la memoria semántica. En términos generales, una red se compone de un conjunto de nodos conectados por enlaces. Los nodos pueden representar conceptos, palabras, características perceptivas o nada en absoluto. Los enlaces pueden ser ponderados de tal manera que algunos son más fuertes que otros o, equivalentemente, tienen una longitud tal que algunos enlaces tardan más en atravesarse que otros., Todas estas características de las redes se han empleado en modelos de memoria semántica, ejemplos de los cuales se encuentran a continuación.

teachable Language Comprehender (TLC)Edit

uno de los primeros ejemplos de un modelo de red de memoria semántica es el Teachable Language Comprehender (TLC). En este modelo, cada nodo es una palabra, representando un concepto (como «pájaro»). Con cada nodo se almacena un conjunto de propiedades (como» puede volar «o» tiene alas»), así como punteros (es decir, enlaces) a otros nodos (como»pollo»). Un nodo está directamente vinculado a los nodos de los cuales es una subclase o superclase (es decir,,, «Pájaro» estaría conectado a «pollo » y»Animal»). Por lo tanto, TLC es una representación de conocimiento jerárquico en que los nodos de alto nivel que representan grandes categorías están conectados (directa o indirectamente, a través de los nodos de subclases) a muchas instancias de esas categorías, mientras que los nodos que representan instancias específicas están en un nivel inferior, conectados solo a sus superclases. Además, las propiedades se almacenan en el nivel de categoría más alto al que se aplican., Por ejemplo, » is yellow «se almacenaría con» Canary»,» has wings «se almacenaría con» Bird «(un nivel más arriba), y» can move «se almacenaría con» Animal » (otro nivel más arriba). Los nodos también pueden almacenar negaciones de las propiedades de sus nodos superiores (Es decir, «NOT-can fly» se almacenaría con «penguin»). Esto proporciona una economía de representación en la que las propiedades solo se almacenan en el nivel de categoría en el que se vuelven esenciales, es decir, en qué punto se convierten en características críticas (véase más adelante).

El procesamiento en TLC es una forma de activación de propagación., Es decir, cuando un nodo se activa, esa activación se extiende a otros nodos a través de los enlaces entre ellos. En ese caso, el tiempo para responder a la pregunta » es un pollo un pájaro?»es una función de hasta qué punto la activación entre los nodos de «pollo» y «pájaro» debe extenderse, es decir, el número de enlaces entre los nodos «pollo» y «pájaro».

la versión original de TLC no puso pesos en los enlaces entre nodos., Esta versión funcionó de manera similar a los humanos en muchas tareas, pero no pudo predecir que las personas responderían más rápido a las preguntas relacionadas con instancias de categoría más típicas que aquellas que involucran instancias menos típicas. Collins y Quillian actualizaron TLC más tarde para incluir conexiones ponderadas para tener en cuenta este efecto. Este TLC actualizado es capaz de explicar tanto el efecto de familiaridad como el efecto de tipicidad., Su mayor ventaja es que explica claramente el cebado: es más probable que recupere información de la memoria si la información relacionada (el «prime») se ha presentado poco tiempo antes. Todavía hay una serie de fenómenos de memoria para los que TLC no tiene cuenta, incluyendo por qué la gente es capaz de responder rápidamente a preguntas obviamente falsas (como «¿es un pollo un meteoro?»), cuando los nodos relevantes están muy separados en la red.

redes Semánticaseditar

TLC es una instancia de una clase más general de modelos conocidos como redes semánticas., En una red semántica, cada nodo debe interpretarse como que representa un concepto, palabra o característica específica. Es decir, cada nodo es un símbolo. Las redes semánticas generalmente no emplean representaciones distribuidas para conceptos, como se puede encontrar en una red neuronal. La característica definitoria de una red semántica es que sus enlaces casi siempre están dirigidos (es decir, solo apuntan en una dirección, desde una base hasta un destino) y los enlaces vienen en muchos tipos diferentes, cada uno representando una relación particular que puede sostenerse entre dos nodos cualesquiera., El procesamiento en una red semántica a menudo toma la forma de activación de propagación (ver arriba).

Las redes semánticas son las más utilizadas en modelos de discurso y comprensión lógica, así como en Inteligencia Artificial. En estos modelos, los nodos corresponden a palabras o plicas de palabras y los enlaces representan relaciones sintácticas entre ellas. Para un ejemplo de una implementación computacional de redes semánticas en la representación del conocimiento, ver Cravo y Martins (1993).,

modelos de Característicaseditar

los modelos de características ven las categorías semánticas como compuestas por conjuntos de características relativamente no estructurados. El modelo de comparación de características semánticas, propuesto por Smith, Shoben y Rips (1974), describe la memoria como compuesta por listas de características para diferentes conceptos. Según esta opinión, las relaciones entre categorías no se recuperarían directamente, sino que se computarían indirectamente. Por ejemplo, los sujetos pueden verificar una oración comparando los conjuntos de características que representan sus conceptos de sujeto y predicado., Tales modelos computacionales de comparación de características incluyen los propuestos por Meyer (1970), Rips (1975), Smith, et al. (1974).

Los primeros trabajos en categorización perceptual y conceptual asumieron que las categorías tenían características críticas y que la pertenencia a las categorías podía determinarse mediante reglas lógicas para la combinación de características. Teorías más recientes han aceptado que las categorías pueden tener una estructura mal definida o «difusa» y han propuesto modelos probabilísticos o de similitud global para la verificación de la pertenencia a categorías.,

modelos Asociativoseditar

la «asociación»—una relación entre dos piezas de información—es un concepto fundamental en Psicología, y las asociaciones en varios niveles de representación mental son esenciales para los modelos de memoria y cognición en general. El conjunto de asociaciones entre una colección de elementos en memoria es equivalente a los enlaces entre nodos en una red, donde cada nodo corresponde a un elemento único en memoria. De hecho, las redes neuronales y las redes semánticas pueden caracterizarse como modelos asociativos de cognición., Sin embargo, las asociaciones a menudo se representan más claramente como una matriz n×N, donde N es el número de elementos en memoria. Por lo tanto, cada celda de la matriz corresponde a la fuerza de la asociación entre el elemento de la fila y el elemento de la columna.

El aprendizaje de asociaciones generalmente se cree que es un proceso Hebbiano; es decir, cuando dos elementos en la memoria están activos simultáneamente, la asociación entre ellos se hace más fuerte, y es más probable que cualquiera de los elementos active el otro. Vea a continuación las operacionalizaciones específicas de los modelos asociativos.,

búsqueda de memoria asociativa (SAM)editar

un modelo estándar de memoria que emplea la Asociación de esta manera es el modelo de búsqueda de memoria asociativa (SAM). Aunque SAM fue diseñado originalmente para modelar la memoria episódica, sus mecanismos son suficientes para soportar algunas representaciones de memoria semántica, también. El modelo SAM contiene un almacén a corto plazo (STS) y un almacén a largo plazo (LTS), donde STS es un subconjunto brevemente activado de la información en el LTS., El STS tiene una capacidad limitada y afecta al proceso de recuperación al limitar la cantidad de información que se puede muestrear y limitar el tiempo que el subconjunto muestreado está en modo activo. El proceso de recuperación en LTS es dependiente de cue y probabilístico, lo que significa que un cue inicia el proceso de recuperación y la información seleccionada de la memoria es aleatoria. La probabilidad de ser muestreada depende de la fuerza de asociación entre el cue y el ítem que se está recuperando, con asociaciones más fuertes que se muestrean y finalmente se elige una., El tamaño del búfer se define como r, y no como un número fijo, y a medida que los elementos se ensayan en el búfer, las fortalezas asociativas crecen linealmente en función del tiempo total dentro del búfer. En SAM, cuando dos elementos ocupan simultáneamente un búfer de memoria de trabajo, la fuerza de su asociación se incrementa. Por lo tanto, los ítems que co-ocurren con más frecuencia están más fuertemente asociados. Los ítems en SAM también están asociados con un contexto específico, donde la fuerza de esa asociación está determinada por el tiempo que cada ítem está presente en un contexto dado., En SAM, entonces, los recuerdos consisten en un conjunto de asociaciones entre elementos de la memoria y entre elementos y contextos. La presencia de un conjunto de elementos y/o un contexto es más probable que evoque, entonces, algún subconjunto de los elementos en la memoria. El grado en que los ítems se evocan entre sí—ya sea en virtud de su contexto compartido o su co-ocurrencia—es una indicación de la relación semántica de los ítems.

en una versión actualizada de SAM, las asociaciones semánticas preexistentes se contabilizan utilizando una matriz semántica., Durante el experimento, las asociaciones semánticas permanecen fijas mostrando la suposición de que las asociaciones semánticas no se ven afectadas significativamente por la experiencia episódica de un experimento. Las dos medidas utilizadas para medir la relación semántica en este modelo son el análisis semántico latente (LSA) y los espacios de Asociación de palabras (WAS). El método LSA establece que la similitud entre palabras se refleja a través de su co-ocurrencia en un contexto local. Fue desarrollado mediante el análisis de una base de datos de normas de libre asociación., EN WAS, » las palabras que tienen estructuras asociativas similares se colocan en regiones similares del espacio.»

ACT-R: un modelo de sistema de producciónEditar

el ACT (control adaptativo del pensamiento) (y más tarde ACT-R (control adaptativo del pensamiento-racional)) la teoría de la cognición representa la memoria declarativa (de la cual la memoria semántica es una parte) con» trozos», que consisten en una Etiqueta, un conjunto de relaciones definidas con otros trozos (es decir, » esto es un_», o » esto tiene un_»), y cualquier número de propiedades específicas de los fragmentos., Los Chunks, entonces, pueden ser mapeados como una red semántica, dado que cada nodo es un chunk con sus propiedades únicas, y cada enlace es la relación del chunk con otro chunk. En ACT, la activación de un fragmento disminuye en función del tiempo desde que se creó el fragmento y aumenta con el número de veces que el fragmento se ha recuperado de la memoria. Los Chunks también pueden recibir activación del ruido gaussiano, y de su similitud con otros chunks. Por ejemplo, si se usa» pollo «como señal de recuperación,» canario » recibirá activación en virtud de su similitud con la señal (es decir, ambos son pájaros, etc.).)., Al recuperar elementos de la memoria, ACT mira el fragmento más activo de la memoria; si está por encima del umbral, se recupera, de lo contrario se ha producido un «error de omisión», es decir, el elemento se ha olvidado. Hay, además, una latencia de recuperación, que varía inversamente con la cantidad por la cual la activación del fragmento recuperado excede el umbral de recuperación. Esta latencia se utiliza para medir el tiempo de respuesta del modelo ACT, para compararlo con el rendimiento humano.,

mientras que ACT es un modelo de cognición en general, y no de memoria en particular, sin embargo, plantea ciertas características de la estructura de la memoria, como se describió anteriormente. En particular, ACT modela la memoria como un conjunto de fragmentos simbólicos relacionados a los que se puede acceder mediante señales de recuperación. Mientras que el modelo de memoria empleado en ACT es similar en algunos aspectos a una red semántica, el procesamiento involucrado es más similar a un modelo asociativo.,

modelos Estadísticoseditar

algunos modelos caracterizan la adquisición de información semántica como una forma de inferencia estadística a partir de un conjunto de experiencias discretas, distribuidas a través de una serie de «contextos». Aunque estos modelos difieren en aspectos específicos, generalmente emplean una matriz (elemento × contexto) donde cada celda representa el número de veces que un elemento en memoria ha ocurrido en un contexto dado. La información semántica se obtiene mediante la realización de un análisis estadístico de esta matriz.,

muchos de estos modelos tienen similitud con los algoritmos utilizados en los motores de búsqueda (por ejemplo, ver Griffiths, et al., 2007 y Anderson, 1990), aunque todavía no está claro si realmente utilizan los mismos mecanismos computacionales.

análisis semántico latente (LSA)editar

quizás el más popular de estos modelos es el análisis semántico latente (LSA)., En LSA, una matriz T × D se construye a partir de un corpus de texto donde T es el número de términos en el corpus y D es el número de documentos (aquí «contexto» se interpreta como «documento» y solo las palabras—o frases de palabras—se consideran como elementos en la memoria)., luego se transforma de acuerdo a la ecuación:

M t , d ‘ = ln ⁡ ( 1 + M t , d ) − ∑ i = 0 D P ( i | t ) ln ⁡ P ( i | t ) {\displaystyle \mathbf {M} _{t,d}’={\frac {\ln {(1+\mathbf {M} _{t,d})}}{-\sum _{i=0}^{D}P(i|t)\ln {P(i|t)}}}}

donde P ( i | t ) {\displaystyle P(i|t)} es la probabilidad de que el contexto i {\displaystyle i} es activo, dado que el punto t {\displaystyle t} se ha producido (se obtiene simplemente dividiendo el raw frecuencia, M, t , d {\displaystyle \mathbf {M} _{t,d}} por el total de los elemento del vector, ∑ i = 0 D M t , i {\displaystyle \sum _{i=0}^{D}\mathbf {M} _{t,i}} )., Esta transformación-aplicando el logaritmo, luego dividiendo por la entropía de información del elemento sobre todos los contextos-proporciona una mayor diferenciación entre los elementos y efectivamente pondera los elementos por su capacidad para predecir el contexto, y viceversa (es decir, los elementos que aparecen en muchos contextos, como «el» O «y», se ponderarán menos, lo que refleja su falta de información semántica)., Una descomposición de valor Singular (SVD) se realiza entonces en la matriz M ‘ {\displaystyle \ mathbf {M}’}, que permite reducir el número de dimensiones en la matriz, agrupando así las representaciones semánticas de LSA y proporcionando una asociación indirecta entre los elementos. Por ejemplo, «gato» y «perro» pueden nunca aparecer juntos en el mismo contexto, por lo que su estrecha relación semántica puede no ser bien capturada por la matriz original de LSA M {\displaystyle \mathbf {M} } ., Sin embargo, al realizar la SVD y reducir el número de dimensiones en la matriz, los vectores de contexto de «gato» y «perro»—que serían muy similares—migrarían el uno hacia el otro y tal vez se fusionarían, permitiendo así que «gato» y «perro» actúen como señales de recuperación el uno para el otro, aunque nunca hayan co-ocurrido. El grado de relación semántica de los elementos en la memoria está dado por el coseno del ángulo entre los vectores de contexto de los elementos (que van desde 1 para sinónimos perfectos hasta 0 para ninguna relación)., Esencialmente, entonces, dos palabras están estrechamente relacionadas semánticamente si aparecen en tipos similares de documentos.

hiperespacio analógico al lenguaje (Hal)editar

El modelo hiperespacio analógico al lenguaje (Hal) considera contexto solo como las palabras que rodean inmediatamente a una palabra dada. HAL calcula una matriz NxN, donde N es el número de palabras en su léxico, usando un marco de lectura de 10 palabras que se mueve gradualmente a través de un corpus de texto., Al igual que en SAM (ver arriba), cada vez que dos palabras están simultáneamente en el marco, la asociación entre ellas aumenta, es decir, la celda correspondiente en la matriz NxN se incrementa. Cuanto mayor es la distancia entre las dos palabras, menor es la cantidad por la cual se incrementa la Asociación (Específicamente, Δ = 11 − D {\displaystyle \Delta =11-d} , donde d {\displaystyle d} es la distancia entre las dos palabras en el marco)., Al igual que en LSA (ver arriba), la similitud semántica entre dos palabras está dada por el coseno del ángulo entre sus vectores (la reducción de dimensión también se puede realizar en esta matriz). En HAL, entonces, dos palabras están semánticamente relacionadas si tienden a aparecer con las mismas palabras. Tenga en cuenta que esto puede ser cierto incluso cuando las palabras que se comparan nunca co-ocurren (es decir, «pollo» y «Canario»).

otros modelos estadísticos de la memoria semánticaeditar

El éxito de LSA y HAL dio a luz a todo un campo de Modelos Estadísticos del lenguaje., Una lista más actualizada de tales modelos puede encontrarse bajo el tema medidas de relación semántica.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *