L’essence de la mémoire sémantique est que son contenu n’est lié à aucune instance particulière de l’expérience, comme dans la mémoire épisodique. Au lieu de cela, ce qui est stocké dans la mémoire sémantique est « l’essentiel » de l’expérience, une structure abstraite qui s’applique à une grande variété d’objets expérientiels et délimite les relations catégorielles et fonctionnelles entre ces objets. Ainsi, une théorie complète de la mémoire sémantique doit rendre compte non seulement de la structure de représentation de tels « gist », mais aussi de la façon dont ils peuvent être extraits de l’expérience., De nombreux modèles de mémoire sémantique ont été proposés; ils sont résumés ci-dessous.
Réseau modelsEdit
les Réseaux de toutes sortes font partie intégrante de nombreuses théories de la mémoire sémantique. D’une manière générale, un réseau est composé d’un ensemble de nœuds reliés par des liens. Les nœuds peuvent représenter des concepts, des mots, des caractéristiques perceptives ou rien du tout. Les liens peuvent être pondérés de telle sorte que certains sont plus forts que d’autres ou, de manière équivalente, ont une longueur telle que certains liens prennent plus de temps à traverser que d’autres., Toutes ces caractéristiques des réseaux ont été utilisées dans des modèles de mémoire sémantique, dont des exemples se trouvent ci-dessous.
Teachable Language Comprehender (TLC)Edit
L’un des premiers exemples d’un modèle réseau de mémoire sémantique est le Teachable Language Comprehender (TLC). Dans ce modèle, chaque nœud est un mot, représentant un concept (comme « Oiseau »). Avec chaque nœud est stocké un ensemble de propriétés (comme « peut voler » ou « a des ailes ») ainsi que des pointeurs (c’est-à-dire des liens) vers d’autres nœuds (comme « Poulet »). Un nœud est directement lié aux nœuds dont il est une sous-classe ou une superclasse (c’est-à-dire,, « Oiseau » serait connecté à la fois « Poulet » et »Animal »). Ainsi, TLC est une représentation hiérarchique des connaissances en ce sens que les nœuds de haut niveau représentant de grandes catégories sont connectés (directement ou indirectement, via les nœuds de sous-classes) à de nombreuses instances de ces catégories, alors que les nœuds représentant des instances spécifiques sont à un niveau inférieur, connectés uniquement à leurs superclasses. De plus, les propriétés sont stockées au niveau de catégorie le plus élevé auquel elles s’appliquent., Par exemple, « jaune » sont stockées avec les « Canari », « a des ailes » sont stockées avec « l’Oiseau » (un niveau), et « peut » sont stockées avec « Animal » (un autre niveau). Les nœuds peuvent également stocker des négations des propriétés de leurs nœuds superordonnés (c’est-à-dire que « NOT-can fly » serait stocké avec « penguin »). Cela fournit une économie de représentation en ce sens que les propriétés ne sont stockées qu’au niveau de la catégorie à laquelle elles deviennent essentielles, c’est-à-dire à quel point elles deviennent des caractéristiques critiques (voir ci-dessous).
Le traitement dans TLC est une forme d’activation de propagation., Autrement dit, lorsqu’un nœud devient actif, cette activation se propage à d’autres nœuds via les liens entre eux. Dans ce cas, le temps de répondre à la question « Un poulet est-il un oiseau? »est une fonction de la distance d’activation entre les nœuds de « Poulet » et « Oiseau », c’est-à-dire le nombre de liens entre les nœuds « Poulet » et « Oiseau ».
La version originale de TLC n’a pas mis de poids sur les liens entre les nœuds., Cette version a réalisé des performances comparables à celles des humains dans de nombreuses tâches, mais n’a pas permis de prédire que les personnes répondraient plus rapidement aux questions concernant des instances de catégorie plus typiques que celles impliquant des instances moins typiques. Collins et Quillian ont plus tard mis à jour TLC pour inclure des connexions pondérées pour tenir compte de cet effet. Ce CCM mis à jour est capable d’expliquer à la fois l’effet de familiarité et l’effet de typicité., Son plus grand avantage est qu’il explique clairement l’amorçage: vous êtes plus susceptible de récupérer des informations de la mémoire si des informations connexes (le « premier ») ont été présentées peu de temps auparavant. Il y a encore un certain nombre de phénomènes de mémoire pour lesquels TLC n’a aucun compte, y compris pourquoi les gens sont capables de répondre rapidement à des questions évidemment fausses (comme « un poulet est-il un météore? »), lorsque les nœuds concernés sont très éloignés dans le réseau.
Sémantique networksEdit
TLC est une instance d’une classe plus générale de modèles connus en tant que réseaux sémantiques., Dans un réseau sémantique, chaque nœud doit être interprété comme représentant un concept, un mot ou une fonction. Autrement dit, chaque nœud est un symbole. Les réseaux sémantiques n’utilisent généralement pas de représentations distribuées pour les concepts, comme on peut le trouver dans un réseau neuronal. La caractéristique déterminante d’un réseau sémantique est que ses liens sont presque toujours dirigés (c’est-à-dire qu’ils ne pointent que dans une direction, d’une base à une cible) et que les liens sont de nombreux types différents, chacun représentant une relation particulière pouvant tenir entre deux nœuds., Le traitement dans un réseau sémantique prend souvent la forme d’une activation de propagation (voir ci-dessus).
les réseaux sémantiques sont les plus utilisés dans les modèles de discours et de compréhension logique, ainsi que dans L’Intelligence Artificielle. Dans ces modèles, les nœuds correspondent à des mots ou des tiges de mots et les liens représentent des relations syntaxiques entre eux. Pour un exemple d’implémentation computationnelle de réseaux sémantiques dans la représentation des connaissances, voir Cravo et Martins (1993).,
Feature modelsEdit
Les modèles de Feature considèrent les catégories sémantiques comme étant composées d’ensembles de features relativement non structurés. Le modèle de comparaison sémantique des caractéristiques, proposé par Smith, Shoben et Rips (1974), décrit la mémoire comme étant composée de listes de caractéristiques pour différents concepts. Selon ce point de vue, les relations entre les catégories ne seraient pas directement récupérées, elles seraient calculées indirectement. Par exemple, les sujets peuvent vérifier une phrase en comparant les ensembles d’entités qui représentent ses concepts de sujet et de prédicat., De tels modèles computationnels de comparaison de caractéristiques incluent ceux proposés par Meyer (1970), Rips (1975), Smith et al. (1974).
Les premiers travaux sur la catégorisation perceptuelle et conceptuelle supposaient que les catégories avaient des caractéristiques critiques et que l’appartenance à une catégorie pouvait être déterminée par des règles logiques pour la combinaison de caractéristiques. Des théories plus récentes ont admis que les catégories peuvent avoir une structure mal définie ou « floue » et ont proposé des modèles probabilistes ou de similarité globale pour la vérification de l’appartenance à une catégorie.,
Modèles associatifsmodifier
L ‘ « association »—une relation entre deux informations—est un concept fondamental en psychologie, et les associations à différents niveaux de représentation mentale sont essentielles aux modèles de mémoire et de cognition en général. L’ensemble des associations entre une collection d’éléments en mémoire est équivalent aux liens entre les nœuds d’un réseau, chaque nœud correspondant à un élément unique en mémoire. En effet, les réseaux neuronaux et les réseaux sémantiques peuvent être caractérisés comme des modèles associatifs de cognition., Cependant, les associations sont souvent plus clairement représentées sous la forme d’une matrice N×N, où N est le nombre d’éléments en mémoire. Ainsi, chaque cellule de la matrice correspond à la force de l’association entre l’élément de ligne et l’élément de colonne.
L’apprentissage des associations est généralement considéré comme un processus Hebbian; c’est-à-dire que chaque fois que deux éléments en mémoire sont simultanément actifs, l’association entre eux se renforce et plus l’un ou l’autre élément est susceptible d’activer l’autre. Voir ci-dessous pour les opérationnalisations spécifiques des modèles associatifs.,
recherche de mémoire Associative (SAM)Edit
Un modèle standard de mémoire qui utilise l’association de cette manière est le modèle de recherche de mémoire Associative (SAM). Bien que SAM ait été conçu à l’origine pour modéliser la mémoire épisodique, ses mécanismes sont suffisants pour prendre en charge certaines représentations de la mémoire sémantique. Le modèle SAM contient un stockage à court terme (STS) et un stockage à long terme (LTS), où STS est un sous-ensemble brièvement activé des informations dans le LTS., Le STS a une capacité limitée et affecte le processus de récupération en limitant la quantité d’informations pouvant être échantillonnées et en limitant la durée pendant laquelle le sous-ensemble échantillonné est en mode actif. Le processus de récupération dans LTS est dépendant du signal et probabiliste, ce qui signifie qu’un signal lance le processus de récupération et que les informations sélectionnées de la mémoire sont aléatoires. La probabilité d’être échantillonné dépend de la force de l’association entre le signal et l’élément récupéré, avec des associations plus fortes étant échantillonnées et finalement un est choisi., La taille du tampon est définie comme r, et non comme un nombre fixe, et à mesure que les éléments sont répétés dans le tampon, les forces associatives augmentent linéairement en fonction du temps total à l’intérieur du tampon. Dans SAM, lorsque deux éléments occupent simultanément un tampon de mémoire de travail, la force de leur association est incrémentée. Ainsi, les éléments qui co-surviennent plus souvent sont plus fortement associés. Les éléments de SAM sont également associés à un contexte spécifique, où la force de cette association est déterminée par la durée de présence de chaque élément dans un contexte donné., Dans SAM, les souvenirs consistent donc en un ensemble d’associations entre les éléments de la mémoire et entre les éléments et les contextes. La présence d’un ensemble d’éléments et/ou dans un contexte qui est plus susceptible d’évoquer, ensuite, certains sous-ensemble des éléments en mémoire. Le degré auquel les éléments s’évoquent les uns les autres-en raison de leur contexte commun ou de leur co—occurrence-est une indication de la parenté sémantique des éléments.
Dans une version mise à jour de SAM, les associations sémantiques préexistantes sont prises en compte à l’aide d’une matrice sémantique., Au cours de l’expérience, les associations sémantiques restent fixes montrant l’hypothèse que les associations sémantiques ne sont pas significativement affectées par l’expérience épisodique d’une expérience. Les deux mesures utilisées pour mesurer la parenté sémantique dans ce modèle sont l’analyse sémantique latente (LSA) et les espaces D’association de mots (WAS). La méthode LSA indique que la similitude entre les mots se reflète par leur co-occurrence dans un contexte local. WAS a été développé en analysant une base de données de normes de libre association., Dans WAS, » les mots qui ont des structures associatives similaires sont placés dans des régions similaires de l’espace. »
ACT-R: a production system modelEdit
La théorie de la cognition ACT (Adaptive Control of Thought) (et plus tard ACT-R (Adaptive Control of Thought-Rational)) représente la mémoire déclarative (dont la mémoire sémantique fait partie) avec des » morceaux », qui consistent en une étiquette, un ensemble de relations définies avec d’autres morceaux (c’est-à-dire » this is a_ », ou » this has a_ »), et, Les morceaux peuvent donc être mappés en tant que réseau sémantique, étant donné que chaque nœud est un morceau avec ses propriétés uniques et que chaque lien est la relation du morceau avec un autre morceau. Dans ACT, l’activation d’un bloc diminue en fonction du temps écoulé depuis la création du bloc et augmente avec le nombre de fois que le bloc a été récupéré de la mémoire. Les morceaux peuvent également recevoir l’activation du bruit gaussien, et de leur similitude avec d’autres morceaux. Par exemple, si » poulet « est utilisé comme repère de récupération, » canari » sera activé en raison de sa similitude avec le repère (c.-à-d., les deux sont des oiseaux, etc.)., Lors de la récupération d’éléments de la mémoire, ACT examine le morceau le plus actif de la mémoire; s’il est au-dessus du seuil, il est récupéré, sinon une « erreur d’omission » s’est produite, c’est-à-dire que l’élément a été oublié. Il y a, en outre, une latence de récupération, qui varie inversement avec la quantité par laquelle l’activation du morceau récupéré dépasse le seuil de récupération. Cette latence est utilisée pour mesurer le temps de réponse du modèle ACT, afin de le comparer aux performances humaines.,
Si ACT est un modèle de cognition en général, et non de mémoire en particulier, il postule néanmoins certaines caractéristiques de la structure de la mémoire, comme décrit ci-dessus. En particulier, ACT modélise la mémoire comme un ensemble de morceaux symboliques connexes auxquels on peut accéder par des indices de récupération. Alors que le modèle de mémoire employé dans ACT est similaire à certains égards à un réseau sémantique, le traitement impliqué s’apparente davantage à un modèle associatif.,
Modèles statistiquesmodifier
Certains modèles caractérisent l’acquisition d’informations sémantiques comme une forme d’inférence statistique à partir d’un ensemble d’expériences discrètes, réparties dans un certain nombre de « contextes ». Bien que ces modèles diffèrent par leurs spécificités, ils utilisent généralement une matrice (Item × Context) où chaque cellule représente le nombre de fois qu’un item en mémoire s’est produit dans un contexte donné. L’information sémantique est glanée en effectuant une analyse statistique de cette matrice.,
beaucoup de ces modèles présentent des similitudes avec les algorithmes utilisés dans les moteurs de recherche (par exemple, voir Griffiths, et al., 2007 et Anderson, 1990), bien qu’il ne soit pas encore clair s’ils utilisent vraiment les mêmes mécanismes de calcul.
analyse sémantique latente (LSA)Edit
Le plus populaire de ces modèles est peut-être L’analyse sémantique latente (LSA)., En LSA, une matrice T × D est construite à partir d’un corpus de texte où T est le nombre de termes dans le corpus et D est le nombre de documents (ici « contexte » est interprété comme « document » et seuls les mots—ou expressions—sont considérés comme des éléments en mémoire)., ensuite transformée selon l’équation:
M t , d ‘ = ln ( 1 + M t , d ) − ∑ i = 0 D P ( i | t ) ln P ( i | t ) {\displaystyle \mathbf {M} _{t,d}’={\frac {\ln {(1+\mathbf {M} _{t,d})}}{-\sum _{i=0}^{D}P(i|t)\ln {P(i|t)}}}}
où P ( i | t ) {\displaystyle P(i|t)} est la probabilité que le contexte, j’ {\displaystyle i} est active, étant donné que le point t {\displaystyle t} a eu lieu (c’est obtenue simplement en divisant la fréquence brute, M, t , d {\displaystyle \mathbf {M} _{t,d}} par le total de l’élément de vecteur, ∑ i = 0 D M t , i {\displaystyle \sum _{i=0}^{D}\mathbf {M} _{t,i}} )., Cette transformation—appliquer le logarithme, puis diviser par l’entropie de l’information de l’élément sur tous les contextes-permet une plus grande différenciation entre les éléments et pondère efficacement les éléments par leur capacité à prédire le contexte, et vice versa (c’est-à-dire que les éléments qui apparaissent dans de nombreux contextes, comme « le » ou « et », seront moins pondérés, , Une décomposition en valeurs singulières (SVD) est ensuite effectuée sur la matrice M ‘ {\displaystyle \mathbf {M} ‘} , ce qui permet de réduire le nombre de dimensions dans la matrice, regroupant ainsi les représentations sémantiques de LSA et permettant une association indirecte entre les éléments. Par exemple, « chat » et « chien » peuvent ne jamais apparaître ensemble dans le même contexte, de sorte que leur relation sémantique étroite peut ne pas être bien capturée par la matrice originale de LSA M {\displaystyle \mathbf {M} } ., Cependant, en effectuant la SVD et en réduisant le nombre de dimensions dans la matrice, les vecteurs de contexte de « cat » et « dog »—qui seraient très similaires—migreraient l’un vers l’autre et pourraient fusionner, permettant ainsi à « cat » et « dog » d’agir comme des indices de récupération l’un pour l’autre, même s’ils ne se sont peut-être jamais Le degré de parenté sémantique des éléments en mémoire est donné par le cosinus de l’angle entre les vecteurs de contexte des éléments (allant de 1 pour les synonymes parfaits à 0 pour aucune relation)., Essentiellement, deux mots sont donc étroitement liés sémantiquement s’ils apparaissent dans des types de documents similaires.
Hyperspace Analogue to Language (HAL)Edit
Le modèle Hyperspace Analogue to Language (HAL) considère le contexte uniquement comme les mots qui entourent immédiatement un mot donné. HAL calcule une matrice NxN, où N est le nombre de mots dans son lexique, en utilisant un cadre de lecture de 10 mots qui se déplace progressivement à travers un corpus de texte., Comme dans SAM (voir ci-dessus), chaque fois que deux mots sont simultanément dans le cadre, l’association entre eux est augmentée, c’est-à-dire que la cellule correspondante dans la matrice NxN est incrémentée. Plus la distance entre les deux mots, de la plus petite quantité par laquelle l’association est incrémenté (plus précisément, Δ = 11 − d {\displaystyle \Delta =11-d} , où d {\displaystyle d} est la distance entre les deux mots dans l’image)., Comme dans LSA (voir ci-dessus), la similitude sémantique entre deux mots est donnée par le cosinus de l’angle entre leurs vecteurs (une réduction de dimension peut également être effectuée sur cette matrice). Dans HAL, donc, deux mots sont sémantiquement liés s’ils ont tendance à apparaître avec les mêmes mots. Notez que cela peut être vrai même lorsque les mots comparés ne coexistent jamais (c.-à-d. « poulet » et « canari »).
Autres modèles statistiques de la mémoire semantiquemodifier
Le succès de LSA et HAL a donné naissance à tout un champ de modèles statistiques du langage., Une liste plus à jour de ces modèles peut être trouvée sous la rubrique Mesures de la parenté sémantique.
Laisser un commentaire