Das Wesen des semantischen Gedächtnisses besteht darin, dass sein Inhalt nicht wie im episodischen Gedächtnis an einen bestimmten Erfahrungsfall gebunden ist. Stattdessen ist das, was im semantischen Gedächtnis gespeichert ist, der „Kern“ der Erfahrung, eine abstrakte Struktur, die für eine Vielzahl von Erfahrungsobjekten gilt und kategorische und funktionale Beziehungen zwischen solchen Objekten abgrenzt. Daher muss eine vollständige Theorie des semantischen Gedächtnisses nicht nur die Darstellungsstruktur solcher „Gists“ berücksichtigen, sondern auch, wie sie aus Erfahrung extrahiert werden können., Zahlreiche Modelle des semantischen Gedächtnisses wurden vorgeschlagen; Sie sind unten zusammengefasst.
Netzwerkmodelledit
Netzwerke verschiedener Art spielen in vielen Theorien des semantischen Gedächtnisses eine integrale Rolle. Im Allgemeinen besteht ein Netzwerk aus einer Reihe von Knoten, die durch Links verbunden sind. Die Knoten können Konzepte, Wörter, Wahrnehmungsmerkmale oder gar nichts darstellen. Die Verbindungen können so gewichtet sein, dass einige stärker als andere sind oder gleichwertig eine Länge haben, so dass einige Verbindungen länger dauern als andere., Alle diese Merkmale von Netzwerken wurden in Modellen des semantischen Gedächtnisses verwendet, von denen Beispiele unten zu finden sind.
Teachable Language Comprehender (TLC)Bearbeiten
Eines der ersten Beispiele für ein Netzwerkmodell des semantischen Gedächtnisses ist der Teachable Language Comprehender (TLC). In diesem Modell ist jeder Knoten ein Wort, das ein Konzept darstellt (wie „Vogel“). Mit jedem Knoten wird eine Reihe von Eigenschaften (wie „kann fliegen“ oder „hat Flügel“) sowie Zeiger (dh Links) auf andere Knoten (wie „Huhn“) gespeichert. Ein Knoten ist direkt mit den Knoten verknüpft, von denen er entweder eine Unterklasse oder eine Oberklasse ist (dh,, „Vogel“ würde sowohl mit „Huhn“ als auch mit „Tier“verbunden sein). Daher ist TLC eine hierarchische Wissensdarstellung, da Knoten auf hoher Ebene, die große Kategorien darstellen, (direkt oder indirekt über die Knoten von Unterklassen) mit vielen Instanzen dieser Kategorien verbunden sind, während Knoten, die bestimmte Instanzen darstellen, auf einer niedrigeren Ebene sind nur mit ihren Oberklassen verbunden. Darüber hinaus werden Eigenschaften auf der höchsten Kategorieebene gespeichert, auf die sie angewendet werden., Zum Beispiel würde „ist gelb „mit“ Kanarienvogel „gespeichert,“ hat Flügel „würde mit“ Vogel „gespeichert (eine Ebene höher) und“ kann sich bewegen „würde mit“ Tier “ gespeichert (eine andere Ebene höher). Knoten können auch Negationen der Eigenschaften ihrer übergeordneten Knoten speichern (dh „NOT-can fly“ würde mit „penguin“gespeichert). Dies bietet eine Darstellungsökonomie dadurch, dass Eigenschaften nur auf der Kategorieebene gespeichert werden, auf der sie wesentlich werden, dh an welchem Punkt sie zu kritischen Merkmalen werden (siehe unten).
Die Verarbeitung in TLC ist eine Form der Streuaktivierung., Das heißt, wenn ein Knoten aktiv wird, verteilt sich diese Aktivierung auf andere Knoten über die Verbindungen zwischen ihnen. In diesem Fall ist die Zeit, die Frage zu beantworten „Ist ein Huhn ein Vogel?“ist eine Funktion davon, wie weit sich die Aktivierung zwischen den Knoten für „Huhn“ und „Vogel“ ausbreiten muss, d. H. Die Anzahl der Verbindungen zwischen den Knoten „Huhn“ und „Vogel“.
Die ursprüngliche Version von TLC hat die Verbindungen zwischen Knoten nicht gewichtet., Diese Version führte bei vielen Aufgaben vergleichbar mit Menschen durch, konnte jedoch nicht vorhersagen, dass Personen schneller auf Fragen zu typischeren Kategorieinstanzen reagieren würden als solche mit weniger typischen Instanzen. Collins und Quillian aktualisierten später TLC, um gewichtete Verbindungen aufzunehmen, um diesen Effekt zu berücksichtigen. Dieser aktualisierte TLC kann sowohl den Vertrautheitseffekt als auch den Typizitätseffekt erklären., Der größte Vorteil ist, dass die Grundierung klar erklärt wird: Es ist wahrscheinlicher, dass Sie Informationen aus dem Speicher abrufen, wenn verwandte Informationen (die „Primzahl“) kurz zuvor angezeigt wurden. Es gibt immer noch eine Reihe von Speicherphänomenen, für die TLC kein Verständnis hat, darunter, warum Menschen schnell auf offensichtlich falsche Fragen reagieren können (wie „Ist ein Huhn ein Meteor?“), wenn die relevanten Knoten im Netzwerk sehr weit voneinander entfernt sind.
Semantic networksEdit
TLC ist eine Instanz einer allgemeineren Klasse von Modellen, die als semantische Netzwerke bezeichnet werden., In einem semantischen Netzwerk ist jeder Knoten so zu interpretieren, dass er ein bestimmtes Konzept, Wort oder Merkmal darstellt. Das heißt, jeder Knoten ist ein symbol. Semantische Netzwerke verwenden im Allgemeinen keine verteilten Repräsentationen für Konzepte, wie sie in einem neuronalen Netzwerk zu finden sind. Das bestimmende Merkmal eines semantischen Netzwerks ist, dass seine Verbindungen fast immer gerichtet sind (dh sie zeigen nur in eine Richtung, von einer Basis zu einem Ziel) und die Links in vielen verschiedenen Typen vorliegen, von denen jeder für eine bestimmte Beziehung steht, die zwischen zwei beliebigen Knoten bestehen kann., Die Verarbeitung in einem semantischen Netzwerk erfolgt häufig in Form einer verteilten Aktivierung (siehe oben).
Semantische Netzwerke werden am häufigsten in Diskurs-und Logikverständnismodellen sowie in der künstlichen Intelligenz eingesetzt. In diesen Modellen entsprechen die Knoten Wörtern oder Wortstämmen und die Verknüpfungen stellen syntaktische Beziehungen zwischen ihnen dar. Ein Beispiel für eine rechnerische Implementierung semantischer Netzwerke in der Wissensdarstellung finden Sie in Cravo und Martins (1993).,
Feature modelsEdit
Feature models zeigen semantische Kategorien an, die aus relativ unstrukturierten Merkmalssätzen bestehen. Das von Smith, Shoben und Rips (1974) vorgeschlagene semantische Merkmalsvergleichsmodell beschreibt den Speicher als aus Merkmalslisten für verschiedene Konzepte zusammengesetzt. Nach dieser Ansicht würden die Beziehungen zwischen Kategorien nicht direkt abgerufen, sondern indirekt berechnet. Beispielsweise können Subjekte einen Satz überprüfen, indem sie die Merkmalssätze vergleichen, die ihre Subjekt-und Prädikatskonzepte darstellen., Solche rechnerischen Merkmalsvergleichsmodelle umfassen die von Meyer (1970), Rips (1975), Smith et al. (1974).
Frühe Arbeiten zur wahrnehmungs-und konzeptionellen Kategorisierung gingen davon aus, dass Kategorien kritische Merkmale aufweisen und dass die Kategoriezugehörigkeit durch logische Regeln für die Kombination von Merkmalen bestimmt werden kann. Neuere Theorien haben akzeptiert, dass Kategorien eine schlecht definierte oder“ unscharfe “ Struktur haben können, und probabilistische oder globale Ähnlichkeitsmodelle für die Überprüfung der Kategorienmitgliedschaft vorgeschlagen.,
Assoziative modellEdit
Die „Assoziation“—eine Beziehung zwischen zwei Informationen—ist ein grundlegendes Konzept in der Psychologie, und Assoziationen auf verschiedenen Ebenen der mentalen Repräsentation sind für Modelle von Gedächtnis und Kognition im Allgemeinen unerlässlich. Der Satz von Assoziationen zwischen einer Sammlung von Elementen im Speicher entspricht den Verbindungen zwischen Knoten in einem Netzwerk, wobei jeder Knoten einem eindeutigen Element im Speicher entspricht. In der Tat können neuronale Netze und semantische Netzwerke als assoziative Erkenntnismodelle charakterisiert werden., Assoziationen werden jedoch oft deutlicher als eine N×N-Matrix dargestellt, wobei N die Anzahl der Elemente im Speicher ist. Somit entspricht jede Zelle der Matrix der Stärke der Zuordnung zwischen dem Zeilenelement und dem Spaltenelement.
Es wird allgemein angenommen, dass das Lernen von Assoziationen ein Hebbian-Prozess ist; Das heißt, wenn zwei Elemente im Speicher gleichzeitig aktiv sind, wird die Assoziation zwischen ihnen stärker und desto wahrscheinlicher ist es, dass eines der Elemente das andere aktiviert. Siehe unten für spezifische Operationalisierungen assoziativer Modelle.,
Suche nach assoziativem Speicher (SAM)Bearbeiten
Ein Standardmodell des Speichers, das Assoziation auf diese Weise verwendet, ist die Suche nach assoziativem Speicher (SAM) Modell. Obwohl SAM ursprünglich entwickelt wurde, um episodisches Gedächtnis zu modellieren, reichen seine Mechanismen aus, um auch einige semantische Gedächtnisdarstellungen zu unterstützen. Das SAM-Modell enthält einen Kurzzeitspeicher (STS) und einen Langzeitspeicher (LTS), wobei STS eine kurz aktivierte Teilmenge der Informationen im LTS ist., Das STS hat eine begrenzte Kapazität und beeinflusst den Abrufprozess, indem es die Menge an Informationen begrenzt, die abgetastet werden können, und die Zeit begrenzt, in der sich die abgetastete Teilmenge in einem aktiven Modus befindet. Der Abrufprozess in LTS ist Cue-abhängig und probabilistisch, was bedeutet, dass ein Cue den Abrufprozess initiiert und die ausgewählten Informationen aus dem Speicher zufällig sind. Die Wahrscheinlichkeit, abgetastet zu werden, hängt von der Stärke der Assoziation zwischen dem Cue und dem abgerufenen Element ab, wobei stärkere Assoziationen abgetastet und schließlich eine ausgewählt werden., Die Puffergröße ist definiert als r und keine feste Zahl, und wenn Elemente im Puffer geprobt werden, wachsen die assoziativen Stärken linear als Funktion der Gesamtzeit innerhalb des Puffers. Wenn in SAM zwei Elemente gleichzeitig einen Arbeitsspeicherpuffer belegen, wird die Stärke ihrer Zuordnung erhöht. Daher sind Elemente, die häufiger zusammen auftreten, stärker assoziiert. Elemente in SAM sind auch einem bestimmten Kontext zugeordnet, wobei die Stärke dieser Zuordnung davon abhängt, wie lange jedes Element in einem bestimmten Kontext vorhanden ist., In SAM bestehen Erinnerungen also aus einer Reihe von Assoziationen zwischen Elementen im Speicher und zwischen Elementen und Kontexten. Das Vorhandensein einer Reihe von Elementen und / oder eines Kontexts ruft eher eine Teilmenge der Elemente im Speicher hervor. Der Grad, in dem Elemente einander hervorrufen—entweder aufgrund ihres gemeinsamen Kontexts oder ihres gemeinsamen Auftretens-ist ein Hinweis auf die semantische Verwandtschaft der Elemente.
In einer aktualisierten Version von SAM werden bereits vorhandene semantische Assoziationen mithilfe einer semantischen Matrix berücksichtigt., Während des Experiments bleiben semantische Assoziationen fixiert, was die Annahme zeigt, dass semantische Assoziationen durch die episodische Erfahrung eines Experiments nicht signifikant beeinflusst werden. Die beiden Maße, die zur Messung der semantischen Verwandtschaft in diesem Modell verwendet werden, sind die latente semantische Analyse (LSA) und die Wortassoziationsräume (WAS). Die LSA-Methode besagt, dass die Ähnlichkeit zwischen Wörtern durch ihr gleichzeitiges Auftreten in einem lokalen Kontext reflektiert wird. WURDE durch die Analyse einer Datenbank mit freien Assoziationsnormen entwickelt., Kurz gesagt, “ Wörter, die ähnliche assoziative Strukturen haben, werden in ähnlichen Regionen des Raumes platziert.“
ACT-R: a production system modelEdit
Die ACT (Adaptive Control of Thought) (und später in die ACT-R (Adaptive Control of Thought-Rational)) Theorie der Wahrnehmung darstellt deklarative Gedächtnis (von denen das semantische Gedächtnis ist ein Teil) mit dem „Brocken“, die darin bestehen, ein label, eine Reihe von definierten Beziehungen zu anderen Blöcken (d.h., „das ist ein _“, oder „das ist ein _“), und eine beliebige Anzahl von chunk-spezifische Eigenschaften., Chunks können dann als semantisches Netzwerk zugeordnet werden, da jeder Knoten ein Chunk mit seinen eindeutigen Eigenschaften ist und jeder Link die Beziehung des Chunks zu einem anderen Chunk ist. In ACT nimmt die Aktivierung eines Chunks in Abhängigkeit von der Zeit seit der Erstellung des Chunks ab und nimmt mit der Häufigkeit zu, mit der der Chunk aus dem Speicher abgerufen wurde. Chunks können auch Aktivierung von gaußschen Geräuschen und von ihrer Ähnlichkeit mit anderen Chunks erhalten. Wenn beispielsweise “ chicken „als Retrieval-Cue verwendet wird, wird“ Canary “ aufgrund seiner Ähnlichkeit mit dem Cue aktiviert (dh beide sind Vögel usw.)., Beim Abrufen von Elementen aus dem Speicher betrachtet ACT den aktivsten Speicherblock; Wenn er über dem Schwellenwert liegt, wird er abgerufen, andernfalls ist ein „Fehler der Auslassung“ aufgetreten, dh das Element wurde vergessen. Zusätzlich gibt es eine Abruflatenz, die umgekehrt mit dem Betrag variiert, um den die Aktivierung des abgerufenen Chunks den Abruf-Schwellenwert überschreitet. Diese Latenz wird verwendet, um die Reaktionszeit des ACT-Modells zu messen und mit der menschlichen Leistung zu vergleichen.,
Während ACT ein Modell der Kognition im Allgemeinen und nicht des Gedächtnisses im Besonderen ist, setzt es dennoch bestimmte Merkmale der Struktur des Gedächtnisses voraus, wie oben beschrieben. Insbesondere fungieren Sie als Speicher als eine Reihe verwandter symbolischer Chunks, auf die durch Abruf-Cues zugegriffen werden kann. Während das in ACT verwendete Speichermodell in gewisser Weise einem semantischen Netzwerk ähnelt, ähnelt die Verarbeitung eher einem assoziativen Modell.,
Statistische modellEdit
Einige Modelle charakterisieren die Erfassung semantischer Informationen als eine Form statistischer Inferenz aus einer Reihe diskreter Erfahrungen, die über eine Reihe von „Kontexten“verteilt sind. Obwohl sich diese Modelle in ihren Besonderheiten unterscheiden, verwenden sie im Allgemeinen eine (Item × Context) Matrix, in der jede Zelle die Häufigkeit darstellt, mit der ein Element im Speicher in einem bestimmten Kontext aufgetreten ist. Semantische Informationen werden durch eine statistische Analyse dieser Matrix gewonnen.,
Viele dieser Modelle weisen Ähnlichkeiten mit den Algorithmen auf, die in Suchmaschinen verwendet werden (siehe beispielsweise Griffiths et al., 2007 und Anderson, 1990), obwohl noch nicht klar ist, ob sie wirklich dieselben Rechenmechanismen verwenden.
Latente semantische Analyse (LSA)Bearbeiten
Das vielleicht beliebteste dieser Modelle ist die latente semantische Analyse (LSA)., In LSA wird eine T × D-Matrix aus einem Textkorpus konstruiert, wobei T die Anzahl der Terme im Korpus und D die Anzahl der Dokumente ist (hier wird „Kontext“ als „Dokument“ interpretiert und nur Wörter—oder Wortphrasen—als Elemente im Speicher betrachtet)., dann transformiert nach der Gleichung:
M t , d ‚ = ln ( 1 + M t , d ) − ∑ i = 0 D P ( i | t ) ln P ( i | t ) {\displaystyle \mathbf {M} _{t,d}’={\frac {\ln {(1+\mathbf {M} _{t,d})}}{-\sum _{i=0}^{D}P(i|t)\ln {P(i|t)}}}}
wobei P ( i | t ) {\displaystyle P(i|t)} die Wahrscheinlichkeit ist, dass der Kontext i {\displaystyle i} aktiv ist, wenn das Element t {\displaystyle t} aufgetreten ist (dies wird einfach durch Teilen der Rohfrequenz M t , d {\displaystyle \mathbf {M} _{t,d}} durch die Summe des Elementvektors erhalten, ∑ i = 0 D M t , i {\displaystyle \sum _{i=0}^{D}\mathbf {M} _{t,i}} )., Diese Transformation-Anwendung des Logarithmus und anschließende Division durch die Informationsentropie des Elements über alle Kontexte—sorgt für eine stärkere Differenzierung zwischen Elementen und gewichtet Elemente effektiv durch ihre Fähigkeit, den Kontext vorherzusagen, und umgekehrt (dh Elemente, die in vielen Kontexten angezeigt werden, wie „das“ oder „und“, werden weniger gewichtet, was ihren Mangel an semantischen Informationen widerspiegelt)., Anschließend wird eine Singularwertzerlegung (SVD) für die Matrix M ‚ {\displaystyle \mathbf {M}‘} durchgeführt , wodurch die Anzahl der Dimensionen in der Matrix reduziert werden kann, wodurch die semantischen Darstellungen von LSA gruppiert und eine indirekte Zuordnung zwischen Elementen ermöglicht wird. Beispielsweise erscheinen“ Katze „und“ Hund “ möglicherweise nie zusammen im selben Kontext, sodass ihre enge semantische Beziehung möglicherweise nicht von der ursprünglichen Matrix M {\displaystyle \mathbf {M}} der LSA gut erfasst wird ., Durch Ausführen der SVD und Reduzieren der Anzahl der Dimensionen in der Matrix würden die Kontextvektoren von „cat“ und „dog“—die sehr ähnlich wären—jedoch aufeinander zu wandern und möglicherweise zusammenzuführen, sodass „cat“ und „dog“ als Abrufhinweise für einander fungieren können, obwohl sie möglicherweise nie zusammen aufgetreten sind. Der Grad der semantischen Verwandtschaft von Elementen im Speicher ist durch den Kosinus des Winkels zwischen den Kontextvektoren der Elemente gegeben (von 1 für perfekte Synonyme bis 0 für keine Beziehung)., Im Wesentlichen sind also zwei Wörter eng semantisch verwandt, wenn sie in ähnlichen Dokumenttypen vorkommen.
Hyperraum analog zur Sprache (HAL)Bearbeiten
Das Modell Hyperraum analog zur Sprache (HAL) betrachtet den Kontext nur als die Wörter, die ein bestimmtes Wort sofort umgeben. HAL berechnet eine NxN-Matrix, wobei N die Anzahl der Wörter in seinem Lexikon ist, wobei ein Leserahmen mit 10 Wörtern verwendet wird, der sich inkrementell durch einen Textkorpus bewegt., Wie in SAM (siehe oben) wird jedes Mal, wenn zwei Wörter gleichzeitig im Rahmen sind, die Assoziation zwischen ihnen erhöht, dh die entsprechende Zelle in der NxN-Matrix wird inkrementiert. Je größer der Abstand zwischen den beiden Wörtern ist, desto kleiner ist der Betrag , um den die Assoziation erhöht wird (insbesondere Δ = 11 − d {\displaystyle \Delta =11-d}, wobei d {\displaystyle d} der Abstand zwischen den beiden Wörtern im Rahmen ist)., Wie in LSA (siehe oben) ist die semantische Ähnlichkeit zwischen zwei Wörtern durch den Kosinus des Winkels zwischen ihren Vektoren gegeben (Dimensionsreduktion kann auch auf dieser Matrix durchgeführt werden). In HAL sind also zwei Wörter semantisch verwandt, wenn sie dazu neigen, mit denselben Wörtern zu erscheinen. Beachten Sie, dass dies auch dann zutreffen kann, wenn die zu vergleichenden Wörter niemals zusammen vorkommen (dh „Huhn“ und „Kanarienvogel“).
Andere statistische Modelle des semantischen Speichersedit
Der Erfolg von LSA und HAL brachte ein ganzes Feld statistischer Sprachmodelle hervor., Eine aktuellere Liste solcher Modelle finden Sie unter dem Thema Maße der semantischen Verwandtschaft.
Schreibe einen Kommentar