Semantisch geheugen

geplaatst in: Articles | 0

De essentie van semantisch geheugen is dat de inhoud ervan niet gebonden is aan een bepaald geval van ervaring, zoals in episodisch geheugen. In plaats daarvan is wat in het semantisch geheugen is opgeslagen de” gist ” van ervaring, een abstracte structuur die van toepassing is op een grote verscheidenheid aan ervaringsobjecten en categorische en functionele relaties tussen dergelijke objecten afbakent. Een VOLLEDIGE theorie van het semantisch geheugen moet dus niet alleen rekening houden met de representationele structuur van dergelijke “gists”, maar ook met hoe ze uit ervaring kunnen worden gehaald., Talrijke modellen van semantisch geheugen zijn voorgesteld; ze worden hieronder samengevat.

netwerkmodellen edit

netwerken van verschillende soorten spelen een integraal deel in vele theorieën van semantisch geheugen. Over het algemeen bestaat een netwerk uit een verzameling knooppunten die met elkaar verbonden zijn door koppelingen. De knooppunten kunnen Concepten, woorden, perceptuele functies of helemaal niets vertegenwoordigen. De links kunnen zodanig worden gewogen dat sommige sterker zijn dan andere of, op gelijkwaardige wijze, een lengte hebben die zodanig is dat sommige links langer duren om te doorkruisen dan andere., Al deze eigenschappen van netwerken zijn gebruikt in modellen van semantisch geheugen, waarvan voorbeelden hieronder worden gevonden.

Teachable Language Comprehender (TLC)Edit

een van de eerste voorbeelden van een netwerkmodel van semantisch geheugen is de Teachable Language Comprehender (TLC). In dit model is elk knooppunt een woord, dat een concept voorstelt (zoals “Vogel”). Bij elk knooppunt wordt een reeks eigenschappen opgeslagen (zoals “kan vliegen” of “heeft vleugels”) evenals pointers (dwz, links) naar andere knooppunten (zoals”kip”). Een knooppunt is direct verbonden met die knooppunten waarvan het een subklasse of superklasse is (d.w.z.,, “Vogel” zou worden verbonden met zowel ” kip ” en “dier”). TLC is dus een hiërarchische kennisrepresentatie in dat knooppunten op hoog niveau die grote categorieën vertegenwoordigen (direct of indirect, via de knooppunten van subklassen) verbonden zijn met veel instanties van die categorieën, terwijl knooppunten die specifieke instanties vertegenwoordigen op een lager niveau zijn, alleen verbonden met hun superklassen. Bovendien worden eigenschappen opgeslagen op het hoogste categorieniveau waarop ze van toepassing zijn., Bijvoorbeeld, “is geel” zou worden opgeslagen met “kanarie”, “heeft vleugels” zou worden opgeslagen met ” vogel “(een niveau omhoog), en” kan bewegen “zou worden opgeslagen met” dier ” (een ander niveau omhoog). Knooppunten kunnen ook op te slaan negaties van de eigenschappen van hun bovenliggende knooppunten (dat wil zeggen, “niet-kan vliegen” zou worden opgeslagen met “penguin”). Dit zorgt voor een economie van representatie in die zin dat eigenschappen alleen worden opgeslagen op het categorieniveau waarop ze essentieel worden, dat wil zeggen op welk punt ze kritische kenmerken worden (zie hieronder).

verwerking in TLC is een vorm van spreidingsactivering., Dat wil zeggen, wanneer een knooppunt actief wordt, die activering verspreidt naar andere knooppunten via de koppelingen tussen hen. In dat geval, de tijd om de vraag te beantwoorden “Is een kip een vogel?”is een functie van hoe ver de activering tussen de knooppunten voor” kip ” en ” vogel “moet verspreiden, dat wil zeggen, het aantal links tussen de knooppunten” kip “en”Vogel”.

de oorspronkelijke versie van TLC heeft geen gewichten geplaatst op de verbindingen tussen knooppunten., Deze versie uitgevoerd vergelijkbaar met mensen in vele taken, maar niet te voorspellen dat mensen sneller zou reageren op vragen met betrekking tot meer typische categorie gevallen dan die waarbij minder typische gevallen. Collins en Quillian hebben later TLC bijgewerkt om gewogen verbindingen op te nemen om dit effect te verklaren. Deze bijgewerkte TLC is in staat om zowel het vertrouwelijkheidseffect als het typicaliteitseffect te verklaren., Het grootste voordeel is dat het priming duidelijk uitlegt: je hebt meer kans om informatie uit het geheugen op te halen als gerelateerde informatie (de “prime”) een korte tijd eerder is gepresenteerd. Er zijn nog steeds een aantal geheugenfenomenen waar TLC geen rekening mee houdt, waaronder waarom mensen in staat zijn om snel te reageren op duidelijk valse vragen (zoals “is een kip een meteoor?”), wanneer de relevante knooppunten zeer ver uit elkaar liggen in het netwerk.

semantische netwerkenedit

TLC is een instantie van een meer algemene klasse van modellen bekend als semantische netwerken., In een semantisch netwerk moet elk knooppunt worden geïnterpreteerd als een specifiek concept, woord of kenmerk. Dat wil zeggen, elk knooppunt is een symbool. Semantische netwerken maken over het algemeen geen gebruik van gedistribueerde representaties voor concepten, zoals kan worden gevonden in een neuraal netwerk. Het bepalende kenmerk van een semantisch netwerk is dat de links bijna altijd gericht zijn (dat wil zeggen, ze wijzen slechts in één richting, van een basis naar een doel) en de links komen in veel verschillende types, elk staat voor een bepaalde relatie die kan houden tussen twee knopen., Verwerking in een semantisch netwerk neemt vaak de vorm aan van spreidende activering (zie hierboven).

semantische netwerken worden het meest gebruikt in discourse-en logische begripsmodellen, evenals in kunstmatige intelligentie. In deze modellen komen de knooppunten overeen met woorden of woordstammen en de links vertegenwoordigen syntactische relaties tussen hen. Voor een voorbeeld van een computationele implementatie van semantische netwerken in kennisrepresentatie, zie Cravo and Martins (1993).,

Feature modelsEdit

Feature models zien semantische categorieën als zijnde samengesteld uit relatief ongestructureerde sets van features. Het semantic feature-comparison model, voorgesteld door Smith, Shoben, and Rips (1974), beschrijft geheugen als zijnde samengesteld uit feature lijsten voor verschillende concepten. Volgens deze opvatting zouden de relaties tussen de categorieën niet direct worden opgevraagd, maar indirect worden berekend. Bijvoorbeeld, onderwerpen kunnen een zin te verifiëren door het vergelijken van de functie sets die het onderwerp en predicaat concepten vertegenwoordigen., Dergelijke computationele functie-vergelijking modellen omvatten die voorgesteld door Meyer (1970), Rips (1975), Smith, et al. (1974).

vroeg werk in perceptuele en conceptuele categorisering ging ervan uit dat Categorieën kritische kenmerken hadden en dat het lidmaatschap van categorieën kon worden bepaald door logische regels voor de combinatie van kenmerken. Meer recente theorieën hebben aanvaard dat Categorieën een slecht gedefinieerde of “vage” structuur kunnen hebben en hebben probabilistische of globale gelijkvormigheidsmodellen voorgesteld voor de verificatie van categorie-lidmaatschap.,

associatieve modeledit

De “Associatie” —een relatie tussen twee stukjes informatie—is een fundamenteel concept in de psychologie, en associaties op verschillende niveaus van mentale representatie zijn essentieel voor modellen van geheugen en cognitie in het algemeen. De verzameling associaties tussen een verzameling items in het geheugen is gelijk aan de koppelingen tussen knooppunten in een netwerk, waarbij elk knooppunt overeenkomt met een uniek item in het geheugen. Neurale netwerken en semantische netwerken kunnen inderdaad worden gekarakteriseerd als associatieve modellen van cognitie., Associaties worden echter vaak duidelijker weergegeven als een n×N matrix, waarbij N het aantal items in het geheugen is. Elke cel van de matrix komt dus overeen met de sterkte van de associatie tussen het rij-item en het kolomitem.

het leren van associaties wordt algemeen beschouwd als een Hebbiaans proces; dat wil zeggen dat wanneer twee items in het geheugen gelijktijdig actief zijn, de associatie tussen hen sterker wordt, en het waarschijnlijker is dat een van beide items het andere activeert. Zie hieronder voor specifieke operationalisaties van associatieve modellen.,

zoeken naar associatief geheugen (SAM)Edit

een standaardmodel van geheugen dat gebruik maakt van associatie op deze manier is het zoeken naar associatief geheugen (SAM) model. Hoewel SAM oorspronkelijk ontworpen was om episodisch geheugen te modelleren, zijn de mechanismen voldoende om ook semantische geheugenrepresentaties te ondersteunen. Het SAM-model bevat een short-term store (STS) en long-term store (LTS), waarbij STS een kort geactiveerde deelverzameling is van de informatie in de LTS., De STS heeft een beperkte capaciteit en beïnvloedt het opnameproces door de hoeveelheid informatie die kan worden bemonsterd te beperken en de tijd te beperken dat de bemonsterde deelverzameling actief is. Het ophalen proces in LTS is cue afhankelijk en probabilistisch, wat betekent dat een cue het ophalen proces initieert en de geselecteerde informatie uit het geheugen willekeurig is. De kans om te worden bemonsterd is afhankelijk van de sterkte van de associatie tussen de cue en het item dat wordt opgehaald, met sterkere associaties worden bemonsterd en uiteindelijk wordt er een gekozen., De buffergrootte wordt gedefinieerd als r, en niet als een vast aantal, en aangezien de punten in de buffer worden gerepeteerd groeien de associatieve sterktes lineair als functie van de totale tijd binnen de buffer. In SAM, wanneer twee items tegelijkertijd een werkgeheugenbuffer innemen, wordt de sterkte van hun associatie verhoogd. Zo worden items die vaker samen voorkomen sterker geassocieerd. Items in SAM worden ook geassocieerd met een specifieke context, waarbij de sterkte van die associatie wordt bepaald door hoe lang elk item aanwezig is in een bepaalde context., In SAM, dan, herinneringen bestaan uit een set van associaties tussen items in het geheugen en tussen items en contexten. De aanwezigheid van een verzameling van items en/of een context is meer waarschijnlijk om op te roepen, dan, een deelverzameling van de items in het geheugen. De mate waarin items elkaar oproepen—hetzij door hun gezamenlijke context, hetzij door hun co-voorkomen—is een indicatie van de semantische verwantschap van de items.

in een bijgewerkte versie van SAM worden reeds bestaande semantische associaties verantwoord met behulp van een semantische matrix., Tijdens het experiment blijven semantische associaties gefixeerd, waaruit blijkt dat semantische associaties niet significant worden beïnvloed door de episodische ervaring van één experiment. De twee maten die gebruikt worden om semantische verwantschap te meten in dit model zijn de latente semantische analyse (LSA) en het woord associatie ruimten (WAS). De LSA methode stelt dat de gelijkenis tussen woorden wordt weerspiegeld door hun co-voorkomen in een lokale context. WAS werd ontwikkeld door het analyseren van een database van vrije associatie normen., In WAS, “woorden die soortgelijke associatieve structuren hebben worden geplaatst in soortgelijke gebieden van de ruimte.”

ACT-R: een productiesysteem modelEdit

de ACT (Adaptive Control Of Thought-Rational) (en later ACT-R (Adaptive Control of Thought-Rational)) cognitietheorie vertegenwoordigt declaratief geheugen (waarvan semantisch geheugen deel uitmaakt) met “brokken”, die bestaan uit een label, een set van gedefinieerde relaties met andere brokken (d.w.z., “dit is een _”, of “dit heeft een _”), en een aantal brokken-specifieke eigenschappen., Chunks, dan, kunnen worden toegewezen als een semantisch netwerk, gegeven dat elk knooppunt is een chunk met zijn unieke eigenschappen, en elke link is de relatie van het chunk naar een ander chunk. In actie neemt de activering van een stuk af als functie van de tijd sinds het stuk is gemaakt en neemt toe met het aantal keren dat het stuk uit het geheugen is opgehaald. Brokken kunnen ook activering ontvangen van Gaussiaanse ruis, en van hun gelijkenis met andere brokken. Bijvoorbeeld, als ” kip ” wordt gebruikt als een retrieval cue,” canary ” zal activering ontvangen op grond van de gelijkenis met de cue (dat wil zeggen, beide zijn vogels, enz.)., Bij het ophalen van items uit het geheugen, kijkt ACT naar het meest actieve stuk in het geheugen; als het boven de drempel ligt, wordt het opgehaald, anders is er een “fout van weglating” opgetreden, dat wil zeggen, het item is vergeten. Er is bovendien een retrieval latentie, die omgekeerd varieert met de hoeveelheid waarmee de activering van het opgehaalde stuk de retrievaldrempel overschrijdt. Deze latentie wordt gebruikt bij het meten van de responstijd van het ACT-model, om het te vergelijken met menselijke prestaties.,

hoewel ACT Een model is van cognitie in het algemeen en niet van het geheugen in het bijzonder, positioneert het niettemin bepaalde kenmerken van de structuur van het geheugen, zoals hierboven beschreven. In het bijzonder, ACT modelleert geheugen als een set van verwante symbolische brokken die kunnen worden benaderd door retrieval cues. Terwijl het model van geheugen dat in handeling wordt gebruikt in sommige opzichten gelijkaardig is aan een semantisch netwerk, is de betrokken verwerking meer verwant aan een associatief model.,

statistische modeledit

sommige modellen karakteriseren de verwerving van semantische informatie als een vorm van statistische gevolgtrekking uit een reeks discrete ervaringen, verspreid over een aantal “contexten”. Hoewel deze modellen verschillen in specifieke kenmerken, gebruiken ze over het algemeen een (Item × Context) matrix waar elke cel het aantal keren vertegenwoordigt dat een item in het geheugen is opgetreden in een bepaalde context. Semantische informatie wordt verkregen door het uitvoeren van een statistische analyse van deze matrix.,

veel van deze modellen vertonen gelijkenis met de algoritmen die in zoekmachines worden gebruikt (bijvoorbeeld, zie Griffiths, et al., 2007 en Anderson, 1990), hoewel het nog niet duidelijk is of ze werkelijk dezelfde rekenmechanismes gebruiken.

latente semantische analyse (LSA)Edit

misschien is de meest populaire van deze modellen latente semantische analyse (LSA)., In LSA wordt een T × D-matrix opgebouwd uit een tekstcorpus waarin T het aantal termen in het corpus is en D het aantal documenten (hier wordt” context “geïnterpreteerd als” document ” en worden alleen woorden—of woordzinnen—beschouwd als items in het geheugen)., vervolgens getransformeerd volgens de volgende vergelijking:

M d , d ‘ = ln ⁡ ( 1 + M t , d ) − ∑ i = 0 D P ( i | t ) ln ⁡ P ( i | t ) {\displaystyle \mathbf {M} _{t,c}’={\frac {\ln {(1+\mathbf {M} _{t,c})}}{-\som _{i=0}^{D}P(i|t)\ln {P(i|t)}}}}

waar P ( i | t ) {\displaystyle P(i|t)} is de kans dat kader i {\displaystyle i} actief is, gegeven dat item t {\displaystyle t} heeft plaatsgevonden (dit is verkregen door de verdeling van de ruwe frequentie, M t , d {\displaystyle \mathbf {M} _{t,d}} door het totaal van de post vector, ∑ i = 0 D M t , i {\displaystyle \som _{i=0}^{D}\mathbf {M} _{t,c}} )., Deze transformatie-het toepassen van de logaritme, dan delen door de informatie entropie van het item over alle contexten—zorgt voor een grotere differentiatie tussen items en weegt effectief items door hun vermogen om context te voorspellen, en vice versa (dat wil zeggen, items die verschijnen in veel contexten, zoals “De” of “en”, zullen minder worden gewogen, als gevolg van hun gebrek aan semantische informatie)., Een enkelvoudige Waardedecompositie (SVD) wordt dan uitgevoerd op de matrix M ‘ {\displaystyle \mathbf {M} ‘} , die het mogelijk maakt het aantal dimensies in de matrix te verminderen, waardoor LSA ‘ s semantische representaties worden geclust en indirecte associatie tussen items wordt gecreëerd. Bijvoorbeeld, ” kat ” en “hond” kunnen nooit samen verschijnen in dezelfde context, dus hun nauwe semantische relatie kan niet goed worden vastgelegd door LSA ‘ s oorspronkelijke matrix M {\displaystyle \mathbf {M} } ., Echter, door het uitvoeren van de SVD en het verminderen van het aantal dimensies in de matrix, zouden de contextvectoren van “Kat” en “hond”—die zeer vergelijkbaar zouden zijn—naar elkaar migreren en misschien samensmelten, waardoor “kat” en “hond” als terugwinningsmeldingen voor elkaar zouden kunnen fungeren, ook al zijn ze misschien nooit samengekomen. De mate van semantische verwantschap van items in het geheugen wordt gegeven door de cosinus van de hoek tussen de contextvectoren van de items (variërend van 1 voor perfecte Synoniemen tot 0 voor geen relatie)., In wezen zijn twee woorden dus semantisch nauw met elkaar verbonden als ze in soortgelijke soorten documenten voorkomen.

Hyperspace Analogue to Language (HAL)Edit

het Hyperspace Analogue to Language (HAL) model beschouwt context alleen als de woorden die onmiddellijk een bepaald woord omringen. HAL berekent een NXN-matrix, waarin N het aantal woorden in zijn lexicon is, met behulp van een leesframe van 10 woorden dat stapsgewijs door een corpus van tekst beweegt., Zoals in SAM (zie hierboven), elke keer dat twee woorden tegelijkertijd in het frame zijn, wordt de associatie tussen hen verhoogd, dat wil zeggen, de corresponderende cel in de NXN matrix wordt verhoogd. Hoe groter de afstand tussen de twee woorden, hoe kleiner de hoeveelheid waarmee de associatie wordt verhoogd (specifiek, Δ = 11 − d {\displaystyle \Delta =11-d} , waarbij d {\displaystyle d} de afstand is tussen de twee woorden in het frame)., Net als in LSA (zie hierboven) wordt de semantische gelijkenis tussen twee woorden gegeven door de cosinus van de hoek tussen hun vectoren (dimensiereductie kan ook op deze matrix worden uitgevoerd). In HAL, dan, twee woorden zijn semantisch gerelateerd als ze de neiging om te verschijnen met dezelfde woorden. Merk op dat dit waar kan zijn, zelfs wanneer de woorden die worden vergeleken nooit daadwerkelijk co-optreden (dat wil zeggen, “kip” en “kanarie”).

andere statistische modellen van semantische memoryEdit

het succes van LSA en HAL leidde tot een heel veld van statistische taalmodellen., Een meer up-to-date lijst van dergelijke modellen kan worden gevonden onder het onderwerp maten van semantische verwantschap.

Geef een reactie

Het e-mailadres wordt niet gepubliceerd. Vereiste velden zijn gemarkeerd met *