Semantisk hukommelse

posted in: Articles | 0

essensen af semantisk hukommelse er, at dens indhold ikke er bundet til nogen bestemt forekomst af erfaring, som i episodisk hukommelse. I stedet er det, der er gemt i semantisk hukommelse, oplevelsens “kerne”, en abstrakt struktur, der gælder for en lang række oplevelsesobjekter og afgrænser kategoriske og funktionelle forhold mellem sådanne objekter. Således skal en komplet teori om semantisk hukommelse ikke kun redegøre for den repræsentative struktur af sådanne “gists”, men også for, hvordan de kan udvindes af erfaring., Talrige modeller af semantisk hukommelse er blevet foreslået, de er opsummeret nedenfor.

Netværksmodelleredit

netværk af forskellige slags spiller en integreret rolle i mange teorier om semantisk hukommelse. Generelt består et netværk af et sæt noder, der er forbundet med links. Knuderne kan repræsentere begreber, ord, perceptuelle træk eller slet ingenting. Linkene kan vægtes således, at nogle er stærkere end andre eller, ækvivalent, har en længde, således at nogle links tager længere tid at krydse end andre., Alle disse funktioner i netværk er blevet anvendt i modeller af semantisk hukommelse, hvoraf eksempler findes nedenfor.

Teachable Language Comprehender (TLC)Edit

et af de første eksempler på en netværksmodel af semantisk hukommelse er teachable Language Comprehender (TLC). I denne model er hver knude et ord, der repræsenterer et koncept (som “fugl”). Med hver node gemmes et sæt egenskaber (som “kan flyve” eller “har vinger”) samt pointers (dvs.links) til andre noder (som “kylling”). En knude er direkte knyttet til de knudepunkter, hvor det enten er en underklasse eller superklasse (dvs .,, “Fugl “ville være forbundet med både” kylling “og”dyr”). TLC er således en hierarkisk videnrepræsentation, idet knudepunkter på højt niveau, der repræsenterer store kategorier, er forbundet (direkte eller indirekte via knudepunkterne i underklasser) til mange tilfælde af disse kategorier, mens knudepunkter, der repræsenterer specifikke tilfælde, er på et lavere niveau, kun forbundet med deres superklasser. Desuden gemmes ejendomme på det højeste kategoriniveau, som de gælder for., For eksempel” er gul “ville blive opbevaret med” Canary”,” har vinger “ville blive opbevaret med” Bird “(et niveau op), og” kan flytte “ville blive opbevaret med” Animal ” (et andet niveau op). Noder kan også gemme negationer af egenskaberne af deres overordnede noder (dvs. “ikke-kan flyve” ville blive opbevaret med “pingvin”). Dette giver en repræsentationsøkonomi, idet egenskaber kun gemmes på det kategoriniveau, hvor de bliver væsentlige, det vil sige, på hvilket tidspunkt de bliver kritiske funktioner (se nedenfor).behandling i TLC er en form for spredningsaktivering., Det vil sige, når en knude bliver aktiv, spredes aktiveringen til andre noder via forbindelserne mellem dem. I så fald er det tid til at besvare spørgsmålet “er en kylling en fugl?”er en funktion af, hvor langt aktiveringen mellem knudepunkterne for” kylling “og” fugl “skal spredes, dvs.antallet af forbindelser mellem knudepunkterne” kylling “og”fugl”.

den oprindelige version af TLC lagde ikke vægt på forbindelserne mellem noder., Denne version udføres sammenligneligt med mennesker i mange opgaver, men undlod at forudsige, at folk ville reagere hurtigere på spørgsmål vedrørende mere typiske kategori tilfælde end dem, der involverer mindre typiske tilfælde. Collins og .uillian opdaterede senere TLC for at inkludere vægtede forbindelser for at tage højde for denne effekt. Denne opdaterede TLC er i stand til at forklare både kendskabseffekten og typicalitetseffekten., Dens største fordel er, at det klart forklarer priming: det er mere sandsynligt, at du henter information fra hukommelsen, hvis Relateret information (“prime”) er blevet præsenteret kort tid før. Der er stadig en række hukommelsesfænomener, som TLC ikke har nogen konto for, herunder hvorfor folk er i stand til at reagere hurtigt på åbenlyst falske spørgsmål (som “er en kylling en meteor?”), når de relevante noder er meget langt fra hinanden i netværket.

Semantic net .orksedit

TLC er en forekomst af en mere generel klasse af modeller kendt som semantiske netværk., I et semantisk netværk skal hver knude fortolkes som et specifikt koncept, ord eller funktion. Det vil sige, hver knude er et symbol. Semantiske netværk anvender generelt ikke distribuerede repræsentationer for koncepter, som det kan findes i et neuralt netværk. Det definerende træk ved et semantisk netværk er, at dens forbindelser er næsten altid rettet (der er, er de kun peger i én retning, fra et udgangspunkt til et mål), og links, som kommer i mange forskellige typer, som hver står for et bestemt forhold, der kan holde mellem to noder., Behandling i et semantisk netværk tager ofte form af spredningsaktivering (se ovenfor).

semantiske netværk ser mest brug i modeller af diskurs og logisk forståelse såvel som i kunstig intelligens. I disse modeller svarer knudepunkterne til ord eller ordstængler, og forbindelserne repræsenterer syntaktiske forhold mellem dem. For et eksempel på en beregningsmæssige implementering af semantiske netværk i viden repræsentation, se Cravo og Martins (1993).,

Feature modelsEdit

Feature modeller se semantiske kategorier som værende sammensat af relativt ustrukturerede sæt af funktioner. Den semantiske feature-sammenligning model, foreslået af Smith, Shoben, and Rips (1974), beskriver hukommelsen som værende sammensat af feature lister til forskellige begreber. Ifølge denne opfattelse ville forholdet mellem kategorier ikke blive hentet direkte, de ville blive indirekte beregnet. For eksempel kan emner verificere en sætning ved at sammenligne de funktionssæt, der repræsenterer dens emne-og prædikatbegreber., Sådanne beregningsmæssige træk-sammenligningsmodeller inkluderer dem, der er foreslået af Meyer (1970), Rips (1975), Smith, et al. (1974).

tidligt arbejde i perceptuel og konceptuel kategorisering antog, at Kategorier havde kritiske træk, og at kategorimedlemskab kunne bestemmes af logiske regler for kombinationen af funktioner. Nyere teorier har accepteret, at Kategorier kan have en dårligt defineret eller “uklar” struktur og har foreslået probabilistiske eller globale lighedsmodeller til verifikation af kategorimedlemskab.,

Associative modelsEdit

“foreningen”—et forhold mellem to stykker af information—er et grundlæggende begreb i psykologi, og foreninger, der på forskellige niveauer af mental repræsentation er afgørende for, at modeller af hukommelse og kognition generelt. Sættet af foreninger blandt en samling af elementer i hukommelsen svarer til forbindelserne mellem noder i et netværk, hvor hver knude svarer til et unikt element i hukommelsen. Faktisk kan neurale netværk og semantiske netværk karakteriseres som associative modeller af kognition., Imidlertid er foreninger ofte tydeligere repræsenteret som en n.N-Matri., hvor N er antallet af elementer i hukommelsen. Således svarer hver celle i Matri .en til styrken af forbindelsen mellem rækkeelementet og kolonneelementet.

indlæring af foreninger antages generelt at være en Hebbian-proces; det vil sige, når to elementer i hukommelsen samtidig er aktive, bliver forbindelsen mellem dem stærkere, og jo mere sandsynligt er det, at begge elementer aktiverer den anden. Se nedenfor for specifikke operationer af associative modeller.,

søgning af associativ hukommelse (SAM)Rediger

en standardmodel for hukommelse, der beskæftiger forening på denne måde, er søgningen efter associativ hukommelse (SAM) model. Selvom SAM oprindeligt var designet til at modellere episodisk hukommelse, dens mekanismer er tilstrækkelige til at understøtte nogle semantiske hukommelsesrepræsentationer, såvel. SAM-modellen indeholder en short-term store (STS) og long-term store (LTS), hvor STS er en kort aktiveret delmængde af oplysningerne i LTS., STS har begrænset kapacitet og påvirker hentning proces ved at begrænse mængden af oplysninger, der kan udtages prøver og begrænse den tid, samplet delmængde er i en aktiv tilstand. Hentning processen i LTS er cue afhængig og probabilistisk, hvilket betyder, at en cue initierer hentning processen og den valgte information fra hukommelsen er tilfældig. Sandsynligheden for at blive samplet er afhængig af styrken af forbindelsen mellem køen og varen, der hentes, med stærkere foreninger, der udtages, og til sidst vælges en., Bufferstørrelsen er defineret som r, og ikke et fast antal, og når elementer indøves i bufferen, vokser de associative styrker lineært som en funktion af den samlede tid inde i bufferen. I SAM, når to elementer samtidig optager en arbejdshukommelsesbuffer, øges styrken af deres tilknytning. Således er genstande, der forekommer oftere, stærkere forbundet. Elementer i SAM er også forbundet med en bestemt kontekst, hvor styrken af denne forening bestemmes af, hvor længe hvert element er til stede i en given sammenhæng., I SAM, derefter, erindringer består af et sæt af foreninger mellem elementer i hukommelsen og mellem elementer og sammenhænge. Tilstedeværelsen af et sæt elementer og/eller en kontekst er mere tilbøjelige til at fremkalde, så nogle delmængder af elementerne i hukommelsen. I hvilken grad elementer fremkalder hinanden—enten i kraft af deres fælles kontekst eller deres samkomst-er en indikation af emnernes semantiske tilknytning.

i en opdateret version af SAM regnes allerede eksisterende semantiske foreninger for at bruge en semantisk Matri.., Under eksperimentet forbliver semantiske foreninger faste, der viser antagelsen om, at semantiske foreninger ikke påvirkes væsentligt af den episodiske oplevelse af et eksperiment. De to mål, der bruges til at måle semantisk tilknytning i denne model, er den latente semantiske analyse (LSA) og ordet foreningsrum (var). LSA-metoden siger, at lighed mellem ord afspejles gennem deres samkomst i en lokal sammenhæng. Blev udviklet ved at analysere en database med gratis foreningsnormer., I var, ” ord, der har lignende associative strukturer, placeres i lignende rumområder .”

HANDLE-R: et produktionssystem modelEdit

Den HANDLING (Adaptiv Kontrol af Tanke) (og senere ACT-R (Adaptiv Kontrol af Tanke-Rationel)) teori om kognition repræsenterer deklarativ hukommelse (som semantisk hukommelse er en del af) med “klumper”, som består af en etiket, et sæt af definerede relationer til andre bidder (dvs, “dette er en _”, eller “dette er en _”), og enhver antallet af bid-specifikke egenskaber., Chunks kan derefter kortlægges som et semantisk netværk, da hver knude er en klump med sine unikke egenskaber, og hvert link er klumpens forhold til en anden klump. I ACT falder en chunks aktivering som en funktion af tiden siden chunk blev oprettet og stiger med antallet af gange chunk er blevet hentet fra hukommelsen. Bidder kan også modtage aktivering fra Gaussisk støj og fra deres lighed med andre bidder. For eksempel, hvis “kylling” bruges som en hentningskue, vil “canary” modtage aktivering på grund af dens lighed med køen (dvs.begge er fugle osv.)., Når du henter elementer fra hukommelsen, ser ACT på den mest aktive del i hukommelsen; hvis den er over tærsklen, hentes den, ellers er der opstået en “fejl ved udeladelse”, dvs. Der er, derudover, en hentning latenstid, som varierer omvendt med den mængde, hvormed aktiveringen af den hentede luns overstiger hentning tærskel. Denne latenstid bruges til at måle responstiden for ACT-modellen for at sammenligne den med menneskelig præstation.,

mens ACT er en model for kognition generelt og ikke hukommelse i særdeleshed, udgør den alligevel visse funktioner i hukommelsesstrukturen som beskrevet ovenfor. I særdeleshed, ACT modeller hukommelse som et sæt af relaterede symbolske bidder, som kan tilgås ved at hente stikord. Mens den hukommelsesmodel, der anvendes i ACT, på nogle måder ligner et semantisk netværk, er den involverede behandling mere beslægtet med en associativ model.,

statistiske modelleredit

nogle modeller karakteriserer erhvervelsen af semantisk information som en form for statistisk inferens fra et sæt diskrete oplevelser fordelt på en række “sammenhænge”. Selvom disse modeller adskiller sig i detaljer, anvender de generelt en (Element Context kontekst) Matri., hvor hver celle repræsenterer det antal gange, et element i hukommelsen har fundet sted i en given kontekst. Semantisk information hentes ved at udføre en statistisk analyse af denne Matri..,

mange af disse modeller har lighed med de algoritmer, der bruges i søgemaskiner (for eksempel se Griffiths, et al., 2007 og Anderson, 1990), selvom det endnu ikke er klart, om de virkelig bruger de samme beregningsmekanismer.

Latent semantisk analyse (LSA)Rediger

måske er den mest populære af disse modeller Latent semantisk analyse (lsa)., I LSA, a T × D matrix er konstrueret ud fra en tekst-korpusset, hvor T er antallet af termer i corpus, og D er antallet af dokumenter (her “kontekst” er fortolket som “dokument” og kun ord, eller ord, sætninger—betragtes som elementer i hukommelsen)., derefter omdannet i henhold til ligningen:

M t , d ‘ = ln ⁡ ( 1 + M t , u ) − ∑ i = 0 D P ( i | t ) ln ⁡ P ( i | t ) {\displaystyle \mathbf {M} _{t,d}’={\frac {\ln {(1+\mathbf {M} _{t,d})}}{-\sum _{i=0}^{D}P(i|t)\ln {P(i|t)}}}}

hvor P ( i | t ) {\displaystyle P(i|t)} er sandsynligheden for, at sammenhæng i {\displaystyle jeg} er aktiv, i betragtning af, at varen t {\displaystyle t} har fundet sted (dette opnås blot ved at dividere de rå frekvens, M t , d {\displaystyle \mathbf {M} _{t,d}} af i alt elementet vektor, ∑ i = 0 D M t , i {\displaystyle \sum _{i=0}^{D}\mathbf {M} _{t,jeg}} )., Denne transformation—at anvende den naturlige logaritme, og derefter dividere med de oplysninger, entropi af elementet over alle sammenhænge—giver mulighed for øget differentiering mellem elementer og effektivt vægte elementer efter deres evne til at forudsige sammenhæng, og vice versa (der er elementer, der vises på tværs af mange sammenhænge, som “” eller””, vil blive vægtet mindre, hvilket afspejler deres manglende semantisk information)., En Singular Værdi Dekomposition (SVD) udføres derefter på matrix M ‘ {\displaystyle \mathbf {M} ‘} , hvilket giver antallet af dimensioner i den matrix, der skal reduceres, således clustering LSA ‘ s semantiske repræsentationer, og sørge for en indirekte sammenhæng mellem elementer. For eksempel kan “Kat” og “hund” aldrig vises sammen i samme sammenhæng, så deres tætte semantiske forhold kan ikke være godt fanget af LSA ‘ s originale Matri .m {\displaystyle \mathbf {m}}., Men ved at udføre den SVD og reducere antallet af dimensioner i den matrix, led vektorer af “kat” og “hund”—hvilket ville være meget ens—ville migrere mod en anden og måske fusionere, således at “kat” og “hund” til at fungere som hentning stikord for hinanden, selv om de måske aldrig har co-fandt sted. Graden af semantisk relatedness af elementer i hukommelsen er givet ved cosinus af vinklen mellem emnernes kontekstvektorer (spænder fra 1 For perfekte synonymer til 0 for intet forhold)., I det væsentlige er to ord så tæt semantisk relaterede, hvis de vises i lignende typer dokumenter.

Hyperspace Analog to Language (HAL)Rediger

Hyperspace Analog to Language (HAL) – modellen betragter kun kontekst som de ord, der umiddelbart omgiver et givet ord. HAL beregner en n .n Matri., hvor N er antallet af ord i sit leksikon, ved hjælp af en 10-ord læsning ramme, der bevæger sig trinvist gennem et korpus af tekst., Ligesom i SAM (se ovenfor), når som helst to ord er samtidigt i rammen, øges forbindelsen mellem dem, det vil sige den tilsvarende celle i n .n-Matri .en øges. Jo større afstanden mellem de to ord, jo mindre beløb, som foreningen øges (specifikt, Δ = 11 − d {\displaystyle \Delta =11-u -} , hvor d {\displaystyle d} er afstanden mellem de to ord i rammen)., Som i LSA (se ovenfor) er den semantiske lighed mellem to ord givet af cosinus af vinklen mellem deres vektorer (dimensionsreduktion kan også udføres på denne Matri.). I HAL, derefter, to ord er semantisk relateret, hvis de har tendens til at vises med de samme ord. Bemærk, at dette kan være sandt, selv når de ord, der sammenlignes, faktisk aldrig forekommer (dvs. “kylling ” og”kanariefugl”).

andre statistiske modeller af semantisk hukommelsedit

succesen med LSA og HAL fødte et helt felt af statistiske sprogmodeller., En mere ajourført liste over sådanne modeller kan findes under emnet mål for semantisk tilknytning.

Skriv et svar

Din e-mailadresse vil ikke blive publiceret. Krævede felter er markeret med *