Semantiskt minne

posted in: Articles | 0

kärnan i semantiskt minne är att dess innehåll inte är knutet till någon speciell upplevelse, som i episodiskt minne. Istället är det som lagras i semantiskt minne ”gist” av erfarenhet, en abstrakt struktur som gäller för en mängd olika erfarenhetsobjekt och avgränsar kategoriska och funktionella relationer mellan sådana objekt. Således måste en komplett teori om semantiskt minne inte bara ta hänsyn till representationsstrukturen hos sådana ”gister” utan också för hur de kan extraheras från erfarenhet., Många modeller av semantiskt minne har föreslagits; de sammanfattas nedan.

Nätverksmodelledit

nätverk av olika slag spelar en integrerad del i många teorier om semantiskt minne. Generellt sett består ett nätverk av en uppsättning noder anslutna med länkar. Noderna kan representera begrepp, ord, perceptuella Egenskaper eller ingenting alls. Länkarna kan vägas så att vissa är starkare än andra eller, likvärdigt, har en längd så att vissa länkar tar längre tid att korsa än andra., Alla dessa funktioner i nätverk har använts i modeller av semantiskt minne, exempel på vilka finns nedan.

Lärarbar språkförståelse (TLC)redigera

ett av de första exemplen på en nätverksmodell av semantiskt minne är LÄRARBAR språkförståelse (TLC). I denna modell är varje nod ett ord som representerar ett koncept (som”fågel”). Med varje nod lagras en uppsättning egenskaper (som ”kan flyga” eller ”har vingar”) samt pekare (dvs länkar) till andra noder (som ”kyckling”). En nod är direkt kopplad till de noder som det är antingen en underklass eller superklass (dvs,, ”Fågel” skulle vara ansluten till både ”kyckling”och ” djur”). TLC är således en hierarkisk kunskapsrepresentation i att noder på hög nivå som representerar stora kategorier är anslutna (direkt eller indirekt via underklassens noder) till många instanser av dessa kategorier, medan noder som representerar specifika instanser ligger på en lägre nivå, endast kopplade till sina superklasser. Dessutom lagras egenskaper på den högsta kategorinivå som de gäller., Till exempel, ”är gul” skulle lagras med ”kanariefågel”,” har vingar ”skulle lagras med ”fågel” (en nivå upp), och ”kan flytta” skulle lagras med ”djur” (en annan nivå upp). Noder kan också lagra negationer av egenskaperna hos deras överordnade noder (dvs ”inte-kan flyga” skulle lagras med ”pingvin”). Detta ger en representationsekonomi genom att egenskaper endast lagras på den kategorinivå där de blir väsentliga, det vill säga vid vilken tidpunkt de blir kritiska egenskaper (se nedan).

bearbetning i TLC är en form av spridning aktivering., Det vill säga när en nod blir aktiv sprider den aktiveringen till andra noder via länkarna mellan dem. I så fall är det dags att svara på frågan ” är en kyckling en fågel?”är en funktion av hur långt aktiveringen mellan noderna för ”kyckling” och ”fågel” måste spridas, dvs antalet länkar mellan noderna ”kyckling” och ”fågel”.

den ursprungliga versionen av TLC lade inte vikter på länkarna mellan noder., Denna version utfördes jämförbart med människor i många uppgifter, men misslyckades med att förutsäga att människor skulle svara snabbare på frågor om mer typiska kategoriinstanser än de som involverar mindre typiska instanser. Collins och Quillian uppdaterade senare TLC för att inkludera viktade anslutningar för att redogöra för denna effekt. Denna uppdaterade TLC kan förklara både förtrogenhet effekt och typicality effekt., Dess största fördel är att det tydligt förklarar priming: du är mer benägna att hämta information från minnet om relaterad information (”prime”) har presenterats en kort tid innan. Det finns fortfarande ett antal minnesfenomen för vilka TLC inte har något konto, inklusive varför människor kan reagera snabbt på uppenbarligen falska frågor (som ”är en kyckling en meteor?”), när de relevanta noderna är mycket långt ifrån varandra i nätverket.

semantiska nätverksedit

TLC är en instans av en mer allmän klass av modeller som kallas semantiska nätverk., I ett semantiskt nätverk ska varje nod tolkas som att representera ett specifikt koncept, ord eller funktion. Det vill säga varje nod är en symbol. Semantiska nätverk använder i allmänhet inte distribuerade representationer för begrepp, vilket kan hittas i ett neuralt nätverk. Det definierande inslaget i ett semantiskt nätverk är att dess länkar nästan alltid är riktade (det vill säga de pekar bara i en riktning, från en bas till ett mål) och länkarna finns i många olika typer, var och en står för ett visst förhållande som kan hålla mellan två noder., Bearbetning i ett semantiskt nätverk sker ofta i form av spridningsaktivering (se ovan).

semantiska nätverk ser mest användning i modeller av diskurs och logisk förståelse, liksom i artificiell intelligens. I dessa modeller motsvarar noderna ord eller ordstammar och länkarna representerar syntaktiska relationer mellan dem. För ett exempel på ett beräknings genomförande av semantiska nätverk i kunskapsrepresentation, se Cravo och Martins (1993).,

Funktionsmodelledit

funktionsmodeller visar semantiska kategorier som består av relativt ostrukturerade uppsättningar av funktioner. Den semantiska funktionen-jämförelsemodell, föreslagen av Smith, Shoben och Rips (1974), beskriver minnet som består av funktionslistor för olika begrepp. Enligt denna uppfattning skulle relationerna mellan kategorierna inte hämtas direkt, de skulle indirekt beräknas. Till exempel kan ämnen verifiera en mening genom att jämföra de funktionsuppsättningar som representerar dess ämne och predikatkoncept., Sådana beräkningsfunktioner-jämförelsemodeller inkluderar de som föreslagits av Meyer (1970), Rips (1975), Smith, et al. (1974).

tidigt arbete i perceptuell och konceptuell kategorisering antog att Kategorier hade kritiska funktioner och att kategorimedlemskap kunde bestämmas av logiska regler för kombinationen av funktioner. Senare teorier har accepterat att Kategorier kan ha en dåligt definierad eller” fuzzy ” struktur och har föreslagit probabilistiska eller globala likhetsmodeller för verifiering av kategorimedlemskap.,

associativa modelsEdit

”föreningen”—ett förhållande mellan två bitar av information—är ett grundläggande begrepp i psykologi, och föreningar på olika nivåer av mental representation är viktiga för modeller av minne och kognition i allmänhet. Uppsättningen föreningar bland en samling objekt i minnet motsvarar länkarna mellan noder i ett nätverk, där varje nod motsvarar ett unikt objekt i minnet. Faktum är att neurala nätverk och semantiska nätverk kan karakteriseras som associativa modeller av kognition., Föreningar representeras emellertid ofta tydligare som en n×n-matris, där N är antalet objekt i minnet. Således motsvarar varje cell i matrisen styrkan i sambandet mellan raden och kolumnobjektet.

lärande av föreningar tros allmänt vara en Hebbisk process; det vill säga när två objekt i minnet samtidigt är aktiva, växer sambandet mellan dem starkare, och ju mer sannolikt är det att aktivera det andra. Se nedan för specifika operationaliseringar av associativa modeller.,

sökning av associativt minne (SAM)redigera

en standardmodell av minne som använder förening på detta sätt är sökningen av associativ minne (SAM) modell. Även om SAM ursprungligen utformades för att modellera episodiskt minne, är dess mekanismer tillräckliga för att stödja vissa semantiska minnesrepresentationer också. Sam-modellen innehåller en kortfristig butik (STS) och långfristig butik (LTS), där STS är en kort aktiverad delmängd av informationen i LTS., STS har begränsad kapacitet och påverkar hämtningsprocessen genom att begränsa mängden information som kan samplas och begränsa den tid som den provtagna delmängden befinner sig i ett aktivt läge. Hämtningsprocessen i LTS är cue beroende och probabilistisk, vilket innebär att en cue initierar hämtningsprocessen och den valda informationen från minnet är slumpmässig. Sannolikheten för provtagning är beroende av styrkan i sambandet mellan köen och objektet som hämtas, med starkare föreningar som provtas och slutligen väljs en., Buffertstorleken definieras som r, och inte ett fast tal, och eftersom objekt repeteras i bufferten växer de associativa styrkorna linjärt som en funktion av den totala tiden Inuti bufferten. I SAM, när två objekt samtidigt upptar en arbetsminnesbuffert, ökas styrkan i deras förening. Således är föremål som förekommer oftare starkare associerade. Objekt i SAM är också associerade med ett specifikt sammanhang, där styrkan i den föreningen bestäms av hur länge varje objekt är närvarande i ett visst sammanhang., I SAM består minnen av en uppsättning föreningar mellan objekt i minnet och mellan objekt och sammanhang. Förekomsten av en uppsättning objekt och/eller ett sammanhang är mer sannolikt att framkalla, då, en delmängd av objekten i minnet. Den grad i vilken objekt framkallar varandra—antingen på grund av deras gemensamma sammanhang eller deras samförekomst-är en indikation på objektens semantiska relatedness.

i en uppdaterad version av SAM redovisas redan existerande semantiska föreningar med hjälp av en semantisk matris., Under experimentet förblir semantiska föreningar fasta och visar antagandet att semantiska föreningar inte påverkas signifikant av den episodiska erfarenheten av ett experiment. De två åtgärder som används för att mäta semantisk relatedness i denna modell är Latent semantisk analys (LSA) och ordet association spaces (WAS). Lsa-metoden anger att likheten mellan ord återspeglas genom deras samförekomst i ett lokalt sammanhang. Utvecklades genom att analysera en databas med fria föreningsnormer., I var, ” ord som har liknande associativa strukturer placeras i liknande regioner i rymden.”

ACT-R: a production system modelEdit

the ACT (Adaptive Control of Thought) (and later ACT-R (Adaptive Control of Thought-Rational)) theory of cognition representerar deklarativt minne (varav semantiskt minne är en del) med ”bitar”, som består av en etikett, en uppsättning definierade relationer till andra bitar (dvs ”detta är en_”, eller ”detta har en_”), och ett antal bit-specifika egenskaper., Bitar kan sedan mappas som ett semantiskt nätverk, eftersom varje nod är en bit med sina unika egenskaper, och varje länk är chunks förhållande till en annan bit. I ACT, en bit aktivering minskar som en funktion av tiden sedan Bit skapades och ökar med antalet gånger bit har hämtats från minnet. Bitar kan också ta emot aktivering från Gaussisk buller, och från deras likhet med andra bitar. Till exempel, om ”kyckling” används som en retrieval cue, kommer ”canary” att få aktivering på grund av dess likhet med cue (dvs båda är fåglar etc.)., När du hämtar objekt från minnet ser ACT på den mest aktiva chunken i minnet. om den ligger över tröskeln hämtas den, annars har ett” fel av utelämnande ” inträffat, dvs objektet har glömts bort. Det finns dessutom en hämtningslatens, som varierar omvänt med det belopp med vilket aktiveringen av den hämtade chunken överstiger hämtningsgränsen. Denna latens används för att mäta responstiden för ACT-modellen, för att jämföra den med mänsklig prestanda.,

medan ACT är en modell av kognition i allmänhet, och inte minne i synnerhet, det ändå ställer vissa funktioner i strukturen av minnet, som beskrivits ovan. I synnerhet agera modeller minne som en uppsättning relaterade symboliska bitar som kan nås genom att hämta ledtrådar. Medan modellen av minne som används i ACT är liknande på vissa sätt till ett semantiskt nätverk, är bearbetningen mer lik en associativ modell.,

statistisk modelsEdit

vissa modeller karakteriserar förvärvet av semantisk information som en form av statistisk inferens från en uppsättning diskreta upplevelser, fördelade över ett antal ”sammanhang”. Även om dessa modeller skiljer sig åt i detaljerna, använder de i allmänhet en matris (Item × Context) där varje cell representerar antalet gånger ett objekt i minnet har inträffat i ett visst sammanhang. Semantisk information hämtas genom att utföra en statistisk analys av denna matris.,

många av dessa modeller har likhet med de algoritmer som används i sökmotorer (till exempel, se Griffiths, et al., 2007 och Anderson, 1990), men det är ännu inte klart om de verkligen använder samma beräkningsmekanismer.

latent semantisk analys (lsa)redigera

kanske är den mest populära av dessa modeller Latent semantisk analys (LSA)., I lsa är en T × D-matris konstruerad av en text corpus där T är antalet termer i corpus och D är antalet dokument (här” sammanhang ”tolkas som” dokument ” och endast ord—eller ordfraser—betraktas som objekt i minnet)., omvandlas sedan enligt ekvationen:

m t , d ’ = ln ( 1 + m t , d) − i = 0 D P ( i | t ) ln P ( i | t ) {\displaystyle \mathbf {m} _{t,d}’={\frac {\ln {(1+\mathbf {m} _{t,d})}}{-\sum _{i=0}^{d}p(i|t)\ln {p(i|t) \ln {P ( I P> där P(i/t) {\displaystyle P (i | T)} är sannolikheten att kontexten i {\displaystyle i} är aktiv, med tanke på att objektet t {\displaystyle t} har inträffat (detta erhålls helt enkelt genom att dividera råfrekvensen, m t , d {\displaystyle\mathbf{m} _{t,d}} med summan av objektet Vector, i = 0 d m t , i {\displaystyle\sum _{i=0}^{d} \ mathbf{m} _{t,i}})., Denna omvandling-tillämpa logaritmen, sedan dividera med informationen entropi av objektet över alla sammanhang—ger större differentiering mellan objekt och effektivt vikter objekt genom deras förmåga att förutsäga sammanhang, och vice versa (det vill säga objekt som visas i många sammanhang, som ”den” eller ”och”, kommer att vägas mindre, vilket återspeglar deras brist på semantisk information)., En Singular Value Decomposition (SVD) utförs sedan på matrisen m ’ {\displaystyle \mathbf {m} ’} , vilket gör att antalet dimensioner i matrisen kan minskas, vilket klustrar LSA: s semantiska representationer och ger indirekt koppling mellan objekt. Till exempel kan ”cat” och ”dog” aldrig visas tillsammans i samma sammanhang, så deras nära semantiska förhållande kanske inte är välfångat av lsas ursprungliga matris m {\displaystyle \ mathbf {m} } ., Men genom att utföra SVD och minska antalet dimensioner i matrisen skulle kontextvektorerna för ”katt” och ”hund”—som skulle vara mycket likartade—migrera mot varandra och kanske slå samman, vilket gör att ”katt” och ”hund” kan fungera som hämtningskurer för varandra, även om de kanske aldrig har inträffat. Graden av semantisk relatedness av objekt i minnet ges av cosinus av vinkeln mellan objektens kontextvektorer (från 1 för perfekta synonymer till 0 för inget förhållande)., I huvudsak är två ord nära semantiskt relaterade om de förekommer i liknande typer av dokument.

Hyperspace Analogue to Language (Hal)Edit

Hyperspace Analogue to Language (Hal) – modellen betraktar sammanhang endast som de ord som omedelbart omger ett visst ord. HAL beräknar en NXN-matris, där N är antalet ord i sitt lexikon, med hjälp av en 10-ord läsram som rör sig stegvis genom en textkropp., Liksom i SAM (se ovan), när som helst två ord är samtidigt i ramen, ökas sambandet mellan dem, det vill säga motsvarande cell i NXN-matrisen ökas. Ju större avståndet mellan de två orden, desto mindre är det belopp som föreningen ökas (specifikt Δ = 11-d {\displaystyle \ Delta = 11-D}, där d {\displaystyle D} är avståndet mellan de två orden i ramen)., Liksom i LSA (se ovan) ges den semantiska likheten mellan två ord av cosinus av vinkeln mellan deras vektorer (dimensionsreduktion kan också utföras på denna matris). I HAL är då två ord semantiskt relaterade om de tenderar att visas med samma ord. Observera att detta kan vara sant även när orden som jämförs aldrig faktiskt förekommer (dvs ”kyckling”och ” kanariefågel”).

andra statistiska modeller av semantisk minneredigera

framgången för lsa och HAL födde ett helt fält av statistiska språkmodeller., En mer aktuell lista över sådana modeller kan hittas under ämnesåtgärderna för semantisk relatedness.

Lämna ett svar

Din e-postadress kommer inte publiceras. Obligatoriska fält är märkta *