essensen av semantisk hukommelse er at innholdet er ikke bundet til noe bestemt forekomst av erfaring, som i episodisk hukommelse. I stedet, hva som er lagret i semantisk hukommelse er «hovedpunkt» av erfaring, en abstrakt struktur som gjelder for et bredt utvalg av empirisk objekter og markerer kategoriske og funksjonelle relasjoner mellom slike objekter. Dermed er en komplett teori om semantisk minne må ta hensyn ikke bare for representasjons struktur av slike «gists», men også for hvordan de kan være hentet fra erfaring., Mange modeller av semantisk minne har blitt foreslått; de er oppsummert nedenfor.
Nettverk modelsEdit
Nettverk av ulike slag spille en integrert del i mange teorier om semantisk minne. Generelt sett, et nettverk består av et sett av noder som er koblet med lenker. Nodene kan representere begreper, ord, perseptuelle funksjoner, eller ingenting i det hele tatt. Koblingene kan være vektet slik at noen er sterkere enn andre, eller tilsvarende, har en lengde slik at noen lenker ta lenger tid til å komme seg gjennom enn andre., Alle disse funksjonene av nettverk har vært ansatt i modeller av semantisk minne, eksempler av som er funnet under.
Lærevillig Språk Comprehender (TLC)Edit
En av de første eksempler på en nettverksmodell av semantisk hukommelse er Lærevillig Språk Comprehender (TLC). I denne modellen, hver node er et ord, som representerer et konsept (som «Fugl»). Med hver node er lagret et sett av egenskaper (som for eksempel «kan fly» eller «har vinger») samt pekere (dvs., lenker) til andre noder (som «Chicken»). En node er direkte knyttet til de nodene som det enten er en subclass eller superclass (dvs.,, «Fugl» ville være koblet til både «Kylling» og «Dyr»). Dermed, TLC er en hierarkisk kunnskap representasjon i at høy-nivå noder som representerer store kategorier er koblet (direkte eller indirekte, via noder av underklasser) til mange forekomster av disse kategoriene, mens noder som representerer bestemte forekomster er på et lavere nivå, som er koblet kun til sine superclasses. Videre er egenskaper som er lagret i den høyeste kategorien nivå som de gjelder., For eksempel, «gul» ville være lagret med «Kanarifugl», «har vinger» ville være lagret med «Fugl» (ett nivå opp), og kan «flytte» ville være lagret med «Dyr» (et annet nivå opp). Noder kan også lagre negasjoner av egenskapene til sine overordnede noder (dvs., «IKKE kan fly» ville være lagret med «penguin»). Dette gir en økonomi av representasjon i at eiendommene blir bare lagret i kategori nivå der de bli avgjørende, det er, på hvilket tidspunkt de blir kritiske funksjoner (se nedenfor).
Behandling i TLC er en form for spredning av aktivering., Det er, når en node blir aktiv, at aktivering sprer seg til andre noder via koblinger mellom dem. I så fall tid til å svare på spørsmålet «Er en kylling av en fugl?»er en funksjon av hvor langt aktivering mellom noder for «Kylling» og «Fugl» må spre seg, dvs, antall lenker mellom nodene «Kylling» og «Fugl».
Den opprinnelige versjonen av TLC ikke legge vekt på koblinger mellom noder., Denne versjonen utført relativt til mennesker i mange oppgaver, men klarte ikke å forutse at folk ville reagere raskere på spørsmål om mer typisk kategori tilfeller enn de som involverer mindre typiske tilfeller. Collins og Quillian senere oppdatert TLC å inkludere vektet forbindelser til konto for denne effekten. Denne oppdaterte TLC er i stand til å forklare både kjennskap effekt og typicality effekt., Dens største fordel er at det forklarer tydelig klargjøring: du er mer sannsynlig å hente informasjon fra minnet hvis relatert informasjon («prime») har blitt gitt en kort tid før. Det er fortsatt en rekke av minne fenomener, som TLC har ingen konto, inkludert grunnen til at folk er i stand til å reagere raskt på åpenbart falske spørsmål (for eksempel «er en kylling av en meteor?»), når de aktuelle nodene er svært langt fra hverandre i nettverket.
Semantisk networksEdit
TLC er en forekomst av en mer generell klasse av modeller kjent som semantisk nettverk., I et semantisk nettverk, hver node er å bli tolket som å representere en bestemt konsept, et ord eller en funksjon. Det vil si at hver node er et symbol. Semantisk nettverk vanligvis ikke benytter fordelt representasjoner for begreper, som kan bli funnet i en nevrale nettverk. Det avgjørende funksjon i et semantisk nettverk er at dens forbindelser er nesten alltid rettet (som er, de bare peker i en retning, fra en base til en mål) og linker kommer i mange forskjellige typer, hver og en står for et spesielt forhold som kan holde mellom to noder., Behandling i et semantisk nettverk ofte tar form av å spre aktivering (se ovenfor).
Semantiske nettverk se mest bruk i modeller av tale og logisk forståelse, så vel som i Kunstig Intelligens. I disse modellene, nodene svarer til ord eller ord stammer og ledd representerer syntaktiske forholdet mellom dem. For et eksempel på en beregningsorientert gjennomføring av semantiske nettverk i kunnskap representasjon, se Cravo og Martins (1993).,
Har modelsEdit
Har modeller vise semantiske kategorier som er sammensatt av relativt ustrukturerte sett av funksjoner. Den semantiske funksjonen sammenligning modell, foreslått av Smith, Shoben, og Rips (1974) beskriver minne som består av funksjon lister for ulike konsepter. I henhold til denne visningen, relasjoner mellom kategorier ville ikke være direkte hentet, de ville være indirekte beregnet. For eksempel, fag kan bekrefte en setning ved å sammenligne de har sett som representerer dens subjekt og predikat konsepter., Slik computational funksjonen sammenligning modeller er de som er foreslått av Meyer (1970), Rips (1975), Smith, et al. (1974).
Tidlige arbeid i perseptuelle og begrepsmessig kategorisering antatt at kategorier hadde kritiske funksjoner og at kategori-medlemskap kunne være bestemt av logiske regler for kombinasjon av funksjoner. Nyere teorier har akseptert at kategorier kan ha en dårlig definert eller «fuzzy» – struktur og har foreslått probabilistisk eller global likhet modeller for verifisering av kategori medlemskap.,
Assosiativ modelsEdit
«association»—et forhold mellom to biter av informasjon—er et grunnleggende begrep i psykologi, og foreninger på ulike nivåer av mental representasjon er viktig for å modellene hukommelse og kognisjon generelt. Sett av assosiasjoner blant en samling av elementer i minne er tilsvarende koblinger mellom noder i et nettverk, hvor hver node tilsvarer et unikt element i minnet. Faktisk, nevrale nettverk og semantiske nettverk kan karakteriseres som assosiative modeller av erkjennelse., Imidlertid, foreninger er ofte mer tydelig representert som en N×N-matrise, der N er antall elementer i minnet. Dermed, hver celle i matrisen tilsvarer styrken på sammenhengen mellom rad-element og den kolonnen for elementet.
Lære av foreninger er generelt antatt å være en Hebbian prosess, som, når det er to elementer i minne er samtidig aktive, sammenhengen mellom dem blir sterkere, og mer sannsynlig, enten element er å aktivere den andre. Se nedenfor for spesifikke operationalizations av assosiative modeller.,
Søk av Assosiativ Hukommelse (SAM)Edit
En standard modell av minnet som sysselsetter foreningen på denne måte er å Søke etter Assosiativ Hukommelse (SAM) modell. Selv om SAM ble opprinnelig utviklet for å modellere episodisk minne, dens mekanismer som er tilstrekkelig til å støtte noen semantisk minne representasjoner, så vel. SAM-modellen inneholder en kortsiktig store (STS) og langsiktig store (LTS), der M er en kort aktivert delsett av informasjon i LTS., STS har begrenset kapasitet og påvirker henting prosessen ved å begrense mengden av informasjon som kan være samplet og begrense tiden de innsamlede delsett er i aktiv modus. Henting prosess i LTS er cue-avhengige og probabilistisk, noe som betyr at en cue starter henting prosess, og den valgte informasjon fra minnet er tilfeldig. Sannsynligheten for å bli samplet er avhengig av styrken på sammenhengen mellom de cue og elementet blir hentet, med sterkere assosiasjoner blir samplet og til slutt en er valgt., Bufferstørrelsen er definert som r, og ikke et fast antall, og elementer som er øvde i buffer assosiativ styrker vokse lineært som en funksjon av den totale tiden inne i bufferen. I SAM, når som helst to elementer samtidig okkupere en fungerende minne buffer, styrken av deres tilknytning øker. Dermed elementer som co-skje oftere er sterkere forbundet. Elementer i SAM er også forbundet med en bestemt kontekst, der kraft av foreningen avgjøres av hvor lenge hvert element er til stede i en gitt sammenheng., I SAM, da, minner består av et sett av relasjoner mellom elementer i minnet, og mellom elementer og sammenhenger. Tilstedeværelsen av et sett av elementer og/eller en kontekst er mer sannsynlig å fremkalle, da, noen delsett av elementene i minnet. I hvilken grad elementer fremkalle en annen—enten i kraft av deres felles kontekst eller deres co-forekomst—er en indikasjon på elementer’ semantisk relatedness.
I en oppdatert versjon av SAM, pre-eksisterende semantisk foreninger regnskapsføres ved hjelp av en semantisk matrise., Under eksperimentet, semantisk foreninger forbli fast som viser den forutsetning at semantiske forbindelser er ikke vesentlig påvirket av episodisk opplevelse av et eksperiment. De to tiltakene som brukes for å måle semantisk relatedness i denne modellen er det Latent semantisk analyse (LRA) og Ordet association områder (VAR). LSA metoden sier at likheten mellom ord er reflektert gjennom sine co-forekomst i en lokal kontekst. BLE ble utviklet ved å analysere en database av fri assosiasjon normer., I VAR, «ord som har lignende assosiativ strukturer er plassert i samme regionene av verdensrommet.»
ACT-R: a production system modelEdit
The ACT (Adaptive Kontroll av tanker) (og senere LOV-R (Adaptive Kontroll av Tanke-Rasjonelle)) teori om erkjennelse representerer deklarativ hukommelse (som semantisk hukommelse er en del) med «biter», som består av en etikett, et sett av definerte relasjoner til andre deler (dvs., «dette er en _», eller «dette har en _»), og en rekke del-spesifikke egenskaper., Biter, da, kan være kartlagt som et semantisk nettverk, gitt at hver node er en del som med sine unike egenskaper, og hver link er blings forhold til en annen del. I LOVEN en del aktivisering avtar som funksjon av tiden siden den del som ble skapt, og øker med antall ganger del er hentet fra minnet. Biter kan også motta aktivering fra Gaussisk støy, og fra deres likhet til andre biter. For eksempel, hvis «kylling» er brukt som et henting cue, «kanarifuglen» vil motta aktivering i kraft av sin likhet til cue (dvs., begge er fugler, etc.)., Når du henter elementer fra minnet, HANDLE ser på de mest aktiv del i minnet, hvis det er over grensen, det er hentet inn, ellers en «feil unnlatelse» har oppstått, dvs., element har blitt glemt. Det er, i tillegg, en henting ventetid som varierer omvendt med det beløp som den aktivering av de gjenopprettede del som overstiger henting terskel. Denne tidsforsinkelsen er brukt i å måle svartid av ACT-modellen, til å sammenligne det til menneskelig ytelse.,
Mens HANDLING er en modell for erkjennelse generelt, og ikke minne i særdeleshet, er det likevel angir visse funksjoner av strukturen av minne, som beskrevet ovenfor. Særlig ACT-modeller minne som et sett av beslektede symbolsk biter, som kan nås ved henting signaler. Mens modell av minne ansatt i ACT ligner på noen måter til et semantisk nettverk, behandling involvert er mer beslektet til en assosiativ modell.,
Statistiske modelsEdit
Noen modeller karakterisere oppkjøpet av semantisk informasjon som en form for statistisk inferens fra et sett av diskrete erfaringer, fordelt på en rekke «sammenhenger». Selv om disse modellene skiller seg i detaljene, de vanligvis benytter en (Element × Sammenheng) matrise der hver celle representerer antall ganger et element i minne har oppstått i en gitt sammenheng. Semantisk informasjon er hentet ved å utføre en statistisk analyse av denne matrisen.,
Mange av disse modellene bjørn likhet til algoritmer som brukes i søkemotorer (for eksempel, se Griffiths, et al., 2007 og Anderson, 1990), men det er ennå ikke klart om de virkelig kan bruke den samme computational mekanismer.
Latent Semantisk Analyse (LRA)Edit
Kanskje den mest populære av disse modellene er Latent Semantisk Analyse (LRA)., I LRA, en T × D matrix er konstruert fra en tekst corpus der T er antall av begreper i corpus og D er antall dokumenter (her «kontekst» er tolket som «dokument» og bare ord—eller ord setninger—anses som elementer i minne)., deretter forvandlet i henhold til ligning:
M t , d ‘ = ln ( 1 + M t , d ) − ∑ i = 0 L P ( i | t ) ln P ( i | t ) {\displaystyle \mathbf {M} _{t,d}’={\frac {\ln {(1+\mathbf {M} _{t,d})}}{-\sum _{i=0}^{D}P(i|t)\ln {P(i|t)}}}}
hvor P ( i | t ) {\displaystyle P(i|t)} er sannsynligheten for at konteksten jeg {\displaystyle jeg} er aktiv, gitt at elementet t {\displaystyle t} har oppstått (dette oppnås enkelt ved å dele den rå frekvens, M t , d {\displaystyle \mathbf {M} _{t,d}} av summen av punkt vektor, ∑ i = 0 D M t , jeg {\displaystyle \sum _{i=0}^{D}\mathbf {M} _{t,jeg}} )., Denne transformasjonen—bruke logaritmen, deretter dele av informasjon entropi av elementet over alle sammenhenger—gir for større differensiering mellom elementer og effektivt vekter elementer av deres evne til å forutsi sammenhengen, og vice versa (det vil si at elementer som vises i mange sammenhenger, som «den» eller «og», vil bli vektet mindre, noe som gjenspeiler deres mangel av semantisk informasjon)., En Enestående Verdi Nedbrytning (SVD) er deretter utført på matrisen M ‘ {\displaystyle \mathbf {M} ‘} , noe som gjør at antall dimensjoner i matrisen å bli redusert, og dermed clustering LRA er semantiske representasjoner og sørge for indirekte sammenheng mellom elementer. For eksempel, «katt» og «hund» kan aldri vises sammen i samme sammenheng, slik at deres nære semantiske forholdet kan ikke være godt fanget opp av LRA er opprinnelige matrisen M {\displaystyle \mathbf {M} } ., Imidlertid, ved å utføre den SVD og å redusere antall dimensjoner i the matrix, kontekst vektorer av «katt» og «hund»—noe som ville være svært lik—ville vandrer mot en annen, og kanskje slå sammen, slik at «katt» og «hund» til å fungere som henting holdepunkter for hverandre, selv om de kanskje aldri har co-oppstått. Graden av semantisk relatedness av elementer i minne er gitt ved cosinus til vinkelen mellom elementer-kontekst vektorer (alt fra 1 for perfekt synonymer til 0 for ingen sammenheng)., I hovedsak, da, to ord som er nært semantisk relatert hvis de dukker opp i lignende typer dokumenter.
Hyperspace Analog til Språk (HAL)Edit
Hyperspace Analog til Språk (HAL) modell mener sammenheng bare som ord som umiddelbart surround et bestemt ord. HAL regner ut en NxN matrise, der N er antall ord i sitt leksikon, ved hjelp av en 10-ords lesing ramme som beveger seg trinnvis gjennom et korpus av tekst., Som i SAM (se ovenfor), helst to ord er samtidig i rammen, sammenhengen mellom dem er økt, det er, er den tilsvarende cellen i NxN matrise er økt. Jo større avstand det er mellom de to ordene, jo mindre beløp som foreningen er økt (spesifikt, Δ = 11 − d {\displaystyle \Delta =11-d} , der d {\displaystyle d} er avstanden mellom de to ordene i rammen)., Som i LSA (se ovenfor), den semantiske likheten mellom to ord, er gitt ved cosinus til vinkelen mellom vektorene (dimensjon reduksjon kan utføres på denne matrisen, så vel). I HAL, da, to ord som er semantisk relatert hvis de har en tendens til å dukke opp med de samme ordene. Merk at dette kan holde gjelder selv når ord blir sammenlignet faktisk aldri co-skje (dvs., «kylling» og «kanarifuglen»).
Andre statistiske modeller av semantisk memoryEdit
suksessen av LRA og HAL ga fødsel til et helt felt av statistiske modeller av språk., En mer oppdatert liste over slike modeller kan bli funnet under emnet Tiltak av semantisk relatedness.
Legg igjen en kommentar