esența memoriei semantice este că conținutul său nu este legat de nici un caz particular de experiență, ca în memoria episodică. În schimb, ceea ce este stocat în memoria semantică este „esența” experienței, o structură abstractă care se aplică unei largi varietăți de obiecte experiențiale și delimitează relațiile categorice și funcționale dintre astfel de obiecte. Astfel, o teorie completă a memoriei semantice trebuie să țină cont nu numai de structura reprezentativă a unor astfel de „gists”, ci și de modul în care pot fi extrase din experiență., Au fost propuse numeroase modele de memorie semantică, acestea fiind rezumate mai jos.
modele de Rețeaedit
rețelele de diferite tipuri joacă o parte integrantă în multe teorii ale memoriei semantice. În general, o rețea este compusă dintr-un set de noduri conectate prin legături. Nodurile pot reprezenta concepte, cuvinte, trăsături perceptuale sau nimic. Legăturile pot fi ponderate astfel încât unele să fie mai puternice decât altele sau, în mod echivalent, să aibă o lungime astfel încât unele legături să dureze mai mult decât altele., Toate aceste caracteristici ale rețelelor au fost folosite în modele de memorie semantică, Exemple de care se găsesc mai jos.unul dintre primele exemple ale unui model de rețea de memorie semantică este înțelegerea limbajului Învățabil (TLC). În acest model, fiecare nod este un cuvânt, reprezentând un concept (cum ar fi „pasăre”). Cu fiecare nod este stocat un set de proprietăți (cum ar fi „poate zbura” sau „are aripi”), precum și indicii (de exemplu, link-uri) la alte noduri (cum ar fi „pui”). Un nod este direct legat de acele noduri din care este fie o subclasă, fie o superclasă (adică.,, „Bird „ar fi conectat atât la” pui”, cât și la”Animal”). Astfel, TLC este un ierarhic reprezentarea cunoașterii în care la nivel înalt noduri reprezentând categorii mari sunt legate (direct sau indirect, prin intermediul nodurilor de subclase) la mai multe instanțe din aceste categorii, întrucât nodurile reprezentând cazuri specifice sunt la un nivel inferior, conectat doar la superclasses. În plus, proprietățile sunt stocate la cel mai înalt nivel de categorie la care se aplică., De exemplu, „este galben „ar fi stocate cu” canar”,” are aripi „ar fi stocate cu” pasăre „(un nivel în sus), și” poate muta „ar fi stocate cu” Animal ” (un alt nivel în sus). Nodurile pot stoca, de asemenea, negări ale proprietăților nodurilor lor superordinate (adică, „nu-poate zbura” ar fi stocate cu „pinguin”). Aceasta oferă o economie de reprezentare în faptul că proprietățile sunt stocate numai la nivelul categoriei la care devin esențiale, adică moment în care devin caracteristici critice (vezi mai jos).procesarea în TLC este o formă de activare a răspândirii., Adică, atunci când un nod devine activ, activarea se extinde la alte noduri prin legăturile dintre ele. În acest caz, timpul pentru a răspunde la întrebarea „este un pui o pasăre?”este o funcție a cât de departe trebuie să se răspândească activarea dintre nodurile pentru „pui” și „pasăre”, adică numărul de legături dintre nodurile „pui” și „pasăre”.versiunea originală a TLC nu a pus greutăți pe legăturile dintre noduri., Această versiune a efectuat comparabil cu oamenii în multe sarcini, dar nu a reușit să prezică că oamenii ar răspunde mai repede la întrebări cu privire la mai multe cazuri de categorie tipice decât cele care implică cazuri mai puțin tipice. Collins și Quillian au actualizat ulterior TLC pentru a include conexiuni ponderate pentru a ține cont de acest efect. Acest TLC actualizat este capabil să explice atât efectul de familiaritate, cât și efectul de tipicitate., Cel mai mare avantaj al său este că explică în mod clar amorsarea: este mai probabil să preluați informații din memorie dacă informațiile conexe („prime”) au fost prezentate cu puțin timp înainte. Există încă o serie de fenomene de memorie pentru care TLC nu are niciun cont, inclusiv de ce oamenii sunt capabili să răspundă rapid la întrebări evident false (cum ar fi „este un pui un meteorit?”), când nodurile relevante sunt foarte îndepărtate în rețea.
rețele Semanticeedit
TLC este o instanță a unei clase mai generale de modele cunoscute sub numele de rețele semantice., Într-o rețea semantică, fiecare nod trebuie interpretat ca reprezentând un concept, cuvânt sau caracteristică specifică. Adică, fiecare nod este un simbol. Rețelele semantice, în general, nu folosesc reprezentări distribuite pentru concepte, așa cum se poate găsi într-o rețea neuronală. Caracteristica definitorie a unei rețele semantice este că legăturile sale sunt aproape întotdeauna direcționate (adică ele indică doar într-o direcție, de la o bază la o țintă), iar legăturile vin în mai multe tipuri diferite, fiecare reprezentând o anumită relație care poate ține între oricare două noduri., Prelucrarea într-o rețea semantică ia adesea forma activării răspândirii (vezi mai sus).rețelele semantice văd cea mai mare utilizare în modelele de discurs și înțelegere logică, precum și în inteligența artificială. În aceste modele, nodurile corespund cuvintelor sau tulpinilor de cuvinte, iar legăturile reprezintă relații sintactice între ele. Pentru un exemplu de implementare computațională a rețelelor semantice în reprezentarea cunoștințelor, a se vedea Cravo and Martins (1993).,
Feature modelsEdit
Feature models view semantic categories as being composed of relativ nestructured sets of features. Modelul semantic de comparare a caracteristicilor, propus de Smith, Shoben, and Rips (1974), descrie memoria ca fiind compusă din liste de caracteristici pentru diferite concepte. Potrivit acestui punct de vedere, relațiile dintre Categorii nu ar fi preluate direct, ele ar fi calculate indirect. De exemplu, subiecții ar putea verifica o propoziție comparând seturile de caracteristici care reprezintă conceptele sale de subiect și predicat., Astfel de modele de comparare a caracteristicilor computaționale includ cele propuse de Meyer (1970), Rips (1975), Smith și colab. (1974).
munca timpurie în clasificarea perceptuală și conceptuală a presupus că categoriile au caracteristici critice și că apartenența la categorii ar putea fi determinată de reguli logice pentru combinarea caracteristicilor. Teorii mai recente au acceptat că categoriile pot avea o structură prost definită sau” neclară ” și au propus modele probabilistice sau globale de similitudine pentru verificarea apartenenței la categorii.,”Asociația—- o relație între două informații—este un concept fundamental în psihologie, iar asociațiile la diferite niveluri de reprezentare mentală sunt esențiale pentru modelele de memorie și cunoaștere în general. Setul de asocieri între o colecție de elemente din memorie este echivalent cu legăturile dintre nodurile dintr-o rețea, unde fiecare nod corespunde unui element unic din memorie. Într-adevăr, rețelele neuronale și rețelele semantice pot fi caracterizate ca modele asociative ale cunoașterii., Cu toate acestea, asociațiile sunt adesea mai clar reprezentate ca o matrice N×N, unde N este numărul de elemente din memorie. Astfel, fiecare celulă a matricei corespunde puterii asocierii dintre elementul rând și elementul coloană.
Învățarea de asociații este în general considerat a fi un Hebbian proces; că este, ori de câte ori două elemente în memorie sunt active simultan, asocierea dintre ele devine mai puternică, și mai probabil, fie element este de a activa celelalte. Vezi mai jos pentru operaționalizări specifice ale modelelor asociative.,
căutarea memoriei asociative (SAM)editare
un model standard de memorie care utilizează asocierea în acest mod este modelul de căutare a memoriei asociative (SAM). Deși SAM a fost inițial conceput pentru a modela memoria episodică, mecanismele sale sunt suficiente pentru a susține și unele reprezentări ale memoriei semantice. Modelul SAM conține un magazin pe termen scurt (STS) și un magazin pe termen lung (LTS), unde STS este un subset activat pe scurt al informațiilor din LTS., STS are o capacitate limitată și afectează procesul de recuperare prin limitarea cantității de informații care pot fi eșantionate și limitarea timpului în care subsetul eșantionat se află într-un mod activ. Procesul de regăsire în LTS este dependent de tac și probabilistic, ceea ce înseamnă că un tac inițiază procesul de regăsire și informațiile selectate din memorie sunt aleatorii. Probabilitatea de a fi eșantionate depinde de puterea de asociere între tac și elementul fiind recuperate, cu asociații mai puternice fiind eșantionate și în cele din urmă unul este ales., Dimensiunea buffer-ului este definită ca r, și nu un număr fix, și ca elemente sunt repetate în buffer punctele forte asociative cresc liniar ca o funcție a timpului total în interiorul buffer-ului. În SAM, atunci când oricare două elemente ocupă simultan un tampon de memorie de lucru, puterea asocierii lor este incrementată. Astfel, elementele care co-apar mai des sunt mai puternic asociate. Elementele din SAM sunt, de asemenea, asociate cu un context specific, în cazul în care puterea de care asocierea determinată de cât timp fiecare element este prezent într-un anumit context., În SAM, atunci, amintirile constau dintr-un set de asocieri între elemente în memorie și între elemente și contexte. Prezența unui set de elemente și/sau un context este mult mai probabil să evoce, apoi, unele subset de elemente în memorie. Gradul în care elementele se evocă reciproc—fie în virtutea contextului lor comun, fie a co-apariției lor—este o indicație a relației semantice a elementelor.într-o versiune actualizată a SAM, asociațiile semantice preexistente sunt contabilizate folosind o matrice semantică., În timpul experimentului, asociațiile semantice rămân fixe, arătând presupunerea că asociațiile semantice nu sunt afectate în mod semnificativ de experiența episodică a unui experiment. Cele două măsuri utilizate pentru a măsura corelația semantică în acest model sunt analiza semantică latentă (LSA) și spațiile de asociere a cuvintelor (a fost). Metoda LSA afirmă că similitudinea dintre cuvinte se reflectă prin co-apariția lor într-un context local. A fost elaborat prin analiza unei baze de date a normelor de asociere liberă., În a fost, ” cuvintele care au structuri asociative similare sunt plasate în regiuni similare ale spațiului.ACT (controlul adaptiv al gândirii) (și mai târziu ACT-R (controlul adaptiv al gândirii-rațional)) teoria cunoașterii reprezintă memoria declarativă (din care memoria semantică face parte) cu „bucăți”, care constau dintr-o etichetă, un set de relații definite cu alte bucăți (adică „acesta este un _” sau „acesta are un_”) și orice număr de proprietăți specifice bucăților., Bucăți, apoi, pot fi mapate ca o rețea semantică, având în vedere că fiecare nod este o bucată cu proprietățile sale unice, și fiecare legătură este relația bucată cu o altă bucată. În ACT, activarea unei bucăți scade în funcție de timpul de când a fost creată bucata și crește odată cu numărul de ori în care bucata a fost recuperată din memorie. Bucățile pot primi, de asemenea, activarea din zgomotul Gaussian și din asemănarea lor cu alte bucăți. De exemplu, dacă ” puiul „este folosit ca un indiciu de recuperare,” canarul ” va primi activarea în virtutea asemănării sale cu tacul (adică ambele sunt păsări etc.).)., La preluarea elementelor din memorie, ACT se uită la cea mai activă bucată din memorie; dacă este peste prag, este recuperată, altfel a apărut o „eroare de omisiune”, adică elementul a fost uitat. Există, în plus, o latență de recuperare, care variază invers cu suma cu care activarea piesei recuperate depășește pragul de recuperare. Această latență este utilizată în măsurarea timpului de răspuns al modelului ACT, pentru a-l compara cu performanța umană.,în timp ce ACT este un model al cunoașterii în general, și nu al memoriei în special, acesta prezintă totuși anumite caracteristici ale structurii memoriei, așa cum este descris mai sus. În special, ACT modele de memorie ca un set de bucăți simbolice legate care pot fi accesate prin indicii de regăsire. În timp ce modelul de memorie utilizat în ACT este similar în unele moduri cu o rețea semantică, prelucrarea implicată este mai asemănătoare cu un model Asociativ.,unele modele caracterizează dobândirea de informații semantice ca o formă de inferență statistică dintr-un set de experiențe discrete, distribuite într-un număr de „contexte”. Deși aceste modele diferă în specific, ele folosesc în general o matrice (Item × Context) în care fiecare celulă reprezintă numărul de ori în care un element din memorie a apărut într-un context dat. Informațiile semantice sunt obținute prin efectuarea unei analize statistice a acestei matrice.,multe dintre aceste modele poartă similitudine cu algoritmii utilizați în motoarele de căutare (de exemplu, vezi Griffiths, et al., 2007 și Anderson, 1990), deși nu este încă clar dacă folosesc cu adevărat aceleași mecanisme de calcul.
analiza semantică latentă (lsa)editare
poate cel mai popular dintre aceste modele este analiza semantică latentă (LSA)., În LSA, o matrice T × D este construită dintr—un corpus de text unde T este numărul de termeni din corpus și D este numărul de documente (aici „context” este interpretat ca „document” și numai cuvinte—sau fraze de cuvinte-sunt considerate elemente în memorie)., apoi transformate în conformitate cu ecuația:
M t , d ‘ = ln ( 1 + M, t , d ) − ∑ i = 0 D P ( i | t ) ln P ( i | t ) {\displaystyle \mathbf {M} _{t,d}’={\frac {\ln {(1+\mathbf {M} _{t,d})}}{-\sum _{i=0}^{D}P(i|t)\ln {P(i|t)}}}}
în cazul în care P ( i | t ) {\displaystyle P(i|t)} este probabilitatea acest context am {\displaystyle i} este activă, având în vedere că elementul t {\displaystyle t} – a avut loc (acest lucru este simplu obținute prin împărțirea prime frecvență, M, t , d {\displaystyle \mathbf {M} _{t,d}} total de elementul vector, ∑ i = 0 D M t , m {\displaystyle \sum _{i=0}^{D}\mathbf {M} _{t i}} )., Această transformare—aplicarea logaritm, apoi împărțirea de informații entropiei elementului peste toate contextele—oferă o mai mare diferențiere între obiecte și eficient greutăți elemente de capacitatea lor de a prezice context, și vice-versa (care este, de elemente care apar în mai multe contexte, cum ar fi „” sau „” și””, vor fi ponderate mai puțin, reflectând lipsa lor de informații semantice)., O Valoare de Descompunere Singular (SVD) este apoi efectuat pe matricea M ‘ {\displaystyle \mathbf {M} ‘} , care permite numărul de dimensiuni în matrice să fie redusă, astfel clustering LSA semantic, reprezentări și modul de asociere indirectă între elemente. De exemplu, „pisică” și „câine” nu pot apărea împreună în același context, atât lor strânsă relație semantică nu poate fi bine capturat de LSA original matricea M {\displaystyle \mathbf {M} } ., Cu toate acestea, prin efectuarea SVD și reducerea numărului de dimensiuni din matrice, vectorii de context ai „pisicii” și „câinelui”—care ar fi foarte asemănători—ar migra unul spre celălalt și ar putea fuziona, permițând astfel „pisicii” și „câinelui” să acționeze ca indicii de recuperare unul pentru celălalt, chiar dacă este posibil să nu fi co-apărut niciodată. Gradul de înrudire semantică a elementelor în memorie este dat de cosinusul unghiului dintre vectorii de context ai elementelor (variind de la 1 Pentru sinonime perfecte la 0 pentru nicio relație)., În esență, atunci, două cuvinte sunt strâns legate semantic dacă apar în tipuri similare de documente.
hiperspațiu analog cu limba (HAL)editare
modelul hiperspațiu analog cu limba (HAL) consideră context doar ca cuvintele care înconjoară imediat un cuvânt dat. HAL calculează o matrice NxN, unde N este numărul de cuvinte din lexiconul său, folosind un cadru de citire de 10 cuvinte care se mișcă incremental printr-un corpus de text., Ca și în SAM (vezi mai sus), de fiecare dată când două cuvinte sunt simultan în cadru, asocierea dintre ele este mărită, adică celula corespunzătoare din matricea NxN este incrementată. Mai mare distanța între două cuvinte, cea mai mică sumă cu care asociația este incrementat (în special, Δ = 11 − d {\displaystyle \Delta =11-d} , unde d {\displaystyle d} este distanța între două cuvinte în cadru)., Ca și în LSA (vezi mai sus), similitudinea semantică dintre două cuvinte este dată de cosinusul unghiului dintre vectorii lor (reducerea dimensiunii poate fi efectuată și pe această matrice). În HAL, atunci, două cuvinte sunt înrudite semantic dacă tind să apară cu aceleași cuvinte. Rețineți că acest lucru poate fi valabil chiar și atunci când cuvintele comparate nu co-apar niciodată (adică „pui” și „canar”).
alte modele statistice ale memoriei semanticeedit
succesul LSA și HAL a dat naștere unui întreg domeniu de modele statistice ale limbajului., O listă mai actualizată a acestor modele poate fi găsită în cadrul subiectului măsuri de corelare semantică.
Lasă un răspuns