Szemantikai memória

posted in: Articles | 0

a szemantikai memória lényege, hogy tartalma nem kötődik semmilyen tapasztalathoz, mint az epizodikus memóriában. Ehelyett a szemantikai memóriában tárolt tapasztalat “lényege”, egy absztrakt struktúra, amely az élményelvi objektumok széles skálájára vonatkozik, és kategorikus és funkcionális kapcsolatokat határoz meg az ilyen objektumok között. Így a szemantikai memória teljes elméletének nemcsak az ilyen “gists” reprezentációs struktúráját kell figyelembe vennie, hanem azt is, hogy hogyan lehet kivonni a tapasztalatból., A szemantikai memória számos modelljét javasolták; ezeket az alábbiakban foglaljuk össze.

hálózati modellekSzerkesztés

különböző típusú hálózatok szerves részét képezik a szemantikai memória számos elméletének. Általánosságban elmondható, hogy a hálózat linkek által összekapcsolt csomópontokból áll. A csomópontok fogalmak, szavak, észlelési jellemzők vagy egyáltalán semmi. A kapcsolatok súlyozhatók úgy, hogy egyesek erősebbek, mint mások, vagy egyenértékűen, olyan hosszúságúak, hogy egyes linkek hosszabb ideig tartanak, mint mások., A hálózatok mindezen jellemzőit a szemantikai memória modelljeiben alkalmazták, amelyek példái az alábbiakban találhatók.

tanítható nyelv megértő (TLC)Edit

a szemantikai memória hálózati modelljének egyik első példája a tanítható Nyelvmegértő (TLC). Ebben a modellben minden csomópont egy szó, amely egy fogalmat képvisel (mint a”madár”). Minden csomópontnál egy sor tulajdonság van tárolva (például “tud repülni” vagy “szárnyakkal rendelkezik”), valamint mutatók (azaz linkek) más csomópontokhoz (például “csirke”). A csomópont közvetlenül kapcsolódik azokhoz a csomópontokhoz, amelyek alosztálya vagy szuperosztálya (azaz,, A ” madár “mind a” csirke”, mind az”állat” – hoz kapcsolódna). Így a TLC hierarchikus tudásábrázolás abban, hogy a nagy kategóriákat képviselő magas szintű csomópontok (közvetlenül vagy közvetve, az alosztályok csomópontjain keresztül) e kategóriák sok példányához kapcsolódnak, míg az egyes példányokat képviselő csomópontok alacsonyabb szinten vannak, csak a szuperosztályokhoz kapcsolódnak. Ezenkívül a tulajdonságokat a legmagasabb kategóriaszinten tárolják, amelyre vonatkoznak., Például az “is yellow” – t “Canary” – vel, a “has wings” – et “Bird” – el (egy szinttel feljebb), a “can move” – t “Animal” – al (egy szinttel feljebb) tárolnák. A csomópontok tárolhatják a szuperordinált csomópontok tulajdonságainak negációit is (azaz a” nem tud repülni “a”pingvin” -vel tárolódik). Ez biztosítja a reprezentáció gazdaságosságát abban az értelemben, hogy a tulajdonságokat csak azon a kategóriaszinten tárolják, amelyen elengedhetetlenné válnak, vagyis amikor kritikus jellemzőkké válnak (lásd alább).

a feldolgozás a TLC-ben a terjesztési aktiválás egyik formája., Vagyis amikor egy csomópont aktívvá válik, az aktiválás más csomópontokra terjed a köztük lévő kapcsolatokon keresztül. Ebben az esetben az idő, hogy válaszoljon a kérdésre: “egy csirke madár?”az a függvény, hogy milyen messzire kell terjednie a” csirke “és a” madár “csomópontok közötti aktiválásnak, azaz a” csirke “és a”madár” csomópontok közötti kapcsolatok számának.

a TLC eredeti verziója nem helyezett súlyokat a csomópontok közötti kapcsolatokra., Ez a verzió végzett összehasonlíthatóan az emberek sok feladatot, de nem tudta megjósolni, hogy az emberek gyorsabban reagálnak a kérdésekre vonatkozó több tipikus kategória példányok, mint azok, amelyek kevésbé tipikus esetekben. Collins és Quillian később frissítették a TLC-t, hogy súlyozott kapcsolatokat tartalmazzon ennek a hatásnak a figyelembevétele érdekében. Ez a frissített TLC képes megmagyarázni mind a megszokás hatását, mind a tipikusság hatását., Legnagyobb előnye, hogy egyértelműen megmagyarázza az alapozást: valószínűbb, hogy információt szerez a memóriából, ha a kapcsolódó információkat (a “prime”) rövid idő alatt bemutatták. Még mindig vannak olyan memória jelenségek, amelyekre a TLC – nek nincs számlája, beleértve azt is, hogy az emberek miért képesek gyorsan reagálni nyilvánvalóan hamis kérdésekre (például ” egy csirke meteor?”), amikor a megfelelő csomópontok nagyon messze vannak egymástól a hálózatban.

szemantikai hálózatokszerkesztés

a TLC a szemantikai hálózatok néven ismert modellek általánosabb osztályának példánya., Egy szemantikai hálózatban minden csomópontot úgy kell értelmezni, hogy egy adott fogalmat, szót vagy funkciót képvisel. Vagyis minden csomópont szimbólum. A szemantikai hálózatok általában nem alkalmaznak elosztott reprezentációkat a fogalmak számára, amint az egy neurális hálózatban is megtalálható. A szemantikai hálózat meghatározó jellemzője, hogy kapcsolatai szinte mindig irányulnak (vagyis csak egy irányba mutatnak, egy alaptól a célig), és a kapcsolatok sok különböző típusba tartoznak, mindegyik egy adott kapcsolatra áll, amely bármely két csomópont között tartható., A szemantikai hálózatban történő feldolgozás gyakran terjedési aktiválás formájában történik (lásd fent).

a szemantikai hálózatok leginkább a diskurzus és a logikai megértés modelljeiben, valamint a mesterséges intelligenciában használják. Ezekben a modellekben a csomópontok szavak vagy szószárak, a kapcsolatok pedig szintaktikai kapcsolatokat képviselnek közöttük. Például a szemantikai hálózatok számítási megvalósítására a tudás ábrázolásában, lásd Cravo and Martins (1993).,

Feature modelsEdit

Feature models view semantic categories as being composed of relatively strukturated set of features. A Smith, Shoben, and Rips (1974) által javasolt szemantikai funkció-összehasonlító modell a memóriát úgy írja le, hogy különböző fogalmak jellemző listáiból áll. E nézet szerint a kategóriák közötti kapcsolatokat nem közvetlenül nyernék vissza, hanem közvetett módon számítanák ki őket. Például az alanyok ellenőrizhetnek egy mondatot úgy, hogy összehasonlítják a tárgy-és predikátumkoncepciókat reprezentáló funkciókészleteket., Az ilyen számítási jellemző-összehasonlító modellek közé tartoznak a Meyer (1970), Rips (1975), Smith, et al. (1974).

Korán dolgozni perceptuális, illetve fogalmi kategorizálás azt feltételezte, hogy a kategóriák volt kritikus funkciók kategória tagság lehet által meghatározott logikai szabályok a kombinált funkciók. A legújabb elméletek elfogadták, hogy a kategóriák rosszul meghatározott vagy “fuzzy” struktúrával rendelkezhetnek, és valószínűségi vagy globális hasonlósági modelleket javasoltak a kategóriatagság ellenőrzésére.,

asszociatív modellekSzerkesztés

az”egyesület” —a két információ közötti kapcsolat—alapvető fogalom a pszichológiában, és a mentális reprezentáció különböző szintjein működő egyesületek elengedhetetlenek a memória és a megismerés általános modelljeihez. A memóriában lévő elemek gyűjteménye közötti asszociációk halmaza megegyezik a hálózat csomópontjai közötti kapcsolatokkal, ahol minden csomópont egy egyedi elemnek felel meg a memóriában. Valójában a neurális hálózatokat és a szemantikai hálózatokat a megismerés asszociatív modelljeként lehet jellemezni., Az asszociációkat azonban gyakran világosabban ábrázolják N×N mátrixként, ahol N a memóriában lévő elemek száma. Így a mátrix minden cellája megfelel a sorelem és az oszlopelem közötti összefüggés erősségének.

az egyesületek tanulását általában Hebbian folyamatnak tartják; vagyis amikor a memóriában lévő két elem egyidejűleg aktív, a köztük lévő társulás erősebbé válik, és annál valószínűbb, hogy bármelyik elem aktiválja a másikat. Lásd alább az asszociatív modellek speciális műveleteit.,

asszociatív memória keresése (SAM)Edit

az asszociatív memória (SAM) modell keresése az ilyen módon társulást alkalmazó memória standard modellje. Bár a SAM-et eredetileg az epizodikus memória modellezésére tervezték, mechanizmusai elegendőek néhány szemantikai memória reprezentáció támogatásához is. A SAM modell rövid távú tárolót (STS) és hosszú távú tárolót (LTS) tartalmaz, ahol az STS az LTS információinak rövid ideig aktivált részhalmaza., Az STS korlátozott kapacitással rendelkezik, és a mintavételezhető információk mennyiségének korlátozásával befolyásolja a visszakeresési folyamatot, és korlátozza a mintavételezett részhalmaznak az aktív üzemmódban töltött idejét. Az LTS-ben a visszakeresési folyamat cue-függő és valószínűségi, ami azt jelenti, hogy egy cue kezdeményezi a visszakeresési folyamatot, a kiválasztott információ pedig a memóriából véletlenszerű. A mintavétel valószínűsége a cue és a visszakeresendő elem közötti asszociáció erősségétől függ, így erősebb asszociációk kerülnek mintavételre, és végül egy kerül kiválasztásra., A pufferméretet r-ként definiáljuk, nem pedig rögzített számként, és mivel a pufferben lévő elemeket próbáljuk meg, az asszociatív erősségek lineárisan növekednek a pufferben lévő teljes idő függvényében. SAM-ben, ha bármelyik két elem egyidejűleg munkamemória-puffert foglal el, a Társítás erőssége növekszik. Így a gyakrabban előforduló elemek erősebben kapcsolódnak egymáshoz. A Sam-ben szereplő elemek egy adott kontextushoz is társulnak, ahol a társulás erőssége határozza meg, hogy az egyes elemek mennyi ideig vannak jelen egy adott kontextusban., Samben tehát az emlékek a memóriában lévő elemek, valamint az elemek és a kontextusok közötti asszociációkból állnak. A jelenléte egy sor elem és / vagy kontextus nagyobb valószínűséggel idézik, majd, néhány részhalmaza az elemek a memóriában. Az, hogy az elemek miként idézik egymást-akár közös kontextusuk, akár együttes előfordulásuk alapján -, az elemek szemantikai összefüggésének jele.

a Sam frissített verziójában a már meglévő szemantikai asszociációkat szemantikai mátrix segítségével számolják el., A kísérlet során a szemantikai társulások továbbra is rögzítve vannak, jelezve azt a feltételezést, hogy a szemantikai társulásokat nem befolyásolja jelentősen egy kísérlet epizodikus tapasztalata. Ebben a modellben a szemantikai összefüggések mérésére használt két intézkedés a látens szemantikai elemzés (LSA) és a szó asszociációs Terek (volt). Az LSA módszer azt állítja, hogy a szavak közötti hasonlóság tükröződik a helyi kontextusban való együttes előfordulásuk révén. A szabad társulási normák adatbázisának elemzésével fejlesztették ki., A volt, ” szavak, amelyek hasonló asszociatív struktúrák kerülnek hasonló régiókban a tér.”

ACT-R: a termelési rendszer modelEdit

A TÖRVÉNY (Adaptív irányítása Hittem) (majd később a TÖRVÉNY-R (Adaptív Irányítás Gondolat-Racionális)) elmélet, a megismerés képviseli deklaratív memória (ebből szemantikus memória egy része) a “darabok”, amely áll egy címke, amelyet egy meghatározott kapcsolatok más darabokat (azaz ez egy”_”, vagy “ez egy _”), pedig tetszőleges számú darab-specifikus tulajdonságai., A darabokat tehát szemantikai hálózatként lehet leképezni, mivel minden csomópont egyedi tulajdonságokkal rendelkező darab, minden link pedig a darab kapcsolata egy másik darabhoz. Az ACT-ban a darab aktiválása a darab létrehozása óta eltelt idő függvényében csökken, és növekszik azzal a számmal, amikor a darab a memóriából származik. A darabok a Gauss-zajból is aktiválódhatnak, valamint a többi darabhoz való hasonlóságukból. Például ,ha a” csirkét “visszakeresési cue-ként használják, a” Kanári ” aktiválást kap a cue-hoz való hasonlósága miatt (azaz mindkettő madár stb.)., Az elemek memóriából történő letöltésekor az ACT a memória legaktívabb darabját vizsgálja; ha ez meghaladja a küszöbértéket, akkor visszakereshető, különben “mulasztás hibája” történt, azaz az elemet elfelejtették. Van továbbá egy visszakeresési késleltetés, amely fordítottan változik azzal az összeggel, amellyel a beolvasott darab aktiválása meghaladja a visszakeresési küszöböt. Ezt a késleltetést az ACT modell válaszidejének mérésére használják, hogy összehasonlítsák az emberi teljesítménnyel.,

míg az ACT általában a megismerés modellje, nem pedig különösen a memória, mindazonáltal a memória szerkezetének bizonyos jellemzőit tartalmazza, a fent leírtak szerint. Különösen, ACT modellek memória, mint egy sor kapcsolódó szimbolikus darabokat, amelyek hozzáférhetők visszakeresési jelek. Míg az ACT-ben alkalmazott memória modellje bizonyos szempontból hasonló a szemantikai hálózathoz, az érintett feldolgozás inkább egy asszociatív modellhez hasonlít.,

statisztikai modellekSzerkesztés

egyes modellek jellemzik a szemantikai információk megszerzését a különálló tapasztalatok halmazából származó statisztikai következtetés egyik formájaként, amely számos “kontextusban” oszlik meg. Bár ezek a modellek különböznek sajátosságait, általában alkalmaznak egy (elem × kontextus) mátrix, ahol minden sejt képviseli a hányszor egy elem a memóriában történt egy adott kontextusban. A szemantikai információkat a mátrix statisztikai elemzésével gyűjtik össze.,

sok ilyen modell hasonlóságot mutat a keresőmotorokban használt algoritmusokkal (például lásd Griffiths, et al., 2007 és Anderson, 1990), bár még nem világos, hogy valóban ugyanazokat a számítási mechanizmusokat használják-e.

látens szemantikai elemzés (LSA)Edit

ezek közül talán a legnépszerűbb a látens szemantikai elemzés (LSA)., Az LSA-ban egy T × D mátrix épül fel egy szöveges korpuszból, ahol T a korpuszban lévő kifejezések száma, D pedig a dokumentumok száma (itt a “kontextus” “dokumentum”—ként értelmezhető, és csak a szavak—vagy szó kifejezések-tekinthetők a memóriában lévő elemeknek)., aztán átalakult a következő egyenlet szerint:

a M a t , d ‘ = ln ⁡ ( 1 + M-t , a d ) − ∑ i = 0 D a P ( i | t ) ln ⁡ P ( i | t ) {\displaystyle \mathbf {M} _{t,d}’={\frac {\ln {(1+\mathbf {M} _{t,d})}}{-\összeg _{i=0}^{D}P(i|t)\ln {P(i|t)}}}}

ahol P ( e | t ) {\displaystyle P(i|t)} a valószínűsége annak, hogy az összefüggésben azt {\displaystyle úgy} aktív, tekintettel arra, hogy a tétel t {\displaystyle t} következett be (ez nyert egyszerűen elosztjuk a nyers frekvencia, M, t , d {\displaystyle \mathbf {M} _{t,d}} az összes elem a vektor, ∑ i = 0 D M a t , i {\displaystyle \összeg _{i=0}^{D}\mathbf {M} _{t,i}} )., Ez az átalakulás—alkalmazása a logaritmusát, majd elosztjuk az információs entrópia a tétel vége minden szempontból,—biztosítja a nagyobb differenciálás az elemek között, valamint hatékonyan súlyú tételek a képessége, hogy előre összefüggésben, illetve fordítva (az elemek jelennek meg szerte számos kontextusban, mint “a” vagy “s”, majd súlyozott kevesebb, ami hiányzik a szemantikai információ)., Ezután az m ‘ {\displaystyle \mathbf {m}’} mátrixon egy egyedi Értékbomlást (SVD) hajtanak végre , amely lehetővé teszi a mátrixban lévő dimenziók számának csökkentését, ezáltal az LSA szemantikai reprezentációinak csoportosítását, valamint az elemek közötti közvetett társulást. Például a” macska “és a” kutya ” soha nem jelenik meg együtt ugyanabban a kontextusban, így szoros szemantikai kapcsolatukat nem biztos, hogy az LSA eredeti mátrixa, M {\displaystyle \mathbf {m} jól megragadja ., Azonban elvégzésével a SVD, valamint csökkenti a dimenziók száma a mátrix, a helyi vektorok a “macska”, valamint a “kutya”—, amely nagyon hasonló—volna vándorolnak felé egy másik, s talán egyesíteni, így lehetővé téve, hogy “macska”, valamint a “kutya” cselekedni, mint letöltése jelek egymásra, még akkor is, ha nem együtt történt. A memóriában lévő elemek szemantikai összefüggésének mértékét az elemek kontextusvektorai közötti szög koszinusa adja (1-től a tökéletes szinonimákig 0-ig, kapcsolat nélkül)., Lényegében tehát két szó szorosan szemantikailag kapcsolódik egymáshoz, ha hasonló típusú dokumentumokban jelennek meg.

Hyperspace Analogue to Language (HAL)Edit

a Hypertspace Analogue to Language (HAL) modell a kontextust csak olyan szavaknak tekinti, amelyek azonnal körülvesznek egy adott szót. HAL kiszámítja az NxN mátrixot, ahol N a lexikonban szereplő szavak száma, egy 10 szavas olvasási keret segítségével, amely fokozatosan mozog a szöveg korpuszán keresztül., Mint a SAM-ben (lásd fent), bármikor két szó egyszerre van a keretben, a köztük lévő társulás megnő, vagyis az NxN mátrix megfelelő cellája növekszik. Minél nagyobb a távolság a két szó között, annál kisebb az összeg , amellyel az egyesület növekszik (konkrétan Δ = 11 − d {\displaystyle \Delta =11-d}, ahol d {\displaystyle d} a két szó közötti távolság a keretben)., Mint az LSA-ban (lásd fent), a két szó közötti szemantikai hasonlóságot a vektorok közötti szög koszinusa adja (a dimenziócsökkentés ezen a mátrixon is elvégezhető). A HAL, azután, két szó szemantikailag kapcsolódó, ha hajlamosak megjelenni az azonos szavakkal. Vegye figyelembe, hogy ez akkor is igaz lehet, ha az összehasonlítandó szavak valójában soha nem fordulnak elő (azaz ” csirke “és”Kanári”).

a szemantikai memorizálás egyéb statisztikai modelljeszerkesztés

az LSA és a HAL sikere a nyelv statisztikai modelljeinek egész területét eredményezte., Az ilyen modellek naprakészebb listája megtalálható a szemantikai relationness témakörében.

Vélemény, hozzászólás?

Az email címet nem tesszük közzé. A kötelező mezőket * karakterrel jelöltük