Sémantická paměť

posted in: Articles | 0

podstata sémantické paměti je, že její obsah nejsou vázány na konkrétní instanci zkušenosti, stejně jako v epizodické paměti. Místo toho, co je uložené v sémantické paměti je „podstata“ zkušeností, abstraktní strukturu, která se vztahuje na širokou škálu zážitkových předmětů a vymezuje kategorické a funkční vztahy mezi těmito objekty. Úplná teorie sémantické paměti tedy musí odpovídat nejen za reprezentační strukturu takových „GIST“, ale také za to, jak je lze získat ze zkušenosti., Byly navrženy četné modely sémantické paměti, které jsou shrnuty níže.

síťové modelyedit

sítě různých druhů hrají nedílnou součást mnoha teorií sémantické paměti. Obecně řečeno, síť se skládá ze sady uzlů Spojených odkazy. Uzly mohou představovat pojmy, slova, percepční rysy nebo vůbec nic. Odkazy mohou být váženy tak, že některé jsou silnější než jiné, nebo, ekvivalentně, mají délku tak, že některé odkazy trvat déle než ostatní., Všechny tyto funkce sítí byly použity v modelech sémantické paměti, jejichž příklady jsou uvedeny níže.

Učenlivý Jazyk Comprehender (TLC)Upravit

Jeden z prvních příkladů síťový model sémantické paměti je Učenlivý Jazyk Comprehender (TLC). V tomto modelu je každý uzel slovo, představující koncept (jako „pták“). U každého uzlu je uložena sada vlastností (jako „může létat „nebo“ má křídla“), stejně jako ukazatele (tj. odkazy) na jiné uzly (jako“kuře“). Uzel je přímo spojen s uzly, z nichž je to buď podtřída nebo superclass (tj.,, „Pták“ by byl spojen jak s „kuřetem“, tak s „zvířetem“). Tak, TLC je hierarchická reprezentace znalostí v high-úrovni uzlů reprezentujících velkou kategorií jsou spojen (přímo nebo nepřímo prostřednictvím uzlů podtřídy) na mnoha případech z těchto kategorií, vzhledem k tomu, že uzly zastupují konkrétní instance jsou na nižší úrovni, připojen pouze k jejich superclasses. Kromě toho jsou vlastnosti uloženy na nejvyšší úrovni kategorie, na kterou se vztahují., Například, „je žlutá“ by být uložen s „Kanárské“, “ má křídla „by být uložen s“ pták „(o jednu úroveň výš), a“ může pohybovat „by být uložen s“ zvíře “ (další úroveň výš). Uzly mohou také ukládat negace vlastností jejich nadřazených uzlů(tj. To poskytuje ekonomické zastoupení v této vlastnosti jsou uloženy pouze na úrovni kategorie, na níž je zásadní, že je, na kterém místě oni kritická funkce (viz níže).

zpracování v TLC je forma šíření aktivace., To znamená, že když se uzel aktivuje, tato aktivace se šíří do jiných uzlů prostřednictvím vazeb mezi nimi. V takovém případě je čas odpovědět na otázku “ je kuře pták?“je funkce, jak daleko aktivace mezi uzly pro „Kuře“ a „Pták“, musí šířit, tzn. počet spojení mezi uzly „Kuře“ a „Pták“.

původní verze TLC nevkládala závaží na vazby mezi uzly., Tato verze provádí srovnatelně na člověka v mnoha úkoly, ale nedokázal předpovědět, že lidé by se rychleji reagovat na otázky týkající se více typické kategorie případů, než ty, které se týkají méně typické případy. Collins a Quillian později aktualizovali TLC tak, aby zahrnovaly vážená připojení, aby zohlednily tento efekt. Tento aktualizovaný TLC je schopen vysvětlit jak efekt známosti, tak efekt typičnosti., Jeho největší výhodou je, že jasně vysvětluje základní nátěr: je pravděpodobnější, že načtete informace z paměti, pokud byly související informace („prime“) představeny krátce předtím. Stále existuje řada paměťových jevů, pro které TLC nemá žádný účet, včetně toho, proč jsou lidé schopni rychle reagovat na zjevně falešné otázky(jako “ je kuře meteor?“), kdy jsou příslušné uzly v síti velmi daleko od sebe.

sémantické sítěedit

TLC je instance obecnější třídy modelů známých jako sémantické sítě., V sémantické síti má být každý uzel interpretován jako představující konkrétní koncept, slovo nebo funkci. To znamená, že každý uzel je symbol. Sémantické sítě obecně nepoužívají distribuované reprezentace pro koncepty, jak lze nalézt v neuronové síti. Charakteristickým rysem sémantické sítě je, že jeho odkazy jsou téměř vždy zaměřeny (to znamená, že jediný bod v jednom směru, ze základny do cíle) a odkazy přicházejí v mnoha různých typů, každý z nich stojí za zvláštní vztah, který může držet mezi dvěma uzly., Zpracování v sémantické síti má často formu šíření aktivace (viz výše).

sémantické sítě vidí největší využití v modelech diskurzu a logického porozumění, stejně jako v umělé inteligenci. V těchto modelech, uzly odpovídají slova nebo slovo stonky a odkazy představují syntaktické vztahy mezi nimi. Příklad výpočetní implementace sémantických sítí v reprezentaci znalostí viz Cravo a Martins (1993).,

Funkce modelsEdit

Funkce modelů zobrazení sémantických kategorií, jako jsou složené z relativně nestrukturované sady funkcí. Sémantický model porovnání vlastností, navržený Smithem, Shobenem a ripy (1974), popisuje paměť jako složenou ze seznamů funkcí pro různé koncepty. Podle tohoto názoru by vztahy mezi kategoriemi nebyly přímo získány, byly by nepřímo vypočítány. Například subjekty mohou ověřit větu porovnáním množin funkcí, které představují její předmět a predikátové koncepty., Takové modely porovnávání výpočetních vlastností zahrnují modely navržené Meyerem (1970), ripy (1975), Smithem a kol. (1974).

Rané práce v percepční a konceptuální kategorizace předpokládá, že kategorie měla zásadní funkce a to, že kategorie členství by mohla být stanovena podle logických pravidel pro kombinaci funkcí. Novější teorie uznává, že kategorie mohou mít špatně definované nebo „fuzzy“ struktura a navrhli pravděpodobnostní nebo globální podobnosti modelů pro ověření kategorii členství.,

Asociativní modelsEdit

„sdružení“—vztah mezi dvěma kusy informací—je základní pojem v psychologii, a sdružení na různých úrovních mentální reprezentace jsou zásadní pro modely paměti a poznávání obecně. Sada asociací mezi sbírkou položek v paměti je ekvivalentní vazbám mezi uzly v síti, kde každý uzel odpovídá jedinečné položce v paměti. Neuronové sítě a sémantické sítě mohou být skutečně charakterizovány jako asociativní modely poznání., Asociace jsou však často jasněji reprezentovány jako matice N×N, kde N je počet položek v paměti. Každá buňka matice tedy odpovídá síle spojení mezi položkou řádku a položkou sloupce.

Učení o sdružení je obecně věřil být Hebbian procesu; to je, když dvě položky v paměti jsou současně aktivní, spojení mezi nimi roste, silnější, a více pravděpodobné, že buď položka je aktivovat další. Viz níže pro konkrétní operacionalizations asociativních modelů.,

vyhledávání asociativní paměti (SAM)Edit

standardní model paměti, který tímto způsobem využívá asociace, je hledání modelu asociativní paměti (SAM). Ačkoli SAM byl původně navržen tak, aby modeloval epizodickou paměť, jeho mechanismy jsou dostatečné pro podporu některých sémantických reprezentací paměti. Model SAM obsahuje krátkodobý obchod (STS) a dlouhodobý obchod (LTS), kde STS je krátce aktivovaná podmnožina informací v LTS., STS má omezenou kapacitu a ovlivňuje proces vyhledávání omezením množství informací, které lze odebrat, a omezením doby, po kterou je vzorkovaná podmnožina v aktivním režimu. Proces vyhledávání v LTS je závislý na cue a pravděpodobnostní, což znamená, že cue iniciuje proces vyhledávání a vybrané informace z paměti jsou náhodné. Pravděpodobnost odběru vzorků závisí na síle spojení mezi tágem a získanou položkou, přičemž jsou odebírány silnější asociace a nakonec je vybrána jedna., Velikost vyrovnávací paměti je definována jako r, a není pevný počet, a jako položky jsou nacvičené ve vyrovnávací paměti asociativní silné stránky růst lineárně jako funkce celkového času uvnitř vyrovnávací paměti. V SAM, když všechny dvě položky současně zabírají vyrovnávací paměť pracovní paměti, síla jejich spojení se zvyšuje. Položky, které se vyskytují častěji, jsou tedy silněji spojeny. Položky v SAM jsou také spojeny se specifickým kontextem, kde síla tohoto sdružení určuje, jak dlouho je každá položka přítomna v daném kontextu., V SAM, pak, vzpomínky se skládají ze souboru asociací mezi položkami v paměti a mezi položkami a kontexty. Přítomnost souboru položek a/nebo kontextu je pravděpodobnější, že vyvolá, pak, některé podmnožiny položek v paměti. Míra, do jaké se položky navzájem evokují-buď na základě jejich sdíleného kontextu nebo jejich společného výskytu-je známkou sémantické příbuznosti položek.

v aktualizované verzi SAM jsou předem existující sémantické asociace účtovány pomocí sémantické matice., Během experimentu zůstávají sémantické asociace pevné a ukazují předpoklad, že sémantické asociace nejsou významně ovlivněny epizodickou zkušeností jednoho experimentu. Dvě opatření používaná k měření sémantické příbuznosti v tomto modelu jsou latentní sémantická analýza (LSA) a asociační prostory slova (WAS). Metoda LSA uvádí, že podobnost mezi slovy se odráží jejich společným výskytem v místním kontextu. Byl vyvinut analýzou databáze norem volného sdružení., V WAS, “ slova, která mají podobné asociativní struktury, jsou umístěna v podobných oblastech prostoru.“

ACT-R: výrobní systém modelEdit

ACT (Adaptive Control of Thought). (a později ACT-R (Adaptive Control of Thought-Rational)) teorie poznání představuje deklarativní paměti (z nichž sémantická paměť je součástí) s „kusy“, které se skládají z označení, sada definovanými vztahy s jinými kusy (tj.,“_“, nebo „_“), a libovolný počet kus-specifické vlastnosti., Chunks, pak, může být mapován jako sémantická síť, vzhledem k tomu, že každý uzel je kus s jeho jedinečnými vlastnostmi, a každý odkaz je čunkův vztah k jinému kusu. V zákoně, aktivace čunku se snižuje jako funkce doby, kdy byl kus vytvořen, a zvyšuje se počtem případů, kdy byl kus načten z paměti. Kusy mohou také přijímat aktivaci z Gaussovského šumu a z jejich podobnosti s jinými kusy. Například, pokud se“ kuře „používá jako vyhledávací tágo,“ kanár “ obdrží aktivaci na základě své podobnosti s tágem (tj.)., Při načítání položek z paměti se ACT podívá na nejaktivnější kus v paměti; pokud je nad prahem, je načten, jinak došlo k“ chybě opomenutí“, tj. Existuje navíc latence načítání, která se mění nepřímo s částkou, o kterou aktivace načteného kusu překračuje prahovou hodnotu pro vyhledávání. Tato latence se používá při měření doby odezvy modelu ACT, aby se porovnala s výkonem člověka.,

zatímco ACT je model poznání obecně, a nikoli zejména paměť, přesto představuje určité rysy struktury paměti, jak je popsáno výše. Zejména, ACT modely paměti jako soubor souvisejících symbolických kusů, které mohou být přístupné načítání narážky. Zatímco model paměti použitý v ACT je v některých ohledech podobný sémantické síti, zpracování je více podobné asociativnímu modelu.,

statistické modelyedit

některé modely charakterizují získávání sémantických informací jako formu statistického odvození ze souboru diskrétních zkušeností distribuovaných v řadě „kontextů“. Ačkoli se tyto modely liší specifiky, obvykle používají matici (položka × kontext), kde každá buňka představuje počet případů, kdy došlo k položce v paměti v daném kontextu. Sémantické informace se shromažďují provedením statistické analýzy této matice.,

Mnoho z těchto modelů nesou podobnost s algoritmy používané ve vyhledávačích (například, vidět Griffiths, et al., 2007 a Anderson, 1990), i když zatím není jasné, zda skutečně používají stejné výpočetní mechanismy.

latentní sémantická analýza (LSA)Edit

snad nejoblíbenějším z těchto modelů je latentní sémantická analýza (LSA)., V LSA, T × D matice je vyrobena z textového korpusu, kde T je počet výrazů v korpusu a D je počet dokumentů (zde „kontextu“ je interpretován jako „dokument“ a jediná slova, nebo slovo fráze—jsou považovány za položky v paměti)., pak transformovány podle následující rovnice:

M, t , d ‚ = ln ⁡ ( 1 + M, t , d ) − ∑ i = 0 D P ( i | t ) ln ⁡ P ( i | t ) {\displaystyle \mathbf {M} _{t,d}’={\frac {\ln {(1+\mathbf {M} _{t,d})}}{-\sum _{i=0}^{D}P(i|t)\ln {P(i|t)}}}}

, kde P ( i | t ) {\displaystyle P(i|t)}, je pravděpodobnost, že souvislosti jsem {\displaystyle i} je aktivní, vzhledem k tomu, že bod t {\displaystyle t} došlo (to se získá prostě tím, že dělení surového frekvence, M, t , d {\displaystyle \mathbf {M} _{t,d}} z celkového položky vektor, ∑ i = 0 D M t,, i {\displaystyle \sum _{i=0}^{D}\mathbf {M} _{t,i}} )., Tato transformace—použití logaritmu, pak vydělením informace, entropie položky přes všechny kontexty—umožňuje větší diferenciaci mezi předměty a účinně váhy položek podle jejich schopnosti předvídat souvislosti a naopak (to znamená, že položky, které se objevují napříč mnoha kontexty, jako je „“ nebo „a“, bude vážený méně, což odráží jejich nedostatek sémantické informace)., Singulární Rozklad (SVD) se pak provádí na matrix M ‚ {\displaystyle \mathbf {M} ‚} , která umožňuje počet rozměrů matice, které mají být sníženy, a tím clustering LSA je sémantické reprezentace a poskytování pro nepřímé asociace mezi položkami. Například, „kočka“ a „pes“ může nikdy se spolu objevují ve stejném kontextu, takže jejich blízký sémantický vztah nemusí být dobře-zajat LSA je původní matice M {\displaystyle \mathbf {M} } ., Nicméně, provedením SVD a snížení počtu rozměry v matrixu, souvislosti vektorů „kočka“ a „pes“—což by bylo velmi podobné—by migrovat jeden k druhému a možná sloučit, což umožňuje „kočka“ a „pes“ působit jako získávání podnětů pro sebe, i když mohou mít nikdy co-došlo. Stupeň sémantické příbuznosti položek v paměti je dán kosinem úhlu mezi kontextovými vektory položek (od 1 pro dokonalé synonyma do 0 pro žádný vztah)., V podstatě jsou tedy dvě slova úzce sémanticky příbuzná, pokud se objeví v podobných typech dokumentů.

Hyperspace Analog to Language (HAL)Edit

model hyperprostoru Analog to Language (HAL) považuje kontext pouze za slova, která okamžitě obklopují dané slovo. HAL vypočítá matici NxN, kde N je počet slov ve svém lexikonu, pomocí 10-slovního čtecího rámce, který se postupně pohybuje korpusem textu., Stejně jako v SAM (viz výše), kdykoli jsou dvě slova současně v rámci, asociace mezi nimi se zvyšuje, to znamená, že odpovídající buňka v matrici NxN se zvyšuje. Čím větší je vzdálenost mezi dvěma slovy, čím menší částka, o kterou sdružení je zvýšen (konkrétně Δ = 11 − d {\displaystyle \Delta =11-d} , kde d {\displaystyle d} je vzdálenost mezi dvěma slovy v rámu)., Stejně jako v LSA (viz výše), sémantické podobnosti mezi dvěma slovy je dána tím, že kosinus úhlu mezi vektory (redukce dimenze může být provedena na tuto matici, stejně). V HAL, pak, dvě slova jsou sémanticky příbuzná, pokud mají tendenci se objevovat se stejnými slovy. Všimněte si, že to může platit i tehdy, když se porovnávaná slova ve skutečnosti nikdy nevyskytují (tj.

Další statistické modely, sémantické memoryEdit

úspěch LSA a HAL dal vzniknout celé oblasti statistických modelů jazyka., Aktuálnější seznam takových modelů lze nalézt v tématu opatření sémantické příbuznosti.

Napsat komentář

Vaše e-mailová adresa nebude zveřejněna. Vyžadované informace jsou označeny *