istotą pamięci semantycznej jest to, że jej zawartość nie jest związana z żadnym konkretnym przypadkiem doświadczenia, jak w pamięci epizodycznej. Zamiast tego, to, co jest przechowywane w pamięci semantycznej, to „istota” doświadczenia, abstrakcyjna struktura, która odnosi się do szerokiej gamy obiektów empirycznych i wyznacza kategoryczne i funkcjonalne relacje między takimi obiektami. Tak więc kompletna teoria pamięci semantycznej musi uwzględniać nie tylko reprezentacyjną strukturę takich „GIST”, ale także sposób, w jaki można je wydobyć z doświadczenia., Zaproponowano wiele modeli pamięci semantycznej; podsumowano je poniżej.
modele Sieciedytuj
sieci różnego rodzaju odgrywają integralną rolę w wielu teoriach pamięci semantycznej. Ogólnie rzecz biorąc, sieć składa się z zestawu węzłów połączonych łączami. Węzły mogą reprezentować pojęcia, słowa, cechy percepcyjne lub nic w ogóle. Linki mogą być ważone w taki sposób, że niektóre są silniejsze od innych lub, równoważnie, mają taką długość, że niektóre linki trwają dłużej niż inne., Wszystkie te cechy sieci zostały wykorzystane w modelach pamięci semantycznej, których przykłady znajdują się poniżej.
Teachable Language Comprehenender (TLC)Edit
jednym z pierwszych przykładów sieciowego modelu pamięci semantycznej jest Teachable Language Comprehenender (TLC). W tym modelu każdy węzeł jest słowem, reprezentującym pojęcie (jak „ptak”). Z każdym węzłem przechowywany jest zestaw właściwości (takich jak „can fly” lub „has wings”), a także wskaźniki (np. linki) do innych węzłów (np. „Chicken”). Węzeł jest bezpośrednio połączony z tymi węzłami, których jest albo podklasą, albo klasą nadrzędną (tj.,, „Ptak” łączyłby się zarówno z „kurczakiem”, jak i „zwierzęciem”). Tak więc TLC jest hierarchiczną reprezentacją wiedzy, w której węzły wysokiego poziomu reprezentujące duże kategorie są połączone (bezpośrednio lub pośrednio, poprzez węzły podklas) z wieloma instancjami tych kategorii, podczas gdy węzły reprezentujące określone instancje są na niższym poziomie, połączone tylko z ich superklasami. Ponadto właściwości są przechowywane na najwyższym poziomie kategorii, do której mają zastosowanie., Na przykład „is yellow” będzie przechowywany z „Canary”, „has wings” będzie przechowywany z „Bird” (o jeden poziom wyżej), a „can move” będzie przechowywany z „Animal” (o kolejny poziom wyżej). Węzły mogą również przechowywać negacje właściwości swoich węzłów nadrzędnych (np.” NOT-can fly „byłby przechowywany z”penguin”). Zapewnia to ekonomię reprezentacji w tym, że właściwości są przechowywane tylko na poziomie kategorii, na którym stają się istotne, to znaczy, w którym momencie stają się cechami krytycznymi (patrz poniżej).
przetwarzanie w TLC jest formą aktywacji rozproszonej., Oznacza to, że gdy węzeł staje się aktywny, aktywacja rozprzestrzenia się na inne węzły poprzez połączenia między nimi. W takim przypadku czas na odpowiedź na pytanie ” czy kurczak jest ptakiem?”jest funkcją tego, jak daleko musi rozprzestrzeniać się aktywacja między węzłami „kurczak” i „ptak”, tj. liczba połączeń między węzłami” kurczak „i”ptak”.
Oryginalna wersja TLC nie obciążała połączeń między węzłami., Ta wersja wykonywana porównywalnie do ludzi w wielu zadaniach, ale nie udało się przewidzieć, że ludzie będą szybciej odpowiadać na pytania dotyczące bardziej typowych instancji kategorii niż te dotyczące mniej typowych instancji. Collins i Quillian później zaktualizowali TLC, aby uwzględnić połączenia ważone, aby uwzględnić ten efekt. Ten zaktualizowany TLC jest w stanie wyjaśnić zarówno efekt znajomości, jak i efekt typowości., Jego największą zaletą jest to, że w jasny sposób wyjaśnia proces gruntowania: jest bardziej prawdopodobne, aby pobierać informacje z pamięci, jeśli powiązane informacje („prime”) zostały przedstawione krótko wcześniej. Nadal istnieje wiele zjawisk pamięciowych, dla których TLC nie ma konta, w tym dlaczego ludzie są w stanie szybko odpowiedzieć na oczywiście fałszywe pytania (np. „czy kurczak jest meteorem?”), gdy odpowiednie węzły znajdują się bardzo daleko od siebie w sieci.
sieci Semantyczneedytuj
TLC jest instancją bardziej ogólnej klasy modeli znanych jako sieci semantyczne., W sieci semantycznej każdy węzeł należy interpretować jako reprezentujący określone pojęcie, słowo lub cechę. Oznacza to, że każdy węzeł jest symbolem. Sieci semantyczne na ogół nie wykorzystują rozproszonych reprezentacji pojęć, jak można znaleźć w sieci neuronowej. Cechą charakterystyczną sieci semantycznej jest to, że jej połączenia są prawie zawsze skierowane (to znaczy wskazują tylko jeden kierunek, od bazy do celu), a połączenia występują w wielu różnych typach, z których każdy oznacza konkretną relację, która może utrzymywać się między dowolnymi dwoma węzłami., Przetwarzanie w sieci semantycznej często przybiera formę aktywacji rozprzestrzeniającej(patrz wyżej).
Sieci semantyczne znajdują największe zastosowanie w modelach dyskursu i logicznego rozumienia, a także w sztucznej inteligencji. W tych modelach węzły odpowiadają słowom lub pniom wyrazów, a powiązania reprezentują relacje składniowe między nimi. Przykładem obliczeniowej implementacji sieci semantycznych w reprezentacji wiedzy jest Cravo and Martins (1993).,
modele Cechedytuj
modele cech postrzegają kategorie semantyczne jako składające się ze stosunkowo niestrukturalnych zestawów cech. Model porównywania cech semantycznych, zaproponowany przez Smitha, Shobena i Ripsa (1974), opisuje pamięć jako składającą się z list cech dla różnych pojęć. Zgodnie z tym poglądem relacje między kategoriami nie byłyby bezpośrednio pobierane, lecz pośrednio obliczane. Na przykład podmioty mogą zweryfikować zdanie, porównując zbiory funkcji, które reprezentują jego pojęcia podmiotowe i predykatowe., Takie obliczeniowe modele porównywania cech obejmują te zaproponowane przez Meyera (1970), Rips (1975), Smith, et al. (1974).
wczesne prace nad kategoryzacją percepcyjną i konceptualną zakładały, że kategorie mają cechy krytyczne i że przynależność do kategorii może być określona przez logiczne reguły łączenia cech. Nowsze teorie przyjęły, że kategorie mogą mieć źle zdefiniowaną lub” rozmytą ” strukturę i zaproponowały probabilistyczne lub globalne modele podobieństwa do weryfikacji przynależności do kategorii.,
modele Asocjacyjneedytuj
„Asocjacja”—relacja między dwoma fragmentami informacji—jest fundamentalnym pojęciem w psychologii, a skojarzenia na różnych poziomach mentalnej reprezentacji są niezbędne do modeli pamięci i Poznania w ogóle. Zbiór asocjacji pomiędzy zbiorem elementów w pamięci jest odpowiednikiem powiązań między węzłami w sieci, gdzie każdy węzeł odpowiada unikalnemu elementowi w pamięci. W rzeczywistości sieci neuronowe i semantyczne można scharakteryzować jako asocjacyjne modele poznania., Jednak skojarzenia są często bardziej wyraźnie reprezentowane jako macierz N×N, gdzie N jest liczbą elementów w pamięci. Tak więc każda komórka macierzy odpowiada sile związku między pozycją wiersza i pozycją kolumny.
uczenie się asocjacji jest ogólnie uważane za proces Hebbiański; to znaczy, gdy dwa przedmioty w pamięci są jednocześnie aktywne, skojarzenie między nimi rośnie, a tym bardziej prawdopodobne, że jeden z nich aktywuje drugi. Patrz poniżej, aby zapoznać się z konkretnymi operacjonalizacjami modeli asocjacyjnych.,
Wyszukiwanie pamięci asocjacyjnej (SAM)Edycja
standardowym modelem pamięci wykorzystującym asocjację w ten sposób jest Wyszukiwanie modelu pamięci asocjacyjnej (SAM). Chociaż SAM został pierwotnie zaprojektowany do modelowania pamięci epizodycznej, jego mechanizmy są wystarczające do obsługi niektórych reprezentacji pamięci semantycznej. Model SAM zawiera short-term store (STS) i long-term store (LTS), gdzie STS jest krótko aktywowanym podzbiorem informacji w LTS., STS ma ograniczoną pojemność i wpływa na proces pobierania, ograniczając ilość informacji, które mogą być pobierane i ograniczając czas, w którym próbkowany podzbiór znajduje się w trybie aktywnym. Proces pobierania w LTS jest zależny od cue i probabilistyczny, co oznacza, że cue inicjuje proces pobierania, a wybrane informacje z pamięci są losowe. Prawdopodobieństwo próbkowania zależy od siły powiązania między sygnałem A pobieranym elementem, z silniejszymi skojarzeniami próbkowanymi i ostatecznie wybiera się jeden., Wielkość bufora jest zdefiniowana jako r, a nie stała liczba, A gdy elementy są ćwiczone w buforze, Siła asocjacyjna rośnie liniowo jako funkcja całkowitego czasu wewnątrz bufora. W SAM, gdy dowolne dwa elementy jednocześnie zajmują roboczy bufor pamięci, siła ich powiązania jest zwiększana. Tak więc elementy, które występują częściej, są silniej powiązane. Elementy w SAM są również związane z konkretnym kontekstem, gdzie siła tego skojarzenia zależy od tego, jak długo każdy element jest obecny w danym kontekście., W Samie pamięć składa się z zestawu skojarzeń między przedmiotami w pamięci oraz między przedmiotami i kontekstami. Obecność zestawu elementów i / lub kontekstu jest bardziej prawdopodobne, aby wywołać pewien podzbiór elementów w pamięci. Stopień, w jakim przedmioty wywołują się nawzajem—ze względu na ich wspólny kontekst lub współwystępowanie – jest wskaźnikiem ich semantycznej relacji.
w zaktualizowanej wersji SAM istniejące skojarzenia semantyczne są rozliczane za pomocą macierzy semantycznej., Podczas eksperymentu skojarzenia semantyczne pozostają stałe, pokazując założenie, że skojarzenia semantyczne nie mają znaczącego wpływu na epizodyczne doświadczenie jednego eksperymentu. Dwie miary używane do pomiaru relacji semantycznych w tym modelu to utajona analiza semantyczna (LSA) i przestrzenie asocjacji słów (WAS). Metoda LSA stwierdza, że podobieństwo między wyrazami jest odzwierciedlone przez ich współwystępowanie w kontekście lokalnym. Został opracowany przez Analizę bazy wolnych norm asocjacyjnych., W WAS, ” słowa, które mają podobne struktury asocjacyjne są umieszczone w podobnych regionach przestrzeni.”ACT-R: model systemu produkcyjnegoedit
ACT (adaptacyjna Kontrola myśli) (a później ACT-R (adaptacyjna Kontrola myśli-racjonalna)) teoria poznania reprezentuje pamięć deklaratywną (której częścią jest pamięć semantyczna) z” kawałkami”, które składają się z etykiety, zestawu zdefiniowanych relacji z innymi kawałkami (tj. ” to jest _ „Lub” to ma_”) i dowolnej liczby specyficznych dla danego kawałka właściwości., Fragmenty mogą być następnie mapowane jako sieć semantyczna, biorąc pod uwagę, że każdy węzeł jest fragmentem z jego unikalnymi właściwościami, a każde połączenie jest relacją fragmentu do innego fragmentu. W grze ACT aktywacja fragmentu zmniejsza się w funkcji czasu od utworzenia fragmentu i zwiększa się wraz z liczbą pobrań fragmentu z pamięci. Kawałki mogą również otrzymać aktywację od szumu Gaussa i od ich podobieństwa do innych kawałków. Na przykład, jeśli „kurczak” jest używany jako sygnał wyszukiwania, „kanarek” otrzyma aktywację ze względu na jego podobieństwo do sygnału (tzn. oba są ptakami itp.)., Podczas pobierania elementów z pamięci, ACT patrzy na najbardziej aktywny fragment w pamięci; jeśli znajduje się powyżej progu, jest odzyskiwany, w przeciwnym razie wystąpił „błąd pominięcia”, tzn. element został zapomniany. Dodatkowo istnieje opóźnienie pobierania, które zmienia się odwrotnie w zależności od ilości, o jaką aktywacja odzyskanego fragmentu przekracza próg pobierania. Opóźnienie to jest wykorzystywane do pomiaru czasu reakcji modelu ACT, aby porównać go do ludzkiej wydajności.,
chociaż akt jest ogólnie modelem poznania, a nie pamięci w szczególności, to jednak zakłada pewne cechy struktury pamięci, jak opisano powyżej. W szczególności, ACT modeluje pamięć jako zestaw powiązanych symbolicznych fragmentów, które mogą być dostępne za pomocą wskazówek wyszukiwania. Podczas gdy model pamięci stosowany w ACT jest podobny pod pewnymi względami do sieci semantycznej, proces przetwarzania jest bardziej podobny do modelu asocjacyjnego.,
modele Statystyczneedytuj
niektóre modele charakteryzują zdobywanie informacji semantycznych jako formę wnioskowania statystycznego z zestawu dyskretnych doświadczeń, rozproszonych w wielu „kontekstach”. Chociaż modele te różnią się specyfiką, zazwyczaj używają macierzy (element × kontekst), gdzie każda komórka reprezentuje liczbę razy element w pamięci wystąpił w danym kontekście. Informacje semantyczne są zbierane przez wykonanie analizy statystycznej tej macierzy.,
wiele z tych modeli wykazuje podobieństwo do algorytmów stosowanych w wyszukiwarkach (na przykład patrz Griffiths, et al., 2007 i Anderson, 1990), choć nie jest jeszcze jasne, czy rzeczywiście używają tych samych mechanizmów obliczeniowych.
utajona Analiza semantyczna (LSA)Edytuj
być może najpopularniejszym z tych modeli jest utajona Analiza semantyczna (LSA)., W LSA macierz T × D jest zbudowana z korpusu tekstowego, gdzie T jest liczbą terminów w korpusie, A D jest liczbą dokumentów (tutaj „kontekst” jest interpretowany jako „dokument” i tylko słowa—lub wyrażenia—są uważane za elementy w pamięci)., następnie przekształcony zgodnie z równaniem:
M T , d ' = ln ( 1 + M T , d ) − ∑ i = 0 D P ( i | t ) ln p ( i | t ) {\displaystyle \mathbf {M} _{T,d}’={\frac {\ln {(1+\mathbf {m} _{t,d})}}{-\sum _{i=0}^{d}p(i|T)\ln {p(i|t)}}}}
gdzie p ( i | t ) {\displaystyle P(I|T)} jest prawdopodobieństwem, że kontekst i {\displaystyle i} jest aktywny, biorąc pod uwagę , że element t {\displaystyle t} wystąpił (otrzymuje się to po prostu dzieląc częstotliwość surową,M T, D {\displaystyle \mathbf {M} _{T , D}} przez sumę wektora elementu, ∑ i = 0 D M T, i {\displaystyle \sum _{i=0}^{d}\mathbf {M} _{T, i}} )., Ta transformacja-zastosowanie logarytmu, a następnie dzielenie przez entropię informacyjną elementu we wszystkich kontekstach-zapewnia większe rozróżnienie między przedmiotami i efektywnie waży przedmioty przez ich zdolność do przewidywania kontekstu i odwrotnie (to znaczy, przedmioty, które pojawiają się w wielu kontekstach, takich jak „the” lub „and”, będą ważone mniej, odzwierciedlając ich brak informacji semantycznych)., Rozkład wartości pojedynczej (SVD) jest następnie wykonywany na macierzy M ' {\displaystyle \ mathbf {m}'}, która pozwala zmniejszyć liczbę wymiarów w macierzy, grupując w ten sposób reprezentacje semantyczne LSA i zapewniając pośrednie powiązania między elementami. Na przykład „kot ” i” pies ” mogą nigdy nie pojawić się razem w tym samym kontekście, więc ich ścisła relacja semantyczna może nie zostać dobrze uchwycona przez oryginalną macierz LSA M {\displaystyle \ mathbf {m}}., Jednakże, wykonując SVD i zmniejszając liczbę wymiarów w macierzy, wektory kontekstowe „kota” i ” psa „—które byłyby bardzo podobne-migrowałyby do siebie i być może łączyłyby się, pozwalając w ten sposób” kotowi „i” PSU ” działać jako sygnały wyszukiwania dla siebie, nawet jeśli nigdy nie występowały razem. Stopień zależności semantycznej elementów w pamięci jest określony przez cosinus kąta między wektorami kontekstowymi elementów (od 1 dla synonimów doskonałych do 0 dla braku relacji)., Zasadniczo dwa słowa są ściśle powiązane semantycznie, jeśli pojawiają się w podobnych typach dokumentów.
Hyperspace Analogue to Language (HAL)Edit
model Hyperspace Analogue to Language (HAL) uwzględnia kontekst tylko jako słowa, które bezpośrednio otaczają dane słowo. HAL oblicza macierz NxN, gdzie N jest liczbą słów w jej leksykonie, używając 10-wyrazowej ramki do czytania, która porusza się stopniowo przez korpus tekstu., Podobnie jak w przypadku SAM (patrz wyżej), za każdym razem, gdy dwa słowa są jednocześnie w ramce, skojarzenia między nimi są zwiększane, to znaczy odpowiednia komórka w macierzy NxN jest zwiększana. Im większa jest odległość między dwoma wyrazami, tym mniejsza jest wielkość asocjacji (w szczególności Δ = 11 − d {\displaystyle \ Delta =11-d}, gdzie D {\displaystyle d} jest odległością między dwoma wyrazami w ramce)., Podobnie jak w LSA (patrz wyżej), podobieństwo semantyczne między dwoma wyrazami jest podane przez cosinus kąta między ich wektorami(redukcja wymiarów może być przeprowadzona również na tej macierzy). W HAL, wtedy, dwa słowa są semantycznie powiązane, jeśli mają tendencję do pojawiania się z tymi samymi słowami. Zauważ, że może to być prawdą nawet wtedy, gdy słowa porównywane nigdy nie współistnieją (np. ” kurczak „i”kanarek”).
Inne statystyczne modele pamięci semantycznejedytuj
sukces LSA i HAL dał początek całej dziedzinie statystycznych modeli języka., Bardziej aktualną listę takich modeli można znaleźć w temacie miary relacji semantycznej.
Dodaj komentarz