pohjimmiltaan semanttinen muisti on, että sen sisältö ei ole sidottu mihinkään tiettyyn instanssiin kokemus, kuten episodimainen muisti. Sen sijaan, mitä on tallennettu semanttinen muisti on ”ydin” kokemus, abstrakti rakenne, joka koskee monenlaisia kokemuksellisia esineitä ja rajataan kategorinen ja toiminnallisia suhteita esineitä. Niinpä, täydellinen teoria semanttinen muisti on tili, jota ei ole ainoastaan representaation rakenteeseen kuten ”sisältö”, mutta myös miten ne voidaan uuttaa kokemus., Semanttisen muistin malleja on ehdotettu lukuisia; ne on tiivistetty alla.
Verkkomodelsedit
erilaiset verkot ovat erottamaton osa monia semanttisen muistin teorioita. Yleisesti ottaen verkko koostuu linkkien yhdistämistä solmukohdista. Solmut voivat edustaa käsitteitä, sanoja, havaintoominaisuuksia tai ei mitään. Linkkejä voi olla painotettu niin, että jotkut ovat vahvempia kuin toiset tai vastaavasti, pituus sellainen, että jotkut linkit ota enää kulkea kuin toiset., Kaikki nämä verkostojen ominaisuudet on käytetty semanttisen muistin malleissa, joista esimerkkejä löytyy alta.
Oppivainen Kieli Comprehender (TLC)Muokkaa
Yksi ensimmäisistä esimerkkejä verkon malli semanttinen muisti on Oppivainen Kieli Comprehender (TLC). Tässä mallissa jokainen solmu on sana, joka edustaa käsitettä (kuten ”lintu”). Jokainen solmu on tallennettu joukko ominaisuuksia (kuten ”voi lentää” tai ”on siivet”) sekä viitteitä (eli linkkejä) muihin solmuihin (kuten ”Kana”). Solmu on suoraan yhteydessä niihin solmuihin, joiden solmut se on joko alaluokka tai superluokka (ts.,, ”Bird ”liitettäisiin sekä” Chicken ”että”Animal”). Näin, TLC on hierarkkinen tiedon edustus, että korkean tason solmut edustavat suuret luokat ovat yhteydessä toisiinsa (suoraan tai välillisesti kautta solmut alaluokkien) monissa tapauksissa ne luokkiin, kun taas solmut, jotka edustavat erityisiä tapauksia ovat alemmalla tasolla yhteydessä ainoastaan heidän superclasses. Lisäksi kiinteistöjä säilytetään korkeimmalla sarjatasolla, johon niitä sovelletaan., Esimerkiksi ”keltainen” olisi tallennettu ”Kanarian”, ”on siivet” olisi tallennettu ”Lintu” (yksi taso ylöspäin), ja ”voi liikkua” olisi tallennettu ”Eläin” (toinen taso). Solmut voivat myös tallentaa negaatioiden ominaisuuksia niiden superordinate solmut (eli ”EI-voi lentää” olisi tallennettu ”pingviini”). Tämä tarjoaa talous, edustus, että ominaisuudet ovat vain tallennetaan luokan tasolla, jolla ne ovat välttämättömiä, että on, missä vaiheessa niistä tulee kriittisiä ominaisuuksia (ks.alla).
Käsittely TLC on muoto levittää aktivointi., Eli kun solmu aktivoituu, aktivointi leviää muihin solmuihin niiden välisten linkkien kautta. Siinä tapauksessa, aika vastata kysymykseen ”Onko kana lintu?”on funktio siitä, kuinka pitkälle ”kanan” ja ”linnun” solmujen välisen aktivaation täytyy Levitä, eli solmujen ”kanan” ja ”linnun”välisten linkkien määrän.
TLC: n alkuperäinen versio ei laittanut painoja solmujen välisiin yhteyksiin., Tämä versio suoritetaan verrattain ihmisille monia tehtäviä, mutta ei ennustaa, että ihmiset vastata nopeammin kysymyksiin enemmän tyypillinen luokka tapauksia kuin ne, joihin liittyy vähemmän tyypillisiä tapauksia. Collins ja Quillian päivittivät myöhemmin TLC: n sisältämään painotettuja yhteyksiä tämän vaikutuksen huomioon ottamiseksi. Tämä päivitetty TLC pystyy selittämään sekä tuttuuden vaikutus ja tyypillisyyden vaikutus., Sen suurin etu on, että se kertoo selkeästi pohjustus: olet todennäköisesti hakea tietoa muistista, jos siihen liittyvät tiedot (”prime”) on esitetty lyhyen aikaa ennen. On olemassa vielä useita muisti-ilmiöitä, jotka TLC ei ole tilin, mukaan lukien miksi ihmiset voivat reagoida nopeasti ilmeisesti vääriä kysymyksiä (kuten ”on kana meteori?”), kun asiaankuuluvat solmut ovat hyvin kaukana toisistaan verkossa.
Semanttinen networksEdit
TLC on esimerkiksi yleisemmän luokan mallit tunnetaan semanttiset verkot., Semanttisessa verkossa jokaisen solmun on tulkittava edustavan tiettyä konseptia, sanaa tai ominaisuutta. Eli jokainen solmu on symboli. Semanttiset verkot eivät yleensä työllistävät jaetaan esityksiä käsitteet, kuten voi löytyä neuroverkko. Piirre semanttinen verkko on, että sen yhteydet ovat lähes aina suunnattu (että on, ne vain viittaavat yhteen suuntaan, pohja kohde) ja linkit tulevat monissa eri tyyppejä, jokainen seisoo tietty suhde, joka mahtuu välillä tahansa kaksi solmua., Semanttisessa verkossa tapahtuva käsittely tapahtuu usein aktivoinnin levittämisen muodossa (KS.edellä).
semanttiset verkostot näkevät eniten käyttöä diskurssin ja loogisen ymmärryksen malleissa sekä tekoälyssä. Näissä malleissa solmut vastaavat sanoja tai sananvarsia ja linkit edustavat niiden välisiä syntaktisia suhteita. Esimerkki laskennallisen täytäntöönpano semanttiset verkot tietämyksen edustus, katso Cravo ja Martins (1993).,
Feature modelsEdit
Feature models katso semanttiset Kategoriat koostuvan suhteellisen rakentamattomista piirteistä. Semanttinen ominaisuus-vertailu malli, ehdottama Smith, Shoben, ja Repii (1974) kuvaa muistissa olevan joka koostuu ominaisuus luetteloita eri käsitteitä. Tämän näkemyksen mukaan, suhteet luokkien välillä ei ole suoraan viitattu, he olisivat välillisesti laskea. Esimerkiksi aiheet voi tarkistaa lauseen vertaamalla ominaisuus asetetaan, jotka edustavat sen aihe ja predikaatti käsitteet., Tällaisia laskennallisia ominaisuusvertailumalleja ovat esimerkiksi Meyerin (1970), ripsin (1975), Smithin, et al. (1974).
Varhainen työ havainnollinen ja käsitteellinen luokittelu olettaa, että ryhmään oli kriittinen ominaisuudet ja luokka-jäsenyys voisi määräytyy loogisia sääntöjä yhdistelmä ominaisuuksia. Uudempia teorioita ovat hyväksyneet, että luokat voivat olla huonosti määriteltyjä tai ”sumea” rakenne ja ehdottaneet probabilistinen tai globaali samankaltaisuus mallien todentaminen luokan jäsenyyden.,
Assosiatiivinen modelsEdit
”association”—suhdetta kaksi paloja tiedot—on keskeinen käsite psykologian ja yhdistykset eri tasoilla henkinen edustus ovat olennaisia malleja muistin ja kognition yleensä. Joukko yhdistysten keskuudessa kokoelma kohteita muisti vastaa yhteyksiä solmujen verkko, jossa jokainen solmu vastaa ainutlaatuinen tuote muistissa. Todellakin, neuroverkot ja semanttisia verkostoja voidaan luonnehtia assosiatiivisia malleja kognitio., Yhdistykset esitetään kuitenkin usein selvemmin N×N-matriisina, jossa N on muistissa olevien kohteiden määrä. Näin matriisin jokainen solu vastaa riviaineen ja sarakekohdan välisen assosiaation lujuutta.
Oppiminen yhdistykset uskotaan yleisesti olevan Hebbian prosessi, joka on, kun kaksi kohteita muistissa ovat samanaikaisesti aktiivisia, yhdistyksen välillä kasvaa vahvempi, ja todennäköisesti joko tuote on aktivoida muita. Katso jäljempänä assosiatiivisten mallien erityiset operationalisoinnit.,
assosiatiivisen Muistin Haku (SAM)Edit
vakiomalli, joka työllistää assosiaatiota tällä tavalla, on assosiatiivisen muistin (SAM) malli. Vaikka SAM suunniteltiin alun perin mallintamaan episodimuistia, sen mekanismit riittävät tukemaan myös joitakin semanttisia muistikuvauksia. SAM-mallissa on lyhytaikainen (STS) ja pitkäaikainen (LTS) kauppa, jossa STS on lyhyesti aktivoitu osajoukko LTS: n tiedoista., STS on rajallinen kapasiteetti ja vaikuttaa tiedonhaun prosessi rajoittamalla määrä tietoa, joka voidaan ottaa näyte ja rajoittamalla aikaa otokseen valittujen osajoukko on aktiivisessa tilassa. Haku prosessi SE on cue-riippuvainen ja probabilistinen, mikä tarkoittaa, että cue käynnistää haku prosessi ja valitut tiedot muisti on satunnainen. Todennäköisyys tulla otokseen on riippuvainen vahvuus yhdistyksen välillä cue ja nimike on haettu, vahvempi yhdistykset näytteenotosta ja lopuksi yksi on valittu., Puskurin koko määritellään r: ksi, eikä kiinteäksi luvuksi, ja kun kohteita harjoitellaan puskurissa, assosiatiiviset vahvuudet kasvavat lineaarisesti puskurin kokonaisajan funktiona. Samissa, kun mitkä tahansa kaksi kohdetta samanaikaisesti miehittävät toimivan muistipuskurin, niiden yhdistymisen vahvuus kasvaa. Näin ollen ne kohteet, joita esiintyy useammin, liittyvät voimakkaammin toisiinsa. Samin erät liittyvät myös tiettyyn asiayhteyteen, jossa kyseisen yhdistyksen vahvuus määräytyy sen mukaan, kuinka kauan kukin kohde on läsnä tietyssä kontekstissa., Samissa muistot koostuvat siis muistissa olevien esineiden sekä esineiden ja asiayhteyksien välisestä assosiaatiosta. Esineiden ja/tai asiayhteyden läsnäolo herättää todennäköisemmin jonkin muistissa olevan esineen osajoukon. Missä määrin kohteet herättävät toisiaan—joko jaettu niiden yhteydessä tai niiden co-esiintyminen—on osoitus kohteita’ semanttinen yhteys.
Samin päivitetyssä versiossa valmiiksi olemassa olevat semanttiset yhdistykset lasketaan semanttisen matriisin avulla., Kokeilun aikana, semanttinen yhdistykset pysyvät osoittaa oletuksen, että semanttinen yhdistykset eivät ole merkittävästi vaikuttaneet episodimainen kokemus yksi kokeilu. Kaksi toimenpiteitä käytetään mittaamaan semanttinen yhteys tässä mallissa on Piilevä semanttinen analyysi (LSA) ja Sana-yhdistyksen tiloissa (OLI). LSA-menetelmässä todetaan, että sanojen samankaltaisuus näkyy niiden yhteisesiintymisenä paikallisessa kontekstissa. Kehitettiin analysoimalla vapaan yhdistyksen normien tietokantaa., In oli, ” sanat, joilla on samanlaiset assosiatiiviset rakenteet, sijoitetaan vastaaville alueille tilaa.”
ACT-R: tuotanto-järjestelmän modelEdit
TEKO (Adaptive Control of Thought) (ja myöhemmin ACT-R (Adaptive Control of Thought-Järkevä)) teoria kognition edustaa deklaratiivinen muisti (joista semanttinen muisti on osa) kanssa ”paloina”, jotka koostuvat etiketti, määriteltyjä suhteita muihin paloina (esim, ”tämä on _”, tai ”tämä on _”), ja mikä tahansa määrä murikka-erityisiä ominaisuuksia., Paloina, sitten, voi olla kartoitettu semanttinen verkko, ottaen huomioon, että jokainen solmu on murikka, jossa sen ainutlaatuisia ominaisuuksia, ja jokainen linkki on murikka on suhde toiseen kimpale. Vuonna TEKO, on murikka on aktivointi vähenee funktiona, kun murikka oli luotu ja kasvaa monta kertaa murikka on haettu muistista. Palaset voivat saada aktivaation myös Gaussin melusta ja niiden samankaltaisuudesta muiden palojen kanssa. Esimerkiksi, jos” kanaa ”käytetään noutomerkkinä,” kanarialintu ” saa aktivaation samankaltaisuutensa vuoksi (eli molemmat ovat lintuja jne.)., Kun hakeminen muistista, TEKO näyttää eniten vaikuttava kimpale muistia; jos se on yli kynnysarvon, se haetaan, muuten ”virhe laiminlyönnistä” on tapahtunut, eli tuote on unohdettu. On, lisäksi, haku latenssi, joka vaihtelee kääntäen verrannollinen määrä, jonka aktivointi viitattu murikka ylittää hakemisen kynnystä. Tätä latenssia käytetään ACT-mallin vasteajan mittaamiseen, sen vertaamiseen ihmisen suorituskykyyn.,
Kun LAKI on malli, kognition yleensä, ja ei muisti-erityisesti, se kuitenkin arvelee tiettyjä ominaisuuksia rakenteen muistin, kuten edellä on kuvattu. Erityisesti ACT mallit muisti joukko liittyviä symbolisia palasia, joita voidaan käyttää hakemalla vihjeitä. Vaikka malli muistia palveluksessa TEKO on samanlainen joitakin tapoja semanttinen verkko, käsittely mukana on enemmän sukua assosiatiivinen malli.,
Tilastollinen modelsEdit
Jotkut mallit luonnehtivat hankinta semanttisen tiedon muotona tilastollinen päättely joukko erillisiä kokemuksia, jakautuu useisiin ”yhteyksissä”. Vaikka nämä mallit eroavat yksityiskohtia, ne yleensä työllistävät keskimäärin (Kohde × Yhteydessä) matriisi, jossa jokainen solu edustaa useita kertoja kohde muisti on tapahtunut tietyssä yhteydessä. Semanttista tietoa poimitaan tekemällä tästä matriisista tilastollinen analyysi.,
Monet näistä malleista karhu samankaltaisuus algoritmeja käytetään hakukoneita (katso esimerkiksi Griffiths, et al., 2007 ja Anderson, 1990), vaikka ei ole vielä selvää, käyttävätkö he todella samoja laskennallisia mekanismeja.
piilevä semanttinen analyysi (LSA)Edit
näistä malleista ehkä suosituin on piilevä semanttinen analyysi (LSA)., Vuonna LSA, T × D-matriisi on valmistettu tekstin corpus missä T on useita termejä corpus ja D on useita asiakirjoja (tässä ”yhteydessä” tulkitaan ”asiakirja” ja vain sanoja tai sanan lauseita—pidetään kohteita muistissa)., sitten muuttunut seuraavan yhtälön mukaisesti:
M t , d ’ = ln ( 1 + M t , d ) − ∑ i = 0 K P ( i | t ) ln P ( i | t ) {\displaystyle \mathbf {M} _{t,d}’={\frac {\ln {(1+\mathbf {M} _{t,d})}}{-\sum _{i=0}^{K}P(i|t)\ln {P(i|t)}}}}
missä P ( i | t ) {\displaystyle P(i|t)} on todennäköisyys, että yhteydessä en {\displaystyle i} on aktiivinen, kun otetaan huomioon, että tuote t {\displaystyle t} on tapahtunut (tämä on saatu yksinkertaisesti jakamalla raaka-taajuus, M t , d {\displaystyle \mathbf {M} _{t,d}} kokonaismäärällä kohteen vektori, ∑ i = 0 K-M t en {\displaystyle \sum _{i=0}^{D}\mathbf {M} _{t i}} )., Tämä muutos—soveltamalla logaritmin, sitten jakamalla tietoa entropia kohteen yli yhteyksissä,—tarjoaa suurempaa eriyttämistä kohteiden ja tehokkaasti painot kohteita niiden kyky ennustaa yhteydessä, ja päinvastoin (joka on kohteita, jotka näkyvät monissa yhteyksissä, kuten ”” tai ”ja”, tulee olemaan painotetaan vähemmän, mikä niiden puute semanttisen tiedon)., A singulaariarvohajotelma (SVD) on sitten suoritetaan matriisin M ’ {\displaystyle \mathbf {M} ’} , joka mahdollistaa monia ulottuvuuksia matriisi voidaan pienentää, jolloin klusterointi LSA on semanttinen esityksiä ja antaa epäsuoran yhdistyksen välillä esineitä. Esimerkiksi ”kissa” ja ”koira” voi koskaan esiintyä yhdessä samassa yhteydessä, joten niiden läheinen semanttinen suhde voi olla hyvin vangiksi LSA on alkuperäinen matriisi M {\displaystyle \mathbf {M} } ., Kuitenkin, tekemällä SVD ja vähentämällä mitat matriisi, yhteydessä vektorit ”kissa” ja ”koira”—mikä olisi hyvin samanlainen—olisi siirtyä toisiaan kohti ja ehkä yhdistää, jolloin ”kissa” ja ”koira” toimimaan haku vihjeitä toisiaan, vaikka heillä ei kenties koskaan ole co-tapahtunut. Aste semanttinen yhteys kohteita muistissa on antanut kosini kulma kohteita’ yhteydessä vektorit (vaihtelee 1 täydellinen synonyymit 0 ei ole suhdetta)., Pohjimmiltaan kaksi sanaa ovat siis läheisesti semanttisesti sukua, jos ne esiintyvät samantyyppisissä asiakirjoissa.
Hyperavaruuteen Analoginen Kieli (HAL)Muokkaa
Hyperavaruuteen Analoginen Kieli (HAL) malli katsoo yhteydessä vain sanoja, jotka ympäröivät välittömästi tietyn sanan. HAL laskee on NxN-matriisi, jossa N on määrä sanoja sen sanasto, käyttäen 10-sanan lukeminen runko, joka liikkuu vähitellen läpi corpus tekstin., Kuten SAM (ks. edellä), tahansa kaksi sanaa ovat samanaikaisesti runko, yhdistyksen välillä on lisääntynyt, että on, vastaava solu NxN-matriisi kasvatetaan. Suurempi etäisyys välillä kaksi sanaa, pienempi määrä, jolla yhdistyksen kasvatetaan (erityisesti, Δ = 11 − d {\displaystyle \Delta =11-k} , missä k {\displaystyle d} on etäisyys välillä kaksi sanaa runko)., Kuten LSA (ks. edellä), semanttinen samankaltaisuus kaksi sanaa on antanut kosini niiden välinen kulma vektorit (ulottuvuus vähentäminen voidaan suorittaa matriisin samoin). HALISSA siis kaksi sanaa ovat semanttisesti sukua, jos niillä on taipumus esiintyä samoilla sanoilla. Huomaa, että tämä voi pitää paikkansa silloinkin, kun sanoja on verrattuna oikeastaan koskaan co-esiintyä (eli ”kana” ja ”kanarian”).
Muut tilastolliset mallit ja semanttinen memoryEdit
menestys LSA ja HAL synnytti koko alan tilastolliset mallit ja kieli., Ajantasaisempi luettelo tällaisista malleista voidaan löytää semanttisen relatedness-aihealueen toimenpiteistä.
Vastaa