Memória semântica (Português)

posted in: Articles | 0

a essência da memória semântica é que seu conteúdo não está ligado a nenhuma instância particular de experiência, como na memória episódica. Em vez disso, o que é armazenado na memória semântica é o “gist” da experiência, uma estrutura abstrata que se aplica a uma grande variedade de objetos experienciais e delineia relações categóricas e funcionais entre tais objetos. Assim, uma teoria completa da memória semântica deve levar em conta não só a estrutura representativa de tais “gistas”, mas também a forma como eles podem ser extraídos da experiência., Vários modelos de memória semântica foram propostos; eles são resumidos abaixo.

Modelsedit de rede

redes de vários tipos desempenham uma parte integral em muitas teorias da memória semântica. Em geral, uma rede é composta por um conjunto de nós conectados por links. Os nós podem representar conceitos, palavras, características perceptuais, ou nada. As ligações podem ser ponderadas de tal forma que algumas sejam mais fortes do que outras ou, equivalentemente, tenham um comprimento tal que algumas ligações demorem mais tempo a atravessar do que outras., Todas essas características de redes foram empregadas em modelos de memória semântica, exemplos dos quais são encontrados abaixo.

Teachable Language Comprehender (TLC)Edit

um dos primeiros exemplos de um modelo de rede de memória semântica é o Teachable Language Comprehender (TLC). Neste modelo, cada nó é uma palavra, representando um conceito (como”pássaro”). Com cada nó é armazenado um conjunto de propriedades (como “pode voar” ou “tem asas”), bem como ponteiros (ou seja, links) para outros nós (como “frango”). Um nó é diretamente ligado aos nós dos quais é uma subclasse ou superclasse (i.e.,, “Bird “seria conectado a ambos” frango “e”Animal”). Assim, TLC é uma representação hierárquica de conhecimento em que nós de alto nível que representam grandes categorias são conectados (direta ou indiretamente, através dos nós de subclasses) a muitas instâncias dessas categorias, enquanto nós que representam instâncias específicas estão em um nível mais baixo, conectados apenas a suas superclasses. Além disso, as propriedades são armazenadas ao nível de categoria mais elevado a que se aplicam., Por exemplo,” is yellow “seria armazenado com” Canary”,” has wings “seria armazenado com” Bird “(um nível acima), e” can move “seria armazenado com” Animal ” (outro nível acima). Nós também podem armazenar negações das propriedades de seus nós superordinados (ou seja, “NOT-can fly” seria armazenado com “penguin”). Isso fornece uma economia de representação em que as propriedades são armazenadas apenas no nível de categoria em que elas se tornam essenciais, ou seja, em que ponto elas se tornam características críticas (veja abaixo).

processamento em TLC é uma forma de ativação de disseminação., Isto é, quando um nó se torna ativo, essa ativação se espalha para outros nós através das ligações entre eles. Nesse caso, a hora de responder à pergunta ” um frango é um pássaro?”é uma função de quão longe a ativação entre os nós para “frango” e ” pássaro “deve se espalhar, ou seja, o número de ligações entre os nós” frango “e”pássaro”.

a versão original do TLC não colocou pesos nas ligações entre nós., Esta versão executou comparavelmente para os seres humanos em muitas tarefas, mas não conseguiu prever que as pessoas responderiam mais rápido a perguntas sobre instâncias de categoria mais típicas do que aquelas que envolvem instâncias menos típicas. Collins e Quillian mais tarde atualizaram TLC para incluir conexões ponderadas para explicar este efeito. Este TLC atualizado é capaz de explicar tanto o efeito de familiaridade quanto o efeito de tipicidade., Sua maior vantagem é que ele claramente explica a priming: você é mais provável de recuperar a informação da memória se a informação relacionada (o “prime”) foi apresentado um curto período de tempo antes. Ainda há uma série de fenômenos de memória para os quais TLC não tem conta, incluindo por que as pessoas são capazes de responder rapidamente a perguntas obviamente falsas (como “uma galinha é um meteoro?”), quando os nós relevantes estão muito distantes na rede.

redes semânticas edit

TLC é uma instância de uma classe mais geral de modelos conhecidos como redes semânticas., Em uma rede semântica, cada nó deve ser interpretado como representando um conceito específico, palavra ou recurso. Ou seja, cada nó é um símbolo. Redes semânticas geralmente não empregam representações distribuídas para conceitos, como pode ser encontrado em uma rede neural. A característica definidora de uma rede semântica é que suas ligações são quase sempre direcionadas (isto é, elas apenas apontam em uma direção, de uma base para um alvo) e as ligações vêm em muitos tipos diferentes, cada um representando uma relação particular que pode manter entre quaisquer dois nós., O processamento em uma rede semântica muitas vezes toma a forma de ativação de disseminação (ver acima).as redes semânticas vêem o maior uso em modelos de discurso e compreensão lógica, bem como em Inteligência Artificial. Nestes modelos, os nós correspondem a palavras ou caules de palavras e as ligações representam relações sintáticas entre eles. Para um exemplo de implementação computacional de redes semânticas na representação do conhecimento, veja Cravo e Martins (1993).,

Modelsedit de características

os modelos de características vêem as Categorias semânticas como sendo compostas por conjuntos de características relativamente não estruturados. O modelo semântico de comparação de recursos, proposto por Smith, Shoben e Rips (1974), descreve a memória como sendo composta de listas de recursos para diferentes conceitos. De acordo com esta visão, as relações entre categorias não seriam diretamente recuperadas, seriam computadas indiretamente. Por exemplo, os sujeitos podem verificar uma sentença comparando os conjuntos de recursos que representam seus conceitos de sujeito e predicado., Tais modelos computacionais de comparação de recursos incluem os propostos por Meyer (1970), Rips (1975), Smith, et al. (1974).

trabalho inicial em categorização perceptual e conceitual assumiu que as Categorias tinham características críticas e que a adesão de categoria poderia ser determinada por regras lógicas para a combinação de características. Teorias mais recentes têm aceitado que Categorias podem ter uma estrutura mal definida ou” fuzzy ” e têm proposto modelos de similaridade probabilística ou global para a verificação da adesão à categoria.,

Associativa modelsEdit

A “associação”—uma relação entre duas partes de informações—é um conceito fundamental em psicologia, e associações em vários níveis de representação mental são essenciais para modelos de memória e a cognição em geral. O conjunto de associações entre uma coleção de itens na memória é equivalente às ligações entre nós em uma rede, onde cada nó corresponde a um item único na memória. Na verdade, redes neurais e redes semânticas podem ser caracterizadas como modelos associativos de cognição., No entanto, as associações são frequentemente representadas mais claramente como uma matriz n×n, onde N é o número de itens na memória. Assim, cada célula da matriz corresponde à força da associação entre o item da linha e o item da coluna.a aprendizagem de associações é geralmente considerada um processo Hebbiano, isto é, sempre que dois itens na memória são simultaneamente ativos, a associação entre eles cresce mais forte, e o mais provável é que qualquer item seja ativar o outro. Veja abaixo para operacionalizações específicas de modelos associativos.,

Search of Associative Memory (SAM)Edit

a standard model of memory that employs association in this way is the Search of Associative Memory (SAM) model. Embora SAM foi originalmente projetado para modelar memória episódica, seus mecanismos são suficientes para suportar algumas representações de memória semântica, também. O modelo SAM contém uma loja de curto prazo (STS) e loja de longo prazo (LTS), onde STS é um subconjunto brevemente ativado da informação no LTS., A STS tem capacidade limitada e afeta o processo de recuperação, limitando a quantidade de informação que pode ser amostrada e limitando o tempo em que o subconjunto amostrado está em modo ativo. O processo de recuperação em LTS é dependente do cue e probabilístico, o que significa que um cue inicia o processo de recuperação e a informação selecionada da memória é aleatória. A probabilidade de ser amostrada depende da força de associação entre o cue e o item que está sendo recuperado, com associações mais fortes sendo amostradas e, finalmente, uma é escolhida., O tamanho do buffer é definido como r, e não um número fixo, e como os itens são ensaiados no buffer as forças associativas crescem linearmente como uma função do tempo total dentro do buffer. No SAM, quando dois itens simultaneamente ocupam um buffer de memória de trabalho, a força de sua Associação é incrementada. Assim, itens que co-ocorrem mais frequentemente são mais fortemente associados. Itens no SAM também estão associados a um contexto específico, onde a força dessa associação determinada por quanto tempo cada item está presente em um determinado contexto., No SAM, então, memórias consistem de um conjunto de associações entre itens na memória e entre itens e contextos. A presença de um conjunto de itens e/ou um contexto é mais provável de evocar, então, algum subconjunto dos itens na memória. O grau em que os itens se evocam—quer em virtude do seu contexto partilhado quer da sua co-ocorrência—é uma indicação da relação semântica dos itens.

em uma versão atualizada do SAM, associações semânticas pré-existentes são contabilizadas usando uma matriz semântica., Durante o experimento, associações semânticas permanecem fixas, mostrando a suposição de que as associações semânticas não são significativamente impactadas pela experiência episódica de um experimento. As duas medidas usadas para medir a relação semântica neste modelo são a análise semântica latente (LSA) e a palavra espaços de associação (WAS). O método LSA afirma que a semelhança entre palavras é refletida através de sua co-ocorrência em um contexto local. Foi desenvolvido através da análise de um banco de dados de normas de associação livre., In WAS, ” words that have similar associative structures are placed in similar regions of space.”

ACT-R: um sistema de produção modelEdit

O ACT (Adaptive Control of Thought (e, mais tarde, o ACT-R (Controle Adaptativo de Pensamento Racional)) teoria da cognição representa memória declarativa (do qual a semântica de memória é uma parte) com “pedaços”, que consistem em um rótulo, um conjunto de relações definidas para outras partes (por exemplo, “este é um _”, ou “isso tem um _”), e qualquer número de bloco de propriedades específicas., Os blocos, então, podem ser mapeados como uma rede semântica, dado que cada nó é um bloco com suas propriedades únicas, e cada link é a relação do bloco com outro bloco. No ato, a ativação de um chunk diminui em função do tempo desde que o chunk foi criado e aumenta com o número de vezes que o chunk foi recuperado da memória. Os pedaços também podem receber ativação do ruído gaussiano, e de sua semelhança com outros pedaços. Por exemplo, se “frango” é usado como um cue de recuperação, “Canário” receberá ativação em virtude de sua similaridade com o cue (ou seja, ambos são aves, etc.)., Ao recuperar itens da memória, ACT olha para o bloco Mais ativo da memória; se ele está acima do limiar, ele é recuperado, caso contrário um “erro de omissão” ocorreu, ou seja, o item foi esquecido. Existe, além disso, uma latência de recuperação, que varia inversamente com a quantidade pela qual a ativação do bloco retrievado excede o limiar de recuperação. Esta latência é usada para medir o tempo de resposta do modelo ACT, para compará-lo com o desempenho humano.,apesar de o ato ser um modelo de cognição em geral, e não de memória em particular, ele, no entanto, apresenta certas características da estrutura da memória, como descrito acima. In particular, ACT models memory as a set of related symbolic chunks which may be accessed by retrieval cues. Enquanto o modelo de memória empregado no ato é similar em alguns aspectos a uma rede semântica, o processamento envolvido é mais semelhante a um modelo associativo.,

modelsEdit estatístico

alguns modelos caracterizam a aquisição de informação semântica como uma forma de inferência estatística a partir de um conjunto de experiências discretas, distribuídas através de um número de “contextos”. Embora estes modelos difiram em especificidades, geralmente empregam uma matriz (Item × contexto) onde cada célula representa o número de vezes que um item na memória ocorreu em um determinado contexto. A informação semântica é obtida através da realização de uma análise estatística desta matriz.,

muitos destes modelos têm similaridade com os algoritmos usados em motores de busca (por exemplo, veja Griffiths, et al., 2007 and Anderson, 1990), though it is not yet clear whether they really use the same computational mechanisms.

Latent Semantic Analysis (LSA)Edit

Perhaps the most popular of these models is Latent Semantic Analysis (LSA)., Em LSA, uma matriz T × D é construída a partir de um corpo de texto onde T é o número de termos no corpo e D é o número de documentos (aqui “contexto” é interpretado como “documento” e apenas palavras—ou frases—são consideradas como itens na memória)., em seguida, transformado de acordo com a equação:

M, t , d ‘ = ln ⁡ ( 1 + M, t , d ) − ∑ i = 0 D P ( i | t ) ln ⁡ P ( i | t ) {\displaystyle \mathbf {M} _{t,d}’={\frac {\ln {(1+\mathbf {M} _{t,d})}}{-\sum _{i=0}^{D}P(i|t)\ln {P(i|t)}}}}

onde P ( i | t ) {\displaystyle P(i|t)} é a probabilidade de que o contexto de i {\displaystyle i} é ativo, dado que o item t {\displaystyle t} ocorreu (isto é obtida simplesmente dividindo-se a matérias de frequência, M, t , d {\displaystyle \mathbf {M} _{t,d}} e o total do item vetor, ∑ i = 0 D M t , i {\displaystyle \sum _{i=0}^{D}\mathbf {M} _{t,i}} )., Esta transformação—aplicando o logaritmo, em seguida, dividindo pela entropia da informação do item sobre todos os contextos—prevê uma maior diferenciação entre itens e, efetivamente, pesos de itens por sua capacidade de prever o contexto, e vice-versa (ou seja, os itens que aparecem em muitos contextos, como “o” ou “e”, será ponderado pelo menos, reflectindo a sua falta de informação semântica)., Uma decomposição em valores singulares (SVD) é então realizada na matriz M ‘ {\displaystyle \mathbf {m} ‘} , que permite reduzir o número de dimensões na matriz, agrupando assim as representações semânticas do LSA e proporcionando uma associação indireta entre itens. Por exemplo,” cat “e” dog ” podem nunca aparecer juntos no mesmo contexto, então sua relação semântica próxima pode não ser bem capturada pela matriz original de LSA M {\displaystyle \mathbf {m} } ., No entanto, ao realizar a SVD e reduzir o número de dimensões na matriz, os vetores de contexto de “gato” e “cão”—que seria muito semelhante—migrariam para o outro e talvez se fundissem, permitindo assim que “gato” e “cão” atuassem como pistas de recuperação uns para os outros, mesmo que eles nunca tenham co-ocorrido. O grau de relação semântica dos itens na memória é dado pelo cosseno do ângulo entre os vetores de contexto dos itens (variando de 1 Para sinônimos perfeitos a 0 para nenhuma relação)., Essencialmente, então, duas palavras estão intimamente relacionadas semanticamente se aparecem em tipos semelhantes de documentos.

hiper-espaço Analógico à linguagem (HAL)edita

o modelo hiper-espaço Analógico à linguagem (HAL) considera o contexto apenas como as palavras que imediatamente rodeiam uma dada palavra. HAL calcula uma matriz NxN, onde N é o número de Palavras em seu léxico, usando uma moldura de leitura de 10 palavras que se move incrementalmente através de um corpo de texto., Como no SAM (veja acima), a qualquer momento duas palavras são simultaneamente no quadro, a associação entre elas é aumentada, ou seja, a célula correspondente na matriz NxN é incrementada. Quanto maior a distância entre as duas palavras, quanto menor o valor pelo qual a associação é incrementado (especificamente, Δ = 11 − d {\displaystyle \Delta =11-d} , onde d {\displaystyle d} é a distância entre as duas palavras no quadro)., Como em LSA (veja acima), a semelhança semântica entre duas palavras é dada pelo cosseno do ângulo entre seus vetores (redução de dimensão pode ser realizada nesta matriz, também). Em HAL, então, duas palavras são semanticamente relacionadas se elas tendem a aparecer com as mesmas palavras. Note que isso pode ser verdade mesmo quando as palavras que estão sendo comparadas nunca realmente co-ocorrem (ou seja,” frango “e”Canário”).

outros modelos estatísticos de memorização semântica

o sucesso de LSA e HAL deu origem a um campo inteiro de modelos estatísticos de linguagem., Uma lista mais atualizada desses modelos pode ser encontrada sob as medidas temáticas de relacionamento semântico.

Deixe uma resposta

O seu endereço de email não será publicado. Campos obrigatórios marcados com *