Logo do repositório
  • Página Inicial(current)
  • Buscar
    Por Data de PublicaçãoPor AutorPor TítuloPor Assunto
  • Tutoriais
  • Documentos
  • Sobre o RI
  • Eventos
    Repositório Institucional da UFRN: 15 anos de conexão com o conhecimento
  • Padrão
  • Amarelo
  • Azul
  • Verde
  • English
  • Português do Brasil
Entrar

SIGAA

  1. Início
  2. Pesquisar por Autor

Navegando por Autor "Silva, Ana Cláudia Costa da"

Filtrar resultados informando as primeiras letras
Agora exibindo 1 - 2 de 2
  • Resultados por página
  • Opções de Ordenação
  • Carregando...
    Imagem de Miniatura
    Artigo
    Computational models of memory consolidation and long-term synaptic plasticity during sleep
    (2018-10-11) Rennó-Costa, César; Silva, Ana Cláudia Costa da; Blanco, Wilfredo; Ribeiro, Sidarta Tollendal Gomes
    The brain stores memories by persistently changing the connectivity between neurons. Sleep is known to be critical for these changes to endure. Research on the neurobiology of sleep and the mechanisms of long-term synaptic plasticity has provided data in support of various theories of how brain activity during sleep affects long-term synaptic plasticity. The experimental findings – and therefore the theories – are apparently quite contradictory, with some evidence pointing to a role of sleep in the forgetting of irrelevant memories, whereas other results indicate that sleep supports the reinforcement of the most valuable recollections. A unified theoretical framework is in need. Computational modeling and simulation provide grounds for the quantitative testing and comparison of theoretical predictions and observed data, and might serve as a strategy to organize the rather complicated and diverse pool of data and methodologies used in sleep research. This review article outlines the emerging progress in the computational modeling and simulation of the main theories on the role of sleep in memory consolidation
  • Nenhuma Miniatura disponível
    Tese
    Investigação in silico do mecanismo de reorganização sináptica do sono. Um algoritmo para maximizar a capacidade computacional de redes neurais esparsas
    (Universidade Federal do Rio Grande do Norte, 2021-11-09) Silva, Ana Cláudia Costa da; Ribeiro, Sidarta Tollendal Gomes; Costa, César Renno; 22508952877; http://lattes.cnpq.br/9222565820639401; http://lattes.cnpq.br/0649912135067700; http://lattes.cnpq.br/4555593159788385; Dalmolin, Rodrigo Juliani Siqueira; http://lattes.cnpq.br/4065178015615979; Mohan, Madras Viswanathan Gandhi; http://lattes.cnpq.br/1995273890709490; Copelli, Mauro; http://lattes.cnpq.br/9400915429521069; Vasconcelos, Nivaldo Antônio Portela de; http://lattes.cnpq.br/4110109220389767
    As memórias são armazenadas no cérebro pela mudança persistente da conectividade entre neurônios e o sono desempenha um papel decisivo para a persistência dessas mudanças. Pesquisas sobre a neurobiologia do sono demonstram a ativação de mecanismos de plasticidade sináptica de longa duração. Dados experimentais apontam para um duplo papel do sono, tanto no esquecimento de memórias irrelevantes quanto no reforço das lembranças mais importantes. A hipótese investigada nesta tese é de que os mecanismos de reorganização sináptica envolvidos na consolidação de memórias podem trazer vantagens na performance das redes neurais artificiais. Este trabalho visa aplicar mecanismos neurobiológicos de aprendizagem dependente de sono na aprendizagem de máquina. Para isto, foi feita uma revisão das teorias de consolidação da memória através do sono, assim como dos modelos computacionais que dão suporte a essas teorias. Com a observação de como o cérebro otimiza os recursos biológicos, a pesquisa seguiu a tendência das redes neurais artificiais onde foram aplicados conceitos presentes na aprendizagem biológica, na aprendizagem de máquina. Então foram realizadas simulações de computador para explorar a hipótese de que os mecanismos subjacentes utilizados pelo cérebro para aprendizagem biológica através do sono são capazes de otimizar o aprendizado em redes neurais artificiais. A esparsialidade sináptica pode trazer vantagens na economia de recursos sem que haja um decaimento na aprendizagem, então, usamos uma rede neural artificial esparsa para aprender diferentes conjuntos de dados e, em seguida, testar se o sono poderia reduzir ainda mais o número mínimo de sinapses que um sistema precisa para o aprendizado de padrões. As simulações foram realizadas com diferentes tamanhos de rede, diferentes níveis de esparsialidades, diversas bases de dados além de utilizar modernos frameworks e algoritmos em aprendizagem de redes neurais profundas. Os resultados corroboram a hipótese de que o sono reduz o número necessário de sinapses para que se atinja um determinado limite de aprendizagem.
Repositório Institucional - UFRN Campus Universitário Lagoa NovaCEP 59078-970 Caixa postal 1524 Natal/RN - BrasilUniversidade Federal do Rio Grande do Norte© Copyright 2025. Todos os direitos reservados.
Contato+55 (84) 3342-2260 - R232Setor de Repositórios Digitaisrepositorio@bczm.ufrn.br
DSpaceIBICT
OasisBR
LAReferencia
Customizado pela CAT - BCZM