Plataforma automática para compressão consciente de modelos de aprendizagem profunda baseada em poda seguida de quantização

dc.contributor.advisorFernandes, Marcelo Augusto Costa
dc.contributor.advisorLatteshttp://lattes.cnpq.br/3475337353676349pt_BR
dc.contributor.authorFreitas, Vitor Yeso Fidelis
dc.contributor.authorIDhttps://orcid.org/0009-0002-7626-5622pt_BR
dc.contributor.authorLatteshttp://lattes.cnpq.br/4994486202506393pt_BR
dc.contributor.referees1Balza, Micael
dc.contributor.referees1Latteshttp://lattes.cnpq.br/0303807807288761pt_BR
dc.contributor.referees2Silva, Alessandro Soares
dc.contributor.referees2Latteshttp://lattes.cnpq.br/6391394214446756pt_BR
dc.date.accessioned2025-01-23T11:54:01Z
dc.date.available2025-01-23T11:54:01Z
dc.date.issued2025-01-20
dc.description.abstractThe rapid advancement of deep learning applications has significantly impacted various sectors. However, the size and complexity of neural models pose challenges for deployment in systems with limited computational resources. This work presents an automated platform that integrates pruning and quantization techniques during the training process of deep neural networks to optimize both accuracy and computational efficiency. Experiments conducted on the CIFAR-10 dataset demonstrated the effectiveness of the proposed approach, achieving up to 80% reduction in memory size while maintaining accuracy levels comparable to the state-of-the-art, with minimal losses of 2-3%. Analysis of weight distribution before and after compression revealed adaptation patterns of the network during compression-based training, providing valuable insights into model behavior under different compression regimes.pt_BR
dc.description.resumoO avanço das aplicações de aprendizado profundo tem impactado diversos setores, porém o tamanho e a complexidade dos modelos neurais apresentam desafios para implementação em sistemas com recursos computacionais limitados. Este trabalho apresenta uma plataforma automática que integra técnicas de poda seguida de quantização durante o processo de treinamento de redes neurais profundas, visando otimizar a acurácia e eficiência computacional dos modelos. Experimentos realizados com o conjunto de dados CIFAR-10 demonstraram a eficácia da abordagem, alcançando reduções de até 80% no tamanho da memória enquanto mantém níveis de acurácia compatíveis com o estado da arte, com perdas de 2-3%. Análises da distribuição dos pesos antes e após a compressão revelaram padrões de adaptação da rede durante o treinamento com compressão, fornecendo insights sobre o comportamento do modelo sob diferentes regimes de compressão.pt_BR
dc.identifier.citationFREITAS, Vítor Yeso Fidelis. Plataforma automática para compressão consciente de modelos de aprendizagem profunda baseada em poda seguida de quantização. 2025. 47 f. Trabalho de Conclusão de Curso (Graduação em Engenharia de Computação) - Departamento de Engenharia de Computação e Automação, Universidade Federal do Rio Grande do Norte, Natal, 2025.pt_BR
dc.identifier.urihttps://repositorio.ufrn.br/handle/123456789/61722
dc.languagept_BRpt_BR
dc.publisherUniversidade Federal do Rio Grande do Nortept_BR
dc.publisher.countryBrasilpt_BR
dc.publisher.departmentEngenharia de Computação e Automaçãopt_BR
dc.publisher.initialsUFRNpt_BR
dc.publisher.programEngenharia de Computaçãopt_BR
dc.subjectCompressão de Modelospt_BR
dc.subjectPoda seguida de Quantizaçãopt_BR
dc.subjectAprendizado Profundopt_BR
dc.subjectEficiência Computacionalpt_BR
dc.subjectTreinamento de Redes Neuraispt_BR
dc.subject.cnpqCNPQ::CIENCIAS EXATAS E DA TERRA::CIENCIA DA COMPUTACAO::METODOLOGIA E TECNICAS DA COMPUTACAO::SISTEMAS DE INFORMACAOpt_BR
dc.titlePlataforma automática para compressão consciente de modelos de aprendizagem profunda baseada em poda seguida de quantizaçãopt_BR
dc.title.alternativeAutomatic platform for aware compression of deep learning models based on pruning followed by quantizationpt_BR
dc.typebachelorThesispt_BR

Arquivos

Pacote Original

Agora exibindo 1 - 1 de 1
Nenhuma Miniatura disponível
Nome:
TCC_Vitor_Yeso___DCA_UFRN-8.pdf
Tamanho:
1.44 MB
Formato:
Adobe Portable Document Format
Nenhuma Miniatura disponível
Baixar

Licença do Pacote

Agora exibindo 1 - 1 de 1
Nenhuma Miniatura disponível
Nome:
license.txt
Tamanho:
1.45 KB
Formato:
Item-specific license agreed upon to submission
Nenhuma Miniatura disponível
Baixar