Plataforma automática para compressão consciente de modelos de aprendizagem profunda baseada em poda seguida de quantização
dc.contributor.advisor | Fernandes, Marcelo Augusto Costa | |
dc.contributor.advisorLattes | http://lattes.cnpq.br/3475337353676349 | pt_BR |
dc.contributor.author | Freitas, Vitor Yeso Fidelis | |
dc.contributor.authorID | https://orcid.org/0009-0002-7626-5622 | pt_BR |
dc.contributor.authorLattes | http://lattes.cnpq.br/4994486202506393 | pt_BR |
dc.contributor.referees1 | Balza, Micael | |
dc.contributor.referees1Lattes | http://lattes.cnpq.br/0303807807288761 | pt_BR |
dc.contributor.referees2 | Silva, Alessandro Soares | |
dc.contributor.referees2Lattes | http://lattes.cnpq.br/6391394214446756 | pt_BR |
dc.date.accessioned | 2025-01-23T11:54:01Z | |
dc.date.available | 2025-01-23T11:54:01Z | |
dc.date.issued | 2025-01-20 | |
dc.description.abstract | The rapid advancement of deep learning applications has significantly impacted various sectors. However, the size and complexity of neural models pose challenges for deployment in systems with limited computational resources. This work presents an automated platform that integrates pruning and quantization techniques during the training process of deep neural networks to optimize both accuracy and computational efficiency. Experiments conducted on the CIFAR-10 dataset demonstrated the effectiveness of the proposed approach, achieving up to 80% reduction in memory size while maintaining accuracy levels comparable to the state-of-the-art, with minimal losses of 2-3%. Analysis of weight distribution before and after compression revealed adaptation patterns of the network during compression-based training, providing valuable insights into model behavior under different compression regimes. | pt_BR |
dc.description.resumo | O avanço das aplicações de aprendizado profundo tem impactado diversos setores, porém o tamanho e a complexidade dos modelos neurais apresentam desafios para implementação em sistemas com recursos computacionais limitados. Este trabalho apresenta uma plataforma automática que integra técnicas de poda seguida de quantização durante o processo de treinamento de redes neurais profundas, visando otimizar a acurácia e eficiência computacional dos modelos. Experimentos realizados com o conjunto de dados CIFAR-10 demonstraram a eficácia da abordagem, alcançando reduções de até 80% no tamanho da memória enquanto mantém níveis de acurácia compatíveis com o estado da arte, com perdas de 2-3%. Análises da distribuição dos pesos antes e após a compressão revelaram padrões de adaptação da rede durante o treinamento com compressão, fornecendo insights sobre o comportamento do modelo sob diferentes regimes de compressão. | pt_BR |
dc.identifier.citation | FREITAS, Vítor Yeso Fidelis. Plataforma automática para compressão consciente de modelos de aprendizagem profunda baseada em poda seguida de quantização. 2025. 47 f. Trabalho de Conclusão de Curso (Graduação em Engenharia de Computação) - Departamento de Engenharia de Computação e Automação, Universidade Federal do Rio Grande do Norte, Natal, 2025. | pt_BR |
dc.identifier.uri | https://repositorio.ufrn.br/handle/123456789/61722 | |
dc.language | pt_BR | pt_BR |
dc.publisher | Universidade Federal do Rio Grande do Norte | pt_BR |
dc.publisher.country | Brasil | pt_BR |
dc.publisher.department | Engenharia de Computação e Automação | pt_BR |
dc.publisher.initials | UFRN | pt_BR |
dc.publisher.program | Engenharia de Computação | pt_BR |
dc.subject | Compressão de Modelos | pt_BR |
dc.subject | Poda seguida de Quantização | pt_BR |
dc.subject | Aprendizado Profundo | pt_BR |
dc.subject | Eficiência Computacional | pt_BR |
dc.subject | Treinamento de Redes Neurais | pt_BR |
dc.subject.cnpq | CNPQ::CIENCIAS EXATAS E DA TERRA::CIENCIA DA COMPUTACAO::METODOLOGIA E TECNICAS DA COMPUTACAO::SISTEMAS DE INFORMACAO | pt_BR |
dc.title | Plataforma automática para compressão consciente de modelos de aprendizagem profunda baseada em poda seguida de quantização | pt_BR |
dc.title.alternative | Automatic platform for aware compression of deep learning models based on pruning followed by quantization | pt_BR |
dc.type | bachelorThesis | pt_BR |
Arquivos
Pacote Original
1 - 1 de 1
Nenhuma Miniatura disponível
- Nome:
- TCC_Vitor_Yeso___DCA_UFRN-8.pdf
- Tamanho:
- 1.44 MB
- Formato:
- Adobe Portable Document Format
Nenhuma Miniatura disponível
Licença do Pacote
1 - 1 de 1
Nenhuma Miniatura disponível
- Nome:
- license.txt
- Tamanho:
- 1.45 KB
- Formato:
- Item-specific license agreed upon to submission
Nenhuma Miniatura disponível