CT - TCC - Engenharia de Computação

URI Permanente para esta coleçãohttps://repositorio.ufrn.br/handle/123456789/33188

Navegar

Submissões Recentes

Agora exibindo 1 - 20 de 205
  • TCC
    AIMIR: assistente para recuperação de imagens médicas baseado em LLMs
    (Universidade Federal do Rio Grande do Norte, 2025-07-14) Matias, Aryel Medeiros; Oliveira, Luiz Afonso Henderson Guedes de; Gendriz, Ignacio Sánchez; 0000-0001-5784-152X; http://lattes.cnpq.br/7650356283210154; Silva, Ivanovitch M. da; Valentim, Ricardo Alexsandro de Medeiros
    Este trabalho descreve o desenvolvimento e avaliação de um assistente de recuperação de imagens médicas, denominado AIMIR Artificial Inteligence-Based Medical Image Re- triver, ou Recuperador de Imagens Médicas baseado em I.A., que utiliza Large Language Models (LLMs) para otimizar a interação de profissionais de saúde com dados de exames de imagens de pacientes e contribuir para a construção de conjuntos de dados anotados para IA. A aplicação visa facilitar o gerenciamento e consultas desses dados, abordando a escassez de dados médicos anotados, um desafio significativo no desenvolvimento de modelos de IA para a saúde. A arquitetura do sistema integra o banco de dados vetorial ChromaDB com API de Embeddings OpenAI (representação semântica), API Whisper OpenAI (transcrição de áudios), um sistema híbrido de roteamento de consultas (modelos GPT) e uma interface Streamlit. O sistema opera em fluxos de adição de imagens (texto/áudio) e consultas do usuário (por ID, semântica, descrição ou geral). A avaliação do sistema utilizou 24 imagens de radiografia de tórax de uma base de dados pública, complementadas por descrições detalhadas em áudio geradas por uma me- dica especialista em imagiologia. Os testes de responsividade da ferramenta consistiram em avaliando todo o pipeline da aplicação, desde a inserção de dados à respostas a consul- tas de usuários pre elaboras, comparando o resultado do sistema com a resposta correta esperada. Os resultados mostraram a eficácia da inserção de dados e a importância da precisão na classificação da intenção do usuário. O modelo GPT-4o demonstrou 100% de acerto na classificação de consultas, superando o GPT-3.5 Turbo, que apresentou 80% de acerto. A qualidade das respostas variou conforme o tipo de consulta e o modelo de LLM. Os resultados obtidos para os tipos de consulta semântica apresentaram taxas menores de acerto, o que pode ser explicado pelas descrições de imagens muito semelhantes, su- gerindo a necessidade de modelos de embeddings mais robustos. Já as consultas por descrição se beneficiaram do modelo GPT 4o. Consultas gerais tiveram resultados razoá- veis com ambos os modelos, enquanto consultas sobre o banco de dados demonstraram uma diferença notável de desempenho, com o GPT 4o respondendo com precisão supe- rior. A implementação da estratégia de Cache-Augmented Generation (CAG) foi crucial para otimizar o uso de recursos e melhorar a eficiência. O estudo conclui que o assis- tente de recuperação de imagens proposto neste trabalho é uma aplicação promissora e sugere testes futuros com outros conjuntos de dados e a possibilidade de fine-tuning para execução local.
  • TCC
    Análise de dados dos egressos da UFRN no período de 2014 a 2023
    (Universidade Federal do Rio Grande do Norte, 2025-07-09) Carneiro, Robson da Costa; Oliveira, Luiz Affonso Henderson Guedes de; http://lattes.cnpq.br/7987212907837941; http://lattes.cnpq.br/7565639249093262; Brito Junior, Agostinho de Medeiros; http://lattes.cnpq.br/0958617290020120; Marques, Julliana Caroline Gonçalves de Araújo Silva; http://lattes.cnpq.br/5554033822360657
    Este trabalho analisou os dados dos estudantes da Universidade Federal do Rio Grande do Norte (UFRN) que se formaram entre 2014 e 2023. Uma motivação para esta pesquisa seria observar quais variáveis poderiam influenciar no tempo de curso. A proposta inicial previa a comparação entre diversos atributos, como o sexo (gênero), idade e área de conhecimento. No entanto, alguns desses dados não foram disponibilizados nos Dados Abertos da UFRN. Presume-se que determinadas informações possam conflitar com a Lei Geral de Proteção de Dados (LGPD), motivo pelo qual foram suprimidas. Outros dados que estão disponíveis, como o nome do aluno, foram ocultados da análise. O questionamento surgiu por causa de eventos externos que poderiam prejudicar o desempenho dos discentes, como a pandemia do Coronavírus, que interrompeu a jornada acadêmica por causa do isolamento compulsório e de outros contratempos que comprometeram o desempenho. Foram utilizadas algumas ferramentas muito úteis para análise de dados, como notebook do Google Colab e o Dashboard do Streamlit para manipular dados, criar e analisar gráficos, que contribuíram para a interpretação de padrões estatísticos dos acadêmicos. Os resultados das análises desta pesquisa indicaram que a pandemia de 2020 influenciou no aumento da quantidade de períodos para a formação dos alunos nos anos de 2021 e 2022. Outra consequência foi uma redução na quantidade de formados no ano de 2020. Nos anos seguintes, houve uma recuperação do desempenho que estava se assemelhando aos níveis pré-pandemia. Uma outra verificação foi um aumento do número de formados entre 2015 e 2017, seguido por uma queda a partir do ano de 2018, retornando a patamares que estavam registrados em 2014. Concluiu-se que eventos como a pandemia que ocorreu em 2020 afetaram tanto o tempo de conclusão dos cursos quanto a quantidade de formados. Por isso, é importante ter uma análise de dados para poder planejar políticas em períodos de crise para mitigar os prejuízos.
  • TCC
    Análise de dados funcionais de docentes do magistério superior da UFRN impactados pela Lei 15.141/2025
    (Universidade Federal do Rio Grande do Norte, 2025-07-14) Modesto, Estela Fonseca de Mendonça; Oliveira, Luiz Affonso Henderson Guedes de; Brito Junior, Agostinho de Medeiros; Marques, Julliana Caroline Gonçalves de Araújo Silva
    A Lei 15.141, publicada em 02 de junho de 2025, trouxe impactos significativos na carreira de servidores públicos federais, especialmente no que se refere à estrutura de cargos e à progressão funcional No âmbito da Universidade Federal do Rio Grande do Norte (UFRN), as mudanças foram implementadas no Sistema Integrado de Gestão de Recursos Humanos (SIGRH), que passou a refletir as novas regras estabelecidas a partir do reposicionamento dos servidores, realizado em maio de 2025. Diante desse cenário, este trabalho tem como objetivo realizar uma análise exploratória quantitativa e visual dos dados funcionais dos servidores docentes, do cargo Professor do Magistério Superior, afetados pela Lei 15.141/2025. Para isso, foram utilizadas tecnologias para o tratamento e a visualização de dados, como SQL e Python, para gerar um dashboard interativo na plataforma Metabase, com gráficos de pizza, barras, de linhas e boxplot. A proposta visa oferecer subsídios à gestão universitária e à comunidade acadêmica, promovendo trans- parência e compreensão sobre a evolução funcional dos servidores e os efeitos concretos da medida provisória.
  • TCC
    Visão computacional aplicada à pecuária: segmentação, rastreamento e interpretação comportamental de bovinos
    (Universidade Federal do Rio Grande do Norte, 2025-07-10) Dantas, Paulo Ricardo; Peixoto, Helton Maia; http://lattes.cnpq.br/0171034898475180; Santana Junior, Orivaldo Vieira de; Santos, Viviany Lucia Fernandes dos
    O avanço da inteligência artificial (IA) e suas aplicações em visão computacional têm viabilizado soluções inovadoras para o monitoramento automatizado na pecuária moderna. Este trabalho apresenta o desenvolvimento de um sistema computacional voltado para a detecção, segmentação, rastreamento e análise comportamental de bovinos em vídeos, com o objetivo de facilitar o acompanhamento dos animais em ambientes reais. A proposta contempla desde a criação de um dataset próprio com imagens anotadas manualmente até a implementação e avaliação de modelos baseados em redes neurais convolucionais. O modelo principal adotado foi o YOLOv11, escolhido por sua capacidade de integrar detecção e segmentação com alta precisão e eficiência. Para o treinamento, foram utilizadas três versões do dataset, sendo a versão final (V4) composta por 1755 imagens e submetida a técnicas de aumento de dados (data augmentation). A avaliação do modelo foi realizada com base em métricas como precisão, sensibilidade, mAP@50 e mAP@50-95, destacando-se valores superiores a 0,80 em algumas dessas métricas. Além da segmentação, o sistema incorporou o rastreamento dos animais por meio dos algoritmos BoT-SORT e ByteTrack, ambos integrados à biblioteca do YOLO. O BoT-SORT demonstrou melhor desempenho em tempo de inferência e persistência das identidades dos objetos rastreados, sendo selecionado para as análises subsequentes. Como etapa complementar, foi incorporada uma análise comportamental automatizada com uso de Modelos de Linguagem de Grande Escala (LLMs). Quadros representativos dos vídeos rastreados foram extraídos e enviados à API do modelo Gemini, que gerou legendas descritivas sincronizadas em formato .srt. Essas legendas forneceram interpretações contextuais e educativas sobre os comportamentos observados, contribuindo para uma compreensão semântica das atividades dos animais. Os resultados obtidos mostram que a combinação de segmentação, rastreamento e análise comportamental assistida por IA permite não apenas a identificação precisa dos bovinos, mas também o acompanhamento interpretativo de sua movimentação, o que abre possibilidades para aplicações práticas no monitoramento de saúde e bem-estar animal. O modelo final demonstrou ser robusto, apresentando boa generalização em vídeos com diferentes cenários e condições de iluminação. O trabalho representa um avanço significativo no uso de técnicas de IA para automação na pecuária, promovendo uma alternativa eficaz à observação manual.
  • TCC
    Profiling of a satellite signal acquisition algorithm inside the GNSS-SDR framework
    (2025-05-26) Fernandes, Vinícius Soares; Souza, Samuel Xavier de; Barros, Tiago Tavares Leite; Silveira, Luiz Felipe de Queiroz
    O Parallel Code Phase Search (PCPS) é um algoritmo que compõe uma das etapas do cálculo de posicionamento em um receptor de Sistemas de Navegação Global por Satélites (GNSS). Sua principal função é detectar os satélites visíveis e fornecer a estimativa do deslocamento na frequência do sinal e o atraso no código dos sinais de satélite. Tais informações são necessárias para o cálculo da posição do receptor. A proposta deste trabalho é realizar o perfilamento do algoritmo PCPS dentro do projeto de um receptor de código aberto, o “GNSS-SDR” (An open source Global Navigation Satellite Systems software-defined receiver). O trabalho envolve o perfilamento do código escrito em C++, visando obter seus tempos de execução de acordo com diversos tamanhos de problema e quantidade de núcleos (cores) disponíveis e conduzir uma análise de escalabilidade.
  • TCC
    Optimization and Parallelization of a Delay-and-Sum Ultrasound Algorithm on a StarFive VisionFive RISC-V board
    (Universidade Federal do Rio Grande do Norte, 2025-07-08) Morais, Mateus Rodrigues de; Souza, Samuel Xavier de; 0000-0001-8747-4580; 0009-0002-1098-1335; http://lattes.cnpq.br/5325445607671290; Brito Junior, Agostinho de Medeiros; 0000-0002-2054-2339; Silva, Sérgio Natan; 0000-0002-6958-6754
    This work details the optimization and parallelization of a C implementation of the Delay-and-Sum (DAS) ultrasound beamforming algorithm, with a performance analysis conducted on a StarFive VisionFive RISC-V board. The study began with a C port of a MATLAB DAS implementation, which initially exhibited an execution time of 202.58 seconds for the largest test case. A series of iterative optimizations was applied to improve performance. These steps included refining the memory allocation strategy to eliminate redundant data copies, replacing inefficient Comma-Separated Values (CSV) file input with a faster binary data reading method, and employing function inlining to reduce the overhead from frequent calls to small helper functions. The final optimization stage involved parallelizing the algorithm's primary computational bottleneck, a nested loop structure inside the beamforming logic, using the OpenMP API, and subsequently applying compiler optimization flags. This parallelization was tested on the dual-core processor of the VisionFive board. A race condition was identified and resolved using the atomic OpenMP directive to ensure correct output. The cumulative effect of these optimizations resulted in a reduction of the total execution time to 12.9523 seconds, marking a speedup of more than 15 times from the original implementation. The parallel region achieved an efficiency of 97.94% on two cores for the highest problem size without compiler optimization flags, indicating minimal parallel overhead. This study demonstrates the viability of the StarFive VisionFive RISC-V board for computationally demanding medical imaging tasks, highlighting the potential of open-source hardware to enable the development of accessible and powerful medical technology.
  • TCC
    Solução da equação eikonal com redes neurais informadas por física e redes de Kolmogorov-Arnold
    (Universidade Federal do Rio Grande do Norte, 2025-07-09) Oliveira, Vinicius Paiva de; Barros, Tiago Tavares Leite; Araújo, Ramon Cristian Fernandes; Corso, Gilberto; Silva, Sérgio Luiz Eduardo Ferreira da
    Este trabalho apresenta uma abordagem inovadora para a resolução da Equação Ei- konal, fundamental para a modelagem sísmica, utilizando uma rede neural híbrida que combina Physics-Informed Neural Networks (PINNs) e Kolmogorov-Arnold Networks (KANs). O objetivo central foi desenvolver um modelo capaz de aprender a solução da equação diferencial parcial, incorporando as leis da física diretamente em sua função de perda. Os dados para treinamento e validação foram gerados numericamente através da biblioteca PyKonal para um modelo de velocidade bidimensional heterogêneo. A metodo- logia avaliou dois tipos de conjuntos de dados: o Tipo I, com fontes sísmicas concentradas em uma região específica, e o Tipo II, com fontes distribuídas por todo o domínio do grid para testar a capacidade de generalização do modelo. Os resultados para o conjunto do Tipo I demonstraram alta acurácia, com um coeficiente de determinação de 0,9934, mas falharam em generalizar para fontes fora da área de treinamento. Em contrapartida, o mo- delo treinado com o conjunto do Tipo II mitigou o problema de generalização, obtendo predições consistentes em todo o grid. A análise revelou que a distribuição espacial das amostras é um fator crucial para a performance, por vezes mais impactante que a den- sidade de amostragem. O estudo sugere que a arquitetura PINN-KAN é uma alternativa viável e promissora para a solução da Equação Eikonal, com a ressalva de que a estratégia de amostragem dos dados de treinamento é fundamental para garantir a generalização e a precisão da solução.
  • TCC
    Matrix inversion with limited memory usage
    (Universidade Federal do Rio Grande do Norte, 2025-06-06) Lacerda, Estéfane George Macedo de; Souza, Samuel Xavier de; 0000-0001-8747-4580; http://lattes.cnpq.br/9892239670106361; 0000-0002-5283-3536; http://lattes.cnpq.br/1763651349773729; Medeiros Júnior, Manoel Firmino de; 0000-0002-9408-3948; http://lattes.cnpq.br/4960078797028638; Cosme, Íria Caline Saraiva; http://lattes.cnpq.br/2418349885515438
    Nos tempos atuais, devido às aplicações emergentes de big data, surge a necessidade de desenvolver algoritmos capazes de realizar operações em matrizes de ordem extremamente grande na qual deve lidar com restrições no uso da memória. Neste trabalho, nós revisitamos o algoritmo BRI (Block Recursive Inversion) que inverte matrizes com uso limitado de memória. BRI manipula apenas blocos de matriz em vez da matriz inteira e, portanto, requer menos memória. Nós fornecemos uma fundamentação matemática para o BRI. Além disso, nóś generalizamos a ideia do algoritmo BRI e propomos variantes dele denominadas de NW-BRI and Pruned NW-BRI. Eles particionam a matriz de forma mais adequada para reduzir problemas numéricos com bloco não singulares e reduzir o número de inversões de blocos. O trabalho mediu o consumo de memória de todos esses algoritmos. Os resultados mostraram que apenas 10\% a 20\% da memória foi utilizada em relação a inversão convencional por decomposição LU. No entanto, os algoritmos tiveram um tempo de execução significativamente maior em relação a inversão por decomposição LU. Naturalmente, este tempo pode ser reduzido usando uma versão paralela deles.
  • TCC
    Além do data warehouse: modernizando a governança analítica na Justiça Eleitoral
    (Universidade Federal do Rio Grande do Norte, 2025-07-10) Leocadio, Jefferson dos Santos; Viegas, Carlo Manuel Dias; 0009-0006-6888-5898; ttps://lattes.cnpq.br/4906151820630298; Silva, Ivanovitch Medeiros Dantas da; Falcão, Eduardo de Lucena
    A crescente demanda por dados estruturados e acessíveis na Justiça Eleitoral tem impulsi- onado a modernização de sua infraestrutura analítica. No âmbito do Tribunal Regional Eleitoral do Rio Grande do Norte (TRE-RN), a arquitetura atual segue um modelo em camadas inspirado na arquitetura medalhão, implementado sobre bancos de dados relacio- nais. Apesar de funcional, esse modelo apresenta limitações em termos de escalabilidade, controle de versões e rastreabilidade dos dados. Com o objetivo de estabelecer uma base analítica mais modular, auditável e alinhada às boas práticas de engenharia de dados, este trabalho propõe a adoção de uma arquitetura híbrida, conhecida como Data Lakehouse, utilizando tecnologias de código aberto como Apache Iceberg, Project Nessie, Apache Spark, Apache Airflow e Dremio. Os dados são armazenados em um sistema de armazenamento de objetos (Nutanix Objects) e disponibilizados por meio de ferramentas de visualização como Microsoft Power BI e Metabase. A solução foi validada por meio de uma prova de conceito no ambiente do TRE-RN, e os resultados demonstram avanços significativos em governança, versionamento e rastreabilidade das informações.
  • TCC
    Processamento de dados em tempo real: uma análise da relação entre saúde e estilo de vida e o sono
    (Universidade Federal do Rio Grande do Norte, 2024-07-10) Silva, Diego de Oliveira; Viegas, Carlos Manuel Dias; https://orcid.org/0000-0001-5061-7242; http://lattes.cnpq.br/3134700668982522; Silva, Ivanovitch Medeiros Dantas Da; http://buscatextual.cnpq.br/buscatextual/visualizacv.do?id=K4284196D6; Falcão, Eduardo De Lucena; http://lattes.cnpq.br/8335184809043358
    O objetivo deste trabalho é fazer a configuração de um ambiente virtualizado para processamento de dados em tempo real, utilizando tecnologias como Docker, Hadoop, Apache Kafka, Spark e PostgreSQL. Como demonstração de viabilidade da infraestrutura, foi escolhido um dataset para ser analisado e usado para treinar modelos de aprendizado de máquina. A base de dados apresenta a relação entre indicadores de saúde, estilo de vida e distúrbios do sono. A infraestrutura do ambiente foi desenvolvida com containers Docker, o que simplifica a integração dos serviços e ferramentas utilizadas. O Python foi a ferramenta utilizada para realizar as análises que evidenciam as relações existentes nos dados. Os dois algoritmos de classificação treinados foram uma Árvore de Decisão (AD) e uma rede neural Multi layer perceptron (MLP), os quais apresentaram desempenhos satisfatórios. Esse projeto expôs como que ferramentas tecnológicas para processamento de dados em tempo real podem gerar soluções flexíveis, escaláveis e poderosas em uma sociedade que diariamente produz abundantes quantidades de dados.
  • TCC
    Avaliação eperimental do uso de agentes baseados em LLMs como assistentes de pesquisa científica
    (Universidade Federal do Rio Grande do Norte, 2025-07-07) Silva, Larissa Kelmer de Menezes; Silva, Ivanovitch; https://orcid.org/0000-0002-0116-6489; http://lattes.cnpq.br/3608440944832201; https://orcid.org/0000-0002-7330-5089; http://lattes.cnpq.br/6109370782431913; VIEGAS, Carlos Manuel Dias; https://orcid.org/0000-0001-5061-7242; http://lattes.cnpq.br/3134700668982522; SANTOS, Breno Santana; https://orcid.org/0000-0002-8790-2546; http://lattes.cnpq.br/1477295656421537; Silva, Ivanovitch; https://orcid.org/0000-0002-0116-6489; http://lattes.cnpq.br/3608440944832201
    Este trabalho apresenta uma avaliação experimental do Agent Laboratory, uma ferramenta baseada em agentes orientados a Large Language Model (LLM), projetada para apoiar tarefas de pesquisa científica com aprendizado de máquina. Quatro experimentos foram conduzidos em dois domínios temáticos — Edge AI e Smart Cities — explorando dois cenários distintos: um restrito com instruções detalhadas e um aberto, priorizando a criatividade. Cada experimento foi decomposto em três fases: revisão da literatura, planejamento da pesquisa e execução com interpretação dos resultados. A avaliação da saída do agente foi realizada por meio de uma rubrica humana, baseada em benchmarks como LEADER, MT-Bench e AgentEval, considerando seis dimensões: relevância científica, originalidade, clareza, viabilidade prática, fidelidade à literatura e síntese temática. O objetivo dessa pesquisa é avaliar a viabilidade de agentes de LLM no auxílio à pesquisa científica e identificar os pontos de confiabilidade e as limitações no processo automatizado. A análise dos resultados indica que a ferramenta apresenta bom desempenho na estruturação de propostas de pesquisa coerentes e originais, particularmente em cenários guiados. No entanto, limitações críticas surgiram durante a implementação, incluindo a substituição de modelos e conjuntos de dados, falha em atender às métricas planejadas e a ausência de justificativas para escolhas técnicas. Notou-se que as revisões da literatura foram superficiais e careceram de transparência, e os relatórios finais frequentemente omitiram seções importantes ou superestimaram os resultados. Porém, apesar desses problemas, a ferramenta demonstrou potencial para automatizar partes do fluxo de trabalho científico — especialmente a ideação e a estruturação em estágio inicial. Este estudo contribui com uma metodologia reprodutível e baseada em benchmarking para avaliar agentes de pesquisa orientados por LLM e reforça a necessidade de supervisão humana para garantir o rigor metodológico e a confiabilidade científica.
  • TCC
    Interface para imageamento geológico utilizando sensores ultrassônicos em um sistema de caixa de areia
    (Universidade Federal do Rio Grande do Norte, 2025-01-20) Queiroz, Klyfton Stanley Fernandes da Silva; Salazar, Andrés Ortiz; http://lattes.cnpq.br/7865065553087432; http://lattes.cnpq.br/9407192221689101; Costa, Anderson Eugênio Silva da; http://lattes.cnpq.br/5353061057885174; Fonsêca, Diego Antônio de Moura; http://lattes.cnpq.br/5215142664564230
    A modelagem física sísmica é uma área da geofísica responsável por modelar como se comporta o subsolo de determinados locais e uma das formas de se realizar essa modelagem envolve a utilização de sensores ultrassônicos em um sistema de caixa de areia. Uma utilização desse sistema de caixa de areia é em batimetria, que é o imageamento geológico da superfície daquele sistema. O objetivo deste projeto é criar uma interface capaz de receber os dados de um sistema com sensores ultrassônicos e realizar esta modelagem em formato de gráfico, para que seja possível visualizar de forma completa o imageamento geológico. Para isso, foi utilizado um protótipo do sistema de medição de caixa de areia, com um ESP32 e um sensor ultrassônico HC-SR04, e criada uma interface para modelagem 2-D e 3-D utilizando-se o Qt Designer e o VSCode, onde os dados são plotados na interface de aquisição e podem ser salvos em formatos de texto .csv e de imagem, para estudos posteriores.
  • TCC
    Desenvolvimento de um sistema supervisório para monitoramento contínuo de sinais
    (Universidade Federal do Rio Grande do Norte, 2025-01-17) Amaral, Adson Emanuel Santos; Salazar, Andres Ortiz; https://orcid.org/0000-0001-5650-3668; http://lattes.cnpq.br/7865065553087432; https://orcid.org/0000-0002-3552-9989; http://lattes.cnpq.br/7136205817131739; Fonseca, Diego Antonio de Moura; https://orcid.org/0000-0003-0895-3300; http://lattes.cnpq.br/5215142664564230; Teixeira, Rodrigo de Andrade; http://lattes.cnpq.br/6285507077458006
    A visualização de sinais em tempo real é um fator crucial quando se deseja entender o comportamento de sistemas, uma vez que, a análise de dados instantâneos permite que o operador detecte padrões e tome decisões de maneira mais rápida e oportuna. Nesse contexto, este trabalho apresenta o desenvolvimento de um sistema supervisório para sinais digitais. A fim de atingir esse objetivo, fez-se uso do Processador Digitais de Sinais (DSP) modelo TMS320F28335 para enviar dados via Interface de Comunicação Serial (SCI) para um computador a parte. Em seguida os dados são interpretados e exibidos utilizando-se a biblioteca PyQT5.
  • TCC
    Avaliação de algoritmos de machine learning para diagnóstico de operações em poços de bombeio mecânico
    (Universidade Federal do Rio Grande do Norte, 2024-12-18) Lucena, Elisa Gabriela Machado de; Maitelli, André Laurindo; 0000-0001-6083-7425; http://lattes.cnpq.br/0477027244297797; 0009-0006-8756-6868; https://lattes.cnpq.br/4664539811830181; Costa, Rutácio de Oliveira; http://lattes.cnpq.br/8120964167163666; Nascimento, Joao Maria Araujo do; 0000-0002-4690-086X; http://lattes.cnpq.br/0572726574522312
    O trabalho investiga o desempenho de algoritmos de aprendizagem de máquina de diferentes complexidades para o diagnóstico de falhas em poços equipados com o método de elevação por bombeio mecânico, propondo que soluções de menor complexidade computacional podem ser eficazes na detecção de padrões de falhas. Foram testados três algoritmos — Regressão Logística, Random Forest e Redes Neurais — utilizando os pontos de cargas e os descritores de centróide da carta dinamométrica de fundo como features, com resultados promissores de acurácia (a menor sendo de 97%). O diagnóstico de falhas operacionais em poços de petróleo que utilizam bombeio mecânico é fundamental para reduzir os custos de manutenção, evitar interrupções na produção e, consequentemente, aumentar a eficiência. As cartas dinamométricas são amplamente usadas para identificar falhas, mas sua interpretação manual demanda tempo e conhecimento especializado, principalmente quando os operadores monitoram diversos poços simultaneamente. Este estudo fornece uma base para a implementação prática de sistemas de diagnóstico automatizado, destacando o potencial de soluções acessíveis e eficientes para a indústria de petróleo.
  • TCC
    Desenvolvimento de um sistema supervisório para bancada de estudos do desempenho de células fotovoltaicas
    (Universidade Federal do Rio Grande do Norte, 2025-01-17) Ribeiro, Caio Matheus Lopes; Salazar, Andres Ortiz; https://orcid.org/0000-0001-5650-3668; http://lattes.cnpq.br/7865065553087432; https://lattes.cnpq.br/0929057259921590; Fonseca, Diego Antonio de Moura; Guedes, Rafael Augusto de Oliveira
    A energia solar tem ganhado destaque no Brasil devido à sua grande disponibilidade e ao crescente interesse por fontes de energia renovável. O país, com sua vasta incidência solar ao longo do ano, apresenta condições ideais para o aproveitamento dessa forma de energia, contribuindo para a diversificação da matriz energética e a redução de impactos ambientais. Diante desse contexto, este trabalho apresenta o desenvolvimento de um sistema supervisório para monitoramento e controle de uma bancada de estudos em energia fotovoltaica, localizada no Laboratório de Avaliação de Medição em Petróleo (LAMP). O sistema foi implementado utilizando a plataforma LabVIEW, que permite a aquisição e análise de dados em tempo real, garantindo uma supervisão eficiente dos parâmetros críticos, como corrente, tensão, irradiância solar, temperatura do módulo fotovoltaico e do ambiente, armazenando os dados coletados. O sistema supervisório oferece ao usuário a possibilidade de monitorar a bancada em tempo real, possibilitando a detecção de falhas e anomalias durante testes.
  • TCC
    Chatbot inteligente para acesso a regulamentos acadêmicos: um sistema de recuperação de informações baseado em RAG
    (Universidade Federal do Rio Grande do Norte, 2025-01-21) Cabral, João Pedro Freire; Lima, Jean Mario Moreira de; http://lattes.cnpq.br/5114572069606433; Gurgel, André Morais; Silva , Sérgio Natan
    O mercado de chatbots no Brasil encontra-se em franca expansão, evidenciado pelo aumento expressivo tanto no número de bots em atividade quanto no volume de mensagens processadas. Esses sistemas apresentam grande potencial para modernizar serviços, sobretudo no setor público, ao facilitar a disseminação de regulamentações complexas e ampliar a acessibilidade para cidadãos e servidores. Em paralelo, cresce o interesse acadêmico por modelos de linguagem de grande escala, refletido na quantidade de publicações científicas que destacam sua capacidade de compreender e gerar linguagem natural de forma mais contextualizada e confiável. Diante desse cenário, este trabalho tem como objetivo desenvolver um chatbot inteligente baseado em modelos de linguagem de grande escala para facilitar o acesso às normas acadêmicas da UFRN, promovendo maior acessibilidade e precisão na obtenção de informações. Para contornar limitações como necessidade de dados atualizados e respostas mais contextualizadas, emprega-se o método Retrieval-Augmented Generation, que integra geração de texto e recuperação de fontes externas. Ao longo do desenvolvimento, a estruturação do dataset com o framework RAGAS e a escolha criteriosa da segmentação semântica dos regulamentos mostraram-se cruciais para a consistência das respostas. Os testes realizados evidenciaram que a abordagem de recuperação tradicional combinada com reranking proporcionou os melhores resultados, enquanto métodos como consultas múltiplas e geração de documentos hipotéticos não apresentaram desempenho satisfatório. O modelo Rerank 1.0 da Amazon foi determinante para filtrar documentos irrelevantes, garantindo maior precisão e confiabilidade. Em ambiente de produção, o chatbot atingiu bom desempenho, com consumo médio de memória de 241 MB e tempo de resposta aproximado de 4,5 segundos, indicando escalabilidade e robustez da solução. Apesar desses avanços, desafios como custo computacional e ajustes contínuos permanecem, reforçando a necessidade de aperfeiçoamento. Em síntese, a proposta apresentada fornece uma abordagem sólida e replicável para implementação de chatbots baseados em Retrieval-Augmented Generation, com aplicações em contextos acadêmicos e administrativos que exijam alta precisão e contextualização das informações.
  • TCC
    Business Strategy Copilot: uma prova de conceito de assistente inteligente usando modelo small language model (SLM) para o planejamento estratégico de startups
    (Universidade Federal do Rio Grande do Norte, 2025-01-20) Medeiros, Gilvandro César Santos de; Santana Junior, Orivaldo Vieira de; https://orcid.org/0000-0003-4918-3162; http://lattes.cnpq.br/5050555219716698; https://orcid.org/0000-0002-6820-0610; http://lattes.cnpq.br/6701331514049600; Santiago, Rodrigo César; https://orcid.org/0000-0003-2034-9157; http://lattes.cnpq.br/6823966481089536; Goldbarg, Mateus Arnaud Santos de Sousa; https://orcid.org/0009-0003-2176-793X; http://lattes.cnpq.br/5393775937989569
    Large Language Models (LLMs) são modelos de processamento de linguagem natural modernos, que estão por trás de tecnologias como Gemini (Google), Copilot (Microsoft) e ChatGPT (OpenAI). No entanto, LLMs comumente podem ter uma alta exigência computacional e energética, de modo a tornar o desenvolvimento de soluções baseadas nestas tecnologias algo dependente de grandes companhias de tecnologia. Neste contexto, o objetivo principal deste trabalho é explorar Small Language Models (SLMs), especificamente o modelo pré-treinado Phi3-Mini, como uma alternativa relevante e eficiente, capaz de fornecer respostas inteligentes em problemas complexos e com menor demanda de recursos. Assim, em um ambiente de programação Python com o suporte da plataforma open-source Ollama, configurado em um laptop Dell Inspiron 15 5510, foi desenvolvida uma aplicação para auxiliar o planejamento estratégico de startups. A aplicação Python combina boas práticas de orientação a objetos e prompt engineering, permitindo gerar, refinar e priorizar objetivos estratégicos com base em dados como missão, visão e clientes da startup, aplicando controle de qualidade das respostas. Um estudo de caso evidenciou a eficiência do modelo em hardware local, e todo o código-fonte foi disponibilizado publicamente no Github, fomentando o uso de IA de menor custo computacional e energético para fins de gestão, empreendedorismo e inovação.
  • TCC
    Uma análise baseada em dados sobre o perfil feminino na procura por cursos de graduação na área de TI na Universidade Federal do Rio Grande do Norte
    (Universidade Federal do Rio Grande do Norte, 2025-01-20) Lira, Elizabete Cristina Venceslau de.; Viegas, Carlos Manuel Dias; Silva, Ivanovitch Medeiros Dantas da; Falcão, Eduardo de Lucena
    O INEP divulgou, através do Censo da Educação de 2014, que as mulheres haviam ultrapassado o número de estudantes masculinos no ensino superior no Brasil. Porém, elas estavam sub-representadas nos cursos das áreas de Ciências, Engenharias e Computação. Pensando sobre a representação feminina nos cursos superiores da área de tecnologia, este trabalho teve o objetivo de analisar o ingresso de mulheres nos cursos superiores da área tecnológica da UFRN nos anos compreendidos entre 2019 a 2023. O objetivo da pesquisa era verificar se houve alteração na representação feminina nos cursos da área de computação da UFRN nos anos seguintes à divulgação do INEP. Os dados estudados foram disponibilizados pela universidade. A pesquisa quantitativa utilizou o software Apache Spark para fazer o processamento dos dados e a biblioteca Matplotlib da linguagem Python, para fazer a representação gráfica dos dados encontrados. Os resultados demostraram que, nos anos de 2019 a 2023 as mulheres continuaram sub-representadas nos cursos de tecnologia da UFRN.
  • TCC
    D.I.A.N.A - Diário Interativo Auxiliar na Aderência ao tratamento do autoimune
    (Universidade Federal do Rio Grande do Norte, 2025-01-16) Sousa, Maria Alice de Melo; Oliveira, Luiz Affonso H. Guedes de; http://lattes.cnpq.br/7987212907837941; http://lattes.cnpq.br/5229961382312847; Valetim, Ricardo; https://lattes.cnpq.br/3181772060208133; Bezerra, Fabiana da Conceição; http://lattes.cnpq.br/4621184000184078
    O Lúpus Eritematoso Sistêmico (LES) é uma doença autoimune crônica que afeta milhões de pessoas, comprometendo sua qualidade de vida. A adesão ao tratamento é um desafio devido à complexidade dos regimes terapêuticos, efeitos colaterais e barreiras emocionais. No Brasil, estima-se que entre 150 mil e 300 mil pessoas convivem com a doença, principalmente mulheres em idade reprodutiva. Embora o acompanhamento médico multidisciplinar seja fundamental, a doença impõe limitações físicas e psicológicas. Diante desse cenário, o desenvolvimento de soluções tecnológicas, como aplicativos móveis, pode melhorar o cuidado e promover uma abordagem centrada no paciente. Este trabalho tem como objetivo o desenvolvimento do aplicativo D.I.A.N.A. (Diário Interativo Auxiliar na Aderência ao Tratamento do Autoimune), voltado para o suporte a pacientes com lúpus, visando aprimorar a adesão ao tratamento e auxiliar no gerenciamento de rotinas, além de empoderar os pacientes em relação ao seu diagnóstico e tratamento.
  • TCC
    Plataforma automática para compressão consciente de modelos de aprendizagem profunda baseada em poda seguida de quantização
    (Universidade Federal do Rio Grande do Norte, 2025-01-20) Freitas, Vitor Yeso Fidelis; Fernandes, Marcelo Augusto Costa; http://lattes.cnpq.br/3475337353676349; https://orcid.org/0009-0002-7626-5622; http://lattes.cnpq.br/4994486202506393; Balza, Micael; http://lattes.cnpq.br/0303807807288761; Silva, Alessandro Soares; http://lattes.cnpq.br/6391394214446756
    O avanço das aplicações de aprendizado profundo tem impactado diversos setores, porém o tamanho e a complexidade dos modelos neurais apresentam desafios para implementação em sistemas com recursos computacionais limitados. Este trabalho apresenta uma plataforma automática que integra técnicas de poda seguida de quantização durante o processo de treinamento de redes neurais profundas, visando otimizar a acurácia e eficiência computacional dos modelos. Experimentos realizados com o conjunto de dados CIFAR-10 demonstraram a eficácia da abordagem, alcançando reduções de até 80% no tamanho da memória enquanto mantém níveis de acurácia compatíveis com o estado da arte, com perdas de 2-3%. Análises da distribuição dos pesos antes e após a compressão revelaram padrões de adaptação da rede durante o treinamento com compressão, fornecendo insights sobre o comportamento do modelo sob diferentes regimes de compressão.