MPPGTI - Mestrado Profissional em Tecnologia da Informação

URI Permanente para esta coleçãohttps://repositorio.ufrn.br/handle/123456789/27976

Navegar

Submissões Recentes

Agora exibindo 1 - 20 de 54
  • Dissertação
    Desenvolvimento de um Sistema para Apoio à Adoção de DevSecOps
    (Universidade Federal do Rio Grande do Norte, 2025-02-25) Pinto, Marcelo Martins; Fontes, Ramon dos Reis; http://lattes.cnpq.br/0295503822342359; Barroca Filho, Itamir de Morais; Souza, Rodrigo Rocha Gomes e; Immich, Roger Kreutz
    O Poder Judiciário brasileiro, composto por noventa e quatro Tribunais (fonte: CNJ, 01/12/2023) e seus respectivos departamentos de Tecnologia da Informação e Comunicação, enfrenta o desafio crucial da unificação de seus sistemas judiciais. Apesar dos esforços do Conselho Nacional de Justiça (CNJ), ainda persiste uma disparidade qualificável entre os sistemas administrativos e de apoio, manifestada na inexistência de regulamentação específica para seu desenvolvimento. Essa diversidade de soluções, aliada a diferentes estruturas de pessoal, capacidades técnicas e infraestruturas, dificulta o controle das aplicações em uso, o cumprimento de prazos para desenvolvimento, distribuição e implantação e, especialmente, a segurança dos softwares, no que concerne a aspectos de análise de vulnerabilidades. Para abordar esses desafios, propõe-se a implementação de um software que apoie as áreas de TI na adoção da metodologia DevSecOps, integrando desenvolvimento, segurança e operações. Esta abordagem visa quebrar as ilhas de informação decorrentes da falta de compartilhamento , distribuir responsabilidades e conhecimento de maneira mais eficiente, aumentar a transparência na área de TI, melhorar a qualidade e reduzir o tempo de desenvolvimento, além de otimizar a manutenção dos softwares ao longo de seu ciclo de vida. O desenvolvimento da solução baseou-se em revisão de literatura para identificar as melhores práticas, como inclusão da análise de segurança desde as fases iniciais do ciclo de vida de desenvolvimento e ferramentas, como Burp Suite, para verificação de segurança. A solução proposta é um software que apoia as áreas de TI no controle das aplicações em uso, suas configurações e dependências, na automação do provimento da infraestrutura, das liberações de versões do software e, especialmente, na identificação de vulnerabilidades, identificadas pelos diversos tipos de análise, como SAST, DAST e SCA. As principais contribuições trazidas pela presente pesquisa visam contribuir para a adoção da cultura DevSecOps e segurança dos sistemas no Tribunal Regional do Trabalho da 21ª Região, propondo uma solução inovadora, por possibilitar acesso centralizado das informações sobre aplicações, suas dependências e resultados das análises de vulnerabilidades, que pode ser replicada em outros órgãos públicos, sejam do Poder Judiciário ou não.
  • Dissertação
    Arquitetura para automação de configurações de rede utilizando infraestrutura como Código (IaC)
    (Universidade Federal do Rio Grande do Norte, 2025-03-27) Marinho, Luís Fhelipe Ribeiro Gomes Netto; Immich, Roger Kreutz; Pinheiro, Marcos César Madruga Alves; https://orcid.org/0000-0003-2483-6382; http://lattes.cnpq.br/0535777592588490; http://lattes.cnpq.br/0252077406219665; Venâncio Neto, Augusto José; Fontes, Ramon dos Reis; Meneguette, Rodolfo Ipolito
    A demanda pela infraestrutura de comunicação cresce drasticamente, impulsionando pela adoção de novas tecnologias, sendo o foco a automação, detecção de erros e alta disponibilidade. Essa mudança é alavancada por meio de redes cada vez mais programáveis, principalmente com o uso de tecnologias como redes definidas por software (SDN) e metodologias como infraestrutura como código (IaC), permitindo que as redes possam ser geridas como software. Esses processos exigem ativos de rede compatíveis com protocolos como o NETCONFx e a transmissão das informações de telemetria por meio de dados estruturados, como o YAML. Entretanto, essas novas metodologias não são facilmente aplicadas em um parque de equipamentos legado, que não possuem o suporte adequado a esses protocolos. Nesse contexto, este trabalho aborda o desenvolvimento de uma solução para a automação de ativos de rede em duas áreas complementares. Primeiramente, uma arquitetura para gerenciar equipamentos de rede legados através de uma metodologia IaC, possibilitando a automação de tarefas rotineiras, detecção de falhas, identificação antecipada de problemas e checagem de configuração em um ambiente corporativo em produção. O foco do trabalho são os equipamentos de acesso da rede, por serem mais numerosos e geograficamente dispersos. Em segundo lugar, o trabalho contribui para a área de análise de tráfego de rede, com a construção de um dataset contendo dados de tráfego de uma rede corporativa, que servem como base para a análise e o treinamento de modelos de rede. A integração entre essas duas frentes permite não apenas o gerenciamento automatizado de ativos, mas também uma avaliação e predição mais precisas das condições de tráfego e desempenho da rede. Como resultados deste trabalho, foi possível encontrar e corrigir inconsistências das configurações dos ativos, utilizar rotinas que auxiliem a resolução de problemas de rede e verificar a saúde dos dispositivos a partir de sua telemetria.
  • Dissertação
    Recomendação de produtos financeiros utilizando aprendizado de máquina
    (Universidade Federal do Rio Grande do Norte, 2024-12-17) Batista, Jonathan Jalles Silva; Araújo, Daniel Sabino Amorim de; https://orcid.org/0000-0001-5572-0505; http://lattes.cnpq.br/4744754780165354; http://lattes.cnpq.br/0333672178508920; Menezes Neto, Elias Jacob de; Rego, Thais Gaudêncio do
    Sistemas de recomendação desempenham um papel crucial em diversos setores, incluindo o financeiro, ao oferecer sugestões personalizadas para os clientes, com base em seus históricos de preferências. No contexto da indústria financeira e de crédito, tais sistemas têm o potencial de revolucionar a maneira como as instituições interagem com os clientes, sobretudo ao personalizar recomendações de produtos financeiros, como investimentos, seguros e empréstimos. Nesse estudo, foram analisados 208.570 registros de clientes de três serviços financeiros do tipo seguro, com o objetivo de criar uma solução capaz de apoiar estratégias de marketing, utilizadas na oferta desses serviços financeiros aos clientes de uma Fintech. A clusterização com k-means, testada com dois a seis clusters, revelou importantes padrões de segmentação de clientes. Embora a configuração de dois clusters tenha alcançado o maior valor de silhouette score (0,4169), a abordagem com quatro clusters forneceu um cenário mais informativo para fins estratégicos. Para modelagem preditiva, após testes iniciais e busca aleatória de hiperparâmetros, com validação cruzada em 5 e 10 folds, XGBoost e LightGBM reportaram 82,0% de recall e 80,5% de F1-score. O LightGBM foi selecionado para uso nos dados de validação, por questões de custo-benefício. Quando aplicado ao conjunto de validação, que apresentou uma distribuição de seguros significativamente diferente dos dados de treino, causada por mudança nas covariáveis, o desempenho do modelo caiu consideravelmente, para 43,1% de recall, e 39,0% de F1-score. O modelo teve melhor desempenho com o Seguro C (63,7% de recall e 60,0% de F1-score), mas teve dificuldades com os seguros A (45,8% de recall e 26,7% de F1-score) e B (2,6% de recall e 4,8% de F1-score). Quando treinado em 80% do conjunto de dados resultando da combinação de dados de treino e validação, e validado nos 20% restantes, o LightGBM demonstrou melhorias substanciais para os seguros A e C, alcançando recall de 83,3% e 81,6%, e F1-Score de 83,0% e 77,6%, respectivamente. Em todos os casos, os modelos apresentaram dificuldades com o Seguro B. Embora a performance do modelo com dados combinados tenha sido significativamente melhor, a mudança de covariáveis configura um desafio expressivo na modelagem da solução para o propósito desse trabalho.
  • Dissertação
    Jaguar: a hierarchical deep reinforcement learning approach with transfer learning for StarCraft II
    (Universidade Federal do Rio Grande do Norte, 2024-11-07) Sá, Gabriel Caldas Barros e; Madeira, Charles Andryê Galvão; https://orcid.org/0000-0002-4460-2877; http://lattes.cnpq.br/2381782879955327; https://orcid.org/0000-0003-1164-0655; http://lattes.cnpq.br/9036202898138041; Araújo, Daniel Sabino Amorim de; Fernandes, Marcelo Augusto Costa; Corruble, Vincent
    Jogos de Estratégia em Tempo Real são ambientes que geralmente simulam situações militares reais e apresentam uma série de desafios para o campo da Inteligência Artificial, como a alta complexidade e grande espaço de ações e estados, mapas parcialmente observáveis e o fato de lidarem com múltiplos agentes ao mesmo tempo, além das tarefas poderem ser realizadas no âmbito do microgerenciamento ou do macrogerenciamento. Em especial, o Aprendizado por Reforço tem se destacado na aplicação e evolução de técnicas capazes de lidar com esses desafios. Foi realizada, então, uma revisão sistemática da literatura com o objetivo de compreender o estado da arte do Aprendizado por Reforço Profundo nos jogos de Estratégia em Tempo Real. Algumas das informações mais relevantes levantadas foram o uso do StarCraft II como principal ambiente de simulação, a necessidade de mais estudos tratando do macrogerenciamento, o bom desempenho de arquiteturas hierárquicas e a importância do uso de técnicas de mascaramento ações e transfer learning, que podem reduzir a complexidade do problema e o custo computacional. Diante disso e dos desafios existentes neste campo, este trabalho propõe desenvolver o Jaguar, uma arquitetura hierárquica capaz de lidar com o macro e microgerenciamento ao mesmo tempo e que necessite de poucos recursos durante o treinamento. Foram implementas técnicas de modelagem de ações e estados, mascaramento de ações inválidas através do estado atual e da comunicação entre os níveis hierárquicos, diferentes tipos de recompensa e os modelos DQN para decisões táticas e DDQN para decisões estratégicas. Dois agentes foram treinados em cenários base e foi aplicado o transfer learning para outros dois cenários. Os resultados mostram que o agente conseguiu apresentar um aprendizado significativo nos cenários base e resultados promissores nos cenários onde o transfer learning foi aplicado, demonstrando que a abordagem proposta foi capaz de lidar significativamente bem com a complexidade da maioria dos cenários testados, utilizando poucos recursos computacionais, destacando as limitações e abrindo margem para futuras melhorias.
  • Dissertação
    Desenvolvimento de um sistema inteligente para análise e gestão de textos médicos sobre câncer em prontuários eletrônicos com processamento de linguagem natural
    (Universidade Federal do Rio Grande do Norte, 2025-01-28) Brito, Bruna Alice Oliveira de; Barroca Filho, Itamir de Morais; Xavier Júnior, João Carlos; http://lattes.cnpq.br/5088238300241110; http://lattes.cnpq.br/1093675040121205; http://lattes.cnpq.br/8027922953233775; Rego, Amália Cinthia Meneses do; Menezes Neto, Elias Jacob de; Lima, Jean Mário Moreira de
    Com o avanço tecnológico da saúde no Brasil, os Prontuários Eletrônicos de Pacientes (PePs) se tornaram o meio principal na gestão dos dados clínicos, especialmente no contexto de doenças crônicas como o câncer, uma das principais causas de mortalidade no país. Os PePs armazenam uma grande quantidade de informações relevantes sobre o paciente, incluindo histórico clínico, diagnósticos e tratamentos. Contudo, grande parte desses dados estão em formato de textos livres e sem padronização, o que dificulta sua análise e interpretação. Nesse contexto, este trabalho tem o objetivo principal de desenvolver um sistema inteligente para extrair e organizar as informações de pacientes com câncer a partir de PePs, utilizando técnicas de Processamento de Linguagem Natural (PLN) e Aprendizado de Máquina (AM). Diante deste objetivo, a abordagem inclui o desenvolvimento de dois modelos: um de Reconhecimento de Entidades Nomeadas (NER), baseado no ajuste fino de um modelo BERT treinado em português, para classificar palavras em três categorias médicas; e outro utilizando o modelo LLama para realizar a sumarização de dados clínicos. A aplicação desses modelos visa lidar com os desafios identificados na revisão sistemática da literatura, relacionados tanto à alta complexidade dos dados clínicos quanto à limitada disponibilidade de conjuntos de dados rotulados. Ademais, ao longo do trabalho serão descritos os requisitos da solução, bem como detalhes de sua arquitetura e implementação, trazendo como resultados duas interfaces principais: uma em formato de bot, que mostra as informações dos PePs sumarizados, e outra composta por dashboards que exibem os dados estruturados gerados pelos modelos de NER.
  • Dissertação
    Avaliação da ferramenta EvoMaster na geração de casos de teste para aplicações REST
    (Universidade Federal do Rio Grande do Norte, 2024-04-25) Ramalho, Victor Hugo Freire; Kulesza, Uirá; http://lattes.cnpq.br/0189095897739979; http://lattes.cnpq.br/1080756766300832; Barbosa, Eiji Adachi Medeiros; Coelho, Roberta de Souza; Cirilo, Elder José Reioli
    O teste de software desempenha um papel fundamental na garantia da qualidade e confiabilidade dos sistemas de software. Ao longo dos últimos anos, os sistemas web de média e larga escala tem sido desenvolvidos baseados em API REST. As APIs REST se destacam nesse cenário devido às suas características, como simplicidade, escalabilidade e independência de plataforma. Neste contexto, destaca-se uma ferramenta chamada EvoMaster por sua capacidade de gerar casos de teste automatizados de forma eficaz. Este estudo concentra-se em avaliar a eficácia dessa ferramenta na geração de casos de teste para aplicações REST, especialmente em ambientes de aplicações web de larga escala. A avaliação foi realizada no sistema web SigSaúde, um sistema representativo de tal ambiente, e parte dos resultados foram analisados em colaboração com um dos desenvolvedores do sistema. Os resultados do estudo mostram que a EvoMaster foi capaz de descobrir um número significativo de defeitos mesmo em um sistema robusto, apesar de revelar desafios relacionados à utilização quanto a testes de regressão com baixa cobertura do código e utilização com configuração difícil da ferramenta.
  • Dissertação
    Integrando técnicas de recuperação de informações e agrupamento de relatórios de falhas para melhorar a localização de bugs em sistemas web
    (Universidade Federal do Rio Grande do Norte, 2024-04-29) Ataide, Miguel de Oliveira; Kulesza, Uirá; http://lattes.cnpq.br/0189095897739979; http://lattes.cnpq.br/4087209426424576; Barbosa, Eiji Adachi Medeiros; Coelho, Roberta de Souza; Almeida, Rodrigo Bonifácio de
    A localização de bugs é uma tarefa desafiadora e cara que envolve enormes quantidades de dados, especialmente para grandes projetos. Muitas técnicas de localização de bugs baseada em recuperação de informações de linguagem natural foram propostas e aplicadas. No entanto, apenas algumas delas investigaram projetos industriais. Além disso, o atuais estudos do estado da arte demonstraram que se depende demasiadamente da qualidade dos artefatos de software envolvidos, em particular os bug reports e os arquivos do código-fonte. Outra abordagem para localização de bugs é o uso de agrupamento de relatórios de falha, que consolida a enorme quantidade de relatórios de falha em clusters, que ajudam a encontrar as causas de um bug. Nosso principal insight é que a combinação das ideias dessas abordagens podem melhorar a localização de bugs do atual estado da arte, especialmente para cenários de projetos industriais com artefatos de software realistas. Neste artigo, propomos LucyBug, uma técnica que integra recuperação de informações de linguagem natural e agrupamento de relatórios de falha para localizar os arquivos com bugs relacionados a um bug reportado. Realizamos experimentos em um grande sistema industrial, com foco na redução da dependência de artefatos de software de alta qualidade. Nossos melhores resultados mostraram que conseguimos encontrar arquivos com bugs em 68,17% dos casos, entre as 10 primeiras sugestões. Apresentamos também uma alternativa, que possui desempenho inferior ao método completo, mas não depende da semelhança textual entre arquivos de código-fonte e bug reports.
  • Dissertação
    Predição da condutividade da água purificada para uso na indústria farmacêutica
    (Universidade Federal do Rio Grande do Norte, 2024-07-22) Fernandes, Ítalo Oliveira; Araújo, Daniel Sabino Amorim de; https://orcid.org/0000-0001-5572-0505; http://lattes.cnpq.br/4744754780165354; http://lattes.cnpq.br/2017125105414102; Xavier Júnior, João Carlos; Florêncio, Heitor Medeiros; Rego, Thais Gaudêncio do
    A água purificada desempenha um papel crítico na indústria farmacêutica, sendo amplamente utilizada tanto na fabricação de medicamentos quanto na limpeza de equipamentos. A necessidade de garantir a qualidade desse insumo é essencial para evitar contaminações e garantir a eficácia dos processos produtivos. Neste trabalho, foi desenvolvido um modelo preditivo para a condutividade da água purificada, um dos principais parâmetros de qualidade, utilizando redes Long Short-Term Memory (LSTM). O estudo foi realizado com base em dados coletados de uma Estação de Tratamento de Água (ETA) do NUPLAM. O processo envolveu desde a coleta e o pré-processamento dos dados de séries temporais, incluindo a remoção de outliers e tratamento de dados faltantes, até a modelagem e avaliação dos resultados. Foram realizados três experimentos: no Experimento 1, testaram-se diferentes configurações de atributos de entrada e atrasos temporais (lags), alcançando um MAE de 0,055 ± 0,002 e RMSE de 0,095 ± 0,001 para um horizonte de predição de 4 horas; no Experimento 2, avaliou-se a otimização de hiperparâmetros, mas sem ganhos significativos; já no Experimento 3, ao avaliar diferentes horizontes de predição (1 a 6 horas), os melhores resultados foram obtidos para um horizonte de 1 hora, com MAE de 0,026 ± 0,001 e RMSE de 0,049 ± 0,001. Esses resultados indicam que o modelo é mais eficaz para predições de curto prazo. Este trabalho contribui para o aprimoramento dos processos de monitoramento e controle em indústrias farmacêuticas, incluindo o NUPLAM, além de contribuir academicamente para o estudo de predição de séries temporais para sistemas de tratamento de água.
  • Dissertação
    Engenharia de requisitos auxiliada por chatbots inteligentes: uma avaliação da qualidade dos artefatos
    (Universidade Federal do Rio Grande do Norte, 2024-04-09) Damasceno, Joeldson Costa; Madeira, Charles Andryê Galvão; https://orcid.org/0000-0002-4460-2877; http://lattes.cnpq.br/2381782879955327; https://orcid.org/0009-0001-5474-0595; http://lattes.cnpq.br/1990733436390810; Barroca Filho, Itamir de Morais; Aranha, Eduardo Henrique da Silva; Nunes, Isabel Dillmann; Ramalho, Geber Lisboa
    A Engenharia de Requisitos é um processo essencial de coleta, documentação e manutenção de requisitos de software alinhados aos objetivos de negócio. A definição dos requisitos é o ponto de partida do desenvolvimento de software e constitui uma atividade crucial, complexa e que demanda tempo. Para desempenhar essa função, os profissionais de requisitos necessitam de diversas competências, tais como comunicação eficaz, raciocínio analítico, empatia, habilidades de resolução de conflitos, moderação, autoconfiança e persuasão. Infelizmente, a escassez significativa de profissionais especializados tem impactado negativamente a produção, sobretudo a qualidade das entregas. Estatísticas revelam uma quantidade considerável de insucessos em produtos de software devido a problemas na etapa de engenharia de requisitos. Entretanto, pesquisas recentes apontam para a promissora utilização da inteligência artificial (IA) generativa como uma solução para aprimorar a engenharia de requisitos. As ferramentas de inteligência artificial têm o potencial de automatizar tarefas, como a coleta e análise de requisitos, bem como auxiliar na identificação e correção de requisitos ambíguos ou incompletos. Neste estudo, nosso objetivo foi avaliar como o uso de chatbots de IA generativa podem auxiliar profissionais de requisitos, levando em conta a exploração da abordagem ideal para a elaboração do prompt e a qualidade dos artefatos resultantes. Como resultado, a ferramenta de chatbot experimentada revelou-se útil para os profissionais explorarem requisitos anteriormente não considerados, evidenciando o seu interesse para brainstorming na elicitação de requisitos. Além disso, os experimentos realizados geraram recomendações práticas pertinentes para a formatação de prompts para a especificação de requisitos. No entanto, a qualidade dos artefatos produzidos não mostrou um nível de completude satisfatório, o que demonstra a necessidade de mais pesquisas serem realizadas a fim de garantir uma melhor qualidade. Ainda assim, a maioria dos profissionais participantes da pesquisa (62,5%) concordam que a ferramenta pode ser integrada à sua prática diária. Com isso, espera-se que a contribuição deste trabalho sirva para o aprimoramento das práticas na área da Engenharia de Requisitos ao empregar as novas tecnologias de IA.
  • Dissertação
    AMIA: uma ferramenta para acompanhamento de reações adversas na terapia sistêmica contra o câncer
    (Universidade Federal do Rio Grande do Norte, 2024-04-29) Silva, Mike Job Santos Pereira da; Rodrigues, Anna Giselle Câmara Dantas Ribeiro; http://lattes.cnpq.br/4440595486888973; http://lattes.cnpq.br/2581975975563475; Lopes, Frederico Araújo da Silva; http://lattes.cnpq.br/9177823996895375; Santos, Edilmar de Moura
    O câncer é uma das principais causas de morte no mundo, sendo a terapia sistêmica antineoplásica um dos tratamentos mais frequentemente utilizados. Apesar de sua eficácia na eliminação de células cancerosas, essa abordagem impacta negativamente as células saudáveis, desencadeando efeitos colaterais consideráveis, tanto físicos quanto psicológicos. Por isso, é comum o desenvolvimento de algum grau de depressão e o abandono do tratamento, tornando crucial o desenvolvimento de estratégias de suporte para os pacientes. Para estes, lidar com esses efeitos indesejáveis em casa pode ser desafiador, especialmente considerando a escassez de ferramentas em português brasileiro que ofereçam suporte. Nesse contexto, surge a proposta de desenvolvimento da ferramenta Amia, um chatbot que utiliza um diálogo estruturado com base em um fluxograma elaborado por uma equipe de profissionais de saúde da Liga Contra o Câncer. Os pacientes podem relatar como se sentem a partir da escolha de sintomas pré-definidos, recebendo orientações correspondentes. Adicionalmente, a ferramenta permite a inserção de texto livre pelos pacientes, usando Processamento de Linguagem Natural (PLN) para identificar sintomas e oferecer orientações adequadas a partir de uma lista prévia de sintomas adversos com suas respectivas estratégias de manejo. A proposta visa melhorar a qualidade de vida dos pacientes em tratamento sistêmico antineoplásico, possibilitando um auto-gerenciamento mais eficaz dos efeitos adversos em seu ambiente cotidiano, além de contribuir na criação de um banco de dados que pode ser utilizado para estudos dos relatos dos principais sintomas adversos do tratamento.
  • Dissertação
    DOO: solução integrada de gerenciamento de serviços com orquestração
    (Universidade Federal do Rio Grande do Norte, 2024-04-02) Lima, Thiago de Abreu; Fontes, Ramon dos Reis; http://lattes.cnpq.br/0295503822342359; http://lattes.cnpq.br/6175179317032075; Lema, José Castillo; Immich, Roger Kreutz; https://orcid.org/0000-0003-2483-6382; http://lattes.cnpq.br/0535777592588490; Kulesza, Uirá
    Ogerenciamento de serviços oferecidos em uma rede de computadores demanda um esforço manual para manter a infraestrutura. Normalmente, os administradores de rede precisam acessar vários servidores, instalar diversos softwares e configurar inúmeros arquivos. Essa abordagem manual frequentemente resulta em erros e impacta a disponibilidade dos serviços, além de aumentar o tempo de resposta para solicitações de mudanças. A abordagem de infraestrutura como código surge como uma solução para minimizar os erros associados ao gerenciamento tradicional de serviços, porém exige que os administradores de rede adquiram habilidades de programação, o que geralmente não faz parte de seu currículo. Nesse contexto, este trabalho apresenta o DOO, acrônimo para DevOpsOrchestrator, uma plataforma integrada que utiliza a infraestrutura como código para automatizar o gerenciamento de serviços. Essa plataforma permite que os administradores de rede utilizem uma interface gráfica para acessar servidores e realizar configurações que antes eram feitas manualmente. Como resultado, é possível reduzir os erros causados por desvios de configuração, agilizar a entrega de mudanças e promover maior consistência nos serviços oferecidos.
  • Dissertação
    Estudo comparativo entre modelos transformers aplicados ao desenvolvimento de chatbots
    (Universidade Federal do Rio Grande do Norte, 2023-12-15) Nascimento, Ormazabal Lima do; Araújo, Daniel Sabino Amorim de; https://orcid.org/0000-0001-5572-0505; http://lattes.cnpq.br/4744754780165354; http://lattes.cnpq.br/4741685468690055; Xavier Júnior, João Carlos; http://lattes.cnpq.br/5088238300241110; Rego, Thais Gaudencio do
    Os chatbots são softwares que utilizam linguagem natural para se comunicar com seus usuários. Para a sua criação podem ser utilizados os modelos transformers, um tipo de rede neural que vêm apresentando resultados promissores em áreas de estudo como processamento de linguagem natural (NLP). A variedade de modelos existentes impõe desafios na seleção das melhores opções para o nicho de mercado em que o chatbot irá atuar. Este trabalho apresenta um estudo comparativo entre os modelos transformers DIET, LaBSE, BERTimbau, DistilBERT, RoBERTa, GPT, GPT-2 e XLNET aplicado ao desenvolvimento um chatbot submetido aos dados capturados nos atendimentos ao público realizados pelo Tribunal de Contas do Estado do Rio Grande do Norte (TCE/RN). O estudo considerou métricas como acurácia e precisão, além dos tempos de treinamento e de processamento de resposta. DIET foi considerado o melhor modelo por conseguir equilibrar bons resultados nas métricas de qualidade e tempo em conjunto, destacando-se no fator tempo por responder até 2,5 vezes mais rápido que os demais.
  • Dissertação
    Explorando padrões de empréstimos na Biblioteca Universitária Zila Mamede: um estudo de caso com perspectiva preditiva
    (Universidade Federal do Rio Grande do Norte, 2023-12-22) Paiva, Iuri Cabral; Araújo, Daniel Sabino Amorim de; https://orcid.org/0000-0001-5572-0505; http://lattes.cnpq.br/4744754780165354; http://lattes.cnpq.br/5207590148182875; Santos, Araken de Medeiros; Magalhães, Ismenia Blavatsky de; Xavier Júnior, João Carlos
    A biblioteca universitária, ao longo dos anos, consolidou-se como uma instituição fundamental dentro das universidades, desempenhando um papel crucial no apoio ao processo de ensino-aprendizagem, pesquisa e extensão universitária. Um dos aspectos mais significativos dessa instituição é a concessão de empréstimos de materiais informacionais, especialmente de livros, aos seus usuários. Compreender o perfil dos usuários que realizam esses empréstimos e contextualizar suas necessidades é essencial para o planejamento eficaz e a gestão otimizada dos recursos das bibliotecas. Deste modo, este trabalho se propõe a investigar a dinâmica dos empréstimos de livros do acervo circulante da Biblioteca Central Zila Mamede (BCZM), visando antecipar as demandas dos usuários por meio da análise de dados históricos de empréstimos. Inicialmente, foi realizada a Análise Exploratória dos Dados para compreender aspectos relevantes da interação entre os discentes e a biblioteca, utilizando dados de empréstimos e informações associadas à vida acadêmica dos estudantes. Oagrupamento, realizada através dos algoritmos de K-Médias e Agrupamento Hierárquica, permitiu a identificação de perfis distintos de usuários da biblioteca, enriquecendo a compreensão sobre seus usuários. Finalmente, como estudo de caso, foram empregados os modelos Random Forest e SARIMA na predição de empréstimos de livros da área de Matemática e Ciências Naturais para o ano de 2019, utilizando dados consolidados de forma semanal e mensal. Os resultados obtidos indicam que os discentes que utilizam os serviços de empréstimo tendem a apresentar maior taxa de conclusão acadêmica e menor incidência de trancamentos e cancelamentos de matrícula. Quanto aos modelos de predição, tanto o SARIMA quanto o Random Forest demonstraram ser promissores na identificação de padrões de tendência nos empréstimos, destacando sua aplicabilidade para a Biblioteca Central Zila Mamede. Portanto, este estudo não apenas contribui para a compreensão mais aprofundada da dinâmica dos empréstimos de livros, mas também fornece subsídios valiosos para que a biblioteca possa antecipar-se às necessidades dos usuários de maneira proativa, melhorando assim a eficácia de suas operações.
  • Dissertação
    Um estudo sobre consumo energético em supercomputadores
    (Universidade Federal do Rio Grande do Norte, 2023-10-31) Costa Neta, Inácia Fernandes da; Silva, Gustavo Girão Barreto da; http://lattes.cnpq.br/9491033611706611; http://lattes.cnpq.br/0862995947838972; Barroca Filho, Itamir de Morais; http://lattes.cnpq.br/1093675040121205; Silva, Ivan Saraiva; Souza, Samuel Xavier de
    A recente revolução tecnológica e exorbitante aumento de dados demandou uma necessidade de investimentos e melhorias na área de TI. Diversas são as atividades que reivindicam aumento do processamento e a imprescindibilidade de alta disponibilidade. Uma dessas atividades é a pesquisa, realizada por centros acadêmicos, por exemplo, que carecem de um equipamento de alto desempenho para tarefas de complexidade elevada. O consumo energético destes se torna grandioso e dispendioso, demandando estudos de diferentes estratégias na área. Nesse documento é apresentado um estudo inicial que aponta na direção da melhoria na gestão de energia de servidores a fim de permitir uma economia do consumo energético e consequente diminuição de gastos financeiros. É apontado um supercomputador como objeto de estudo, a partir do qual foram feitas coletas de dados de consumo computacional e energético, gerando análises distintas e comparativas entre si. Por fim, é sugerida uma estratégia para redução do consumo de energia desse equipamento como proposta para oportunidade de economia de energia e consequentemente financeira.
  • Dissertação
    Aplicação de técnicas de agrupamento para construção de perfis em dados oriundos de redes de acesso 5G
    (Universidade Federal do Rio Grande do Norte, 2023-12-08) Neves, Yves Dantas; Xavier Júnior, João Carlos; http://lattes.cnpq.br/5088238300241110; http://lattes.cnpq.br/7144587695337007; Canuto, Anne Magaly de Paula; http://lattes.cnpq.br/1357887401899097; Santos, Araken de Medeiros; Araújo, Daniel Sabino Amorim de
    O advento da Internet e o desenvolvimento das Tecnologias da Informação e Comunicação expandiram o volume e a diversificação das fontes de dados, abrindo assim novas oportunidades nos setores industriais e acadêmicos à aplicação de tecnologias relacionadas ao Aprendizado de Máquina e Big Data. Nesta perspectiva encontra-se a extensa quantidade de dados gerados pelas infraestruturas de Acesso das Redes Móveis. As Radio Access Networks (RAN), cruciais para a infraestrutura de telecomunicações, são habilitadoras da comunicação sem fio e produzem um volume expressivo de dados relacionados a coleta de contadores, os quais associados, permitem uma visibilidade e monitoramento sobre os índices de desempenho e qualidade de suas células. O presente trabalho consiste na aplicação de algoritmos de agrupamento para a criação de perfis a partir de dados relacionados à indicadores de redes de acesso 5G referentes a tráfego, volume e qualidade de canal de forma que a rotulação da base de dados com os perfis encontrados possa ser utilizada em problemas de classificação e como ferramenta de suporte a identificação de melhorias, gestão de desempenho e eficiência operacional das redes de acesso.
  • Dissertação
    Arquitetura de suporte à configuração de redes de computadores baseada em linguagem natural e descoberta de dispositivos
    (Universidade Federal do Rio Grande do Norte, 2023-11-24) Santos, Alex Augusto de Souza; Immich, Roger Kreutz; https://orcid.org/0000-0003-2483-6382; http://lattes.cnpq.br/0535777592588490; http://lattes.cnpq.br/1028649074953701; Dalmazo, Bruno Lopes; https://orcid.org/0000-0002-6996-7602; http://lattes.cnpq.br/2376616045571333; Lemos, Elizama das Chagas; Fontes, Ramon dos Reis
    As interfaces de configuração de roteadores residenciais na atualidade costumam ser pouco amigáveis para aqueles que não têm conhecimento técnico, o que dificulta a personalização de configurações avançadas para esses usuários, exigindo habilidades técnicas especializadas. Além disso, a ausência de padronização nessas interfaces cria obstáculos de acessibilidade para um conjunto de usuários, incluindo pessoas com algum tipo de deficiência visual e idosos. Este trabalho propõe uma arquitetura em camadas que utiliza a linguagem natural e a detecção automática de dispositivos para permitir que usuários sem habilidades técnicas avançadas possam configurar roteadores domésticos com facilidade. O intuito é simplificar o processo de configuração desses equipamentos, tornando isso acessível a um público mais amplo. Para tanto, módulos de um sistema baseado em linguagem natural são estabelecidos para entender e traduzir a intenção de configuração do usuário. Também são definidos módulos para a identificação e classificação automática de tipos de dispositivos. O ciclo de funcionamento da arquitetura e seus módulos são especificados e um protótipo de validação das camadas propostas é apresentado. Os resultados da prova de conceito apontam que a integração dos recursos de detecção e classificação de dispositivos na arquitetura enriquece a interface do usuário com informações sobre os dispositivos da rede. A validação realizada na interface de usuário atingiu uma taxa de acurácia total de 87,1% na identificação da intenção do usuário e 70,5% no mapeamento de entidades em descrições de alto nível, por meio do processamento de linguagem natural. Tais resultados apontam que a abordagem adotada viabiliza a administração da rede doméstica por meio de linguagem natural, eliminando a necessidade de que os usuários tenham aptidão técnica para isso
  • Dissertação
    Uma arquitetura de referência para detecção de anomalias em SDN utilizando inteligência computacional
    (Universidade Federal do Rio Grande do Norte, 2023-11-29) Pereira, Rivaldo Fernandes de Albuquerque; Immich, Roger Kreutz; https://orcid.org/0000-0003-2483-6382; http://lattes.cnpq.br/0535777592588490; http://lattes.cnpq.br/3780460851973036; Macedo, Douglas D. J. de; Pinheiro, Marcos César Madruga Alves; http://lattes.cnpq.br/1682925222063297; Kulesza, Uirá
    Tecnologias emergentes como a Cloud, 5G, Internet of Things (IoT) e computação de borda, necessitam controlar e conectar em rede milhões de dispositivos todos os dias. Configurar redes tradicionais, que podem chegar a vários milhares de equipamentos, é uma tarefa complexa pois exige configurar rotas em cada equipamento da rede. As Redes Definidas por Software (SDN) ajudam na simplificação da configuração e gerenciamento de uma rede com esta quantidade de dispositivos já que dispõe de controlador de rede centralizado. Apesar de promissora, a SDN tem desafios principalmente relacionados a segurança e análise fina de indicadores de rede para detectar problemas, mas muitos estudos demonstram a viabilidade do uso de inteligência computacional (IC) para detectar anomalias em SDN. O objetivo principal deste trabalho foi definir uma arquitetura de referência para validar, promover e explicar, qualquer técnica de IC que melhor se ajuste a cada um dos diferentes tipos de anomalias. A arquitetura proposta é baseada em microsserviços hexagonais, com um modelo de informação único baseado nos frameworks de aplicações e informações e processos do Open Digital Architecture, do TM Forum. A validação e avaliação foi realizada através de um protótipo de prova de conceito que utilizou dois dataset diferentes para treinar sete algoritmos de aprendizagem de máquina. Os resultados deixam claro a necessidade de se ter uma arquitetura flexível, em que seja possível adicionar e remover diferentes modelos de IC para cada cenário específico.
  • Dissertação
    Impacto da evolução de esquema de banco de dados na disponibilidade de software
    (Universidade Federal do Rio Grande do Norte, 2023-04-28) Silva, Willie Lawrence da Paz; Barbosa, Eiji Adachi Medeiros; https://orcid.org/0000-0002-8286-0017; http://lattes.cnpq.br/8833409749475821; 01663370486; http://lattes.cnpq.br/4952238446892909; Kulesza, Uira; https://orcid.org/0000-0002-5467-6458; http://lattes.cnpq.br/0189095897739979; Almeida, Rodrigo Bonifacio de; https://orcid.org/0000-0002-2380-2829; http://lattes.cnpq.br/0368311142108150
    Ao longo da vida de um software que utiliza um banco de dados relacional para armazenarinformações, observamos que a evolução natural da aplicação leva à alterações no esquemado banco de dados, que é a estrutura que define como as informações são armazenadas.Durante a execução das operações que são responsáveis por alterar o esquema do banco dedados podem ocorrer interrupções no acesso aos dados armazenados no banco de dados,fazendo com que uma aplicação em execução que depende desses dados fique inoperante atéque a operação de atualização do esquema seja finalizada. Nós chamamos essas operaçõesde atualização do esquema que causam interrupção no acesso aos dados de “operaçõesbloqueantes”. As operações bloqueantes são um problema particularmente em sistemasque não podem ser interrompidos, como é o caso de sistemas de monitoramento, sistemasde venda com alto volume de tráfego, aplicações governamentais etc. Nesse trabalho nósestudamos a evolução do esquema do banco de dados de uma aplicação do mundo real paraentender a natureza das operações de alteração de esquema e prever o impacto delas nadisponibilidade do software. Além disso, realizamos uma série de experimentos controladoscom o objetivo de analisar o impacto das operações bloqueantes na disponibilidade de umaaplicação em uso no momento da evolução do esquema. Por fim, nosso trabalho implementaalgumas soluções, sugeridas pelos praticantes da indústria, para resolver o problema dedisponibilidade dos dados durante a evolução do esquema. Assim, os mesmos conjuntos deexperimentos realizados foram repetidos num novo cenário onde as sugestões da indústriaforam implementadas. Nossos resultados mostram que as sugestões dos praticantes daindústria são eficientes até um determinado limite, de tal maneira que bancos de dadoscom um número muito grande de registros podem sentir uma diminuição considerável notempo de indisponibilidade do banco de dados, porém não o suficiente para o usuário finalde uma aplicação.
  • Dissertação
    Um processo para avaliação e gerenciamento de mudanças de modelos de aprendizado de máquina aplicado a área da saúde
    (Universidade Federal do Rio Grande do Norte, 2023-06-26) Souza, Cezar Miranda Paula de; Barroca Filho, Itamir de Morais; http://lattes.cnpq.br/1093675040121205; http://lattes.cnpq.br/0100884597485902; Dória Neto, Adrião Duarte; https://orcid.org/0000-0002-5445-7327; http://lattes.cnpq.br/1987295209521433; Rodrigues, Anna Giselle Camara Dantas Ribeiro; Leite, Cicilia Raquel Maia
    Suportado por avanços de hardware e software, o uso de Aprendizado de Máquina (AM), reconhecido por alavancar o trabalho nas mais variadas áreas de conhecimento, começou a acelerar exponencialmente nas últimas décadas. Os experimentos, em geral realizados em ambientes controlados, sobre amostras de dados previamente conhecidos e preparados, tem trazido resultados extraordinários, o que popularizou o uso do Aprendizado de Máquina ao ponto de ser difícil encontrar um ramo do conhecimento humano no qual o AM ainda não tenha sido abordado. Neste contexto, surgem questões relativas à representatividade das amostras de dados utilizadas, e à necessidade de se estabelecer garantias mínimas quanto a performance sobre dados desconhecidos (do mundo real), especialmente em aplicações críticas como as da Saúde, onde erros podem significar risco de vida para pacientes. Dentro do AM há uma disciplina chamada de Machine Learning Operations (MLOps), que se destina ao gerenciamento do ciclo de vida de modelos de Aprendizado de Máquina, desde sua concepção até sua entrega em produção (ambientes de uso efetivo no mundo real) e seu posterior monitoramento. Uma vez implantados, modelos estão sujeitos a problemas de decaimento de performance, causado por fenômenos como o drift, o que tem motivado estudos recentes sobre continual learning e monitoramento contínuo para modelos de AM. O presente trabalho apresenta um processo para avaliação de modelos de AM desenhado para aplicações da saúde em operação no mundo real. Para tanto, foram realizados (1) uma Revisão Sistemática da Literatura (RSL) com o objetivo de determinar o estado da arte para técnicas e métodos de avaliação de AM, e (2) um Estudo de Caso (EC) aplicando o processo em modelos de uma UTI oncológica. Resultados positivos foram obtidos, estabelecendo um ciclo de feedback para modelos em uso no mundo real dados.
  • Dissertação
    Catálogo e ferramenta de detecção de Bad smells de desempenho em sistemas React
    (Universidade Federal do Rio Grande do Norte, 2023-06-23) Barros, Aryclenio Xavier; Barbosa, Eiji Adachi Medeiros; https://orcid.org/0000-0002-8286-0017; http://lattes.cnpq.br/8833409749475821; http://lattes.cnpq.br/5253783022587449; Cirilo, Elder José Reioli; Sousa, Leonardo da Silva
    A linguagem Javascript é uma das mais famosas ferramentas de desenvolvimento da atualidade, ganhando visibilidade em diversas áreas como jogos web, renderizações tridimensionais, inteligência artificial e, principalmente, no desenvolvimento de aplicações web, com seu grande papel na construção de interfaces através do desenvolvimento front-end. Nesse ecossistema, foram construídas diversas bibliotecas e frameworks, sendo a mais famosa a biblioteca React, desenvolvida e publicada pela Meta (Facebook). As aplicações construídas em React, como qualquer outro sistema, precisam de se manter utilizáveis e relevantes ao longo do tempo. Como evidências empíricas mostram, a presença de bad smells no código pode comprometer a capacidade de evolução do software. Com base nesse contexto, este trabalho apresenta uma proposta de bad smells orientados à biblioteca React, integrando-os a uma ferramenta de detecção de código chamada ReactLint, que sinalizará falhas de código e indicará possíveis soluções aos desenvolvedores que a utilizarem. Este trabalho tem como objetivo validar os bad smells propostos, bem como a ferramenta construída, a fim de identificar se eles podem afetar o desempenho de uma aplicação React a curto prazo.