Logo do repositório
  • Página Inicial(current)
  • Buscar
    Por Data de PublicaçãoPor AutorPor TítuloPor Assunto
  • Tutoriais
  • Documentos
  • Sobre o RI
  • Eventos
    Repositório Institucional da UFRN: 15 anos de conexão com o conhecimento
  • Padrão
  • Amarelo
  • Azul
  • Verde
  • English
  • Português do Brasil
Entrar

SIGAA

  1. Início
  2. Pesquisar por Autor

Navegando por Autor "Viegas, Carlos Manuel Dias"

Filtrar resultados informando as primeiras letras
Agora exibindo 1 - 20 de 37
  • Resultados por página
  • Opções de Ordenação
  • Carregando...
    Imagem de Miniatura
    Tese
    Um algoritmo anticolisão para RFID de larga escala em ambientes ruidosos
    (Universidade Federal do Rio Grande do Norte, 2020-11-30) Barros Filho, Israel Eduardo de; Silva, Ivanovitch Medeiros Dantas da; ; http://lattes.cnpq.br/3608440944832201; ; http://lattes.cnpq.br/3471133638385883; Viegas, Carlos Manuel Dias; ; http://lattes.cnpq.br/3134700668982522; Costa, Daniel Gouveia; ; http://lattes.cnpq.br/0200709054904002; Muller, Ivan; ; http://lattes.cnpq.br/1522479715721496; Oliveira, Luiz Affonso Henderson Guedes de; ; http://lattes.cnpq.br/7987212907837941
    A Internet das Coisas Industrial (IIoT) é frequentemente apresentada como um conceito que está mudando significativamente o cenário tecnológico das indústrias, através de procedimentos de automação e identificação de objetos relevantes. Para tanto, problemas de confiabilidade e desempenho devem ser considerados ao se fornecerem os serviços de comunicação previstos. Ao empregar a Identificação por Radiofrequência (RFID) no contexto da IIoT, diversas pesquisas anteriores atuaram para melhorar a eficiência dos seus sistemas de comunicação, geralmente definindo modelos matemáticos para o planejamento e a avaliação da qualidade. No entanto, tais modelos são projetados com base em comunicações livres de erros, o que de fato é irreal quando se considera a natureza propensa às falhas das comunicações sem fio em plantas industriais. Portanto, esta tese propõe um novo algoritmo anticolisão para RFID, juntamente com um modelo formal baseado em Redes de Petri Estocásticas Generalizadas (GSPN) para avaliar as comunicações RFID, modelando diferentes possibilidades de erros entre leitores e etiquetas. Uma vez que essa proposta emprega os parâmetros EPCGlobal UHF Classe 1 Gen2 como referência, que já são adotados pelo protocolo anticolisão Dynamic Frame Slotted Aloha para sistemas RFID passivos, esse modelo pode ser explorado para avaliar o desempenho e a confiabilidade de diferentes protocolos de acesso ao meio RFID ao assumir canais ruidosos, suportando melhores comparações entre diferentes algoritmos e protocolos. Os resultados demonstraram que o algoritmo proposto consegue apresentar melhor resultado em relação aos demais protocolos avaliados, principalmente na presença de canais ruidosos e de um grande número de etiquetas para serem lidas. Os cenários de simulação são definidos para apresentar resultados de confiabilidade e desempenho, ao avaliar as leituras da etiqueta RFID, que são essenciais ao projetar e manter aplicações IIoT.
  • Carregando...
    Imagem de Miniatura
    Dissertação
    Um ambiente computacional para simulação do padrão IEEE 802.15.4 no NS-2: extensões à ferramenta WINSS
    (2016-12-29) Melo, Tálison Augusto Correia de; Salazar, Andres Ortiz; ; http://lattes.cnpq.br/7865065553087432; ; http://lattes.cnpq.br/1026458547173933; Viegas, Carlos Manuel Dias; ; http://lattes.cnpq.br/3134700668982522; Semente, Rodrigo Soares; ; http://lattes.cnpq.br/3146456370581663
    Redes de Sensores Sem Fio (RSSFs) têm se tornado cada vez mais comuns e estudos sobre elas têm aumentado bastante. Este tipo de rede é, geralmente, formada por muitos nós sensores, o que dificulta testes em ambientes reais. Os simuladores de rede, como o Network Simulator 2 (NS-2), têm sido adotados para avaliar RSSF, entretanto, este tipo de simulação no NS-2 pode não ser uma tarefa fácil para os usuários. Deste modo, ferramentas têm sido desenvolvidas para proporcionar facilidades de simulação sobre o NS-2, como o WINSS (Wireless Network Sensor Simulator). WINSS é uma solução para o projeto e testes de simulações de RSSFs de acordo com o padrão IEEE 802.15.4 no NS-2. Em função das limitações que a versão original do WINSS detém, este trabalho tem como objetivo estender as funcionalidades desta ferramenta, adicionando a ela a possibilidade de trabalhar com: mobilidade dos nós, falhas na rede, modo beacon habilitado e desabilitado, entre outras funcionalidades. O WINSS gera scripts de simulação (scripts TCL) e permite a configuração de aspectos importantes, como modelo de energia, modelo de nós móveis, modelo de propagação de rádio e modelo de falha na rede. Ele fornece um ambiente integrado com NAM, XGRAPH e Gnuplot, ferramentas que complementam o NS-2, e gera resultados, como vazão, atraso, pacotes perdidos, pacotes recebidos e consumo de energia.
  • Nenhuma Miniatura disponível
    Dissertação
    An evolving multivariate time series compression algorithm for IoT applications
    (Universidade Federal do Rio Grande do Norte, 2024-12-19) Costa, Hagi Jakobson Dantas da; Silva, Ivanovitch Medeiros Dantas da; Silva, Marianne Batista Diniz da; https://orcid.org/0000-0002-0116-6489; http://lattes.cnpq.br/3608440944832201; http://lattes.cnpq.br/6563621187728660; Viegas, Carlos Manuel Dias; Gendriz, Ignacio Sanchez
    A Internet das Coisas (IoT) está transformando a forma como os dispositivos interagem e compartilham dados, especialmente em áreas como o monitoramento veicular. No entanto, a transmissão de grandes volumes de dados em tempo real pode resultar em alta latência e consumo substancial de energia. Nesse contexto, o Tiny Machine Learning (TinyML) surge como uma solução promissora, permitindo a execução de modelos de aprendizado de máquina em dispositivos embarcados com recursos limitados. Este trabalho tem como objetivo desenvolver duas abordagens online de compressão de séries temporais multivariadas especificamente projetadas para TinyML, utilizando o framework Typicality and Eccentricity Data Analytics (TEDA). As abordagens propostas são baseadas na excentricidade dos dados e não exigem modelos matemáticos predefinidos ou suposições sobre a distribuição dos dados, otimizando assim o desempenho da compressão. Ambas as abordagens foram aplicadas a dois estudos de caso: um utilizando o dispositivo Freematics ONE+ para monitoramento veicular em um cenário embarcado, e outro utilizando o conjunto de dados OBD-II coletado do Freematics ONE+ em um contexto não embarcado. Os resultados indicam que as abordagens propostas, seja para compressão paralela ou sequencial, apresentam melhorias significativas no tempo de execução e nos erros de compressão. Esses achados destacam o potencial das abordagens para melhorar o desempenho de sistemas IoT embarcados, aprimorando a eficiência e a sustentabilidade de aplicações veiculares.
  • Nenhuma Miniatura disponível
    TCC
    Uma análise baseada em dados sobre o perfil feminino na procura por cursos de graduação na área de TI na Universidade Federal do Rio Grande do Norte
    (Universidade Federal do Rio Grande do Norte, 2025-01-20) Lira, Elizabete Cristina Venceslau de.; Viegas, Carlos Manuel Dias; Silva, Ivanovitch Medeiros Dantas da; Falcão, Eduardo de Lucena
    O INEP divulgou, através do Censo da Educação de 2014, que as mulheres haviam ultrapassado o número de estudantes masculinos no ensino superior no Brasil. Porém, elas estavam sub-representadas nos cursos das áreas de Ciências, Engenharias e Computação. Pensando sobre a representação feminina nos cursos superiores da área de tecnologia, este trabalho teve o objetivo de analisar o ingresso de mulheres nos cursos superiores da área tecnológica da UFRN nos anos compreendidos entre 2019 a 2023. O objetivo da pesquisa era verificar se houve alteração na representação feminina nos cursos da área de computação da UFRN nos anos seguintes à divulgação do INEP. Os dados estudados foram disponibilizados pela universidade. A pesquisa quantitativa utilizou o software Apache Spark para fazer o processamento dos dados e a biblioteca Matplotlib da linguagem Python, para fazer a representação gráfica dos dados encontrados. Os resultados demostraram que, nos anos de 2019 a 2023 as mulheres continuaram sub-representadas nos cursos de tecnologia da UFRN.
  • Carregando...
    Imagem de Miniatura
    Dissertação
    Análise de desempenho de estratégias de retransmissão para o mecanismo HCCA do padrão de redes sem fio IEEE 802.11e
    (Universidade Federal do Rio Grande do Norte, 2009-07-03) Viegas, Carlos Manuel Dias; Oliveira, Luiz Affonso Henderson Guedes de; ; http://lattes.cnpq.br/7987212907837941; ; http://lattes.cnpq.br/3251658221703304; Valentim, Ricardo Alexsandro de Medeiros; ; Dória Neto, Adrião Duarte; ; http://lattes.cnpq.br/1987295209521433
    Este trabalho apresenta a análise de desempenho de algoritmos de retransmissão de tráfego propostos para o mecanismo de acesso ao meio HCCA do padrão IEEE 802.11 e aplicados ao ambiente industrial. Devido à natureza deste tipo de ambiente, que pos¬sui interferências eletromagnéticas, e à do meio de transmissão sem fio do padrão IEEE 802.11, susceptível a tais interferências, em conjunto com a ausência de mecanismos de retransmissão, remete a uma situação impraticável para garantias de qualidade de serviço ao tráfego de tempo real, ao qual o padrão IEEE 802.11 e se propõe e este tipo de ambiente requer. Desta forma, para resolver este problema, este trabalho propõe uma nova abordagem que engloba a criação e avaliação de algoritmos de retransmissão com o intuito de garantir um nivel de robustez, confiabilidade e qualidade de serviço à comunica¬ção sem fio presente em tais ambientes. Assim, de acordo com esta abordagem, em caso de erros na transmissão, o escalonador de tráfego poderá gerenciar retransmissões para que os dados perdidos possam ser recuperados. A avaliação da abordagem proposta é realizada através de simulações, onde os algoritmos de retransmissão são aplicados a diferentes cenários, que são abstrações de um ambiente industrial, e os resultados dessa avaliação são obtidos com o auxílio de um simulador de redes desenvolvido e compa¬rados entre si para avaliar qual dos algoritmos possui melhor eficiência em determinada aplicação
  • Nenhuma Miniatura disponível
    TCC
    Análise de modelos de processamento de linguagem natural para classificação de notícias da UFRN
    (Universidade Federal do Rio Grande do Norte, 2025-01-17) Oliveira, José Augusto Agripino de; Silva, Ivanovitch Medeiros Dantas da; http://lattes.cnpq.br/3608440944832201; https://lattes.cnpq.br/3441954136559410; Viegas, Carlos Manuel Dias; http://lattes.cnpq.br/3134700668982522; Gendriz, Ignacio Sánchez; http://lattes.cnpq.br/6338710569530857
    A Inteligência Artificial (IA) está transformando diversos setores, remodelando diariamente o que entendemos por “tecnologia”. Sua aplicação na análise da linguagem natural é de suma importância, com essa área se desenvolvendo exponencialmente todos os dias. Neste contexto de desenvolvimento, este trabalho tem por objetivo analisar e comparar diferentes abordagens para o Processamento de Linguagem Natural (PLN) e classificação de texto aplicadas às notícias encontradas no site da Universidade Federal do Rio Grande do Norte (UFRN), classificando-as entre os temas de “ciências”, “eventos”, “vagas” e “informes”, além de disponibilizar interfaces com os melhores modelos. A metodologia adotada abrange desde a escolha das tecnologias até a implementação das interfaces. Nesse sentido, o Data Version Control (DVC) foi utilizado para o armazenamento e versionamento dos dados no desenvolvimento dos modelos, o GitHub para o versionamento de código, o Weight and Biases para versionamento e obtenção de gráficos relacionados ao treinamento dos modelos, além dos dados utilizados em conjunto com as interfaces, a API da OpenAI para realizar os embeddings dos textos, e o Gradio, em conjunto com o Hugging Face, para construir e disponibilizar os modelos. Por fim, os resultados obtidos demonstram que a maioria dos modelos apresentam uma alta acurácia, entretanto, aquele que utiliza o algoritmo de XGBoost apresentou um melhor resultado, conseguindo classificar, com precisão, os textos em linguagem natural. Visto que a IA está em constante crescimento e surgem cada vez mais abordagens para um certo fim, a discussão sobre qual é a melhor, a partir de um dado contexto, é imprescindível.
  • Nenhuma Miniatura disponível
    TCC
    Apache Kafka: implementação da técnica de replicação de banco de dados baseada em Middleware para o contexto de raspagem de dados
    (Universidade Federal do Rio Grande do Norte, 2022-07-26) Benedito Neto, Manoel; Viegas, Carlos Manuel Dias; Oliveira, Luiz Affonso Henderson Guedes de; Silva, Ivanovitch Medeiros Dantas da
    A demanda pela estabilidade e disponibilidade de bancos de dados na era da informação e computação distribuída é cada vez mais urgente. O recente caso de 'Apagão de Dados' de Covid-19, ocorrido em Dezembro de 2021 nos sistemas do DataSUS, pode ser mencionado como uma alarmante ocasião que poderia ter sido amenizada com a implementação de técnicas para replicação de banco de dados. As técnicas de replicação de banco de dados buscam incrementar características de consistência, desempenho e disponibilidade por meio de uma arquitetura de solução capaz de copiar integralmente os dados presentes em um banco. Este trabalho de conclusão de curso tem como objetivo geral implementar a técnica de replicação de banco de dados baseada em middleware com a utilização da ferramenta Apache Kafka para intermediar as trocas de informações entre um banco e sua réplica que, por sua vez, são alimentados por uma aplicação para raspagem de dados. Os dados são armazenados em um banco de dados PostgreSQL através de uma aplicação Python, a qual realiza a raspagem de dados meteorológicos referentes a focos de queimadas, cedidos publicamente pelo Instituto Nacional de Pesquisas Espaciais (INPE) por meio de uma Application Programming Interface (API). Foram utilizados os conceitos de virtualização de serviços para instanciar a aplicação de raspagem de dados, o serviço de banco de dados e um Sistema de Gerenciamento de Banco de Dados (SGBD), a arquitetura de serviços Apache Kafka e um painel de controle para visualização de seu desempenho. Com isso, constatou-se que a metodologia utilizada teve como resultado uma réplica de banco de dados consistente para o sistema de raspagem de dados desenvolvido.
  • Nenhuma Miniatura disponível
    TCC
    Arquitetura de veículos conectados: da captura à análise de dados
    (Universidade Federal do Rio Grande do Norte, 2023-11-14) Azevedo, Mariana Brito; Silva, Ivanovitch Medeiros Dantas da; Silva, Marianne Batista Diniz da; 0000-0002-8277-7571; http://lattes.cnpq.br/6470261020797104; https://orcid.org/0000-0002-0116-6489; http://lattes.cnpq.br/3608440944832201; 0000-0003-4609-8800; http://lattes.cnpq.br/3368384913656038; Viegas, Carlos Manuel Dias; 0000-0001-5061-7242; http://lattes.cnpq.br/3134700668982522; Oliveira, Luiz Affonso Henderson Guedes de; 0000-0003-2690-1563; http://lattes.cnpq.br/7987212907837941
    A introdução da Indústria 4.0 no século XXI impulsionou o surgimento de novos setores na tecnologia, notadamente o crescimento da Internet das Coisas (IoT). Nesse cenário, a integração desse paradigma com o contexto automotivo, por meio da tecnologia On-Board Diagnostics (OBD), possibilitou uma coleta eficiente e segura de dados provenientes de sensores veiculares. Esse conjunto de informações obtidas a partir de automóveis viabiliza diversas aplicações, desde o monitoramento veicular até a execução de técnicas avançadas de Ciência de Dados e Inteligência Artificial. Contudo, para utilizar esses dados de forma eficaz, é essencial seguir um conjunto de etapas que garanta uma coleta adequada para usos futuros. Neste contexto, este trabalho apresenta uma arquitetura para veículos conectados, abordando os estágios de captura, pré-processamento, armazenamento, visualização e análise de dados veiculares. A arquitetura desenvolvida oferece uma solução computacional para monitorar viagens individuais e gerenciar frotas veiculares a partir da coleta de dados de dois dispositivos: o ELM327 e o Freematics One+. O trabalho mostra como os desafios relacionados à coleta de dados veiculares foram resolvidos, como foi realizado o pré-processamento dos dados coletados e como as informações foram enviadas para um servidor, e posteriormente, para um banco de dados. Finalmente, o trabalho apresenta uma plataforma web para visualização e análise dos dados coletados, ilustrando gráficos de indicadores de desempenho do veículo, mapa de percurso realizado, dentre outros, para uma viagem de aproximadamente 570 km.
  • Nenhuma Miniatura disponível
    TCC
    Arquitetura escalável de streaming de dados de API utilizando apache Kafka
    (Universidade Federal do Rio Grande do Norte, 2023-07-10) Oliveira, Isaac Gomes de; Viegas, Carlos Manuel Dias; http://lattes.cnpq.br/3134700668982522; https://lattes.cnpq.br/3899870308114290; Oliveira, Luiz Affonso Henderson Guedes de; http://lattes.cnpq.br/7987212907837941; Silva, Ivanovitch Medeiros Dantas da; http://lattes.cnpq.br/3608440944832201
    O streaming de dados se tornou patente diante do contexto de Big Data. A necessidade de lidar com a informação cada vez mais próxima ao tempo em que ela é produzida passou a ser elementar em diversos cenários diante das percepções que isso oferece. As ferramentas de implementação de streaming foram aperfeiçoadas e popularizadas nos últimos anos e o Apache Kafka se destaca entre elas por abranger garantias necessárias para a transmissão de informações num ambiente resiliente. Lidar com a ferramenta e dimensioná-la para as aplicações modernas é o ponto de partida para disponibilização de dados em tempo real. Somado a isso, tendo em vista a quantidade de informações disponibilizadas via Application Program Interface (API) atualmente, torna-se pertinente ter soluções que realizem a captura dessas informações e o streaming delas para usos diversos. O presente trabalho auxilia essa demanda através da exploração dos recursos do Kafka, construindo uma arquitetura resiliente e escalável que pode ser facilmente replicada por estar contêinerizada. A construção também explora a linguagem Go para desenvolvimento de serviços que buscam e tratam dados de APIs. Ao final do trabalho, realizam-se as validações de disponibilidade, durabilidade e tolerância à falhas da solução, expondo as circuntâncias às quais esse tipo de arquitetura pode vivenciar, bem como da escalabilidade fornecida por ela, que mostra-se suficiente para atender à demanda de processamento da API utilizada. Conclui-se com a apresentação de uma aplicação de exemplo que consome os dados em tempo real, demonstrando a utilização da solução e seu efeito prático no cenário de streaming de dados.
  • Nenhuma Miniatura disponível
    TCC
    Automatização por robô de software para um sistema contábil
    (Universidade Federal do Rio Grande do Norte, 2020-12-09) Carvalho, Maxmyller Ferreira de Freitas; Pedrosa, Diogo Pinheiro Fernandes; Cavalcanti, Anderson Luiz de Oliveira; Viegas, Carlos Manuel Dias
    Durante a pandemia da Covid-19, todos os setores da sociedade foram atingidos negativamente. Diversas empresas passaram a ter problemas decorrentes da crise econômica que se agravou no país. Com o setor de serviços também não foi diferente. A crise gerada fez com que a manutenção de empregos fosse prejudicada. Diante disso, foi apresentada uma ideia de substituir funcionários por uma ferramenta de software automatizada na execução de tarefas rotineiras. Ela foi aplicada em um escritório de contabilidade no município de Natal, RN e implementada na linguagem Python juntamente com suas bibliotecas. O projeto desenvolvido foi a automatização em RPA (Robotic Process Automation) de um dos serviços contábeis chamado “SEFIP - Conectividade Social” da Caixa Econômica Federal. RPA nada mais é do que uma aplicação tecnológica que busca mecanizar, por via robô de software, as atividades que são demasiadamente repetitivas e massivas para um humano fazer. O benefício dessa implantação tornou uma melhor administração do horário dos funcionários, usando-os em tarefas mais estratégicas, ou seja, resultando em ganho de produtividade e qualidade para o negócio.
  • Nenhuma Miniatura disponível
    TCC
    Centrais telefônicas
    (Universidade Federal do Rio Grande do Norte, 2018-12-10) Carujo, Marco Antonio Moreira; Viegas, Carlos Manuel Dias; Diogo Pinheiro Fernandes Pedrosa; Silva, Sérgio Natan; Silveira, Luiz Felipe de Queiroz
    As Centrais Telefônicas desde sua invenção por volta de 1890 aos tempos de hoje estão em constante evolução. A telefonia digital vem crescendo em uso, aplicações e recursos. As chamadas VOIP são utilizadas nas plataformas de comunicação como Skype, Whatsapp, Facebook, Telegram entre outras. Por outro lado a telefonia analógica vem perdendo espaço. Com um futuro promissor para a telefonia digital, as centrais telefônicas digitais ganham espaços nesse cenário. A digitalização das ligações permite que sistemas computacionais se relacionem com essas ferramentas criando assim mecanismos modernos de ligações e interação entre usuários. Neste contexto, este trabalho apresenta a criação de uma central telefônica digital, a qual terá que corresponder às necessidades da empresa financiadora do trabalho Logica Sistemas LTDA ME. Esta será construída com base nos softwares ‘open source’ Asterisk e Freepbx. Além disso, contemplará um back-end feito em framework Laravel e uma interface web desenvolvida em ReactJS. O objetivo é construir uma central telefônica que seja capaz de entregar todas as funcionalidades comuns, e integrando ao sistema de gestão de empresa aliado a uma interface de monitoramento.
  • Nenhuma Miniatura disponível
    TCC
    Consumindo dados da indústria de petróleo e gás: uma implementação open-source de API RESTfull para comunicação com um WITSML™ Server.
    (Universidade Federal do Rio Grande do Norte, 2022-07-27) Pontes, Hemerson Rafael Pereira; Viegas, Carlos Manuel Dias; http://lattes.cnpq.br/3134700668982522; 0000-0002-9125-6508; http://lattes.cnpq.br/2023641745063612; Cavalcanti, Anderson Luiz de Oliveira; http://lattes.cnpq.br/7224754476792019; Florencio, Heitor Medeiros; http://lattes.cnpq.br/6422930980833254
    O Wellsite Information Transfer Standard Markup Language (WITSML) é um padrão muito utilizado em grandes empresas do segmento de petróleo e gás (P&G), servindo, dentre outras aplicações, para enviar dados coletados em um poço em um formato de documento eXtensible Markup Language (XML) entre parceiros de negócios. Dentro desse contexto, o objetivo do presente trabalho é uma aplicação que permita se comunicar com um WITSML server e fornecer esses dados de maneira mais simples para aplicações web. Para isso, faz-se necessária a implementação de uma Representational State Transfer (REST) Application Programming Interface (API) para o consumo de dados de um WITSML™ server e disponibilizá-los no formato de um JavaScript Object Notation (JSON), padrão muito usual para web. A REST API implementada com Python, utilizando o framework FastAPI e a biblioteca kmole-plus. A API abstrai a complexidade de se trabalhar com padrão WITSML™. Dessa forma, facilita a integração com as mais variadas aplicações web e reduz o tempo de implementação de projetos que consumam dados de WITSML™ server.
  • Carregando...
    Imagem de Miniatura
    Tese
    Contribuições em escalonamento e análise de desempenho de redes WirelessHART
    (Universidade Federal do Rio Grande do Norte, 2015-11-23) Nobre, Marcelo Henrique Ramalho; Oliveira, Luiz Affonso Henderson Guedes de; ; http://lattes.cnpq.br/7987212907837941; ; http://lattes.cnpq.br/8951573537174373; Silva, Ivanovitch Medeiros Dantas da; ; http://lattes.cnpq.br/3608440944832201; Viegas, Carlos Manuel Dias; ; http://lattes.cnpq.br/3134700668982522; Costa, Daniel Gouveia; ; http://lattes.cnpq.br/0200709054904002; Muller, Ivan; ; http://lattes.cnpq.br/1522479715721496
    A comunicação sem fios é uma tendência no ambiente industrial atualmente e nessa tendência temos o WirelessHART como uma das principais tecnologias. Com essa situação, é natural que melhorias no desempenho sejam buscadas e um dos principais caminhos para isso passa pelo desenvolvimento de algoritmos de escalonamento e roteamento. Nesta tese é apresentado uma revisão da literatura sobre as principais soluções em escalonamento e roteamento desenvolvidas especificamente para a tecnologia WirelessHART. Além disso propõe um novo Algoritmo de escalonamento chamando Escalonamento Flow que visa melhorar aspectos de flexibilidade e de utilização do superframe. Para propósitos de validação, é desenvolvido e utilizado um módulo de simulação para o Network Simulator 3 (NS-3) que modela aspectos como posicionamento, atenuação de sinal e consumo de energia além de prover simulações mais exatas por meio de configurações de erro individuais para cada link. Este módulo também possibilita a geração do superframe de escalonamento a partir do grafo de roteamento utilizando os algoritmos Flow e Han. Para a validação do novo algoritmo são realizados experimentos comparativos entre o algoritmo Han e algoritmo Flow, avaliando critérios de alocação de links, delay e taxa de ocupação de superframe. Para validação da camada física do módulo de simulação, o escalonamento e o roteamento são configurados estaticamente e são desenvolvidos experimentos de confiabilidade e consumo de energia com topologias validadas na literatura e com variações de probabilidades de erro.
  • Nenhuma Miniatura disponível
    TCC
    Desenvolvimento de um Chatbot para Marcação de Consultas em Clínicas
    (Universidade Federal do Rio Grande do Norte, 2022-12-21) Carvalho, Douglas de Souza; Pedrosa, Diogo Pinheiro Fernandes; http://lattes.cnpq.br/3276436982330644; Viegas, Carlos Manuel Dias; http://lattes.cnpq.br/3134700668982522; Cavalcanti, Anderson Luiz De Oliveira; http://lattes.cnpq.br/7224754476792019
    Este trabalho apresenta um chatbot capaz de ajudar o público principal de clínicas de saúde particulares, os pacientes, à realizar agendamentos de consultas médicas em integração ao QuarkClinic, sistema de gerenciamento para essas instituições. A aplicação consiste em uma interface virtual no formato de chat, localizado em um portal de agendamentos online, em que os pacientes podem interagir textualmente com o chatbot. Poderão ser feitas várias interações, tais como: Marcação de consultas em determinado horário, cancelamento de consultas e listagem do histórico de marcações. O intuito é aumentar a praticidade e velocidade no agendamento de consultas sem a necessidade de atendimento humano dedicado. Para este trabalho foram utilizadas linguagens de programação como Javascript, Java e seus frameworks Vue e Spring Boot, além do ApacheNLP, biblioteca baseado em aprendizado de máquina para processamento de texto baseado em linguagem natural.
  • Nenhuma Miniatura disponível
    TCC
    Desenvolvimento de um sistema multi-agente baseado em inteligências artificiais generativas para avaliação de qualidade em atendimento ao cliente
    (Universidade Federal do Rio Grande do Norte, 2025-01-20) Oliveira, Gabriel Barros Lins Lelis de; Silva, Ivanovitch Medeiros Dantas da; https://orcid.org/0000-0002-0116-6489; http://lattes.cnpq.br/3608440944832201; https://orcid.org/0000-0001-5619-6098; http://lattes.cnpq.br/4680014537432638; Falcão, Eduardo de Lucena; https://orcid.org/0000-0003-3307-8798; http://lattes.cnpq.br/8335184809043358; Viegas, Carlos Manuel Dias; https://orcid.org/0000-0001-5061-7242; http://lattes.cnpq.br/3134700668982522
    Este trabalho apresenta o desenvolvimento e validação de um sistema multi-agente baseado em Grandes Modelos de Linguagem (LLMs) para avaliação de qualidade em atendimento ao cliente, visando superar as limitações dos métodos tradicionais de monitoramento. O sistema implementa uma arquitetura inovadora composta por cinco agentes especializados: Supervisor, Monitor de Qualidade, Operador, Juiz e Analista de Relatórios, cada um responsável por aspectos específicos da avaliação. A metodologia empregou o framework CrewAI para desenvolvimento do sistema multi-agente, utilizando o modelo GPT-4o-mini como base, e implementou uma interface web em Streamlit para interação com usuários. A validação do sistema foi realizada através de testes com um conjunto de dados real de uma empresa do setor de energia, comparando seu desempenho com avaliações humanas especializadas e outros modelos de linguagem. Os resultados demonstraram uma concordância entre 90% a 100% com avaliações humanas, significativamente superior aos 50% alcançados por abordagens baseadas em modelos isolados. O sistema manteve um tempo médio consistente de 6 minutos por análise, representando uma redução de até 52% no tempo necessário comparado ao monitoramento tradicional. A solução também apresentou viabilidade econômica excepcional, com redução de 95,4% no custo por análise, mantendo alta qualidade nas avaliações. A qualidade dos relatórios gerados foi validada por avaliadores independentes, obtendo pontuação média de 32,5/35. O sistema desenvolvido estabelece um novo paradigma para avaliação de qualidade em atendimento ao cliente, combinando eficiência operacional, viabilidade econômica e consistência nas análises, permitindo que monitores de qualidade foquem em atividades estratégicas de maior valor agregado.
  • Nenhuma Miniatura disponível
    TCC
    Desenvolvimento de uma estrutura unificada de dados dos sistemas eletrônicos do poder judiciário brasileiro utilizando Pentaho Data Integration
    (Universidade Federal do Rio Grande do Norte, 2023-12-11) Sousa, Gabriel Felipe Azevedo de; Viegas, Carlos Manuel Dias; https://orcid.org/0000-0001-5061-7242; http://lattes.cnpq.br/3134700668982522; http://lattes.cnpq.br/4226622821844294; Silva, Ivanovitch Medeiros Dantas Da; https://orcid.org/0000-0002-0116-6489; http://lattes.cnpq.br/3608440944832201; Falcão, Eduardo De Lucena; https://orcid.org/0000-0003-3307-8798; http://lattes.cnpq.br/8335184809043358
    Este trabalho aborda o desenvolvimento de uma estrutura de dados unificada utilizando o Pentaho Data Integration para o Tribunal de Justiça do Estado do Rio Grande do Norte (TJRN), em conformidade com os critérios do DataJud, uma base de dados e metadados processuais do Conselho Nacional de Justiça (CNJ). A motivação principal do projeto é o desafio de coletar e padronizar dados de processos judiciais tramitados no Rio Grande do Norte desde 2015, sejam eles digitais ou físicos, armazenados nos mais diversos sistemas judiciais eletrônicos, e assegurar que essas informações sejam corretamente recebidas e processadas pelo CNJ. O objetivo é criar uma base de dados seguindo um modelo dimensional para inserir as informações dos processos judiciais, assegurando a padronização e centralização de todos os processos em um único banco de dados. Além disso, esse banco unificado visa auxiliar a análise estatística de produtividade das unidades judiciárias. O projeto será desenvolvido com o Pentaho Data Integration realizando as tarefas de extração, transformação e carga dos dados, assim como o PostgreSQL para hospedar o banco de dados. As etapas do projeto incluem a coleta de dados de diversas fontes, sua transformação conforme a padronização do DataJud, e a inserção dos registros no banco unificado. Ao final do desenvolvimento, os dados estarão prontos para serem enviados ao DataJud, após conversão para o formato XML e envio através da API disponibilizada pelo CNJ.
  • Nenhuma Miniatura disponível
    TCC
    Eficiência energética na consolidação de servidores: uma comparação entre a virtualização e a conteinerização
    (Universidade Federal do Rio Grande do Norte, 2018-12-07) Ferreira, Leonardo da Silva; Souza, Wellington Silva de; Viegas, Carlos Manuel Dias; Souza, Danilo Curvelo de; Souza, Samuel Xavier de
    Em diversas áreas científicas e profissionais, é crescente a demanda por recursos computacionais de alto desempenho, pois são de extrema importância para obtenção de melhores resultados na solução de problemas cada vez mais complexos. A virtualização, na última década, contribuiu de forma decisiva na otimização do uso de recursos computacionais seja em centros de dados datacenters privados, quanto em ambientes de provedores de serviço de nuvem. A partir do compartilhamento de recursos de hardware, houve significativo incremento da eficiência energética. Nestes ambientes, tradicionalmente dominados pela tecnologia de máquinas virtuais a partir de hipervisores, o uso de contêineres para provisionamento de aplicações tem se tornado popular nos últimos anos. Considerados como uma alternativa leve ao ambiente de hipervisores, os contêineres trazem diversos benefícios, tais como menor sobrecarga do hardware, redução de falhas em função da configuração, simplificação de atualizações e maior velocidade na inicialização. A escalada na adoção dessa tecnologia se deve principalmente pela evolução das ferramentas de orquestração, a exemplo do Docker, que simplificam a criação, execução e e gerenciamento de contêineres. Considerando estes aspectos, o presente trabalho se propõe a estabelecer uma análise comparativa de consumo e eficiência energética de aplicações executadas em ambientes virtualizados e contêineres.
  • Nenhuma Miniatura disponível
    TCC
    Estudo de uma ferramenta para auxílio em testes de software
    (Universidade Federal do Rio Grande do Norte, 2018) Costa, Samuel Alves; Viegas, Carlos Manuel Dias; Pedrosa, Diogo Pinheiro Fernandes; Silva, Sérgio Natan
    A partir da observação, verificou-se que na Superintendência de Informática da UFRN os testes de software são realizados em sua grande maioria por processo manual. Considerando que os testes, em especial os de regressão, consomem considerável tempo, comparando a outras etapas de produção como Desenvolvimento e Requisitos, a implantação de processo automático de teste poderia ser considerada para uma possível melhoria no fluxo de trabalho e na produção do software como um todo. Nesse sentido, este trabalho aborda, por meio de exemplos e comparações, resultados de testes manuais e usando ferramentas de automatização, com ênfase em testes de regressão. Dessa forma, objetiva-se justificar ao longo das comparações que o uso de testes automatizados pode oferecer melhorias no atual fluxo de trabalho da Superintendência.
  • Nenhuma Miniatura disponível
    TCC
    Um estudo sobre a aplicação de ferramentas para a proteção de cadeias de suprimento de software
    (Universidade Federal do Rio Grande do Norte, 2025-01-20) Koga, Henrique Hideaki; Falcão, Eduardo de Lucena; Viegas, Carlos Manuel Dias; Silva, Ivanovitch Medeiros Dantas
    Este trabalho apresenta um estudo sobre a aplicação de ferramentas para a proteção de cadeias de suprimentos de software, culminando no desenvolvimento de um pipeline de integração contínua (CI, abreviação para Continuous Integration). Por meio do uso de ferramentas como Trivy, Syft, Snyk e Cosign, o pipeline desenvolvido permite gerar e analisar a lista de materiais utilizados para a construção do software (SBOM, abreviação para Software Bill of Materials) automaticamente, bem como verificar a existência de vulnerabilidades em artefatos e aplicar assinaturas digitais para assegurar a integridade dos artefatos. A abordagem empregada consistiu no estudo de conceitos básicos de segurança, na experimentação das ferramentas e na implementação do pipeline de forma iterativa. O desenvolvimento da pesquisa permitiu obter como resultado uma solução eficaz no que concerne à mitigação de vulnerabilidades e contribuição para a rastreabilidade e segurança de artefatos, seguindo, deste modo, os preceitos do SLSA (Supply Chain Levels for Software Artifacts). Conclui-se, assim, que a abordagem proposta tem contribuição significativa para a proteção da cadeia de suprimento de software, oferecendo um processo seguro e confiável para a construção e implantação de sistemas.
  • Nenhuma Miniatura disponível
    TCC
    Um estudo sobre ferramentas de busca de vulnerabilidades em aplicações web
    (Universidade Federal do Rio Grande do Norte, 2018-12-10) Azevedo, Daniel Galvão de; Viegas, Carlos Manuel Dias; Marco Vieira; Lima Filho, Francisco Sales de
    Com o advento da Internet, as pessoas e empresas têm se tornado dependentes das aplicações web. Diante disso, se faz necessário o desenvolvimento seguro dessas aplicações, uma vez que o impacto causado por uma falha de segurança se torna cada vez maior, em consequência desta dependência. Atrelado a isso, o número de hackers também vem aumentando rapidamente. Assim sendo, para garantir esta segurança, são utilizados métodos como boas práticas de desenvolvimento e testes de invasão (pentest). Nestes dois casos, as ferramentas de busca de vulnerabilidade web são bastante empregadas, principalmente para a realização de testes do tipo black-box. No entanto, até mesmo estas ferramentas precisam ser bem selecionadas, para se atingir o objetivo esperado. Este trabalho tem como objetivo avaliar algumas das principais ferramentas de busca de vulnerabilidade web de código aberto, tais como OWASP ZAP, Paros, SkipFish e Vega. Estas ferramentas foram executadas sobre duas aplicações web intencionalmente vulneráveis e os relatórios produzidos foram comparados com a lista de vulnerabilidades de cada aplicação. Além disso, é apresentada uma pequena explicação das ferramentas e das principais vulnerabilidades abordadas nas práticas, e em seguida são mostrados os cenários utilizados e os dados obtidos. Ao final, são mostrados pontos positivos e negativos de cada ferramenta, as dificuldades encontradas e ideias para se obter melhores resultados com trabalhos futuros.
  • «
  • 1 (current)
  • 2
  • »
Repositório Institucional - UFRN Campus Universitário Lagoa NovaCEP 59078-970 Caixa postal 1524 Natal/RN - BrasilUniversidade Federal do Rio Grande do Norte© Copyright 2025. Todos os direitos reservados.
Contato+55 (84) 3342-2260 - R232Setor de Repositórios Digitaisrepositorio@bczm.ufrn.br
DSpaceIBICT
OasisBR
LAReferencia
Customizado pela CAT - BCZM