Programa de Pós-Graduação em Engenharia Elétrica e de Computação
URI Permanente desta comunidadehttps://repositorio.ufrn.br/handle/123456789/11949
Navegar
Navegando Programa de Pós-Graduação em Engenharia Elétrica e de Computação por Título
Agora exibindo 1 - 20 de 935
- Resultados por página
- Opções de Ordenação
Tese A configurable dependability library for high-performance computing iterative applications with interruption detection, data preservation and failover capabilities(Universidade Federal do Rio Grande do Norte, 2024-10-04) Santana, Carla dos Santos; Souza, Samuel Xavier de; https://orcid.org/0000-0001-8747-4580; http://lattes.cnpq.br/9892239670106361; https://orcid.org/0000-0003-3328-0056; http://lattes.cnpq.br/4697610292983660; Bianchini, Calebe de Paula; Tadonki, Claude; Chauris, Herve; Taufer, Michela; Navaux, Philippe Olivier Alexandre; Barros, Tiago Tavares LeiteA computação de alto desempenho é um campo dinâmico da ciência da computação que permite o processamento necessário para problemas de diversos domínios. Supercomputadores são indispensáveis para resolução de problemas complexos; no entanto, seu tamanho e complexidade os tornam suscetíveis a falhas. Isso destaca a importância crítica de empregar técnicas de tolerância a falhas para mitigar o impacto de interrupções. Esses métodos são essenciais para lidar com falhas de hardware e software, bem como cenários preemptivos. Dada a necessidade de tolerância a falhas, apresentamos novas metodologias para melhorar a tolerância a falhas em programas síncronos em massa. Essas novas metodologias são apresentadas dentro da Biblioteca de Confiabilidade para Aplicações Iterativas. Esta biblioteca oferece uma solução versátil que combina conservação de dados no nível da aplicação, detecção de falhas e capacidades de failover. A biblioteca proposta simplifica a integração de habilidades de tolerância a falhas nas aplicações, oferecendo opções de alta configurabilidade. Esta tese apresenta técnicas de conservação de dados, incluindo checkpointing no nível da aplicação e replicação de dados de processo, para garantir confiabilidade, permitindo que uma unidade de backup assuma em caso de falha. Este trabalho também apresenta métodos de detecção de falhas, como detecção de sinal de término e monitoramento de batita de coração com comunicação de baixo custo, para acionar a conservação de dados apenas se houver uma possibilidade de falha; essa abordagem permite baixo overhead. A biblioteca proposta é compatível com a mitigação de falhas no nível do usuário, o que permite capacidades de failover; em outras palavras, os programas podem continuar operando após falhas, minimizando o tempo de inatividade e garantindo operação contínua. Nossa proposta foi aplicada com sucesso ao problema geofísico de inversão de forma de onda completa, um algoritmo padrão para o processamento geofísico de exploração de petróleo e gás. Esta aplicação serve como um cenário prático de alto desempenho para análise, demonstrando a aplicabilidade real da biblioteca. Todos os métodos foram rigorosamente validados, e o overhead neste problema foi analisado usando exemplos mais realistas. Em nossos experimentos, a aplicação não perdeu todos os dados processados até o momento da falha e pôde continuar a execução, mesmo na presença de falha de nó, com overhead mínimo. Este trabalho também apresenta outros estudos de caso na fase inicial de aplicação da biblioteca e discute alguns conceitos de tolerância a falhas e trabalhos relacionados.Dissertação A Real-Time meta-heuristic-based safe navigation approach for mobile robots in unknown environments(Universidade Federal do Rio Grande do Norte, 2025-02-19) Balza, Micael; Fernandes, Marcelo Augusto Costa; https://orcid.org/0000-0001-7536-2506; http://lattes.cnpq.br/3475337353676349; Silva, Sérgio Natan; Pedrosa, Diogo Pinheiro Fernandes; Oliveira, Fábio Fonseca deAutonomous navigation in mobile robots is a complex challenge, particularly in unknown and dynamic environments where obstacle avoidance and real-time trajectory optimization are crucial. This work introduces the MetaHeuristic Real-Time Safe Navigation (MHRTSN) strategy, which integrates potential fields with population-based metaheuristics to enhance trajectory planning and navigation efficiency. The proposed strategy was evaluated through a series of simulations in different static and dynamic scenarios, comparing the performance of two versions: MetaHeuristic Real-Time Safe Navigation with Genetic Algorithm (MHRTSN-GA) and MetaHeuristic Real-Time Safe Navigation with Particle Swarm Optimization (MHRTSN-PSO). The evaluation considered key metrics such as displacement, distance traveled, CPU time, and clock time. The results indicate that both versions provide sub-optimal solutions, with MHRTSN-PSO demonstrating superior performance in terms of computational efficiency and convergence when using a small population size. Comparisons with existing approaches in the literature revealed that MHRTSN generated paths of similar length while maintaining a safer distance from obstacles. Thus, the proposed approach offers an efficient and safe solution for autonomous navigation in mobile robots, contributing to advancements in real-world robotic applications.Tese Uma abordagem baseada em tipicidade e excentricidade para agrupamento e classificação de streams de dados(2017-05-24) Bezerra, Clauber Gomes; Oliveira, Luiz Affonso Henderson Guedes de; http://lattes.cnpq.br/7987212907837941; Martins, Allan de Medeiros; ttp://lattes.cnpq.br/4402694969508077; http://lattes.cnpq.br/1125827309642732; Silva, Diego Rodrigo Cabral; Lemos, André Paim; http://lattes.cnpq.br/2426104312592166; Costa, Bruno Sielly Jales; http://lattes.cnpq.br/2486327435960311Nesta tese apresentamos uma nova abordagem para realizar o agrupamento e a classificação de um conjunto de dados de forma não supervisionada. A abordagem proposta utiliza os conceitos de tipicidade e excentricidade usados pelo algoritmo TEDA na detecção de outliers. Para realizar o agrupamento e a classificação é proposto um algoritmo estatístico chamado Auto-Cloud. As amostras analisadas pelo Auto-Cloud são agrupadas em unidades chamadas de data clouds, que são estruturas que não possuem formato ou limites definidos. O Auto-Cloud permite que cada amostra analisada possa pertencer simultaneamente a várias data clouds. O Auto-Cloud é um algoritmo autônomo e evolutivo, que não necessita de treinamento ou qualquer conhecimento prévios sobre o conjunto de dados analisado. Ele permite a criação e a fusão das data clouds de forma autônoma, à medida que as amostras são lidas, sem qualquer intervenção humana. As características do algoritmo fazem com que ele seja indicado para o agrupamento e classificação de streams de dados e para aplicações que requerem respostas em tempo-real. O Auto- Cloud também é um algoritmo recursivo, o que o torna rápido e exige pouca quantidade de memória. Já no processo de classificação dos dados, o Auto-Cloud trabalha como um classificador fuzzy, calculando o grau de pertinência entre a amostra analisada e cada data cloud criada no processo de agrupamento. A classe a que pertence cada amostra é determinada pela data cloud com maior grau de pertinência com relação a amostra. Para validar o método proposto, aplicamos o mesmo em vários conjuntos de dados existentes na literatura sobre o assunto. Além disso, o método também foi validado numa aplicação de detecção e classificação de falhas em processos industriais, onde foram utilizados dados reais, obtidos de uma planta industrial.Dissertação Uma abordagem comportamental para inserção de robôs em ambientes culturais(Universidade Federal do Rio Grande do Norte, 2004-12-22) Antunes, Viviane André; Gonçalves, Luiz Marcos Garcia; ; http://lattes.cnpq.br/1562357566810393; ; http://lattes.cnpq.br/2494667199303191; Oliveira, Luiz Affonso Henderson Guedes de; ; http://lattes.cnpq.br/7987212907837941; Bianchi, Reinaldo Augusto da Costa; ; http://lattes.cnpq.br/2305603694791405Neste trabalho, propomos metodologias e ferramentas computacionais visando inserir robôs em ambientes culturais. O objetivo é que um robô localizado em um contexto real (espaço cultural) possa representar tanto um usuário conectado ao sistema via Internet (avatar real para o visitante virtual), como também ter seu avatar em um ambiente de Realidade Mista (avatar para o robô no ambiente virtual). Nesse sentido, o robô e seu avatar deixam de ser meros objetos, real e virtual, e passam a ter uma função mais importante no cenário, podendo interferir no processo e tomar decisões. Para que esse serviço possa ser disponibilizado, desenvolvemos um módulo composto por um robô, ferramentas de comunicação e provemos maneiras de realizar a integração entre este e o ambiente virtual, bem como implementamos um conjunto de comportamentos com a finalidade de controle do protótipo no seu ambiente real. Estudamos ferramentas de software e Hardware disponíveis para a plataforma robótica usada nos experimentos, bem como desenvolvemos rotinas de testes para determinar suas potencialidades. Ainda, estudamos o modelo de controle baseado em comportamentos, planejamos e implementamos todos os comportamentos necessários à integração do robô aos ambientes real e virtual. Vários experimentos foram realizados para validação das metodologias e ferramentas desenvolvidas, permitindo concluir que as mesmas atendem de forma satisfatória ao propósito inicial para o qual foram desenvolvidasDissertação Abordagem heurística baseada em busca em vizinhança variável para o agrupamento balanceado de dados pelo critério da soma mínima das distâncias quadráticas(2016-08-22) Costa, Leandro Rochink; Aloise, Daniel; ; ; Martins, Allan de Medeiros; ; Aloise, Dário José;Após vários avanços na tecnologia de captação e armazenamento de dados e do crescimento de aplicações que provêm novas informações, o número de elementos informacionais disponíveis é enorme tanto em volume quanto em variedade. Com esse aumento na quantidade de informações, a necessidade de entendê-los e resumi-los se tornou cada vez mais urgente. O Agrupamento Balanceado de Dados, do inglês Balanced Clustering, visa encontrar grupos de entidades similares que possuam aproximadamente o mesmo tamanho. Neste trabalho, é proposta uma nova abordagem heurística baseada na metaheurística Busca em Vizinhança Variável, do inglês Variable Neighborhood Search (VNS), e na metodologia Menos é mais, do inglês Less is more approach, para o problema de agrupamento de dados usando o critério da soma mínima das distâncias quadráticas com restrição de balanceamento dos grupos. Os algoritmos encontrados na literatura não são escaláveis ao passo que aumentamos o tamanho do problema para além de 5000 elementos de acordo com experimentos realizados nesta pesquisa. Os experimentos computacionais mostram que o método proposto supera o atual estado da arte neste problema.Dissertação Uma abordagem indireta para o Controlador em Modo Dual Adaptativo Robusto(Universidade Federal do Rio Grande do Norte, 2011-12-19) Teixeira, Leonardo Rodrigues de Lima; Oliveira, Josenalde Barbosa de; ; http://lattes.cnpq.br/0503501772199456; ; http://lattes.cnpq.br/8435923730992064; Araújo, Aldayr Dantas de; ; http://lattes.cnpq.br/3165031680223608; Cunha, Caio Dorneles; ; http://lattes.cnpq.br/2348572465951605; Oliveira, Tiago Roux de; ; http://lattes.cnpq.br/2236381891580848Nesse trabalho é proposta uma abordagem indireta para o Controlador em Modo Dual Adaptativo Robusto (DMARC), o qual une as características transitórias e de robustez típicas dos Sistemas a Estrutura Variável, mais especificamente do Controlador Adaptativo por Modelo de Referência e Estrutura Variável (VS-MRAC), com um sinal de controle suave em regime permanente, típico dos Controladores Adaptativos convencionais, como o Controlador Adaptativo por Modelo de Referência (MRAC). O objetivo é proporcionar uma maneira mais intuitiva de realizar o projeto do controlador, baseado nos parâmetros físicos da planta, tais como: resistência, momento de inércia, capacitância, dentre outros. Adicionalmente, com a finalidade de seguir a linha evolutiva dos controladores diretos, será proposta uma versão indireta para o Controlador Adaptativo Binário por Modelo de Referência (B-MRAC), o qual foi precursor na tentativa de atuar tanto como MRAC quanto como VS-MRAC, a depender de um parâmetro fixo pré-definidoDissertação Uma abordagem orientada a dados para a criação de um indicador de habitabilidade baseado na API da UBER(2020-01-24) Oliveira, Gisliany Lillian Alves de; Silva, Ivanovitch Medeiros Dantas da; ; ; Lima, Luciana Conceição de; ; Oliveira, Luiz Affonso Henderson Guedes de; ; Endo, Patricia Takako;Um dos dilemas globais refere-se à acelerada transição urbana vivida nas últimas décadas. Por isso, é de suma importância a promoção de um desenvolvimento urbano sustentável para acomodar esse crescimento populacional. Nesse sentido, surge o conceito de habitabilidade, um princípio que combina atributos econômicos, sociais e ambientais a fim de promover a qualidade de vida e o bem-estar, e que é amplamente tratado na Nova Agenda Urbana (NAU) adotada pela Organização das Nações Unidas (ONU) em 2016. A NAU define políticas para promover a consolidação dos Objetivos de Desenvolvimento Sustentável (ODS), particularmente o Objetivo 11, focado em um futuro pró-urbano. Para efetivar tais objetivos é preciso acompanhar o andamento da sua implementação através de indicadores, contexto em que a habitabilidade pode se enquadrar como um indicador para esse propósito. Todavia, há um impasse relacionado à indisponibilidade, má qualidade e agregação dos dados existentes, dificultando esse monitoramento. Nesse cenário, este trabalho propõe a criação de um indicador de habitabilidade que, além dos dados tradicionais dos censos e de outros estudos oficiais, também utilize fontes de dados alternativas, como as disponibilizadas pela Uber, um serviço popular de viagens. Presumindo que o comportamento do serviço da Uber possa refletir a dimensão da habitabilidade, uma abordagem orientada à dados (ciência de dados) baseada na análise exploratória e espacial dos dados foi então conduzida, utilizando as Estimativas de Tempo até o Embarque (ETE) da Uber coletadas para o município brasileiro de Natal (RN). Uma estrutura própria de coleta contínua foi utilizada e uma análise do mecanismo de ausências dos dados foi feita para posterior tratamento por meio de uma técnica de imputação múltipla. A abordagem orientada a dados objetiva, por fim, a criação de um indicador composto, de tal modo que esse indicador possa representar, em algum nível, a habitabilidade para a cidade natalense. Em linhas gerais, para criar o indicador mencionado, efetuou-se uma análise multivariada seguida da aplicação de técnicas de ponderação e agregação sobre os dados da Uber e os dados das pesquisas tradicionais. A metodologia proposta foi aplicada em dois diferentes níveis de agregação espacial: Bairros e Unidades de Desenvolvimento Humano (UDH). Os resultados das análises mostraram como o serviço da Uber varia espacialmente e como ele reage a mudanças climáticas, festividades e outros eventos, além de apresentarem as relações desses dados com indicadores sociais e infraestruturais. Observou-se também que diferentes níveis de agregação espacial causam influências sobre as ETE da Uber e seu relacionamento com as variáveis socioeconômicas. Por fim, o indicador proposto foi criado para as UDH, podendo ser aplicado no monitoramento do desenvolvimento sustentável. Concluiu-se ainda que nas regiões administrativas Oeste e Norte de Natal há uma predominância de localidades com os piores indicadores de habitabilidade.Tese Uma abordagem para evolução e reconciliação de linhas de produtos de software clonadas(Universidade Federal do Rio Grande do Norte, 2014-03-31) Lima, Gleydson de Azevedo Ferreira; Fialho, Sergio Vianna; ; http://lattes.cnpq.br/8215124502137579; ; http://lattes.cnpq.br/4986614168117334; Oliveira, Luiz Affonso Henderson Guedes De; ; http://lattes.cnpq.br/7987212907837941; Aranha, Eduardo Henrique da Silva; ; http://lattes.cnpq.br/9520477461031645; Kulesza, Uira; ; http://lattes.cnpq.br/0189095897739979; Borba, Paulo Henrique Monteiro; ; http://lattes.cnpq.br/9395715443254344; Alves, Vander Ramos; ; http://lattes.cnpq.br/7500979195469357Linhas de produtos de software promovem a reutilização em larga escala através do desenvolvimento de famílias de sistemas que: (i) compartilham um núcleo comum de características previamente implementadas; e (ii) permitem a seleção e customização das características variáveis, as quais determinam os comportamentos distintos de cada membro ou produto da família de sistema. Por razões de time-to-market e flexibilidade, a indústria de software tem adotado, com frequência, a técnica de clonagem como mecanismo de criação de produtos ou de novas linhas de produtos. Apesar das suas vantagens, a técnica de clonagem traz dificuldades para a evolução e reconciliação de características de linhas de produto de software devido aos possíveis conflitos de integração das mudanças realizadas no código da linha de produto de software original, denominada Source, e a da linha de produto clonada, denominada Target. Esta tese de doutorado propõe uma abordagem para evolução e reconciliação de produtos clonadas baseada na adoção de técnicas de mineração de repositórios de software. A abordagem promove a identificação de diferentes tipos de conflitos - léxicos, estruturais e semânticos - que podem ocorrer durante a integração de características ou tarefas de desenvolvimento da linha de produto original para a linha de produto clonada. O trabalho apresenta os resultados de um estudo empírico de caracterização dos tipos de conflitos de integração de código em diferentes evoluções de duas linhas de produto de software de sistemas de informação web. Os resultados do estudo demonstram o potencial da abordagem na resolução automática ou semi-automática de vários dos conflitos existentes, reduzindo assim os custos de evolução e reconciliação de linhas de produto de software clonadas.Dissertação Uma abordagem para geração e visualização de regras de associação de acesso a conteúdos de portal de notícias(Universidade Federal do Rio Grande do Norte, 2023-12-05) Salviano, Tayná Arruda Câmara da Silva; Oliveira, Luiz Affonso Henderson Guedes de; https://orcid.org/0000-0003-2690-1563; http://lattes.cnpq.br/7987212907837941; http://lattes.cnpq.br/4101523484615929; Costa, Daniel Gouveia; Silva, Ivanovitch Medeiros Dantas da; https://orcid.org/0000-0002-0116-6489; http://lattes.cnpq.br/3608440944832201Esta dissertação tem como objetivo propor e validar uma abordagem para geração e visualização de regras de associação e regras de sequências obtidas a partir dos dados de histórico de acesso de conteúdo de uma revista brasileira. A abordagem proposta é composta de quatro fases: análise exploratória de dados (EDA- Exploratory Data Analisis), pré-processamento dos dados, geração de regras de associação e sequência e visualização dos resultados. Para geração das regras de associação, foram utilizados os algoritmos Apriori e o FP-Growth. Para a geração de regras de sequência, utilizou-se o algoritmo SPADE. Foram utilizados gráficos de coordenadas paralelas para visualização das regras de associação e grafos para visualização das regras de sequência. Assim, um aspecto destacado da abordagem proposta é a visualização das regras obtidas utilizando-se recursos gráficos para potencializar a análise dos resultados no apoio a decisões de negócio e contribuir com o mapeamento do perfil de acesso dos usuários. A proposta foi validada utilizando-se dados advindos de acesso de usuário de um portal digital de notícias.Dissertação Uma abordagem para manipulação de informações geográficas utilizando Scalable Vectors Graphics(Universidade Federal do Rio Grande do Norte, 2006-02-17) Cabral, Igor Pinheiro de Sales; Gonçalves, Luiz Marcos Garcia; ; http://lattes.cnpq.br/1562357566810393; ; http://lattes.cnpq.br/2299015049616828; Soares, Valéria Gonçalves; ; http://lattes.cnpq.br/0187018118567986; Amaral, Ricardo Farias do; ; http://lattes.cnpq.br/5120081491389865; Brito Júnior, Agostinho de Medeiros; ; http://lattes.cnpq.br/0958617290020120Neste trabalho, propomos um Sistema de Informações Geográficas voltado para a Web que sirva de ferramenta base para o tratamento e estudo de questões relacionadas com o meio-ambiente e gestão de cidades, baseado no uso do padrão Scalable Vector Graphics (SVG) para desenvolvimento gráfico na Web. O projeto utiliza o conceito de criação remota e em tempo real de mapas através do acesso ao banco de dados pelas instruções executadas pelos browsers na rede mundial de computadores. Inicialmente a ênfase será direcionada aos parrachos de Maracajaú, localizado no litoral do Rio Grande do Norte, e logo após a um estudo realizado na região Nordeste da Suíça em que se propõe a substituição do MapServer pelo sistema a ser discutido. Dessa forma, serão debatidos resultados que demonstram a maior capacidade de representação de dados geográficos mediante a utilização de códigos padronizados e fontes abertas, tais como Extensible Markup Language (XML), Document Object Model (DOM), linguagens de script ECMAScript/ JavaScript e Hypertext Preprocessor (PHP), bem como o Sistema de Gerenciamento de Banco de Dados PostgreSQL e sua extensão, o PostGISTese Abordagens com aprendizagem on-line e off-line para detecção, classificação e estimação de falhas em sistemas dinâmicos(Universidade Federal do Rio Grande do Norte, 2024-08-20) Santos, Mailson Ribeiro; Oliveira, Luiz Affonso Henderson Guedes de; https://orcid.org/0000-0003-2690-1563; http://lattes.cnpq.br/7987212907837941; http://lattes.cnpq.br/7242148883405512; Silva, Ivanovitch Medeiros Dantas da; Fernandes, Marcelo Augusto Costa; Munaro, Celso José; Gendriz, Ignacio SanchezEste estudo aborda métodos para detecção, classificação e avaliação da severidade de falhas em sistemas dinâmicos, em resposta à necessidade de monitoramento eficaz em ambientes industriais complexos. Com o objetivo de mitigar erros humanos e identificar falhas em tempo real, utilizam-se abordagens de aprendizado de máquina, tanto off-line quanto on-line. A primeira parte do trabalho utiliza uma metodologia com aprendizado off-line, empregando características selecionadas por sua relevância com base em informações extraídas de uma técnica de Inteligência Artificial Explicável (XAI), com o objetivo de desenvolver modelos eficazes. A Máquina de Vetor de Suporte (SVM) foi utilizada em todas as etapas dessa abordagem. A segunda parte do estudo enfocou uma abordagem com aprendizado on-line, utilizando algoritmos evolutivos em todas as fases. Foram testadas duas abordagens de pré-processamento de dados: uma baseada na relevância das características obtida off-line e a outra usando janelamento temporal nos dados dos sensores. Além disso, uma modificação no algoritmo Typicality and Eccentricity Data Analysis (TEDA) foi proposta para a detecção e classificação de falhas, comparando duas versões do algoritmo para identificar a mais eficaz. Na última fase on-line, o algoritmo AutoCloud foi empregado para identificar a gravidade das falhas. Um aspecto compartilhado entre as abordagens de aprendizado off-line e on-line é o critério sequencial, no qual dados previamente identificados como falhos são empregados na classificação de falhas, enquanto os dados de cada tipo de falha são utilizados separadamente na identificação da gravidade. Para validação das propostas, foi utilizado o benchmark da Case Western Reserve University (CWRU) para falhas em rolamentos. Na abordagem de aprendizado off-line, obtivemos resultados satisfatórios com um número reduzido de características, demonstrando a eficiência e eficácia do modelo proposto. Os resultados da abordagem de aprendizado on-line demonstraram que o algoritmo TEDA Modificado obteve métricas de avaliação superiores em relação ao TEDA Original na detecção de falhas, independentemente da abordagem de pré-processamento adotada. No entanto, a capacidade de classificação foi mais satisfatória quando se utilizou a abordagem de pré-processamento com dados janelados em conjunto com o TEDA Original. Quanto à identificação da gravidade das falhas, a primeira abordagem apresentou resultados satisfatórios, especialmente para falhas de um tipo específico, enquanto a segunda abordagem enfrentou dificuldades, resultando em métricas de avaliação baixas. Comparando as abordagens de aprendizado on-line e off-line, ambas mostraram eficácia semelhante na detecção e classificação de falhas, porém a identificação da gravidade foi mais precisa na abordagem com aprendizado off-line. Conclui-se que ambas as propostas são promissoras.Dissertação Acelerando algoritmos de baixo nível em visão robótica com hardware reconfigurável(Universidade Federal do Rio Grande do Norte, 2011-02-18) Araújo, Gianna Rodrigues de; Gonçalves, Luiz Marcos Garcia; ; http://lattes.cnpq.br/1562357566810393; ; http://lattes.cnpq.br/0664451614573664; Escarcina, Raquel Esperanza Patiño; ; http://lattes.cnpq.br/2187256941320925; Oliveira, José Alberto Nicolau de; ; http://lattes.cnpq.br/2871134011057075; Dantas, Rummenigge Rudson; ; http://lattes.cnpq.br/1868960602254610Um desafio que ainda resta no campo da robótica é como fazer um robô reagir em tempo real a estímulos visuais. Técnicas tradicionais de visão robótica usadas para resolver este problema ainda são muito caras tomando muito tempo quando se usa processadores convencionais. Algoritmos simples com filtragem em imagens ou operações de morfologia matemática podem tomar muito tempo de execução. Pesquisadores têm implementado algoritmos de processamento de imagens em dispositivos de hardware com alto grau de paralelismo, visando diminuir o tempo de processamento nos algoritmos, com bons resultados. Usando técnicas de processamento de imagens implementadas em hardware e um sistema orientado a plataforma que usa o processador Nios II, propomos um método que usa processamento em hardware e programação baseada a eventos, para simplificar sistemas baseados em visão, enquanto que, ao mesmo tempo, conseguimos acelerar algumas partes dos algoritmos usadosDissertação Acoplador e linha de lâmina unilateral e bilateral com substrato fotônico(Universidade Federal do Rio Grande do Norte, 2006-07-06) Brito, Davi Bibiano; Fernandes, Humberto César Chaves; ; http://lattes.cnpq.br/0246709532151067; ; http://lattes.cnpq.br/6208419870320644; Silva, Paulo Henrique da Fonseca; ; http://lattes.cnpq.br/0656625630248917; Silva, Sandro Gonçalves da; ; http://lattes.cnpq.br/6122570451445215; Sousa, Fernando Rangel de; ; http://lattes.cnpq.br/9092018794878372O presente trabalho tem como objetivo caracterizar e utilizar os parâmetros de estruturas planares construídas com linhas de lâminas visando a sua utilização em circuitos, com materiais fotônicos do tipo PBG Photonic Band Gap como substrato, operando nas faixas de ondas milimétricas e ópticas. A teoria PBG será aplicada para a obtenção da permissividade relativa para as polarizações s e p dos substratos compostos de material fotônico PBG. Os parâmetros considerados na caracterização das estruturas são a constante de propagação complexa e a impedância característica, de linhas de lâmina unilaterais e bilaterais, que foram obtidos através da utilização do método da Linha de Transmissão Transversa LTT com o auxílio do Método dos Momentos. Nesse trabalho foi realizado ainda, um estudo do funcionamento do acoplador com linha de lâmina unilateral assimétrica com substrato fotônico. Esta pesquisa abre perspectivas para novos trabalhos nesta moderna área. A análise teórica computacional desse trabalho se mostrou precisa, com comparações de outros trabalhos, podendo ser empregada em outros dispositivos que utilizem a linha de lâmina como estrutura básica, e materiais ópticos. Resultados numérico-computacionais em forma de gráfico em duas e três dimensões para todas as análises realizadas são apresentados, para as estruturas propostas que tem como substratos materiais fotônicos. São apresentadas conclusões e sugestões para a continuidade deste trabalhoDissertação Adaptação de segundo nível como técnica de estimação de parâmetros e sua aplicação ao controle adaptativo por modelo de referência(2018-01-31) Gushiken, Pedro Yochinori; Araújo, Aldayr Dantas de; ; ; Oliveira, Josenalde Barbosa de; ; Silva Júnior, Francisco das Chagas da;Neste trabalho mostramos a técnica de estimação de parâmetros para plantas lineares invariantes no tempo conhecida como adaptação de segundo nível baseada em múltiplos modelos de identificação por regressão linear, tanto para o caso de uma planta de ordem 1 quanto para o caso de uma planta de ordem n onde apenas a entrada e a saída da planta estão disponíveis para medição (SISO). Propomos uma modificação na lei adaptativa da adaptação de segundo nível baseada no acúmulo de informações do transitório. Em todos os casos verificamos por simulação que as estimativas entregues pela adaptação de segundo nível convergem muito mais rapidamente para os valores corretos que as estimativas entregues por modelos de identificação individuais e que a modificação proposta aumenta a velocidade e suaviza a convergência das estimativas. Aplicamos a adaptação de segundo nível com base em modelos de identificação por regressão linear atualizados pelo método do gradiente ao problema do controle adaptativo por modelo de referência (MRAC) de uma planta SISO de ordem 1 e ao caso de uma planta de ordem n e grau relativo unitário, este caso com o gradiente normalizado. Resultados de simulação mostram que o sinal de controle gerado com adaptação de segundo nível produz melhores resultados de rastreamento do modelo de referência quando comparada aos modelos de identificação individuais. Além disso, comparamos o MRAC indireto baseado em adaptação de segundo nível ao Controle Adaptativo por Modelo de Referência e Estrutura Variável (VS-MRAC).Tese Agentes Inteligentes com Foco de Atenção Afetivo em Simulações Baseadas em Agentes(Universidade Federal do Rio Grande do Norte, 2012-08-17) Signoretti, Alberto; Fialho, Sérgio Vianna; Campos, André Mauricio Cunha; ; http://lattes.cnpq.br/7154508093406987; ; http://lattes.cnpq.br/8215124502137579; ; http://lattes.cnpq.br/3763622223707127; Burlamaqui, Aquiles Filgueira de Medeiros; ; http://lattes.cnpq.br/8670475877813913; Canuto, Anne Magaly de Paula; ; http://buscatextual.cnpq.br/buscatextual/visualizacv.do?id=K4790093J8; Ramalho, Geber Lisboa; ; http://lattes.cnpq.br/9783292465422902; Chaimowicz, Luiz; ; http://lattes.cnpq.br/4499928813481251Simulações baseadas em agentes cognitivos podem se tornar tarefas computacionalmente intensivas, especialmente quando o ambiente de simulação é um sistema complexo. Este panorama se torna pior na medida em que restrições de tempo são adotadas. Simulações desse tipo seriam beneficiadas por um mecanismo que melhorasse o modo pelo qual os agentes percebem e reagem a mudanças nesses tipos de ambiente. Ou seja, uma abordagem para melhorar a eficiência (desempenho e acurácia) no processo de decisão de agentes autônomos em uma simulação, seria útil. Em ambientes complexos e repletos de variáveis, é possível que nem todas as informações disponíveis para o agente sejam necessárias para o seu processo de decisão, dependendo, é claro, da tarefa que esteja sendo executada. O agente precisaria filtrar as informações que lhe chegam, assim como nós o fazemos com o nosso foco de atenção. Com a utilização de um foco de atenção, somente as informações importantes ao contexto de execução do agente são percebidas (processadas cognitivamente), o que pode melhorar o processo de decisão. A arquitetura proposta neste trabalho apresenta uma estrutura de agentes cognitivos dividida em duas partes: 1) uma parte principal contendo o raciocínio/planejamento, o conhecimento e o estado afetivo do agente e, 2) um conjunto de comportamentos que serão acionados pelo planejamento com o intuito de atingir os objetivos do agente. Cada um desses comportamentos possui um foco de atenção ajustável dinamicamente durante o tempo de execução do agente, de acordo com a variação do seu estado afetivo. O foco de atenção presente em cada comportamento é dividido em foco qualitativo, o qual é responsável pela qualidade dos dados percebidos, e foco quantitativo, o qual é responsável pela quantidade dos dados percebidos. Desse modo, o comportamento será capaz de filtrar as informações enviadas pelos sensores dos agentes e construir uma lista de elementos, contendo somente as informações necessárias ao agente, dependendo do contexto do comportamento em execução no momento. Com base no mecanismo de foco de atenção humano, o agente também é dotado de um estado afetivo. O estado afetivo do agente é baseado nas teorias humanas da emoção, humor e personalidade. Esse modelo atua como base para o mecanismo de ajuste contínuo do foco de atenção do agente, tanto da parte qualitativa, como da parte quantitativa. Com esse mecanismo, o agente pode ajustar o seu foco de atenção durante a execução do comportamento, de forma a tornar-se mais eficiente perante as mudanças ocorridas no ambiente. A arquitetura proposta pode ser utilizada de forma bastante flexível. O foco de atenção pode trabalhar tanto de forma fixa (onde nem o foco qualitativo e nem o quantitativo variam), quanto com diferentes combinações entre a variação ou não dos focos qualitativo e quantitativo. A arquitetura foi desenvolvida sobre uma plataforma para agentes BDI, mas o seu projeto permite que seja usada em qualquer outro tipo de agente, pois as alterações são feitas apenas no nível da percepção do agente. Para avaliar a contribuição do trabalho, uma série extensa de experimentos foram realizados sobre uma simulação baseada em agentes num cenário de incêndio. Nas simulações, agentes utilizando a arquitetura proposta neste trabalho são comparados com agentes similares (com o mesmo modelo de raciocínio), porém capazes de processar todas as informações que lhes são enviadas pelo ambiente (agentes oniscientes). Intuitivamente, é de se imaginar os agentes oniscientes seriam mais eficiente que os com filtros de percepção, uma vez que eles podem processar todas as opções possíveis antes de tomar uma decisão. Porém, os experimentos mostram que os agentes com foco de atenção podem ser tão eficientes quanto os oniscientes, levando vantagem porém na capacidade de resolverem o mesmo problema em um tempo significativamente menor. Os experimentos indicam, portanto, a eficiência da arquitetura propostaDissertação Ajuste automático e otimização do tempo de espera (Idle time) em bombeio mecânico de petróleo(Universidade Federal do Rio Grande do Norte, 2002-12-10) Barros Filho, Jaime; Alsina, Pablo Javier; Assmann, Benno Waldemar; ; ; http://lattes.cnpq.br/3653597363789712; ; Maitelli, André Laurindo; ; http://lattes.cnpq.br/0477027244297797; Silva, José Felício da; ; http://lattes.cnpq.br/2957228356035337O presente trabalho apresenta proposta de um algoritmo que objetiva o controle e a otimização do tempo de espera a ser aplicado em poços de produção de petróleo equipados com bombeio mecânico. O algoritmo foi totalmente elaborado através de subsídios da literatura existente e de dados coletados de dois poços pilotos de campos de petróleo da área terrestre da Bacia Potiguar. Conceitos de engenharia de petróleo tais como submergência, pancada de fluido, Basic Sediments and Water (BSW), lnflow Performance Relationship (IPR), pressão do reservatório, pressão em fluxo, entre outros, foram incorporados ao algoritmo por um tratamento matemático desenvolvido a partir de um poço típico, para daí ser estendido aos casos gerais. A otimização favorecerá o aproveitamento máximo do potencial de produção do poço com o menor número de ciclos da unidade de bombeio, refletindo diretamente na redução de custos operacionais e do consumo de energia elétricaDissertação Ajuste de controlador PI mmbarcado em CLP baseado em estimativa de robustez(2017-12-22) Rego, Everton José de Castro; Dorea, Carlos Eduardo Trabuco; ; ; Maitelli, André Laurindo; ; Gabriel Filho, Oscar; ; Barros, Péricles Rezende;O controle automático de processos é uma demanda crescente nas indústrias que buscam técnicas que automatizem a sintonia dos sistemas de controle e que garantam eficiência, qualidade e segurança. Este trabalho tem como objetivo implementar um método de avaliação e ressintonia de controladores PI em Controlador Lógico Programável (CLP), a fim de melhorar a robustez do sistema. O método é inspirado em trabalhos já existentes na literatura e possui duas etapas, a primeira etapa é de avaliação de robustez do controlador, em que se estima suas margens de ganho e de fase. Na segunda etapa, os parâmetros do controlador PI são corrigidos para assegurar que os critérios de robustez não sejam violados. Pretendeu-se programar o método diretamente num CLP para que funcione em conjunto com o seu controlador. Inicialmente, resultados de simulações numéricas são apresentados para ilustrar o funcionamento do método. Em seguida, é descrita a implementação do método por meio da programação de CLP. Resultados de experimentos em plantas reais controladas por CLP ilustram a efetividade do método.Dissertação Ajuste de controlador PID por método de autossintonia baseado em estimativa de robustez(2019-07-05) Pontarolo, Luiz André; Dorea, Carlos Eduardo Trabuco; ; ; Maitelli, André Laurindo; ; Gabriel Filho, Oscar;Este trabalho propõe um método de autossintonia de controladores PID, de modo a garantir robustez ao sistema, sendo implementado em Controlador Lógico Programável (CLP) por meio de experimentos do relé, com a possibilidade de ser aplicado em controladores PI-D. O método de autossintonia proposto foi elaborado por meio da adaptação de métodos voltados para controladores PI já existentes, com o objetivo de utilizar poucas estruturas iterativas, permitindo a implementação em CLP, assim como melhorar o desempenho na resposta transitória do sistema. A robustez é obtida pela máxima sensibilidade do sistema, sendo estabelecida pelo usuário. Os experimentos do relé fornecem pontos de resposta em frequência que permitem o cálculo de parâmetros que modificam os termos originais do controlador, de modo a retirar os pontos do interior do círculo de máxima sensibilidade. Os resultados de aplicações em dois CLP, de sistemas didáticos distintos, permitiram a comparação com um método de ajuste de controlador PI existente e a demonstração da eficácia do método.Tese Um algoritmo anticolisão para RFID de larga escala em ambientes ruidosos(Universidade Federal do Rio Grande do Norte, 2020-11-30) Barros Filho, Israel Eduardo de; Silva, Ivanovitch Medeiros Dantas da; ; http://lattes.cnpq.br/3608440944832201; ; http://lattes.cnpq.br/3471133638385883; Viegas, Carlos Manuel Dias; ; http://lattes.cnpq.br/3134700668982522; Costa, Daniel Gouveia; ; http://lattes.cnpq.br/0200709054904002; Muller, Ivan; ; http://lattes.cnpq.br/1522479715721496; Oliveira, Luiz Affonso Henderson Guedes de; ; http://lattes.cnpq.br/7987212907837941A Internet das Coisas Industrial (IIoT) é frequentemente apresentada como um conceito que está mudando significativamente o cenário tecnológico das indústrias, através de procedimentos de automação e identificação de objetos relevantes. Para tanto, problemas de confiabilidade e desempenho devem ser considerados ao se fornecerem os serviços de comunicação previstos. Ao empregar a Identificação por Radiofrequência (RFID) no contexto da IIoT, diversas pesquisas anteriores atuaram para melhorar a eficiência dos seus sistemas de comunicação, geralmente definindo modelos matemáticos para o planejamento e a avaliação da qualidade. No entanto, tais modelos são projetados com base em comunicações livres de erros, o que de fato é irreal quando se considera a natureza propensa às falhas das comunicações sem fio em plantas industriais. Portanto, esta tese propõe um novo algoritmo anticolisão para RFID, juntamente com um modelo formal baseado em Redes de Petri Estocásticas Generalizadas (GSPN) para avaliar as comunicações RFID, modelando diferentes possibilidades de erros entre leitores e etiquetas. Uma vez que essa proposta emprega os parâmetros EPCGlobal UHF Classe 1 Gen2 como referência, que já são adotados pelo protocolo anticolisão Dynamic Frame Slotted Aloha para sistemas RFID passivos, esse modelo pode ser explorado para avaliar o desempenho e a confiabilidade de diferentes protocolos de acesso ao meio RFID ao assumir canais ruidosos, suportando melhores comparações entre diferentes algoritmos e protocolos. Os resultados demonstraram que o algoritmo proposto consegue apresentar melhor resultado em relação aos demais protocolos avaliados, principalmente na presença de canais ruidosos e de um grande número de etiquetas para serem lidas. Os cenários de simulação são definidos para apresentar resultados de confiabilidade e desempenho, ao avaliar as leituras da etiqueta RFID, que são essenciais ao projetar e manter aplicações IIoT.Dissertação Algoritmo eficiente para aquisição de sinais de GPS por software(Universidade Federal do Rio Grande do Norte, 2015-01-29) Silva, Fabrício Costa; Souza, Samuel Xavier de; ; http://lattes.cnpq.br/9892239670106361; ; http://lattes.cnpq.br/6849571199516465; Silveira, Luiz Felipe de Queiroz; ; http://lattes.cnpq.br/4139452169580807; Mota, Francisco das Chagas; ; http://lattes.cnpq.br/1640808531484356; Gurjão, Edmar Candeia; ; http://lattes.cnpq.br/9200464668550566O NAVSTAR/GPS (NAVigation System with Timing And Ranging/Global Po- sitioning System), mais conhecido por GPS, _e um sistema de navegacão baseado em sat_elites desenvolvido pelo departamento de defesa norte-americano em meados de 1970. Criado inicialmente para fins militares, o GPS foi adaptado para o uso civil. Para fazer a localização, o receptor precisa fazer a aquisição de sinais dos satélites visíveis. Essa etapa é de extrema importância, pois é responsável pela detecção dos satélites visíveis, calculando suas respectivas frequências e fases iniciais. Esse processo pode demandar bastante tempo de processamento e precisa ser implementado de forma eficiente. Várias técnicas são utilizadas atualmente, mas a maioria delas colocam em conflito questões de projeto tais como, complexidade computacional, tempo de aquisição e recursos computacionais. Objetivando equilibrar essas questões, foi desenvolvido um método que reduz a complexidade do processo de aquisição utilizando algumas estratégias, a saber, redução do efeito doppler, amostras e tamanho do sinal utilizados, além do paralelismo. Essa estratégia é dividida em dois passos, um grosseiro em todo o espaço de busca e um fino apenas na região identificada previamente pela primeira etapa. Devido a busca grosseira, o limiar do algoritmo convencional não era mais aceitável. Nesse sentido, um novo limiar foi estabelecido baseado na variância dos picos de correlação. Inicialmente, é feita uma busca com pouca precisão comparando a variância dos cinco maiores picos de correlação encontrados. Caso a variância ultrapasse um certo limiar, a região de maior pico torna-se candidata à detecção. Por fim, essa região passa por um refinamento para se ter a certeza de detecção. Os resultados mostram que houve uma redução significativa na complexidade e no tempo de execução, sem que tenha sido necessário utilizar algoritmos muito complexos.