PPGEE - Mestrado em Engenharia Elétrica e de Computação
URI Permanente para esta coleçãohttps://repositorio.ufrn.br/handle/123456789/12008
Navegar
Navegando PPGEE - Mestrado em Engenharia Elétrica e de Computação por Autor "Aloise, Daniel"
Agora exibindo 1 - 11 de 11
- Resultados por página
- Opções de Ordenação
Dissertação Abordagem heurística baseada em busca em vizinhança variável para o agrupamento balanceado de dados pelo critério da soma mínima das distâncias quadráticas(2016-08-22) Costa, Leandro Rochink; Aloise, Daniel; ; ; Martins, Allan de Medeiros; ; Aloise, Dário José;Após vários avanços na tecnologia de captação e armazenamento de dados e do crescimento de aplicações que provêm novas informações, o número de elementos informacionais disponíveis é enorme tanto em volume quanto em variedade. Com esse aumento na quantidade de informações, a necessidade de entendê-los e resumi-los se tornou cada vez mais urgente. O Agrupamento Balanceado de Dados, do inglês Balanced Clustering, visa encontrar grupos de entidades similares que possuam aproximadamente o mesmo tamanho. Neste trabalho, é proposta uma nova abordagem heurística baseada na metaheurística Busca em Vizinhança Variável, do inglês Variable Neighborhood Search (VNS), e na metodologia Menos é mais, do inglês Less is more approach, para o problema de agrupamento de dados usando o critério da soma mínima das distâncias quadráticas com restrição de balanceamento dos grupos. Os algoritmos encontrados na literatura não são escaláveis ao passo que aumentamos o tamanho do problema para além de 5000 elementos de acordo com experimentos realizados nesta pesquisa. Os experimentos computacionais mostram que o método proposto supera o atual estado da arte neste problema.Dissertação Um algoritmo evolucionário para o problema dinâmico de localização de facilidades com capacidades modulares(2017-06-30) Silva, Allyson Fernandes da Costa; Aloise, Daniel; http://lattes.cnpq.br/5093210888872414; http://lattes.cnpq.br/4085705523195613; Fernandes, Marcelo Augusto Costa; http://lattes.cnpq.br/3475337353676349; Rocha, Caroline Thennecy de Medeiros; http://lattes.cnpq.br/8358112426847555; Coelho, Leandro Callegari; http://lattes.cnpq.br/5085659938072564Problemas de localização buscam determinar as melhores posições onde devem ser instaladas facilidades de modo a atender demandas existentes. Pela vasta aplicabilidade da área, diversas características já foram importadas aos modelos para melhor representar situações práticas. Uma delas generaliza os modelos clássicos para situações em que decisões de localização devem ser tomadas periodicamente. Outra, permite que modelos tratem do dimensionamento das capacidades como uma variável do problema. O Problema Dinâmico de Localização de Facilidades com Capacidades Modulares unifica estas e outras características presentes em problemas de localização num único e generalizado modelo. Este problema foi recentemente formulado na literatura, onde uma abordagem exata foi introduzida e aplicada a instâncias derivadas de um estudo de caso no contexto da exploração de recursos florestais. Neste trabalho será apresentado um método alternativo para resolver o mesmo problema. O método escolhido utiliza a estrutura da metaheurística Algoritmo Genético e a hibridiza com uma rotina de Descida em Vizinhança Variável com três vizinhanças de busca adaptadas de vizinhanças aplicadas a outros problemas de localização. Experimentos atestaram a efetividade da metaheurística híbrida desenvolvida em comparação à aplicação dos métodos puros. Na comparação com o método exato, a heurística se mostrou competente ao chegar a soluções até 0,02% de distância do ótimo na maioria das instâncias testadas.Dissertação Um algoritmo paralelo eficiente de migração reversa no tempo (rtm) 3d com granularidade fina(Universidade Federal do Rio Grande do Norte, 2015-01-30) Assis, Ítalo Augusto Souza de; Souza, Samuel Xavier de; ; http://lattes.cnpq.br/9892239670106361; ; http://lattes.cnpq.br/1790664811439928; Aloise, Daniel; ; http://lattes.cnpq.br/5093210888872414; Maciel, Rosângela Correa; ; http://lattes.cnpq.br/3815748377917013; Pestana, Reynam da Cruz; ; http://lattes.cnpq.br/7927685281122435O algoritmo de migração reversa no tempo (RTM) tem sido amplamente utilizado na indústria sísmica para gerar imagens do subsolo e, assim, reduzir os riscos de exploração de petróleo e gás. Seu uso em larga escala é devido a sua alta qualidade no imageamento do subsolo. O RTM é também conhecido pelo seu alto custo computacional. Por essa razão, técnicas de computação paralela têm sido utilizadas em suas implementações. Em geral, as abordagens paralelas para o RTM utilizam uma granularidade grossa, dividindo o processamento de um subconjunto de tiros sísmicos entre nós de sistemas distribuí- dos. A abordagem paralela com granularidade grossa para o RTM tem se mostrado bastante eficiente uma vez que o processamento de cada tiro sísmico pode ser realizado de forma independente. Todavia, os nós dos sistemas distribuídos atuais são, em geral, equipamentos com diversos elementos de processamento sob uma arquitetura com memória compartilhada. Assim, o desempenho do algoritmo de RTM pode ser consideravelmente melhorado com a utilização de uma abordagem paralela com granularidade fina para o processamento designado a cada nó. Por essa razão, este trabalho apresenta um algoritmo paralelo eficiente de migração reversa no tempo em 3D com granularidade fina utilizando o padrão OpenMP como modelo de programação. O algoritmo de propagação da onda acústica 3D compõe grande parte do RTM. Foram analisados diferentes balanceamentos de carga a fim de minimizar possíveis perdas de desempenho paralelo nesta fase. Os resultados encontrados serviram como base para a implementação das outras fases do RTM: a retropropagação e a condição de imagem. O algoritmo proposto foi testado com dados sintéticos representando algumas das possíveis estruturas do subsolo. Métricas como speedup e eficiência foram utilizadas para analisar seu desempenho paralelo. As seções migradas mostram que o algoritmo obteve um desempenho satisfatório na identificação das estruturas da subsuperfície. Já as análises de desempenho paralelo explicitam a escalabilidade dos algoritmos alcançando um speedup de 22,46 para a propagação da onda e 16,95 para o RTM, ambos com 24 threads.Dissertação Análise de escalabilidade de uma implementação paralela do simulated annealing acoplado(Universidade Federal do Rio Grande do Norte, 2013-03-25) Silva, Kayo Gonçalves e; Souza, Samuel Xavier de; Aloise, Daniel; ; http://lattes.cnpq.br/5093210888872414; ; http://lattes.cnpq.br/9892239670106361; ; http://lattes.cnpq.br/8953461509650063; Medeiros Júnior, Manoel Firmino de; ; http://buscatextual.cnpq.br/buscatextual/visualizacv.do?id=K4781378J1; Martins, Simone de Lima; ; http://lattes.cnpq.br/5202429302236084O presente trabalho analisa o desempenho paralelo de uma implementação do Simulated Annealing Acoplado (CSA, do inglês Coupled Simulated Annealing) para otimização de variáveis contínuas sem restrições. O processamento paralelo é uma forma eficiente de processamento de informação com ênfase na exploração de eventos simultâneos na execução de um software. Ele surge principalmente devido às elevadas exigências de desempenho computacional e à dificuldade em aumentar a velocidade de um único núcleo de processamento. Apesar das CPUs multiprocessadas, ou processadores multicore, serem facilmente encontrados atualmente, diversos algoritmos ainda não são adequados para executar em arquiteturas paralelas. O algoritmo do CSA é caracterizado por um grupo de otimizadores Simulated Annealing (SA) trabalhando em conjunto no refinamento da solução. Cada otimizador SA é executado em uma única thread, e essas executadas por diferentes processadores. Na análise de desempenho e escalabilidade paralela, as métricas investigadas foram: o tempo de execução; o speedup do algoritmo com respeito ao aumento do número de processadores; e a eficiência na utilização de elementos de processamento com relação ao aumento da instância do problema tratado. Além disso, foi verificada a qualidade da solução final. Para o estudo, esse trabalho analisa uma versão paralela do CSA e sua versão serial equivalente. Ambos algoritmos foram analisados sobre 14 funções de referência. Para cada uma dessas funções, o CSA é avaliado utilizando de 2 a 24 otimizadores. Os resultados obtidos são exibidos e comentados observando-se as métricas de análise. As conclusões do trabalho caracterizam o CSA como um bom algoritmo paralelo, seja na qualidade das soluções como na escalabilidade e eficiência paralelaDissertação Extração e Representação de Conhecimento de Séries Temporais de Demanda de Energia Elétrica Usando TSKR(Universidade Federal do Rio Grande do Norte, 2012-09-24) Queiroz, Alynne Conceição Saraiva de; Costa, José Alfredo Ferreira; ; http://lattes.cnpq.br/9745845064013172; ; http://lattes.cnpq.br/3269518216317369; Bastos Filho, Carmelo José Albanez; ; FILHO, Carmelo José Albanez Bastos.; Ramos, Iloneide Carlos de Oliveira; ; http://lattes.cnpq.br/0613948277011672; Aloise, Daniel; ; http://lattes.cnpq.br/5093210888872414A abertura do mercado brasileiro de energia elétrica e a competitividade entre as empresas do setor energético fazem com que a busca por informações úteis e ferramentas que venham a auxiliar na tomada de decisões, aumente por parte das concessionárias. Uma importante fonte de conhecimento para essas concessionárias são as séries temporais de consumo de energia. A identificação de padrões de comportamento e a descrição de eventos se tornam necessárias para a execução de atividades de planejamento, buscando melhorias na qualidade de atendimento e vantagens financeiras. A presente dissertação apresenta uma metodologia baseada em ferramentas de mineração e representação de séries temporais, com o objetivo de extrair conhecimento que relacionam séries de demanda de energia elétrica de diversas subestações interligadas de uma concessionária. O método utilizado explora relações de duração, coincidência e ordem parcial de eventos em séries temporais multidimensionais. Para a representação do conhecimento será utilizada a linguagem proposta por Mörchen (2005) chamada Time Series Knowledge Representation (TSKR). Foi realizado um estudo de caso usando séries temporais de demanda de energia de 8 subestações interligadas por um sistema em anel, que alimenta a região metropolitana de Goiânia-GO, cedidas pela CELG (Companhia Energética de Goiás), permissionária do serviço de distribuição de energia no estado de Goiás (Brasil). Utilizando a metodologia proposta foram extraídos três níveis de conhecimento que descrevem o comportamento do sistema estudado, representando a dinâmica do sistema de forma clara, constituindo-se em uma ferramenta para auxiliar em atividades de planejamentoDissertação Implementação paralela escalável e eficiente do algoritmo simplex padrão em arquitetura multicore(Universidade Federal do Rio Grande do Norte, 2014-01-24) Coutinho, Demetrios Araújo Magalhães; Souza, Samuel Xavier de; ; http://lattes.cnpq.br/9892239670106361; ; http://lattes.cnpq.br/6749444529357582; Aloise, Daniel; ; http://lattes.cnpq.br/5093210888872414; Lopes, Danniel Cavalvante;Este trabalho apresenta uma implementação paralela escalável e eficiente do algoritmo Simplex padrão em arquitetura de processadores multicore para resolver problemas de programação linear de grande escala. Apresenta-se um esquema geral explicando como foi paralelizado cada passo do algoritmo simplex padrão, apontando pontos importantes da implementação paralela. Foram realizadas análises de desempenho através da comparação dos tempos sequenciais utilizando o Simplex tableau e Simplex do CPLEXR da IBM. Os experimentos foram realizados em uma máquina de memória compartilhada com 24 núcleos. A análise de escalabilidade foi feita com problemas de diferentes dimensões, encontrando evidências de que a implementação paralela proposta do algoritmo simplex padrão tem melhor eficiência paralela para problemas com mais variáveis do que restrições. Na comparação com CPLEXR , o algoritmo proposto paralelo obteve uma eficiência de até 16 vezes maiorDissertação Macro SOStream: um algoritmo evolutivo para agrupamento autoorganizado baseado em densidade(Universidade Federal do Rio Grande do Norte, 2021-03-19) Oliveira, Andressa Stéfany Silva de; Oliveira, Luiz Affonso Henderson Guedes de; ; http://lattes.cnpq.br/7987212907837941; ; http://lattes.cnpq.br/3582580885769495; Leite, Daniel Furtado; ; Aloise, Daniel; ; Fernandes, Marcelo Augusto Costa;Situações que geram fluxo contínuo de dados sujeitos a mudança de comportamento ao longo do tempo, como são os casos de tráfego TCP/IP, e-commerce e monitoramento industrial, podem tornar inviável a utilização de algoritmos que possuem estratégias de aprendizagem de máquina off-line. Isto se deve à necessidade de armazenamento dos dados em função do crescimento infindável da geração dos dados e às restrições como memória limitada, impossibilitando um retreinamento do modelo. Para tratar essa classe de problemas, surgiram os algoritmos que possuem a aprendizagem total ou parcialmente on-line. Dentre eles, há os algoritmos evolutivos, os quais têm sido alvo de interesse pelo fato de possuírem a capacidade de se desenvolverem e atualizarem em ambientes desconhecidos, como também a habilidade de detecção de mudanças e desvios dos dados de entrada ao longo do tempo. Diante da vasta gama de possíveis aplicações de algoritmos evolutivos em problemas reais, nesta dissertação propomos um novo algoritmo evolutivo para agrupamento dinâmico de dados denominado de Macro SOStream. Esse algoritmo possui aprendizagem on-line e é baseado em densidade para agrupamento autoorganizável de fluxo de dados. O Macro SOStream tem como origem o algoritmo SOStream, porém aqui foi incorporado o conceito de macroclusters, os quais são formados pelos microclusters. Enquanto os microclusters possuem formas esféricas, os macroclusters têm formas arbitrárias. Ainda, utilizaram-se conjuntos de dados bem estabelecidas na literatura, a métrica de desempenho de clusterização Adjusted Rand Index (ARI) nos experimentos realizados, e é efetuada a medição do tempo médio de execução dos algoritmos com os conjuntos de dados. Os resultados indicaram que o desempenho e tempo de execução médio do algoritmo Macro SOStream é comparável aos do SOStream e do DenStream.Dissertação Novas heurísticas para o agrupamento de dados pela soma mínima de distâncias quadráticas(2017-04-12) Pereira, Thiago Correia; Aloise, Daniel; http://lattes.cnpq.br/5093210888872414; http://lattes.cnpq.br/8859180721390841; Aloise, Dário José; Santi, Everton; http://lattes.cnpq.br/1704949855287036Devido ao grande volume de dados gerados pelo crescimento de aplicações que provêm novas informações, tanto em volume quanto em variedade, técnicas cada vez mais eficientes são exigidas para classificá-los e processá-los. Uma técnica muito utilizada é o agrupamento de dados, cujo objetivo é extrair conhecimento dos dados através da divisão de entidades em subconjuntos homogêneos e/ou bem separados. Critérios podem ser utilizados para expressar a classificação dos dados. Dentre eles, um critério frequentemente utilizado é a soma mínima das distâncias euclidianas quadráticas, do inglês, minimun sum-of-squares clustering (MSSC). Neste critério, entidades são elementos no espaço n-dimensional. O problema de agrupamento de dados pelo MSSC é NP-árduo, logo heurísticas são técnicas extremamente úteis para este tipo de problema. Este trabalho propõe novas heurísticas, baseadas na busca de vizinhanças variáveis gerais, do inglês, general variable neighborhood search (GVNS). Também é proposto neste trabalho, a adaptação da heurística reformulation descent (RD) para o problema MSSC, na forma de duas variantes, de forma inédita na literatura. Os experimentos computacionais mostram que as variantes GVNS propostas neste trabalho apresentam melhores resultados, para instâncias grandes.Dissertação O problema de clustering heterogêneo fuzzy: modelos e heurísticas(2017-01-27) Pinheiro, Daniel Nobre; Aloise, Daniel; ; http://lattes.cnpq.br/5093210888872414; ; http://lattes.cnpq.br/4707924968337142; Fernandes, Eraldo Luis Rezende; ; http://lattes.cnpq.br/5878235526936399; Santi, Everton; ; http://lattes.cnpq.br/1704949855287036Este trabalho propõe formulações para o Problema de Clustering Heterogêneo Fuzzy, assim como um método heurístico de Busca em Vizinhança Variável para resolvê-lo. O Problema de Clustering Heterogêneo Fuzzy é um problema de agrupamento de dados modelado em dois níveis. O primeiro identifica grupos de indivíduos cujas percepções acerca dos objetos envolvidos sejam similares. O segundo nível identifica partições fuzzy de objetos para cada grupo de indivíduos. O segundo nível é baseado no problema das p-medianas, cujo objetivo é particionar um conjunto de objetos em subconjuntos menores e definir um objeto para cada subconjunto como mediana, de modo que a soma das dissimilaridades entre cada objeto e sua mediana seja mínima. O Problema de Clustering Heterogêneo Fuzzy generaliza o problema das p-medianas para ambientes fuzzy, permitindo que os níveis de pertinência de cada objeto em relação a cada cluster sejam fracionários. Essa generalização permite novas interpretações dos resultados, como a identificação de relações simultâneas de objetos com diferentes clusters.Dissertação Proposta de equalizador cego baseado em algoritmos genéticos(2016-07-18) Silva, Caroline Albuquerque Dantas; Fernandes, Marcelo Augusto Costa; ; ; Aloise, Daniel; ; Silveira, Luiz Felipe de Queiroz; ; Ramos, Rodrigo Pereira;Esse trabalho propõe um esquema de otimização convexa, baseada em programação linear e algoritmos genéticos, para equalizadores cegos aplicados a sistemas de comunicações digitais. Ele surgiu da necessidade crescente de melhorias nos sistemas de comunicação no intuito de transportar o máximo de informação possível por um meio físico de forma confiável.O esquema proposto, ELC-GA (Equalizador Linear Cego baseado em Algoritmos Genéticos), é caracterizado por realizar a equalização adaptativa cega do canal em blocos fixos de dados, utilizando como algoritmo adaptativo um algoritmo genético, cuja função objetivo é uma função linear com restrições, globalmente convergente. Entretanto, devido às características aleatórias do sinal modelado com interferência intersimbólica e ruído aditivo branco gaussiano, a função linear utilizada passa a representar uma programação linear estocástica. Nesse sentido, o uso de algoritmos genéticos é particularmente adequado por ser capaz de buscar soluções ótimas percorrendo uma porção considerável do espaço de busca, que corresponde aos vários cenários estocásticos. O trabalho também descreve os detalhes de implementação do esquema proposto e as simulações computacionais realizadas. Na análise de desempenho, os resultados do ELC-GA são comparados aos resultados de uma das mais tradicionais técnicas de equalização cega, o CMA, utilizado como referência dessa análise. Os resultados obtidos são exibidos e comentados segundo as métricas de análise adequadas.As conclusões do trabalho apontam o ELC-GA como uma alternativa promissora para equalização cega devido ao seu desempenho de equalização, que atinge a convergência global num intervalo de símbolos consideravelmente menor que a técnica usada como referência.Dissertação Utilização do problema das k-medianas como critério para o agrupamento de dados semi-supervisionado(2016-12-12) Randel, Rodrigo Alves; Aloise, Daniel; ; http://lattes.cnpq.br/5093210888872414; ; http://lattes.cnpq.br/5740757705550380; Dória Neto, Adrião Duarte; ; http://lattes.cnpq.br/1987295209521433; Lavor, Carlile Campos; ; http://lattes.cnpq.br/2019624495480547Agrupamento de dados é uma poderosa ferramenta para análise automática de dados. Essa técnica se propõe a resolver o seguinte problema: dado um conjunto de entidades, encontrar subconjuntos, denominados clusters, que são homogêneos e/ou bem separados. O maior desafio do agrupamento de dados é encontrar um critério que apresente boa separação de dados em grupos homogêneos, e que estes agrupamentos possam trazer informações úteis ao usuário. Para resolver este problema, é sugerido que o usuário possa fornecer informações prévias a respeito do conjunto de dados que auxiliem/guiem o processo de agrupamento. Realizar o agrupamento de dados utilizando essas informações auxiliares é denominado de agrupamento de dados semi-supervisionado (ADSS). Este trabalho explora o problema de ADSS utilizando um novo modelo: os dados são agrupados através da resolução do problemas das k-medianas. Resultados mostram que essa abordagem foi capaz de agrupar os dados de forma eficiente para problemas de ADSS em diversos domínios diferentes.