PPGSC - Doutorado em Sistemas e Computação
URI Permanente para esta coleçãohttps://repositorio.ufrn.br/handle/123456789/12058
Navegar
Navegando PPGSC - Doutorado em Sistemas e Computação por Título
Agora exibindo 1 - 20 de 133
- Resultados por página
- Opções de Ordenação
Tese Uma abordagem anotativa para gerência de variabilidade em linhas de processos de software: concepção, implementação e avaliação(Universidade Federal do Rio Grande do Norte, 2013-08-19) Aleixo, Fellipe Araújo; Kulesza, Uira; ; http://lattes.cnpq.br/0189095897739979; ; http://lattes.cnpq.br/9598457318220683; Aranha, Eduardo Henrique da Silva; ; Figueira Filho, Fernando Marques; ; http://lattes.cnpq.br/6874649375434646; Werner, Claudia Maria Lima; ; http://lattes.cnpq.br/9719247117370600; Oliveira Junior, Edson Alves de; ; http://lattes.cnpq.br/8717980588591239A indústria de software encontra-se, nos dias de hoje, em um cenário altamente dinâmico, o qual reflete o mundo dos negócios e a sociedade como um todo. A demanda por sistemas de software é, dessa forma, cada vez mais crescente e visa atender a diferentes domínios. Nesse cenário, onde sistemas de software complexos precisam ser desenvolvidos com um excelente nível de qualidade e consumindo menor quantidade de recursos; aumenta a importância da definição de processos de software. Porém, tais processos necessitam ser devidamente adaptados aos contextos específicos de cada projeto, de forma a garantir a qualidade dos produtos de software desenvolvidos bem como o uso eficaz dos recursos disponíveis. Para que essa adaptação dos processos de software ocorra de forma eficaz, é necessário promover a reutilização de especificações de processos já existentes, bem como experiências e práticas de sucesso passadas. Este trabalho explora a adoção de técnicas de engenharia de linha de produtos de software de forma a promover a gerência de variabilidades de famílias de processos de software. Para um melhor entendimento do problema em questão foi realizada uma revisão sistemática da literatura, a qual identificou um conjunto de abordagens para a gerência de variabilidades em processos de software e suas principais características. Também foi realizada a proposta de uma abordagem anotativa para a gerência de variabilidades em processos de software, bem como um estudo exploratório visando a concretização dessa abordagem e a implementação de um protótipo de ferramenta para auxiliar na aplicação da mesma. A abordagem anotativa proposta foi, então, avaliada e comparada com a abordagem composicional do EPF Composer. Tais avaliações foram conduzidas por meio da realização de estudos empíricos e um experimento controlado. Nos estudos empíricos as abordagens foram avaliadas: (i) qualitativamente de acordo com um conjunto de critérios de análise da especificação de suas variabilidades; e (ii) quantitativamente por meio da comparação de valores obtidos para métricas de modularidade, tamanho e complexidade para as especificações de uma mesma linha de processo usando as abordagens anotativa e composicionais. O experimento controlado teve como objetivo comparar as abordagens anotativa e composicional sob a perspectiva do esforço e entendimento das abordagens quando utilizadas na especificação de variabilidades em uma linha de processos de software. Os estudos evidenciaram diversos benefícios proporcionados pela abordagem anotativa no contexto de linhas de processos de software e seu potencial de integração com abordagens composicionais para auxiliar na modelagem de variabilidades em processos de softwareTese Uma abordagem de apoio à extração da política de tratamento de exceções(2017-02-13) Sena, Demóstenes Santos de; Coelho, Roberta de Souza; Kulesza, Uira; http://lattes.cnpq.br/0189095897739979; http://lattes.cnpq.br/9854634275938452; http://lattes.cnpq.br/3949512835562758; Aranha, Eduardo Henrique da Silva; http://lattes.cnpq.br/9520477461031645; Barbosa, Eiji Adachi Medeiros; http://lattes.cnpq.br/8833409749475821; Medeiros Neto, Francisco Dantas de; http://lattes.cnpq.br/5525562330158282; Almeida, Rodrigo Bonifácio de; http://lattes.cnpq.br/0368311142108150Os mecanismos de tratamento de exceções são recursos fornecidos pelas principais linguagens de programação para auxiliar no desenvolvimento de sistemas robustos. A política de tratamento de exceções corresponde ao conjunto de regras de design do tratamento excepcional e definem os elementos de código (métodos, classes ou pacotes) responsáveis pela sinalização, propagação, captura das exceções e as respectivas ações de tratamento. Alguns estudos empíricos demonstraram que o tratamento inadequado de exceções, consequência da falta da política documentada, é uma possível fonte de defeitos. Por outro lado, devido à natureza implícita dos fluxos de exceções, a identificação e correção dos tratamentos de exceções tornam-se tarefas complexas. Para amenizar os problemas decorrentes do tratamento inadequado devido à falta de documentação do tratamento de exceções, algumas abordagens definiram linguagens de especificação das regras de tratamento com suporte ferramental para auxiliar na definição e checagem das regras. Entretanto, historicamente, as políticas de tratamento de exceções dos sistemas são postergadas ou ignoradas no processo de desenvolvimento. Adicionalmente, nenhuma das abordagens propostas oferece suporte à definição das regras, de forma a auxiliar o arquiteto a extrair as regras a partir da análise de código fonte pré-existente, e este é o objetivo da abordagem apresentada neste trabalho. Para apoiar a execução da abordagem proposta, foi desenvolvida uma ferramenta de análise estática que permite: (i) a coleta dos fluxos excepcionas e das respectivas ações de tratamentos; (ii) a identificação e definição dos agrupamentos, que são os elementos de código que possuem os mesmos comportamentos em relação ao tratamento de exceções; (iii) a extração das regras; e, (iv) a checagem das regras e identificação das causas das violações à política. A abordagem é demonstrada em dois estudos empíricos. No primeiro estudo empírico foram analisadas 656 bibliotecas (libs) Java do repositório central Maven com objetivo de extrair e caracterizar a política de tratamento de exceções destas libs. Este estudo revelou que 80,9% das bibliotecas possuem fluxos excepcionais que implementam pelo menos um anti-pattern do tratamento excepcional. O segundo estudo empírico teve como objetivo investigar os benefícios da extração das regras excepcionais a partir do código pré-existente no processo de definição e checagem da política de tratamento de exceções. Dois sistemas de informação Web (i.e., IProject e SIGAA) foram utilizados neste segundo estudo. Neste estudo pudemos observar que todas as regras reportadas pelos arquitetos foram extraídas pelo suporte ferramental, e que os resultados do processo de extração permitiram que novas regras fossem adicionadas pelos arquitetos. Essas regras adicionadas foram as regras não definidas pelos arquitetos e corresponderam à 57,1% (IProject) e 52,8% (SIGAA/Graduação) das regras da política dos sistemas analisados. O processo de checagem das regras definidas com o apoio da abordagem mostrou que 35,6% e 45,7% dos fluxos excepcionais do IProject e SIGAA/Graduação, respectivamente, violavam alguma das regras de tratamento de exceções.Tese Uma abordagem multiobjetivo para o problema da realização da radioterapia de intensidade modulada(Universidade Federal do Rio Grande do Norte, 2021-08-10) Medeiros, Hudson Geovane de; Goldbarg, Elizabeth Ferreira Gouvea; http://lattes.cnpq.br/2888641121265608; http://lattes.cnpq.br/6075528442511848; Goldbarg, Marco César; http://lattes.cnpq.br/1371199678541174; Rodrigues, Anna Giselle Câmara Dantas Ribeiro; http://lattes.cnpq.br/4440595486888973; Menezes, Matheus da Silva; http://lattes.cnpq.br/7790866637385232; Obal, Thalita Monteiro; http://lattes.cnpq.br/7574246674522809Os algoritmos são parte essencial no planejamento da radioterapia, que, sob o ponto de vista da otimização, pode ser dividido em três sub-problemas. A definição dos ângulos de disparo e o mapa de dosagem para cada ângulo são dois deles. Este trabalho estuda o terceiro problema, que é chamado de problema da realização. Ele consiste em definir uma sequência de configurações para um dispositivo (chamado colimador multilâminas) que corretamente entregará a radiação ao paciente. Um modelo comum para este problema é a decomposição de uma matriz em uma soma ponderada de (0-1)-matrizes, chamadas segmentos, em que cada linha pode apenas ter 1s consecutivos. Cada segmento corresponde a uma configuração do colimador. Outras restrições aos segmentos podem ser também consideradas. O problema abordado neste trabalho possui três objetivos. O primeiro é minimizar a soma de coeficientes associados aos segmentos. O segundo minimiza a quantidade de segmentos. O terceiro minimiza o deslocamento das lâminas. Este trabalho investiga e apresenta algoritmos para duas variantes do problema: irrestrita e restrita por colisão de lâminas. Um novo algoritmo guloso e aleatório – GRA – foi desenvolvido inicialmente para a versão irrestrita e então estendido para a versão restrita. Seus resultados foram comparados a outros algoritmos propostos na literatura, sob os pontos de vista mono e multiobjetivo. No problema irrestrito, os experimentos demonstram que o GRA possui desempenho superior aos demais algoritmos em todos os indicadores analisados. No caso restrito, o GRA apresentou resultados competitivos, sobretudo no segundo objetivo, em que teve o melhor desempenho.Tese AdaptMCloud: uma estratégia para adaptação dinâmica de aplicações Multi-Cloud(Universidade Federal do Rio Grande do Norte, 2015-11-25) Almeida, André Gustavo Duarte de; Batista, Thais Vasconcelos; ; http://lattes.cnpq.br/5521922960404236; ; http://lattes.cnpq.br/1800962258138555; Ferraz, Carlos André Guimarães; ; http://lattes.cnpq.br/7716805104151473; Madeira, Edmundo Roberto Mauro; ; http://lattes.cnpq.br/1870389730408675; Medeiros Neto, Francisco Dantas de; ; http://lattes.cnpq.br/5525562330158282; Cacho, Nélio Alessandro Azevedo; ; http://lattes.cnpq.br/4635320220484649; Kulesza, Uirá; ; http://lattes.cnpq.br/0189095897739979Aplicações Multi-Cloud são compostas de serviços oferecidos por múltiplas plataformas de nuvem, onde o usuário/desenvolvedor tem pleno conhecimento da utilização dessas plataformas. O uso de múltiplas plataformas de nuvem evita os seguintes problemas: (i) vendor lock-in, que consiste na dependência da aplicação de uma determinada plataforma de nuvem, o que é prejudicial no caso de degradação ou falha nos serviços da plataforma, ou até mesmo aumento do preço do uso do serviço; (ii) degradação ou falha da aplicação devido a flutuações da qualidade de serviço (QoS) provida por alguma plataforma de nuvem, ou mesmo devido a falha em algum serviço. No cenário multi-cloud é possível se trocar um serviço em falha ou com problemas de QoS por um equivalente de outra plataforma de nuvem. Para que uma aplicação consiga adotar a perspectiva multi-cloud é necessário criar mecanismos que sejam capazes de selecionar quais serviços de nuvem/plataformas devem ser usados, de acordo com os requisitos determinados pelo programador/usuário. Nesse contexto, as maiores dificuldades em termos de desenvolvimento de tais aplicações abrangem questões como: (i) a escolha de quais serviços e de plataformas de computação em nuvem subjacentes devem ser usadas com base nos requisitos definidos de funcionalidade e de qualidade pelo usuário, (ii) a necessidade de monitorar continuamente as informações dinâmicas (tais como tempo de resposta, disponibilidade, preço, disponibilidade), relacionadas com serviços de nuvem, além da variedade ampla de serviços, e (iii) a necessidade de se adaptar a aplicação no caso de violações de QoS que afetam os seus requisitos. Essa tese de doutorado propõe uma abordagem para adaptação dinâmica de aplicações multi-cloud que se aplica quando um serviço fica indisponível ou quando os requisitos definidos pelo usuário/desenvolvedor apontam que outra configuração multicloud disponível atende de forma mais eficiente. Dessa forma, esse trabalho propõe uma estratégia composta por duas fases. A primeira fase consiste na modelagem da aplicação, que explora a capacidade de representação de similaridades e variabilidades propostas no contexto do paradigma de linhas de produto de software (LPS). Nessa fase é usado um modelo de features estendido para especificar a configuração de serviços de nuvens a ser usado pela aplicação (similaridades) e os diferentes possíveis provedores para cada serviço (variabilidades). Além disso, os requisitos não-funcionais associados aos serviços de nuvem são especificados nesse modelo através de propriedades que descrevem informações dinâmicas sobre esses serviços. A segunda fase consiste em um processo autonômico baseado no loop de controle MAPE-K, que é responsável por selecionar, de forma otimizada, uma configuração multi-cloud que atenda aos requisitos estabelecidos, e que execute a adaptação. A estratégia de adaptação proposta é independente da técnica de programação usada para realizar a adaptação. Nesse trabalho implementamos a estratégia de adaptação usando várias técnicas de programação como programação orientada a aspectos, programação orientada a contexto e programação orientada a componentes e serviços. Com base nas etapas propostas, procuramos avaliar os seguintes itens: (i) se o processo de modelagem e especificação de requisitos não-funcionais é capaz de garantir o efetivo acompanhamento da satisfação do usuário; (ii) se o processo otimizado de seleção apresenta ganhos significativos quando comparado com abordagem sequencial; e (iii) quais técnicas apresentam a melhor relação custo-benefício, quando comparado os esforços para desenvolvimento/modularidade e desempenho.Tese Algebraic semantics and calculi for Nelson's logics(Universidade Federal do Rio Grande do Norte, 2022-02-18) Silva, Thiago Nascimento da; Almeida, João Marcos de; Rivieccio, Umberto; http://lattes.cnpq.br/0597230560325577; https://orcid.org/0000-0003-2601-8164; http://lattes.cnpq.br/3059324458238110; http://lattes.cnpq.br/1083527025772854; Liang, Fey; Flaminio, Tommaso; Busaniche, ManuelaO objetivo desta tese é estudar uma família de lógicas, composta pelas lógicas de Nelson S, lógica construtiva com negação forte N 3, lógica de quasi-Nelson QN e lógica de quasi-Nelson implicativa QN I. Isto é feito de duas maneiras. A primeira é por meio de uma axiomatização via um cálculo de Hilbert e a segunda é por meio de um estudo de algumas propriedades da correspondente quase-variedade de álgebras. A principal contribuição desta tese é demonstrar que essas lógicas se encaixam dentro da teoria das lógicas algebrizáveis. Fazendo uso dessa teoria, os seguintes resultados são demonstrados. No que diz respeito a S, nós introduzimos a primeira semântica algébrica para ela, axiomatizamo-la por meio de um cálculo de Hilbert contendo um número finito de axiomas, e também encontramos uma versão do teorema da dedução para ela. Em relação às lógicas QN e QN I, nós demonstramos que ambas são algebrizáveis com respeito à quasi-variedade de álgebras de quasi-Nelson e à variedade de àlgebras de quasi-Nelson implicativas, respectivamente; demonstramos que não são auto-extensionais; mostramos como a partir delas podemos obter outras lógicas conhecidas e bem estudadas usando extensões axiomáticas, tal como o {→, ∼}-fragmento da lógica intuicionista, o {→, ∼}- fragmento da lógica construtiva de Nelson com negação forte e a lógica clássica, e também explicitamos o termo quaternário que garante a existência de uma versão do teorema da dedução para QN e QN I. Com respeito a N 3, n´os estudamos o papel da identidade de Nelson ((φ ⇒ (φ ⇒ ψ)) ∧ (∼ ψ ⇒ (∼ ψ ⇒ ∼ φ)) ≈ φ ⇒ ψ) em estabelecer propriedades sobre a ordem do reticulado de sua semântica algébrica. Além disso, n´os estudamos os ⟨∧, ∨, ∼, ¬, 0, 1⟩-subredutos das álgebras de quasi-Nelson e fazendo uso de sua representação twist, nós demonstramos que essa correspondência entre objetos pode ser caracterizada como uma equivalência categorial. Por último, vale notar que como QN I é o {→, ∼}-fragmento de QN , alguns resultados que dizem respeito à QN I são facilmente estendíveis à QN.Tese Algoritmo papílio como método de proteção de templates para aumentar a segurança em sistemas de identificação biométricos(Universidade Federal do Rio Grande do Norte, 2014-12-12) Oliveira Filho, Isaac de Lima; Bedregal, Benjamin René Callejas; Canuto, Anne Magaly de Paula; ; http://lattes.cnpq.br/1357887401899097; ; http://lattes.cnpq.br/4601263005352005; ; http://lattes.cnpq.br/1441851293368045; Abreu, Marjory Cristiany da Costa; ; http://lattes.cnpq.br/2234040548103596; Schechter, Luis Menasche; ; http://lattes.cnpq.br/6932497213743411; Schwartz, William Robson; ; http://lattes.cnpq.br/0704592200063682No processo de autenticação/identificação de usuários, existem modelos que podem utilizar senhas, chaves, identificadores pessoais para autenticar um determinado usuário. No entanto, existem outros sistemas que utilizam características biométricas, por exemplo, assinatura, impressão digital, voz, etc, para a mesma finalidade. Contudo, o armazenamento das biometrias pode trazer riscos quanto a consistência e proteção destes dados. Diante deste problema, surge a necessidade de proteger estes bancos de dados biométricos para garantir a integridade e confiabilidade do sistema. Atualmente, existem, dentre vários, dois modelos conhecidos como Fuzzy Commitment e Fuzzy Vault, utilizados na maioria dos processos de proteção de dados biométricos para sistemas de autenticação, porém os mesmos apresentam elementos frágeis no processo de proteção. Logo, melhorar o nível de segurança deste métodos, através de modificações na estrutura, ou mesmo através da inserção de novas camadas de proteção trata-se de um dos objetivos desta tese. Este trabalho, propõe a utilização simultânea de criptografia (Algoritmo de Criptografia Papílio) com os modelos de proteção de templates (Fuzzy Vault e Fuzzy Commitment) em sistemas de identificação baseados em biometria. Além disso, é necessário manter um nível razoável de eficiência destes dados através do uso de concordância de classificação mais elaboradas, conhecidas como comitês. Isto é, pretende-se propor uma nova abordagem de modelo de sistemas de identificação biométrico e através de um comparativo com os modelos originais Fuzzy Vault e Fuzzy Commitment, verificar a melhora apresentada na performance quanto a autenticação e a proteção dos dados biométricos.Tese An automated approach for performance deviation analysis of evolving software systems(Universidade Federal do Rio Grande do Norte, 2015-11-18) Pinto, Felipe Alves Pereira; Kulesza, Uira; ; http://lattes.cnpq.br/0189095897739979; ; http://lattes.cnpq.br/6163607072712192; Cacho, Nelio Alessandro Azevedo; ; http://lattes.cnpq.br/4635320220484649; Batista, Thais Vasconcelos; ; http://lattes.cnpq.br/5521922960404236; Almeida, Eduardo Santana de; ; http://lattes.cnpq.br/8538761803577291; Maia, Marcelo de Almeida; ; http://lattes.cnpq.br/4915659948263445The maintenance and evolution of software systems have become a critical task over the last years due to the diversity and high demand of features, devices and users. The ability to understand and analyze how newly introduced changes impact the quality attributes of the architecture of those software systems is an essential prerequisite for avoiding the deterioration of the engineering quality of them during their evolution. This thesis proposes an automated approach for the deviation analysis of the quality attribute of performance in terms of execution time (response time). It is implemented by a framework that adopts dynamic analysis and mining software repository techniques to provide an automated way to revel potential sources - commits and issues - of performance deviation in scenarios of an evolving software system. The approach defines four phases: (i) preparation - choosing the scenarios and preparing the target releases; (ii) dynamic analysis - determining the performance of scenarios and methods by calculating their execution time; (iii) deviation analysis - processing and comparing the results of the dynamic analysis for different releases; and (iv) repository mining - identifying development issues and commits associated with performance deviation. Several empirical studies have been developed to assess the approach from different perspectives. An initial study shows the feasibility of the approach to support traceability of quality attributes with static analysis. An exploratory study analyzed the usefulness and domain independence of the proposal in automatically identifying source code assets with performance deviation and the changes that have affected them during an evolution. This study was performed using three systems: (i) SIGAA - a web academic management system; (ii) ArgoUML - an UML modeling tool; and (iii) Netty - a network application framework. A third study has performed an evolutionary analysis of applying the approach to multiple releases of Netty, and the web frameworks Wicket and Jetty. It has analyzed twenty-one releases (seven releases of each system) and addressed a total of 57 scenarios. Overall, we have found 14 scenarios with significant performance deviation for Netty, 13 for Wicket, and 9 for Jetty. In addition, the feedback obtained from an online survey with eight developers of Netty, Wicket and Jetty is also discussed. Finally, in our last study, we built a performance regression model in order to indicate the properties of code changes that are more likely to cause performance degradation. We mined a total of 997 commits, of which 103 were retrieved from degraded code assets, 19 from optimized, while 875 had no impact on execution time. Number of days before release and day of week were the most relevant variables of commits that cause performance degradation in our model. The receiver operating characteristic (ROC) area of our regression model is 60%, which means that deciding if a commit will cause performance degradation or not by using the model is 10% better than a random guess.Tese An ensemble online learning-based approach for VNF scaling in the Edge Computing(Universidade Federal do Rio Grande do Norte, 2023-09-15) Silva, Thiago Pereira da; Batista, Thais Vasconcelos; Delicato, Flávia Coimbra; https://orcid.org/0000-0003-3558-1450; http://lattes.cnpq.br/5521922960404236; Lopes, Frederico Araújo da Silva; http://lattes.cnpq.br/9177823996895375; Cacho, Nelio Alessandro Azevedo; Pires, Paulo de FigueiredoRecentemente, foram propostas plataformas de computação de borda (do inglês Edge Computing) para gerenciar aplicações emergentes com alta carga computacional e baixos requisitos de tempo de resposta. De modo a proporcionar mais agilidade e flexibilidade na prestação de serviços e, em simultâneo, reduzir os custos de implantação para os provedores de infraestrutura, tecnologias como a Virtualização das Funções de Rede (NFV, do inglês Network Functions Virtualization) são frequentemente utilizadas em ambientes de produção na borda da rede. NFV promove o desacoplamento de hardware e funções de rede usando tecnologias de virtualização, permitindo que elas funcionem em máquinas virtuais ou contêineres como software. As funções de rede ou mesmo funções de camadas superiores são implementadas como entidades de software chamadas Funções de Rede Virtual (VNFs, do inglês Virtual Network Functions). A integração dos paradigmas de Computação de Borda e NFV, como proposto pelo ETSI MEC, permite a criação de um ecossistema para aplicações 5G. Tal integração permite a criação de cadeias de VNF, representando serviços ponta a ponta para os usuários finais e sua implantação em nós de borda. Uma cadeia de funções de serviço (SFC, do inglês Service Function Chaining) compreende um conjunto de VNFs encadeadas em uma determinada ordem, onde cada VNF pode ser executada em um nó de borda diferente. Os principais desafios neste ambiente dizem respeito ao provisionamento dinâmico e ao desprovisionamento de recursos distribuídos na borda para executar as VNFs e atender às exigências da aplicação, otimizando o custo para o fornecedor da infraestrutura. Este trabalho apresenta uma abordagem híbrida de dimensionamento automático para o dimensionamento dinâmico das VNFs no ambiente de computação de borda. Tal abordagem de autodimensionamento emprega uma técnica de aprendizagem de máquinas em conjunto on-line que consiste no agrupamento de diferentes modelos de aprendizagem de máquinas on-line que preveem a carga de trabalho futura das VNFs. A arquitetura da abordagem proposta segue a abstração do MAPE-K (do inglês Monitor-Analyze-Plan-Execute over a shared Knowledge ) para ajustar dinamicamente o número de recursos em resposta às mudanças de carga de trabalho. Esta abordagem é inovadora porque prevê proativamente a carga de trabalho para antecipar ações de dimensionamento e se comporta de forma reativa quando o modelo de predição não atende a uma qualidade desejada. Além disso, a solução proposta nesse trabalho não requer nenhum conhecimento prévio do comportamento dos dados, o que a torna adequado para uso em diferentes contextos. Esse trabalho também apresenta um algoritmo para dimensionar as instâncias de VNF, utilizando uma estratégia para definir quantos recursos devem ser alocados ou desalocados durante uma ação de dimensionamento. Finalmente, apresentamos uma avaliação do método de aprendizado por agrupamento e do algoritmo proposto, comparando o desempenho das predições e a quantidade de ações de dimensionamentos e violações do Acordo de Nível de Serviço (SLA, do inglês Service Level Agreement).Tese Análise de dinamicidade na seleção de parâmetros de comitê de classificadores(Universidade Federal do Rio Grande do Norte, 2025-04-25) Silva, Jesaias Carvalho Pereira; Canuto, Anne Magaly de Paula; Santos, Araken de Medeiros; http://lattes.cnpq.br/1357887401899097; https://orcid.org/0000-0002-6586-8340; http://lattes.cnpq.br/4068957569470459; Carvalho, Bruno Motta de; Nascimento, Diego Silveira Costa; Silva, Huliane Medeiros da; Oliveira Filho, Isaac de LimaAo longo dos anos, um progresso significativo foi feito no domínio da pesquisa de comitê de classificadores. Vários métodos para aumentar a eficiência foram propostos, aplicáveis a estruturas de comitês de classificadores homogêneos e heterogêneos. Um desafio chave reside em determinar a sua estrutura (hiperparâmetros). Basicamente, a seleção da estrutura do comitê pode ser feita de duas maneiras diferentes, seleção estática e dinâmica. Ao contrário da seleção estática, que independente dos parâmetros usa o mesmo critério para realizar a escolha, a seleção dinâmica define a estrutura do comitê para cada instância de teste. Diferentes métodos de seleção dinâmica têm sido propostos na literatura, principalmente para membros do comitê e atributos da base de dados, mas muito pouco esforço tem sido feito para propor métodos de seleção dinâmica para métodos de combinação, também conhecidos métodos de fusão. Portanto, é importante avaliar o impacto de uma seleção dinâmica de métodos de combinação ou de ambos (métodos e membros) na criação de comitês de classificadores robustos. Este trabalho propõe uma análise exploratória da seleção dinâmica dos principais parâmetros da estrutura de um comitê. Para isso, foram avaliados três cenários diferentes: Comitês completamente estáticos; Comitês parcialmente dinâmicos; e, Comitês completamente dinâmicos. Com o objetivo de analisar os cenários dinâmicos, três métodos de fusão dinâmica foram propostos e utilizados com três métodos de seleção de membros. Cada um se concentra em um enfoque específico: um por região de competência, outro por meta-aprendizado e o último por hipercaixas fuzzy. Por fim, foi realizada uma análise empírica destes três cenários em 30 bases de dados. Os resultados desta pesquisa confirmam que a seleção dinâmica de classificadores e combinadores melhora significativamente a precisão e adaptabilidade dos comitês de classificadores. Métodos completamente dinâmicos, demonstraram desempenho superior em comparação com abordagens parcialmente dinâmicas e estáticas, destacando-se pela capacidade de selecionar os melhores classificadores e métodos de fusão para cada instância de teste. Desta forma, podemos afirmar que os resultados incentivam o desenvolvimento de métodos mais eficientes e escaláveis no campo do aprendizado de máquina.Tese Uma análise de integração de técnicas de seleção dinâmica na construção de um sistema de classificação(Universidade Federal do Rio Grande do Norte, 2021-07-30) Dantas, Carine Azevedo; Canuto, Anne Magaly de Paula; http://lattes.cnpq.br/1357887401899097; http://lattes.cnpq.br/7297410126945681; Abreu, Marjory Cristiany da Costa; 045.749.864-17; Araújo, Daniel Sabino Amorim de; http://lattes.cnpq.br/4744754780165354; Santos, Araken de Medeiros; 007.398.034-09; Nascimento, Diego Silveira Costa; http://lattes.cnpq.br/0237930361350556O uso de técnicas de seleção dinâmica, seja de atributos ou membros de comitês, tem aparecido em diversos trabalhos na literatura como um mecanismo para aumentar a precisão de comitês de classificadores. Individualmente, cada uma dessas técnicas já mostrou os benefícios da sua utilização. O objetivo deste trabalho é melhorar a eficiência dos comitês de classificadores através da utilização de técnicas de seleção dinâmica para a definição da estrutura destes sistemas. Com isso, será possível explorar a utilização dessas duas técnicas de maneira integrada na classificação de uma instância, fazendo com que cada instância seja classificada utilizando um subconjunto próprio de atributos e classificadores. Quando usadas de maneira integrada, devido o uso dos dois processos dinâmicos, acredita-se que o sistema completo possui um elevado tempo de execução. Visando superar essa desvantagem em sua utilização, onde o sistema dinâmico completo será utilizado apenas em determinadas instâncias. Assim, as algumas instâncias seriam classificadas usando todo o sistema dinâmico, enquanto as demais instâncias seriam classificadas utilizando apenas um único classi cador. Em outras palavras, algumas instâncias podem não exigir um nível alto de complexidade do sistema de classificação. Para estas instâncias, um classificador será utilizado. Deste modo, o comitê dinâmico só será utilizado apenas em instâncias consideradas difíceis de classificar. Resultados iniciais mostraram que a integração dessas duas técnicas dinâmicas obteve resultados promissores em termos de acurácia. Por fim, esses resultados não foram significativamente afetados com a adição do critério de decisão, que gerou uma redução bastante expressiva no tempo de processamento total do sistema.Tese Aplicação do operador OWA com meta-heurísticas nos problemas da otimização de ângulo de feixe e da intensidade em IMRT(Universidade Federal do Rio Grande do Norte, 2024-04-26) Cezario, Sidemar Fideles; Goldbarg, Elizabeth Ferreira Gouvea; http://lattes.cnpq.br/2888641121265608; https://orcid.org/0000-0001-9786-7134; http://lattes.cnpq.br/8487580946899407; Fernandes, Islame Felipe da Costa; Menezes, Matheus da Silva; Maia, Silvia Maria Diniz Monteiro; Souza, Thatiana Cunha Navarro deA utilização da radioterapia no tratamento do câncer é de suma importância para o combater essa doença. O desafio reside em atingir a dose mínima prescrita para o tumor, ao mesmo tempo em que se evita a exposição dos órgãos saudáveis a níveis de radiação superiores aos limites permitidos. Um dos principais enfoques terapêuticos nesse campo é a teleterapia de intensidade modulada (IMRT). Esse trabalho se propôs a otimizar o Problema da Otimização de Ângulo de Feixe e a Otimização do Mapa de Fluências utilizando algoritmos meta-heurísticos. São apresentados três algoritmos: algoritmo genético, memético OWA-OMF e memético multimodelos. Todos são utilizados em combinação com modelos de programação matemática. Esses modelos incluem a utilização do operador Ordered Weighted Averaging (OWA). O memético multimodelos utiliza diferentes funções OWA para determinar o melhor mapa de fluência de uma solução. Os algoritmos foram comparados usando um novo indicador de qualidade composto por dois novos índices propostos neste trabalho. Testes estatísticos foram conduzidos para comparar a eficácia desses algoritmos, revelando a superioridade do algoritmo memético multimodelos sobre os demais. Com esses algoritmos, foi possível encontrar soluções clinicamente viáveis para a maioria das instâncias.Tese Um arcabouço cross-layer para controle de sessões multiusuário com alta demanda de recursos em redes IoT softwarizadas(2017-11-29) Silva, Helber Wagner da; Venâncio Neto, Augusto José Venâncio; ; ; Loureiro, Antônio Alfredo Ferreira; ; Cerqueira, Eduardo Coelho; ; Aquino Júnior, Gibeon Soares de; ; Batista, Thais Vasconcelos;As aplicações de missão crítica (AMC) representam um dos casos de uso mais promissores da Internet das Coisas (do inglês, Internet of Things – IoT) ao prometer impactos em áreas vitais, como videovigilância inteligente em ambientes com alta densidade humana, tráfego de veículos autônomos com segurança, cirurgia remota com precisão, dentre muitas outras. As AMC devem explorar o conteúdo disponibilizado por plataformas IoT em cenários de rede IoT softwarizada (IoTS), que nesta tese representa um sistema IoT executando sobre uma infraestrutura de rede cuja arquitetura inclui substrato de rede definida por software para permitir a flexibilidade nas operações de controle. Entretanto, as AMC possuem fortes requisitos de Qualidade de Serviço (do inglês, Quality of Service - QoS), tais como latência, jitter e perdas, além da alta demanda por recursos de rede (e.g., processamento em nós, caminhos e largura de banda nos enlaces) que precisam ser assegurados pela IoTS para garantir eficiência e precisão. A variabilidade e a dinamicidade de requisitos dos serviços nesse cenário são muito elevadas, que podem ir desde a coleta de dados escalares (e.g., sensores ambientais, etc.) até o processamento digital de multimídia (e.g., vídeo e áudio) em tempo real. Nesse cenário de IoTS com AMC sensível a QoS, torna-se necessário um plano de controle que tenha capacidade de prover um serviço de transporte mais refinado com qualidade garantida, de forma otimizada e autônoma. Esta tese vai além do estado da arte ao definir um arcabouço holístico para o controle de sessões multiusuários (agregando múltiplas AMC compartilhando conteúdo de uma plataforma IoT) altamente sensíveis a qualidade em uma IoTS, com métodos refinados para orquestração auto-organizada, controle e gestão de recursos orientados a QoS. O arcabouço, chamado CLASSICO (Cross-LAyer SDN SessIon COntrol), permite acoplar a variabilidade e a dinamicidade da IoTS, alocando dinamicamente recursos para satisfazer requisitos das AMC em termos de largura de banda elevada e latências muito baixas durante todo o tempo de duração da sessão, alavancando substrato das Redes Definidas por Software (do inglês, Software Defined Networks - SDN) para flexibilidade e modularidade. Para alcançar esses objetivos, CLASSICO define um plano de controle cross-layer integrado à IoTS que considera os parâmetros do conteúdo (ao nível de aplicação) requerido pelas AMC para construir e manter sessões multiusuários orientadas a QoS, e induz uma IoTS multiusuário otimizada através do transporte baseado em grupos (ao nível de rede), buscando ao mesmo tempo aumentar a escalabilidade do sistema IoT. Para validação, CLASSICO foi prototipado e avaliado em um testbed real em um caso de uso de vídeo. Os resultados da avaliação revelam os ganhos de CLASSICO em termos de QoS e Qualidade de Experiência (do inglês, Quality of Experience - QoE), em comparação a uma solução baseada em SDN Multicast.Tese Um arcabouço para compartilhamento eficiente de WLANs Wi-Fi por fatiamento de rede no contexto de redes ultra densas 5G(2019-01-29) Carmo, Maxweel Silva; Venâncio Neto, Augusto José; Aguiar, Rui Luis Andrade; ; ; ; Aquino Júnior, Gibeon Soares de; ; Batista, Thais Vasconcelos;O advento de casos de uso inovadores no contexto das redes de quinta geração (5G) tem desafiado as abordagens de redes de comunicação estabelecidas. As demandas por baixa latência, alta disponibilidade de largura de banda, escalabilidade, acesso ubíquo e suporte à conectividade para dispositivos IoT de capacidade limitada são algumas das questões que os provedores de redes precisam enfrentar atualmente. A tecnologia de WLANs WiFi, em decorrência de sua alta densidade nos centros urbanos e capacidade de prover acesso compartilhado via soluções como os hotspots, oferece enormes oportunidades de conectividade aos usuários e dispositivos. Somando-se às redes Wi-Fi os recursos computacionais abundantes da infraestrutura do ISP — próximos portanto dos dispositivos finais —, tem-se uma infraestrutura na borda da rede com grande potencial de suprir as demandas acima mencionadas. Apesar disso, um levantamento do estado da arte identificou que nenhum dos trabalhos relacionados é capaz de articular esta infraestrutura da borda da rede de forma satisfatória. Esta tese tem por objetivo geral propor uma solução capaz de fazer uso do substrato que abrange as redes Wi-Fi de acesso compartilhado, os recursos da infraestrutura do ISP e as redes de acesso que interconectam ambos para oferecer no espaço urbano serviços escaláveis, de atraso reduzido, localizados e pervasivos. A solução proposta, denominada WLAN slIcing SErvice (WISE), faz uso de tecnologias emergentes como as de virtualização de recursos computacionais e de virtualização de rede para fatiar a infraestrutura subjacente de forma a disponibilizá-la em partições capazes de oferecer serviços diferenciados, com isolamento e independência de operação. O WISE expande ainda as capacidades computacionais dos Customer Premise Equipments (CPEs) que compõem as redes Wi-Fi de acesso compartilhado, transformando-os em nós de uma névoa computacional aptos a abrigar parte de suas funcionalidades avançadas e a executar serviços locais virtualizados. O WISE foi avaliado por meio de uma bancada de testes real e demonstrou ser uma solução superior às soluções tradicionais de compartilhamento de redes Wi-Fi.Tese Architectural design of IoT-based healthcare applications(2019-02-08) Barroca Filho, Itamir de Morais; Aquino Júnior, Gibeon Soares de; ; ; Andrade, Rossana Maria de Castro; ; Batista, Thais Vasconcelos; ; Kulesza, Uira; ; Garcia, Vinicius Cardoso;The myriad of connected things promoted by the Internet of Things (IoT) and the data captured by them is making possible the development of applications in various markets, such as transportation, buildings, energy, home, industrial and healthcare. Concerning the healthcare market, it is expected the development of these applications as part of the future, since it can improve e-Health to allow hospitals to operate more efficiently and patients to receive better treatment. The IoT can be the main enabler for distributed healthcare applications, thus having a significant potential to contribute to the overall decrease of healthcare costs while increasing the health outcomes. However, there are a lot of challenges in the development and deployment of this kind of application, such as interoperability, availability, performance, and security. The complex and heterogeneous nature of IoT-based healthcare applications makes its design, development and deployment difficult. It also causes an increase in the development cost, as well as an interoperability problem with the existing systems. To contribute to solve the aforementioned challenges, this thesis aims at improving the understanding and systematization of the IoT-based healthcare applications’ architectural design. It proposes a software reference architecture, named Reference Architecture for IoT-based Healthcare Applications (RAH), to systematically organize the main elements of these applications, its responsibilities and interactions, promoting a common understanding of these applications’ architecture. To establish RAH, a systematic mapping study of existing publications regarding IoT-based healthcare applications was performed, as well the study about quality attributes, tactics, architectural pattern and styles used in software engineering. As a result, RAH presents domain knowledge and software architectural solutions (i.e., architectural patterns and tactics) documented using architectural views. To assess RAH, a case study was performed by instantiating it to design the software architecture of a computational platform based on the Internet of Things (IoT) infrastructure to allow the intelligent remote monitoring of the patient’s health data (biometrics). With this platform, the clinical staff can be alerted of the health events that require immediate intervention and then prevent unwanted complications. Results evidenced that RAH is a viable reference architecture to guide the development of secure, interoperable, available, and efficient IoT-based healthcare applications, bringing contributions for the areas of e-Health and software architecture.Tese ArchWiSeN: uma estratégia baseada em modelos para desenvolvimento de aplicações para redes de sensores e atuadores sem fio(Universidade Federal do Rio Grande do Norte, 2015-03-30) Rodrigues, Taniro Chacon; Delicato, Flávia Coimbra; Batista, Thais Vasconcelos; ; http://lattes.cnpq.br/5521922960404236; ; http://lattes.cnpq.br/5386282151810710; ; http://lattes.cnpq.br/6438516851578298; Cacho, Nélio Alessandro Azevedo; ; http://lattes.cnpq.br/4635320220484649; Souza, José Neuman de; ; http://lattes.cnpq.br/3614256141054800; Pires, Paulo de Figueiredo; ; http://lattes.cnpq.br/1304174767727101Redes de Sensores e Atuadores sem Fio (RSASF) são um dos principais componentes de Sistemas de Computação Ubíqua e possuem aplicações em diferentes domínios do conhecimento humano. Devido à complexidade de programar para este tipo de rede, é necessário que os desenvolvedores conheçam especificidades das plataformas de sensores disponíveis, aumentando a curva de aprendizado para o desenvolvimento de aplicações. Neste trabalho, é proposta uma abordagem de Desenvolvimento Dirigido a Modelos, mais especificamente, baseada em Arquitetura Dirigida a Modelos (MDA, do inglês Model-Driven Architecture), para o desenvolvimento de aplicações para RSASF chamada de ArchWiSeN. Essa abordagem visa facilitar a tarefa dos desenvolvedores, através de: (i) uma linguagem específica de domínio para RSASF; (ii) um processo para o desenvolvimento de aplicações para RSASF; e (iii) uma infraestrutura de software composta de artefatos MDA (PIM, PSM e transformações) para dar suporte a este processo. A ArchWiSeN permite a contribuição direta dos especialistas de domínio no desenvolvimento de aplicações para RSASF, sem a necessidade de conhecimento específico de programação nessas redes, e, ao mesmo tempo, permite que especialistas em redes foquem nas características da sua área de especialidade sem a necessidade de conhecimento do domínio da aplicação. Além disso, a ArchWiSeN tem como objetivo permitir que os desenvolvedores possam expressar e validar, em tempo de projeto, os requisitos funcionais e não funcionais (requisitos de desempenho) de suas aplicações, incorporar serviços oferecidos por plataformas de middleware para RSASF e promover o reúso dos artefatos de software desenvolvidos. Dessa forma, propõe-se nesta Tese uma abordagem que compreende todas as etapas de desenvolvimento para RSASF nos cenários atuais e emergentes através de uma infraestrutura MDA. Por fim, foram realizadas avaliações através de: (i) uma prova de conceito, composta de três cenários distintos, realizada através da infraestrutura MDA e do processo de engenharia de aplicação; (ii) execução de um experimento controlado para comparar a ArchWiSeN com os métodos tradicionais para o desenvolvimento de aplicações para RSASF; (iii) análise do suporte a serviços de middleware para garantir que aplicações para RSASF que utilizam tais serviços possam atingir os seus requisitos através do uso das plataformas de middleware suportadas na ArchWiSeN; e (iv) análise sistemática da ArchWiSeN em termos de características desejadas para uma ferramenta MDA além da comparação com outras ferramentas MDA para RSASF existentes.Tese Uma arquitetura de software baseada em Computação em Névoa para gestão dos registros médicos centrada no paciente(Universidade Federal do Rio Grande do Norte, 2020-11-10) Silva, Cícero Alves da; Aquino Júnior, Gibeon Soares de; ; http://lattes.cnpq.br/1254338144161360; ; http://lattes.cnpq.br/5665889551371243; Venâncio Neto, Augusto José; ; http://lattes.cnpq.br/1467664612924239; Batista, Thais Vasconcelos; ; http://lattes.cnpq.br/5521922960404236; Almeida, André Gustavo Duarte de; ; http://lattes.cnpq.br/1800962258138555; Trinta, Fernando Antônio Mota; ; http://lattes.cnpq.br/8908026219336623O envelhecimento da população mundial e o crescimento do número de pessoas com do-enças crônicas têm aumentado os gastos com atendimento médico. Desse modo, o uso de soluções tecnológicas, inclusive as baseadas em Internet das Coisas, vêm sendo am-plamente adotadas na área médica no intuito de melhorar a saúde dos pacientes. Neste contexto, abordagens baseadas em Computação em Nuvem têm sido adotadas para re-alizar o armazenamento e processamento das informações geradas nessas soluções. No entanto, o uso de Nuvem pode gerar atrasos intoleráveis para aplicações médicas. Assim,o paradigma de Computação em Névoa surgiu como uma alternativa para contornar esse problema, provendo computação e armazenamento mais próximo das fontes de dados. En-tretanto, a gestão dos dados médicos armazenados na Névoa ainda é um desao. Além do mais, características de privacidade, condencialidade e interoperabilidade precisam ser consideradas em abordagens que tenham o objetivo de explorar esta problemática. As-sim, este trabalho dene uma arquitetura de software, baseada em Computação em Névoa, projetada para prover o gerenciamento dos registros médicos centrado no paciente. Estaarquitetura utiliza a tecnologia Blockchain para prover as características de privacidadenecessárias. Nesta tese também descreve-se um estudo de caso que analisou os requisitosde privacidade, condencialidade e interoperabilidade em um cenário de Home Care. Porm, o comportamento do desempenho relacionado ao acesso aos dados gerenciadas naarquitetura proposta foi analisado no cenário mencionado.Tese Arquitetura multiagente baseada em nuvem de partículas para hibridização de metaheurísticas(Universidade Federal do Rio Grande do Norte, 2013-10-25) Souza, Givanaldo Rocha de; Gouvêa, Elizabeth Ferreira; ; http://lattes.cnpq.br/2888641121265608; ; http://lattes.cnpq.br/7293405724205132; Canuto, Anne Magaly de Paula; ; http://buscatextual.cnpq.br/buscatextual/visualizacv.do?id=K4790093J8; Pozo, Aurora Trinidad Ramirez; ; http://lattes.cnpq.br/2815946827655352; Ramos, Iloneide Carlos de Oliveira; ; http://lattes.cnpq.br/0613948277011672; Goldbarg, Marco César; ; http://lattes.cnpq.br/1371199678541174; Delgado, Myriam Regattieri de Biase da Silva; ; http://lattes.cnpq.br/4166922845507601A presente tese propõe uma arquitetura multiagente para hibridização de metaheurísticas, inspirada na técnica de Otimização por Nuvem de Partículas, e tem como principal contribuição a proposta de uma abordagem efetiva para resolução de problemas de otimização combinatória. A escolha da Otimização por Nuvem de Partículas como inspiração deu-se pelo fato desta técnica ser inerentemente multiagente, permitindo explorar os recursos dos sistemas multiagente, tais como as técnicas de aprendizado e cooperação. Na arquitetura proposta, as partículas são agentes autônomos com memória e métodos de decisão e de aprendizagem, utilizando estratégias de busca para se moverem no espaço de soluções. Os conceitos de posição e velocidade, originalmente definidos na Otimização por Nuvem de Partículas, são redefinidos para esta abordagem. A arquitetura proposta foi aplicada ao Problema do Caixeiro Viajante e ao Problema Quadrático de Alocação, realizando experimentos computacionais que comprovaram sua efetividade. Os resultados dos experimentos foram bastante promissores, apresentando desempenho satisfatório, considerando que o potencial da arquitetura proposta ainda não foi totalmente explorado. Em pesquisas futuras, a abordagem proposta será aplicada a problemas de otimização combinatória multiobjetivo, os quais são mais próximos aos problemas do mundo real. No âmbito da pesquisa aplicada, pretende-se trabalhar tanto com alunos em nível de graduação como em nível técnico a aplicação da arquitetura proposta em problemas práticos do mundo realTese Autodimensionamento proativo para elasticidade assertiva de funções de rede virtuais em cadeias de serviço(Universidade Federal do Rio Grande do Norte, 2020-10-23) Jardim, Sandino Barros; Venâncio Neto, Augusto José; Curado, Marília; ; http://lattes.cnpq.br/8221049000925521; ; http://lattes.cnpq.br/1467664612924239; ; http://lattes.cnpq.br/4366909440552005; Canuto, Anne Magaly de Paula; ; http://lattes.cnpq.br/1357887401899097; Bedregal, Benjamin Rene Callejas; ; Bustos, Harold Ivan Angulo;A virtualização de funções de rede é uma tecnologia que propõe desacoplar funções de rede tradicionalmente alocadas sobre hardware especializado e disponibilizá-las como elementos de software com premissa de execução sobre servidores de propósito geral. Tal flexibilização permite a oferta de serviços de rede alocados sobre infraestruturas de nuvem e facilita o estabelecimento de políticas de rede a partir do encadeamento de diferentes funções pelo qual um determinado tráfego deva atravessar para seu cumprimento. A variação da demanda pelos serviços hospedados vai exigir da gestão de recursos o atributo de elasticidade para lidar com objetivos de desempenho, ajustando os recursos computacionais das funções para lidar com aumento de demanda, e custos de operação, evitando provisionamento além da necessidade. Tradicionalmente, a elasticidade é oferecida por abordagens reativas baseadas em limiares, mas apresentam a tendência de aumentarem exponencialmente seu tempo de resposta conforme os recursos se esgotam. Trabalhos recentes têm sugerido abordagens proativas, combinando métodos de aprendizagem de máquina que permitem antecipar as decisões e adequar o máximo possível os recursos à demanda. Tal adequação é crucial para o sucesso de uma solução de elasticidade proativa, viabilizando decisões assertivas de dimensionamento que respondam com agilidade e precisão às variações de demanda e que contribuam para o equilíbrio dos objetivos de custo e desempenho. Esta tese de doutorado apresenta o ARENA, um mecanismo de elasticidade proativa para auto dimensionamento de funções virtualizadas de rede encadeadas auxiliado por predição de demanda baseada em aprendizagem de máquina para maximização da assertividade das decisões de dimensionamento horizontal e vertical.Tese Automações não-supervisionadas na abordagem de seleção dinâmica de atributos baseada na fronteira de pareto(Universidade Federal do Rio Grande do Norte, 2023-08-25) Jesus, Jhoseph Kelvin Lopes de; Canuto, Anne Magaly de Paula; Araújo, Daniel Sabino Amorim de; https://orcid.org/0000-0001-5572-0505; http://lattes.cnpq.br/4744754780165354; http://lattes.cnpq.br/1357887401899097; http://lattes.cnpq.br/8707612770138733; Fontes, Aluisio Igor Rego; Santos, Araken de Medeiros; Carvalho, Bruno Motta deMuitas estratégias de seleção de atributos foram desenvolvidas nas últimas décadas, usando diferentes critérios para selecionar as características mais relevantes. O uso da seleção dinâmica de atributos, entretanto, mostrou que o uso de múltiplos critérios simultaneamente para determinar o melhor subconjunto de atributos para instâncias similares pode fornecer resultados encorajadores. Embora o uso da seleção dinâmica tenha atenuado parte das limitações encontradas em métodos de seleção tradicionais, a utilização exclusiva de critério de avaliação supervisionados e a definição manual da quantidade de grupos a serem utilizados, conduzem a limitações de análises de problemas complexos em cenários não-supervisionados. Neste contexto, esta tese propõe três vertentes da abordagem de seleção dinâmica de atributos baseada na fronteira de pareto, no contexto de pré-processamento e uma vertente no contexto de classificação. A primeira está relacionada com a inclusão de critérios não-supervisionados na versão base do PF-DFS/M. A segunda (PF-DFS/P) e terceira (PF-DFS/A) vertentes são variações da versão base, onde incluem, respectivamente, a automatização parcial e total da definição da quantidade de grupos a serem utilizados no processo de pré-processamento através do uso de um comitê de índices de validação interno. A automatização do hiperparâmetro referente a quantidade de grupos permite que, ao invés da escolha arbitrária, sejam utilizados mecanismos que possam auxiliar pesquisadores a lidar com bases de dados não-rotuladas, ou até mesmo a constituir uma análise sob bases rotuladas. A última vertente propõe a utilização de uma mecanismo de ponderação por agrupamento dinâmico para permitir que ao invés de considerar apenas um grupo de atributos para treinar classificadores e testar instâncias, cada instância possa selecionar uma porção de atributos baseada na proporção da similaridade com todos os grupos de atributos. Nas análises investigativas foram utilizados conjuntos de dados reais e artificiais. Os resultados encontrados nas análises empíricas empregadas nesta tese são promissores, demonstrando que o PF-DFS, com a automatização parcial e total da definição da quantidade de grupos a serem utilizados e a utilização da estratégias de ponderação por agrupamento dinâmico, são capazes de obter resultados superiores aos métodos de seleção de atributos utilizados como base comparativa, bem como quando comparado ao conjunto original de dados.Tese Autômatos fuzzy hesitantes típicos: teoria e aplicações(Universidade Federal do Rio Grande do Norte, 2020-12-08) Costa, Valdigleis da Silva; Bedregal, Benjamin Rene Callejas; Santiago, Regivan Hugo Nunes; ; http://lattes.cnpq.br/7536988783793885; ; http://lattes.cnpq.br/4601263005352005; ; http://lattes.cnpq.br/2633660012976715; Cruz, Anderson Paiva; ; http://lattes.cnpq.br/4553903531932794; Santos, Helida Salles; ; http://lattes.cnpq.br/2096843997457737; Reiser, Renata Hax Sander; ; http://lattes.cnpq.br/3283691152621834Os autômatos fuzzy são uma generalização dos autômatos finitos, que podem modelar computação com incerteza. Nos últimos anos, devido às extensões dos conjuntos fuzzy, diferentes generalizações de autômatos fuzzy tais como autômatos fuzzy intervalares e autômatos fuzzy intuicionistas tem sido apresentadas. Os autômatos fuzzy são uma parte fundamental da teoria da computação fuzzy. Além disso, eles também têm sucesso em aplicações práticas, principalmente no reconhecimento de padrões. Este trabalho apresenta uma nova generalização de autômatos fuzzy baseada nas definições de conjuntos fuzzy hesitantes típicos, a ideia central por trás dessa generalização é trazer para o campo da computação a possibilidade de trabalhar simultaneamente com a incerteza e a hesitação. Assim, esta nova generalização visa possibilitar novas formas de enfrentar problemas que antes não eram facilmente modelados usando apenas incertezas. Além disso, este trabalho mostra maneiras de aplicar esses novos autômatos em problemas de classificação e processamento de imagens.