Programa de Pós-Graduação em Matemática Aplicada e Estatística
URI Permanente desta comunidadehttps://repositorio.ufrn.br/handle/123456789/12034
Navegar
Navegando Programa de Pós-Graduação em Matemática Aplicada e Estatística por Data de Publicação
Agora exibindo 1 - 20 de 122
- Resultados por página
- Opções de Ordenação
Dissertação A teoria da ruína aplicada em um modelo de empresa financeira com risco de crédito(Universidade Federal do Rio Grande do Norte, 2008-03-11) Silva, Jackelya Araújo da; Pereira, André Gustavo Campos; ; http://lattes.cnpq.br/7174877398310072; ; http://lattes.cnpq.br/9595940897662539; Souza, Francisco Antônio Morais de; ; http://lattes.cnpq.br/9477911972635606; Campos, Viviane Simioli Medeiros; ; http://lattes.cnpq.br/5096180173266440Neste trabalho estudamos um novo modelo de risco para uma empresa que é sensível a classicação de risco de crédito, proposto por Yang(2003): Obtemos equações recursivas para a probabilidade de ruína em tempo nito, distribuição do tempo de ruína, sistemas de equações integrais do tipo Volterra para severidade e distribuição conjunta do capital antes e depois da ruínaDissertação Análise e comparação entre algoritmos de percolação(Universidade Federal do Rio Grande do Norte, 2008-07-25) Silva, Isaac Dayan Bastos da; Pereira, Marcelo Gomes; Freitas, Joaquim Elias de; ; http://lattes.cnpq.br/6051109030233375; ; http://lattes.cnpq.br/8115277730238592; ; Medino, Ary Vasconcelos; ; http://lattes.cnpq.br/7296244207920172Nesta dissertação estudamos e comparamos dois algoritmos de percolação, um elaborado por Elias e o outro por Newman e Ziff, utilizando ferramentas teóricas da complexidade de algoritmos e um algoritmo que efetuou uma comparação experimental. Dividimos este trabalho em três capítulos. O primeiro aborda algumas definições e teoremas necessários a um estudo matemático mais formal da percolação. O segundo apresenta técnicas utilizadas para o cálculo estimativo de complexidade de algoritmos, sejam elas: pior caso, melhor caso e caso médio. Utilizamos a técnica do pior caso para estimar a complexidade de ambos algoritmos e assim podermos compará-los. O último capítulo mostra diversas características de cada um dos algoritmos e através da estima- tiva teórica da complexidade e da comparação entre os tempos de execução da parte mais importante de cada um, conseguimos comparar esses importantes algoritmos que simulam a percolaçãoDissertação Modelos de sobrevivência com fração de cura e erro de medida nas covariáveis(Universidade Federal do Rio Grande do Norte, 2008-08-11) Lima, Rafael Ribeiro de; Valença, Dione Maria; ; http://lattes.cnpq.br/7402574019454862; ; Bolfarine, Heleno; ; http://lattes.cnpq.br/8718672213653861; Moreira, Jeanete Alves; ; http://lattes.cnpq.br/4503612429135081Neste trabalho estudamos o modelo de sobrevivência com fração de cura proposto por Yakovlev et al. (1993), fundamentado em uma estrutura de riscos competitivos concorrendo para causar o evento de interese, e a abordagem proposta por Chen et al. (1999), na qual covariáveis são introduzidas para modelar o número de riscos. Estudamos o caso em que covariáveis são medidas com erro, e para a obtenção de estimadores consistentes consideramos a utilização do método do escore corrigido. Um estudo de simulação é realizado para avaliar o comportamento dos estimadores obtidos por este método em amostras finitas. A simulação visa identificar não apenas o impacto sobre os coeficientes de regressão das covariáveis medidas com erro (Mizoi et al. 2007), mas também sobre os coeficientes de covariáveis medidas sem erro. Verificamos também a adequação da distribuição exponencial por partes ao modelo com fração de cura e erro de medida. Ao final, são feitas aplicações do modelo envolvendo conjuntos de dados reaisDissertação Estudo da transformada rápida wavelet e sua conexão com banco de filtros(Universidade Federal do Rio Grande do Norte, 2008-09-17) Barbosa, Francisco Márcio; Freitas, Joaquim Elias de; Pereira, Marcelo Gomes; ; http://lattes.cnpq.br/8115277730238592; ; http://lattes.cnpq.br/6051109030233375; ; Morais, Edemerson Solano Batista de; ; http://lattes.cnpq.br/0594792275724616Neste trabalho apresentamos uma exposição da teoria matemática das wavelets ortogonais de suporte compacto no contexto de análise de multiresolução. Estas wavelets são particularmente atraentes porque conduzem a um algoritmo estável e muito eficiente, isto é, a Transformada Rápida Wavelet (FWT). Um dos nossos objetivos é desenvolver algoritmos eficientes para o calculo dos coeficientes wavelet (FWT) através do algoritmo pirâmidal de Mallat e discutir sua conexão com Banco de Filtros. Estudamos também o conceito de análise de multiresolução, que é o contexto em que wavelets podem ser entendidas e construídas naturalmente, tomando um importante passo na mudança do universo Matemático (Domínio Contínuo) para o Universo da representação (Domínio Discreto).Dissertação Caracterização estatística de processos sísmicos via Distribuição Generalizada de Pareto. Estudo de caso: João Câmara-RN(Universidade Federal do Rio Grande do Norte, 2008-12-05) Silva, Raimundo Nonato Castro da; Lúcio, Paulo Sérgio Marinho; Nascimento, Aderson Farias do; ; http://lattes.cnpq.br/8600906973888297; ; ; http://lattes.cnpq.br/4826440268901561; Medeiros, Walter Eugênio de; ; http://lattes.cnpq.br/2170299963939072; Freitas, Silvia Maria de; ; http://lattes.cnpq.br/3371082476399709O objetivo desse trabalho é fazer uma breve discussão dos métodos de estimação dos parâmetros da distribuição generalizada de Pareto (GPD). Sendo abordadas as seguintes técnicas: máxima verossimilhança (MLE), máxima verossimilhança penalizada (MPLE), métodos dos momentos (moments), Pickands (Pickands), momentos ponderados pela probabilidade: viesado e não-viesado (PWMB, PWMU), divergência média da densidade (MDPD), melhor qualidade do ajuste (MGF), mediana (MED) e o método da máxima entropia (POME), técnica que neste trabalho receberá uma maior atenção. A título de ilustração foram feitos ajustes para a distribuição generalizada de Pareto, para uma seqüência de sismos intraplacas, ocorridos no município de João Câmara, NE Brasil que foi monitorado continuamente durante dois anos (1987 e 1988). Verificou-se que o MLE e o POME foram os métodos mais eficientes, dando basicamente os mesmos erros médios quadráticos. Com base no limiar de 1,5º foi estimado o risco sísmico para o município, sendo estimado o nível de retorno para os sismos de intensidade 1,5º, 2,0º, 2,5º, 3,0º e para o sismo mais intenso já registrado no município, ocorrido em novembro de 1986 que teve a magnitude de 5,2ºDissertação Controle on-line para o número de não-conformidades em um ítem inspecionado(Universidade Federal do Rio Grande do Norte, 2009-03-02) Rodrigues, Renata Mendonça; Medeiros, Pledson Guedes de; Ho, Linda Lee; ; http://lattes.cnpq.br/8761079318223326; ; http://lattes.cnpq.br/5283839079235343; ; http://lattes.cnpq.br/2942698887069695; Lopes, Jaques Silveira; ; http://lattes.cnpq.br/1605698945852448O procedimento usual de controle on-line de processo por atributos consiste em inspecionar um item a cada m itens produzidos. Se o item examinado for conforme, a produção continua; caso contrário pára-se o processo. No entanto, em muitas situações práticas, nem sempre existe interesse em classificar o item como defeituoso ou não defeituoso, mas sim monitorar o número de não-conformidades no item inspecionado. Neste caso, se o número de não-conformidades for superior a um limite de controle, pára-se o processo para o ajuste. A contribuição deste trabalho está em propor um sistema de controle on-line baseado no número de não-conformidades do item inspecionado. Através das propriedades de uma cadeia de Markov ergódica, obteve-se uma expressão analítica do custo médio por item produzido do sistema de controle on-line que pode ser minimizada por dois parâmetros: o intervalo entre inspeções e o limite superior de controle para o número de não-conformidades no item inspecionado. Um exemplo numérico ilustra o procedimento propostoDissertação Modelos de sobrevivência com fração de cura e omissão nas covariáveis(Universidade Federal do Rio Grande do Norte, 2009-03-06) Fonseca, Renata Santana; Valença, Dione Maria; ; http://lattes.cnpq.br/7402574019454862; ; http://lattes.cnpq.br/4215253715507700; Silva, Damião Nóbrega da; ; http://lattes.cnpq.br/3396583371890289; Moreira, Jeanete Alves; ; http://lattes.cnpq.br/4503612429135081; Freitas, Silvia Maria de; ; http://lattes.cnpq.br/3371082476399709Neste trabalho estudamos o modelo de sobreviv^encia com fração de cura proposto por Yakovlev et al. (1993) que possui uma estrutura de riscos competitivos. Covariáveis são introduzidas para modelar o número médio de riscos e permitimos que algumas destas covariáveis apresentem omissão. Consideramos apenas os casos em que as covariáveis omissas são categóricas e as estimativas dos parâmetros são obtidas através do algoritmo EM ponderado. Apresentamos uma série de simulações para confrontar as estimativas obtidas através deste método com as obtidas quando se exclui do banco de dados as observações que apresentam omissão, conhecida como análise de casos completos. Avaliamos também através de simulações, o impacto na estimativa dos parâmetros quando aumenta-se o percentual de curados e de censura entre indivíduos não curados. Um conjunto de dados reais referentes ao tempo até a conclusão do curso de estatística na Universidade Federal do Rio Grande do Norte é utilizado para ilustrar o método.Dissertação Testes escore corrigidos para modelos lineares generalizados no ambiente R(Universidade Federal do Rio Grande do Norte, 2009-05-28) Silva Júnior, Antonio Hermes Marques da; Silva, Damião Nóbrega da; ; http://lattes.cnpq.br/3396583371890289; ; http://lattes.cnpq.br/9570950627171584; Valença, Dione Maria; ; http://lattes.cnpq.br/3396583371890289; Ferrari, Sílvia Lopes de Paula; ; http://lattes.cnpq.br/4552581220981608Correções de Bartlett são procedimentos estatísticos que podem ser usados para melhorar o desempenho de estatísticas cujas distribuições são aproximadas pela qui-quadrado. Uma aplicação destas correções e no aperfeiçoamento do teste escore em modelos lineares generalizados. Entretanto, a forma da correção resultante utiliza operações com matrizes que são formadas por expressões envolvendo derivadas de primeira e segunda ordem da média e da função de variância do modelo, com respeito ao preditor linear. Em razão das di ficuldades para se obter tais expressões, ou até mesmo para modi ficá-las quando se altera os componentes aleatório ou o sistemático do modelo, é que tais correções não têm ainda sido incorporadas nas muitas aplicações do teste Escore. Esta dissertação propõe um programa computacional desenvolvido no software estatístico R para implementar testes escore corrigidos em um dado modelo linear generalizado. Detalhes técnicos e a utilização do programa são discutidos com base na análise de uma série de conjuntos de dados reais encontrados na literatura. Também, são apresentados os resultados de dois experimentos de simulação, em que as vantagens dos testes corrigidos e a versatilidade do programa são avaliadas.Dissertação Aplicaçaõ das técnicas Path-relinking e Vocabulary buiding na melhoria de performance do algoritmo memético para o problema do caixeiro viajante assimétrico(Universidade Federal do Rio Grande do Norte, 2009-07-10) Silva Neto, João Saturnino da; Aloise, Dario José; ; http://lattes.cnpq.br/7266011798625538; ; http://lattes.cnpq.br/7925566521492797; Pereira, Marcelo Gomes; ; http://lattes.cnpq.br/8115277730238592; Lima Júnior, Francisco Chagas de;O presente trabalho propõe estratégias de melhoria em uma bem sucedida metaheur ística evolucionaria para a resolução do Problema do Caixeiro Viajante Assimétrico. Tal procedimento consiste em um algoritmo memético projetado especificamente para esse problema. Essas melhorias têm por base a aplicação de técnicas de otimização conhecidas como Path-Relinking e Vocabulary Building, sendo essa última técnica utilizada de dois modos distintos, com o intuito de avaliar os efeitos de melhoria sobre a metaheurística evolucionária empregada. Os métodos propostos foram implementados na linguagem de programação C++ e os experimentos computacionais foram realizados sobre instâncias disponibilizadas na biblioteca TSPLIB, tornando possível observar que os procedimentos propostos alcançaram êxito nos testes realizadosDissertação Métodos estatisticos em cadeias de Markov(Universidade Federal do Rio Grande do Norte, 2009-08-17) Barbosa, Helenice Lopes; Campos, Viviane Simioli Medeiros; ; http://lattes.cnpq.br/5096180173266440; ; Pereira, André Gustavo Campos; ; http://lattes.cnpq.br/7174877398310072; Lopes, Jaques Silveira; ; http://lattes.cnpq.br/1605698945852448Este trabalho tem como objetivo o estudo do comportamento assintótico da estatística de Pearson (1900), que é o aparato teórico do conhecido teste qui-quadrado ou teste x2 como também é usualmente denotado. Inicialmente estudamos o comportamento da distribuição da estatística qui-quadrado de Pearson (1900) numa amostra {X1, X2,...,Xn} quando n → ∞ e pi = pi0 , 8n. Em seguida detalhamos os argumentos usados em Billingley (1960), os quais demonstram a convergência em distribuição de uma estatística, semelhante a de Pearson, baseada em uma amostra de uma cadeia de Markov, estacionária, ergódica e com espaço de estados finitos SDissertação Percolação em uma rede multifractal(Universidade Federal do Rio Grande do Norte, 2009-08-28) Andrade, Kaline Andreza de França Correia; Pereira, Marcelo Gomes; ; http://lattes.cnpq.br/8115277730238592; ; Soares, Roosewelt Fonseca; ; http://lattes.cnpq.br/0827259395754404; Morais, Edemerson Solano Batista de; ; http://lattes.cnpq.br/0594792275724616Neste trabalho, apresentamos uma coletânea dos principais fractais, observamos suas propriedades, método de construção, e a classificação entre fractais auto-similares, autoafins e fractais aleatórios, comparando-os a elementos da Geometria Euclidiana. Evidenciamos a importância da Geometria Fractal na análise de vários elementos da nossa realidade. Enfatizamos a importância de uma definição adequada de dimensão para estes objetos pois, a tradicional definição de dimensão que conhecemos, não reflete satisfatoriamente as propriedades dos fractais. Como instrumentos para a obtenção dessas dimensões, são apresentados os Métodos de Contagem de Caixas, de Hausdorff-Besicovitch e de Escala. Estudamos o Processo de Percolação na rede quadrada, comparando-o à percolação no objeto Multifractal Qmf. Desta comparação, verifica-se algumas diferenças entre esses dois porcessos: na rede quadrada o número de coordenação c é fixo, em Qmf é variável; cada célula no multifractal Qmf pode afetar de maneira diferente o aglomerado percolante e, o limiar de percolação pc em Qmf, é menor do que na rede quadrada. Analisamos o gráfico do histograma das redes percolantes versus a probabilidade de ocupação p e, dependendo do parâmetro p e do tamanho da rede L , o histograma pode apresentar estatística bimodal. Motramos que se pode estimar a dimensão fractal do aglomerado percolante. Percebemos que o processo de percolação num suporte multifractal está muito próximo à percolação na rede quadrada, além disso, a área dos blocos de Qmf varia e pc é uma função de p, o qual está intimamente ligado a anisotropia do multifractal em estudoDissertação Estimação em modelos de tempo de falha acelerado para dados de sobrevivência correlacionados(Universidade Federal do Rio Grande do Norte, 2009-12-01) Santos, Patrícia Borchardt; Valença, Dione Maria; ; http://lattes.cnpq.br/7402574019454862; ; http://lattes.cnpq.br/3892045241008716; Moreira, Jeanete Alves; ; http://lattes.cnpq.br/4503612429135081; Ortega, Edwin Moises Marcos; ; http://lattes.cnpq.br/7307804984087687Apresentamos neste trabalho dois métodos de estimação para modelos de tempo de falha acelerado com efeito aleatório para tratar de dados de sobrevivência correlacionados. O primeiro método, que está implementado no software SAS, através do procedimento NLMIXED, utiliza a quadratura Gauss-Hermite adaptada para obter a verossimilhança marginalizada. O segundo método, implementado no software livre R, está baseado no método da verossimilhança penalizada para estimar os parâmetros do modelo. No primeiro caso descrevemos os principais aspectos teóricos e, no segundo, apresentamos brevemente a abordagem adotada juntamente com um estudo de simulação para investigar a performance do método. Realizamos uma aplicação dos modelos usando dados reais sobre o tempo de funcionamento de poços petrolíferos da Bacia Potiguar (RN/CE).Dissertação Estimação paramétrica e não-paramétrica em modelos de markov ocultos(Universidade Federal do Rio Grande do Norte, 2010-02-10) Medeiros, Francisco Moisés Cândido de; Pereira, André Gustavo Campos; ; http://lattes.cnpq.br/7174877398310072; ; http://lattes.cnpq.br/2662558366496381; Dorea, Chang Chung Yu; ; http://lattes.cnpq.br/2872011997246923; Souza, Francisco Antônio Morais de; ; http://lattes.cnpq.br/9477911972635606Neste trabalho estudamos os modelos de Markov ocultos tanto em espaço de estados finito quanto em espaço de estados geral. No caso discreto, estudamos os algoritmos para frente e para trás para determinar a probabilidade da sequência observada e, em seguida, estimamos os parâmetros do modelo via algoritmo EM. No caso geral, estudamos os estimadores do tipo núcleo e os utilizamos para conseguir uma sequência de estimadores que converge na norma L1 para a função densidade do processo observadoDissertação Estimador do Tipo Núcleo para Densidades Limites de Cadeias de Markov com Espaço de Estados Geral(Universidade Federal do Rio Grande do Norte, 2010-02-25) Soares, Maria Aparecida da Silva; Campos, Viviane Simioli Medeiros; ; http://lattes.cnpq.br/5096180173266440; ; http://lattes.cnpq.br/1428314401061454; Pereira, André Gustavo Campos; ; http://lattes.cnpq.br/7174877398310072; Martins Neto, Daniele da Silva Baratela; ; http://lattes.cnpq.br/4004596903472944Neste trabalho vamos estudamos a consistência para uma classe de estimadores núcleo de f (.) em cadeias de Markov com espaço de estados geral E c Rd. Este estudo é dividido em duas partes: Na primeira f (.) é uma densidade estacionária de uma cadeia, e no segundo f (x) v (dx) é a distribuição limite de uma cadeia geometricamente ergódicaDissertação Teoria da Ruína em um Modelo de Markov com dois Estados(Universidade Federal do Rio Grande do Norte, 2010-03-19) Silva, Carlos Alexandre Gomes da; Pereira, André Gustavo Campos; ; http://lattes.cnpq.br/7174877398310072; ; http://lattes.cnpq.br/4707327291478702; Campos, Viviane Simioli Medeiros; ; http://lattes.cnpq.br/5096180173266440; Silva, Michelli Karinne Barros da; ; http://lattes.cnpq.br/5153188030285416Neste trabalho, apresentamos uma aplicação da teoria do risco com o seguinte cenário: as mudanças no capital de uma seguradora acontecem em cada instante de tempo e o pagamento de uma indenização ou recebimento de um prêmio é decidido pelo resultado de uma cadeia de Markov de dois estados. Nesta situação calculamos a probabilidade de ruína e o tempo esperado de ruína quando o valor da indenização é um mútiplo do valor do prêmioDissertação Estimativa de expoentes críticos em Percolação(Universidade Federal do Rio Grande do Norte, 2010-03-31) Andrade Neto, Sebastiao Gomes de; Pereira, Marcelo Gomes; ; http://lattes.cnpq.br/8115277730238592; ; http://lattes.cnpq.br/9676324277966822; Bielschowsky, Roberto Hugo; ; http://lattes.cnpq.br/2481613790501364; Soares, Roosewelt Fonseca; ; http://lattes.cnpq.br/0827259395754404; Morais, Edemerson Solano Batista de; ; http://lattes.cnpq.br/0594792275724616Na Teoria de Percolação, funções como a probabilidade de um sítio pertencer ao aglomerado percolante, tamanho médio dos aglomerados, etc. são descritas por meio de leis de potência e expoentes críticos. Esta dissertação faz uso do método chamado Escalonamento de Tamanho Finito para fornecer uma estimativa desses expoentes. A dissertação está dividida em quatro partes. A primeira apresenta de forma rápida os principais resultados da Teoria da Percolação por sítios para dimensão d = 2. Além disso, são definidas algumas quantidades importantes para a determinação dos expoentes críticos e o para o entendimento sobre as transições de fase. A segunda parte apresenta uma introdução sobre o conceito de fractal, dimensão e classificação. Concluída a base do nosso estudo, na terceira parte é mensionada a Teoria de Escala, a qual relaciona os expoentes críticos e as quantidades descritas no Capítulo 2. Na última parte, através do escalonamento de tamanho finito, determinamos os expoentes críticos β e v. A partir desses, usamos as relações de escala as relações descritas no Capítulo anterior para determinar os expoentes críticos restantesDissertação Modelagem dos algorítmos genético simples e simulated annealing por cadeias de Markov(Universidade Federal do Rio Grande do Norte, 2010-04-16) Rosa Neto, José Cecílio; Pereira, André Gustavo Campos; ; http://lattes.cnpq.br/7174877398310072; ; http://lattes.cnpq.br/7356816488415091; Cruz, Juan Alberto Rojas; ; http://lattes.cnpq.br/0061270564581180; Silva, Michelli Karinne Barros da; ; http://lattes.cnpq.br/5153188030285416Os Algoritmos Genético (AG) e o Simulated Annealing (SA) são algoritmos construídos para encontrar máximo ou mínimo de uma função que representa alguma característica do processo que está sendo modelado. Esses algoritmos possuem mecanismos que os fazem escapar de ótimos locais, entretanto, a evolução desses algoritmos no tempo se dá de forma completamente diferente. O SA no seu processo de busca trabalha com apenas um ponto, gerando a partir deste sempre um nova solução que é testada e que pode ser aceita ou não, já o AG trabalha com um conjunto de pontos, chamado população, da qual gera outra população que sempre é aceita. Em comum com esses dois algoritmos temos que a forma como o próximo ponto ou a próxima população é gerada obedece propriedades estocásticas. Nesse trabalho mostramos que a teoria matemática que descreve a evolução destes algoritmos é a teoria das cadeias de Markov. O AG é descrito por uma cadeia de Markov homogênea enquanto que o SA é descrito por uma cadeia de Markov não-homogênea, por fim serão feitos alguns exemplos computacionais comparando o desempenho desses dois algoritmosDissertação Estudo comparativo de gráficos de probabilidade normal para análise de experimentos fatoriais não replicados(Universidade Federal do Rio Grande do Norte, 2010-05-17) Nóbrega, Manassés Pereira; Vivacqua, Carla Almeida; ; http://buscatextual.cnpq.br/buscatextual/visualizacv.do?id=K4763099J8; ; http://lattes.cnpq.br/8379615602204508; Silva, Damião Nóbrega da; ; http://lattes.cnpq.br/3396583371890289; Pinho, André Luís Santos de; ; http://buscatextual.cnpq.br/buscatextual/visualizacv.do?id=K4790599D9; Trinca, Luzia Aparecida; ; http://lattes.cnpq.br/3720489366427955Os experimentos fatoriais 2k são muito utilizados na experimentação industrial. Contudo, quanto maior o número de fatores considerados maior será a quantidade de provas necessárias para a execução de um experimento, e realizar replicações dos tratamentos pode ser inviável, considerando as limitações de recursos e de tempo, tornando tal experimento dispendioso. Nestes casos, s~ao utilizados os fatoriais 2k não replicados. Mas, sem replicaçãoo, não é possível obter uma estimativa direta da variabilidade do erro experimental para se avaliar a signific^ancia dos efeitos. Uma das possíveis soluções para este problema é utilizar os gráfificos normal ou semi-normal dos efeitos. Muitos pesquisadores usam o gráfifico normal, ao passo que outros preferem o semi-normal e, em muitas vezes, para ambos os casos, sem alguma justificativa. A controvérsia sobre o uso destas duas técnicas gráficas é o que motiva a realização do presente trabalho, uma vez que não há registro de procedimento formal ou teste estatístico que indique \qual delas é melhor". A escolha entre os dois gráfificos parece ser uma quest~ao subjetiva. O objetivo central desta dissertação é, então, realizar um estudo comparativo experimental dos gráfificos normal e semi-normal no contexto da análise dos experimentos fatoriais 2k não replicados. Tal estudo consiste na construção de cenários simulados, nos quais o desempenho dos gráfificos em detectar os efeitos significativos e identificar valores discrepantes é avaliado com o intuito de verificar as seguintes questões: Um gráfifico pode ser melhor que o outro? Em que situações? Que informações um gráfifico acrescenta à análise do experimento que possam complementar aquelas fornecidas pelo outro gráfifico? Quais as restrições no uso de cada gráfifico? Com isso, propõe-se confrontar estas duas técnicas; examiná-las simultaneamente a fim de conhecer semelhanças, diferenças ou relações que possam contribuir para a construção de um referencial teórico que sirva como um subsídio para justificar ou auxiliar na decis~ao do pesquisador sobre qual das duas técnicas gráfificas utilizar e o porqu^e deste uso. Os resultados das simulações mostram que o gráfifico semi-normal é melhor para auxiliar no julgamento dos efeitos, ao passo que o gráfifico normal é recomendado para detectar a presença de valores discrepantes nos dadosDissertação Estimadores do tipo núcleo para a densidade de transição de uma cadeia de markov com espaço de estados geral(Universidade Federal do Rio Grande do Norte, 2010-05-21) Cunha, Enai Taveira da; Campos, Viviane Simioli Medeiros; ; http://lattes.cnpq.br/5096180173266440; ; http://lattes.cnpq.br/0353766630177497; Ferreira, Debora Borges; ; http://lattes.cnpq.br/8894486682278789; Gonçalves, Catia Regina; ; http://lattes.cnpq.br/6892954393258300No presente trabalho, estudamos a consistência forte de uma classe de estimadores do tipo núcleo para a densidade de transição de uma cadeia de Markov com espaço de estados geral. A consistência forte do estimador da densidade de transição, foi obtida a partir da consistência forte dos estimadores do tipo núcleo para a densidade marginal da cadeia, , e da consistência forte dos estimadores do tipo núcleo para a densidade conjunta, . Foi considerado que a cadeia é homogênea e uniformemente ergódica com densidade inicial estacionáriaDissertação Predição em modelos de tempo de falha acelerado com efeito aleatório para avaliação de riscos de falha em poços petrolíferos(Universidade Federal do Rio Grande do Norte, 2010-05-28) Carvalho, João Batista; Valença, Dione Maria; ; http://lattes.cnpq.br/7402574019454862; ; http://lattes.cnpq.br/6284053462331771Consideramos técnicas de predição baseadas em modelos de tempo de falha acelerado com efeito aleatório para dados de sobrevivência correlacionados. Além do enfoque bayesiano através do Estimador de Bayes Empírico, também discutimos sobre o uso de um método clássico, o Melhor Preditor Linear Não Viciado Empírico (EBLUP), nessa classe de modelos. Para ilustrar a utilidade desses métodos, fazemos aplicações a um conjunto de dados reais envolvendo tempos entre falhas de equipamentos de poços de petróleo da Bacia Potiguar. Neste contexto, o objetivo é predizer os riscos/probabilidades de falha com a finalidade de subsidiar programas de manutenção preventiva. Os resultados obtidos mostram que ambos os métodos são adequados para prever falhas futuras, proporcionando boas decisões em relação ao emprego e economia de recursos para manutenção preventiva