Navegando por Autor "Silva, Damião Nóbrega da"
Agora exibindo 1 - 15 de 15
- Resultados por página
- Opções de Ordenação
TCC Aplicação de um modelo de regressão linear aos dados de balneabilidade das praias de Natal entre 2011 e 2015(Universidade Federal do Rio Grande do Norte, 2017-12-07) Silva Neto, Waldemar Alves da; Nunes, Marcus Alexandre; Nunes, Marcus Alexandre; Pinho, André Luís de Santos; Silva, Damião Nóbrega daNeste trabalho, utilizamos dados semanais de contaminação (número de bactérias do tipo \emph{Escherichia coli}) referentes ao período de 2011 a 2015 para descrever as condições de balneabilidade de 15 pontos do litoral de Natal. Para tal, foram utilizados gráficos, tabelas e sumarização de dados, tanto a nível local (cada ponto) quanto a nível geral (todas as praias em conjunto). Os pontos NA-13 (Redinha/Rio Potengi) e NA-15 (Redinha Praia) obtiveram os piores índices de contaminação. O resultado do ponto NA-13 deverá estar atrelado ao fato do Rio Potengi ser o principal captador de águas pluviais da cidade. Já o ponto NA-15 sofre impacto direto das correntes marítimas que empurram as águas oriundas da foz do Rio Potengi para essa área, e do adensamento urbano sem regulamentação na zona norte, além da alta concentração de banhistas e comércios na praia. No sentido contrário, o ponto NA-06 (Via Costeira) obteve os melhores resultados quanto aos níveis de contaminação no período monitorado. Isto provavelmente deve-se às condições peculiares do local. É uma área de mar aberto, com baixo adensamento urbano (somente hotéis), poucos acessos à praia e nenhuma estrutura comercial de bar e restaurante, sendo, portanto, uma área de reduzida presença antrópica. Posteriormente a análise descritiva, ajustamos modelos de regressão linear múltipla e regressão linear simples utilizando como variáveis preditoras, respectivamente, os níveis de precipitação diário nos seis dias anteriores a cada coleta e o volume de chuva acumulada nesses seis dias. A variável resposta foi o número de bactérias contabilizadas nas amostras de água semanais pelo método do número mais provável (NMP). Os modelos não foram satisfatórios, nem se adequaram aos pressupostos necessários para aceitação e utilização dos mesmos para realização de previsões de quantidade de bactérias na água. Concluímos então que para o desenvolvimento de ferramentas estatísticas de previsão de balneabilidade será necessário a utilização de mais variáveis explicativas, além de métodos mais robustsos e que tratem dados com número elevado de zeros, uma vez que a pluviometria na capital assume valores nulos com alta frequência devido ao seu Clima Tropical.TCC Autoavaliação da saúde da população brasileira residente no Nordeste e fatores sociodemográficos: um estudo de associação com base na Pesquisa Nacional de Saúde 2013(Universidade Federal do Rio Grande do Norte, 2018-12-17) Nascimento, Daiane Lima do; Silva, Damião Nóbrega da; Barbosa, Denize Araújo; Castro, Bruno Monte deA autoavaliação de saúde é um indicador subjetivo, mas está associado a estilos de vida, comorbidades e mortalidade. Uma fonte de dados que possibilita a estimação desse indicador para a população brasileira é a Pesquisa Nacional de Saúde, 2013, que se baseia em uma amostra estratificada com seleção de conglomerados em múltiplos estágios. Usando dados desta pesquisa, este trabalho busca testar a hipótese de independência entre o estado de saúde auto-referido e variáveis sociodemográficas na população adulta do Nordeste brasileiro, além de descrever essas associações. A subamostra analisada abrange cerca de 19.419 domicílios permanentes particulares e 18.305 respondentes. Aplicando-se testes de independência incorporando-se a estrutura do plano amostral foram detectadas fortes evidências estatísticas de associação da saúde auto-referida com as variáveis sexo, faixa etária, nível de instrução e situação habitacional e de associação moderada entre o indicador de saúde e raça. Em geral, observa-se que moradores adultos do sexo feminino, que tem mais anos de idade, não possuem instrução ou têm apenas o fundamental incompleto e residem em região rural estão associados à autoavaliação de saúde regular ou ruim/muito ruim. Também, moradores do sexo masculino, com maior escolaridade e que vivem em regiões urbanas estão associados à saúde auto-referida como boa ou muito boa.TCC Avaliação de técnicas de memorização em um teste RAVLT: uma aplicação da análise de covariância(Universidade Federal do Rio Grande do Norte, 2015-12-29) Possati, André; Silva, Damião Nóbrega da; MOREIRA, Jeanete Alves; BARBOSA, Denize AraújoO Teste de Aprendizagem Auditivo Verbal de Rey (RAVLT) é um instrumento de grande utilidade para avaliação clínica de processos de perda de memória. O objetivo principal deste trabalho é avaliar os efeitos de treinamento cognitivo e higiene do sono na memorização de palavras em um teste RAVLT com idosos de 60 a 86 anos, em Natal. Estes indivíduos foram alocados aleatoriamente a quatro tratamentos de interesse: controle, treino cognitivo, higiene do sono e combinação de treino cognitivo com higiene do sono. Dados do número de palavras recordadas e índices de memorização relacionados obtidos após a intervenção da aplicação dos tratamentos são analisados análises de covariância, tomando-se os valores pré-intervenção dessas medidas como covariáveis. Os resultados sugerem que treino cognitivo combinado com higiene do sono pode aumentar o número médio de palavras recordadas na evocação espontânea em relação ao grupo controle. Observa-se, também, que a técnica de análise de covariância é, em geral, mais eficiente que análise de variância para comparar os efeitos dos tratamentos.Dissertação Diferenciais regionais na mortalidade adulta por escolaridade no Brasil em 2010(2018-12-20) Silva Júnior, Walter Pedro; Freire, Flávio Henrique Miranda de Araújo; Silva, Damião Nóbrega da; ; ; ; Turra, Cássio Maldonado; ; Gonzaga, Marcos Roberto;Estudos sobre diferenciais de mortalidade por escolaridade são de grande relevância para a gestão da saúde pública no Brasil. Dado o contexto desigual dos processos de transição demográfica e epidemiológica entre estratos sociais, o objetivo desse trabalho é estimar os diferenciais educacionais na mortalidade adulta (25 a 59 anos) por grandes regiões, sexo e idade em 2010. A literatura tem apontado para uma relação inversa entre a mortalidade e a escolaridade, ou seja, quanto maior a escolaridade menor é o risco de o indivíduo morrer. Além disso, há evidências de que esses gradientes persistem em todas as idades, são maiores entre os homens, diminuem com a idade e sua magnitude difere entre as grandes regiões do país. Enquanto essa temática vem sendo discutida nos Estados Unidos desde a década de 1960, no Brasil os primeiros trabalhos são da década de 2000. Esse atraso é devido, principalmente, à péssima qualidade da variável escolaridade das declarações de óbitos registradas no Sistema de Informação sobre Mortalidade (SIM). Para buscar evidências sobre esses gradientes educacionais, os microdados de óbitos do SIM em 2010 (para os óbitos) e os microdados do censo 2010 (para as quantidades populacionais) são as fontes de dados do estudo. Com isso, a proposta metodológica neste trabalho é realizar duas correções nos dados antes de proceder com as estimativas dos diferenciais educacionais na mortalidade. A primeira é corrigir a incompletitude da variável escolaridade através de métodos de imputação. Os métodos aplicados são: imputação múltipla e ABB – Approximate Bayesian Bootstrap. A segunda tratase da correção de sub-registro dos óbitos, utilizando fatores de correção médios da população geral por UF para corrigir apenas os óbitos de menores escolaridades em cada região. Os resultados em termos das taxas específicas de mortalidade estão em consonância com a literatura. Os riscos de morte são menores entre os indivíduos de alta escolaridade comparados aos de baixa e média escolaridade. Além disso, os diferenciais foram maiores para os homens e tendem a diminuir com a idade. Outro resultado importante é que não há diferenças regionais nos diferenciais de mortalidade segundo a escolaridade do falecido.TCC Estimação de variância em pesquisas por amostragem com dados imputados pelo método Hot-Deck: Uma comparação empírica(Universidade Federal do Rio Grande do Norte, 2019-12-12) Apolinário, Carla de Moraes; Silva, Damião Nóbrega da; Barbosa, Denize Araújo; Pinho, André Luís Santos deEm diversos levantamentos por amostragem, é comum a presença de dados faltantes, que é um problema também denominado de não-resposta. Este problema ocorre devido a possíveis falhas na obtenção de uma parte das informações que deveriam ser coletadas na amostra. Ignorar a não-resposta, analisando-se apenas os dados observados, é uma forma simples de abordar o problema, mas que pode produzir tendenciosidades nos resultados do levantamento. Uma das técnicas para tratamento da não-resposta é a imputação, isto é, a substituição dos dados faltantes por valores escolhidos apropriadamente, visando eliminar ou reduzir as tendenciosidades devido à não-resposta. A partir da imputação, o conjunto de dados é completado para que estimativas válidas dos parâmetros populacionais e das respectivas variâncias possam ser obtidas mais facilmente. Contudo, a validade destas estimativas precisa ser avaliada cuidadosamente, pois em alguns casos a imputação, por si própria, pode também estar sujeita a tendenciosidades de estimação. Neste trabalho, é usado um estudo de simulação de Monte Carlo para avaliar empiricamente propriedades estatísticas de estimadores da média de uma população finita sob mecanismos de não-resposta com dados faltantes completamente aleatórios e com dados faltantes aleatórios. Os estimadores da média populacional usados no estudo correspondem à média dos dados observados entre os respondentes da amostra e à média dos dados após imputação hot-deck, que é um método popular de imputação em Amostragem. O estudo compara também estimadores das variâncias dos métodos baseados nos dados dos respondentes, no tratamento os dados imputados como ser fossem verdadeiros, na aplicação do Jackknife usual, na aplicação do Jackknife de Rao e Shao, na Imputação múltipla e no Bootstrap Bayesiano Aproximado. Os resultados do estudo demonstram, para cada um dos mecanismos de não-resposta, que métodos estimam apropriadamente o parâmetro populacional de interesse e as respectivas variâncias.Dissertação Estudo comparativo de gráficos de probabilidade normal para análise de experimentos fatoriais não replicados(Universidade Federal do Rio Grande do Norte, 2010-05-17) Nóbrega, Manassés Pereira; Vivacqua, Carla Almeida; ; http://buscatextual.cnpq.br/buscatextual/visualizacv.do?id=K4763099J8; ; http://lattes.cnpq.br/8379615602204508; Silva, Damião Nóbrega da; ; http://lattes.cnpq.br/3396583371890289; Pinho, André Luís Santos de; ; http://buscatextual.cnpq.br/buscatextual/visualizacv.do?id=K4790599D9; Trinca, Luzia Aparecida; ; http://lattes.cnpq.br/3720489366427955Os experimentos fatoriais 2k são muito utilizados na experimentação industrial. Contudo, quanto maior o número de fatores considerados maior será a quantidade de provas necessárias para a execução de um experimento, e realizar replicações dos tratamentos pode ser inviável, considerando as limitações de recursos e de tempo, tornando tal experimento dispendioso. Nestes casos, s~ao utilizados os fatoriais 2k não replicados. Mas, sem replicaçãoo, não é possível obter uma estimativa direta da variabilidade do erro experimental para se avaliar a signific^ancia dos efeitos. Uma das possíveis soluções para este problema é utilizar os gráfificos normal ou semi-normal dos efeitos. Muitos pesquisadores usam o gráfifico normal, ao passo que outros preferem o semi-normal e, em muitas vezes, para ambos os casos, sem alguma justificativa. A controvérsia sobre o uso destas duas técnicas gráficas é o que motiva a realização do presente trabalho, uma vez que não há registro de procedimento formal ou teste estatístico que indique \qual delas é melhor". A escolha entre os dois gráfificos parece ser uma quest~ao subjetiva. O objetivo central desta dissertação é, então, realizar um estudo comparativo experimental dos gráfificos normal e semi-normal no contexto da análise dos experimentos fatoriais 2k não replicados. Tal estudo consiste na construção de cenários simulados, nos quais o desempenho dos gráfificos em detectar os efeitos significativos e identificar valores discrepantes é avaliado com o intuito de verificar as seguintes questões: Um gráfifico pode ser melhor que o outro? Em que situações? Que informações um gráfifico acrescenta à análise do experimento que possam complementar aquelas fornecidas pelo outro gráfifico? Quais as restrições no uso de cada gráfifico? Com isso, propõe-se confrontar estas duas técnicas; examiná-las simultaneamente a fim de conhecer semelhanças, diferenças ou relações que possam contribuir para a construção de um referencial teórico que sirva como um subsídio para justificar ou auxiliar na decis~ao do pesquisador sobre qual das duas técnicas gráfificas utilizar e o porqu^e deste uso. Os resultados das simulações mostram que o gráfifico semi-normal é melhor para auxiliar no julgamento dos efeitos, ao passo que o gráfifico normal é recomendado para detectar a presença de valores discrepantes nos dadosTCC Um estudo do desempenho do método de entropia máxima generalizada na identificação de efeitos ativos em experimentos fatoriais sem réplicas(Universidade Federal do Rio Grande do Norte, 2018-06-25) Almeida, Ruanderson Cosme; Vivacqua, Carla Almeida; Pinho, André Luís Santos de; Silva, Damião Nóbrega daPara o estudo da influência de fatores em um processo, uma das abordagens mais empregadas é o experimento fatorial sem réplicas. É comum utilizar gráficos de probabilidade normal para a análise de dados provenientes deste tipo de plano experimental, porém há controvérsias sobre o seu uso, devido à subjetividade e dificuldade de interpretação, especialmente quando a magnitude do efeito é moderada. Os métodos da entropia máxima generalizada e de Lenth são alternativas propostas para evitar essa subjetividade. O objetivo desse trabalho é avaliar o desempenho do método da entropia máxima generalizada para identificar efeitos ativos em experimentos fatoriais sem réplicas. Um estudo de simulação é feito considerando um experimento com 16 tratamentos e diferentes cenários para quantidade de efeitos ativos e suas respectivas magnitudes. Para a avaliação do desempenho do método de entropia máxima generalizada são utilizadas as porcentagens de erro do tipo I e do tipo II em comparação com o método de Lenth. Os resultados da simulação indicam que a abordagem de entropia máxima generalizada facilita a identificação de efeitos ativos de magnitude moderada. Além disso, o desempenho do método permanece praticamente inalterado quando a quantidade de efeitos ativos aumenta.TCC Estudo sobre o uso de análise técnica e XGBoost em operações de day-trade(Universidade Federal do Rio Grande do Norte, 2021-09-01) Medeiros, Augusto Santana Veras de; Nunes, Marcus Alexandre; https://orcid.org/0000-0002-9956-4644; http://lattes.cnpq.br/2698100541879707; http://lattes.cnpq.br/0812166874770894; Pinho, André Luís Santos de; https://orcid.org/0000-0002-2975-4637; http://lattes.cnpq.br/7753762932186347; Silva, Damião Nóbrega da; https://orcid.org/ 0000-0003-3031-0870; http://lattes.cnpq.br/3396583371890289O objetivo deste trabalho é avaliar a capacidade de indicadores da Análise Técnica preverem o comportamento do preço do minicontrato de Dólar Comercial Futuro e do minicontrato do Ibovespa, a partir do uso do XGBoost como modelo de classificação utilizado em operações day-trade. Neste contexto, foram utilizadas variáveis preditoras derivadas das Médias Móveis Aritméticas, Médias Móveis Exponenciais, Moving Average Convergence-Divergence e do Estocástico. Os resultados destas variáveis em um tempo 𝑡 foram utilizados para indicar se o movimento dos preços dos ativos no tempo 𝑡+1 foi de Alta (valorização) ou Baixa (desvalorização). Os modelos de classificação são construídos a partir do XGBoost e avaliados através da Acurácia e do resultado financeiro simulado. O melhor modelo para o minicontrato de Dólar Comercial Futuro apresentou Acurácia de 50,1% e foi capaz de gerar lucro de R$ 11.940, ao mesmo tempo em que o modelo utilizado como seu benchmark gerou prejuízo de R$ 15.135. A Acurácia do melhor modelo para o minicontrato do Ibovespa foi 51,8% e seu resultado financeiro foi um lucro de R$ 10.627, apurado no mesmo período em que o modelo utilizado como seu benchmark gerou prejuízo de R$ 8.769.TCC A incompatibilidade entre aleatorização na experimentação e análise estatística como um possível fator na crise de reprodutibilidade científica(Universidade Federal do Rio Grande do Norte, 2018-12-04) Lima, Thiago Zaqueu; Pinho, André Luís Santos de; Vivacqua, Carla Almeida; Silva, Damião Nóbrega daAs ciências biomédicas tem como objetivo essencial identificar alvos, potencialmente, terapêuticos para o desenvolvimento de novos tratamentos para enfermidades humanas. Entretanto, o êxito translacional tem sido contestado. Além disso, os resultados publicados, em sua maioria, acabam não sendo reproduzidos, o que rende o status de crise de reprodutibilidade. Em geral, os efeitos mostram-se superestimados. Este cenário compromete montantes vultuosos investidos em pesquisa pré-clínica de conclusões equivocadas. Levantamentos recentes têm indicado a displicência com o método científico e a inconsistência estatística como causas da não reprodutibilidade. É digno de nota a ausência da aleatorização nos relatos experimentais. Apesar de raramente empregada nos experimentos pré-clínicos, a aleatorização é fundamental para determinar a distribuição das estatística de teste de um teste de hipótese. Nesse contexto, o presente estudo tem por objetivo investigar os efeitos de desconsiderar restrições da aleatorização sobre as probabilidades de erro tipo I e tipo II. Para estudar o nível de significância, foram simuladas amostras de um experimento fatorial 22 com estrutura de correlação de parcelas subdivididas em diferentes cenários (de número de réplicas, variância do erro da subparcela e correlação distintos). Então, o nível de significância verdadeiro foi estimado como a proporção de amostras geradas sob H0, cuja hipótese nula foi rejeitada. Deste modo, observou-se que desconsiderar a restrição na aleatorização (i.e., analisar como completamente aleatorizado) implica em nível de significância referente ao efeito do fator de parcela maior do que o valor nominal informado pelo teste. Por outro lado, o nível de significância associado ao efeito do fator de subparcela mostra-se menor do que o valor nominal do teste. Como o poder do teste F da ANOVA é uma função do parâmetro de não centralidade e este depende dos fatores controlados na simulação, o poder pôde ser calculado para cada cenário. Deste modo, observou-se que desconsiderar a aleatorização (i.e., analisar como completamente aleatorizado) atribui poder de análise ao efeito da parcela artificialmente maior. Por sua vez, o poder do teste associado à subparcela é menor, quando a aleatorização completa é assumida. Esses resultados foram ratificados por simulação. Deste modo, conclui-se que assumir aleatorização completa diante de estrutura de correlação de parcelas subdivididas aumenta o risco de falso alarme quanto ao efeito do fator de parcela, bem como aumenta a probabilidade de falso negativo do efeito do fator atribuído à subparcela. Assim, por meio desse exemplo, entende-se que a incompatibilidade da análise estatística em relação a aleatorização na execução do experimento configura um fator potencialmente agravante da baixa reprodutibilidade na ciência.Artigo Mdscore: an R package to compute improved score tests in generalized linear models(Foundation for Open Access Statistics, 2014-10) Silva-Júnior, Antonio Hermes M. da; Silva, Damião Nóbrega da; Ferrari, Silvia L. P.Improved score tests are modifications of the score test such that the null distribution of the modified test statistic is better approximated by the chi-squared distribution. The literature includes theoretical and empirical evidence favoring the improved test over its unmodified version. However, the developed methodology seems to have been overlooked by data analysts in practice, possibly because of the difficulties associated with the computationofthemodifiedtest. Inthisarticle, wedescribethemdscorepackagetocompute improved score tests in generalized linear models, given a fitted model by theglm() function inR. The package is suitable for applied statistics and simulation experiments. Examples based on real and simulated data are discussed.Artigo Modelo de regressão Weibull para estudar dados de falha de equipamentos de sub-superfície em poços petrolíferos(Associação Brasileira de Engenharia de Produção, 2010-03) Dantas, Maria Aldilene; Valença, Dione Maria; Freire, Michell Platiny da Silva; Medeiros, Pledson Guedes de; Silva, Damião Nóbrega da; Aloise, Dario JoséEste trabalho apresenta um estudo de confiabilidade em dados relativos ao tempo de vida de poços petrolíferos terrestres da Petrobras, produtores de óleo na Bacia Potiguar (RN/CE). O objetivo do estudo foi, com base em um conjunto de dados sobre ocorrências de falhas, verificar a existência do relacionamento entre o tempo de vida dos poços e algumas de suas características, como método de elevação, nível de produção, BSW (Basic Sediments and Water ), razão gás óleo (RGO), unidade operacional de origem, entre outras. Os dados foram obtidos de um estudo retrospectivo de uma amostra com 450 poços-colunas que se encontravam em funcionamento no período de 2000 a 2006, escolhida de forma a representar todos os poços da bacia RN/CE. Foi realizada uma modelagem probabilística dos dados relativos à primeira falha através do ajuste do modelo de regressão Weibull. O modelo se mostrou apropriado para ajustar os dados e foi possível identificar, através do teste da razão de verossimilhança, quais e de que forma algumas características influenciam o tempo até a falha dos poços.Dissertação Modelos de sobrevivência com fração de cura e omissão nas covariáveis(Universidade Federal do Rio Grande do Norte, 2009-03-06) Fonseca, Renata Santana; Valença, Dione Maria; ; http://lattes.cnpq.br/7402574019454862; ; http://lattes.cnpq.br/4215253715507700; Silva, Damião Nóbrega da; ; http://lattes.cnpq.br/3396583371890289; Moreira, Jeanete Alves; ; http://lattes.cnpq.br/4503612429135081; Freitas, Silvia Maria de; ; http://lattes.cnpq.br/3371082476399709Neste trabalho estudamos o modelo de sobreviv^encia com fração de cura proposto por Yakovlev et al. (1993) que possui uma estrutura de riscos competitivos. Covariáveis são introduzidas para modelar o número médio de riscos e permitimos que algumas destas covariáveis apresentem omissão. Consideramos apenas os casos em que as covariáveis omissas são categóricas e as estimativas dos parâmetros são obtidas através do algoritmo EM ponderado. Apresentamos uma série de simulações para confrontar as estimativas obtidas através deste método com as obtidas quando se exclui do banco de dados as observações que apresentam omissão, conhecida como análise de casos completos. Avaliamos também através de simulações, o impacto na estimativa dos parâmetros quando aumenta-se o percentual de curados e de censura entre indivíduos não curados. Um conjunto de dados reais referentes ao tempo até a conclusão do curso de estatística na Universidade Federal do Rio Grande do Norte é utilizado para ilustrar o método.TCC Predição de aprovação em um curso em tecnologia da Informação no Instituto Metrópole Digital da UFRN: uma aplicação da análise de regressão logística(Universidade Federal do Rio Grande do Norte, 2017-02-10) Carelli, Diego Silva Campos; Silva, Damião Nóbrega da; Silva, Damião Nóbrega da; Barbosa, Denize Araújo; Pereira, Marcelo BourguignonUm indicador comum de rendimento escolar em processos de aprendizagem educacional é a taxa de alunos aprovados. Relacionar esta taxa com características dos alunos pode fornecer um meio para compreender o processo de aprovação e apontar caminhos para melhorar o rendimento dos alunos. Neste trabalho, a análise de regressão logística é aplicada para modelar a probabilidade de aprovação de 1.270 estudantes em um curso técnico do Instituto Metrópole Digital da Universidade Federal do Rio Grande do Norte. O logito da probabilidade de aprovação é estimado por uma combinação linear envolvendo efeitos principais das variáveis sexo, idade, número de faltas no curso, argumento no exame de admissão na instituição, duração do curso de ensino médio e instrução do pai do aluno, além das interações entre sexo e idade, entre sexo e número de faltas e entre idade e número de faltas. A adequabilidade do modelo é confirmada pela estatística de Hosmer-Lemeshow, análise dos resíduos e análises de medidas de diagnósticos. Também, o modelo apresenta especifidade de 84,3%, sensibilidade de 94,2%, taxa global de classificação correta de 89,2% e área sob a curva ROC igual a 0,956, sugerindo uma elevada capacidade preditiva. Em linhas gerais, mantendo-se fixos os efeitos das outras variáveis, observa-se que a chance de aprovação estimada pelo modelo: (i) cresce com o aumento da idade entre os alunos do sexo masculino; (ii) diminui com o incremento do número de faltas, principalmente entre estudantes do sexo feminino; (iii) cresce com o aumento do argumento de entrada na instituição; (iv) é menor entre aqueles que não cursam o ensino médio ou que cursam o ensino médio mas não concluíram ainda do que a chance de aprovação dos alunos que levaram três anos ou menos para concluir o ensino médio; (v) é menor entre aqueles cuja instrução do pai é ensino superior completo, desconhece ou o pai é falecido do que a chance entre os alunos cujos pais são analfabetos ou possuem ensino fundamental incompleto.Artigo Properties of the weighting cell estimator under a nonparametric response mechanism(Survey Methodology, 2004-06) Silva, Damião Nóbrega da; Opsomer, Jean D.The weighting cell estimator corrects for unit nonresponse by dividing the sample into homogeneous groups (cells) and applying a ratio correction to the respondents within each cell. Previous studies of the statistical properties of weighting cell estimators have assumed that these cells correspond to known population cells with homogeneous characteristics. In this article, we study the properties of the weighting cell estimator under a response probability model that does not require correct specification of homogeneous population cells. Instead, we assume that the response probabilities are a smooth but otherwise unspecified function of a known auxiliary variable. Under this more general model, we study the robustness of the weighting cell estimator against model misspecification. We show that, even when the population cells are unknown, the estimator is consistent with respect to the sampling design and the response model. We describe the effect of the number of weighting cells on the asymptotic properties of the estimator. Simulation experiments explore the finite sample properties of the estimator. We conclude with some guidance on how to select the size and number of cells for practical implementation of weighting cell estimation when those cells cannot be specified a priori.Dissertação Testes escore corrigidos para modelos lineares generalizados no ambiente R(Universidade Federal do Rio Grande do Norte, 2009-05-28) Silva Júnior, Antonio Hermes Marques da; Silva, Damião Nóbrega da; ; http://lattes.cnpq.br/3396583371890289; ; http://lattes.cnpq.br/9570950627171584; Valença, Dione Maria; ; http://lattes.cnpq.br/3396583371890289; Ferrari, Sílvia Lopes de Paula; ; http://lattes.cnpq.br/4552581220981608Correções de Bartlett são procedimentos estatísticos que podem ser usados para melhorar o desempenho de estatísticas cujas distribuições são aproximadas pela qui-quadrado. Uma aplicação destas correções e no aperfeiçoamento do teste escore em modelos lineares generalizados. Entretanto, a forma da correção resultante utiliza operações com matrizes que são formadas por expressões envolvendo derivadas de primeira e segunda ordem da média e da função de variância do modelo, com respeito ao preditor linear. Em razão das di ficuldades para se obter tais expressões, ou até mesmo para modi ficá-las quando se altera os componentes aleatório ou o sistemático do modelo, é que tais correções não têm ainda sido incorporadas nas muitas aplicações do teste Escore. Esta dissertação propõe um programa computacional desenvolvido no software estatístico R para implementar testes escore corrigidos em um dado modelo linear generalizado. Detalhes técnicos e a utilização do programa são discutidos com base na análise de uma série de conjuntos de dados reais encontrados na literatura. Também, são apresentados os resultados de dois experimentos de simulação, em que as vantagens dos testes corrigidos e a versatilidade do programa são avaliadas.