banner-sub

Trabalhos Orais

 

DIA 06/11

DIA 07/11

16:30h

as

17:30h

 

APRESENTAÇÃO ORAL 1

ANF I

 

APRESENTAÇÃO ORAL 2

ANF II

 

APRESENTAÇÃO ORAL 3

ANF I

 

APRESENTAÇÃO ORAL 4

ANF II

 

APRESENTAÇÃO ORAL 1

Coordenação: Juliana Betini Fachini (UnB)

Sâmela Batista Arantes (IBGE) e Pedro Luís do Nascimento Silva (IBGE)
Título: Planejamento de amostras domiciliares no Brasil explorando a malha setorial do Censo Demográfico 2010
Resumo: Os desenhos amostrais complexos estão presentes nas pesquisas domiciliares amostrais realizadas pelo Instituto Brasileiro de Geografia e Estatística. Uma das fases do planejamento amostral dessas pesquisas é o cálculo do tamanho de amostra. Este trabalho apresenta uma proposta de cálculo de tamanhos amostrais utilizando o Efeito do Plano Amostral (EPA) com o auxílio do coeficiente de correlação intraclasse para quatro estratégias amostrais utilizando dados de 2010 no quadro da área de enumeração do censo. Todas as quatro estratégias amostrais são conglomeradas em dois estágios, onde em um primeiro estágio são selecionados os setores censitários e no segundo os domicílios. Os resultados mostram que os planos amostrais PPT são, em geral, mais eficientes, pois aproveitam a informação da correlação entre variáveis e o tamanho do setor. Além disso, planos amostrais sem reposição apresentam uma certa vantagem em relação aos planos amostrais com reposição.

 

Gilson Gonçalves de Matos (IBGE) e Ana Lucia Saboia (IBGE) e Leonardo Athias (IBGE)
Título: Estimadores de Diferenças Temporais e suas Variâncias: Uma Abordagem Aplicada ao Estudo de Indicadores Sociais da PNAD
Resumo: No presente trabalho foram avaliadas as oscilações na taxa de analfabetismo e na média de anos de estudo para pessoas de 15 anos ou mais, a partir da Pesquisa Nacional por Amostra de Domicílios (PNAD) nos anos 2001, 2005 e 2009. As estimativas pontuais e intervalares da diferença dos indicadores entre cada dois instantes de tempo foram calculadas. Para tanto, considerou-se a estrutura de dependência na amostra da PNAD ao longo de uma mesma década. Isso porque os estratos e conglomerados primários da PNAD são selecionados no início da década e mantidos até o final desta. Verificou-se empiricamente na avaliação dos indicadores que a desconsideração da covariância entre dois instantes de tempo pode levar a conclusões incorretas, sobretudo quando as mudanças observadas são pequenas.

 

Sonia Albieri (IBGE) e Rosemary Vallejo de Azevedo (IBGE) e Alexandre Vincenzo Barone (IBGE) e Zélia Magalhaes Bianchini (IBGE) e Renata Moreira Paes da Costa (IBGE)
Título: Código de Boas Práticas das Estatísticas do IBGE
Resumo: O Código de Boas Práticas das Estatísticas do IBGE foi definido como um instrumento orientador e regulador, constituído por um conjunto de diretrizes, estruturado por princípios e indicadores de boas práticas. Tais diretrizes têm por finalidade promover uma conduta profissional padronizada na aplicação de melhores práticas estatísticas, fundamentais para a credibilidade institucional e, portanto, para o reconhecimento e a confiança da sociedade nas informações que a Instituição produz. O Código do IBGE tomou por base o Código Regional de Boas Práticas Estatísticas para a América Latina e o Caribe. É composto por 17 princípios e 80 indicadores de boas práticas, agrupados, em três seções: ambiente institucional e coordenação; processos estatísticos; e produtos estatísticos. Pretende-se, com este trabalho, mostrar a trajetória que o IBGE percorreu na elaboração do Código e fomentar a discussão sobre a cultura de qualidade na produção estatística dos diversos Órgãos do Sistema Estatístico Nacional - SEN.

 

APRESENTAÇÃO ORAL 2

Coordenação: Raul Yukihiro Matsushita (UnB)

Luna Hidalgo Carneiro (ENCE) e Pedro Luis do Nascimento Silva (ENCE)
Título: Dados antropométricos da POF 2008/2009: uma estimação usando métodos de quantis para pequenos domínios
Resumo: No Brasil, a principal fonte oficial de dados antropométricos básicos (peso e altura) é a Pesquisa de Orçamentos Familiares realizada pelo IBGE. Os resultados divulgados pelo IBGE têm como menor nível de desagregação geográfica a unidade da federação. Entretanto, com a demanda por informações em níveis de desagregação cada vez menores, torna-se necessário empregar técnicas que possibilitem obter estimativas confiáveis para áreas com amostra de tamanho reduzido. Este trabalho aplica dois métodos alternativos de estimação para quantis em pequenos domínios: regressão quantílica linear e regressão M-quantílica. São comparadas as estimativas diretas e indiretas para os centis 10, 50 e 90 e seus erros-padrão obtidas para algumas UFs utilizando os microdados da POF 2008-2009. O método quantílico forneceu as melhores estimativas, seguido pelo M-quantílico, que teve algumas limitações para a sua aplicação.

 

Kelly Cristina Mota Gonçalves (UFRJ) e Fernando Antônio da Silva Moura (UFRJ)
Título: Modelos para previsão em populações raras e agrupadas usando amostragem adaptativa
Resumo: Populações raras, como animais em extinção, usuários de drogas e pessoas infectadas por doenças raras, tendem a distribuir-se de forma agrupada em regiões. Em levantamentos estatísticos com populações deste tipo, são necessários métodos de amostragem complexos. Para tais situações, Thompson (1990) propôs um plano informativo denominado amostragem adaptativa por conglomerados. Rapley e Welsh (2008) apresentaram uma abordagem para inferência baseada em modelos. A verossimilhança do modelo, construída no nível agregado dos grupos, incorpora o planejamento da amostragem adaptativa por conglomerados. Esta supõe homogeneidade entre todas as unidades, mesmo as pertencentes a grupos distintos. O objetivo deste trabalho é propor um modelo de mistura, que permita inferências no nível das unidades e suposições mais realistas, como heterogeneidade entre unidades pertencentes a grupos distintos. A metodologia é comparada ao modelo de Rapley e Welsh (2008) por meio de um experimento simulado onde amostras são selecionadas de uma população real.

 

Camila Ribeiro da Silva (UFPB) e Hemílio Fernandes Campos Coêlho (UFPB)
Título: Estimadores para a proporção em uma abordagem de cadastro duplo
Resumo: Sejam A e B dois cadastros que conjuntamente fornecem cobertura para a mesma população alvo. Em uma abordagem de cadastro duplo, amostras probabilísticas são obtidas independentemente de cada cadastro. Neste trabalho será considerado o problema de utilizar informação de uma ou mais variáveis auxiliares, disponíveis em ao menos um dos cadastros, quando é considerado um estimador do tipo regressão generalizado (GREG) para estimar uma proporção populacional. O trabalho proposto por Lehtonen and Veijanen (1998) em que modelos de regressão logísticos para amostras obtidas de um único cadastro é revisado e adaptado à abordagem de cadastro duplo. Resultados preliminares baseados em um estudo de simulação baseados no método de simulação de Monte Carlo serão apresentados.

 

APRESENTAÇÃO ORAL 3

Coordenação: Alan Ricardo da Silva (UnB)

Victor Fossaluza (USP) e Juliana Belo Diniz (IPq) e Basilio de Bragança Pereira (UFRJ)  e Eurípedes Constantino Miguel (IPq) e Carlos Alberto de Bragança Pereira (USP)
Título: Sequential allocation to balance prognostic factors
Resumo: Este artigo tem como objetivo descrever e discutir um processo de alocação desenvolvido para um ensaio clínico que avalia a eficácia do tratamento para pacientes com TOC. A distância composicional de Aitchison foi usada para comparar os grupos para cada possibilidade de alocação num método adaptativo. Dois procedimentos diferentes foram desenvolvidos para alocar os pacientes em pequenos blocos ou sequencialmente, um por um. No ensaio clínico para o qual foi desenvolvido este procedimento, foi conseguido um equilíbrio entre os grupos de tratamento quanto as variáveis de controle. Nossos resultados mostram que a ordem aleatória de chegada dos pacientes determinam diferentes atribuições e, portanto, mantém a imprevisibilidade do método de alocação. Conclui-se que o procedimento proposto permite a utilização de um grande número de fatores de prognóstico num problema de alocação.

 

Gustavo da Silva Ferreira (ENCE)
Título: Planejamento amostral ótimo em Geoestatística baseado na maximização de funções utilidade
Resumo: Neste trabalho detalha-se uma metodologia para obtenção do planejamento amostral ótimo em Geoestatística utilizando-se uma abordagem baseada em maximização de funções utilidade. Sob o enfoque Bayesiano, a obtenção do planejamento amostral ótimo é avaliada em situações onde a decisão do pesquisador baseia-se na redução da variância preditiva do processo subjacente ou nos casos em que existe o interesse no monitoramento de eventos extremos. A metodologia é aplicada em estudos simulados e em dados reais no contexto de redes de monitoramento ambiental.

 

Paulo Henrique Dourado da Silva (UnB) e Alan Ricardo da Silva (UnB)
Título: Uma macro SAS para análise de dados amostrais complexos utilizando modelos lineares generalizados
Resumo: O objetivo do trabalho á apresentar uma macro SAS denominada %surveyglm a fim de que os usuários possam incorporar aos modelos lineares generalizados (MLG), aspectos relacionados ao plano amostral. A função svyglm do software R (Lumley, 2004) foi utilizada para verificar a adequabilidade das estimativas geradas pela macro %surveyglm. Os resultados mostraram que as estimativas estão bem próximas das geradas pela função do R e que novas distribuições podem ser facilmente incorporadas ao programa.

 

APRESENTAÇÃO ORAL 4

Coordenação: Osiris Turnes (UnB)

Neale Ahmed El-Dash (SleekData)
Título: Prevendo a eleição presidencial americana de 2012 com pesquisas online não-probabilísticas
Resumo: Muitos fatores relevantes tornam as eleições americanas complexas de prever. O voto não é obrigatório, normalmente apenas dois partidos disputam as eleições, a voto da população é bastante heterogêneo com relação a idade, raça e etnicidade, o voto é distrital, o eleitor pode votar antes do dia da eleição, entre outros. As eleições americanas são muito disputadas no campo político. O mesmo pode ser dito no campo das pesquisas eleitorais. Existem mais de 20 institutos de pesquisa divulgando novos resultados diariamente. Além disso, sites agregadores combinam todas essas informações permitindo que estatísticos como Nate Silver tambem façam previsões sobre o resultado das eleições. Num contexto tão diversificado, a associação americana de pesquisa de opinião pública (AAPOR) tem um papel importante de padronização das metodologias das pesquisas eleitorais. Como sempre ocorre nesses casos, a padronização faz com que novas metodologias e técnicas levem mais tempo para serem testadas e aceitas. Porém, os altos custos das pesquisas telefônicas (pesquisas face-a-face já não são feitas a décadas) catalizaram a busca por novas metodologias de pesquisas que viabilizassem pesquisas mais baratas porém ainda confiáveis. No ciclo eleitoral de 2012, a Ipsos em parceria com a Reuters utilizaram argumentos/estimativas Bayesianas em amostras online não-probabilísticas. Foi a primeira vez que um grande instituto de pesquisa fez isso no contexto de pesquisas eleitorais nos EUA. Ao final das eleições, constatou-se que as pesquisas não-probabilísticas online foram, em média, mais precisas do que as já tradicionais pesquisas telefonicas probabilísticas (com geração de dígitos aleatórios). Como resultado, também pela primeira vez, a AAPOR publicou um nota reconhecendo inferência bayesiana como um método legítimo de inferência, e de forma mais importante, publicou um relatório (revolucionário) finalmente aceitando que é possível obter estimativas precisas de amostra não-probabilísticas. Nessa apresentação discutiremos as pesquisas eleitorais americanas, suas particularidades, e como pesquisas online são o caminho do futuro, conciliando qualidade dos resultados com baixo custo.

 

Mariana Vieira Martins de Matos (ENCE) e Pedro Luis do Nascimento Silva (ENCE)
Título: Comparação de Métodos para o Tratamento de Medidas Antropométricas
Resumo:  Pesquisa de Orçamentos Familiares 2008-2009 é uma pesquisa amostral em nível nacional que contempla as informações antropométricas de peso e estatura, importantes para a avaliação do estado nutricional dos indivíduos. Devido ás dificuldades na coleta desse tipo de informação, os dados levantados estão sujeitos a contaminações por erros não amostrais e não resposta, o que pode comprometer análises futuras. Na POF 2008-2009 o método CIDAQ foi empregado para tratar os dados, buscando preservar sua qualidade. Neste trabalho comparou-se o desempenho desse método ao de outros dois métodos aplicáveis a dados multivariados, o algoritmo TRC e o algoritmo BACON, ambos associados ao algoritmo de imputação POEM. Os métodos foram comparados via simulação, utilizando a proporção de casos detectados como outliers, além do impacto sobre algumas estimativas após o tratamento como critérios de avaliação. Quanto à  estimação, os métodos apresentaram resultados semelhantes. Quanto à  detecção de outliers, o CIDAQ mostrou-se mais eficiente que os demais.

 

Raphael Nishimura (University of Michigan)
Título: Item Nonresponse in Auxiliary Variables Used in Weighting Adjustments for Survey Sample Data
Resumo: Under the condition of absence of nonsampling errors, the most prominent statistical role of weighting methods in surveys is to reduce the sampling variability of the estimates. This is achieved when the survey variables are associated with the auxiliary variables used in the weighting procedure. However, because the design weights are modified to meet some conditions, the survey estimates under the adjusted weights may no longer be designed-unbiased. Therefore, there is a variance-bias trade-off. Furthermore, in the presence of undercoverage and nonresponse, weighting methods can potentially reduce bias caused by these sources of error. These weighting adjustments, however, assume that the auxiliary variables are completely observed for all the responding units. When there is a high missing rate in one or more auxiliary variables (item nonresponse), in practice, these variables are usually not used in weighting adjustments, even if they are important to explain the survey variable(s). Hence, it is important to evaluate the performance of such weighted-adjusted estimators when imputation is used to fill in these missing data on the auxiliary variables used in the weighting adjustments. Moreover, a comparison between such procedure and not using auxiliary variables with missing values or not using weighting adjustment at all is also necessary. In this paper it is shown the results of a simulation study conducted to compare the Horvitz-Thompson estimator with the Generalized Regression (GREG) estimator in the presence of item missing data in one of two variables used in the weighting adjustment.