Documentos de Trabajo 2016

DT_16_03 “Elaboración De Patrones Espirométricos Normales en Niños Uruguayos Mediante Modelos GAM Y GAMLSS:Parte 1-Identificación de la distribución de la variable de respuesta”.

  • Ramón Alvarez Vaz
  • Pablo Palamarchuk
  • Eugenia Riaño
  • Descargar

En un estudio sobre valores de espirometría es necesario identificar un modelo que permita caracterizar curvas percentilares de respuesta espirométricas por edad, sexo y demás características individuales de los participantes.
El presente estudio está siendo llevado adelante por un grupo de investigadores del Centro Hospitalario Pereira Rossell, teniendo como población ni\~nos de 6 a 12 años, de escuelas públicas y privadas de Montevideo y del interior del país.En este documento se han utilizado los datos basados en una muestra de aproximadamente 450 niños que, al ser incompleta, no permite determinar la tasa de no respuesta y eventuales sesgos de selección. Aquíi se presentan los resultdos preliminares , obtenidos mediante métodos de remuestreo, acerca de la identificación de varias familias de distribuciones paramétricas como posibles alternativas para la modelización de las las variables de respuesta.
El principal objetivo del estudio es identificar los modelos GAM (General Additive Models) y GAMLSS (Generalized Additive Models for Localization, Scale and Shape), que son un conjunto de modelos de regresión semi-paramétricos que permiten trabajar con una gran cantidad de distribuciones para las variables de respuesta, de tipo discreto, continuo y mixto, con la ventaja de poder considerar distribuciones que presentan censura o truncamiento. Esta clase de modelos se usa en datos de tipo longitudinal, particularmente en las curvas de crecimiento en humanos.
Las Técnicas empleadas y su implementación mediante el software R, serán ejemplificadas a través del análisis de la variable de respuesta CVF

Palabras claves:Ajuste de distribuciones, Espirometr\’ia, Modelos GAM, Modelos GAMLSS, Remuestreo


DT_16_02 “Determinación de regiones de imputación para datos espaciales utilizando el algoritmo PCNM: un ejemplo de aplicación a los datos del Censo 2011”.

En general, la calidad y cobertura de los Censos de Población y Vivienda del año 2011 fue calificada como positiva, cumpliendo con los estándares exigidos internacionalmente. Sin embargo, su implementación no estuvo exenta de inconvenientes. No se cuenta con información de determinados hogares cuyo domicilio fue relevado, y para algunos se cuenta con sólo información parcial relativa a la composición del hogar.
La omisión censal se concentra en zonas socioeconómicamente vulnerables. Esto afectaría la construcción del mecanismo utilizado por el Ministerio de Desarrollo Social para seleccionar a la población beneficiaria de los programas de transferencia monetaria. Este mecanismo se basa en la Encuesta Continua de Hogares cuyo marco muestral es el del Censo, y refleja los problemas de omisión.
Para el caso de Montevideo, el patrón espacial de la población objetivo y de la propia omisión indican que es necesario definir regiones de imputación, dado que la distribución espacial no es continua en el mapa. La selección de los modelos a utilizar para la imputación es muy sensible a la escala del mapa, por lo que la definición de las regiones condiciona la selección del modelo final a utilizarse para realizar la imputación.
El objetivo de este trabajo es construir las regiones a partir del algoritmo PCNM (Principal Coordinates of Neighbour Matrices). El método consiste en aplicar Análisis de Componentes principales a una matriz de distancias truncada entre las observaciones. Así se obtiene un conjunto de variables explicativas que captan la variabilidad espacial en diferentes escalas. A partir de ellas pueden construirse las posibles regiones de imputación, y mediante un modelo de regresión, analizar cuáles son las escalas que se encuentran más asociadas con la variable de respuesta.

Palabras claves:Análisis de Componentes Principales, Estadística Espacial, Índice de Moran, Modelos de Regresión Poisson,


DT_16_01 “ Inferencia Bayesiana para el análisis estadístico de datos de fatiga de materiales metálicos”.

  • Ivo Babuska
  • Zaid Sawlan
  • Marco Scavino
  • Barna Szabo
  • Raúl Tempone

Este trabajo está basado en el artículo “Bayesian inference and model comparison for metallic fatigue data“, con I. Babuska, Z. Sawlan, B. Szabó y R. Tempone, publicado en https://arxiv.org/abs/1512.01779. En este trabajo exponemos un tratamiento estadístico de datos extraídos de un conjunto de registros de experimentos de fatiga que se realizaron en las aleaciones de aluminio 75S-T6.Nuestro objetivo principal es predecir la vida de fatiga de materiales, proporcionando un enfoque sistemático para la calibración y clasificación de los modelos propuestos con referencia a los datos de fatiga. A tal efecto, consideramos varios modelos estadísticos con limite de fatiga y con límite de fatiga aleatorio adecuados para el tratamiento de datos censurados a la derecha. En primer lugar, ajustamos los modelos a los datos por el método de máxima verosimilitud y estimamos las cuantías de la distribucióon de vida de las aleaciones. La robustez de dichas estima-ciones es evaluada por medio de intervalos de confianza obtenidos con una técnica de remuestreo estratificado respecto del ciclo de carga repetida. Una primera clasificación de los modelos adoptados es llevada a cabo a través de medidas clásicas de ajuste basadas en criterios de información. En segundo lugar, ampliamos el alcance de nuestro estudio considerando un enfoque Bayesiano. Dado el escenario a priori seleccionado por el usuario para incorporar el cono  cimiento disponible sobre los parámetros físicos de interés, se obtienen las distribuciones a posteriori aproximadas de dichos parámetros basadas en técnicas de simulaci ́on. Para clasificar los modelos Bayesianos y determinar qué modelo sería preferible para un determinado escenario a priori, hemos aplicado tanto métodos basados en la estimación de
la verosimilitud marginal como en modernos criterios de información de tipo predictivo,cuya aplicación requiere el uso de técnicas de validación cruzada.

Palabras claves: Datos de fatiga, predicción de vida de fatiga, modelos con límite de fatiga aleatorio, calibración y clasificación de modelos Bayesianos, precisión predictiva de modelos Bayesianos.