Seminario del Instituto de Estadística

Martes 14:00hs - Instituto de Estadística (Eduardo Acevedo 1139)

Contacto: Natalia Da Silva (IESTA) (natydasilva@iesta.edu.uy)

Próximas Charlas

Dia 2019-11-19 14:00:00-03:00
Hora 2019-11-19 14:00:00-03:00
LugarInstituto de Estadística (Eduardo Acevedo 1139)

Análisis de supervivencia de las tablets del Plan Ceibal 2014-2015

Guillermina Costabel (IESTA-FCEA, UdelaR)

El objetivo de este trabajo es realizar un análisis de supervivencia para estimar los tiempos de vida de determinado modelo de tablet entregado por el Plan Ceibal en 2014 y 2015 a alumnas y alumnos de educación primaria pública y conocer las principales causas de rotura que presenta este dispositivo a lo largo de su trayectoria. Para ello se cuenta con datos de la entrega de los equipos, datos de las personas que los recibieron y las escuelas a la que concurren. Además se cuenta con datos de las reparaciones realizadas por parte del área de servicio técnico de Ceibal, a las tablets que presentaron algún desperfecto a lo largo de su trayectoria de vida.

Se estima a través del método de Kaplan-Meier la función de supervivencia de la generación de tablets que presentan una primera vida (desde el momento en que el equipo es entregado hasta su primera reparación) y de la generación que presentan una segunda vida (desde que el equipo se vuelve a entregar después de su primera reparación hasta su segunda reparación). Además se aplica un modelo de Cox para determinar el efecto de variables sociodemográficas tales como el sexo, el área geográfica y el contexto sociocultural y variables que cuantifican la entrada de la tablet a servicio técnico para ser reparada. Por último se estima para la primera y segunda vida la función de riesgo mediante la estimación por núcleos.

A partir de todo el análisis se concluye entre varias cosas, que los alumnos varones que concurren a escuelas del interior urbano pertenecientes al quintil tres, son los que tienen mayor riesgo de que sus máquinas dejen de funcionar,  así como que la primera vida de las tablets tiene una duración mayor que la segunda. 

Recuerden que todas las presentaciones y el programa tentativo de las próximas charlas está disponible en  https://github.com/natydasilva/SIESTA 


Charlas Anteriores

Dia 2019-11-12 14:00:00-03:00
Hora 2019-11-12 14:00:00-03:00
LugarInstituto de Estadística (Eduardo Acevedo 1139)

Datascience para el análisis de la campaña electoral

Héctor Cotelo (Quanam)

En esta charla se presentarán ejemplos de diferentes técnicas de datascience aplicadas al análisis de información relacionada a las elecciones uruguayas 2019.

En primer lugar se verán técnicas de Procesamiento de Lenguaje Natural (Análisis de Sentimiento, TF-IDF) para analizar el comportamiento de los candidatos en Twitter y también el proceso para investigar la estructura de sus redes (Social Network Analysis, medidas de centralidad, etc.).

En segundo lugar se verán técnicas estadísticas para analizar la información recabada de las respuestas de la aplicación aquienvoto.uy y qué algoritmos de Machine Learning demostraron ser mejores para predecir el candidato a partir de las preguntas planteadas.

Para finalizar se presentará un trabajo utilizando bases de datos geoespaciales para lograr determinar cuáles son los mejores puntos del país para ubicar 136 liceos públicos, como Ernesto Talvi (candidato por el PC) habló durante la campaña.

 

Recuerden que todas las presentaciones y el programa tentativo de las próximas charlas está disponible en  https://github.com/natydasilva/SIESTA 

Dia 2019-11-05 14:00:00-03:00
Hora 2019-11-05 14:00:00-03:00
LugarInstituto de Estadística (Eduardo Acevedo 1139)

Proyecciones de escrutinio, ¿ qué precisión tienen?

Juan José Goyeneche y Ana Coimbra (IESTA-FCEA, UdelaR)

Integrantes del equipo de Muestreo del IESTA nos cuentan algunos detalles técnicos de la metodología
para realizar proyecciones de escrutinio que utilizaron en "la diaria" para las elecciones nacionales 2019.
 

Recuerden que todas las presentaciones y el programa tentativo de las próximas charlas está disponible en 

 https://github.com/natydasilva/SIESTA 

Dia 2019-10-29 14:00:00-03:00
Hora 2019-10-29 14:00:00-03:00
LugarInstituto de Estadística (Eduardo Acevedo 1139)

Procesos markovianos y su aplicación al modelo de Wright-Fisher

Gerardo Martínez (FCEA, FING)

El modelo de Wright-Fisher es un modelo clásico dentro de la genética de poblaciones. Éste modela la evolución de la frecuencia de un alelo en una población de tamaño N como una cadena de Markov discreta y con espacio de estados finitos. Debido a la complejidad de las probabilidades de transición de esta cadena, ciertas preguntas no pueden ser resueltas —al menos, no de forma satisfactoria— por la teoría de cadenas de Markov. Históricamente la forma de resolver estas preguntas fue aproximando el modelo discreto por un proceso markoviano continuo, más en particular, por una difusión. Esta aproximación, además de resolver estas preguntas, es útil para estudiar extensiones del modelo de Wright-Fisher a situaciones más complejas.
En esta instancia definiré a los procesos markovianos en tiempo continuo que toman valores en un espacio métrico arbitrario como extensión de las cadenas de Markov. Definiré las difusiones y mostraré su vinculación con las ecuaciones diferenciales estocásticas. Esto será utilizado luego para  estudiar la aproximación del modelo de Wright-Fisher por una difusión y se responderán las preguntas planteadas en el modelo tradicional. Mostraré, además, la versatilidad del estudio por difusiones estudiando el modelo de Wright-Fisher agregando dos parámetros: selección natural y tasas de mutación.
La charla está basada en mi trabajo final para la Licenciatura en Estadística. Puede ser de particular interés para aquellos estudiantes avanzados de la Licenciatura en Estadística; en especial, están invitados aquellos que estén cursando Introducción a los Procesos Estocásticos este semestre. 

Recuerden que todas las presentaciones y el programa tentativo de las próximas charlas está disponible en 

 https://github.com/natydasilva/SIESTA 

Dia 2019-10-22 14:00:00-03:00
Hora 2019-10-22 14:00:00-03:00
LugarInstituto de Estadística (Eduardo Acevedo 1139)

rECH: una caja de herramientas para procesar la Encuesta Continua de Hogares (ECH) de Uruguay usando R

Gabriela Mathieu y Richard Detomasi (MIDES)

La Encuesta Continua de Hogares (ECH), es una encuesta que releva información de los hogares particulares uruguayos, realizada anualmente por el Instituto Nacional de Estadística (INE). Sus principales objetivos son obtener indicadores para monitorear la evolución del mercado de trabajo, el ingreso de los hogares y las condiciones de vida de la población (vivienda, salud y educación, entre otros). El paquete rECH brinda un manejo fácil de los microdatos de la ECH, al permitir la obtención directa de indicadores por parte de personas no expertas, contribuyendo así a la democratización de la información pública y el acceso a los datos abiertos. Las funciones que componen el paquete permiten conectarse a las bases de hogares y personas de diferentes años para obtener estimaciones puntuales y por intervalo de los principales indicadores de la encuesta. Adicionalmente, las estimaciones se complementan de gráficos y/o mapas de alta calidad.

Recuerden que todas las presentaciones y el programa tentativo de las próximas charlas está disponible en https://github.com/natydasilva/SIESTA
Dia 2019-10-15 14:00:00-03:00
Hora 2019-10-15 14:00:00-03:00
LugarInstituto de Estadística (Eduardo Acevedo 1139)

Un test de hipótesis sobre ancestría

Gabriel Illanes (CMAT-FCIEN-UdelaR)

Desde la completación del proyecto "Human Genome Project" en 2003, se ha utilizado la información genética de los individuos para resonder distintas preguntas. Una base de datos muy usada es la del "1000 genomes project"; uno de los usos es es el estudio de las migraciones de distintas poblaciones ancestrales.  En nuestro caso, contamos con la base de datos del proyecto "Urugenomes", disponiendo de la información genética de 20 individuos uruguayos; 10 de ellos declaran tener algún ancestro nativo americano, 10 de ellos declaran tener algún ancestro africano. Dado el tamaño de la base de datos, nos enfocamos en intentar responder preguntas a nivel individual, y no a nivel poblacional. Para cada uno de estos individuos, asumimos que es una mezcla de tres poblaciones ancestrales (europeos, africanos, y nativos americanos), y utilizamos algoritmos que permiten la identificación de los intervalos de su genoma que corresponden a cada una de esas poblaciones ancestrales. Con esta información, queremos desarrollar un test de hipótesis que permita saber si es posible que un individuo dado tenga un ancestro nativo americano puro "T" generaciones atrás.
Recuerden que todas las presentaciones y el programa tentativo de las próximas charlas está disponible en https://github.com/natydasilva/SIESTA
Dia 2019-10-08 14:00:00-03:00
Hora 2019-10-08 14:00:00-03:00
LugarInstituto de Estadística (Eduardo Acevedo 1139)

Desde el enfoque estático al enfoque dinámico en el análisis de las curvas de rendimiento en la deuda soberana. Caso de estudio: Uruguay

Andrés Sosa (Departamento de Métodos Cuantitativos, FCEA, UdelaR)

La curva de rendimientos en la deuda soberana brinda la relación entre las
tasas de rendimientos de los activos que la componen y su vencimiento.La estimación de esta curva presenta importancia en varios aspectos de la economía. El trabajo se enfoca en analizar los métodos de estimación mediante el enfoque estático que se utilizan
en Uruguay y se propone examinar un enfoque alternativo que tenga en cuenta la dinámica de las curvas de rendimiento. Con este fin se presenta  un modelo econométrico y la forma de estimar sus parámetros. La presentación culmina con una aplicación al  mercado de bonos soberanos en Uruguay nominados en dólares.
Recuerden que todas las presentaciones y el programa tentativo de las próximas charlas está disponible en https://github.com/natydasilva/SIESTA
Dia 2019-10-01 14:00:00-03:00
Hora 2019-10-01 14:00:00-03:00
LugarInstituto de Estadística (Eduardo Acevedo 1139)

Modelos lineales mixtos en experimentación agronómica: ventajas y limitaciones en el uso de modelos espaciales en diseños experimentales

Alejandra Borjes (FAGRO, UdelaR)

La investigación agronómica en general se basa en experimentos comparativos en los cuales el objetivo global es comparar o contrastar dos o más sistemas o prácticas agrícolas. En muchos casos, implica ensayos de campo de gran tamaño evaluados a mediano o largo plazo, donde si bien se trabaja bajo condiciones controladas, es un gran desafío lograr homogeneidad en las condiciones experimentales. Por estas razones, uno de los aspectos más críticos de la experimentación agrícola es la elección adecuada del diseño experimental, especialmente en experimentos de gran tamaño. No obstante, la variabilidad espacial a menudo ocurre de forma gradual y, a veces, no es captada en su totalidad por el diseño experimental, lo que lleva a una baja precisión en las estimaciones de los efectos de interés. La precisión puede incrementarse utilizando modelos de análisis que tienen en cuenta esta variabilidad espacial. Una de las estrategias más usadas es modelar la matriz de varianzas y covarianzas de los residuales utilizando diferentes estructuras de correlación a través del uso de modelos mixtos. Sin embargo, esa ganancia en precisión puede en parte a estar debida a un sesgo en las estimaciones de varianza y por ende, en los errores estándar de la diferencia entre medias de tratamiento. Este sesgo se deriva de asumir varianzas y covarianzas estimadas como si fueran parámetros conocidos, por lo que esa incertidumbre adicional no se toma en cuenta en las comparaciones de interés. En este seminario presentaremos algunos resultados, que permitan discutir las ventajas y limitaciones del uso de modelos espaciales en el contexto de experimentos de diferente tamaño. 

 

Recuerden que todas las presentaciones y el programa tentativo de las próximas charlas está disponible en https://github.com/natydasilva/SIESTA
Dia 2019-09-17 14:00:00-03:00
Hora 2019-09-17 14:00:00-03:00
LugarInstituto de Estadística (Eduardo Acevedo 1139)

Límites fluidos

Laura Aspirot (FCEA, UdelaR)

Los procesos estocásticos, en particular los procesos de Markov y las
cadenas de Markov, son modelos matemáticos muy utilizados, así como
las ecuaciones diferenciales. En muchas aplicaciones ambos tipos de
modelos coexisten. En mi tesis de doctorado estudio la relación entre
modelos estocásticos y determinísticos para algunos problemas
motivados por redes de datos. Una técnica general en este sentidos se
conoce como límites fluidos y es usada desde larga data en diferentes
áreas como por ejemplo en física, biología, química, teoría de juegos.

Los modelos estocásticos pueden ser complejos por la dependencias
internas en el sistema, por la cantidad de individuos, y pueden ser
difíciles de estudiar analíticamente o incluso mediante simulaciones.
Sin embargo estos modelos muchas veces pueden simplificarse a modelos
determinísticos gobernados por ecuaciones diferenciales, y el
comportamiento del proceso estocástico original puede analizarse a
partir de características del modelo determinístico.

En el seminario voy a contar cómo se obtienen estas aproximaciones,
asintóticas en algún parámetro del sistema, en muchos casos vinculado
a su tamaño. Veremos como bajo ciertas hipótesis se obtiene un límite
en media en el sentido de la Ley de los Grandes Números y también hay
convergencia tipo Teorema Central del Límite, basados en el Teorema de
Kurtz. Por último voy a presentar los tres modelos donde estudio
límites fluidos en mi tesis: redes par a par, fallas y reparaciones y redes radio cognitivas.

Recuerden que todas las presentaciones y el programa tentativo de las próximas charlas está disponible en https://github.com/natydasilva/SIESTA
Dia 2019-09-10 14:00:00-03:00
Hora 2019-09-10 14:00:00-03:00
LugarInstituto de Estadística (Eduardo Acevedo 1139)

Evaluación y Monitoreo de Plataformas Educativas

Federico Molina (IESTA-FCEA, UdelaR)

El Plan Ceibal fue creado por decreto en el año 2007 como política pública de carácter universal  que forma parte de la iniciativa mundial One Laptop per Child (OLPC). Plan Ceibal ha implementado el “modelo uno a uno” que consiste en otorgar un dispositivo (laptop o tablet) de su propiedad a cada alumno y docente de la enseñanza pública básica.

Estas nuevas tecnologías en el aula no solamente presentan un desafío en cuanto a el paradigma de aprendizaje mediado por tecnología sino también un desafío para analizar los datos generados por el sistema. Plan Ceibal ha puesto a disposición de sus beneficiario desde 2013 dos plataformas educativas, la Plataforma Adaptativa de Matemática (PAM) y CREA2. CREA2 es un entorno virtual de aprendizaje que permite gestionar cursos, crear o compartir materiales didácticos y trabajar colaborativamente en grupos. 

En este seminario presentaremos herramientas estadísticas que permitan evaluar y monitorear el uso de la plataforma CREA2. Se presentarán algunos indicadores para monitorear el uso de la plataforma a distintos niveles de análisis (clase, grado, escuela, departamento, etc). Esta herramienta pretende ser de utilidad para los distintos actores del sistema de educación público. La solución que presentaremos busca generar en tiempo real, de forma sencilla y sistematizada la información a través de reportes dinámicos en los distintos niveles de análisis.

Recuerden que todas las presentaciones y el programa tentativo de las próximas charlas está disponible en https://github.com/natydasilva/SIESTA
Dia 2019-08-27 14:00:00-03:00
Hora 2019-08-27 14:00:00-03:00
LugarInstituto de Estadística (Eduardo Acevedo 1139)

Comparación de particiones a través del Matching Error

Mathias Bourel (IMERL, FING, UdelaR)

La mayoría de los métodos de clustering dan como resultado una partición del conjunto de datos y, a menudo, una partición del espacio donde se encuentran estos datos. Se pueden usar varios índices para comparar particiones provenientes de un mismo conjunto de datos, entre los cuales el índice Rand, el índice Rand ajustado, el índice Jaccard, etc. La mayoría de ellos carecen de un análisis matemático real, y casi no existe información sobre su distribución.

Consideramos en este trabajo un índice de comparación entre particiones, the Matching Error, inspirado de la tasa de error de clasificación utilizada en el aprendizaje supervisado. Estudiamos sus propiedades con el objetivo de diseñar una prueba de hipótesis para comparar dos particiones.

Dia 2019-08-20 14:00:00-03:00
Hora 2019-08-20 14:00:00-03:00
LugarInstituto de Estadística (Eduardo Acevedo 1139)

Transición hacia la dependencia en la vejez

Alejandra Marroig (IECON-ESTA-FCEA)

La dependencia es un estado que todas las personas atravesarán en algún momento y todas necesitarán algún tipo de cuidado. Esta necesidad puede ser más urgente o de mayor magnitud para ciertas personas, pero inevitablemente todas requirieron, requieren o requerirán cuidados a lo largo de sus vidas. En edades avanzadas muchos adultos mayores ingresan a un estado de dependencia que los hace demandantes de cuidado. Resulta clave identificar cuándo las personas inician este estado durante el proceso de envejecimiento, acompañado de una necesidad de cuidado para realizar las actividades cotidianas, de forma que se aporta evidencia para las políticas de Cuidado de Largo Plazo (CLP). 

En este trabajo analizo la transición hacia la dependencia de adultos mayores en diez países europeos y cómo se modifican las transiciones según diferencias en las características sociodemográficas, económicas, de salud de las personas y sus hogares. Para ello se ajustan Modelos de Sobrevivencia de Múltiples estados (MSM) que permiten incorporar la dinámica del proceso de envejecimiento y de transición a la dependencia, mediada por factores de riesgo que modifican estas trayectorias a lo largo del tiempo. Este enfoque permite identificar a qué edades es más probable transitar hacia un estado de dependencia, al tiempo que se evalúa la influencia de características relevantes como el sexo, educación y nivel socioeconómico. Como resultado se aportará evidencia sobre el proceso de envejecimiento y dependencia, que permitirá una detección temprana de la necesidad de cuidado y será insumo para políticas preventivas y de CLP que tiendan a mejorar la calidad de vida de los adultos mayores y sus familias. 

La información proviene de la Survey of Health, Ageing and Retirement in Europe (SHARE), un estudio de datos de panel multidisciplinario y transnacional con micro datos sobre salud, situación socioeconómica y redes sociales y familiares de personas de 50 años o más en Europa. El estudio SHARE inició en 2004 y para este trabajo utilizo información recabada hasta la ola realizada en 2013 correspondiente a personas de 65 años o más residentes en Austria, Alemania, Suecia, España, Italia, Francia, Dinamarca, Suiza, Bélgica y Holanda. 

Los resultados preliminares concuerdan con lo reportado en otros trabajos realizados para Europa, sin embargo, con el enfoque aplicado aquí es posible ver cómo se modifican las probabilidades de transición a lo largo del rango de edades considerado. Los resultados muestran un aumento de la probabilidad de transitar hacia un estado demandante de CLP hasta los 70 años aproximadamente. Además, la probabilidad de fallecer es menor para las mujeres en todo el rango de edades y lo contrario ocurre con la probabilidad de transición a la dependencia de mujeres respecto a los varones. 

Palabras clave: Envejecimiento, Dependencia, Cuidado de Largo Plazo, Modelo de sobrevivencia de múltiples estados, Europa

Dia 2019-07-02 14:00:00-03:00
Hora 2019-07-02 14:00:00-03:00
LugarInstituto de Estadística (Eduardo Acevedo 1139)

Estimación de densidades mediante mezclas controladas por el proceso de Dirichlet

Manuel Hernández y Mario Sierra (IESTA)

La estimación de densidades es un tema de mucha relevancia en el área
de la Estadística. Existen al menos dos métodos para abordar este problema.
Por un lado, el enfoque paramétrico asume un modelo de probabilidad para la
muestra bajo estudio; mientras que el enfoque no–paramétrico busca relajar
estos supuestos a costa de una modelización más compleja y flexible.
Independientemente de los métodos de estimación mencionados, se pue-
den considerar dos enfoques a la hora de abordar cualquier problema en
Estadı́stica, en particular el de la estimación de densidades. Estos son: el en-
foque clásico y el bayesiano. En este trabajo haremos revisión de una técnica
no paramétrica bayesiana.
Desde un punto de vista bayesiano, para estimar una distribución, se
requiere establecer una distribución a priori en el espacio de las medidas de
probabilidad. El Proceso de Dirichlet cumple con esta función.
Comenzamos presentando al Proceso de Dirichlet como una medida de
probabilidad aleatoria, para luego estudiar en detalle los modelos de mezcla
controlados por este proceso.
Analizamos en detalle la implementación computacional de esta técnica,
comparando su desempeño con el de otras técnicas en datos simulados y
reales. Como aplicación interesante realizamos un análisis de temperaturas
máximas en el territorio Uruguayo

Recuerden que todas las presentaciones y el programa tentativo de las próximas
charlas está disponible en https://github.com/natydasilva/SIESTA