Seminario de Probabilidad y Estadística 20141

Salón de Seminarios del Centro de Matemática. Iguá 4225, Piso 14. Viernes de 10:00 a 11:30.

Segundo semestre

  1. Viernes 22 de agosto. Juan Piccini: El Muestreo Alfabético visto desde el Muestreo Estratificado: Comentarios y consecuencias

    Resumen: En Archivología se llama Muestreo Alfabético a una de las herramientas usadas para tomar muestras de poblaciones documentales donde cada documento está asociado a una persona. Se ha señalado como principal desventaja de esta herramienta la falta de garantías en cuanto a que la muestra sea representativa. Una mirada desde otro lugar permite resolver este problema utilizando herramientas muy simples. Es un buen ejemplo de las bondades del trabajo interdisciplinario.

  2. Viernes 29 de agosto. Pablo Lessa: Entropía y velocidad de la caminata al azar en grafos estacionarios.

    Resumen: Un antiguo resultado de David Blackwell muestra que una cadena de Markov es ergódica si y sólamente si cumple la propiedad de Liouville (i.e. no admite funciones armónicas acotadas excepto las constantes). La entropía asintótica de Avez es un invariante que caracteriza completamente cuando estas propiedad se cumple en el caso de caminatas al azar en grafos de Cayley. Los grafos de Cayley son grafos muy regulares y un tema recurrente de investigación ha sido identificar la regularidad necesaria en un grafo para poder desarrollar una teoría de entropía similar a la de Avez. En esta dirección Itai Benjamini y Nicolas Curien introdujeron recientemente la noción de "grafo aleatorio estacionario" y comenzaron la teoría de entropía en este caso motivados por ciertos grafos planares aleatorios provenientes de modelos físicos. La idea es dar una introducción sin prerequisitos a los resultados anteriores y eventualmente hablar un poco trabajo que estamos realizando en colaboración con Matías Carrasco en esta área.

  3. Viernes 5 de setiembre. Andrés Sosa

    Resumen: El estudio de las tasas de interés del mercado según su estructura de plazos abarcan gran parte de la literatura especializada tanto en matemática financiera como en macroeconomía debido a las importantes aplicaciones que se derivan de su conocimiento y modelación. En la presentación del viernes introduciremos algunas de las distintas metodologías aplicadas al estudio de las tasas. En particular, nos centramos en los modelos aplicados a la tasa (denominada) short rate. Para finalizar, también observaremos aplicaciones al mercado uruguayo de bonos.

  4. Viernes 12 de setiembre. Ricadro Fraiman. Statistics of Dynamic Random Networks: A Depth Function Approach. (Joint work with Daniel Fraiman and Nicolás Fraiman)

    Abstract: The study of random graphs and networks had an explosive delelopment in the last couple of decades. Meanwhile, there are just a few references about statistical analysis on graphs. We focus on graphs with a fixed number of labeled nodes (such as those used to model brain networks) and study some statistical problems in a nonparametric framework. We introduce natural notions of center and a depth function for graphs that evolve in time. This allows us to develop several statistical techniques including testing, supervised and unsupervised classification, and a notion of principal component sets in the space of graphs. Some examples and asymptotic results are given.

  5. Viernes 19 de setiembre. Libre
  6. Viernes 26 de setiembre. Libre
  7. Viernes 3 de octubre. Ernesto Mordecki: Parada óptima de procesos de Lévy con funciones de pago polinomiales.

    Resumen: Presentaremos algunos resultados recientes sobre parada óptima de procesos de Lévy, donde la función de pago es polinomial. La charla se divide en dos partes: en la primera presentamos el problema y algunos resultados clásicos para el movimiento Browniano. En la segunda introducimos los procesos de Lévy, la función de pago polinomial, y el método de las funciones promedio (`averaring functions') que nos permiten resolver el problema de parada óptima con funciones de pago polinómicas generales y procesos de Lévy, generalizando las soluciones dadas por Novikov y Shiryaev para funciones g(x)=x^n. Presentamos ejemplos concretos con funciones de pago cuadráticas y cúbicas. La conferencia está dedicada al cumplea–os 80 de Albert Shiryaev (n. 12 de octubre de 1934)

  8. Viernes 10 de octubre. Libre
  9. Viernes 17 de octubre. Diego Armentano: Complejidad media polinomial para el Problema de Valores Propios.

    Resumen: En esta charla vamos a describir un algoritmo que encuentra valores y vectores propios de una matriz gaussiana compleja, que termina con probabilidad 1, y lo hace en tiempo polinomial en media.

  10. Viernes 24 de octubre. Maine Fariello: Darwin y las matemáticas 2
  11. La matemática ayudó a sintetizar dos teorías que parecían contrapuestas: la teoría neutral de la evolución en la que los genes se transmitían de una generación a otra y había pequeñas variaciones en la frecuencia de sus variantes debido al azar, y la teoría de la evolución de Darwin, donde la selección es la principal causa de evolución de las especies. En esta charla veremos como se pueden modelar estos hechos y les contaré un test propuesto en mi tesis para tratar de detectar genes bajo selección en un escenario particular.

  12. Viernes 31 de octubre. Federico Dalmao
  13. Viernes 7 de noviembre. Alejandro Cholaquidis: Testeo de la convexidad del soporte de una distribución en base al espaciamiento maximal.

    Resumen: Si bien el estudio del espaciamiento maximal unidimensional (es decir, la distancia mas grande entre dos estadísticos de orden consecutivos) encuentra sus orígenes en los trabajos pioneros del matemático W.L Stevens, que datan de 1936 (continuados luego por diversos autores, entre ellos Devroye, Deheuvels, Pkye, etc), no fue sino hasta el 2010 que S. Janson define y estudia su comportamiento asintótico, cuando los datos se distribuyen uniformemente en un subconjunto compacto de Rd, para d>1. En la charla veremos que es posible extender este resultado al caso en que los datos provienen de una distribución cuya densidad es Lipschitz, y que, a partir del mismo, se puede obtener un test para determinar si el soporte es o no convexo.

  14. Viernes 14 de noviembre. Leonardo Moreno
  15. Viernes 21 de noviembre: Libre
  16. Viernes 28 de noviembre: Juan Kalemkerian

Primer semestre

  1. Viernes 21 de marzo. Paola Bermolen. ``Proceso de Parking en Grafos Aleatorios" (Trabajo conjunto con Matthieu Jonckheere (UBA) y Pascal Moyal (Université de Technologie de Compiègne).

    En este trabajo mostramos cómo un enfoque de configuraciones nos permite definir la dinámica de un proceso de parking sobre grafos aleatorios como un proceso de Markov a valores medidas. Esto a su vez nos permite probar una ley de grandes números funcional cuándo el número de nodos del grafo tiende a infinito. Este resultado es a su vez utilizado para caracterizar (y en algunas casos calcular) la ``jamming constant'' (intensidad del proceso de parking) de varios grafos aleatorios.

  2. Viernes 28 de marzo. Maine Fariello. Genética de poblaciones: métodos de detección de selección ("a la Darwin") (Bioestadística)
  3. Viernes 4 de abril. Federico De Olivera
  4. Viernes 11 de abril. Alejandro Cholaquidis
  5. Titulo: Un clasificador óptimo basado en métodos de agregación. Resumen: En la primer parte de la charla mencionaré brevemente, y a fin de que el resto de la misma sea entendible para todo público, el problema de clasificación en dimensión finita. Veremos cómo es posible generalizar algunos resultados al caso de datos funcionales. Finalmente, introduciré un clasificador no lineal para datos en un espacio métrico separable y completo. La nueva regla es construida a partir de una colección de M clasificadores arbitrarios no necesariamente consistentes. Asintoticamente, el nuevo clasificador se comporta tan bien como el mejor de los M. Presentaré resultados de simulaciones hechas para datos en dimensiones "grandes", datos funcionales y el caso finito dimensionales.
  6. Viernes 18 de Abril. TURISMO
  7. Viernes 25 de abril. José Carlos Guerrero (Instituto de Ecología y Ciencias Ambientales - IECA, Facultad de Ciencias) (Bioestadística)
  8. Viernes 2 de mayo. Jornada doble:
  9. Viernes 9 de mayo. Gabriel Illanes: False Discovery Rate
  10. Viernes 16 de mayo. Federico Dalmao: "El 4o momento"

    El método de los momentos es un método clásico para establecer Teoremas Centrales del Límite. Requiere la convergencia de todos los momentos de una sucesión de v.a. a los respectivos momentos de la ley normal. En el contexto de las integrales estocásticas múltiples (y de los funcionales no lineales de cuadrado integrable) de un Browniano se puede reducir esto al cuarto momento, sin necesidad de mirar los de mayor orden. En esta charla repasaré resultados en este sentido debidos a Peccati, Nualart, Tudor y Nourdin del 2005 en adelante.

  11. Viernes 23 de mayo. Leonardo Rojas: "Non-stabilizability of queueing networks with infinite supplies"

    Abstract: Queueing network models are very useful for describing congestion and resource scarcity phenomena occurring in manufacturing, service and telecommunication applications. A typical queueing network model consists of servers, buffers and routes as well as stochastic assumptions on the rates and durations of processing. For a stochastic queueing network model and an associated control policy, stability implies that the number of items in the system remains stochastically bounded over time. Finding sensible control laws that stabilize the network is crucial for applications yet often not trivial. We consider a family of queueing networks that generate their own arrivals. Such networks are interesting because they allow servers to be fully utilized yet can remain stable. In this talk we present results of a negative flavour: non-stabilizability. We show that in some cases queueing networks that generate their own arrivals cannot be stabilized while remaining fully utilized. The proof method of this last result is based on a novel linear martingale argument. This is joint work with Yoni Nazarathy and Thomas Salisbury.

  12. Viernes 30 de mayo: Eduardo Tabacman. "Control de test multiples en datos -ómicos"

    Los datos -omicos (genómicos, proteómicos, etc.) se caracterizan por el gran número de variables medidas, habitualmente en una pequeña muestra. El gran número de variables hace que sea indispensable corregir la significancia de los tests utilizados para evitar las sobreestimaciones. Por otro lado, los métodos clásicos de correción por tests múltiples resultan demasiado conservadores para el uso habitual de estos estudios. Presentaremos un visión global de los métodos más utilizados en el áreas, así como ilustraciones de algunos de sus problemas y limitaciones.

    Eduardo Tabacman es doctor en Matemáticas y trabaja como bioestadístico en SOMAlogic, Boulder, Colorado, Estados Unidos

  13. Viernes 6 de junio. Nathan Ryan. ``De matrices aleatorias a funciones L''

    Daré un repaso histórico de la teoría de matrices aleatorias y un poco sobre su conexión (sorprendente y conjetural) con los ceros de la función zeta de Riemann y otras funciones L.

  14. Viernes 13 de junio. Mathias Bourel: "Boosting multiclass"

    Resumen: Los métodos de agregación de modelos en aprendizaje automático combinan varias hipótesis hechas a partir de un mismo conjunto de datos con el fin de obtener un modelo predictivo con una mejor performance. Los mismos han sido ampliamente estudiados y han dado lugar a numerosos trabajos tanto experimentales como teóricos en diversos contextos. Proponemos un nuevo método que extiende las ideas de Adaboost (Freund and Schapire, 1997) adaptándolo a problemas de clasificación con más de dos clases. El clasificador final que se obtiene, se basa sobre un cálculo de error que toma en cuenta el margen individual de cada modelo introducido en el proceso de agregación. .

  15. Viernes 20 de junio. Gonzalo Perera. "Tests de ajuste para mezclas de copulas y dependencias críticas"

    En diversas aplicaciones como Finanzas con Ciencias Ambientales, aparecen fenómenos de "dependencia crítica": esto es, cuando un evento ( en general , un evento "raro") es capaz de producir una modificación sustancial en la estructura de dependencias de las variables del sistema. Un modelo simple y eficaz para tales fenómenos, lo aportan las mezclas de cópulas, por lo cual reviste mucho interés el examinar si una serie de datos observados presenta una estructura de dependencia que se ajusta a una mezcla de cópulas. Presentaremos un test de ajuste a tales efectos, un esquema de su desarrollo teórico, su performance sobre datos simulados y finalmente su aplicación sobre los datos ( de Hidrología superficial en las costas montevideanas) que motivaron nuestro interés en el tema. La exposición está basada en un trabajo conjunto con Sergio Martínez y Melina González.

  16. Viernes 27 de junio. Pablo Romero. Diámetro Confiabilidad de Redes

    Resumen: Se desea comunicar terminales (puntos distinguidos) de una red sujeta a fallas estocásticas independientes en los enlaces. La Diámetro-Confiabilidad de una Red (DCR) es la probabilidad de que todo par de terminales permanezca comunicado por caminos de largo d o menor, siendo d un entero positivo llamado diámetro.
    El problema se inspira en sistemas de telecomunicaciones sensibles a la latencia (VoIP, redes P2P, entre otros). Se presentará primeramente un análisis de complejidad del cómputo de la DCR y subfamilias de grafos con cálculo eficiente de la DCR. Luego, revisaremos técnicas estadísticas promisorias para desarrollar estimadores insesgados de baja varianza.

  17. Viernes 4 de julio. Pablo Rotondo. "Compresión sin pérdida de imágenes utilizando códigos óptimos para distribuciones geométricas bidimensionales"

    Resumen: Recientemente se han caracterizado códigos óptimos para pares de variables geométricas independientes e idénticamente distribuidas, lo cual abre la interrogante de si estos pueden ser utilizados para obtener mayores tasas de compresión para la compresión sin pérdida de imágenes. Comenzamos presentando dichos códigos óptimos, así como sus antecesores unidimensionales, para luego discutir cómo los códigos para variables geométricas son utilizados en el algoritmo LOCO-I/JPEG-LS para compresión de imágenes de tono de gris. Finalmente, hablaremos sobre cómo modificar dicho algoritmo para incorporar los códigos bidimensionales, con el objetivo de codificar imágenes a color.


1.Los últimos viernes de cada mes los dedicamos a bioestadística
En el primer semestre el tema de estudio son los grandes desvíos.
Los estudiantes interesados en la aprobación curricular del seminario se contactan para planificar las exposiciones.
Este Seminario sera seguido por teleconferencia desde la sede universitaria de Rocha, por parte del PDU allí radicado MAREN (Modelización y Anáflisis de Recursos Naturales) volver