Aprendizaje semi-supervisado

El problema clásico de clasificación tiene como objetivo asignar una etiqueta a un nuevo dato a partir de una muestra D_n de entrenamiento. Típicamente se asume D_n iid, y se prueban resultados de consistencia cuando n → ∞. En el contexto de aprendizaje semi-supervisado, la muestra de entrenamiento es pequeña, y se tiene una enorme cantidad, l>>n, de datos para clasificar, X_1 , . . . , X_l . El objetivo es usar (si es posible) la enorme cantidad de datos no clasificados, para construir un clasificador que sea mejor (se equivoque menos) que el que se puede construir con la muestra inicial D_n ya etiquetada. Intuitivamente, esto será posible si conocer la distribución de las X aporta información a la clasificación. En la charla propondremos un algoritmo que permite clasificar secuencialmente la muestra X_1,...X_l , y que asintoticamente (cuando l → ∞ y n es fijo), se comporta como la mejor regla (teórica) posible. Si bien esto requiere imponer hipotesis fuertes sobre la distribución de las X, veremos que las mismas son necesarias, por la dificultad intrínseca del problema.
  • Aprendizaje semi-supervisado
  • 2017-09-15T10:30:00-03:00
  • 2017-09-15T11:30:00-03:00
  • El problema clásico de clasificación tiene como objetivo asignar una etiqueta a un nuevo dato a partir de una muestra D_n de entrenamiento. Típicamente se asume D_n iid, y se prueban resultados de consistencia cuando n → ∞. En el contexto de aprendizaje semi-supervisado, la muestra de entrenamiento es pequeña, y se tiene una enorme cantidad, l>>n, de datos para clasificar, X_1 , . . . , X_l . El objetivo es usar (si es posible) la enorme cantidad de datos no clasificados, para construir un clasificador que sea mejor (se equivoque menos) que el que se puede construir con la muestra inicial D_n ya etiquetada. Intuitivamente, esto será posible si conocer la distribución de las X aporta información a la clasificación. En la charla propondremos un algoritmo que permite clasificar secuencialmente la muestra X_1,...X_l , y que asintoticamente (cuando l → ∞ y n es fijo), se comporta como la mejor regla (teórica) posible. Si bien esto requiere imponer hipotesis fuertes sobre la distribución de las X, veremos que las mismas son necesarias, por la dificultad intrínseca del problema.
  • Cuándo 15/09/2017 de 10:30 a 11:30 (America/Montevideo / UTC-300)
  • Dónde Salón de Seminarios. Centro de Matemática
  • Nombre
  • Speaker Alejandro Cholaquidis
  • Agregar evento al calendario iCal