Seminarios

Próximas Charlas

Dia 2024-06-21 10:30:00-03:00
Hora 2024-06-21 10:30:00-03:00
LugarFacultad de Ingeniería, salón 703.

Bandits con políticas óptimas mixtas

Matias Carrasco (ORT-IMERL)

Voy a presentar un trabajo en curso que estamos llevando a cabo junto a Ricardo Fraiman y Alejandro Cholaquidis.

Informalmente un Stochastic Multi-Armed Bandit (SMAB) consiste en una colección finita de acciones (también llamadas brazos) que al ser tomadas devuelven una recompensa aleatoria con distribución fija (dependiente solamente de la acción elegida). El objetivo general es definir a través de algún mecanismo una manera de tomar acciones de forma secuencial (política) que permita encontrar a largo plazo la mejor acción (mejores recompensas). Dependiendo del significado preciso de "mejor acción" puede ocurrir que las políticas óptimas sean mixtas, esto es, una distribución no trivial en el conjunto de acciones. En la charla voy a revisitar el universo clásico de los SMAB y algunos algoritmos conocidos. Luego pasaré a presentar el marco general en el cual estamos trabajando y una forma de enunciar el Gradient Bandit Algorithm utilizando la Influence Curve de un estimador que se adapta bien a dicho marco.