Optimización Bayesiana, introducción (parte 3): fórmulas del posterior y funciones de adquisición de próxima muestra (esbozo)

Antonio Sala, UPV

Dificultad: **** ,       Relevancia: PIC,      Duración: 10:40

*Link to English version

Materiales:    [ BOIntroTeo.pdf]

Resumen:

Este video continúa con la introducción y motivación a los problemas de optimización bayesiana que se inició en el video [BOmot1].

En el vídeo [BOmot2] concluimos que los algoritmos BO acaban comprendiendo los siguientes pasos:

Este video amplía el tercer paso de la metodología, argumentando que se lleva a cabo en un proceso gaussiano con las fórmulas condicionales de distribuciones normales multivariadas.

El último paso también se describe... la siguiente muestra puede seleccionarse para optimizar el valor esperado (EV), la probabilidad de mejorar (PI), la mejora esperada (EI), podemos ser arriesgados y elegir un límite de confianza inferior (nosotros probablemente no lo lograremos, pero obtendríamos una muy buena muestra si lo hiciéramos), u optimizar la ganancia de información mediante muestreo (búsqueda de entropía). Se presenta una descripción muy breve de cada una de estas opciones, sólo para vislumbrar las ideas principales, pero un análisis detallado será tema de otros materiales que analicen BO con mayor profundidad.

Un primer ejemplo numérico de la metodología se aborda en el vídeo [boloop1]. Los casos de aplicación y las observaciones finales en el vídeo [BOmot4] concluirán esta breve presentación de los procedimientos de optimización bayesiana.

© 2025, A. Sala. Se reservan todos los derechos en materiales cuyo autor pertenezca a UPV.
Para condiciones de uso de material de terceros referenciado, consulte a sus autores.