Optimización Bayesiana, introducción (parte 4): aplicaciones, observaciones finales

Antonio Sala, UPV

Dificultad: ** ,       Relevancia: PIC,      Duración: 17:57

*Link to English version

Materiales:    [ BOIntroTeo.pdf]

Resumen:

Después de una revisión rápida del material de vídeos anteriores, este video analiza los dominios de aplicación donde SÍ se recomienda la optimización bayesiana (optimización experimental sin modelos, parámetros de cálculos largos neuronales/fluidos/…), así como algunas circunstancias en las que NO se recomienda (funciones simples, casos de alta dimensión). Si no has visto los vídeos [BOmot1], [BOmot2] y [BOmot3], te recomiendo su visualización.

El vídeo concluye con un par de comentarios sobre, primero, el hecho de que el determinismo es un caso límite de estadística con un taman~o de incertidumbre que tiende a cero, por lo que hay bastantes problemas de optimización deterministas que admiten una ”interpretación estadística” (por ejemplo, mínimos cuadrados , suponiendo un ruido de medición aleatorio normalmente distribuido); También existen opciones de optimización bayesiana semiparamétrica.

La segunda observación sen~ala el hecho de que los métodos basados en gradiente pueden quedarse estancados en mínimos locales; por lo tanto, algunos algoritmos (búsqueda aleatoria dirigida) utilizan pasos de ”tirar los dados” para intentar explorar y obtener el óptimo global; sin embargo, estas cuestiones no cambian el hecho de que el problema subyacente es determinista y no se supone que haya incertidumbre en la función objetivo.

Un resumen y conclusiones repasando las ideas de este vídeo y los anteriores de la serie que comenzó con el vídeo [BOmot1] finalizan el vídeo y el conjunto de 4 vídeos que motivan y describen brevemente las principales características de la optimización bayesiana.

© 2025, A. Sala. Se reservan todos los derechos en materiales cuyo autor pertenezca a UPV.
Para condiciones de uso de material de terceros referenciado, consulte a sus autores.