Interpretación estadística de la regresión Kernel mínimos cuadrados, procesos gaussianos

Antonio Sala, UPV

Dificultad: **** ,       Relevancia: PIC,      Duración:

Materiales:    [ KernelRegressionStatisticInterp.pdf]

Resumen:

En este material se presenta la interpretación estadística como mejor predicción lineal (mínimos cuadrados) de la regresión discutida en el vídeo [kerls], identificando las matrices del resultado final con varianzas-covarianzas. En efecto, del mismo modo que la regresión “determinista” en su versión clásica no-kernel tenía una interpretación estadística, también la tiene su versión Kernel.

El resultado (suponiendo distribución normal de las variables aleatorias interivinientes) es lo que se conoce como regresión “procesos gaussianos”: un conjunto infinito de variables aleatorias f(x), uno para cada x del dominio donde se dispone información, medidas con ruido y = f(x) + v, cuya covarianza o correlación es κ(x,y). La función que genera el Kernel pasa a ser entendida como una función “generadora de covarianza”. Esto, en el caso unidimensional tiene una interpretación de “filtrado” en sistemas dinámicos: si κ(x,y) = κ~(x y) la distancia significa exactamente lo mismo que la distancia “en tiempo” en un problema de filtrado cuya autocorrelación sea κ~. La transformada de Fourier de κ~ sería el power-spectral-density (según descrito en el vídeo [psd]) del filtro asociado al Kernel.

Colección completa [VER]:

© 2024, A. Sala. Se reservan todos los derechos en materiales cuyo autor pertenezca a UPV.
Para condiciones de uso de material de terceros referenciado, consulte a sus autores.