Capítulo 20
Identificación/ajuste de modelos (sin dinámica)

Nota: Los contenidos de este capítulo requieren una revisión en profundidad de los conceptos básicos de estadística (Sección B.2) y de predicción lineal óptima mínimo-cuadrática, en la Sección B.5.

20.1 Mínimos cuadrados (caso estático)

[659: id1aIdentificación, generalidades: modelos y su uso (simulación, observación, identificación paramétrica) *** PIC 04:34

[660: id1bIdentificación mínimos cuadrados lineal: propiedades estadísticas del estimado, matriz de información (Fisher) *** PIC 19:54

[661: optimMLDeterminación de parámetros de un modelo probabilístico: ejemplo Matlab (max likelihood) *** PIC 07:24

[662: id2Identificación (mínimos cuadrados, sistemas estáticos): MATLAB ******* PIC 20:51

[663: id3Ajuste de modelos no lineales estáticos **** PIC 22:06

Caso de estudio (académico)

[664: rlce1Regresión lineal (caso estudio Matlab): centrado, escalado, pseudoinversa, modelo de predicción ** PIC 09:15

[665: rlce2Regresión lineal (caso estudio Matlab): error de predicción, varianza de parámetros estimados **** PIC 13:28

[666: rlce3Regresión lineal (caso estudio Matlab): regresión por componentes principales PCR, simplificación de modelo ***** PIC 14:25

20.2 Mínimos cuadrados recursivos

20.2.1 Algoritmos recursivos sin olvido

[667: mcr1Mínimos cuadrados recursivos 1 (teoría, sin olvido) ******* PIC 11:18

[668: mcr1mMinimos cuadrados recursivos sin olvido: ejemplo Matlab *** PIC 05:41

[669: mcrnrMínimos cuadrados recursivos: relación con fórmula no recursiva (pseudoinversa) ***** PIC 07:43

Ejemplo adicional (relación con “regularización”): la regularización en un problema de mínimos cuadrados (minimizar yN×1 XN×m𝜃m×12 + λ𝜃2), cuya solución es 𝜃^ = (XTX + λI)1XT y (equivalementemente, mediante lema inversión matrices, 𝜃^ = XT(XXT + λI)1 y) puede ser entendida como un problema de mínimos cuadrados recursivos.

En efecto, si el estimado a priori de 𝜃 es 𝜃^0 N(0,γI), y el ruido de medida es V = ηI, entonces se tiene, con el mismo lema de inversión de matrices que en los materiales del vídeo [ mcrnr(07:43)], que:

𝜃^1 = γXT(γXXT + ηI)1y = (XTX + η γI)1XTy

con lo que el parámetro de la regularización sería λ = ηγ.

20.2.2 Algoritmos con olvido (factor de olvido / filtro de Kalman)

[670: mcr2Mínimos cuadrados recursivos (II): incorporación de olvido (factor exponencial, filtro Kalman) **** PIC 10:51

[671: mcr2mMínimos cuadrados recursivos con olvido: ejemplo Matlab **** PIC 14:23

Nota: Podría resultar de interés en este momento el comparar el código de los mínimos cuadrados recursivos con el del filtro de Kalman del vídeo [ kalml(33:33)], comprobando el paralelismo entre ambos.

[672: mcrsupMínimos cuadrados recursivos: supervisión del factor de olvido ***** PIC 16:30

20.3 Mínimos cuadrados totales

[673: tls1Mínimos cuadrados totales TLS: teoría **** PIC 19:15

20.3.1 Ejemplos Matlab

[674: tlsmMínimos cuadrados totales TLS: ejemplo Matlab (estático) **** PIC 12:37

[675: tls51Ejemplo mínimos cuadrados totales TLS 5 variables (Matlab) *** PIC 15:35 *Link to English version

[676: tls52Ejemplo mínimos cuadrados totales TLS 5 variables (Matlab): sesgo con escalado incorrecto **** PIC 11:53 *Link to English version

20.4 Otros índices de coste para regresión

[677: regladOtros índices de coste para regresión: valor absoluto de error/parámetros (LP;QP) *** PIC 11:49

20.5 Métodos Kernel

[678: kermotProblemas con gran número de variables por muestra: motivación al enfoque kernel *** PIC 12:15

[679: ktrickTruco del Kernel (1): eliminación de espacio nulo, matriz de productos escalares **** PIC 12:27

[680: ktrick2Truco del Kernel (2): selección de Kernel y construcción de modelo de regresión final **** PIC 12:53

Esta es la idea detras de Kernel regression, Support Vector Machines, etc. que este material no aborda en profundidad por brevedad, pero que son técnicas de importancia en el machine learning introducidas en los años 1990.

20.5.1 Regresión mínimos cuadrados contraida (ridge-regression), versión Kernel

[681: kerlsMétodos Kernel: ajuste (regresión) por mínimos cuadrados **** PIC 08:55

[682: kerlsmMétodos Kernel: ajuste (regresión) por mínimos cuadrados, Ejemplo Matlab **** PIC 14:51

[683: kstatInterpretación estadística de la regresión Kernel mínimos cuadrados, procesos gaussianos **** PIC 

Nota: El siguiente ejemplo Matlab está muy relacionado con el ejemplo explicado en el vídeo [ krig2dm(09:25)].

[684: gausspRegresión Kernel: interpretación estadística/filtro de Wiener (Matlab) ***** PIC 

[685: optimkernOptimización de hiperparámetros de un kernel (covarianza proc. estocástico) para regresión **** PIC 12:57

[686: kcentraCentrado de Kernels *** PIC 10:59

Nota: En los ejemplos de código anteriores, por simplicidad no se ha usado el Kernel centrado ni trasladar a media muestral cero los datos. Posiblemente deberían refinarse añadiendo dichos aspectos, o considerando modelos semiparamétricos (con media no nula, ordinary kriging), como se hace en la siguiente sección.

20.5.2 Regresión semiparamétrica (kernel+modelo con parámetros explícitos)

[687: semipar1Modelos semiparamétricos (Kernel+regresores): estimación de salidas y parámetros **** PIC 07:53

[688: semipar2Modelos semiparamétricos (Kernel+regresores): notas adicionales ***** PIC 09:00

Caso de estudio

[689: semipclsModelos semiparamétricos (Kernel+regresores): clase Matlab para ejemplos **** PIC 07:39

[690: semipcasoModelos semiparamétricos (Kernel+regresores): caso de estudio Matlab **** PIC 14:40