Optimización de funciones cuadráticas. Mínimos cuadrados. Revisión teoría y ejemplo Matlab.

Antonio Sala, UPV

Dificultad: ** ,       Relevancia: PIC,      Duración: 06:04

Materiales:    [mgo.pdf]

Resumen:

En este vídeo se revisa la optimización de una función cuadrática J(x) = m + rT x + 1 2xT Qx. Su jacobiano es rT + xT Q, y su hessiano es Q. Con ello se puede demostrar que si Q es definida positiva, se alcanza un único mínimo en Q1r.

A continuación, sobre un sistema de ecuaciones Ax = b, se enuncian el problema de mínimos cuadrados con más ecuaciones que incógnitas (minimizar b Ax2) y el otro problema de mínimos cuadrados con más incógnitas que ecuaciones (minimizar x2 sujeto a Ax b = 0). Expresando el coste como J(x) arriba (usando multiplicador de Lagrange en el segundo caso) y calculando los adecuados jacobianos y hessianos, se demuestra que las soluciones de estos problemas de mínimos cuadrados vienen dadas en función de la pseudoinversa izquierda de A y de la pseudoinversa derecha, respectivamente.

El vídeo finaliza con un sencillo ejemplo numérico con Matlab y pinv de mínimos cuadrados.

La generalización al caso de mínimos cuadrados ponderados y su utilidad en problemas de control (conseguir y = r con un modelo y = Gu) se abordan en los vídeos [mcpy] (más filas que columnas) y [mcpu] (más columnas que filas).

Nota: Los mínimos cuadrados considerados en este vídeo tienen, además, una interpretación geométrica (proyección ortogonal) y estadística (mínima varianza). Estas cuestiones se discuten en el vídeo [ls3i].

Colección completa [VER]:

Se reservan todos los derechos en materiales cuyo autor pertenezca a la UPV.
Para condiciones de uso de material de terceros referenciado, consulte a sus autores.