Materiales: [mgo.pdf]
En este vídeo se revisa la optimización de una función cuadrática . Su jacobiano es , y su hessiano es . Con ello se puede demostrar que si es definida positiva, se alcanza un único mínimo en .
A continuación, sobre un sistema de ecuaciones , se enuncian el problema de mínimos cuadrados con más ecuaciones que incógnitas (minimizar ) y el otro problema de mínimos cuadrados con más incógnitas que ecuaciones (minimizar sujeto a ). Expresando el coste como arriba (usando multiplicador de Lagrange en el segundo caso) y calculando los adecuados jacobianos y hessianos, se demuestra que las soluciones de estos problemas de mínimos cuadrados vienen dadas en función de la pseudoinversa izquierda de y de la pseudoinversa derecha, respectivamente.
El vídeo finaliza con un sencillo ejemplo numérico con Matlab y pinv de mínimos cuadrados.
La generalización al caso de mínimos cuadrados
ponderados y su utilidad en problemas de control (conseguir
con un
modelo )
se abordan en los vídeos [
Nota: Los mínimos cuadrados considerados en este vídeo tienen,
además, una interpretación geométrica (proyección ortogonal) y
estadística (mínima varianza). Estas cuestiones se discuten en el vídeo
[
Colección completa [VER]:
Anterior Optimización local (fmincon) versus global (algoritmo genético): ejemplo Matlab
Siguiente Mínimos cuadrados ponderados en control (I): exceso de salidas