Una matriz es un arreglo rectangular de elementos. Asimismo, una matriz de dimensiones nx1 puede verse como un vector en Rn.
Finalmente, todo vector es combinación lineal de los vectores canónicos.
Una combinación lineal implica que es cerrado bajo la adición, la multiplicación y contiene el cero.
La transpuesta de una matriz diagonal es la misma matriz,
El efecto de transformar una matriz ortogonal (ortonormal) es que preserva la norma de los vectores.
• Preservan volúmenes el volumen lineal (todos los vectores canónigos preservan su longitud).
• Preservan la norma de los vectores.
• Las matrices ortogonales son sus propias inversas e inversas.
• Todas las matrices ortogonales están hechas de reflexiones y rotaciones.
La definición establece que dada una matriz A que pertenece Rnxm, existe una descomposición de la forma A = U∑VT, en donde U matriz ortogonal de m x n, V matriz ortogonal de n x n, y ∑ una matriz de m x n “casi” diagonal.
Es decir, toda matriz puede descomponerse en tres matrices básicas. Esto es, toda transformación lineal es una rotación, redimensionamiento de los ejes canónicos y una rotación final.
Diagonalizar es encontrar la base de eigenvectores.
Si Rn tiene una base de eigenvectores, cualquier vector (matriz) se puede escribir como una constante o eigenvalores por la base de eigenvectores. Los eigenvectores representan la dirección en la que se aplica la transforamción y los eigenvalores son el factor de ajuste que alargan o acortan el eigenvector. En caso de que sea negativo invierte la dirección.
Es la solución a un problema de optimización.
Es una forma de describir a una matriz como un resultado de una rotación, redimensionamiento de los ejes canónicos y otra rotación final.
La SVD descompone una matriz en tres partes, una matriz de valores singulares y dos matrices integradas por vectores singulares. Por su parte, la diagonalización también es es una descomposición formada por los eigenvalores y eigenvectores.
En la descomposición SVD donde A = U∑VT la aproximación de rango menor se realiza al encontrar una ∑(gorro) que únicamente contenga los valores singulares más grandes.
Es decir, se busca que estos valores sean suficientes para explicar el mayor efecto en la variación.
Es un método de optimización para encontrar una aproximación a un mínimo local a través del negativo del gradiente. En una función multivariada el negativo del gradiente indica la dirección de máximo descenso. Al realizar este proceso iterativamente llegamos a un mínimo local.
a)