Saltar al contenido principal
LibreTexts Español

7.4: Descomposiciones del Valor Singular

  • Page ID
    115697
  • \( \newcommand{\vecs}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} } \) \( \newcommand{\vecd}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash {#1}}} \)\(\newcommand{\id}{\mathrm{id}}\) \( \newcommand{\Span}{\mathrm{span}}\) \( \newcommand{\kernel}{\mathrm{null}\,}\) \( \newcommand{\range}{\mathrm{range}\,}\) \( \newcommand{\RealPart}{\mathrm{Re}}\) \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\) \( \newcommand{\Argument}{\mathrm{Arg}}\) \( \newcommand{\norm}[1]{\| #1 \|}\) \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\) \( \newcommand{\Span}{\mathrm{span}}\) \(\newcommand{\id}{\mathrm{id}}\) \( \newcommand{\Span}{\mathrm{span}}\) \( \newcommand{\kernel}{\mathrm{null}\,}\) \( \newcommand{\range}{\mathrm{range}\,}\) \( \newcommand{\RealPart}{\mathrm{Re}}\) \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\) \( \newcommand{\Argument}{\mathrm{Arg}}\) \( \newcommand{\norm}[1]{\| #1 \|}\) \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\) \( \newcommand{\Span}{\mathrm{span}}\)\(\newcommand{\AA}{\unicode[.8,0]{x212B}}\)

    El Teorema Espectral ha animado las últimas secciones. En particular, aplicamos el hecho de que las matrices simétricas se pueden diagonalizar ortogonalmente para simplificar las formas cuadráticas, lo que nos permitió utilizar el análisis de componentes principales para reducir la dimensión de un conjunto de datos.

    Pero, ¿qué podemos hacer con matrices que no son simétricas ni siquiera cuadradas? Por ejemplo, las siguientes matrices no son diagonalizables, y mucho menos ortogonalmente:

    \ begin {ecuation*}\ begin {bmatrix} 2 & 1\\ 0 & 2\ end {bmatrix},\ hspace {24pt}\ begin {bmatrix} 1 & 1 & 0\\ -1 & 0 & 1\ end {bmatrix}. \ end {ecuación*}

    En esta sección, desarrollaremos una descripción de matrices llamada descomposición de valores singulares que es, en muchos sentidos, análoga a una diagonalización ortogonal. Por ejemplo, hemos visto que cualquier matriz simétrica se puede escribir en la forma\(QDQ^T\) donde\(Q\) es una matriz ortogonal y\(D\) es diagonal. Una descomposición de valor singular tendrá la forma\(U\Sigma V^T\) donde\(U\) y\(V\) son ortogonales y\(\Sigma\) es diagonal. Lo más notable es que veremos que cada matriz tiene una descomposición de valor singular sea simétrica o no.

    Vista previa Actividad 7.4.1.

    Revisemos las diagonalizaciones ortogonales y las formas cuadráticas ya que nuestra comprensión de las descomposiciones de valores singulares se basará en ellas.

    1. Supongamos que\(A\) es cualquier matriz. Explique por qué la matriz\(G = A^TA\) es simétrica.
    2. Supongamos que\(A = \begin{bmatrix} 1 & 2 \\ -2 & -1 \\ \end{bmatrix}\text{.}\) Encuentra la matriz\(G=A^TA\) y escribe la forma\(q_G\left(\twovec{x_1}{x_2}\right)\) cuadrática en función de\(x_1\) y\(x_2\text{.}\)
    3. ¿Cuál es el valor máximo de\(q_G(\mathbf x)\) y en qué dirección ocurre?
    4. ¿Cuál es el valor mínimo\(q_G(\mathbf x)\) y en qué dirección ocurre?
    5. ¿Cuál es la relación geométrica entre las direcciones en las que ocurren los valores máximo y mínimo?

    Encontrar descomposiciones de valores singulares

    Comenzaremos explicando qué es una descomposición de valores singulares y cómo podemos encontrar uno para una matriz dada\(A\text{.}\)

    Recordemos cómo se forma la diagonalización ortogonal de una matriz simétrica: si\(A\) es simétrica, escribimos\(A = QDQ^T\) donde las entradas diagonales de\(D\) son los valores propios de\(A\) y las columnas de\(Q\) son los vectores propios asociados. Además, los valores propios están relacionados con los valores máximo y mínimo de la forma cuadrática asociada\(q_A(\mathbf u)\) entre todos los vectores unitarios.

    Una matriz general, particularmente una matriz que no es cuadrada, puede no tener valores propios y vectores propios, pero podemos descubrir características análogas, llamadas valores singulares y vectores singulares, estudiando una función algo similar a una forma cuadrática. Más específicamente, cualquier matriz\(A\) define una función

    \ begin {ecuación*} L_a (\ mathbf x) = |A\ mathbf x|,\ end {ecuación*}

    que mide la longitud de\(A\mathbf x\text{.}\) Por ejemplo, la matriz diagonal\(D=\begin{bmatrix} 3 & 0 \\ 0 & -2 \\ \end{bmatrix}\) da la función\(l_D(\mathbf x) = \sqrt{9x_1^2 + 4x_2^2}\text{.}\) La presencia de la raíz cuadrada significa que esta función no es una forma cuadrática. Podemos, sin embargo, definir los valores y vectores singulares buscando el máximo y mínimo de esta función\(l_A(\mathbf u)\) entre todos los vectores unitarios\(\mathbf u\text{.}\)

    Si bien no\(l_A(\mathbf x)\) es en sí misma una forma cuadrática, se convierte en una si la cuadramos:

    \ begin {ecuación*}\ izquierda (L_a (\ mathbf x)\ derecha) ^2 = |A\ mathbf x|^2 = (A\ mathbf x)\ cdot (A\ mathbf x) =\ mathbf x\ cdot (A^TA\ mathbf x) =q_ {A^TA} (\ mathbf x)\ text {.} \ end {ecuación*}

    Llamamos a\(G=A^TA\text{,}\) la matriz Gram asociada\(A\) y notamos que

    \ begin {ecuación*} L_a (\ mathbf x) =\ sqrt {q_g (\ mathbf x)}\ texto {.} \ end {ecuación*}

    Esto es importante en la siguiente actividad, que introduce valores singulares y vectores singulares.

    Actividad 7.4.2.

    La siguiente figura interactiva nos ayudará a explorar valores singulares y vectores geométricamente antes de comenzar un enfoque más algebraico. Esta cifra también está disponible en GVSU.edu/S/0yE.

    Los cuatro deslizadores en la parte superior de esta figura nos permiten elegir una\(2\times2\) matriz\(A\text{.}\) A continuación, a la izquierda, vemos el círculo unitario y el vector unitario rojo\(\mathbf x\text{,}\) que se puede variar haciendo clic en la cabecera del vector y arrastrándolo a un nuevo vector unitario.

    Figura 7.4.1. Valores singulares, vectores singulares derechos y vectores singulares izquierdos

    Selecciona la matriz\(A=\begin{bmatrix} 1 & 2 \\ -2 & - 1 \\ \end{bmatrix}\text{.}\) A medida que\(\mathbf x\text{,}\) variamos el vector vemos el vector\(A\mathbf x\) en gris mientras que la altura de la barra azul a la derecha nos indica\(l_A(\mathbf x) = |A\mathbf x|\text{.}\)

    1. El primer valor singular\(\sigma_1\) es el valor máximo de\(l_A(\mathbf x)\) y un vector singular derecho asociado\(\mathbf v_1\) es un vector unitario que describe una dirección en la que ocurre este máximo.

      Usa el diagrama para encontrar el primer valor singular\(\sigma_1\) y un vector singular derecho asociado\(\mathbf v_1\text{.}\)

    2. El segundo valor singular\(\sigma_2\) es el valor mínimo de\(l_A(\mathbf x)\) y un vector singular derecho asociado\(\mathbf v_2\) es un vector unitario que describe una dirección en la que ocurre este mínimo.

      Usa el diagrama para encontrar el segundo valor singular\(\sigma_2\) y un vector singular derecho asociado\(\mathbf v_2\text{.}\)

    3. Así es como podemos encontrar los valores singulares y vectores correctos sin usar el diagrama. Recuerda que\(l_A(\mathbf x) = \sqrt{q_G(\mathbf x)}\) donde\(G=A^TA\) está la matriz Gram asociada a\(A\text{.}\)\(G\) Since es simétrica, es ortogonalmente diagonalizable. Encontrar\(G\) y una diagonalización ortogonal de la misma.
      ¿Cuál es el valor máximo de la forma cuadrática\(q_G(\mathbf x)\) entre todos los vectores unitarios y en qué dirección ocurre? ¿Cuál es el valor mínimo\(q_G(\mathbf x)\) y en qué dirección ocurre?
    4. Porque\(l_A(\mathbf x) = \sqrt{q_G(\mathbf x)}\text{,}\) el primer valor singular\(\sigma_1\) será la raíz cuadrada del valor máximo de\(q_G(\mathbf x)\) y\(\sigma_2\) la raíz cuadrada del mínimo. Verifica que los valores singulares que encontraste en el diagrama son las raíces cuadradas de los valores máximo y mínimo de\(q_G(\mathbf x)\text{.}\)
    5. Verifica que los vectores singulares correctos\(\mathbf v_1\) y\(\mathbf v_2\) que encontraste en el diagrama son las direcciones en las que ocurren los valores máximo y mínimo.
    6. Finalmente, introducimos los vectores singulares izquierdos\(\mathbf u_1\) y\(\mathbf u_2\) requiriendo eso\(A\mathbf v_1 = \sigma_1\mathbf u_1\) y\(A\mathbf v_2=\sigma_2\mathbf u_2\text{.}\) Encontrar los dos vectores singulares izquierdos.
    7. Formar las matrices
      \ begin {ecuation*} U =\ begin {bmatrix}\ mathbf u_1 &\ mathbf u_2\ end {bmatrix},\ hspace {24pt}\ Sigma =\ begin {bmatrix}\ sigma_1 & 0\\ 0 &\ sigma_2\\\ end {bmatrix},\ hspace {24pt} V =\ begin {bmatrix}\ mathbf v_1 &\ mathbf v_2\ end {bmatrix}\ end {ecuación*}

      y explicar por qué\(AV = U\Sigma\text{.}\)

    8. Por último, explicar por qué\(A=U\Sigma V^T\) y verificar que esta relación se sostiene para este ejemplo específico.

    Como muestra esta actividad, los valores singulares de\(A\) son los valores máximo y mínimo de\(l_A(\mathbf x)=|A\mathbf x|\) entre todos los vectores unitarios y los vectores singulares derechos\(\mathbf v_1\) y\(\mathbf v_2\) son las direcciones en las que ocurren. La clave para encontrar los valores y vectores singulares es utilizar la matriz Gram\(G\) y su forma cuadrática asociada.\(q_G(\mathbf x)\text{.}\) Ilustraremos con algunos ejemplos más.

    Ejemplo 7.4.2

    Encontraremos un valor singular descomposición de la matriz\(A=\begin{bmatrix} 1 & 2 \\ -1 & 2 \end{bmatrix} \text{.}\) Observe que esta matriz no es simétrica por lo que no puede ser diagonalizada ortogonalmente.

    Comenzamos construyendo la matriz Gram\(G = A^TA = \begin{bmatrix} 2 & 0 \\ 0 & 8 \\ \end{bmatrix}\text{.}\) Dado que\(G\) es simétrica, se puede diagonalizar ortogonalmente con

    \ begin {ecuation*} D =\ begin {bmatrix} 8 & 0\\ 0 & 2\\\ end {bmatrix},\ hspace {24pt} Q =\ begin {bmatrix} 0 & 1\\ 1 & 0\\ end {bmatrix}\ text {.} \ end {ecuación*}

    Ahora sabemos que el valor máximo de la forma cuadrática\(q_G(\mathbf x)\) es 8, lo que ocurre en la dirección\(\twovec01\text{.}\) Ya que\(l_A(\mathbf x) = \sqrt{q_G(\mathbf x)}\text{,}\) esto nos dice que\(l_A(\mathbf x)\text{,}\) el valor máximo del primer valor singular, es\(\sigma_1=\sqrt{8}\) y que esto ocurre en la dirección del primer vector singular derecho\(\mathbf v_1=\twovec01\text{.}\)

    De la misma manera, también sabemos que el segundo valor singular\(\sigma_2=\sqrt{2}\) con vector singular derecho asociado\(\mathbf v_2=\twovec10\text{.}\)

    El primer vector singular izquierdo\(\mathbf u_1\) se define por\(A\mathbf v_1 = \twovec22 = \sigma_1\mathbf u_1\text{.}\) Porque\(\sigma_1 = \sqrt{8}\text{,}\) tenemos\(\mathbf u_1 = \twovec{1/\sqrt{2}}{1/\sqrt{2}}\text{.}\) Aviso que\(\mathbf u_1\) es un vector unitario porque\(\sigma_1 = |A\mathbf v_1|\text{.}\)

    De la misma manera, se define el segundo vector singular izquierdo por el\(A\mathbf v_2 = \twovec1{-1} = \sigma_2\mathbf u_2\text{,}\) que nos da\(\mathbf u_2 = \twovec{1/\sqrt{2}}{-1/\sqrt{2}}\text{.}\)

    Luego construimos

    \ begin {align*} U & {} = {}\ begin {bmatrix}\ mathbf u_1 &\ mathbf u_2\ end {bmatrix} =\ begin {bmatrix} 1/\ sqrt {2} & 1/\ sqrt {2}\\ 1/\ sqrt {2} & -1/\ sqrt {2}\\\ end {bmatrix}\\\ Sigma & {} =}\ begin {bmatrix}\ sigma_1 & 0\\ 0 &\ sigma_2\\\ end {bmatrix} =\ begin {bmatrix}\ sqrt {8} & 0\\ 0 &\ sqrt {2}\\\ end {bmatrix}\\ V & {} = {}\ begin {bmatrix}\ mathbf v_1 &\ mathbf v_2\ end {bmatrix} =\ begin {bmatrix} 0 & 1\\ 1 & 0\\ end {bmatrix}\ end {bmatrix}\ end {align*}

    Ahora tenemos\(AV=U\Sigma\) porque

    \ begin {ecuación*} AV =\ begin {bmatrix} A\ mathbf v_1 & A\ mathbf v_2\ end {bmatrix} =\ begin {bmatrix}\ sigma_1\ mathbf u_1 &\ sigma_2\ mathbf u_2\ end {bmatrix} =\ Sigma U\ text {.} \ end {ecuación*}

    Debido a que los vectores singulares derechos, las columnas de\(V\text{,}\) son vectores propios de la matriz simétrica\(G\text{,}\) forman una base ortonormal, lo que significa que\(V\) es ortogonal. Por lo tanto, tenemos\((AV)V^T = A = U\Sigma V^T\text{.}\) Esto da el valor singular descomposición

    \ begin {ecuation*} A =\ begin {bmatrix} 1 & 2\\ -1 & 2\\\ end {bmatrix} =\ begin {bmatrix} 1/\ sqrt {2} & 1/\ sqrt {2}\\ 1/\ sqrt {2} & -1/\ sqrt {2}\\ sqrt {2}\\ end {bmatrix}\ begin {bmatrix}\ sqrt {8} & 0\ 0 &\ sqrt {2}\\\ end {bmatrix}\ begin {bmatrix} 0 & 1\\ 1 & 0\\\ end {bmatrix} ^T = U\ Sigma V^T\ texto {.} \ end {ecuación*}

    Para resumir, encontramos una descomposición de valores singulares de una matriz\(A\) de la siguiente manera:

    • Construir la matriz Gram\(G=A^TA\) y encontrar una diagonalización ortogonal para obtener valores propios\(\lambda_i\) y una base ortonormal de vectores propios.
    • Los valores singulares de\(A\) son las raíces cuadradas de los valores propios\(\lambda_i\) de es\(G\text{;}\) decir,\(\sigma_i = \sqrt{\lambda_i}\text{.}\) Por razones veremos en la siguiente sección, los valores singulares se listan en orden decreciente:\(\sigma_1 \geq \sigma_2 \geq \ldots \text{.}\) Los vectores singulares derechos\(\mathbf v_i\) son los vectores propios asociados de\(G\text{.}\)
    • Los vectores singulares izquierdos se\(\mathbf u_i\) encuentran por\(A\mathbf v_i = \sigma_i\mathbf u_i\text{.}\) Porque\(\sigma_i=|A\mathbf v_i|\text{,}\) sabemos que\(\mathbf u_i\) será un vector unitario.

      De hecho, los vectores singulares izquierdos también formarán una base ortonormal. Para ver esto, supongamos que los valores singulares asociados son diferentes de cero. Entonces tenemos:

      \ begin {align*}\ sigma_i\ sigma_j (\ mathbf u_i\ cdot\ mathbf u_j) & {} = {} (\ sigma_i\ mathbf u_i)\ cdot (\ sigma_j\ mathbf u_j) = (A\ mathbf v_i)\ cdot (A\ mathbf v_j)\ & {} = {}\ mathbf v_i\ cdot (A^TA\ mathbf v_j)\\ & {} = {}\ mathbf v_i\ cdot (G\ mathbf v_j) =\ lambda_j\ mathbf v_i\ cdot\ mathbf v_j = 0\ end {align*}

      ya que los vectores singulares correctos son ortogonales.

    Ejemplo 7.4.3

    Busquemos una descomposición de valores singulares para la matriz simétrica\(A=\begin{bmatrix} 1 & 2 \\ 2 & 1 \end{bmatrix}\text{.}\) La matriz Gram asociada es

    \ begin {ecuación*} G = A^TA =\ begin {bmatrix} 5 & 4\\ 4 & 5\\\ end {bmatrix}\ text {,}\ end {ecuación*}

    que tiene una diagonalización ortogonal con

    \ begin {ecuation*} D =\ begin {bmatrix} 9 & 0\\ 0 & 1\\\ end {bmatrix},\ hspace {24pt} Q =\ begin {bmatrix} 1/\ sqrt {2} & 1/\ sqrt {2}\\ 1/\ sqrt {2} & -1/\ sqrt {2}\\ end {bmatrix}\ text {.} \ end {ecuación*}

    Esto da valores singulares y vectores

    \ begin {alinear*}\ sigma_1 = 3,\ hspace {24pt} &\ mathbf v_1 =\ twovec {1/\ sqrt {2}} {1/\ sqrt {2}}, &\ mathbf u_1 =\ twovec {1/\ sqrt {2}} {1/\ sqrt {2}}\\ sigma_2 = 1,\ hspace {24pt} &\ mathbf v_2 =\ twovec {1/\ sqrt {2}} {-1/\ sqrt {2}}, &\ mathbf u_2 =\ twovec {-1/\ sqrt {2}} {1/\ sqrt {2}}\ end {align*}

    y la descomposición del valor singular\(A=U\Sigma V^T\) donde

    \ begin {ecuación*} U =\ begin {bmatrix} 1/\ sqrt {2} & -1/\ sqrt {2}\\ 1/\ sqrt {2} & 1/\ sqrt {2}\ end {bmatrix},\ hspace {24pt}\ Sigma =\ begin {bmatrix} 3 & 0\\ 0 & 1\ end {bmatrix},\ hspace {24pt} V =\ begin {bmatrix} 1/\ sqrt {2} & 1/\ sqrt {2}\\ 1/\ sqrt {2} & -1/\ sqrt {2}\ end {bmatrix}. \ end {ecuación*}

    Este ejemplo es especial porque\(A\) es simétrico. Pensando un poco, es posible relacionar esta descomposición de valores singulares con una diagonalización ortogonal de\(A\) usar el hecho de que\(G=A^TA = A^2\text{.}\)

    Actividad 7.4.3.

    En esta actividad, construiremos la descomposición del valor singular de\(A=\begin{bmatrix} 1 & 0 & -1 \\ 1 & 1 & 1 \end{bmatrix}\text{.}\) Notice que esta matriz no es cuadrada por lo que no hay valores propios y vectores propios asociados a ella.

    1. Construir la matriz Gram\(G=A^TA\) y encontrar una diagonalización ortogonal de la misma.
    2. Identificar los valores singulares de\(A\) y los vectores singulares correctos\(\mathbf v_1\text{,}\)\(\mathbf v_2\text{,}\) y\(\mathbf v_3\text{.}\) ¿Cuál es la dimensión de estos vectores? ¿Cuántos valores singulares diferentes de cero hay?
    3. Encuentra los vectores singulares\(\mathbf u_1\) izquierdos y\(\mathbf u_2\) usando el hecho de que\(A\mathbf v_i = \sigma_i\mathbf u_i\text{.}\) ¿Cuál es la dimensión de estos vectores? ¿Qué pasa si intentas encontrar un tercer vector singular izquierdo\(\mathbf u_3\) de esta manera?
    4. Como antes, forman las matrices ortogonales\(U\) y\(V\) a partir de los vectores singulares izquierdo y derecho. ¿Cuáles son las dimensiones de\(U\) y\(V\text{?}\) cómo se relacionan estas dimensiones con el número de filas y columnas de\(A\text{?}\)
    5. Ahora forma\(\Sigma\) para que tenga la misma forma que\(A\text{:}\)
      \ begin {ecuación*}\ Sigma =\ begin {bmatrix}\ sigma_1 & 0 & 0\\ 0 &\ sigma_2 & 0\ end {bmatrix}\ end {ecuación*}

      y verificar que\(A = U\Sigma V^T\text{.}\)

    6. ¿Cómo se puede utilizar esta descomposición de valores singulares de\(A=U\Sigma V^T\) para encontrar fácilmente una descomposición de valores singulares de\(A^T=\begin{bmatrix} 1 & 1 \\ 0 & 1 \\ -1 & 1 \\ \end{bmatrix}\text{?}\)
    Ejemplo 7.4.4

    Encontraremos una descomposición de valor singular de la matriz\(A=\begin{bmatrix} 2 & -2 & 1 \\ -4 & -8 & -8 \\ \end{bmatrix}\text{.}\)

    Encontrar una diagonalización ortogonal de\(G=A^TA\) da

    \ begin {ecuation*} D=\ begin {bmatrix} 144 & 0 & 0\\ 0 & 9 & 0\\ 0 & 0 & 0\\\ end {bmatrix},\ hspace {24pt} Q=\ begin {bmatrix} 1/3 & 2/3 & 2/3\\ 2/3 & -2/3 & -2/3 & 1/3 & -2/3 & 1/3 & -2/3\\ end {bmatrix}\ text {,} final\ {ecuación*}

    que da valores singulares\(\sigma_1=\sqrt{144}=12\text{,}\)\(\sigma_2 = \sqrt{9}= 3\text{,}\) y\(\sigma_3 = 0\text{.}\) Los vectores singulares correctos\(\mathbf v_i\) aparecen como las columnas de\(Q\) para que\(V = Q\text{.}\)

    Ahora encontramos

    \ begin {align*} A\ mathbf v_1 =\ twovec {0} {-12} = 12\ mathbf u_1,\ hspace {24pt} &\ mathbf u_1 =\ twovec {0} {-1}\\ A\ mathbf v_2 =\ twovec {3} {0} = 3\ mathbf u_1,\ hspace {24pt} &\ mathbf u_1 =\ twovec10\\ A\ mathbf v_3 =\ twovec {0} {0}\ end {align*}

    Observe que no es posible encontrar un tercer vector singular izquierdo ya que\(A\mathbf v_3=\zerovec\text{.}\) formamos las matrices

    \ begin {ecuation*} U =\ begin {bmatrix} 0 & 1\\ -1 & 0\\\ end {bmatrix},\ hspace {24pt}\ Sigma =\ begin {bmatrix} 12 & 0 & 0\\ 0 & 3 & 0\\ end {bmatrix},\ hspace {24pt} V=\ begin {bmatrix} 1/3 & 2/3 & 2/3 & 2/3 & -2/3 & -2/3 y 1/3\\ 2/3 y 1/3 y -2/3\\\ final {bmatrix }\ texto {,}\ final {ecuación*}

    lo que da el valor singular de descomposición\(A=U\Sigma V^T\text{.}\)

    Observe que\(U\) es una matriz\(2\times2\) ortogonal porque\(A\) tiene dos filas, y\(V\) es una matriz\(3\times3\) ortogonal porque\(A\) tiene tres columnas.

    Como veremos en la siguiente sección, puede ser necesario algún trabajo adicional para construir los vectores singulares izquierdos\(\mathbf u_j\) si más de los valores singulares son cero, pero no nos preocuparemos por eso ahora. Por el momento, grabemos nuestro trabajo en el siguiente teorema.

    Observe que una descomposición de valor singular de nos\(A\) da una descomposición de valor singular de\(A^T\text{.}\) Más específicamente, si\(A=U\Sigma V^T\text{,}\) entonces

    \ begin {ecuación*} A^T = (U\ Sigma V^T) ^T = V\ Sigma^T U^T.\ end {ecuación*}
    Proposición 7.4.6.

    Si\(A=U\Sigma V^T\text{,}\) entonces\(A^T = V\Sigma^T U^T\text{.}\) En otras palabras,\(A\) y\(A^T\) comparten los mismos valores singulares, y los vectores singulares izquierdos de\(A\) son los vectores singulares derechos de\(A^T\) y viceversa.

    Como dijimos anteriormente, la descomposición del valor singular debe pensarse en una generalización de una diagonalización ortogonal. Por ejemplo, el Teorema Espectral nos dice que una matriz simétrica se puede escribir como\(QDQ^T\text{.}\) Muchas matrices, sin embargo, no son simétricas y por lo tanto no son ortogonalmente diagonalizables. Sin embargo, cada matriz tiene una descomposición de valor singular\(U\Sigma V^T\text{.}\) El precio de esta generalización es que usualmente tenemos dos conjuntos de vectores singulares que forman las matrices ortogonales\(U\) y\(V\) mientras que una matriz simétrica tiene un solo conjunto de eignevectores que forman la matriz ortogonal \(Q\text{.}\)

    La estructura de las descomposiciones de valores singulares

    Ahora que tenemos una comprensión de lo que es una descomposición de valores singulares y cómo construirla, exploremos las formas en que una descomposición de valores singulares revela la estructura subyacente de la matriz. Como veremos, las matrices\(U\) y\(V\) en un valor singular la descomposición proporcionan bases convenientes para algunos subespacios importantes, como la columna y los espacios nulos de la matriz. Esta observación proporcionará la clave de algunos de nuestros usos de estas descomposiciones en la siguiente sección.

    Actividad 7.4.4.

    Supongamos que una matriz\(A\) tiene una descomposición de valores singulares\(A=U\Sigma V^T\) donde

    \ begin {ecuation*} U=\ begin {bmatrix}\ mathbf u_1 &\ mathbf u_2 &\ mathbf u_3 &\ mathbf u_4\ end {bmatrix},\ hspace {10pt}\ Sigma =\ begin {bmatrix} 20 & 0 & 0 & 0 & 0\\ 0 & 5 & 0\ 0 & 0\ 0 & 0 & 0\ end {bmatriz},\ hspace {10pt} V=\ begin {bmatrix}\ mathbf v_1 &\ mathbf v_2 &\ mathbf v_3\ end {bmatrix}. \ end {ecuación*}
    1. ¿Cuáles son las dimensiones de\(A\text{;}\) eso es, cuántas filas y columnas\(A\) tiene?
    2. Supongamos que escribimos un vector tridimensional\(\mathbf x\) como una combinación lineal de vectores singulares derechos:
      \ begin {ecuación*}\ mathbf x = c_1\ mathbf v_1 + c_2\ mathbf v_2 + c_3\ mathbf v_3\ text {.} \ end {ecuación*}

      Nos gustaría encontrar una expresión para\(A\mathbf x\text{.}\)

      Para comenzar,\(V^T\mathbf x = \threevec{\mathbf v_1\cdot\mathbf x} {\mathbf v_2\cdot\mathbf x} {\mathbf v_3\cdot\mathbf x} = \threevec{c_1}{c_2}{c_3} \text{.}\)

      Ahora\(\Sigma V^T \mathbf x = \begin{bmatrix} 20 & 0 & 0 \\ 0 & 5 & 0 \\ 0 & 0 & 0 \\ 0 & 0 & 0 \end{bmatrix}\threevec{c_1}{c_2}{c_3} = \fourvec{20c_1}{5c_2}00\text{.}\)

      Y finalmente,\(A\mathbf x = U\Sigma V^T\mathbf x = \begin{bmatrix} \mathbf u_1 & \mathbf u_2 & \mathbf u_3 & \mathbf u_4 \end{bmatrix} \fourvec{20c_1}{5c_2}00 = 20c_1\mathbf u_1 + 5c_2\mathbf u_2\text{.}\)

      Para resumir, tenemos\(A\mathbf x = 20c_1\mathbf u_1 + 5c_2\mathbf u_2\text{.}\)

      ¿Qué condición\(c_1\text{,}\)\(c_2\text{,}\) y\(c_3\) debe cumplirse si\(\mathbf x\) es una solución a la ecuación\(A\mathbf x=40\mathbf u_1 + 20\mathbf u_2\text{?}\) ¿Hay una solución única o infinitamente muchas?

    3. Recordando eso\(\mathbf u_1\) y\(\mathbf u_2\) son linealmente independientes, qué condición\(c_1\text{,}\)\(c_2\text{,}\) y\(c_3\) deben cumplirse si\(A\mathbf x = \zerovec\text{?}\)
    4. ¿Cómo los vectores singulares adecuados\(\mathbf v_i\) proporcionan una base para\(\nul(A)\text{,}\) el subespacio de soluciones a la ecuación?\(A\mathbf x = \zerovec\text{?}\)
    5. Recuerda que\(\mathbf b\) es en\(\col(A)\) si la ecuación\(A\mathbf x = \mathbf b\) es consistente, lo que significa que
      \ begin {ecuación*} A\ mathbf x = 20c_1\ mathbf u_1 + 5c_2\ mathbf u_2 =\ mathbf b\ end {ecuación*}

      para algunos coeficientes\(c_1\) y\(c_2\text{.}\) ¿Cómo\(\mathbf u_i\) proporcionan los vectores singulares izquierdos una base ortonormal para\(\col(A)\text{?}\)

    6. Recuerda que\(\rank(A)\) es la dimensión del espacio de columna. Qué es\(\rank(A)\) y cómo determina el número de valores singulares distintos de cero\(\rank(A)\text{?}\)

    Esta actividad muestra cómo una descomposición de valores singulares de una matriz codifica información importante sobre sus espacios nulos y columnas. Esta es, de hecho, la observación clave que hace que las descomposiciones de valores singulares sean tan útiles: los vectores singulares izquierdo y derecho proporcionan bases ortonormales para\(\nul(A)\) y\(\col(A)\text{.}\)

    Ejemplo 7.4.7

    Supongamos que tenemos un valor singular de descomposición\(A=U\Sigma V^T\) donde\(\Sigma = \begin{bmatrix} \sigma_1 & 0 & 0 & 0 & 0 \\ 0 & \sigma_2 & 0 & 0 & 0 \\ 0 & 0 & \sigma_3 & 0 & 0 \\ 0 & 0 & 0 & 0 & 0 \\ \end{bmatrix} \text{.}\) Esto significa que\(A\) tiene cuatro filas y cinco columnas igual que\(\Sigma\) lo hace.

    Como en la actividad, si\(\mathbf x = c_1 \mathbf v_1 + c_2\mathbf v_2 + \ldots + c_5\mathbf v_5\text{,}\) tenemos

    \ begin {ecuación*} A\ mathbf x =\ sigma_1c_1\ mathbf u_1 +\ sigma_2c_2\ mathbf u_2 +\ sigma_3c_3\ mathbf u_3\ text {.} \ end {ecuación*}

    Si\(\mathbf b\) está en el\(\col(A)\text{,}\) entonces\(\mathbf b\) debe tener la forma

    \ begin {ecuación*}\ mathbf b =\ sigma_1c_1\ mathbf u_1 +\ sigma_2c_2\ mathbf u_2 +\ sigma_3c_3\ mathbf u_3\ text {,}\ end {ecuación*}

    que dice que\(\mathbf b\) es una combinación lineal de\(\mathbf u_1\text{,}\)\(\mathbf u_2\text{,}\) y\(\mathbf u_3\text{.}\) Estos tres vectores por lo tanto forman una base para\(\col(A)\text{.}\) De hecho, ya que son columnas en la matriz ortogonal\(U\text{,}\) forman una base ortonormal para\(\col(A)\text{.}\)

    Recordando que\(\rank(A)=\dim\col(A)\text{,}\) vemos aquello\(\rank(A) = 3\text{,}\) que resulta de los tres valores singulares distintos de cero. En general, el rango\(r\) de una matriz\(A\) es igual al número de valores singulares distintos de cero, y\(\mathbf u_1, \mathbf u_2, \ldots,\mathbf u_r\) forman una base ortonormal para\(\col(A)\text{.}\)

    Además, si\(\mathbf x = c_1 \mathbf v_1 + c_2\mathbf v_2 + \ldots + c_5\mathbf v_5\) satisface\(A\mathbf x = \zerovec\text{,}\) entonces

    \ begin {ecuación*} A\ mathbf x =\ sigma_1c_1\ mathbf u_1 +\ sigma_2c_2\ mathbf u_2 +\ sigma_3c_3\ mathbf u_3=\ zerovec\ text {,}\ end {ecuación*}

    lo que implica que\(c_1=0\text{,}\)\(c_2=0\text{,}\) y\(c_3=0\text{.}\) Por lo tanto,\(\mathbf x = c_4\mathbf v_4+c_5\mathbf v_5\) así\(\mathbf v_4\) y\(\mathbf v_5\) formar una base ortonormal para\(\nul(A)\text{.}\)

    Más generalmente, si\(A\) es una\(m\times n\) matriz y si\(\rank(A) = r\text{,}\) los últimos vectores singulares\(n-r\) derechos forman una base ortonormal para\(\nul(A)\text{.}\)

    En términos generales, si el rango de una\(m\times n\) matriz\(A\) es\(r\text{,}\) entonces hay valores singulares\(r\) distintos de cero y\(\Sigma\) tiene la forma

    \ begin {ecuación*}\ begin {bmatrix}\ sigma_1 &\ ldots & 0 &\ ldots & 0\\\ 0 &\ ldots & 0 &\ ldots & 0\\ ldots &\\ ldots &\\ ldots &\\ ldots & 0\\ ldots & 0 &\ ldots & 0\\ ldots &\ vdots &\ vdots &\ vdots &\ vdots &\ vdots &\ vdots &\ vdots &\ vdots &\ vdots &\ vdots &\ ddots &\ vdots \\ 0 &\ ldots & 0 &\ ldots & 0\\\ end {bmatrix},\ end {ecuación*}

    Las primeras\(r\) columnas\(U\) forman una base ortonormal para\(\col(A)\text{:}\)

    \ begin {ecuación*} U =\ izquierda [\ underbrackets {\ mathbf u_1 ~\ ldots ~\ mathbf u_r} _ {\ col (A)}\ hspace {3pt}\ mathbf u_ {r+1} ~\ ldots ~\ mathbf u_m\ derecha]\ end {ecuación*}

    y las últimas\(n-r\) columnas\(V\) forman una base ortonormal para\(\nul(A)\text{:}\)

    \ begin {ecuación*} V =\ izquierda [\ mathbf v_1 ~\ ldots ~\ mathbf v_r\ hspace {3pt}\ underbrackets {\ mathbf v_ {r+1} ~\ ldots ~\ mathbf v_n} _ {\ nul (A)}\ derecha]\ end {ecuación*}

    De hecho, podemos decir más. Recuerda que la Proposición 7.4.6 dice eso\(A\) y su transposición\(A^T\) comparten los mismos valores singulares. Dado que el rango de una matriz es igual a su número de valores singulares distintos de cero, esto significa que\(\rank(A)=\rank(A^T)\text{,}\) un hecho que citamos de nuevo en la Sección 6.2.

    Proposición 7.4.8.

    Para cualquier matriz\(A\text{,}\)

    \ begin {ecuación*}\ rango (A) =\ rango (A^T)\ texto {.} \ end {ecuación*}

    Si tenemos un valor singular descomposición de una\(m\times n\) matriz La\(A=U\Sigma V^T\text{,}\) Proposición 7.4.6 también nos dice que los vectores singulares izquierdos de\(A\) son los vectores singulares derechos de\(A^T\text{.}\) Por lo tanto,\(U\) es la\(m\times m\) matriz cuyas columnas son los vectores singulares derechos de\(A^T\text{.}\) Esto significa que los últimos\(m-r\) vectores forman una base ortonormal para\(\nul(A^T)\text{.}\) Por lo tanto, las columnas de\(U\) proporcionan bases ortonormales para\(\col(A)\) y\(\nul(A^T)\text{:}\)

    \ begin {ecuación*} U =\ izquierda [\ underbrackets {\ mathbf u_1 ~\ ldots ~\ mathbf u_r} _ {\ col (A)}\ hspace {3pt}\ underbrackets {\ mathbf u_ {r+1} ~\ ldots ~\ mathbf u_m} _ {\ nul (A^T)}\ derecha]\ texto {.} \ end {ecuación*}

    Esto refleja el hecho familiar de que\(\nul(A^T)\) es el complemento ortogonal de\(\col(A)\text{.}\)

    De la misma manera,\(V\) es la\(n\times n\) matriz cuyas columnas son los vectores singulares izquierdos de\(A^T\text{,}\) lo que significa que los primeros\(r\) vectores forman una base ortonormal para\(\col(A^T)\text{.}\) Porque las columnas de\(A^T\) son las filas de\(A\text{,}\) este subespacio a veces se llama el espacio de fila de\(A\) y denotado\(\row(A)\text{.}\) Si bien aún no hemos tenido ocasión de usar\(\row(A)\text{,}\) hay momentos en los que es importante tener una base ortonormal para ello. Afortunadamente, una descomposición de valor singular proporciona precisamente eso. Para resumir, las columnas de\(V\) proporcionan bases ortonormales para\(\col(A^T)\) y\(\nul(A)\text{:}\)

    \ begin {ecuación*} V =\ izquierda [\ underbrackets {\ mathbf v_1 ~\ ldots ~\ mathbf v_r} _ {\ col (A^T)}\ hspace {3pt}\ underbrackets {\ mathbf v_ {r+1} ~\ ldots ~\ mathbf v_m} _ {\ nul (A)}\ derecha]\ final {ecuación}

    Considerados en conjunto, los subespacios\(\col(A)\text{,}\)\(\nul(A)\text{,}\)\(\col(A^T)\text{,}\) y se\(\nul(A^T)\) denominan los cuatro subespacios fundamentales asociados a\(A\text{.}\) Además de decirnos el rango de una matriz, una descomposición de valores singulares nos da bases ortonormales para los cuatro subespacios fundamentales.

    Cuando anteriormente esbozamos un procedimiento para encontrar una descomposición singular de una\(m\times n\) matriz\(A\text{,}\) encontramos los vectores singulares izquierdos\(\mathbf u_j\) usando la expresión\(A\mathbf v_j = \sigma_j\mathbf u_j\text{.}\) Esto produce vectores singulares\(\mathbf u_1, \mathbf u_2,\ldots,\mathbf u_r\text{,}\) izquierdos donde\(r=\rank(A)\text{.}\) Si\(r\lt m\text{,}\) sin embargo, todavía necesitamos encontrar la izquierda vectores singulares El\(\mathbf u_{r+1},\ldots,\mathbf u_m\text{.}\) teorema 7.4.9 nos dice cómo hacer eso: debido a que esos vectores forman una base ortonormal para\(\nul(A^T)\text{,}\) que podamos encontrarlos resolviendo\(A^T\mathbf x = \zerovec\) para encontrar una base para\(\nul(A^T)\) y aplicando el algoritmo Gram-Schmidt.

    No nos preocuparemos demasiado por este tema, sin embargo, ya que frecuentemente usaremos software para encontrar descomposiciones de valor singulares para nosotros.

    Descomposiciones reducidas del valor singular

    Como veremos en la siguiente sección, hay momentos en los que es útil expresar una descomposición de valores singulares en una forma ligeramente diferente.

    Actividad 7.4.5.

    Supongamos que tenemos una descomposición de valor singular\(A = U\Sigma V^T\) donde

    \ begin {ecuation*} U =\ begin {bmatrix}\ mathbf u_1 &\ mathbf u_2 &\ mathbf u_3 &\ mathbf u_4\ end {bmatrix},\ hspace {24pt}\ Sigma =\ begin {bmatrix} 18 & 0 & 0 & 0\\ 0 & 4 & 0\\ 0 & 0\ 0 & 0 & 0\\ end {bmatrix},\ hspace {24pt} V =\ begin {bmatrix}\ mathbf v_1 & amp;\ mathbf v_2 &\ mathbf v_3\ end {bmatrix}\ texto {.} \ end {ecuación*}
    1. ¿Cuáles son las dimensiones de\(A\text{?}\) Qué es\(\rank(A)\text{?}\)
    2. Identificar bases para\(\col(A)\) y\(\col(A^T)\text{.}\)
    3. Explicar por qué
      \ begin {ecuación*} U\ Sigma =\ begin {bmatrix}\ mathbf u_1 &\ mathbf u_2\ end {bmatrix}\ begin {bmatrix} 18 & 0 & 0\\ 0 & 4 & 0\\\ end {bmatrix}\ text {.} \ end {ecuación*}
    4. Explicar por qué
      \ begin {ecuation*}\ begin {bmatrix} 18 & 0 & 0\\ 0 & 4 & 0\\\ end {bmatrix} V^T =\ begin {bmatrix} 18 & 0\\ 0 & 4\\\ end {bmatrix}\ begin {bmatrix}\ mathbf v_1 &\ mathbf v_2\ end {bmatrix} ^T\ text {.} \ end {ecuación*}
    5. Si\(A = U\Sigma V^T\text{,}\) explicar por qué\(A=U_r\Sigma_rV_r^T\) donde las columnas de\(U_r\) son una base ortonormal para\(\col(A)\text{,}\)\(\Sigma_r\) es una diagonal, matriz invertible, y las columnas de\(V_r\) forman una base ortonormal para\(\col(A^T)\text{.}\)

    A esto lo llamamos una descomposición reducida del valor singular.

    Proposición 7.4.10. Descomposición reducida del valor singular.

    Si\(A\) es una\(m\times n\) matriz que tiene rango\(r\text{,}\) entonces\(A=U_r \Sigma_r V_r^T\) donde

    • \(U_r\)es una\(m\times r\) matriz cuyas columnas forman una base ortonormal para\(\col(A)\text{,}\)
    • \(\Sigma_r=\begin{bmatrix} \sigma_1 & 0 & \ldots & 0 \\ 0 & \sigma_2 & \ldots & 0 \\ \vdots & \vdots & \ddots & \vdots \\ 0 & 0 & 0 & \sigma_r \\ \end{bmatrix}\)es una matriz\(r\times r\) diagonal invertible, y
    • \(V_r\)es una\(n\times r\) matriz cuyas columnas forman una base ortonormal para\(\col(A^T)\text{.}\)
    Ejemplo 7.4.11

    En el Ejemplo 7.4.4, encontramos la descomposición del valor singular

    \ begin {ecuation*} A=\ begin {bmatrix} 2 & -2 & 1\\ -4 & -8 & -8\\\ end {bmatrix} =\ begin {bmatrix} =\ begin {bmatrix} 0 & 1\\ -1 & 0\\ end {bmatrix}\ begin {bmatrix} 12 & 0 & 0\\ 0 & 3 & 0\\ end {bmatrix}\ begin {bmatrix} 1/3 & 2/3 & 2/3\\ 2/3 y -2/3 y 1/3\\ 2 /3 & 1/3 & -2/3\\\ end {bmatrix} ^T\ text {.} \ end {ecuación*}

    Dado que hay dos valores singulares distintos de cero, de\(\rank(A) =2\) modo que la descomposición del valor singular reducido es

    \ begin {ecuation*} A=\ begin {bmatrix} 2 & -2 & 1\\ -4 & -8 & -8\\\ end {bmatrix} =\ begin {bmatrix} =\ begin {bmatrix} 0 & 1\\ -1 & 0\\ end {bmatrix}\ begin {bmatrix} 12 & 0\\ 0 & 3\\ end {bmatrix}\\ begin {bmatrix} 1/3 & 2/3 & -2/3 & -2/3\\ 2/3 & 1/3\\\ end {bmatrix} ^T\ text {.} \ end {ecuación*}

    Resumen

    Esta sección ha explorado descomposiciones de valores singulares, cómo encontrarlas y cómo organizan información importante sobre una matriz.

    • Una descomposición de valores singulares de una matriz\(A\) es una factorización donde\(A=U\Sigma V^T\text{.}\) La matriz\(\Sigma\) tiene la misma forma que\(A\text{,}\) y sus únicas entradas distintas de cero son\(A\text{,}\) cuyos valores singulares aparecen en orden decreciente en la diagonal. Las matrices\(U\) y\(V\) son ortogonales y contienen los vectores singulares izquierdo y derecho.
    • Para encontrar una descomposición de valores singulares de una matriz, construimos la matriz Gram\(G=A^TA\text{,}\) que es simétrica. Los valores singulares de\(A\) son las raíces cuadradas de los valores propios de\(G\text{,}\) y los vectores singulares derechos\(\mathbf v_j\) son los vectores propios asociados de\(G\text{.}\) Los vectores singulares izquierdos\(\mathbf u_j\) se determinan a partir de la relación\(A\mathbf v_j=\sigma_j\mathbf u_j\text{.}\)
    • Una descomposición de valores singulares organiza información fundamental sobre una matriz. Por ejemplo, el número de valores singulares distintos de cero es el rango\(r\) de la matriz. Los primeros vectores singulares\(r\) izquierdos forman una base ortonormal para\(\col(A)\) con los vectores singulares izquierdos restantes formando una base ortonormal de\(\nul(A^T)\text{.}\) Los primeros vectores singulares\(r\) derechos forman una base ortonormal\(\col(A^T)\) mientras que los vectores singulares derechos restantes forman un base ortonormal de\(\nul(A)\text{.}\)
    • Si\(A\) es una\(r\) matriz de rango, podemos escribir una descomposición de valor singular reducido como\(A=U_r\Sigma_rV_r^T\) donde las columnas de\(U_r\) forman una base ortonormal para\(\col(A)\text{,}\) las columnas de\(V_r\) forma una base ortonormal para\(\col(A^T)\text{,}\) y\(\Sigma_r\) es una\(r\times r\) diagonal, invertible matriz.

    Ejercicios 7.4.5Ejercicios

    1

    Considerar la matriz\(A = \begin{bmatrix} 1 & 2 & 1 \\ 0 & -1 & 2 \\ \end{bmatrix} \text{.}\)

    1. Encuentra la matriz Gram\(G=A^TA\) y úsala para encontrar los valores singulares y los vectores singulares correctos de\(A\text{.}\)
    2. Encuentra los vectores singulares de la izquierda.
    3. Formar las matrices\(U\text{,}\)\(\Sigma\text{,}\)\(V\) y verificar que\(A=U\Sigma V^T\text{.}\)
    4. Qué es\(\rank(A)\) y qué dice esto sobre\(\col(A)\text{?}\)
    5. Determinar una base ortonormal para\(\nul(A)\text{.}\)
    2

    Encuentre descomposiciones de valores singulares para las siguientes matrices:

    1. \(\begin{bmatrix} 0 & 0 \\ 0 & -8 \end{bmatrix}\text{.}\)
    2. \(\begin{bmatrix} 2 & 3 \\ 0 & 2 \end{bmatrix}\text{.}\)
    3. \(\displaystyle \begin{bmatrix} 4 & 0 & 0 \\ 0 & 0 & 2 \end{bmatrix}\)
    4. \(\displaystyle \begin{bmatrix} 4 & 0 \\ 0 & 0 \\ 0 & 2 \end{bmatrix}\)
    3

    Considerar la matriz\(A = \begin{bmatrix} 2 & 1 \\ 1 & 2 \end{bmatrix} \text{.}\)

    1. Encuentra una descomposición de valores singulares\(A\) y verifica que también es una diagonalización ortogonal de\(A\text{.}\)
    2. Si\(A\) es una matriz semidefinita positiva simétrica, explique por qué una descomposición de valores singulares de\(A\) es una diagonalización ortogonal de\(A\text{.}\)
    4

    Supongamos que la matriz\(A\) tiene el valor singular de descomposición

    \ begin {ecuación*}\ begin {bmatrix} -0.46 & 0.52 & 0.46 & 0.55\ -0.82 & 0.00 & -0.14 & -0.55\\ -0.04 & 0.44 & -0.85 & 0.28\\ -0.34 & -0.73 & -0.18 & 0.55\ end {bmatrix}\ begin {bmatrix}\ begin {bmatrix} 6.2 & 0.0 & 0.0 & 0.0\ 0.0 & 4.1 & 0.0\\ 0.0 & 0.0 & 0.0\\ 0.0 & 0.0 & 0.0 & 0.0\ end {bmatrix}\ begin {bmatrix} -0.74 & 0.62 & -0.24\\ 0.28 & 0.62 & 0.73\\ -0.61 & -0.48 & 0.64\ end {bmatrix}. \ end {ecuación*}
    1. ¿Cuáles son las dimensiones de\(A\text{?}\)
    2. Qué es\(\rank(A)\text{?}\)
    3. Encuentra bases ortonormales para\(\col(A)\text{,}\)\(\nul(A)\text{,}\)\(\col(A^T)\text{,}\) y\(\nul(A^T)\text{.}\)
    4. Encuentra la proyección ortogonal de\(\mathbf b=\fourvec102{-1}\)\(\col(A)\text{.}\)
    5

    Considerar la matriz\(A = \begin{bmatrix} 1 & 0 & -1 \\ 2 & 2 & 0 \\ -1 & 1 & 2\\ \end{bmatrix} \text{.}\)

    1. Construir la matriz Gram\(G\) y utilizarla para encontrar los valores singulares y vectores singulares derechos\(\mathbf v_1\text{,}\)\(\mathbf v_2\text{,}\) y\(\mathbf v_3\) de\(A\text{.}\) ¿Cuáles son las matrices\(\Sigma\) y\(V\) en una descomposición de valores singulares?
    2. Qué es\(\rank(A)\text{?}\)
    3. Encuentra tantos singulares\(\mathbf u_j\) que puedas usando la relación\(A\mathbf v_j=\sigma_j\mathbf u_j\text{.}\)
    4. Encuentre una base ortonormal\(\nul(A^T)\) y utilícela para construir la matriz de\(U\) manera que\(A=U\Sigma V^T\text{.}\)
    5. Declarar una base ortonormal para\(\nul(A)\) y una base ortonormal para\(\col(A)\text{.}\)
    6

    Considere la matriz\(B=\begin{bmatrix} 1 & 0 \\ 2 & -1 \\ 1 & 2 \end{bmatrix}\) y observe que\(B=A^T\) dónde\(A\) está la matriz en el Ejercicio 7.4.5.1.

    1. Usa tu resultado del Ejercicio 7.4.5.1 para encontrar una descomposición de valor singular de\(B=U\Sigma V^T\text{.}\)
    2. Qué es\(\rank(B)\text{?}\) Determinar una base para\(\col(B)\) y\(\col(B)^\perp\text{.}\)
    3. Supongamos que\(\mathbf b=\threevec{-3}47\text{.}\) Usa las bases que encontraste en la parte anterior de esta exericse para escribir\(\mathbf b=\bhat+\mathbf b^\perp\text{,}\) dónde\(\bhat\) está en\(\col(B)\) y\(\mathbf b^\perp\) está en\(\col(B)^\perp\text{.}\)
    4. Encuentra la solución aproximada de mínimos cuadrados a la ecuación\(B\mathbf x=\mathbf b\text{.}\)
    7

    Supongamos que\(A\) es una\(m\times m\) matriz cuadrada con descomposición de valor singular\(A=U\Sigma V^T\text{.}\)

    1. Si\(A\) es invertible, encuentre un valor singular de descomposición de\(A^{-1}\text{.}\)
    2. ¿Qué condición sobre los valores singulares deben tener\(A\) para que sean invertibles?
    3. ¿Cómo se\(A^{-1}\) relacionan entre sí los valores singulares\(A\) y los valores singulares?
    4. ¿Cómo se\(A\) relacionan los vectores singulares derecho e izquierdo con los vectores singulares derecho e izquierdo de\(A^{-1}\text{?}\)
    8
    1. Si\(Q\) es una matriz ortogonal, recuerda que\(Q^TQ=I\text{.}\) Explica por qué\(\det Q = \pm 1\text{.}\)
    2. Si\(A=U\Sigma V^T\) es un valor singular descomposición de una matriz cuadrada\(A\text{,}\) explicar por qué\(|\det A|\) es el producto de los valores singulares de\(A\text{.}\)
    3. ¿Qué dice esto sobre los valores singulares de\(A\) si\(A\) es invertible?
    9

    Si\(A\) es una matriz y\(G=A^TA\) su matriz Gram, recuerde que

    \ begin {ecuación*}\ mathbf x\ cdot (G\ mathbf x) =\ mathbf x\ cdot (A^TA\ mathbf x) = (A\ mathbf x)\ cdot (A\ mathbf x) =\ len {A\ mathbf x} ^2. \ end {ecuación*}
    1. Para una matriz general\(A\text{,}\) explicar por qué los valores propios de no\(G\) son negativos.
    2. Dada una matriz simétrica\(A\) que tiene un valor propio\(\lambda\text{,}\) explicar por qué\(\lambda^2\) es un valor propio de\(G\text{.}\)
    3. Si\(A\) es simétrico, explique por qué los valores singulares\(A\) son iguales al valor absoluto de sus valores propios:\(\sigma_j = |\lambda_j|\text{.}\)
    10

    Determina si las siguientes afirmaciones son verdaderas o falsas y explica tu razonamiento.

    1. Si\(A=U\Sigma V^T\) es un valor singular de descomposición\(A\text{,}\) entonces\(G=V(\Sigma^T\Sigma)V^T\) es una diagonalización ortogonal de su matriz Gram.
    2. Si\(A=U\Sigma V^T\) es una descomposición de valores singulares de una matriz de rango 2\(A\text{,}\) entonces\(\mathbf v_1\) y\(\mathbf v_2\) forma una base ortonormal para el espacio de columna\(\col(A)\text{.}\)
    3. Si\(A\) es una matriz diagonalizable, entonces su conjunto de valores singulares es el mismo que su conjunto de valores propios.
    4. Si\(A\) es una\(10\times7\) matriz y\(\sigma_7 = 4\text{,}\) entonces las columnas de\(A\) son linealmente independientes.
    5. La matriz Gram es siempre ortogonalmente diagonalizable.
    11

    Supongamos que\(A=U\Sigma V^T\) es un valor singular descomposición de la\(m\times n\) matriz\(A\text{.}\) Si\(\sigma_1,\ldots,\sigma_r\) son los valores singulares distintos de cero, la forma general de la matriz\(\Sigma\) es

    \ begin {ecuación*}\ Sigma =\ begin {bmatrix}\ sigma_1 &\ ldots & 0 &\ ldots & 0\\\ 0 &\ ldots & 0 &\ ldots & 0\\ ldots &\\ ldots &\\ ldots &\\ ldots & 0\\ ldots & 0 &\ ldots & 0\\ ldots & 0\\ ldots & 0 &\ vdots & 0 &\ vdots puntos y 0\\ 0 &\ ldots & 0 &\ ldots & 0\\\ end {bmatrix}. \ end {ecuación*}
    1. Si sabes que las columnas de\(A\) son linealmente independientes, ¿qué más puedes decir sobre la forma de\(\Sigma\text{?}\)
    2. Si sabes que las columnas de\(A\) span\(\mathbb R^m\text{,}\) qué más puedes decir sobre la forma de\(\Sigma\text{?}\)
    3. Si sabes que las columnas de\(A\) son linealmente independientes y abarcan\(\mathbb R^m\text{,}\) qué más puedes decir sobre la forma de\(\Sigma\text{?}\)

    This page titled 7.4: Descomposiciones del Valor Singular is shared under a CC BY 4.0 license and was authored, remixed, and/or curated by David Austin via source content that was edited to the style and standards of the LibreTexts platform; a detailed edit history is available upon request.