Saltar al contenido principal
LibreTexts Español

4.5: Ejercicios

  • Page ID
    85712
  • \( \newcommand{\vecs}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} } \) \( \newcommand{\vecd}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash {#1}}} \)\(\newcommand{\id}{\mathrm{id}}\) \( \newcommand{\Span}{\mathrm{span}}\) \( \newcommand{\kernel}{\mathrm{null}\,}\) \( \newcommand{\range}{\mathrm{range}\,}\) \( \newcommand{\RealPart}{\mathrm{Re}}\) \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\) \( \newcommand{\Argument}{\mathrm{Arg}}\) \( \newcommand{\norm}[1]{\| #1 \|}\) \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\) \( \newcommand{\Span}{\mathrm{span}}\) \(\newcommand{\id}{\mathrm{id}}\) \( \newcommand{\Span}{\mathrm{span}}\) \( \newcommand{\kernel}{\mathrm{null}\,}\) \( \newcommand{\range}{\mathrm{range}\,}\) \( \newcommand{\RealPart}{\mathrm{Re}}\) \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\) \( \newcommand{\Argument}{\mathrm{Arg}}\) \( \newcommand{\norm}[1]{\| #1 \|}\) \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\) \( \newcommand{\Span}{\mathrm{span}}\)\(\newcommand{\AA}{\unicode[.8,0]{x212B}}\)

    Ejercicio 4.1

    Verifique que para cualquiera\(A\), una\(m \times n\) matriz, se mantenga lo siguiente:

    \[\frac{1}{\sqrt{n}}\|A\|_{1} \leq\|A\|_{2} \leq \sqrt{m}\|A\|_{\infty}.\nonumber\]

    Ejercicio 4.2

    Supongamos\(A^{\prime} = A\). Encuentra la relación exacta entre los valores propios y los valores singulares de\(A\). ¿Se mantiene esto si no\(A\) es conjugado simétrico?

    Ejercicio 4.3

    Demostrar que si\(rank(A) = 1\), entonces,\(\|A\|_{F}=\|A\|_{2}\)

    Ejercicio 4.4

    Este problema te lleva a través del argumento para la existencia del SVD, usando una construcción iterativa. Demostrar eso\(A = U \Sigma V^{\prime}\), dónde\(U\) y\(V\) son matrices unitarias equivale a mostrar eso\(U^{\prime}AV = \Sigma\).

    a) Argumentan a partir de la definición de\(\|A\|_{2}\) que existen vectores unitarios (medidos en la norma 2)\(x \in C^{n}\) y\(y \in C^{m}\) tal que\(Ax = \sigma y\), donde\(\sigma= \|A\|_{2}\).

    b) Podemos extender tanto como\(x\)\(y\) arriba a bases ortonormales, es decir, podemos encontrar matrices unitarias\(V_{1}\) y\(U_{1}\) cuyas primeras columnas son\(x\) y\(y\) respectivamente:

    \[V_{1}=\left[x \tilde{V}_{1}\right], \quad U_{1}=\left[y \tilde{U}_{1}\right]\nonumber\]

    Demuestre que una forma de hacerlo es a través de transformaciones de Householder, de la siguiente manera:

    \[V_{1}=I-2 \frac{h h^{\prime}}{h^{\prime} h}, \quad h=x-[1,0, \ldots, 0]^{\prime}\nonumber\]

    y de igual manera para\(U_{1}\).

    c)) Ahora definir\(A_{1}=U_{1}^{\prime} A V_{1}\). ¿Por qué es\(\|A_{1}\|_{2}=\|A\|_{2}\)?

    d) Tenga en cuenta que

    \ [A_ {1} =\ left (\ begin {array} {cc}
    y^ {\ prime} A x & y^ {\ prime} A\ tilde {V} _ {1} _ {1}
    \\ tilde {U} _ {1} ^ {\ prime} A x &\ tilde {U} _ _ {1} ^ {\ prime} A\ tilde {V} _ {1}
    \ fin array}\ derecha) =\ left (\ begin {array} {cc}
    \ sigma & w^ {\ prime}\\
    0 & B
    \ end {array}\ derecha)\ nonumber\]

    ¿Cuál es la justificación para afirmar que el elemento inferior izquierdo en la matriz anterior es 0?

    e) Ahora demuestre que

    \ [\ izquierda\ |A_ {1}\ izquierda (\ begin {array} {c}
    \ sigma\\
    w
    \ end {array}\ derecha)\ derecha\ |_ {2}\ geq\ sigma^ {2} +w^ {\ prime} w\ nonumber\]

    y combinar esto con el hecho de que\(\|A_{1}\|_{2}=\|A\|_{2}= \sigma\) para deducir eso\(w = 0\), así

    \ [A_ {1} =\ left (\ begin {array} {cc}
    \ sigma & 0\\
    0 & B
    \ end {array}\ derecha)\ nonumber\]

    En la siguiente iteración, aplicamos el procedimiento anterior a\(B\), y así sucesivamente. Cuando terminan las iteraciones, tenemos el SVD.

    [La razón por la que esto es sólo una prueba de existencia y no un algoritmo es que comienza invocando la existencia de\(x\) y\(y\), pero no muestra cómo computarlos. Existen muy buenos algoritmos para computar el SVD - ver el clásico de Golub y Van Loan, Matrix Compuations, Johns Hopkins Press, 1989. El SVD es una piedra angular de los cálculos numéricos en una gran cantidad de aplicaciones.]

    Ejercicio 4.5

    Supongamos que la\(m \times n\) matriz\(A\) se descompone en la forma

    \ [A=U\ left (\ begin {array} {ll}
    \ Sigma & 0\\
    0 & 0
    \ end {array}\ right) V^ {\ prime}\ nonumber\]

    donde\(U\) y\(V\) son matrices unitarias, y\(\Sigma\) es una\(r \times r\) matriz invertible (- la SVD podría ser utilizada para producir tal descomposición). Entonces el “inverso de Moore-Penrose”, o pseudo-invers e de\(A\), denotado por\(A^{+}\), se puede definir como la\(n \times m\) matriz

    \ [A^ {+} =V\ izquierda (\ begin {array} {cc}
    \ Sigma^ {-1} & 0\\
    0 & 0
    \ end {array}\ derecha) U^ {\ prime}\ nonumber\]

    (Se puede invocar en Matlab con\(pinv(A)\).)

    a) Demostrar que\(A^{+}A\) y\(AA^{+}\) son simétricos, y eso\(AA^{+}A=A\) y\(A^{+}AA^{+}=A^{+}\). (Estas cuatro condiciones en realidad constituyen una definición alternativa de la pseudo-inversa.)

    b) Mostrar que cuando\(A\) tiene rango de columna completa entonces\(A^{+}=\left(A^{\prime} A\right)^{-1} A^{\prime}\), y que cuando\(A\) tiene rango de fila completa entonces\(A^{+}= A^{\prime} \left(A^{\prime} A\right)^{-1}\).

    c) Demostrar que, de todo lo\(x\) que minimice\(\|y-A x\|_{2}\) (y habrá muchos, si\(A\) no tiene rango de columna completo), el de menor longitud\(\|x\|_{2}\) viene dado por\(\hat{x} = A^{+} y\)

    Ejercicio 4.6

    Todas las matrices en este problema son reales. Supongamos

    \ [Y=Q\ izquierda (\ begin {array} {l}
    R\\
    0
    \ end {array}\ derecha)\ nonumber\]

    \(Q\)siendo una matriz\(m \times m\) ortogonal y\(R\) una matriz\(n \times n\) invertible. (Recordemos que tal descomposición existe para cualquier matriz\(A\) que tenga un rango de columna completo). También deja\(Y\) ser una\(m \times p\) matriz de la forma

    \ [Y=Q\ left (\ begin {array} {l}
    Y_ {1}\\
    Y_ {2}
    \ end {array}\ derecha)\ nonumber\]

    donde la partición en la expresión for\(Y\) es conformable con la partición para\(A\)

    a) ¿Qué elección\(\hat{X}\) de la\(n \times p\) matriz\(X\) minimiza la norma Frobenius, o equivalentemente la norma Frobenius cuadrada, de\(Y - AX\)? En otras palabras, encontrar

    \[\hat{X}=\operatorname{argmin}\|Y-A X\|_{F}^{2}\nonumber\]

    Determinar también el valor de\(\|Y-A X\|_{F}^{2}\). (Sus respuestas deben expresarse en términos de las matrices\(Q\),\(R\),\(Y_{1}\) y\(Y_{2}\).)

    b) ¿Puede escribirse también su\(\hat{X}\) en (a) como\(\left(A^{\prime} A\right)^{-1} A^{\prime}Y\)? ¿Se puede escribir como\(A^{+} Y\), donde\(A^{+}\) denota el pseudo-inverso (Moore-Penrose) de A?

    (c) Ahora obtener una expresión para la elección\(\bar{X}\) de\(X\) que minimice

    \[\|Y-A X\|_{F}^{2} + \|Z-B X\|_{F}^{2}\nonumber\]

    donde\(Z\) y\(B\) se les dan matrices de dimensiones apropiadas. (Su respuesta se puede expresar en términos de\(A\),\(B\),\(Y\), y\(Z\).)

    Ejercicio 4.7 Valores Singulares Estructurados

    Dada una matriz cuadrada compleja\(A\), defina la función de valor singular estructurado de la siguiente manera.

    \[\mu_\underline{\Delta}(A)=\frac{1}{\min _{\Delta \in \Delta}\left\{\sigma_{\max }(\Delta) \mid \operatorname{det}(I-\Delta A)=0\right\}} \nonumber\]

    donde\(\underline{\Delta}\) hay algún conjunto de matrices.

    a) Si\(\underline{\Delta}=\{\alpha I: \alpha \in \mathbb{C}\}\), mostrar que\(\mu_\underline{\Delta}(A)=\rho(A)\), donde\(\rho\) está el radio espectral de\(A\), definido como:\(\rho(A)=\max _{i}\left|\lambda_{i}\right|\) y los\(\lambda_{i}\)'s son los valores propios de\(A\).

    b) Si\(\underline{\Delta}=\left\{\Delta \in \mathbb{C}^{n \times n}\right\}\), demuestre que\(\mu_{\underline{\Delta}}(A)=\sigma_{\max }(A)\)

    c) Si\(\underline{\Delta}=\left\{\operatorname{diag}\left(\alpha_{1}, \cdots, \alpha_{n}\right) \mid \alpha_{i} \in \mathbb{C}\right\}\), demuestre que

    \[\rho(A) \leq \mu_\underline{\Delta}(A)=\mu_\underline{\Delta}\left(D^{-1} A D\right) \leq \sigma_{\max }\left(D^{-1} A D\right)\nonumber\]

    donde

    \[D \in\left\{\operatorname{diag}\left(d_{1}, \cdots, d_{n}\right) \mid d_{i}>0\right\} \nonumber\]

    Ejercicio 4.8

    Consideremos nuevamente la función de valor singular estructurado de una matriz cuadrada compleja\(A\) definida en el problema anterior. Si\(A\) tiene más estructura, a veces es posible calcular\(\mu_\underline{\Delta}\left(A_{ }\right)\) exactamente. En este problema, suponemos que\(A\) es una matriz de rango uno, para que podamos escribir\(A = uv^{\prime}\) dónde\(u\) y\(v\) son vectores complejos de dimensión\(n\). Calcular\(\mu_\underline{\Delta}\left(A_{ }\right)\) cuando

    a)\(\underline{\Delta}=\operatorname{diag}\left(\delta_{1}, \ldots, \delta_{n}\right), \quad \delta_{i} \in \mathbb{C}\).

    b)\(\underline{\Delta}=\operatorname{diag}\left(\delta_{1}, \ldots, \delta_{n}\right), \quad \delta_{i} \in \mathbb{R}\).

    Para simplificar el cálculo, minimizar la norma Frobenius de\(\Delta\) en la definición de\(\mu_\underline{\Delta}\left(A_{ }\right).\)


    This page titled 4.5: Ejercicios is shared under a CC BY-NC-SA 4.0 license and was authored, remixed, and/or curated by Mohammed Dahleh, Munther A. Dahleh, and George Verghese (MIT OpenCourseWare) via source content that was edited to the style and standards of the LibreTexts platform; a detailed edit history is available upon request.