Saltar al contenido principal
LibreTexts Español

4.1: Introducción

  • Page ID
    85713
  • \( \newcommand{\vecs}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} } \) \( \newcommand{\vecd}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash {#1}}} \)\(\newcommand{\id}{\mathrm{id}}\) \( \newcommand{\Span}{\mathrm{span}}\) \( \newcommand{\kernel}{\mathrm{null}\,}\) \( \newcommand{\range}{\mathrm{range}\,}\) \( \newcommand{\RealPart}{\mathrm{Re}}\) \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\) \( \newcommand{\Argument}{\mathrm{Arg}}\) \( \newcommand{\norm}[1]{\| #1 \|}\) \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\) \( \newcommand{\Span}{\mathrm{span}}\) \(\newcommand{\id}{\mathrm{id}}\) \( \newcommand{\Span}{\mathrm{span}}\) \( \newcommand{\kernel}{\mathrm{null}\,}\) \( \newcommand{\range}{\mathrm{range}\,}\) \( \newcommand{\RealPart}{\mathrm{Re}}\) \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\) \( \newcommand{\Argument}{\mathrm{Arg}}\) \( \newcommand{\norm}[1]{\| #1 \|}\) \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\) \( \newcommand{\Span}{\mathrm{span}}\)\(\newcommand{\AA}{\unicode[.8,0]{x212B}}\)

    En esta conferencia, se introduce la noción de norma para matrices. A continuación se presenta el valor singular de descomposición o SVD de una matriz. El SVD expone la norma 2 de una matriz, pero su valor para nosotros va mucho más allá: permite la solución de una clase de problemas de perturbación matricial que forman la base de los conceptos de robustez de estabilidad introducidos posteriormente; resuelve el llamado problema de mínimos cuadrados totales, que es un generalización del problema de estimación de mínimos cuadrados considerado anteriormente; y permite aclarar la noción de condicionamiento, en el contexto de la inversión matricial. Estas aplicaciones de la SVD se presentan con mayor extensión en la próxima conferencia.

    Ejemplo 4.1

    Para proporcionar alguna motivación inmediata para el estudio y aplicación de las normas matriciales, comenzamos con un ejemplo que pone de manifiesto claramente el tema del condicionamiento matricial con respecto a la inversión. La cuestión de interés es cuán sensible es la inversa de una matriz a las perturbaciones de la matriz.

    Solución

    Considere la posibilidad de invertir la matriz

    \ [A=\ left (\ begin {array} {cc}
    100 & 100\\
    100.2 & 100
    \ end {array}\ derecha)\ nonumber\]

    Un cálculo rápido muestra que

    \ [A^ {-1} =\ left (\ begin {array} {cc}
    -5 & 5\\
    5.01 & -5
    \ end {array}\ right)\ nonumber\]

    Ahora supongamos que invertimos la matriz perturbada

    \ [A+\ Delta A=\ left (\ begin {array} {cc}
    100 & 100\\
    100.1 & 100
    \ end {array}\ derecha)\ nonumber\]

    El resultado ahora es

    \ [(A+\ Delta A) ^ {-1} =A^ {-1} +\ Delta\ izquierda (A^ {-1}\ derecha) =\ izquierda (\ begin {array} {cc}
    -10 & 10\\
    10.01 & -10
    \ end {array}\ derecha)\ nonumber\]

    Aquí\(\Delta A\) denota la perturbación en\(A\) y\(\Delta A^{-1}\) denota la perturbación resultante en\(A^{-1}\). Evidentemente, un cambio de 0.1% en una entrada de\(A\) ha resultado en un cambio del 100% en las entradas de\(A^{-1}\). Si queremos resolver el problema\(Ax = b\) donde\(b = {[1 - 1]}^{T}\), entonces\(x=A^{-1} b=[-10 \quad 10.01]^{T}\), mientras que después de la perturbación de\(A\) obtenemos\(x+\Delta x=(A+\Delta A)^{-1} b=[-20 \quad 20.01]^{T}\). Nuevamente, vemos un cambio del 100% en las entradas de la solución con solo un cambio de 0.1% en los datos iniciales

    La situación que se ve en el ejemplo anterior es mucho peor de lo que jamás pueda surgir en el caso escalar. Si\(a\) es un escalar, entonces\(d\left(a^{-1}\right) /\left(a^{-1}\right)=-d a / a\), entonces el cambio fraccionario en el inverso de\(a\) tiene la misma magnitud que el cambio fraccionario en\(a\) sí mismo. Lo que se ve en el ejemplo anterior, por lo tanto, es un fenómeno puramente matricial. Parecería estar relacionado con el hecho de que\(A\) es casi singular -en el sentido de que sus columnas son casi dependientes, su determinante es mucho menor que su elemento más grande, y así sucesivamente. En lo que sigue (ver siguiente conferencia), desarrollaremos una forma sólida de medir la cercanía a la singularidad, y mostrar cómo esta medida se relaciona con la sensibilidad bajo inversión.

    Antes de entender con más detalle dicha sensibilidad a las perturbaciones, necesitamos formas de medir las “magnitudes” de vectores y matrices. Ya hemos introducido la noción de normas vectoriales en la Conferencia 1, por lo que ahora pasamos a la definición de normas matriciales.


    This page titled 4.1: Introducción is shared under a CC BY-NC-SA 4.0 license and was authored, remixed, and/or curated by Mohammed Dahleh, Munther A. Dahleh, and George Verghese (MIT OpenCourseWare) via source content that was edited to the style and standards of the LibreTexts platform; a detailed edit history is available upon request.