Saltar al contenido principal
LibreTexts Español

9.1: La representación espectral de una matriz simétrica

  • Page ID
    113130
  • \( \newcommand{\vecs}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} } \) \( \newcommand{\vecd}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash {#1}}} \)\(\newcommand{\id}{\mathrm{id}}\) \( \newcommand{\Span}{\mathrm{span}}\) \( \newcommand{\kernel}{\mathrm{null}\,}\) \( \newcommand{\range}{\mathrm{range}\,}\) \( \newcommand{\RealPart}{\mathrm{Re}}\) \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\) \( \newcommand{\Argument}{\mathrm{Arg}}\) \( \newcommand{\norm}[1]{\| #1 \|}\) \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\) \( \newcommand{\Span}{\mathrm{span}}\) \(\newcommand{\id}{\mathrm{id}}\) \( \newcommand{\Span}{\mathrm{span}}\) \( \newcommand{\kernel}{\mathrm{null}\,}\) \( \newcommand{\range}{\mathrm{range}\,}\) \( \newcommand{\RealPart}{\mathrm{Re}}\) \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\) \( \newcommand{\Argument}{\mathrm{Arg}}\) \( \newcommand{\norm}[1]{\| #1 \|}\) \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\) \( \newcommand{\Span}{\mathrm{span}}\)\(\newcommand{\AA}{\unicode[.8,0]{x212B}}\)

    Introducción

    Nuestro objetivo es mostrar que si\(B\) es simétrico entonces

    • cada uno\(\lambda_{j}\) es real,
    • cada uno\(P_{j}\) es simétrico y
    • cada uno se\(D_{j}\) desvanece.

    Empecemos con un ejemplo.

    Ejemplo

    La función de transferencia de

    \[B = \begin{pmatrix} {1}&{1}&{1}\\ {1}&{1}&{1}\\ {1}&{1}&{1} \end{pmatrix} \nonumber\]

    es

    \[R(s) = \frac{1}{s(s-3)} \begin{pmatrix} {s-2}&{1}&{1}\\ {1}&{s-2}&{1}\\ {1}&{1}&{s-2} \end{pmatrix} \nonumber\]

    \[R(s) = \frac{1}{s} \begin{pmatrix} {2/3}&{-1/3}&{-1/3}\\ {-1/3}&{2/3}&{-1/3}\\ {-1/3}&{-1/3}&{-1/3} \end{pmatrix}+\frac{1}{s-3} \begin{pmatrix} {1/3}&{1/3}&{1/3}\\ {1/3}&{1/3}&{1/3}\\ {1/3}&{1/3}&{1/3} \end{pmatrix}\nonumber\]

    \[R(s) = \frac{1}{s-\lambda_{1}}P_{1}+\frac{1}{s-\lambda_{2}}P_{2} \nonumber\]

    y así de hecho cada una de las balas es cierta. Con cada una de las\(D_{j}\) caídas en el camino también puede esperar que coincidan las respectivas multiplicidades geométricas y algebraicas.

    La representación espectral

    Hemos acumulado evidencia anecdótica en apoyo de la afirmación de que cada uno\(D_{j}\) en la representación espectral

    \[B = \sum_{j=1}^{h} \lambda_{j}P_{j}+\sum_{j=1}^{h}D_{j} \nonumber\]

    es la matriz cero cuando\(B\) es simétrica, es decir, cuándo\(B = B^T\), o, más generalmente, cuando\(B = B^H\) donde\(B^H \equiv \overline{B}^T\) Matrices para las cuales\(B = B^H\) se llaman Hermitianas. Por supuesto, las matrices simétricas reales son hermitianas.

    Tomando la transpuesta conjugada a lo largo nos encontramos,

    \[B^{H} = \sum_{j=1}^{h} \overline{\lambda_{j}}P_{j}^{H}+\sum_{j=1}^{h}D_{j}^{H} \nonumber\]

    Es decir, los\(\overline{\lambda_{j}}\) son los valores propios de\(B^H\) con proyecciones\(P_{j}^H\) y nilpotentes correspondientes\(D_{j}^{H}\) De ahí, si\(B = B^H\), encontramos en términos equiparables que

    \[\lambda_{j} = \overline{\lambda_{j}} \nonumber\]

    \[P_{j} = P_{j}^H \nonumber\]

    y

    \[D_{j} = D_{j}^H \nonumber\]

    El primero afirma que los valores propios de una matriz hermitiana son reales. Sin embargo, nuestra principal preocupación es con las consecuencias de este último. A saber, fíjate que por arbitrario\(x\)

    \[(||D_{j}^{m_j-1}x||)^2 = x^{H}(D_{j}^{m_j-1})^{H}D_{j}^{m_j-1}x \nonumber\]

    \[(||D_{j}^{m_j-1}x||)^2 = x^{H}D_{j}^{m_j-1}D_{j}^{m_j-1}x \nonumber\]

    \[(||D_{j}^{m_j-1}x||)^2 = x^{H}D_{j}^{m_j-2}D_{j}^{m_j}x \nonumber\]

    \[(||D_{j}^{m_j-1}x||)^2 = 0 \nonumber\]

    En\(D_{j}^{m_j-1}x = 0\) cuanto a cada\(x\) se deduce (recordemos el ejercicio anterior) que\(D_{j}^{m_j-1} = 0\). Continuando en esta moda nos encontramos\(D_{j}^{m_j-2} = 0\), y así, eventualmente,\(D_{j} = 0\). Si, además,\(B\) es real entonces como los valores propios son reales y todos los\(D_{j}\) desaparecen, los también\(P_{j}\) deben ser reales. Ya hemos establecido

    Si\(B\) es real y simétrico entonces

    \[B = \sum_{j=1}^{h} \lambda_{j} P_{j} \nonumber\]

    donde los\(\lambda_{j}\) son reales y los\(P_{j}\) son proyecciones ortogonales reales que suman a la identidad y cuyos productos por pares desaparecen.

    Una indicación de que las cosas son más simples al usar la representación espectral es

    \[B^{100} = \sum_{j=1}^{h} \lambda_{j}^{100} P_{j} \nonumber\]

    Como esto es compatible con todos los poderes, incluso tiene para la serie power. Como resultado,

    \[e^B = \sum_{j=1}^{h} e^{\lambda_{j}} P_{j} \nonumber\]

    También es extremadamente útil para intentar resolver

    \[Bx = b \nonumber\]

    para\(x\). Sustituyendo\(B\) por su representación espectral y\(b\) por\(I⁢b\) o, más al punto por\(\sum_{j} P_{j}b\) encontramos

    \[\sum_{j=1}^{h} \lambda_{j} P_{j} x = \sum_{j=1}^{h} P_{j} b \nonumber\]

    Multiplicando a través por\(P_{1}\) da\(\lambda_{1}P_{1}x = P_{1}b\) o\(P_{1}x = \frac{P_{1}b}{\lambda_{1}}\). Multiplicando a través de las posteriores\(P_{j}\) da\(P_{j}x = \frac{P_{j}b}{\lambda_{j}}\)

    Por lo tanto,

    \[x = \sum_{j=1}^{h} P_{j}x \nonumber\]

    \[\sum_{j=1}^{h} \frac{1}{\lambda_{j}}P_{j}b \nonumber\]

    Claramente nos encontramos en problemas cuando uno de los valores propios se desvanece. Esto, por supuesto, es de esperar. Para un valor propio cero indica un espacio nulo no trivial que significa dependencias en las columnas de\(B\) y por lo tanto la falta de una solución única para\(Bx = b\).

    Otra forma en la que puede verse es observar que, cuando\(B\) es simétrica, esta ecuación anterior toma la forma

    \[(zI-B)^{-1} = \sum_{j=1}^{h} \frac{1}{z-\lambda_{j}} P_{j} \nonumber\]

    Ahora bien, si 0 no es un valor propio podemos establecer\(z=0\) en lo anterior y llegar a

    \[B^{-1} = \sum_{j=1}^{h} \frac{1}{\lambda_{j}} P_{j} \nonumber\]

    Por lo tanto, la solución a\(Bx = b\) B es

    \[x = B^{-1}b = \sum_{j=1}^{h} \frac{1}{\lambda_{j}} P_{j} b \nonumber\]

    Finalmente hemos llegado a un punto en el que podemos comenzar a definir una inversa incluso para matrices con columnas dependientes, es decir, con un valor propio cero. Simplemente excluimos el término infractor en link. Suponiendo que\(\lambda_{h} = 0\) definimos la pseudo-inversa\(B\) de ser

    \[B^{+} = \sum_{j=1}^{h-1} \frac{1}{\lambda_{j}} P_{j} \nonumber\]

    Veamos ahora si merece su nombre. Más precisamente, cuando\(b \in \mathscr{R}(B)\) esperaríamos que\(x = B^{+} b\) efectivamente satisface\(Bx = b\). Bueno

    \[BB^{+} b = B \sum_{j=1}^{h-1} \frac{1}{\lambda_{j}} P_{j} b = \sum_{j=1}^{h-1} \frac{1}{\lambda_{j}} BP_{j}b = \sum_{j=1}^{h-1} \frac{1}{\lambda_{j}} \lambda_{j}P_{j}b = \sum_{j=1}^{h-1}P_{j}b \nonumber\]

    Queda por argumentar que esta última suma realmente lo es\(b\). Sabemos que

    \[\forall b,b \in \mathscr{R}(B) : (b = \sum_{j=1}^{h} P_{j}b) \nonumber\]

    Esto último nos informa que\(b \perp N(B^T)\). Como\(B = B^T\), tenemos, de hecho, eso\(b \perp N(B)\). AS no\(P_{h}\) es más que proyección ortogonal sobre\(N(B)\) él se deduce de eso\(P_{h}b = 0\) y así\(B(B^{+}b)=b\),\(x = B^{+}b\) es decir, es una solución a\(Bx = b\) La representación es indiscutiblemente concisa y de hecho a menudo se escribe en términos de vectores propios individuales. Veamos cómo se hace esto. Tenga en cuenta que si\(x \in \mathscr{R}(P_{1})\) entonces\(x=P_{1}x\) y así,

    \[Bx = BP_{1}x = \sum_{j=1}^{h} \lambda_{j} P_{j}P_{1}x = \lambda_{1}P_{1}x = \lambda_{1}x \nonumber\]

    es decir,\(x\) es un vector propio de\(B\) asociado con\(\lambda_{1}\). Del mismo modo, cada vector (distinto de cero)\(\mathscr{R}(P_{j})\) es un vector propio de\(B\) asociado con\(\lambda_{j}\).

    A continuación demostremos que cada elemento de\(\mathscr{R}(P_{j})\) es ortogonal a cada elemento de\(\mathscr{R}(P_{k})\) cuándo\(j \ne k\). Si\(x \in \mathscr{R}(P_{j})\) y\(x \in \mathscr{R}(P_{k})\) entonces

    \[x^{T}y = (P_{j}x)^{T}P_{k}y = x^{T}P_{j}P_{k}y = 0 \nonumber\]

    Con esto observamos que si\(\{x_{j,1}, x_{j,2}, \cdots, x_{j,n_{j}}\}\) constituye una base para\(\mathscr{R}(P_{j})\) entonces de hecho la unión de tales bases,

    \[\{x_{j,p} | (1 \le j \le h) \wedge (1 \le p \le n_{j})\} \nonumber\]

    forma un conjunto linealmente independiente. Observe ahora que este conjunto tiene

    \[\sum_{j=1}^{h} n_{j} \nonumber\]

    elementos. Que estas dimensiones efectivamente se suman a la dimensión ambiental,\(n\), se desprende directamente del hecho de que el subyacente\(P_{j}\)

    suma a la matriz\(n-by-n\) de identidad. Acabamos de demostrar.

    Si\(B\) es real y simétrico y\(n-by-n\), entonces\(B\) tiene un conjunto de nn vectores propios linealmente independientes.

    Volviendo a una versión más concreta del enlace, ahora ensamblamos matrices a partir de las bases individuales

    \[E_{j} \equiv \{x_{j,1}, x_{j,2}, \cdots, x_{j,n_{j}}\} \nonumber\]

    y señalar, una vez más, que\(P_{j} = E_{j}(E_{j}^{T}E_{j})^{-1}E_{j}^{T} \nonumber\), y así,

    \[B = \sum_{j=1}^{h} \lambda_{j}E_{j}(E_{j}^{T}E_{j})^{-1}E_{j}^{T} \nonumber\]

    Entiendo que pueda sentirse un poco abrumado con esta fórmula. Si trabajamos un poco más duro podemos eliminar la presencia del molesto inverso. Lo que quiero decir es que es posible elegir una base para cada\(\mathscr{R}⁢(P_{j})\) una para la que cada uno de los correspondientes\(E_{j}\) satisfaga\(E_{j}^{T}E_{j} = I\). Como esta construcción es bastante general vamos a dedicarle una sección separada (ver Ortogonalización Gram-Schmidt).


    This page titled 9.1: La representación espectral de una matriz simétrica is shared under a CC BY 1.0 license and was authored, remixed, and/or curated by Steve Cox via source content that was edited to the style and standards of the LibreTexts platform; a detailed edit history is available upon request.