Saltar al contenido principal
LibreTexts Español

2.10: Apéndice- Diagonalización y Sistemas Lineales

  • Page ID
    118915
  • \( \newcommand{\vecs}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} } \) \( \newcommand{\vecd}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash {#1}}} \)\(\newcommand{\id}{\mathrm{id}}\) \( \newcommand{\Span}{\mathrm{span}}\) \( \newcommand{\kernel}{\mathrm{null}\,}\) \( \newcommand{\range}{\mathrm{range}\,}\) \( \newcommand{\RealPart}{\mathrm{Re}}\) \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\) \( \newcommand{\Argument}{\mathrm{Arg}}\) \( \newcommand{\norm}[1]{\| #1 \|}\) \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\) \( \newcommand{\Span}{\mathrm{span}}\) \(\newcommand{\id}{\mathrm{id}}\) \( \newcommand{\Span}{\mathrm{span}}\) \( \newcommand{\kernel}{\mathrm{null}\,}\) \( \newcommand{\range}{\mathrm{range}\,}\) \( \newcommand{\RealPart}{\mathrm{Re}}\) \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\) \( \newcommand{\Argument}{\mathrm{Arg}}\) \( \newcommand{\norm}[1]{\| #1 \|}\) \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\) \( \newcommand{\Span}{\mathrm{span}}\)\(\newcommand{\AA}{\unicode[.8,0]{x212B}}\)

    Como hemos visto, la formulación matricial para sistemas lineales puede ser poderosa, especialmente para ecuaciones\(n\) diferenciales que involucran funciones\(n\) desconocidas. Nuestra capacidad para avanzar hacia soluciones dependía de la solución de problemas de autovalor. Sin embargo, en el caso de valores propios repetidos vimos algunas complicaciones adicionales. Todo esto depende profundamente del álgebra lineal de fondo. A saber, confiamos en poder diagonalizar la matriz de coeficientes dada. En esta sección discutiremos las limitaciones de la diagonalización e introduciremos la forma canónica de Jordania.

    Comenzamos con la noción de similitud. \(A\)La matriz es similar a la matriz B si y solo si existe una matriz no singular P tal que

    \[B=P^{-1} A P \label{2.113} \]

    Recordemos que una matriz no singular tiene un determinante distinto de cero y es invertible.

    Observamos que la relación de similitud es una relación de equivalencia. A saber, satisface lo siguiente

    1. \(A\)es similar a sí mismo.
    2. Si\(A\) es similar a\(B\), entonces\(B\) es similar a\(A\).
    3. Si\(A\) es similar a\(B\) y\(B\) es similar a\(C\), el\(A\) es similar a\(C\).

    Además, si\(A\) es similar a\(B\), entonces tienen los mismos valores propios. Esto se deduce de un simple cálculo de la ecuación de valor propio. A saber,

    \ [\ begin {aligned}
    0 &=\ nombreoperador {det} (B-\ lambda I)\\
    &=\ nombreoperador {det}\ left (P^ {-1} A P-\ lambda P^ {-1} I P\ derecha)\\
    &=\ nombreoperador {det} (P) ^ {-1}\ nombredeoperador {det} (A-\ lambda I)\ nombre de operador {det} (P)\\
    &=\ nombreoperador {det} (A-\ lambda I)
    \ final {alineado}\ etiqueta {2.114}\]

    Por lo tanto,\(\operatorname{det}(A-\lambda I)=0\) y\(\lambda\) es un valor propio de ambos\(A\) y\(B\).
    Una\(n \times n\) matriz\(A\) es diagonalizable si y solo si\(A\) es similar a una matriz diagonal\(D\); es decir, existe una matriz no singular\(P\) tal que

    \[D=P^{-1} A P \label{2.115} \]

    Uno de los teoremas más importantes en álgebra lineal es el Teorema Espectral. Este teorema nos dice cuándo se puede diagonalizar una matriz. De hecho, va más allá de las matrices a la diagonalización de operadores lineales. Aprendemos en álgebra lineal que los operadores lineales pueden ser representados por matrices una vez que elegimos una base de representación particular. La diagonalización es más simple para espacios vectoriales dimensionales finitos y requiere cierta generalización para espacios vectoriales dimensionales infinitos. Ejemplos de operadores a los que se aplica el teorema espectral son los operadores autounidos (más generalmente operadores normales en espacios Hilbert). Exploraremos algunas de estas ideas más adelante en el curso. El teorema espectral proporciona una descomposición canónica, llamada descomposición espectral, o descomposición propia, del espacio vectorial subyacente sobre el que actúa.

    El siguiente teorema nos dice cómo diagonalizar una matriz:

    Teorema 2.23.

    \(A\)Déjese ser una\(n \times n\) matriz. Entonces\(A\) es diagonalizable si y sólo si\(A\) tiene vectores propios\(n\) linealmente independientes. Si es así, entonces

    \[D=P^{-1} A P \nonumber \]

    Si\(\left\{v_{1}, \ldots, v_{n}\right\}\) son los vectores propios de\(A\) y\(\left\{\lambda_{1}, \ldots, \lambda_{n}\right\}\) son los valores propios correspondientes, entonces\(v_{j}\) es la columna\(j\) th de\(P\) y\(D_{j j}=\lambda_{j}\).

    Una determinación más simple resulta al anotar

    Teorema 2.24.

    Dejar\(A\) ser una\(n \times n\) matriz con valores propios\(n\) reales y distintos. Entonces\(A\) es diagonalizable.

    Por lo tanto, solo necesitamos mirar los valores propios y determinar la diagonalizabilidad. De hecho, también se tiene a partir del álgebra lineal el siguiente resultado

    Teorema 2.25.

    \(A\)Sea una\(n \times n\) verdadera matriz simétrica. Entonces\(A\) es diagonalizable.

    Recordemos que una matriz simétrica es aquella cuya transposición es la misma que la matriz, o\(A_{i j}=A_{j i}\).

    Ejemplo 2.26. Considerar la matriz

    \ (A=\ left (\ begin {array} {lll}
    1 & 2 & 2\\
    2 & 3 & 0\\
    2 & 0 & 3
    \ end {array}\ right)\)

    Esta es una matriz simétrica real. Se encuentra que el polinomio característico es

    \[\operatorname{det}(A-\lambda I)=-(\lambda-5)(\lambda-3)(\lambda+1)=0 \nonumber \]

    Como antes, podemos determinar los vectores propios correspondientes (para\(\lambda=-1,3,5\), respectivamente) como

    \ (\ left (\ begin {array} {c}
    -2\\
    1\\
    1
    \ end {array}\ right),\ quad\ left (\ begin {array} {c}
    0\\
    -1\\
    1
    \ end {array}\ right),\ quad\ left (\ begin {array} {l}
    1\\
    1\\
    1
    \ end {array}\ derecha)\)

    Podemos utilizarlos para construir la matriz diagonalizadora\(P\). A saber, tenemos

    \ [P^ {-1} A P=\ left (\ begin {array} {ccc}
    -2 & 0 & 1\\
    1 & -1 & 1\\
    1 & 1 & 1 & 1
    \ end {array}\ right) ^ {-1}\ left (\ begin {array} {lll}
    1 & 2 & 2\\
    2 & 3 & 0\
    2 & 0 & 3
    \ end {array}\ derecha)\ left (\ begin {array} {ccc}
    -2 & 0 & 1\\
    1 & -1 & 1\\
    1 & 1 & 1 & 1
    \ end {array}\ right) =\ left (\ begin {array} {ccc}
    -1 & 0 & 0\\
    0 & 3 & 0\\
    0 & 0 & 5
    \ end {array}\ derecha)\ label {2.116}\]

    Ahora la diagonalización es una idea importante en la resolución de sistemas lineales de ecuaciones de primer orden, como hemos visto para sistemas simples. Si nuestro sistema es originalmente diagonal, eso significa que nuestras ecuaciones están completamente desacopladas. Deje que nuestro sistema tome la forma

    \[\dfrac{dy}{dt} = Dy \label{2.117} \]

    donde\(D\) es diagonal con entradas\(\lambda_{i}, i=1, \ldots, n\). El sistema de ecuaciones,\(y_{i}^{\prime}=\lambda_{i} y_{i}\), tiene soluciones

    \[y_{i}(t)=c_{c} e^{\lambda_{i} t}. \nonumber \]

    Por lo tanto, es fácil resolver un sistema diagonal.
    Dejar\(A\) ser similar a esta matriz diagonal. Entonces

    \[\dfrac{d \mathbf{y}}{d t}=P^{-1} A P \mathbf{y} \label{2.118} \]

    Esto se puede reescribir como

    \[\dfrac{d P \mathbf{y}}{d t}=A P \mathbf{y} \nonumber \]

    Definiendo\(\mathbf{x}=P \mathbf{y}\), tenemos

    \[\dfrac{d \mathbf{x}}{d t}=A \mathbf{x} \label{2.119} \]

    Esta simple derivación muestra que si\(A\) es diagonalizable, entonces una transformación del sistema original en\(\mathbf{x}\) nuevas coordenadas, o una nueva base, da como resultado un sistema más simple en\(\mathbf{y}\).

    Sin embargo, no siempre es posible diagonalizar una matriz cuadrada dada. Esto se debe a que algunas matrices no tienen suficientes vectores linealmente independientes, o tenemos valores propios repetidos. Sin embargo, tenemos el siguiente teorema:

    Teorema 2.27.

    Cada\(n \times n\) matriz\(A\) es similar a una matriz de la forma

    \(J=\operatorname{diag}\left[J_{1}, J_{2}, \ldots, J_{n}\right]\),

    donde

    \ [J_ {i} =\ left (\ begin {array} {ccccc}
    \ lambda_ {i} & 1 & 0 &\ cdots &\\ cdots &\\
    0 &\ lambda_ {i} & 1 &\ cdots & 0\
    \ vdots &\ ddots &\ ddots &\ ddots &\ ddots &\ vdots\\
    0 &\ cdots & 0 &\ lambda_ {i} & 1\\
    0 & 0 &\ cdots & 0 &\ lambda_ {i}
    \ end {array}\ derecha)\ etiqueta {2.120}\]

    No entraremos en los detalles de cómo se encuentra esta Forma Canónica Jordana o probar el teorema. En la práctica se puede utilizar un sistema de álgebra computacional para determinar esta y la matriz de similitud. Sin embargo, todavía necesitaríamos saber cómo usarlo para resolver nuestro sistema de ecuaciones diferenciales.

    Ejemplo 2.28. Consideremos un sistema sencillo con el\(3 \times 3\) Jordan block

    \ (A=\ left (\ begin {array} {lll}
    2 & 1 & 0\\
    0 & 2 & 1\\
    0 & 0 & 2
    \ end {array}\ right)\)

    El sistema correspondiente de ecuaciones diferenciales acopladas de primer orden toma la forma

    \ [\ begin {alineado}
    &\ dfrac {d x_ {1}} {d t} =2 x_ {1} +x_ {2}\\
    &\ dfrac {d x_ {2}} {d t} =2 x_ {2} +x_ {3}\\
    &\ dfrac {d x_ {3}} {d t} =2 x_ {3}}
    \ fin {alineado}\ etiqueta {2.121}\]

    La última ecuación es simple de resolver, dando\(x_{3}(t)=c_{3} e^{2 t}\). Insertando en la segunda ecuación, tienes un

    \[\dfrac{d x_{2}}{d t}=2 x_{2}+c_{3} e^{2 t}. \nonumber \]

    Usando el factor integrador\(e^{-2 t}\),, uno puede resolver esta ecuación para obtener\(x_{2}(t)= \left(c_{2}+c_{3} t\right) e^{2 t}\). Del mismo modo, se puede resolver la primera ecuación para obtener\(x_{1}(t)= \left(c_{1}+c_{2} t+\dfrac{1}{2} c_{3} t^{2}\right) e^{2 t}\)

    Esto debería recordarle un problema que habíamos resuelto anteriormente que lleva al problema del valor propio generalizado en (2.43). Esto sugiere que existe una teoría más general cuando hay múltiples valores propios y relacionados con formas canónicas jordanas.
    Escribamos la solución que acabamos de obtener en forma vectorial. Tenemos

    \ [\ mathbf {x} (t) =\ left [c_ {1}\ left (\ begin {array} {l}
    1\\
    0\
    0
    \ end {array}\ derecha) +c_ {2}\ left (\ begin {array} {l}
    t\\
    1\
    0
    \ end {array}\ derecha) +c_ {3}\ left (\ begin {array} c {}
    \ dfrac {1} {2 } t^ {2}\\
    t\\
    1
    \ end {array}\ derecha)\ derecha] e^ {2 t}\ etiqueta {2.122}\]

    Parece que esta solución es una combinación lineal de tres soluciones linealmente independientes,

    \ [\ begin {alineado}
    &\ mathbf {x} =\ mathbf {v} _ {1} e^ {2\ lambda t}\\
    &\ mathbf {x} =\ left (t\ mathbf {v} _ {1} +\ mathbf {v} _ {2}\ derecha) e^ {\ lambda t}\\
    &\ mathbf {x} =\ izquierda (\ dfrac {1} {2} t^ {2}\ mathbf {v} _ {1} +t\ mathbf {v} _ {2} +\ mathbf {v} _ {3}\ derecha) e^ {\ lambda t}
    \ end {alineado}\ etiqueta {2.123}\]

    donde\(\lambda=2\) y los vectores satisfacen las ecuaciones

    \ [\ begin {alineado}
    & (A-\ lambda I)\ mathbf {v} _ {1} =0\\
    & (A-\ lambda I)\ mathbf {v} _ {2} =\ mathbf {v} _ _ {1}\
    & (A-\ lambda I)\ mathbf {v} _ {3} =\ mathbf {v} _ _ {2}
    \ end {alineado}\ label {2.124}\]

    y

    \ [\ begin {alineado}
    & (A-\ lambda I)\ mathbf {v} _ {1} =0\\
    & (A-\ lambda I) ^ {2}\ mathbf {v} _ {2} =0\\
    & (A-\ lambda I) ^ {3}\ mathbf {v} _ {3} =0
    \ end {alineado}\ etiqueta {2.125}\]

    Es fácil generalizar este resultado para construir soluciones linealmente independientes correspondientes a múltiples raíces (valores propios) de la ecuación característica.


    This page titled 2.10: Apéndice- Diagonalización y Sistemas Lineales is shared under a CC BY-NC-SA 3.0 license and was authored, remixed, and/or curated by Russell Herman via source content that was edited to the style and standards of the LibreTexts platform; a detailed edit history is available upon request.