Saltar al contenido principal
LibreTexts Español

5.2: Diagonalización de matriz

  • Page ID
    119015
  • \( \newcommand{\vecs}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} } \)

    \( \newcommand{\vecd}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash {#1}}} \)

    \( \newcommand{\id}{\mathrm{id}}\) \( \newcommand{\Span}{\mathrm{span}}\)

    ( \newcommand{\kernel}{\mathrm{null}\,}\) \( \newcommand{\range}{\mathrm{range}\,}\)

    \( \newcommand{\RealPart}{\mathrm{Re}}\) \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\)

    \( \newcommand{\Argument}{\mathrm{Arg}}\) \( \newcommand{\norm}[1]{\| #1 \|}\)

    \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\)

    \( \newcommand{\Span}{\mathrm{span}}\)

    \( \newcommand{\id}{\mathrm{id}}\)

    \( \newcommand{\Span}{\mathrm{span}}\)

    \( \newcommand{\kernel}{\mathrm{null}\,}\)

    \( \newcommand{\range}{\mathrm{range}\,}\)

    \( \newcommand{\RealPart}{\mathrm{Re}}\)

    \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\)

    \( \newcommand{\Argument}{\mathrm{Arg}}\)

    \( \newcommand{\norm}[1]{\| #1 \|}\)

    \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\)

    \( \newcommand{\Span}{\mathrm{span}}\) \( \newcommand{\AA}{\unicode[.8,0]{x212B}}\)

    \( \newcommand{\vectorA}[1]{\vec{#1}}      % arrow\)

    \( \newcommand{\vectorAt}[1]{\vec{\text{#1}}}      % arrow\)

    \( \newcommand{\vectorB}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} } \)

    \( \newcommand{\vectorC}[1]{\textbf{#1}} \)

    \( \newcommand{\vectorD}[1]{\overrightarrow{#1}} \)

    \( \newcommand{\vectorDt}[1]{\overrightarrow{\text{#1}}} \)

    \( \newcommand{\vectE}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash{\mathbf {#1}}}} \)

    \( \newcommand{\vecs}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} } \)

    \( \newcommand{\vecd}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash {#1}}} \)

    Ver Diagonalización Matriz en Youtube

    Ver Poderes de una Matriz en Youtube

    Ver Poderes de una Matriz Ejemplo en Youtube

    Para concreción, considere una matriz A de 2 por 2 con valores propios y vectores propios dados por

    \[\lambda_{1}, \mathrm{x}_{1}=\left(\begin{array}{l} x_{11} \\ x_{21} \end{array}\right) ; \quad \lambda_{2}, \quad \mathrm{x}_{2}=\left(\begin{array}{l} x_{12} \\ x_{22} \end{array}\right) \nonumber \]

    Ahora, considere el producto matriz y la factorización

    \[A\left(\begin{array}{ll} x_{11} & x_{12} \\ x_{21} & x_{22} \end{array}\right)=\left(\begin{array}{ll} \lambda_{1} x_{11} & \lambda_{2} x_{12} \\ \lambda_{1} x_{21} & \lambda_{2} x_{22} \end{array}\right)=\left(\begin{array}{cc} x_{11} & x_{12} \\ x_{21} & x_{22} \end{array}\right)\left(\begin{array}{cc} \lambda_{1} & 0 \\ 0 & \lambda_{2} \end{array}\right) . \nonumber \]

    Definimos\(S\) que es la matriz cuyas columnas son los vectores propios de\(A\), y\(\Lambda\) ser la matriz diagonal de valores propios. Luego generalizando a cualquier matriz cuadrada con un conjunto completo de vectores propios, tenemos

    \[\mathrm{AS}=\mathrm{S} \Lambda . \nonumber \]

    Multiplicando ambos lados a la derecha o a la izquierda por\(\mathrm{S}^{-1}\), hemos encontrado

    \[\mathrm{A}=\mathrm{S} \Lambda \mathrm{S}^{-1} \text { or } \Lambda=\mathrm{S}^{-1} \mathrm{AS} . \nonumber \]

    Para memorizar el orden de las\(S\) matrices en estas fórmulas, solo recuerda que se\(A\) debe multiplicar a la derecha por\(S\).

    Diagonalizar una matriz facilita la búsqueda de potencias de esa matriz. Por ejemplo,

    \[\mathrm{A}^{2}=\left(\mathrm{S} \Lambda \mathrm{S}^{-1}\right)\left(\mathrm{S} \Lambda \mathrm{S}^{-1}\right)=\mathrm{S} \Lambda^{2} \mathrm{~S}^{-1} \nonumber \]

    donde en el ejemplo 2 por 2,\(\Lambda^{2}\) es simplemente

    \[\left(\begin{array}{cc} \lambda_{1} & 0 \\ 0 & \lambda_{2} \end{array}\right)\left(\begin{array}{cc} \lambda_{1} & 0 \\ 0 & \lambda_{2} \end{array}\right)=\left(\begin{array}{cc} \lambda_{1}^{2} & 0 \\ 0 & \lambda_{2}^{2} \end{array}\right) \nonumber \]

    En general,\(\Lambda^{2}\) tiene los valores propios al cuadrado por la diagonal. Más generalmente, para\(p\) un número entero positivo,

    \[\mathrm{A}^{p}=\mathrm{S} \Lambda^{p} \mathrm{~S}^{-1} \nonumber \]

    Ejemplo: Recordemos la matriz Q de Fibonacci, que satisface

    \[\mathrm{Q}=\left(\begin{array}{ll} 1 & 1 \\ 1 & 0 \end{array}\right), \quad \mathrm{Q}^{n}=\left(\begin{array}{cc} F_{n+1} & F_{n} \\ F_{n} & F_{n-1} \end{array}\right) \nonumber \]

    Usando\(\mathrm{Q}\) y\(\mathrm{Q}^{n}\), derivar la fórmula de Binet para\(F_{n}\).

    La ecuación característica de\(Q\) viene dada por

    \[\lambda^{2}-\lambda-1=0 \text {, } \nonumber \]

    con soluciones

    \[\lambda_{1}=\frac{1+\sqrt{5}}{2}=\Phi, \quad \lambda_{2}=\frac{1-\sqrt{5}}{2}=-\phi \nonumber \]

    Las identidades útiles son

    \[\Phi=1+\phi, \quad \Phi=1 / \phi, \quad \text { and } \quad \Phi+\phi=\sqrt{5} \nonumber \]

    El vector propio correspondiente a se\(\Phi\) puede encontrar en

    \[x_{1}-\Phi x_{2}=0, \nonumber \]

    y el vector propio correspondiente a se\(-\phi\) puede encontrar en

    \[x_{1}+\phi x_{2}=0 . \nonumber \]

    Por lo tanto, los valores propios y los vectores propios pueden escribirse como

    \[\lambda_{1}=\Phi, \quad \mathrm{x}_{1}=\left(\begin{array}{c} \Phi \\ 1 \end{array}\right) ; \quad \lambda_{2}=-\phi, \mathrm{x}_{2}=\left(\begin{array}{r} -\phi \\ 1 \end{array}\right) \nonumber \]

    La matriz del vector propio\(S\) se convierte

    \[\mathrm{S}=\left(\begin{array}{rr} \Phi & -\phi \\ 1 & 1 \end{array}\right) \nonumber \]

    y la inversa de esta matriz de 2 por 2 viene dada por

    \[\mathrm{S}^{-1}=\frac{1}{\sqrt{5}}\left(\begin{array}{rr} 1 & \phi \\ -1 & \Phi \end{array}\right) \nonumber \]

    Nuestra diagonalización es por lo tanto

    \[Q=\frac{1}{\sqrt{5}}\left(\begin{array}{rr} \Phi & -\phi \\ 1 & 1 \end{array}\right)\left(\begin{array}{cc} \Phi & 0 \\ 0 & -\phi \end{array}\right)\left(\begin{array}{rr} 1 & \phi \\ -1 & \Phi \end{array}\right) \nonumber \]

    Elevando al poder\(n\) th, tenemos

    \[\begin{aligned} \mathrm{Q}^{n} &=\frac{1}{\sqrt{5}}\left(\begin{array}{rr} \Phi & -\phi \\ 1 & 1 \end{array}\right)\left(\begin{array}{cc} \Phi^{n} & 0 \\ 0 & (-\phi)^{n} \end{array}\right)\left(\begin{array}{cc} 1 & \phi \\ -1 & \Phi \end{array}\right) \\ &=\frac{1}{\sqrt{5}}\left(\begin{array}{rr} \Phi & -\phi \\ 1 & 1 \end{array}\right)\left(\begin{array}{cc} \Phi^{n} & \Phi^{n-1} \\ -(-\phi)^{n} & -(-\phi)^{n-1} \end{array}\right) \\ &=\frac{1}{\sqrt{5}}\left(\begin{array}{cc} \Phi^{n+1}-(-\phi)^{n+1} & \Phi^{n}-(-\phi)^{n} \\ \Phi^{n}-(-\phi)^{n} & \Phi^{n-1}-(-\phi)^{n-1} \end{array}\right) . \end{aligned} \nonumber \]

    Usando\(Q^{n}\) escrito en términos de los números de Fibonacci, hemos derivado la fórmula de Binet

    \[F_{n}=\frac{\Phi^{n}-(-\phi)^{n}}{\sqrt{5}} \nonumber \]


    This page titled 5.2: Diagonalización de matriz is shared under a CC BY 3.0 license and was authored, remixed, and/or curated by Jeffrey R. Chasnov via source content that was edited to the style and standards of the LibreTexts platform; a detailed edit history is available upon request.