Saltar al contenido principal
LibreTexts Español

7.2: Diagonalización

  • Page ID
    114816
  • \( \newcommand{\vecs}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} } \) \( \newcommand{\vecd}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash {#1}}} \)\(\newcommand{\id}{\mathrm{id}}\) \( \newcommand{\Span}{\mathrm{span}}\) \( \newcommand{\kernel}{\mathrm{null}\,}\) \( \newcommand{\range}{\mathrm{range}\,}\) \( \newcommand{\RealPart}{\mathrm{Re}}\) \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\) \( \newcommand{\Argument}{\mathrm{Arg}}\) \( \newcommand{\norm}[1]{\| #1 \|}\) \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\) \( \newcommand{\Span}{\mathrm{span}}\) \(\newcommand{\id}{\mathrm{id}}\) \( \newcommand{\Span}{\mathrm{span}}\) \( \newcommand{\kernel}{\mathrm{null}\,}\) \( \newcommand{\range}{\mathrm{range}\,}\) \( \newcommand{\RealPart}{\mathrm{Re}}\) \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\) \( \newcommand{\Argument}{\mathrm{Arg}}\) \( \newcommand{\norm}[1]{\| #1 \|}\) \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\) \( \newcommand{\Span}{\mathrm{span}}\)\(\newcommand{\AA}{\unicode[.8,0]{x212B}}\)

    Resultados
    1. Determinar cuándo es posible diagonalizar una matriz.
    2. Cuando sea posible, diagonalice una matriz.

    Similitud y Diagonalización

    Comenzamos esta sección recordando la definición de matrices similares. Recordemos que si\(A,B\) son dos\(n\times n\) matrices, entonces son similares si y solo si existe una matriz invertible\(P\) tal que\[A=P^{-1}BP\nonumber \]

    En este caso escribimos\(A \sim B\). El concepto de similitud es un ejemplo de relación de equivalencia.

    Lema\(\PageIndex{1}\): Similarity is an Equivalence Relation

    La similitud es una relación de equivalencia, es decir, para\(n \times n\) matrices\(A,B,\) y\(C\),

    1. \(A \sim A\)(reflexivo)
    2. Si\(A \sim B\), entonces\(B \sim A\) (simétrico)
    3. Si\(A \sim B\) y\(B \sim C\), entonces\(A \sim C\) (transitivo)
    Prueba

    Es claro que\(A\sim A\), tomando\(P=I\).

    Ahora bien, si\(A\sim B,\) entonces por algún\(P\) invertible,\[A=P^{-1}BP\nonumber \] y así\[PAP^{-1}=B\nonumber \] Pero entonces lo\[\left( P^{-1}\right) ^{-1}AP^{-1}=B\nonumber \] que demuestra eso\(B\sim A\).

    Ahora supongamos\(A\sim B\) y\(B\sim C\). Entonces existen matrices invertibles\(P,Q\) tales que\[A=P^{-1}BP,\ B=Q^{-1}CQ\nonumber \] Entonces,\[A=P^{-1} \left( Q^{-1}CQ \right)P=\left( QP\right) ^{-1}C\left( QP\right)\nonumber \] mostrando que\(A\) es similar a\(C\).

    Otro concepto importante necesario para esta sección es la traza de una matriz. Considera la definición.

    Definición\(\PageIndex{1}\): Trace of a Matrix

    Si\(A=[a_{ij}]\) es una\(n\times n\) matriz, entonces el rastro de\(A\) es\[\mathrm{trace}(A) = \sum_{i=1}^n a_{ii}.\nonumber \]

    En palabras, la traza de una matriz es la suma de las entradas en la diagonal principal.

    Lema\(\PageIndex{2}\): Properties of Trace

    Para\(n\times n\) matrices\(A\) y\(B\), y cualquiera\(k\in\mathbb{R}\),

    1. \(\mathrm{trace}(A+B)=\mathrm{trace}(A) + \mathrm{trace}(B)\)
    2. \(\mathrm{trace}(kA)=k\cdot\mathrm{trace}(A)\)
    3. \(\mathrm{trace}(AB)=\mathrm{trace}(BA)\)

    El siguiente teorema incluye una referencia al polinomio característico de una matriz. Recordemos que para cualquier\(n \times n\) matriz\(A\), el polinomio característico de\(A\) es\(c_A(x)=\det(xI-A)\).

    Teorema\(\PageIndex{1}\): Properties of Similar Matrices

    Si\(A\) y\(B\) son\(n\times n\) matrices y\(A\sim B\), entonces

    1. \(\det(A) = \det(B)\)
    2. \(\mathrm{rank}(A) = \mathrm{rank}(B)\)
    3. \(\mathrm{trace}(A)= \mathrm{trace}(B)\)
    4. \(c_A(x)=c_B(x)\)
    5. \(A\)y\(B\) tienen los mismos valores propios

    Pasamos ahora al concepto principal de esta sección. Cuando una matriz es similar a una matriz diagonal, se dice que la matriz es diagonalizable. Definimos una matriz diagonal\(D\) como una matriz que contiene un cero en cada entrada excepto las de la diagonal principal. Más precisamente, si\(d_{ij}\) es la\(ij^{th}\) entrada de una matriz diagonal\(D\), entonces\(d_{ij}=0\) a menos que\(i=j\). Tales matrices se ven como las siguientes. \[D = \left[ \begin{array}{ccc} \ast & & 0 \\ & \ddots & \\ 0 & & \ast \end{array} \right]\nonumber \]donde\(\ast\) es un número que podría no ser cero.

    A continuación se presenta la definición formal de una matriz diagonalizable.

    Definición\(\PageIndex{2}\): Diagonalizable

    \(A\)Déjese ser una\(n\times n\) matriz. Entonces\(A\) se dice que es diagonalizable si existe una matriz invertible\(P\) tal que\[P^{-1}AP=D\nonumber \] donde\(D\) está una matriz diagonal.

    Observe que la ecuación anterior se puede reorganizar como\(A=PDP^{-1}\). Supongamos que quisiéramos calcular\(A^{100}\). Al diagonalizar\(A\) primero basta con luego computar\(\left(PDP^{-1}\right)^{100}\), lo que reduce a\(PD^{100}P^{-1}\). Este último cómputo es mucho más sencillo que\(A^{100}\). Si bien este proceso se describe en detalle más adelante, proporciona motivación para la diagonalización.

    Diagonalización de una Matriz

    El teorema más importante sobre la diagonalizabilidad es el siguiente resultado importante.

    Teorema\(\PageIndex{2}\): Eigenvectors and Diagonalizable Matrices

    Una\(n\times n\) matriz\(A\) es diagonalizable si y solo si hay una matriz invertible\(P\) dada por\[P=\left[\begin{array}{cccc} X_{1} & X_{2} & \cdots & X_{n} \end{array} \right]\nonumber\] donde los\(X_{k}\) son vectores propios de\(A\).

    Además, si\(A\) es diagonalizable, los valores propios correspondientes de\(A\) son las entradas diagonales de la matriz diagonal\(D\).

    Prueba

    Supongamos que\(P\) se da como arriba como una matriz invertible cuyas columnas son vectores propios de\(A\). Entonces\(P^{-1}\) es de la forma\[P^{-1}=\left[\begin{array}{c} W_{1}^{T} \\ W_{2}^{T} \\ \vdots \\ W_{n}^{T} \end{array} \right]\nonumber \] donde\(W_{k}^{T}X_{j}=\delta _{kj},\) que es el símbolo del Kronecker definido por\[\delta _{ij}=\left\{ \begin{array}{c} 1 \text{ if }i=j \\ 0\text{ if }i\neq j \end{array} \right.\nonumber \]

    Entonces\[\begin{aligned} P^{-1}AP & = \left[\begin{array}{c} W_{1}^{T} \\ W_{2}^{T} \\ \vdots \\ W_{n}^{T} \end{array} \right] \left[\begin{array}{cccc} AX_{1} & AX_{2} & \cdots & AX_{n} \end{array} \right] \\ & = \left[\begin{array}{c} W_{1}^{T} \\ W_{2}^{T} \\ \vdots \\ W_{n}^{T} \end{array} \right] \left[\begin{array}{cccc} \lambda _{1}X_{1} & \lambda _{2}X_{2} & \cdots & \lambda _{n}X_{n} \end{array} \right] \\ &= \left[\begin{array}{ccc} \lambda _{1} & & 0 \\ & \ddots & \\ 0 & & \lambda _{n} \end{array} \right] \end{aligned}\]

    Por el contrario, supongamos que\(A\) es diagonalizable de manera que\(P^{-1}AP=D.\) Let\[P=\left[\begin{array}{cccc} X_{1} & X_{2} & \cdots & X_{n} \end{array} \right]\nonumber \] donde las columnas son las\(X_{k}\)\[AP=PD=\left[\begin{array}{cccc} X_{1} & X_{2} & \cdots & X_{n} \end{array} \right] \left[\begin{array}{ccc} \lambda _{1} & & 0 \\ & \ddots & \\ 0 & & \lambda _{n} \end{array} \right]\nonumber\] y\[D=\left[\begin{array}{ccc} \lambda _{1} & & 0 \\ & \ddots & \\ 0 & & \lambda _{n} \end{array} \right]\nonumber \] Entonces y así\[\left[\begin{array}{cccc} AX_{1} & AX_{2} & \cdots & AX_{n} \end{array} \right] =\left[\begin{array}{cccc} \lambda _{1}X_{1} & \lambda _{2}X_{2} & \cdots & \lambda _{n}X_{n} \end{array} \right]\nonumber\] mostrando\(X_{k}\) los son vectores propios de\(A\) y los\(\lambda _{k}\) son vectores propios.

    Observe que debido a que la matriz\(P\) definida anteriormente es invertible se deduce que el conjunto de vectores propios de\(A\)\(\left\{ X_1, X_2, \cdots, X_n \right\}\),, forman una base de\(\mathbb{R}^n\).

    Demostramos el concepto dado en el teorema anterior en el siguiente ejemplo. Obsérvese que no sólo las columnas de la matriz están\(P\) formadas por vectores propios, sino que\(P\) deben ser invertibles por lo que deben constar de una amplia variedad de vectores propios. Logramos esto mediante el uso de vectores propios básicos para las columnas de\(P\).

    Ejemplo\(\PageIndex{1}\): Diagonalize a Matrix

    Vamos\[A=\left[\begin{array}{rrr} 2 & 0 & 0 \\ 1 & 4 & -1 \\ -2 & -4 & 4 \end{array} \right]\nonumber\] Encuentra una matriz invertible\(P\) y una matriz diagonal\(D\) tal que\(P^{-1}AP=D\).

    Solución

    Por teorema\(\PageIndex{2}\) utilizamos los vectores propios de\(A\) como las columnas de\(P\), y los valores propios correspondientes de\(A\) como las entradas diagonales de\(D\).

    Primero, encontraremos los valores propios de\(A\). Para ello, resolvemos de la\(\det \left( \lambda I -A \right) =0\) siguiente manera. \[\det \left( \lambda \left[\begin{array}{rrr} 1 & 0 & 0 \\ 0 & 1 & 0 \\ 0 & 0 & 1 \end{array} \right] - \left[\begin{array}{rrr} 2 & 0 & 0 \\ 1 & 4 & -1 \\ -2 & -4 & 4 \end{array} \right] \right) = 0\nonumber \]

    Este cálculo se deja como un ejercicio, y se debe verificar que los valores propios son\(\lambda_1 =2, \lambda_2 = 2\), y\(\lambda_3 = 6\).

    A continuación, necesitamos encontrar los vectores propios. Primero encontramos los vectores propios para\(\lambda_1, \lambda_2 = 2\). Resolviendo\(\left(2I - A \right)X = 0\) encontrar los vectores propios, encontramos que los vectores propios están\[t\left[\begin{array}{r} -2 \\ 1 \\ 0 \end{array} \right] +s\left[\begin{array}{r} 1 \\ 0 \\ 1 \end{array} \right]\nonumber \] donde\(t,s\) están los escalares. Por lo tanto, hay dos vectores propios básicos que están dados por\[X_1 = \left[\begin{array}{r} -2 \\ 1 \\ 0 \end{array} \right], X_2 = \left[\begin{array}{r} 1 \\ 0 \\ 1 \end{array} \right]\nonumber \]

    Se puede verificar que el vector propio básico para\(\lambda_3 =6\) es\(X_3 = \left[\begin{array}{r} 0 \\ 1 \\ -2 \end{array} \right]\)

    Luego, construimos la matriz de la\(P\) siguiente manera. \[P= \left[\begin{array}{rrr} X_1 & X_2 & X_3 \end{array} \right] = \left[\begin{array}{rrr} -2 & 1 & 0 \\ 1 & 0 & 1 \\ 0 & 1 & -2 \end{array} \right]\nonumber \]Es decir, las columnas de\(P\) son los vectores propios básicos de\(A\). Entonces, se puede verificar que\[P^{-1}=\left[\begin{array}{rrr} - \frac{1}{4} & \frac{1}{2} & \frac{1}{4} \\ \frac{1}{2} & 1 & \frac{1}{2} \\ \frac{1}{4} & \frac{1}{2} & - \frac{1}{4} \end{array} \right]\nonumber \] Así,\[\begin{aligned} P^{-1}AP &=\left[\begin{array}{rrr} - \frac{1}{4} & \frac{1}{2} & \frac{1}{4} \\ \frac{1}{2} & 1 & \frac{1}{2} \\ \frac{1}{4} & \frac{1}{2} & - \frac{1}{4} \end{array} \right] \left[\begin{array}{rrr} 2 & 0 & 0 \\ 1 & 4 & -1 \\ -2 & -4 & 4 \end{array} \right] \left[\begin{array}{rrr} -2 & 1 & 0 \\ 1 & 0 & 1 \\ 0 & 1 & -2 \end{array} \right] \\ &=\left[\begin{array}{rrr} 2 & 0 & 0 \\ 0 & 2 & 0 \\ 0 & 0 & 6 \end{array} \right] \end{aligned}\]

    Se puede ver que el resultado aquí es una matriz diagonal donde las entradas en la diagonal principal son los valores propios de\(A\). Esto lo esperábamos con base en el Teorema\(\PageIndex{2}\). Observe que los valores propios en la diagonal principal deben estar en el mismo orden que los vectores propios correspondientes en\(P\).

    Consideremos el siguiente teorema importante.

    Teorema\(\PageIndex{3}\): Linearly Independent Eigenvectors

    Dejar\(A\) ser una\(n\times n\) matriz, y supongamos que\(A\) tiene valores propios distintos\(\lambda_1, \lambda_2, \ldots, \lambda_m\). Para cada uno\(i\), deja\(X_i\) ser un\(\lambda_i\) -eigenvector de\(A\). Entonces\(\{ X_1, X_2, \ldots, X_m\}\) es linealmente independiente.

    El corolario que se desprende de este teorema da una herramienta útil para determinar si\(A\) es diagonalizable.

    Corolario\(\PageIndex{1}\): Distinct Eigenvalues

    Dejar\(A\) ser una\(n \times n\) matriz y supongamos que tiene valores propios\(n\) distintos. Entonces se deduce que\(A\) es diagonalizable.

    Es posible que una matriz\(A\) no pueda ser diagonalizada. En otras palabras, no podemos encontrar una matriz invertible\(P\) así que eso\(P^{-1}AP=D\).

    Considera el siguiente ejemplo.

    Ejemplo\(\PageIndex{2}\): A Matrix which cannot be Diagonalized

    Deje\[A = \left[\begin{array}{rr} 1 & 1 \\ 0 & 1 \end{array} \right]\nonumber\] Si es posible, encuentre una matriz invertible\(P\) y una matriz diagonal\(D\) para que\(P^{-1}AP=D\).

    Solución

    A través del procedimiento habitual, encontramos que los valores propios de\(A\) son\(\lambda_1 =1, \lambda_2=1.\) Para encontrar los vectores propios, resolvemos la ecuación\(\left(\lambda I - A \right) X = 0\). La matriz\(\left(\lambda I -A \right)\) viene dada por\[\left[\begin{array}{cc} \lambda - 1 & -1 \\ 0 & \lambda - 1 \end{array} \right]\nonumber\]

    Sustituyendo en\(\lambda = 1\), tenemos la matriz\[\left[\begin{array}{cc} 1 - 1 & -1 \\ 0 & 1 - 1 \end{array} \right] = \left[\begin{array}{rr} 0 & -1 \\ 0 & 0 \end{array} \right]\nonumber\]

    Entonces, resolver la ecuación\(\left(\lambda I - A\right) X = 0\) implica llevar la siguiente matriz aumentada a su forma reducida de fila-escalón. \[\left[\begin{array}{rr|r} 0 & -1 & 0 \\ 0 & 0 & 0 \end{array} \right] \rightarrow \cdots \rightarrow \left[\begin{array}{rr|r} 0 & -1 & 0 \\ 0 & 0 & 0 \end{array} \right]\nonumber\]

    Entonces los vectores propios son de la forma\[t\left[\begin{array}{r} 1 \\ 0 \end{array} \right]\nonumber\] y el vector propio básico es\[X_1 = \left[\begin{array}{r} 1 \\ 0 \end{array} \right]\nonumber\]

    En este caso, la matriz\(A\) tiene un valor propio de multiplicidad dos, pero sólo un vector propio básico. Para diagonalizar\(A\), necesitamos construir una\(2\times 2\) matriz invertible\(P\). Sin embargo, debido a que\(A\) solo tiene un vector propio básico, no podemos construirlo\(P\). Observe que si tuviéramos que usar\(X_1\) como ambas columnas de\(P\), no\(P\) sería invertible. Por esta razón, no podemos repetir vectores propios en\(P\).

    De ahí que esta matriz no pueda ser diagonalizada.

    La idea de que una matriz puede no ser diagonalizable sugiere que existen condiciones para determinar cuándo es posible diagonalizar una matriz. Vimos anteriormente en Corolario\(\PageIndex{1}\) que una\(n \times n\) matriz con\(n\) distintos valores propios es diagonalizable. Resulta que existen otras pruebas útiles de diagonalizabilidad.

    Primero necesitamos la siguiente definición.

    Definición\(\PageIndex{3}\): Eigenspace

    Dejar\(A\) ser una\(n\times n\) matriz y\(\lambda\in\mathbb{R}\). El espacio propio de\(A\) correspondiente a\(\lambda\), escrito\(E_{\lambda}(A)\) es el conjunto de todos los vectores propios correspondientes a\(\lambda\).

    En otras palabras, el espacio propio\(E_{\lambda}(A)\) es todo\(X\) tal que\(AX = \lambda X\). Observe que este conjunto se puede escribir\(E_{\lambda}(A) = \mathrm{null}(\lambda I - A)\), mostrando que\(E_{\lambda}(A)\) es un subespacio de\(\mathbb{R}^n\).

    Recordemos que la multiplicidad de un valor propio\(\lambda\) es el número de veces que ocurre como raíz del polinomio característico.

    Considera ahora el siguiente lema.

    Lema\(\PageIndex{3}\): Dimension of the Eigenspace

    Si\(A\) es una\(n\times n\) matriz, entonces\[\dim(E_{\lambda}(A))\leq m\nonumber\] donde\(\lambda\) es un valor propio de\(A\) de multiplicidad\(m\).

    Este resultado nos dice que si\(\lambda\) es un valor propio de\(A\), entonces el número de\(\lambda\) vectores propios linealmente independientes nunca es mayor que la multiplicidad de\(\lambda\). Ahora utilizamos este hecho para proporcionar una condición útil de diagonalizabilidad.

    Teorema\(\PageIndex{4}\): Diagonalizability Condition

    \(A\)Déjese ser una\(n \times n\) matriz\(A\). Entonces\(A\) es diagonalizable si y sólo si por cada valor propio\(\lambda\) de\(A\),\(\dim(E_{\lambda}(A))\) es igual a la multiplicidad de\(\lambda\).

    Valores propios complejos

    En algunas aplicaciones, una matriz puede tener valores propios que son números complejos. Por ejemplo, esto ocurre a menudo en ecuaciones diferenciales. Estas preguntas se abordan de la misma manera que las anteriores.

    Considera el siguiente ejemplo.

    Ejemplo\(\PageIndex{3}\): A Real Matrix with Complex Eigenvalues

    Vamos\[A=\left [ \begin{array}{rrr} 1 & 0 & 0 \\ 0 & 2 & -1 \\ 0 & 1 & 2 \end{array} \right ]\nonumber \] Encuentra los valores propios y los vectores propios de\(A\).

    Solución

    Primero encontraremos los valores propios como de costumbre resolviendo la siguiente ecuación.

    \[\det \left( \lambda \left [ \begin{array}{rrr} 1 & 0 & 0 \\ 0 & 1 & 0 \\ 0 & 0 & 1 \end{array} \right ] - \left [ \begin{array}{rrr} 1 & 0 & 0 \\ 0 & 2 & -1 \\ 0 & 1 & 2 \end{array} \right ] \right) =0\nonumber \]Esto se reduce a\(\left( \lambda -1\right) \left( \lambda^{2}-4 \lambda +5\right) =0.\) Las soluciones son\(\lambda_1 =1,\lambda_2 = 2+i\) y\(\lambda_3 =2-i.\)

    No hay nada nuevo en encontrar los vectores propios para\(\lambda_1 =1\) lo que esto se deja como un ejercicio.

    Consideremos ahora el valor propio\(\lambda_2 =2+i.\) Como de costumbre, resolvemos la ecuación\(\left(\lambda I -A \right) X = 0\) tal como la da\[\left( \left( 2+i\right) \left [ \begin{array}{rrr} 1 & 0 & 0 \\ 0 & 1 & 0 \\ 0 & 0 & 1 \end{array} \right ] - \left [ \begin{array}{rrr} 1 & 0 & 0 \\ 0 & 2 & -1 \\ 0 & 1 & 2 \end{array} \right ] \right) X =\left [ \begin{array}{r} 0 \\ 0 \\ 0 \end{array} \right ]\nonumber \] En otras palabras, necesitamos resolver el sistema representado por la matriz aumentada\[\left [ \begin{array}{crr|r} 1+i & 0 & 0 & 0 \\ 0 & i & 1 & 0 \\ 0 & -1 & i & 0 \end{array} \right ]\nonumber \]

    Ahora utilizamos nuestras operaciones de fila para resolver el sistema. Divide la primera fila por\(\left( 1+i\right)\) y luego toma\(-i\) veces la segunda fila y agrega a la tercera fila. Esto rinde\[\left [ \begin{array}{rrr|r} 1 & 0 & 0 & 0 \\ 0 & i & 1 & 0 \\ 0 & 0 & 0 & 0 \end{array} \right ]\nonumber\] Ahora multiplica la segunda fila por\(-i\) para obtener la forma reducida fila-escalón, dada por\[\left [ \begin{array}{rrr|r} 1 & 0 & 0 & 0 \\ 0 & 1 & -i & 0 \\ 0 & 0 & 0 & 0 \end{array} \right ]\nonumber \] Por lo tanto, los vectores propios son de la forma\[t\left [ \begin{array}{r} 0 \\ i \\ 1 \end{array} \right ]\nonumber\] y el vector propio básico viene dado por\[X_2 = \left [ \begin{array}{r} 0 \\ i \\ 1 \end{array} \right ]\nonumber\]

    Como ejercicio, verificar que los vectores propios para\(\lambda_3 =2-i\) son de la forma\[t\left [ \begin{array}{r} 0 \\ -i \\ 1 \end{array} \right ]\nonumber\] Por lo tanto, el vector propio básico viene dado por\[X_3 = \left [ \begin{array}{r} 0 \\ -i \\ 1 \end{array} \right ]\nonumber\]

    Como de costumbre, ¡asegúrate de revisar tus respuestas! Para verificar, verificamos eso de la\(AX_3 = \left(2 - i \right) X_3\) siguiente manera. \[\left [ \begin{array}{rrr} 1 & 0 & 0 \\ 0 & 2 & -1 \\ 0 & 1 & 2 \end{array} \right ] \left [ \begin{array}{r} 0 \\ -i \\ 1 \end{array} \right ] = \left [ \begin{array}{c} 0 \\ -1-2i \\ 2-i \end{array} \right ] =\left( 2-i\right) \left [ \begin{array}{r} 0 \\ -i \\ 1 \end{array} \right ]\nonumber \]

    Por lo tanto, sabemos que este autovector y autovalor son correctos.

    Observe que en Ejemplo\(\PageIndex{3}\), dos de los valores propios fueron dados por\(\lambda_2 = 2 + i\) y\(\lambda_3 = 2-i\). Tal vez recuerde que estos dos números complejos son conjugados. Resulta que siempre que una matriz que contiene entradas reales tiene un valor propio complejo\(\lambda\), también tiene un valor propio igual a\(\overline{\lambda}\), el conjugado de\(\lambda\).


    This page titled 7.2: Diagonalización is shared under a CC BY 4.0 license and was authored, remixed, and/or curated by Ken Kuttler (Lyryx) via source content that was edited to the style and standards of the LibreTexts platform; a detailed edit history is available upon request.