Saltar al contenido principal
LibreTexts Español

12.4: El Proceso de Diagonalización

  • Page ID
    117135
  • \( \newcommand{\vecs}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} } \) \( \newcommand{\vecd}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash {#1}}} \)\(\newcommand{\id}{\mathrm{id}}\) \( \newcommand{\Span}{\mathrm{span}}\) \( \newcommand{\kernel}{\mathrm{null}\,}\) \( \newcommand{\range}{\mathrm{range}\,}\) \( \newcommand{\RealPart}{\mathrm{Re}}\) \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\) \( \newcommand{\Argument}{\mathrm{Arg}}\) \( \newcommand{\norm}[1]{\| #1 \|}\) \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\) \( \newcommand{\Span}{\mathrm{span}}\) \(\newcommand{\id}{\mathrm{id}}\) \( \newcommand{\Span}{\mathrm{span}}\) \( \newcommand{\kernel}{\mathrm{null}\,}\) \( \newcommand{\range}{\mathrm{range}\,}\) \( \newcommand{\RealPart}{\mathrm{Re}}\) \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\) \( \newcommand{\Argument}{\mathrm{Arg}}\) \( \newcommand{\norm}[1]{\| #1 \|}\) \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\) \( \newcommand{\Span}{\mathrm{span}}\)\(\newcommand{\AA}{\unicode[.8,0]{x212B}}\)

    Valores propios y vectores propios

    Ahora tenemos los antecedentes para entender las principales ideas detrás del proceso de diagonalización.

    Definición\(\PageIndex{1}\): Eigenvalue, Eigenvector

    Let\(A\) be an\(n\times n\) matrix over\(\mathbb{R}\text{.}\)\(\lambda\) es un valor propio de\(A\) si para algún vector de columna distinto de cero que\(\vec{x}\in \mathbb{R}^n\) tenemos\(A \vec{x} = \lambda \vec{x}\text{.}\)\(\vec{x}\) se llama un vector propio correspondiente al valor propio\(\lambda\text{.}\)

    Ejemplo\(\PageIndex{1}\): Examples of Eigenvalues and Eigenvectors

    Encuentra los valores propios y los vectores propios correspondientes de la matriz\(A=\left( \begin{array}{cc} 2 & 1 \\ 2 & 3 \\ \end{array} \right)\text{.}\)

    Queremos encontrar vectores distintos de cero\(X = \left( \begin{array}{c} x_1 \\ x_2 \\ \end{array} \right)\) y números reales de\(\lambda\) tal manera que

    \ begin {align}\ begin {split} A X =\ lambda X\ quad &\ Leftrightarrow\ left (\ begin {array} {cc} 2 & 1\\ 2 & 3\\ end {array}\ right)\ left (\ begin {array} {c} x_1\\ x_2\\ end {array}\ right) =\ lambda\ left (\ begin {array} c} x_1\\ x_2\\\ end {array}\ derecha)\\ &\ Leftrightarrow\ left (\ begin {array} {cc } 2 & 1\\ 2 & 3\\\ end {array}\ derecha)\ left (\ begin {array} {c} x_1\\ x_2\\\ end {array}\ right) -\ lambda\ left (\ begin {array} {c} x_1\ x_2\\ end {array}\\ right) =\ left (\ begin {array} {c} 0\\\\ end {array}\ derecha)\\ &\ Leftrightarrow\ left (\ begin {array} {cc} 2 & 1\\ 2 & 3\\ end {array} \ derecha)\ left (\ begin {array} {c} x_1\\ x_2\\\ end {array}\ right) -\ lambda\ left (\ begin {array} {cc} 1 & 0\\ 0 & 1\\\ end {array}\ right)\ left (\ begin {array} {c} x_1\\ x_2\\ end {array}\ right) = izquierda\ (\ begin {array} {c} 0\\ 0\\ end {array}\ right)\\ &\ Leftrightarrow\ left (\ left (\ begin {array} {cc} 2 & 1\\ 2 & 3\\\ end {array}\ right) -\ lambda\ left (\ begin {array} {cc} 1 & 0\\ 0 & 1\\\ end {array}\ right)\ right)\ left (\ begin {array} {c} x_1\\ x_2\\ end {array}\ right) =\ left (\ begin {array} {c} 0\\ 0\\ final {array}\ derecha)\\ &\ Izquierda fila\ izquierda (\ begin {array} {cc} 2-\ lambda y 1\ \ 2 & 3-\ lambda\\ end {array}\ derecha)\ left (\ begin {array} {c} x_1\\ x_2\\\ end {array}\ right) =\ left (\ begin {array} {c} 0\\ 0\ end {array}\ right)\\ end {array}\ end {split}\ label {eq:1}\ end {align}

    La última ecuación matricial tendrá soluciones distintas de cero si y solo si

    \ begin {ecuación*}\ det\ left (\ begin {array} {cc} 2-\ lambda & 1\\ 2 & 3-\ lambda\\ end {array}\ right) =0\ end {ecuación*}

    o\((2 - \lambda )(3 -\lambda ) - 2 = 0\text{,}\) que simplifica a\(\lambda^2 - 5\lambda + 4 = 0\text{.}\) Por lo tanto, las soluciones a esta ecuación cuadrática,\(\lambda_1 = 1\) y\(\lambda_2 = 4\text{,}\) son los valores propios de Ahora\(A\text{.}\) tenemos que encontrar vectores propios asociados a cada autovalor.

    Caso 1. Para\(\lambda_1= 1\text{,}\)\(\eqref{eq:1}\) se convierte en:

    \ begin {ecuation*}\ left (\ begin {array} {cc} 2-1 & 1\\ 2 & 3-1\\ end {array}\ right)\ left (\ begin {array} {c} x_1\\ x_2\\ end {array}\ right) =\ left (\ begin {array} {c} 0\\ 0\\ end {array}\\ right)\\\ left (\ begin {array} {cc} 1 & 1\\ 2 & 2\\\ end {array}\ right)\ left (\ begin {array} {c} x_1\\ x _2\\\ end {array}\ right) =\ left (\ begin {array} {c} 0\\ 0\\ end {array}\ right)\ textrm {}\ end {ecuación*}

    que reduce a la ecuación única,\(x_1+ x_2= 0\text{.}\) De esto,\(x_1= -x_2\text{.}\) Esto significa que el conjunto de solución de esta ecuación es (en notación de columna)

    \ begin {ecuación*} E-1 =\ left\ {\ left. \ left (\ begin {array} {c} -c\\ c\\ end {array}\ derecha)\ derecha| c\ in\ mathbb {R}\ derecha\}\ end {ecuación*}

    Entonces cualquier vector de columna de la forma\(\left( \begin{array}{c} -c \\ c \\ \end{array} \right)\) donde\(c\) está cualquier número real distinto de cero es un vector propio asociado con\(\lambda_1=1\text{.}\) El lector debe verificar que, por ejemplo,

    \ begin {ecuation*}\ left (\ begin {array} {cc} 2 & 1\\ 2 & 3\\\ end {array}\ right)\ left (\ begin {array} {c} 1\\ -1\\ end {array}\ right) = 1\ left (\ begin {array} {c} 1\\ -1\\ end {array}\\ right)\ end {equation*)\ end {equation*)\ end {equation*)\ end {equation*)\ end {equation*)\ end {}

    por lo que\(\left( \begin{array}{c} 1 \\ -1 \\ \end{array} \right)\) es un vector propio asociado con el valor propio 1.

    Caso 2. Para\(\lambda_2=4\)\(\eqref{eq:1}\) se convierte en:

    \ begin {ecuation*}\ left (\ begin {array} {cc} 2-4 & 1\\ 2 & 3-4\\ end {array}\ right)\ left (\ begin {array} {c} x_1\\ x_2\\ end {array}\ right) =\ left (\ begin {array} {c} 0\\ 0\\ end {array}\\ right)\\\ left (\ begin {array} {cc} -2 & 1\\ 2 & -1\\\ end {array}\ right)\ left (\ begin {array} {c} x_1\\ x_2\\\ end {array}\ right) =\ left (\ begin {array} {c} 0\\ 0\\ end {array}\ right)\ end {equation*}

    que reduce a la ecuación única\(-2x_1+x_2=0\text{,}\) para que\(x_2= 2x_1\text{.}\) El conjunto de soluciones de la ecuación sea

    \ begin {ecuación*} E_2=\ left\ {\ left. \ left (\ begin {array} {c} c\\ 2c\\ end {array}\ derecha)\ derecha| c\ in\ mathbb {R}\ derecha\}\ end {ecuación*}

    Por lo tanto, todos los vectores propios de\(A\) asociados con el valor propio\(\lambda_2 = 4\) son de la forma\(\left( \begin{array}{c} c \\ 2c \\ \end{array} \right)\text{,}\) donde\(c\) puede ser cualquier número distinto de cero.

    Los siguientes teoremas resumen los aspectos más importantes del ejemplo anterior.

    Teorema\(\PageIndex{1}\): Characterization of Eigenvalues of a Square Matrix

    Let\(A\) be any\(n\times n\) matrix over\(\mathbb{R}\text{.}\) Then\(\lambda \in \mathbb{R}\) es un valor propio de\(A\) if y only if\(\det (A - \lambda I) = 0\text{.}\)

    La ecuación\(\det (A - \lambda I) = 0\) se llama ecuación característica, y el lado izquierdo de esta ecuación se llama polinomio característico de\(A\text{.}\)

    Teorema\(\PageIndex{2}\): Linear Independence of Eigenvectors

    Los vectores propios distintos de cero correspondientes a valores propios distintos son linealmente independientes.

    El espacio de solución de\((A-\lambda I)\vec{x}=\vec{0}\) se denomina el espacio propio de\(A\) correspondiente a\(\lambda\text{.}\) Esta terminología se justifica por el Ejercicio 2 de esta sección.

    Diagonalización

    Consideramos ahora el principal objetivo de esta sección. Dada una matriz\(n\times n\) (cuadrada)\(A\text{,}\) nos gustaría\(A\) transformar en una matriz diagonal\(D\text{,}\) realizar nuestras tareas con la matriz más simple\(D\text{,}\) y luego describir los resultados en términos de la matriz dada\(A\text{.}\)

    Definición\(\PageIndex{2}\): Diagonalizable Matrix

    Una\(n\times n\) matriz\(A\) se llama diagonalizable si existe una\(n\times n\) matriz invertible\(P\) tal que\(P^{-1} A P\) es una matriz diagonal\(P\) Se dice que\(D\text{.}\) la matriz diagonaliza la matriz\(A\text{.}\)

    Ejemplo\(\PageIndex{2}\): Diagonalization of a Matrix

    Ahora diagonalizaremos la matriz\(A\) de Ejemplo\(\PageIndex{1}\). Formamos la matriz de la\(P\) siguiente manera: Let\(P^{(1)}\) be the first column of\(P\text{.}\) Choose for\(P^{(1)}\) any eigenvector from\(E_1\text{.}\) We may also choose a simple vector in\(E_1\) so\(P^{(1)}=\left( \begin{array}{c} 1 \\ -1 \\ \end{array} \right)\) is our candidate.

    Del mismo modo, let\(P^{(2)}\) be the second column of\(P\text{,}\) and choose for\(P^{(2)}\) any eigenvector from\(E_2\text{.}\) El vector\(P^{(2)}=\left( \begin{array}{c} 1 \\ 2 \\ \end{array} \right)\) es una elección razonable, por lo tanto

    \ begin {ecuación*} P=\ left (\ begin {array} {cc} 1 & 1\\ -1 & 2\\\ end {array}\ derecha)\ textrm {y} P^ {-1} =\ frac {1} {3}\ left (\ begin {array} {cc} 2 & -1\\ 1 & 1\\ end {array}\ right) =\ left (\ left (\ begin {array} {cc}\ frac {2} {3} & -\ frac {1} {3}\\ frac {1} {3} &\ frac {1} {3}\\ end {array}\ right)\ fin {ecuación*}

    para que

    \ begin {ecuación*} P^ {-1} A P =\ frac {1} {3}\ left (\ begin {array} {cc} 2 & -1\\ 1 & 1\\ end {array}\ right)\ left (\ begin {array} {cc} 2 & 1\\ 2 & 3\\ end {array}\ derecha)\ left (\ begin {array} {cc} & 1\\ -1 & 2\\\ end {array}\ derecha) =\ left (\ begin {array} {cc} 1 & 0\\ 0 & 4\\\ end { array}\ derecha)\ end {ecuación*}

    Observe que los elementos en la diagonal principal de\(D\) son los valores propios de\(A\text{,}\) donde\(D_{i i}\) está el valor propio correspondiente al autovector\(P^{(i)}\).

    Nota\(\PageIndex{1}\)

    1. El primer paso en el proceso de diagonalización es la determinación de los valores propios. El ordenamiento de los valores propios es puramente arbitrario. Si designamos\(\lambda_1 = 4\) y\(\lambda_2=1\text{,}\) las columnas de\(P\) serían intercambiadas y\(D\) serían\(\left( \begin{array}{cc} 4 & 0 \\ 0 & 1 \\ \end{array} \right)\) (ver Ejercicio 3b de esta sección). No obstante, el resultado final de la aplicación a la que estamos aplicando el proceso de diagonalización sería el mismo.
    2. Si\(A\) es una\(n\times n\) matriz con valores propios distintos, entonces también\(P\) es una\(n\times n\) matriz cuyas columnas\(P^{(1)}\text{,}\)\(P^{(2)}, \ldots\text{,}\)\(P^{(n)}\) son vectores\(n\) linealmente independientes.

    Ejemplo\(\PageIndex{3}\): Diagonalization of a \(3\) by \(3\) Matrix

    Diagonalizar la matriz

    \ begin {ecuación*} A=\ left (\ begin {array} {ccc} 1 & 12 & -18\\ 0 & -11 & 18\\ 0 & -6 & 10\\\ end {array}\ right)\ text {.} \ end {ecuación*}

    Primero, encontramos los valores propios de\(A\text{.}\)

    \ begin {ecuation*}\ begin {split}\ det (A-\ lambda I) &=\ det\ left (\ begin {array} {ccc} 1-\ lambda & 12 & -18\\ 0 & -\ lambda -11 & 18\\ 0 & -6 & 10-\ lambda\\ end {array}\ derecha)\\ &= (1-\ lambda)\ det\ izquierda (\ begin {array} {cc} -\ lambda -11 & 18\\ -6 & 10-\ lambda\\\ end {array} \ derecha)\\ &= (1-\ lambda) ((-\ lambda -11) (10-\ lambda) +108) = (1-\ lambda)\ izquierda (\ lambda ^2+\ lambda -2\ derecha)\ end {split}\ end {ecuación*}

    De ahí que la ecuación\(\det (A-\lambda I)\) se convierta en

    \ begin {ecuación*} (1-\ lambda)\ izquierda (\ lambda ^2+\ lambda -2\ derecha) =- (\ lambda -1) ^2 (\ lambda +2)\ final {ecuación*}

    Por lo tanto, nuestros valores propios para\(A\) son\(\lambda_1= -2\) y\(\lambda_2=1\text{.}\) Observamos que no tenemos tres valores propios distintos, sino que procedemos como en el ejemplo anterior.

    Caso 1. Para\(\lambda_1= -2\) la ecuación\((A-\lambda I)\vec{x}= \vec{0}\) se convierte

    \ begin {ecuation*}\ left (\ begin {array} {ccc} 3 & 12 & -18\\ 0 & -9 & 18\\ 0 & -6 & 12\\\ end {array}\ right)\ left (\ begin {array} {c} x_1\ x_2\\ x_3\\ end {array}\ right) =\ left (\ begin {array} {c} 0\\ 0\\ 0\\ final {matriz}\ derecha)\ final {ecuación*}

    Podemos remar reducir la matriz de coeficientes a\(\left( \begin{array}{ccc} 1 & 0 & 2 \\ 0 & 1 & -2 \\ 0 & 0 & 0 \\ \end{array} \right)\text{.}\)

    La ecuación matricial es entonces equivalente a las ecuaciones\(x_1 = -2x_3 \textrm{ and } x_2= 2x_3\text{.}\) Por lo tanto, el conjunto de soluciones, o espacio propio, correspondiente a\(\lambda_1=-2\) consiste en vectores de la forma

    \ begin {ecuación*}\ left (\ begin {array} {c} -2x_3\\ 2x_3\\ x_3\\\ end {array}\ right) = x_3\ left (\ begin {array} {c} -2\\ 2\\ 1\\ end {array}\\ right)\ end {array}\ right)\ end {ecuación*}

    Por lo tanto,\(\left( \begin{array}{c} -2 \\ 2 \\ 1 \\ \end{array} \right)\) es un vector propio correspondiente al valor propio\(\lambda_1=-2\text{,}\) y se puede utilizar para nuestra primera columna de\(P\text{:}\)

    \ begin {ecuación*} P=\ left (\ begin {array} {ccc} -2 &? &? \\ 2 &? &? \\ 1 &? &? \\\ end {array}\ derecha)\ end {ecuación*}

    Antes de continuar hacemos la observación:\(E_1\) es un subespacio de\(\mathbb{R}^3\) con base\(\left\{P^{(1)}\right\}\) y\(\dim E_1 = 1\text{.}\)

    Caso 2. Si\(\lambda_2= 1\text{,}\) entonces la ecuación\((A-\lambda I)\vec{x}= \vec{0}\) se convierte en

    \ begin {ecuation*}\ left (\ begin {array} {ccc} 0 & 12 & -18\\ 0 & -12 & 18\\ 0 & -6 & 9\\\ end {array}\ right)\ left (\ begin {array} {c} x_1\\ x_2\\ x_3\\ end {array}\ right) =\ left (\ begin {array} {c} 0\\ 0\\ 0\\ end {array}\ derecha)\ end {ecuación*}

    Sin la ayuda de ninguna tecnología informática, debe quedar claro que las tres ecuaciones que corresponden a esta ecuación matricial son equivalentes a\(2 x_2-3x_3= 0\text{,}\) o\(x_2= \frac{3}{2}x_3\text{.}\) Note que\(x_1\) pueden tomar cualquier valor, por lo que cualquier vector de la forma

    \ begin {ecuation*}\ left (\ begin {array} {c} x_1\\ frac {3} {2} x_3\\ x_3\\ end {array}\ right) =x_1\ left (\ begin {array} {c} 1\\ 0\\ 0\\ end {array}\ right) +x_3\ left (\ begin {array} {c} 0\\\ frac {3} {2}\\ 1\\\ end {array}\ derecha)\ end {ecuación*}

    resolverá la ecuación matricial.

    Observamos que el conjunto de soluciones contiene dos variables independientes,\(x_1\) y\(x_3\text{.}\) Además, notamos que no podemos expresar el espacio propio\(E_2\) como una combinación lineal de un solo vector como en el Caso 1. Sin embargo, puede escribirse como

    \ begin {ecuation*} E_2=\ left\ {x_1\ left (\ begin {array} {c} 1\\ 0\\ 0\\ end {array}\ right) +x_3\ left (\ begin {array} {c} 0\\\ frac {3} {2}\\ 1\\ end {array}\ derecha)\ mid x_1, x_3\ in\ mathbb {R}\ derecho\}. \ end {ecuación*}

    Podemos reemplazar cualquier vector en una base es con un múltiplo distinto de cero de ese vector. Simplemente por razones estéticas, multiplicaremos el segundo vector que genera\(E_2\) por 2. Por lo tanto, el espacio propio\(E_2\) es un subespacio de\(\mathbb{R}^3\) con base\(\left\{\left( \begin{array}{c} 1 \\ 0 \\ 0 \\ \end{array} \right),\left( \begin{array}{c} 0 \\ 3 \\ 2 \\ \end{array} \right)\right\}\) y así\(\dim E_2 = 2\text{.}\)

    Lo que esto significa con respecto al proceso de diagonalización es que nos\(\lambda_2= 1\) da tanto a la Columna 2 como a la Columna 3 la matriz de diagonalización. El orden no es importante así que tenemos

    \ begin {ecuación*} P=\ left (\ begin {array} {ccc} -2 & 1 & 0\\ 2 & 0 & 3\\ 1 & 0 & 2\\ end {array}\ derecha)\ end {ecuación*}

    El lector puede verificar (ver Ejercicio\(\PageIndex{5}\) de esta sección) que\(P^{-1}= \left( \begin{array}{ccc} 0 & 2 & -3 \\ 1 & 4 & -6 \\ 0 & -1 & 2 \\ \end{array} \right)\) y\(P^{-1}A P = \left( \begin{array}{ccc} -2 & 0 & 0 \\ 0 & 1 & 0 \\ 0 & 0 & 1 \\ \end{array} \right)\)

    Al hacer Ejemplo\(\PageIndex{3}\), la\(3\times 3\) matriz dada\(A\) produjo solo dos, no tres, valores propios distintos, sin embargo, todavía pudimos diagonalizar\(A\text{.}\) La razón por la que pudimos hacerlo fue porque pudimos encontrar tres vectores propios linealmente independientes. Nuevamente, la idea principal es producir una matriz\(P\) que haga la diagonalización. Si\(A\) es una\(n \times n\) matriz,\(P\) será una\(n\times n\) matriz, y sus\(n\) columnas deben ser autovectores linealmente independientes. La pregunta principal en el estudio de la diagonalizabilidad es “¿Cuándo se puede hacer?” Esto se resume en el siguiente teorema.

    Teorema\(\PageIndex{3}\): A Condition for Diagonalizability

    \(A\)Déjese ser una\(n \times n\) matriz. Entonces\(A\) es diagonalizable si y sólo si\(A\) tiene vectores propios\(n\) linealmente independientes.

    Prueba

    Esquema de una prueba: (\(\Longleftarrow\)) Supongamos que\(A\) tiene vectores propios linealmente independientes,\(P^{(1)}, P^{(2)}, \ldots , P^{(n)}\text{,}\) con valores propios correspondientes\(\lambda_1\text{,}\)\(\lambda_2, \ldots\),\(\lambda _n\text{.}\) Queremos probar que\(A\) es diagonalizable. Columna\(i\) de la\(n \times n\) matriz\(A P\) es\(A P^{(i)}\) (ver Ejercicio\(\PageIndex{7}\) de esta sección). Entonces, ya que el\(P^{(i)}\) es un vector propio de\(A\) asociado con el valor propio que\(\lambda _i\) tenemos\(A P^{(i)}= \lambda _iP^{(i)}\) para\(i = 1, 2, \dots , n\text{.}\) Pero esto significa que\(A P = P D\text{,}\) donde\(D\) esta la matriz diagonal con entradas diagonales\(\lambda_1\text{,}\)\(\lambda_2,\ldots \text{,}\)\(\lambda_n\text{.}\) Si multiplicamos ambos lados de la ecuación por\(P^{-1}\) obtenemos el deseado\(P^{-1}A P = D\text{.}\)

    (\(\Longrightarrow \)) La prueba en esta dirección involucra un concepto que no está cubierto en este texto (rango de una matriz); por lo que remitimos al lector interesado a prácticamente cualquier texto de álgebra lineal para una prueba.

    Damos ahora un ejemplo de una matriz que no es diagonalizable.

    Ejemplo\(\PageIndex{4}\): A Matrix that is Not Diagonalizable

    Intentemos diagonalizar la matriz\(A = \left( \begin{array}{ccc} 1 & 0 & 0 \\ 0 & 2 & 1 \\ 1 & -1 & 4 \\ \end{array} \right)\)

    Primero, determinamos los valores propios.

    \ begin {ecuación*}\ begin {split}\ det (A-\ lambda I) &=\ det\ left (\ begin {array} {ccc} 1-\ lambda & 0 & 0\\ 0 & 2-\ lambda & 1\\ 1 & -1 & 4-\ lambda\\ end {array}\ derecha)\\ &= (1-\ lambda)\ det\ left (\ begin {array} {cc} 2-\ lambda y 1\\ -1 y 4-\ lambda\\\ end {array}\ derecha)\\ & amp; = (1-\ lambda) ((2-\ lambda) (4-\ lambda) +1)\\ & = (1-\ lambda)\ izquierda (\ lambda ^2-6\ lambda +9\ derecha)\\ & = (1-\ lambda) (\ lambda -3) ^2\ end {split}\ end {ecuación*}

    Por lo tanto hay dos valores propios,\(\lambda_1= 1\) y\(\lambda_2=3\text{.}\) Dado que\(\lambda_1\) es un valor propio de grado uno, tendrá un espacio propio de dimensión 1. Dado que\(\lambda_2\) es una raíz doble de la ecuación característica, la dimensión de su propio espacio debe ser 2 para poder diagonalizar.

    Caso 1. Para\(\lambda_1= 1\text{,}\) la ecuación\((A-\lambda I)\vec{x} = \vec{0}\) se convierte

    \ begin {ecuation*}\ left (\ begin {array} {ccc} 0 & 0 & 0\\ 0 & 1 & 1\\ 1 & -1 & 3\\ end {array}\\ end {array}\ right)\ left (\ begin {array} {c} x_1\\ x_2\\ x_3\\ end {array}\ right) =\ left (\ begin {array} {c} 0\ 0\\ 0\\ end {array}\ derecha)\ end {ecuación*}

    La reducción de filas de este sistema revela una variable libre y un espacio propio

    \ begin {ecuación*}\ left (\ begin {array} {c} x_1\\ x_2\\ x_3\\ end {array}\\ right) =\ left (\ begin {array} {c} -4x_3\\ -x_3\\ x_3\\ end {array}\\ right) = x_3\ left (\ begin {array} {c} -4\\ -1\\ 1\\\ end {array}\ derecha)\ end {ecuación*}

    Por lo tanto,\(\left\{\left( \begin{array}{c} -4 \\ -1 \\ 1 \\ \end{array} \right)\right\}\) es una base para el espacio propio de\(\lambda_1= 1\text{.}\)

    Caso 2. Para\(\lambda_2= 3\text{,}\) la ecuación\((A-\lambda I)\vec{x} = \vec{0}\) se convierte

    \ begin {ecuación*}\ left (\ begin {array} {ccc} -2 & 0 & 0\\ 0 & -1 & 1\\ 1 & -1 & 1\\\ end {array}\\ end {array}\ right)\ left (\ begin {array} {c} x_1\\ x_2\\ x_3\\ end {array}\ right) =\ left (\ begin {array} {c} 0\ 0\\ 0\\ end {array}\ derecha)\ end {ecuación*}

    Una vez más solo hay una variable libre en la reducción de fila y así la dimensión del espacio propio será una:

    \ begin {ecuation*}\ left (\ begin {array} {c} x_1\\ x_2\\ x_3\\ end {array}\ right) =\ left (\ begin {array} {c} 0\\ x_3\\ x_3\\ end {array}\\ right) = x_3\ left (\ begin {array} {c} 0\\ 1\ 1\\\ end {array}\ derecha)\ end {ecuación*}

    De ahí,\(\left\{\left( \begin{array}{c} 0 \\ 1 \\ 1 \\ \end{array} \right)\right\}\) es una base para el espacio propio de\(\lambda_2= 3\text{.}\) Esto significa que\(\lambda_2= 3\) produce solo una columna para\(P\text{.}\) Desde que comenzamos con solo dos autovalores, habíamos esperado que\(\lambda_2= 3\) produciría un espacio vectorial de dimensión dos, o, en términos matriciales, dos columnas linealmente independientes para \(P\text{.}\)Ya que\(A\) no tiene tres vectores propios linealmente independientes\(A\) no pueden ser diagonalizados.

    SageMath Note - Diagonalización

    Demostramos cómo se puede hacer la diagonalización en Sage. Comenzamos definiendo la matriz a diagonalizar, y también declarar\(D\) y\(P\) ser variables.

    var (' D, P')
    A = Matrix (QQ, [[4, 1, 0], [1, 5, 1], [0, 1, 4]]);A
    

    Hemos estado trabajando con “vectores propios correctos” ya que\(\vec{x}\) in\(A \vec{x} = \lambda \vec{x}\) es un vector de columna. No es tan común pero aún deseable en algunas situaciones considerar “vectores propios izquierdos”, por lo que SageMath permite cualquiera de ellos. El método right_eigenmatrix devuelve un par de matrices. La matriz diagonal,\(D\text{,}\) con valores propios y la matriz diagonalizadora,\(P\text{,}\) que se compone de columnas que son vectores propios correspondientes a los vectores propios de\(D\text{.}\)

    (D,P)=A.right_eigenmatrix();(D,P)
    

    Debemos señalar aquí que no\(P\) es único porque aunque un espacio propio tenga la dimensión uno, cualquier vector distinto de cero en ese espacio servirá como vector propio. Por esa razón, el\(P\) generado por Sage no es necesariamente el mismo que el calculado por cualquier otro sistema de álgebra computacional como Mathematica. Aquí verificamos el resultado para nuestro cálculo de Sage. Recordemos que se utiliza un asterisco para la multiplicación matricial en Sage.

    P.inverse()*A*P
    

    Aquí hay una segunda matriz para diagonalizar.

    A2=Matrix(QQ,[[8,1,0],[1,5,1],[0,1,7]]);A2
    

    Aquí ya hemos especificado que el sistema subyacente son los números racionales. Dado que los valores propios no son racionales, Sage volverá al número aproximado por defecto. Esta vez simplemente sacaremos la matriz de vectores propios y mostraremos entradas redondeadas.

    P=A2.right_eigenmatrix()[1]
    P.numerical_approx(digits=3)
    print('------------------')
    D=(P.inverse()*A2*P);D.numerical_approx(digits=3)
    

    Finalmente, examinamos cómo reacciona Sage a la matriz de Ejemplo\(\PageIndex{4}\) que no pudo ser diagonalizada. Observe que la última columna es una columna cero, indicando la ausencia de un vector propio necesario.

    A3=Matrix(QQ,[[1, 0, 0],[0,2,1],[1,-1,4]])
    (D,P)=A3.right_eigenmatrix();(D,P)
    

    Ejercicios

    Ejercicio\(\PageIndex{1}\)

    1. Enumerar tres vectores propios diferentes de\(A=\left( \begin{array}{cc} 2 & 1 \\ 2 & 3 \\ \end{array} \right)\text{,}\) la matriz de Ejemplo\(\PageIndex{1}\), asociados a cada uno de los dos autovalores 1 y 4. Verifica tus resultados.
    2. Elija uno de los tres vectores propios correspondientes a 1 y uno de los tres vectores propios correspondientes a 4, y muestre que los dos vectores elegidos son linealmente independientes.
    Responder
    1. Cualquier múltiplo distinto de cero\(\left( \begin{array}{c} 1 \\ -1 \\ \end{array} \right)\) es un vector propio asociado con\(\lambda =1\text{.}\)
    2. Cualquier múltiplo distinto de cero\(\left( \begin{array}{c} 1 \\ 2 \\ \end{array} \right)\) es un vector propio asociado con\(\lambda =4\text{.}\)
    3. Dejar\(x_1=\left( \begin{array}{c} a \\ -a \\ \end{array} \right)\) y\(x_2=\left( \begin{array}{c} b \\ 2b \\ \end{array} \right)\). Se puede verificar que\(c_1x_1+ c_2x_2=\left( \begin{array}{c} 0 \\ 0 \\ \end{array} \right)\) si y solo si\(c_1= c_2= 0.\) Por lo tanto,\(\left\{x_1,x_2\right\}\) es linealmente independiente.

    Ejercicio\(\PageIndex{2}\)

    1. Verificar eso\(E_1\) y\(E_2\) en Ejemplo\(\PageIndex{1}\) son espacios vectoriales sobre\(\mathbb{R}\text{.}\) Ya que también son subconjuntos de\(\mathbb{R}^2\text{,}\) ellos se denominan subvector-espacios, o subespacios para abreviar, de\(\mathbb{R}^2\text{.}\) Dado que estos son subespacios que consisten en vectores propios, se les llama espacios propios.
    2. Utilice la definición de dimensión en la sección anterior para encontrar\(\dim E_1\) y\(\dim E_2\). Tenga en cuenta que\(\dim E_1 + \dim E_2 = \dim \mathbb{R}^2\text{.}\) Esto no es una coincidencia.

    Ejercicio\(\PageIndex{3}\)

    1. Verificar que efectivamente\(P^{-1} A P\) sea igual a\(\left( \begin{array}{cc} 1 & 0 \\ 0 & 4 \\ \end{array} \right)\text{,}\) como se indica en Ejemplo\(\PageIndex{2}\).
    2. Elegir\(P^{(1)}=\left( \begin{array}{c} 1 \\ 2 \\ \end{array} \right)\)\(P^{(2)}=\left( \begin{array}{c} 1 \\ -1 \\ \end{array} \right)\) y verificar que el nuevo valor de\(P\) satisface\(P^{-1} A P=\left( \begin{array}{cc} 4 & 0 \\ 0 & 1 \\ \end{array} \right)\text{.}\)
    3. Tomar dos vectores propios diferentes (de la parte anterior) linealmente independientes de la matriz\(A\) de Ejemplo\(\PageIndex{2}\) y verificar que\(P^{-1} A P\) es una matriz diagonal.
    Responder

    Parte c: Debes obtener\(\left( \begin{array}{cc} 4 & 0 \\ 0 & 1 \\ \end{array} \right)\) o\(\left( \begin{array}{cc} 1 & 0 \\ 0 & 4 \\ \end{array} \right)\text{,}\) dependiendo de cómo ordenes los valores propios.

    Ejercicio\(\PageIndex{4}\)

    1. Dejar\(A\) ser la matriz en Ejemplo\(\PageIndex{3}\) y\(P=\left( \begin{array}{ccc} 0 & 1 & 0 \\ 1 & 0 & 1 \\ 1 & 0 & 2 \\ \end{array} \right)\text{.}\) Sin hacer ninguna multiplicación matricial real, determinar el valor de\(P^{-1} A P\)
    2. Si eliges las columnas de\(P\) en el orden inverso, ¿qué es\(P^{-1} A P\text{?}\)

    Ejercicio\(\PageIndex{5}\)

    Diagonalice lo siguiente, si es posible:

    1. \(\displaystyle \left( \begin{array}{cc} 1 & 2 \\ 3 & 2 \\ \end{array} \right)\)
    2. \(\displaystyle \left( \begin{array}{cc} -2 & 1 \\ -7 & 6 \\ \end{array} \right)\)
    3. \(\displaystyle \left( \begin{array}{cc} 3 & 0 \\ 0 & 4 \\ \end{array} \right)\)
    4. \(\displaystyle \left( \begin{array}{ccc} 1 & -1 & 4 \\ 3 & 2 & -1 \\ 2 & 1 & -1 \\ \end{array} \right)\)
    5. \(\displaystyle \left( \begin{array}{ccc} 6 & 0 & 0 \\ 0 & 7 & -4 \\ 9 & 1 & 3 \\ \end{array} \right)\)
    6. \(\displaystyle \left( \begin{array}{ccc} 1 & -1 & 0 \\ -1 & 2 & -1 \\ 0 & -1 & 1 \\ \end{array} \right)\)
    Responder
    1. Si\(P=\left( \begin{array}{cc} 2 & 1 \\ 3 & -1 \\ \end{array} \right)\text{,}\) entonces\(P^{-1}A P=\left( \begin{array}{cc} 4 & 0 \\ 0 & -1 \\ \end{array} \right)\text{.}\)
    2. Si\(P=\left( \begin{array}{cc} 1 & 1 \\ 7 & 1 \\ \end{array} \right)\text{,}\) entonces\(P^{-1}A P=\left( \begin{array}{cc} 5 & 0 \\ 0 & -1 \\ \end{array} \right)\text{.}\)
    3. Si\(P=\left( \begin{array}{cc} 1 & 0 \\ 0 & 1 \\ \end{array} \right)\text{,}\) entonces\(P^{-1}A P=\left( \begin{array}{cc} 3 & 0 \\ 0 & 4 \\ \end{array} \right)\text{.}\)
    4. Si\(P=\left( \begin{array}{ccc} 1 & -1 & 1 \\ -1 & 4 & 2 \\ -1 & 1 & 1 \\ \end{array} \right)\text{,}\) entonces\(P^{-1}A P=\left( \begin{array}{ccc} -2 & 0 & 0 \\ 0 & 1 & 0 \\ 0 & 0 & 0 \\ \end{array} \right)\text{.}\)
    5. \(A\)no es diagonalizable. Cinco es una raíz doble de la ecuación característica, pero tiene un espacio propio con dimensión solo 1.
    6. Si\(P=\left( \begin{array}{ccc} 1 & 1 & 1 \\ -2 & 0 & 1 \\ 1 & -1 & 1 \\ \end{array} \right)\text{,}\) entonces\(P^{-1}A P=\left( \begin{array}{ccc} 3 & 0 & 0 \\ 0 & 1 & 0 \\ 0 & 0 & 0 \\ \end{array} \right)\text{.}\)

    Ejercicio\(\PageIndex{6}\)

    Diagonalice lo siguiente, si es posible:

    1. \(\displaystyle \left( \begin{array}{cc} 0 & 1 \\ 1 & 1 \\ \end{array} \right)\)
    2. \(\displaystyle \left( \begin{array}{cc} 2 & 1 \\ 4 & 2 \\ \end{array} \right)\)
    3. \(\displaystyle \left( \begin{array}{cc} 2 & -1 \\ 1 & 0 \\ \end{array} \right)\)
    4. \(\displaystyle \left( \begin{array}{ccc} 1 & 3 & 6 \\ -3 & -5 & -6 \\ 3 & 3 & 6 \\ \end{array} \right)\)
    5. \(\displaystyle \left( \begin{array}{ccc} 1 & 1 & 0 \\ 1 & 0 & 1 \\ 0 & 1 & 1 \\ \end{array} \right)\)
    6. \(\displaystyle \left( \begin{array}{ccc} 2 & -1 & 0 \\ -1 & 2 & -1 \\ 0 & -1 & 2 \\ \end{array} \right)\)

    Ejercicio\(\PageIndex{7}\)

    Dejar\(A\) y\(P\) ser como en Ejemplo\(\PageIndex{3}\). Mostrar que las columnas de la matriz se\(A P\) pueden encontrar por computación\(A P^{(1)}\text{,}\)\(A P^{(2)},\ldots,\)\(A P^{(n)}\text{.}\)

    Responder

    Esta es una aplicación directa de la definición de multiplicación matricial. Dejar\(A_{(i)}\) ser la\(i^{\textrm{th}}\) fila de\(A\text{,}\) y dejar\(P^{(j)}\) ser la\(j^{\textrm{th}}\) columna de\(P\text{.}\) Entonces la\(j^{\textrm{th}}\) columna del producto\(A P\) es

    \ begin {ecuación*}\ left (\ begin {array} {c} A_ {(1)} P^ {(j)}\\ A_ {(2)} P^ {(j)}\\\ vdots\\ A_ {(n)} P^ {(j)}\\ end {array}\\ derecha)\ end {ecuación*}

    Por lo\(j =1,2,\ldots , n\text{.}\) tanto,\((AP)^{(j)}= A\left(P^{(j)}\right)\) para Así, cada columna de\(A P\) depende\(A\) y la\(j^{\textrm{ th}}\) columna de\(P\text{.}\)

    Ejercicio\(\PageIndex{8}\)

    Demostrar que si\(P\)\(D\) es una\(n\times n\) matriz y es una matriz diagonal con entradas diagonales\(d_1\text{,}\)\(d_2,\ldots,\)\(d_n\text{,}\) entonces\(P D\) es la matriz obtenida\(P\text{,}\) multiplicando columna\(i\) de\(P\) por\(d_i\text{,}\)\(i = 1, 2, \ldots, n\text{.}\)


    This page titled 12.4: El Proceso de Diagonalización is shared under a CC BY-NC-SA license and was authored, remixed, and/or curated by Al Doerr & Ken Levasseur.