Saltar al contenido principal
LibreTexts Español

11.4: Diagonalización

  • Page ID
    114993
  • \( \newcommand{\vecs}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} } \)

    \( \newcommand{\vecd}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash {#1}}} \)

    \( \newcommand{\id}{\mathrm{id}}\) \( \newcommand{\Span}{\mathrm{span}}\)

    ( \newcommand{\kernel}{\mathrm{null}\,}\) \( \newcommand{\range}{\mathrm{range}\,}\)

    \( \newcommand{\RealPart}{\mathrm{Re}}\) \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\)

    \( \newcommand{\Argument}{\mathrm{Arg}}\) \( \newcommand{\norm}[1]{\| #1 \|}\)

    \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\)

    \( \newcommand{\Span}{\mathrm{span}}\)

    \( \newcommand{\id}{\mathrm{id}}\)

    \( \newcommand{\Span}{\mathrm{span}}\)

    \( \newcommand{\kernel}{\mathrm{null}\,}\)

    \( \newcommand{\range}{\mathrm{range}\,}\)

    \( \newcommand{\RealPart}{\mathrm{Re}}\)

    \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\)

    \( \newcommand{\Argument}{\mathrm{Arg}}\)

    \( \newcommand{\norm}[1]{\| #1 \|}\)

    \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\)

    \( \newcommand{\Span}{\mathrm{span}}\) \( \newcommand{\AA}{\unicode[.8,0]{x212B}}\)

    \( \newcommand{\vectorA}[1]{\vec{#1}}      % arrow\)

    \( \newcommand{\vectorAt}[1]{\vec{\text{#1}}}      % arrow\)

    \( \newcommand{\vectorB}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} } \)

    \( \newcommand{\vectorC}[1]{\textbf{#1}} \)

    \( \newcommand{\vectorD}[1]{\overrightarrow{#1}} \)

    \( \newcommand{\vectorDt}[1]{\overrightarrow{\text{#1}}} \)

    \( \newcommand{\vectE}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash{\mathbf {#1}}}} \)

    \( \newcommand{\vecs}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} } \)

    \( \newcommand{\vecd}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash {#1}}} \)

    \(\newcommand{\avec}{\mathbf a}\) \(\newcommand{\bvec}{\mathbf b}\) \(\newcommand{\cvec}{\mathbf c}\) \(\newcommand{\dvec}{\mathbf d}\) \(\newcommand{\dtil}{\widetilde{\mathbf d}}\) \(\newcommand{\evec}{\mathbf e}\) \(\newcommand{\fvec}{\mathbf f}\) \(\newcommand{\nvec}{\mathbf n}\) \(\newcommand{\pvec}{\mathbf p}\) \(\newcommand{\qvec}{\mathbf q}\) \(\newcommand{\svec}{\mathbf s}\) \(\newcommand{\tvec}{\mathbf t}\) \(\newcommand{\uvec}{\mathbf u}\) \(\newcommand{\vvec}{\mathbf v}\) \(\newcommand{\wvec}{\mathbf w}\) \(\newcommand{\xvec}{\mathbf x}\) \(\newcommand{\yvec}{\mathbf y}\) \(\newcommand{\zvec}{\mathbf z}\) \(\newcommand{\rvec}{\mathbf r}\) \(\newcommand{\mvec}{\mathbf m}\) \(\newcommand{\zerovec}{\mathbf 0}\) \(\newcommand{\onevec}{\mathbf 1}\) \(\newcommand{\real}{\mathbb R}\) \(\newcommand{\twovec}[2]{\left[\begin{array}{r}#1 \\ #2 \end{array}\right]}\) \(\newcommand{\ctwovec}[2]{\left[\begin{array}{c}#1 \\ #2 \end{array}\right]}\) \(\newcommand{\threevec}[3]{\left[\begin{array}{r}#1 \\ #2 \\ #3 \end{array}\right]}\) \(\newcommand{\cthreevec}[3]{\left[\begin{array}{c}#1 \\ #2 \\ #3 \end{array}\right]}\) \(\newcommand{\fourvec}[4]{\left[\begin{array}{r}#1 \\ #2 \\ #3 \\ #4 \end{array}\right]}\) \(\newcommand{\cfourvec}[4]{\left[\begin{array}{c}#1 \\ #2 \\ #3 \\ #4 \end{array}\right]}\) \(\newcommand{\fivevec}[5]{\left[\begin{array}{r}#1 \\ #2 \\ #3 \\ #4 \\ #5 \\ \end{array}\right]}\) \(\newcommand{\cfivevec}[5]{\left[\begin{array}{c}#1 \\ #2 \\ #3 \\ #4 \\ #5 \\ \end{array}\right]}\) \(\newcommand{\mattwo}[4]{\left[\begin{array}{rr}#1 \amp #2 \\ #3 \amp #4 \\ \end{array}\right]}\) \(\newcommand{\laspan}[1]{\text{Span}\{#1\}}\) \(\newcommand{\bcal}{\cal B}\) \(\newcommand{\ccal}{\cal C}\) \(\newcommand{\scal}{\cal S}\) \(\newcommand{\wcal}{\cal W}\) \(\newcommand{\ecal}{\cal E}\) \(\newcommand{\coords}[2]{\left\{#1\right\}_{#2}}\) \(\newcommand{\gray}[1]{\color{gray}{#1}}\) \(\newcommand{\lgray}[1]{\color{lightgray}{#1}}\) \(\newcommand{\rank}{\operatorname{rank}}\) \(\newcommand{\row}{\text{Row}}\) \(\newcommand{\col}{\text{Col}}\) \(\renewcommand{\row}{\text{Row}}\) \(\newcommand{\nul}{\text{Nul}}\) \(\newcommand{\var}{\text{Var}}\) \(\newcommand{\corr}{\text{corr}}\) \(\newcommand{\len}[1]{\left|#1\right|}\) \(\newcommand{\bbar}{\overline{\bvec}}\) \(\newcommand{\bhat}{\widehat{\bvec}}\) \(\newcommand{\bperp}{\bvec^\perp}\) \(\newcommand{\xhat}{\widehat{\xvec}}\) \(\newcommand{\vhat}{\widehat{\vvec}}\) \(\newcommand{\uhat}{\widehat{\uvec}}\) \(\newcommand{\what}{\widehat{\wvec}}\) \(\newcommand{\Sighat}{\widehat{\Sigma}}\) \(\newcommand{\lt}{<}\) \(\newcommand{\gt}{>}\) \(\newcommand{\amp}{&}\) \(\definecolor{fillinmathshade}{gray}{0.9}\)

    {{Template.dropdown {ruta:” /álgebra/linear_álgebra "}}}

    Dejar\(e=(e_1,\ldots,e_n)\) ser una base para un espacio vectorial\(n\) -dimensional\(V\), y dejar\(T\in \mathcal{L}(V)\). En esta sección denotamos la matriz\(M(T)\) de\(T\) con respecto a la base\(e\) por\([T]_{e}\). Esto se hace para enfatizar la dependencia sobre la base\(e\).

    En otras palabras, tenemos que

    \[ [Tv]_e = [T]_e [v]_e, \qquad \text{for all \(v\in V\)}, \]

    donde

    \ begin {ecuación*}
    [v] _e =\ begin {bmatrix} v_1\\\ vdots\\ v_n\ end {bmatrix}
    \ end {ecuación*}

    es el vector de coordenadas para\(v= v_1 e_1 + \cdots + v_n e_n\) con\(v_i\in \mathbb{F}\).

    El operador\(T\) es diagonalizable si existe una base\(e\) tal que\([T]_e\) es diagonal, es decir, si existe\(\lambda_1,\ldots,\lambda_n \in \mathbb{F}\) tal que

    \ begin {ecuación*}
    [T] _e =\ begin {bmatrix}\ lambda_1 &&&0\\ &\ ddots&\\ 0&&\ lambda_n\ end {bmatrix}.
    \ end {ecuación*}

    Los escalares\(\lambda_1,\ldots,\lambda_n\) son necesariamente valores propios de\(T\), y\(e_1,\ldots,e_n\) son los vectores propios correspondientes. Resumimos esto en la siguiente proposición.

    Proposición 11.4.1. \(T\in \mathcal{L}(V)\)es diagonalizable si y solo si existe una base\((e_1,\ldots,e_n)\) que consiste enteramente en vectores propios de\(T\).

    Podemos reformular esta proposición utilizando el cambio de transformaciones de base de la siguiente manera. Supongamos que\(e\) y\(f\) son bases de\(V\) tal que\([T]_e\) es diagonal, y dejar que\(S\) sea el cambio de base transformación tal que\([v]_e=S[v]_f\). Entonces\(S[T]_fS^{-1}=[T]_e\) es diagonal.
    Proposición 11.4.2. \(T\in \mathcal{L}(V)\)es diagonalizable si y solo si existe una matriz invertible\(S\in \mathbb{F}^{n\times n}\) tal que
    \ begin {ecuation*}
    S [T] _f S^ {-1} =\ begin {bmatrix}\ lambda_1 &&&0\\ &\ ddots&\\ 0&&\ lambda_n\ end {bmatrix},
    \ end { ecuación*}
    donde\([T]_f\) está la matriz para\(T\) con respecto a una base arbitraria dada\(f=(f_1,\ldots,f_n)\).

    Por otro lado, el Teorema Espectral nos dice que\(T\) is diagonalizable con respecto a una base ortonormal si y solo si\(T\) is normal. Recall that

    \ begin {ecuación*}
    [T^*] _f = [T] _f^*
    \ end {ecuación*}
    para cualquier base ortonormal\(f\) de\(V\). Como antes,
    \ begin {ecuación*}
    A^* = (\ overline {a} _ {ji}) _ {ij=1} ^n,\ qquad\ text {for\(A=(a_{ij})_{i,j=1}^n\)},
    \ end {ecuación*}

    es la transposición conjugada de la matriz\(A\). Cuando\(\mathbb{F}=\mathbb{R}\), tenga en cuenta que\(A^*=A^{T}\) es solo la transposición de la matriz, donde\(A^{T}=(a_{ji})_{i,j=1}^n\).

    El cambio de transformación de bases entre dos bases ortonormales se denomina unitaria en el caso complejo y\ textbf {ortogonal} en el caso real. Dejar\(e=(e_1,\ldots,e_n)\) y\(f=(f_1,\ldots,f_n)\) ser dos bases ortonormales de\(V\), y dejar que\(U\) sea el cambio de matriz de base tal que\([v]_f=U[v]_e\), para todos\(v\in V\). Entonces

    \ begin {ecuación*}
    \ inner {e_i} {e_j} =\ delta_ {ij} =\ inner {f_i} {f_i} {f_j} =\ inner {ue_i} {ue_j}.
    \ end {equation*}
    Ya que esto se mantiene para la base\(e\), se deduce que\(U\) es unitario si y solo si
    \ begin {ecuación}\ label {eq:unitario}
    \ inner {Uv} {Uw} =\ inner {v} {w}\ quad\ text {para todos\(v,w\in V\)}. \ tag {11.4.1}
    \ fin {ecuación}

    Esto significa que las matrices unitarias preservan el producto interno. Los operadores que preservan el producto interno a menudo también se llaman isometrías. Las matrices ortogonales también definen isometrías.

    Por la definición de lo colindante,\(\inner{Uv}{Uw}=\inner{v}{U^*Uw}\), y así la Ecuación 11.4.1 implica que las isometrías se caracterizan por la propiedad

    \ begin {ecuation*}
    \ begin {split}
    U^*U &= I,\ qquad\ text {para el caso unitario},\\
    O^ {T} O &= I,\ qquad\ text {para el caso ortogonal.}
    \ end {split}
    \ end {ecuación*}

    La ecuación\(U^*U=I\) implica eso\(U^{-1}=U^*\). Para espacios de producto interiores de dimensiones finitas, el inverso izquierdo de un operador también es el inverso derecho, y así

    \ begin {array} {c} UU^* = I\ quad\ text {si y solo si}\ quad U^*U=I, ~~~~~~~~ OO^ {T} = I\ quad\ text {si y solo si}\ quad O^ {T} O =I.\ tag {11.4.2}\ end {array}

    Es fácil ver que las columnas de una matriz unitaria son los coeficientes de los elementos de una base ortonormal con respecto a otra base ortonormal. Por lo tanto, las columnas son vectores ortonormales en\(\mathbb{C}^n\) (o\(\mathbb{R}^n\) en el caso real). Por Condición (11.4.2), esto también es cierto para las filas de la matriz.

    El Teorema Espectral nos dice que\(T \in \mathcal{L}(V)\) es normal si y solo si\([T]_e\) es diagonal con respecto a una base ortonormal\(e\) para\(V\), es decir, si existe una matriz unitaria\(U\) tal que

    \ begin {ecuation*}
    UTU^* =\ begin {bmatrix}\ lambda_1 &&&0\\ &\ ddots&\\ 0&&\ lambda_n\ end {bmatrix}.
    \ end {ecuación*}

    Por el contrario, si\(U\) existe una matriz unitaria tal que\(UTU^*=D\) es diagonal, entonces

    \ begin {ecuación*}
    TT^* - T^*T = U^* (D\ overline {D} -\ overline {D} D) U=0
    \ end {ecuación*}

    ya que las matrices diagonales conmutan, y por lo tanto\(T\) es normal. Resumamos algunas de las definiciones que hemos visto en esta sección.

    Definición 11.4.3. Dada una matriz cuadrada\(A \in \mathbb{F}^{n \times n}\), llamamos

    1. simétrico si\(A = A^{T}\).
    2. Hermitian si\(A = A^{*}\).
    3. ortogonal si\(A A^{T} = I\).
    4. unitario si\(A A^{*} = I\).

    Tenga en cuenta que cada tipo de matriz en la Definición 11.4.3 es un ejemplo de un operador normal. Un ejemplo de un operador normal\(N\) that is neither hermitiano ni unitario es

    \[ N = i \left[ \begin{array}{cc} -1 & -1 \\ - 1 & 1 \end{array} \right] \]

    Se puede verificar fácilmente eso\( NN^* = N^*N \) y que\(iN\) es simétrico (no hermitiano).

    Ejemplo 11.4.4. Considera la matriz
    \ begin {ecuation*}
    A =\ begin {bmatrix} 2 & 1+i\\ 1-i & 3\ end {bmatrix}
    \ end {ecuación*}

    de Ejemplo11.1.5~\ ref {ex:hermitian}. Para diagonalizar unitariamente\(A\), necesitamos encontrar una matriz unitaria\(U\) y una matriz diagonal\(D\) tal que\(A=UDU^{-1}\). Para ello, primero necesitamos encontrar una base para\(\mathbb{C}^{2}\) que consista enteramente en vectores propios ortonormales para el mapa lineal\(T\in \mathcal{L}(\mathbb{C}^2)\) definido por\(Tv=Av\), para todos\(v\in \mathbb{C}^2\).

    Para encontrar tal base ortonormal, comenzamos por encontrar los espacios propios de\(T\). Ya determinamos que los valores propios de\(T\) son\(\lambda_1=1\) y\(\lambda_2=4\), así\(D = \begin{bmatrix} 1&0\\0&4 \end{bmatrix}\). De ello se deduce que

    \ begin {ecuación*}
    \ begin {split}
    \ mathbb {C} ^2 &=\ kernel (T-I)\ oplus\ kernel (T-4I)\\
    &=\ Span ((-1-i,1))\ oplus\ Span ((1+i,2)).
    \ end {split}
    \ end {ecuación*}

    Ahora aplique el procedimiento Gram-Schmidt a cada espacio propio para obtener las columnas de\(U\).
    Aquí,
    \ begin {equation*}
    \ begin {split}
    A = UDU^ {-1}
    &=\ begin {bmatrix}\ frac {-1-i} {\ sqrt {3}} &\ frac {1+i} {\ sqrt {6}}\\ frac {1} {\ sqrt {3}} &\ frac {2} {\ sqrt {6}}
    \ end {bmatrix}
    \ comenzar {bmatrix} 1&0\\ 0&4\ end {bmatrix}
    \ begin {bmatrix}\ frac {-1-i} {\ sqrt {3}} &\ frac {1+i} {\ sqrt {6}}\\\ frac {1} {\ sqrt {3}} &\ frac {2} {\ sqrt {6}}
    \ end {bmatrix} ^ {-1}\\
    &=\ begin {bmatrix}\ frac {-1-i} {\ sqrt {3}} &\ frac {1+i} {\ sqrt {6}}\\ frac {1} {\ sqrt {3}} &\ frac {2} {\ sqrt {6}}
    \ end {bmatrix}
    \ begin {bmatrix} 1&0\ 0&4\ end {bmatrix}
    \ begin {bmatrix}\ frac {-1+i} {\ sqrt {3}} &\ frac {1} {\ sqrt {3}}\\ frac {1-i} {\ sqrt {6}} &\ frac {2} {\ sqrt {6}}
    \ end {bmatrix}.
    \ end {split}
    \ end {ecuación*}

    Como aplicación, señalar que dicha descomposición diagonal nos permite calcular fácilmente las potencias y la exponencial de las matrices. A saber, si\( A = UDU^{-1} \) con\(D\) diagonal, then we have

    \ begin {ecuación*}
    \ begin {split}
    a^n &= (UDU^ {-1}) ^n = U d^n U^ {-1},\\
    \ exp (A) &=\ sum_ {k=0} ^\ infty\ frac {1} {k!} A^k
    = U\ izquierda (\ sum_ {k=0} ^\ infty\ frac {1} {k!} d^k\ derecha) U^ {-1} = U\ exp (D) U^ {-1}.
    \ end {split}
    \ end {ecuación*}

    Ejemplo 11.4.5. Continuando Ejemplo 11.4.4,
    \ begin {ecuación*}
    \ begin {split}
    A^2 &= (UDU^ {-1}) ^2 = UD^2 U^ {-1} = U\ begin {bmatrix} 1&0\\ 0&16\ end {bmatrix} U^*
    =\ begin {bmatrix} 6& 5+5i\\ 5-5i&11\ end {bmatrix},\\ [4mm]
    A^n &= (UDU^ {-1}) ^n = UD^n U^ {-1} = U\ begin {bmatrix} 1&0\\ 0&2^ {2n}\ end {bmatrix} U^*
    =\ begin {bmatrix}\ frac {2} {3} (1+2^ {n-1}) &\ frac {1+i} {3} (-1+2^ {2n})\\ frac {1-i} {3} (-1+2^ {2n}) &
    \ frac {1} {3} (1+2^ {2n+1})\ end {bmatrix},\\ [4mm]
    \ exp (A) &= U\ exp (D) U^ {-1} =U\ begin { bmatrix} e&0\\ 0&e^4\ end {bmatrix} U^ {-1}
    =\ frac {1} {3}\ begin {bmatrix} 2e+e^4 & e^4-e+i (e^4-e)\\ e^4-e+i (e-e^4) & e+2e^4\ end {bmatrix}.
    \ end {split}
    \ end {ecuación*}

    Template:Shilling


    This page titled 11.4: Diagonalización is shared under a not declared license and was authored, remixed, and/or curated by Isaiah Lankham, Bruno Nachtergaele, & Anne Schilling.