5.2: Tipos especiales de matrices
- Page ID
- 117256
\( \newcommand{\vecs}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} } \)
\( \newcommand{\vecd}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash {#1}}} \)
\( \newcommand{\id}{\mathrm{id}}\) \( \newcommand{\Span}{\mathrm{span}}\)
( \newcommand{\kernel}{\mathrm{null}\,}\) \( \newcommand{\range}{\mathrm{range}\,}\)
\( \newcommand{\RealPart}{\mathrm{Re}}\) \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\)
\( \newcommand{\Argument}{\mathrm{Arg}}\) \( \newcommand{\norm}[1]{\| #1 \|}\)
\( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\)
\( \newcommand{\Span}{\mathrm{span}}\)
\( \newcommand{\id}{\mathrm{id}}\)
\( \newcommand{\Span}{\mathrm{span}}\)
\( \newcommand{\kernel}{\mathrm{null}\,}\)
\( \newcommand{\range}{\mathrm{range}\,}\)
\( \newcommand{\RealPart}{\mathrm{Re}}\)
\( \newcommand{\ImaginaryPart}{\mathrm{Im}}\)
\( \newcommand{\Argument}{\mathrm{Arg}}\)
\( \newcommand{\norm}[1]{\| #1 \|}\)
\( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\)
\( \newcommand{\Span}{\mathrm{span}}\) \( \newcommand{\AA}{\unicode[.8,0]{x212B}}\)
\( \newcommand{\vectorA}[1]{\vec{#1}} % arrow\)
\( \newcommand{\vectorAt}[1]{\vec{\text{#1}}} % arrow\)
\( \newcommand{\vectorB}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} } \)
\( \newcommand{\vectorC}[1]{\textbf{#1}} \)
\( \newcommand{\vectorD}[1]{\overrightarrow{#1}} \)
\( \newcommand{\vectorDt}[1]{\overrightarrow{\text{#1}}} \)
\( \newcommand{\vectE}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash{\mathbf {#1}}}} \)
\( \newcommand{\vecs}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} } \)
\( \newcommand{\vecd}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash {#1}}} \)
\(\newcommand{\avec}{\mathbf a}\) \(\newcommand{\bvec}{\mathbf b}\) \(\newcommand{\cvec}{\mathbf c}\) \(\newcommand{\dvec}{\mathbf d}\) \(\newcommand{\dtil}{\widetilde{\mathbf d}}\) \(\newcommand{\evec}{\mathbf e}\) \(\newcommand{\fvec}{\mathbf f}\) \(\newcommand{\nvec}{\mathbf n}\) \(\newcommand{\pvec}{\mathbf p}\) \(\newcommand{\qvec}{\mathbf q}\) \(\newcommand{\svec}{\mathbf s}\) \(\newcommand{\tvec}{\mathbf t}\) \(\newcommand{\uvec}{\mathbf u}\) \(\newcommand{\vvec}{\mathbf v}\) \(\newcommand{\wvec}{\mathbf w}\) \(\newcommand{\xvec}{\mathbf x}\) \(\newcommand{\yvec}{\mathbf y}\) \(\newcommand{\zvec}{\mathbf z}\) \(\newcommand{\rvec}{\mathbf r}\) \(\newcommand{\mvec}{\mathbf m}\) \(\newcommand{\zerovec}{\mathbf 0}\) \(\newcommand{\onevec}{\mathbf 1}\) \(\newcommand{\real}{\mathbb R}\) \(\newcommand{\twovec}[2]{\left[\begin{array}{r}#1 \\ #2 \end{array}\right]}\) \(\newcommand{\ctwovec}[2]{\left[\begin{array}{c}#1 \\ #2 \end{array}\right]}\) \(\newcommand{\threevec}[3]{\left[\begin{array}{r}#1 \\ #2 \\ #3 \end{array}\right]}\) \(\newcommand{\cthreevec}[3]{\left[\begin{array}{c}#1 \\ #2 \\ #3 \end{array}\right]}\) \(\newcommand{\fourvec}[4]{\left[\begin{array}{r}#1 \\ #2 \\ #3 \\ #4 \end{array}\right]}\) \(\newcommand{\cfourvec}[4]{\left[\begin{array}{c}#1 \\ #2 \\ #3 \\ #4 \end{array}\right]}\) \(\newcommand{\fivevec}[5]{\left[\begin{array}{r}#1 \\ #2 \\ #3 \\ #4 \\ #5 \\ \end{array}\right]}\) \(\newcommand{\cfivevec}[5]{\left[\begin{array}{c}#1 \\ #2 \\ #3 \\ #4 \\ #5 \\ \end{array}\right]}\) \(\newcommand{\mattwo}[4]{\left[\begin{array}{rr}#1 \amp #2 \\ #3 \amp #4 \\ \end{array}\right]}\) \(\newcommand{\laspan}[1]{\text{Span}\{#1\}}\) \(\newcommand{\bcal}{\cal B}\) \(\newcommand{\ccal}{\cal C}\) \(\newcommand{\scal}{\cal S}\) \(\newcommand{\wcal}{\cal W}\) \(\newcommand{\ecal}{\cal E}\) \(\newcommand{\coords}[2]{\left\{#1\right\}_{#2}}\) \(\newcommand{\gray}[1]{\color{gray}{#1}}\) \(\newcommand{\lgray}[1]{\color{lightgray}{#1}}\) \(\newcommand{\rank}{\operatorname{rank}}\) \(\newcommand{\row}{\text{Row}}\) \(\newcommand{\col}{\text{Col}}\) \(\renewcommand{\row}{\text{Row}}\) \(\newcommand{\nul}{\text{Nul}}\) \(\newcommand{\var}{\text{Var}}\) \(\newcommand{\corr}{\text{corr}}\) \(\newcommand{\len}[1]{\left|#1\right|}\) \(\newcommand{\bbar}{\overline{\bvec}}\) \(\newcommand{\bhat}{\widehat{\bvec}}\) \(\newcommand{\bperp}{\bvec^\perp}\) \(\newcommand{\xhat}{\widehat{\xvec}}\) \(\newcommand{\vhat}{\widehat{\vvec}}\) \(\newcommand{\uhat}{\widehat{\uvec}}\) \(\newcommand{\what}{\widehat{\wvec}}\) \(\newcommand{\Sighat}{\widehat{\Sigma}}\) \(\newcommand{\lt}{<}\) \(\newcommand{\gt}{>}\) \(\newcommand{\amp}{&}\) \(\definecolor{fillinmathshade}{gray}{0.9}\)Matrices diagonales
Ya hemos investigado, en ejercicios del apartado anterior, un tipo especial de matriz. Esa fue la matriz cero, y encontró que se comporta en álgebra matricial de manera análoga al número real 0; es decir, como la identidad aditiva. Ahora investigaremos las propiedades de algunas otras matrices especiales.
Definición\(\PageIndex{1}\): Diagonal Matrix
Una matriz cuadrada D se llama matriz diagonal si\(d_{i j}\) = 0 siempre que\(i \neq j\text{.}\)
Ejemplo\(\PageIndex{1}\): Some Diagonal Matrices
\(A = \left( \begin{array}{ccc} 1 & 0 & 0 \\ 0 & 2 & 0 \\ 0 & 0 & 5 \\ \end{array} \right)\text{,}\)\(B= \left( \begin{array}{ccc} 3 & 0 & 0 \\ 0 & 0 & 0 \\ 0 & 0 & -5 \\ \end{array} \right)\text{,}\)y\(I = \left( \begin{array}{ccc} 1 & 0 & 0 \\ 0 & 1 & 0 \\ 0 & 0 & 1 \\ \end{array} \right)\) son todas matrices diagonales.
Matriz de Identidad y Matriz Inversa
En el ejemplo anterior, la matriz\(3\times 3\) diagonal\(I\) cuyas entradas diagonales son todas 1's tiene la propiedad distintiva que para cualquier otra\(3\times 3\) matriz\(A\) tenemos\(A I = I A = A\text{.}\) Por ejemplo:
Ejemplo\(\PageIndex{2}\): Multiplying by the Identity Matrix
Si\(A = \left( \begin{array}{ccc} 1 & 2 & 5 \\ 6 & 7 & -2 \\ 3 & -3 & 0 \\ \end{array} \right)\text{,}\) entonces\(A I =\left( \begin{array}{ccc} 1 & 2 & 5 \\ 6 & 7 & -2 \\ 3 & -3 & 0 \\ \end{array} \right)\) y\(I A = \left( \begin{array}{ccc} 1 & 2 & 5 \\ 6 & 7 & -2 \\ 3 & -3 & 0 \\ \end{array} \right)\text{.}\)
Es decir, la matriz\(I\) se comporta en álgebra matricial como el número real 1; es decir, como una identidad multiplicativa. En álgebra matricial, la matriz\(I\) se llama simplemente la matriz de identidad. Convénzate de que si\(A\) es alguna\(n\times n\) matriz\(A I = I A = A\text{.}\)
Definición \(\PageIndex{2}\): Identity Matrix
La matriz\(n\times n\) diagonal\(I_n\) cuyos componentes diagonales son todos 1 se llama matriz de identidad. Si el contexto es claro, simplemente usamos\(I\text{.}\)
En el conjunto de números reales recordamos que, dado un número real distinto de cero\(x\text{,}\) existe un número real\(y\) tal que\(x y = y x =1\text{.}\) Sabemos que los números reales se conmutan bajo multiplicación para que las dos ecuaciones puedan resumirse como\(x y = 1\text{.}\) Además sabemos que\(y =x^{-1}= \frac{1}{x}\text{.}\) ¿Tenemos un análogo situación en\(M_{n\times n}(\mathbb{R})\text{?}\) ¿Podemos definir el inverso multiplicativo de una\(n\times n\) matriz\(A\text{?}\) Parece natural imitar la definición de inverso multiplicativo en los números reales?
Definición \(\PageIndex{3}\): Matrix Inverse
\(A\)Déjese ser una\(n\times n\) matriz. Si existe una\(n\times n\) matriz\(B\) tal que\(A B = B A =I\text{,}\) entonces\(B\) es una inversa multiplicativa de\(A\) (llamada simplemente una inversa de\(A\)) y se denota por\(A^{-1}\)
Cuando estamos haciendo cálculos que involucran matrices, sería útil saber que cuando encontramos\(A^{-1}\text{,}\) la respuesta que obtenemos es la única inversa de la matriz dada. Esto nos permitiría referirnos a la inversa de una matriz. Nos abstuvimos de decir eso en la definición, pero el teorema de abajo lo justifica.
Observación: Quienes no estén familiarizados con las leyes del álgebra matricial deben regresar a la siguiente prueba después de haberse familiarizado con las Leyes del Álgebra Matricial en la Sección 5.5.
Teorema\(\PageIndex{1}\): Inverses are Unique
El inverso de una\(n\times n\) matriz A, cuando existe, es único.
- Prueba
-
\(A\)Déjese ser una\(n\times n\) matriz. Asumir al contrario, que\(A\) tiene dos inversos (diferentes), digamos\(B\) y\(C\text{.}\) Entonces
\ begin {ecuación*}\ begin {split} B &= B I\ quad\ textrm {Propiedad de identidad de} I\\ & =B (A C)\ quad\ textrm {Suposición de que} C\ textrm {es una inversa de} A\\ & = (B A) C\ quad\ textrm {Asociatividad de multiplicación matricial}\\ & = I C\ quad\ textrm m {Suposición de que} B\ textrm {es una inversa de} A\\ & = C\ quad\ textrm {propiedad de identidad de} I\ end {split}\ end {equation*}
Vamos\(A =\left( \begin{array}{cc} 2 & 0 \\ 0 & 3 \\ \end{array} \right)\). ¿Qué es\(A^{-1}\)? Sin demasiada dificultad, por ensayo y error, eso lo determinamos\(A^{-1}= \left( \begin{array}{cc} \frac{1}{2} & 0 \\ 0 & \frac{1}{3} \\ \end{array} \right)\). Esto podría llevarnos a adivinar que la inversa se encuentra tomando el recíproco de todas las entradas distintas de cero de una matriz. ¡Ay, no es tan fácil!
Si\(A =\left( \begin{array}{cc} 1 & 2 \\ -3 & 5 \\ \end{array} \right)\), la “regla recíproca” nos diría que lo inverso de\(A\) es\(B=\left( \begin{array}{cc} 1 & \frac{1}{2} \\ \frac{-1}{3} & \frac{1}{5} \\ \end{array} \right)\text{.}\) Intenta computar\(A B\) y verás que no obtienes la matriz de identidad. Entonces, qué es\(A^{-1}\text{?}\) Para entender más completamente la noción de lo inverso de una matriz, sería beneficioso tener una fórmula que nos permitiera calcular la inversa de al menos una\(2\times 2\) matriz. Para ello, se introduce la definición del determinante de una\(2\times 2\) matriz.
Definición \(\PageIndex{4}\): Determinant of a 2 by 2 Matrix
Dejar\(A =\left( \begin{array}{cc} a & b \\ c & d \\ \end{array} \right)\text{.}\) El determinante de\(A\) es el número\(\det A = a d - b c\text{.}\)
Además de la notación\(\det A\text{,}\) común para el determinante de la matriz\(A\) es\(\lvert A \rvert\text{.}\) Esto es particularmente común al escribir toda la matriz, cuyo caso escribiríamos\(\left| \begin{array}{cc} a & b \\ c & d \\ \end{array} \right|\) para el determinante de la\(2 \times 2\) matriz general.
Ejemplo\(\PageIndex{3}\): Some Determinants of Two by Two Matrices
Si\(A =\left( \begin{array}{cc} 1 & 2 \\ -3 & 5 \\ \end{array} \right)\) entonces\(\det A = 1\cdot 5 -2\cdot (-3)=11\text{.}\) Si\(B =\left( \begin{array}{cc} 1 & 2 \\ 2 & 4 \\ \end{array} \right)\) entonces\(\det B = 1\cdot 4 -2\cdot 2=0.\)
Teorema\(\PageIndex{2}\): Inverse of 2 by 2 Matrix
Let\(A =\left( \begin{array}{cc} a & b \\ c & d \\ \end{array} \right)\text{.}\) Si\(\det A\neq 0\text{,}\) entonces\(A^{-1} =\frac{1}{\det A}\left( \begin{array}{cc} d & -b \\ -c & a \\ \end{array} \right)\text{.}\)
- Prueba
-
Ver Ejercicio\(\PageIndex{4}\) al final de esta sección.
Ejemplo\(\PageIndex{4}\): Finding Inverses
¿Podemos encontrar los inversos de las matrices en Example\(\PageIndex{3}\)? Si\(A =\left( \begin{array}{cc} 1 & 2 \\ -3 & 5 \\ \end{array} \right)\) entonces
\ begin {ecuación*} A^ {-1} =\ frac {1} {11}\ left (\ begin {array} {cc} 5 & -2\\ 3 & 1\\ end {array}\ right) =\ left (\ begin {array} {cc}\ frac {5} {11} & -\ frac {2} {11}\\ frac {3} {11} &\ frac {1} {11}\\\ end {array}\ right)\ end {ecuación*}
El lector debe verificar que\(A A^{-1}=A^{-1}A = I\text{.}\)
La segunda matriz,\(B\text{,}\) tiene un determinante igual a cero. Si intentáramos aplicar la fórmula en Teorema\(\PageIndex{2}\), estaríamos dividiendo por cero. Por esta razón, la fórmula no se puede aplicar y de hecho\(B^{-1}\) no existe.
Observaciones:
- En general, si\(A\) es una\(2\times 2\) matriz y si\(\det A = 0\text{,}\) entonces\(A^{-1}\) no existe.
- Se\(n\geq 3\) puede derivar una fórmula para la inversa de\(n\times n\) matrices que también implica\(\det A\text{.}\) De ahí que, en general, si el determinante de una matriz es cero, la matriz no tiene una inversa. Sin embargo, la fórmula para incluso una\(3 \times 3\) matriz es muy larga y no es la forma más eficiente de calcular la inversa de una matriz.
- En el Capítulo 12 desarrollaremos una técnica para calcular la inversa de una matriz de orden superior, si existe.
- La inversión matricial es lo primero en la jerarquía de las operaciones matriciales; por lo tanto,\(A B^{-1}\) es\(A (B^{-1})\text{.}\)
Ejercicios
Ejercicio\(\PageIndex{1}\)
Para las matrices dadas\(A\) encontrar\(A^{-1}\) si existe y verificar que\(A A^{-1}=A^{-1}A = I\text{.}\) Si\(A^{-1}\) no existe explicar por qué.
- \(\displaystyle A = \left( \begin{array}{cc} 1 & 3 \\ 2 & 1 \\ \end{array} \right)\)
- \(\displaystyle A=\left( \begin{array}{cc} 6 & -3 \\ 8 & -4 \\ \end{array} \right)\)
- \(\displaystyle A = \left( \begin{array}{cc} 1 & -3 \\ 0 & 1 \\ \end{array} \right)\)
- \(\displaystyle A = \left( \begin{array}{cc} 1 & 0 \\ 0 & 1 \\ \end{array} \right)\)
- Usa la definición de la inversa de una matriz para encontrar\(A^{-1}\text{:}\)\(A=\left( \begin{array}{ccc} 3 & 0 & 0 \\ 0 & \frac{1}{2} & 0 \\ 0 & 0 & -5 \\ \end{array} \right)\)
- Contestar
-
- \(\displaystyle \left( \begin{array}{cc} -1/5 & 3/5 \\ 2/5 & -1/5 \\ \end{array} \right)\)
- No existe inversa.
- \(\displaystyle \left( \begin{array}{cc} 1 & 3 \\ 0 & 1 \\ \end{array} \right)\)
- \(\displaystyle A^{-1}=A\)
- \(\displaystyle \left( \begin{array}{ccc} 1/3 & 0 & 0 \\ 0 & 2 & 0 \\ 0 & 0 & -1/5 \\ \end{array} \right)\)
Ejercicio\(\PageIndex{2}\)
Para las matrices dadas\(A\) encontrar\(A^{-1}\) si existe y verificar que\(A A^{-1}=A^{-1}A = I\text{.}\) Si\(A^{-1}\) no existe explicar por qué.
- \(\displaystyle A =\left( \begin{array}{cc} 2 & -1 \\ -1 & 2 \\ \end{array} \right)\)
- \(\displaystyle A = \left( \begin{array}{cc} 0 & 1 \\ 0 & 2 \\ \end{array} \right)\)
- \(\displaystyle A= \left( \begin{array}{cc} 1 & c \\ 0 & 1 \\ \end{array} \right)\)
- \(A = \left( \begin{array}{cc} a & b \\ b & a \\ \end{array} \right)\text{,}\)donde\(\lvert a \rvert \neq \lvert b \rvert\text{.}\)
Ejercicio\(\PageIndex{3}\)
- Dejar\(A = \left( \begin{array}{cc} 2 & 3 \\ 1 & 4 \\ \end{array} \right)\) y\(B =\left( \begin{array}{cc} 3 & -3 \\ 2 & 1 \\ \end{array} \right)\text{.}\) verificar que\((A B)^{-1}= B^{-1}A^{-1}\text{.}\)
- Dejar\(A\) y\(B\) ser matrices\(n\times n\) invertibles. Demostrar\((A B)^{-1}= B^{-1}A^{-1}\text{.}\) eso ¿Por qué el lado derecho de la declaración anterior está escrito “al revés”? ¿Esto es necesario? Pista: Usar teorema\(\PageIndex{1}\)
- Contestar
-
Que A y B sean\(n\) por matrices\(n\) invertibles.
\ begin {equation*}\ begin {split}\ left (B^ {-1} A^ {-1}\ right) (AB) &=\ left (B^ {-1}\ right)\ left (A^ {-1} (AB)\ right)\\ &=\ left (B^ {-1}\ right)\ left (\ left (A^ {-1} A\ right)\ right)\ &= (\ izquierda (B^ {-1}\ derecha) I B)\\ &=B^ {-1} (B)\\ &=I\ end {split}\ end {ecuación*}
Del mismo modo,\((AB)\left(B^{-1}A^{-1}\right)=I\text{.}\)
Por teorema\(\PageIndex{1}\),\(B^{-1}A^{-1}\) es la única inversa de\(AB\text{.}\) Si\(A^{-1}B^{-1}\text{,}\) intentáramos invertir\(AB\) con no tendríamos éxito ya que no podemos reorganizar el orden de las matrices.
Ejercicio\(\PageIndex{4}\)
Let\(A =\left( \begin{array}{cc} a & b \\ c & d \\ \end{array} \right)\text{.}\) Derivar la fórmula para\(A^{-1}\text{.}\)
Ejercicio\(\PageIndex{5}\): Linearity of Determinants
- Dejar\(A\) y\(B\) ser matrices de 2 por 2. Demostrar que\(\det (A B) =(\det A)(\det B)\text{.}\)
- Se puede demostrar que la afirmación en la parte (a) es cierta para todas las\(n\times n\) matrices. Dejar\(A\) ser cualquier\(n\times n\) matriz invertible. Demostrar eso\(\det \left(A^{-1}\right) =(\det A)^{-1}\text{.}\) Nota: El determinante de la matriz de identidad\(I_n\) es 1 para todos\(n\text{.}\)
- Verificar que la ecuación en la parte (b) sea verdadera para la matriz en el Ejercicio\(\PageIndex{1}\) (a) de esta sección.
- Contestar
-
\(1=\det I=\det \left(AA^{-1}\right)=\det A\text{ }\det A^{-1}\text{.}\)Ahora soluciona para\(\det A^{-1}\text{.}\)
Ejercicio\(\PageIndex{6}\)
Demostrar por inducción que para\(n \geq 1\text{,}\)\(\left( \begin{array}{cc} a & 0 \\ 0 & b \\ \end{array} \right)^n= \left( \begin{array}{cc} a^n & 0 \\ 0 & b^n \\ \end{array} \right)\text{.}\)
Ejercicio\(\PageIndex{7}\)
Utilice los supuestos en Ejercicio\(\PageIndex{5}\) para probar por inducción que si\(n \geq 1\text{,}\)\(\det \left(A^n\right) = (\det A)^n\text{.}\)
- Contestar
-
Bases:\((n=1): \det A^1=\det A =(\det A )^1\)
Inducción: Asumir\(\det A^n=(\det A)^n\) para algunos\(n\geq 1\text{.}\)
\ begin {ecuation*}\ begin {split}\ det A^ {n+1} & =\ det\ left (A^nA\ right)\ quad\ textrm {por la definición de exponentes}\\ &=\ det\ left (A^n\ right)\ det (A)\ quad\ textrm {por ejercicio 5}\\ &= (det A) ^n (\ det A)\ quad\ textrm {por la hipótesis de inducción}\\ &= (\ det A) ^ {n+1}\ end {split}\ end {equation*}
Ejercicio\(\PageIndex{8}\)
Probar: Si el determinante de una matriz\(A\) es cero, entonces\(A\) no tiene una inversa. Pista: Utilizar el método indirecto de prueba y ejercicio\(\PageIndex{5}\).
Ejercicio\(\PageIndex{9}\)
- \(A, B, \textrm{ and } D\)Dejen ser\(n\times n\) matrices. Supongamos que\(B\) es invertible. Si\(A = B D B^{-1}\), prueba por inducción que\(A^m= B D^m B^{-1}\) es cierto para\(m \geq 1\text{.}\)
- Dado que\(A = \left( \begin{array}{cc} -8 & 15 \\ -6 & 11 \\ \end{array} \right) = B \left( \begin{array}{cc} 1 & 0 \\ 0 & 2 \\ \end{array} \right) B^{-1}\) donde\(B=\left( \begin{array}{cc} 5 & 3 \\ 3 & 2 \\ \end{array} \right)\) lo que es\(A^{10}\text{?}\)
- Contestar
-
- Asumir\(A=BDB^{-1}\)
Base\((m=1)\)::\(A^{1}=A=BD^1B^{-1}\) se da.
Inducción: Supongamos que para algún número entero positivo\(m\),\(A^m =BD^mB^{-1}\)
\[\begin{aligned} A^{m+1}&=A^mA \\ &=(BD^mB^{-1})(BDB^{-1})\quad\text{by the induction hypothesis} \\ &=(BD^m(B^{-1}B)(DB^{-1})\quad\text{by associativity} \\ &=BD^mDB^{-1}\quad\text{by the definition of inverse} \\ &=BD^{m+1}B^{-1}\quad\square\end{aligned}\] - \(A^{10}=BD^{10}B^{-1}=\left(\begin{array}{cc}-9206&15345 \\ -6138&10231\end{array}\right)\)
- Asumir\(A=BDB^{-1}\)