Saltar al contenido principal
LibreTexts Español

3.8: Exponenciales matriciales

  • Page ID
    115432
  • \( \newcommand{\vecs}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} } \) \( \newcommand{\vecd}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash {#1}}} \)\(\newcommand{\id}{\mathrm{id}}\) \( \newcommand{\Span}{\mathrm{span}}\) \( \newcommand{\kernel}{\mathrm{null}\,}\) \( \newcommand{\range}{\mathrm{range}\,}\) \( \newcommand{\RealPart}{\mathrm{Re}}\) \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\) \( \newcommand{\Argument}{\mathrm{Arg}}\) \( \newcommand{\norm}[1]{\| #1 \|}\) \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\) \( \newcommand{\Span}{\mathrm{span}}\) \(\newcommand{\id}{\mathrm{id}}\) \( \newcommand{\Span}{\mathrm{span}}\) \( \newcommand{\kernel}{\mathrm{null}\,}\) \( \newcommand{\range}{\mathrm{range}\,}\) \( \newcommand{\RealPart}{\mathrm{Re}}\) \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\) \( \newcommand{\Argument}{\mathrm{Arg}}\) \( \newcommand{\norm}[1]{\| #1 \|}\) \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\) \( \newcommand{\Span}{\mathrm{span}}\)\(\newcommand{\AA}{\unicode[.8,0]{x212B}}\)

    Definición

    En esta sección presentamos una manera diferente de encontrar la solución matriz fundamental de un sistema. Supongamos que tenemos la ecuación de coeficiente constante

    \[\vec{x}' = P \vec{x} \nonumber \]

    como de costumbre. Ahora supongamos que esta era una ecuación (\(P\)es un número o una\( 1 \times 1 \) matriz). Entonces la solución a esto sería

    \[\vec{x} = e^{Pt}. \nonumber \]

    Eso no tiene sentido si\(P\) es una matriz más grande, pero esencialmente el mismo cálculo que llevó a lo anterior funciona para matrices cuando definimos\(e^{Pt}\) correctamente. Primero escribamos la serie de Taylor\(e^{at} \) para algún número\(a\).

    \[e^{at} = 1 + at + \frac{(at)^2}{2} + \frac{(at)^3}{6} + \frac{(at)^4}{24} + \cdots = \sum_{k=0}^{\infty} \frac{(at)^k}{k!} \nonumber \]

    Recordar\( k! = 1 \cdot 2\cdot 3 \cdots k \) es el factorial, y\(0! = 1 \). Diferenciamos esta serie término por término

    \[\frac{\mathrm{d}}{\mathrm{d} t} \left(e^{at}\right) = a + a^2 t + \frac{a^3 t^2}{2} + \frac{a^4 t^3}{6} + \cdots = a \left( 1 + at \frac{(at)^2}{2} + \frac{(at)^3}{6} + \cdots \right) = a e^{at}. \nonumber \]

    A lo mejor podemos probar el mismo truco con matrices. Supongamos que para una\( n \times n \) matriz\(A\) definimos la matriz exponencial como

    \[ e^A \stackrel{\text{def}}{=} \mathit{I} + A + \frac{1}{2} A^2 + \frac{1}{6} A^3 + \cdots + \frac{1}{k!} A^k + \cdots \nonumber \]

    No nos preocupemos por la convergencia. La serie realmente siempre converge. Normalmente escribimos\(Pt \) como\(tP\) por convención cuando\(P\) es una matriz. Con este pequeño cambio y por el mismo cálculo exacto que el anterior tenemos que

    \[ \frac{\mathrm{d}}{\mathrm{d}t} \left ( e^{tP} \right ) = P e^{tP}. \nonumber \]

    Ahora\(P\) y de ahí\( e^{tP} \) es una\( n \times n \) matriz. Lo que estamos buscando es un vector. Observamos que en el\( 1 \times 1 \) caso nos multiplicaríamos en este punto por una constante arbitraria para obtener la solución general. En el caso de la matriz multiplicamos por un vector de columna\( \vec{c} \).

    Teorema\(\PageIndex{1}\)

    \(P\)Déjese ser una\(n \times n\) matriz. Entonces la solución general a\( \vec{x}' = P \vec{x} \) es

    \[\vec{x} = e^{tP} \vec{c} , \nonumber \]

    donde\( \vec{c} \) es un vector constante arbitrario. De hecho\( \vec{x}(0) = \vec{c} \).

    Vamos a verificar.

    \[ \frac{\mathrm{d}}{\mathrm{d}t} \vec{x} = \frac{\mathrm{d}}{\mathrm{d}t} \left( e^{tP} \vec{c} \right) = P e^{tP} \vec{c} = P \vec{x}. \nonumber \]

    De ahí\(e^{tP} \) es la solución matriz fundamental del sistema homogéneo. Si encontramos una manera de calcular la matriz exponencial, tendremos otro método para resolver sistemas homogéneos de coeficiente constante. También hace que sea fácil de resolver para las condiciones iniciales. Para resolver\(\vec{x}' = A \vec{x} \),\(\vec{x}(0) = \vec{b} \) tomamos la solución

    \[ \vec{x} = e^{tA} \vec{b} \nonumber \]

    Esta ecuación sigue porque\(e^{0A} = \mathit{I} \), así\(\vec{x}(0) = e^{0A}\vec{b} = \vec{b} \).

    Mencionamos un inconveniente de los exponenciales matriciales. En general\(e^{A+B} \neq e^A e^B \). El problema es que las matrices no se conmutan, es decir, en general\(AB \neq BA\). Si intentas demostrar\( e^{A+B} \neq e^A e^B \) usando la serie Taylor, verás por qué la falta de conmutatividad se convierte en un problema. No obstante, sigue siendo cierto que si\(AB=BA\), es decir, si\(A\) y\(B\) conmutar, entonces\(e^{A+B} = e^A e^B \). Este hecho nos resultará útil. Reafirmemos esto como teorema para hacer un punto.

    Teorema\(\PageIndex{2}\)

    Si\(AB = BA\), entonces\(e^{A+B} = e^Ae^B\). De lo contrario\(e^{A+B} \neq e^Ae^B\) en general.

    Casos simples

    En algunos casos puede funcionar simplemente enchufarse a la definición de serie. Supongamos que la matriz es diagonal. Por ejemplo,\( D = \begin{bmatrix} a&0 \\ 0&b \end{bmatrix} \). Entonces

    \[D^k = \begin{bmatrix} a^k & 0 \\ 0&b^k \end{bmatrix} \nonumber \]

    y

    \[\begin{align}\begin{aligned} e^D &= \mathit{I} +D+\frac{1}{2}D^2+\frac{1}{6}D^3+\cdots \\ &=\begin{bmatrix}1&0\\0&1\end{bmatrix}+\begin{bmatrix}a&0\\0&b\end{bmatrix}+\frac{1}{2}\begin{bmatrix}a^2&0\\0&b^2\end{bmatrix}+\frac{1}{6}\begin{bmatrix}a^3&0\\0&b^3\end{bmatrix}+\cdots = \begin{bmatrix}e^a&0\\0&e^b\end{bmatrix}\end{aligned}\end{align} \nonumber \]

    Entonces por esta razón tenemos que

    \[e^{\mathit{I}} =\begin{bmatrix}e&0\\0&e \end{bmatrix} \quad\text{and}\quad e^{a\mathit{I}} =\begin{bmatrix} e^a&0\\0&e^a\end{bmatrix} \nonumber \]

    Esto hace que los exponenciales de ciertas otras matrices sean fáciles de calcular. Observe por ejemplo que la matriz se\(A=\begin{bmatrix}5&4\\-1&1\end{bmatrix} \) puede escribir como\(3\mathit{I+B}\) donde\(\mathit{B} =\begin{bmatrix}2&4\\-1&-2\end{bmatrix} \). Observe eso\(\mathit{B^2} =\begin{bmatrix}0&0\\0&0\end{bmatrix} \). Entonces\(\mathit{B^k} = 0 \) para todos\(k \geq 2 \). Por lo tanto,\(e^B = \mathit{I+B} \). Supongamos que en realidad queremos calcular\(e^{tA} \). Las matrices\(3\mathit{tI} \) y el\(tB\) desplazamiento (ejercicio: comprobar esto) y\(e^{tB}=\mathit{I+tB} \), desde\( \left( tB \right)^2 = t^2 B^2 = 0 \). Escribimos

    \[\begin{align}\begin{aligned} e^{tA} &= e^{\mathit{3t I}+t\mathit{B}} = e^{3t\mathit{I}} e^{t\mathit{B}} = \begin{bmatrix} e^{3t}&0\\0&e^{3t}\end{bmatrix} \left(I +tB \right) \\ &= \begin{bmatrix} e^{3t}&0\\0&e^{3t}\end{bmatrix} \begin{bmatrix}1+2t&4t\\-t&1-2t\end{bmatrix} =\begin{bmatrix}\left(1+2t \right)e^{3t}&4te^{3t}\\-te^{3t}&\left(1-2t \right) e^{3t} \end{bmatrix}\end{aligned}\end{align} \nonumber \]

    Por lo que hemos encontrado la solución matriz fundamental para el sistema\(\vec{x}'= A\vec{x}\). Tenga en cuenta que esta matriz tiene un valor propio repetido con un defecto; solo hay un vector propio para el autovalor 3. Por lo que hemos encontrado una manera quizás más fácil de manejar este caso. De hecho, si una matriz\(A\) es\(2\times 2\) y tiene un valor propio\(\lambda\) de multiplicidad 2, entonces o bien\(A\) es diagonal, o\(A =\lambda\mathit{I} +B \) donde\( B^2=0 \). Este es un buen ejercicio.

    Ejercicio\(\PageIndex{1}\)

    Supongamos que\(A\)\(\lambda \) es\(2\times 2\) y es el único valor propio. Entonces demuéstralo\( \left( A -\lambda \mathit{I} \right)^2 =0 \). Entonces podemos escribir\(A = \lambda\mathit{I} + B\), dónde\(B^2 = 0 \). Pista: Primero anote qué significa que el valor propio sea de multiplicidad\(2\). You will get an equation for the entries. Now computar el cuadrado de\( B\).

    Matrices\(B\) tales que\(B^k = 0\) para algunos\(k\) se llaman nilpotentes. El cálculo de la matriz exponencial para matrices nilpotentes es fácil simplemente escribiendo los primeros\(k\) términos de la serie Taylor.

    Matrices Generales

    En general, lo exponencial no es tan fácil de calcular como lo anterior. Por lo general, no podemos escribir una matriz como una suma de matrices de desplazamiento donde el exponencial es simple para cada una. Pero no temas, todavía no es demasiado difícil siempre que podamos encontrar suficientes vectores propios. Primero necesitamos el siguiente resultado interesante sobre exponenciales matriciales. Para dos matrices cuadradas\(A\) y\(B\), con\(B\) invertible, tenemos

    \[ e^{BAB^{-1}} = Be^AB^{-1}. \nonumber \]

    Esto se puede ver al anotar la serie de Taylor. Primero tenga en cuenta que

    \[\left(B A B^{-1} \right)^2 = B A B^{-1} B A B^{-1} = BA\mathit{I}AB^{-1} = BA^2B^{-1} \nonumber \]

    Y de ahí por el mismo razonamiento\( \left( BAB^{-1} \right)^k = B A^k B^{-1} \). Ahora anota la serie de Taylor para\(e^{BAB^{-1}}\).

    \[\begin{align}\begin{aligned} e^{BAB^{-1}} &= \mathit{I} + BAB^{-1} +\frac{1}{2}\left(BAB^{-1}\right)^2+ \frac{1}{6} \left( BAB^{-1} \right)^3 +\cdots \\ &= BB^{-1} +BAB^{-1} +\frac{1}{2}BA^2 B^{-1} +\frac{1}{6}BA^3 B^{-1} +\cdots \\ &=B\left( \mathit{I} + A +\frac{1}{2}A^2+\frac{1}{6}A^3 +\cdots \right)B^{-1} \\ &= Be^A B^{-1}.\end{aligned}\end{align} \nonumber \]

    Dada una matriz cuadrada\(A\), a veces podemos escribir\(A=EDE^{-1}\), donde\(D\) es diagonal e\(E\) invertible. Este procedimiento se llama diagonalización. Si podemos hacer eso, el cómputo de lo exponencial se vuelve fácil. \(t\)Añadiendo a la mezcla vemos que luego podemos calcular fácilmente el exponencial

    \[ e^{tA}=Ee^{tD}E^{-1}. \nonumber \]

    Para diagonalizar\(A\) necesitaremos vectores propios\(n\) linealmente independientes de\(A\). De lo contrario este método de computar lo exponencial no funciona y necesitamos ser más complicados, pero no vamos a entrar en esos detalles. Dejamos\(E\) ser la matriz con los vectores propios como columnas. \(\lambda_1,\:\lambda_{2}, \cdots, \lambda_n \)Dejen ser los valores propios y dejar que\(\vec{v}_1,\:\vec{v_{2}}, \cdots, \vec{v}_n \) sean los vectores propios, entonces\( E=\begin{bmatrix} \vec{v}_1~~ \vec{v}_2~~ \cdots~~ \vec{v}_n \end{bmatrix} \). Dejar\(D\) ser la matriz diagonal con los valores propios en la diagonal principal. Eso es

    \[D= \begin{bmatrix} \lambda_1&0 &\cdots &0\\0&\lambda_2& \cdots& 0\\ \vdots&\vdots & \ddots &\vdots \\0&0&\cdots&\lambda \end{bmatrix} \nonumber \]

    Nosotros computamos

    \[\begin{align}\begin{aligned} AE &= A\begin{bmatrix} \vec{v}_1&\vec{v}_2&\cdots &\vec{v}_n \end{bmatrix} \\ &= \begin{bmatrix} A\vec{v}_1&A\vec{v}_2&\cdots&A\vec{v}_3\end{bmatrix} \\ &=\begin{bmatrix} \lambda_1\vec{v}_1&\lambda_2\vec{v}_2 &\cdots& \lambda_n\vec{v}_n \end{bmatrix} \\ &=\begin{bmatrix} \vec{v}_1&\vec{v}_2&\cdots &\vec{v}_n\end{bmatrix} D \\ &=ED.\end{aligned}\end{align} \nonumber \]

    Las columnas de\(E\) son linealmente independientes ya que son vectores propios linealmente independientes de\(A\). De ahí\(E\) que sea invertible. Ya que\(AE=ED\), tenemos razón multiplicamos por\(E^{-1}\) y obtenemos

    \[ A=EDE^{-1}. \nonumber \]

    Esto significa que. \(e^A = E e^D E^{-1} \)Multiplicando la matriz por\(t\) obtenemos

    \[\label{eq:21} e^{tA} = E e^{tD} E^{-1} = E \begin{bmatrix}e^{\lambda_1 t}&0&\cdots&0\\ 0&e^{\lambda_2 t}&\cdots &0 \\ \vdots&\vdots&\ddots&\vdots\\ 0&0&\cdots&e^{\lambda_n t } \end{bmatrix} E^{-1} \]

    La fórmula\(\eqref{eq:21}\), por lo tanto, da la fórmula para computar la solución matriz fundamental\(e^{tA} \) para el sistema\(\vec{x}' = A\vec{x} \), en el caso de que tengamos vectores propios\(n\) linealmente independientes.

    Observe que este cálculo todavía funciona cuando los valores propios y los vectores propios son complejos, aunque entonces tendrá que computar con números complejos. De la definición se desprende claramente que si\(A\) es real, entonces\(e^{tA} \) es real. Por lo que solo necesitarás números complejos en el cálculo y es posible que necesites aplicar la fórmula de Euler para simplificar el resultado. Si se simplifica correctamente la matriz final no tendrá ningún número complejo en ella.

    Ejemplo\(\PageIndex{1}\)

    Calcular la solución de matriz fundamental utilizando los exponenciales de matriz para el sistema

    \[\begin{bmatrix} x\\y \end{bmatrix}' = \begin{bmatrix} 1&2\\ 2&1 \end{bmatrix} \begin{bmatrix} x\\y \end{bmatrix}. \nonumber \]

    Después computar la solución particular para las condiciones iniciales\(x(0) = 4 \) y\(y(0) = 2 \).

    Dejar\( A \) ser la matriz de coeficientes\(\begin{bmatrix} 1&2 \\ 2&1 \end{bmatrix} \). Primero calculamos (ejercicio) que los valores propios son 3 y -1 y los vectores propios correspondientes son\(\begin{bmatrix} 1\\1 \end{bmatrix} \) y\(\begin{bmatrix} 1\\-1 \end{bmatrix} \). De ahí la diagonalización de\(A\) es

    \[\underbrace{ \begin{bmatrix} 1 & 2 \\ 2 & 1 \end{bmatrix} }_{A} = \underbrace{ \begin{bmatrix} 1 & 1 \\ 1 & -1 \end{bmatrix} }_{E} \underbrace{ \begin{bmatrix} 3 & 0 \\ 0 & -1 \end{bmatrix} }_{D} \underbrace{ \begin{bmatrix} 1 & 1 \\ 1 & -1 \end{bmatrix}^{-1} }_{E^{-1}} . \nonumber \]

    Escribimos

    \[\begin{align}\begin{aligned} e^{t A} = E e^{tD} E^{-1} & = \begin{bmatrix} 1 & 1 \\ 1 & -1 \end{bmatrix} \begin{bmatrix} e^{3t} & 0 \\ 0 & e^{-t} \end{bmatrix} \begin{bmatrix} 1 & 1 \\ 1 & -1 \end{bmatrix}^{-1} \\ & = \begin{bmatrix} 1 & 1 \\ 1 & -1 \end{bmatrix} \begin{bmatrix} e^{3t} & 0 \\ 0 & e^{-t} \end{bmatrix} \frac{-1}{2} \begin{bmatrix} -1 & -1 \\ -1 & 1 \end{bmatrix} \\ & = \frac{-1}{2} \begin{bmatrix} e^{3t} & e^{-t} \\ e^{3t} & -e^{-t} \end{bmatrix} \begin{bmatrix} -1 & -1 \\ -1 & 1 \end{bmatrix} \\ & = \frac{-1}{2} \begin{bmatrix} -e^{3t}-e^{-t} & -e^{3t}+e^{-t} \\ -e^{3t}+e^{-t} & -e^{3t}-e^{-t} \end{bmatrix} = \begin{bmatrix} \frac{e^{3t}+e^{-t}}{2} & \frac{e^{3t}-e^{-t}}{2} \\ \frac{e^{3t}-e^{-t}}{2} & \frac{e^{3t}+e^{-t}}{2} \end{bmatrix} . \end{aligned}\end{align} \nonumber \]

    Las condiciones iniciales son\(x(0) = 4 \) y\(y(0) = 2 \). De ahí que por la propiedad que\(e^{0A} = \mathit{I} \) encontremos que la solución particular que buscamos es\(e^{tA} \vec{b} \) dónde\(\vec{b} \) está\(\begin{bmatrix}4\\2 \end{bmatrix} \). Entonces la solución particular que estamos buscando es

    \[\begin{bmatrix} x\\y\end{bmatrix} =\begin{bmatrix}\frac{e^{3t}+e^{-t}}{2}&\frac{e^{3t}-e^{-t}}{2}\\ \frac{e^{3t}-e^{-t}}{2}&\frac{e^{3t}+e^{-t}}{2} \end{bmatrix} \begin{bmatrix} 4\\2\end{bmatrix} =\begin{bmatrix}2e^{3t}+2e^{-t}+e^{3t}-e^{-t} \\ 2e^{3t}-2e^{-t}+e^{3t} +e^{-t} \end{bmatrix} = \begin{bmatrix} 3e^{3t}+e^{-t} \\ 3e^{3t}-e^{-t} \end{bmatrix} \nonumber \]

    Soluciones de Matriz Fundamental

    Observamos que si puedes calcular la solución de matriz fundamental de una manera diferente, puedes usar esta para encontrar la matriz exponencial\( e^{tA} \). La solución matriz fundamental de un sistema de ODEs no es única. El exponencial es la solución matriz fundamental con la propiedad que para\(t = 0\) nosotros obtenemos la matriz de identidad. Por lo que debemos encontrar la solución matriz fundamental correcta. Dejar\(X\) ser cualquier solución matriz fundamental para\( \vec{x}' = A \vec{x} \). Entonces reclamamos

    \[e^{tA} = X(t) [X(0)]^{-1}. \nonumber \]

    Claramente, si nos\(t = 0\)\( X(t)[X(0)]^{-1} \) enchufamos obtenemos la identidad. Podemos multiplicar una solución de matriz fundamental a la derecha por cualquier matriz invertible constante y aún así obtenemos una solución de matriz fundamental. Todo lo que estamos haciendo es cambiar cuáles son las constantes arbitrarias en la solución general\(\vec{x}(t) = X(t)\vec{c} \).

    Aproximaciones

    Si lo piensas bien, el cálculo de cualquier solución de matriz fundamental\(X\) utilizando el método de valor propio es tan difícil como el cálculo de\( e^{tA} \). Entonces tal vez no ganamos mucho con esta nueva herramienta. Sin embargo, la expansión de la serie Taylor en realidad nos da una manera muy fácil de aproximar soluciones, lo que el método del valor propio no hizo.

    Lo más sencillo que podemos hacer es simplemente calcular la serie hasta cierto número de términos. Hay mejores formas de aproximar lo exponencial \(^{1}\). Sin embargo, en muchos casos, pocos términos de la serie Taylor dan una aproximación razonable para lo exponencial y pueden ser suficientes para la aplicación. Por ejemplo, calculemos los primeros\(4\) términos de la serie para la matriz\(A=\left[\begin{array}{c}{1}&{2}\\{2}&{1}\end{array}\right]\).

    \[\begin{gathered} e^{tA} \approx I + tA + \frac{t^2}{2}A^2 + \frac{t^3}{6}A^3 = I + t \begin{bmatrix} 1 & 2 \\ 2 & 1 \end{bmatrix} + t^2 \begin{bmatrix} \frac{5}{2} & 2 \\ 2 & \frac{5}{2} \end{bmatrix} + t^3 \begin{bmatrix} \frac{13}{6} & \frac{7}{3} \\ \frac{7}{3} & \frac{13}{6} \end{bmatrix} = \\ = \begin{bmatrix} 1 + t + \frac{5}{2}\, t^2 + \frac{13}{6}\, t^3 & 2\,t + 2\, t^2 + \frac{7}{3}\, t^3 \\ 2\,t + 2\, t^2 + \frac{7}{3}\, t^3 & 1 + t + \frac{5}{2}\, t^2 + \frac{13}{6}\, t^3 \end{bmatrix} .\end{gathered} \nonumber \]

    Al igual que la versión escalar de la aproximación de la serie Taylor, la aproximación será mejor para los pequeños\(t\) y peor para los más grandes\(t\). Para mayores\(t\), generalmente tendremos que computar más términos. Veamos cómo nos comparamos con la solución real con\(t = 0.1\). La solución aproximada es aproximadamente (redondeada a\(8\) decimales)

    \[e^{0.1A} \approx \mathit{I} + 0.1A + \frac{0.1^2}{2} + \frac{0.1^3}{6} A^3 = \begin{bmatrix} 1.12716667& 0.22233333\\0.22233333&1.12716667 \end{bmatrix} \nonumber \]

    Y conectándonos\(t = 0.1\) a la solución real (redondeada a\(8\) decimales) obtenemos

    \[e^{0.1A} = \begin{bmatrix} 1.12734811&0.22251069\\ 0.22251069&1.12734811 \end{bmatrix} \nonumber \]

    ¡No está nada mal! Aunque si tomamos la misma aproximación para\(t = 1\) obtenemos

    \[ \mathit{I} + A +\frac{1}{2} A^2 +\frac{1}{6} A^3 = \begin{bmatrix} 6.66666667&6.33333333\\ 6.33333333&6.66666667\end{bmatrix} \nonumber \]

    mientras que el valor real es (de nuevo redondeado a\(8\) decimales)

    \[ e^A = \begin{bmatrix}10.22670818&9.85882874\\9.85882874&10.22670818\end{bmatrix} \nonumber \]

    Entonces la aproximación no es muy buena una vez que nos levantamos\(t=1\). Para obtener una buena aproximación en\(t=1\) (digamos hasta\(2\) decimales) necesitaríamos subir al\(11^{th} \) poder (ejercicio).

    Notas al pie

    [1] C. Moler y C.F. Van Loan, Diecinueve formas dudosas de computar lo exponencial de una matriz, veinticinco años después, SIAM Review 45 (1), 2003, 3—49


    This page titled 3.8: Exponenciales matriciales is shared under a CC BY-SA 4.0 license and was authored, remixed, and/or curated by Jiří Lebl via source content that was edited to the style and standards of the LibreTexts platform; a detailed edit history is available upon request.