10.3: Teoría Básica de Sistemas Lineales Homogéneos
- Page ID
- 114698
\( \newcommand{\vecs}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} } \)
\( \newcommand{\vecd}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash {#1}}} \)
\( \newcommand{\id}{\mathrm{id}}\) \( \newcommand{\Span}{\mathrm{span}}\)
( \newcommand{\kernel}{\mathrm{null}\,}\) \( \newcommand{\range}{\mathrm{range}\,}\)
\( \newcommand{\RealPart}{\mathrm{Re}}\) \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\)
\( \newcommand{\Argument}{\mathrm{Arg}}\) \( \newcommand{\norm}[1]{\| #1 \|}\)
\( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\)
\( \newcommand{\Span}{\mathrm{span}}\)
\( \newcommand{\id}{\mathrm{id}}\)
\( \newcommand{\Span}{\mathrm{span}}\)
\( \newcommand{\kernel}{\mathrm{null}\,}\)
\( \newcommand{\range}{\mathrm{range}\,}\)
\( \newcommand{\RealPart}{\mathrm{Re}}\)
\( \newcommand{\ImaginaryPart}{\mathrm{Im}}\)
\( \newcommand{\Argument}{\mathrm{Arg}}\)
\( \newcommand{\norm}[1]{\| #1 \|}\)
\( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\)
\( \newcommand{\Span}{\mathrm{span}}\) \( \newcommand{\AA}{\unicode[.8,0]{x212B}}\)
\( \newcommand{\vectorA}[1]{\vec{#1}} % arrow\)
\( \newcommand{\vectorAt}[1]{\vec{\text{#1}}} % arrow\)
\( \newcommand{\vectorB}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} } \)
\( \newcommand{\vectorC}[1]{\textbf{#1}} \)
\( \newcommand{\vectorD}[1]{\overrightarrow{#1}} \)
\( \newcommand{\vectorDt}[1]{\overrightarrow{\text{#1}}} \)
\( \newcommand{\vectE}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash{\mathbf {#1}}}} \)
\( \newcommand{\vecs}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} } \)
\( \newcommand{\vecd}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash {#1}}} \)
\(\newcommand{\avec}{\mathbf a}\) \(\newcommand{\bvec}{\mathbf b}\) \(\newcommand{\cvec}{\mathbf c}\) \(\newcommand{\dvec}{\mathbf d}\) \(\newcommand{\dtil}{\widetilde{\mathbf d}}\) \(\newcommand{\evec}{\mathbf e}\) \(\newcommand{\fvec}{\mathbf f}\) \(\newcommand{\nvec}{\mathbf n}\) \(\newcommand{\pvec}{\mathbf p}\) \(\newcommand{\qvec}{\mathbf q}\) \(\newcommand{\svec}{\mathbf s}\) \(\newcommand{\tvec}{\mathbf t}\) \(\newcommand{\uvec}{\mathbf u}\) \(\newcommand{\vvec}{\mathbf v}\) \(\newcommand{\wvec}{\mathbf w}\) \(\newcommand{\xvec}{\mathbf x}\) \(\newcommand{\yvec}{\mathbf y}\) \(\newcommand{\zvec}{\mathbf z}\) \(\newcommand{\rvec}{\mathbf r}\) \(\newcommand{\mvec}{\mathbf m}\) \(\newcommand{\zerovec}{\mathbf 0}\) \(\newcommand{\onevec}{\mathbf 1}\) \(\newcommand{\real}{\mathbb R}\) \(\newcommand{\twovec}[2]{\left[\begin{array}{r}#1 \\ #2 \end{array}\right]}\) \(\newcommand{\ctwovec}[2]{\left[\begin{array}{c}#1 \\ #2 \end{array}\right]}\) \(\newcommand{\threevec}[3]{\left[\begin{array}{r}#1 \\ #2 \\ #3 \end{array}\right]}\) \(\newcommand{\cthreevec}[3]{\left[\begin{array}{c}#1 \\ #2 \\ #3 \end{array}\right]}\) \(\newcommand{\fourvec}[4]{\left[\begin{array}{r}#1 \\ #2 \\ #3 \\ #4 \end{array}\right]}\) \(\newcommand{\cfourvec}[4]{\left[\begin{array}{c}#1 \\ #2 \\ #3 \\ #4 \end{array}\right]}\) \(\newcommand{\fivevec}[5]{\left[\begin{array}{r}#1 \\ #2 \\ #3 \\ #4 \\ #5 \\ \end{array}\right]}\) \(\newcommand{\cfivevec}[5]{\left[\begin{array}{c}#1 \\ #2 \\ #3 \\ #4 \\ #5 \\ \end{array}\right]}\) \(\newcommand{\mattwo}[4]{\left[\begin{array}{rr}#1 \amp #2 \\ #3 \amp #4 \\ \end{array}\right]}\) \(\newcommand{\laspan}[1]{\text{Span}\{#1\}}\) \(\newcommand{\bcal}{\cal B}\) \(\newcommand{\ccal}{\cal C}\) \(\newcommand{\scal}{\cal S}\) \(\newcommand{\wcal}{\cal W}\) \(\newcommand{\ecal}{\cal E}\) \(\newcommand{\coords}[2]{\left\{#1\right\}_{#2}}\) \(\newcommand{\gray}[1]{\color{gray}{#1}}\) \(\newcommand{\lgray}[1]{\color{lightgray}{#1}}\) \(\newcommand{\rank}{\operatorname{rank}}\) \(\newcommand{\row}{\text{Row}}\) \(\newcommand{\col}{\text{Col}}\) \(\renewcommand{\row}{\text{Row}}\) \(\newcommand{\nul}{\text{Nul}}\) \(\newcommand{\var}{\text{Var}}\) \(\newcommand{\corr}{\text{corr}}\) \(\newcommand{\len}[1]{\left|#1\right|}\) \(\newcommand{\bbar}{\overline{\bvec}}\) \(\newcommand{\bhat}{\widehat{\bvec}}\) \(\newcommand{\bperp}{\bvec^\perp}\) \(\newcommand{\xhat}{\widehat{\xvec}}\) \(\newcommand{\vhat}{\widehat{\vvec}}\) \(\newcommand{\uhat}{\widehat{\uvec}}\) \(\newcommand{\what}{\widehat{\wvec}}\) \(\newcommand{\Sighat}{\widehat{\Sigma}}\) \(\newcommand{\lt}{<}\) \(\newcommand{\gt}{>}\) \(\newcommand{\amp}{&}\) \(\definecolor{fillinmathshade}{gray}{0.9}\)En esta sección consideramos sistemas lineales homogéneos\({\bf y}'= A(t){\bf y}\), donde\(A=A(t)\) se encuentra una función\(n\times n\) matricial continua en un intervalo\((a,b)\). La teoría de los sistemas homogéneos lineales tiene mucho en común con la teoría de ecuaciones escalares homogéneas lineales, que consideramos en las Secciones 2.1, 5.1 y 9.1.
Siempre que nos referimos a soluciones de\({\bf y}'=A(t){\bf y}\) nos referiremos a soluciones en\((a,b)\). Ya que obviamente\({\bf y}\equiv{\bf 0}\) es una solución de\({\bf y}'=A(t){\bf y}\), la llamamos la solución trivial. Cualquier otra solución no es trivial.
Si\({\bf y}_1\),\({\bf y}_2\),...,\({\bf y}_n\) son funciones vectoriales definidas en un intervalo\((a,b)\) y\(c_1\)\(c_2\),,...,\(c_n\) son constantes, entonces
\[\label{eq:10.3.1} {\bf y}=c_1{\bf y}_1+c_2{\bf y}_2+\cdots+c_n{\bf y}_n\]
es una combinación lineal de\({\bf y}_1\),\({\bf y}_2\),...,\({\bf y}_n\). Es fácil demostrar que si\({\bf y}_1\),\({\bf y}_2\),...,\({\bf y}_n\) son soluciones de\({\bf y}'=A(t){\bf y}\) on\((a,b)\), entonces también lo es cualquier combinación lineal de\({\bf y}_1\),\({\bf y}_2\),...,\({\bf y}_n\) (Ejercicio 10.3.1). Decimos que\(\{{\bf y}_1,{\bf y}_2,\dots,{\bf y}_n\}\) es un conjunto fundamental de soluciones de\({\bf y}'=A(t){\bf y}\) on\((a,b)\) on si cada solución de\({\bf y}'=A(t){\bf y}\) on\((a,b)\) puede escribirse como una combinación lineal de\({\bf y}_1\),,...\({\bf y}_2\),\({\bf y}_n\), como en la Ecuación\ ref {eq:10.3.1}. En este caso decimos que la Ecuación\ ref {eq:10.3.1} es la solución general de\({\bf y}'=A(t){\bf y}\) on\((a,b)\).
Se puede demostrar que si\(A\) es continuo\((a,b)\) entonces\({\bf y}'=A(t){\bf y}\) tiene infinitamente muchos conjuntos fundamentales de soluciones en\((a,b)\) (Ejercicios 10.3.15 y 10.3.16). La siguiente definición ayudará a caracterizar conjuntos fundamentales de soluciones de\({\bf y}'=A(t){\bf y}\).
Decimos que un conjunto\(\{{\bf y}_1,{\bf y}_2,\dots,{\bf y}_n\}\) de funciones\(n\) -vector es linealmente independiente de\((a,b)\) si las únicas constantes\(c_1\),\(c_2\),...,\(c_n\) tal que
\[\label{eq:10.3.2} c_{1}y_{1}(t)+c_{2}y_{2}(t)+\cdots +c_{n}y_{n}(t)=0,\quad a<t<b,\]
son\(c_1=c_2=\cdots=c_n=0\). Si Ecuación\ ref {eq:10.3.2} se mantiene para algún conjunto de constantes\(c_1\)\(c_2\),,...,\(c_n\) que no son todas cero, entonces\(\{{\bf y}_1,{\bf y}_2,\dots,{\bf y}_n\}\) depende linealmente de\((a,b)\)
El siguiente teorema es análogo a los teoremas 5.1.3 y 9.1.2.
Supongamos que la\(n\times n\) matriz\(A=A(t)\) es continua\((a,b)\). Entonces un conjunto\(\{{\bf y}_1,{\bf y}_2,\dots,{\bf y}_n\}\) de\(n\) soluciones de\({\bf y}'=A(t){\bf y}\) on\((a,b)\) es un conjunto fundamental si y solo si es linealmente independiente sobre\((a,b)\).
Mostrar que las funciones vectoriales
\[{\bf y}_1=\left[\begin{array}{c}e^t\\0\\e^{-t}\end{array}\right],\quad {\bf y}_2=\left[\begin{array}{c}0\\e^{3t}\\1\end{array}\right], \quad \text{and} \quad {\bf y}_3=\left[\begin{array}{c}e^{2t}\\e^{3t}\\0\end{array}\right]\nonumber \]
son linealmente independientes en cada intervalo\((a,b)\).
Solución
Supongamos
\[c_{1}\left[\begin{array} {c}{e^{t}}\\{0}\\{e^{-t}} \end{array} \right] +c_{2}\left[\begin{array}{c}{0}\\{e^{3t}}\\{1}\end{array} \right] +c_{3}\left[\begin{array}{c}{e^{2t}}\\{e^{3t}}\\{0}\end{array} \right] = \left[\begin{array}{c}{0}\\{0}\\{0}\end{array} \right],\quad a<t<b.\nonumber \]
Debemos demostrarlo\(c_1=c_2=c_3=0\). Reescribir esta ecuación en forma de matriz rinde
\[\left[\begin{array}{ccc}{e^{t}}&{0}&{e^{2t}}\\{0}&{e^{3t}}&{e^{3t}}\\{e^{-t}}&{1}&{0} \end{array} \right] \: \left[\begin{array}{c}{c_{1}}\\{c_{2}}\\{c_{3}}\end{array} \right] = \left[\begin{array}{c}{0}\\{0}\\{0}\end{array} \right], \quad a<t<b.\nonumber \]
Ampliar el determinante de este sistema en cofactores de las entradas de la primera fila rendimientos
\[\begin{align*} \left|\begin{array}{ccc}e^t&0&e^{2t}\\0&e^{3t}&e^{3t}\\e^{-t}&1&0 \end{array}\right|&=e^t \left|\begin{array}{cc}e^{3t}&e^{3t}\\1&0\end{array}\right|-0 \left|\begin{array}{cc}0&e^{3t}\\e^{-t}&0\end{array}\right| +e^{2t}\left|\begin{array}{cc}0&e^{3t}\\e^{-t}&1\end{array}\right| \\ &=e^t(-e^{3t})+e^{2t}(-e^{2t})=-2e^{4t}.\end{align*}\]
Dado que este determinante nunca es cero,\(c_1=c_2=c_3=0\).
Podemos usar el método en Example 10.3.1 para probar\(n\) soluciones\(\{{\bf y}_1,{\bf y}_2,\dots,{\bf y}_n\}\) de cualquier\(n\times n\) sistema\({\bf y}'=A(t){\bf y}\) para la independencia lineal en un intervalo\((a,b)\) en el que\(A\) es continuo. Para explicar esto (y para otros fines más adelante), es útil escribir una combinación lineal de\({\bf y}_1\),\({\bf y}_2\),..., de una\({\bf y}_n\) manera diferente. Primero escribimos las funciones vectoriales en términos de sus componentes como
\[{\bf y}_1=\left[\begin{array}{c} y_{11}\\y_{21}\\ \vdots\\ y_{n1}\end{array}\right],\quad {\bf y}_2=\left[\begin{array}{c} y_{12}\\y_{22}\\ \vdots\\ y_{n2}\end{array}\right],\dots,\quad {\bf y}_n=\left[\begin{array}{c} y_{1n}\\y_{2n}\\ \vdots\\ y_{nn}\end{array}\right].\nonumber \]
Si
\[{\bf y}=c_1{\bf y}_1+c_2{\bf y}_2+\cdots+c_n{\bf y}_n\nonumber \]
entonces
\[\begin{align*} {\bf y}&= c_1\left[\begin{array}{c} y_{11}\\y_{21}\\ \vdots\\ y_{n1}\end{array}\right]+ c_2\left[\begin{array}{c} y_{12}\\y_{22}\\ \vdots\\ y_{n2}\end{array}\right]+\cdots +c_n\left[\begin{array}{c} y_{1n}\\y_{2n}\\ \vdots\\ y_{nn}\end{array}\right]\\[4pt] &=\left[\begin{array}{cccc} y_{11}&y_{12}&\cdots&y_{1n} \\ y_{21}&y_{22}&\cdots&y_{2n}\\ \vdots&\vdots&\ddots&\vdots \\ y_{n1}&y_{n2}&\cdots&y_{nn} \\ \end{array}\right]\col cn.\end{align*}\]
Esto demuestra que
\[\label{eq:10.3.3} c_1{\bf y}_1+c_2{\bf y}_2+\cdots+c_n{\bf y}_n=Y{\bf c},\]
donde
\[{\bf c}=\col cn\nonumber \]
y
\[\label{eq:10.3.4} Y=[{\bf y}_1\; {\bf y}_2\; \cdots\; {\bf y}_n]= \left[\begin{array}{cccc} y_{11}&y_{12}&\cdots&y_{1n} \\ y_{21}&y_{22}&\cdots&y_{2n}\\ \vdots&\vdots&\ddots&\vdots \\ y_{n1}&y_{n2}&\cdots&y_{nn} \\ \end{array}\right];\]
es decir, las columnas de\(Y\) son las funciones vectoriales\({\bf y}_1,{\bf y}_2,\dots,{\bf y}_n\).
Para referencia a continuación, tenga en cuenta que
\[\begin{aligned} Y'&=[{\bf y}_1'\; {\bf y}_2'\; \cdots\; {\bf y}_n']\\ &=[A{\bf y}_1\; A{\bf y}_2\; \cdots\; A{\bf y}_n]\\ &=A[{\bf y}_1\; {\bf y}_2\; \cdots\; {\bf y}_n]=AY;\end{aligned}\]
es decir,\(Y\) satisface la ecuación diferencial matricial
\[Y'=AY.\nonumber \]
El determinante de\(Y\),
\[\label{eq:10.3.5} W=\left|\begin{array}{cccc} y_{11}&y_{12}&\cdots&y_{1n} \\ y_{21}&y_{22}&\cdots&y_{2n}\\ \vdots&\vdots&\ddots&\vdots \\ y_{n1}&y_{n2}&\cdots&y_{nn} \\ \end{array}\right|\]
se llama el Wronskian de\(\{{\bf y}_1,{\bf y}_2,\dots,{\bf y}_n\}\). Se puede demostrar (Ejercicios 10.3.2 y 10.3.3) que esta definición es análoga a las definiciones de las Wronskian de funciones escalares dadas en las Secciones 5.1 y 9.1. El siguiente teorema es análogo a los teoremas 5.1.4 y 9.1.3. La prueba se esboza en el Ejercicio 10.3.4 para\(n=2\) y en el Ejercicio 10.3.5 para general\(n\).
Supongamos que la\(n\times n\) matriz\(A=A(t)\) es continua en\((a,b),\) let\({\bf y}_1\)\({\bf y}_2\),,...,\({\bf y}_n\) ser soluciones de\({\bf y}'=A(t){\bf y}\) on\((a,b),\) y let\(t_0\) be in\((a,b)\). Entonces el Wronskian de\(\{{\bf y}_1,{\bf y}_2,\dots,{\bf y}_n\}\) es dado por
\[\label{eq:10.3.6} W(t)=W(t_0)\exp\left( \int^t_{t_0}\big[a_{11}(s)+a_{22}(s)+\cdots+a_{nn}(s)]\, ds\right), \quad a < t < b.\]
Por lo tanto, o bien no\(W\) tiene ceros en\((a,b)\) o\(W\equiv0\) sobre\((a,b).\)
La suma de las entradas diagonales de una matriz cuadrada\(A\) se denomina traza de\(A\), denotada por\(\text{tr}(A)\). Así, para una\(n\times n\) matriz\(A\),
\[\text{tr}(A)=a_{11}+a_{22}+\cdots a_{nn},\nonumber \]
y la ecuación\ ref {eq:10.3.6} se puede escribir como
\[W(t)=W(t_{0})\text{exp}\left(\int_{t_{0}}^{t}\text{tr}(A(s))ds \right),\quad a<t<b.\nonumber \]
El siguiente teorema es análogo a los teoremas 5.1.6 y 9.1.4.
Supongamos que la\(n\times n\) matriz\(A=A(t)\) es continua\((a,b)\) y deja\({\bf y}_1\)\({\bf y}_2\),,...,\({\bf y}_n\) ser soluciones de\({\bf y}'=A(t){\bf y}\) on\((a,b)\). Entonces las siguientes afirmaciones son equivalentes; es decir, son todas verdaderas o todas falsas:
- La solución general de\({\bf y}'=A(t){\bf y}\) on\((a,b)\) es\({\bf y}=c_1{\bf y}_1+c_2{\bf y}_2+\cdots+c_n{\bf y}_n\), donde\(c_1\),\(c_2\),...,\(c_n\) son constantes arbitrarias.
- \(\{{\bf y}_1,{\bf y}_2,\dots,{\bf y}_n\}\)es un conjunto fundamental de soluciones de\({\bf y}'=A(t){\bf y}\) on\((a,b)\).
- \(\{{\bf y}_1,{\bf y}_2,\dots,{\bf y}_n\}\)es linealmente independiente de\((a,b)\).
- El Wronskian de\(\{{\bf y}_1,{\bf y}_2,\dots,{\bf y}_n\}\) es distinto de cero en algún momento de\((a,b)\).
- El Wronskian de\(\{{\bf y}_1,{\bf y}_2,\dots,{\bf y}_n\}\) es distinto de cero en todos los puntos de\((a,b)\).
Decimos que\(Y\) en la Ecuación\ ref {eq:10.3.4} es una matriz fundamental para\({\bf y}'=A(t){\bf y}\) si alguna (y por lo tanto todas) de las declaraciones (a) - (e) del Teorema 10.3.2 son verdaderas para las columnas de\(Y\). En este caso, la Ecuación\ ref {eq:10.3.3} implica que la solución general de se\({\bf y}'=A(t){\bf y}\) puede escribir como\({\bf y}=Y{\bf c}\), donde\({\bf c}\) es una constante arbitraria\(n\) -vector.
Las funciones vectoriales
\[{\bf y}_1=\twocol {-e^{2t}}{2e^{2t}}\quad \text{and} \quad {\bf y}_2=\twocol{-e^{-t}}{\phantom{-}e^{-t}}\nonumber \]
son soluciones del sistema de coeficiente constante
\[\label{eq:10.3.7} {\bf y}' = \left[\begin{array}{cc}{-4}&{-3}\\{6}&{5}\end{array} \right] {\bf y}\]
encendido\((-\infty,\infty)\). (Verificar.)
- Calcular el Wronskian de\(\{{\bf y}_1,{\bf y}_2\}\) directamente a partir de la definición Ecuación\ ref {eq:10.3.5}
- Verificar la fórmula de Abel Ecuación\ ref {eq:10.3.6} para el Wronskian de\(\{{\bf y}_1,{\bf y}_2\}\).
- Encuentra la solución general de la Ecuación\ ref {eq:10.3.7}.
- Resolver el problema de valor inicial\[\label{eq:10.3.8} {\bf y}'=\left[\begin{array}{cc}{-4}&{-3}\\{6}&{5}\end{array} \right] {\bf y}, \quad {\bf y}(0)= \left[\begin{array}{r} 4 \\-5\end{array}\right].\]
Solución a
De la ecuación\ ref {eq:10.3.5}
\[\label{eq:10.3.9} W(t)=\left|\begin{array}{cc}-e^{2t}&-e^{-t}\\2e^{2t}&\hfill e^{-t}\end{array}\right|= e^{2t}e^{-t} \left[\begin{array}{cc}{-1}&{-1}\\{2}&{1}\end{array} \right]=e^t.\]
Solución b
Aquí
\[A=\left[\begin{array}{cc}{-4}&{-3}\\{6}&{5}\end{array} \right],\nonumber \]
así tr\((A)=-4+5=1\). Si\(t_0\) es un número real arbitrario entonces la Ecuación\ ref {eq:10.3.6} implica que
\[W(t)=W(t_0)\exp{\left(\int_{t_0}^t1\,ds\right)}= \left|\begin{array}{cc} -e^{2t_0}&-e^{-t_0}\\2e^{2t_0}&e^{-t_0}\end{array}\right|e^{(t-t_0)} =e^{t_0}e^{t-t_0}=e^t,\nonumber \]
que es consistente con la Ecuación\ ref {eq:10.3.9}.
Solución c
Ya que\(W(t)\ne0\), Teorema 10.3.3 implica que\(\{{\bf y}_1,{\bf y}_2\}\) es un conjunto fundamental de soluciones de la Ecuación\ ref {eq:10.3.7} y
\[Y=\left[\begin{array}{cc}-e^{2t}&-e^{-t}\\2e^{2t}&\hfill e^{-t}\end{array}\right]\nonumber \]
es una matriz fundamental para la Ecuación\ ref {eq:10.3.7}. Por lo tanto, la solución general de la Ecuación\ ref {eq:10.3.7} es
\[\label{eq:10.3.10} {\bf y}=c_1{\bf y}_1+c_2{\bf y}_2= c_1\twocol {-e^{2t}}{2e^{2t}}+c_2\twocol{-e^{-t}}{e^{-t}} =\left[\begin{array}{cc}-e^{2t}&-e^{-t}\\2e^{2t}&\hfill e^{-t}\end{array}\right] \left[\begin{array}{c}c_1\\c_2\end{array}\right].\]
Solución d
Establecer\(t=0\) en la ecuación\ ref {eq:10.3.10} e imponer la condición inicial en la ecuación\ ref {eq:10.3.8} rendimientos
\[c_1\left[\begin{array}{r}-1 \\2\end{array}\right]+c_2 \left[\begin{array}{r}-1 \\1\end{array}\right]= \left[\begin{array}{r} 4 \\-5\end{array}\right].\nonumber \]
Por lo tanto,
\[\begin{aligned} -c_1-c_2&=\phantom{-}4 \\ 2c_1+c_2&=-5.\end{aligned}\nonumber \]
La solución de este sistema es\(c_1=-1\),\(c_2=-3\). Sustituyendo estos valores en Ecuación\ ref {eq:10.3.10} rendimientos
\[{\bf y}=-\left[\begin{array}{c}-e^{2t} \\ 2e^{2t}\end{array} \right]-3 \left[\begin{array}{c}-e^{-t} \\ e^{-t}\end{array}\right]= \left[ \begin{array}{c} e^{2t}+3e^{-t} \\-2e^{2t}-3e^{-t} \end{array}\right]\nonumber \]
como la solución de la Ecuación\ ref {eq:10.3.8}.