Saltar al contenido principal
LibreTexts Español

3.9: Sistemas no homogéneos

  • Page ID
    115440
  • \( \newcommand{\vecs}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} } \) \( \newcommand{\vecd}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash {#1}}} \)\(\newcommand{\id}{\mathrm{id}}\) \( \newcommand{\Span}{\mathrm{span}}\) \( \newcommand{\kernel}{\mathrm{null}\,}\) \( \newcommand{\range}{\mathrm{range}\,}\) \( \newcommand{\RealPart}{\mathrm{Re}}\) \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\) \( \newcommand{\Argument}{\mathrm{Arg}}\) \( \newcommand{\norm}[1]{\| #1 \|}\) \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\) \( \newcommand{\Span}{\mathrm{span}}\) \(\newcommand{\id}{\mathrm{id}}\) \( \newcommand{\Span}{\mathrm{span}}\) \( \newcommand{\kernel}{\mathrm{null}\,}\) \( \newcommand{\range}{\mathrm{range}\,}\) \( \newcommand{\RealPart}{\mathrm{Re}}\) \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\) \( \newcommand{\Argument}{\mathrm{Arg}}\) \( \newcommand{\norm}[1]{\| #1 \|}\) \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\) \( \newcommand{\Span}{\mathrm{span}}\)\(\newcommand{\AA}{\unicode[.8,0]{x212B}}\)

    Coeficiente constante de primer orden

    Factor integrador

    Centrémonos primero en la ecuación de primer orden no homogénea

    \[\vec{x}'(t) = A\vec{x} (t) + \vec{f}(t), \nonumber \]

    donde\(A\) es una matriz constante. El primer método que veremos es el método del factor integrador. Por simplicidad reescribimos la ecuación como

    \[\vec{x}'(t) + P\vec{x}(t) = \vec{f}(t), \nonumber \]

    donde\(P = -A\). Multiplicamos ambos lados de la ecuación por\(e^{tP} \) (siendo conscientes de que estamos tratando con matrices que pueden no desplazarse) para obtener

    \[e^{tP} \vec{x}(t) + e^{tP} P\vec{x}(t) = e^{tP}\vec{f}(t). \nonumber \]

    Nos damos cuenta de eso\(Pe^{tP}=e^{tP}P\). Este hecho sigue al anotar la definición de serie de\(e^{tP}\),

    \[\begin{align}\begin{aligned} Pe^{tP} &= P \left( \mathit{I} + \mathit{I} + tP + \frac{1}{2} \left(tP \right)^2 + \cdots \right) = P + tP^2 +\frac{1}{2} t^2 P^3 + \cdots \\ &= \left( \mathit{I} +\mathit{I} +tP +\frac{1}{2}(tP)^2 + \cdots \right) P = Pe^{tP} \end{aligned}\end{align} \nonumber \]

    Eso ya lo hemos visto\( \frac{\mathrm{d}}{\mathrm{d}x}\left( e^{tP} \right) = Pe^{tP} =e^{tP}P \). La regla del producto dice:

    \[\frac{d}{dt}\left(e^{tP}\vec{x}(t)\right)=e^{tP}\vec{x}'(t)+e^{tP}P\vec{x}(t), \nonumber \]

    y así

    \[\frac{\mathrm{d}}{\mathrm{d}t} \left(e^{tP} \vec{x}(t) \right) = e^{tP} \vec{f}(t). \nonumber \]

    Ahora podemos integrarnos. Es decir, integramos cada componente del vector por separado

    \[ e^{tP}\vec{x}(t) = \int e^{tP}\vec{f}(t) dt +\vec{c}. \nonumber \]

    Recordemos del Ejercicio 3.8.6 que\(\left( e^{tP} \right)^{-1} = e^{-tP} \). Por lo tanto, obtenemos

    \[ \vec{x}(t) = e^{-tP} \int e^{tP} \vec{f}(t) dt + e^{-tP} \vec{c}. \nonumber \]

    Quizás se entiende mejor como una integral definitiva. En este caso será fácil de resolver también para las condiciones iniciales también. Supongamos que tenemos la ecuación con condiciones iniciales

    \[\vec{x}'(t) + P\vec{x}(t) = \vec{f}(t), \quad \vec{x}(0) = \vec{b}. \nonumber \]

    La solución se puede escribir como

    \[ \label{eq:10} \vec{x}(t) = e^{-tP} \int_{0}^{t} e^{sP}\vec{f}(s) ds +e^{-tP}\vec{b}. \]

    Nuevamente, la integración significa que cada componente del vector\(e^{sP} \vec{f}(s) \) se integra por separado. No es difícil ver que\(\eqref{eq:10}\) realmente satisface la condición inicial\(\vec{x}(0) = \vec{b} \)

    \[ \vec{x}(0) = e^{-0P} \int_{0}^{0} e^{sP} \vec{f} ds + e^{-0P} \vec{b} = \mathit{I} \vec{b} =\vec{b}. \nonumber \]

    Ejemplo\(\PageIndex{1}\)

    Supongamos que tenemos el sistema

    \[\begin{align}\begin{aligned} x_1'+5x_1-3x_2 &= e^t, \\ x_2' +3x_1 - x_2 &=0,\end{aligned}\end{align} \nonumber \]

    con condiciones iniciales\(x_1(0) = 1, x_2(0) = 0 \).

    Escribamos el sistema como

    \[\vec{x}' + \begin{bmatrix} 5&-3\\3&-1 \end{bmatrix} \vec{x} = \begin{bmatrix}e^t \\ 0 \end{bmatrix} , \quad \vec{x}(0) = \begin{bmatrix} 1\\ 0 \end{bmatrix}. \nonumber \]

    Anteriormente hemos calculado\(e^{tP} \) para\(P=\begin{bmatrix} 5&-3\\3&-1\end{bmatrix} \). De inmediato tenemos\(e^{-tP} \), simplemente negando\(t\).

    \[e^{tP} = \begin{bmatrix} \left(1 +3t \right) e^{2t}&-3te^{2t} \\ 3te^{2t}&\left(1 -3t \right) e^{2t} \end{bmatrix}, \quad e^{-tP} = \begin{bmatrix} \left(1 - 3t \right)e^{-2t}&3te^{-2t}\\ -3te^{-2t}& \left(1+3t\right) e^{-2t} \end{bmatrix}. \nonumber \]

    En lugar de computar toda la fórmula a la vez. Hagámoslo por etapas. Primero

    \[\begin{align}\begin{aligned} \int_{0}^{t} e^{sP} \vec{f}(s) ds &= \int_{0}^{t} \begin{bmatrix} \left(1+3s\right)e^{2s}& -3se^{2s} \\ 3se^{2s}&\left(1-3s\right) e^{2s} \end{bmatrix} \begin{bmatrix}e^s\\ 0 \end{bmatrix} ds \\ &=\int_{0}^{t} \begin{bmatrix} \left(1+3s\right)e^{3s}\\ 3se^{3s} \end{bmatrix} ds \\ &=\left[\begin{array}{c}{\int_{0}^{t}(1+3s)e^{3s}ds}\\{\int_{0}^{t}3se^{3s}ds}\end{array}\right] \\ &=\begin{bmatrix} te^{3t} \\ \frac{\left(3t-1\right)e^{3t}+1}{3} \end{bmatrix}.\quad\text{(used integration by parts).} \end{aligned}\end{align} \nonumber \]

    Entonces

    \[\begin{align}\begin{aligned} \vec{x}(t) & = e^{-tP} \int_0^t e^{sP}\vec{f}(s) \, ds + e^{-tP} \vec{b} \\ & = \begin{bmatrix} (1-3t)\,e^{-2t} & 3te^{-2t} \\ -3te^{-2t} & (1+3t)\,e^{-2t} \end{bmatrix} \begin{bmatrix} t e^{3t} \\ \frac{(3t-1) \,e^{3t} + 1}{3} \end{bmatrix} + \begin{bmatrix} (1-3t)\,e^{-2t} & 3te^{-2t} \\ -3te^{-2t} & (1+3t)\,e^{-2t} \end{bmatrix} \begin{bmatrix} 1 \\ 0 \end{bmatrix} \\ & = \begin{bmatrix} te^{-2t} \\ -\frac{e^t}{3}+\left( \frac{1}{3} + t \right) \, e^{-2t} \end{bmatrix} + \begin{bmatrix} (1-3t)\,e^{-2t} \\ -3te^{-2t} \end{bmatrix} \\ & = \begin{bmatrix} (1-2t)\,e^{-2t} \\ -\frac{e^t}{3}+\left( \frac{1}{3} -2 t \right) \, e^{-2t} \end{bmatrix} . \end{aligned}\end{align} \nonumber \]

    ¡Uf!

    Confirmemos que esto realmente funciona.

    \[x'_1 + 5x_1 - 3 x_2 = \left( 4t e^{-2t} - 4e^{-2t} \right) + 5\left(1-2t\right) e^{-2t} + e^t - \left( 1- 6t \right) e^{-2t} = e^t. \nonumber \]

    De igual manera (ejercicio)\( x'_2 +3x_1 - x_2 =0 \). También se cumplen las condiciones iniciales (ejercicio).

    Para los sistemas, el método de factor integrador sólo\(P\) funciona si no depende de\(t\), es decir,\(P\) es constante. El problema es que en general

    \[\frac{\mathrm{d}}{\mathrm{d}t} [e^{\int P(t) dt}] \neq P(t) e^{\int P(t) dt}, \nonumber \]

    porque la multiplicación matricial no es conmutativa.

    Descomposición de vectores propios

    Para el siguiente método, observamos que los vectores propios de una matriz dan las direcciones en las que la matriz actúa como un escalar. Si resolvemos nuestro sistema a lo largo de estas direcciones estas soluciones serían más simples ya que podemos tratar la matriz como un escalar. Podemos armar esas soluciones para obtener la solución general.

    Toma la ecuación

    \[\label{eq:19}\vec{x}'(t) = A\vec{x}(t) + \vec{f}(t) \]

    Supongamos que\(A\) tiene vectores propios\(n\) linealmente independientes\(\vec{x}_1, \ldots , \vec{x}_n.\) Escribamos

    \[\label{eq:20}\vec{x}(t) = \vec{v_1}\xi_1(t) + \vec{v_2}\xi_2{t} + \cdots + \vec{v_n} \xi_n(t) \]

    Es decir, deseamos escribir nuestra solución como una combinación lineal de vectores propios de\(A\). Si podemos resolver para las funciones escalares\(\xi_1 \) a través de\(\xi_n\) tenemos nuestra solución\(\vec{x}\). Descompongamos también\(\vec{f} \) en términos de los vectores propios. Deseamos escribir

    \[\label{eq:21} \vec{f}(t) = \vec{v_1}g_1(t) + \vec{v_2}g_2{t} +\cdots + \vec{v_n}g_n(t) \]

    Es decir, deseamos encontrar a\(g_1\) través de\(g_n\) esa satisfacción\(\eqref{eq:21}\). Observamos que dado que todos los vectores propios son independientes, la matriz\(E = \begin{bmatrix} \vec{v_1}&\vec{v_2}&\cdots&\vec{v_n} \end{bmatrix} \) es invertible. Vemos que se\(\eqref{eq:21}\) puede escribir como\(\vec{f} = E\vec{g} \), donde los componentes de\(\vec{g} \) son las funciones\(g_1\) a través de\(g_n\). Entonces\(\vec{g} = E^{-1} \vec{f} \). De ahí que siempre es posible encontrar\(\vec{g} \) cuando hay n vectores propios linealmente independientes.

    Nos\(\eqref{eq:20}\) enchufamos\(\eqref{eq:19}\), y notamos eso\(A\vec{v}_k = \lambda_k\vec{v}_k \).

    \[\begin{align}\begin{aligned} \overset{\vec{x}'}{\overbrace{\vec{v}_{1}\xi_{1}'+\vec{v}_{2}\xi_{2}'+\cdots +\vec{v}_{n}\xi_{n}'}}&=\overset{A\vec{x}}{\overbrace{A\left(\vec{v}_{1}\xi_{1}+\vec{v}_{2}\xi_{2}+\cdots +\vec{v}_{n}\xi_{n}\right)}}+\overset{\vec{f}}{\overbrace{\vec{v}_{1}g_{1}+\vec{v}_{2}g_{2}+\cdots +\vec{v}_{n}g_{n}}} \\ &= A\vec{v_1}\xi_1 + A\vec{v_2}\xi_2 + \cdots + A\vec{v_n}\xi_n + \vec{v_1}g_1 + \vec{v_2}g_2 +\cdots + \vec{v_n}g_n \\ &= \vec{v_1}\lambda_1\xi_1 + \vec{v_2}\lambda_2\xi_2 + \cdots + \vec{v_n}\lambda_n\xi_n + \vec{v_1}g_1+\vec{v_2}g_2 + \cdots +\vec{v_n}g_n \\ &=\vec{v_1}\left(\lambda_1\xi_1 + g_1 \right) +\vec{v_2}\left(\lambda_2\xi_2 + g_2 \right) +\cdots +\vec{v_n}\left(\lambda_n\xi_n + g_n \right). \end{aligned}\end{align} \nonumber \]

    Si identificamos los coeficientes de los vectores\(\vec{v}_1\) a través\(\vec{v}_n\) obtenemos las ecuaciones

    \[\begin{align}\begin{aligned} \xi'_1 &= \lambda_1\xi_1 + g_1, \\ \xi'_2 &= \lambda_2\xi_2 + g_2, \\ & \vdots \\ \xi'_n &= \lambda_n\xi_n + g_n. \end{aligned}\end{align} \nonumber \]

    Cada una de estas ecuaciones es independiente de las demás. Todas son ecuaciones lineales de primer orden y pueden resolverse fácilmente mediante el método estándar de factor de integración para ecuaciones simples. Es decir, por ejemplo para la\(k^{th}\) ecuación que escribimos

    \(\xi'_k(t) - \lambda_k \xi_k(t) = g_k(t).\)

    Utilizamos el factor integrador\(e^{-\lambda_k t} \) para encontrar que

    \[\frac{\mathrm{d}}{\mathrm{d}x} \left[ \xi_k(t) e^{-\lambda_k t} \right] = e^{-\lambda_k t} g_k(t). \nonumber \]

    Ahora integramos y resolvemos\(\xi_k\) para conseguir

    \[\xi_k (t) = e^{\lambda_k t} \int e^{-\lambda_k t }g_k(t) dt + C_k e^{\lambda_k t}. \nonumber \]

    Si estamos buscando cualquier solución en particular, podemos establecer\(C_{k}\) que sea cero. Si dejamos estas constantes adentro, obtenemos la solución general. Escribe\(\vec{x}(t)=\vec{v}_{1}\xi_{1}(t)+\vec{v}_{2}\xi_{2}(t)+\cdots +\vec{v}_{n}\xi_{n}(t)\), y ya terminamos.

    Nuevamente, como siempre, tal vez sea mejor escribir estas integrales como integrales defi nite. Supongamos que tenemos una condición inicial\(\vec{x}(0) = \vec{b} \). Tomamos\(\vec{c}= E^{-1} \vec{b} \) y tomamos nota\(\vec{b} = \vec{v_1}a_1 + \cdots + \vec{v_n} a_n \), igual que antes. Entonces si escribimos

    \[\xi_k(t) = e^{\lambda_k(t)} \int_{0}^{t} e^{-\lambda_ks} g_k(s)dt + a_k e^{\lambda_kt}, \nonumber \]

    en realidad obtendremos la solución particular\(\vec{x}(t) = \vec{v}_1\xi_1 + \vec{x}_2 \xi_2 + \cdots + \vec{v}_n\xi_n \) satisfactoria\( \vec{x}(0) = \vec{b} \), porque\(\xi_k(0) = a_k \).

    Comentemos que la técnica que acabamos de esbozar es el método del valor propio aplicado a sistemas no homogéneos. Si un sistema es homogéneo, es decir, si\(\vec{f}=\vec{0}\), entonces las ecuaciones que obtenemos son\(\xi_{k}'=\lambda_{k}\xi_{k}\), y también lo\(\xi_{k}=C_{k}e^{\lambda_{k}t}\) son las soluciones y eso es precisamente lo que obtuvimos en la Sección 3.4.

    Ejemplo\(\PageIndex{2}\)

    Vamos\(A=\begin{bmatrix} 1&3 \\3&1 \end{bmatrix} \). Resolver\(\vec{x}' = A\vec{x} + \vec{f} \) donde\(\vec{f}(t) = \begin{bmatrix} 2e^{t} \\ 2t \end{bmatrix} \) para\(\vec{x}(0)= \begin{bmatrix} \frac{3}{16} \\ \frac{-5}{16} \end{bmatrix} \).

    Los valores propios de\(A\) son\(-2\) y\(4\) y los vectores propios correspondientes son\(\begin{bmatrix} 1 \\ -1 \end{bmatrix}\) y\(\begin{bmatrix} 1 \\ 1 \end{bmatrix} \) respectivamente. Este cálculo se deja como ejercicio. Escribimos la matriz\(E\) de los vectores propios y calculamos su inversa (usando la fórmula inversa para\( 2 \times 2 \) matrices)

    \[E = \begin{bmatrix} 1&1\\ -1&1\end{bmatrix} , \quad E^{-1} = \frac{1}{2} \begin{bmatrix}1&-1 \\ 1&1\end{bmatrix}. \nonumber \]

    Estamos buscando una solución de la forma\( \vec{x} = \begin{bmatrix} 1\\{-1} \end{bmatrix}\xi_1 + \begin{bmatrix}1\\1\end{bmatrix}\xi_2\). También deseamos escribir\(\vec{f} \) en términos de los vectores propios. Eso es lo que deseamos escribir\(\vec{f} = \begin{bmatrix} 2e^t \\2t \end{bmatrix} = \begin{bmatrix}1\\-1 \end{bmatrix} g_1 + \begin{bmatrix} 1 \\ 1 \end{bmatrix} g_2 \). Por lo tanto

    \[ \left[ \begin{array}{c} g_1 \\ g_2 \end{array} \right] = E^{-1} \left[ \begin{array}{c} 2e^t \\ 2t \end{array} \right] =\frac{1}{2} \left[ \begin{array}{cc} 1 & -1 \\ 1 & 1 \end{array} \right] \left[ \begin{array}{c} 2e^t \\ 2t \end{array} \right] = \left[ \begin{array}{c} e^t - t \\ e^t+ t \end{array} \right]. \nonumber \]

    Entonces\(g_1=e^t -t \) y\(g_2 = e^t +t \).

    Además queremos escribir\(\vec{x}(0) \) en términos de los vectores propios. Es decir, deseamos escribir\(\vec{x}(0) = \begin{bmatrix} \frac{3}{16} \\ \frac{-5}{16} \end{bmatrix} = \begin{bmatrix} 1 \\ -1 \end{bmatrix} a_1 + \begin{bmatrix} 1\\1 \end{bmatrix} a_2 \). De ahí

    \[\begin{bmatrix}a_1\\a_2 \end{bmatrix} = E^{-1}\begin{bmatrix} \frac{3}{16} \\ \frac{-5}{16} \end{bmatrix} = \begin{bmatrix} \frac{1}{4} \\ \frac{-1}{16} \end{bmatrix}. \nonumber \]

    Entonces\( a_1= \frac{1}{4}\) y\( a_2= \frac{-1}{16}\). Enchufamos nuestro\( \vec{x}\) en la ecuación y obtenemos eso

    \[\begin{align}\begin{aligned} \overbrace{ \begin{bmatrix} 1 \\ -1 \end{bmatrix} \xi_1' + \begin{bmatrix} 1 \\ 1 \end{bmatrix} \xi_2' }^{\vec{x}'} & = \overbrace{ A \begin{bmatrix} 1 \\ -1 \end{bmatrix} \xi_1 + A \begin{bmatrix} 1 \\ 1 \end{bmatrix} \xi_2 }^{A\vec{x}} + \overbrace{ \begin{bmatrix} 1 \\ -1 \end{bmatrix} g_1 + \begin{bmatrix} 1 \\ 1 \end{bmatrix} g_2 }^{\vec{f}} \\ & = \begin{bmatrix} 1 \\ -1 \end{bmatrix} (-2\xi_1) + \begin{bmatrix} 1 \\ 1 \end{bmatrix} 4\xi_2 + \begin{bmatrix} 1 \\ -1 \end{bmatrix} (e^t - t) + \begin{bmatrix} 1 \\ 1 \end{bmatrix} (e^t + t) . \end{aligned}\end{align} \nonumber \]

    Obtenemos las dos ecuaciones

    \[\begin{align}\begin{aligned} & \xi_1' = -2\xi_1 + e^t -t, & & \text{where } \xi_1(0) = a_1 = \frac{1}{4} , \\ & \xi_2' = 4\xi_2 + e^t + t, & & \text{where } \xi_2(0) = a_2 = \frac{-1}{16} .\end{aligned}\end{align} \nonumber \]

    Resolvemos con factor integrador. El cómputo de la integral se deja como ejercicio al alumno. Tenga en cuenta que necesitaremos integración por partes.

    \[\xi_1 = e^{-2t} \int e^{2t} \left(e^t - t \right) dt + C_1e^{-2t} = \frac{e^t}{3} - \frac{t}{2} +\frac{1}{4} + C_1e^{-2t}. \nonumber \]

    \(C_1\)es la constante de integración. Como\(\xi_1(0) = \frac{1}{4} \), entonces\(\frac{1}{4} = \frac{1}{3} + \frac{1}{4} + C_1 \) y por lo tanto\(C_1 = \frac{-1}{3} \). Del mismo modo

    \[\xi_2 = e^{4t} \int e^{-4t} \left(e^t+t\right) dt + C_2e^{4t} = -\frac{e^t}{3} - \frac{t}{4} - \frac{1}{16} + C_2e^{4t}. \nonumber \]

    Como\(\xi_2(0) = \frac{1}{16} \) tenemos eso\(\frac{-1}{16} = \frac{-1}{3} -\frac{1}{16} +C_2 \) y por lo tanto\(C_2 = \frac{1}{3} \). La solución es

    \[ \vec{x}(t) = \left[ \begin{array}{c} 1 \\ -1 \end{array} \right] \left( \frac{e^t-e^{-2t}}{3}+ \frac{1-2t}{4} \right) + \left[ \begin{array}{c} 1 \\ 1 \end{array} \right] \left( \frac{e^{4t}-e^t}{3}- \frac{4t+1}{16} \right)= \left[ \begin{array}{c} \frac{e^{4t}-e^{-2t}}{3}+ \frac{3-12t}{16} \\ \frac{e^{-2t}+e^{4t}+2e^t}{3}+ \frac{4t-5}{16} \end{array} \right]. \nonumber \]

    Es decir,\( x_1 = \frac{e^{4t}-e^{-2t}}{3}+ \frac{3-12t}{16}\) y\( x_2 =\frac{e^{-2t}+e^{4t}+2e^t}{3}+ \frac{4t-5}{16} \).

    Ejercicio\(\PageIndex{1}\)

    Verifica eso\(x_1\) y\(x_2\) resuelve el problema. Comprobar tanto que satisfacen la ecuación diferencial como que satisfacen las condiciones iniciales.

    Coeficientes indeterminados

    También tenemos el método de coeficientes indeterminados para sistemas. La única diferencia aquí es que tendremos que tomar vectores desconocidos en lugar de solo números. Las mismas advertencias se aplican a los coeficientes indeterminados para los sistemas que para las ecuaciones simples. Este método no siempre funciona. Además, si el lado derecho es complicado, tendremos que resolver muchas variables. Cada elemento de un vector desconocido es un número desconocido. Entonces en sistema de\(3\) ecuaciones si tenemos digamos vectores\(4\) desconocidos (esto no sería infrecuente), entonces ya tenemos números\(12\) desconocidos que necesitamos resolver para. El método puede convertirse en mucho trabajo tedioso. Como este método es esencialmente el mismo que lo es para ecuaciones simples, hagamos solo un ejemplo.

    Ejemplo\(\PageIndex{3}\)

    Vamos\( A=\left[ \begin{array}{cc} -1 & 0 \\ -2 & 1 \end{array} \right].\) Encuentra una solución particular de\( \vec{x}'=A \vec{x} + \vec{f}\) dónde\( \vec{f}=\left[ \begin{array}{c} e^t \\ t \end{array} \right]. \)

    Ten en cuenta que podemos resolver este sistema de una manera más fácil (¿ves cómo?) , pero para los fines del ejemplo, usemos el método del valor propio más los coeficientes indeterminados.

    Los valores propios de\(A\) son\(-1\) y\(1\) y los vectores propios correspondientes son\(\left[ \begin{array}{c} 1 \\ 1 \end{array} \right]\) y\(\left[ \begin{array}{c} 0 \\ 1 \end{array} \right] \) respectivamente. De ahí que nuestra solución complementaria sea

    \[ \vec{x}_c= \alpha_1 \left[ \begin{array}{c} 1 \\ 1 \end{array} \right] e^{-t}+\alpha_2 \left[ \begin{array}{c} 0 \\ 1 \end{array} \right] e^t , \nonumber \]

    para algunas constantes arbitrarias\( \alpha_1\) y\(\alpha_2\).

    Nos gustaría adivinar una solución particular de

    \[ \vec{x}=\vec{a} e^t +\vec{b}t+\vec{c}. \nonumber \]

    Sin embargo, algo de la forma\(\vec{a}e^t \) aparece en la solución complementaria. Porque aún no sabemos si el vector\(\vec{a}\) es un múltiplo de\(\left[ \begin{array}{c} 0 \\ 1 \end{array} \right] \), no sabemos si surge un conflicto. Es posible que no haya conflicto, pero para estar seguros también debemos intentarlo\(\vec{b}t e^t\). Aquí encontramos el quid de la diferencia para los sistemas. Intentamos ambos términos\(\vec{a} e^t\) y\(\vec{b}te^t\) en la solución, no sólo el término\( \vec{b} t e^t\). Por lo tanto, intentamos

    \[ \vec{x}= \vec{a}e^t + \vec{b}te^t+\vec{c}t + \vec{d}. \nonumber \]

    Así tenemos\(8\) incógnitas. Escribimos\(\vec{a}=\left[ \begin{array}{c} a_1 \\ a_2 \end{array} \right],\vec{b}=\left[ \begin{array}{c} b_1 \\ b_2 \end{array} \right], \vec{c}=\left[ \begin{array}{c} c_1 \\ c_2 \end{array} \right],\) y\( \vec{d}=\left[ \begin{array}{c} d_1 \\ d_2 \end{array} \right].\) nos conectamos\(\vec{x}\) a la ecuación. Primero vamos a calcular\( \vec{x}'\).

    \[ \vec{x}'= (\vec{a}+\vec{b})e^t+\vec{b}te^t + \vec{c}= \left[ \begin{array}{c} \vec{a}_1 + \vec{b}_1 \\ \vec{a}_2 + \vec{b}_2 \end{array} \right]e^t+\left[ \begin{array}{c} b_1 \\ b_2 \end{array} \right]te^t + \left[ \begin{array}{c} c_1 \\ c_2 \end{array} \right]. \nonumber \]

    Ahora\(\vec{x}'\) debe ser igual\( A\vec{x} + \vec{f}\), que es

    \[ \begin{align}\begin{aligned} A \vec{x} +\vec{f} &= A \vec{a}e^t + A\vec{b}te^t + A \vec{c}t + A \vec{d} + \vec{f} \\ &= \left[ \begin{array}{c} - \vec{a}_1 \\ -2 \vec{a}_1 +\vec{a}_2 \end{array} \right] e^t + \left[ \begin{array}{c} - \vec{b}_1 \\ -2 \vec{b}_1 +\vec{b}_2 \end{array} \right] te^t + \left[ \begin{array}{c} - \vec{c}_1 \\ -2 \vec{c}_1 +\vec{c}_2 \end{array} \right] t + \left[ \begin{array}{c} - \vec{d}_1 \\ -2 \vec{d}_1 +\vec{d}_2 \end{array} \right] + \left[ \begin{array}{c} 1 \\ 0 \end{array} \right] e^t + \left[ \begin{array}{c} 0 \\ 1 \end{array} \right] t. \\ &=\left[\begin{array}{c}{-a_{1}+1}\\{-2a_{1}+a_{2}}\end{array}\right]e^{t}+\left[\begin{array}{c}{-b_{1}}\\{-2b_{1}+b_{2}}\end{array}\right]te^{t}+\left[\begin{array}{c}{-c_{1}}\\{-2c_{1}+c_{2}+1}\end{array}\right]t+\left[\begin{array}{c}{-d_{1}}\\{-2d_{1}+d_{2}}\end{array}\right]. \end{aligned}\end{align} \nonumber \]

    Identificamos los coeficientes de\( e^t, te^t, t\) y cualquier vector constante en\(\vec{x}'\) and in \(A\vec{x}+\vec{f}\) to find the equations:

    \[\begin{align}\begin{aligned} a_1+b_1 & = -a_1+1 , & 0 & = -c_1 , \\ a_2+b_2 & = -2a_1+a_2 , & 0 & = -2c_1+c_2 + 1 , \\ b_1 & = -b_1 , & c_1 & = -d_1 , \\ b_2 & = -2b_1+b_2 , & c_2 & = -2d_1+d_2 .\end{aligned}\end{align} \nonumber \]

    Podríamos escribir la matriz\(8 \times 9\) aumentada y comenzar la reducción de fila, pero es más fácil simplemente resolver las ecuaciones de manera ad hoc. De inmediato vemos que\(b_1 = 0, c_1=0, d_1=0.\) enchufando estos de nuevo, lo conseguimos\(c_2=-1\) y\( d_2=-1\). Las ecuaciones restantes que nos dicen algo son

    \[\begin{align}\begin{aligned} a_1 &=-a_1 + 1, \\ a_2+b_2 &= -2a_1 + a_2.\end{aligned}\end{align} \nonumber \]

    Entonces\( a_1 = \frac{1}{2}\) y\( b_2 =-1\). Por último,\( a_2\) puede ser arbitrario y aún así satisfacer las ecuaciones. Estamos buscando una sola solución así que presumiblemente la más simple es cuándo\( a_2=0\). Por lo tanto,

    \[ \vec{x}=\vec{a}e^t + \vec{b}te^t+ \vec{c}t + \vec{d}= \left[ \begin{array}{c} \frac{1}{2} \\ 0 \end{array} \right]e^t + \left[ \begin{array}{c} 0 \\ -1 \end{array} \right]te^t+ \left[ \begin{array}{c} 0 \\ -1 \end{array} \right]t+ \left[ \begin{array}{c} 0 \\ -1 \end{array} \right]= \left[ \begin{array}{c} \frac{1}{2}e^t \\ -te^t-t-1 \end{array} \right]. \nonumber \]

    Es decir,\(x_1=\frac{1}{2}e^t, x_2= -te^t-t-1\). Esto lo agregaríamos a la solución complementaria para obtener la solución general del problema. Observe también que ambos\( \vec{a}e^t\) y\(\vec{b}te^t\) eran realmente necesarios.

    Ejercicio\(\PageIndex{2}\)

    Verifica eso\(x_1\) y\(x_2\) resuelve el problema. También intente configurar\(a_2=1\) y vuelva a verificar estas soluciones. ¿Cuál es la diferencia entre las dos soluciones que obtuvimos (una con\(a_{2}=0\) and one with \(a_{2}=1\))?

    Como puede ver, aparte del manejo de conflictos, los coeficientes indeterminados funcionan exactamente igual que para las ecuaciones simples. Sin embargo, los cálculos pueden salirse de control bastante rápido para los sistemas. La ecuación que habíamos hecho era muy sencilla.

    Coeficiente Variable de Primer Orden

    Variación de parámetros

    Así como para una sola ecuación, existe el método de variación de parámetros. De hecho, para los sistemas de coeficientes constantes, esto es esencialmente lo mismo que el método de factor integrador que discutimos anteriormente. Sin embargo, este método funcionará para cualquier sistema lineal, aunque no sea coeficiente constante, siempre que de alguna manera podamos resolver el problema homogéneo asociado.

    Supongamos que tenemos la ecuación

    \[\label{eq:43} \vec{x}'= A(t) \vec{x}+\vec{f}(t). \]

    Además, supongamos que hemos resuelto la ecuación homogénea asociada\( \vec{x}'= A(t) \vec{x}\) y hemos encontrado la solución matriz fundamental\( X(t) \). La solución general a la ecuación homogénea asociada es\( X(t) \vec{c}\) para un vector constante\( \vec{c}\). Al igual que para la variación de parámetros para una sola ecuación, intentamos la solución a la ecuación no homogénea de la forma

    \[ \vec{x}_p = X(t) \vec{u}(t), \nonumber \]

    donde\( \vec{u}(t)\) es una función de valor vectorial en lugar de una constante. Ahora sustituimos en\(\eqref{eq:43}\) para obtener

    \[{\vec{x}_p}'(t) = \underbrace{X'(t)\, \vec{u}(t) + X(t)\, {\vec{u}}'(t)} _{{\vec{x}_p}'(t)} = \underbrace{A(t)\, X(t)\, \vec{u}(t)} _{A(t) \vec{x}_p (t)} + \vec{f}(t) . \nonumber \]Pero\(X(t)\) es una solución matriz fundamental al problema homogéneo. Entonces\(X'(t) = A(t)X(t)\), y\[\cancel{X'(t)\, \vec{u}(t)} + X(t)\, {\vec{u}}'(t) = \cancel{X'(t)\, \vec{u}(t)} + \vec{f}(t) . \nonumber \]

    De ahí\( X(t) \vec{u}'(t) = \vec{f}(t)\). Si calculamos\( [ X(t)]^{-1}\), entonces\( \vec{u}'(t) =[ X(t)]^{-1} \vec{f}(t) \). Nos integramos para obtener\( \vec{u}\) y tenemos la solución particular\( \vec{x}_p = X(t) \vec{u}(t)\). Escribamos esto como una fórmula

    \[ \vec{x}_p = X(t) \int [ X(t)]^{-1} \vec{f}(t)dt. \nonumber \]

    Tenga en cuenta que si\(A\) es constante y dejamos\(X(t) = e^{tA}\), entonces\( [ X(t)]^{-1} =e^{-tA}\) y de ahí obtenemos una solución\( \vec{x}_p = e^{tA} \int e^{-tA} \vec{f}(t)dt\), que es precisamente lo que obtuvimos usando el método del factor integrador.

    Ejemplo\(\PageIndex{4}\)

    Encuentre una solución particular para

    \[ \label{eq:48} \vec{x}' =\frac{1}{t^2 + 1} \left[ \begin{array}{cc} t & -1 \\ 1 & t \end{array} \right] \vec{x} + \left[ \begin{array}{c} t \\ 1 \end{array} \right] (t^2+1). \]

    Aquí definitivamente no\( A= \frac{1}{t^2 + 1} \left[ \begin{array}{cc} t & -1 \\ 1 & t \end{array} \right]\) es constante. Quizás por una suposición afortunada, encontramos que eso\( X= \left[ \begin{array}{cc} t & -1 \\ 1 & t \end{array} \right]\) resuelve\( X'(t)=A(t)X(t)\). Una vez que conocemos la solución complementaria podemos encontrar fácilmente una solución a\(\eqref{eq:48}\). Primero encontramos

    \[ [X(t)]^{-1}= \frac{1}{t^2 + 1} \left[ \begin{array}{cc} 1 & t \\ -t & 1 \end{array} \right]. \nonumber \]

    A continuación sabemos que una solución particular\(\eqref{eq:48}\) es

    \[\begin{align}\begin{aligned} \vec{x}_p &= X(t) \int [X(t)]^{-1} \vec{f}(t)dt \\ &= \left[ \begin{array}{cc} 1 & -t \\ t & 1 \end{array} \right] \int \frac{1}{t^2 + 1} \left[ \begin{array}{cc} 1 & t \\ -t & 1 \end{array} \right] \left[ \begin{array}{c} t \\ 1 \end{array} \right] (t^2 +1)dt \\ &= \left[ \begin{array}{cc} 1 & -t \\ t & 1 \end{array} \right] \int \left[ \begin{array}{c} 2t \\ -t^2 +1 \end{array} \right]dt \\ &= \left[ \begin{array}{cc} 1 & -t \\ t & 1 \end{array} \right] \left[ \begin{array}{c} t^2 \\ - \frac{1}{3}t^3+ t \end{array} \right] \\ &= \left[ \begin{array}{c} \frac{1}{3}t^4 \\ \frac{2}{3}t^3+ t \end{array} \right]. \end{aligned}\end{align} \nonumber \]

    Añadiendo la solución complementaria tenemos que la solución general a\(\eqref{eq:48}\).

    \[ \vec{x}= \left[ \begin{array}{cc} 1 & -t \\ t & 1 \end{array} \right] \left[ \begin{array}{c} c_1\\ c_2 \end{array} \right] + \left[ \begin{array}{c} \frac{1}{3}t^4 \\ \frac{2}{3}t^3+ t \end{array} \right]= \left[ \begin{array}{c} c_1-c_2t+\frac{1}{3}t^4 \\ c_2+(c_1+1)t+\frac{2}{3}t^3+ \end{array} \right]. \nonumber \]

    Ejercicio\(\PageIndex{3}\):

    Comprueba eso\( x_1 = \frac{1}{3}t^4\) y\( x_2 = \frac{2}{3}t^3+ t \) realmente resuelve\(\eqref{eq:48}\).

    En la variación de parámetros, al igual que en el método del factor integrador podemos obtener la solución general sumando constantes de integración. Es decir, añadiremos\( X(t) \vec{c}\) para un vector de constantes arbitrarias. Pero esa es precisamente la solución complementaria.

    Coeficientes constantes de segundo orden

    Coeficientes indeterminados

    Ya hemos visto un ejemplo sencillo del método de coeficientes indeterminados para sistemas de segundo orden en la Sección 3.6. Este método es esencialmente el mismo que los coeficientes indeterminados para los sistemas de primer orden. Hay algunas simplificaciones que podemos hacer, como hicimos en la Sección 3.6. Deja que la ecuación sea

    \[ \vec{x}'' = A \vec{x} + \vec{f}(t), \nonumber \]

    donde\(A\) es una matriz constante. Si\( \vec{F}(t)\) es de la forma\( \vec{F}_0 \cos(\omega t)\), entonces como dos derivados del coseno es de nuevo coseno podemos intentar una solución de la forma

    \[ \vec{x}_p = \vec{c} \cos(\omega t), \nonumber \]

    y no necesitamos introducir senos.

    Si el\( \vec{F}\) es una suma de cosenos, tenga en cuenta que todavía tenemos el principio de superposición. Si\( \vec{F}(t)= \vec{F}_0 \cos(\omega_0 t)+\vec{F}_1 \cos(\omega_1 t)\), entonces intentaríamos\( \vec{a} \cos(\omega_0 t)\) por el problema\( \vec{x}''=A \vec{x} + \vec{F}_0 \cos(\omega_0 t)\), y lo intentaríamos\( \vec{b} \cos(\omega_1 t)\) por el problema\( \vec{x}''=A \vec{x} + \vec{F}_0 \cos(\omega_1 t)\). Entonces sumamos las soluciones.

    No obstante, si hay duplicación con la solución complementaria, o la ecuación es de la forma\( \vec{x}'' = A \vec{x}' + B \vec{x} +\vec{F}(t)\), entonces tenemos que hacer lo mismo que hacemos para los sistemas de primer orden.

    Nunca te equivocarás al poner en más términos de los necesarios en tu conjetura. Encontrarás que los coeficientes extra resultarán ser cero. Pero es útil para ahorrar algo de tiempo y esfuerzo.

    Descomposición de vectores propios

    Si tenemos el sistema

    \[ \vec{x}'' = A \vec{x} + \vec{F}(t,) \nonumber \]

    podemos hacer descomposición de vectores propios, al igual que para los sistemas de primer orden.

    Dejar\( \lambda_1, \ldots, \lambda_n\) ser los valores propios y\( \vec{v}_1, \ldots, \vec{v}_n\) ser vectores propios. De nuevo formar la matriz\( E=[\vec{v}_1 \cdots \vec{v}_n]\). Escribimos

    \[ \vec{x}(t) = \vec{v}_1 \xi_1(t)+\vec{v}_2 \xi_2(t)+ \cdots+\vec{v}_n \xi_n(t). \nonumber \]

    Nos descomponemos\( \vec{F}\) en términos de los vectores propios

    \[ \vec{f}(t)= \vec{v}_1 g_1(t) + \vec{v}_2 g_2(t) + \cdots+ \vec{v}_n g_n(t). \nonumber \]

    Y otra vez\( \vec{g} = E^{-1} \vec{F}\).

    Ahora enchufamos y hacemos lo mismo que antes obtenemos

    \[\begin{align}\begin{aligned}\overset{\vec{x}''}{\overbrace{\vec{v}_1 \xi_1''+\vec{v}_2 \xi_2''+ \cdots \vec{v}_n \xi_n''}}&=\overset{A\vec{x}}{\overbrace{A(\vec{v}_1 \xi_1+\vec{v}_2 \xi_2+ \cdots \vec{v}_n \xi_n)}}+\overset{\vec{f}}{\overbrace{\vec{v}_1 g_1+\vec{v}_2 g_2+ \cdots + \vec{v}_n g_n}} \\ &= A\vec{v}_1 \xi_1+A\vec{v}_2 \xi_2+ \cdots A\vec{v}_n \xi_n + \vec{v}_1 g_1+\vec{v}_2 g_2+ \cdots + \vec{v}_n g_n \\ &= \vec{v}_1 \lambda_1 \xi_1+\vec{v}_2 \lambda_2 \xi_2+ \cdots \vec{v}_n \lambda_n \xi_n + \vec{v}_1 g_1+\vec{v}_2 g_2+ \cdots + \vec{v}_n g_n \\ &= \vec{v}_1( \lambda_1 \xi_1 + g_1)+\vec{v}_2( \lambda_2 \xi_2 + g_2) + \cdots +\vec{v}_n( \lambda_n \xi_n + g_n). \end{aligned}\end{align} \nonumber \]

    Identificamos los coeficientes de los vectores propios para obtener las ecuaciones

    \[\begin{align}\begin{aligned} \xi_1''&= \lambda_1 \xi_1 + g_1, \\ \xi_2''&= \lambda_2 \xi_2 + g_2, \\ &\vdots \\ \xi_n''&= \lambda_n \xi_n + g_n. \end{aligned}\end{align} \nonumber \]

    Cada una de estas ecuaciones es independiente de las demás. Resolvemos cada ecuación utilizando los métodos del Capítulo 2. Escribimos\( \vec{x}(t)= \vec{v}_1 \xi_1(t) + \cdots + \vec{v}_n \xi_n(t)\), y terminamos; tenemos una solución particular. Si hemos encontrado la solución general para\( \xi_1\) through \( \xi_2\), entonces nuevamente\( \vec{x}(t)= \vec{v}_1 \xi_1(t) + \cdots + \vec{v}_n \xi_n(t)\) es la solución general (y no solo una solución particular).

    Ejemplo\(\PageIndex{5}\)

    Hagamos el ejemplo de la Sección 3.6 usando este método. La ecuación es

    \[ \vec{x}''= \left[ \begin{array}{cc} -3 & 1 \\ 2 & -2 \end{array} \right] \vec{x}+\left[ \begin{array}{c} 0 \\ 2 \end{array} \right] \cos(3t). \nonumber \]

    Los valores propios fueron\(-1\) y\(-4\), con vectores propios\( \left[ \begin{array}{c} 1 \\ 2 \end{array} \right]\) y\( \left[ \begin{array}{c} 1 \\ -1 \end{array} \right]\). Por lo tanto\( E = \left[ \begin{array}{cc} 1&1 \\ 2&-1 \end{array} \right]\) y\( E^{-1} = \frac{1}{3}\left[ \begin{array}{cc} 1&1 \\ 2&-1 \end{array} \right]\). Por lo tanto,

    \[ \left[ \begin{array}{c} g_1 \\ g_2 \end{array} \right] = E^{-1} \vec{F}(t) = \frac{1}{3}\left[ \begin{array}{cc} 1&1 \\ 2&-1 \end{array} \right] \left[ \begin{array}{c} 0 \\ 2 \cos(3t) \end{array} \right] = \left[ \begin{array}{c} \frac{2}{3} \cos(3t) \\ \frac{-2}{3} \cos(3t) \end{array} \right]. \nonumber \]

    Entonces después de toda la canción y baile de enchufar, las ecuaciones que obtenemos son

    \[ \xi_1'' = - \xi_1 +\frac{2}{3} \cos(3t), \quad \xi_2'' = -4 \xi_2 - \frac{2}{3} \cos(3t). \nonumber \]

    Para cada ecuación utilizamos el método de coeficientes indeterminados. Intentamos\( C_1 \cos(3t)\) for the first equation and \( C_2 \cos(3t)\) para la segunda ecuación. Nos enchufamos para obtener

    \[\begin{align}\begin{aligned} -9C_1 \cos(3t) &= -C_1 \cos(3t) + \frac{2}{3} \cos(3t), \\ -9C_2 \cos(3t) &= -4C_2 \cos(3t) - \frac{2}{3} \cos(3t). \end{aligned}\end{align} \nonumber \]

    Resolvemos cada una de estas ecuaciones por separado. Obtenemos\( -9C_1=-C_1 + \frac{2}{3}\) and \( -9C_2=-4C_2 - \frac{2}{3}\). Y de ahí\( C_1=\frac{-1}{12}\) and \( C_2=\frac{2}{12}\). Así que nuestra solución particular es

    \[ \vec{x}= \left[ \begin{array}{c} 1 \\ 2 \end{array} \right] \left( \frac{-1}{12} \cos(3t)\right) + \left[ \begin{array}{c} 1 \\ -1 \end{array} \right] \left( \frac{2}{15} \cos(3t)\right) = \left[ \begin{array}{c} \frac{1}{20} \\ \frac{-3}{10} \end{array} \right] \cos(3t). \nonumber \]

    Esta solución coincide con lo que obtuvimos anteriormente en la Sección 3.6.


    This page titled 3.9: Sistemas no homogéneos is shared under a CC BY-SA 4.0 license and was authored, remixed, and/or curated by Jiří Lebl via source content that was edited to the style and standards of the LibreTexts platform; a detailed edit history is available upon request.