3.3: Sistemas lineales de ODEs
- Page ID
- 115419
\( \newcommand{\vecs}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} } \)
\( \newcommand{\vecd}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash {#1}}} \)
\( \newcommand{\id}{\mathrm{id}}\) \( \newcommand{\Span}{\mathrm{span}}\)
( \newcommand{\kernel}{\mathrm{null}\,}\) \( \newcommand{\range}{\mathrm{range}\,}\)
\( \newcommand{\RealPart}{\mathrm{Re}}\) \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\)
\( \newcommand{\Argument}{\mathrm{Arg}}\) \( \newcommand{\norm}[1]{\| #1 \|}\)
\( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\)
\( \newcommand{\Span}{\mathrm{span}}\)
\( \newcommand{\id}{\mathrm{id}}\)
\( \newcommand{\Span}{\mathrm{span}}\)
\( \newcommand{\kernel}{\mathrm{null}\,}\)
\( \newcommand{\range}{\mathrm{range}\,}\)
\( \newcommand{\RealPart}{\mathrm{Re}}\)
\( \newcommand{\ImaginaryPart}{\mathrm{Im}}\)
\( \newcommand{\Argument}{\mathrm{Arg}}\)
\( \newcommand{\norm}[1]{\| #1 \|}\)
\( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\)
\( \newcommand{\Span}{\mathrm{span}}\) \( \newcommand{\AA}{\unicode[.8,0]{x212B}}\)
\( \newcommand{\vectorA}[1]{\vec{#1}} % arrow\)
\( \newcommand{\vectorAt}[1]{\vec{\text{#1}}} % arrow\)
\( \newcommand{\vectorB}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} } \)
\( \newcommand{\vectorC}[1]{\textbf{#1}} \)
\( \newcommand{\vectorD}[1]{\overrightarrow{#1}} \)
\( \newcommand{\vectorDt}[1]{\overrightarrow{\text{#1}}} \)
\( \newcommand{\vectE}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash{\mathbf {#1}}}} \)
\( \newcommand{\vecs}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} } \)
\( \newcommand{\vecd}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash {#1}}} \)
\(\newcommand{\avec}{\mathbf a}\) \(\newcommand{\bvec}{\mathbf b}\) \(\newcommand{\cvec}{\mathbf c}\) \(\newcommand{\dvec}{\mathbf d}\) \(\newcommand{\dtil}{\widetilde{\mathbf d}}\) \(\newcommand{\evec}{\mathbf e}\) \(\newcommand{\fvec}{\mathbf f}\) \(\newcommand{\nvec}{\mathbf n}\) \(\newcommand{\pvec}{\mathbf p}\) \(\newcommand{\qvec}{\mathbf q}\) \(\newcommand{\svec}{\mathbf s}\) \(\newcommand{\tvec}{\mathbf t}\) \(\newcommand{\uvec}{\mathbf u}\) \(\newcommand{\vvec}{\mathbf v}\) \(\newcommand{\wvec}{\mathbf w}\) \(\newcommand{\xvec}{\mathbf x}\) \(\newcommand{\yvec}{\mathbf y}\) \(\newcommand{\zvec}{\mathbf z}\) \(\newcommand{\rvec}{\mathbf r}\) \(\newcommand{\mvec}{\mathbf m}\) \(\newcommand{\zerovec}{\mathbf 0}\) \(\newcommand{\onevec}{\mathbf 1}\) \(\newcommand{\real}{\mathbb R}\) \(\newcommand{\twovec}[2]{\left[\begin{array}{r}#1 \\ #2 \end{array}\right]}\) \(\newcommand{\ctwovec}[2]{\left[\begin{array}{c}#1 \\ #2 \end{array}\right]}\) \(\newcommand{\threevec}[3]{\left[\begin{array}{r}#1 \\ #2 \\ #3 \end{array}\right]}\) \(\newcommand{\cthreevec}[3]{\left[\begin{array}{c}#1 \\ #2 \\ #3 \end{array}\right]}\) \(\newcommand{\fourvec}[4]{\left[\begin{array}{r}#1 \\ #2 \\ #3 \\ #4 \end{array}\right]}\) \(\newcommand{\cfourvec}[4]{\left[\begin{array}{c}#1 \\ #2 \\ #3 \\ #4 \end{array}\right]}\) \(\newcommand{\fivevec}[5]{\left[\begin{array}{r}#1 \\ #2 \\ #3 \\ #4 \\ #5 \\ \end{array}\right]}\) \(\newcommand{\cfivevec}[5]{\left[\begin{array}{c}#1 \\ #2 \\ #3 \\ #4 \\ #5 \\ \end{array}\right]}\) \(\newcommand{\mattwo}[4]{\left[\begin{array}{rr}#1 \amp #2 \\ #3 \amp #4 \\ \end{array}\right]}\) \(\newcommand{\laspan}[1]{\text{Span}\{#1\}}\) \(\newcommand{\bcal}{\cal B}\) \(\newcommand{\ccal}{\cal C}\) \(\newcommand{\scal}{\cal S}\) \(\newcommand{\wcal}{\cal W}\) \(\newcommand{\ecal}{\cal E}\) \(\newcommand{\coords}[2]{\left\{#1\right\}_{#2}}\) \(\newcommand{\gray}[1]{\color{gray}{#1}}\) \(\newcommand{\lgray}[1]{\color{lightgray}{#1}}\) \(\newcommand{\rank}{\operatorname{rank}}\) \(\newcommand{\row}{\text{Row}}\) \(\newcommand{\col}{\text{Col}}\) \(\renewcommand{\row}{\text{Row}}\) \(\newcommand{\nul}{\text{Nul}}\) \(\newcommand{\var}{\text{Var}}\) \(\newcommand{\corr}{\text{corr}}\) \(\newcommand{\len}[1]{\left|#1\right|}\) \(\newcommand{\bbar}{\overline{\bvec}}\) \(\newcommand{\bhat}{\widehat{\bvec}}\) \(\newcommand{\bperp}{\bvec^\perp}\) \(\newcommand{\xhat}{\widehat{\xvec}}\) \(\newcommand{\vhat}{\widehat{\vvec}}\) \(\newcommand{\uhat}{\widehat{\uvec}}\) \(\newcommand{\what}{\widehat{\wvec}}\) \(\newcommand{\Sighat}{\widehat{\Sigma}}\) \(\newcommand{\lt}{<}\) \(\newcommand{\gt}{>}\) \(\newcommand{\amp}{&}\) \(\definecolor{fillinmathshade}{gray}{0.9}\)Primero hablemos de funciones valoradas matriciales o vectoriales. Tal función es solo una matriz cuyas entradas dependen de alguna variable. Si\(t\) es la variable independiente, escribimos una función de valor vectorial\( \vec {x} (t) \) como
\[ \vec {x} (t) = \begin {bmatrix} x_1(t) \\ x_2 (t) \\ \vdots \\ x_n (t) \end {bmatrix} \nonumber \]
Del mismo modo una función valorada por matriz\( A(t) \) es
\[ A (t) = \begin {bmatrix} a_{11} (t) & a_{12} (t) & \cdots & a_{1n} (t) \\ a_{21} (t) & a_ {22} (t) & \cdots & a_{2n} (t) \\ \vdots & \vdots & \ddots & \vdots \\ a_{n1}(t) & a_{n2}(t) & \cdots & a_{nn}(t) \end {bmatrix} \nonumber \]
Podemos hablar del derivado\(A'(t)\) o\( \frac {dA}{dt} \). Esta es solo la función valorada de matriz cuya\(ij^{th}\) entrada es\(a'_{ij} (t) \).
Las reglas de diferenciación de funciones valoradas por matriz son similares a las reglas para funciones normales. Dejar\(A(t)\) y\(B(t)\) ser funciones valoradas por matriz. Dejar\(c\) ser un escalar y dejar\(C\) ser una matriz constante. Entonces
\[\begin{align}\begin{aligned} {(A(t) + B(t))}' &= A' (t) + B' (t) \\ (A(t)B(t))' &= A'(t)B(t) + A(t)B'(t) \\ (cA(t))' &= cA' (t) \\ (CA(t))' &= CA'(t) \\ (A(t)C)' &= A' (t)C \end{aligned}\end{align} \nonumber \]
Anote el orden de la multiplicación en las dos últimas expresiones.
Un sistema lineal de primer orden de ODEs es un sistema que se puede escribir como la ecuación vectorial
\[ \vec {x} (t) = P(t) \vec {x} (t) + \vec {f} (t) \nonumber \]
donde\( P(t) \) es una función valorada por matriz, y\( \vec {x} (t) \) y\( \vec {f} (t) \) son funciones de valor vectorial. A menudo suprimiremos la dependencia\(t\) y solo escribiremos\( \vec {x} = P \vec {x} + \vec {f} \). Una solución del sistema es una función de valor vectorial que\( \vec {x} \) satisface la ecuación vectorial.
Por ejemplo, las ecuaciones
\[\begin{align}\begin{aligned} x'_1 &= 2tx_1 + e^tx_2 + t^2 \\ x'_2 &= \frac {x_1}{t} - x_2 + e^t \end{aligned}\end{align} \nonumber \]
se puede escribir como
\[ \vec {x'} = \begin {bmatrix} 2t & e^t \\ \frac {1}{t} & -1 \end {bmatrix} \vec {x'} + \begin {bmatrix} t^2 \\ e^t \end {bmatrix} \nonumber \]
Nos concentraremos principalmente en ecuaciones que no son solo lineales, sino que de hecho son ecuaciones de coeficientes constantes. Es decir, la matriz\( P\) será constante; de ella no va a depender\(t\).
Cuando\( \vec {f} = \vec {0} \) (el vector cero), entonces decimos que el sistema es homogéneo. Para los sistemas lineales homogéneos tenemos el principio de superposición, al igual que para las ecuaciones homogéneas simples.
Superposición
Dejar\( \vec {x'} = P \vec {x'} \) ser un sistema lineal homogéneo de ODEs. Supongamos que\( \vec {x}_1, \dots, \vec {x}_n \) son\(n\) soluciones de la ecuación, entonces
\[ \vec {x} = c_1 \vec {x}_1 + c_2 \vec {x}_2 + \dots + c_n \vec {x}_n \nonumber \]
también es una solución. Además, si se trata de un sistema de\(n\) ecuaciones\( (P \rm{~is~} n \times n) \), y\( \vec {x}_1, \dots , \vec {x}_n \) son linealmente independientes, entonces cada solución puede escribirse como\(\eqref{eq:12}\).
La independencia lineal para las funciones con valores vectoriales es la misma idea que para las funciones normales. Las funciones de valor vectorial\( \vec {x}_1, \vec {x}_2, \dots, \vec {x}_n \) son linealmente independientes cuando
\[ \label{eq:12}c_1 \vec {x}_1 + c_2 \vec {x}_2 + \dots + c_n \vec {x}_n = \vec {0} \]
tiene sólo la solución\( c_1 = c_2 = \dots = c_n = 0 \), donde la ecuación debe sostenerse para todos\(t\).
\( \vec {x}_1 = \begin {bmatrix} t^2 \\ t \end {bmatrix}, \vec {x}_2 = \begin {bmatrix} 0 \\ {1 + t } \end {bmatrix}, \vec {x}_3 = \begin {bmatrix} -t^2 \\ 1 \end {bmatrix} \)son linealmente depdendent porque\( \vec {x}_1 + \vec {x}_3 = \vec {x}_2\), y esto sostiene para todos\(t\). Entonces\(c_1 = 1, c_2 = -1\) y\(c_3 = 1\) arriba va a funcionar.
Por otro lado si cambiamos el ejemplo apenas ligeramente\( \vec {x}_1 = \begin {bmatrix} t^2 \\ t \end {bmatrix}, \vec {x}_2 = \begin {bmatrix} 0 \\ t \end {bmatrix}, \vec {x}_3 = \begin {bmatrix} -t^2 \\ 1 \end {bmatrix} \), entonces las funciones son linealmente independientes. Primero escribe\( c_1 \vec {x}_1 + c_2 \vec {x}_2 + c_3 \vec {x}_3 = \vec {0} \) y nota que tiene que aguantar para todos\(t\). Lo conseguimos
\( c_1 \vec {x}_1 + c_2 \vec {x}_2 + c_3 \vec {x}_3 = \begin {bmatrix} c_1t^2 - c_3t^3 \\ c_1t + c_2t + c_3 \end {bmatrix} = \begin {bmatrix} 0 \\ 0 \end {bmatrix} \)
En otras palabras\( c_1t^2 - c_3t^3 = 0 \) y\(c_1t + c_2t + c_3 = 0 \). Si establecemos\(t = 0\), entonces la segunda ecuación se convierte\(c_3 = 0 \). Sin embargo, la primera ecuación se convierte\(c_1t^2 = 0\) para todos\(t\) y así\(c_1 = 0 \). Así la segunda ecuación es justa\(c_2t = 0\), lo que significa\(c_2 = 0\). Así\(c_1 = c_2 = c_3 = 0 \) es la única solución y\( \vec {x}_1, \vec {x}_2 \) y\(\vec {x}_3\) son linealmente independientes.
La combinación lineal siempre\( c_1 \vec {x}_1 + c_2 \vec {x}_2 + \dots + c_n \vec {x}_n \) podría escribirse como
\[ X (t) \vec {c} \nonumber \]
donde\( X (t) \) está la matriz con columnas\(\vec {x}_1, \dots , \vec {x}_n \), y\( \vec {c} \) es el vector de columna con entradas\( c_1, \dots , c_n \). La función de valor de matriz\( X (t) \) se llama la matriz fundamental, o la solución de matriz fundamental.
Para resolver sistemas lineales de primer orden no homogéneos, utilizamos la misma técnica que aplicamos para resolver ecuaciones lineales simples no homogéneas.
Dejar\( \vec {x}' = P \vec {x} + \vec {f} \) ser un sistema lineal de ODEs. Supongamos que\( \vec {x}_p\) es una solución particular. Entonces cada solución se puede escribir como
\[ \vec {x} = \vec {x}_c + \vec {x}_p \nonumber \]
donde\( \vec {x}_c \) es una solución a la ecuación homogénea asociada\( (\vec {x} = P \vec {x}) \).
Por lo que el procedimiento será el mismo que para las ecuaciones simples. Encontramos una solución particular a la ecuación no homogénea, luego encontramos la solución general a la ecuación homogénea asociada, y finalmente sumamos las dos juntas.
Muy bien, supongamos que ha encontrado la solución general\( \vec {x}' = P \vec {x} + \vec {f} \). Ahora se le da una condición inicial de la forma\[ \vec {x} {t_0} = \vec {b} \nonumber \] para algún vector constante\( \vec {b} \). Supongamos que\( X (t) \) es la solución matriz fundamental de la ecuación homogénea asociada (es decir, columnas de\( X (t) \) son soluciones). La solución general se puede escribir como
\[ \vec {x} (t) = X (t) \vec {c} + \vec {x}_p (t) \nonumber \]
Estamos buscando un vector\(\vec {c} \) tal que
\[ \vec {b} = \vec {x} (t_0) = X (t_0) \vec {c} + \vec {x}_p (t_0) \nonumber \]
En otras palabras, estamos resolviendo para\( \vec {c} \) el sistema no homogéneo de ecuaciones lineales
\[ X(t_0) \vec {c} = \vec {b} - \vec {x}_p (t_0) \nonumber \]
En la Sección 3.1 resolvimos el sistema
\[\begin{align}\begin{aligned} x_1' &= x_1 \\ x'_2 &= x_1 - x_2 \end{aligned}\end{align} \nonumber \]
con condiciones iniciales\( x_1(0) = 1, x_2 (0) = 2\).
Solución
Este es un sistema homogéneo, entonces\( \vec {f} (t) = \vec {0} \). Escribimos el sistema y las condiciones iniciales como
\[ \vec {x} ' = \begin {bmatrix} 1 & 0 \\ 1 & -1 \end {bmatrix} \vec{x}, \quad \vec{x}(0) = \begin{bmatrix} 1 \\ 2 \end{bmatrix} \nonumber \]
Encontramos que la solución general era\( x_1= C_1 e^t \) y\(x_2=\frac{c_1}{2} e^t + c_2 e^{-t} \). Dejando\( C_1=1 \) y\(C_2=0\), obtenemos la solución\( \begin{bmatrix} e^t \\ \frac{1}{2}e^t \end{bmatrix} \). Dejando\( C_1=0 \) y\(C_2=1\), obtenemos\( \begin{bmatrix} 0 \\ e^{-t} \end{bmatrix} \). Estas dos soluciones son linealmente independientes, como se puede ver configurando\( t=0 \), y señalando que los vectores constantes resultantes son linealmente independientes. En la notación matricial, la solución matricial fundamental es, por lo tanto,
\[ X(t) = \begin{bmatrix} e^t & 0 \\ \frac{1}{2}e^t & e^{-t} \end{bmatrix} \nonumber \]
De ahí que para resolver el problema inicial resolvamos la ecuación
\[ X(0)\vec(c) = \vec{b} \nonumber \]
o en otras palabras,
\[ \begin{bmatrix} 1 & 0 \\ \frac{1}{2} & 1 \end{bmatrix} \vec{c} =\begin{bmatrix} 1 \\ 2 \end{bmatrix} \nonumber \]
\[ \vec{x}(t) = X(t) \vec{c} = \begin{bmatrix} e^t & 0 \\ \frac{1}{2}e^{t} & e^{-t} \end{bmatrix} \begin{bmatrix} 1 \\ \frac{3}{2} \end{bmatrix} = \begin{bmatrix} e^t \\ \frac{1}{2} e^t + \frac{3}{2} e^{-t} \end{bmatrix} \nonumber \]
Esto concuerda con nuestra solución anterior de la Sección 3.1.