Saltar al contenido principal
LibreTexts Español

10.6: Sistemas Homogéneos de Coeficiente Constante III

  • Page ID
    114670
  • \( \newcommand{\vecs}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} } \)

    \( \newcommand{\vecd}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash {#1}}} \)

    \( \newcommand{\id}{\mathrm{id}}\) \( \newcommand{\Span}{\mathrm{span}}\)

    ( \newcommand{\kernel}{\mathrm{null}\,}\) \( \newcommand{\range}{\mathrm{range}\,}\)

    \( \newcommand{\RealPart}{\mathrm{Re}}\) \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\)

    \( \newcommand{\Argument}{\mathrm{Arg}}\) \( \newcommand{\norm}[1]{\| #1 \|}\)

    \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\)

    \( \newcommand{\Span}{\mathrm{span}}\)

    \( \newcommand{\id}{\mathrm{id}}\)

    \( \newcommand{\Span}{\mathrm{span}}\)

    \( \newcommand{\kernel}{\mathrm{null}\,}\)

    \( \newcommand{\range}{\mathrm{range}\,}\)

    \( \newcommand{\RealPart}{\mathrm{Re}}\)

    \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\)

    \( \newcommand{\Argument}{\mathrm{Arg}}\)

    \( \newcommand{\norm}[1]{\| #1 \|}\)

    \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\)

    \( \newcommand{\Span}{\mathrm{span}}\) \( \newcommand{\AA}{\unicode[.8,0]{x212B}}\)

    \( \newcommand{\vectorA}[1]{\vec{#1}}      % arrow\)

    \( \newcommand{\vectorAt}[1]{\vec{\text{#1}}}      % arrow\)

    \( \newcommand{\vectorB}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} } \)

    \( \newcommand{\vectorC}[1]{\textbf{#1}} \)

    \( \newcommand{\vectorD}[1]{\overrightarrow{#1}} \)

    \( \newcommand{\vectorDt}[1]{\overrightarrow{\text{#1}}} \)

    \( \newcommand{\vectE}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash{\mathbf {#1}}}} \)

    \( \newcommand{\vecs}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} } \)

    \( \newcommand{\vecd}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash {#1}}} \)

    \(\newcommand{\avec}{\mathbf a}\) \(\newcommand{\bvec}{\mathbf b}\) \(\newcommand{\cvec}{\mathbf c}\) \(\newcommand{\dvec}{\mathbf d}\) \(\newcommand{\dtil}{\widetilde{\mathbf d}}\) \(\newcommand{\evec}{\mathbf e}\) \(\newcommand{\fvec}{\mathbf f}\) \(\newcommand{\nvec}{\mathbf n}\) \(\newcommand{\pvec}{\mathbf p}\) \(\newcommand{\qvec}{\mathbf q}\) \(\newcommand{\svec}{\mathbf s}\) \(\newcommand{\tvec}{\mathbf t}\) \(\newcommand{\uvec}{\mathbf u}\) \(\newcommand{\vvec}{\mathbf v}\) \(\newcommand{\wvec}{\mathbf w}\) \(\newcommand{\xvec}{\mathbf x}\) \(\newcommand{\yvec}{\mathbf y}\) \(\newcommand{\zvec}{\mathbf z}\) \(\newcommand{\rvec}{\mathbf r}\) \(\newcommand{\mvec}{\mathbf m}\) \(\newcommand{\zerovec}{\mathbf 0}\) \(\newcommand{\onevec}{\mathbf 1}\) \(\newcommand{\real}{\mathbb R}\) \(\newcommand{\twovec}[2]{\left[\begin{array}{r}#1 \\ #2 \end{array}\right]}\) \(\newcommand{\ctwovec}[2]{\left[\begin{array}{c}#1 \\ #2 \end{array}\right]}\) \(\newcommand{\threevec}[3]{\left[\begin{array}{r}#1 \\ #2 \\ #3 \end{array}\right]}\) \(\newcommand{\cthreevec}[3]{\left[\begin{array}{c}#1 \\ #2 \\ #3 \end{array}\right]}\) \(\newcommand{\fourvec}[4]{\left[\begin{array}{r}#1 \\ #2 \\ #3 \\ #4 \end{array}\right]}\) \(\newcommand{\cfourvec}[4]{\left[\begin{array}{c}#1 \\ #2 \\ #3 \\ #4 \end{array}\right]}\) \(\newcommand{\fivevec}[5]{\left[\begin{array}{r}#1 \\ #2 \\ #3 \\ #4 \\ #5 \\ \end{array}\right]}\) \(\newcommand{\cfivevec}[5]{\left[\begin{array}{c}#1 \\ #2 \\ #3 \\ #4 \\ #5 \\ \end{array}\right]}\) \(\newcommand{\mattwo}[4]{\left[\begin{array}{rr}#1 \amp #2 \\ #3 \amp #4 \\ \end{array}\right]}\) \(\newcommand{\laspan}[1]{\text{Span}\{#1\}}\) \(\newcommand{\bcal}{\cal B}\) \(\newcommand{\ccal}{\cal C}\) \(\newcommand{\scal}{\cal S}\) \(\newcommand{\wcal}{\cal W}\) \(\newcommand{\ecal}{\cal E}\) \(\newcommand{\coords}[2]{\left\{#1\right\}_{#2}}\) \(\newcommand{\gray}[1]{\color{gray}{#1}}\) \(\newcommand{\lgray}[1]{\color{lightgray}{#1}}\) \(\newcommand{\rank}{\operatorname{rank}}\) \(\newcommand{\row}{\text{Row}}\) \(\newcommand{\col}{\text{Col}}\) \(\renewcommand{\row}{\text{Row}}\) \(\newcommand{\nul}{\text{Nul}}\) \(\newcommand{\var}{\text{Var}}\) \(\newcommand{\corr}{\text{corr}}\) \(\newcommand{\len}[1]{\left|#1\right|}\) \(\newcommand{\bbar}{\overline{\bvec}}\) \(\newcommand{\bhat}{\widehat{\bvec}}\) \(\newcommand{\bperp}{\bvec^\perp}\) \(\newcommand{\xhat}{\widehat{\xvec}}\) \(\newcommand{\vhat}{\widehat{\vvec}}\) \(\newcommand{\uhat}{\widehat{\uvec}}\) \(\newcommand{\what}{\widehat{\wvec}}\) \(\newcommand{\Sighat}{\widehat{\Sigma}}\) \(\newcommand{\lt}{<}\) \(\newcommand{\gt}{>}\) \(\newcommand{\amp}{&}\) \(\definecolor{fillinmathshade}{gray}{0.9}\)

    Template:MathJaxTrench

    Consideramos ahora el sistema\({\bf y}'=A{\bf y}\), donde\(A\) tiene un valor propio complejo\(\lambda=\alpha+i\beta\) con\(\beta\ne0\). Seguimos asumiendo que\(A\) tiene entradas reales, por lo que el polinomio característico de\(A\) tiene coeficientes reales. Esto implica que también\(\overline\lambda=\alpha-i\beta\) es un valor propio de\(A\).

    Un vector propio\({\bf x}\) de\(A\) asociado con\(\lambda=\alpha+i\beta\) tendrá entradas complejas, por lo que escribiremos

    \[{\bf x}={\bf u}+i{\bf v} \nonumber\]

    donde\({\bf u}\) y\({\bf v}\) tienen entradas reales; es decir,\({\bf u}\) y\({\bf v}\) son las partes reales e imaginarias de\({\bf x}\). Dado que\(A{\bf x}=\lambda {\bf x}\),

    \[\label{eq:10.6.1} A({\bf u}+i{\bf v})=(\alpha+i\beta)({\bf u}+i{\bf v}).\]

    Tomando conjugados complejos aquí y recordando que\(A\) tiene rendimientos de entradas reales

    \[A({\bf u}-i{\bf v})=(\alpha-i\beta)({\bf u}-i{\bf v}), \nonumber\]

    lo que muestra que\({\bf x}={\bf u}-i{\bf v}\) es un vector propio asociado con\(\overline\lambda=\alpha-i\beta\). Los complejos conjugan valores propios\(\lambda\) y\(\overline\lambda\) pueden asociarse por separado con soluciones linealmente independientes\({\bf y}'=A{\bf y}\); sin embargo, no vamos a perseguir este enfoque, ya que las soluciones obtenidas de esta manera resultan ser complejas- valoradas. En su lugar, obtendremos soluciones de\({\bf y}'=A{\bf y}\) en la forma

    \[\label{eq:10.6.2} {\bf y}=f_1{\bf u}+f_2{\bf v}\]

    donde\(f_1\) y\(f_2\) son funciones escalares de valor real. El siguiente teorema muestra cómo hacer esto.

    Teorema 10.6.1

    Dejar\(A\) ser una\(n\times n\) matriz con entradas reales\(.\) Let\(\lambda=\alpha+i\beta\) (\(\beta\ne0\)) ser un valor propio complejo de\(A\) y dejar\({\bf x}={\bf u}+i{\bf v}\) ser un vector propio asociado\(,\) donde\({\bf u}\) y\({\bf v}\) tener componentes reales\(.\) Entonces\({\bf u}\) y \({\bf v}\)son ambos diferentes de cero y

    \[{\bf y}_1=e^{\alpha t}({\bf u}\cos\beta t-{\bf v}\sin\beta t) \quad \text{and} \quad {\bf y}_2=e^{\alpha t}({\bf u}\sin\beta t+{\bf v}\cos\beta t), \nonumber\]

    que son las partes reales e imaginarias de

    \[\label{eq:10.6.3} e^{\alpha t}(\cos\beta t+i\sin\beta t)({\bf u}+i{\bf v}),\]

    son soluciones linealmente independientes de\({\bf y}'=A{\bf y}\).

    Prueba

    Una función de la forma Ecuación\ ref {eq:10.6.2} es una solución de\({\bf y}'=A{\bf y}\) si y solo si

    \[\label{eq:10.6.4} f_1'{\bf u}+f_2'{\bf v}=f_1A{\bf u}+f_2A{\bf v}.\]

    Llevar a cabo la multiplicación indicada en el lado derecho de la Ecuación\ ref {eq:10.6.1} y recoger las partes reales e imaginarias del resultado rinde

    \[A({\bf u}+i{\bf v})=(\alpha{\bf u}-\beta{\bf v})+i(\alpha{\bf v}+\beta{\bf u}). \nonumber\]

    Equiparar partes reales e imaginarias en los dos lados de esta ecuación rinde

    \[\begin{array}{rcl} A{\bf u}&=&\alpha{\bf u}-\beta{\bf v}\\ A{\bf v}&=&\alpha{\bf v}+\beta{\bf u}. \end{array}\nonumber\]

    Te dejamos a ti (Ejercicio 10.6.25) demostrar a partir de esto que\({\bf u}\) y ambos\({\bf v}\) son distintos de cero. Sustituyendo de estas ecuaciones en la ecuación\ ref {eq:10.6.4} rendimientos

    \[\begin{aligned} f_1'{\bf u}+f_2'{\bf v} &=f_1(\alpha{\bf u}-\beta{\bf v})+f_2(\alpha{\bf v}+\beta{\bf u})\\ &=(\alpha f_1+\beta f_2){\bf u}+(-\beta f_1+\alpha f_2){\bf v}.\end{aligned}\nonumber\]

    Esto es cierto si

    \[\begin{array}{rcr} f_1'&=&\alpha f_1+\beta f_2\phantom{,}\\ f_2'&=&-\beta f_1+\alpha f_2, \end{array} \quad \text{or equivalently} \quad \begin{array}{rcr} f_1'-\alpha f_1&=&\phantom{-}\beta f_2\phantom{.}\\ f_2'-\alpha f_2&=&-\beta f_1. \end{array}\nonumber\]

    Si dejamos\(f_1=g_1e^{\alpha t}\) y\(f_2=g_2e^{\alpha t}\), dónde\(g_1\) y\(g_2\) se van a determinar, entonces las dos últimas ecuaciones se convierten

    \[\begin{array}{rcr} g_1'&=&\beta g_2\phantom{.}\\ g_2'&=&-\beta g_1, \end{array}\nonumber\]

    lo que implica que

    \[g_1''=\beta g_2'=-\beta^2 g_1, \nonumber\]

    entonces

    \[g_1''+\beta^2 g_1=0. \nonumber\]

    La solución general de esta ecuación es

    \[g_1=c_1\cos\beta t+c_2\sin\beta t. \nonumber\]

    Además, dado que\(g_2=g_1'/\beta\),

    \[g_2=-c_1\sin\beta t+c_2\cos\beta t. \nonumber\]

    Multiplicando\(g_1\) y\(g_2\) por\(e^{\alpha t}\) muestra que

    \[\begin{aligned} f_1&=e^{\alpha t}(\phantom{-}c_1\cos\beta t+c_2\sin\beta t ),\\ f_2&=e^{\alpha t}(-c_1\sin\beta t+c_2\cos\beta t).\end{aligned}\nonumber\]

    Sustituyendo estos en la Ecuación\ ref {eq:10.6.2} muestra que

    \[\label{eq:10.6.5} \begin{array}{rcl} {\bf y}&=&e^{\alpha t}\left[(c_1\cos\beta t+c_2\sin\beta t){\bf u} +(-c_1\sin\beta t+c_2\cos\beta t){\bf v}\right]\\ &=&c_1e^{\alpha t}({\bf u}\cos\beta t-{\bf v}\sin\beta t) +c_2e^{\alpha t}({\bf u}\sin\beta t+{\bf v}\cos\beta t) \end{array}\]

    es una solución de\({\bf y}'=A{\bf y}\) para cualquier elección de las constantes\(c_1\) y\(c_2\). En particular, tomando primero\(c_1=1\) y\(c_2=0\) y luego tomando\(c_1=0\) y\(c_2=1\), vemos eso\({\bf y}_1\) y\({\bf y}_2\) son soluciones de\({\bf y}'=A{\bf y}\). Te dejamos verificar que son, respectivamente, las partes real e imaginaria de la Ecuación\ ref {eq:10.6.3} (Ejercicio 10.6.26), y que son linealmente independientes (Ejercicio 10.6.27).

    Ejemplo 10.6.1

    Encuentre la solución general de

    \[\label{eq:10.6.6} {\bf y}'=\left[\begin{array}{cc}{4}&{-5}\\{5}&{-2}\end{array}\right]{\bf y}.\]

    Solución

    El polinomio característico de la matriz de coeficientes\(A\) en la Ecuación\ ref {eq:10.6.6} es

    \[\left|\begin{array}{cc} 4-\lambda&-5\\ 5&-2-\lambda \end{array}\right|=(\lambda-1)^2+16. \nonumber\]

    De ahí,\(\lambda=1+4i\) es un valor propio de\(A\). Los vectores propios asociados satisfacen\(\left(A-\left(1+4i\right)I\right){\bf x}={\bf 0}\). La matriz aumentada de este sistema es

    \[\left[\begin{array}{cccr} 3-4i&-5&\vdots&0\\ 5&-3-4i&\vdots&0 \end{array}\right], \nonumber\]

    que es fila equivalente a

    \[\left[\begin{array}{cccr} 1&-{3+4i\over5}&\vdots&0\\ 0&0&\vdots&0 \end{array}\right]. \nonumber\]

    Por lo tanto\(x_1=(3+4i)x_2/5\). Tomando\(x_2=5\) rendimientos\(x_1=3+4i\), entonces

    \[{\bf x}=\left[\begin{array}{c}3+4i\\5\end{array}\right] \nonumber\]

    es un vector propio. Las partes reales e imaginarias de

    \[e^t(\cos4t+i\sin4t)\left[\begin{array}{c}3+4i\\5\end{array}\right] \nonumber\]

    son

    \[{\bf y}_1=e^t\left[\begin{array}{c}3\cos4t-4\sin 4t\\5\cos4t\end{array}\right]\quad\text{ and }\quad {\bf y}_2=e^t\left[\begin{array}{c}3\sin4t+4\cos4t\\5\sin 4t\end{array}\right], \nonumber\]

    que son soluciones linealmente independientes de la Ecuación\ ref {eq:10.6.6}. La solución general de la Ecuación\ ref {eq:10.6.6} es

    \[{\bf y}= c_1e^t\left[\begin{array}{c}3\cos4t-4\sin 4t\\5\cos4t\end{array}\right]+ c_2e^t\left[\begin{array}{c}3\sin4t+4\cos4t\\5\sin 4t\end{array}\right]. \nonumber\]

    Ejemplo 10.6.2

    Encuentre la solución general de

    \[\label{eq:10.6.7} {\bf y}'=\left[\begin{array}{cc}{-14}&{39}\\{-6}&{16}\end{array}\right]{\bf y}.\]

    Solución

    El polinomio característico de la matriz de coeficientes\(A\) en la Ecuación\ ref {eq:10.6.7} es

    \[\left|\begin{array}{cc}-14-\lambda&39\\-6&16-\lambda \end{array}\right|=(\lambda-1)^2+9. \nonumber\]

    De ahí,\(\lambda=1+3i\) es un valor propio de\(A\). Los vectores propios asociados satisfacen\(\left(A-(1+3i)I\right){\bf x}={\bf 0}\). La matriz aumentada aumentada de este sistema es

    \[\left[\begin{array}{cccr}-15-3i&39&\vdots&0\\ -6&15-3i&\vdots&0 \end{array}\right], \nonumber\]

    que es fila equivalente a

    \[\left[\begin{array}{cccr} 1&{-5+i\over2}&\vdots&0\\ 0&0&\vdots&0 \end{array}\right]. \nonumber\]

    Por lo tanto\(x_1=(5-i)/2\). Tomando\(x_2=2\) rendimientos\(x_1=5-i\), entonces

    \[{\bf x}=\left[\begin{array}{c}5-i\\2\end{array}\right] \nonumber\]

    es un vector propio. Las partes reales e imaginarias de

    \[e^t(\cos3t+i\sin3t)\left[\begin{array}{c}5-i\\2\end{array}\right] \nonumber\]

    son

    \[{\bf y}_1=e^t\left[\begin{array}{c}\sin3t+5\cos3t\\2\cos 3t\end{array}\right]\quad\text{ and }\quad {\bf y}_2=e^t\left[\begin{array}{c}-\cos3t+5\sin3t\\2\sin 3t\end{array}\right], \nonumber\]

    que son soluciones linealmente independientes de la Ecuación\ ref {eq:10.6.7}. La solución general de la Ecuación\ ref {eq:10.6.7} es

    \[{\bf y}=c_1e^t\left[\begin{array}{c}\sin3t+5\cos3t\\2\cos 3t\end{array}\right]+ c_2e^t\left[\begin{array}{c}-\cos3t+5\sin3t\\2\sin 3t\end{array}\right]. \nonumber\]

    Ejemplo 10.6.3

    Encuentre la solución general de

    \[\label{eq:10.6.8} {\bf y}'=\left[\begin{array}{ccc}{-5}&{5}&{4}\\{-8}&{7}&{6}\\{1}&{0}&{0}\end{array}\right]{\bf y}.\]

    Solución

    El polinomio característico de la matriz de coeficientes\(A\) en la Ecuación\ ref {eq:10.6.8} es

    \[\left|\begin{array}{ccc}-5-\lambda&5&4\\-8&7-\lambda& 6\\ \phantom{-}1 &0&-\lambda\end{array}\right|=-(\lambda-2)(\lambda^2+1). \nonumber\]

    De ahí que los valores propios de\(A\) son\(\lambda_1=2\),\(\lambda_2=i\), y\(\lambda_3=-i\). La matriz aumentada de\((A-2I){\bf x=0}\) es

    \[\left[\begin{array}{rrrcr}-7&5&4&\vdots&0\\-8& 5&6&\vdots&0\\ 1&0&-2&\vdots&0 \end{array}\right], \nonumber\]

    que es fila equivalente a

    \[\left[\begin{array}{rrrcr} 1&0&-2&\vdots&0\\ 0&1&-2& \vdots&0\\ 0&0&0&\vdots&0\end{array}\right]. \nonumber\]

    Por lo tanto\(x_1=x_2=2x_3\). Tomando\(x_3=1\) rendimientos

    \[{\bf x}_1=\threecol221, \nonumber\]

    entonces

    \[{\bf y}_1=\threecol221e^{2t} \nonumber\]

    es una solución de la Ecuación\ ref {eq:10.6.8}.

    La matriz aumentada de\((A-iI){\bf x=0}\) es

    \[\left[\begin{array}{ccrccc}-5-i&5&4&\vdots&0\\-8& 7-i&6&\vdots&0\\ \phantom{-}1&0&-i&\vdots&0 \end{array}\right], \nonumber\]

    que es fila equivalente a

    \[\left[\begin{array}{ccccc} 1&0&-i&\vdots&0\\ 0&1&1-i& \vdots&0\\ 0&0&0&\vdots&0\end{array}\right]. \nonumber\]

    Por lo tanto\(x_1=ix_3\) y\(x_2=-(1-i)x_3\). Tomando\(x_3=1\) rinde el vector propio

    \[{\bf x}_2=\left[\begin{array}{c} i\\-1+i\\ 1\end{array} \right]. \nonumber\]

    Las partes reales e imaginarias de

    \[(\cos t+i\sin t)\left[\begin{array}{c}i\\-1+i\\1\end{array}\right] \nonumber\]

    son

    \[{\bf y}_2= \left[\begin{array}{c}-\sin t\\-\cos t-\sin t\\\cos t\end{array}\right] \quad\text{ and }\quad {\bf y}_3=\left[\begin{array}{c}\cos t\\\cos t-\sin t\\\sin t\end{array}\right], \nonumber\]

    que son soluciones de la Ecuación\ ref {eq:10.6.8}. Desde el Wronskian de\(\{{\bf y}_1,{\bf y}_2,{\bf y}_3\}\) en\(t=0\) es

    \[\left|\begin{array}{rrr} 2&0&1\\2&-1&1\\1&1&0\end{array}\right|=1, \nonumber\]

    \(\{{\bf y}_1,{\bf y}_2,{\bf y}_3\}\)es un conjunto fundamental de soluciones de la Ecuación\ ref {eq:10.6.8}. La solución general de la Ecuación\ ref {eq:10.6.8} es

    \[{\bf y}=c_1 \threecol221e^{2t} +c_2\left[\begin{array}{c}-\sin t\\-\cos t-\sin t\\\cos t\end{array}\right] +c_3\left[\begin{array}{c}\cos t\\\cos t-\sin t\\\sin t\end{array}\right]. \nonumber\]

    Ejemplo 10.6.4

    Encuentre la solución general de

    \[\label{eq:10.6.9} {\bf y}'=\left[\begin{array}{ccc}{1}&{-1}&{-2}\\{1}&{3}&{2}\\{1}&{-1}&{2}\end{array}\right]{\bf y}.\]

    Solución

    El polinomio característico de la matriz de coeficientes\(A\) en la Ecuación\ ref {eq:10.6.9} es

    \[\left|\begin{array}{ccc} 1-\lambda&-1&-2\\ 1&3-\lambda& \phantom{-}2\\ 1 &-1&2-\lambda\end{array}\right|= -(\lambda-2)\left((\lambda-2)^2+4\right). \nonumber\]

    De ahí que los valores propios de\(A\) son\(\lambda_1=2\),\(\lambda_2=2+2i\), y\(\lambda_3=2-2i\). La matriz aumentada de\((A-2I){\bf x=0}\) es

    \[\left[\begin{array}{rrrcr}-1&-1&-2&\vdots&0\\1& 1&2&\vdots&0\\ 1&-1&0&\vdots&0 \end{array}\right], \nonumber\]

    que es fila equivalente a

    \[\left[\begin{array}{rrrcr} 1&0&1&\vdots&0\\ 0&1&1& \vdots&0\\ 0&0&0&\vdots&0\end{array}\right]. \nonumber\]

    Por lo tanto\(x_1=x_2=-x_3\). Tomando\(x_3=1\) rendimientos

    \[{\bf x}_1=\threecol{-1}{-1}1, \nonumber\]

    entonces

    \[{\bf y}_1=\threecol{-1}{-1}1e^{2t} \nonumber\]

    es una solución de la Ecuación\ ref {eq:10.6.9}. La matriz aumentada de\(\left(A-(2+2i)I\right){\bf x=0}\) es

    \[\left[\begin{array}{ccrcc}-1-2i&-1&-2&\vdots&0\\ 1& 1-2i&\phantom{-}2&\vdots&0\\ 1&-1&-2i&\vdots&0 \end{array}\right], \nonumber\]

    que es fila equivalente a

    \[\left[\begin{array}{rrrcr} 1&0&-i&\vdots&0\\ 0&1&i& \vdots&0\\ 0&0&0&\vdots&0\end{array}\right]. \nonumber\]

    Por lo tanto\(x_1=ix_3\) y\(x_2=-ix_3\). Tomando\(x_3=1\) rinde el vector propio

    \[{\bf x}_2=\threecol i{-i}1 \nonumber\]

    Las partes reales e imaginarias de

    \[e^{2t}(\cos2t+i\sin2t)\threecol i{-i}1 \nonumber\]

    son

    \[{\bf y}_2=e^{2t}\left[\begin{array}{r}-\sin2t\\\sin2t\\\cos 2t\end{array}\right]\quad\text{ and }\quad {\bf y}_2=e^{2t}\left[\begin{array}{r}\cos2t\\-\cos2t\\\sin 2t\end{array}\right], \nonumber\]

    que son soluciones de la Ecuación\ ref {eq:10.6.9}. Desde el Wronskian de\(\{{\bf y}_1,{\bf y}_2,{\bf y}_3\}\) en\(t=0\) es

    \[\left|\begin{array}{rrr} -1&0&1\\-1&0&-1\\1&1&0\end{array}\right|=-2, \nonumber\]

    \(\{{\bf y}_1,{\bf y}_2,{\bf y}_3\}\)es un conjunto fundamental de soluciones de Ecuación\ ref {eq:10.6.9}. La solución general de la Ecuación\ ref {eq:10.6.9} es

    \[{\bf y}=c_1\threecol{-1}{-1}1e^{2t}+ c_2e^{2t}\left[\begin{array}{r}-\sin2t\\\sin2t\\\cos 2t\end{array}\right]+ c_3e^{2t}\left[\begin{array}{r}\cos2t\\-\cos2t\\\sin 2t\end{array}\right]. \nonumber\]

    Propiedades geométricas de las soluciones cuando\(n=2\)

    Ahora consideraremos las propiedades geométricas de las soluciones de un sistema de coeficientes\(2\times2\) constantes

    \[\label{eq:10.6.10} \twocol{y_1'}{y_2'}=\left[\begin{array}{cc}a_{11}&a_{12}\\a_{21}&a_{22} \end{array}\right]\twocol{y_1}{y_2}\]

    bajo los supuestos de esta sección; es decir, cuando la matriz

    \[A=\left[\begin{array}{cc}a_{11}&a_{12}\\a_{21}&a_{22} \end{array}\right] \nonumber\]

    tiene un valor propio complejo\(\lambda=\alpha+i\beta\) (\(\beta\ne0\)) y\({\bf x}={\bf u}+i{\bf v}\) es un vector propio asociado, donde\({\bf u}\) y\({\bf v}\) tienen componentes reales. Para describir las trayectorias con precisión es necesario introducir un nuevo sistema de coordenadas rectangulares en el\(y_2\) plano\(y_1\) -. Esto plantea un punto que no ha surgido antes: Siempre es posible elegir para\({\bf x}\) que\(({\bf u},{\bf v})=0\). Para ello se requiere un esfuerzo especial, ya que no todos los vectores propios tienen esta propiedad. Sin embargo, si conocemos un vector propio que no lo hace, podemos multiplicarlo por una constante compleja adecuada para obtener una que sí. Para ver esto, tenga en cuenta que si\({\bf x}\) es un\(\lambda\) -vector propio de\(A\) y\(k\) es un número real arbitrario, entonces

    \[{\bf x}_1=(1+ik){\bf x}=(1+ik)({\bf u}+i{\bf v}) =({\bf u}-k{\bf v})+i({\bf v}+k{\bf u}) \nonumber\]

    también es un\(\lambda\) -eigenvector de\(A\), ya que

    \[A{\bf x}_1= A((1+ik){\bf x})=(1+ik)A{\bf x}=(1+ik)\lambda{\bf x}= \lambda((1+ik){\bf x})=\lambda{\bf x}_1. \nonumber\]

    Las partes reales e imaginarias de\({\bf x}_1\) son

    \[\label{eq:10.6.11} {\bf u}_1={\bf u}-k{\bf v} \quad \text{and} \quad {\bf v}_1={\bf v}+k{\bf u}, \]

    entonces

    \[({\bf u}_1,{\bf v}_1)=({\bf u}-k{\bf v},{\bf v}+k{\bf u}) =-\left[({\bf u},{\bf v})k^2+(\|{\bf v}\|^2-\|{\bf u}\|^2)k -({\bf u},{\bf v})\right]. \nonumber\]

    Por lo tanto\(({\bf u}_1,{\bf v}_1)=0\) si

    \[\label{eq:10.6.12} ({\bf u},{\bf v})k^2+(\|{\bf v}\|^2-\|{\bf u}\|^2)k-({\bf u},{\bf v})=0.\]

    Si\(({\bf u},{\bf v})\ne0\) podemos usar la fórmula cuadrática para encontrar dos valores reales de\(k\) tales que\(({\bf u}_1,{\bf v}_1)=0\) (Ejercicio 10.6.28).

    Ejemplo 10.6.5

    En el Ejemplo 10.6.1 encontramos el vector propio

    \[{\bf x}=\ctwocol{3+4i}5=\twocol35+i\twocol40 \nonumber\]

    para la matriz del sistema Ecuación\ ref {eq:10.6.6}. Aquí\(\bf {u}=\twocol{3}{5}\) y no\({\bf v}=\twocol40\) son ortogonales, ya que\(({\bf u},{\bf v})=12\). Dado que\(\|{\bf v}\|^2-\|{\bf u}\|^2=-18\), la ecuación\ ref {eq:10.6.12} es equivalente a

    \[2k^2-3k-2=0. \nonumber\]

    Los ceros de esta ecuación son\(k_1=2\) y\(k_2=-1/2\). Dejar\(k=2\) en la ecuación\ ref {eq:10.6.11} rendimientos

    \[{\bf u}_1={\bf u}-2{\bf v}=\twocol{-5}{\phantom{-}5} \quad \text{and} \quad {\bf v}_1={\bf v}+2{\bf u}=\twocol{10}{10}, \nonumber\]

    y\(({\bf u}_1,{\bf v}_1)=0\). Dejar\(k=-1/2\) en la ecuación\ ref {eq:10.6.11} rendimientos

    \[{\bf u}_1={\bf u}+{{\bf v}\over2}=\twocol{5}5 \quad \text{and} \quad {\bf v}_1={\bf v}-{{\bf u}\over2}={1\over2}\twocol{-5}{\phantom{-}5}, \nonumber\]

    y otra vez\(({\bf u}_1,{\bf v}_1)=0\).

    (Los números no siempre funcionan tan bien como en este ejemplo. Necesitarás una calculadora o computadora para hacer Ejercicios 10.6.29-10.6.40.) De ahora en adelante, vamos a asumir eso\(({\bf u},{\bf v})=0\). Dejar\({\bf U}\) y\({\bf V}\) ser vectores unitarios en las direcciones de\({\bf u}\) y\({\bf v}\), respectivamente; es decir,\({\bf U}={\bf u}/\|{\bf u}\|\) y\({\bf V}={\bf v}/\|{\bf v}\|\). El nuevo sistema de coordenadas rectangulares tendrá el mismo origen que el\(y_2\) sistema\(y_1\) -. Las coordenadas de un punto en este sistema serán denotadas por\((z_1,z_2)\), donde\(z_1\) y\(z_2\) son los desplazamientos en las direcciones de\({\bf U}\) y\({\bf V}\), respectivamente. De la Ecuación\ ref {eq:10.6.5}, las soluciones de la Ecuación\ ref {eq:10.6.10} vienen dadas por

    \[\label{eq:10.6.13} {\bf y}=e^{\alpha t}\left[(c_1\cos\beta t+c_2\sin\beta t){\bf u} +(-c_1\sin\beta t+c_2\cos\beta t){\bf v}\right].\]

    Por conveniencia, llamemos a la curva atravesada por\(e^{-\alpha t}{\bf y}(t)\) una trayectoria de sombra de Ecuación\ ref {eq:10.6.10}. Multiplicando la ecuación\ ref {eq:10.6.13} por\(e^{-\alpha t}\) rendimientos

    \[e^{-\alpha t}{\bf y}(t)=z_1(t){\bf U}+z_2(t){\bf V}, \nonumber\]

    donde

    \[\begin{aligned} z_1(t)&=\|{\bf u}\|(c_1\cos\beta t+c_2\sin\beta t)\\ z_2(t)&=\|{\bf v}\|(-c_1\sin\beta t+c_2\cos\beta t).\end{aligned}\nonumber\]

    Por lo tanto

    \[{(z_1(t))^2\over\|{\bf u}\|^2}+{(z_2(t))^2\over\|{\bf v}\|^2} =c_1^2+c_2^2. \tag{verify!}\]

    lo que significa que las trayectorias de sombra de la Ecuación\ ref {eq:10.6.10} son elipses centradas en el origen, con ejes de simetría paralelos a\({\bf U}\) y\({\bf V}\). Desde

    \[z_1'={\beta\|{\bf u}\|\over\|{\bf v}\|} z_2 \quad \text{and} \quad z_2'=-{\beta\|{\bf v}\|\over\|{\bf u}\|} z_1, \nonumber\]

    el vector desde el origen hasta un punto en la elipse de sombra gira en la misma dirección que\({\bf V}\) tendría que ser girada por\(\pi/2\) radianes para ponerlo en coincidencia con\({\bf U}\) (Figuras 10.6.1 y 10.6.2 ).

    clipboard_e1fb0a31d1ff1c3e7f0493671743c2916.png
    Figura 10.6.1 : Trayectorias de sombra atravesadas en el sentido de las agujas del reloj.
    clipboard_e34070211f88f614240debf9da80ddd84.png
    Figura 10.6.2 : Trayectorias de sombra atravesadas en sentido antihorario

    Si\(\alpha=0\), entonces cualquier trayectoria de la Ecuación\ ref {eq:10.6.10} es una trayectoria de sombra de la Ecuación\ ref {eq:10.6.10}; por lo tanto, si\(\lambda\) es puramente imaginaria, entonces las trayectorias de la Ecuación\ ref {eq:10.6.10} son elipses atravesadas periódicamente como se indica en las Figuras 10.6.1 y 10.6.2 . Si\(\alpha>0\), entonces

    \[\lim_{t\to\infty}\|{\bf y}(t)\|=\infty \quad \text{and} \quad \lim_{t\to-\infty}{\bf y}(t)=0,\ \nonumber\]

    por lo que la trayectoria se aleja del origen a medida que\(t\) varía de\(-\infty\) a\(\infty\). La dirección de la espiral depende de la orientación relativa de\({\bf U}\) y\({\bf V}\), como se muestra en las Figuras 10.6.3 y 10.6.4 . Si\(\alpha<0\), entonces

    \[\lim_{t\to-\infty}\|{\bf y}(t)\|=\infty \quad \text{and} \quad \lim_{t\to\infty}{\bf y}(t)=0, \nonumber\]

    por lo que la trayectoria gira hacia el origen como\(t\) varía de\(-\infty\) a\(\infty\). Nuevamente, la dirección de la espiral depende de la orientación relativa de\({\bf U}\) y\({\bf V}\), como se muestra en las Figuras 10.6.5 y 10.6.6 .

    clipboard_e868b4df1e27e9063c5afa2c8702c10da.png
    Figura 10.6.3 :\(\alpha >0\); trayectoria de sombra en espiral hacia afuera.
    clipboard_ee60c14e857e8ad3f4fdace20c6d728dc.png
    Figura 10.6.4 :\(\alpha >0\); trayectoria de sombra en espiral hacia afuera.
    clipboard_e554d4cf027ed78c945842edd49930e84.png
    Figura 10.6.5 :\(\alpha <0\); trayectoria de sombra en espiral hacia adentro.
    clipboard_eddae2c394ff34110da5908f8425dd5b9.png
    Figura 10.6.6 :\(\alpha <0\); trayectoria de sombra en espiral hacia adentro.

    This page titled 10.6: Sistemas Homogéneos de Coeficiente Constante III is shared under a CC BY-NC-SA 3.0 license and was authored, remixed, and/or curated by William F. Trench via source content that was edited to the style and standards of the LibreTexts platform.