Saltar al contenido principal
LibreTexts Español

2.3: ODEs lineales de orden superior

  • Page ID
    115343
  • \( \newcommand{\vecs}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} } \) \( \newcommand{\vecd}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash {#1}}} \)\(\newcommand{\id}{\mathrm{id}}\) \( \newcommand{\Span}{\mathrm{span}}\) \( \newcommand{\kernel}{\mathrm{null}\,}\) \( \newcommand{\range}{\mathrm{range}\,}\) \( \newcommand{\RealPart}{\mathrm{Re}}\) \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\) \( \newcommand{\Argument}{\mathrm{Arg}}\) \( \newcommand{\norm}[1]{\| #1 \|}\) \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\) \( \newcommand{\Span}{\mathrm{span}}\) \(\newcommand{\id}{\mathrm{id}}\) \( \newcommand{\Span}{\mathrm{span}}\) \( \newcommand{\kernel}{\mathrm{null}\,}\) \( \newcommand{\range}{\mathrm{range}\,}\) \( \newcommand{\RealPart}{\mathrm{Re}}\) \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\) \( \newcommand{\Argument}{\mathrm{Arg}}\) \( \newcommand{\norm}[1]{\| #1 \|}\) \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\) \( \newcommand{\Span}{\mathrm{span}}\)\(\newcommand{\AA}{\unicode[.8,0]{x212B}}\)

    Las ecuaciones que aparecen en las aplicaciones tienden a ser de segundo orden, aunque las ecuaciones de orden superior aparecen de vez en cuando. De ahí que se asuma generalmente que el mundo es de “segundo orden” desde una perspectiva física moderna. Los resultados básicos sobre las ODEs lineales de orden superior son esencialmente los mismos que para las ecuaciones de segundo orden, con 2 reemplazadas por\(n\). El importante concepto de independencia lineal es algo más complicado cuando se involucran más de dos funciones.

    Para las ODE de coeficiente constante de orden superior, los métodos también son algo más difíciles de aplicar, pero no nos detendremos en estas complicaciones. Siempre podemos usar los métodos para sistemas de ecuaciones lineales para resolver ecuaciones de coeficientes constantes de orden superior. Así que comencemos con una ecuación lineal homogénea general:

    \[ y^{(n)} + p_{n-1}(x)y^{(n-1)} + \, ... + p_1(x)y' + p_o(x)y = f(x) \label{2.3.1} \]

    Teorema\(\PageIndex{1}\)

    Superposición

    Supongamos que\(y_1, y_2, \dots , y_n\) son soluciones de la ecuación homogénea (Ecuación\ ref {2.3.1}). Entonces

    \[ y(x) = C_1 y_1(x) + C_2 y_2(x) + ... + C_n y_n(x) \nonumber \]

    también resuelve Ecuación\ ref {2.3.1} para constantes arbitrarias\( C_1, .... C_n \).

    En otras palabras, una combinación lineal de soluciones a la Ecuación\ ref {2.3.1} es también una solución a la Ecuación\ ref {2.3.1}. También tenemos el teorema de existencia y singularidad para ecuaciones lineales no homogéneas.

    Teorema\(\PageIndex{2}\)

    Existencia y singularidad

    Supongamos que\( p_o\) a través\( p_{n-1}\), y\(f\) son funciones continuas en algún intervalo\( I , a \) es un número en\(I\), y\( b_0, b_1, \dots , b_{n-1} \) son constantes. La ecuación

    \[ y^{(n)} + p_{n-1}(x)y^{(n-1)} + \, ... + p_1(x)y' + p_o(x)y = f(x) \nonumber \]

    tiene exactamente una solución\( y(x) \) definida en el mismo intervalo que\(I\) satisface las condiciones iniciales

    \[ y(a) = b_0, \quad y'(a) = b_1,\quad \dots ,\quad y^{(n -1)} (a) = b_{n - 1} \nonumber \]

    Independencia Lineal

    Cuando teníamos dos funciones\(y_1\) y\(y_2\) decíamos que eran linealmente independientes si una no era el múltiplo de la otra. La misma idea es válida para\(n\) las funciones. En este caso es más fácil afirmar de la siguiente manera. Las funciones\(y_1, y_2, \dots , y_n\) son linealmente independientes si

    \[ c_1y_1 + c_2y_2 + \dots + c_ny_n = 0 \nonumber \]

    tiene sólo la solución trivial\( c_1 = c_2 = \dots = c_n = 0 \), donde la ecuación debe sostenerse para todos\(x\). Si podemos resolver ecuación con algunas constantes donde por ejemplo\(c_1 \ne 0 \), entonces podemos resolver para\(y_1\) como una combinación lineal de las otras. Si las funciones no son linealmente independientes, son linealmente dependientes.

    Ejemplo\(\PageIndex{1}\)

    Demostrar que\( e^x\), \(e^{2x}\), and \(e^{3x}\) are linearly independent functions.

    Solución

    Demos varias formas de mostrar este hecho. Muchos libros de texto introducen a los wronskianos, pero eso realmente no es necesario para resolver este ejemplo. Vamos a anotar

    \[ c_1e^x + c_2e^{2x} + c_3e^{3x} = 0 \nonumber \]

    Usamos reglas de exponenciales y escribimos\( z = e^x \). Entonces tenemos

    \[ c_1z + c_2z^2 + c_3z^3 = 0 \nonumber \]

    El lado izquierdo es un polinomio de tercer grado en\(z\). Puede ser idéntico cero, o puede tener como máximo 3 ceros. Por lo tanto, es idénticamente cero\(c_1 = c_2 = c_3 = 0 \), y las funciones son linealmente independientes.

    Intentemos de otra manera. Como antes escribimos

    \[ c_1e^x + c_2e^{2x} + c_3e^{3x} = 0 \nonumber \]

    Esta ecuación tiene que aguantar para todos\(x\). Lo que podríamos hacer es dividirnos por\(e^{3x}\) para conseguir

    \[ c_1e^{-2x} + c_2e^{-x} + c_3 = 0 \nonumber \]

    Como la ecuación es cierta para todos\(x\), vamos\( x \rightarrow \infty \). Después de tomar el límite vemos eso\( c_3 = 0 \). De ahí que nuestra ecuación se convierta

    \[ c_1e^x + c_2e^{2x} = 0 \nonumber \]

    ¡Enjuaga, repite!

    ¿Qué tal otra forma más? Nuevamente escribimos

    \[ c_1e^x + c_2e^{2x} + c_3e^{3x} = 0 \nonumber \]

    Podemos evaluar la ecuación y sus derivadas a diferentes valores de\(x\) para obtener ecuaciones para\(c_1\),\(c_2\), y\(c_3\). Primero dividamos\(e^x \) por simplicidad.

    \[ c_1 + c_2e^x + c_3e^{2x} = 0 \nonumber \]

    Nos fijamos\( x = 0 \) para obtener la ecuación\(c_1 + c_2 + c_3 = 0 \). Ahora diferenciar ambos lados

    \[ c_2 e^x + 2c_3e^{2x} = 0 \nonumber \]

    Nos pusimos\( x = 0 \) a conseguir\(c_2 + 2c_3 = 0 \). Nos dividimos de\(e^x\) nuevo y diferenciamos para conseguir\( 2c_3e^x = 0 \). Está claro que\(c_3\) es cero. Entonces\(c_2\) debe ser cero como\(c_2 = -2c_3 \), y\(c_1\) debe ser cero porque\( c_1 + c_2 + c_3 = 0 \).

    No hay una mejor manera de hacerlo. Todos estos métodos son perfectamente válidos. Lo importante es entender por qué las funciones son linealmente independientes.

    Ejemplo\(\PageIndex{2}\)

    Por otro lado, las funciones\( e^x, e^{-x} \) and \( \cosh x \) son linealmente dependientes. Simplemente aplique la definición del coseno hiperbólico:

    \[ \cosh x = \frac {e^x + e^{-x}}{2} \quad\text{or}\quad 2 \cosh x - e^x - e^{-x} = 0 \nonumber \]

    ODE de orden superior de coeficiente constante

    Cuando tenemos una ecuación lineal homogénea de coeficiente constante de orden superior, la canción y el baile son exactamente los mismos que para segundo orden. Solo necesitamos encontrar más soluciones. Si la ecuación es\( n^{th} \) orden necesitamos encontrar soluciones\(n\) linealmente independientes. Se ve mejor con el ejemplo.

    Ejemplo\(\PageIndex{3}\): Third order ODE with Constant Coefficients

    Encuentre la solución general para

    \[ \label{eq:15}y''' - 3'' - y' + 3y =0 \]

    Solución

    Prueba:\( y = e^{rx} \). Nos enchufamos y obtenemos

    \[\underbrace{r^3 e^{rx}}_{y'''} - 3 \underbrace{r^2 e^{rx}}_{y''} - \underbrace{r e^{rx}}_{y'} + 3 \underbrace{e^{rx}}_{y} = 0 . \nonumber \]

    Dividimos por\(e^{rx}\). Entonces

    \[ r^3 - 3r^2 - r +3 =0 \nonumber \]

    El truco ahora es encontrar las raíces. Existe una fórmula para las raíces de polinomios de grado 3 y 4, pero es muy complicada. No hay fórmula para polinomios de grado superior. Eso no quiere decir que las raíces no existan. Siempre hay\( n\) raíces para un\( n^{th}\) grado polinomio. Se pueden repetir y pueden ser complejas. Las computadoras son bastante buenas para encontrar raíces aproximadamente para polinomios de tamaño razonable.

    Un buen lugar para comenzar es trazar el polinomio y verificar dónde está cero. También podemos simplemente intentar enchufar. Apenas empezamos a enchufar números\( r = -2, -1, 0, 1, 2, \dots \) y a ver si conseguimos un hit (también podemos probar números complejos). Incluso si no recibimos un golpe, es posible que obtengamos una indicación de dónde está la raíz. Por ejemplo, nos conectamos\(r = -2\) a nuestro polinomio y obtenemos -15; conectamos\( r = 0\) y obtenemos 3. Eso significa que hay una raíz entre\(r = -2\) y\(r = 0 \), porque el signo cambió. Si encontramos una raíz, digamos\(r_1\), entonces sabemos que\( (r - r_1) \) es un factor de nuestro polinomio. Entonces se puede utilizar la división polinómica larga.

    Una buena estrategia es para empezar\( r = -1\), 1, o 0. Estos son fáciles de calcular. Nuestro polinomio pasa a tener dos de esas raíces,\(r_1 = -1\) y\(r_2 = 1 \) y. Debe haber tres raíces y la última raíz es razonablemente fácil de encontrar. El término constante en un \(^{1}\)polinomio mónico como este es el múltiplo de las negaciones de todas las raíces porque\( r^3 - 3r^2 - r + 3 = (r - r_1)(r - r_2)(r - r_3)\). Entonces

    \[ 3 = (-r_1)(-r_2)(-r_3) = (1)(-1)(-r_3) = r_3 \nonumber \]

    Deberías comprobar que\(r_3 = 3\) realmente es una raíz. De ahí que sepamos eso\(e^{-x}\)\(e^{x}\),, y\(e^{3x} \) son soluciones para\(\eqref{eq:15}\). Son linealmente independientes ya que se pueden verificar fácilmente, y hay tres de ellos, que pasa a ser exactamente el número que necesitamos. De ahí que la solución general sea

    \[ y = C_1e^{-x} + C_2e^{x} + C_3e^{3x} \nonumber \]

    Supongamos que nos dieron algunas condiciones iniciales\( y(0) = 1, y'(0) = 2\), y\(y''(0) = 3 \). Entonces

    \[\begin{align}\begin{aligned} 1 &= y(0) = C_1 + C_2 + C_3 \\ 2 &= y'(0) = -C_1 + C_2 + 3C_3 \\ 3 &= y''(0) = C_1 + C_2 + 9C_3 \end{aligned}\end{align} \nonumber \]

    Es posible encontrar la solución por álgebra de secundaria, pero sería un dolor. La manera sensata de resolver un sistema de ecuaciones como éste es usar álgebra matricial, ver Sección 3.2 o Apéndice A. Por ahora observamos que la solución es\( C_1 = - \frac {1}{4}\),\(C_2 = 1\), y\(C_3 = \frac {1}{4} \). La solución específica a la ODE es

    \[ y = - \frac {1}{4} e^{-x} + e^{x} + \frac {1}{4} e^{3x} \nonumber \]

    A continuación, supongamos que tenemos raíces reales, pero se repiten. Digamos que tenemos una raíz\(r\) repetida\(k\) veces. En el espíritu de la solución de segundo orden, y por las mismas razones, tenemos las soluciones

    \[ e^{rx}, xe^{rx}, x^2e^{rx}, \dots , x^{k-1}e^{rx} \nonumber \]

    Tomamos una combinación lineal de estas soluciones para encontrar la solución general.

    Ejemplo\(\PageIndex{4}\)

    Resolver

    \[ y^{(4)} - 3y''' + 3y'' - y' = 0 \nonumber \]

    Solución

    Observamos que la ecuación característica es

    \[ r^4 - 3r^3 + 3r^2 - r = 0 \nonumber \]

    Por inspección observamos que\( r^4 - 3r^3 + 3r^2 - r = r{(r - 1)}^3 \). De ahí que las raíces dadas con multiplicidad sean\( r = 0, 1, 1, 1 \). Así, la solución general es

    \[ y = \underbrace { (C_1 + C_2 + C_3x^2)e^x}_{\text {terms coming from r = 1}} + \underbrace { C_4}_{ \text {from r = 0} } \nonumber \]

    El caso de raíces complejas es similar a las ecuaciones de segundo orden. Las raíces complejas siempre vienen en parejas\( r = \alpha \pm i\beta \). Supongamos que tenemos dos raíces tan complejas, cada una\(k\) repetida. La solución correspondiente es

    \[ (C_0 + C_1x + \dots + C_{k-1} x^{k-1})e^{ax} \cos ( \beta x) + ( D_0 + D_1x + \dots + D_{k - 1}x^{k - 1} ) e^{ax} \sin ( \beta x) \nonumber \]

    donde\( C_0, \dots , C_{k-1} , D_0, \dots, D_{k-1} \) son constantes arbitrarias.

    Ejemplo\(\PageIndex{5}\)

    Resolver

    \[ y^{(4)} - 4y''' + 8y'' - 8y' + 4y = 0 \nonumber \]

    Solución

    La ecuación característica es

    \[\begin{align}\begin{aligned} r^4 - 4r^3 + 8r^2 - 8r + 4 &= 0 \\ {(r^2 - 2r + 2)}^2 &= 0 \\ {({( r - 1)}^2 + 1 )}^2 &= 0 \end{aligned}\end{align} \nonumber \]

    De ahí que las raíces sean\( 1 \pm i\), ambas con multiplicidad 2. De ahí que la solución general a la ODE sea

    \[ y = ( C_1 + C_2x)e^x \cos x + ( C_3 + C_4 x ) e^x \sin x \nonumber \]

    La forma en que resolvimos la ecuación característica anterior es realmente adivinando o por inspección. No es tan fácil en general. También podríamos haber pedido las raíces a una computadora o a una calculadora avanzada.

    Notas al pie

    [1] La palabra monic significa que el coeficiente del grado superior\(r^{d}\), en nuestro caso\(r^{3}\), lo es\(1\).

    Enlaces externos

    • Después de leer esta conferencia, puede ser bueno probar el Proyecto III desde el sitio web del IODE: www.math.uiuc.edu/iode/.

    This page titled 2.3: ODEs lineales de orden superior is shared under a CC BY-SA 4.0 license and was authored, remixed, and/or curated by Jiří Lebl via source content that was edited to the style and standards of the LibreTexts platform; a detailed edit history is available upon request.