Saltar al contenido principal
LibreTexts Español

2.1: ODEs lineales de segundo orden

  • Page ID
    115319
  • \( \newcommand{\vecs}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} } \) \( \newcommand{\vecd}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash {#1}}} \)\(\newcommand{\id}{\mathrm{id}}\) \( \newcommand{\Span}{\mathrm{span}}\) \( \newcommand{\kernel}{\mathrm{null}\,}\) \( \newcommand{\range}{\mathrm{range}\,}\) \( \newcommand{\RealPart}{\mathrm{Re}}\) \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\) \( \newcommand{\Argument}{\mathrm{Arg}}\) \( \newcommand{\norm}[1]{\| #1 \|}\) \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\) \( \newcommand{\Span}{\mathrm{span}}\) \(\newcommand{\id}{\mathrm{id}}\) \( \newcommand{\Span}{\mathrm{span}}\) \( \newcommand{\kernel}{\mathrm{null}\,}\) \( \newcommand{\range}{\mathrm{range}\,}\) \( \newcommand{\RealPart}{\mathrm{Re}}\) \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\) \( \newcommand{\Argument}{\mathrm{Arg}}\) \( \newcommand{\norm}[1]{\| #1 \|}\) \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\) \( \newcommand{\Span}{\mathrm{span}}\)\(\newcommand{\AA}{\unicode[.8,0]{x212B}}\)

    Consideremos la ecuación diferencial lineal general de segundo orden

    \[ A(x)y'' + B(x)y' + C(x)y = F(x). \nonumber \]

    Por lo general, dividimos por\(A(x)\) para obtener

    \[ y'' + p(x)y' + q(x)y = f(x), \nonumber \]

    dónde\(p(x) = \frac{B(x)}{A(x)}\),\(q(x)=\frac{C(x)}{A(x)}\), y\(f(x) = \frac{F(x)}{A(x)} \). La palabra lineal significa que la ecuación no contiene poderes ni funciones de\(y\),\(y'\), y\(y''\).

    En el caso especial cuando\(f(x)=0\) tenemos una llamada ecuación homogénea

    \[ \label{eq:3}y'' + p(x)y' + q(x)y = 0, \]

    Ya hemos visto algunas ecuaciones homogéneas lineales de segundo orden:

    \[\begin{array}{lll}{y''+k^{2}y=0}&{\text{Two solutions are:}}&{y_{1}=\cos(kx),\quad y_{2}=\sin (kx).} \\ {y''-k^{2}y=0}&{\text{Two solutions are:}}&{y_{1}=e^{kx},\quad y_{2}=e^{-kx}.} \end{array} \nonumber \]

    Si conocemos dos soluciones de una ecuación lineal homogénea, conocemos muchas más de ellas.

    Teorema\(\PageIndex{1}\): Superposition

    Supongamos que\(y_1\) and\(y_2\) son dos soluciones de la ecuación homogénea\(\eqref{eq:3}\). Entonces

    \[ y(x) = C_1y_1(x) + C_2y_2(x), \nonumber \]

    también resuelve\(\eqref{eq:3}\) para constantes arbitrarias\(C_1\) y\(C_2\).

    Es decir, podemos sumar soluciones y multiplicarlas por constantes para obtener soluciones nuevas y diferentes. Llamamos a la expresión\( C_1y_1+C_2y_2\) una combinación lineal de\(y_1\) y\(y_2\). Demostremos este teorema; la prueba es muy esclarecedora e ilustra cómo funcionan las ecuaciones lineales.

    Prueba

    Vamos\( y = C_1y_1 + C_2y_2\). Entonces

    \[\begin{aligned} y'' + py' + qy &= (C_1y_1 + C_2y_2)'' + p(C_1y_1 + C_2y_2)' + q(C_1y_1 + C_2y_2)\\ &= C_1y''_1 + C_2y''_2 + C_1py'_1 + C_2py'_2 + C_1qy_1 + C_2qy_2 \\ &= C_1(y''_1 + py'_1 + qy_1) + C_2(y''_2 + py'_2 + qy_2) \\ & = C_1.0 + C_2.0 = 0 \end{aligned} \nonumber \]

    La prueba se vuelve aún más sencilla de afirmar si usamos la notación del operador. Un operador es un objeto que come funciones y escupe funciones (algo así como qué función, que come números y escupe números). Definir el operador\(L\) por

    \[Ly=y''+py'+qy. \nonumber \]

    La ecuación diferencial se convierte ahora\(Ly=0\). El operador (y la ecuación)\(L\) siendo lineal significa que\( L(C_1y_1 + C_2y_2) = C_1Ly_1 + C_2Ly_2\). La prueba anterior se convierte

    \[Ly = L(C_1y_1 + C_2y_2) = C_1Ly_1 + C_2Ly_2 = C_1.0 + C_2.0 = 0 \nonumber \]

    Dos soluciones diferentes a la segunda ecuación\(y'' - k^2y = 0 \) son\(y_1 = \cosh(kx)\) y\(y_2 = \sinh (kx) \). Recordemos la definición,\( \cosh x = \frac {e^x + e^{-x}}{2}\) y\( \sinh x = \frac {e^x - e^{-x}}{2} \). Por lo tanto, estas son soluciones por superposición ya que son combinaciones lineales de las dos soluciones exponenciales.

    Las funciones\(\sinh\) y a veces\(\cosh\) son más convenientes de usar que las exponenciales. Revisemos algunas de sus propiedades.

    \[\begin{array}{lll}{\cosh 0=1}&{\quad}&{\sinh 0=0,} \\ {\frac{d}{dx}\left[\cosh x \right]=\sinh x,} &{\quad}&{\frac{d}{dx}\left[\sinh x\right] =\cosh x,} \\ {\cosh^{2}x-\sinh^{2}x=1.}&{}&{}\end{array} \nonumber \]

    Ejercicio\(\PageIndex{1}\)

    Derivar estas propiedades usando las definiciones de\( \sinh\) y\( \cosh\) en términos de exponenciales.

    Las ecuaciones lineales tienen respuestas agradables y simples a la pregunta de existencia y singularidad.

    Teorema\(\PageIndex{2}\): Existence and Uniqueness

    Supongamos\(p(x)\), \(q(x)\), and \(f(x)\) are continuous functions on some interval\(I\) que contiene\(a\) con\(a\),\(b_0\) y\(b_1\) constantes. La ecuación

    \[y'' + p(x)y' + q(x)y = f(x). \nonumber \]

    tiene exactamente una solución\(y(x)\) definida en el mismo intervalo que\(I\) satisface las condiciones iniciales

    \[y(a)=b_{0},\quad y'(a)=b_{1}. \nonumber \]

    Por ejemplo, la ecuación\( y'' + k^2y = 0 \) con\( y(0) = b_0 \) y\(y'(0) = b_1\) tiene la solución

    \[ y(x) = b_0 \cos (kx) + \frac {b_1}{k} \sin (kx) \nonumber \]

    La ecuación\( y'' - k^2y = 0 \) con\( y(0) = b_0 \) y\( y'(0) = b_1\) tiene la solución

    \[ y(x) = b_0 \cosh (kx) + \frac {b_1}{k} \sinh (kx) \nonumber \]

    El uso\( \cosh\) y\( \sinh\) en esta solución nos permite resolver las condiciones iniciales de una manera más limpia que si hubiéramos utilizado los exponenciales.

    Las condiciones iniciales para una ODE de segundo orden consisten en dos ecuaciones. El sentido común nos dice que si tenemos dos constantes arbitrarias y dos ecuaciones, entonces deberíamos ser capaces de resolver para las constantes y encontrar una solución a la ecuación diferencial que satisfaga las condiciones iniciales.

    Ejercicio\(\PageIndex{2}\)

    Supongamos que encontramos dos soluciones diferentes\(y_1\) y\(y_2\) a la ecuación homogénea\(\eqref{eq:3}\). ¿Se puede escribir cada solución (usando superposición) en la forma\( y = C_1y_1 + C_2y_2\)?

    Contestar

    ¡La respuesta es afirmativa! Siempre que\(y_1\) y\(y_2\) sean lo suficientemente diferentes en el siguiente sentido. Diremos\(y_1\) y\( y_2\) somos linealmente independientes si uno no es un múltiplo constante del otro.

    Teorema\(\PageIndex{3}\)

    Dejar\(p(x)\) y\(q(x)\) ser funciones continuas y dejar\(y_1\) y\(y_2\) ser dos soluciones linealmente independientes a la ecuación homogénea\(\eqref{eq:3}\). Entonces cualquier otra solución es de la forma

    \[y=C_1y_1 + C_2y_2. \nonumber \]

    Es decir,\(y = C_1 y_1 + C_2 y_2\) es la solución general.

    Por ejemplo, encontramos las soluciones\(y_1 = \sin x\) y\(y_2 = \cos x\) para la ecuación\(y'' + y = 0\). No es difícil ver que seno y coseno no son múltiplos constantes entre sí. Si\(\sin x = A \cos x\) por alguna constante\(A\), dejamos\(x=0\) y esto implicaría\(A = 0\). Pero entonces\(\sin x = 0\) para todos\(x\), lo cual es ridículo. Entonces\(y_1\) y\(y_2\) son linealmente independientes. De ahí,\[y = C_1 \cos x + C_2 \sin x \nonumber \] es la solución general a\(y'' + y = 0\).

    Para dos funciones, verificar la independencia lineal es bastante simple. Veamos otro ejemplo. Considerar\(y''-2x^{-2}y = 0\). Entonces\(y_1 = x^2\) y\(y_2 = \frac{1}{x}\) son soluciones. Para ver que son linealmente independientes, supongamos que uno es múltiplo del otro:\(y_1 = A y_2\), sólo tenemos que averiguar que\(A\) no puede ser una constante. En este caso tenemos\(A = \frac{y_1}{y_2} = x^3\), esto decididamente no es una constante. Así\(y = C_1 x^2 + C_2 \frac{1}{x}\) es la solución general.

    Si tienes una solución a una ecuación lineal homogénea de segundo orden, entonces puedes encontrar otra. Este es el método de reducción del orden. La idea es que si de alguna manera encontramos\(y_1\) como solución de\(y'' + p(x) y' + q(x) y = 0\) intentamos una segunda solución de la forma\(y_2(x) = y_1(x) v(x)\). Sólo tenemos que encontrar\(v\). Nos conectamos\(y_2\) a la ecuación:

    \[\begin{align}\begin{aligned} 0 = y_2'' + p(x) y_2' + q(x) y_2 & = y_1'' v + 2 y_1' v' + y_1 v'' + p(x) ( y_1' v + y_1 v' ) + q(z) y_1 v \\ & = y_1 v'' + (2 y_1' + p(x) y_1) v' + \cancelto{0}{\bigl( y_1'' + p(x) y_1' + q(x) y_1 \bigr)} v . \end{aligned}\end{align} \nonumber \]En otras palabras,\(y_1 v'' + (2 y_1' + p(x) y_1) v' = 0\). Usando\(w = v'\) tenemos la ecuación lineal de primer orden\(y_1 w' + (2 y_1' + p(x) y_1) w = 0\). Después de resolver esta ecuación para\(w\) (factor integrador), encontramos\(v\) por antidiferenciación\(w\). Luego formamos\(y_2\) por computación\(y_1 v\). Por ejemplo, supongamos que de alguna manera sabemos que\(y_1 = x\) es una solución para\(y''+x^{-1}y'-x^{-2} y=0\). La ecuación para\(w\) es entonces\(xw' + 3 w = 0\). Encontramos una solución,\(w = Cx^{-3}\), y encontramos un antiderivado\(v = \frac{-C}{2x^2}\). De ahí\(y_2 = y_1 v = \frac{-C}{2x}\). Cualquier\(C\) obra y así lo\(C=-2\) hace\(y_2 = \frac{1}{x}\). Así, la solución general es\(y = C_1 x + C_2\frac{1}{x}\).

    Ya que tenemos una fórmula para la solución a la ecuación lineal de primer orden, podemos escribir una fórmula para\(y_2\):\[y_2(x) = y_1(x) \int \frac{e^{-\int p(x)\,dx}}{{\bigl(y_1(x)\bigr)}^2} \,dx \nonumber \] Sin embargo, es mucho más fácil recordar que solo necesitamos tratar\(y_2(x) = y_1(x) v(x)\) de encontrar\(v(x)\) como hicimos anteriormente. Además, la técnica también funciona para ecuaciones de orden superior: se llega a reducir el orden para cada solución que encuentre. Por lo que es mejor recordar cómo hacerlo que una fórmula específica.

    Estudiaremos la solución de ecuaciones no homogéneas en la Sección 2.5. Primero nos enfocaremos en encontrar soluciones generales a ecuaciones homogéneas.


    This page titled 2.1: ODEs lineales de segundo orden is shared under a CC BY-SA 4.0 license and was authored, remixed, and/or curated by Jiří Lebl via source content that was edited to the style and standards of the LibreTexts platform; a detailed edit history is available upon request.