Saltar al contenido principal
LibreTexts Español

Prefacio

  • Page ID
    119032
  • \( \newcommand{\vecs}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} } \) \( \newcommand{\vecd}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash {#1}}} \)\(\newcommand{\id}{\mathrm{id}}\) \( \newcommand{\Span}{\mathrm{span}}\) \( \newcommand{\kernel}{\mathrm{null}\,}\) \( \newcommand{\range}{\mathrm{range}\,}\) \( \newcommand{\RealPart}{\mathrm{Re}}\) \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\) \( \newcommand{\Argument}{\mathrm{Arg}}\) \( \newcommand{\norm}[1]{\| #1 \|}\) \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\) \( \newcommand{\Span}{\mathrm{span}}\) \(\newcommand{\id}{\mathrm{id}}\) \( \newcommand{\Span}{\mathrm{span}}\) \( \newcommand{\kernel}{\mathrm{null}\,}\) \( \newcommand{\range}{\mathrm{range}\,}\) \( \newcommand{\RealPart}{\mathrm{Re}}\) \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\) \( \newcommand{\Argument}{\mathrm{Arg}}\) \( \newcommand{\norm}[1]{\| #1 \|}\) \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\) \( \newcommand{\Span}{\mathrm{span}}\)\(\newcommand{\AA}{\unicode[.8,0]{x212B}}\)

    1 Introducción\(\ldots \ldots \ldots \ldots \ldots \ldots \ldots \ldots \ldots \ldots \ldots \ldots \ldots \ldots \ldots \ldots . \ldots \ldots . \ldots \ldots . \ldots \ldots\)

    \(1.1\)Revisión del Primer Curso\(\ldots \ldots \ldots \ldots \ldots \ldots \ldots, \ldots \ldots \ldots, \ldots \ldots, \ldots \ldots\)

    1.1.1 Ecuaciones Diferenciales de Primer Orden... 2

    1.1.2 Ecuaciones Diferenciales Lineales de Segundo Orden... 7

    1.1.3 Ecuaciones de Coeficientes Constantes... 8

    1.1.4 Método de Coeficientes Indeterminados... 10

    \(1.1 .5\)Ecuaciones Cauchy-Euler... 13

    \(1.2\)Visión general del curso\(\ldots \ldots \ldots \ldots \ldots \ldots \ldots . \ldots \ldots \ldots . \ldots \ldots . \ldots\)

    \(1.3\)Apéndice: Reducción de orden y raíces complejas\(\ldots \ldots \ldots .17\)

    \(\mathrm{~ P r o b l e m s ~ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . ~ . ~ . ~ . ~ . ~ . ~ . ~ . ~ . ~ . ~ . ~ . ~ . ~ . ~ . ~ . ~ . ~ . ~ . ~ . ~ . ~ . ~ . ~ . ~ . ~ . ~ . ~ . ~ . ~ . ~ . ~ . ~ . ~ . ~ . ~ . ~ . ~ . ~ . ~ . ~ . ~ . ~ . ~}\)

    \(2 \quad\)Sistemas de Ecuaciones Diferenciales\(\ldots \ldots \ldots \ldots \ldots \ldots \ldots \ldots . \ldots\)

    \(2.1\)Introducción\(\ldots \ldots \ldots \ldots \ldots \ldots \ldots \ldots \ldots \ldots \ldots \ldots \ldots \ldots \ldots \ldots \ldots \ldots \ldots \ldots \ldots \ldots . \ldots \ldots\)

    \(2.2\)Soluciones de Equilibrio y Comportamientos Cercanos... 25

    2.2.1 Representación Polar de Espirales.... 40

    \(2.3\)Formulación Matriz... 43

    \(2.4 \mathrm{~ E i g e n v a l u e ~ P r o b l e m s ~ . . . . . . . . . . . . . . . . . . . . . . . . . .}\)

    \(2.5\)Resolviendo Sistemas de Coeficientes Constantes en 2D... 45

    \(2.6\)Ejemplos del Método Matriz... 48\(4 . \ldots .42\)

    2.6.1 Sistemas Planares - Resumen... 52

    \(2.7\)Teoría de Sistemas de Coeficientes Constantes Homogéneos... 52

    \(2.8\)Sistemas no homogéneos\(\ldots \ldots \ldots \ldots \ldots . \ldots \ldots . \ldots\)

    \(2.9 \mathrm{~ A p p l i c a t i o n s ~ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . ~ . ~ . ~ . ~ . ~ . ~ . ~ . ~ . ~ . ~ . ~ . ~ . ~ . ~ . ~ . ~}\)

    2.9.1 Sistemas de Muelles-Masa\(\ldots . \ldots \ldots \ldots \ldots . \ldots \ldots . \ldots . \ldots .6 \ldots\)

    \(2.9 .2\)Circuitos Eléctricos\(\ldots \ldots \ldots \ldots \ldots \ldots \ldots \ldots \ldots \ldots \ldots \ldots\)

    \(2.9 .3\)Asuntos amorosos\(\ldots \ldots \ldots \ldots \ldots \ldots \ldots \ldots \ldots \ldots \ldots \ldots \ldots \ldots \ldots \ldots \ldots \ldots\)

    \(2.9 .4\)Modelos Predator Presa.................. 72

    2.9.5 Problemas de mezcla... 73

    2.9.6 Cinética Química.................. 75

    \(2.9 .7\)Epidemias\(\ldots \ldots \ldots \ldots \ldots \ldots \ldots \ldots \ldots \ldots \ldots \ldots \ldots \ldots \ldots \ldots \ldots \ldots \ldots \ldots \ldots \ldots \ldots \ldots \ldots\)

    2.10 Apéndice: Diagonalización y Sistemas Lineales........ 77 Problemas\(\ldots \ldots \ldots \ldots \ldots \ldots \ldots \ldots \ldots . \ldots \ldots \ldots . \ldots \ldots . \ldots \ldots . \ldots \ldots . \ldots \ldots . \ldots \ldots \ldots\)

    \(3 \mathrm{~ N o n l i n e a r ~ S y s t e m s ~ . . . . . . . . . . . . . . . . . . . . . . . . .}\)

    \(3.1\)Introducción\(\ldots \ldots \ldots \ldots \ldots \ldots \ldots \ldots \ldots \ldots \ldots . \ldots \ldots . \ldots . \ldots . \ldots . \ldots . \ldots\)

    \(3.2\)Ecuaciones Autónomas de Primer Orden... 90

    \(3.3\)Solución de la Ecuación Logística... 92

    \(3.4\)Bifurcaciones para Ecuaciones de Primer Orden..... 94

    \(3.5\)Péndulo no lineal.... 98

    3.5.1 En busca de soluciones\(\ldots . \ldots \ldots \ldots \ldots \ldots \ldots \ldots \ldots . \ldots . \ldots . \ldots\)

    \(3.6\)La estabilidad de los puntos fijos en sistemas no lineales\(\ldots \ldots . \ldots 102\)

    \(3.7\)Modelos de Población No Lineales.................... 107

    \(3.8\)Límite Ciclos....................

    \(3.9 \quad\)Sistemas no autónomos no lineales.................. 117

    3.9.1 Código de Arce para Parcelas de Plano de Fase............... 122

    \(3.10\)Apéndice: Periodo del Péndulo No Lineal.... 124

    Problemas... 127

    4 Problemas de Valor Límite.................. 131

    \(4.1\)Introducción\(\ldots \ldots \ldots \ldots \ldots \ldots \ldots \ldots \ldots \ldots \ldots \ldots \ldots \ldots \ldots \ldots \ldots . \ldots \ldots\)

    \(4.2\)Ecuaciones diferenciales parciales\(\ldots \ldots \ldots \ldots \ldots \ldots \ldots \ldots \ldots \ldots \ldots . \ldots 133\)

    \(4.2 .1\)Resolviendo la Ecuación del Calor.... 134

    \(4.3\)Conexiones al Álgebra Lineal................

    4.3.1 Expansiones de función propia para PDEs\(\ldots \ldots \ldots . \ldots \ldots .137\)

    4.3.2 Expansiones de función propia para ODEs no homogéneas. 140

    \(4.3 .3 \mathrm{~ L i n e a r ~ V e c t o r ~ S p a c e s ~ . . . . . . . . . . . . . . . . . . . . . .}\)

    Problemas... 147

    \(5 \quad\)Serie de Fourier\(\ldots \ldots \ldots \ldots \ldots \ldots \ldots \ldots \ldots \ldots \ldots \ldots, \ldots \ldots, \ldots, \ldots, \ldots, \ldots, \ldots, \ldots, \ldots, \ldots, \ldots\)

    \(5.1\)Introducción........................ 149.

    \(5.2\)Serie Trigonométrica de Fourier.................. 154

    \(5.3\)Serie de Fourier en otros intervalos\(\ldots \ldots \ldots \ldots \ldots \ldots \ldots \ldots \ldots\)

    \(5.3 .1\)Serie de Fourier en\([a, b] \ldots \ldots \ldots \ldots \ldots \ldots \ldots \ldots \ldots \ldots \ldots \ldots \ldots, \ldots \ldots\)

    \(5.4\)Serie de seno y coseno\(\ldots \ldots \ldots \ldots \ldots \ldots \ldots \ldots . \ldots . \ldots . \ldots . \ldots\)

    \(5.5\)Apéndice: El Fenómeno Gibbs............... 175

    \(\mathrm{~ P r o b l e m s ~ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . ~ . ~ . ~ . ~ . ~ . ~ . ~ . ~ . ~ . ~ . ~ . ~ . ~ . ~ . ~ . ~ . ~ . ~ . ~ . ~ . ~ . ~ . ~ . ~ . ~ . ~ . ~ . ~ . ~ . ~ . ~ . ~ . ~ . ~ . ~ . ~ . ~ . ~ . ~ . ~ . ~ . ~ . ~ . ~}\)

    6 Problemas de valor propio de Sturm-Liouville\(\ldots \ldots \ldots \ldots \ldots \ldots \ldots \ldots . \ldots\)

    \(6.1\)Introducción\(\ldots \ldots \ldots \ldots \ldots \ldots \ldots \ldots \ldots \ldots \ldots \ldots \ldots \ldots . \ldots \ldots . \ldots . \ldots . \ldots . \ldots\)

    6.2 Propiedades de Sturm-Liouville Problemas de Autovalor........ 189

    \(6.2 .1\)Operadores Adjuntos.... 191

    \(6.2 .2\)Identidades de Lagrange y Green.....................

    \(6.2 .3\)Ortogonalidad y Realidad... 194

    \(6.2 .4\)El cociente de Rayleigh\(\ldots \ldots \ldots \ldots \ldots \ldots \ldots \ldots \ldots \ldots \ldots \ldots \ldots \ldots \ldots \ldots\)

    \(6.3\)El Método de Expansión de la Función Eigenfunction.... 197

    \(6.4\)El teorema alternativo de Fredholm............... 199 Problemas\(\ldots \ldots \ldots \ldots \ldots \ldots \ldots \ldots . \ldots \ldots \ldots . \ldots \ldots . \ldots \ldots . \ldots . \ldots \ldots\)

    7 Funciones Especiales........................ 205

    \(7.1 \mathrm{~ C l a s s i c a l ~ O r t h o g o n a l ~ P o l y n o m i a l s ~ . . . . . . . . . . . . . . . . . . . . . ~ . ~ . ~}\)

    \(7.2\)Polinomios Legendre..................... 209

    \(7.2 .1\)La Fórmula Rodrigues.................... 211

    \(7.2 .2\)Fórmula de recursión de tres períodos\(\ldots \ldots \ldots \ldots \ldots . \ldots . \ldots . \ldots 213\)

    \(7.2 .3\)La Función Generadora... 214

    \(7.2 .4\)Expansiones de función propia... 218

    \(7.3\)Función Gamma... 221

    \(7.4 \mathrm{~ B e s s e l ~ F u n c t i o n s ~ . . . . . . . . . . . . . . . . . . . . . . . .}\)

    \(7.5\)Funciones Hipergeométricas..................... 227

    \(7.6\)Apéndice: La Expansión Binomial................. 229

    Problemas\(\ldots \ldots \ldots \ldots \ldots \ldots \ldots \ldots \ldots \ldots \ldots \ldots \ldots \ldots \ldots \ldots . \ldots \ldots \ldots . \ldots\)

    \(8 \quad\)Funciones de Green\(\ldots \ldots \ldots \ldots \ldots \ldots \ldots \ldots \ldots \ldots \ldots \ldots \ldots \ldots \ldots \ldots \ldots \ldots\)

    \(8.1\)El Método de Variación de Parámetros\(\ldots \ldots \ldots \ldots \ldots \ldots \ldots . \ldots 238\)

    \(8.2\)Valor Inicial y Límite Funciones del Verde.............. 243

    8.2.1 Valor Inicial Función del Verde.... 244

    \(8.2 .2\)Valor Límite Función del Verde.... 247

    \(8.3\)Propiedades de Green's Functions\(\ldots \ldots \ldots \ldots . \ldots \ldots . \ldots . \ldots . \ldots . \ldots .256\)

    \(\mathrm{~ 8 . 3 . 1 ~ T h e ~ D i r a c ~ D e l t a ~ F u n c t i o n ~ . ~ . ~ . ~ . ~ . ~ . ~ . ~ . ~ . ~ . ~ . ~ . ~ . ~ . ~ . ~ 2 5}\)

    8.3.2 Ecuación Diferencial de Funciones de Green... 259

    8.4 Representaciones en Serie de Funciones del Verde.......... 262

    Problemas\(\ldots \ldots \ldots \ldots \ldots \ldots \ldots . \ldots \ldots . \ldots . \ldots . \ldots . \ldots . \ldots . \ldots . \ldots\)

    Introducción

    Estas son notas para un segundo curso en ecuaciones diferenciales originalmente impartido en el semestre de primavera de 2005 en la Universidad de Carolina del Norte Wilmington a estudiantes de nivel superior y posgrado de primer año y posteriormente actualizados en otoño de 2007 y otoño de 2008. Se supone que has tenido un curso introductorio en ecuaciones diferenciales. No obstante, comenzaremos este capítulo con una revisión de algunos de los materiales de su primer curso en ecuaciones diferenciales y luego daremos una visión general del material que estamos a punto de cubrir.

    Por lo general, un curso introductorio en ecuaciones diferenciales introduce a los estudiantes a soluciones analíticas de ecuaciones diferenciales de primer orden que son separables, ecuaciones diferenciales lineales de primer orden, y a veces a algunos otros tipos especiales de ecuaciones. Luego, los estudiantes exploran la teoría de las ecuaciones diferenciales de segundo orden generalmente restringiendo el estudio de soluciones exactas de ecuaciones diferenciales lineales de coeficiente constante o incluso ecuaciones del tipo CauchyEuler. Estos son seguidos posteriormente por el estudio de técnicas especiales, como los métodos de series de poder o los métodos de transformación de Laplace. Si el tiempo lo permite, se exploran algunas funciones especiales, como los polinomios de Legendre y las funciones de Bessel, mientras exploran los métodos de series de potencia para resolver ecuaciones diferenciales.

    Más recientemente, se han introducido variaciones sobre este inventario de temas a través de la introducción temprana de sistemas de ecuaciones diferenciales, estudios cualitativos de estos sistemas y un uso más intenso de la tecnología para comprender el comportamiento de soluciones de ecuaciones diferenciales. Esto generalmente se hace a expensas de no cubrir los métodos de la serie de potencia, las funciones especiales o las transformaciones de Laplace. En cualquier caso, los tipos de problemas resueltos son problemas de valor inicial en los que la ecuación diferencial a resolver va acompañada de un conjunto de condiciones iniciales.

    En este curso asumiremos alguna exposición al solapamiento de estos dos enfoques. Primero daremos una revisión rápida de la solución de ecuaciones separables y lineales de primer orden. Luego revisaremos las ecuaciones diferenciales lineales de segundo orden y las ecuaciones de Cauchy-Euler. A esto le seguirá una visión general de algunos de los temas tratados. Como con cualquier curso en ecuaciones diferenciales, enfatizaremos soluciones analíticas, gráficas y (a veces) aproximadas de ecuaciones diferenciales. A lo largo presentaremos aplicaciones desde la física, la química y la biología.

    \(1.1\)Revisión del Primer Curso

    En esta sección revisamos algunas de las técnicas de solución encontradas en un primer curso en ecuaciones diferenciales. No vamos a revisar la teoría básica salvo en posibles referencias como recordatorios de lo que estamos haciendo.

    Primero recordamos que una ecuación diferencial ordinaria de orden\(n\) -ésimo es una ecuación para una función desconocida\(y(x)\) que expresa una relación entre la función desconocida y sus primeras\(n\) derivadas. Uno podría escribir esto generalmente

    \[F\left(y^{(n)}(x), y^{(n-1)}(x), \ldots, y^{\prime}(x), y(x), x\right)=0 . \nonumber \]

    Aquí\(y^{(n)}(x)\) representa el\(n\) th derivado de\(y(x)\).

    Un problema de valor inicial consiste en la ecuación diferencial más los valores de las primeras\(n-1\) derivadas a un valor particular de la variable independiente, digamos\(x_{0}\):

    \[y^{(n-1)}\left(x_{0}\right)=y_{n-1}, \quad y^{(n-2)}\left(x_{0}\right)=y_{n-2}, \quad \cdots, \quad y\left(x_{0}\right)=y_{0} \nonumber \]

    Una ecuación diferencial lineal de orden n toma la forma

    \[\left.a_{n}(x) y^{(n)}(x)+a_{n-1}(x) y^{(n-1)}(x)+\ldots+a_{1}(x) y^{\prime}(x)+a_{0}(x) y(x)\right)=f(x) . \nonumber \]

    Si\(f(x) \equiv 0\), entonces se dice que la ecuación es homogénea, de lo contrario no es homogénea.

    Ecuaciones diferenciales de primer orden

    Normalmente, las primeras ecuaciones diferenciales encontradas son ecuaciones de primer orden. Una ecuación diferencial de primer orden toma la forma

    \[F\left(y^{\prime}, y, x\right)=0 \nonumber \]

    Existen dos formas generales para las cuales se puede obtener formalmente una solución. El primero es el caso separable y el segundo es una ecuación de primer orden. Indicamos que podemos obtener soluciones formalmente, ya que se puede mostrar la integración necesaria que conduce a una solución. Sin embargo, las integrales resultantes no siempre son reducibles a funciones elementales ni se obtienen soluciones explícitas cuando las integrales son factibles.

    Una ecuación de primer orden es separable si se puede escribir la forma

    \[\dfrac{d y}{d x}=f(x) g(y) \nonumber \]

    Los casos especiales resultan cuando cualquiera\(f(x)=1\) o\(g(y)=1\). En el primer caso se dice que la ecuación es autónoma.

    La solución general a la ecuación (1.5) se obtiene en términos de dos integrales:

    \[\int \dfrac{d y}{g(y)}=\int f(x) d x+C, \nonumber \]

    donde\(C\) es una constante de integración. Esto produce una familia de soluciones de 1 parámetro a la ecuación diferencial correspondiente a diferentes valores de\(C\). Si uno puede resolver (1.6) para\(y(x)\), entonces se obtiene una solución explícita. De lo contrario, se tiene una familia de soluciones implícitas. Si también se da una condición inicial, entonces uno podría ser capaz de encontrar un miembro de la familia que satisfaga esta condición, que a menudo se llama una solución particular.

    Ejemplo 1.1. \(y^{\prime}=2 x y, y(0)=2\).

    Aplicando (1.6), uno tiene

    \[\int \dfrac{d y}{y}=\int 2 x d x+C \nonumber \]

    Integración de rendimientos

    \[\ln |y|=x^{2}+C . \nonumber \]

    Exponenciando, se obtiene la solución general,

    \[y(x)=\pm e^{x^{2}+C}=A e^{x^{2}} . \nonumber \]

    Aquí hemos definido\(A=\pm e^{C}\). Dado que\(C\) es una constante arbitraria,\(A\) es una constante arbitraria. Varias soluciones en esta familia de 1 parámetro se muestran en la Figura 1.1.

    A continuación, se busca una solución particular que satisfaga la condición inicial. Porque\(y(0)=2\), uno encuentra eso\(A=2\). Entonces, la solución particular que satisface las condiciones iniciales es\(y(x)=2 e^{x^{2}}\).

    Ejemplo 1.2. \(y y^{\prime}=-x\).

    Siguiendo el mismo procedimiento que en el último ejemplo, se obtiene:

    \[\int y d y=-\int x d x+C \Rightarrow y^{2}=-x^{2}+A, \quad \text { where } \quad A=2 C . \nonumber \]

    Así, obtenemos una solución implícita. Escribiendo la solución como\(x^{2}+y^{2}=A\), vemos que esta es una familia de círculos para\(A>0\) y el origen para\(A=0\). Las parcelas de algunas soluciones de esta familia se muestran en la Figura 1.2.

    imagen
    Figura 1.1. Parcelas de soluciones de la familia de soluciones de 1 parámetro de Ejemplo\(1.1\) para varias condiciones iniciales.

    En este caso se busca un factor integrador\(\mu(x)\), que es una función que se puede multiplicar a través de la ecuación haciendo del lado izquierdo una derivada perfecta. De esta manera, obtener,

    \[\dfrac{d}{d x}[\mu(x) y(x)]=\mu(x) q(x) . \nonumber \]

    El factor integrador que funciona es\(\mu(x)=\exp \left(\int^{x} p(\xi) d \xi\right)\). Se puede mostrar esto expandiendo la derivada en la Ecuación (1.8),

    \[\mu(x) y^{\prime}(x)+\mu^{\prime}(x) y(x)=\mu(x) q(x) \nonumber \]

    y comparando esta ecuación con la obtenida al multiplicar (1.7) por\(\mu(x)\):

    \[\mu(x) y^{\prime}(x)+\mu(x) p(x) y(x)=\mu(x) q(x) . \nonumber \]

    Tenga en cuenta que estas dos últimas ecuaciones serían las mismas si

    \[\dfrac{d \mu(x)}{d x}=\mu(x) p(x) . \nonumber \]

    Se trata de una ecuación separable de primer orden cuya solución es la forma dada anteriormente para el factor integrador,

    imagen
    Figura 1.2. Parcelas de soluciones de Ejemplo\(1.2\) para varias condiciones iniciales.

    \[\mu(x)=\exp \left(\int^{x} p(\xi) d \xi\right) \nonumber \]

    La ecuación (1.8) se integra fácilmente para obtener

    \[y(x)=\dfrac{1}{\mu(x)}\left[\int^{x} \mu(\xi) q(\xi) d \xi+C\right] . \nonumber \]

    Ejemplo 1.3. \(x y^{\prime}+y=x, \quad x>0, y(1)=0\).

    Uno primero señala que se trata de una ecuación diferencial lineal de primer orden. Resolviendo para\(y^{\prime}\), se puede ver que la ecuación original no es separable. Sin embargo, no está en la forma estándar. Entonces, primero reescribimos la ecuación como

    \[\dfrac{d y}{d x}+\dfrac{1}{x} y=1 . \nonumber \]

    Señalando que\(p(x)=\dfrac{1}{x}\), determinamos el factor integrador

    \[\mu(x)=\exp \left[\int^{x} \dfrac{d \xi}{\xi}\right]=e^{\ln x}=x . \nonumber \]

    Multiplicando la ecuación (1.13) por\(\mu(x)=x\), ¡en realidad recuperamos la ecuación original! En este caso hemos encontrado que\(x y^{\prime}+y\) debió haber sido el derivado de algo para comenzar. De hecho,\((x y)^{\prime}=x y^{\prime}+x\). Por lo tanto, la ecuación (1.8) se convierte

    \[(x y)^{\prime}=x \nonumber \]

    Integrando uno obtiene

    \[x y=\dfrac{1}{2} x^{2}+C, \nonumber \]

    o

    \[y(x)=\dfrac{1}{2} x+\dfrac{C}{x} . \nonumber \]

    Insertando la condición inicial en esta solución, tenemos\(0=\dfrac{1}{2}+C\). Por lo tanto,\(C=-\dfrac{1}{2}\). Así, la solución del problema del valor inicial es\(y(x)=\dfrac{1}{2}\left(x-\dfrac{1}{x}\right)\)

    Ejemplo 1.4. \((\sin x) y^{\prime}+(\cos x) y=x^{2} \sin x\).

    En realidad, este problema es fácil si te das cuenta de que

    \[\dfrac{d}{d x}((\sin x) y)=(\sin x) y^{\prime}+(\cos x) y \nonumber \]

    Pero, pasaremos por el proceso de encontrar el factor integrador para la práctica.

    Primero, reescribe la ecuación diferencial original en forma estándar:

    \[y^{\prime}+(\cot x) y=x^{2} \nonumber \]

    Luego, compute el factor de integración como

    \[\mu(x)=\exp \left(\int^{x} \cot \xi d \xi\right)=e^{-\ln (\sin x)}=\dfrac{1}{\sin x} \nonumber \]

    Usando el factor integrador, la ecuación original se convierte en

    \[\dfrac{d}{d x}((\sin x) y)=x^{2} . \nonumber \]

    Integrando, tenemos

    \[y \sin x=\dfrac{1}{3} x^{3}+C \nonumber \]

    Entonces, la solución es

    \[y=\left(\dfrac{1}{3} x^{3}+C\right) \csc x \nonumber \]

    Hay otras ecuaciones de primer orden que se pueden resolver para soluciones de forma cerrada. Sin embargo, muchas ecuaciones no son solucionables, o una simplemente está interesada en el comportamiento de las soluciones. En tales casos se gira a campos de dirección. Volveremos a una discusión sobre el comportamiento cualitativo de las ecuaciones diferenciales más adelante en el curso.

    Ecuaciones diferenciales lineales de segundo orden

    Las ecuaciones diferenciales de segundo orden suelen ser más duras que las de primer orden. En la mayoría de los casos los estudiantes solo están expuestos a ecuaciones diferenciales lineales de segundo orden. Una forma general para una ecuación diferencial lineal de segundo orden viene dada por

    \[a(x) y^{\prime \prime}(x)+b(x) y^{\prime}(x)+c(x) y(x)=f(x) . \nonumber \]

    Se puede reescribir esta ecuación usando la terminología del operador. A saber, uno primero define el operador diferencial\(L=a(x) D^{2}+b(x) D+c(x)\), donde\(D=\dfrac{d}{d x}\). Entonces la ecuación (1.14) se convierte

    \[L y=f \nonumber \]

    Las soluciones de ecuaciones diferenciales lineales se encuentran haciendo uso de la linealidad de\(L\). A saber, consideramos el espacio vectorial\({ }^{1}\) que consiste en funciones realvaluadas sobre algún dominio. Dejar\(f\) y\(g\) ser vectores en este espacio de funciones. \(L\)es un operador lineal si para dos vectores\(f\)\(g\) y y escalar\(a\), tenemos que

    a.\(L(f+g)=L f+L g\)

    b\(L(a f)=a L f\).

    Normalmente se resuelve (1.14) encontrando la solución general del problema homogéneo,

    \[L y_{h}=0 \nonumber \]

    y una solución particular del problema no homogéneo,

    \[L y_{p}=f \text {. } \nonumber \]

    Entonces la solución general de (1.14) simplemente se da como\(y=y_{h}+y_{p}\). Esto es cierto por la linealidad de\(L\). A saber,

    \[\begin{aligned} L y &=L\left(y_{h}+y_{p}\right) \\ &=L y_{h}+L y_{p} \\ &=0+f=f \end{aligned} \nonumber \]

    Existen métodos para encontrar una solución particular de una ecuación diferencial. Estos van desde la pura adivinación hasta el Método de Coeficientes Indeterminados, o haciendo uso del Método de Variación de Parámetros. Repasaremos algunos de estos métodos más adelante.

    Determinar soluciones al problema homogéneo,\(L y_{h}=0\), no siempre es fácil. Sin embargo, otros han estudiado una variedad de ecuaciones lineales de segundo orden

    \({ }^{1}\)Suponemos que el lector ha sido introducido a conceptos en álgebra lineal. Al final del texto recordaremos la definición de un espacio vectorial y veremos que el álgebra lineal está en el fondo del estudio de muchos conceptos en la solución de ecuaciones diferentes. y nos han ahorrado el problema para algunas de las ecuaciones diferenciales que suelen aparecer en aplicaciones.

    Nuevamente, la linealidad es útil para producir la solución general de una ecuación diferencial lineal homogénea. Si\(y_{1}\) y\(y_{2}\) son soluciones de la ecuación homogénea, entonces la combinación lineal\(y=c_{1} y_{1}+c_{2} y_{2}\) es también una solución de la ecuación homogénea. De hecho, si\(y_{1}\) y\(y_{2}\) son linealmente independientes,\({ }^{2}\) entonces\(y=c_{1} y_{1}+c_{2} y_{2}\) es la solución general del problema homogéneo. Como recordarás, la independencia lineal se establece si el Wronskian de las soluciones no es cero. En este caso, tenemos

    \[W\left(y_{1}, y_{2}\right)=y_{1}(x) y_{2}^{\prime}(x)-y_{1}^{\prime}(x) y_{2}(x) \neq 0 \nonumber \]

    Ecuaciones de coeficiente constante

    Las ecuaciones diferenciales de segundo orden más simples y vistas son aquellas con coeficientes constantes. La forma general para una ecuación diferencial lineal de segundo orden de coeficiente constante homogéneo se da como

    \[a y^{\prime \prime}(x)+b y^{\prime}(x)+c y(x)=0, \nonumber \]

    donde\(a, b\), y\(c\) son constantes.

    Las soluciones a (1.18) se obtienen haciendo una suposición de\(y(x)=e^{r x}\). Insertar esta suposición en (1.18) conduce a la ecuación característica

    \[a r^{2}+b r+c=0 . \nonumber \]

    Las raíces de esta ecuación a su vez conducen a tres tipos de solución dependiendo de la naturaleza de las raíces como se muestra a continuación.

    Ejemplo 1.5. \(y^{\prime \prime}-y^{\prime}-6 y=0 y(0)=2, y^{\prime}(0)=0\).

    La ecuación característica para este problema es\(r^{2}-r-6=0\). Las raíces de esta ecuación se encuentran como\(r=-2,3\). Por lo tanto, la solución general se puede anotar rápidamente:

    \[y(x)=c_{1} e^{-2 x}+c_{2} e^{3 x} . \nonumber \]

    Obsérvese que hay dos constantes arbitrarias en la solución general. Por lo tanto, se necesitan dos piezas de información para encontrar una solución particular. Por supuesto, tenemos la información necesaria en la forma de las condiciones iniciales.

    También se necesita evaluar la primera derivada

    \[y^{\prime}(x)=-2 c_{1} e^{-2 x}+3 c_{2} e^{3 x} \nonumber \]

    \({ }^{2}\)Recordemos, un conjunto de funciones\(\left\{y_{i}(x)\right\}_{i=1}^{n}\) es un conjunto linealmente independiente si y solo si

    \[c_{1} y\left(1(x)+\ldots+c_{n} y_{n}(x)=0\right. \nonumber \]

    implica\(c_{i}=0\), para\(i=1, \ldots, n\). con el fin de intentar satisfacer las condiciones iniciales. Evaluando\(y\) y\(y^{\prime}\) en\(x=0\) rendimientos

    \[\begin{aligned} &2=c_{1}+c_{2} \\ &0=-2 c_{1}+3 c_{2} \end{aligned} \nonumber \]

    Estas dos ecuaciones en dos incógnitas se pueden resolver fácilmente para dar\(c_{1}=6 / 5\) y\(c_{2}=4 / 5\). Por lo tanto, la solución del problema de valor inicial se obtiene como\(y(x)=\dfrac{6}{5} e^{-2 x}+\dfrac{4}{5} e^{3 x}\).

    Clasificación de Raíces de la Ecuación Característica para ODEs de Coeficiente Constante de Segundo Orden

    1. Raíces reales y distintas\(r_{1}, r_{2}\). En este caso las soluciones correspondientes a cada raíz son linealmente independientes. Por lo tanto, la solución general es simplemente\(y(x)=c_{1} e^{r_{1} x}+c_{2} e^{r_{2} x}\).
    2. Raíces reales e iguales\(r_{1}=r_{2}=r\). En este caso las soluciones correspondientes a cada raíz son linealmente dependientes. Para encontrar una segunda solución linealmente independiente, se utiliza el Método de Reducción del Orden. Esto da la segunda solución como\(x e^{r x}\). Por lo tanto, la solución general se encuentra como\(y(x)=\left(c_{1}+c_{2} x\right) e^{r x}\). [Esto se recoge en el apéndice de este capítulo.]
    3. Raíces conjugadas complejas\(r_{1}, r_{2}=\alpha \pm i \beta\). En este caso las soluciones correspondientes a cada raíz son linealmente independientes. Haciendo uso de la identidad de Euler\(e^{i \theta}=\cos (\theta)+i \sin (\theta)\), estos exponenciales complejos pueden ser reescritos en términos de funciones trigonométricas. A saber, uno tiene eso\(e^{\alpha x} \cos (\beta x)\) y\(e^{\alpha x} \sin (\beta x)\) son dos soluciones linealmente independientes. Por lo tanto, la solución general se convierte\(y(x)=e^{\alpha x}\left(c_{1} \cos (\beta x)+c_{2} \sin (\beta x)\right)\). [Esto se recoge en el apéndice de este capítulo.]

    Ejemplo 1.6. \(y^{\prime \prime}+6 y^{\prime}+9 y=0\).

    En este ejemplo tenemos\(r^{2}+6 r+9=0\). Sólo hay una raíz,\(r=-3\). Nuevamente, la solución se obtiene fácilmente como\(y(x)=\left(c_{1}+c_{2} x\right) e^{-3 x}\).

    Ejemplo 1.7. \(y^{\prime \prime}+4 y=0\).

    La ecuación característica en este caso es\(r^{2}+4=0\). Las raíces son raíces imaginarias puras,\(r=\pm 2 i\) y la solución general consiste puramente en funciones sinusoidales:\(y(x)=c_{1} \cos (2 x)+c_{2} \sin (2 x)\)

    Ejemplo 1.8. \(y^{\prime \prime}+2 y^{\prime}+4 y=0\).

    La ecuación característica en este caso es\(r^{2}+2 r+4=0\). Las raíces son complejas,\(r=-1 \pm \sqrt{3} i\) y la solución general se puede escribir como\(y(x)=\)\(\left[c_{1} \cos (\sqrt{3} x)+c_{2} \sin (\sqrt{3} x)\right] e^{-x}\) Una de las aplicaciones más importantes de las ecuaciones en los dos últimos ejemplos está en el estudio de las oscilaciones. Los sistemas típicos son una masa en un resorte, o un simple péndulo. Para una masa\(m\) en un resorte con constante de resorte\(k>0\), se tiene de la ley de Hooke que la posición en función del tiempo\(x(t)\),, satisface la ecuación

    \[m x^{\prime \prime}+k x=0 . \nonumber \]

    Esta ecuación de coeficiente constante tiene raíces imaginarias puras\((\alpha=0)\) y las soluciones son senos y cosenos puros. Tal movimiento se llama movimiento armónico simple.

    Agregar un término de amortiguación y forzamiento periódico complica la dinámica, pero no obstante es solucionable. El siguiente ejemplo muestra un oscilador armónico forzado.

    Ejemplo 1.9. \(y^{\prime \prime}+4 y=\sin x\).

    Este es un ejemplo de un problema no homogéneo. El problema homogéneo se resolvió realmente en el Ejemplo 1.7. Según la teoría, solo necesitamos buscar una solución particular al problema no homogéneo y agregarlo a la solución del último ejemplo para obtener la solución general.

    La solución particular se puede obtener simplemente adivinando, haciendo una suposición educada o usando el Método de Variación de Parámetros. No vamos a revisar todas estas técnicas en este momento. Debido a la forma simple del término de manejo, haremos una suposición inteligente\(y_{p}(x)=A \sin x\) y determinaremos lo que\(A\) debe ser. Recordemos, este es el Método de Coeficientes Indeterminados que revisamos en la siguiente sección. Insertar nuestra conjetura en la ecuación da\((-A+4 A) \sin x=\sin x\). Entonces, vemos que\(A=1 / 3\) funciona. Por lo tanto, la solución general del problema no homogéneo es\(y(x)=\)\(c_{1} \cos (2 x)+c_{2} \sin (2 x)+\dfrac{1}{3} \sin x\)

    Método de Coeficientes Indeterminados

    A la fecha, sólo sabemos resolver coeficientes constantes, ecuaciones homogéneas. ¿Cómo se resuelve una ecuación no homogénea como esa en la Ecuación\((1.14)\)

    \[a(x) y^{\prime \prime}(x)+b(x) y^{\prime}(x)+c(x) y(x)=f(x) \nonumber \]

    Recordemos, que se resuelve esta ecuación encontrando la solución general del problema homogéneo,

    \[L y_{h}=0 \nonumber \]

    y una solución particular del problema no homogéneo,

    \[L y_{p}=f \nonumber \]

    Entonces la solución general de (1.14) simplemente se da como\(y=y_{h}+y_{p}\). Entonces, ¿cómo encontramos la solución particular? Se podría adivinar una solución, pero eso no suele ser posible sin un poco de experiencia. Entonces necesitamos algunos otros métodos. Hay dos métodos principales. En el primer caso, el Método de Coeficientes Indeterminados, se hace una suposición inteligente basada en la forma de\(f(x)\). En el segundo método, uno puede desarrollar sistemáticamente la solución particular. Volveremos a este método el Método de Variación de Parámetros, más adelante en el libro.

    Resolvamos una ecuación diferencial simple destacando cómo podemos manejar ecuaciones no homogéneas.

    Ejemplo 1.10. Considera la ecuación

    \[y^{\prime \prime}+2 y^{\prime}-3 y=4 \nonumber \]

    El primer paso es determinar la solución de la ecuación homogénea. Así, resolvemos

    \[y_{h}^{\prime \prime}+2 y_{h}^{\prime}-3 y_{h}=0 . \nonumber \]

    La ecuación característica es\(r^{2}+2 r-3=0\). Las raíces son\(r=1,-3\). Entonces, podemos escribir de inmediato la solución

    \[y_{h}(x)=c_{1} e^{x}+c_{2} e^{-3 x} . \nonumber \]

    El segundo paso es encontrar una solución particular de (1.22). ¿Qué función posible podemos insertar en esta ecuación de tal manera que solo quede un 4? Si intentamos algo proporcional a\(x\), entonces nos quedamos con una función lineal después de insertar\(x\) y sus derivadas. Quizás una función constante se podría pensar. \(y=4\)no funciona. Pero, podríamos intentar una constante arbitraria,\(y=A\).

    A ver. \(y=A\)Insertando en\((1.22)\), obtenemos

    \[-3 A=4 . \nonumber \]

    ¡Ah, ja! Vemos que podemos elegir\(A=-\dfrac{4}{3}\) y esto funciona. Entonces, tenemos una solución particular,\(y_{p}(x)=-\dfrac{4}{3}\). Este paso está hecho.

    Combinando nuestras dos soluciones, tenemos la solución general a la ecuación original no homogénea (1.22). A saber,

    \[y(x)=y_{h}(x)+y_{p}(x)=c_{1} e^{x}+c_{2} e^{-3 x}-\dfrac{4}{3} \nonumber \]

    Inserte esta solución en la ecuación y verifique que efectivamente sea una solución. Si se nos hubieran dado condiciones iniciales, ahora podríamos utilizarlas para determinar nuestras constantes arbitrarias.

    ¿Y si tuviéramos un término fuente diferente? Considera la ecuación

    \[y^{\prime \prime}+2 y^{\prime}-3 y=4 x . \nonumber \]

    Lo único que cambiaría es nuestra solución particular. Entonces, necesitamos una conjetura. Sabemos que una función constante no funciona por el último ejemplo. Entonces, vamos a intentarlo\(y_{p}=A x\). Insertando esta función en la ecuación (??) , obtenemos

    \[2 A-3 A x=4 x . \nonumber \]

    Picking\(A=-4 / 3\) se desharía de los\(x\) términos, pero no lo cancelará todo. Todavía tenemos una izquierda constante. Entonces, necesitamos algo más general.

    Probemos una función lineal,\(y_{p}(x)=A x+B\). Luego obtenemos después de la sustitución\(\operatorname{into}(1.24)\)

    \[2 A-3(A x+B)=4 x . \nonumber \]

    Igualando los coeficientes de las diferentes potencias de ambos\(x\) lados, encontramos un sistema de ecuaciones para los coeficientes indeterminados:

    \[\begin{array}{r} 2 A-3 B=0 \\ -3 A=4 . \end{array} \nonumber \]

    Estos se resuelven fácilmente para obtener

    \[\begin{aligned} &A=-\dfrac{4}{3} \\ &B=\dfrac{2}{3} A=-\dfrac{8}{9} \end{aligned} \nonumber \]

    Entonces, nuestra solución particular es

    \[y_{p}(x)=-\dfrac{4}{3} x-\dfrac{8}{9} . \nonumber \]

    Esto da la solución general al problema no homogéneo como

    \[y(x)=y_{h}(x)+y_{p}(x)=c_{1} e^{x}+c_{2} e^{-3 x}-\dfrac{4}{3} x-\dfrac{8}{9} \nonumber \]

    Hay formas generales que puedes adivinar con base en la forma del término de conducción,\(f(x)\). Algunos ejemplos se dan en el Cuadro 1.1.4. Aplicaciones más generales están cubiertas en un texto estándar sobre ecuaciones diferenciales. No obstante, el procedimiento es sencillo. Dado\(f(x)\) en una forma particular, haces una conjetura apropiada hasta algunos parámetros desconocidos, o coeficientes. Insertar la conjetura conduce a un sistema de ecuaciones para los coeficientes desconocidos. Resuelve el sistema y tienes tu solución. Esta solución se agrega luego a la solución general de la ecuación diferencial homogénea.

    \(f(x)\) Adivina
    \(a_{n} x^{n}+a_{n-1} x^{n-1}+\cdots+a_{1} x+a_{0}+A_{n} x^{n}+A_{n-1} x^{n-1}+\cdots+A_{1} x+A_{0}\)  
    \(a e^{b x}\) \(A e^{b x}\)
    \(a \cos \omega x+b \sin \omega x\) \(A \cos \omega x+B \sin \omega x\)

    Ejemplo 1.11. Como ejemplo final, consideremos la ecuación

    \[y^{\prime \prime}+2 y^{\prime}-3 y=2 e^{-3 x} \nonumber \]

    De acuerdo con lo anterior, adivinaríamos una solución de la forma\(y_{p}=A e^{-3 x}\). Insertando nuestra conjetura, encontramos

    \[0=2 e^{-3 x} \nonumber \]

    ¡Uy! ¡El coeficiente,\(A\), desapareció! No podemos resolverlo. ¿Qué salió mal?

    La respuesta está en la solución general del problema homogéneo. Tenga en cuenta que\(e^{x}\) y\(e^{-3 x}\) son soluciones al problema homogéneo. Entonces, un múltiplo de no nos\(e^{-3 x}\) llevará a ningún lado. Resulta que hay una modificación más del método. Si nuestro término de conducción contiene términos que son soluciones del problema homogéneo, entonces necesitamos hacer una conjetura consistente en la menor potencia posible de\(x\) veces la función que ya no es una solución del problema homogéneo. A saber, adivinamos\(y_{p}(x)=A x e^{-3 x}\). Calculamos la derivada de nuestra conjetura,\(y_{p}^{\prime}=A(1-3 x) e^{-3 x}\) y\(y_{p}^{\prime \prime}=A(9 x-6) e^{-3 x}\). Insertando estos en la ecuación, obtenemos

    \[[(9 x-6)+2(1-3 x)-3 x] A e^{-3 x}=2 e^{-3 x} \nonumber \]

    \[-4 A=2 . \nonumber \]

    Entonces,\(A=-1 / 2\) y\(y_{p}(x)=-\dfrac{1}{2} x e^{-3 x}\).

    Método Modificado de Coeficientes Indeterminados

    En general, si algún término en la conjetura\(y_{p}(x)\) es una solución de la ecuación homogénea, entonces multiplique la conjetura por\(x^{k}\), donde\(k\) está el entero positivo más pequeño tal que ningún término in\(x^{k} y_{p}(x)\) es una solución del problema homogéneo.

    Ecuaciones de Cauchy-Euler

    Otra clase de ecuaciones diferenciales lineales solucionables que es de interés son las ecuaciones de tipo Cauchy-Euler. Estos son dados por

    \[a x^{2} y^{\prime \prime}(x)+b x y^{\prime}(x)+c y(x)=0 . \nonumber \]

    Obsérvese que en tales ecuaciones la potencia de\(x\) en cada uno de los coeficientes coincide con el orden de la derivada en ese término. Estas ecuaciones se resuelven de manera similar a las ecuaciones de coeficiente constante.

    Uno comienza por hacer la conjetura\(y(x)=x^{r}\). Insertando esta función y sus derivadas,

    \[y^{\prime}(x)=r x^{r-1}, \quad y^{\prime \prime}(x)=r(r-1) x^{r-2}, \nonumber \]

    en la Ecuación (1.28), tenemos

    \[[a r(r-1)+b r+c] x^{r}=0 \nonumber \]

    Dado que esto tiene que ser cierto para todos\(x\) en el dominio del problema, obtenemos la ecuación característica

    \[a r(r-1)+b r+c=0 \nonumber \]

    Al igual que la ecuación diferencial de coeficiente constante, tenemos una ecuación cuadrática y la naturaleza de las raíces vuelve a conducir a tres clases de soluciones. Estos se muestran a continuación. Algunos de los detalles se proporcionan en la siguiente sección.

    Clasificación de raíces de la ecuación característica para ecuaciones diferenciales de Cauchy-Euler

    1. Raíces reales y distintas\(r_{1}, r_{2}\). En este caso las soluciones correspondientes a cada raíz son linealmente independientes. Por lo tanto, la solución general es simplemente\(y(x)=c_{1} x^{r_{1}}+c_{2} x^{r_{2}}\).
    2. Raíces reales e iguales\(r_{1}=r_{2}=r\). En este caso las soluciones correspondientes a cada raíz son linealmente dependientes. Para encontrar una segunda solución linealmente independiente, se utiliza el Método de Reducción del Orden. Esto da la segunda solución como\(x^{r} \ln |x|\). Por lo tanto, la solución general se encuentra como\(y(x)=\left(c_{1}+c_{2} \ln |x|\right) x^{r}\).
    3. Raíces conjugadas complejas\(r_{1}, r_{2}=\alpha \pm i \beta\). En este caso las soluciones correspondientes a cada raíz son linealmente independientes. Estos exponenciales complejos pueden ser reescritos en términos de funciones trigonométricas. A saber, uno tiene eso\(x^{\alpha} \cos (\beta \ln |x|)\) y\(x^{\alpha} \sin (\beta \ln |x|)\) son dos soluciones linealmente independientes. Por lo tanto, la solución general se convierte\(y(x)=\)\(x^{\alpha}\left(c_{1} \cos (\beta \ln |x|)+c_{2} \sin (\beta \ln |x|)\right)\).

    Ejemplo 1.12. \(x^{2} y^{\prime \prime}+5 x y^{\prime}+12 y=0\)

    Al igual que con las ecuaciones de coeficiente constante, comenzamos por anotar la ecuación característica. Haciendo un simple cómputo,

    \[\begin{aligned} 0 &=r(r-1)+5 r+12 \\ &=r^{2}+4 r+12 \\ &=(r+2)^{2}+8 \\ -8 &=(r+2)^{2} \end{aligned} \nonumber \]

    uno determina que las raíces son\(r=-2 \pm 2 \sqrt{2} i\). Por lo tanto, la solución general es el\(y(x)=\left[c_{1} \cos (2 \sqrt{2} \ln |x|)+c_{2} \sin (2 \sqrt{2} \ln |x|)\right] x^{-2}\) Ejemplo 1.13. \(t^{2} y^{\prime \prime}+3 t y^{\prime}+y=0, \quad y(1)=0, y^{\prime}(1)=1\).

    Para este ejemplo la ecuación característica toma la forma

    \[r(r-1)+3 r+1=0, \nonumber \]

    \[r^{2}+2 r+1=0 . \nonumber \]

    Sólo hay una raíz real,\(r=-1\). Por lo tanto, la solución general es

    \[y(t)=\left(c_{1}+c_{2} \ln |t|\right) t^{-1} . \nonumber \]

    Sin embargo, este problema es un problema de valor inicial. En\(t=1\) conocemos los valores de\(y\) y\(y^{\prime}\). Usando la solución general, primero tenemos eso

    \[0=y(1)=c_{1} \nonumber \]

    Así, tenemos hasta el momento eso\(y(t)=c_{2} \ln |t| t^{-1}\). Ahora, usando la segunda condición y

    \[y^{\prime}(t)=c_{2}(1-\ln |t|) t^{-2}, \nonumber \]

    tenemos

    \[1=y(1)=c_{2} \text {. } \nonumber \]

    Por lo tanto, la solución del problema de valor inicial es\(y(t)=\ln |t| t^{-1}\).

    Ecuaciones de Cauchy-Euler no homogéneas También podemos resolver algunas ecuaciones de Cauchy-Euler no homogéneas utilizando el Método de Coeficientes Indeterminados. Demostraremos esto con un par de ejemplos.

    Ejemplo 1.14. Encuentra la solución de\(x^{2} y^{\prime \prime}-x y^{\prime}-3 y=2 x^{2}\).

    Primero encontramos la solución de la ecuación homogénea. La ecuación característica es\(r^{2}-2 r-3=0\). Entonces, las raíces son\(r=-1,3\) y la solución es\(y_{h}(x)=c_{1} x^{-1}+c_{2} x^{3}\)

    A continuación necesitamos una solución particular. Vamos a adivinar\(y_{p}(x)=A x^{2}\). Insertando la conjetura en la ecuación diferencial no homogénea, tenemos

    \[\begin{aligned} 2 x^{2} &=x^{2} y^{\prime \prime}-x y^{\prime}-3 y=2 x^{2} \\ &=2 A x^{2}-2 A x^{2}-3 A x^{2} \\ &=-3 A x^{2} \end{aligned} \nonumber \]

    Entonces,\(A=-2 / 3\). Por lo tanto, la solución general del problema es

    \[y(x)=c_{1} x^{-1}+c_{2} x^{3}-\dfrac{2}{3} x^{2} . \nonumber \]

    Ejemplo 1.15. Encuentra la solución de\(x^{2} y^{\prime \prime}-x y^{\prime}-3 y=2 x^{3}\).

    En este caso el término no homogéneo es una solución del problema homogéneo, que resolvimos en el último ejemplo. Entonces, necesitaremos una modificación del método. Tenemos un problema de la forma

    \[a x^{2} y^{\prime \prime}+b x y^{\prime}+c y=d x^{r} \nonumber \]

    donde\(r\) es una solución de\(a r(r-1)+b r+c=0\). Adivina una solución de la forma\(y=A x^{r} \ln x\). Entonces uno encuentra que la ecuación diferencial se reduce a\(A x^{r}(2 a r-a+b)=d x^{r}\). [Debes verificar esto por ti mismo.]

    Con esto en mente, ahora podemos resolver el problema que nos ocupa. Vamos\(y_{p}=\)\(A x^{3} \ln x\). Insertando en la ecuación, obtenemos\(4 A x^{3}=2 x^{3}\), o\(A=1 / 2\). La solución general del problema ahora puede escribirse como

    \[y(x)=c_{1} x^{-1}+c_{2} x^{3}+\dfrac{1}{2} x^{3} \ln x . \nonumber \]

    Visión general del curso

    En su mayor parte, tu primer curso en ecuaciones diferenciales fue sobre resolver problemas de valor inicial. Cuando las ecuaciones de segundo orden no cayeron en los casos anteriores, entonces es posible que hayas aprendido a obtener soluciones aproximadas usando métodos de series de potencia, o incluso encontrando nuevas funciones a partir de estos métodos. En este curso exploraremos dos temas amplios: sistemas de ecuaciones diferenciales y problemas de valor límite.

    Veremos que existen problemas de valor inicial interesantes a la hora de estudiar sistemas de ecuaciones diferenciales. De hecho, muchas de las ecuaciones de segundo orden que has visto en el pasado se pueden escribir como un sistema de dos ecuaciones de primer orden. Por ejemplo, la ecuación para el movimiento armónico simple,

    \[x^{\prime \prime}+\omega^{2} x=0 \nonumber \]

    se puede escribir como el sistema

    \[\begin{gathered} x^{\prime}=y \\ y^{\prime}=-\omega^{2} x \end{gathered} . \nonumber \]

    Sólo tenga en cuenta eso\(x^{\prime \prime}=y^{\prime}=-\omega^{2} x\). Por supuesto, se puede generalizar esto a sistemas con lados derechos más complicados. El comportamiento de tales sistemas puede ser bastante interesante y estos sistemas resultan de una variedad de modelos físicos.

    En la segunda parte del curso exploraremos problemas de valor límite. A menudo estos problemas evolucionan a partir del estudio de ecuaciones diferenciales parciales. Tales ejemplos provienen de cuerdas vibratorias, distribuciones de temperatura, vigas de flexión, etc. Las condiciones de contorno son condiciones que se imponen en más de un punto, mientras que para los problemas de valor inicial las condiciones se especifican en un punto. Por ejemplo, podríamos tomar la ecuación de oscilación anterior y preguntar cuándo las soluciones de la ecuación satisfarían las condiciones\(x(0)=0\) y\(x(1)=0\). La solución general, como hemos determinado anteriormente, es

    \[x(t)=c_{1} \cos \omega t+c_{2} \sin \omega t \nonumber \]

    Exigiendo\(x(0)=0\), nos encontramos con eso\(c_{1}=0\), saliendo\(x(t)=c_{2} \sin \omega t\). También imponiendo eso\(0=x(1)=c_{2} \sin \omega\), nos vemos obligados a hacer\(\omega=n \pi\), para\(n=1,2, \ldots\). (Hacer no\(c_{2}=0\) daría una solución distinta de cero del problema.) Así, hay un número infinito de soluciones posibles, si tenemos la libertad de elegir nuestra\(\omega\). En la segunda mitad del curso investigaremos técnicas para resolver problemas de valor límite y veremos varias aplicaciones, entre ellas ver las conexiones con ecuaciones diferenciales parciales y series de Fourier.

    Apéndice: Reducción de orden y raíces complejas

    En esta sección proporcionamos algunos de los detalles que conducen a las formas generales para el coeficiente constante y las ecuaciones diferenciales de Cauchy-Euler. En la primera subsección revisamos cómo se utiliza el Método de Reducción del Orden para obtener las segundas soluciones linealmente independientes para el caso de una raíz repetida. En la segunda subsección revisamos cómo se pueden utilizar las soluciones complejas para producir dos soluciones reales linealmente independientes.

    Método de Reducción de Orden

    Primero consideramos ecuaciones de coeficiente constante. En el caso de que haya una raíz real repetida, uno solo tiene una solución independiente,\(y_{1}(x)=e^{r x}\). La pregunta es ¿cómo se obtiene la segunda solución? Dado que las soluciones son independientes, debemos tener que tener que la relación no\(y_{2}(x) / y_{1}(x)\) sea una constante. Entonces, adivinamos la forma\(y_{2}(x)=v(x) y_{1}(x)=v(x) e^{r x}\). Para ecuaciones de segundo orden de coeficiente constante, podemos escribir la ecuación como

    \[(D-r)^{2} y=0 \nonumber \]

    donde\(D=\dfrac{d}{d x}\)

    Ahora insertamos\(y_{2}(x)\) en esta ecuación. Primero calculamos

    \[(D-r) v e^{r x}=v^{\prime} e^{r x} . \nonumber \]

    Entonces,

    \[(D-r)^{2} v e^{r x}=(D-r) v^{\prime} e^{r x}=v^{\prime \prime} e^{r x} . \nonumber \]

    Entonces, si\(y_{2}(x)\) va a ser una solución a la ecuación diferencial,\((D-r)^{2} y_{2}=0\), entonces\(v^{\prime \prime}(x) e^{r x}=0\) para todos\(x\). Entonces,\(v^{\prime \prime}(x)=0\), lo que implica que

    \[v(x)=a x+b \nonumber \]

    Entonces,

    \[y_{2}(x)=(a x+b) e^{r x} . \nonumber \]

    Sin pérdida de generalidad, podemos tomar\(b=0\) y\(a=1\) obtener la segunda solución linealmente independiente,\(y_{2}(x)=x e^{r x}\). Derivar la solución para el Caso 2 para las ecuaciones de Cauchy-Euler es más desordenado, pero funciona de la misma manera. Primero señalar que para la raíz real,\(r=r_{1}\), la ecuación característica tiene que factorizar como\(\left(r-r_{1}\right)^{2}=0\). Ampliando, tenemos

    \[r^{2}-2 r_{1} r+r_{1}^{2}=0 \nonumber \]

    La ecuación característica general es

    \[\operatorname{ar}(r-1)+b r+c=0 \nonumber \]

    Reescribiendo esto, tenemos

    \[r^{2}+\left(\dfrac{b}{a}-1\right) r+\dfrac{c}{a}=0 . \nonumber \]

    Comparando ecuaciones, encontramos

    \[\dfrac{b}{a}=1-2 r_{1}, \quad \dfrac{c}{a}=r_{1}^{2} \nonumber \]

    Entonces, la ecuación general de Cauchy-Euler en este caso toma la forma

    \[x^{2} y^{\prime \prime}+\left(1-2 r_{1}\right) x y^{\prime}+r_{1}^{2} y=0 . \nonumber \]

    Ahora buscamos la segunda solución linealmente independiente en la forma\(y_{2}(x)=\)\(v(x) x^{r_{1}}\). Primero enumeramos esta función y sus derivados,

    \[\begin{aligned} y_{2}(x) &=v x^{r_{1}} \\ y_{2}^{\prime}(x) &=\left(x v^{\prime}+r_{1} v\right) x^{r_{1}-1}, \\ y_{2}^{\prime \prime}(x) &=\left(x^{2} v^{\prime \prime}+2 r_{1} x v^{\prime}+r_{1}\left(r_{1}-1\right) v\right) x^{r_{1}-2} . \end{aligned} \nonumber \]

    Insertando estas formas en la ecuación diferencial, tenemos

    \[\begin{aligned} 0 &=x^{2} y^{\prime \prime}+\left(1-2 r_{1}\right) x y^{\prime}+r_{1}^{2} y \\ &=\left(x v^{\prime \prime}+v^{\prime}\right) x^{r_{1}+1} \end{aligned} \nonumber \]

    Por lo tanto, necesitamos resolver la ecuación

    \[x v^{\prime \prime}+v^{\prime}=0, \nonumber \]

    \[\dfrac{v^{\prime \prime}}{v^{\prime}}=-\dfrac{1}{x} \nonumber \]

    Integrando, tenemos

    \[\ln \left|v^{\prime}\right|=-\ln |x|+C . \nonumber \]

    Exponenciando, tenemos una última ecuación diferencial que resolver,

    \[v^{\prime}=\dfrac{A}{x} . \nonumber \]

    Por lo tanto,

    \[v(x)=A \ln |x|+k . \nonumber \]

    Entonces, hemos encontrado que la segunda ecuación linealmente independiente puede escribirse como

    \[y_{2}(x)=x^{r_{1}} \ln |x| \nonumber \]

    Raíces Complejas

    Cuando uno tiene raíces complejas en la solución de ecuaciones de coeficientes constantes, uno necesita mirar las soluciones

    \[y_{1,2}(x)=e^{(\alpha \pm i \beta) x} \nonumber \]

    Hacemos uso de la fórmula de Euler

    \[e^{i \beta x}=\cos \beta x+i \sin \beta x . \nonumber \]

    Entonces la combinación lineal de\(y_{1}(x)\) y\(y_{2}(x)\) se convierte

    \[\begin{aligned} A e^{(\alpha+i \beta) x}+B e^{(\alpha-i \beta) x} &=e^{\alpha x}\left[A e^{i \beta x}+B e^{-i \beta x}\right] \\ &=e^{\alpha x}[(A+B) \cos \beta x+i(A-B) \sin \beta x] \\ & \equiv e^{\alpha x}\left(c_{1} \cos \beta x+c_{2} \sin \beta x\right) . \end{aligned} \nonumber \]

    Así, vemos que tenemos una combinación lineal de dos soluciones reales, linealmente independientes,\(e^{\alpha x} \cos \beta x\) y\(e^{\alpha x} \sin \beta x\).

    Al tratar con las ecuaciones de Cauchy-Euler, tenemos soluciones de la forma\(y(x)=x^{\alpha+i \beta}\). La clave para obtener soluciones reales es recordar primero que

    \[x^{y}=e^{\ln x^{y}}=e^{y \ln x} . \nonumber \]

    Así, un poder puede escribirse como exponencial y la solución puede escribirse como

    \[y(x)=x^{\alpha+i \beta}=x^{\alpha} e^{i \beta \ln x}, \quad x>0 . \nonumber \]

    Ahora podemos encontrar dos soluciones reales, linealmente independientes,\(x^{\alpha} \cos (\beta \ln |x|)\) y\(x^{\alpha} \sin (\beta \ln |x|)\) siguiendo los mismos pasos anteriores para el caso de coeficiente constante.

    Problemas

    1.1. Encuentra todas las soluciones de las ecuaciones diferenciales de primer orden. Cuando se da una condición inicial, encuentre la solución particular que satisfagan esa condición.
    a.\(\dfrac{d y}{d x}=\dfrac{\sqrt{1-y^{2}}}{x}\)
    b\(x y^{\prime}=y(1-2 y), \quad y(1)=2\).
    \(y^{\prime}-(\sin x) y=\sin x\)c.
    d\(x y^{\prime}-2 y=x^{2}, y(1)=1\).
    e\(\dfrac{d s}{d t}+2 s=s t^{2}, \quad, s(0)=1\).
    f\(x^{\prime}-2 x=t e^{2 t}\).

    1.2. Encuentra todas las soluciones de las ecuaciones diferenciales de segundo orden. Cuando se da una condición inicial, encuentre la solución particular que satisfagan esa condición.
    a.\(y^{\prime \prime}-9 y^{\prime}+20 y=0\)
    b\(y^{\prime \prime}-3 y^{\prime}+4 y=0, \quad y(0)=0, \quad y^{\prime}(0)=1\).
    \(x^{2} y^{\prime \prime}+5 x y^{\prime}+4 y=0, \quad x>0\)c.
    d\(x^{2} y^{\prime \prime}-2 x y^{\prime}+3 y=0, \quad x>0\).

    1.3. Considerar la ecuación diferencial

    \[\dfrac{d y}{d x}=\dfrac{x}{y}-\dfrac{x}{1+y} . \nonumber \]

    a. Encuentre la familia de soluciones de 1 parámetro (solución general) de esta ecuación.

    b. Encontrar la solución de esta ecuación satisfaciendo la condición inicial\(y(0)=1\). ¿Es este un miembro de la familia de 1 parámetro?

    1.4. El problema del valor inicial

    \[\dfrac{d y}{d x}=\dfrac{y^{2}+x y}{x^{2}}, \quad y(1)=1 \nonumber \]

    no cae dentro de la clase de problemas considerados en nuestra revisión. Sin embargo, si se sustituye\(y(x)=x z(x)\) en la ecuación diferencial, se obtiene una ecuación para la\(z(x)\) cual se puede resolver. Utilice esta sustitución para resolver el problema de valor inicial para\(y(x)\)

    1.5. Considera la ecuación diferencial no homogénea\(x^{\prime \prime}-3 x^{\prime}+2 x=6 e^{3 t}\).

    a. Encontrar la solución general de la ecuación homogénea.

    b. Encontrar una solución particular utilizando el Método de Coeficientes Indeterminados adivinando\(x_{p}(t)=A e^{3 t}\).

    c. Usa tus respuestas en las partes anteriores para anotar la solución general para este problema.

    1.6. Encuentra la solución general de cada ecuación diferencial. Cuando se da una condición inicial, encuentre la solución particular que satisfagan esa condición.

    a\(y^{\prime \prime}-3 y^{\prime}+2 y=20 e^{-2 x}, \quad y(0)=0, \quad y^{\prime}(0)=6\).

    b\(y^{\prime \prime}+y=2 \sin 3 x\).\(y^{\prime \prime}+y=1+2 \cos x\) c.

    d.\(x^{2} y^{\prime \prime}-2 x y^{\prime}+2 y=3 x^{2}-x, \quad x>0\)

    1.7. Verificar que la función dada es una solución y usa Reducción de Orden para encontrar una segunda solución linealmente independiente.

    a\(x^{2} y^{\prime \prime}-2 x y^{\prime}-4 y=0, \quad y_{1}(x)=x^{4}\).

    b\(x y^{\prime \prime}-y^{\prime}+4 x^{3} y=0, \quad y_{1}(x)=\sin \left(x^{2}\right)\).

    1.8. Un cierto modelo del movimiento de una bola de whiffle lanzada viene dado por

    \[m x^{\prime \prime}+c x^{\prime}+m g=0, \quad x(0)=0, \quad x^{\prime}(0)=v_{0} . \nonumber \]

    Aquí\(m\) está la masa de la bola,\(g=9.8 \mathrm{~m} / \mathrm{s}^{2}\) es la aceleración por gravedad y\(c\) es una medida de la amortiguación. Como no hay\(x\) término, podemos escribir esto como una ecuación de primer orden para la velocidad\(v(t)=x^{\prime}(t)\):

    \[m v^{\prime}+c v+m g=0 . \nonumber \]

    a. Encuentre la solución general para la velocidad\(v(t)\) de la ecuación diferencial lineal de primer orden anterior.

    b. utilizar la solución de la parte a para encontrar la solución general para el puesto\(x(t)\).

    c. ¿Encuentra una expresión para determinar cuánto tiempo tarda la pelota en alcanzar su altura máxima?

    d. Supongamos que\(c / m=10 \mathrm{~s}^{-1}\). Para\(v_{0}=5,10,15,20 \mathrm{~m} / \mathrm{s}\), trazar la solución,\(x(t)\), versus el tiempo.

    e. A partir de sus parcelas y de la expresión en la parte c, determinar el tiempo de subida. ¿Estas respuestas están de acuerdo?

    f. ¿Qué puedes decir sobre el tiempo que tarda la pelota en caer en comparación con el tiempo de subida?

    Sistemas de Ecuaciones Diferenciales

    Introducción

    En este capítulo comenzaremos nuestro estudio de sistemas de ecuaciones diferenciales. Después de definir los sistemas de primer orden, veremos los sistemas de coeficientes constantes y el comportamiento de las soluciones para estos sistemas. Además, la mayor parte de la discusión se centrará en sistemas planos o bidimensionales. Para tales sistemas podremos observar una variedad de representaciones gráficas de la familia de soluciones y discutir las características cualitativas de los sistemas que podemos resolver en preparación para el estudio de sistemas cuyas soluciones no se pueden encontrar en una forma algebraica.

    Una forma general para los sistemas de primer orden en el plano viene dada por un sistema de dos ecuaciones para incógnitas\(x(t)\) y\(y(t)\):

    \[\begin{aligned} &x^{\prime}(t)=P(x, y, t) \\ &y^{\prime}(t)=Q(x, y, t) \end{aligned} \nonumber \]

    Un sistema autónomo es aquel en el que no existe una dependencia explícita del tiempo:

    \[\begin{aligned} &x^{\prime}(t)=P(x, y) \\ &y^{\prime}(t)=Q(x, y) \end{aligned} \nonumber \]

    De lo contrario el sistema se llama no autónomo.

    Un sistema lineal toma la forma

    \[\begin{aligned} x^{\prime} &=a(t) x+b(t) y+e(t) \\ y^{\prime} &=c(t) x+d(t) y+f(t) \end{aligned} \nonumber \]

    Un sistema lineal homogéneo da como resultado cuándo\(e(t)=0\) y\(f(t)=0\).

    Un sistema lineal de coeficientes constantes de ecuaciones diferenciales de primer orden viene dado por

    \[\begin{aligned} &x^{\prime}=a x+b y+e \\ &y^{\prime}=c x+d y+f \end{aligned} \nonumber \]

    Nos centraremos en sistemas lineales y homogéneos de ecuaciones diferenciales de primer orden de coeficientes constantes:

    imagen

    Como veremos más adelante, tales sistemas pueden resultar por una simple traducción de las funciones desconocidas. Se dice que estas ecuaciones están acopladas si cualquiera\(b \neq 0\) o\(c \neq 0\).

    Comenzamos por señalar que el sistema (2.5) puede reescribirse como una ecuación diferencial lineal de coeficiente constante de segundo orden, que ya sabemos resolver. Diferenciamos la primera ecuación en sistema sistema (2.5) y reemplazamos sistemáticamente las ocurrencias de\(y\) y\(y^{\prime}\), ya que también sabemos por la primera ecuación que\(y=\dfrac{1}{b}\left(x^{\prime}-a x\right)\). Así, tenemos

    \[\begin{aligned} x^{\prime \prime} &=a x^{\prime}+b y^{\prime} \\ &=a x^{\prime}+b(c x+d y) \\ &=a x^{\prime}+b c x+d\left(x^{\prime}-a x\right) . \end{aligned} \nonumber \]

    Reescribiendo la última línea, tenemos

    \(x^{\prime \prime}-(a+d) x^{\prime}+(a d-b c) x=0 .\)

    Se trata de una ecuación diferencial ordinaria lineal, homogénea, de coeficiente constante. Sabemos que podemos resolver esto mirando primero las raíces de la ecuación característica

    \[r^{2}-(a+d) r+a d-b c=0 \nonumber \]

    y anotar la solución general apropiada para\(x(t)\). Entonces podemos encontrar\(y(t)\) usando la ecuación (2.5):

    \[y=\dfrac{1}{b}\left(x^{\prime}-a x\right) . \nonumber \]

    Ahora demostramos esto para un ejemplo específico.

    Ejemplo 2.1. Considerar el sistema de ecuaciones diferenciales

    \[\begin{aligned} &x^{\prime}=-x+6 y \\ &y^{\prime}=x-2 y . \end{aligned} \nonumber \]

    Llevando a cabo los pasos antes señalados, tenemos eso\(x^{\prime \prime}+3 x^{\prime}-4 x=0\). Esto se puede mostrar de la siguiente manera:

    \[\begin{aligned} x^{\prime \prime} &=-x^{\prime}+6 y^{\prime} \\ &=-x^{\prime}+6(x-2 y) \\ &=-x^{\prime}+6 x-12\left(\dfrac{x^{\prime}+x}{6}\right) \\ &=-3 x^{\prime}+4 x \end{aligned} \nonumber \]

    La ecuación diferencial resultante tiene una ecuación característica de\(r^{2}+3 r-\)\(4=0\). Las raíces de esta ecuación son\(r=1,-4\). Por lo tanto,\(x(t)=c_{1} e^{t}+c_{2} e^{-4 t} .\) Pero, todavía necesitamos\(y(t)\). Desde la primera ecuación del sistema tenemos

    \[y(t)=\dfrac{1}{6}\left(x^{\prime}+x\right)=\dfrac{1}{6}\left(2 c_{1} e^{t}-3 c_{2} e^{-4 t}\right) . \nonumber \]

    Así, la solución a nuestro sistema es

    \[\begin{aligned} &x(t)=c_{1} e^{t}+c_{2} e^{-4 t}, \\ &y(t)=\dfrac{1}{3} c_{1} e^{t}-\dfrac{1}{2} c_{2} e^{-4 t} \end{aligned} \nonumber \]

    A veces uno necesita condiciones iniciales. Para estos sistemas especificaríamos condiciones como\(x(0)=x_{0}\) y\(y(0)=y_{0}\). Estos permitirían la determinación de las constantes arbitrarias como antes.

    Ejemplo 2.2. Resolver

    \[\begin{aligned} &x^{\prime}=-x+6 y \\ &y^{\prime}=x-2 y \end{aligned} \nonumber \]

    dado\(x(0)=2, y(0)=0\).

    Ya tenemos la solución general de este sistema en (2.11). Insertando las condiciones iniciales, tenemos

    \[\begin{aligned} &2=c_{1}+c_{2}, \\ &0=\dfrac{1}{3} c_{1}-\dfrac{1}{2} c_{2} . \end{aligned} \nonumber \]

    Resolviendo\(c_{1}\) y\(c_{2}\) da\(c_{1}=6 / 5\) y\(c_{2}=4 / 5\). Por lo tanto, la solución del problema de valor inicial es

    \[\begin{aligned} &x(t)=\dfrac{2}{5}\left(3 e^{t}+2 e^{-4 t}\right) \\ &y(t)=\dfrac{2}{5}\left(e^{t}-e^{-4 t}\right) \end{aligned} \nonumber \]

    \(2.2\)Soluciones de equilibrio y comportamientos cercanos

    Al estudiar sistemas de ecuaciones diferenciales, suele ser útil estudiar el comportamiento de las soluciones sin obtener una forma algebraica para la solución. Esto se hace explorando soluciones de equilibrio y soluciones cercanas a las soluciones de equilibrio. Dichas técnicas se verán útiles posteriormente en el estudio de sistemas no lineales.

    Comenzamos esta sección estudiando soluciones de equilibrio de sistema (2.4). Para soluciones de equilibrio el sistema no cambia en el tiempo. Por lo tanto, las soluciones de equilibrio satisfacen las ecuaciones\(x^{\prime}=0\) y\(y^{\prime}=0\). Por supuesto, esto sólo puede suceder para soluciones constantes. Dejar\(x_{0}\) y\(y_{0}\) ser las soluciones de equilibrio (constante). Entonces,\(x_{0}\) y\(y_{0}\) debe satisfacer el sistema

    \[\begin{aligned} &0=a x_{0}+b y_{0}+e \\ &0=c x_{0}+d y_{0}+f \end{aligned} \nonumber \]

    Este es un sistema lineal de ecuaciones algebraicas no homogéneas. Uno solo tiene una solución única cuando el determinante del sistema no es cero, es decir,\(a d-b c \neq 0\). Usando la regla (determinante) de Cramer para resolver tales sistemas, tenemos

    \[x_{0}=-\dfrac{\left|\begin{array}{ll} e & b \\ f & d \end{array}\right|}{\left|\begin{array}{ll} a & b \\ c & d \end{array}\right|}, \quad y_{0}=-\dfrac{\left|\begin{array}{ll} a & e \\ c & f \end{array}\right|}{\left|\begin{array}{ll} a & b \\ c & d \end{array}\right|} . \quad \text { (2.16) } \nonumber \]

    Si el sistema es homogéneo\(e=f=0\), entonces tenemos que el origen es la solución de equilibrio; es decir,\(\left(x_{0}, y_{0}\right)=(0,0)\). Muchas veces tendremos este caso ya que siempre se puede hacer un cambio de coordenadas de\((x, y)\) a\((u, v)\) por\(u=x-x_{0}\) y\(v=y-y_{0}\). Entonces,\(u_{0}=v_{0}=0\).

    A continuación nos interesa el comportamiento de las soluciones cercanas a las soluciones de equilibrio. Posteriormente este comportamiento será útil para analizar sistemas no lineales más complicados. Veremos algunos sistemas simples que se resuelven fácilmente.

    Ejemplo 2.3. Nodo Estable\((\operatorname{sink})\)

    Considerar el sistema

    \[\begin{aligned} &x^{\prime}=-2 x \\ &y^{\prime}=-y \end{aligned} \nonumber \]

    Se trata de un sencillo sistema desacoplado. Cada ecuación es simplemente resuelta para dar

    \[x(t)=c_{1} e^{-2 t} \text { and } y(t)=c_{2} e^{-t} . \nonumber \]

    En este caso vemos que todas las soluciones tienden hacia el punto de equilibrio,\((0,0)\). Esto se llamará nodo estable, o sumidero.

    Antes de mirar otro tipo de soluciones, exploraremos el nodo estable en el ejemplo anterior. Existen varios métodos para observar el comportamiento de las soluciones. Podemos ver las gráficas de solución de las variables dependientes versus las independientes, o podemos mirar en el\(x y\) plano -las curvas paramétricas\((x(t), y(t))\)

    Gráficas de solución: Se puede trazar cada solución en función de un conjunto\(t\) dado de condiciones iniciales. Se muestran ejemplos en la Figura\(2.1\) para varias condiciones iniciales. Tenga en cuenta que las soluciones decaen para grandes\(t\). Resultados de casos especiales para diversas condiciones iniciales. Tenga en cuenta que para\(t=0, x(0)=c_{1}\) y\(y(0)=c_{2}\). (Por supuesto, uno puede proporcionar condiciones iniciales en cualquier\(t=t_{0}\). Por lo general, es más fácil elegir\(t=0\) nuestras explicaciones generales). Si elegimos una condición inicial con\(c_{1}=0\), entonces\(x(t)=0\) para todos\(t\). Se obtienen resultados similares al configurar\(y(0)=0\)

    imagen
    Figura 2.1. Parcelas de soluciones de Ejemplo\(2.3\) para varias condiciones iniciales.

    Retrato de fase: Hay otros tipos de parcelas que pueden proporcionar información adicional sobre nuestras soluciones aunque no podamos encontrar las soluciones exactas como podemos para estos simples ejemplos. En particular, se pueden considerar las soluciones\(x(t)\) y\(y(t)\) como las coordenadas a lo largo de una trayectoria parametrizada, o curva, en el plano:\(\mathbf{r}=(x(t), y(t))\) Tales curvas se denominan trayectorias u órbitas. El\(x y\) -plano se llama plano de fase y una colección de tales órbitas da un retrato de fase para la familia de soluciones del sistema dado.

    Un método para determinar las ecuaciones de las órbitas en el plano de fase es eliminar el parámetro\(t\) entre las soluciones conocidas para obtener una relación entre\(x\) y\(y\). En el ejemplo anterior podemos hacer esto, ya que se conocen las soluciones. En particular, tenemos

    \[x=c_{1} e^{-2 t}=c_{1}\left(\dfrac{y}{c_{2}}\right)^{2} \equiv A y^{2} . \nonumber \]

    Otra forma de obtener información sobre las órbitas proviene de señalar que las pendientes de las órbitas en el\(x y\) plano están dadas por\(d y / d x\). Para sistemas autónomos, podemos escribir esta pendiente solo en términos de\(x\) y\(y\). Esto conduce a una ecuación diferencial de primer orden, que posiblemente podría resolverse analíticamente, resolverse numéricamente o simplemente usarse para producir un campo de dirección. Veremos que los campos de dirección son útiles para determinar comportamientos cualitativos de las soluciones sin encontrar soluciones explícitas.

    Primero obtendremos las órbitas para Ejemplo\(2.3\) resolviendo la ecuación de pendiente correspondiente. Primero, recordemos que para trayectorias definidas paramétricamente por\(x=x(t)\) y\(y=y(t)\), tenemos de la Regla de Cadena para\(y=y(x(t))\) eso

    \[\dfrac{d y}{d t}=\dfrac{d y}{d x} \dfrac{d x}{d t} \nonumber \]

    Por lo tanto,

    \[\dfrac{d y}{d x}=\dfrac{\dfrac{d y}{d t}}{\dfrac{d x}{d t}} \nonumber \]

    Para el sistema en (2.17) utilizamos la Ecuación (2.18) para obtener la ecuación para la pendiente en un punto de la órbita:

    \[\dfrac{d y}{d x}=\dfrac{y}{2 x} \nonumber \]

    La solución general de esta ecuación diferencial de primer orden se encuentra utilizando la separación de variables como\(x=A y^{2}\) para\(A\) una constante arbitraria. Las gráficas de estas soluciones en el plano de fase se dan en la Figura 2.2. [Tenga en cuenta que esta es la misma forma para las órbitas que habíamos obtenido anteriormente al eliminar\(t\) de la solución del sistema.]

    imagen
    Figura 2.2. Órbitas para el Ejemplo 2.3.

    Una vez que se tienen soluciones a las ecuaciones diferenciales, a menudo nos interesa el comportamiento a largo plazo de las soluciones. Dada una condición inicial particular\(\left(x_{0}, y_{0}\right)\), ¿cómo se comporta la solución a medida que aumenta el tiempo? Para órbitas cercanas a una solución de equilibrio, ¿las soluciones tienden hacia, o alejándose de, el punto de equilibrio? La respuesta es obvia cuando uno tiene las soluciones exactas\(x(t)\) y\(y(t)\). No obstante, no siempre es así. Consideremos el ejemplo anterior para las condiciones iniciales en el primer cuadrante del plano de fase. Por un punto en el primer cuadrante tenemos que

    \[d x / d t=-2 x<0 \nonumber \]

    lo que significa que como\(t \rightarrow \infty, x(t)\) obtener más negativo. Del mismo modo,

    \[d y / d t=-y<0, \nonumber \]

    indica que también\(y(t)\) se está haciendo más pequeño para este problema. Así, estas órbitas tienden hacia el origen como\(t \rightarrow \infty\). Esta información cualitativa se obtuvo sin depender de las soluciones conocidas al problema.

    Campos de dirección: Otra forma de determinar el comportamiento de nuestro sistema es dibujar el campo de dirección. Recordemos que un campo de dirección es un campo vectorial en el que se trazan flechas en la dirección de tangentes a las órbitas. Esto se hace porque las pendientes de las líneas tangentes están dadas por\(d y / d x\). Para nuestro sistema\((2.5)\), la pendiente es

    \[\dfrac{d y}{d x}=\dfrac{a x+b y}{c x+d y} . \nonumber \]

    En general, para sistemas no autónomos, obtenemos una ecuación diferencial de primer orden de la forma

    \[\dfrac{d y}{d x}=F(x, y) . \nonumber \]

    Esta ecuación particular puede ser resuelta por el lector. Ver problema de tarea\(2.2\)

    Ejemplo 2.4. Dibuja el campo de dirección para Ejemplo\(2.3\).

    Podemos usar software para dibujar campos de dirección. Sin embargo, uno puede bosquejar estos campos a mano. Tenemos que la pendiente de la tangente en este punto viene dada por

    \[\dfrac{d y}{d x}=\dfrac{-y}{-2 x}=\dfrac{y}{2 x} \nonumber \]

    Por cada punto del plano se dibuja un trozo de línea tangente con esta pendiente. En la Figura\(2.3\) mostramos algunos de estos. Para\((x, y)=(1,1)\) la pendiente es\(d y / d x=1 / 2\). Entonces, dibujamos una flecha con pendiente\(1 / 2\) en este punto. Del sistema (2.17), tenemos eso\(x^{\prime}\) y ambos\(y^{\prime}\) son negativos en este punto. Por lo tanto, el vector apunta hacia abajo y hacia la izquierda.

    Podemos hacer esto por varios puntos, como se muestra en la Figura 2.3. En ocasiones se pueden esbozar rápidamente vectores con la misma pendiente. Para este ejemplo, cuando\(y=0\), la pendiente es cero y cuando\(x=0\) la pendiente es infinita. Entonces, se pueden proporcionar varios vectores. Dichos vectores son tangentes a curvas conocidas como isoclinas en las que son\(\dfrac{d y}{d x}=\) constantes.

    A menudo es difícil proporcionar un boceto preciso de un campo de dirección. El software de computadora se puede utilizar para proporcionar una mejor interpretación. Por ejemplo\(2.3\) el campo de dirección se muestra en la Figura 2.4. Mirando este campo de dirección, se puede comenzar a “ver” las órbitas siguiendo los vectores tangentes.

    imagen
    Figura 2.3. Un boceto de varios vectores tangentes para el Ejemplo 2.3.
    imagen
    Figura 2.4. Campo de dirección para el Ejemplo 2.3.

    Por supuesto, se pueden superponer las órbitas en el campo de dirección. Esto se muestra en la Figura 2.5. ¿Son estos los patrones que viste en la Figura\(2.4 ?\)

    En este ejemplo vemos que todas las órbitas “fluyen” hacia el origen, o punto de equilibrio. Nuevamente, este es un ejemplo de lo que se llama un nodo estable o un sumidero. (Imagínese lo que le sucede al agua en un fregadero cuando el desagüe está desenchufado).

    Ejemplo 2.5. Sillita

    imagen
    Figura 2.5. Retrato de fase por Ejemplo\(2.3\).

    \[y^{\prime}=y \nonumber \]

    Este es otro sistema desacoplado. Las soluciones se obtienen de nuevo simplemente por integración. Tenemos eso\(x(t)=c_{1} e^{-t}\) y\(y(t)=c_{2} e^{t}\). Aquí tenemos que\(x\) decae a medida que\(t\) se hace grande y\(y\) aumenta a medida que\(t\) se agranda. En particular, si uno recoge las condiciones iniciales con\(c_{2}=0\), entonces las órbitas siguen el\(x\) eje -hacia el origen. Para los puntos iniciales con\(c_{1}=0\), las órbitas que se originan en el\(y\) eje -fluirán alejándose del origen. Por supuesto, en estos casos el origen es un punto de equilibrio y una vez en equilibrio, uno permanece ahí.

    De hecho, sólo hay una línea sobre la que escoger las condiciones iniciales de tal manera que la órbita conduzca hacia el punto de equilibrio. No importa lo pequeño\(c_{2}\) que sea, tarde o temprano, el término de crecimiento exponencial dominará la solución. Se puede ver este comportamiento en la Figura 2.6.

    Similar al primer ejemplo, podemos observar una variedad de parcelas. Estos están dados por Figuras\(2.6-2.7\). Las órbitas se pueden obtener del sistema como

    \[\dfrac{d y}{d x}=\dfrac{d y / d t}{d x / d t}=-\dfrac{y}{x} \nonumber \]

    La solución es\(y=\dfrac{A}{x}\). Para diferentes valores de\(A \neq 0\) obtenemos una familia de hipérbolas. Estas son las mismas curvas que se podrían obtener para las curvas de nivel de una superficie conocida como superficie de sillín,\(z=x y\). Así, este tipo de punto de equilibrio se clasifica como un punto de sillín. A partir del retrato de fase podemos verificar que hay muchas órbitas que alejan del origen (punto de equilibrio), pero hay una línea de condiciones iniciales que conduce al origen y que es el\(x\) eje -eje. En este caso, la línea de condiciones iniciales viene dada por el\(x\) eje -.

    imagen
    Figura 2.6. Parcelas de soluciones de Ejemplo\(2.5\) para varias condiciones iniciales.
    imagen
    Figura 2.7. Retrato de fase para el Ejemplo 2.5, un sillín.

    Ejemplo 2.6. Nodo inestable (fuente)

    \[\begin{aligned} &x^{\prime}=2 x \\ &y^{\prime}=y \end{aligned} \nonumber \]

    Este ejemplo es similar al Ejemplo 2.3. Las soluciones se obtienen reemplazando\(t\) con\(-t\). Las soluciones, órbitas y campos de dirección se pueden ver en las Figuras 2.8-2.9. Esto vuelve a ser un nodo, pero todas las órbitas se alejan del punto de equilibrio. Se llama nodo inestable o fuente.

    imagen
    Figura 2.8. Parcelas de soluciones de Ejemplo\(2.6\) para varias condiciones iniciales.

    Ejemplo 2.7. Centro

    \[\begin{aligned} &x^{\prime}=y \\ &y^{\prime}=-x \end{aligned} \nonumber \]

    Este sistema es un sistema simple, acoplado. Ninguna ecuación puede resolverse sin alguna información sobre la otra función desconocida. Sin embargo, podemos diferenciar la primera ecuación y usar la segunda ecuación para obtener

    \[x^{\prime \prime}+x=0 . \nonumber \]

    Reconocemos esta ecuación del último capítulo como aquella que aparece en el estudio del movimiento armónico simple. Las soluciones son oscilaciones sinusoidales puras:

    \[x(t)=c_{1} \cos t+c_{2} \sin t, \quad y(t)=-c_{1} \sin t+c_{2} \cos t . \nonumber \]

    En el plano de fase, las trayectorias se pueden determinar mirando el campo de dirección o resolviendo la ecuación de primer orden

    imagen
    Figura 2.9. Retrato de fase para el Ejemplo 2.6, un nodo inestable o fuente.

    \[\dfrac{d y}{d x}=-\dfrac{x}{y} \text {. } \nonumber \]

    Realizando una separación de variables e integrando, encontramos que

    \[x^{2}+y^{2}=C . \nonumber \]

    Así, tenemos una familia de círculos para\(C>0\). (¿Puedes probarlo usando la solución general?) Al observar los resultados gráficamente en las Figuras 2.10-2.11, se confirma este resultado. Este tipo de punto se llama centro.

    Ejemplo 2.8. Foco (espiral)

    \[\begin{aligned} &x^{\prime}=\alpha x+y \\ &y^{\prime}=-x . \end{aligned} \nonumber \]

    En este ejemplo, veremos un conjunto adicional de comportamientos de puntos de equilibrio en sistemas planos. Hemos agregado un término,\(\alpha x\), al sistema en el Ejemplo 2.7. Consideraremos los efectos para dos valores específicos del parámetro:\(\alpha=0.1,-0.2\). Los comportamientos resultantes se muestran en las gráficas restantes. Vemos órbitas que parecen espirales. Estas órbitas son espirales estables e inestables (o focos, el plural de foco).

    Podemos entender estos comportamientos relacionando una vez más el sistema de ecuaciones diferenciales de primer orden con una ecuación diferencial de segundo orden. Usando nuestro método habitual para obtener una ecuación de segundo orden de un sistema, encontramos que\(x(t)\) satisface la ecuación diferencial

    imagen
    Figura 2.10. Parcelas de soluciones de Ejemplo\(2.7\) para varias condiciones iniciales.
    imagen
    Figura 2.11. Retrato de fase para el Ejemplo 2.7, un centro.

    \[x^{\prime \prime}-\alpha x^{\prime}+x=0 \nonumber \]

    Recordamos de nuestro primer curso que esta es una forma de movimiento armónico simple amortiguado. Exploraremos los diferentes tipos de soluciones que resultarán para\(\alpha\) varios's.

    imagen
    Figura 2.12. Parcelas de soluciones de Ejemplo\(2.8\) para varias condiciones iniciales con\(\alpha=0.1\)
    imagen
    Figura 2.13. Parcelas de soluciones de Ejemplo\(2.8\) para varias condiciones iniciales con\(\alpha=-0.2\)

    La ecuación característica es\(r^{2}-\alpha r+1=0\). La solución de esta ecuación cuadrática es

    \[r=\dfrac{\alpha \pm \sqrt{\alpha^{2}-4}}{2} \nonumber \]

    Hay cinco casos especiales a considerar como se muestra a continuación.

    \[\text { Classification of Solutions of } x^{\prime \prime}-\alpha x^{\prime}+x=0 \nonumber \]

    1. \(\alpha=-2\). Hay una solución real. A este caso se le llama amortiguación crítica ya que la solución\(r=-1\) conduce a un decaimiento exponencial. La solución es\(x(t)=\left(c_{1}+c_{2} t\right) e^{-t}\).
    2. \(\alpha<-2\). Hay dos soluciones reales, negativas,\(r=-\mu,-\nu\),\(\mu, \nu>0\). La solución es\(x(t)=c_{1} e^{-\mu t}+c_{2} e^{-\nu t}\). En este caso tenemos lo que se llama movimiento sobreamortiguado. No hay oscilaciones
    3. \(-2<\alpha<0\). Hay dos soluciones conjugadas complejas\(r=\)\(\alpha / 2 \pm i \beta\) con parte real menor a cero y\(\beta=\dfrac{\sqrt{4-\alpha^{2}}}{2}\). La solución es\(x(t)=\left(c_{1} \cos \beta t+c_{2} \sin \beta t\right) e^{\alpha t / 2}\). Ya que\(\alpha<0\), esto consiste en unas oscilaciones de tiempos exponenciales en descomposición. Esto a menudo se llama una oscilación subamortiguada.
    4. \(\alpha=0\). Esto conduce a un simple movimiento armónico.
    5. \(0<\alpha<2\). Esto es similar al caso subamortiguado, excepto\(\alpha>0\). Las soluciones son oscilaciones crecientes.
    6. \(\alpha=2\). Hay una solución real. La solución es\(x(t)=\left(c_{1}+\right.\)\(\left.c_{2} t\right) e^{t}\). Conduce a un crecimiento sin límites en el tiempo.
    7. Para\(\alpha>2\). Hay dos soluciones reales y positivas\(r=\mu, \nu>0\). La solución es\(x(t)=c_{1} e^{\mu t}+c_{2} e^{\nu t}\), que crece en el tiempo.

    Para\(\alpha<0\) las soluciones están perdiendo energía, por lo que las soluciones pueden oscilar con una amplitud decreciente. Porque\(\alpha>0\), hay un crecimiento en la amplitud, lo cual no es típico. Por supuesto, puede haber un movimiento sobreamortiguado si la magnitud de\(\alpha\) es demasiado grande.

    Ejemplo 2.9. Nodo Degenerado

    \[\begin{aligned} &x^{\prime}=-x \\ &y^{\prime}=-2 x-y \end{aligned} \nonumber \]

    Para este ejemplo, escribimos las soluciones. Si bien es un sistema acoplado, solo se acopla la segunda ecuación. Hay dos enfoques posibles.

    a. Podríamos resolver la primera ecuación a encontrar\(x(t)=c_{1} e^{-t}\). Insertando esta solución en la segunda ecuación, tenemos

    \[y^{\prime}+y=-2 c_{1} e^{-t} \nonumber \]

    Esta es una ecuación lineal de primer orden relativamente simple para\(y=y(t)\). El factor integrador es\(\mu=e^{t}\). La solución se encuentra como\(y(t)=\left(c_{2}-2 c_{1} t\right) e^{-t}\).

    b. Otro método sería proceder a reescribir esto como una ecuación de segundo orden. \(x^{\prime \prime}\)La computación no nos lleva muy lejos. Entonces, miramos

    imagen
    Figura 2.14. Retrato de fase para Ejemplo\(2.8\) con\(\alpha=0.1\). Este es un foco inestable, o espiral.

    \[\begin{aligned} y^{\prime \prime} &=-2 x^{\prime}-y^{\prime} \\ &=2 x-y^{\prime} \\ &=-2 y^{\prime}-y \end{aligned} \nonumber \]

    Por lo tanto,\(y\) satisface

    \[y^{\prime \prime}+2 y^{\prime}+y=0 . \nonumber \]

    La ecuación característica tiene una raíz real,\(r=-1\). Entonces, escribimos

    \[y(t)=\left(k_{1}+k_{2} t\right) e^{-t} . \nonumber \]

    Este es un nodo degenerado estable. Combinando esto con la solución\(x(t)=\)\(c_{1} e^{-t}\), podemos demostrarlo\(y(t)=\left(c_{2}-2 c_{1} t\right) e^{-t}\) como antes.

    En la Figura\(2.16\) vemos varias órbitas en este sistema. Se diferencia del nodo estable que se muestra en la Figura\(2.2\) en que solo hay una dirección a lo largo de la cual las órbitas se acercan al origen en lugar de dos. Si uno elige\(c_{1}=0\), entonces\(x(t)=0\) y\(y(t)=c_{2} e^{-t}\). Esto conduce a órbitas que discurren a lo largo del\(y\) eje como se ve en la figura.

    imagen
    Figura 2.15. Retrato de fase para Ejemplo\(2.8\) con\(\alpha=-0.2\). Este es un foco estable, o espiral.

    En este último ejemplo, tenemos un conjunto acoplado de ecuaciones. Lo reescribimos como una ecuación diferencial de segundo orden:

    \[\begin{aligned} x^{\prime \prime} &=2 x^{\prime}-y^{\prime} \\ &=2 x^{\prime}-(-2 x+y) \\ &=2 x^{\prime}+2 x+\left(x^{\prime}-2 x\right)=3 x^{\prime} \end{aligned} \nonumber \]

    Entonces, la ecuación de segundo orden es

    \[x^{\prime \prime}-3 x^{\prime}=0 \nonumber \]

    y la ecuación característica es\(0=r(r-3)\). Esto da la solución general como

    \[x(t)=c_{1}+c_{2} e^{3} t \nonumber \]

    y así

    \[y=2 x-x^{\prime}=2\left(c_{1}+c_{2}^{3} t\right)-\left(3 c_{2} e^{3 t}\right)=2 c_{1}-c_{2} e^{3 t} \nonumber \]

    En la Figura\(2.17\) mostramos el campo de dirección. El campo de pendiente constante que se ve en este ejemplo se confirma mediante un simple cálculo:

    \[\dfrac{d y}{d x}=\dfrac{-2 x+y}{2 x-y}=-1 \nonumber \]

    Además, mirando las condiciones iniciales con\(y=2 x\), tenemos en\(t=0\),

    imagen
    Figura 2.16. Parcelas de soluciones de Ejemplo\(2.9\) para varias condiciones iniciales.

    \[2 c_{1}-c_{2}=2\left(c_{1}+c_{2}\right) \quad \Rightarrow \quad c_{2}=0 \nonumber \]

    Por lo tanto, los puntos en esta línea permanecen en esta línea para siempre,\((x, y)=\left(c_{1}, 2 c_{1}\right)\). Esta línea de puntos fijos se denomina línea de equilibrios.

    Representación Polar de Espirales

    En los ejemplos con un centro o una espiral, uno podría ser capaz de escribir las soluciones en coordenadas polares. Recordemos que un punto en el plano puede ser descrito por\((r, \theta)\) coordenadas cartesianas\((x, y)\) o polares. Dada la forma polar, se pueden encontrar los componentes cartesianos usando

    \[x=r \cos \theta \text { and } y=r \sin \theta . \nonumber \]

    Dadas las coordenadas cartesianas, se pueden encontrar las coordenadas polares usando

    \[r^{2}=x^{2}+y^{2} \text { and } \tan \theta=\dfrac{y}{x} . \nonumber \]

    Ya que\(x\) y\(y\) son funciones de\(t\), entonces naturalmente podemos pensar en\(r\) y\(\theta\) como funciones de\(t\). Las ecuaciones que satisfacen se obtienen diferenciando las relaciones anteriores con respecto a\(t\).

    imagen
    Figura 2.17. Parcelas de campo de dirección del Ejemplo 2.10.

    Diferenciar la primera ecuación en\((2.27)\) da

    \[r r^{\prime}=x x^{\prime}+y y^{\prime} . \nonumber \]

    Insertando las expresiones para\(x^{\prime}\) y\(y^{\prime}\) desde el sistema\(2.5\), tenemos

    \[r r^{\prime}=x(a x+b y)+y(c x+d y) . \nonumber \]

    En algunos casos esto puede estar escrito enteramente en términos de\(r\)'s. Del mismo modo, tenemos que

    \[\theta^{\prime}=\dfrac{x y^{\prime}-y x^{\prime}}{r^{2}} \nonumber \]

    que el lector puede probar para la tarea.

    En resumen, al convertir ecuaciones de primer orden de forma rectangular a polar, se necesitan las siguientes relaciones.

    Derivadas de tiempo de variables polares

    \[\begin{aligned} r^{\prime} &=\dfrac{x x^{\prime}+y y^{\prime}}{r} \\ \theta^{\prime} &=\dfrac{x y^{\prime}-y x^{\prime}}{r^{2}} \end{aligned} \nonumber \]

    Ejemplo 2.11. Reescribe el siguiente sistema en forma polar y resuelve el sistema resultante.

    \[\begin{aligned} &x^{\prime}=a x+b y \\ &y^{\prime}=-b x+a y \end{aligned} \nonumber \]

    Primero calculamos\(r^{\prime}\) y\(\theta^{\prime}\):

    \[\begin{gathered} r r^{\prime}=x x^{\prime}+y y^{\prime}=x(a x+b y)+y(-b x+a y)=a r^{2} \\ r^{2} \theta^{\prime}=x y^{\prime}-y x^{\prime}=x(-b x+a y)-y(a x+b y)=-b r^{2} . \end{gathered} \nonumber \]

    Esto lleva a un sistema más simple

    \[\begin{aligned} &r^{\prime}=a r \\ &\theta^{\prime}=-b \end{aligned} \nonumber \]

    Este sistema está desacoplado. La segunda ecuación en este sistema indica que atravesamos la órbita a una velocidad constante en el sentido de las agujas del reloj. Resolviendo estas ecuaciones, tenemos eso\(r(t)=r_{0} e^{a t}, \quad \theta(t)=\theta_{0}-b t\). Eliminando\(t\) entre estas soluciones, finalmente encontramos la ecuación polar de las órbitas:

    \[r=r_{0} e^{-a\left(\theta-\theta_{0}\right) t / b} \nonumber \]

    Si graficas esto para\(a \neq 0\), obtendrás espirales estables o inestables.

    Ejemplo 2.12. Considerar el sistema específico

    \[\begin{aligned} &x^{\prime}=-y+x \\ &y^{\prime}=x+y . \end{aligned} \nonumber \]

    Para convertir este sistema en forma polar, calculamos

    \[\begin{gathered} r r^{\prime}=x x^{\prime}+y y^{\prime}=x(-y+x)+y(x+y)=r^{2} \\ r^{2} \theta^{\prime}=x y^{\prime}-y x^{\prime}=x(x+y)-y(-y+x)=r^{2} \end{gathered} \nonumber \]

    Esto lleva a un sistema más simple

    \[\begin{aligned} &r^{\prime}=r \\ &\theta^{\prime}=1 \end{aligned} \nonumber \]

    Resolver estas ecuaciones rinde

    \[r(t)=r_{0} e^{t}, \quad \theta(t)=t+\theta_{0} . \nonumber \]

    Eliminando\(t\) de esta solución da las órbitas en el plano de fase, surge\(r(\theta)=\)\(r_{0} e^{\theta-\theta_{0}}\) un ejemplo más complicado para un sistema no lineal de ecuaciones diferenciales. Considera el siguiente ejemplo.

    Ejemplo 2.13.

    \[\begin{aligned} &x^{\prime}=-y+x\left(1-x^{2}-y^{2}\right) \\ &y^{\prime}=x+y\left(1-x^{2}-y^{2}\right) \end{aligned} \nonumber \]

    Transformándose a coordenadas polares, se puede demostrar que Para convertir este sistema en forma polar, calculamos

    \[r^{\prime}=r\left(1-r^{2}\right), \quad \theta^{\prime}=1 \nonumber \]

    Este sistema desacoplado se puede resolver y dichos sistemas no lineales se estudiarán en el siguiente capítulo.

    Formulación Matriz

    Hemos investigado varios sistemas lineales en el plano y en el próximo capítulo usaremos algunas de estas ideas para investigar sistemas no lineales. Necesitamos una visión más profunda de las soluciones de los sistemas planos. Entonces, en esta sección refundiremos los sistemas lineales de primer orden en forma de matriz. Esto conducirá a una mejor comprensión de los sistemas de primer orden y permitirá extensiones a dimensiones superiores y la solución de ecuaciones no homogéneas más adelante en este capítulo.

    Comenzamos con el sistema homogéneo habitual en la Ecuación (2.5). Que las incógnitas sean representadas por el vector

    \[\mathbf{x}(t)=\left(\begin{array}{c} x(t) \\ y(t) \end{array}\right) \nonumber \]

    Entonces tenemos eso

    \[\mathbf{x}^{\prime}=\left(\begin{array}{l} x^{\prime} \\ y^{\prime} \end{array}\right)=\left(\begin{array}{c} a x+b y \\ c x+d y \end{array}\right)=\left(\begin{array}{ll} a & b \\ c & d \end{array}\right)\left(\begin{array}{l} x \\ y \end{array}\right) \equiv A \mathbf{x} \nonumber \]

    Aquí hemos introducido la matriz de coeficientes\(A\). Esta es una ecuación diferencial vectorial de primer orden,

    \[\mathbf{x}^{\prime}=A \mathbf{x} \nonumber \]

    Anteriormente, podemos escribir la solución como

    \[\mathbf{x}=\mathbf{x}_{0} e^{A t} \nonumber \]

    \(\overline{1}\)El exponencial de una matriz se define usando la expansión de la serie Maclaurin Nos gustaría investigar la solución de nuestro sistema. Nuestras investigaciones conducirán a nuevas técnicas para resolver sistemas lineales utilizando métodos matriciales.

    Comenzamos recordando la solución al problema específico (2.12). Obtuvimos la solución a este sistema como

    \[\begin{gathered} x(t)=c_{1} e^{t}+c_{2} e^{-4 t}, \\ y(t)=\dfrac{1}{3} c_{1} e^{t}-\dfrac{1}{2} c_{2} e^{-4 t} \end{gathered} \nonumber \]

    Esto se puede reescribir usando operaciones matriciales. A saber, primero escribimos la solución en forma de vector.

    \[\begin{aligned} \mathbf{x} &=\left(\begin{array}{c} x(t) \\ y(t) \end{array}\right) \\ &=\left(\begin{array}{c} c_{1} e^{t}+c_{2} e^{-4 t} \\ \dfrac{1}{3} c_{1} e^{t}-\dfrac{1}{2} c_{2} e^{-4 t} \end{array}\right) \\ &=\left(\begin{array}{c} c_{1} e^{t} \\ \dfrac{1}{3} c_{1} e^{t} \end{array}\right)+\left(\begin{array}{c} c_{2} e^{-4 t} \\ -\dfrac{1}{2} c_{2} e^{-4 t} \end{array}\right) \\ &=c_{1}\left(\begin{array}{c} 1 \\ \dfrac{1}{3} \end{array}\right) e^{t}+c_{2}\left(\begin{array}{c} 1 \\ -\dfrac{1}{2} \end{array}\right) e^{-4 t} \end{aligned} \nonumber \]

    Vemos que nuestra solución está en forma de una combinación lineal de vectores de la forma

    \[\mathbf{x}=\mathbf{v} e^{\lambda t} \nonumber \]

    con\(\mathbf{v}\) un vector constante y\(\lambda\) un número constante. Esto es similar a cómo comenzamos a encontrar soluciones a las ecuaciones de coeficientes constantes de segundo orden. Entonces, para el problema general (2.3) insertamos esta suposición. Por lo tanto,

    \[\begin{aligned} \mathbf{x}^{\prime} &=A \mathbf{x} \Rightarrow \\ \lambda \mathbf{v} e^{\lambda t} &=A \mathbf{v} e^{\lambda t} . \end{aligned} \nonumber \]

    Para que esto sea cierto para todos\(t\), tenemos que

    \[A \mathbf{v}=\lambda \mathbf{v} . \nonumber \]

    Este es un problema de valor propio. \(A\)es una\(2 \times 2\) matriz para nuestro problema, pero fácilmente podría generalizarse a un sistema de ecuaciones diferenciales de\(n\) primer orden. Vamos a confinar nuestras observaciones por ahora a sistemas planos. Sin embargo, necesitamos recordar cómo resolver problemas de valor propio y luego ver cómo las soluciones de problemas de autovalor pueden ser utilizadas para obtener soluciones a nuestros sistemas de ecuaciones diferenciales.

    \[e^{x}=\sum_{k=0}^{\infty}=1+x+\dfrac{x^{2}}{2 !}+\dfrac{x^{3}}{3 !}+\cdots \nonumber \]

    Entonces, definimos

    \[e^{A}=\sum_{k=0}^{\infty}=I+A+\dfrac{A^{2}}{2 !}+\dfrac{A^{3}}{3 !}+\cdots \nonumber \]

    En general, es difícil calcular\(e^{A}\) a menos que\(A\) sea diagonal.

    \(2.4\)Problemas de autovalor

    Buscamos soluciones no triviales al problema del valor propio

    \[A \mathbf{v}=\lambda \mathbf{v} . \nonumber \]

    Observamos que\(\mathbf{v}=\mathbf{0}\) es una solución obvia. Además, no conduce a nada útil. Entonces, se le llama solución trivial. Típicamente, se nos da la matriz\(A\) y tenemos que determinar los valores propios,\(\lambda\), y los vectores propios asociados,\(\mathbf{v}\), satisfaciendo el problema de autovalor anterior. Posteriormente en el curso exploraremos otros tipos de problemas de autovalor.

    Por ahora comenzamos a resolver el problema del valor propio para\(\mathbf{v}=\left(\begin{array}{l}v_{1} \\ v_{2}\end{array}\right)\). Insertando esto en la Ecuación (2.39), obtenemos el sistema algebraico homogéneo

    \[\begin{aligned} &(a-\lambda) v_{1}+b v_{2}=0 \\ &c v_{1}+(d-\lambda) v_{2}=0 . \end{aligned} \nonumber \]

    La solución de tal sistema sería única si el determinante del sistema no es cero. No obstante, esto daría la solución trivial\(v_{1}=0, v_{2}=0\). Para obtener una solución no trivial, necesitamos forzar al determinante a ser cero. Esto produce la ecuación de valor propio

    \[0=\left|\begin{array}{cc} a-\lambda & b \\ c & d-\lambda \end{array}\right|=(a-\lambda)(d-\lambda)-b c . \nonumber \]

    Esta es una ecuación cuadrática para los valores propios que conducirían a soluciones no triviales. Si expandimos el lado derecho de la ecuación, encontramos que

    \[\lambda^{2}-(a+d) \lambda+a d-b c=0 . \nonumber \]

    Esta es la misma ecuación que la ecuación característica (2.8) para la ecuación diferencial de coeficiente constante general considerada en el primer capítulo. Así, los valores propios corresponden a las soluciones del polinomio característico para el sistema.

    Una vez que encontramos los valores propios, entonces posiblemente haya un número infinito de soluciones al sistema algebraico. Esto lo veremos en los ejemplos.

    Entonces, el proceso es

    a) Escribir la matriz de coeficientes;

    b) Encontrar los valores propios de la ecuación\(\operatorname{det}(A-\lambda I)=0\); y,

    c) Encontrar los vectores propios resolviendo el sistema lineal\((A-\lambda I) \mathbf{v}=0\) para cada uno\(\lambda\).

    Resolviendo Sistemas de Coeficientes Constantes\(2 \mathrm{D}\)

    Antes de proceder a los ejemplos, primero indicamos los tipos de soluciones que podrían resultar de la solución de un sistema de coeficientes homogéneos y constantes de ecuaciones diferenciales de primer orden. Comenzamos con el sistema lineal de ecuaciones diferenciales en forma de matriz.

    \[\dfrac{d \mathbf{x}}{d t}=\left(\begin{array}{ll} a & b \\ c & d \end{array}\right) \mathbf{x}=A \mathbf{x} . \nonumber \]

    El tipo de comportamiento depende de los valores propios de la matriz\(A\). El procedimiento consiste en determinar los valores propios y los vectores propios y utilizarlos para construir la solución general.

    Si tenemos una condición inicial,\(\mathbf{x}\left(t_{0}\right)=\mathbf{x}_{0}\), podemos determinar las dos constantes arbitrarias en la solución general para obtener la solución particular. Así, si\(\mathbf{x}_{1}(t)\) y\(\mathbf{x}_{2}(t)\) son dos soluciones linealmente independientes\({ }^{2}\), entonces la solución general se da como

    \[\mathbf{x}(t)=c_{1} \mathbf{x}_{1}(t)+c_{2} \mathbf{x}_{2}(t) \nonumber \]

    Luego, configurando\(t=0\), obtenemos dos ecuaciones lineales para\(c_{1}\) y\(c_{2}\):

    \[c_{1} \mathbf{x}_{1}(0)+c_{2} \mathbf{x}_{2}(0)=\mathbf{x}_{0} \nonumber \]

    El trabajo principal es encontrar las soluciones linealmente independientes. Esto depende de los diferentes tipos de valores propios que se obtienen al resolver la ecuación del valor propio,\(\operatorname{det}(A-\lambda I)=0\). La naturaleza de estas raíces indica la forma de la solución general. En la siguiente página resumimos la clasificación de soluciones en términos de los valores propios de la matriz de coeficientes. Primero hacemos algunas observaciones generales sobre la plausibilidad de estas soluciones y luego proporcionamos ejemplos en la siguiente sección para aclarar los métodos matriciales para nuestros sistemas bidimensionales.

    La construcción de la solución general en el Caso I es sencilla. Sin embargo, los otros dos casos necesitan un poco de explicación.

    \({ }^{2}\)Recordemos que la independencia lineal significa\(c_{1} \mathbf{x}_{1}(t)+c_{2} \mathbf{x}_{2}(t)=\mathbf{0}\) si y sólo si\(c_{1}, c_{2}=\) 0. El lector debe derivar la condición sobre\(\mathbf{x}_{i}\) la independencia lineal.

    Clasificación de las soluciones para dos
    Ecuaciones diferenciales lineales de primer orden
    1. Caso I: Dos raíces reales, distintas.

    Resolver el problema del valor propio\(A \mathbf{v}=\lambda \mathbf{v}\) para cada valor propio obteniendo dos vectores propios\(\mathbf{v}_{1}, \mathbf{v}_{2}\). Luego escribe la solución general como una combinación lineal\(\mathbf{x}(t)=c_{1} e^{\lambda_{1} t} \mathbf{v}_{1}+c_{2} e^{\lambda_{2} t} \mathbf{v}_{2}\)

    Caso II: Una Raíz Repetida

    Resolver el problema del valor propio\(A \mathbf{v}=\lambda \mathbf{v}\) para un valor propio\(\lambda\), obteniendo el primer vector propio\(\mathbf{v}_{1}\). Entonces se necesita una segunda solución linealmente independiente. Esto se obtiene resolviendo el problema no homogéneo\(A \mathbf{v}_{2}-\lambda \mathbf{v}_{2}=\mathbf{v}_{1}\) para\(\mathbf{v}_{2}\).

    La solución general es dada entonces por\(\mathbf{x}(t)=c_{1} e^{\lambda t} \mathbf{v}_{1}+c_{2} e^{\lambda t}\left(\mathbf{v}_{2}+t \mathbf{v}_{1}\right)\). 3. Caso III: Dos raíces conjugadas complejas.

    Resolver el problema del valor propio\(A \mathbf{x}=\lambda \mathbf{x}\) para un valor propio\(\lambda=\alpha+i \beta\), obteniendo un autovector\(\mathbf{v}\). Tenga en cuenta que este vector propio puede tener entradas complejas. Así, se puede escribir el vector\(\mathbf{y}(t)=e^{\lambda t} \mathbf{v}=e^{\alpha t}(\cos \beta t+\)\(i \sin \beta t) \mathbf{v}\). Ahora, construir dos soluciones linealmente independientes al problema utilizando las partes real e imaginaria de\(\mathbf{y}(t): \mathbf{y}_{1}(t)=\operatorname{Re}(\mathbf{y}(t))\) y\(\mathbf{y}_{2}(t)=\operatorname{Im}(\mathbf{y}(t))\). Entonces la solución general se puede escribir como\(\mathbf{x}(t)=c_{1} \mathbf{y}_{1}(t)+c_{2} \mathbf{y}_{2}(t)\)

    Consideremos el Caso III. Tenga en cuenta que dado que el sistema original de ecuaciones no tiene\(i\) ningunos, entonces esperaríamos soluciones reales. Entonces, miramos las partes reales e imaginarias de la solución compleja. Tenemos que la solución compleja satisface la ecuación

    \[\dfrac{d}{d t}[\operatorname{Re}(\mathbf{y}(t))+i \operatorname{Im}(\mathbf{y}(t))]=A[\operatorname{Re}(\mathbf{y}(t))+i \operatorname{Im}(\mathbf{y}(t))] \nonumber \]

    Diferenciando la suma y dividiendo las partes real e imaginaria de la ecuación, da

    \[\dfrac{d}{d t} \operatorname{Re}(\mathbf{y}(t))+i \dfrac{d}{d t} \operatorname{Im}(\mathbf{y}(t))=A[\operatorname{Re}(\mathbf{y}(t))]+i A[\operatorname{Im}(\mathbf{y}(t))] . \nonumber \]

    Estableciendo iguales las partes real e imaginaria, tenemos

    \[\dfrac{d}{d t} \operatorname{Re}(\mathbf{y}(t))=A[\operatorname{Re}(\mathbf{y}(t))] \nonumber \]

    y

    \[\dfrac{d}{d t} \operatorname{Im}(\mathbf{y}(t))=A[\operatorname{Im}(\mathbf{y}(t))] \nonumber \]

    Por lo tanto, las partes real e imaginaria son cada una soluciones linealmente independientes del sistema y la solución general puede escribirse como una combinación lineal de estas expresiones. Pasamos ahora al Caso II. Escribiendo el sistema de ecuaciones de primer orden como una ecuación de segundo orden para\(x(t)\) con la única solución de la ecuación característica\(\lambda=\dfrac{1}{2}(a+d)\),, tenemos que la solución general toma la forma

    \[x(t)=\left(c_{1}+c_{2} t\right) e^{\lambda t} . \nonumber \]

    Esto sugiere que la segunda solución linealmente independiente involucra un término de la forma\(v t e^{\lambda t}\). Resulta que la suposición que funciona es

    \[\mathbf{x}=t e^{\lambda t} \mathbf{v}_{1}+e^{\lambda t} \mathbf{v}_{2} \nonumber \]

    Insertar esta suposición en el sistema\(\mathbf{x}^{\prime}=A \mathbf{x}\) rinde

    \[\begin{aligned} \left(t e^{\lambda t} \mathbf{v}_{1}+e^{\lambda t} \mathbf{v}_{2}\right)^{\prime} &=A\left[t e^{\lambda t} \mathbf{v}_{1}+e^{\lambda t} \mathbf{v}_{2}\right] . \\ e^{\lambda t} \mathbf{v}_{1}+\lambda t e^{\lambda t} \mathbf{v}_{1}+\lambda e^{\lambda t} \mathbf{v}_{2} &=\lambda t e^{\lambda t} \mathbf{v}_{1}+e^{\lambda t} A \mathbf{v}_{2} . \\ e^{\lambda t}\left(\mathbf{v}_{1}+\lambda \mathbf{v}_{2}\right) &=e^{\lambda t} A \mathbf{v}_{2} . \end{aligned} \nonumber \]

    Al señalar que esto es cierto para todos\(t\), encontramos que

    \[\mathbf{v}_{1}+\lambda \mathbf{v}_{2}=A \mathbf{v}_{2} . \nonumber \]

    Por lo tanto,

    \[(A-\lambda I) \mathbf{v}_{2}=\mathbf{v}_{1} \text {. } \nonumber \]

    Lo sabemos todo excepto por\(\mathbf{v}_{2}\). Entonces, solo resolvemos para ello y obtenemos la segunda solución linealmente independiente.

    Ejemplos del Método Matrix

    Aquí vamos a dar algunos ejemplos de sistemas típicos para los tres casos mencionados en la última sección.

    Ejemplo 2.14. \(A=\left(\begin{array}{ll}4 & 2 \\ 3 & 3\end{array}\right)\).

    Valores propios: Primero determinamos los valores propios.

    \[0=\left|\begin{array}{cc} 4-\lambda & 2 \\ 3 & 3-\lambda \end{array}\right| \nonumber \]

    Por lo tanto,

    \[\begin{aligned} &0=(4-\lambda)(3-\lambda)-6 \\ &0=\lambda^{2}-7 \lambda+6 \\ &0=(\lambda-1)(\lambda-6) \end{aligned} \nonumber \]

    Los valores propios son entonces\(\lambda=1,6\). Este es un ejemplo del Caso I.

    Autovectores: A continuación determinamos los vectores propios asociados a cada uno de estos autovalores. Tenemos que resolver el sistema\(A \mathbf{v}=\lambda \mathbf{v}\) en cada caso. Caso\(\lambda=1\)

    \[\begin{gathered} \left(\begin{array}{ll} 4 & 2 \\ 3 & 3 \end{array}\right)\left(\begin{array}{l} v_{1} \\ v_{2} \end{array}\right)=\left(\begin{array}{l} v_{1} \\ v_{2} \end{array}\right) \\ \left(\begin{array}{ll} 3 & 2 \\ 3 & 2 \end{array}\right)\left(\begin{array}{l} v_{1} \\ v_{2} \end{array}\right)=\left(\begin{array}{l} 0 \\ 0 \end{array}\right) \end{gathered} \nonumber \]

    Esto da\(3 v_{1}+2 v_{2}=0\). Una posible solución produce un vector propio de

    \[\left(\begin{array}{l} v_{1} \\ v_{2} \end{array}\right)=\left(\begin{array}{c} 2 \\ -3 \end{array}\right) \nonumber \]

    Caso\(\lambda=6\)

    \[\begin{aligned} &\left(\begin{array}{cc} 4 & 2 \\ 3 & 3 \end{array}\right)\left(\begin{array}{l} v_{1} \\ v_{2} \end{array}\right)=6\left(\begin{array}{l} v_{1} \\ v_{2} \end{array}\right) \\ &\left(\begin{array}{cc} -2 & 2 \\ 3 & -3 \end{array}\right)\left(\begin{array}{l} v_{1} \\ v_{2} \end{array}\right)=\left(\begin{array}{l} 0 \\ 0 \end{array}\right) \end{aligned} \nonumber \]

    Para este caso tenemos que resolver\(-2 v_{1}+2 v_{2}=0\). Esto rinde

    \[\left(\begin{array}{l} v_{1} \\ v_{2} \end{array}\right)=\left(\begin{array}{l} 1 \\ 1 \end{array}\right) \nonumber \]

    Solución General: Ahora podemos construir la solución general.

    \[\begin{aligned} \mathbf{x}(t) &=c_{1} e^{\lambda_{1} t} \mathbf{v}_{1}+c_{2} e^{\lambda_{2} t} \mathbf{v}_{2} \\ &=c_{1} e^{t}\left(\begin{array}{c} 2 \\ -3 \end{array}\right)+c_{2} e^{6 t}\left(\begin{array}{l} 1 \\ 1 \end{array}\right) \\ &=\left(\begin{array}{c} 2 c_{1} e^{t}+c_{2} e^{6 t} \\ -3 c_{1} e^{t}+c_{2} e^{6 t} \end{array}\right) . \end{aligned} \nonumber \]

    Ejemplo 2.15. \(A=\left(\begin{array}{ll}3 & -5 \\ 1 & -1\end{array}\right)\).

    Valores propios: Una vez más, se resuelve la ecuación del valor propio.

    \[0=\left|\begin{array}{cc} 3-\lambda & -5 \\ 1 & -1-\lambda \end{array}\right| \nonumber \]

    Por lo tanto,

    \[\begin{aligned} &0=(3-\lambda)(-1-\lambda)+5 \\ &0=\lambda^{2}-2 \lambda+2 \\ &\lambda=\dfrac{-(-2) \pm \sqrt{4-4(1)(2)}}{2}=1 \pm i \end{aligned} \nonumber \]

    Los valores propios son entonces\(\lambda=1+i, 1-i\). Este es un ejemplo del Caso III.

    Autovectores: Para encontrar la solución general, solo necesitamos encontrar el vector propio asociado con\(1+i\).

    \[\begin{gathered} \left(\begin{array}{l} 3-5 \\ 1-1 \end{array}\right)\left(\begin{array}{l} v_{1} \\ v_{2} \end{array}\right)=(1+i)\left(\begin{array}{l} v_{1} \\ v_{2} \end{array}\right) \\ \left(\begin{array}{cc} 2-i & -5 \\ 1 & -2-i \end{array}\right)\left(\begin{array}{l} v_{1} \\ v_{2} \end{array}\right)=\left(\begin{array}{l} 0 \\ 0 \end{array}\right) \end{gathered} \nonumber \]

    Tenemos que resolver\((2-i) v_{1}-5 v_{2}=0\). Por lo tanto,

    \[\left(\begin{array}{l} v_{1} \\ v_{2} \end{array}\right)=\left(\begin{array}{c} 2+i \\ 1 \end{array}\right) \nonumber \]

    Solución compleja: Para obtener las dos soluciones reales linealmente independientes, necesitamos calcular las partes real e imaginaria de\(\mathbf{v} e^{\lambda t}\).

    \[\begin{aligned} e^{\lambda t}\left(\begin{array}{c} 2+i \\ 1 \end{array}\right) &=e^{(1+i) t}\left(\begin{array}{c} 2+i \\ 1 \end{array}\right) \\ &=e^{t}(\cos t+i \sin t)\left(\begin{array}{c} 2+i \\ 1 \end{array}\right) \\ &=e^{t}\left(\begin{array}{c} (2+i)(\cos t+i \sin t) \\ \cos t+i \sin t \end{array}\right) \\ &=e^{t}\left(\begin{array}{c} (2 \cos t-\sin t)+i(\cos t+2 \sin t) \\ \cos t+i \sin t \end{array}\right)+i e^{t}\left(\begin{array}{c} \cos t+2 \sin t \\ \sin t \end{array}\right) \\ &=e^{t}\left(\begin{array}{c} 2 \cos t-\sin t \\ \cos t \end{array}\right) \end{aligned} \nonumber \]

    Solución General: Ahora podemos construir la solución general.

    \[\begin{aligned} \mathbf{x}(t) &=c_{1} e^{t}\left(\begin{array}{l} 2 \cos t-\sin t \\ \cos t \end{array}\right)+c_{2} e^{t}\left(\begin{array}{c} \cos t+2 \sin t \\ \sin t \end{array}\right) \\ &=e^{t}\left(\begin{array}{c} c_{1}(2 \cos t-\sin t)+c_{2}(\cos t+2 \sin t) \\ c_{1} \cos t+c_{2} \sin t \end{array}\right) \end{aligned} \nonumber \]

    Nota: Esto se puede reescribir como

    \[\mathbf{x}(t)=e^{t} \cos t\left(\begin{array}{c} 2 c_{1}+c_{2} \\ c_{1} \end{array}\right)+e^{t} \sin t\left(\begin{array}{c} 2 c_{2}-c_{1} \\ c_{2} \end{array}\right) \nonumber \]

    Ejemplo 2.16. \(A=\left(\begin{array}{cc}7 & -1 \\ 9 & 1\end{array}\right)\).

    Valores propios:

    \[0=\left|\begin{array}{cc} 7-\lambda & -1 \\ 9 & 1-\lambda \end{array}\right| \nonumber \]

    Por lo tanto,

    \[\begin{aligned} &0=(7-\lambda)(1-\lambda)+9 \\ &0=\lambda^{2}-8 \lambda+16 \\ &0=(\lambda-4)^{2} \end{aligned} \nonumber \]

    Sólo hay un valor propio real,\(\lambda=4\). Este es un ejemplo del Caso II.

    Autovectores: En este caso primero resolvemos para\(\mathbf{v}_{1}\) y luego obtenemos el segundo vector linealmente independiente.

    \[\begin{aligned} &\left(\begin{array}{cc} 7 & -1 \\ 9 & 1 \end{array}\right)\left(\begin{array}{l} v_{1} \\ v_{2} \end{array}\right)=4\left(\begin{array}{l} v_{1} \\ v_{2} \end{array}\right) \\ &\left(\begin{array}{ll} 3 & -1 \\ 9 & -3 \end{array}\right)\left(\begin{array}{l} v_{1} \\ v_{2} \end{array}\right)=\left(\begin{array}{l} 0 \\ 0 \end{array}\right) \end{aligned} \nonumber \]

    Por lo tanto, tenemos

    \[3 v_{1}-v_{2}=0, \quad \Rightarrow \quad\left(\begin{array}{l} v_{1} \\ v_{2} \end{array}\right)=\left(\begin{array}{l} 1 \\ 3 \end{array}\right) \text {. } \nonumber \]

    Segunda solución linealmente independiente:

    Ahora tenemos que resolver\(A \mathbf{v}_{2}-\lambda \mathbf{v}_{2}=\mathbf{v}_{1}\).

    Ampliando el producto matriz, obtenemos el sistema de ecuaciones

    \[\begin{array}{r} 3 u_{1}-u_{2}=1 \\ 9 u_{1}-3 u_{2}=3 . \end{array} \nonumber \]

    La solución de este sistema es\(\left(\begin{array}{l}u_{1} \\ u_{2}\end{array}\right)=\left(\begin{array}{l}1 \\ 2\end{array}\right)\).

    Solución general: Construimos la solución general como

    \[\begin{aligned} \mathbf{y}(t) &=c_{1} e^{\lambda t} \mathbf{v}_{1}+c_{2} e^{\lambda t}\left(\mathbf{v}_{2}+t \mathbf{v}_{1}\right) \\ &=c_{1} e^{4 t}\left(\begin{array}{l} 1 \\ 3 \end{array}\right)+c_{2} e^{4 t}\left[\left(\begin{array}{l} 1 \\ 2 \end{array}\right)+t\left(\begin{array}{l} 1 \\ 3 \end{array}\right)\right] \\ &=e^{4 t}\left(\begin{array}{c} c_{1}+c_{2}(1+t) \\ 3 c_{1}+c_{2}(2+3 t) \end{array}\right) \end{aligned} \nonumber \]

    \[\begin{aligned} & \left(\begin{array}{cc}7 & -1 \\9 & 1\end{array}\right)\left(\begin{array}{l}u_{1} \\u_{2}\end{array}\right)-4\left(\begin{array}{l}u_{1} \\u_{2}\end{array}\right)=\left(\begin{array}{l}1 \\3\end{array}\right) \\ & \left(\begin{array}{ll}3 & -1 \\9 & -3\end{array}\right)\left(\begin{array}{l}u_{1} \\u_{2}\end{array}\right)=\left(\begin{array}{l}1 \\3\end{array}\right) \text {. } \end{aligned} \nonumber \]

    Planar Systems - Resumen

    El lector debería haber notado a estas alturas que existe una conexión entre el comportamiento de las soluciones obtenidas en Sección\(2.2\) y los valores propios encontrados a partir de las matrices de coeficientes en los ejemplos anteriores. Aquí resumimos algunos de estos casos.

    imagen

    Cuadro 2.1. Listado de comportamientos típicos en sistemas planos.

    La conexión, como hemos visto, es que la ecuación característica para la ecuación diferencial de segundo orden asociada es la misma que la ecuación de valor propio de la matriz de coeficientes para el sistema lineal. Sin embargo, se debe tener un poco de cuidado en los casos en que la matriz de coeficientes no sea diagonalizable. En la Tabla\(2.2\) se encuentran tres ejemplos de sistemas con raíces repetidas. El lector debe mirar estos sistemas y mirar los puntos en común y diferencias en estos sistemas y sus soluciones. En estos casos uno tiene nodos inestables, aunque son degenerados en que solo hay un vector propio accesible.

    Teoría de sistemas homogéneos de coeficiente constante

    Existe una teoría general para resolver sistemas de coeficientes homogéneos y constantes de ecuaciones diferenciales de primer orden. Comenzamos recordando una vez más el problema específico (2.12). Obtuvimos la solución a este sistema como

    \[\begin{gathered} x(t)=c_{1} e^{t}+c_{2} e^{-4 t}, \\ y(t)=\dfrac{1}{3} c_{1} e^{t}-\dfrac{1}{2} c_{2} e^{-4 t} \end{gathered} \nonumber \]

    imagen

    Cuadro 2.2. Tres ejemplos de sistemas con una raíz repetida de\(\lambda=2\).

    Esta vez reescribimos la solución como

    \[\begin{aligned} \mathbf{x} &=\left(\begin{array}{c} c_{1} e^{t}+c_{2} e^{-4 t} \\ \dfrac{1}{3} c_{1} e^{t}-\dfrac{1}{2} c_{2} e^{-4 t} \end{array}\right) \\ &=\left(\begin{array}{cc} e^{t} & e^{-4 t} \\ \dfrac{1}{3} e^{t}-\dfrac{1}{2} e^{-4 t} \end{array}\right)\left(\begin{array}{c} c_{1} \\ c_{2} \end{array}\right) \\ & \equiv \Phi(t) \mathbf{C} \end{aligned} \nonumber \]

    Así, podemos escribir la solución general como una\(2 \times 2\) matriz\(\Phi\) multiplicada por un vector constante arbitrario. La matriz\(\Phi\) consta de dos columnas que son soluciones linealmente independientes del sistema original. Esta matriz es un ejemplo de lo que vamos a definir como la Matriz Fundamental de soluciones del sistema. Entonces, determinar la Matriz Fundamental nos permitirá encontrar la solución general del sistema tras la multiplicación por una matriz constante. De hecho, veremos que también conducirá a una representación simple de la solución del problema de valor inicial para nuestro sistema. Vamos a esbozar la teoría general.

    Considerar el sistema de coeficientes homogéneos y constantes de las ecuaciones diferenciales de primer orden

    \[\begin{aligned} \dfrac{d x_{1}}{d t} &=a_{11} x_{1}+a_{12} x_{2}+\ldots+a_{1 n} x_{n} \\ \dfrac{d x_{2}}{d t} &=a_{21} x_{1}+a_{22} x_{2}+\ldots+a_{2 n} x_{n} \\ & \vdots \\ \dfrac{d x_{n}}{d t} &=a_{n 1} x_{1}+a_{n 2} x_{2}+\ldots+a_{n n} x_{n} \end{aligned} \nonumber \]

    Como hemos visto, esto se puede escribir en forma de matriz\(\mathbf{x}^{\prime}=A \mathbf{x}\), donde

    \[\mathbf{x}=\left(\begin{array}{c} x_{1} \\ x_{2} \\ \vdots \\ x_{n} \end{array}\right) \nonumber \]

    y

    \[A=\left(\begin{array}{cccc} a_{11} & a_{12} & \cdots & a_{1 n} \\ a_{21} & a_{22} & \cdots & a_{2 n} \\ \vdots & \vdots & \ddots & \vdots \\ a_{n 1} & a_{n 2} & \cdots & a_{n n} \end{array}\right) \nonumber \]

    Ahora, considere soluciones\(m\) vectoriales de este sistema:\(\phi_{1}(t), \phi_{2}(t), \ldots \phi_{m}(t)\). Se dice que estas soluciones son linealmente independientes en algún dominio si

    \[c_{1} \phi_{1}(t)+c_{2} \phi_{2}(t)+\ldots+c_{m} \phi_{m}(t)=0 \nonumber \]

    para todos\(t\) en el dominio implica eso\(c_{1}=c_{2}=\ldots=c_{m}=0\).

    \(\phi_{1}(t), \phi_{2}(t), \ldots \phi_{n}(t)\)Sea un conjunto de soluciones\(n\) linealmente independientes de nuestro sistema, llamado conjunto fundamental de soluciones. Construimos una matriz a partir de estas soluciones utilizando estas soluciones como la columna de esa matriz. Definimos esta matriz como la solución matriz fundamental. Esta matriz toma la forma

    \[\Phi=\left(\begin{array}{lll} \phi_{1} & \ldots & \phi_{n} \end{array}\right)=\left(\begin{array}{cccc} \phi_{11} & \phi_{12} & \cdots & \phi_{1 n} \\ \phi_{21} & \phi_{22} & \cdots & \phi_{2 n} \\ \vdots & \vdots & \ddots & \vdots \\ \phi_{n 1} & \phi_{n 2} & \cdots & \phi_{n n} \end{array}\right) \nonumber \]

    ¿Qué entendemos por una solución “matricial”? Hemos asumido que cada uno\(\phi_{k}\) es una solución de nuestro sistema. Por lo tanto, tenemos eso\(\phi_{k}^{\prime}=A \phi_{k}\), para\(k=1, \ldots, n\). Decimos que\(\Phi\) es una solución matricial porque podemos demostrar que\(\Phi\) también satisface la formulación matricial del sistema de ecuaciones diferenciales. Podemos mostrar esto usando las propiedades de las matrices.

    \[\begin{aligned} \dfrac{d}{d t} \Phi &=\left(\phi_{1}^{\prime} \ldots \phi_{n}^{\prime}\right) \\ &=\left(A \phi_{1} \ldots A \phi_{n}\right) \\ &=A\left(\phi_{1} \ldots \phi_{n}\right) \\ &=A \Phi \end{aligned} \nonumber \]

    Dado un conjunto de soluciones vectoriales del sistema, ¿cuándo son linealmente independientes? Consideramos una solución matricial\(\Omega(t)\) del sistema en el que tenemos soluciones\(n\) vectoriales. Entonces, definimos el Wronskian\(\Omega(t)\) de ser

    \[W=\operatorname{det} \Omega(t) \nonumber \]

    Si\(W(t) \neq 0\), entonces\(\Omega(t)\) es una solución matriz fundamental. Antes de continuar, enumeramos las soluciones de matriz fundamental para el conjunto de ejemplos en la última sección. (Consulte las soluciones de esos ejemplos.) Además, tenga en cuenta que las soluciones de matriz fundamental no son únicas ya que se puede multiplicar cualquier columna por una constante distinta de cero y aún así tener una solución de matriz fundamental.

    Ejemplo 2.14\(A=\left(\begin{array}{ll}4 & 2 \\ 3 & 3\end{array}\right)\).

    \[\Phi(t)=\left(\begin{array}{cc} 2 e^{t} & e^{6 t} \\ -3 e^{t} & e^{6 t} \end{array}\right) \nonumber \]

    Debemos señalar en este caso que el Wronskian se encuentra como

    \[\begin{aligned} W &=\operatorname{det} \Phi(t) \\ &=\left|\begin{array}{cc} 2 e^{t} & e^{6 t} \\ -3 e^{t} & e^{6 t} \end{array}\right| \\ &=5 e^{7 t} \neq 0 . \end{aligned} \nonumber \]

    Ejemplo 2.15\(A=\left(\begin{array}{ll}3 & -5 \\ 1 & -1\end{array}\right)\).

    \[\Phi(t)=\left(\begin{array}{cc} e^{t}(2 \cos t-\sin t) & e^{t}(\cos t+2 \sin t) \\ e^{t} \cos t & e^{t} \sin t \end{array}\right) \nonumber \]

    Ejemplo\(2.16 A=\left(\begin{array}{cc}7 & -1 \\ 9 & 1\end{array}\right)\).

    \[\Phi(t)=\left(\begin{array}{cc} e^{4 t} & e^{4 t}(1+t) \\ 3 e^{4 t} & e^{4 t}(2+3 t) \end{array}\right) \nonumber \]

    Hasta el momento sólo hemos determinado la solución general. Esto se realiza mediante los siguientes pasos:

    Procedimiento para determinar la solución general

    1. Resolver el problema del valor propio\((A-\lambda I) \mathbf{v}=0\).
    2. Construir soluciones de vectores a partir de\(e^{\lambda t}\). El método depende si uno tiene valores propios conjugados reales o complejos.
    3. Formar la matriz de solución fundamental\(\Phi(t)\) a partir de la solución vector.
    4. La solución general viene dada por\(\mathbf{x}(t)=\Phi(t) \mathbf{C}\) para\(\mathbf{C}\) un vector constante arbitrario.

    Ahora estamos listos para resolver el problema de valor inicial:

    \[\mathbf{x}^{\prime}=A \mathbf{x}, \quad \mathbf{x}\left(t_{0}\right)=\mathbf{x}_{0} . \nonumber \]

    Comenzando con la solución general, tenemos que

    \[\mathbf{x}_{0}=\mathbf{x}\left(t_{0}\right)=\Phi\left(t_{0}\right) \mathbf{C} . \nonumber \]

    Como de costumbre, necesitamos resolver para los\(c_{k}\) 's. usando métodos matriciales, esto ahora es fácil. Como el Wronskian no es cero, entonces podemos invertir\(\Phi\) a cualquier valor de\(t\). Entonces, tenemos

    \[\mathbf{C}=\Phi^{-1}\left(t_{0}\right) \mathbf{x}_{0} . \nonumber \]

    \(\mathbf{C}\)Volviendo a la solución general, obtenemos la solución al problema de valor inicial:

    \[\mathbf{x}(t)=\Phi(t) \Phi^{-1}\left(t_{0}\right) \mathbf{x}_{0} \nonumber \]

    Puede verificar fácilmente que esta es una solución del sistema y satisface la condición inicial en\(t=t_{0}\).

    La combinación matricial\(\Phi(t) \Phi^{-1}\left(t_{0}\right)\) es útil. Entonces, definiremos el producto resultante como la solución matriz principal, denotándolo por

    \[\Psi(t)=\Phi(t) \Phi^{-1}\left(t_{0}\right) . \nonumber \]

    Así, la solución del problema de valor inicial es\(\mathbf{x}(t)=\Psi(t) \mathbf{x}_{0}\). Además, observamos que\(\Psi(t)\) es una solución al problema del valor inicial de la matriz

    \[\mathbf{x}^{\prime}=A \mathbf{x}, \quad \mathbf{x}\left(t_{0}\right)=I, \nonumber \]

    donde\(I\) está la matriz\(n \times n\) de identidad.

    Solución Matricial del Problema Homogéneo
    En resumen, la solución matricial de

    \[\dfrac{d \mathbf{x}}{d t}=A \mathbf{x}, \quad \mathbf{x}\left(t_{0}\right)=\mathbf{x}_{0} \nonumber \]

    \[\mathbf{x}(t)=\Psi(t) \mathbf{x}_{0}=\Phi(t) \Phi^{-1}\left(t_{0}\right) \mathbf{x}_{0}, \nonumber \]

    está dado por

    Ejemplo 2.17. Consideremos el problema del valor inicial de la matriz

    \[\begin{aligned} &x^{\prime}=5 x+3 y \\ &y^{\prime}=-6 x-4 y \end{aligned} \nonumber \]

    satisfactorias\(x(0)=1, y(0)=2\). Encuentra la solución de este problema.

    Primero observamos que la matriz de coeficientes es

    \[A=\left(\begin{array}{cc} 5 & 3 \\ -6 & -4 \end{array}\right) \nonumber \]

    La ecuación del valor propio se encuentra fácilmente a partir de

    \[\begin{aligned} 0 &=-(5-\lambda)(4+\lambda)+18 \\ &=\lambda^{2}-\lambda-2 \\ &=(\lambda-2)(\lambda+1) \end{aligned} \nonumber \]

    Entonces, los valores propios son\(\lambda=-1,2\). Se encuentra que los vectores propios correspondientes son

    \[\mathbf{v}_{1}=\left(\begin{array}{c} 1 \\ -2 \end{array}\right), \quad \mathbf{v}_{2}=\left(\begin{array}{c} 1 \\ -1 \end{array}\right) \nonumber \]

    Ahora construimos la solución matriz fundamental. Las columnas se obtienen usando los vectores propios y los exponenciales,\(e^{\lambda t}\):

    \[\phi_{1}(t)=\left(\begin{array}{c} 1 \\ -2 \end{array}\right) e^{-t}, \quad \phi_{1}(t)=\left(\begin{array}{c} 1 \\ -1 \end{array}\right) e^{2 t} \nonumber \]

    Entonces, la solución matriz fundamental es

    \[\Phi(t)=\left(\begin{array}{cc} e^{-t} & e^{2 t} \\ -2 e^{-t} & -e^{2 t} \end{array}\right) \nonumber \]

    La solución general a nuestro problema es entonces

    \[\mathbf{x}(t)=\left(\begin{array}{cc} e^{-t} & e^{2 t} \\ -2 e^{-t} & -e^{2 t} \end{array}\right) \mathbf{C} \nonumber \]

    for\(\mathbf{C}\) es un vector constante arbitrario.

    Para encontrar la solución particular del problema del valor inicial, necesitamos la solución de matriz principal. Primero evaluamos\(\Phi(0)\), luego lo invertimos:

    \[\Phi(0)=\left(\begin{array}{cc} 1 & 1 \\ -2 & -1 \end{array}\right) \quad \Rightarrow \quad \Phi^{-1}(0)=\left(\begin{array}{cc} -1 & -1 \\ 2 & 1 \end{array}\right) \nonumber \]

    La solución particular es entonces

    Así,\(x(t)=-3 e^{-t}+4 e^{2 t}\) y\(y(t)=6 e^{-t}-4 e^{2 t}\).

    Sistemas no homogéneos

    Antes de abandonar la teoría de sistemas de sistemas lineales, de coeficientes constantes, discutiremos los sistemas no homogéneos. Nos gustaría resolver sistemas de la forma

    \[\begin{aligned} & \mathbf{x}(t)=\left(\begin{array}{cc}e^{-t} & e^{2 t} \\-2 e^{-t} & -e^{2 t}\end{array}\right)\left(\begin{array}{cc}-1 & -1 \\2 & 1\end{array}\right)\left(\begin{array}{l}1 \\2\end{array}\right) \\ & =\left(\begin{array}{cc}e^{-t} & e^{2 t} \\-2 e^{-t} & -e^{2 t}\end{array}\right)\left(\begin{array}{c}-3 \\4\end{array}\right) \\ & =\left(\begin{array}{c}-3 e^{-t}+4 e^{2 t} \\6 e^{-t}-4 e^{2 t}\end{array}\right) \end{aligned} \nonumber \]

    \[\mathbf{x}^{\prime}=A(t) \mathbf{x}+\mathbf{f}(t) \nonumber \]

    Supondremos que hemos encontrado la solución matriz fundamental de la ecuación homogénea. Además, vamos a suponer que\(A(t)\) y\(\mathbf{f}(t)\) son continuos en algún dominio común.

    Al igual que con las ecuaciones de segundo orden, podemos buscar soluciones que sean una suma de la solución general al problema homogéneo más una solución particular del problema no homogéneo. A saber, podemos escribir la solución general como

    \[\mathbf{x}(t)=\Phi(t) \mathbf{C}+\mathbf{x}_{p}(t), \nonumber \]

    donde\(\mathbf{C}\) es un vector constante arbitrario,\(\Phi(t)\) es la solución matriz fundamental de\(\mathbf{x}^{\prime}=A(t) \mathbf{x}\), y

    \[\mathbf{x}_{p}^{\prime}=A(t) \mathbf{x}_{p}+\mathbf{f}(t) . \nonumber \]

    Tal representación es fácilmente verificada.

    Tenemos que encontrar la solución particular,\(\mathbf{x}_{p}(t)\). Podemos hacer esto aplicando El Método de Variación de Parámetros para Sistemas. Consideramos una solución en la forma de la solución del problema homogéneo, pero reemplazamos el vector constante por funciones de parámetros desconocidos. A saber, suponemos que

    \[\mathbf{x}_{p}(t)=\Phi(t) \mathbf{c}(t) . \nonumber \]

    Diferenciando, tenemos que

    \[\mathbf{x}_{p}^{\prime}=\Phi^{\prime} \mathbf{c}+\Phi \mathbf{c}^{\prime}=A \Phi \mathbf{c}+\Phi \mathbf{c}^{\prime} \nonumber \]

    \[\mathbf{x}_{p}^{\prime}-A \mathbf{x}_{p}=\Phi \mathbf{c}^{\prime} . \nonumber \]

    Pero el lado izquierdo es\(\mathbf{f}\). Entonces, tenemos eso,

    \[\Phi \mathbf{c}^{\prime}=\mathbf{f} \nonumber \]

    o, ya que\(\Phi\) es invertible (¿por qué?) ,

    \[\mathbf{c}^{\prime}=\Phi^{-1} \mathbf{f} \nonumber \]

    En principio, esto se puede integrar para dar c. Por lo tanto, la solución particular puede escribirse como

    \[\mathbf{x}_{p}(t)=\Phi(t) \int^{t} \Phi^{-1}(s) \mathbf{f}(s) d s . \nonumber \]

    Esta es la fórmula de variación de parámetros.

    La solución general de la Ecuación (2.70) se ha encontrado como

    \[\mathbf{x}(t)=\Phi(t) \mathbf{C}+\Phi(t) \int^{t} \Phi^{-1}(s) \mathbf{f}(s) d s . \nonumber \]

    Podemos usar la solución general para encontrar la solución particular de un problema de valor inicial consistente en la Ecuación (2.70) y la condición inicial\(\mathbf{x}\left(t_{0}\right)=\)\(\mathbf{x}_{0}\). Esta condición se cumple para una solución del formulario

    \[\mathbf{x}(t)=\Phi(t) \mathbf{C}+\Phi(t) \int_{t_{0}}^{t} \Phi^{-1}(s) \mathbf{f}(s) d s \nonumber \]

    siempre

    \[\mathbf{x}_{0}=\mathbf{x}\left(t_{0}\right)=\Phi\left(t_{0}\right) \mathbf{C} . \nonumber \]

    Esto se puede resolver\(\mathbf{C}\) como en la última sección. Insertando la solución de nuevo en la solución general\((2.73)\), tenemos

    \[\mathbf{x}(t)=\Phi(t) \Phi^{-1}\left(t_{0}\right) \mathbf{x}_{0}+\Phi(t) \int_{t_{0}}^{t} \Phi^{-1}(s) \mathbf{f}(s) d s \nonumber \]

    Esta solución se puede escribir un poco más ordenada en términos de la solución matriz principal,\(\Psi(t)=\Phi(t) \Phi^{-1}\left(t_{0}\right)\):

    \[\mathbf{x}(t)=\Psi(t) \mathbf{x}_{0}+\Psi(t) \int_{t_{0}}^{t} \Psi^{-1}(s) \mathbf{f}(s) d s \nonumber \]

    Por último, se produce una simplificación más cuando\(A\) es una matriz constante, que son los únicos tipos de problemas que hemos resuelto en este capítulo. En este caso, tenemos eso\(\Psi^{-1}(t)=\Psi(-t)\). Entonces, la computación\(\Psi^{-1}(t)\) es relativamente fácil.

    Ejemplo 2.18. \(x^{\prime \prime}+x=2 \cos t, x(0)=4, x^{\prime}(0)=0\). Este ejemplo se puede resolver utilizando el Método de Coeficientes Indeterminados. Sin embargo, utilizaremos el método matricial descrito en esta sección.

    Primero, escribimos el problema en forma de matriz. El sistema se puede escribir como

    \[\begin{gathered} x^{\prime}=y \\ y^{\prime}=-x+2 \cos t \end{gathered} \nonumber \]

    Así, tenemos un sistema no homogéneo de la forma

    \[\mathbf{x}^{\prime}=A \mathbf{x}+\mathbf{f}=\left(\begin{array}{cc} 0 & 1 \\ -1 & 0 \end{array}\right)\left(\begin{array}{l} x \\ y \end{array}\right)+\left(\begin{array}{c} 0 \\ 2 \cos t \end{array}\right) \nonumber \]

    A continuación necesitamos la matriz fundamental de soluciones del problema homogéneo. Tenemos eso

    \[A=\left(\begin{array}{cc} 0 & 1 \\ -1 & 0 \end{array}\right) \text {. } \nonumber \]

    Los valores propios de esta matriz son\(\lambda=\pm i\). Un vector propio asociado con\(\lambda=i\) se encuentra fácilmente como\(\left(\begin{array}{l}1 \\ i\end{array}\right)\). Esto lleva a una solución compleja

    \[\left(\begin{array}{l} 1 \\ i \end{array}\right) e^{i t}=\left(\begin{array}{c} \cos t+i \sin t \\ i \cos t-\sin t \end{array}\right) . \nonumber \]

    A partir de esta solución podemos construir la matriz de solución fundamental

    \[\Phi(t)=\left(\begin{array}{cc} \cos t & \sin t \\ -\sin t & \cos t \end{array}\right) \nonumber \]

    Entonces, la solución general al problema homogéneo es

    \[\mathbf{x}_{h}=\Phi(t) \mathbf{C}=\left(\begin{array}{c} c_{1} \cos t+c_{2} \sin t \\ -c_{1} \sin t+c_{2} \cos t \end{array}\right) \nonumber \]

    A continuación buscamos una solución particular al problema no homogéneo. De la Ecuación (2.73) vemos que necesitamos\(\Phi^{-1}(s) \mathbf{f}(s)\). Así, tenemos

    \[\begin{aligned} \Phi^{-1}(s) \mathbf{f}(s) &=\left(\begin{array}{cc} \cos s & -\sin s \\ \sin s & \cos s \end{array}\right)\left(\begin{array}{c} 0 \\ 2 \cos s \end{array}\right) \\ &=\left(\begin{array}{c} -2 \sin s \cos s \\ 2 \cos ^{2} s \end{array}\right) \end{aligned} \nonumber \]

    Ahora calculamos

    por lo tanto, la solución general es

    \[\mathbf{x}=\left(\begin{array}{c} c_{1} \cos t+c_{2} \sin t \\ -c_{1} \sin t+c_{2} \cos t \end{array}\right)+\left(\begin{array}{c} t \sin t \\ \sin t+t \cos t \end{array}\right) \nonumber \]

    La solución al problema del valor inicial es

    \[\mathbf{x}=\left(\begin{array}{cc} \cos t & \sin t \\ -\sin t & \cos t \end{array}\right)\left(\begin{array}{l} 4 \\ 0 \end{array}\right)+\left(\begin{array}{c} t \sin t \\ \sin t+t \cos t \end{array}\right) \nonumber \]

    \[\mathbf{x}=\left(\begin{array}{c} 4 \cos t+t \sin t \\ -3 \sin t+t \cos t \end{array}\right) \nonumber \]

    \(2.9\)Aplicaciones

    En esta sección describiremos varias aplicaciones que conducen a sistemas de ecuaciones diferenciales. De acuerdo con la práctica común en áreas como la física, denotaremos diferenciación con respecto al tiempo como

    imagen

    \[\begin{aligned} & =\left(\begin{array}{cc}\cos t & \sin t \\-\sin t & \cos t\end{array}\right)\left(\begin{array}{c}-\sin ^{2} t \\t+\dfrac{1}{2} \sin (2 t)\end{array}\right) \\ & =\left(\begin{array}{c}t \sin t \\\sin t+t \cos t\end{array}\right) \text {. } \end{aligned} \nonumber \]

    \[\dot{x}=\dfrac{d x}{d t} \nonumber \]

    Analizaremos principalmente modelos lineales y posteriormente modificaremos algunos de estos modelos para incluir términos no lineales.

    Sistemas Muelles-Masa

    Hay muchos problemas en la física que resultan en sistemas de ecuaciones. Esto se debe a que la ley más básica de la física la da la Segunda Ley de Newton, que establece que si un cuerpo experimenta una fuerza neta, se acelerará. En particular, la fuerza neta es proporcional a la aceleración con una constante de proporcionalidad llamada masa,\(m\). Esto se resume como

    \[\sum \mathbf{F}=m \mathbf{a} \nonumber \]

    Ya que\(\mathbf{a}=\ddot{\mathbf{x}}\), la Segunda Ley de Newton es matemáticamente un sistema de ecuaciones diferenciales de segundo orden para problemas tridimensionales, o una ecuación diferencial de segundo orden para problemas unidimensionales. Si hay varias masas, entonces, naturalmente, terminaríamos con sistemas sin importar cuántas dimensiones se involucren.

    Un problema estándar que se encuentra en un primer curso en ecuaciones diferenciales es el de un solo bloque en un resorte como se muestra en la Figura 2.18. La fuerza neta en este caso es la fuerza restauradora de la primavera dada por la Ley de Hooke,

    \[F_{s}=-k x \nonumber \]

    donde\(k>0\) esta la constante primaveral. Aquí\(x\) está el alargamiento del resorte, o el desplazamiento del bloque del equilibrio. Cuando\(x\) es positivo, la fuerza del resorte es negativa y cuando\(x\) es negativa la fuerza del resorte es positiva. Hemos representado un sistema horizontal sentado sobre una superficie sin fricción.

    Se puede proporcionar un modelo similar para muelles orientados verticalmente. Coloca el bloque sobre un muelle que cuelga verticalmente. Se trata de equilibrio, estirando la primavera por\(\ell_{0}\). La Segunda Ley de Newton da

    \[-m g+k \ell_{0}=0 . \nonumber \]

    Ahora, tirando más de la masa\(x_{0}\), y liberándola, la masa comienza a oscilar. Dejando\(x\) ser el desplazamiento del nuevo equilibrio, da ahora la Segunda Ley de Newton\(m \ddot{x}=-m g+k\left(\ell_{0}-x\right)=-k x\).

    En ambos ejemplos (una masa oscilante horizontal o véticamente) la Segunda Ley del movimiento de Newton se reulta en la ecuación diferencial

    \[m \ddot{x}+k x=0 . \nonumber \]

    Esta es la ecuación para el movimiento armónico simple que ya hemos encontrado en el Capítulo\(1 .\)

    imagen
    Figura 2.18. Sistema Muelles-Masa.

    Esta ecuación de segundo orden puede escribirse como un sistema de dos ecuaciones de primer orden.

    \[\begin{aligned} &x^{\prime}=y \\ &y^{\prime}=-\dfrac{k}{m} x \end{aligned} \nonumber \]

    La matriz de coeficientes para este sistema es

    \[A=\left(\begin{array}{cc} 0 & 1 \\ -\omega^{2} & 0 \end{array}\right) \nonumber \]

    donde\(\omega^{2}=\dfrac{k}{m}\). Los valores propios de este sistema son\(\lambda=\pm i \omega\) y las soluciones son simples senos y cosenos,

    \[\begin{aligned} &x(t)=c_{1} \cos \omega t+c_{2} \sin \omega t, \\ &y(t)=\omega\left(-c_{1} \sin \omega t+c_{2} \cos \omega t\right) . \end{aligned} \nonumber \]

    Observamos además que\(\omega\) se llama la frecuencia angular de oscilación y se da en\(\mathrm{rad} / \mathrm{s}\). La frecuencia de oscilación es

    \[f=\dfrac{\omega}{2 \pi} \nonumber \]

    Normalmente tiene unidades de\(\mathrm{s}^{-1}\), cps o Hz. El inverso multiplicativo tiene unidades de tiempo y se llama el período,

    \[T=\dfrac{1}{f} . \nonumber \]

    Así, el período de oscilación para una masa\(m\) en un resorte con constante de resorte\(k\) viene dado por

    \[T=2 \pi \sqrt{\dfrac{m}{k}} \nonumber \]

    Por supuesto, no necesitábamos convertir el último problema en un sistema. De hecho, habíamos visto esta ecuación en el Capítulo 1. Sin embargo, cuando se considera

    imagen
    Figura 2.19. Sistema Spring-Mass para dos masas y dos muelles.

    sistemas de masa-resorte más complicados, los sistemas de ecuaciones diferenciales ocurren naturalmente. Considere dos bloques unidos con dos resortes como se muestra en la Figura 2.19. En este caso aplicamos la segunda ley de Newton para cada bloque.

    Primero, considere las fuerzas que actúan sobre el primer bloque. El primer resorte se estira por\(x_{1}\). Esto da una fuerza de\(F_{1}=-k_{1} x_{1}\). El segundo resorte también puede ejercer una fuerza sobre el bloque dependiendo de si se estira, o no. Si ambos bloques son desplazados en la misma cantidad, entonces el resorte no se desplaza. Entonces, la cantidad en la que se desplaza el resorte depende de los desplazamientos relativos de las dos masas. Esto resulta en una segunda fuerza de\(F_{2}=k_{2}\left(x_{2}-x_{1}\right)\).

    Solo hay un resorte conectado a la masa dos. Nuevamente la fuerza depende del desplazamiento relativo de las masas. Simplemente se dirige de manera opositora a la fuerza que uno siente de esta primavera.

    Combinando estas fuerzas y usando la Segunda Ley de Newton para ambas masas, tenemos el sistema de ecuaciones diferenciales de segundo orden

    \[\begin{aligned} &m_{1} \ddot{x}_{1}=-k_{1} x_{1}+k_{2}\left(x_{2}-x_{1}\right) \\ &m_{2} \ddot{x}_{2}=-k_{2}\left(x_{2}-x_{1}\right) \end{aligned} \nonumber \]

    Se puede reescribir este sistema de dos ecuaciones de segundo orden como un sistema de cuatro ecuaciones de primer orden. Esto se hace introduciendo dos nuevas variables\(x_{3}=\dot{x}_{1}\) y\(x_{4}=\dot{x}_{2}\). Tenga en cuenta que estas físicamente son las velocidades de los dos bloques.

    El sistema resultante de ecuaciones de primer orden se da como

    \[\begin{aligned} \dot{x}_{1} &=x_{3} \\ \dot{x}_{2} &=x_{4} \\ \dot{x}_{3} &=-\dfrac{k_{1}}{m_{1}} x_{1}+\dfrac{k_{2}}{m_{1}}\left(x_{2}-x_{1}\right) \\ \dot{x}_{4} &=-\dfrac{k_{2}}{m_{2}}\left(x_{2}-x_{1}\right) \end{aligned} \nonumber \]

    Podemos escribir nuestro nuevo sistema en forma de matriz como

    \[\left(\begin{array}{c} \dot{x}_{1} \\ \dot{x}_{2} \\ \dot{x}_{3} \\ \dot{x}_{4} \end{array}\right)=\left(\begin{array}{cccc} 0 & 0 & 1 & 0 \\ 0 & 0 & 0 & 1 \\ -\dfrac{k_{1}+k_{2}}{m_{1}} & \dfrac{k_{2}}{m_{1}} & 0 & 0 \\ \dfrac{k_{2}}{m_{2}} & -\dfrac{k_{2}}{m_{2}} & 0 & 0 \end{array}\right)\left(\begin{array}{l} x_{1} \\ x_{2} \\ x_{3} \\ x_{4} \end{array}\right) \nonumber \]

    Circuitos Eléctricos

    Otro problema que a menudo se encuentra en una clase de física de primer año es el de un circuito en serie LRC. Este circuito se representa en la Figura\(2.20\). La resistencia es un elemento de circuito que satisface la Ley de Ohm. El condensador es un dispositivo que almacena energía eléctrica y un inductor, o bobina, almacena energía magnética.

    La física para este problema proviene de las Reglas para circuitos de Kirchoff. Como solo hay un bucle, solo necesitaremos la Regla Loop de Kirchoff. A saber, la suma de las caídas en el potencial eléctrico se establece igual a las subidas en el potencial eléctrico. Las caídas potenciales a través de cada elemento del circuito están dadas por

    1. Resistor:\(V_{R}=I R\).
    2. Capacitor:\(V_{C}=\dfrac{q}{C}\).
    3. Inductor:\(V_{L}=L \dfrac{d I}{d t}\).
    imagen
    Figura 2.20. Circuito LRC en serie.

    Sumando estas caídas de potencial y ajustando la suma igual al voltaje suministrado por la fuente de voltaje\(V(t)\),, obtenemos

    \[I R+\dfrac{q}{C}+L \dfrac{d I}{d t}=V(t) \nonumber \]

    Además, recordamos que la corriente se define como\(I=\dfrac{d q}{d t}\). donde\(q\) esta la carga en el circuito. Ya que ambos\(q\) y\(I\) son desconocidos, podemos sustituir la corriente por su expresión en términos de la carga para obtener

    \[L \ddot{q}+R \dot{q}+\dfrac{1}{C} q=V(t) . \nonumber \]

    Esta es una ecuación diferencial de segundo orden para\(q(t)\). Se puede establecer un sistema de ecuaciones y proceder a resolverlas. Sin embargo, esta es una ecuación diferencial de coeficiente constante y también se puede resolver usando los métodos del Capítulo\(1 .\)

    En los siguientes ejemplos veremos casos especiales que surgen para la ecuación del circuito LRC en serie. Estos incluyen\(R C\) circuitos, solucionables por métodos de primer orden y\(L C\) circuitos, que conducen a un comportamiento oscilatorio.

    Ejemplo 2.19. Circuitos RC

    Primero consideramos el caso de un circuito RC en el que no hay inductor. Además, consideraremos qué sucede cuando se carga un condensador con una batería de CC\(\left(V(t)=V_{0}\right)\) y cuando se descarga un condensador cargado\((V(t)=0)\).

    Para cargar un condensador, tenemos el problema de valor inicial

    \[R \dfrac{d q}{d t}+\dfrac{q}{C}=V_{0}, \quad q(0)=0 \nonumber \]

    Esta ecuación es un ejemplo de una ecuación lineal de primer orden para\(q(t)\). Sin embargo, también podemos reescribir esta ecuación y resolverla como una ecuación separable, ya que\(V_{0}\) es una constante. Haremos lo primero sólo como otro ejemplo de encontrar el factor integrador.

    Primero escribimos la ecuación en forma estándar:

    \[\dfrac{d q}{d t}+\dfrac{q}{R C}=\dfrac{V_{0}}{R} . \nonumber \]

    El factor integrador es entonces

    \[\mu(t)=e^{\int \dfrac{d t}{R C}}=e^{t / R C} . \nonumber \]

    Por lo tanto,

    \[\dfrac{d}{d t}\left(q e^{t / R C}\right)=\dfrac{V_{0}}{R} e^{t / R C} \nonumber \]

    Integrando, tenemos

    \[q e^{t / R C}=\dfrac{V_{0}}{R} \int e^{t / R C} d t=C V_{0} e^{t / R C}+K \nonumber \]

    Tenga en cuenta que introdujimos la constante de integración,\(K\). Ahora divide lo exponencial para obtener la solución general:

    \[q=C V_{0}+K e^{-t / R C} \nonumber \]

    (Si hubiéramos olvidado el\(K\), no habríamos conseguido una solución correcta para la ecuación diferencial.)

    A continuación, utilizamos la condición inicial para obtener nuestra solución particular. A saber, el ajuste\(t=0\), tenemos que

    \[0=q(0)=C V_{0}+K \nonumber \]

    Entonces,\(K=-C V_{0}\). Insertando esto en nuestra solución, tenemos

    \[q(t)=C V_{0}\left(1-e^{-t / R C}\right) \nonumber \]

    Ahora podemos estudiar el comportamiento de esta solución. Para grandes tiempos el segundo término va a cero. Así, el condensador se carga, asintóticamente, hasta el valor final de\(q_{0}=C V_{0}\). Esto es lo que esperamos, porque la corriente ya no fluye\(R\) y esto solo da la relación entre la diferencia de potencial a través de las placas del condensador cuando\(q_{0}\) se establece una carga de en las placas.

    Charagiacgitor

    imagen
    Figura 2.21. La carga en función del tiempo para un condensador de carga con\(R=2.00\)\(\mathrm{k} \Omega, C=6.00 \mathrm{mF}\), y\(V_{0}=12 \mathrm{~V}\)

    Pongamos algunos valores para los parámetros. Dejamos\(R=2.00 \mathrm{k} \Omega, C=6.00\)\(\mathrm{mF}\), y\(V_{0}=12 \mathrm{~V}\). Una gráfica de la solución se da en la Figura\(2.21\). Vemos que la carga se acumula hasta el valor de\(C V_{0}=72 \mathrm{mC}\). Si utilizamos una resistencia menor,\(R=200 \Omega\), vemos en Figura\(2.22\) que el condensador se carga al mismo valor, pero mucho más rápido.

    La velocidad a la que un condensador carga, o descarga, se rige por la constante de tiempo,\(\tau=R C\). Este es el factor constante en lo exponencial. Cuanto más grande es, más lento decae el término exponencial. Si nos fijamos\(t=\tau\), nos encontramos con que

    \[q(\tau)=C V_{0}\left(1-e^{-1}\right)=(1-0.3678794412 \ldots) q_{0} \approx 0.63 q_{0} \nonumber \]

    Así, en el momento\(t=\tau\), el condensador casi se ha cargado a dos tercios de su valor final. Para el primer conjunto de parámetros,\(\tau=12 \mathrm{~s}\). Para el segundo set,\(\tau=1.2 \mathrm{~s}\).

    Charagiacgi tor

    imagen
    Figura 2.22. La carga en función del tiempo para un condensador de carga con\(R=200\)\(\Omega, C=6.00 \mathrm{mF}\), y\(V_{0}=12 \mathrm{~V}\).

    Ahora, supongamos que el condensador está cargado de carga\(\pm q_{0}\) en sus placas. Si desconectamos la batería y volvemos a conectar los cables para completar el circuito, la carga luego se moverá fuera de las placas, descargando el condensador. La forma relevante de nuestro problema de valor inicial se convierte

    \[R \dfrac{d q}{d t}+\dfrac{q}{C}=0, \quad q(0)=q_{0} \nonumber \]

    Esta ecuación es más sencilla de resolver. Reordenando, tenemos

    \[\dfrac{d q}{d t}=-\dfrac{q}{R C} \nonumber \]

    Se trata de un simple problema de decaimiento exponencial, que puedes resolver usando la separación de variables. No obstante, a estas alturas ya deberías saber cómo anotar de inmediato la solución a tales problemas de la forma\(y^{\prime}=k y\). La solución es

    \[q(t)=q_{0} e^{-t / \tau}, \quad \tau=R C . \nonumber \]

    Vemos que la carga decae exponencialmente. En principio, el condensador nunca se descarga completamente. Es por eso que a menudo se le indica que coloque una derivación a través de un condensador descargado para descargarla por completo.

    En la Figura\(2.23\) mostramos la descarga de nuestros dos circuitos RC anteriores. Una vez más,\(\tau=R C\) determina el comportamiento. En\(t=\tau\) tenemos

    \[q(\tau)=q_{0} e^{-1}=(0.3678794412 \ldots) q_{0} \approx 0.37 q_{0} . \nonumber \]

    Entonces, en este momento el condensador sólo tiene alrededor de un tercio de su valor original.

    Discolaøgíingor

    imagen

    \[R=2000 \nonumber \]

    \[\begin{aligned} & \mathrm{R}=200 \end{aligned} \nonumber \]

    Figura 2.23. La carga en función del tiempo para un condensador de descarga con\(R=2.00\)\(\mathrm{k} \Omega\) o\(R=200 \Omega\), y\(C=6.00 \mathrm{mF}\), y\(q_{0}=72 \mathrm{mC}\).

    Ejemplo 2.20. Circuitos LC

    Otro resultado sencillo viene de estudiar\(L C\) circuitos. Ahora conectaremos un condensador cargado a un inductor. En este caso, consideramos el problema de valor inicial

    \[L \ddot{q}+\dfrac{1}{C} q=0, \quad q(0)=q_{0}, \dot{q}(0)=I(0)=0 \nonumber \]

    Dividiendo la inductancia, tenemos

    \[\ddot{q}+\dfrac{1}{L C} q=0 . \nonumber \]

    Esta ecuación es una ecuación de coeficiente constante de segundo orden. Es de la misma forma que la que vimos antes para el simple movimiento armónico de una masa sobre un resorte. Entonces, esperamos un comportamiento oscilatorio. La ecuación característica es

    \[r^{2}+\dfrac{1}{L C}=0 . \nonumber \]

    Las soluciones son

    \[r_{1,2}=\pm \dfrac{i}{\sqrt{L C}} . \nonumber \]

    Así, la solución de\((2.96)\) es de la forma

    \[q(t)=c_{1} \cos (\omega t)+c_{2} \sin (\omega t), \quad \omega=(L C)^{-1 / 2} \nonumber \]

    Insertar los rendimientos de las condiciones iniciales

    \[q(t)=q_{0} \cos (\omega t) . \nonumber \]

    Las oscilaciones que resultan son comprensibles. A medida que la carga sale de las placas, la corriente cambiante induce un campo magnético cambiante en el inductor. La energía eléctrica almacenada en el condensador cambia a energía magnética almacenada en el inductor. Sin embargo, el proceso continúa hasta que las placas se cargan con polaridad opuesta y luego el proceso comienza a la inversa. El condensador cargado luego se descarga y el condensador eventualmente vuelve a su estado original y todo el sistema repite esto una y otra vez.

    La frecuencia de este simple movimiento armónico se encuentra fácilmente. Se da

    \[f=\dfrac{\omega}{2 \pi}=\dfrac{1}{2 \pi} \dfrac{1}{\sqrt{L C}} . \nonumber \]

    A esto se le llama frecuencia de sintonización debido a su papel en los circuitos de sintonización.

    Por supuesto, esta es una situación ideal. Siempre hay resistencia en el circuito, aunque solo sea una pequeña cantidad de los cables. Entonces, realmente necesitamos dar cuenta de la resistencia, o incluso agregar una resistencia. Esto lleva a un sistema un poco más complicado en el que estará presente la amortiguación. Los circuitos más complicados son posibles al observar conexiones en paralelo, u otras combinaciones, de resistencias, condensadores e inductores. Esto dará como resultado varias ecuaciones para cada bucle en el circuito, lo que conducirá a sistemas más grandes de ecuaciones diferenciales. Un ejemplo de otra configuración de circuito se muestra en la Figura\(2.24\). Esto no es un problema que pueda cubrirse en el curso de física de primer año.

    imagen
    Figura 2.24. Un circuito con dos bucles que contiene varios elementos de circuito diferentes.
    imagen
    Figura 2.25. El circuito paralelo anterior con las direcciones indicadas para atravesar los bucles en las Leyes de Kirchoff.

    Tenemos tres funciones desconocidas para el cargo. Una vez que conocemos las funciones de carga, la diferenciación dará lugar a las corrientes. Sin embargo, sólo tenemos dos ecuaciones. Necesitamos una tercera ecuación. Esto se encuentra de la Regla Point (Junction) de Kirchoff. Consideremos los puntos A y B de la Figura 2.25. Cualquier cargo (corriente) que ingrese a estos cruces debe ser el mismo que el cargo total (actual) que sale de los cruces. Para el punto A tenemos

    \[I_{1}=I_{2}+I_{3}, \nonumber \]

    \[\dot{q}_{1}=\dot{q}_{2}+\dot{q}_{3} . \nonumber \]

    Las ecuaciones (2.100), (2.101) y (2.103) forman un sistema acoplado de ecuaciones diferenciales para este problema. Hay ambos derivados de primer y segundo orden involucrados. Podemos escribir todo el sistema en términos de cargos como

    \[\begin{array}{r} R_{1} \dot{q}_{1}+\dfrac{q_{2}}{C}=V(t) \\ R_{2} \dot{q}_{3}+L \ddot{q}_{3}=\dfrac{q_{2}}{C} \\ \dot{q}_{1}=\dot{q}_{2}+\dot{q}_{3} \end{array} \nonumber \]

    La cuestión es si, o no, podemos escribir esto como un sistema de ecuaciones diferenciales de primer orden. Dado que solo hay una derivada de segundo orden, podemos introducir la nueva variable\(q_{4}=\dot{q}_{3}\). La primera ecuación se puede resolver para\(\dot{q}_{1}\). La tercera ecuación se puede resolver\(\dot{q}_{2}\) con sustituciones apropiadas para los otros términos. \(\dot{q}_{3}\)se obtiene a partir de la definición de\(q_{4}\) y la segunda ecuación se puede resolver\(\ddot{q}_{3}\) y realizar sustituciones para obtener el sistema

    \[\begin{aligned} \dot{q}_{1} &=\dfrac{V}{R_{1}}-\dfrac{q_{2}}{R_{1} C} \\ \dot{q}_{2} &=\dfrac{V}{R_{1}}-\dfrac{q_{2}}{R_{1} C}-q_{4} \\ \dot{q}_{3} &=q_{4} \\ \dot{q}_{4} &=\dfrac{q_{2}}{L C}-\dfrac{R_{2}}{L} q_{4} \end{aligned} \nonumber \]

    Entonces, tenemos un sistema no homogéneo de ecuaciones diferenciales de primer orden. En la última sección aprendimos a resolver este tipo de sistemas.

    Asuntos amorosos

    La siguiente aplicación es aquella que ha sido estudiada por varios autores como un lindo sistema que involucra relaciones. Se considera lo que sucede con los afectos que dos personas tienen el uno por el otro a lo largo del tiempo. Que\(R\) denote el cariño que Romeo tiene por Julieta y\(J\) sea el cariño que Julieta tiene por Romeo. los valores positivos indican amor y los valores negativos indican disgusto.

    Un posible modelo viene dado por

    \[\begin{aligned} &\dfrac{d R}{d t}=b J \\ &\dfrac{d J}{d t}=c R \end{aligned} \nonumber \]

    con\(b>0\) y\(c<0\). En este caso Romeo ama a Julieta cuanto más le gusta a ella. Pero Julieta retrocede cuando encuentra cada vez mayor su amor por ella.

    Se puede modelar un sistema típico que relaciona los cambios combinados en el afecto

    \[\begin{aligned} &\dfrac{d R}{d t}=a R+b J \\ &\dfrac{d J}{d t}=c R+d J \end{aligned} \nonumber \]

    Varios escenarios son posibles para diversas elecciones de las constantes. Por ejemplo, si\(a>0\) y\(b>0\), Romeo se emociona cada vez más por el amor de Julieta por él. Si\(c>0\) y\(d<0\), Julieta está siendo cautelosa sobre su relación con Romeo. Para valores específicos de los parámetros y condiciones iniciales, uno puede explorar este partido de un amante demasiado celoso con un amante cauteloso.

    Predator Prey Modelos

    Otro modelo común estudiado es el de especies competidoras. Por ejemplo, podríamos considerar una población de conejos y zorros. Dejados a sí mismos, los conejos tenderían a multiplicarse, así

    \[\dfrac{d R}{d t}=a R, \nonumber \]

    con\(a>0\). En tal modelo la población de conejos crecería exponencialmente. De igual manera, una población de zorros se descompondría sin que los conejos se alimentaran. Entonces, tenemos que

    \[\dfrac{d F}{d t}=-b F \nonumber \]

    para\(b>0\).

    Ahora bien, si juntamos a estas poblaciones en una isla desierta, ellas interactuarían. Cuantos más zorros, la población de conejos disminuiría. Sin embargo, cuantos más conejos, los zorros tendrían mucho para comer y la población prosperaría. Así, podríamos modelar las poblaciones competidoras como

    \[\begin{gathered} \dfrac{d R}{d t}=a R-c F, \\ \dfrac{d F}{d t}=-b F+d R, \end{gathered} \nonumber \]

    donde todas las constantes son números positivos. El estudio de este sistema acoplado conduciría como estudio de la dinámica de estas poblaciones. Discutiremos otros sistemas (no lineales) en el próximo capítulo.

    Problemas de mezcla

    Hay muchos tipos de problemas de mezcla. Tales problemas son estándar en un primer curso sobre ecuaciones diferenciales como ejemplos de ecuaciones diferenciales de primer orden. Típicamente estos ejemplos consisten en un tanque de salmuera, agua que contiene una cantidad específica de sal con agua pura entrando y saliendo la mezcla, o el flujo de un contaminante dentro o fuera de un lago.

    En general se tiene un caudal de cierta concentración de mezcla entrando en una región y una mezcla que sale de la región. El objetivo es determinar la cantidad de cosas que hay en la región en un momento dado. Esto se rige por la ecuación

    \[\text { Rate of change of substance }=\text { Rate In }-\text { Rate Out. } \nonumber \]

    Esto puede generalizarse al caso de dos tanques interconectados. Ponemos algunos ejemplos.

    Ejemplo 2.21. Problema con un solo tanque

    Un tanque de 50 galones de agua pura tiene una mezcla de salmuera con concentración de 2 libras por galón entrando a razón de 5 galones por minuto. [Ver Figura 2.26.] Al mismo tiempo, los contenidos bien mezclados drenan a razón de 5 galones por minuto. Encuentra la cantidad de sal en el tanque a la hora\(t\). En todos esos problemas se supone que la solución está bien mezclada en cada instante del tiempo.

    imagen
    Figura 2.26. Un problema típico de mezcla.

    Dejar\(x(t)\) ser la cantidad de sal a la vez\(t\). Entonces la velocidad a la que aumenta la sal en el tanque se debe a la cantidad de sal que ingresa al tanque menos que la que sale del tanque. Para averiguar estas tarifas, se nota que\(d x / d t\) tiene unidades de libras por minuto. La cantidad de sal que entra por minuto viene dada por el producto de la concentración entrante multiplicada por la velocidad a la que entra la salmuera. Esto da las unidades correctas:

    \[\left(2 \dfrac{\text { pounds }}{\text { gal }}\right)\left(5 \dfrac{\text { gal }}{\text { min }}\right)=10 \dfrac{\text { pounds }}{\text { min }} . \nonumber \]

    Del mismo modo, se puede determinar la tasa de salida como

    \[\left(\dfrac{x \text { pounds }}{50 \text { gal }}\right)\left(5 \dfrac{\text { gal }}{\mathrm{min}}\right)=\dfrac{x}{10} \dfrac{\text { pounds }}{\mathrm{min}} . \nonumber \]

    Así, tenemos

    \[\dfrac{d x}{d t}=10-\dfrac{x}{10} \nonumber \]

    Esta ecuación se resuelve fácilmente usando los métodos para ecuaciones de primer orden.

    Ejemplo 2.22. Problema de doble tanque

    imagen
    Figura 2.27. El problema de los dos tanques.

    Uno tiene dos tanques conectados entre sí, etiquetados tanque X y tanque Y, como se muestra en la Figura\(2.27\). Deje que el tanque\(\mathrm{X}\) inicialmente tenga 100 galones de salmuera hechos con 100 libras de sal. El tanque\(Y\) inicialmente tiene 100 galones de agua pura. Ahora se bombea agua pura\(\operatorname{tank} X\) a una velocidad de\(2.0\) galones por minuto. Parte de la mezcla de salmuera y agua pura fluye\(Y\) al tanque a 3 galones por minuto. Para mantener los niveles del tanque iguales, un galón de la mezcla Y fluye de regreso al tanque X a una velocidad de un galón por minuto y\(2.0\) galones por minuto drena. Encuentra la cantidad de sal en un momento dado en los tanques. ¿Qué sucede durante un largo periodo de tiempo?

    En este problema configuramos dos ecuaciones. Dejar\(x(t)\) ser la cantidad de sal en el tanque X y\(y(t)\) la cantidad de sal en el tanque\(Y\). Nuevamente, analizamos cuidadosamente las tasas de entrada y salida de cada tanque para establecer el sistema de ecuaciones diferenciales. Obtenemos el sistema

    \[\begin{aligned} &\dfrac{d x}{d t}=\dfrac{y}{100}-\dfrac{3 x}{100} \\ &\dfrac{d y}{d t}=\dfrac{3 x}{100}-\dfrac{3 y}{100} \end{aligned} \nonumber \]

    Se trata de un sistema de coeficientes constantes lineales y homogéneos de dos ecuaciones de primer orden, que sabemos resolver.

    Cinética Química

    Son muchos los problemas que provienen del estudio de las reacciones químicas. La reacción más simple es cuando un químico\(A\) se convierte en químico\(B\). Esto sucede a cierto ritmo,\(k>0\). Esto puede ser representado por la fórmula química

    imagen

    En este caso tenemos que las tasas de cambio de las concentraciones de\(A,[A]\), y\(B,[B]\), están dadas por

    \[\begin{aligned} &\dfrac{d[A]}{d t}=-k[A] \\ &\dfrac{d[B]}{d t}=k[A] \end{aligned} \nonumber \]

    Piense en esto ya que es clave para entender las próximas reacciones.

    Una reacción más complicada viene dada por

    \[A \underset{k_{1}}{\longrightarrow} B \underset{k_{2}}{\longrightarrow} C \text {. } \nonumber \]

    En este caso podemos agregar a la ecuación anterior las tasas de cambio de concentraciones\([B]\) y\([C]\). El sistema resultante de ecuaciones es

    \[\begin{aligned} \dfrac{d[A]}{d t} &=-k_{1}[A] \\ \dfrac{d[B]}{d t} &=k_{1}[A]-k_{2}[B] \\ \dfrac{d[C]}{d t} &=k_{2}[B] \end{aligned} \nonumber \]

    Se pueden considerar adicionalmente reacciones en las que es posible una reacción inversa. Por lo tanto, se produce una generalización adicional para la reacción

    \[A \underset{k_{1}}{\stackrel{k_{3}}{\longrightarrow}} B \underset{k_{2}}{\longrightarrow} C \text {. } \nonumber \]

    El sistema resultante de ecuaciones es

    \[\begin{aligned} &\dfrac{d[A]}{d t}=-k_{1}[A]+k_{3}[B] \\ &\dfrac{d[B]}{d t}=k_{1}[A]-k_{2}[B]-k_{3}[B] \\ &\dfrac{d[C]}{d t}=k_{2}[B] \end{aligned} \nonumber \]

    Las reacciones químicas más complicadas se discutirán en un momento posterior.

    Epidemias

    Otra área interesante de aplicación de la ecuación diferencial es en la predicción de la propagación de la enfermedad. Por lo general, se tiene una población de personas o animales susceptibles. Varios individuos infectados se introducen en la población y uno está interesado en cómo se propaga la infección y si el número de personas infectadas aumenta drásticamente o muere. Dichos modelos suelen ser no lineales y veremos lo que se llama el modelo SIR en el siguiente capítulo. En esta sección modelaremos un modelo lineal simple.

    Vamos a romper a la población en tres clases. Primero,\(S(t)\) están las personas sanas, que son susceptibles a la infección. \(I(t)\)Sea el número de personas infectadas. De estas personas infectadas, algunas morirán por la infección y otras se recuperarán. Supongamos que inicialmente ahí en una persona infectada y el resto, digamos\(N\), obviamente están sanos. ¿Podemos predecir cuántas muertes han ocurrido en el tiempo t?

    Intentemos modelar este problema usando el análisis compartimental que habíamos visto en los problemas de mezcla. La tasa total de cambio de cualquier población se debiría a quienes ingresan al grupo menos a los que abandonan el grupo. Por ejemplo, el número de personas sanas disminuye debido a la infección y puede aumentar cuando parte del grupo infectado se recupera. Supongamos que la tasa de infección es proporcional al número de personas sanas,\(a S\). También, suponemos que el número que se recuperan es proporcional al número de infectados,\(r I\). Así, la tasa de cambio de las personas sanas se encuentra como

    \[\dfrac{d S}{d t}=-a S+r I . \nonumber \]

    Que el número de muertes sea\(D(t)\). Entonces, la tasa de mortalidad podría tomarse como proporcional al número de personas infectadas. Entonces,

    \[\dfrac{d D}{d t}=d I \nonumber \]

    Por último, la tasa de cambio de los infecciosos se debe a que las personas sanas se infectan y a los infecciosos que se recuperan o mueren. Usando los términos correspondientes en las otras ecuaciones, podemos escribir

    \[\dfrac{d I}{d t}=a S-r I-d I . \nonumber \]

    Este sistema lineal se puede escribir en forma de matriz.

    \[\dfrac{d}{d t}\left(\begin{array}{c} S \\ I \\ D \end{array}\right)=\left(\begin{array}{ccc} -a & r & 0 \\ a & -d-r & 0 \\ 0 & d & 0 \end{array}\right)\left(\begin{array}{c} S \\ I \\ D \end{array}\right) \nonumber \]

    La ecuación de valor propio para este sistema es

    \[\lambda\left[\lambda^{2}+(a+r+d) \lambda+a d\right]=0 . \nonumber \]

    El lector puede encontrar las soluciones de este sistema y determinar si se trata de un modelo realista.

    Apéndice: Diagonalización y Sistemas Lineales

    Como hemos visto, la formulación matricial para sistemas lineales puede ser poderosa, especialmente para ecuaciones\(n\) diferenciales que involucran funciones\(n\) desconocidas. Nuestra capacidad para avanzar hacia soluciones dependía de la solución de problemas de autovalor. Sin embargo, en el caso de valores propios repetidos vimos algunas complicaciones adicionales. Todo esto depende profundamente del álgebra lineal de fondo. A saber, confiamos en poder diagonalizar la matriz de coeficientes dada. En esta sección discutiremos las limitaciones de la diagonalización e introduciremos la forma canónica de Jordania.

    Comenzamos con la noción de similitud. Matrix\(A\) es similar a la matriz\(B\) si y solo si existe una matriz no singular\(P\) tal que

    \[B=P^{-1} A P . \nonumber \]

    Recordemos que una matriz no singular tiene un determinante distinto de cero y es invertible.

    Observamos que la relación de similitud es una relación de equivalencia. A saber, satisface lo siguiente

    1. \(A\)es similar a sí mismo.
    2. Si\(A\) es similar a\(B\), entonces\(B\) es similar a\(A\).
    3. Si\(A\) es similar a\(B\) y\(B\) es similar a\(C\), el\(A\) es similar a\(C\).

    Además, si\(A\) es similar a\(B\), entonces tienen los mismos valores propios. Esto se deduce de un simple cálculo de la ecuación de valor propio. A saber,

    \[\begin{aligned} 0 &=\operatorname{det}(B-\lambda I) \\ &=\operatorname{det}\left(P^{-1} A P-\lambda P^{-1} I P\right) \\ &=\operatorname{det}(P)^{-1} \operatorname{det}(A-\lambda I) \operatorname{det}(P) \\ &=\operatorname{det}(A-\lambda I) \end{aligned} \nonumber \]

    Por lo tanto,\(\operatorname{det}(A-\lambda I)=0\) y\(\lambda\) es un valor propio de ambos\(A\) y\(B\).

    Una\(n \times n\) matriz\(A\) es diagonalizable si y solo si\(A\) es similar a una matriz diagonal\(D\); es decir, existe una matriz no singular\(P\) tal que

    \[D=P^{-1} A P . \nonumber \]

    Uno de los teoremas más importantes en álgebra lineal es el Teorema Espectral. Este teorema nos dice cuándo se puede diagonalizar una matriz. De hecho, va más allá de las matrices a la diagonalización de operadores lineales. Aprendemos en álgebra lineal que los operadores lineales pueden ser representados por matrices una vez que elegimos una base de representación particular. La diagonalización es más simple para espacios vectoriales dimensionales finitos y requiere cierta generalización para espacios vectoriales dimensionales infinitos. Ejemplos de operadores a los que se aplica el teorema espectral son los operadores autoanexos (más generalmente operadores normales en espacios Hilbert). Exploraremos algunas de estas ideas más adelante en el curso. El teorema espectral proporciona una descomposición canónica, llamada descomposición espectral, o descomposición propia, del espacio vectorial subyacente sobre el que actúa.

    El siguiente teorema nos dice cómo diagonalizar una matriz:

    Teorema 2.23. \(A\)Déjese ser una\(n \times n\) matriz. Entonces\(A\) es diagonalizable si y sólo si\(A\) tiene vectores propios\(n\) linealmente independientes. Si es así, entonces

    \[D=P^{-1} A P . \nonumber \]

    Si\(\left\{v_{1}, \ldots, v_{n}\right\}\) son los vectores propios de\(A\) y\(\left\{\lambda_{1}, \ldots, \lambda_{n}\right\}\) son los valores propios correspondientes, entonces\(v_{j}\) es la columna jésima de\(P\) y\(D_{j j}=\lambda_{j}\).

    Una determinación más simple resulta al anotar

    Teorema 2.24. Dejar\(A\) ser una\(n \times n\) matriz con valores propios\(n\) reales y distintos. Entonces\(A\) es diagonalizable.

    Por lo tanto, solo necesitamos mirar los valores propios y determinar la diagonalizabilidad. De hecho, también se tiene a partir del álgebra lineal el siguiente resultado.

    Teorema 2.25. \(A\)Sea una\(n \times n\) verdadera matriz simétrica. Entonces\(A\) es diagonalizable.

    Recordemos que una matriz simétrica es aquella cuya transposición es la misma que la matriz, o\(A_{i j}=A_{j i}\).

    Ejemplo 2.26. Considerar la matriz

    \[A=\left(\begin{array}{lll} 1 & 2 & 2 \\ 2 & 3 & 0 \\ 2 & 0 & 3 \end{array}\right) \nonumber \]

    Esta es una matriz simétrica real. Se encuentra que el polinomio característico es

    \[\operatorname{det}(A-\lambda I)=-(\lambda-5)(\lambda-3)(\lambda+1)=0 \nonumber \]

    Como antes, podemos determinar los vectores propios correspondientes (para\(\lambda=-1,3,5\), respectivamente) como

    \[\left(\begin{array}{c} -2 \\ 1 \\ 1 \end{array}\right), \quad\left(\begin{array}{c} 0 \\ -1 \\ 1 \end{array}\right), \quad\left(\begin{array}{l} 1 \\ 1 \\ 1 \end{array}\right) \text {. } \nonumber \]

    Podemos utilizarlos para construir la matriz diagonalizadora\(P\). A saber, tenemos

    \[P^{-1} A P=\left(\begin{array}{ccc} -2 & 0 & 1 \\ 1 & -1 & 1 \\ 1 & 1 & 1 \end{array}\right)^{-1}\left(\begin{array}{lll} 1 & 2 & 2 \\ 2 & 3 & 0 \\ 2 & 0 & 3 \end{array}\right)\left(\begin{array}{ccc} -2 & 0 & 1 \\ 1 & -1 & 1 \\ 1 & 1 & 1 \end{array}\right)=\left(\begin{array}{ccc} -1 & 0 & 0 \\ 0 & 3 & 0 \\ 0 & 0 & 5 \end{array}\right) \nonumber \]

    Ahora la diagonalización es una idea importante en la resolución de sistemas lineales de ecuaciones de primer orden, como hemos visto para sistemas simples. Si nuestro sistema es originalmente diagonal, eso significa que nuestras ecuaciones están completamente desacopladas. Deje que nuestro sistema tome la forma

    \[\dfrac{d \mathbf{y}}{d t}=D \mathbf{y} \nonumber \]

    donde\(D\) es diagonal con entradas\(\lambda_{i}, i=1, \ldots, n\). El sistema de ecuaciones,\(y_{i}^{\prime}=\lambda_{i} y_{i}\), tiene soluciones

    \[y_{i}(t)=c_{c} e^{\lambda_{i} t} \nonumber \]

    Por lo tanto, es fácil resolver un sistema diagonal.

    Dejar\(A\) ser similar a esta matriz diagonal. Entonces

    \[\dfrac{d \mathbf{y}}{d t}=P^{-1} A P \mathbf{y} \nonumber \]

    Esto se puede reescribir como

    \[\dfrac{d P \mathbf{y}}{d t}=A P \mathbf{y} \nonumber \]

    Definiendo\(\mathbf{x}=P \mathbf{y}\), tenemos

    \[\dfrac{d \mathbf{x}}{d t}=A \mathbf{x} \nonumber \]

    Esta simple derivación muestra que si\(A\) es diagonalizable, entonces una transformación del sistema original en\(\mathbf{x}\) nuevas coordenadas, o una nueva base, da como resultado un sistema más simple en\(\mathbf{y}\).

    Sin embargo, no siempre es posible diagonalizar una matriz cuadrada dada. Esto se debe a que algunas matrices no tienen suficientes vectores linealmente independientes, o tenemos valores propios repetidos. Sin embargo, tenemos el siguiente teorema:

    Teorema 2.27. Cada\(n \times n\) matriz\(A\) es similar a una matriz de la forma

    \[J=\operatorname{diag}\left[J_{1}, J_{2}, \ldots, J_{n}\right] \nonumber \]

    donde

    \[J_{i}=\left(\begin{array}{ccccc} \lambda_{i} & 1 & 0 & \cdots & 0 \\ 0 & \lambda_{i} & 1 & \cdots & 0 \\ \vdots & \ddots & \ddots & \ddots & \vdots \\ 0 & \cdots & 0 & \lambda_{i} & 1 \\ 0 & 0 & \cdots & 0 & \lambda_{i} \end{array}\right) \nonumber \]

    No entraremos en los detalles de cómo se encuentra esta Forma Canónica Jordana o probar el teorema. En la práctica se puede utilizar un sistema de álgebra computacional para determinar esta y la matriz de similitud. Sin embargo, todavía necesitaríamos saber cómo usarlo para resolver nuestro sistema de ecuaciones diferenciales. Ejemplo 2.28. Consideremos un sistema sencillo con el bloque\(3 \times 3\) Jordan

    \[A=\left(\begin{array}{lll} 2 & 1 & 0 \\ 0 & 2 & 1 \\ 0 & 0 & 2 \end{array}\right) \nonumber \]

    El sistema correspondiente de ecuaciones diferenciales acopladas de primer orden toma la forma

    \[\begin{aligned} &\dfrac{d x_{1}}{d t}=2 x_{1}+x_{2}, \\ &\dfrac{d x_{2}}{d t}=2 x_{2}+x_{3}, \\ &\dfrac{d x_{3}}{d t}=2 x_{3} . \end{aligned} \nonumber \]

    La última ecuación es simple de resolver, dando\(x_{3}(t)=c_{3} e^{2 t}\). Insertando en la segunda ecuación, tienes un

    \[\dfrac{d x_{2}}{d t}=2 x_{2}+c_{3} e^{2 t} \nonumber \]

    Usando el factor integrador\(e^{-2 t}\),, uno puede resolver esta ecuación para obtener\(x_{2}(t)=\)\(\left(c_{2}+c_{3} t\right) e^{2 t}\). Del mismo modo, se puede resolver la primera ecuación para obtener\(x_{1}(t)=\)\(\left(c_{1}+c_{2} t+\dfrac{1}{2} c_{3} t^{2}\right) e^{2 t}\)

    Esto debería recordarle un problema que habíamos resuelto anteriormente que lleva al problema del valor propio generalizado en (2.43). Esto sugiere que existe una teoría más general cuando hay múltiples valores propios y relacionados con formas canónicas jordanas.

    Escribamos la solución que acabamos de obtener en forma vectorial. Tenemos

    \[\mathbf{x}(t)=\left[c_{1}\left(\begin{array}{l} 1 \\ 0 \\ 0 \end{array}\right)+c_{2}\left(\begin{array}{l} t \\ 1 \\ 0 \end{array}\right)+c_{3}\left(\begin{array}{c} \dfrac{1}{2} t^{2} \\ t \\ 1 \end{array}\right)\right] e^{2 t} \nonumber \]

    Parece que esta solución es una combinación lineal de tres soluciones linealmente independientes,

    \[\begin{aligned} &\mathbf{x}=\mathbf{v}_{1} e^{2 \lambda t} \\ &\mathbf{x}=\left(t \mathbf{v}_{1}+\mathbf{v}_{2}\right) e^{\lambda t} \\ &\mathbf{x}=\left(\dfrac{1}{2} t^{2} \mathbf{v}_{1}+t \mathbf{v}_{2}+\mathbf{v}_{3}\right) e^{\lambda t} \end{aligned} \nonumber \]

    donde\(\lambda=2\) y los vectores satisfacen las ecuaciones

    \[\begin{aligned} &(A-\lambda I) \mathbf{v}_{1}=0 \\ &(A-\lambda I) \mathbf{v}_{2}=\mathbf{v}_{1} \\ &(A-\lambda I) \mathbf{v}_{3}=\mathbf{v}_{2} \end{aligned} \nonumber \]

    y

    \[\begin{aligned} (A-\lambda I) \mathbf{v}_{1} &=0 \\ (A-\lambda I)^{2} \mathbf{v}_{2} &=0 \\ (A-\lambda I)^{3} \mathbf{v}_{3} &=0 \end{aligned} \nonumber \]

    Es fácil generalizar este resultado para construir soluciones linealmente independientes correspondientes a múltiples raíces (valores propios) de la ecuación característica.

    Problemas

    2.1. Considerar el sistema

    \[\begin{array}{r} x^{\prime}=-4 x-y \\ y^{\prime}=x-2 y \end{array} \nonumber \]

    a. Determinar la ecuación diferencial de segundo orden satisfecha por\(x(t)\).

    b. Resolver la ecuación diferencial para\(x(t)\).

    c. Usando esta solución, encuentre\(y(t)\).

    d. verificar sus soluciones para\(x(t)\) y\(y(t)\).

    e. encontrar una solución particular al sistema dadas las condiciones iniciales\(x(0)=\) 1 y\(y(0)=0\).

    2.2. Considera los siguientes sistemas. Determinar las familias de órbitas para cada sistema y esbozar varias órbitas en el plano de fase y clasificarlas por su tipo (nodo estable, etc.)

    a.

    \[\begin{aligned} &x^{\prime}=3 x \\ &y^{\prime}=-2 y \end{aligned} \nonumber \]

    b.

    \[\begin{aligned} &x^{\prime}=-y \\ &y^{\prime}=-5 x \end{aligned} \nonumber \]

    \[\begin{aligned} &x^{\prime}=2 y \\ &y^{\prime}=-3 x \end{aligned} \nonumber \]

    \(\mathrm{d}\)

    \[\begin{aligned} &x^{\prime}=x-y \\ &y^{\prime}=y \end{aligned} \nonumber \]

    e.

    \[\begin{aligned} &x^{\prime}=2 x+3 y \\ &y^{\prime}=-3 x+2 y \end{aligned} \nonumber \]

    2.3. Utilizar las transformaciones que relacionan las coordenadas polares y cartesianas para demostrar que

    \[\dfrac{d \theta}{d t}=\dfrac{1}{r^{2}}\left[x \dfrac{d y}{d t}-y \dfrac{d x}{d t}\right] \nonumber \]

    2.4. En la Ecuación (2.34) se definió el exponencial de una matriz.

    a. dejar

    \[A=\left(\begin{array}{ll} 2 & 0 \\ 0 & 0 \end{array}\right) \nonumber \]

    Cómputos\(e^{A}\).

    b. Dar una definición\(\cos A\) y calcular de\(\cos \left(\begin{array}{ll}1 & 0 \\ 0 & 2\end{array}\right)\) forma más simple.

    c. Probar\(e^{P A P^{-1}}=P e^{A} P^{-1}\).

    2.5. Considerar el sistema general

    \[\begin{aligned} &x^{\prime}=a x+b y \\ &y^{\prime}=c x+d y . \end{aligned} \nonumber \]

    ¿Se puede determinar la familia de trayectorias para el caso general? Recordemos, esto significa que tenemos que resolver la ecuación de primer orden

    \[\dfrac{d y}{d x}=\dfrac{c x+d y}{a x+b y} . \nonumber \]

    [En realidad, esta ecuación es homogénea de grado 0.] Se puede escribir en el formulario\(\dfrac{d y}{d x}=F\left(\dfrac{y}{x}\right)\). Para tales ecuaciones, se puede hacer la sustitución\(z=\dfrac{y}{x}\), o\(y(x)=x z(x)\), y obtener una ecuación separable para\(z\).

    a. Utilizando el sistema general, mostrar que\(z=z(x)\) satisface y ecuación de la forma

    \[x \dfrac{d z}{d x}=F(z)-z . \nonumber \]

    Identificar la función\(F(z)\).

    b. Utilizar la ecuación para\(z(x)\) en la parte a para encontrar la familia de trayectorias del sistema

    \[\begin{aligned} x^{\prime} &=x-y \\ y^{\prime} &=x+y . \end{aligned} \nonumber \]

    Primero determinar lo apropiado\(F(z)\) y luego resolver la ecuación separable resultante como una relación entre\(z\) y\(x\). Luego escribir la solución de la ecuación original en términos de\(x\) y\(y\). c. Usar coordenadas polares para describir la familia de soluciones obtenidas. Se puede reescribir la solución en coordenadas polares y/o resolver el sistema reescrito en coordenadas polares.

    2.6. Encuentre el (los) valor (s) propio (s) y vector (s) propio (s) para lo siguiente:
    a.\(\left(\begin{array}{ll}4 & 2 \\ 3 & 3\end{array}\right)\)
    b.\(\left(\begin{array}{ll}3 & -5 \\ 1 & -1\end{array}\right)\)
    c.\(\left(\begin{array}{ll}4 & 1 \\ 0 & 4\end{array}\right)\)
    d.\(\left(\begin{array}{ccc}1 & -1 & 4 \\ 3 & 2 & -1 \\ 2 & 1 & -1\end{array}\right)\)

    2.7. Considera los siguientes sistemas. Para cada sistema determinar la matriz de coeficientes. Cuando sea posible, resolver el problema del valor propio para cada matriz y utilizar los valores propios y las funciones propias para proporcionar soluciones a los sistemas dados. Por último, en los casos comunes que investigaste en Problema 2.2, haz comparaciones con tus respuestas anteriores, como qué tipo de valores propios corresponden a nodos estables.

    a.

    \[\begin{aligned} &x^{\prime}=3 x-y \\ &y^{\prime}=2 x-2 y \end{aligned} \nonumber \]

    b.

    \[\begin{aligned} &x^{\prime}=-y \\ &y^{\prime}=-5 x \end{aligned} \nonumber \]

    c.

    \[\begin{aligned} &x^{\prime}=x-y \\ &y^{\prime}=y \end{aligned} \nonumber \]

    \(\mathrm{d}\)

    \[\begin{aligned} &x^{\prime}=2 x+3 y \\ &y^{\prime}=-3 x+2 y \end{aligned} \nonumber \]

    e.

    \[\begin{aligned} &x^{\prime}=-4 x-y \\ &y^{\prime}=x-2 y . \end{aligned} \nonumber \]

    \[\begin{aligned} &x^{\prime}=x-y \\ &y^{\prime}=x+y \end{aligned} \nonumber \]

    2.8. Para cada una de las siguientes matrices considere el sistema\(\mathbf{x}^{\prime}=A \mathbf{x}\) y

    a. Encontrar la matriz de solución fundamental.

    b. Encontrar la matriz de solución principal.

    a.

    \[A=\left(\begin{array}{ll} 1 & 1 \\ 4 & 1 \end{array}\right) \nonumber \]

    b.

    \[A=\left(\begin{array}{ll} 2 & 5 \\ 0 & 2 \end{array}\right) \nonumber \]

    \[A=\left(\begin{array}{cc} 4 & -13 \\ 2 & -6 \end{array}\right) \nonumber \]

    \(\mathrm{d} .\)

    \[A=\left(\begin{array}{ccc} 1 & -1 & 4 \\ 3 & 2 & -1 \\ 2 & 1 & -1 \end{array}\right) \nonumber \]

    2.9. Para los siguientes problemas

    1. Reescribir el problema en forma de matriz.
    2. Encuentre la solución de matriz fundamental.
    3. Determinar la solución general del sistema no homogéneo.
    4. Encuentre la solución matriz principal.
    5. Determinar la solución particular del problema de valor inicial.

    a\(y^{\prime \prime}+y=2 \sin 3 x, \quad y(0)=2, \quad y^{\prime}(0)=0\).

    b\(y^{\prime \prime}-3 y^{\prime}+2 y=20 e^{-2 x}, \quad y(0)=0, \quad y^{\prime}(0)=6\).

    2.10. Demostrar Ecuación\((2.75)\)

    \[\mathbf{x}(t)=\Psi(t) \mathbf{x}_{0}+\Psi(t) \int_{t_{0}}^{t} \Psi^{-1}(s) \mathbf{f}(s) d s \nonumber \]

    comenzando con la Ecuación (2.73)

    2.11. Agregue un tercer resorte conectado a la masa dos en el sistema acoplado que se muestra en la Figura\(2.19\) a una pared en el extremo derecho. Supongamos que las masas son iguales y los resortes son los mismos.

    a. Modele este sistema con un conjunto de ecuaciones diferenciales de primer orden.

    b. Si las masas son todas\(2.0 \mathrm{~kg}\) y las constantes de resorte son todas\(10.0 \mathrm{~N} / \mathrm{m}\), entonces encuentre la solución general para el sistema. c. Mueva la masa uno a la izquierda (de equilibrio)\(10.0 \mathrm{~cm}\) y la masa dos a la derecha\(5.0 \mathrm{~cm}\). Déjalos ir. encontrar la solución y trazarla en función del tiempo. ¿Dónde está cada masa a los\(5.0\) segundos?

    2.12. Considere el circuito en serie de la Figura\(2.20\) con\(L=1.00 \mathrm{H}, R=1.00 \times 10^{2}\)\(\Omega, C=1.00 \times 10^{-4} \mathrm{~F}\), y\(V_{0}=1.00 \times 10^{3} \mathrm{~V} .\)

    a. Establecer el problema como un sistema de dos ecuaciones diferenciales de primer orden para la carga y la corriente.

    b. Supongamos que no hay carga presente y no fluye corriente en el\(t=0\) momento en que\(V_{0}\) se aplica. Encuentra la corriente y la carga en el condensador como funciones del tiempo.

    c. Trace sus soluciones y describa cómo se comporta el sistema a lo largo del tiempo.

    2.13. Vives en una cabaña en la montaña y te gustaría proveerte de agua de un tanque de agua que se encuentra a 25 pies sobre el nivel de la tubería que entra en la cabina. [Ver Figura 2.28.] El tanque se llena desde un acuífero\(125 \mathrm{ft}\) debajo de la superficie y se bombea a una velocidad máxima de 7 galones por minuto. Como este caudal no es suficiente para satisfacer sus necesidades diarias, le gustaría almacenar agua en el tanque y tener el suministro por gravedad de la presión necesaria. Entonces, diseñas un tanque cilíndrico que es\(35 \mathrm{ft}\) alto y tiene un\(10 \mathrm{ft}\) diámetro. Luego, el agua fluye a través de la tubería en el fondo del tanque. Te interesa la altura\(h\) del agua en el momento\(t\). Esto a su vez le permitirá calcular la presión del agua.

    imagen
    Figura 2.28. Un problema de tanque de agua en las montañas.

    Primero, la ecuación diferencial que rige el flujo de agua de un tanque a través de un orificio se da como

    \[\dfrac{d h}{d t}=\dfrac{K-\alpha a \sqrt{2 g h}}{A} \nonumber \]

    Aquí\(K\) está la velocidad a la que se bombea agua a la parte superior del tanque. \(A\)es el área de la sección transversal de este tanque. \(\alpha\)se denomina coeficiente de contracción, que mide el flujo a través del orificio, que tiene sección transversal\(a\). Supondremos eso\(\alpha=0.63\) y que el agua entra en una tubería de PVC de 6 de diámetro.

    a. suponiendo que el tanque de agua esté inicialmente lleno, encuentre el caudal mínimo en el sistema durante las dos primeras horas.

    b. ¿Cuál es la presión mínima del agua durante las dos primeras horas? A saber, ¿cuál es la presión manométrica en la casa? Tenga en cuenta que\(\Delta P=\rho g H\), donde\(\rho\) está la densidad del agua y\(H\) es la altura total del fluido (tanque más tubería vertical). Tenga en cuenta que\(\rho g=0.434\) psi (libras por pulgada cuadrada).

    c. ¿Cuánto tiempo tardará el tanque en drenar\(10 \mathrm{ft}\) por encima de la base del tanque?

    Otra información que puede necesitar es de 1 galón\(=231\) en\({ }^{2}\) y\(g=32.2 \mathrm{ft} / \mathrm{s}^{2}\).

    2.14. Inicialmente un tanque de 200 galones se llena con agua pura. En el momento se agrega\(t=0\) una concentración de sal con 3 libras de sal por galón al recipiente a razón de 4 galones por minuto, y la mezcla bien agitada se drena del recipiente a la misma velocidad.

    a. encontrar el número de libras de sal en el recipiente en función del tiempo.

    b. ¿Cuántos minutos tarda la concentración en llegar a 2 libras por galón?

    c. ¿A qué se aproxima la concentración en el contenedor para grandes valores de tiempo? ¿Esto concuerda con tu intuición?

    d. Suponiendo que el tanque contiene mucho más de 200 galones, y todo es igual excepto que la mezcla se drena a 3 galones por minuto, ¿cuáles serían las respuestas a las partes a y se convertirían?

    2.15. Haces dos galones de chile para una fiesta. La receta requiere dos cucharaditas de salsa picante por galón, pero accidentalmente habías puesto dos cucharadas por galón. De todas formas decides alimentar a tus invitados con el chile. Asumir que los invitados toman\(1 \mathrm{cup} / \mathrm{min}\) de chile y se reemplaza lo que se tomó con frijoles y tomates sin ninguna salsa picante. [\(=16\)tazas de 1 gal y\(1 \mathrm{~Tb}=3 \mathrm{tsp} .]\)

    a. anotar la ecuación diferencial y la condición inicial para la cantidad de salsa picante en función del tiempo en este problema de tipo mezcla.

    b. Resolver este problema de valor inicial.

    c. ¿Cuánto tiempo tardará en devolver el chile a la concentración sugerida por la receta?

    2.16. Considerar la reacción química que conduce al sistema en (2.111). Que las constantes de tasa sean\(k_{1}=0.20 \mathrm{~ms}^{-1}, k_{2}=0.05 \mathrm{~ms}^{-1}\), y\(k_{3}=0.10 \mathrm{~ms}^{-1}\). ¿Qué dicen los valores propios de la matriz de coeficientes sobre el comportamiento del sistema? Encuentre la solución del sistema asumiendo\([A](0)=A_{0}=1.0\)\(\mu \mathrm{mol},[B](0)=0\), y\([C](0)=0\). Trazar las soluciones para\(t=0.0\) a\(50.0 \mathrm{~ms}\) y describir lo que está sucediendo a lo largo de este tiempo. 2.17. Considerar el modelo epidémico que conduce al sistema en (2.112). Elija las constantes como\(a=2.0\) días\(^{-1}, d=3.0\) días\(^{-1}\) y\(r=1.0\) días\(^{-1}\). ¿Cuáles son los valores propios de la matriz de coeficientes? Encontrar la solución del sistema asumiendo una población inicial de 1,000 y un individuo infectado. Trazar las soluciones por\(5.0\) días y describir lo que está sucediendo\(t=0.0\) a lo largo de este tiempo. ¿Este modelo es realista?

    Sistemas no lineales

    Introducción

    La mayoría de sus estudios de ecuaciones diferenciales hasta la fecha han sido el estudio de ecuaciones diferenciales lineales y métodos comunes para resolverlas. Sin embargo, el mundo real es muy no lineal. Entonces, ¿por qué estudiar ecuaciones lineales? Porque se resuelven más fácilmente. Como recordará, podemos usar la propiedad de superposición lineal de soluciones de ecuaciones diferenciales lineales para obtener soluciones generales. Veremos que a veces podemos aproximar las soluciones de sistemas no lineales con sistemas lineales en pequeñas regiones de espacio de fase.

    En general, las ecuaciones no lineales no pueden resolverse obteniendo soluciones generales. Sin embargo, a menudo podemos investigar el comportamiento de las soluciones sin poder encontrar expresiones simples en términos de funciones elementales. Cuando queremos seguir la evolución de estas soluciones, recurrimos a resolver numéricamente nuestras ecuaciones diferenciales. Tales métodos numéricos necesitan ser ejecutados con cuidado y hay muchas técnicas que se pueden utilizar. No entraremos en estas técnicas en este curso. Sin embargo, podemos hacer uso de sistemas de álgebra computacional, o programas de computadora, ya desarrollados para obtener tales soluciones.

    Los problemas no lineales ocurren de forma natural. Veremos problemas de muchos de los mismos campos que exploramos en la Sección 2.9. Un ejemplo es el de la dinámica poblacional. Por lo general, tenemos una determinada población\(y(t)\), y la ecuación diferencial que rige el comportamiento de crecimiento de esta población se desarrolla de manera similar a la utilizada anteriormente para problemas de mezcla. Observamos que la tasa de cambio de la población viene dada por la Tasa In menos la Tasa de Salida. El Rate In viene dado por el número de especies nacidas por unidad de tiempo. El Rate Out viene dado por el número que muere por unidad de tiempo.

    Se puede obtener un modelo poblacional simple si se asume que estas tasas son lineales en la población. Por lo tanto, asumimos que el Rate In\(=b y\) y el Rate Out\(=m y\). Aquí hemos denotado la tasa de natalidad como\(b\) y la tasa de mortalidad como\(m\),. Esto da la tasa de cambio de la población como

    \[\dfrac{d y}{d t}=b y-m y \nonumber \]

    Generalmente, estas tasas podrían depender del tiempo. En el caso de que ambas sean tasas constantes, podemos definir\(k=b-m\) y obtener el modelo exponencial familiar:

    \[\dfrac{d y}{d t}=k y . \nonumber \]

    Esto se resuelve fácilmente y se obtiene crecimiento\((k>0)\) o decaimiento exponencial\((k<\)\(0)\). Este modelo lleva el nombre de Malthus 1, un clérigo que utilizó este modelo para advertir de la inminente fatalidad de la raza humana si sus prácticas reproductivas continuaban.

    Sin embargo, cuando las poblaciones se vuelven lo suficientemente grandes, hay competencia por recursos, como el espacio y la comida, lo que puede llevar a una mayor tasa de mortalidad. Así, la tasa de mortalidad puede ser una función del tamaño de la población,\(m=m(y)\). El modelo más simple sería una dependencia lineal,\(m=\tilde{m}+c y\). Entonces, el modelo exponencial anterior toma la forma

    \[\dfrac{d y}{d t}=k y-c y^{2} \nonumber \]

    Esto se conoce como el modelo logístico de crecimiento poblacional. Por lo general,\(c\) es pequeño y el término no lineal agregado realmente no entra en acción hasta que la población se vuelve lo suficientemente grande.

    Si bien se puede resolver esta ecuación en particular, es instructivo estudiar el comportamiento cualitativo de las soluciones sin anotar realmente las soluciones explícitas. Dichos métodos son útiles para ecuaciones no lineales más difíciles. Investigaremos algunas ecuaciones simples de primer orden en la siguiente sección. En la siguiente sección presentamos la solución analítica para la completitud.

    Reanudaremos nuestros estudios de sistemas de ecuaciones y diversas aplicaciones a lo largo del resto de este capítulo. Veremos que podemos obtener bastante información sobre el comportamiento de las soluciones mediante el uso de algunos de nuestros métodos anteriores para sistemas lineales.

    Ecuaciones Autónomas de Primer Orden

    En esta sección revisaremos las técnicas para estudiar la estabilidad de las ecuaciones autónomas no lineales de primer orden. Luego ampliaremos este estudio para observar familias de ecuaciones de primer orden que están conectadas a través de un parámetro.

    Recordemos que se da una ecuación autónoma de primer orden en la forma

    \({ }^{1}\)Malthus, Thomas Robert. Un ensayo sobre el principio de población. Biblioteca de Economía y Libertad. Recuperado el 2 de agosto de 2007 de la World Wide Web: http://www.econlib.org/library/Malthus/malPop1.html

    \[\dfrac{d y}{d t}=f(y) . \nonumber \]

    Asumiremos que\(f\) y\(\dfrac{\partial f}{\partial y}\) son funciones continuas de\(y\), para que sepamos que existen soluciones de problemas de valor inicial y son únicas.

    Recordaremos los métodos cualitativos para estudiar ecuaciones autónomas considerando el ejemplo

    \[\dfrac{d y}{d t}=y-y^{2} . \nonumber \]

    Esto es sólo un ejemplo de una ecuación logística.

    Primero, se determina el equilibrio, o constante, soluciones dadas por\(y^{\prime}=\) 0. Para este caso, tenemos\(y-y^{2}=0\). Entonces, las soluciones de equilibrio son\(y=0\) y\(y=1\). Al esbozar estas soluciones, dividimos el\(t y\) plano en tres regiones. Las soluciones que se originan en una de estas regiones\(t=t_{0}\) permanecerán en esa región para todos\(t>t_{0}\) ya que las soluciones no pueden cruzarse. [Tenga en cuenta que si dos soluciones se cruzan entonces tienen valores comunes\(y_{1}\) a la vez\(t_{1}\). Usando esta información, podríamos establecer un problema de valor inicial para el cual es la condición inicial\(y\left(t_{1}\right)=y_{1}\). Dado que las dos soluciones diferentes se cruzan en este punto en el plano de fase, tendríamos un problema de valor inicial con dos soluciones diferentes correspondientes a la misma condición inicial. Esto contradice la suposición de singularidad señalada anteriormente. Dejaremos al lector para que explore esto más a fondo en la tarea.]

    A continuación, determinamos el comportamiento de las soluciones en las tres regiones. Al señalar que\(d y / d t\) da la pendiente de cualquier solución en el plano, entonces encontramos que las soluciones son monótonas en cada región. Es decir, en regiones donde\(d y / d t>0\), tenemos funciones monótonamente crecientes. Esto lo determinamos desde el lado derecho de nuestra ecuación.

    Por ejemplo, en este problema\(y-y^{2}>0\) sólo para la región media y\(y-y^{2}<0\) para las otras dos regiones. Así, la pendiente es positiva en la región media, dando una solución ascendente como se muestra en la Figura 3.1. Tenga en cuenta que esta solución no cruza las soluciones de equilibrio. Se pueden hacer declaraciones similares sobre las soluciones en las otras regiones.

    Observamos además que las soluciones a ambos lados de\(y=1\) tienden a acercarse a esta solución de equilibrio para grandes valores de\(t\). De hecho, no importa lo cerca que esté uno\(y=1\), eventualmente uno se acercará a esta solución como\(t \rightarrow \infty\). Entonces, la solución de equilibrio es una solución estable. De igual manera, vemos que\(y=0\) es una solución de equilibrio inestable.

    Si solo nos interesa el comportamiento de las soluciones de equilibrio, podríamos simplemente construir una línea de fase. En la Figura\(3.2\) colocamos una línea vertical a la derecha de la gráfica\(t y\) -plano. En esta línea, primero se colocan puntos en las soluciones de equilibrio correspondientes y se etiquetan las soluciones. Estos puntos en las soluciones de equilibrio son puntos finales para tres intervalos. En cada intervalo se colocan entonces flechas apuntando hacia arriba (hacia abajo) indicando soluciones con pendientes positivas (negativas). Mirando la línea de fase, ahora se puede determinar si un equilibrio dado es estable (flechas apuntando hacia el punto) o inestable

    imagen
    Figura 3.1. Comportamiento representativo de la solución para\(y^{\prime}=y-y^{2}\).

    (flechas que apuntan lejos del punto). En Figura\(3.3\) dibujamos la línea de fase final por sí misma.

    imagen
    Figura 3.2. Comportamiento representativo de la solución y línea de fase para\(y^{\prime}=y-y^{2}\).

    Solución de la Ecuación Logística

    Hemos visto que no se necesita una solución explícita de la ecuación logística (3.2) para estudiar el comportamiento de sus soluciones. Sin embargo, la ecuación logística es un ejemplo de una ecuación no lineal de primer orden que es solucionable. Es un ejemplo de una ecuación de Riccati.

    La forma general de la ecuación de Riccati es

    imagen
    Figura 3.3. Línea de fase para\(y^{\prime}=y-y^{2}\).

    \[\dfrac{d y}{d t}=a(t)+b(t) y+c(t) y^{2} \nonumber \]

    Siempre y cuando\(c(t) \neq 0\), esta ecuación se pueda reducir a una ecuación diferencial lineal de segundo orden a través de la transformación

    \[y(t)=-\dfrac{1}{c(t)} \dfrac{\dot{x}(t)}{x(t)} . \nonumber \]

    Demostraremos esto usando el caso simple de la ecuación logística,

    \[\dfrac{d y}{d t}=k y-c y^{2} . \nonumber \]

    Dejamos

    \[y(t)=\dfrac{1}{c} \dfrac{\dot{x}}{x} \nonumber \]

    Entonces

    \[\begin{aligned} \dfrac{d y}{d t} &=\dfrac{1}{c}\left[\dfrac{\ddot{x}}{x}-\left(\dfrac{\dot{x}}{x}\right)^{2}\right] \\ &=\dfrac{1}{c}\left[\dfrac{\ddot{x}}{x}-(c y)^{2}\right] \\ &=\dfrac{1}{c} \dfrac{\ddot{x}}{x}-c y^{2} \end{aligned} \nonumber \]

    Insertando esto en la ecuación logística (3.5), tenemos

    \[\dfrac{1}{c} \dfrac{\ddot{x}}{x}-c y^{2}=k \dfrac{1}{c}\left(\dfrac{\dot{x}}{x}\right)-c y^{2}, \nonumber \]

    o

    \[\ddot{x}=k \dot{x} . \nonumber \]

    Esta ecuación se resuelve fácilmente para dar

    \[x(t)=A+B e^{k t} . \nonumber \]

    Por lo tanto, tenemos la solución a la ecuación logística es

    \[y(t)=\dfrac{1}{c} \dfrac{\dot{x}}{x}=\dfrac{k B e^{k t}}{c\left(A+B e^{k t}\right)} \nonumber \]

    Parece que tenemos dos constantes arbitrarias. Pero, empezamos con una ecuación diferencial de primer orden y esperamos sólo una constante arbitraria. Sin embargo, podemos resolver esto dividiendo el numerador y el denominador por\(k B e^{k t}\) y definiendo\(C=\dfrac{A}{B}\). Entonces tenemos

    \[y(t)=\dfrac{k / c}{1+C e^{-k t}}, \nonumber \]

    demostrando que en realidad sólo hay una constante arbitraria en la solución.

    Cabe señalar que esta no es la única manera de obtener la solución a la ecuación logística, aunque sí proporciona una introducción a las ecuaciones de Riccati. Un enfoque más directo sería utilizar la separación de variables en la ecuación logística. El lector debe verificar esto.

    \(3.4\)Bifurcaciones para Ecuaciones de Primer Orden

    En esta sección presentamos familias de ecuaciones diferenciales de primer orden de la forma

    \[\dfrac{d y}{d t}=f(y ; \mu) . \nonumber \]

    Aquí\(\mu\) hay un parámetro que podemos cambiar y luego observar los efectos resultantes sobre los comportamientos de las soluciones de la ecuación diferencial. Cuando un pequeño cambio en el parámetro conduce a grandes cambios en el comportamiento de la solución, entonces se dice que el sistema se somete a una bifurcación. Pasaremos a algunos ejemplos genéricos, dando lugar a bifurcaciones especiales de ecuaciones diferenciales autónomas de primer orden.

    Ejemplo 3.1. \(y^{\prime}=y^{2}-\mu\).

    Primero tenga en cuenta que las soluciones de equilibrio ocurren para\(y^{2}=\mu\). En este problema, hay tres casos a considerar.

    1. \(\mu>0\).

    En este caso hay dos soluciones reales,\(y=\pm \sqrt{\mu}\). Tenga en cuenta que\(y^{2}-\mu<0\) para\(|y|<\sqrt{\mu}\). Entonces, tenemos la línea de fase izquierda en la Figura 3.4. 2. \(\mu=0\).

    Solo hay un punto de equilibrio en\(y=0\). La ecuación se convierte\(y^{\prime}=y^{2}\). Es obvio que el lado derecho de esta ecuación nunca es negativo. Entonces, la línea de fase se muestra como la línea media en la Figura 3.4.

    1. \(\mu<0\).

    En este caso no hay soluciones de equilibrio. Ya que\(y^{2}-\mu>0\), las pendientes para todas las soluciones son positivas como lo indica la última línea de fase en la Figura\(3.4\)

    imagen
    Figura 3.4. Líneas de fase para\(y^{\prime}=y^{2}-\mu\). A la izquierda\(\mu>0\) y a la derecha\(\mu<0\).

    Podemos combinar estos resultados en un diagrama conocido como diagrama de bifurcación. Trazamos las soluciones de equilibrio\(y\) vs\(\mu\). Comenzamos alineando las líneas de fase para\(\mu\) varios's, las mostramos en la Figura 3.5. Tenga en cuenta que el patrón de puntos de equilibrio satisface\(y=\mu^{2}\) como debería. Esto se ve fácilmente como una curva parabólica. La rama superior de esta curva es una colección de equilibrios inestables y la parte inferior es una rama estable. Entonces, podemos disponer de las líneas de fase y simplemente mantener los equilibrios. Sin embargo, dibujaremos la rama inestable como una línea discontinua y la rama estable como una línea continua.

    El diagrama de bifurcación se muestra en la Figura 3.6. Este tipo de bifurcación se denomina bifurcación de nodo de silla de montar. El punto\(\mu=0\) en el que cambia el comportamiento se denomina punto de bifurcación. Al\(\mu\) pasar de negativo a positivo, pasamos de no tener equilibrios a tener un punto de equilibrio estable y otro inestable.

    Ejemplo 3.2. \(y^{\prime}=y^{2}-\mu y\).

    En este ejemplo tenemos dos puntos de equilibrio,\(y=0\) y\(y=\mu\). El comportamiento de las soluciones depende del signo de\(y^{2}-\mu y=y(y-\mu)\). Esto lleva a cuatro casos con los signos indicados de la derivada.

    1. \(y>0, y-\mu>0 \Rightarrow y^{\prime}>0\).
    2. \(y<0, y-\mu>0 \Rightarrow y^{\prime}<0\)
    3. \(y>0, y-\mu<0 \Rightarrow y^{\prime}<0\).
    4. \(y<0, y-\mu<0 \Rightarrow y^{\prime}>0\).

    Las líneas de fase correspondientes y el diagrama de bifurcación superpuesta se muestran en 3.7. El diagrama de bifurcación está en la Figura\(3.8\) y esto se denomina bifurcación transcrítica.

    imagen
    Figura 3.5. Las líneas de fase típicas para\(y^{\prime}=y^{2}-\mu\).
    imagen
    Figura 3.6. Diagrama de bifurcación para\(y^{\prime}=y^{2}-\mu\). Este es un ejemplo de una bifurcación de nodo de silla de montar.
    imagen
    Figura 3.7. Recogida de líneas de fase para\(y^{\prime}=y^{2}-\mu y\).

    Ejemplo 3.3. \(y^{\prime}=y^{3}-\mu y\).

    Para este último ejemplo, encontramos a partir de\(y^{3}-\mu y=y\left(y^{2}-\mu\right)=0\) eso hay dos casos.

    1. \(\mu<0\)En este caso solo hay un punto de equilibrio en\(y=0\). Para valores positivos de\(y\) tenemos eso\(y^{\prime}>0\) y para valores negativos de\(y\) tenemos eso\(y^{\prime}<0\). Por lo tanto, este es un punto de equilibrio inestable.
    imagen
    Figura 3.8. Diagrama de bifurcación para\(y^{\prime}=y^{2}-\mu y\). Este es un ejemplo de bifurcación transcrítica.
    1. \(\mu>0\)Aquí tenemos tres equilibrios,\(x=0, \pm \sqrt{\mu}\). Una investigación cuidadosa muestra que\(x=0\). es un punto de equilibrio estable y que los otros dos equilibrios son inestables.

    En la Figura\(3.9\) se muestran las líneas de fase para estos dos casos. A continuación se esboza el diagrama de bifurcación correspondiente en la Figura 3.10. Por razones obvias esto ha sido etiquetado como una bifurcación de horca.

    imagen
    Figura 3.9. Las líneas de fase para\(y^{\prime}=y^{3}-\mu y\). La izquierda corresponde a\(\mu<0\) y la línea de fase derecha es para\(\mu>0\).
    imagen
    Figura 3.10. Diagrama de bifurcación para\(y^{\prime}=y^{3}-\mu y\). Este es un ejemplo de bifurcación de horca.

    Péndulo no lineal

    En esta sección presentaremos el péndulo no lineal como nuestro primer ejemplo de movimiento periódico en un sistema no lineal. Las oscilaciones son importantes en muchas áreas de la física. Ya hemos visto el movimiento de una masa en un resorte, lo que lleva a movimientos armónicos simples, amortiguados y forzados. Posteriormente exploraremos estos efectos en un sistema simple no lineal. En esta sección introduciremos el péndulo no lineal y determinaremos su periodo de oscilación.

    Comenzamos por derivar la ecuación del péndulo. El péndulo simple consiste en una masa puntual\(m\) colgada de una cuerda de longitud\(L\) de algún soporte. [Ver Figura 3.11.] Uno tira de la masa hacia atrás a algún ángulo inicial\(\theta_{0}\),, y la libera. El objetivo es encontrar la posición angular en función del tiempo,\(\theta(t)\).

    imagen
    Figura 3.11. Un péndulo simple consiste en una masa puntual\(m\) unida a una cadena de longitud\(L\). Se libera desde un ángulo\(\theta_{0}\).

    Hay un par de derivaciones posibles. Podríamos usar la Segunda Ley de Movimiento de Newton\(F=m a\), o su análogo rotacional en términos de torque. Usaremos el primero solo para limitar la cantidad de antecedentes físicos necesarios.

    Hay dos fuerzas que actúan sobre la masa puntual, el peso y la tensión en la cuerda. El peso apunta hacia abajo y tiene una magnitud de\(m g\), donde\(g\) está el símbolo estándar para la aceleración debido a la gravedad. En la superficie de la tierra podemos tomar esto para ser\(9.8 \mathrm{~m} / \mathrm{s}^{2}\) o\(32.2 \mathrm{ft} / \mathrm{s}^{2}\). En la Figura\(3.12\) se muestra tanto el peso como la tensión que actúa sobre la masa. También se muestra la fuerza neta.

    La tensión equilibra la proyección del vector de peso, dejando un componente desequilibrado del peso en la dirección del movimiento. Así, la magnitud de la suma de las fuerzas se encuentra fácilmente a partir de este componente desequilibrado como\(F=m g \sin \theta\).

    La Segunda Ley del Movimiento de Newton nos dice que la fuerza neta es la masa multiplicada por la aceleración. Entonces, podemos escribir

    \[m \ddot{x}=-m g \sin \theta . \nonumber \]

    A continuación, necesitamos relacionarnos\(x\) y\(\theta . x\) es la distancia recorrida, que es la longitud del arco trazada por nuestra masa puntual. La longitud del arco está relacionada con el ángulo, siempre que el ángulo se mida en radianes. A saber,\(x=r \theta\) para\(r=L\). Así, podemos escribir

    imagen
    Figura 3.12. Hay dos fuerzas que actúan sobre la masa, el peso\(m g\) y la tensión\(T\). Se encuentra que la magnitud de la fuerza neta es\(F=m g \sin \theta\).

    \[m L \ddot{\theta}=-m g \sin \theta \nonumber \]

    Cancelando las masas, conduce a la ecuación de péndulo no lineal

    \[L \ddot{\theta}+g \sin \theta=0 . \nonumber \]

    Existen varias variaciones de la Ecuación (3.8) las cuales serán utilizadas en este texto. El primero es el péndulo lineal. Esto se obtiene haciendo una pequeña aproximación de ángulo. Para ángulos pequeños lo sabemos\(\sin \theta \approx \theta\). Bajo esta aproximación (3.8) se convierte en

    \[L \ddot{\theta}+g \theta=0 . \nonumber \]

    También podemos hacer que el sistema sea más realista agregando amortiguación. Esto podría deberse a la pérdida de energía en la forma en que la cuerda se une al soporte o debido al arrastre sobre la masa, etc. Suponiendo que la amortiguación es proporcional a la velocidad angular, tenemos ecuaciones para la péndula amortiguada no lineal y lineal amortiguada:

    \[\begin{gathered} L \ddot{\theta}+b \dot{\theta}+g \sin \theta=0 . \\ L \ddot{\theta}+b \dot{\theta}+g \theta=0 . \end{gathered} \nonumber \]

    Por último, podemos agregar el forzamiento. Imagínese que el soporte está unido a un dispositivo para hacer que el sistema oscile horizontalmente con alguna frecuencia. Entonces podríamos tener ecuaciones como

    \[L \ddot{\theta}+b \dot{\theta}+g \sin \theta=F \cos \omega t . \nonumber \]

    Analizaremos estos y otros problemas de oscilación más adelante en los ejercicios. Estos se resumen en la siguiente tabla.

    imagen

    En busca de soluciones

    Antes de volver a estudiar las soluciones de equilibrio del péndulo no lineal, veremos hasta dónde podemos llegar para obtener soluciones analíticas. Primero, investigamos el péndulo lineal simple.

    La ecuación de péndulo lineal (3.9) es una ecuación diferencial lineal de segundo orden de coeficiente constante. Las raíces de las ecuaciones características son\(r=\)\(\pm \sqrt{\dfrac{g}{L}} i\). Así, la solución general toma la forma

    \[\theta(t)=c_{1} \cos \left(\sqrt{\dfrac{g}{L}} t\right)+c_{2} \sin \left(\sqrt{\dfrac{g}{L}} t\right) \nonumber \]

    Observamos que esto suele simplificarse introduciendo la frecuencia angular

    \[\omega \equiv \sqrt{\dfrac{g}{L}} . \nonumber \]

    Una consecuencia de esta solución, que se utiliza a menudo en la física introductoria, es una expresión para el período de oscilación de un simple péndulo. Recordemos que el periodo es el tiempo que se tarda en completar un ciclo de la oscilación. Se encuentra que el periodo es

    \[T=\dfrac{2 \pi}{\omega}=2 \pi \sqrt{\dfrac{L}{g}} \nonumber \]

    Este valor para el periodo de un péndulo simple se basa en la ecuación del péndulo lineal, la cual se derivó asumiendo una pequeña aproximación de ángulo. ¿Qué tan buena es esta aproximación? ¿Qué se entiende por un ángulo pequeño? Recordamos la aproximación de la serie Taylor de\(\sin \theta\) aproximadamente\(\theta=0\):

    \[\sin \theta=\theta-\dfrac{\theta^{3}}{3 !}+\dfrac{\theta^{5}}{5 !}+\ldots \nonumber \]

    Se puede obtener un límite sobre el error al truncar esta serie a un término después de tomar un curso de análisis numérico. Pero podemos simplemente trazar el error relativo, que se define como Error relativo\(=\left|\dfrac{\sin \theta-\theta}{\sin \theta}\right| \times 100 \%\).

    Una gráfica del error relativo se da en la Figura 3.13. Observamos que un error relativo del uno por ciento corresponde a aproximadamente\(0.24\) radianes, que es menor que catorce grados. Se brinda mayor discusión al respecto al final de esta sección.

    imagen
    Figura 3.13. El error relativo en porcentaje al aproximar\(\sin \theta\) por\(\theta\).

    Pasamos ahora al péndulo no lineal. Primero reescribimos la ecuación (3.8) en la forma más simple

    \[\ddot{\theta}+\omega^{2} \sin \theta=0 . \nonumber \]

    A continuación empleamos una técnica que es útil para ecuaciones de la forma

    \[\ddot{\theta}+F(\theta)=0 \nonumber \]

    cuando es fácil integrar la función\(F(\theta)\). A saber, observamos que

    \[\dfrac{d}{d t}\left[\dfrac{1}{2} \dot{\theta}^{2}+\int^{\theta(t)} F(\phi) d \phi\right]=[\ddot{\theta}+F(\theta)] \dot{\theta} \nonumber \]

    Para nuestro problema, multiplicamos la Ecuación (3.17) por\(\dot{\theta}\),

    \[\ddot{\theta} \dot{\theta}+\omega^{2} \sin \theta \dot{\theta}=0 \nonumber \]

    y tenga en cuenta que el lado izquierdo de esta ecuación es una derivada perfecta. Por lo tanto,

    \[\dfrac{d}{d t}\left[\dfrac{1}{2} \dot{\theta}^{2}-\omega^{2} \cos \theta\right]=0 \nonumber \]

    Por lo tanto, la cantidad entre paréntesis es una constante. Entonces, podemos escribir

    \[\dfrac{1}{2} \dot{\theta}^{2}-\omega^{2} \cos \theta=c . \nonumber \]

    Resolviendo para\(\dot{\theta}\), obtenemos

    \[\dfrac{d \theta}{d t}=\sqrt{2\left(c+\omega^{2} \cos \theta\right)} \nonumber \]

    Esta ecuación es una ecuación separable de primer orden y podemos reorganizar e integrar los términos para encontrar que

    \[t=\int d t=\int \dfrac{d \theta}{\sqrt{2\left(c+\omega^{2} \cos \theta\right)}} . \nonumber \]

    Por supuesto, uno necesita ser capaz de hacer la integral. Cuando uno obtiene una solución en esta forma implícita, se dice que el problema ha sido resuelto por cuadraturas. Es decir, la solución se da en términos de alguna integral. En el apéndice de este capítulo mostramos que esta solución puede escribirse en términos de integrales elípticas y derivar correcciones a la fórmula para el periodo de un péndulo.

    La estabilidad de los puntos fijos en sistemas no lineales

    Ahora nos interesa estudiar la estabilidad de las soluciones de equilibrio del péndulo no lineal. En el camino desarrollaremos algunos métodos básicos para estudiar la estabilidad de los equilibrios en sistemas no lineales.

    Comenzamos con la ecuación diferencial lineal para oscilaciones amortiguadas como se dio anteriormente en la Ecuación (3.9). En este caso, tenemos una ecuación de segundo orden de la forma

    \[x^{\prime \prime}+b x^{\prime}+\omega^{2} x . \nonumber \]

    Usando los métodos del Capítulo 2, esta ecuación de segundo orden puede escribirse como un sistema de dos ecuaciones de primer orden:

    \[\begin{aligned} &x^{\prime}=y \\ &y^{\prime}=-b y-\omega^{2} x . \end{aligned} \nonumber \]

    Este sistema tiene sólo una solución de equilibrio,\(x=0, y=0\).

    Volviendo al péndulo no lineal amortiguado, tenemos el sistema

    \[\begin{aligned} x^{\prime} &=y \\ y^{\prime} &=-b y-\omega^{2} \sin x . \end{aligned} \nonumber \]

    Este sistema también tiene la solución de equilibrio,\(x=0, y=0\). Sin embargo, en realidad hay un número infinito de soluciones. Los equilibrios se determinan a partir de\(y=0\) y\(-b y-\omega^{2} \sin x=0\). Esto implica que\(\sin x=0\). Hay un número infinito de soluciones:\(x=n \pi, n=0, \pm 1, \pm 2, \ldots\) Entonces, tenemos un número infinito de equilibrios,\((n \pi, 0), n=0, \pm 1, \pm 2, \ldots\)

    A continuación, tenemos que determinar su estabilidad. Para ello necesitamos una teoría más general para los sistemas no lineales. Comenzamos con el sistema\(n\) -dimensional

    \[\mathbf{x}^{\prime}=\mathbf{f}(\mathbf{x}), \quad \mathrm{x} \in \mathrm{R}^{n} \nonumber \]

    Aquí\(\mathbf{f}: \mathrm{R}^{n} \rightarrow \mathrm{R}^{n}\). Definimos puntos fijos, o soluciones de equilibrio, de este sistema como puntos\(\mathrm{x}^{*}\) satisfactorios\(\mathbf{f}\left(\mathrm{x}^{*}\right)=\mathbf{0}\).

    Ahora se puede determinar la estabilidad en la vecindad de los puntos fijos. Nos interesa lo que sucede con las soluciones de nuestro sistema con condiciones iniciales comenzando cerca de un punto fijo. Podemos representar un punto cerca de un punto fijo en la forma\(\mathbf{x}=\mathbf{x}^{*}+\boldsymbol{\xi}\), donde la longitud de\(\boldsymbol{\xi}\) da una indicación de lo cerca que estamos del punto fijo. Entonces, consideramos que inicialmente,\(|\boldsymbol{\xi}| \ll 1\).

    A medida que el sistema evolucione,\(\boldsymbol{\xi}\) cambiará. El cambio\(\boldsymbol{\xi}\) en el tiempo se rige a su vez por un sistema de ecuaciones. Podemos aproximar esta evolución de la siguiente manera. En primer lugar, observamos que

    \[\mathbf{x}^{\prime}=\boldsymbol{\xi}^{\prime} \nonumber \]

    A continuación, tenemos que

    \[\mathbf{f}(\mathbf{x})=\mathbf{f}\left(\mathbf{x}^{*}+\boldsymbol{\xi}\right) \nonumber \]

    Podemos expandir el lado derecho sobre el punto fijo usando una versión multidimensional del Teorema de Taylor. Así, tenemos que

    \[\mathbf{f}\left(\mathbf{x}^{*}+\boldsymbol{\xi}\right)=\mathbf{f}\left(\mathbf{x}^{*}\right)+D \mathbf{f}\left(\mathbf{x}^{*}\right) \boldsymbol{\xi}+O\left(|\boldsymbol{\xi}|^{2}\right) \nonumber \]

    Aquí Df es la matriz jacobiana, definida como

    \[D \mathbf{f}=\left(\begin{array}{cccc} \dfrac{\partial f_{1}}{\partial x_{1}} & \dfrac{\partial f_{1}}{\partial x_{2}} & \cdots & \dfrac{\partial f_{1}}{\partial x_{n}} \\ \dfrac{\partial f_{2}}{\partial x_{1}} & \ddots & \ddots & \vdots \\ \vdots & \ddots & \ddots & \vdots \\ \dfrac{\partial f_{n}}{\partial x_{1}} & \cdots & \cdots & \dfrac{\partial f_{n}}{\partial x_{n}} \end{array}\right) \nonumber \]

    Señalando que\(\mathbf{f}\left(\mathbf{x}^{*}\right)=\mathbf{0}\), entonces tenemos ese sistema (3.22) se convierte

    \[\xi^{\prime} \approx D \mathbf{f}\left(\mathbf{x}^{*}\right) \boldsymbol{\xi} \nonumber \]

    Es esta ecuación la que describe el comportamiento del sistema cerca del punto fijo. Decimos que el sistema (3.22) se ha linealizado o que la Ecuación (3.23) es la linealización del sistema\((3.22)\). Ejemplo 3.4. Como ejemplo de la aplicación de esta linealización, observamos el sistema

    \[\begin{aligned} &x^{\prime}=-2 x-3 x y \\ &y^{\prime}=3 y-y^{2} \end{aligned} \nonumber \]

    Primero determinamos los puntos fijos:

    \[\begin{aligned} &0=-2 x-3 x y=-x(2+3 y) \\ &0=3 y-y^{2}=y(3-y) \end{aligned} \nonumber \]

    A partir de la segunda ecuación, tenemos eso\(y=0\) o bien\(y=3\). La primera ecuación da entonces\(x=0\) en cualquiera de los casos. Entonces, hay dos puntos fijos:\((0,0)\) y\((0,3)\)

    A continuación, linealizamos sobre cada punto fijo por separado. Primero, escribimos la matriz jacobiana.

    \[D \mathbf{f}(x, y)=\left(\begin{array}{cc} -2-3 y & -3 x \\ 0 & 3-2 y \end{array}\right) \nonumber \]

    1. Caso\((0,0)\) I.

    En este caso nos encontramos con que

    \[D \mathbf{f}(0,0)=\left(\begin{array}{cc} -2 & 0 \\ 0 & 3 \end{array}\right) \nonumber \]

    Por lo tanto, la ecuación linealizada se convierte

    \[\xi^{\prime}=\left(\begin{array}{cc} -2 & 0 \\ 0 & 3 \end{array}\right) \boldsymbol{\xi} \nonumber \]

    Esto se escribe equivalentemente como el sistema

    \[\begin{aligned} &\xi_{1}^{\prime}=-2 \xi_{1} \\ &\xi_{2}^{\prime}=3 \xi_{2} \end{aligned} \nonumber \]

    Este es el sistema linealizado sobre el origen. Anote la similitud con el sistema original. Destacamos que las ecuaciones linealizadas son ecuaciones de coeficiente constante y podemos usar métodos de matriz anteriores para determinar la naturaleza del punto de equilibrio. Los valores propios del sistema son obviamente\(\lambda=-2,3\). Por lo tanto, tenemos que el origen es un punto de silla de montar.

    1. Caso II\((0,3)\).

    En este caso procedemos como antes. Escribimos la matriz jacobiana y observamos sus valores propios para determinar el tipo de punto fijo. Entonces, tenemos que la matriz jacobiana es

    \[D \mathbf{f}(0,3)=\left(\begin{array}{cc} -2 & 0 \\ 0 & -3 \end{array}\right) \nonumber \]

    Aquí, tenemos los valores propios\(\lambda=-2,-3\). Entonces, este punto fijo es un nodo estable. Este análisis nos ha dado una silla de montar y un nodo estable. Sabemos cómo es el comportamiento cerca de cada punto fijo, pero tenemos que recurrir a otros medios para decir algo sobre el comportamiento lejos de estos puntos. El retrato de fase para este sistema se da en la Figura 3.14. Deberías poder encontrar el punto de sillín y el nodo. Observe cómo se comportan las soluciones en regiones alejadas de estos puntos.

    imagen
    Figura 3.14. Plano de fase para el sistema\(x^{\prime}=-2 x-3 x y, y^{\prime}=3 y-y^{2}\).

    Podemos esperar poder realizar una linealización bajo condiciones generales. Estos se dan en el Teorema de Hartman-Großman:

    Teorema 3.5. Existe un mapa continuo entre los sistemas lineales y no lineales cuando\(D \mathbf{f}\left(\mathbf{x}^{*}\right)\) no tiene ningún valor propio con parte real cero.

    Generalmente, hay varios tipos de comportamiento que se pueden ver en sistemas no lineales. Se pueden ver sumideros o fuentes, puntos hiperbólicos (sillín), puntos elípticos (centros) o focos. Hemos definido algunos de estos para sistemas planos. En general, si al menos dos valores propios tienen partes reales con signos opuestos, entonces el punto fijo es un punto hiperbólico. Si la parte real de un valor propio distinto de cero es cero, entonces tenemos un centro, o punto elíptico.

    Ejemplo 3.6. Regreso al Péndulo No Lineal

    Ahora estamos listos para establecer el comportamiento de los puntos fijos del péndulo no lineal amortiguado en la Ecuación (3.21). El sistema era

    \[\begin{aligned} x^{\prime} &=y \\ y^{\prime} &=-b y-\omega^{2} \sin x \end{aligned} \nonumber \]

    Encontramos que hay un número infinito de puntos fijos en\((n \pi, 0), n=\)\(0, \pm 1, \pm 2, \ldots\)

    Observamos que la matriz jacobiana es

    \[D \mathbf{f}(x, y)=\left(\begin{array}{cc} 0 & 1 \\ -\omega^{2} \cos x & -b \end{array}\right) \text {. } \nonumber \]

    Evaluando esto en los puntos fijos, encontramos que

    \[D \mathbf{f}(n \pi, 0)=\left(\begin{array}{cc} 0 & 1 \\ -\omega^{2} \cos n \pi & -b \end{array}\right)=\left(\begin{array}{cc} 0 & 1 \\ \omega^{2}(-1)^{n+1} & -b \end{array}\right) \text {. } \nonumber \]

    Hay dos casos a considerar:\(n\) par\(n\) e impar. Para el primer caso, encontramos la ecuación de valor propio

    \[\lambda^{2}+b \lambda+\omega^{2}=0 \nonumber \]

    Esto tiene las raíces

    \[\lambda=\dfrac{-b \pm \sqrt{b^{2}-4 \omega^{2}}}{2} \nonumber \]

    Porque\(b^{2}<4 \omega^{2}\), tenemos dos raíces conjugadas complejas con una parte real negativa. Así, tenemos focos estables para\(n\) valores pares. Si no hay amortiguación, entonces obtenemos centros.

    En el segundo caso,\(n\) impar, tenemos que

    \[\lambda^{2}+b \lambda-\omega^{2}=0 \nonumber \]

    En este caso encontramos

    \[\lambda=\dfrac{-b \pm \sqrt{b^{2}+4 \omega^{2}}}{2} . \nonumber \]

    Ya que\(b^{2}+4 \omega^{2}>b^{2}\), estas raíces serán reales con signos opuestos. Así, tenemos puntos hiperbólicos, o sillas de montar.

    En la Figura (3.15) se muestra el plano de fase para el péndulo no lineal no amortiguado. Vemos que tenemos una mezcla de centros y sillas de montar. Hay órbitas para las que hay movimiento periódico. En\(\theta=\pi\) el comportamiento es inestable. Esto se debe a que es difícil mantener la masa vertical. Esto sería apropiado si tuviéramos que reemplazar la cuerda por una varilla sin masa. También hay órbitas sin límites, que atraviesan todos los ángulos. Estos corresponden a la masa girando alrededor del pivote en una dirección para siempre. Hemos indicado en la figura curvas de solución con las condiciones iniciales\(\left(x_{0}, y_{0}\right)=(0,3),(0,2),(0,1),(5,1)\).

    Cuando hay amortiguación, vemos que podemos tener una variedad de otros comportamientos como se ve en la Figura (3.16). En particular, la pérdida de energía lleva a que la masa se asiente alrededor de uno de los puntos fijos estables. Esto lleva a comprender por qué hay un número infinito de equilibrios, a pesar de que físicamente la masa traza un conjunto atado de puntos cartesianos. Hemos indicado en la Figura (3.16) curvas de solución con las condiciones iniciales\(\left(x_{0}, y_{0}\right)=(0,3),(0,2),(0,1),(5,1)\).

    imagen
    Figura 3.15. Plano de fase para el péndulo no lineal no amortiguado. Las curvas de solución se muestran para las condiciones iniciales\(\left(x_{0}, y_{0}\right)=(0,3),(0,2),(0,1),(5,1)\).

    Modelos de población no lineales

    Ya nos hemos encontrado con varios modelos de dinámica poblacional. Por supuesto, uno podría soñar con varios otros ejemplos. Hay dos tipos estándar de modelos: depredador-presa y especies competidoras. En el modelo depredador-presa, una suele tener una especie, el depredador, alimentándose de la otra, la presa. Veremos el modelo estándar Lotka-Volterra en esta sección. El modelo de especies competidoras se ve similar, excepto que hay algunos cambios de signos, ya que una especie no se alimenta de la otra. Además, podemos construir en términos logísticos en nuestro modelo. Vamos a guardar este último tipo de modelo para la tarea.

    El modelo Lotka-Volterra toma la forma

    \[\begin{aligned} &\dot{x}=a x-b x y, \\ &\dot{y}=-d y+c x y \end{aligned} \nonumber \]

    En este caso, podemos pensar en la población de conejos (presas) y\(y\) es la población de zorros (depredadores).\(x\) Eligiendo todas las constantes para que sean positivas, podemos describir los términos.

    • hacha: Cuando se deja sola, la población de conejos crecerá. Así\(a\) es la tasa de crecimiento natural sin depredadores.
    • \(-d y\): Cuando no hay conejos, la población de zorros debe decaer. Por lo tanto, el coeficiente necesita ser negativo.
    imagen
    Figura 3.16. Plano de fase para el péndulo no lineal amortiguado. Las curvas de solución se muestran para las condiciones iniciales\(\left(x_{0}, y_{0}\right)=(0,3),(0,2),(0,1),(5,1)\).
    • \(-b x y\): Añadimos un término no lineal correspondiente al agotamiento de los conejos cuando los zorros están alrededor.
    • cxy: Cuantos más conejos haya, más comida para los zorros. Entonces, agregamos un término no lineal dando lugar a un incremento en la población de zorros.

    El análisis del modelo Lotka-Volterra comienza con la determinación de los puntos fijos. Entonces, tenemos de la Ecuación (3.34)

    \[\begin{gathered} x(a-b y)=0, \\ y(-d+c x)=0 . \end{gathered} \nonumber \]

    Por lo tanto, el origen y\(\left(\dfrac{d}{c} \dfrac{a}{b}\right)\) son los puntos fijos.

    A continuación, determinamos su estabilidad, por linealización sobre los puntos fijos. Podemos usar la matriz jacobiana, o podríamos simplemente expandir el lado derecho de cada ecuación en (3.34). La matriz jacobiana es\(D f(x, y)=\left(\begin{array}{cc}a-b y & -b x \\ c y & -d+c x\end{array}\right)\). Evaluando en cada punto fijo, tenemos

    \[\begin{gathered} D f(0,0)=\left(\begin{array}{cc} a & 0 \\ 0 & -d \end{array}\right), \\ D f\left(\dfrac{d}{c}, \dfrac{a}{b}\right)=\left(\begin{array}{cc} 0 & -\dfrac{b d}{c} \\ \dfrac{a c}{b} & 0 \end{array}\right) . \end{gathered} \nonumber \]

    Los valores propios de\((3.36)\) son\(\lambda=a,-d\). Entonces, el origen es un punto de silla de montar. Los valores propios de (3.37) satisfacen\(\lambda^{2}+a d=0\). Entonces, el otro punto es un centro. En la Figura\(3.17\) se muestra un campo de dirección de muestra para el sistema Lotka-Volterra.

    Otra forma de linealizar es expandir las ecuaciones sobre los puntos fijos. A pesar de que esto equivale a computar la matriz jacobiana, a veces puede ser más rápida.

    imagen
    Figura 3.17. Plano de fase para el sistema Lotka-Volterra dado por\(\dot{x}=x-0.2 x y, \dot{y}=\)\(-y+0.2 x y\). Las curvas de solución se muestran para las condiciones iniciales\(\left(x_{0}, y_{0}\right)=(8,3),(1,5)\).

    Límite de ciclos

    Hasta el momento nos acaban de preocupar las soluciones de equilibrio y su comportamiento. Sin embargo, los puntos fijos asintóticamente estables no son los únicos atractores. Existen otros tipos de soluciones, conocidas como ciclos límite, hacia los que puede tender una solución. En esta sección veremos algunos ejemplos de estas soluciones periódicas.

    Tales soluciones son de naturaleza común. Rayleigh investigó el problema

    \[x^{\prime \prime}+c\left(\dfrac{1}{3}\left(x^{\prime}\right)^{2}-1\right) x^{\prime}+x=0 \nonumber \]

    en el estudio de las vibraciones de una cuerda de violín. Van der Pol estudió un circuito eléctrico, modelando este comportamiento. Otros han investigado sistemas biológicos, como los sistemas neuronales, las reacciones químicas, como la cinética de Michaelis-Menton o los sistemas que conducen a oscilaciones químicas. Uno de los modelos más importantes en el estudio histórico de los sistemas dinámicos es el del movimiento planetario y la investigación de la estabilidad de las órbitas planetarias. Como es bien sabido, estas órbitas son periódicas.

    Los ciclos límite son soluciones periódicas aisladas hacia las que los estados vecinos pueden tender cuando son estables. Un ejemplo clave que muestra un ciclo límite es dado por el sistema

    \[\begin{aligned} &x^{\prime}=\mu x-y-x\left(x^{2}+y^{2}\right) \\ &y^{\prime}=x+\mu y-y\left(x^{2}+y^{2}\right) \end{aligned} \nonumber \]

    Es claro que el origen es un punto fijo. La matriz jacobiana se da como

    \[\operatorname{Df}(0,0)=\left(\begin{array}{cc} \mu & -1 \\ 1 & \mu \end{array}\right) \nonumber \]

    Se encuentra que los valores propios son\(\lambda=\mu \pm i\). Porque\(\mu=0\) tenemos un centro. Porque\(\mu<0\) tenemos una espiral estable y para\(\mu>0\) tenemos una espiral inestable. Sin embargo, esta espiral no vaga hacia el infinito. Vemos en la Figura\(3.18\) que el punto de equilibrio es una espiral. No obstante, en la Figura\(3.19\) es claro que la solución no sale en espiral hacia el infinito. Está delimitado por un círculo.

    imagen
    Figura 3.18. Plano de fase para sistema (3.39) con\(\mu=0.4\).
    imagen
    Figura 3.19. Plano de fase para sistema (3.39) con\(\mu=0.4\) mostrar que la espiral interna está delimitada por un ciclo límite.

    En realidad se puede encontrar el radio de este círculo. Esto requiere reescribir el sistema en forma polar. Recordemos del Capítulo 2 que esto se hace usando

    \[\begin{gathered} r r^{\prime}=x x^{\prime}+y y^{\prime}, \\ r^{2} \theta^{\prime}=x y^{\prime}-y x^{\prime} . \end{gathered} \nonumber \]

    Insertando el sistema (3.39) en estas expresiones, tenemos

    \[r r^{\prime}=\mu r^{2}-r^{4}, \quad r^{2} \theta^{\prime}=r^{2}, \nonumber \]

    \[r^{\prime}=\mu r-r^{3}, \theta^{\prime}=1 . \nonumber \]

    Por supuesto, para una\(r=\) const circular, por lo tanto necesitamos mirar las soluciones de equilibrio de la Ecuación (3.43). Esto equivale a resolver\(\mu r-r^{3}=0\) para\(r\). Las soluciones de esta ecuación son\(r=0, \pm \sqrt{\mu}\). Solo necesitamos mantener la solución de un radio positivo,\(r=\sqrt{\mu}\). En Cifras\(3.18-3.19 \mu=0.4\), por lo que esperamos un círculo con\(r=\sqrt{0.4} \approx 0.63\). La\(\theta\) ecuación solo nos dice que seguimos el ciclo límite en sentido contrario a las agujas del reloj.

    Los ciclos límite no son siempre círculos. En las Figuras 3.20-3.21 mostramos el comportamiento del sistema Rayleigh (3.38) para\(c=0.4\) y\(c=2.0\). En este caso vemos que las soluciones tienden hacia un ciclo límite no circular.

    imagen
    Figura 3.20. Plano de fase para el sistema Rayleigh (3.38) con\(c=0.4\).

    El ciclo límite para\(c=2.0\) se muestra en la Figura\(3.22\).

    imagen
    Figura 3.21. Plano de fase para el sistema Rayleigh (3.38) con\(c=2.0\).
    imagen
    Figura 3.22. Plano de fase para el sistema Rayleigh (3.44) con\(c=0.4\).

    ¿Se puede determinar con anticipación si un sistema no lineal dado tendrá un ciclo límite? Para responder a esta pregunta, introduciremos algunas definiciones.

    imagen
    Figura 3.23. Un boceto que representa la idea de trayectoria, u órbita, que pasa a través\(x\).

    Primero describimos diferentes trayectorias y familias de trayectorias. Un flujo encendido\(R^{2}\) es una función\(\phi\) que satisface lo siguiente

    1. \(\phi(\mathbf{x}, t)\)es continuo en ambos argumentos.
    2. \(\phi(\mathbf{x}, 0)=\mathbf{x}\)para todos\(\mathbf{x} \in R^{2}\)
    3. \(\phi\left(\phi\left(\mathbf{x}, t_{1}\right), t_{2}\right)=\phi\left(\mathbf{x}, t_{1}+t_{2}\right)\).

    La órbita, o trayectoria, a través\(\mathbf{x}\) se define como\(\gamma=\{\phi(\mathbf{x}, t) \mid t \in I\}\). En la Figura\(3.23\) demostramos estas propiedades. Para\(t=0, \phi(\mathbf{x}, 0)=\mathbf{x}\). Al aumentar\(t\), se sigue la trayectoria hasta llegar al punto\(\phi\left(\mathbf{x}, t_{1}\right)\). Continuando\(t_{2}\) más, uno está entonces en\(\phi\left(\phi\left(\mathbf{x}, t_{1}\right), t_{2}\right)\). Por la tercera propiedad, esto es lo mismo que ir de\(\mathbf{x}\) a\(\phi\left(\mathbf{x}, t_{1}+t_{2}\right)\) para\(t=t_{1}+t_{2}\).

    Una vez definidas las órbitas, necesitamos definir el comportamiento asintótico de la órbita tanto para tiempos grandes positivos como negativos. Definimos la semiórbita positiva a través de\(\mathbf{x}\) como\(\gamma^{+}=\{\phi(\mathbf{x}, t) \mid t>0\}\). La semiórbita negativa a través\(\mathbf{x}\) se define como\(\gamma^{-}=\{\phi(\mathbf{x}, t) \mid t<0\}\). Así, tenemos\(\gamma=\gamma^{+} \cup^{-}\).

    El conjunto de límites positivos, o\(\omega\) -limit set, de punto\(\mathbf{x}\) se define como

    \[\Lambda^{+}=\left\{\mathbf{y} \mid \text { there exists a sequence of } t_{n} \rightarrow \infty \text { such that } \phi\left(\mathbf{x}, t_{n}\right) \rightarrow \mathbf{y}\right\} \nonumber \]

    Los\(\mathbf{y}\)'s se denominan puntos\(\omega\) -límite. Esto se muestra en la Figura\(3.24\).

    imagen
    Figura 3.24. Un boceto que representa un conjunto\(\omega\) -limit. Tenga en cuenta que las órbitas tienden hacia el conjunto a medida que\(t\) aumenta.
    imagen
    Figura 3.25. Un boceto que representa un conjunto\(\alpha\) -limit. Tenga en cuenta que las órbitas se alejan del conjunto a medida que\(t\) aumenta.

    Del mismo modo, definimos el conjunto de límites negativos, o conjuntos de límite alfa, de punto\(\mathbf{x}\) se define ya que\(\Lambda^{-}=\left\{\mathbf{y} \mid\right.\) existe una secuencia de\(t_{n} \rightarrow-\infty\) tales que\(\left.\phi\left(\mathbf{x}, t_{n}\right) \rightarrow \mathbf{y}\right\}\)

    y los correspondientes\(\mathbf{y}\) son\(\alpha\) -puntos límite. Esto se muestra en la Figura\(3.25\).

    Hay varios tipos de órbitas que un sistema podría poseer. Un ciclo u órbita periódica es cualquier órbita cerrada que no es un punto de equilibrio. Una órbita periódica es estable si por cada vecindario de la órbita tal que todas las órbitas cercanas permanezcan dentro del vecindario. De lo contrario, es inestable. La órbita es asintóticamente estable si todas las órbitas cercanas convergen a la órbita periódica.

    Un ciclo límite es un ciclo que es el conjunto\(\alpha\) o\(\omega\) -limit de alguna trayectoria que no sea el ciclo límite. Un ciclo límite\(\Gamma\) es estable si\(\Lambda^{+}=\Gamma\) para todos\(\mathbf{x}\) en algún barrio de\(\Gamma\). Un ciclo límite\(\Gamma\) es inestable si\(\Lambda^{-}=\Gamma\) para todos\(\mathbf{x}\) en algún vecindario de\(\Gamma\). Por último, un ciclo de límites es semistable si está atrayendo por un lado y repeliendo por el otro lado. En los ejemplos anteriores, vimos ciclos límite que eran estables. Las figuras\(3.24\) y\(3.25\) representan ciclos límite estables e inestables, respectivamente.

    Ahora declaramos un teorema que describe el tipo de órbitas que podríamos encontrar en nuestro sistema.

    Teorema 3.7. Teorema de Poincaré-Bendixon Dejar\(\gamma^{+}\) estar contenidos en una región acotada en la que hay finitamente muchos puntos críticos. Entonces\(\Lambda^{+}\) es

    1. un único punto crítico;
    2. una sola órbita cerrada;
    3. un conjunto de puntos críticos unidos por órbitas heteroclínicas. [Comparar Cifras\(3.27\) y??.]
    imagen
    Figura 3.26. Una órbita heteroclínica que conecta dos puntos críticos.

    Nos interesa determinar cuándo pueden existir, o no, ciclos límite. Una consecuencia del Teorema de Poincaré-Bendixon viene dada por el siguiente corolario.

    Corolario Let\(D\) Ser un conjunto cerrado acotado que no contenga puntos críticos y supongamos que\(\gamma^{+} \subset D\). Entonces existe un ciclo límite contenido en\(D\).

    Criterios más específicos nos permiten determinar si existe un ciclo límite en una región determinada. Estos están dados por Criterios de Dulac y Criterios de Bendixon.

    imagen
    Figura 3.27. Una órbita homoclínica regresando al punto que dejó.

    Criterios de Dulac Considerar el sistema plano autónomo

    \[x^{\prime}=f(x, y), \quad y^{\prime}=g(x, y) \nonumber \]

    y una función continuamente diferenciable\(\psi\) definida en una región anular\(D\) contenida en algún conjunto abierto. Si

    \[\dfrac{\partial}{\partial x}(\psi f)+\dfrac{\partial}{\partial y}(\psi g) \nonumber \]

    no cambia de inicio de sesión\(D\), entonces hay como máximo un ciclo límite contenido completamente en\(D\).

    Criterios de Bendixon Considerar el sistema plano autónomo

    \[x^{\prime}=f(x, y), \quad y^{\prime}=g(x, y) \nonumber \]

    definido en un dominio simplemente conectado de\(D\) tal manera que

    \[\dfrac{\partial}{\partial x}(\psi f)+\dfrac{\partial}{\partial y}(\psi g) \neq 0 \nonumber \]

    pulg\(D\). Entonces no hay ciclos límite enteramente en\(D\).

    Estos se prueban fácilmente usando el Teorema de Green en el plano. Demostramos los Criterios de Bendixon. Vamos\(\mathbf{f}=(f, g)\). Supongamos que\(\Gamma\) es una órbita cerrada que se encuentra en\(D\). Que\(S\) sea el interior de\(\Gamma\). Entonces

    \[\begin{aligned} \int_{S} \nabla \cdot \mathbf{f} d x d y &=\oint_{\Gamma}(f d y-g d x) \\ &=\int_{0}^{T}(f \dot{y}-g \dot{x}) d t \\ &=\int_{0}^{T}(f g-g f) d t=0 \end{aligned} \nonumber \]

    Entonces, si no\(\nabla \cdot \mathbf{f}\) es idénticamente cero y no cambia de inicio de sesión\(S\), entonces desde la continuidad de\(\nabla \cdot \mathbf{f}\) adentro\(S\) tenemos que el lado derecho arriba es positivo o negativo. Así, tenemos una contradicción y no hay una órbita cerrada que se encuentra en\(D\)

    Ejemplo 3.8. Considere el ejemplo anterior en (3.39) con\(\mu=1\).

    \[\begin{aligned} &x^{\prime}=x-y-x\left(x^{2}+y^{2}\right) \\ &y^{\prime}=x+y-y\left(x^{2}+y^{2}\right) . \end{aligned} \nonumber \]

    Ya sabemos que existe un ciclo límite en\(x^{2}+y^{2}=1\). Un simple cómputo da que

    \[\nabla \cdot \mathbf{f}=2-4 x^{2}-4 y^{2} \nonumber \]

    Para un anillo arbitrario\(a<x^{2}+y^{2}<b\), tenemos

    \[2-4 b<\nabla \cdot \mathbf{f}<2-4 a . \nonumber \]

    Para\(a=3 / 4\) y\(b=5 / 4,-3<\nabla \cdot \mathbf{f}<-1\). Así,\(\nabla \cdot \mathbf{f}<0\) en el anillo\(3 / 4<x^{2}+y^{2}<5 / 4\). Por lo tanto, por Criterios de Dulac hay como máximo un ciclo límite en este anillo.

    Ejemplo 3.9. Considerar el sistema

    \[\begin{aligned} &x^{\prime}=y \\ &y^{\prime}=-a x-b y+c x^{2}+d y^{2} . \end{aligned} \nonumber \]

    Vamos\(\psi(x, y)=e^{-2 d x}\). Entonces,

    \[\dfrac{\partial}{\partial x}(\psi y)+\dfrac{\partial}{\partial y}\left(\psi\left(-a x-b y+c x^{2}+d y^{2}\right)\right)=-b e^{-2 d x} \neq 0 \nonumber \]

    Concluimos por Criterios de Bendixon que no hay ciclos límite para este sistema.

    Sistemas no autónomos no lineales

    En esta sección se discuten los sistemas no autónomos. Recordemos que un sistema autónomo es aquel en el que no existe una dependencia explícita del tiempo. Un ejemplo sencillo es el péndulo no lineal forzado dado por la ecuación no homogénea

    \[\ddot{x}+\omega^{2} \sin x=f(t) . \nonumber \]

    Podemos configurarlo como un sistema de dos ecuaciones de primer orden:

    \[\begin{aligned} &\dot{x}=y \\ &\dot{y}=-\omega^{2} \sin x+f(t) \end{aligned} \nonumber \]

    Este sistema no está en una forma para la que pudiéramos utilizar los métodos anteriores. Es decir, se trata de un sistema no autónomo. Sin embargo, introducimos una nueva variable\(z(t)=t\) y la convertimos en un sistema autónomo en una dimensión más. El nuevo sistema toma la forma

    \[\begin{aligned} &\dot{x}=y \\ &\dot{y}=-\omega^{2} \sin x+f(z) \\ &\dot{z}=1 \end{aligned} \nonumber \]

    Este sistema es un sistema autónomo tridimensional, posiblemente no lineal, y se puede explorar utilizando nuestros métodos anteriores.

    Un modelo más interesante es proporcionado por la Ecuación Duffing. Esta ecuación modela las oscilaciones de resorte duro y resorte blando. También modela una viga forzada periódicamente como se muestra en la Figura 3.28. Es de interés porque es un sistema simple que exhibe dinámicas caóticas y nos motivará a utilizar nuevos métodos de visualización para sistemas no autónomos.

    imagen
    Figura 3.28. Un modelo de la ecuación Duffing describe un haz forzado periódicamente que interactúa con dos imanes.

    La forma más general de la ecuación de Duffing viene dada por

    \[\ddot{x}+k \dot{x}+\left(\beta x^{3} \pm \omega_{0}^{2} x\right)=\Gamma \cos (\omega t+\phi) . \nonumber \]

    Esta ecuación modela las\((\beta<0)\) oscilaciones de resorte duro\((\beta>0)\) y resorte blando. Sin embargo, usaremos una versión más simple de la ecuación Duffing:

    \[\ddot{x}+k \dot{x}+x^{3}-x=\Gamma \cos \omega t . \nonumber \]

    Veamos primero el comportamiento de algunas de las órbitas del sistema a medida que variamos los parámetros. En las Figuras\(3.29-3.31\) se muestran algunas gráficas de solución típicas superpuestas sobre el campo de dirección. Comenzamos con la ecuación de\((\Gamma=0)\) Duffing sin amortiguar\((k=0)\) y no forzada,

    \[\ddot{x}+x^{3}-x==0 . \nonumber \]

    Podemos escribir esta ecuación de segundo orden como el sistema autónomo

    \[\begin{aligned} &\dot{x}=y \\ &\dot{y}=x\left(1-x^{2}\right) \end{aligned} \nonumber \]

    Vemos que hay tres puntos de equilibrio en\((0,0),(\pm 1,0)\). En la Figura\(3.29\) trazamos varias órbitas para Vemos que los tres puntos de equilibrio constan de dos centros y una silla de montar.

    imagen
    Figura 3.29. Plano de fase para la ecuación Duffing sin amortiguar y no forzada\((k=0, \Gamma=0)\).

    Ahora encendemos la amortiguación. El sistema se convierte

    \[\begin{aligned} &\dot{x}=y \\ &\dot{y}=-k y+x\left(1-x^{2}\right) . \end{aligned} \nonumber \]

    En Figura\(3.30\) mostramos lo que sucede cuando\(k=0.1\) Estas parcelas recuerdan a las parcelas para el péndulo no lineal; sin embargo, hay menos equilibrios. Los centros se convierten en espirales estables.

    A continuación encendemos el forzamiento para obtener una ecuación de Duffing amortiguada y forzada. El sistema es ahora no autónomo.

    imagen
    Figura 3.30. Plano de fase para la ecuación Duffing no forzada con\(k=0.1\) y\(\Gamma=0\).

    \[\begin{aligned} &\dot{x}=y \\ &\dot{y}=x\left(1-x^{2}\right)+\Gamma \cos \omega t \end{aligned} \nonumber \]

    En la Figura solo\(3.31\) mostramos una órbita con\(k=0.1, \Gamma=0.5\), y\(\omega=1.25\). La solución se cruza y se ve un poco desordenada. Podemos imaginar lo que obtendríamos si agregáramos más órbitas. Para completar, mostramos en la Figura\(3.32\) un ejemplo con cuatro órbitas diferentes.

    En los casos para los que se tienen órbitas periódicas como la ecuación Duffing, Poincaré introdujo la noción de superficies de sección. Uno incrusta la órbita en un espacio dimensional superior para que no haya autointersecciones, como vimos en las Figuras\(3.31\) y 3.32. En la Figura\(3.33\) mostramos un ejemplo donde se muestra una órbita simple ya que perfora periódicamente una superficie determinada.

    Para simplificar las imágenes resultantes, solo se trazan los puntos en los que la órbita perfora la superficie como se esboza en la Figura 3.34. En la práctica, hay una frecuencia natural, como\(\omega\) en la ecuación de Duffing forzado. Entonces, uno traza puntos en momentos que son múltiplos del periodo,\(T=\dfrac{2 \pi}{\omega}\). En Figura\(3.35\) mostramos cómo sería la trama para una órbita para la ecuación de Duffing amortiguada y no forzada.

    El caso más interesante, es cuando hay forzamiento y amortiguación. En este caso la superficie de la gráfica de sección se da en la Figura\(3.36\). Si bien esto no está tan ocupado como la gráfica de solución en la Figura 3.31, todavía proporciona algún comportamiento interesante. Lo que uno encuentra es lo que se llama un atractor extraño. Trazando muchas órbitas, encontramos que después de mucho tiempo, todas las órbitas son atraídas por una pequeña región en el plano, al igual que un nodo estable atrae órbitas cercanas. Sin embargo, esto

    imagen
    Figura 3.31. Plano de fase para la ecuación Duffing con\(k=0.1, \Gamma=0.5\), y\(\omega=1.25\). En este caso solo mostramos una órbita que se generó a partir de la condición inicial\(\left(x_{0}=1.0, \quad y_{0}=0.5\right)\).
    imagen
    Figura 3.32. Plano de fase para la ecuación Duffing con\(k=0.1, \Gamma=0.5\), y\(\omega=1.25\). En este caso se utilizaron cuatro condiciones iniciales para generar cuatro órbitas.
    imagen
    Figura 3.33. Superficie de sección de Poincaré. Se nota cada vez que la órbita perfora la superficie.
    imagen
    Figura 3.34. A medida que una órbita perfora la superficie de sección, se traza el punto de intersección en ese plano para producir la superficie de la gráfica de sección.

    conjunto consta de más de un punto. Además, el flujo en el atractor es de naturaleza caótica. Así, los puntos deambulan de manera irregular por todo el atractor. Este es uno de los temas interesantes de la teoría del caos y toda esta teoría de los sistemas dinámicos solo ha sido tocada en este texto dejando al lector a vagar en mayor profundidad en este fascinante campo.

    Código de arce para trazados de plano de fase

    Como referencia, las gráficas en Figuras\(3.29\) y\(3.30\) se generaron en Maple usando los siguientes comandos:

    imagen
    Figura 3.35. Parcela de superficie de sección de Poincaré para la ecuación de Duffing amortiguada y no forzada.
    imagen
    Figura 3.36. Parcela de superficie de sección de Poincaré para la ecuación de Duffing amortiguada y forzada.

    Esto lleva a lo que se conoce como un extraño atractor.

    imagen

    La superficie de las parcelas de sección al final de la última sección se obtuvo utilizando código del libro de S. Lynch Sistemas dinámicos con aplicaciones usando arce. El código Maple viene dado por

    imagen

    Apéndice: Periodo del Péndulo No Lineal

    En la Sección 3.5.1 vimos que la solución del problema del péndulo no lineal se puede encontrar hasta cuadratura. De hecho, la integral en la Ecuación (3.19) puede transformarse en lo que se conoce como una integral elíptica de primer tipo. Reescribiremos nuestro resultado y luego lo usaremos para obtener una aproximación al período de oscilación de nuestro péndulo no lineal, conduciendo a correcciones al resultado lineal encontrado anteriormente.

    Primero reescribiremos la constante que se encuentra en (3.18). Esto requiere un poco de física. El balanceo de una masa sobre una cuerda, asumiendo que no hay pérdida de energía en el punto de pivote, es un proceso conservador. A saber, se conserva la energía mecánica total. Así, el total de las energías potenciales cinéticas y gravitacionales es una constante. Señalando que\(v=L \dot{\theta}\), la energía cinética de la masa en la cuerda se da como

    \[T=\dfrac{1}{2} m v^{2}=\dfrac{1}{2} m L^{2} \dot{\theta}^{2} . \nonumber \]

    La energía potencial es la energía potencial gravitacional. Si establecemos la energía potencial a cero en la parte inferior del columpio, entonces la energía potencial es\(U=m g h\), dónde\(h\) está la altura a la que está la masa desde el fondo del columpio. Un poco de trigonometría da eso\(h=L(1-\cos \theta)\). Esto le da la energía potencial como

    \[U=m g L(1-\cos \theta) . \nonumber \]

    Entonces, la energía mecánica total es

    \[E=\dfrac{1}{2} m L^{2} \theta^{\prime 2}+m g L(1-\cos \theta) . \nonumber \]

    Observamos que un poco de reorganización muestra que podemos relacionar esto con la Ecuación\((3.18)\)

    \[\dfrac{1}{2}\left(\theta^{\prime}\right)^{2}-\omega^{2} \cos \theta=\dfrac{1}{m L^{2}} E-\omega^{2}=c . \nonumber \]

    Podemos usar la Ecuación (3.56) para obtener un valor para la energía total. En la parte superior del columpio la masa no se mueve, aunque sólo sea por un momento. Así, la energía cinética es cero y la energía total es energía potencial pura. Dejando\(\theta_{0}\) denotar el ángulo en la posición más alta, tenemos que

    \[E=m g L\left(1-\cos \theta_{0}\right)=m L^{2} \omega^{2}\left(1-\cos \theta_{0}\right) . \nonumber \]

    Aquí hemos utilizado la relación\(g=L \omega^{2}\).

    Por lo tanto, hemos encontrado que

    \[\dfrac{1}{2} \dot{\theta}^{2}-\omega^{2} \cos \theta=\omega^{2}\left(1-\cos \theta_{0}\right) . \nonumber \]

    Usando la fórmula de medio ángulo,

    \[\sin ^{2} \dfrac{\theta}{2}=\dfrac{1}{2}(1-\cos \theta) \nonumber \]

    podemos reescribir la ecuación\((3.57)\) como

    \[\dfrac{1}{2} \dot{\theta}^{2}=2 \omega^{2}\left[\sin ^{2} \dfrac{\theta_{0}}{2}-\sin ^{2} \dfrac{\theta}{2}\right] \nonumber \]

    Resolviendo para\(\theta^{\prime}\), tenemos

    \[\dfrac{d \theta}{d t}=2 \omega\left[\sin ^{2} \dfrac{\theta_{0}}{2}-\sin ^{2} \dfrac{\theta}{2}\right]^{1 / 2} \nonumber \]

    Ahora se puede aplicar la separación de variables y obtener una integral similar a la solución que habíamos obtenido anteriormente. Al señalar que una moción de\(\theta=0\) a\(\theta=\theta_{0}\) es un cuarto de ciclo, entonces tenemos que

    \[T=\dfrac{2}{\omega} \int_{0}^{\theta_{0}} \dfrac{d \phi}{\sqrt{\sin ^{2} \dfrac{\theta_{0}}{2}-\sin ^{2} \dfrac{\theta}{2}}} \nonumber \]

    Este resultado no es muy diferente a nuestro resultado anterior, pero ahora podemos transformar fácilmente la integral en una integral elíptica. Definimos

    \[z=\dfrac{\sin \dfrac{\theta}{2}}{\sin \dfrac{\theta_{0}}{2}} \nonumber \]

    y

    \[k=\sin \dfrac{\theta_{0}}{2} \nonumber \]

    Entonces la Ecuación (3.60) se convierte

    \[T=\dfrac{4}{\omega} \int_{0}^{1} \dfrac{d z}{\sqrt{\left(1-z^{2}\right)\left(1-k^{2} z^{2}\right)}} . \nonumber \]

    Esto se hace al señalar eso\(d z=\dfrac{1}{2 k} \cos \dfrac{\theta}{2} d \theta=\dfrac{1}{2 k}\left(1-k^{2} z^{2}\right)^{1 / 2} d \theta\) y aquello\(\sin ^{2} \dfrac{\theta_{0}}{2}-\sin ^{2} \dfrac{\theta}{2}=k^{2}\left(1-z^{2}\right)\). La integral en este resultado es una integral elíptica de primer tipo. En particular, se define la integral elíptica del primer tipo

    \[F(\phi, k) \equiv=\int_{0}^{\phi} \dfrac{d \theta}{\sqrt{1-k^{2} \sin ^{2} \theta}}=\int_{0}^{\sin \phi} \dfrac{d z}{\sqrt{\left(1-z^{2}\right)\left(1-k^{2} z^{2}\right)}} . \nonumber \]

    En algunos contextos, esto se conoce como la integral elíptica incompleta del primer tipo y\(K(k)=F\left(\dfrac{\pi}{2}, k\right)\) se llama la integral completa del primer tipo.

    Hay tablas de valores para integrales elípticas. Históricamente, así es como se encontraron valores de integrales elípticas. Sin embargo, ahora tenemos acceso a sistemas informáticos de álgebra que pueden ser utilizados para calcular valores de tales integrales. Para ángulos pequeños, tenemos que\(k\) es pequeño. Entonces, podemos desarrollar una expansión en serie para el periodo,\(T\), para pequeños\(k\). Esto se hace expandiendo primero

    \[\left(1-k^{2} z^{2}\right)^{-1 / 2}=1+\dfrac{1}{2} k^{2} z^{2}+\dfrac{3}{8} k^{2} z^{4}+O\left((k z)^{6}\right) \nonumber \]

    Sustituyendo esto en el término integrando y integrando término por término, se encuentra que

    \[T=2 \pi \sqrt{\dfrac{L}{g}}\left[1+\dfrac{1}{4} k^{2}+\dfrac{9}{64} k^{4}+\ldots\right] \nonumber \]

    Esta expresión da más correcciones al resultado lineal, que sólo proporciona el primer término. En la Figura\(3.37\) se muestran los errores relativos incurridos al mantener los\(k^{4}\) términos\(k^{2}\) y versus no conservarlos. Se pide al lector que explore esto más a fondo en el Problema 3.8.

    imagen
    Figura 3.37. El error relativo en porcentaje al aproximar el periodo exacto de un péndulo no lineal con uno, dos o tres términos en la Ecuación (3.62).

    Problemas

    3.1. Encuentre las soluciones de equilibrio y determine su estabilidad para los siguientes sistemas. Para cada caso dibuje soluciones representativas y líneas de fase.
    a\(y^{\prime}=y^{2}-6 y-16\).
    b\(y^{\prime}=\cos y\).
    \(y^{\prime}=y(y-2)(y+3)\)c.
    d\(y^{\prime}=y^{2}(y+1)(y-4)\).

    3.2. Para\(y^{\prime}=y-y^{2}\), encuentre la solución general correspondiente a\(y(0)=y_{0}\). Proporcionar soluciones específicas para las siguientes condiciones iniciales y esbozarlas: a.\(y(0)=0.25\)\(y(0)=1.5\), b., y c.\(y(0)=-0.5\)

    3.3. Para cada problema determinar puntos de equilibrio, puntos de bifurcación y construir un diagrama de bifurcación. Discutir los diferentes comportamientos en cada sistema.
    a.\(y^{\prime}=y-\mu y^{2}\)
    b.\(y^{\prime}=y(\mu-y)(\mu-2 y)\)
    c.\(x^{\prime}=\mu-x^{3}\)
    d.\(x^{\prime}=x-\dfrac{\mu x}{1+x^{2}}\)

    3.4. Considera la familia de ecuaciones diferenciales\(x^{\prime}=x^{3}+\delta x^{2}-\mu x\).

    a. Dibuje un diagrama de bifurcación en el\(x \mu\) plano -para\(\delta=0\).

    b. Dibuje un diagrama de bifurcación en el\(x \mu\) plano -para\(\delta>0\). Pista: Elija algunos valores de\(\delta\) y\(\mu\) para tener una idea de cómo se comporta este sistema.

    3.5. Considerar el sistema

    \[\begin{aligned} &x^{\prime}=-y+x\left[\mu-x^{2}-y^{2}\right], \\ &y^{\prime}=x+y\left[\mu-x^{2}-y^{2}\right] \end{aligned} \nonumber \]

    Reescribir este sistema en forma polar. Observe el comportamiento de la\(r\) ecuación y construya un diagrama de bifurcación en el\(\mu r\) espacio. ¿Cómo podría ser este diagrama en el\(\mu x y\) espacio tridimensional? (Piense en la simetría en este problema.) Esto lleva a lo que se llama una bifurcación Hopf.

    3.6. Encuentra los puntos fijos de los siguientes sistemas. Linealizar el sistema alrededor de cada punto fijo y determinar la naturaleza y estabilidad en la vecindad de cada punto fijo, cuando sea posible. Verifique sus hallazgos trazando retratos de fase usando una computadora.

    a.

    \[\begin{aligned} &x^{\prime}=x(100-x-2 y), \\ &y^{\prime}=y(150-x-6 y) \end{aligned} \nonumber \]

    b.

    \[\begin{aligned} &x^{\prime}=x+x^{3}, \\ &y^{\prime}=y+y^{3} \end{aligned} \nonumber \]

    c.

    \[\begin{aligned} &x^{\prime}=x-x^{2}+x y \\ &y^{\prime}=2 y-x y-6 y^{2} \end{aligned} \nonumber \]

    d.

    \[\begin{aligned} &x^{\prime}=-2 x y \\ &y^{\prime}=-x+y+x y-y^{3} . \end{aligned} \nonumber \]

    3.7. Trazar retratos de fase para el sistema Lienard

    \[\begin{aligned} &x^{\prime}=y-\mu\left(x^{3}-x\right) \\ &y^{\prime}=-x . \end{aligned} \nonumber \]

    por un valor pequeño y no tan pequeño de\(\mu\). Describir lo que sucede a medida que uno varía\(\mu\). 3.8. Considera el periodo de un péndulo no lineal. Deja que la longitud sea\(L=1.0\)\(\mathrm{m}\) y\(g=9.8 \mathrm{~m} / \mathrm{s}^{2}\). Esbozar\(T\) vs el ángulo inicial\(\theta_{0}\) y comparar los valores lineales y no lineales para el periodo. ¿Para qué ángulos puedes usar la aproximación lineal con confianza?

    3.9. Otro modelo poblacional es aquel en el que las especies compiten por recursos, como un suministro limitado de alimentos. Tal modelo viene dado por

    \[\begin{aligned} &x^{\prime}=a x-b x^{2}-c x y \\ &y^{\prime}=d y-e y^{2}-f x y . \end{aligned} \nonumber \]

    En este caso, supongamos que todas las constantes son positivas.

    a Describir los efectos/propósito de cada término.

    \(b\)Encuentra los puntos fijos del modelo.

    c Linealizar el sistema alrededor de cada punto fijo y determinar la estabilidad.

    \(\mathrm{d}\)A partir de lo anterior, describa los tipos de comportamiento de solución que podría esperar, en términos del modelo.

    3.10. Considerar un modelo de una cadena alimentaria de tres especies. Supongamos que cada población por sí sola puede ser modelada por el crecimiento logístico. Que la especie sea etiquetada por\(x(t), y(t)\), y\(z(t)\). Supongamos que la población\(x\) se encuentra en la parte inferior de la cadena. Esa población se agotará por población\(y\). \(y\)La población es sostenida por\(x\)'s, pero consumida por\(z\)'s. Un modelo simple, pero escalado, para este sistema puede ser dado por el sistema

    \[\begin{aligned} &x^{\prime}=x(1-x)-x y \\ &y^{\prime}=y(1-y)+x y-y z \\ &z^{\prime}=z(1-z)+y z \end{aligned} \nonumber \]

    a. Encontrar los puntos de equilibrio del sistema.

    b. Encontrar la matriz jacobiana para el sistema y evaluarla en los puntos de equilibrio.

    c. Encuentra los valores propios y los vectores propios.

    d. Describir el comportamiento de la solución cerca de cada punto de equilibrio.

    f. cuáles de estos equilibrios son importantes en el estudio del modelo poblacional y describen las interacciones de las especies en la vecindad de estos puntos\((\mathrm{s})\)

    3.11. Demostrar que el sistema\(x^{\prime}=x-y-x^{3}, y^{\prime}=x+y-y^{3}\), tiene un ciclo límite único escogiendo un apropiado\(\psi(x, y)\) en Criterios de Dulac.

    Problemas de Valor Límite

    Introducción

    Hasta este punto hemos resuelto problemas iniciales de valor. Para un problema de valor inicial se tiene que resolver una ecuación diferencial sujeta a condiciones sobre la función desconocida y sus derivadas a un valor de la variable independiente. Por ejemplo, porque\(x=x(t)\) podríamos tener el problema de valor inicial

    \[x^{\prime \prime}+x=2, \quad x(0)=1, \quad x^{\prime}(0)=0 \nonumber \]

    En los próximos capítulos estudiaremos problemas de valor límite y diversas herramientas para resolver dichos problemas. En este capítulo vamos a motivar nuestro interés por los problemas de valor límite buscando resolver la ecuación de calor unidimensional, que es una ecuación diferencial parcial. para el resto de la sección, utilizaremos esta solución para mostrar que en el fondo de nuestra solución de problemas de valor límite es un estructura basada en álgebra lineal y análisis que conduzca al estudio de los espacios internos del producto. Aunque técnicamente, deberíamos ser guiados a los espacios de Hilbert, que son espacios de producto interiores completos.

    Para un problema de valor inicial se tiene que resolver una ecuación diferencial sujeta a condiciones sobre la función desconocida o sus derivadas a más de un valor de la variable independiente. Como ejemplo, tenemos una ligera modificación del problema anterior: Encuentra la solución\(x=x(t)\) para\(0 \leq t \leq 1\) que satisfaga el problema

    \[x^{\prime \prime}+x=2, \quad x(0)=1, \quad x(1)=0 . \nonumber \]

    Por lo general, los problemas de valor inicial implican funciones dependientes del tiempo y los problemas de valor límite son espaciales. Entonces, con un problema de valor inicial se sabe cómo evoluciona un sistema en términos de la ecuación diferencial y el estado del sistema en algún momento fijo. Entonces se busca determinar el estado del sistema en un momento posterior.

    Para problemas de valores límite, se sabe cómo cada punto responde a sus vecinos, pero hay condiciones que hay que satisfacer en los puntos finales. Un ejemplo sería una viga horizontal soportada en los extremos, como un puente. La forma de la viga bajo la influencia de la gravedad, u otras fuerzas, conduciría a una ecuación diferencial y las condiciones límite en los extremos de la viga afectarían la solución del problema. También hay una variedad de otros tipos de condiciones de límite. En el caso de una viga, un extremo podría ser fijo y el otro extremo podría ser libre para moverse. Exploraremos los efectos de diferentes condiciones de valor límite en nuestras discusiones y ejercicios.

    Resolvamos el problema del valor límite anterior. Al igual que con los problemas de valor inicial, necesitamos encontrar la solución general y luego aplicar las condiciones que podamos tener. Esta es una ecuación diferencial no homogénea, por lo que tenemos que la solución es una suma de una solución de la ecuación homogénea y una solución particular de la ecuación no homogénea,\(x(t)=x_{h}(t)+x_{p}(t)\). La solución de\(x^{\prime \prime}+x=0\) se encuentra fácilmente como

    \[x_{h}(t)=c_{1} \cos t+c_{2} \sin t \nonumber \]

    La solución particular se encuentra fácilmente utilizando el Método de Coeficientes Indeterminados,

    \[x_{p}(t)=2 \nonumber \]

    Así, la solución general es

    \[x(t)=2+c_{1} \cos t+c_{2} \sin t . \nonumber \]

    Ahora aplicamos las condiciones de contorno y vemos si hay valores de\(c_{1}\) y\(c_{2}\) que dan una solución a nuestro problema. La primera condición,\(x(0)=0\), da

    \[0=2+c_{1} \nonumber \]

    Así,\(c_{1}=-2\). Usando este valor para\(c_{1}\), la segunda condición,\(x(1)=1\), da

    \[0=2-2 \cos 1+c_{2} \sin 1 \nonumber \]

    Esto rinde

    \[c_{2}=\dfrac{2(\cos 1-1)}{\sin 1} . \nonumber \]

    Hemos encontrado que existe una solución al problema del valor límite y viene dado por

    \[x(t)=2\left(1-\cos t \dfrac{(\cos 1-1)}{\sin 1} \sin t\right) \nonumber \]

    Los problemas de valor límite surgen en muchos sistemas físicos, así como muchos de los problemas de valores iniciales que hemos visto. Veremos en la siguiente sección que los problemas de valor límite para las ecuaciones diferenciales ordinarias suelen aparecer en la solución de ecuaciones diferenciales parciales.

    Ecuaciones diferenciales parciales

    En esta sección introduciremos algunas ecuaciones diferenciales parciales genéricas y veremos cómo la discusión de tales ecuaciones conduce naturalmente al estudio de problemas de valores límite para ecuaciones diferenciales ordinarias. Sin embargo, no derivaremos las ecuaciones particulares, dejando eso a cursos en ecuaciones diferenciales, física matemática, etc.

    Para las ecuaciones diferenciales ordinarias, las funciones desconocidas son funciones de una sola variable, por ejemplo,\(y=y(x)\). Las ecuaciones diferenciales parciales son ecuaciones que involucran una función desconocida de varias variables, tales como\(u=u(x, y), u=\)\(u(x, y), u=u(x, y, z, t)\), y sus derivadas (parciales). Por lo tanto, los derivados son derivados parciales. Usaremos las notaciones estándar\(u_{x}=\dfrac{\partial u}{\partial x}, u_{x x}=\dfrac{\partial^{2} u}{\partial x^{2}}\), etc.

    Hay algunas ecuaciones estándar que uno encuentra. Estas se pueden estudiar en una a tres dimensiones y son todas ecuaciones diferenciales lineales. En la Tabla 4.1 se proporciona una lista. Aquí hemos presentado al operador laplaciano,\(\nabla^{2} u=u_{x x}+u_{y y}+u_{z z}\). Dependiendo de los tipos de condiciones de contorno impuestas y de la geometría del sistema (rectangular, cilíndrica, esférica, etc.), se encuentran muchos problemas interesantes de valores límite para las ecuaciones diferenciales ordinarias.

    Nombre 2 Vars \(3 \mathrm{D}\)
    Ecuación de calor \(u_{t}=k u_{x x}\) \(u_{t}=k \nabla^{2} u\)
    Ecuación de Onda \(u_{t t}=c^{2} u_{x x}\) \(u_{t t}=c^{2} \nabla^{2} u\)
    Ecuación de Laplace \(u_{x x}+u_{y y}=0\) \(\nabla^{2} u=0\)
    Ecuación de Poisson \(u_{x x}+u_{y y}=F(x, y)\) \(\nabla^{2} u=F(x, y, z)\)
    Ecuación de Schrödinger \(i u_{t}=u_{x x}+F(x, t) u\) \(i u_{t}=\nabla^{2} u+F(x, y, z, t) u\)

    Cuadro 4.1. Listado de ecuaciones diferenciales parciales genéricas.

    Veamos la ecuación del calor en una dimensión. Esto podría describir la conducción de calor en una varilla delgada y aislada de longitud\(L\). También podría describir la difusión de contaminante en un arroyo largo y estrecho, o el flujo de tráfico por una carretera. En los problemas que involucran procesos de difusión, uno llama a esta ecuación la ecuación de difusión.

    Un problema típico de valor de límite inicial para la ecuación de calor sería que inicialmente uno tiene una distribución de temperatura\(u(x, 0)=f(x)\). Colocando la barra en un baño de hielo y asumiendo que el flujo de calor es solo a través de los extremos de la barra, uno tiene las condiciones límite\(u(0, t)=0\) y\(u(L, t)=0\). Por supuesto, estamos lidiando con temperaturas Celsius y asumimos que hay mucho hielo para mantener esa temperatura fija en cada extremo para siempre. Entonces, el problema que uno tendría que resolver se da como

    imagen

    Otro problema que surgirá en discusiones posteriores es el de la cuerda vibratoria. Una cuerda de longitud\(L\) se estira horizontalmente con ambos extremos fijos. Piensa en una cuerda de violín o una cuerda de guitarra. Después se arranca la cuerda, dando a la cadena un perfil inicial. Dejar\(u(x, t)\) ser el desplazamiento vertical de la cuerda en posición\(x\) y tiempo\(t\). El movimiento de la cuerda se rige por la ecuación de onda unidimensional. El problema del valor de límite inicial para este problema se da como

    imagen

    Resolviendo la ecuación de calor

    Nos gustaría ver cómo la solución de tales problemas que involucran ecuaciones diferenciales parciales conducirá naturalmente a estudiar problemas de valor límite para ecuaciones diferenciales ordinarias. Veremos esto mientras intentamos la solución del problema de la ecuación de calor 4.3. Emplearemos un método típicamente utilizado en el estudio de ecuaciones diferenciales parciales lineales, llamado método de separación de variables.

    Suponemos que se\(u\) puede escribir como producto de funciones variables únicas de cada variable independiente,

    \[u(x, t)=X(x) T(t) \nonumber \]

    Sustituyendo esta suposición en la ecuación de calor, encontramos que

    \[X T^{\prime}=k X^{\prime \prime} T \nonumber \]

    Dividiendo ambos lados por\(k\) y\(u=X T\), luego obtenemos

    \[\dfrac{1}{k} \dfrac{T^{\prime}}{T}=\dfrac{X^{\prime \prime}}{X} \nonumber \]

    Hemos separado las funciones del tiempo por un lado y el espacio en el otro lado. La única forma en que una función de\(t\) es igual a una función de\(x\) es si las funciones son funciones constantes. Por lo tanto, establecemos cada función igual a una constante,\(\lambda\)

    imagen

    Esto lleva a dos ecuaciones:

    \[\begin{aligned} &T^{\prime}=k \lambda T \\ &X^{\prime \prime}=\lambda X \end{aligned} \nonumber \]

    Se trata de ecuaciones diferenciales ordinarias. Las soluciones generales a estas ecuaciones se encuentran fácilmente como

    \[\begin{gathered} T(t)=A e^{k \lambda t} \\ X(x)=c_{1} e^{\sqrt{\lambda} x}+c_{2} e^{\sqrt{-\lambda} x} \end{gathered} \nonumber \]

    Tenemos que tener un poco de cuidado en este punto. El objetivo es obligar a nuestras soluciones de productos a satisfacer tanto las condiciones límite como las condiciones iniciales. Además, debemos señalar que\(\lambda\) es arbitrario y puede ser positivo, cero o negativo. Primero analizamos cómo las condiciones de límite\(u\) conducen a condiciones en\(X\).

    La primera condición es\(u(0, t)=0\). Esto implica que

    \[X(0) T(t)=0 \nonumber \]

    para todos\(t\). La única forma en que esto es cierto es si\(X(0)=0\). De igual manera, eso\(u(L, t)=0\) implica\(X(L)=0\). Entonces, tenemos que resolver el problema del valor límite

    \[X^{\prime \prime}-\lambda X=0, \quad X(0)=0=X(L) \nonumber \]

    Estamos buscando soluciones distintas de cero, como\(X \equiv 0\) es una solución obvia y poco interesante. Llamamos a tales soluciones soluciones triviales.

    Hay tres casos a considerar, dependiendo del signo de\(\lambda\).

    I.\(\underline{\lambda>0}\)

    En este caso tenemos las soluciones exponenciales

    \[X(x)=c_{1} e^{\sqrt{\lambda} x}+c_{2} e^{\sqrt{-\lambda} x} . \nonumber \]

    Para\(X(0)=0\), tenemos

    \[0=c_{1}+c_{2} \nonumber \]

    Vamos a tomar\(c_{2}=-c_{1}\). Entonces,\(X(x)=c_{1}\left(e^{\sqrt{\lambda} x}-e^{\sqrt{-\lambda} x}\right)=2 c_{1} \sinh \sqrt{\lambda} x\).

    Aplicando la segunda condición,\(X(L)=0\) rendimientos

    \[c_{1} \sinh \sqrt{\lambda} L=0 . \nonumber \]

    Esto será cierto sólo si\(c_{1}=0\), ya que\(\lambda>0\). Así, la única solución en este caso es\(X(x)=0\). Esto lleva a una solución trivial,\(u(x, t)=0\).

    II. \(\underline{\lambda=0}\)

    \(\overline{\text { For this case it is easier to set } \lambda \text { to zero in the differential equation. So, }\)\(X^{\prime \prime}=0\). Integrando dos veces, uno encuentra

    \[X(x)=c_{1} x+c_{2} . \nonumber \]

    \(x=0\)Enfrentando\(c_{2}=0\), tenemos, saliendo\(X(x)=c_{1} x\). Ajuste\(x=L\), nos encontramos\(c_{1} L=0\). Entonces,\(c_{1}=0\) y una vez más nos quedamos con una solución trivial.

    III. \(\underline{\lambda<0}\)

    En este caso sería más sencillo escribir\(\lambda=-\mu^{2}\). Entonces la ecuación diferencial es

    \[X^{\prime \prime}+\mu^{2} X=0 \nonumber \]

    La solución general es

    \[X(x)=c_{1} \cos \mu x+c_{2} \sin \mu x . \nonumber \]

    \(x=0\)Al llegar\(0=c_{1}\). Esto deja\(X(x)=c_{2} \sin \mu x\). En\(x=L\), encontramos

    \[0=c_{2} \sin \mu L . \nonumber \]

    Entonces,\(c_{2}=0\) o bien\(\sin \mu L=0 . c_{2}=0\) conduce a una solución trivial de nuevo. Pero, hay casos en los que el seno es cero. A saber,

    \[\mu L==n \pi, \quad n=1,2, \ldots \nonumber \]

    Tenga en cuenta que no\(n=0\) se incluye ya que esto lleva a una solución trivial. Además, los valores negativos de\(n\) son redundantes, ya que la función seno es una función impar.

    En resumen, podemos encontrar soluciones al problema del valor límite (4.9) para valores particulares de\(\lambda\). Las soluciones son

    \[X_{n}(x)=\sin \dfrac{n \pi x}{L}, \quad n=1,2,3, \ldots \nonumber \]

    para

    \[\lambda_{n}=-\mu_{n}^{2}=-\left(\dfrac{n \pi}{L}\right)^{2}, \quad n=1,2,3, \ldots \nonumber \]

    Por lo tanto, las soluciones de producto de la ecuación de calor (4.3) que satisfacen las condiciones límite son

    \[u_{n}(x, t)=b_{n} e^{k \lambda_{n} t} \sin \dfrac{n \pi x}{L}, \quad n=1,2,3, \ldots, \nonumber \]

    donde\(b_{n}\) es una constante arbitraria. Sin embargo, estos no necesariamente satisfacen la condición inicial\(u(x, 0)=f(x)\). Lo que sí conseguimos es

    \[u_{n}(x, 0)=\sin \dfrac{n \pi x}{L}, \quad n=1,2,3, \ldots \nonumber \]

    Entonces, si nuestra condición inicial está en alguna de estas formas, podemos escoger la correcta\(n\) y terminamos.

    Para otras condiciones iniciales, tenemos que hacer más trabajo. Tenga en cuenta que como la ecuación de calor es lineal, podemos escribir una combinación lineal de nuestras soluciones de producto y obtener la solución general satisfaciendo las condiciones de límite dadas como

    \[u(x, t)=\sum_{n=1}^{\infty} b_{n} e^{k \lambda_{n} t} \sin \dfrac{n \pi x}{L} . \nonumber \]

    Lo único que hay que imponer es la condición inicial:

    \[f(x)=u(x, 0)=\sum_{n=1}^{\infty} b_{n} \sin \dfrac{n \pi x}{L} . \nonumber \]

    Entonces, si nos dan\(f(x)\), ¿podemos encontrar las constantes\(b_{n}\)? Si podemos, entonces tendremos la solución al problema completo del valor de límite inicial. Este será el tema del próximo capítulo. Sin embargo, primero veremos la forma general de nuestro problema de valor límite y relacionaremos lo que hemos hecho con la teoría de los espacios vectoriales dimensionales infinitos.

    Conexiones a álgebra lineal

    Ya hemos visto en capítulos anteriores que las ideas del álgebra lineal surgen en nuestros estudios de ecuaciones diferenciales. A saber, resolvimos problemas de valores propios asociados a nuestros sistemas de ecuaciones diferenciales para determinar el comportamiento local de sistemas dinámicos cerca de puntos fijos. En nuestro estudio de problemas de valor límite encontraremos más conexiones con la teoría de los espacios vectoriales. Sin embargo, encontraremos que nuestros problemas radican en el ámbito de los espacios vectoriales infinitos dimensionales. En esta sección comenzaremos a ver estas conexiones.

    Expansiones de función propia para PDEs

    En la última sección se buscaron soluciones de la ecuación del calor. Escribamos formalmente la ecuación del calor en la forma

    \[\dfrac{1}{k} u_{t}=L[u] \nonumber \]

    donde

    \[L=\dfrac{\partial^{2}}{\partial x^{2}} \nonumber \]

    \(L\)es otro ejemplo de un operador diferencial lineal. [Ver Sección 1.1.2.] Es un operador diferencial porque involucra operadores derivados. A veces definimos\(D_{x}=\dfrac{\partial}{\partial x}\), así que eso\(L=D_{x}^{2}\). Es lineal, porque para funciones\(f(x)\)\(g(x)\) y y constantes\(\alpha, \beta\) tenemos

    \[L[\alpha f+\beta g]=\alpha L[f]+\beta L[g] \nonumber \]

    Al resolver la ecuación de calor, utilizando el método de separación de variables, encontramos un número infinito de soluciones de producto\(u_{n}(x, t)=T_{n}(t) X_{n}(x)\). Lo hicimos resolviendo el problema del valor límite

    \[L[X]=\lambda X, \quad X(0)=0=X(L) \nonumber \]

    Aquí vemos que un operador actúa sobre una función desconocida y escupe una constante desconocida veces esa desconocida. ¿Dónde hemos hecho esto antes? Esta es la misma forma que\(A \mathbf{v}=\lambda \mathbf{v}\). Entonces, vemos que la Ecuación (4.14) es realmente un problema de valor propio para el operador\(L\) y dadas las condiciones de límite. Cuando resolvimos la ecuación de calor en la última sección, encontramos los valores propios

    \[\lambda_{n}=-\left(\dfrac{n \pi}{L}\right)^{2} \nonumber \]

    y las funciones propias

    \[X_{n}(x)=\sin \dfrac{n \pi x}{L} . \nonumber \]

    Los usamos para construir la solución general que es esencialmente una combinación lineal sobre las funciones propias,

    \[u(x, t)=\sum_{n=1}^{\infty} T_{n}(t) X_{n}(x) \nonumber \]

    Tenga en cuenta que estas funciones propias viven en un espacio de función dimensional infinito.

    Nos gustaría generalizar este método a problemas en los que\(L\) proviene de un surtido de operadores diferenciales lineales. Entonces, consideramos la ecuación diferencial parcial más general

    \[u_{t}=L[u], \quad a \leq x \leq b, \quad t>0 \nonumber \]

    Satisfacer las condiciones de contorno

    \[B[u](a, t)=0, \quad B[u](b, t)=0, \quad t>0 \nonumber \]

    y condición inicial

    \[u(x, 0)=f(x), \quad a \leq x \leq b \nonumber \]

    La forma de las condiciones\(B[u]\) límite permitidas se retomará posteriormente. Además, posteriormente veremos ejemplos específicos y propiedades de operadores diferenciales lineales que permitirán que este procedimiento funcione.

    Asumimos soluciones de producto de la forma\(u_{n}(x, t)=b_{n}(t) \phi_{n}(x)\), donde los\(\phi_{n}\)'s son las funciones propias del operador\(L\),

    \[L \phi_{n}=\lambda_{n} \phi_{n}, \quad n=1,2, \ldots, \nonumber \]

    Satisfacer las condiciones de contorno

    \[B\left[\phi_{n}\right](a)=0, \quad B\left[\phi_{n}\right](b)=0 . \nonumber \]

    Inserción de la solución general

    \[u(x, t)=\sum_{n=1}^{\infty} b_{n}(t) \phi_{n}(x) \nonumber \]

    en la ecuación diferencial parcial, tenemos

    \[\begin{aligned} u_{t} &=L[u] \\ \dfrac{\partial}{\partial t} \sum_{n=1}^{\infty} b_{n}(t) \phi_{n}(x) &=L\left[\sum_{n=1}^{\infty} b_{n}(t) \phi_{n}(x)\right] \end{aligned} \nonumber \]

    A la izquierda diferenciamos término por término\({ }^{1}\) y en el lado derecho usamos la linealidad de\(L\):

    \[\sum_{n=1}^{\infty} \dfrac{d b_{n}(t)}{d t} \phi_{n}(x)=\sum_{n=1}^{\infty} b_{n}(t) L\left[\phi_{n}(x)\right] \nonumber \]

    Ahora, hacemos uso del resultado de aplicar\(L\) a la función propia\(\phi_{n}\):

    \[\sum_{n=1}^{\infty} \dfrac{d b_{n}(t)}{d t} \phi_{n}(x)=\sum_{n=1}^{\infty} b_{n}(t) \lambda_{n} \phi_{n}(x) \nonumber \]

    Comparando ambos lados, o usando la independencia lineal de las funciones propias, vemos que

    \[\dfrac{d b_{n}(t)}{d t}=\lambda_{n} b_{n}(t) \nonumber \]

    cuya solución es

    \[b_{n}(t)=b_{n}(0) e^{\lambda_{n} t} \nonumber \]

    Entonces, la solución general se convierte en

    \({ }^{1}\)Las series infinitas no siempre pueden diferenciarse, por lo que hay que tener cuidado. Cuando ignoramos esos detalles por el momento, decimos que diferenciamos formalmente la serie y aplicamos formalmente el operador diferencial a la serie. Tales operaciones tienen que justificarse posteriormente.

    \[u(x, t)=\sum_{n=1}^{\infty} b_{n}(0) e^{\lambda_{n} t} \phi_{n}(x) \nonumber \]

    Esta solución satisface, al menos formalmente, la ecuación diferencial parcial y satisface las condiciones de contorno.

    Por último, hay que determinar los\(b_{n}(0)\)'s, que hasta ahora son arbitrarios. Utilizamos la condición inicial\(u(x, 0)=f(x)\) para encontrar que

    \[f(x)=\sum_{n=1}^{\infty} b_{n}(0) \phi_{n}(x) . \nonumber \]

    Entonces, dado\(f(x)\), nos quedamos con el problema de extraer los coeficientes\(b_{n}(0)\) en una expansión de\(f\) en las funciones propias\(\phi_{n}\). Veremos que esto está relacionado con las expansiones de series de Fourier, que retomaremos en el próximo capítulo.

    Expansiones de función propia para ODEs no homogéneas

    Las ecuaciones diferenciales parciales no son las únicas aplicaciones del método de expansiones de función propia, como se ve en la última sección. Podemos aplicar este método a problemas de valor límite de dos puntos no homogéneos para ecuaciones diferenciales ordinarias asumiendo que podemos resolver el problema de valor propio asociado.

    Comencemos con el problema del valor de límite no homogéneo:

    \[\begin{gathered} L[u]=f(x), \quad a \leq x \leq b \\ B[u](a)=0, \quad B[u](b)=0 . \end{gathered} \nonumber \]

    Primero resolvemos el problema del valor propio,

    \[\begin{array}{r} L[\phi]=\lambda \phi, \quad a \leq x \leq b \\ B[\phi](a)=0, \quad B[\phi](b)=0, \end{array} \nonumber \]

    y obtener una familia de funciones propias,\(\left\{\phi_{n}(x)\right\}_{n=1}^{\infty}\). Entonces asumimos que se\(u(x)\) puede representar como una combinación lineal de estas funciones propias:

    \[u(x)=\sum_{n=1}^{\infty} b_{n} \phi_{n}(x) \nonumber \]

    Insertando esto en la ecuación diferencial, tenemos

    \[\begin{aligned} f(x) &=L[u] \\ &=L\left[\sum_{n=1}^{\infty} b_{n} \phi_{n}(x)\right] \\ &=\sum_{n=1}^{\infty} b_{n} L\left[\phi_{n}(x)\right] \end{aligned} \nonumber \]

    \[\begin{aligned} &=\sum_{n=1}^{\infty} \lambda_{n} b_{n} \phi_{n}(x) \\ &\equiv \sum_{n=1}^{\infty} c_{n} \phi_{n}(x) \end{aligned} \nonumber \]

    Por lo tanto, tenemos que encontrar los coeficientes\(c_{n}=\lambda_{n} b_{n}\) de expansión de lo dado\(f(x)\) en una expansión en serie sobre las funciones propias. Esto es similar a lo que habíamos encontrado para el problema de la ecuación de calor y su generalización en la última sección.

    Hay muchas preguntas y detalles que se han pasado por alto en nuestras derivaciones formales. ¿Siempre podemos encontrar tales funciones propias para un operador dado? ¿Convergen las infinitas expansiones de la serie? ¿Podemos diferenciar nuestros términos de expansiones por término? ¿Se pueden encontrar expansiones que convergen a funciones dadas como las\(f(x)\) anteriores? Comenzaremos a explorar estas preguntas en el caso de que las funciones propias sean funciones trigonométricas simples como las de\(\phi_{n}(x)=\sin \dfrac{n \pi x}{L}\) la solución de la ecuación de calor.

    Espacios vectoriales lineales

    Gran parte de la discusión y terminología que usaremos proviene de la teoría de los espacios vectoriales. Hasta ahora es posible que solo hayas tratado con espacios vectoriales de dimensiones finitas en tus clases. Incluso entonces, tal vez solo te encuentres cómodo con dos y tres dimensiones. Repasaremos un poco de lo que sabemos sobre los espacios de dimensiones finitas para que podamos lidiar con los espacios funcionales más generales, que es donde viven nuestras funciones propias.

    La noción de espacio vectorial es una generalización de nuestros espacios vectoriales tridimensionales. En tres dimensiones, tenemos cosas llamadas vectores, que son flechas de una longitud específica y que apuntan en una dirección dada. A cada vector, podemos asociar un punto en un sistema cartesiano tridimensional. Simplemente adjuntamos la cola del vector\(\mathbf{v}\) al origen y la cabeza aterriza en\((x, y, z)\). Luego usamos vectores unitarios\(\mathbf{i}, \mathbf{j}\) y\(\mathbf{k}\) a lo largo de los ejes de coordenadas para escribir

    \[\mathbf{v}=x \mathbf{i}+y \mathbf{j}+z \mathbf{k} \nonumber \]

    Habiendo definido vectores, aprendimos entonces a sumar vectores y multiplicar vectores por números, o escalares. Bajo estas operaciones, esperábamos recuperar nuevos vectores. Entonces aprendimos que había dos tipos de multiplicación de vectores. Podríamos multiplicar entonces para obtener un escalar o un vector. Esto llevó a los productos punteados y cruzados, respectivamente. El producto punto fue útil para determinar la longitud de un vector, el ángulo entre dos vectores, o si los vectores eran ortogonales.

    Estas nociones se generalizaron posteriormente a espacios de más de tres dimensiones en su clase de álgebra lineal. Las propiedades descritas más o menos arriba deben ser conservadas. Entonces, tenemos que comenzar con un espacio de vectores y las operaciones entre ellos. También necesitamos un conjunto de escalares, que generalmente provienen de algún campo. Sin embargo, en nuestras aplicaciones el campo será el conjunto de números reales o el conjunto de números complejos.

    Definición 4.1. Un espacio vectorial\(V\) sobre un campo\(F\) es un conjunto que se cierra bajo suma y multiplicación escalar y satisface las siguientes condiciones: Para cualquier\(u, v, w \in V\) y\(a, b \in F\)

    1. \(u+v=v+u\).
    2. \((u+v)+w=u+(v+w)\).
    3. Existe un 0 tal que\(0+v=v\).
    4. Existe\(a-v\) tal que\(v+(-v)=0\).
    5. \(a(b v)=(a b) v\).
    6. \((a+b) v=a v+b v\)
    7. \(a(u+v)=a u+b v\).
    8. \(1(v)=v\)

    Ahora, para un espacio vectorial\(n\) -dimensional, tenemos la idea de que cualquier vector en el espacio se puede representar como la suma sobre vectores\(n\) linealmente independientes. Recordemos que un conjunto linealmente independiente de vectores\(\left\{\mathbf{v}_{j}\right\}_{j=1}^{n}\) satisface

    \[\sum_{j=1}^{n} c_{j} \mathbf{v}_{j}=\mathbf{0} \quad \Leftrightarrow \quad c_{j}=0 \nonumber \]

    Esto lleva a la idea de un conjunto de bases. La base estándar en un espacio vectorial\(n\) -dimensional es una generalización de la base estándar en tres dimensiones (i,\(\mathbf{j}\) y\(\mathbf{k})\). Definimos

    \[\mathbf{e}_{k}=(0, \ldots, 0, \underbrace{1}_{k \text { th space }}, 0, \ldots, 0), \quad k=1, \ldots, n . \nonumber \]

    Entonces, podemos expandir cualquiera\(\mathbf{v} \in V\) como

    \[\mathbf{v}=\sum_{k=1}^{n} v_{k} \mathbf{e}_{k} \nonumber \]

    donde los\(v_{k}\)'s se llaman los componentes del vector en esta base y uno puede escribir\(\mathbf{v}\) como una\(n\) -tupla\(\left(v_{1}, v_{2}, \ldots, v_{n}\right)\).

    La única otra cosa que necesitaremos en este punto es generalizar el producto punto, o producto escalar. Recordemos que existen dos formas para el producto punto en tres dimensiones. Primero, uno tiene eso

    \[\mathbf{u} \cdot \mathbf{v}=u v \cos \theta \nonumber \]

    donde\(u\) y\(v\) denotan la longitud de los vectores. La otra forma, es la forma componente:

    \[\mathbf{u} \cdot \mathbf{v}=u_{1} v_{1}+u_{2} v_{2}+u_{3} v_{3}=\sum_{k=1}^{3} u_{k} v_{k} \nonumber \]

    Por supuesto, esta forma es más fácil de generalizar. Entonces, definimos el producto escalar entre vectores\(n\) a-dimensionales como

    \[<\mathbf{u}, \mathbf{v}>=\sum_{k=1}^{n} u_{k} v_{k} . \nonumber \]

    En realidad, hay una serie de notaciones que se utilizan en otros textos. Uno puede escribir el producto escalar como\((\mathbf{u}, \mathbf{v})\) o incluso usar la notación Dirac\(<\mathbf{u} \mid \mathbf{v}>\) para aplicaciones en mecánica cuántica.

    Si bien no siempre tiene sentido hablar de ángulos entre vectores generales en espacios vectoriales de dimensiones superiores, hay un concepto que es útil. Es el de la ortogonalidad, que en tres dimensiones otra forma de decir vectores son perpendiculares entre sí. Entonces, también decimos que los vectores\(\mathbf{u}\) y\(\mathbf{v}\) son ortogonales si y solo si\(\langle\mathbf{u}, \mathbf{v}\rangle=0\). Si\(\left\{\mathbf{a}_{k}\right\}_{k=1}^{n}\), es un conjunto de vectores de base tal que

    \[<\mathbf{a}_{j}, \mathbf{a}_{k}>=0, \quad k \neq j, \nonumber \]

    entonces se le llama una base ortogonal. Si además cada vector base es un vector unitario, entonces uno tiene una base ortonormal

    Let\(\left\{\mathbf{a}_{k}\right\}_{k=1}^{n}\), ser un conjunto de vectores base para el espacio vectorial\(V\). Sabemos que cualquier vector\(\mathbf{v}\) puede ser representado en términos de esta base,\(\mathbf{v}=\sum_{k=1}^{n} v_{k} \mathbf{a}_{k}\). Si conocemos la base y el vector, ¿podemos encontrar los componentes? La respuesta es, sí. Podemos usar el producto escalar de\(\mathbf{v}\) con cada elemento base\(\mathbf{a}_{j}\). Entonces, tenemos para\(j=1, \ldots, n\)

    \[\begin{aligned} <\mathbf{a}_{j}, \mathbf{v}>&=<\mathbf{a}_{j}, \sum_{k=1}^{n} v_{k} \mathbf{a}_{k}>\\ &=\sum_{k=1}^{n} v_{k}<\mathbf{a}_{j}, \mathbf{a}_{k}> \end{aligned} \nonumber \]

    Como conocemos los elementos básicos, podemos calcular fácilmente los números

    \[A_{j k} \equiv<\mathbf{a}_{j}, \mathbf{a}_{k}> \nonumber \]

    y

    \[b_{j} \equiv<\mathbf{a}_{j}, \mathbf{v}>. \nonumber \]

    Por lo tanto, el sistema (4.28) para los\(v_{k}\)'s es un sistema algebraico lineal, que toma la forma\(A \mathbf{v}=\mathbf{b}\). Sin embargo, si la base es ortogonal, entonces la matriz\(A\) es diagonal y el sistema es fácilmente solucionable. Tenemos eso

    \[<\mathbf{a}_{j}, \mathbf{v}>=v_{j}<\mathbf{a}_{j}, \mathbf{a}_{j}>, \nonumber \]

    \[v_{j}=\dfrac{\left\langle\mathbf{a}_{j}, \mathbf{v}\right\rangle}{\left.<\mathbf{a}_{j}, \mathbf{a}_{j}\right\rangle} . \nonumber \]

    De hecho, si la base es ortonormal,\(A\) es la matriz de identidad y la solución es más simple:

    \[v_{j}=<\mathbf{a}_{j}, \mathbf{v}>. \nonumber \]

    Pasamos un tiempo mirando este sencillo caso de extraer los componentes de un vector en un espacio dimensional finito. Las claves para hacer esto simplemente fueron tener un producto escalar y un conjunto de bases ortogonales. Estos son los ingredientes clave que necesitaremos en el caso dimensional infinito. Recordemos que cuando resolvimos la ecuación de calor, teníamos una función (vector) que queríamos expandir en un conjunto de funciones propias (base) y necesitábamos encontrar los coeficientes de expansión (componentes). Como puede ver, necesitamos extender los conceptos para espacios dimensionales finitos a sus análogos en espacios dimensionales infinitos. El álgebra lineal proporcionará algunos de los telones de fondo para lo que sigue: El estudio de muchos problemas de valores límite equivale a la solución de problemas de valores propios sobre espacios vectoriales dimensionales infinitos (espacios completos de productos internos, el espacio de funciones integrables cuadradas o espacios Hilbert).

    Consideraremos el espacio de funciones de cierto tipo. Podrían ser el espacio de funciones continuas en\([0,1]\), o el espacio de funciones diferencialmente continuas, o el conjunto de funciones integrables de\(a\) a\(b\). Posteriormente, especificaremos los tipos de funciones necesarias. Además, necesitaremos poder agregar funciones y multiplicarlas por escalares. Entonces, podemos obtener fácilmente un espacio vectorial de funciones.

    También necesitaremos un producto escalar definido en este espacio de funciones. Existen varios tipos de productos escalares, o productos internos, que podemos definir. Para un espacio vectorial real, definimos

    Definición 4.2. Un producto interno\(<,>\) en un espacio vectorial real\(V\) es un mapeo de\(V \times V\) hacia\(R\) tal que para\(u, v, w \in V\) y\(\alpha \in R\) uno tiene

    1. \(<u+v, w>=<u, w>+<v, w>\).
    2. \(<\alpha v, w>=\alpha<v, w>\).
    3. \(<v, w>=\langle w, v>\).
    4. \(<v, v>\geq 0\)y\(<v, v>=0\) iff\(v=0\).

    Un espacio vectorial real equipado con el producto interno anterior conduce a un espacio de producto interno real. Se necesita una definición más general con el tercer ítem reemplazado por para espacios internos complejos de productos.\(\langle v, w\rangle=\langle w, v\rangle\)

    Por el momento, estamos tratando solo con funciones reales valoradas. Necesitamos un producto interno apropiado para tales espacios. Una de esas definiciones es la siguiente. Dejar\(f(x)\) y\(g(x)\) ser funciones definidas en\([a, b]\). Entonces, definimos el producto interno, si la integral existe, como

    \[<f, g>=\int_{a}^{b} f(x) g(x) d x . \nonumber \]

    Hasta el momento, contamos con espacios de funciones equipados con un producto interior. ¿Podemos encontrar una base para el espacio? Para un espacio\(n\) -dimensional necesitamos vectores de\(n\) base. Para un espacio dimensional infinito, ¿cuántos necesitaremos? ¿Cómo sabemos cuando tenemos suficiente? Pensaremos en esas cosas más adelante.

    Supongamos que tenemos una base de funciones\(\left\{\phi_{n}(x)\right\}_{n=1}^{\infty}\). Dada una función\(f(x)\), ¿cómo podemos ir para encontrar los componentes de\(f\) en esta base? En otras palabras, vamos

    \[f(x)=\sum_{n=1}^{\infty} c_{n} \phi_{n}(x) \nonumber \]

    ¿Cómo encontramos los\(c_{n}\)'s? ¿Esto te recuerda el problema que tuvimos antes?

    Formalmente, tomamos el producto interno de\(f\) con cada uno\(\phi_{j}\), para encontrar

    \[\begin{aligned} <\phi_{j}, f>&=<\phi_{j}, \sum_{n=1}^{\infty} c_{n} \phi_{n}>\\ &=\sum_{n=1}^{\infty} c_{n}<\phi_{j}, \phi_{n}> \end{aligned} \nonumber \]

    Si nuestra base es una base ortogonal, entonces tenemos

    \[<\phi_{j}, \phi_{n}>=N_{j} \delta_{j n}, \nonumber \]

    donde\(\delta_{i j}\) se define el delta de Kronecker como

    \[\delta_{i j}= \begin{cases}0, & i \neq j \\ 1, & i=j\end{cases} \nonumber \]

    Así, tenemos

    \[\begin{aligned} <\phi_{j}, f>&=\sum_{n=1}^{\infty} c_{n}<\phi_{j}, \phi_{n}>\\ &=\sum_{n=1}^{\infty} c_{n} N_{j} \delta_{j n} \\ &=c_{1} N_{j} \delta_{j 1}+c_{2} N_{j} \delta_{j 2}+\ldots+c_{j} N_{j} \delta_{j j}+\ldots \\ &=c_{j} N_{j} \end{aligned} \nonumber \]

    Entonces, el coeficiente de expansión es

    \[c_{j}=\dfrac{<\phi_{j}, f>}{N_{j}}=\dfrac{<\phi_{j}, f>}{<\phi_{j}, \phi_{j}>} \nonumber \]

    Resumimos este importante resultado:

    Expansión de Bases Generalizadas

    Dejar\(f(x)\) ser representado por una expansión sobre una base de funciones ortogonales\(\left\{\phi_{n}(x)\right\}_{n=1}^{\infty}\),

    \[f(x)=\sum_{n=1}^{\infty} c_{n} \phi_{n}(x) . \nonumber \]

    Luego, los coeficientes de expansión se determinan formalmente como

    \[c_{n}=\dfrac{\left.<\phi_{n}, f\right\rangle}{<\phi_{n}, \phi_{n}>} . \nonumber \]

    En nuestra preparación para secciones posteriores, determinemos si el conjunto de funciones\(\phi_{n}(x)=\sin n x\) para\(n=1,2, \ldots\) es ortogonal en el intervalo\([-\pi, \pi]\). Tenemos que demostrarlo\(<\phi_{n}, \phi_{m}>=0\) para\(n \neq m\). Por lo tanto, tenemos para\(n \neq m\)

    \[\begin{aligned} <\phi_{n}, \phi_{m}>&=\int_{-\pi}^{\pi} \sin n x \sin m x d x \\ &=\dfrac{1}{2} \int_{-\pi}^{\pi}[\cos (n-m) x-\cos (n+m) x] d x \\ &=\dfrac{1}{2}\left[\dfrac{\sin (n-m) x}{n-m}-\dfrac{\sin (n+m) x}{n+m}\right]_{-\pi}^{\pi}=0 \end{aligned} \nonumber \]

    Aquí hemos hecho uso de una identidad trigonométrica para el producto de dos senos. Recordamos cómo se deriva esta identidad. Recordemos las fórmulas de adición para cosenos:

    \[\begin{aligned} &\cos (A+B)=\cos A \cos B-\sin A \sin B \\ &\cos (A-B)=\cos A \cos B+\sin A \sin B \end{aligned} \nonumber \]

    Sumando, o restando, estas ecuaciones da

    \[\begin{aligned} &2 \cos A \cos B=\cos (A+B)+\cos (A-B), \\ &2 \sin A \sin B=\cos (A-B)-\cos (A+B) . \end{aligned} \nonumber \]

    Entonces, hemos determinado que el set\(\phi_{n}(x)=\sin n x\) for\(n=1,2, \ldots\) es un conjunto ortogonal de funciones en el intervalo\([=\pi, \pi]\). Al igual que con los vectores en tres dimensiones, podemos normalizar nuestras funciones base para llegar a una base ortonormal,\(<\phi_{n}, \phi_{m}>=\delta_{n m}, m, n=1,2, \ldots\) Esto se hace simplemente dividiendo por la longitud del vector. Recordemos que la longitud de un vector se obtuvo como\(v=\sqrt{\mathbf{v} \cdot \mathbf{v}}\) De la misma manera, definimos la norma de nuestras funciones por

    \[\|f\|=\sqrt{<f, f>} . \nonumber \]

    Tenga en cuenta que hay muchos tipos de normas, pero esto será suficiente para nosotros. Para la base anterior de las funciones sinusoidales, primero queremos calcular la norma de cada función. Entonces nos gustaría encontrar una nueva base a partir de esta tal manera que cada función propia base tenga longitud unitaria y por lo tanto sea una base ortonormal. Primero computamos

    \[\begin{aligned} \left\|\phi_{n}\right\|^{2} &=\int_{-\pi}^{\pi} \sin ^{2} n x d x \\ &=\dfrac{1}{2} \int_{-\pi}^{\pi}[1-\cos 2 n x] d x \\ &=\dfrac{1}{2}\left[x-\dfrac{\sin 2 n x}{2 n}\right]_{-\pi}^{\pi}=\pi \end{aligned} \nonumber \]

    Hemos encontrado para nuestro ejemplo que

    \[<\phi_{n}, \phi_{m}>=\pi \delta_{n m} \nonumber \]

    y eso\(\left\|\phi_{n}\right\|=\sqrt{\pi}\). Definiendo\(\psi_{n}(x)=\dfrac{1}{\sqrt{\pi}} \phi_{n}(x)\), hemos normalizado los\(\phi_{n}\)'s y hemos obtenido una base ortonormal de funciones sobre\([-\pi, \pi]\).

    Las expansiones de funciones en bases trigonométricas ocurren a menudo y originalmente resultaron del estudio de ecuaciones diferenciales parciales. Han sido nombradas series de Fourier y serán el tema del próximo capítulo.

    Problemas

    4.1. Resuelve el siguiente problema:

    \[x^{\prime \prime}+x=2, \quad x(0)=0, \quad x^{\prime}(1)=0 . \nonumber \]

    4.2. Encuentre soluciones de productos,\(u(x, t)=b(t) \phi(x)\), a la ecuación de calor que satisfaga las condiciones límite\(u_{x}(0, t)=0\) y\(u(L, t)=0\). Utilice estas soluciones para encontrar una solución general de la ecuación de calor que satisfaga estas condiciones de límite.

    4.3. Considere los siguientes problemas de valor límite. Determinar los valores propios y las funciones propias\(y(x)\) para cada problema.\(\lambda\) \({ }^{2}\)
    a\(y^{\prime \prime}+\lambda y=0, \quad y(0)=0, \quad y^{\prime}(1)=0\).
    b\(y^{\prime \prime}-\lambda y=0, \quad y(-\pi)=0, \quad y^{\prime}(\pi)=0\).
    \(x^{2} y^{\prime \prime}+x y^{\prime}+\lambda y=0, \quad y(1)=0, \quad y(2)=0\)c.
    d.\(\left(x^{2} y^{\prime}\right)^{\prime}+\lambda y=0, \quad y(1)=0, \quad y^{\prime}(e)=0 .\)

    \({ }^{2}\)En problema no\(d\) obtendrás valores propios exactos. Demuestre que obtiene una ecuación trascendental para los valores propios en la forma\(\tan z=2 z\). Encuentra los tres primeros valores propios numéricamente. 4.4. Para los siguientes conjuntos de funciones: i) mostrar que cada una es ortogonal en el intervalo dado, y ii) determinar el conjunto ortonormal correspondiente.
    \(n=1,2,3, \ldots, \quad 0 \leq x \leq \pi\)
    a.\(\{\sin 2 n x\}\),
    b.\(\{\cos n \pi x\}\),
    \(n=0,1,2, \ldots, \quad 0 \leq x \leq 2\)
    \(n=1,2,3, \ldots, \quad x \in[-L, L]\).
    c.\(\left\{\sin \dfrac{n \pi x}{L}\right\}\),

    4.5. Considerar el problema del valor límite para la deflexión de una viga horizontal fijada en un extremo,

    \[\dfrac{d^{4} y}{d x^{4}}=C, \quad y(0)=0, \quad y^{\prime}(0)=0, \quad y^{\prime \prime}(L)=0, \quad y^{\prime \prime \prime}(L)=0 \nonumber \]

    Resolver este problema asumiendo que\(C\) es una constante.

    Serie de Fourier

    Introducción

    En este capítulo veremos las series trigonométricas. Anteriormente, vimos que dicha expansión en serie se producía de forma natural en la solución de la ecuación de calor y otros problemas de valor límite. En el último capítulo vimos que tales funciones podían verse como una base en un espacio vectorial dimensional infinito de funciones. Dada una función en ese espacio, ¿cuándo tendrá una representación como una serie trigonométrica? ¿Para qué valores de\(x\) convergerá? Encontrar tales series está en el corazón del análisis de Fourier, o espectral,.

    Hay muchas aplicaciones que utilizan el análisis espectral. En la raíz de estos estudios está la creencia de que muchas formas de onda continuas están compuestas por una serie de armónicos. Tales ideas se remontan al estudio pitagórico de las vibraciones de las cuerdas, que llevan a su visión de un mundo de armonía. Esta idea fue llevada más allá por Johannes Kepler en su armonía de las esferas que se acercan a las órbitas planetarias. En los años 1700 otros trabajaron en la teoría de superposición para ondas vibratorias en un resorte estirado, comenzando con la ecuación de onda y conduciendo a la superposición de ondas viajeras derecha e izquierda. Esta obra la llevaron a cabo personas como John Wallis, Brook Taylor y Jean le Rond d'Alembert.

    En 1742 d'Alembert resolvió la ecuación de onda

    \[c^{2} \dfrac{\partial^{2} y}{\partial x^{2}}-\dfrac{\partial^{2} y}{\partial t^{2}}=0 \nonumber \]

    donde\(y\) esta la altura de la cuerda y\(c\) es la velocidad de ola. No obstante, su solución llevó a sí mismo y a otros, como Leonhard Euler y Daniel Bernoulli, a investigar qué “funciones” podrían ser las soluciones de esta ecuación. De hecho, esto condujo a un acercamiento más riguroso al estudio del análisis al primero acercarse al concepto de una función. Por ejemplo, en 1749 Euler buscó la solución para una cuerda desplumada en cuyo caso la condición inicial\(y(x, 0)=h(x)\) tiene una derivada discontinua! En 1753 Daniel Bernoulli vio las soluciones como una superposición de vibraciones simples, o armónicos. Tales superposiciones equivalían a buscar soluciones de la forma

    \[y(x, t)=\sum_{k} a_{k} \sin \dfrac{k \pi x}{L} \cos \dfrac{k \pi c t}{L}, \nonumber \]

    donde la cadena se extiende sobre el intervalo\([0, L]\) con extremos fijos en\(x=0\) y\(x=L\). Sin embargo, las condiciones iniciales para tales superposiciones son

    \[y(x, 0)=\sum_{k} a_{k} \sin \dfrac{k \pi x}{L} . \nonumber \]

    Se determinó que muchas funciones no podían ser representadas por un número finito de armónicos, incluso para la cuerda simplemente arrancada dada por una condición inicial de la forma

    \[y(x, 0)=\left\{\begin{array}{cc} c x, & 0 \leq x \leq L / 2 \\ c(L-x), & L / 2 \leq x \leq L \end{array}\right. \nonumber \]

    Así, la solución consiste generalmente en una serie infinita de funciones trigonométricas.

    Tales expansiones de series también fueron importantes en la solución de Joseph Fourier de la ecuación de calor. El uso de tales expansiones de Fourier se convirtió en una herramienta importante en la solución de ecuaciones diferenciales parciales lineales, como la ecuación de onda y la ecuación de calor. Como se ve en el último capítulo, utilizando el Método de Separación de Variables, permite reducir problemas dimensionales superiores a varios problemas de valor límite unidimensional. Sin embargo, estos estudios conducen a preguntas muy importantes, que a su vez abrieron las puertas a campos enteros de análisis. Algunos de los problemas planteados fueron

    1. ¿Qué funciones se pueden representar como la suma de funciones trigonométricas?
    2. ¿Cómo se puede representar una función con derivadas discontinuas por una suma de funciones suaves, como las sumas anteriores?
    3. ¿Tales sumas infinitas de funciones trigonométricas a convergen realmente con las funciones que representan?

    Las sumas sobre las funciones sinusoidales ocurren naturalmente en la música y en el estudio de las ondas sonoras. Una nota pura se puede representar como

    \[y(t)=A \sin (2 \pi f t), \nonumber \]

    donde\(A\) esta la amplitud,\(f\) es la frecuencia en hercios\((\mathrm{Hz})\), y\(t\) es el tiempo en segundos. La amplitud está relacionada con el volumen, o intensidad, del sonido. Cuanto mayor es la amplitud, más fuerte es el sonido. En la Figura\(5.1\) se muestran parcelas de dos de esos tonos con\(f=2 \mathrm{~Hz}\) en la parcela superior y\(f=5 \mathrm{~Hz}\) en la inferior.

    imagen
    Figura 5.1. Parcelas de\(y(t)=\sin (2 \pi f t)\) on\([0,5]\) para\(f=2 \mathrm{~Hz}\) y\(f=5 \mathrm{~Hz}\).

    diferentes amplitudes y frecuencias. En Figura\(5.2\) vemos lo que sucede cuando agregamos varios sinusoides. Tenga en cuenta que a medida que uno agrega más y más tonos con diferentes características, la señal resultante se vuelve más complicada. Sin embargo, todavía tenemos una función de tiempo. En este capítulo vamos a preguntar: “Dada una función\(f(t)\), ¿podemos encontrar un conjunto de funciones sinusoidales cuya suma converja a\(f(t)\)?”

    Al observar las superposiciones en la Figura 5.2, vemos que las sumas rinden funciones que parecen ser periódicas. Esto no va a ser inesperado. Recordamos que una función periódica es aquella en la que los valores de la función se repiten sobre el dominio de la función. La longitud de la parte más pequeña del dominio que se repite se denomina período. Esto lo podemos definir con mayor precisión.

    Definición 5.1. Se dice que una función es periódica con punto\(T\) si\(f(t+T)=\)\(f(t)\) para todos\(t\) y el menor número positivo de este tipo\(T\) se llama el período.

    Por ejemplo, consideramos las funciones utilizadas en la Figura\(5.2\). Empezamos con\(y(t)=2 \sin (4 \pi t)\). Recuerda de tus primeros estudios de funciones trigonométricas que se puede determinar el periodo dividiendo el coeficiente de\(t\) en\(2 \pi\) para obtener el periodo. En este caso tenemos

    \[T=\dfrac{2 \pi}{4 \pi}=\dfrac{1}{2} . \nonumber \]

    Mirando la gráfica superior en la Figura\(5.1\) podemos verificar este resultado. (Se puede contar el número completo de ciclos en la gráfica y dividirlo en el tiempo total para obtener un valor más preciso del periodo).

    imagen
    Figura 5.2. Superposición de varios sinusoides. Arriba: Suma de señales con\(f=2 \mathrm{~Hz}\) y\(f=5 \mathrm{~Hz}\). Abajo: Suma de señales con\(f=2 \mathrm{~Hz}, f=5 \mathrm{~Hz}\), y y\(f=8 \mathrm{~Hz}\).

    Por supuesto, este resultado tiene sentido, ya que la unidad de frecuencia, el hertz, también se define como\(s^{-1}\), o ciclos por segundo.

    Volviendo a las superposiciones en la Figura 5.2, tenemos que\(y(t)=\)\(\sin (10 \pi t)\) tiene un periodo de\(0.2 \mathrm{~Hz}\) y\(y(t)=\sin (16 \pi t)\) tiene un periodo de\(0.125 \mathrm{~Hz}\). Las dos superposiciones conservan el mayor periodo de las señales agregadas, que es\(0.5 \mathrm{~Hz}\).

    Nuestro objetivo será comenzar con una función y luego determinar las amplitudes de los sinusoides simples necesarios para sumar a esa función. En primer lugar, veremos que esto podría implicar un número infinito de tales términos. Así, estaremos estudiando una serie infinita de funciones sinusoidales.

    En segundo lugar, encontraremos que el uso justo de funciones sinusoidales tampoco será suficiente. Esto se debe a que podemos agregar funciones sinusoidales que no necesariamente alcanzan un pico al mismo tiempo. Consideraremos dos señales que se originan en diferentes momentos. Esto es similar a cuando tu profesor de música haría que secciones de la clase cantaran una canción como “Row, Row, Row your Boat” comenzando en momentos ligeramente diferentes.

    Podemos agregar fácilmente funciones sinusoidales cambiadas. En la Figura\(5.3\) se muestran las funciones\(y(t)=2 \sin (4 \pi t)\) y\(y(t)=2 \sin (4 \pi t+7 \pi / 8)\) y su suma. Tenga en cuenta que esta función sinusoidal desplazada se puede escribir como\(y(t)=2 \sin (4 \pi(t+7 / 32))\). Así, esto corresponde a un cambio de tiempo de\(-7 / 8\).

    imagen
    Figura 5.3. Trama de las funciones\(y(t)=2 \sin (4 \pi t)\) y\(y(t)=2 \sin (4 \pi t+7 \pi / 8)\) y su suma.

    Ahora estamos en condiciones de exponer nuestro objetivo en este capítulo.

    Gol

    Dada una señal\(f(t)\), nos gustaría determinar su contenido de frecuencia averiguando qué combinaciones de senos y cosenos de frecuencias y amplitudes variables sumarán a la función dada. Esto se llama Análisis de Fourier.

    Serie Trigonométrica de Fourier

    Como hemos visto en el último apartado, nos interesa encontrar representaciones de funciones en términos de senos y cosenos. Dada una función\(f(x)\) buscamos una representación en la forma

    \[f(x) \sim \dfrac{a_{0}}{2}+\sum_{n=1}^{\infty}\left[a_{n} \cos n x+b_{n} \sin n x\right] \nonumber \]

    Observe que hemos optado por dejar caer la referencia a la forma de frecuencia de la fase. Esto conducirá a una discusión más sencilla por ahora y siempre se puede hacer la transformación a la\(n x=2 \pi f_{n} t\) hora de aplicar estas ideas a las aplicaciones.

    La representación de la serie en la Ecuación (5.1) se denomina serie trigonométrica de Fourier. Simplemente nos referiremos a esto como una serie de Fourier por ahora. El conjunto de constantes\(a_{0}, a_{n}, b_{n}, n=1,2, \ldots\) se denominan coeficientes de Fourier. El término constante se elige en esta forma para simplificar los cálculos posteriores, aunque algunos otros autores optan por escribir el término constante como\(a_{0}\). Nuestro objetivo es encontrar la representación de la serie de Fourier dada\(f(x)\). Habiendo encontrado la representación de la serie de Fourier, nos interesará determinar cuándo converge la serie de Fourier y a qué función converge.

    De nuestra discusión en la última sección, vemos que la serie infinita es periódica. El mayor periodo de los términos proviene de los\(n=1\) términos. Los periodos de\(\cos x\) y\(\sin x\) son\(T=2 \pi\). Así, la serie de Fourier tiene periodo\(2 \pi\). Esto significa que la serie debe ser capaz de representar funciones que son periódicas de periodo\(2 \pi\).

    Si bien esto parece restrictivo, también podríamos considerar funciones que se definen a lo largo de un periodo. En la Figura\(5.4\) mostramos una función definida en\([0,2 \pi]\). En la misma figura, mostramos su extensión periódica. Estas son solo copias de la función original desplazada por el periodo y pegadas entre sí. La extensión ahora puede ser representada por una serie de Fourier y restringir la serie de Fourier a\([0,2 \pi]\) dará una representación de la función original. Por lo tanto, primero consideraremos representaciones de series de Fourier de funciones definidas en este intervalo. Tenga en cuenta que podríamos considerar fácilmente funciones definidas en\([-\pi, \pi]\) o cualquier intervalo de longitud\(2 \pi\).

    Coeficientes de Fourier

    imagen
    Figura 5.4. Trama de las funciones\(f(t)\) definidas en\([0,2 \pi]\) y su extensión periódica.

    Estas expresiones para los coeficientes de Fourier se obtienen considerando integraciones especiales de la serie de Fourier. Veremos las derivaciones\(a_{n}\) de los 's. primero obtenemos\(a_{0}\).

    Comenzamos integrando la serie de Fourier término por término en la Ecuación (5.1).

    \[\int_{0}^{2 \pi} f(x) d x=\int_{0}^{2 \pi} \dfrac{a_{0}}{2} d x+\int_{0}^{2 \pi} \sum_{n=1}^{\infty}\left[a_{n} \cos n x+b_{n} \sin n x\right] d x \nonumber \]

    Suponemos que podemos integrar la suma infinita término por término. Entonces tenemos que computar

    \[\begin{gathered} \int_{0}^{2 \pi} \dfrac{a_{0}}{2} d x=\dfrac{a_{0}}{2}(2 \pi)=\pi a_{0}, \\ \int_{0}^{2 \pi} \cos n x d x=\left[\dfrac{\sin n x}{n}\right]_{0}^{2 \pi}=0 \\ \int_{0}^{2 \pi} \sin n x d x=\left[\dfrac{-\cos n x}{n}\right]_{0}^{2 \pi}=0 \end{gathered} \nonumber \]

    A partir de estos resultados vemos que solo un término en la suma integrada no se desvanece dejando

    \[\int_{0}^{2 \pi} f(x) d x=\pi a_{0} \nonumber \]

    Esto confirma el valor para\(a_{0}\).

    A continuación, tenemos que encontrar\(a_{n}\). Multiplicaremos la serie de Fourier (5.1) por\(\cos m x\) para algún entero positivo\(m\). Esto es como multiplicar por\(\cos 2 x\)\(\cos 5 x\),, etc. Estamos multiplicando por todas las\(\cos m x\) funciones posibles para diferentes enteros\(m\) todos al mismo tiempo. Veremos que esto nos permitirá resolver para los\(a_{n}\)'s.

    Encontramos que la suma integrada de los tiempos de la serie\(\cos m x\) viene dada por

    \[\begin{aligned} \int_{0}^{2 \pi} f(x) \cos m x d x &=\int_{0}^{2 \pi} \dfrac{a_{0}}{2} \cos m x d x \\ &+\int_{0}^{2 \pi} \sum_{n=1}^{\infty}\left[a_{n} \cos n x+b_{n} \sin n x\right] \cos m x d x \end{aligned} \nonumber \]

    Integrando término por término, el lado derecho se convierte en

    \(\dfrac{a_{0}}{2} \int_{0}^{2 \pi} \cos m x d x+\sum_{n=1}^{\infty}\left[a_{n} \int_{0}^{2 \pi} \cos n x \cos m x d x+b_{n}^{2 \pi} \int_{0}^{2 \pi} \sin n x \cos m x d x\right]\).

    Eso ya lo hemos establecido\(\int_{0}^{2 \pi} \cos m x d x=0\), lo que implica que el primer término se desvanece.

    A continuación necesitamos computar integrales de productos de senos y cosenos. Esto requiere que hagamos uso de algunas identidades trigonométricas. Si bien has visto tales integrales antes en tu clase de cálculo, revisaremos cómo llevar a cabo dichas integrales. Para referencia futura, enumeramos varias identidades útiles, algunas de las cuales probaremos en el camino.

    \[\begin{aligned} Useful Trigonometric Identities $& \\ \sin (x \pm y) &=\sin x \cos y \pm \sin y \cos x \\ \cos (x \pm y) &=\cos x \cos y \mp \sin x \sin y \\ \sin ^{2} x &=\dfrac{1}{2}(1-\cos 2 x) \\ \cos ^{2} x &=\dfrac{1}{2}(1+\cos 2 x) \\ \sin x \sin y &=\dfrac{1}{2}(\cos (x-y)-\cos (x+y)) \\ \cos x \cos y &=\dfrac{1}{2}(\cos (x+y)+\cos (x-y)) \\ \sin x \cos y &=\dfrac{1}{2}(\sin (x+y)+\sin (x-y)) \\$\hline \end{aligned} \nonumber \]

    Primero queremos evaluar\(\int_{0}^{2 \pi} \cos n x \cos m x d x\). Esto lo hacemos usando la identidad del producto. Esto lo habíamos hecho en el último capítulo, pero vamos a repetir la derivación para beneficio del lector. Recordemos las fórmulas de adición para cosenos:

    \[\cos (A+B)=\cos A \cos B-\sin A \sin B \nonumber \]

    \[\cos (A-B)=\cos A \cos B+\sin A \sin B \nonumber \]

    La adición de estas ecuaciones da

    \[2 \cos A \cos B=\cos (A+B)+\cos (A-B) . \nonumber \]

    Podemos usar esta identidad con\(A=m x\) y\(B=n x\) para completar la integración. Tenemos

    \[\begin{aligned} \int_{0}^{2 \pi} \cos n x \cos m x d x &=\dfrac{1}{2} \int_{0}^{2 \pi}[\cos (m+n) x+\cos (m-n) x] d x \\ &=\dfrac{1}{2}\left[\dfrac{\sin (m+n) x}{m+n}+\dfrac{\sin (m-n) x}{m-n}\right]_{0}^{2 \pi} \\ &=0 . \end{aligned} \nonumber \]

    Hay una advertencia al hacer tales integrales. ¿Y si uno de los denominadores\(m \pm n\) desaparece? Para nuestro problema\(m+n \neq 0\), ya que ambos\(m\) y\(n\) son enteros positivos. Sin embargo, es posible para\(m=n\). Esto quiere decir que la desaparición de lo integral sólo puede ocurrir cuando\(m \neq n\). Entonces, ¿qué podemos hacer con respecto al\(m=n\) caso? Una forma es comenzar de cero con nuestra integración. (Otra forma es computar el límite como\(n\) aproximaciones\(m\) en nuestro resultado y usar la Regla de L'Hopital. ¡Pruébalo!)

    Entonces, pues\(n=m\) tenemos que computar\(\int_{0}^{2 \pi} \cos ^{2} m x d x\). Esto también se puede manejar usando una identidad trigonométrica. Recordemos que

    \[\cos ^{2} \theta=\dfrac{1}{2}(1+\cos 2 \theta \text {. }) \nonumber \]

    Insertando esto en la integral, encontramos

    \[\begin{aligned} \int_{0}^{2 \pi} \cos ^{2} m x d x &=\dfrac{1}{2} \int_{0}^{2 \pi}\left(1+\cos ^{2} 2 m x\right) d x \\ &=\dfrac{1}{2}\left[x+\dfrac{1}{2 m} \sin 2 m x\right]_{0}^{2 \pi} \\ &=\dfrac{1}{2}(2 \pi)=\pi \end{aligned} \nonumber \]

    Para resumir, hemos demostrado que

    \[\int_{0}^{2 \pi} \cos n x \cos m x d x=\left\{\begin{array}{l} 0, m \neq n \\ \pi, m=n \end{array}\right. \nonumber \]

    Esto es cierto para\(m, n=0,1, \ldots\) [¿Por qué incluimos\(m, n=0\)?] Cuando tenemos tal conjunto de funciones, se dice que son un conjunto ortogonal sobre el intervalo de integración.

    Definición 5.3. Se dice que un conjunto de funciones (reales)\(\left\{\phi_{n}(x)\right\}\) son ortogonales en\([a, b]\) if\(\int_{a}^{b} \phi_{n}(x) \phi_{m}(x) d x=0\) when\(n \neq m\). Además, si también tenemos eso\(\int_{a}^{b} \phi_{n}^{2}(x) d x=1\), estas funciones se denominan ortonormales. El conjunto de funciones\(\{\cos n x\}_{n=0}^{\infty}\) son ortogonales en\([0,2 \pi]\). En realidad, son ortogonales en cualquier intervalo de longitud\(2 \pi\). Podemos hacerlos ortonormales dividiendo cada función por\(\sqrt{\pi}\) como lo indica la Ecuación (5.15).

    La noción de ortogonalidad es en realidad una generalización de la ortogonalidad de los vectores en espacios vectoriales de dimensiones finitas. La integral\(\int_{a}^{b} f(x) f(x) d x\) es la generalización del producto punto, y se llama el producto escalar de\(f(x)\) y\(g(x)\), que se consideran vectores en un espacio vectorial dimensional infinito abarcado por un conjunto de funciones ortogonales. Pero ese es otro tema para después.

    Volviendo a la evaluación de las integrales en la ecuación (5.6), todavía tenemos que evaluar\(\int_{0}^{2 \pi} \sin n x \cos m x d x\). Esto también se puede evaluar utilizando identidades trigonométricas. En este caso, necesitamos una identidad que involucre productos de senos y cosenos. Dichos productos ocurren en las fórmulas de adición para funciones sinusoidales:

    \[\begin{aligned} &\sin (A+B)=\sin A \cos B+\sin B \cos A \\ &\sin (A-B)=\sin A \cos B-\sin B \cos A \end{aligned} \nonumber \]

    Añadiendo estas ecuaciones, encontramos que

    \[\sin (A+B)+\sin (A-B)=2 \sin A \cos B \nonumber \]

    Ajuste\(A=n x\) y\(B=m x\), nos encontramos con que

    \[\begin{aligned} \int_{0}^{2 \pi} \sin n x \cos m x d x &=\dfrac{1}{2} \int_{0}^{2 \pi}[\sin (n+m) x+\sin (n-m) x] d x \\ &=\dfrac{1}{2}\left[\dfrac{-\cos (n+m) x}{n+m}+\dfrac{-\cos (n-m) x}{n-m}\right]_{0}^{2 \pi} \\ &=(-1+1)+(-1+1)=0 \end{aligned} \nonumber \]

    Para estas integrales también debemos tener cuidado al establecer\(n=m\). En este caso especial, tenemos las integrales

    \[\int_{0}^{2 \pi} \sin m x \cos m x d x=\dfrac{1}{2} \int_{0}^{2 \pi} \sin 2 m x d x=\dfrac{1}{2}\left[\dfrac{-\cos 2 m x}{2 m}\right]_{0}^{2 \pi}=0 \nonumber \]

    Finalmente, podemos terminar nuestra evaluación de (5.6). Hemos determinado que todo menos una integral se desvanece. En ese caso,\(n=m\). Esto nos deja con

    \[\int_{0}^{2 \pi} f(x) \cos m x d x=a_{m} \pi \nonumber \]

    Resolviendo para\(a_{m}\) da

    \[a_{m}=\dfrac{1}{\pi} \int_{0}^{2 \pi} f(x) \cos m x d x \nonumber \]

    Como esto es cierto para todos\(m=1,2, \ldots\), hemos probado esta parte del teorema. La única parte que queda es encontrar los\(b_{n}\)'s Esto se dejará como un ejercicio para el lector.

    Ahora consideramos ejemplos de búsqueda de coeficientes de Fourier para funciones dadas. En todos estos casos definimos\(f(x)\) sobre\([0,2 \pi]\).

    Ejemplo 5.4. \(f(x)=3 \cos 2 x, x \in[0,2 \pi]\).

    Primero calculamos las integrales para los coeficientes de Fourier.

    \[\begin{aligned} &a_{0}=\dfrac{1}{\pi} \int_{0}^{2 \pi} 3 \cos 2 x d x=0 . \\ &a_{n}=\dfrac{1}{\pi} \int_{0}^{2 \pi} 3 \cos 2 x \cos n x d x=0, \quad n \neq 2 . \\ &a_{2}=\dfrac{1}{\pi} \int_{0}^{2 \pi} 3 \cos ^{2} 2 x d x=3, \\ &b_{n}=\dfrac{1}{\pi} \int_{0}^{2 \pi} 3 \cos 2 x \sin n x d x=0, \forall n . \end{aligned} \nonumber \]

    Por lo tanto, tenemos que el único coeficiente de no fuga es\(a_{2}=3\). Entonces hay un término y\(f(x)=3 \cos 2 x\). Bueno, deberíamos haber sabido esto antes de hacer todas estas integrales. Entonces, si tenemos una función expresada simplemente en términos de sumas de senos simples y cosenos, entonces debería ser fácil anotar los coeficientes de Fourier sin mucho trabajo.

    Ejemplo 5.5. \(f(x)=\sin ^{2} x, x \in[0,2 \pi]\).

    Podríamos determinar los coeficientes de Fourier integrándolos como en el último ejemplo. Sin embargo, es más fácil usar identidades trigonométricas. Sabemos que

    \[\sin ^{2} x=\dfrac{1}{2}(1-\cos 2 x)=\dfrac{1}{2}-\dfrac{1}{2} \cos 2 x . \nonumber \]

    No hay términos sinusoidales, entonces\(b_{n}=0, n=1,2, \ldots\) hay un término constante, implicando\(a_{0} / 2=1 / 2\). Entonces,\(a_{0}=1\). Hay un\(\cos 2 x\) término, que corresponde a\(n=2\), entonces\(a_{2}=-\dfrac{1}{2}\). Eso deja\(a_{n}=0\) para\(n \neq 0,2\).

    Ejemplo 5.6. \(f(x)=\left\{\begin{array}{c}1, \quad 0<x<\pi \\ -1, \pi<x<2 \pi\end{array}\right.\).

    Este ejemplo tomará un poco más de trabajo. No podemos pasar por alto la evaluación de ninguna integral en este momento. Esta función es discontinua, por lo que tendremos que computar cada integral dividiendo la integración en dos integrales, una encima\([0, \pi]\) y otra sobre\([\pi, 2 \pi]\).

    \[a_{0}=\dfrac{1}{\pi} \int_{0}^{2 \pi} f(x) d x \nonumber \]

    Hemos encontrado los coeficientes de Fourier para esta función. Antes de insertarlos en la serie de Fourier (5.1), notamos que\(\cos n \pi=(-1)^{n}\). Por lo tanto,

    \[1-\cos n \pi=\left\{\begin{array}{l} 0, n \text { even } \\ 2, n \text { odd. } \end{array}\right. \nonumber \]

    Entonces, la mitad de los\(b_{n}\)'s son cero. Si bien podríamos escribir la representación de la serie de Fourier como

    \[f(x) \sim \dfrac{4}{\pi} \sum_{n=1, \text { odd }}^{\infty} \dfrac{1}{n} \sin n x \nonumber \]

    podríamos dejar\(n=2 k-1\) y escribir

    \[f(x)=\dfrac{4}{\pi} \sum_{k=1}^{\infty} \dfrac{\sin (2 k-1) x}{2 k-1} \nonumber \]

    Pero, ¿converge esta serie? ¿Converge a\(f(x)\)? Discutiremos esta cuestión más adelante en el capítulo.

    \[\begin{aligned} & =\dfrac{1}{\pi} \int_{0}^{\pi} d x+\dfrac{1}{\pi} \int_{\pi}^{2 \pi}(-1) d x \\ & =\dfrac{1}{\pi}(\pi)+\dfrac{1}{\pi}(-2 \pi+\pi)=0 . \\ & a_{n}=\dfrac{1}{\pi} \int_{0}^{2 \pi} f(x) \cos n x d x \\ & =\dfrac{1}{\pi}\left[\int_{0}^{\pi} \cos n x d x-\int_{\pi}^{2 \pi} \cos n x d x\right] \\ & =\dfrac{1}{\pi}\left[\left(\dfrac{1}{n} \sin n x\right)_{0}^{\pi}-\left(\dfrac{1}{n} \sin n x\right)_{\pi}^{2 \pi}\right] \\ & =0 \text {. } \\ & b_{n}=\dfrac{1}{\pi} \int_{0}^{2 \pi} f(x) \sin n x d x \\ & =\dfrac{1}{\pi}\left[\int_{0}^{\pi} \sin n x d x-\int_{\pi}^{2 \pi} \sin n x d x\right] \\ & =\dfrac{1}{\pi}\left[\left(-\dfrac{1}{n} \cos n x\right)_{0}^{\pi}+\left(\dfrac{1}{n} \cos n x\right)_{\pi}^{2 \pi}\right] \\ & =\dfrac{1}{\pi}\left[-\dfrac{1}{n} \cos n \pi+\dfrac{1}{n}+\dfrac{1}{n}-\dfrac{1}{n} \cos n \pi\right] \\ & =\dfrac{2}{n \pi}(1-\cos n \pi) \text {. } \end{aligned} \nonumber \]

    Serie de Fourier a través de otros intervalos

    En muchas aplicaciones estamos interesados en determinar representaciones en series de Fourier de funciones definidas en intervalos distintos a\([0,2 \pi]\). En esta sección determinaremos la forma de la expansión en serie y los coeficientes de Fourier en estos casos.

    El tipo de intervalo más general se da como\([a, b]\). Sin embargo, esto a menudo es demasiado general. Los intervalos más comunes son de la forma\([-\pi, \pi],[0, L]\), o\([-L / 2, L / 2]\). La generalización más simple es al intervalo\([0, L]\). Tales intervalos surgen a menudo en aplicaciones. Por ejemplo, se pueden estudiar las vibraciones de una cuerda unidimensional de longitud\(L\) y configurar los ejes con el extremo izquierdo en\(x=0\) y el extremo derecho en\(x=L\). Otro problema sería estudiar la distribución de temperatura a lo largo de una varilla unidimensional de longitud\(L\). Tales problemas conducen a los estudios originales de las series de Fourier. Como veremos más adelante, los intervalos simétricos,\([-a, a]\), también son útiles.

    Dado un intervalo\([0, L]\), podríamos aplicar una transformación a un intervalo de longitud\(2 \pi\) simplemente reescalando nuestro intervalo. Entonces podríamos aplicar esta transformación a nuestra representación en serie de Fourier para obtener una equivalente útil para las funciones definidas en\([0, L]\).

    Definimos\(x \in[0,2 \pi]\) y\(t \in[0, L]\). Una transformación lineal que relaciona estos intervalos es simplemente\(x=\dfrac{2 \pi t}{L}\) como se muestra en la Figura\(5.5\). Entonces,\(t=0\) mapas a\(x=0\) y\(t=L\) mapas a\(x=2 \pi\). Además, esta transformación se mapea\(f(x)\) a una nueva función\(g(t)=f(x(t))\), que se define en\([0, L]\). Determinaremos la representación en serie de Fourier de esta función usando la representación para\(f(x)\)

    imagen
    Figura 5.5. Un boceto de la transformación entre intervalos\(x \in[0,2 \pi]\) y\(t \in[0, L]\).

    Recordemos la forma de la representación de Fourier para\(f(x)\) en la Ecuación (5.1):

    \[f(x) \sim \dfrac{a_{0}}{2}+\sum_{n=1}^{\infty}\left[a_{n} \cos n x+b_{n} \sin n x\right] \nonumber \]

    Insertando la transformación relativa\(x\) y\(t\), tenemos

    \[g(t) \sim \dfrac{a_{0}}{2}+\sum_{n=1}^{\infty}\left[a_{n} \cos \dfrac{2 n \pi t}{L}+b_{n} \sin \dfrac{2 n \pi t}{L}\right] . \nonumber \]

    Esto da la forma de la expansión en serie para\(g(t)\) con\(t \in[0, L]\). Pero, aún necesitamos determinar los coeficientes de Fourier. Recordemos, que

    \[a_{n}=\dfrac{1}{\pi} \int_{0}^{2 \pi} f(x) \cos n x d x \nonumber \]

    Tenemos que hacer una sustitución en la integral de\(x=\dfrac{2 \pi t}{L}\). También habrá que transformar el diferencial,\(d x=\dfrac{2 \pi}{L} d t\). Así, la forma resultante para nuestro coeficiente es

    \[a_{n}=\dfrac{2}{L} \int_{0}^{L} g(t) \cos \dfrac{2 n \pi t}{L} d t \nonumber \]

    Del mismo modo, encontramos que

    \[b_{n}=\dfrac{2}{L} \int_{0}^{L} g(t) \sin \dfrac{2 n \pi t}{L} d t \nonumber \]

    Notamos primero que cuando\(L=2 \pi\) volvemos la representación de la serie que estudiamos por primera vez. También, el periodo de\(\cos \dfrac{2 n \pi t}{L}\) es\(L / n\), lo que significa que la representación para\(g(t)\) tiene un periodo de\(L\).

    Al final de esta sección se presenta la derivación de la representación de la serie de Fourier para un intervalo general para el lector interesado. En Tabla\(5.1\) resumimos algunas representaciones de series de Fourier de uso común.

    Terminaremos nuestra discusión por ahora con algunos casos especiales y un ejemplo para una función definida en\([-\pi, \pi]\).

    Ejemplo 5.7. \(f(x)=|x|\)Vamos\([-\pi, \pi]\) Calculamos los coeficientes, comenzando como de costumbre con\(a_{0}\). Tenemos

    \[\begin{aligned} a_{0} &=\dfrac{1}{\pi} \int_{-\pi}^{\pi}|x| d x \\ &=\dfrac{2}{\pi} \int_{0}^{\pi}|x| d x=\pi \end{aligned} \nonumber \]

    En este punto hay que recordar al lector sobre la integración de funciones pares e impares.

    1. Incluso Funciones: En esta evaluación hicimos uso del hecho de que el integrando es una función par. Recordemos que\(f(x)\) es una función par si es\(f(-x)=f(x)\) para todos\(x\). Se pueden reconocer funciones pares ya que son simétricas con respecto al\(y\) eje -como se muestra en la Figura 5.6 (A). Si uno integra una función par a lo largo de un intervalo simétrico, entonces uno tiene esa

    \[\int_{-a}^{a} f(x) d x=2 \int_{0}^{a} f(x) d x \nonumber \]

    Se puede probar esto dividiendo la integración sobre valores negativos de\(x\), usando la sustitución\(x=-y\), y empleando la uniformidad de\(f(x)\). Así, Cuadro 5.1. Representaciones especiales de series de Fourier en diferentes intervalos

    Serie de Fourier en\([0, L]\)

    \[\begin{aligned} f(x) & \sim \dfrac{a_{0}}{2}+\sum_{n=1}^{\infty}\left[a_{n} \cos \dfrac{2 n \pi x}{L}+b_{n} \sin \dfrac{2 n \pi x}{L}\right] \\ a_{n} &=\dfrac{2}{L} \int_{0}^{L} f(x) \cos \dfrac{2 n \pi x}{L} d x . \quad n=0,1,2, \ldots, \\ b_{n} &=\dfrac{2}{L} \int_{0}^{L} f(x) \sin \dfrac{2 n \pi x}{L} d x . \quad n=1,2, \ldots \end{aligned} \nonumber \]

    Serie de Fourier en\(\left[-\dfrac{L}{2}, \dfrac{L}{2}\right]\)

    \[\begin{aligned} f(x) & \sim \dfrac{a_{0}}{2}+\sum_{n=1}^{\infty}\left[a_{n} \cos \dfrac{2 n \pi x}{L}+b_{n} \sin \dfrac{2 n \pi x}{L}\right] . \\ a_{n} &=\dfrac{2}{L} \int_{-\dfrac{L}{2}}^{\dfrac{L}{2}} f(x) \cos \dfrac{2 n \pi x}{L} d x . \quad n=0,1,2, \ldots, \\ b_{n} &=\dfrac{2}{L} \int_{-\dfrac{L}{2}}^{\dfrac{L}{2}} f(x) \sin \dfrac{2 n \pi x}{L} d x . \quad n=1,2, \ldots \end{aligned} \nonumber \]

    Serie de Fourier en\([-\pi, \pi]\)

    \[\begin{gathered} f(x) \sim \dfrac{a_{0}}{2}+\sum_{n=1}^{\infty}\left[a_{n} \cos n x+b_{n} \sin n x\right] . \\ a_{n}=\dfrac{1}{\pi} \int_{-\pi}^{\pi} f(x) \cos n x d x . \quad n=0,1,2, \ldots, \\ b_{n}=\dfrac{1}{\pi} \int_{-\pi}^{\pi} f(x) \sin n x d x . \quad n=1,2, \ldots \end{gathered} \nonumber \]

    \[\begin{aligned} \int_{-a}^{a} f(x) d x &=\int_{-a}^{0} f(x) d x+\int_{0}^{a} f(x) d x \\ &=-\int_{a}^{0} f(-y) d y+\int_{0}^{a} f(x) d x \\ &=\int_{0}^{a} f(y) d y+\int_{0}^{a} f(x) d x \\ &=2 \int_{0}^{a} f(x) d x \end{aligned} \nonumber \]

    Esto se puede verificar visualmente mirando Figura\(5.6(\mathrm{~A})\).

    1. Funciones impares: Se podría hacer un cálculo similar para funciones impares. \(f(x)\)es una función impar si es\(f(-x)=-f(x)\) para todos\(x\). Las gráficas de tales funciones son simétricas con respecto al origen como se muestra en la Figura\(5.6(\mathrm{~B})\). Si uno integra una función impar sobre un intervalo simétrico, entonces uno tiene esa
    imagen
    Figura 5.6. Ejemplos de las áreas bajo (A) par y (B) funciones impares en intervalos simétricos,\([-a, a]\)

    Ahora continuamos con nuestro cálculo de los coeficientes de Fourier para\(f(x)=|x|\) on\([-\pi, \pi]\). Tenemos

    \[a_{n}=\dfrac{1}{\pi} \int_{-\pi}^{\pi}|x| \cos n x d x=\dfrac{2}{\pi} \int_{0}^{\pi} x \cos n x d x . \nonumber \]

    Aquí hemos hecho uso del hecho de que\(|x| \cos n x\) es una función par. Para poder calcular la integral resultante, necesitamos utilizar la integración por partes,

    \[\int_{a}^{b} u d v=\left.u v\right|_{a} ^{b}-\int_{a}^{b} v d u \nonumber \]

    por dejar\(u=x\) y\(d v=\cos n x d x\). Así,\(d u=d x\) y\(v=\int d v=\dfrac{1}{n} \sin n x\). Continuando con el cómputo, tenemos

    \[\begin{aligned} a_{n} &=\dfrac{2}{\pi} \int_{0}^{\pi} x \cos n x d x \\ &=\dfrac{2}{\pi}\left[\left.\dfrac{1}{n} x \sin n x\right|_{0} ^{\pi}-\dfrac{1}{n} \int_{0}^{\pi} \sin n x d x\right] \\ &=-\dfrac{2}{n \pi}\left[-\dfrac{1}{n} \cos n x\right]_{0}^{\pi} \\ &=-\dfrac{2}{\pi n^{2}}\left(1-(-1)^{n}\right) \end{aligned} \nonumber \]

    Aquí hemos utilizado el hecho de que\(\cos n \pi=(-1)^{n}\) para cualquier entero\(n\). Esto lleva a un factor\(\left(1-(-1)^{n}\right)\). Este factor puede simplificarse como

    \[1-(-1)^{n}=\left\{\begin{array}{l} 2, n \text { odd } \\ 0, n \text { even } \end{array}\right. \nonumber \]

    Entonces,\(a_{n}=0\) para\(n\) par y\(a_{n}=-\dfrac{4}{\pi n^{2}}\) para\(n\) impar.

    Computar los\(b_{n}\)'s es más sencillo. Observamos que tenemos que integrarnos\(|x| \sin n x\) de\(x=-\pi\) a\(\pi\). El integrando es una función impar y este es un intervalo simétrico. Entonces, el resultado es eso\(b_{n}=0\) para todos\(n\).

    Armando todo esto, la representación de la serie de Fourier de\(f(x)=|x|\) on\([-\pi, \pi]\) se da como

    \[f(x) \sim \dfrac{\pi}{2}-\dfrac{4}{\pi} \sum_{n=1, \text { odd }}^{\infty} \dfrac{\cos n x}{n^{2}} \nonumber \]

    Si bien esto es correcto, podemos reescribir la suma sobre solo impar\(n\) reindexando. Dejamos\(n=2 k-1\) para\(k=1,2,3, \ldots\) Entonces solo obtenemos los enteros impares. La serie se puede escribir como

    \[f(x) \sim \dfrac{\pi}{2}-\dfrac{4}{\pi} \sum_{k=1}^{\infty} \dfrac{\cos (2 k-1) x}{(2 k-1)^{2}} . \nonumber \]

    A lo largo de nuestra discusión nos hemos referido a tales resultados como representaciones de Fourier. No hemos mirado la convergencia de estas series. He aquí un ejemplo de una serie infinita de funciones. ¿A qué suma esta serie? Mostramos en\(5.7\) la Figura las primeras sumas parciales. Parecen estar convergiendo con\(f(x)=|x|\) bastante rapidez.

    A pesar de que se\(f(x)\) definió en todavía\([-\pi, \pi]\) podemos evaluar la serie de Fourier a valores\(x\) fuera de este intervalo. En la Figura\(5.8\), vemos que la representación concuerda con\(f(x)\) en el intervalo\([-\pi, \pi]\). Fuera de este intervalo tenemos una extensión periódica de\(f(x)\) con periodo\(2 \pi\).

    Otro ejemplo es la representación de la serie de Fourier de\(f(x)=x\) on\([-\pi, \pi]\) como izquierda para Problema 5.1. Esto se determina que es

    \[f(x) \sim 2 \sum_{n=1}^{\infty} \dfrac{(-1)^{n+1}}{n} \sin n x . \nonumber \]

    Como se ve en la Figura\(5.9\) obtenemos nuevamente la extensión periódica de nuestra función. En este caso necesitábamos muchos más términos. Además, las partes verticales de la primera parcela son inexistentes. En la segunda gráfica solo trazamos los puntos y no los típicos puntos conectados que la mayoría de los paquetes de software trazan como estilo predeterminado.

    imagen
    Figura 5.7. Gráfica de las primeras sumas parciales de la representación de la serie de Fourier para\(f(x)=\)\(|x|\)
    imagen
    Figura 5.8. Gráfica de los primeros 10 términos de la representación de la serie de Fourier para\(f(x)=|x|\) el intervalo\([-2 \pi, 4 \pi]\).
    imagen
    Figura 5.9. Gráfica de los primeros 10 términos y 200 términos de la representación de la serie de Fourier para\(f(x)=x\) el intervalo\([-2 \pi, 4 \pi]\)

    \[\pi=4\left[1-\dfrac{1}{3}+\dfrac{1}{5}-\dfrac{1}{7}+\ldots\right] \nonumber \]

    Serie de Fourier en\([a, b]\)

    También es posible una representación en serie de Fourier para un intervalo general,\(t \in[a, b]\). Como antes, solo necesitamos transformar este intervalo en\([0,2 \pi]\). Let

    \[x=2 \pi \dfrac{t-a}{b-a} . \nonumber \]

    Insertando esto en la representación de la serie de Fourier (5.1)\(f(x)\) para obtener

    \[g(t) \sim \dfrac{a_{0}}{2}+\sum_{n=1}^{\infty}\left[a_{n} \cos \dfrac{2 n \pi(t-a)}{b-a}+b_{n} \sin \dfrac{2 n \pi(t-a)}{b-a}\right] \nonumber \]

    Bueno, esta expansión es fea. No es como el último ejemplo, donde la transformación fue sencilla. Si uno fuera a aplicar la teoría a las aplicaciones, podría parecer que tiene sentido simplemente cambiar los datos para que\(a=0\) y se haga con cualquier expresión complicada. Sin embargo, los estudiantes de matemáticas disfrutan del desafío de desarrollar tales expresiones generalizadas. Entonces, veamos en qué consiste.

    Primero, aplicamos las identidades de adición para funciones trigonométricas y reordenamos los términos.

    \[\begin{aligned} g(t) \sim & \dfrac{a_{0}}{2}+\sum_{n=1}^{\infty}\left[a_{n} \cos \dfrac{2 n \pi(t-a)}{b-a}+b_{n} \sin \dfrac{2 n \pi(t-a)}{b-a}\right] \\ =& \dfrac{a_{0}}{2}+\sum_{n=1}^{\infty}\left[a _ { n } \left(\cos \dfrac{2 n \pi t}{b-a} \cos \dfrac{2 n \pi a}{b-a}+\sin \dfrac{2 n \pi t}{b-a} \sin \dfrac{2 n \pi a}{b-}\right.\right.\\ &\left.+b_{n}\left(\sin \dfrac{2 n \pi t}{b-a} \cos \dfrac{2 n \pi a}{b-a}-\cos \dfrac{2 n \pi t}{b-a} \sin \dfrac{2 n \pi a}{b-a}\right)\right] \\ =& \dfrac{a_{0}}{2}+\sum_{n=1}^{\infty}\left[\cos \dfrac{2 n \pi t}{b-a}\left(a_{n} \cos \dfrac{2 n \pi a}{b-a}-b_{n} \sin \dfrac{2 n \pi a}{b-a}\right)\right.\\ &\left.+\sin \dfrac{2 n \pi t}{b-a}\left(a_{n} \sin \dfrac{2 n \pi a}{b-a}+b_{n} \cos \dfrac{2 n \pi a}{b-a}\right)\right] \end{aligned} \nonumber \]

    Definir\(A_{0}=a_{0}\) y

    \[\begin{aligned} A_{n} & \equiv a_{n} \cos \dfrac{2 n \pi a}{b-a}-b_{n} \sin \dfrac{2 n \pi a}{b-a} \\ B_{n} \equiv a_{n} \sin \dfrac{2 n \pi a}{b-a}+b_{n} \cos \dfrac{2 n \pi a}{b-a} \end{aligned} \nonumber \]

    llegamos a la forma más deseable para la representación en serie de Fourier de una función definida en el intervalo\([a, b]\).

    \[g(t) \sim \dfrac{A_{0}}{2}+\sum_{n=1}^{\infty}\left[A_{n} \cos \dfrac{2 n \pi t}{b-a}+B_{n} \sin \dfrac{2 n \pi t}{b-a}\right] . \nonumber \]

    A continuación necesitamos encontrar expresiones para los coeficientes de Fourier. Insertamos las expresiones conocidas para\(a_{n}\) y\(b_{n}\) y reorganizamos. Primero, observamos que bajo la transformación\(x=2 \pi \dfrac{t-a}{b-a}\) tenemos

    \[\begin{aligned} a_{n} &=\dfrac{1}{\pi} \int_{0}^{2 \pi} f(x) \cos n x d x \\ &=\dfrac{2}{b-a} \int_{a}^{b} g(t) \cos \dfrac{2 n \pi(t-a)}{b-a} d t \end{aligned} \nonumber \]

    y

    \[\begin{aligned} b_{n} &=\dfrac{1}{\pi} \int_{0}^{2 \pi} f(x) \cos n x d x \\ &=\dfrac{2}{b-a} \int_{a}^{b} g(t) \sin \dfrac{2 n \pi(t-a)}{b-a} d t \end{aligned} \nonumber \]

    Luego, insertando estas integrales\(A_{n}\), combinando integrales y haciendo uso de la fórmula de adición para el coseno de la suma de dos ángulos, obtenemos

    \[\begin{aligned} A_{n} & \equiv a_{n} \cos \dfrac{2 n \pi a}{b-a}-b_{n} \sin \dfrac{2 n \pi a}{b-a} \\ &=\dfrac{2}{b-a} \int_{a}^{b} g(t)\left[\cos \dfrac{2 n \pi(t-a)}{b-a} \cos \dfrac{2 n \pi a}{b-a}-\sin \dfrac{2 n \pi(t-a)}{b-a} \sin \dfrac{2 n \pi a}{b-a}\right] d t \\ &=\dfrac{2}{b-a} \int_{a}^{b} g(t) \cos \dfrac{2 n \pi t}{b-a} d t \end{aligned} \nonumber \]

    Un cómputo similar da

    \[B_{n}=\dfrac{2}{b-a} \int_{a}^{b} g(t) \sin \dfrac{2 n \pi t}{b-a} d t \nonumber \]

    Resumiendo, hemos demostrado que:

    Teorema 5.9. La representación de la serie de Fourier de\(f(x)\) definido en\([a, b]\) cuando existe, viene dada por

    \[f(x) \sim \dfrac{a_{0}}{2}+\sum_{n=1}^{\infty}\left[a_{n} \cos \dfrac{2 n \pi x}{b-a}+b_{n} \sin \dfrac{2 n \pi x}{b-a}\right] . \nonumber \]

    con coeficientes de Fourier

    \[\begin{aligned} a_{n} &=\dfrac{2}{b-a} \int_{a}^{b} f(x) \cos \dfrac{2 n \pi x}{b-a} d x . \quad n=0,1,2, \ldots, \\ b_{n} &=\dfrac{2}{b-a} \int_{a}^{b} f(x) \sin \dfrac{2 n \pi x}{b-a} d x . \quad n=1,2, \ldots \end{aligned} \nonumber \]

    \(5.4\)Serie de seno y coseno

    En los dos últimos ejemplos\((f(x)=|x|\) y\(f(x)=x\) en adelante\([-\pi, \pi])\) hemos visto representaciones de series de Fourier que contienen solo términos sinusoidales o coseno. Como sabemos, las funciones sinusoidales son funciones impares y, por lo tanto, suman a funciones impares. Del mismo modo, las funciones coseno suman a las funciones pares. Tales ocurrencias ocurren a menudo en la práctica. Las representaciones de Fourier que involucran solo senos se llaman series sinusoidales y las que involucran solo cosenos (y el término constante) se llaman series coseno.

    Otro resultado interesante, basado en estos ejemplos, es que las funciones originales,\(|x|\) y\(x\) coinciden en el intervalo\([0, \pi]\). Obsérvese de las Figuras 5.7-5.9 que sus representaciones en serie de Fourier también lo hacen. Así, se pueden utilizar más de una serie para representar funciones definidas en intervalos finitos. Todo lo que necesitan hacer es estar de acuerdo con la función a lo largo de ese intervalo en particular. A veces una de estas series es más útil porque tiene propiedades adicionales necesarias en la aplicación dada.

    Hemos realizado las siguientes observaciones a partir de los ejemplos anteriores: 1. Hay varias representaciones trigonométricas de series para una función definida en un intervalo finito.

    1. Las funciones impares en un intervalo simétrico están representadas por series sinusoidales y las funciones pares en un intervalo simétrico están representadas por series coseno.

    Estas dos observaciones están relacionadas y son objeto de esta sección. Comenzamos definiendo una función\(f(x)\) en el intervalo\([0, L]\). Hemos visto que la representación en serie de Fourier de esta función parece converger a una extensión periódica de la función.

    imagen
    Figura 5.10. Se trata de un boceto de una función y sus diversas extensiones. La función original\(f(x)\) se define\([0,1]\) y se grafica en la esquina superior izquierda. A su derecha se encuentra la extensión periódica, obtenida mediante la adición de réplicas. Las dos gráficas inferiores se obtienen haciendo primero la función original par o impar y luego crear las extensiones periódicas de la nueva función.

    En general, obtenemos tres representaciones periódicas diferentes. Para distinguirlos nos referiremos simplemente como las extensiones periódicas, pares e impares. Ahora, comenzando por\(f(x)\) definido en\([0, L]\), nos gustaría determinar las representaciones de la serie de Fourier que conducen a estas extensiones. [Para una fácil referencia, los resultados se resumen en la Tabla 5.2] Ya hemos visto que la extensión periódica de\(f(x)\) se obtiene a través de la representación de la serie de Fourier en la Ecuación (5.53).

    Cuadro 5.2. Representaciones en serie de coseno y coseno de Fourier en\([0, L]\)

    Serie de Fourier en\([0, L]\)

    \[\begin{aligned} f(x) & \sim \dfrac{a_{0}}{2}+\sum_{n=1}^{\infty}\left[a_{n} \cos \dfrac{2 n \pi x}{L}+b_{n} \sin \dfrac{2 n \pi x}{L}\right] . \\ a_{n} &=\dfrac{2}{L} \int_{0}^{L} f(x) \cos \dfrac{2 n \pi x}{L} d x . \quad n=0,1,2, \ldots, \\ b_{n} &=\dfrac{2}{L} \int_{0}^{L} f(x) \sin \dfrac{2 n \pi x}{L} d x . \quad n=1,2, \ldots \end{aligned} \nonumber \]

    Serie coseno de Fourier en\([0, L]\)

    \[f(x) \sim a_{0} / 2+\sum_{n=1}^{\infty} a_{n} \cos \dfrac{n \pi x}{L} . \nonumber \]

    donde

    \[a_{n}=\dfrac{2}{L} \int_{0}^{L} f(x) \cos \dfrac{n \pi x}{L} d x . \quad n=0,1,2, \ldots \nonumber \]

    Serie sinusoidal de Fourier encendida\([0, L]\)

    \[f(x) \sim \sum_{n=1}^{\infty} b_{n} \sin \dfrac{n \pi x}{L} . \nonumber \]

    donde

    \[b_{n}=\dfrac{2}{L} \int_{0}^{L} f(x) \sin \dfrac{n \pi x}{L} d x . \quad n=1,2, \ldots \nonumber \]

    Dado\(f(x)\) definido en\([0, L]\), la extensión periódica par se obtiene simplemente calculando la representación de la serie de Fourier para la función par

    \[f_{e}(x) \equiv\left\{\begin{array}{c} f(x), \quad 0<x<L \\ f(-x)-L<x<0 \end{array}\right. \nonumber \]

    Dado que\(f_{e}(x)\) es una función par en un intervalo simétrico\([-L, L]\), esperamos que la serie resultante de Fourier no contenga términos sinusoidales. Por lo tanto, la expansión en serie estará dada por [Usar el caso general en (5.51) con\(a=-L\) y\(b=L .]\):

    \[f_{e}(x) \sim \dfrac{a_{0}}{2}+\sum_{n=1}^{\infty} a_{n} \cos \dfrac{n \pi x}{L} . \nonumber \]

    con coeficientes de Fourier

    \[a_{n}=\dfrac{1}{L} \int_{-L}^{L} f_{e}(x) \cos \dfrac{n \pi x}{L} d x . \quad n=0,1,2, \ldots \nonumber \]

    Sin embargo, podemos simplificar esto señalando que el integrando es parejo y el intervalo de integración puede ser reemplazado por\([0, L]\). En este intervalo\(f_{e}(x)=f(x)\). Entonces, tenemos la Serie Cosine Representación de\(f(x)\) for\(x \in[0, L]\) se da como

    \[f(x) \sim \dfrac{a_{0}}{2}+\sum_{n=1}^{\infty} a_{n} \cos \dfrac{n \pi x}{L} . \nonumber \]

    donde

    \[a_{n}=\dfrac{2}{L} \int_{0}^{L} f(x) \cos \dfrac{n \pi x}{L} d x . \quad n=0,1,2, \ldots \nonumber \]

    Del mismo modo, dado\(f(x)\) definido en\([0, L]\), la extensión periódica impar se obtiene simplemente calculando la representación de la serie de Fourier para la función impar

    \[f_{o}(x) \equiv\left\{\begin{array}{c} f(x), \quad 0<x<L, \\ -f(-x)-L<x<0 \end{array}\right. \nonumber \]

    La expansión de la serie resultante conduce a definir la representación de la serie sinusoidal de\(f(x)\) for\(x \in[0, L]\) as

    \[f(x) \sim \sum_{n=1}^{\infty} b_{n} \sin \dfrac{n \pi x}{L} . \nonumber \]

    donde

    \[b_{n}=\dfrac{2}{L} \int_{0}^{L} f(x) \sin \dfrac{n \pi x}{L} d x . \quad n=1,2, \ldots \nonumber \]

    Ejemplo 5.10. En la Figura, en realidad\(5.10\) proporcionamos gráficas de las diversas extensiones de la función\(f(x)=x^{2}\) para\(x \in[0,1]\). Determinemos las representaciones de las extensiones periódicas, pares e impares de esta función.

    Para variar, usaremos un paquete CAS (Computer Algebra System) para hacer las integrales. En este caso podemos usar Maple. En la Tabla 5.3 se muestra un código general para hacer esto para la extensión periódica.

    Ejemplo 5.11. Extensión Periódica - Serie Trigonométrica de Fourier

    Usando el código anterior, tenemos eso\(a_{0}=\dfrac{2}{3} a_{n}=\dfrac{1}{n^{2} \pi^{2}}\) y\(b_{n}=-\dfrac{1}{n \pi}\). Así, la serie resultante se da como

    \[f(x) \sim \dfrac{1}{3}+\sum_{n=1}^{\infty}\left[\dfrac{1}{n^{2} \pi^{2}} \cos 2 n \pi x-\dfrac{1}{n \pi} \sin 2 n \pi x\right] \nonumber \]

    Cuadro 5.3. Código de arce para calcular coeficientes de Fourier y trazar sumas parciales de la serie de Fourier.

    imagen

    En la Figura\(5.11\) vemos la suma de los primeros 50 términos de esta serie. Generalmente, vemos que la serie parece estar convergiendo a la extensión periódica de\(f\). Parecen haber algunos problemas con la convergencia alrededor de los valores enteros de\(x\). Más adelante veremos que esto se debe a las discontinuidades en la extensión periódica y el sobreimpulso resultante es referido como el fenómeno de Gibbs que se discute en el apéndice.

    Ejemplo 5.12. Extensión periódica uniforme - Serie Cosine

    En este caso calculamos\(a_{0}=\dfrac{2}{3}\) y\(a_{n}=\dfrac{4(-1)^{n}}{n^{2} \pi^{2}}\). Por lo tanto, tenemos

    \[f(x) \sim \dfrac{1}{3}+\dfrac{4}{\pi^{2}} \sum_{n=1}^{\infty} \dfrac{(-1)^{n}}{n^{2}} \cos n \pi x . \nonumber \]

    En la Figura\(5.12\) vemos la suma de los primeros 50 términos de esta serie. En este caso la convergencia parece ser mucho mejor que en el caso de extensión periódica. También vemos que está convergiendo a la extensión par.

    Ejemplo 5.13. Extensión periódica impar - Serie sinusoidal

    Por último, nos fijamos en la serie sinusoidal para esta función. Nos encontramos con eso\(b_{n}=\)\(-\dfrac{2}{n^{3} \pi^{3}}\left(n^{2} \pi^{2}(-1)^{n}-2(-1)^{n}+2\right)\). Por lo tanto,

    imagen
    Figura 5.11. La extensión periódica de\(f(x)=x^{2}\) on\([0,1]\).
    imagen
    Figura 5.12. La extensión incluso periódica de\(f(x)=x^{2}\) on\([0,1]\). Una vez más vemos discontinuidades en la extensión como se ve en la Figura 5.13. Sin embargo, hemos verificado que nuestra serie sinusoidal parece estar convergiendo a la extensión impar como esbozamos por primera vez en la Figura 5.10.
    imagen
    Figura 5.13. La extensión periódica impar de\(f(x)=x^{2}\) on\([0,1]\).

    Apéndice: El fenómeno Gibbs

    Hemos visto que cuando hay una discontinuidad de salto en la extensión periódica de nuestras funciones, si la función originalmente tenía una discontinuidad o desarrolló una debido a un desajuste en los valores de los puntos finales. Esto se puede ver en las Figuras\(5.9,5.11\) y 5.13. La serie de Fourier tiene dificultades para converger en el punto de discontinuidad y estas gráficas de la serie de Fourier muestran un sobreimpulso distinto que no desaparece. Esto se llama fenómeno Gibbs y se puede calcular la cantidad de sobreimpulso.

    En uno de nuestros primeros ejemplos, Ejemplo\(5.6\), encontramos la representación en serie de Fourier de la función definida por partes

    \[f(x)=\left\{\begin{array}{c} 1, \quad 0<x<\pi \\ -1, \quad \pi<x<2 \pi \end{array}\right. \nonumber \]

    ser

    \[f(x) \sim \dfrac{4}{\pi} \sum_{k=1}^{\infty} \dfrac{\sin (2 k-1) x}{2 k-1} . \nonumber \]

    En Figura\(5.14\) mostramos la suma de los diez primeros términos. Tenga en cuenta los meneamientos, rebasamientos y debajo de brotes cerca\(x=0, \pm \pi\). Estos se ven más cuando trazamos la representación para\(x \in[-3 \pi, 3 \pi]\), como se muestra en la Figura 5.15. Observamos que los rebasamientos y subbrotes ocurren a discontinuidades en la extensión periódica de\(f(x)\). Estos ocurren siempre que\(f(x)\) tenga una discontinuidad o si los valores de\(f(x)\) en los puntos finales del dominio no coinciden.

    Uno podría esperar que solo necesitamos agregar más términos. En la Figura\(5.16\) se muestra la suma de veinte términos. Tenga en cuenta que la suma parece converger mejor para puntos alejados de las discontinuidades. Pero, los rebasamientos y subbrotes siguen presentes. En Figuras\(5.17\) y se\(5.18\) muestran gráficas ampliadas del sobreimpulso a\(x=0\) para\(N=100\) y\(N=500\), respectivamente. Vemos que el sobreimpulso persiste. El pico se encuentra aproximadamente a la misma altura, pero su ubicación parece estar cada vez más cerca del origen. Mostraremos cómo se puede estimar el tamaño del sobreimpulso.

    imagen
    Figura 5.14. La representación en serie de Fourier de una función de paso en\([-\pi, \pi]\) for\(N=10\).

    Podemos estudiar el fenómeno de Gibbs observando las sumas parciales de series trigonométricas generales de Fourier para funciones\(f(x)\) definidas en el intervalo\([-L, L]\). Escribiendo las sumas parciales, insertando los coeficientes de Fourier y reordenando, tenemos

    imagen
    Figura 5.15. La representación en serie de Fourier de una función de paso en\([-\pi, \pi]\) para\(N=10\) graficada\([-3 \pi, 3 \pi]\) al mostrar la periodicidad.
    imagen
    Figura 5.16. La representación en serie de Fourier de una función de paso en\([-\pi, \pi]\) for\(N=20\).
    imagen
    Figura 5.17. La representación en serie de Fourier de una función de paso activado\([-\pi, \pi]\) para\(N=\) 100.

    \[\begin{aligned} =& \dfrac{1}{2 L} \int_{-L}^{L} f(y) d y+\sum_{n=1}^{N}\left[\left(\dfrac{1}{L} \int_{-L}^{L} f(y) \cos \dfrac{n \pi y}{L} d y\right) \cos \dfrac{n \pi x}{L}\right.\\ &\left.+\left(\dfrac{1}{L} \int_{-L}^{L} f(y) \sin \dfrac{n \pi y}{L} d y\right) \sin \dfrac{n \pi x}{L}\right] \\ =&\left.\dfrac{1}{L} \int_{-L}^{L}\left\{\dfrac{1}{2}+\sum_{n=1}^{N}\left(\cos \dfrac{n \pi y}{L} \cos \dfrac{n \pi x}{L}+\sin \dfrac{n \pi y}{L} \sin \dfrac{n \pi x}{L}\right)\right\} f(y)\right\} f(y) d y \\ =& \dfrac{1}{L} \int_{-L}^{L}\left\{\dfrac{1}{2}+\sum_{n=1}^{N} \cos \dfrac{n \pi(y-x)}{L}\right\} \\ \equiv & \dfrac{1}{L} \int_{-L}^{L} D_{N}(y-x) f(y) d y . \end{aligned} \nonumber \]

    Hemos definido

    \[D_{N}(x)=\dfrac{1}{2}+\sum_{n=1}^{N} \cos \dfrac{n \pi x}{L}, \nonumber \]

    que se llama el\(N\) -ésimo Kernel de Dirichlet. Ahora probamos

    imagen
    Figura 5.18. La representación de la serie de Fourier de una función escalonada\([-\pi, \pi]\) para\(N=\)\(500 .\)

    Proposición:

    \[D_{n}(x)= \begin{cases}\dfrac{\sin \left(\left(n+\dfrac{1}{2}\right) \dfrac{\pi x}{L}\right)}{2 \sin \dfrac{\pi x}{2 L}}, & \sin \dfrac{\pi x}{2 L} \neq 0 \\ n+\dfrac{1}{2}, & \sin \dfrac{\pi x}{2 L}=0\end{cases} \nonumber \]

    Prueba: Dejar\(\theta=\dfrac{\pi x}{L}\) y multiplicar\(D_{n}(x)\) por\(2 \sin \dfrac{\theta}{2}\) para obtener:

    \[\begin{aligned} 2 \sin \dfrac{\theta}{2} D_{n}(x)=& 2 \sin \dfrac{\theta}{2}\left[\dfrac{1}{2}+\cos \theta+\cdots+\cos n \theta\right] \\ =& \sin \dfrac{\theta}{2}+2 \cos \theta \sin \dfrac{\theta}{2}+2 \cos 2 \theta \sin \dfrac{\theta}{2}+\cdots+2 \cos n \theta \sin \dfrac{\theta}{2} \\ =& \sin \dfrac{\theta}{2}+\left(\sin \dfrac{3 \theta}{2}-\sin \dfrac{\theta}{2}\right)+\left(\sin \dfrac{5 \theta}{2}-\sin \dfrac{3 \theta}{2}\right)+\cdots \\ &+\left[\sin \left(n+\dfrac{1}{2}\right) \theta-\sin \left(n-\dfrac{1}{2}\right) \theta\right] \\ =& \sin \left(n+\dfrac{1}{2}\right) \theta \end{aligned} \nonumber \]

    Por lo tanto,

    \[2 \sin \dfrac{\theta}{2} D_{n}(x)=\sin \left(n+\dfrac{1}{2}\right) \theta \nonumber \]

    o si\(\sin \dfrac{\theta}{2} \neq 0\),

    \[D_{n}(x)=\dfrac{\sin \left(n+\dfrac{1}{2}\right) \theta}{2 \sin \dfrac{\theta}{2}}, \quad \theta=\dfrac{\pi x}{L} \nonumber \]

    Si\(\sin \dfrac{\theta}{2}=0\), entonces se necesita aplicar la Regla de L'Hospital:

    \[\begin{aligned} \lim _{\theta \rightarrow 2 m \pi} \dfrac{\sin \left(n+\dfrac{1}{2}\right) \theta}{2 \sin \dfrac{\theta}{2}} &=\lim _{\theta \rightarrow 2 m \pi} \dfrac{\left(n+\dfrac{1}{2}\right) \cos \left(n+\dfrac{1}{2}\right) \theta}{\cos \dfrac{\theta}{2}} \\ &=\dfrac{\left(n+\dfrac{1}{2}\right) \cos (2 m n \pi+m \pi)}{\cos m \pi} \\ &=n+\dfrac{1}{2} . \end{aligned} \nonumber \]

    Observamos además que\(D_{N}(x)\) es periódico con periodo\(2 L\) y es una función par. Hasta el momento, hemos encontrado que

    \[S_{N}(x)=\dfrac{1}{L} \int_{-L}^{L} D_{N}(y-x) f(y) d y \nonumber \]

    Ahora, haz la sustitución\(\xi=y-x\). Entonces,

    \[\begin{aligned} S_{N}(x) &=\dfrac{1}{L} \int_{-L-x}^{L-x} D_{N}(\xi) f(\xi+x) d \xi \\ &=\dfrac{1}{L} \int_{-L}^{L} D_{N}(\xi) f(\xi+x) d \xi \end{aligned} \nonumber \]

    En la segunda integral hemos hecho uso del hecho de que\(f(x)\) y\(D_{N}(x)\) son periódicos con periodo\(2 L\) y desplazado el intervalo de nuevo a\([-L, L]\).

    Ahora divide la integración y usa el hecho de que\(D_{N}(x)\) es una función par. Entonces,

    \[\begin{aligned} S_{N}(x) &=\dfrac{1}{L} \int_{-L}^{0} D_{N}(\xi) f(\xi+x) d \xi+\dfrac{1}{L} \int_{0}^{L} D_{N}(\xi) f(\xi+x) d \xi \\ &=\dfrac{1}{L} \int_{0}^{L}[f(x-\xi)+f(\xi+x)] D_{N}(\xi) d \xi \end{aligned} \nonumber \]

    Podemos utilizar este resultado para estudiar el fenómeno de Gibbs siempre que ocurra. En particular, sólo nos concentraremos en nuestro ejemplo anterior. A saber,

    \[f(x)=\left\{\begin{array}{c} 1, \quad 0<x<\pi \\ -1, \pi<x<2 \pi \end{array}\right. \nonumber \]

    Para este caso, tenemos

    \[S_{N}(x)=\dfrac{1}{\pi} \int_{0}^{\pi}[f(x-\xi)+f(\xi+x)] D_{N}(\xi) d \xi \nonumber \]

    para

    \[D_{N}(x)=\dfrac{1}{2}+\sum_{n=1}^{N} \cos n x \nonumber \]

    Además, se puede demostrar que

    \[f(x-\xi)+f(\xi+x)=\left\{\begin{array}{c} 2, \quad 0 \leq \xi<x \\ 0, \quad x \leq \xi<\pi-x \\ -2, \pi-x \leq \xi<\pi \end{array}\right. \nonumber \]

    Así, tenemos

    \[\begin{aligned} S_{N}(x) &=\dfrac{2}{\pi} \int_{0}^{x} D_{N}(\xi) d \xi-\dfrac{2}{\pi} \int_{\pi-x}^{\pi} D_{N}(\xi) d \xi \\ &=\dfrac{2}{\pi} \int_{0}^{x} D_{N}(z) d z+\dfrac{2}{-} \int_{0}^{x} D_{N}(\pi-z) d z . \end{aligned} \nonumber \]

    Aquí hicimos la sustitución\(z=\pi-\xi\) en la segunda integral. El kernel de Dirichlet en la proposición para\(L=\pi\) viene dado por

    \[D_{N}(x)=\dfrac{\sin \left(N+\dfrac{1}{2}\right) x}{2 \sin \dfrac{x}{2}} . \nonumber \]

    Para\(N\) grandes, tenemos\(N+\dfrac{1}{2} \approx N\), y para pequeños\(x\), tenemos\(\sin \dfrac{x}{2} \approx \dfrac{x}{2}\). Entonces, bajo estos supuestos,

    \[D_{N}(x) \approx \dfrac{\sin N x}{x} . \nonumber \]

    Por lo tanto,

    \[S_{N}(x) \rightarrow \dfrac{2}{\pi} \int_{0}^{x} \dfrac{\sin N \xi}{\xi} d \xi . \nonumber \]

    Si queremos determinar las ubicaciones de los mínimos y máximos, donde ocurren el subimpulso y el sobreimpulso, entonces aplicamos la primera prueba derivada para extremos a\(S_{N}(x)\). Por lo tanto,

    \[\dfrac{d}{d x} S_{N}(x)=\dfrac{2}{\pi} \dfrac{\sin N x}{x}=0 . \nonumber \]

    Los extremos ocurren para\(N x=m \pi, m=\pm 1, \pm 2, \ldots\) Uno puede demostrar que hay un máximo en\(x=\pi / N\) y un mínimo para\(x=2 \pi / N\). El valor para el sobreimpulso se puede calcular como

    \[\begin{aligned} S_{N}(\pi / N) &=\dfrac{2}{\pi} \int_{0}^{\pi / N} \dfrac{\sin N \xi}{\xi} d \xi \\ &=\dfrac{2}{\pi} \int_{0}^{\pi} \dfrac{\sin t}{t} d t \\ &=\dfrac{2}{\pi} \operatorname{Si}(\pi) \\ &=1.178979744 \ldots . \end{aligned} \nonumber \]

    Obsérvese que este valor es independiente\(N\) y se da en términos de la integral sinusoidal,

    \[\operatorname{Si}(x) \equiv \int_{0}^{x} \dfrac{\sin t}{t} d t \nonumber \]

    Problemas

    5.1. Encuentra la Serie de Fourier de cada función\(f(x)\) de periodo\(2 \pi\). Para cada serie, trazar la\(N\) ésima suma parcial,

    \[S_{N}=\dfrac{a_{0}}{2}+\sum_{n=1}^{N}\left[a_{n} \cos n x+b_{n} \sin n x\right], \nonumber \]

    para\(N=5,10,50\) y describir la convergencia (¿es rápida? a qué está convergiendo, etc.) [A continuación se muestra un código simple de Maple para calcular sumas parciales.]
    a\(f(x)=x,|x|<\pi\).
    b\(f(x)=\dfrac{x^{2}}{4},|x|<\pi\).
    \(f(x)=\pi-|x|,|x|<\pi\)c.
    d.\(f(x)= \begin{cases}\dfrac{\pi}{2}, & 0<x<\pi \\ -\dfrac{\pi}{2}, & \pi<x<2 \pi\end{cases}\)
    e.\(f(x)=\left\{\begin{array}{l}0,-\pi<x<0 \\ 1,0<x<\pi\end{array}\right.\)

    A continuación se muestra un simple conjunto de comandos en Maple, donde rellenas los coeficientes de Fourier que has calculado a mano y\(f(x)\) para que puedas comparar tus resultados. Por supuesto, pueden ser necesarias otras modificaciones.

    imagen

    5.2. Considera la función\(f(x)=4 \sin ^{3} 2 x\)

    a. Derivar una identidad relativa\(\sin ^{3} \theta\) en términos de\(\sin \theta\)\(\sin 3 \theta\) y expresar\(f(x)\) en términos de funciones sinusoidales simples.

    b. Determinar los coeficientes de Fourier\(f(x)\) en una expansión en serie de Fourier\([0,2 \pi]\) sin calcular ninguna integral!

    5.3. Encuentra la serie de Fourier\(f(x)=x\) en el intervalo dado con el periodo dado\(T\). Traza\(N\) las sumas parciales y describe lo que ves.

    a\(0<x<2, T=2\).

    b\(-2<x<2, T=4\).

    5.4. El resultado en el problema\(5.1\) b anterior da una representación en serie de Fourier de\(\dfrac{x^{2}}{4}\). Al elegir el valor correcto para\(x\) y un poco de arreglo de la serie, demuestre que [Ver Ejemplo 5.8.]

    \[\dfrac{\pi^{2}}{6}=1+\dfrac{1}{2^{2}}+\dfrac{1}{3^{2}}+\dfrac{1}{4^{2}}+\cdots \nonumber \]

    b.

    \[\dfrac{\pi^{2}}{8}=1+\dfrac{1}{3^{2}}+\dfrac{1}{5^{2}}+\dfrac{1}{7^{2}}+\cdots \nonumber \]

    5.5. Esboce (a mano) las gráficas de cada una de las siguientes funciones en cuatro periodos. A continuación, esboce las extensiones de cada una de las funciones como una función periódica par e impar. Determinar las series de seno y coseno de Fourier correspondientes y verificar la convergencia a la función deseada usando Maple.
    a\(f(x)=x^{2}, 0<x<1\).
    b\(f(x)=x(2-x), 0<x<2\).
    c.\(f(x)=\left\{\begin{array}{l}0,0<x<1 \text {, } \\ 1,1<x<2 \text {. }\end{array}\right.\)
    d.\(f(x)=\left\{\begin{array}{c}\pi, \quad 0<x<\pi \\ 2 \pi-x, \pi<x<2 \pi\end{array}\right.\)

    Problemas de valor propio de Sturm-Liouville

    Introducción

    En los últimos capítulos hemos explorado la solución de problemas de valor límite que llevaron a funciones propias trigonométricas. Tales funciones pueden ser utilizadas para representar funciones en expansiones de series de Fourier. Nos gustaría generalizar algunas de esas técnicas para resolver otros problemas de valor límite. Una clase de problemas a los que pertenecen nuestros ejemplos anteriores y que tienen funciones propias con propiedades similares son los problemas de valor propio de Sturm-Liouville. Estos problemas involucran operadores autoagregados (diferenciales) que juegan un papel importante en la teoría espectral de los operadores lineales y la existencia de las funciones propias que describimos en la Sección 4.3.2. Estas ideas se introducirán en este capítulo.

    En la física surgen muchos problemas en forma de problemas de valor límite que involucran ecuaciones diferenciales ordinarias de segundo orden. Por ejemplo, podríamos querer resolver la ecuación

    \[a_{2}(x) y^{\prime \prime}+a_{1}(x) y^{\prime}+a_{0}(x) y=f(x) \nonumber \]

    sujeto a condiciones de límite. Podemos escribir tal ecuación en forma de operador definiendo el operador diferencial

    \[L=a_{2}(x) \dfrac{d^{2}}{d x^{2}}+a_{1}(x) \dfrac{d}{d x}+a_{0}(x) . \nonumber \]

    Entonces, la Ecuación (6.1) toma la forma

    \[L y=f \text {. } \nonumber \]

    Como vimos en el problema general del valor límite (4.20) en la Sección 4.3.2, podemos resolver algunas ecuaciones usando expansiones de valor propio. A saber, buscamos soluciones al problema del valor propio

    \[L \phi=\lambda \phi \nonumber \]

    con condiciones de límite homogéneas y luego buscar una solución como una expansión de las funciones propias. Formalmente, dejamos

    \[y=\sum_{n=1}^{\infty} c_{n} \phi_{n} \nonumber \]

    Sin embargo, no se nos garantiza un buen conjunto de funciones propias. Necesitamos un conjunto apropiado para formar una base en el espacio de funciones. Además, sería bueno tener ortogonalidad para que podamos resolver fácilmente para los coeficientes de expansión como se hizo en la Sección 4.3.2. [De lo contrario, tendríamos que resolver un sistema acoplado infinito de ecuaciones algebraicas en lugar de un sistema desacoplado y diagonal.]

    Resulta que cualquier operador lineal de segundo orden se puede convertir en un operador que posea las propiedades correctas (autoadjointedness para llevar a cabo este procedimiento. El operador resultante se conoce como un operador de Sturm-Liouville. Destacaremos algunas de las propiedades de dichos operadores y probaremos algunos teoremas clave, aunque esta no será una revisión extensa de la teoría de SturmLiouville. El lector interesado puede revisar la literatura y textos más avanzados para un análisis más profundo.

    Definimos al operador de Sturm-Liouville como

    \[\mathcal{L}=\dfrac{d}{d x} p(x) \dfrac{d}{d x}+q(x) \nonumber \]

    El problema del valor propio de Sturm-Liouville viene dado por la ecuación diferencial

    \[\mathcal{L} u=-\lambda \sigma(x) u \nonumber \]

    \[\dfrac{d}{d x}\left(p(x) \dfrac{d u}{d x}\right)+q(x) u+\lambda \sigma(x) u=0 \nonumber \]

    para\(x \in(a, b)\). Las funciones\(p(x), p^{\prime}(x), q(x)\) y\(\sigma(x)\) se supone que son continuas una\((a, b)\) y\(p(x)>0, \sigma(x)>0\) otra vez\([a, b]\). Si el intervalo es finito y estas suposiciones sobre los coeficientes son verdaderas\([a, b]\), entonces se dice que el problema es regular. De lo contrario, se le llama singular.

    También necesitamos imponer el conjunto de condiciones de contorno homogéneas

    \[\begin{array}{r} \alpha_{1} u(a)+\beta_{1} u^{\prime}(a)=0 \\ \alpha_{2} u(b)+\beta_{2} u^{\prime}(b)=0 \end{array} \nonumber \]

    Los\(\alpha\)\(\beta\)'s y los son constantes. Para diferentes valores, uno tiene tipos especiales de condiciones de contorno. Porque\(\beta_{i}=0\), tenemos lo que se llaman condiciones de contorno de Dirichlet. A saber,\(u(a)=0\) y\(u(b)=0\). Porque\(\alpha_{i}=0\), tenemos condiciones de límite de Neumann. En este caso,\(u^{\prime}(a)=0\) y\(u^{\prime}(b)=0\). En términos del ejemplo de la ecuación de calor, las condiciones de Dirichlet corresponden a mantener una temperatura fija en los extremos de la varilla. Las condiciones límite de Neumann corresponderían a no flujo de calor a través de los extremos, o condiciones aislantes, ya que no habría gradiente de temperatura en esos puntos. Las condiciones de contorno más generales permiten límites parcialmente aislados.

    Otro tipo de condición de límite que a menudo se encuentra es la condición de límite periódica. Considera la varilla calentada que ha sido doblada para formar un círculo. Entonces los dos puntos finales son físicamente iguales. Entonces, esperaríamos que la temperatura y el gradiente de temperatura coincidieran en esos puntos. Para este caso escribimos\(u(a)=u(b)\) y\(u^{\prime}(a)=u^{\prime}(b)\). Los problemas de valor límite utilizando estas condiciones deben manejarse de manera diferente a las condiciones homogéneas anteriores. Estas condiciones conducen a diferentes tipos de funciones propias y valores propios.

    Como se mencionó anteriormente, las ecuaciones de la forma (6.1) ocurren a menudo. Ahora mostramos que la Ecuación (6.1) se puede convertir en una ecuación diferencial de la forma SturmLiouville:

    \[\dfrac{d}{d x}\left(p(x) \dfrac{d y}{d x}\right)+q(x) y=F(x) \nonumber \]

    Otra forma de enunciar esto se proporciona en el teorema:

    Teorema 6.1. Cualquier operador lineal de segundo orden se puede poner en la forma del operador Sturm-Liouville (6.2).

    La prueba de ello es sencilla, como pronto mostraremos. Considera la ecuación (6.1). Si\(a_{1}(x)=a_{2}^{\prime}(x)\), entonces podemos escribir la ecuación en la forma

    \[\begin{aligned} f(x) &=a_{2}(x) y^{\prime \prime}+a_{1}(x) y^{\prime}+a_{0}(x) y \\ &=\left(a_{2}(x) y^{\prime}\right)^{\prime}+a_{0}(x) y \end{aligned} \nonumber \]

    Esto está en la forma correcta. Solo identificamos\(p(x)=a_{2}(x)\) y\(q(x)=a_{0}(x)\).

    Sin embargo, considere la ecuación diferencial

    \[x^{2} y^{\prime \prime}+x y^{\prime}+2 y=0 . \nonumber \]

    En este caso\(a_{2}(x)=x^{2}\) y\(a_{2}^{\prime}(x)=2 x \neq a_{1}(x)\). El operador diferencial lineal en esta ecuación no es del tipo Sturm-Liouville. Pero, podemos cambiarlo a un operador de Sturm Liouville.

    En el operador de Sturm Liouville los términos derivados se reúnen en una derivada perfecta. Esto es similar a lo que vimos en el primer capítulo cuando resolvimos ecuaciones lineales de primer orden. En ese caso se buscó un factor integrador. Aquí podemos hacer lo mismo. Buscamos una función multiplicativa por la\(\mu(x)\) que podamos multiplicar\((6.1)\) para que pueda escribirse en forma de Sturm-Liouville. Primero dividimos la\(a_{2}(x)\), dando

    \[y^{\prime \prime}+\dfrac{a_{1}(x)}{a_{2}(x)} y^{\prime}+\dfrac{a_{0}(x)}{a_{2}(x)} y=\dfrac{f(x)}{a_{2}(x)} . \nonumber \]

    Ahora, multiplicamos la ecuación diferencial por\(\mu\):

    \[\mu(x) y^{\prime \prime}+\mu(x) \dfrac{a_{1}(x)}{a_{2}(x)} y^{\prime}+\mu(x) \dfrac{a_{0}(x)}{a_{2}(x)} y=\mu(x) \dfrac{f(x)}{a_{2}(x)} \nonumber \]

    Los dos primeros términos ahora se pueden combinar en una derivada exacta\(\left(\mu y^{\prime}\right)^{\prime}\) si\(\mu(x)\) satisface

    \[\dfrac{d \mu}{d x}=\mu(x) \dfrac{a_{1}(x)}{a_{2}(x)} . \nonumber \]

    Esto se resuelve formalmente para dar

    \[\mu(x)=e^{\int \dfrac{a_{1}(x)}{a_{2}(x)} d x} . \nonumber \]

    Así, la ecuación original se puede multiplicar por factor

    \[\dfrac{\mu(x)}{a_{2}(x)}=\dfrac{1}{a_{2}(x)} e^{\int \dfrac{a_{1}(x)}{a_{2}(x)} d x} \nonumber \]

    para convertirlo en forma de Sturm-Liouville.

    En resumen,

    \[\begin{aligned} &\text { Equation (6.1), } \\ &\qquad a_{2}(x) y^{\prime \prime}+a_{1}(x) y^{\prime}+a_{0}(x) y=f(x) \end{aligned} \nonumber \]

    se puede poner en la forma de Sturm-Liouville

    \[\dfrac{d}{d x}\left(p(x) \dfrac{d y}{d x}\right)+q(x) y=F(x) \nonumber \]

    donde

    \[\begin{aligned} p(x) &=e^{\int \dfrac{a_{1}(x)}{a_{2}(x)} d x} \\ q(x) &=p(x) \dfrac{a_{0}(x)}{a_{2}(x)} \\ F(x) &=p(x) \dfrac{f(x)}{a_{2}(x)} \end{aligned} \nonumber \]

    Ejemplo 6.2. Para el ejemplo anterior,

    \[x^{2} y^{\prime \prime}+x y^{\prime}+2 y=0 . \nonumber \]

    Solo necesitamos multiplicar esta ecuación por

    \[\dfrac{1}{x^{2}} e^{\int \dfrac{d x}{x}}=\dfrac{1}{x}, \nonumber \]

    para poner la ecuación en forma de Sturm-Liouville:

    \[\begin{aligned} 0 &=x y^{\prime \prime}+y^{\prime}+\dfrac{2}{x} y \\ &=\left(x y^{\prime}\right)^{\prime}+\dfrac{2}{x} y \end{aligned} \nonumber \]

    Propiedades de Sturm-Liouville Eigenvalue Problems

    Hay varias propiedades que se pueden probar para el problema de valor propio de SturmLiouville (regular). Sin embargo, aquí no vamos a probarlos todos. Nos limitaremos a enumerar algunos de los hechos importantes y nos centraremos en algunas de las propiedades.

    1. Los valores propios son reales, contables, ordenados y hay un valor propio más pequeño. Así, podemos escribirlos como\(\lambda_{1}<\lambda_{2}<\ldots\). Sin embargo, no hay mayor valor propio y\(n \rightarrow \infty, \lambda_{n} \rightarrow \infty\).
    2. Para cada valor propio\(\lambda_{n}\) existe una función propia\(\phi_{n}\) con\(n-1\) ceros encendidos\((a, b)\).
    3. Las funciones propias correspondientes a diferentes valores propios son ortogonales con respecto a la función de peso,\(\sigma(x)\). Definir el producto interno de\(f(x)\) y\(g(x)\) como

    \[<f, g>=\int_{a}^{b} f(x) g(x) \sigma(x) d x \nonumber \]

    entonces la ortogonalidad de los eigenfunctios se puede escribir en la forma

    \[<\phi_{n}, \phi_{m}>=<\phi_{n}, \phi_{n}>\delta_{n m}, \quad n, m=1,2, \ldots \nonumber \]

    1. El conjunto de funciones propias es completo; es decir, cualquier función suave por tramos puede ser representada por una expansión generalizada de la serie de Fourier de las funciones propias,

    \[f(x) \sim \sum_{n=1}^{\infty} c_{n} \phi_{n}(x) \nonumber \]

    donde

    \[c_{n}=\dfrac{<f, \phi_{n}>}{<\phi_{n}, \phi_{n}>} \nonumber \]

    En realidad, se necesita\(f(x) \in L_{\sigma}^{2}[a, b]\), el conjunto de funciones integrables cuadradas sobre\([a, b]\) con función de peso\(\sigma(x)\). Por cuadrado integrable, queremos decir eso\(<f, f><\infty\). Se puede demostrar que tal espacio es isomórfico a un espacio de Hilbert, un espacio de producto interno completo.

    1. Multiplicar el problema del valor propio

    \[\mathcal{L} \phi_{n}=-\lambda_{n} \sigma(x) \phi_{n} \nonumber \]

    por\(\phi_{n}\) e integrar. Resuelve este resultado para\(\lambda_{n}\), para encontrar el cociente Rayleigh

    \[\lambda_{n}=\dfrac{-\left.p \phi_{n} \dfrac{d \phi_{n}}{d x}\right|_{a} ^{b}-\int_{a}^{b}\left[p\left(\dfrac{d \phi_{n}}{d x}\right)^{2}-q \phi_{n}^{2}\right] d x}{<\phi_{n}, \phi_{n}>} \nonumber \]

    El cociente Rayleigh es útil para obtener estimaciones de valores propios y probar algunas de las otras propiedades. Ejemplo 6.3. Buscamos las funciones propias del operador que se encuentran en el Ejemplo 6.2. A saber, queremos resolver el problema del valor propio

    \[\mathcal{L} y=\left(x y^{\prime}\right)^{\prime}+\dfrac{2}{x} y=-\lambda \sigma y \nonumber \]

    sujeto a un conjunto de condiciones de contorno. Vamos a usar las condiciones de contorno

    \[y^{\prime}(1)=0, \quad y^{\prime}(2)=0 \nonumber \]

    [Tenga en cuenta que\(\sigma(x)\) aún no lo sabemos, pero elegiremos una función adecuada para obtener soluciones.]

    Ampliando el derivado, tenemos

    \[x y^{\prime \prime}+y^{\prime}+\dfrac{2}{x} y=-\lambda \sigma y . \nonumber \]

    Multiplicar por\(x\) para obtener

    \[x^{2} y^{\prime \prime}+x y^{\prime}+(2+\lambda x \sigma) y=0 \nonumber \]

    Observe que si elegimos\(\sigma(x)=x^{-1}\), entonces esta ecuación se puede hacer una ecuación de tipo Cauchy-Euler. Así, tenemos

    \[x^{2} y^{\prime \prime}+x y^{\prime}+(\lambda+2) y=0 . \nonumber \]

    La ecuación característica es

    \[r^{2}+\lambda+2=0 . \nonumber \]

    Para soluciones oscilatorias, necesitamos\(\lambda+2>0\). Así, la solución general es

    \[y(x)=c_{1} \cos (\sqrt{\lambda+2} \ln |x|)+c_{2} \sin (\sqrt{\lambda+2} \ln |x|) . \nonumber \]

    A continuación aplicamos las condiciones de contorno. \(y^{\prime}(1)=0\)fuerzas\(c_{2}=0\). Esto deja

    \[y(x)=c_{1} \cos (\sqrt{\lambda+2} \ln x) . \nonumber \]

    La segunda condición,\(y^{\prime}(2)=0\), rinde

    \[\sin (\sqrt{\lambda+2} \ln 2)=0 \nonumber \]

    Esto dará soluciones no triviales cuando

    \[\sqrt{\lambda+2} \ln 2=n \pi, \quad n=0,1,2,3 \ldots \nonumber \]

    En resumen, las funciones propias para este problema de valor propio son

    \[y_{n}(x)=\cos \left(\dfrac{n \pi}{\ln 2} \ln x\right), \quad 1 \leq x \leq 2 \nonumber \]

    y los valores propios son\(\lambda_{n}=2+\left(\dfrac{n \pi}{\ln 2}\right)^{2}\) para\(n=0,1,2, \ldots\)

    Nota: Incluimos el\(n=0\) caso porque\(y(x)=\) constante es una solución del\(\lambda=-2\) caso. Más específicamente, en este caso la ecuación característica se reduce a\(r^{2}=0\). Así, la solución general de esta ecuación de Cauchy-Euler es

    \[y(x)=c_{1}+c_{2} \ln |x| \nonumber \]

    Ajuste\(y^{\prime}(1)=0\), las fuerzas\(c_{2}=0 . y^{\prime}(2)\) se desvanecen automáticamente, dejando la solución en este caso como\(y(x)=c_{1}\).

    Observamos que algunas de las propiedades listadas al inicio de la sección se mantienen para este ejemplo. Los valores propios son vistos como reales, contables y ordenados. Hay al menos uno,\(\lambda=2\). A continuación, se pueden encontrar los ceros de cada función propia encendida\([1,2]\). Entonces el argumento del coseno,\(\dfrac{n \pi}{\ln 2} \ln x\), toma valores 0 a\(n \pi\) for\(x \in[1,2]\). La función coseno tiene\(n-1\) raíces en este intervalo.

    También se puede verificar la ortogonalidad. Configuramos la integral y usamos la sustitución\(y=\pi \ln x / \ln 2\). Esto da

    \[\begin{aligned} <y_{n}, y_{m}>&=\int_{1}^{2} \cos \left(\dfrac{n \pi}{\ln 2} \ln x\right) \cos \left(\dfrac{m \pi}{\ln 2} \ln x\right) \dfrac{d x}{x} \\ &=\dfrac{\ln 2}{\pi} \int_{0}^{\pi} \cos n y \cos m y d y \\ &=\dfrac{\ln 2}{2} \delta_{n, m} \end{aligned} \nonumber \]

    Operadores Adjoint

    En el estudio de la teoría espectral de las matrices, se aprende sobre lo colindante de la matriz\(A^{\dagger}\), y el papel que juegan las matrices autoagregantes, o hermitianas, en la diagonalización. Además, se necesita el concepto de adjunto para discutir la existencia de soluciones al problema de la matriz \(\mathbf{y}=A \mathbf{x}\). En el mismo espíritu, uno está interesado en la existencia de soluciones de la ecuación operadora\(L u=f\) y soluciones del problema del valor propio correspondiente. El estudio del operador lineal en espacios Hilbert es una generalización de lo que el lector había visto en un curso de álgebra lineal.

    Así como se puede encontrar una base de vectores propios y diagonalizar matrices hermitianas, o autoadjoint, (o, simétricas reales en el caso de matrices reales), veremos que el operador de Sturm-Liouville es autoadjoint. En esta sección definiremos el dominio de un operador e introduciremos la noción de operadores anexos. En la última sección discutimos el papel que juega el adjepunto en la existencia de soluciones a la ecuación del operador\(L u=f\).

    Primero introducimos algunas definiciones.

    Definición 6.4. El dominio de un operador diferencial\(L\) es el conjunto de todos que\(u \in\)\(L_{\sigma}^{2}[a, b]\) satisfacen un conjunto dado de condiciones de límite homogéneas.

    Definición 6.5. El adjunto,\(L^{\dagger}\), de operador\(L\) satisface

    \[<u, L v>=<L^{\dagger} u, v> \nonumber \]

    para todos\(v\) en el dominio de\(L\) y\(u\) en el dominio de\(L^{\dagger}\).

    Ejemplo 6.6. A modo de ejemplo, encontramos el operador adjunto de diferencial lineal de segundo orden\(L=a_{2}(x) \dfrac{d^{2}}{d x^{2}}+a_{1}(x) \dfrac{d}{d x}+a_{0}(x)\).

    Para encontrar el adjunto, colocamos al operador bajo una integral. Entonces, consideramos que el producto interno

    \[<u, L v>=\int_{a}^{b} u\left(a_{2} v^{\prime \prime}+a_{1} v^{\prime}+a_{0} v\right) d x \nonumber \]

    Tenemos que mover al operador\(L\)\(v\) y determinar\(u\) en qué operador está actuando para preservar formalmente el producto interno. Para un operador simple como\(L=\dfrac{d}{d x}\), esto se hace fácilmente usando la integración por partes. Para el operador dado, necesitaremos aplicar varias integraciones por partes a los términos individuales. Consideraremos los términos individuales.

    Primero consideramos el\(a_{1} v^{\prime}\) término. Integración por rendimientos de piezas

    \[\int_{a}^{b} u(x) a_{1}(x) v^{\prime}(x) d x=\left.a_{1}(x) u(x) v(x)\right|_{a} ^{b}-\int_{a}^{b}\left(u(x) a_{1}(x)\right)^{\prime} v(x) d x \nonumber \]

    Ahora, consideramos el\(a_{2} v^{\prime \prime}\) término. En este caso se necesitarán dos integraciones por partes:

    \[\begin{aligned} \int_{a}^{b} u(x) a_{2}(x) v^{\prime \prime}(x) d x &=\left.a_{2}(x) u(x) v^{\prime}(x)\right|_{a} ^{b}-\int_{a}^{b}\left(u(x) a_{2}(x)\right)^{\prime} v(x)^{\prime} \\ =& {\left.\left[a_{2}(x) u(x) v^{\prime}(x)-\left(a_{2}(x) u(x)\right)^{\prime} v(x)\right]\right|_{a} ^{b} } \\ &+\int_{a}^{b}\left(u(x) a_{2}(x)\right)^{\prime \prime} v(x) d x \end{aligned} \nonumber \]

    Combinando estos resultados, obtenemos

    \[\begin{aligned} <u, L v>&=\int_{a}^{b} u\left(a_{2} v^{\prime \prime}+a_{1} v^{\prime}+a_{0} v\right) d x \\ =& {\left.\left[a_{1}(x) u(x) v(x)+a_{2}(x) u(x) v^{\prime}(x)-\left(a_{2}(x) u(x)\right)^{\prime} v(x)\right]\right|_{a} ^{b} } \\ &+\int_{a}^{b}\left[\left(a_{2} u\right)^{\prime \prime}-\left(a_{1} u\right)^{\prime}+a_{0} u\right] v d x \end{aligned} \nonumber \]

    Insertando las condiciones de contorno para\(v\), uno tiene que determinar las condiciones de contorno para\(u\) tal que

    \[\left.\left[a_{1}(x) u(x) v(x)+a_{2}(x) u(x) v^{\prime}(x)-\left(a_{2}(x) u(x)\right)^{\prime} v(x)\right]\right|_{a} ^{b}=0 \nonumber \]

    Esto deja

    \[<u, L v>=\int_{a}^{b}\left[\left(a_{2} u\right)^{\prime \prime}-\left(a_{1} u\right)^{\prime}+a_{0} u\right] v d x \equiv<L^{\dagger} u, v>. \nonumber \]

    Por lo tanto,

    \[L^{\dagger}=\dfrac{d^{2}}{d x^{2}} a_{2}(x)-\dfrac{d}{d x} a_{1}(x)+a_{0}(x) \nonumber \]

    Cuando\(L^{\dagger}=L\), al operador se le llama formalmente autoadjoint. Cuando el dominio de\(L\) es el mismo que el dominio de\(L^{\dagger}\), se utiliza el término autoadjoint. Como el dominio es importante para establecer la autounión, necesitamos hacer un ejemplo completo en el que se encuentre el dominio de lo colindante.

    Ejemplo 6.7. Determine\(L^{\dagger}\) y su dominio para operador\(L u=\dfrac{d u}{d x}\) donde\(u\) satisfaga las condiciones de contorno\(u(0)=2 u(1)\) en\([0,1]\).

    Necesitamos encontrar al operador adjunto satisfactorio\(<v, L u>=<L^{\dagger} v, u>\). Por lo tanto, reescribimos la integral

    \[<v, L u>=\int_{0}^{1} v \dfrac{d u}{d x} d x=\left.u v\right|_{0} ^{1}-\int_{0}^{1} u \dfrac{d v}{d x} d x=<L^{\dagger} v, u>\text {. } \nonumber \]

    De esto tenemos el problema adjunto que consiste en un operador contiguo y la condición límite asociada:

    1. \(L^{\dagger}=-\dfrac{d}{d x}\)
    2. \(\left.u v\right|_{0} ^{1}=0 \Rightarrow 0=u(1)[v(1)-2 v(0)] \Rightarrow v(1)=2 v(0)\)

    Identidades de Lagrange y Green

    Antes de pasar a las pruebas de que los valores propios de un problema de Sturm-Liouville son reales y las funciones propias asociadas ortogonales, primero necesitaremos introducir dos identidades importantes. Para el operador de Sturm-Liouville,

    \[\mathcal{L}=\dfrac{d}{d x}\left(p \dfrac{d}{d x}\right)+q \nonumber \]

    tenemos las dos identidades:

    Identidad de Lagrange\(u \mathcal{L} v-v \mathcal{L} u=\left[p\left(u v^{\prime}-v u^{\prime}\right)\right]^{\prime}\).

    Identidad de Green\(\int_{a}^{b}(u \mathcal{L} v-v \mathcal{L} u) d x=\left.\left[p\left(u v^{\prime}-v u^{\prime}\right)\right]\right|_{a} ^{b}\).

    Prueba. La prueba de identidad de Lagrange sigue por una simple manipulación del operador:

    \[\begin{aligned} u \mathcal{L} v-v \mathcal{L} u &=u\left[\dfrac{d}{d x}\left(p \dfrac{d v}{d x}\right)+q v\right]-v\left[\dfrac{d}{d x}\left(p \dfrac{d u}{d x}\right)+q u\right] \\ &=u \dfrac{d}{d x}\left(p \dfrac{d v}{d x}\right)-v \dfrac{d}{d x}\left(p \dfrac{d u}{d x}\right) \\ &=u \dfrac{d}{d x}\left(p \dfrac{d v}{d x}\right)+p \dfrac{d u}{d x} \dfrac{d v}{d x}-v \dfrac{d}{d x}\left(p \dfrac{d u}{d x}\right)-p \dfrac{d u}{d x} \dfrac{d v}{d x} \\ &=\dfrac{d}{d x}\left[p u \dfrac{d v}{d x}-p v \dfrac{d u}{d x}\right] \end{aligned} \nonumber \]

    La identidad de Green simplemente se prueba integrando la identidad de Lagrange.

    Ortogonalidad y Realidad

    Ahora estamos listos para demostrar que los valores propios de un problema de Sturm-Liouville son reales y las funciones propias correspondientes son ortogonales. Éstos se establecen fácilmente utilizando la identidad de Green, que a su vez es una declaración sobre el operador de Sturm-Liouville siendo uno mismo.

    Teorema 6.8. Los valores propios del problema de Sturm-Liouville son reales.

    Prueba. \(\phi_{n}(x)\)Sea una solución al problema del valor propio asociado a\(\lambda_{n}\):

    \[\mathcal{L} \phi_{n}=-\lambda_{n} \sigma \phi_{n} . \nonumber \]

    El complejo conjugado de esta ecuación es

    \[\mathcal{L} \bar{\phi}_{n}=-\bar{\lambda}_{n} \sigma \bar{\phi}_{n} . \nonumber \]

    Ahora, multiplica la primera ecuación por\(\bar{\phi}_{n}\) y la segunda ecuación por\(\phi_{n}\) y luego resta los resultados. Obtenemos

    \[\bar{\phi}_{n} \mathcal{L} \phi_{n}-\phi_{n} \mathcal{L} \bar{\phi}_{n}=\left(\bar{\lambda}_{n}-\lambda_{n}\right) \sigma \phi_{n} \bar{\phi}_{n} \nonumber \]

    Integrar ambos lados de esta ecuación:

    \[\int_{a}^{b}\left(\bar{\phi}_{n} \mathcal{L} \phi_{n}-\phi_{n} \mathcal{L} \bar{\phi}_{n}\right) d x=\left(\bar{\lambda}_{n}-\lambda_{n}\right) \int_{a}^{b} \sigma \phi_{n} \bar{\phi}_{n} d x \nonumber \]

    Aplica la identidad de Green al lado izquierdo para encontrar

    \[\left.\left[p\left(\bar{\phi}_{n} \phi_{n}^{\prime}-\phi_{n} \bar{\phi}_{n}^{\prime}\right)\right]\right|_{a} ^{b}=\left(\bar{\lambda}_{n}-\lambda_{n}\right) \int_{a}^{b} \sigma \phi_{n} \bar{\phi}_{n} d x \nonumber \]

    Usando las condiciones de contorno homogéneas para un operador autounido, el lado izquierdo se desvanece para dar

    \[0=\left(\bar{\lambda}_{n}-\lambda_{n}\right) \int_{a}^{b} \sigma\left\|\phi_{n}\right\|^{2} d x \nonumber \]

    La integral no es negativa, por lo que debemos tener\(\bar{\lambda}_{n}=\lambda_{n}\). Por lo tanto, los valores propios son reales. Teorema 6.9. Las funciones propias correspondientes a diferentes valores propios del problema de Sturm-Liouville son ortogonales.

    Prueba. Esto se demuestra similar al último teorema. Dejar\(\phi_{n}(x)\) ser una solución al problema del valor propio asociado con\(\lambda_{n}\)

    \[\mathcal{L} \phi_{n}=-\lambda_{n} \sigma \phi_{n}, \nonumber \]

    y dejar de\(\phi_{m}(x)\) ser una solución del problema del valor propio asociado con\(\lambda_{m} \neq\)\(\lambda_{n}\)

    \[\mathcal{L} \phi_{m}=-\lambda_{m} \sigma \phi_{m}, \nonumber \]

    Ahora, multiplica la primera ecuación por\(\phi_{m}\) y la segunda por\(\phi_{n}\). Restando los resultados, obtenemos

    \[\phi_{m} \mathcal{L} \phi_{n}-\phi_{n} \mathcal{L} \phi_{m}=\left(\lambda_{m}-\lambda_{n}\right) \sigma \phi_{n} \phi_{m} \nonumber \]

    Similar a la prueba anterior, integramos ambos lados de la ecuación y usamos la identidad de Green y las condiciones de límite para un operador autounido. Esto deja

    \[0=\left(\lambda_{m}-\lambda_{n}\right) \int_{a}^{b} \sigma \phi_{n} \phi_{m} d x . \nonumber \]

    Como los valores propios son distintos, podemos dividirlos por\(\lambda_{m}-\lambda_{n}\), dejando el resultado deseado,

    \[\int_{a}^{b} \sigma \phi_{n} \phi_{m} d x=0 . \nonumber \]

    Por lo tanto, las funciones propias son ortogonales con respecto a la función de peso\(\sigma(x)\).

    El cociente de Rayleigh

    El cociente Rayleigh es útil para obtener estimaciones de valores propios y probar algunas de las otras propiedades asociadas con problemas de valores propios de Sturm-Liouville. Comenzamos multiplicando el problema del valor propio

    \[\mathcal{L} \phi_{n}=-\lambda_{n} \sigma(x) \phi_{n} \nonumber \]

    por\(\phi_{n}\) e integrando. Esto da

    \[\int_{a}^{b}\left[\phi_{n} \dfrac{d}{d x}\left(p \dfrac{d \phi_{n}}{d x}\right)+q \phi_{n}^{2}\right] d x=-\lambda \int_{a}^{b} \phi_{n}^{2} d x \nonumber \]

    Uno puede resolver la última ecuación\(\lambda\) para encontrar

    \[\lambda=\dfrac{-\int_{a}^{b}\left[\phi_{n} \dfrac{d}{d x}\left(p \dfrac{d \phi_{n}}{d x}\right)+q \phi_{n}^{2}\right] d x}{\int_{a}^{b} \phi_{n}^{2} \sigma d x} \nonumber \]

    Parece que hemos resuelto por el valor propio y no hemos necesitado la maquinaria que habíamos desarrollado en el Capítulo 4 para estudiar problemas de valor límite. Sin embargo, realmente no podemos evaluar esta expresión porque\(\phi_{n}(x)\) aún no conocemos las funciones propias. Sin embargo, veremos qué podemos determinar.

    Se puede reescribir este resultado realizando una integración por partes en el primer término en el numerador. A saber, pick\(u=\phi_{n}\) y\(d v=\dfrac{d}{d x}\left(p \dfrac{d \phi_{n}}{d x}\right) d x\) para la integración estándar por fórmula de piezas. Entonces, tenemos

    \[\int_{a}^{b} \phi_{n} \dfrac{d}{d x}\left(p \dfrac{d \phi_{n}}{d x}\right) d x=\left.p \phi_{n} \dfrac{d \phi_{n}}{d x}\right|_{a} ^{b}-\int_{a}^{b}\left[p\left(\dfrac{d \phi_{n}}{d x}\right)^{2}-q \phi_{n}^{2}\right] d x \nonumber \]

    Insertar la nueva fórmula en la expresión for\(\lambda\), conduce al cociente de Rayleigh

    \[\lambda_{n}=\dfrac{-\left.p \phi_{n} \dfrac{d \phi_{n}}{d x}\right|_{a} ^{b}+\int_{a}^{b}\left[p\left(\dfrac{d \phi_{n}}{d x}\right)^{2}-q \phi_{n}^{2}\right] d x}{\int_{a}^{b} \phi_{n}^{2} \sigma d x} . \nonumber \]

    En muchas aplicaciones es importante el signo del valor propio. Como habíamos visto en la solución de la ecuación del calor,\(T^{\prime}+k \lambda T=0\). Como esperamos que la energía térmica se difunda, las soluciones deberían decairse con el tiempo. Así, esperaríamos\(\lambda>0\). Al estudiar la ecuación de onda, se esperan vibraciones y éstas sólo son posibles con el signo correcto del valor propio (positivo otra vez). Así, para tener valores propios no negativos, vemos en (6.21) que

    a.\(q(x) \leq 0\), y

    b.\(-\left.p \phi_{n} \dfrac{d \phi_{n}}{d x}\right|_{a} ^{b} \geq 0\)

    Además, si\(\lambda\) es un valor propio cero, entonces\(q(x) \equiv 0\) y\(\alpha_{1}=\alpha_{2}=0\) en las condiciones de límite homogéneas. Esto se puede ver estableciendo el numerador igual a cero. Entonces,\(q(x)=0\) y\(\phi_{n}^{\prime}(x)=0\). La segunda de estas condiciones insertada en las condiciones de límite obliga a la restricción sobre el tipo de condiciones de límite.

    Una de las propiedades (no probadas aquí) de los problemas de valores propios de Sturm-Liouville con condiciones de límite homogéneas es que los valores propios están ordenados,\(\lambda_{1}<\lambda_{2}<\ldots\). Así, hay un valor propio más pequeño. Resulta que para cualquier función continua,\(y(x)\)

    \[\lambda_{1}=\min _{y(x)} \dfrac{-\left.p y \dfrac{d y}{d x}\right|_{a} ^{b}+\int_{a}^{b}\left[p\left(\dfrac{d y}{d x}\right)^{2}-q y^{2}\right] d x}{\int_{a}^{b} y^{2} \sigma d x} \nonumber \]

    y este mínimo se obtiene cuando\(y(x)=\phi_{1}(x)\). Este resultado se puede utilizar para obtener estimaciones del valor propio mínimo mediante el uso de funciones de prueba que son continuas y satisfacen las condiciones límite, pero no necesariamente satisfacen la ecuación diferencial. Ejemplo 6.10. Ya hemos resuelto el problema del valor propio\(\phi^{\prime \prime}+\lambda \phi=0\),\(\phi(0)=0, \phi(1)=0\). En este caso, el valor propio más bajo es\(\lambda_{1}=\pi^{2}\). Podemos escoger una buena función satisfaciendo las condiciones de contorno, digamos\(y(x)=x-x^{2}\) Insertando esto en la Ecuación (6.22), encontramos

    \[\lambda_{1} \leq \dfrac{\int_{0}^{1}(1-2 x)^{2} d x}{\int_{0}^{1}\left(x-x^{2}\right)^{2} d x}=10 \nonumber \]

    En efecto,\(10 \geq \pi^{2}\)

    El método de expansión de la función propia

    En la sección\(4.3 .2\) vimos generalmente cómo se pueden usar las funciones propias de un operador diferencial para resolver un problema de valor límite no homogéneo. En este capítulo hemos visto que los problemas de valores propios de Sturm-Liouville tienen el conjunto requerido de funciones propias ortogonales. En esta sección aplicaremos el método de expansión de función propia para resolver un problema de valor límite no homogéneo en particular.

    Recordemos que uno comienza con una ecuación diferencial no homogénea

    \[\mathcal{L} y=f, \nonumber \]

    donde\(y(x)\) es satisfacer determinadas condiciones de contorno homogéneas. El método hace uso de las funciones propias que satisfacen el problema del valor propio

    \[\mathcal{L} \phi_{n}=-\lambda_{n} \sigma \phi_{n} \nonumber \]

    sujeto a las condiciones de límite dadas. Entonces, se asume que se\(y(x)\) puede escribir como una expansión en las funciones propias,

    \[y(x)=\sum_{n=1}^{\infty} c_{n} \phi_{n}(x), \nonumber \]

    e inserta la expansión en la ecuación no homogénea. Esto da

    \[f(x)=\mathcal{L}\left(\sum_{n=1}^{\infty} c_{n} \phi_{n}(x)\right)=-\sum_{n=1}^{\infty} c_{n} \lambda_{n} \sigma(x) \phi_{n}(x) \nonumber \]

    Los coeficientes de expansión se encuentran entonces haciendo uso de la ortogonalidad de las funciones propias. A saber, multiplicamos la última ecuación por\(\phi_{m}(x)\) e integramos. Obtenemos

    \[\int_{a}^{b} f(x) \phi_{m}(x) d x=-\sum_{n=1}^{\infty} c_{n} \lambda_{n} \int_{a}^{b} \phi_{n}(x) \phi_{m}(x) \sigma(x) d x \nonumber \]

    Rendimientos de ortogonalidad

    \[\int_{a}^{b} f(x) \phi_{m}(x) d x=-c_{m} \lambda_{m} \int_{a}^{b} \phi_{m}^{2}(x) \sigma(x) d x \nonumber \]

    Resolviendo para\(c_{m}\), tenemos

    \[c_{m}=-\dfrac{\int_{a}^{b} f(x) \phi_{m}(x) d x}{\lambda_{m} \int_{a}^{b} \phi_{m}^{2}(x) \sigma(x) d x} . \nonumber \]

    Ejemplo 6.11. Como ejemplo, consideramos la solución del problema del valor límite

    \[\begin{aligned} \left(x y^{\prime}\right)^{\prime}+\dfrac{y}{x} &=\dfrac{1}{x}, \quad x \in[1, e], \\ y(1) &=0=y(e) . \end{aligned} \nonumber \]

    Esta ecuación ya está en forma autoadjoint. Entonces, sabemos que el problema asociado de valores propios de Sturm-Liouville tiene un conjunto ortogonal de funciones propias. Primero determinamos este conjunto. A saber, tenemos que resolver

    \[\left(x \phi^{\prime}\right)^{\prime}+\dfrac{\phi}{x}=-\lambda \sigma \phi, \quad \phi(1)=0=\phi(e) . \nonumber \]

    Reordenando los términos y multiplicando por\(x\), tenemos que

    \[x^{2} \phi^{\prime \prime}+x \phi^{\prime}+(1+\lambda \sigma x) \phi=0 . \nonumber \]

    Esta es casi una ecuación del tipo Cauchy-Euler. Escogiendo la función de peso\(\sigma(x)=\dfrac{1}{x}\), tenemos

    \[x^{2} \phi^{\prime \prime}+x \phi^{\prime}+(1+\lambda) \phi=0 . \nonumber \]

    Esto se resuelve fácilmente. La ecuación característica es

    \[r^{2}+(1+\lambda)=0 . \nonumber \]

    Se obtienen soluciones no triviales del problema del valor propio satisfaciendo las condiciones límite cuando\(\lambda>-1\). Las soluciones son

    \[\phi_{n}(x)=A \sin (n \pi \ln x), \quad n=1,2, \ldots \nonumber \]

    donde\(\lambda_{n}=n^{2} \pi^{2}-1\)

    A menudo es útil para normalizar las funciones propias. Esto significa que uno elige\(A\) para que la norma de cada función propia sea una. Así, tenemos

    \[\begin{aligned} 1 &=\int_{1}^{e} \phi_{n}(x)^{2} \sigma(x) d x \\ &=A^{2} \int_{1}^{e} \sin (n \pi \ln x) \dfrac{1}{x} d x \\ &=A^{2} \int_{0}^{1} \sin (n \pi y) d y=\dfrac{1}{2} A^{2} \end{aligned} \nonumber \]

    Así,\(A=\sqrt{2}\)

    Ahora giramos hacia la solución del problema no homogéneo,\(\mathcal{L} y=\dfrac{1}{x}\). Primero ampliamos la solución desconocida en términos de las funciones propias,

    \[y(x)=\sum_{n=1}^{\infty} c_{n} \sqrt{2} \sin (n \pi \ln x) . \nonumber \]

    Insertando esta solución en la ecuación diferencial, tenemos

    \[\dfrac{1}{x}=\mathcal{L} y=-\sum_{n=1}^{\infty} c_{n} \lambda_{n} \sqrt{2} \sin (n \pi \ln x) \dfrac{1}{x} \nonumber \]

    A continuación, hacemos uso de la ortogonalidad. Multiplicando ambos lados por\(\phi_{m}(x)=\)\(\sqrt{2} \sin (m \pi \ln x)\) e integrando, da

    \[\lambda_{m} c_{m}=\int_{1}^{e} \sqrt{2} \sin (m \pi \ln x) \dfrac{1}{x} d x=\dfrac{\sqrt{2}}{m \pi}\left[(-1)^{m}-1\right] . \nonumber \]

    Resolviendo para\(c_{m}\), tenemos

    \[c_{m}=\dfrac{\sqrt{2}}{m \pi} \dfrac{\left[(-1)^{m}-1\right]}{m^{2} \pi^{2}-1} . \nonumber \]

    Finalmente, insertamos nuestros coeficientes en la expansión para\(y(x)\). La solución es entonces

    \[y(x)=\sum_{n=1}^{\infty} \dfrac{2}{n \pi} \dfrac{\left[(-1)^{n}-1\right]}{n^{2} \pi^{2}-1} \sin (n \pi \ln (x)) . \nonumber \]

    El teorema alternativo de Fredholm

    Ante eso\(L y=f\), ¿cuándo se puede esperar encontrar una solución? ¿Es único? Estas preguntas son respondidas por el Teorema Alternativo de Fredholm. Este teorema ocurre en muchas formas desde una declaración sobre soluciones a sistemas de ecuaciones algebraicas hasta soluciones de problemas de valor límite y ecuaciones integrales. El teorema viene en dos partes, de ahí el término “alternativa”. O la ecuación tiene exactamente una solución para todos\(f\), o la ecuación tiene muchas soluciones para algunas\(f^{\prime}\) y ninguna para el resto.

    El lector está familiarizado con las afirmaciones de la Alternativa de Fredholm para la solución de sistemas de ecuaciones algebraicas. Se buscan soluciones del sistema\(A x=b\) para\(A\) una\(n \times m\) matriz. Definir la matriz contigua,\(A^{*}\) a través\(<A x, y>=<x, A^{*} y>\) para todos\(x, y, \in \mathcal{C}^{n}\), entonces ya sea

    Teorema 6.12. Primera Alternativa

    La ecuación\(A x=b\) tiene una solución si y sólo si\(<b, v>=0\) para todos\(v\) tales que\(A^{*} v=0\) Teorema 6.13. Segunda Alternativa

    \(A\)solución de\(A x=b\), si existe, es única si y sólo si\(x=0\) es la única solución de\(A x=0\).

    La segunda alternativa es más familiar cuando se da en la forma: La solución de un sistema no homogéneo de\(n\) ecuaciones e\(n\) incógnitas es única si la única solución al problema homogéneo es la solución cero. O, equivalentemente,\(A\) es invertible, o tiene un determinante distinto de cero.

    Prueba. Demostramos primero el segundo teorema. Supongamos que\(A x=0\) para\(x \neq 0\) y\(A x_{0}=b\). Entonces\(A\left(x_{0}+\alpha x\right)=b\) para todos\(\alpha\). Por lo tanto, la solución no es única. Por el contrario, si hay dos soluciones diferentes,\(x_{1}\) y\(x_{2}\), satisfactorias\(A x_{1}=b\) y\(A x_{2}=b\), entonces se tiene una solución distinta de cero\(x=x_{1}-x_{2}\) tal que\(A x=A\left(x_{1}-x_{2}\right)=0\).

    La prueba de la primera parte del primer teorema es simple. Dejar\(A^{*} v=0\) y\(A x_{0}=b\). Entonces tenemos

    \[<b, v>=<A x_{0}, v>=<x_{0}, A^{*} v>=0 . \nonumber \]

    Para la segunda parte asumimos que\(\langle b, v\rangle=0\) para todos\(v\) tales que\(A^{*} v=0\). Escribir\(b\) como la suma de una parte que está en el rango de\(A\) y una parte que en el espacio ortogonal al rango de\(A, b=b_{R}+b_{O}\). Entonces,\(0=<b_{O}, A x>=<\)\(A^{*} b, x>\) para todos\(x\). Así,\(A^{*} b_{O}\). Ya que\(\langle b, v>=0\) para todos\(v\) en el espacio nulo de\(A^{*}\), entonces\(<b, b_{O}>=0\). Por lo tanto,\(<b, v>=0\) implica que\(0=<b, O>=<\)\(b_{R}+b_{O}, b_{O}>=<b_{O}, b_{O}>\). Esto significa que\(b_{O}=0\), dar\(b=b_{R}\) está en el rango de\(A\). Entonces,\(A x=b\) tiene una solución.

    Ejemplo 6.14. Determinar las formas permitidas de\(\mathbf{b}\) para una solución\(A \mathbf{x}=\mathbf{b}\) de existir, donde

    \[A=\left(\begin{array}{ll} 1 & 2 \\ 3 & 6 \end{array}\right) \nonumber \]

    Primero tenga en cuenta que\(A^{*}=\bar{A}^{T}\). Esto se ve al mirar

    \[\begin{aligned} <A \mathbf{x}, \mathbf{y}>&=<\mathbf{x}, A^{*} \mathbf{y}>\\ \sum_{i=1}^{n} \sum_{j=1}^{n} a_{i j} x_{j} \bar{y}_{i} &=\sum_{j=1}^{n} x_{j} \sum_{j=1}^{n} a_{i j} \bar{y}_{i} \\ &=\sum_{j=1}^{n} x_{j} \sum_{j=1}^{n}\left(\bar{a}^{T}\right)_{j i} y_{i} \end{aligned} \nonumber \]

    Para este ejemplo,

    \[A^{*}=\left(\begin{array}{ll} 1 & 3 \\ 2 & 6 \end{array}\right) \nonumber \]

    A continuación resolvemos\(A^{*} \mathbf{v}=0\). Esto significa,\(v_{1}+3 v_{2}=0\). Entonces, el espacio nulo de\(A^{*}\) se extiende por\(\mathbf{v}=(3,-1)^{T}\). Para que una solución\(A \mathbf{x}=\mathbf{b}\) de existir,\(\mathbf{b}\) tendría que ser ortogonal a\(\mathbf{v}\). Por lo tanto, existe una solución cuando

    \[\mathbf{b}=\alpha\left(\begin{array}{l} 1 \\ 3 \end{array}\right) \nonumber \]

    Entonces, ¿qué dice esto sobre las soluciones de los problemas de valor límite? Existe una teoría más general para los operadores lineales. Las formulaciones de matriz siguen, ya que las matrices son simplemente representaciones de transformaciones lineales. Una declaración más general sería

    Teorema 6.15. Si\(L\) es un operador lineal acotado en un espacio Hilbert, entonces\(L y=f\) tiene una solución si y solo si\(<f, v>=0\) por cada\(v\) tal que\(L^{\dagger} v=0\)

    La declaración para problemas de valor límite es similar. No obstante, debemos tener cuidado para tratar las condiciones de los límites en nuestra declaración. Como hemos visto, después de varias integraciones por partes tenemos que

    \[<\mathcal{L} u, v>=S(u, v)+<u, \mathcal{L}^{\dagger} v> \nonumber \]

    donde\(S(u, v)\) involucra las condiciones de límite en\(u\) y\(v\). Tenga en cuenta que para condiciones de límite no homogéneas, este término puede que ya no desaparezca.

    Teorema 6.16. La solución del problema del valor límite\(\mathcal{L} u=f\) con las condiciones de contorno\(B u=g\) existe si y solo si

    \[<f, v>-S(u, v)=0 \nonumber \]

    para todos\(v\) satisfactorios\(\mathcal{L}^{\dagger} v=0\) y\(B^{\dagger} v=0\).

    Ejemplo 6.17. Considera el problema

    \[u^{\prime \prime}+u=f(x), \quad u(0)-u(2 \pi)=\alpha, u^{\prime}(0)-u^{\prime}(2 \pi)=\beta \nonumber \]

    Sólo ciertos valores de\(\alpha\) y\(\beta\) conducirán a soluciones. Primero notamos que\(L=L^{\dagger}\)

    \[\dfrac{d^{2}}{d x^{2}}+1 \nonumber \]

    Soluciones de

    \[L^{\dagger} v=0, \quad v(0)-v(2 \pi)=0, v^{\prime}(0)-v^{\prime}(2 \pi)=0 \nonumber \]

    se encuentran fácilmente para ser combinaciones lineales de\(v=\sin x\) y\(v=\cos x\). Siguiente computa

    \[\begin{aligned} S(u, v) &=\left[u^{\prime} v-u v^{\prime}\right]_{0}^{2 \pi} \\ &=u^{\prime}(2 \pi) v(2 \pi)-u(2 \pi) v^{\prime}(2 \pi)-u^{\prime}(0) v(0)+u(0) v^{\prime}(0) \end{aligned} \nonumber \]

    Para\(v(x)=\sin x\), esto rinde

    \[S(u, \sin x)=-u(2 \pi)+u(0)=\alpha \nonumber \]

    Del mismo modo,

    \[S(u, \cos x)=\beta \nonumber \]

    Usando\(<f, v>-S(u, v)=0\), esto lleva a las condiciones

    \[\begin{aligned} &\int_{0}^{2 \pi} f(x) \sin x d x=\alpha \\ &\int_{0}^{2 \pi} f(x) \cos x d x=\beta \end{aligned} \nonumber \]

    Problemas

    6.1. Encuentra el operador adjunto y su dominio para\(L u=u^{\prime \prime}+4 u^{\prime}-3 u, u^{\prime}(0)+\)\(4 u(0)=0, u^{\prime}(1)+4 u(1)=0\).

    6.2. Demostrar que un operador de Sturm-Liouville con condiciones de contorno periódicas encendido\([a, b]\) es autounido si y solo si\(p(a)=p(b)\). [Recordar, las condiciones de límite periódicas se dan como\(u(a)=u(b)\) y\(\left.u^{\prime}(a)=u^{\prime}(b) .\right]\)

    6.3. La ecuación diferencial de Hermite viene dada por\(y^{\prime \prime}-2 x y^{\prime}+\lambda y=0\). Reescribe esta ecuación en forma autoadjoint. A partir de la forma Sturm-Liouville obtenida, verificar que el operador diferencial esté auto adjunto en\((-\infty, \infty)\). Dar la forma integral para la ortogonalidad de las funciones propias.

    6.4. Encuentra los valores propios y las funciones propias de los problemas dados de Sturm-Liouville.

    a\(y^{\prime \prime}+\lambda y=0, y^{\prime}(0)=0=y^{\prime}(\pi)\).

    b\(\left(x y^{\prime}\right)^{\prime}+\dfrac{\lambda}{x} y=0, y(1)=y\left(e^{2}\right)=0\).

    6.5. El problema del valor propio\(x^{2} y^{\prime \prime}-\lambda x y^{\prime}+\lambda y=0\) con no\(y(1)=y(2)=0\) es un problema de valor propio de Sturm-Liouville. Demostrar que ninguno de los valores propios es real resolviendo este problema de valores propios.

    6.6. En Ejemplo\(6.10\) encontramos un límite en el valor propio más bajo para el problema de valor propio dado.

    a. Verificar el cómputo en el ejemplo. b. Aplicar el método usando

    \[y(x)=\left\{\begin{array}{cc} x, & 0<x<\dfrac{1}{2} \\ 1-x, & \dfrac{1}{2}<x<1 \end{array}\right. \nonumber \]

    ¿Es este un límite superior en\(\lambda_{1}\)

    c. Utilice el cociente Rayleigh para obtener un buen límite superior para el valor propio más bajo del problema del valor propio:\(\phi^{\prime \prime}+\left(\lambda-x^{2}\right) \phi=0, \phi(0)=0\),\(\phi^{\prime}(1)=0\).

    6.7. Utilice el método de expansiones de función propia para resolver el problema:

    \[y^{\prime \prime}+4 y=x^{2}, \quad y(0)=y(1)=0 \nonumber \]

    6.8. Determinar las condiciones de solvabilidad para el problema del valor límite no homogéneo:\(u^{\prime \prime}+4 u=f(x), u(0)=\alpha, u^{\prime}(1)=\beta\).

    Funciones especiales

    En este capítulo veremos algunas funciones adicionales que surgen a menudo en aplicaciones físicas y son funciones propias para algunos problemas de valor límite de Sturm-Liouville. Comenzamos con una colección de funciones especiales, llamadas polinomios ortogonales clásicos. Estas incluyen funciones polinómicas tales como los polinomios Legendre, los polinomios Hermite, los polinomios Tchebychef y Gegenbauer. Además, las funciones de Bessel ocurren con bastante frecuencia. Pasaremos más tiempo explorando las funciones de Legendre y Bessel. Estas funciones se encuentran típicamente como soluciones de ecuaciones diferenciales utilizando métodos de series de potencia en un primer curso en ecuaciones diferenciales.

    Polinomios ortogonales clásicos

    Comenzamos por señalar que la secuencia de funciones\(\left\{1, x, x^{2}, \ldots\right\}\) es una base de funciones linealmente independientes. De hecho, por el Teorema de Aproximación Stone-Weierstrass este conjunto es una base de\(L_{\sigma}^{2}(a, b)\), el espacio de las funciones integrables cuadradas sobre el intervalo\([a, b]\) relativo al peso\(\sigma(x)\). Estamos familiarizados con poder ampliar funciones sobre esta base, ya que las expansiones son solo representaciones de series de poder de las funciones,

    \[f(x) \sim \sum_{n=0}^{\infty} c_{n} x^{n} . \nonumber \]

    Sin embargo, esta base no es un conjunto ortogonal de funciones base. Uno puede ver esto fácilmente integrando el producto de dos funciones base pares, o dos impares, con\(\sigma(x)=1\) y\((a, b)=(-1,1)\). Por ejemplo,

    \[<1, x^{2}>=\int_{-1}^{1} x^{0} x^{2} d x=\dfrac{2}{3} \nonumber \]

    Dado que hemos encontrado que las bases ortogonales han sido útiles para determinar los coeficientes para expansiones de funciones dadas, podríamos preguntar si es posible obtener una base ortogonal que involucre estas potencias de\(x\). ¡Por supuesto, las combinaciones finitas de estos elementos base son solo polinomios!

    \(\mathrm{OK}\), vamos a preguntar. “Dado un conjunto de vectores de base linealmente independientes, ¿se puede encontrar una base ortogonal del espacio dado?” La respuesta es sí. Recordamos del álgebra lineal introductoria, que en su mayoría cubre espacios vectoriales de dimensiones finitas, que existe un método para llevar a cabo esto llamado Proceso de Ortogonalización GramSchmidt. Recordaremos este proceso para vectores dimensionales finitos y luego generalizaremos a espacios funcionales.

    imagen
    Figura 7.1. El fundamento\(\mathbf{a}_{1}, \mathbf{a}_{2}\), y\(\mathbf{a}_{3}\), de\(\mathbf{R}^{3}\) considerado en el texto.

    Supongamos que tenemos tres vectores que abarcan\(\mathbf{R}^{3}\), dados por\(\mathbf{a}_{1}, \mathbf{a}_{2}\),\(\mathbf{a}_{3}\) y que se muestran en la Figura 7.1. Buscamos una base ortogonal\(\mathbf{e}_{1}, \mathbf{e}_{2}\), y\(\mathbf{e}_{3}\), comenzando un vector a la vez.

    Primero tomamos uno de los vectores base originales, digamos\(\mathbf{a}_{1}\), y definimos

    \[\mathbf{e}_{1}=\mathbf{a}_{1} \nonumber \]

    Por supuesto, podríamos querer normalizar nuestros nuevos vectores base, por lo que denotaríamos tal vector normalizado con un “sombrero”:

    \[\hat{\mathbf{e}}_{1}=\dfrac{\mathbf{e}_{1}}{e_{1}}, \nonumber \]

    donde\(e_{1}=\sqrt{\mathbf{e}_{1} \cdot \mathbf{e}_{1}}\).

    imagen
    Figura 7.2. Una trama de los vectores\(\mathbf{e}_{1}, \mathbf{a}_{2}\), y\(\mathbf{e}_{2}\) necesaria para encontrar la proyección de\(\mathbf{a}_{2}\), en\(\mathbf{e}_{1}\)

    Tenga en cuenta que esto se prueba fácilmente escribiendo la proyección como un vector de longitud\(a_{2} \cos \theta\) en dirección\(\hat{\mathbf{e}}_{1}\), donde\(\theta\) está el ángulo entre\(\mathbf{e}_{1}\) y\(\mathbf{a}_{2}\). Usando la definición del producto punto,\(\mathbf{a} \cdot \mathbf{b}=a b \cos \theta\), sigue la fórmula de proyección.

    Combinando Ecuaciones (7.1) - (7.2), encontramos que

    \[\mathbf{e}_{2}=\mathbf{a}_{2}-\dfrac{\mathbf{a}_{2} \cdot \mathbf{e}_{1}}{e_{1}^{2}} \mathbf{e}_{1} \nonumber \]

    Es un asunto sencillo verificar que\(\mathbf{e}_{2}\) es ortogonal a\(\mathbf{e}_{1}\):

    \[\begin{aligned} \mathbf{e}_{2} \cdot \mathbf{e}_{1} &=\mathbf{a}_{2} \cdot \mathbf{e}_{1}-\dfrac{\mathbf{a}_{2} \cdot \mathbf{e}_{1}}{e_{1}^{2}} \mathbf{e}_{1} \cdot \mathbf{e}_{1} \\ &=\mathbf{a}_{2} \cdot \mathbf{e}_{1}-\mathbf{a}_{2} \cdot \mathbf{e}_{1}=0 \end{aligned} \nonumber \]

    Ahora, buscamos un tercer vector\(\mathbf{e}_{3}\) que sea ortogonal a ambos\(\mathbf{e}_{1}\) y\(\mathbf{e}_{2}\). Pictorialmente, podemos escribir el vector dado\(\mathbf{a}_{3}\) como una combinación de proyecciones vectoriales a lo largo\(\mathbf{e}_{1}\) y\(\mathbf{e}_{2}\) y el nuevo vector. Esto se muestra en la Figura 7.3. Entonces tenemos,

    \[\mathbf{e}_{3}=\mathbf{a}_{3}-\dfrac{\mathbf{a}_{3} \cdot \mathbf{e}_{1}}{e_{1}^{2}} \mathbf{e}_{1}-\dfrac{\mathbf{a}_{3} \cdot \mathbf{e}_{2}}{e_{2}^{2}} \mathbf{e}_{2} . \nonumber \]

    Nuevamente, es una cuestión sencilla calcular los productos escalares con\(\mathbf{e}_{1}\) y\(\mathbf{e}_{2}\) verificar la ortogonalidad.

    Podemos generalizar fácilmente el procedimiento al caso\(N\) -dimensional.

    Ortogonalización Gram-Schmidt en\(N\) -Dimensiones

    imagen
    Figura 7.3. Una gráfica de los vectores y sus proyecciones para determinar\(\mathbf{e}_{3}\).

    Ahora, podemos generalizar esta idea a espacios de función (reales).

    Ortogonalización Gram-Schmidt para Espacios Funcionales

    Let\(f_{n}(x), n \in N_{0}=\{0,1,2, \ldots\}\), ser una secuencia linealmente independiente de funciones continuas definidas para\(x \in[a, b]\). Entonces, una base ortogonal de funciones, se\(\phi_{n}(x), n \in N_{0}\) puede encontrar y es dada por

    \[\phi_{0}(x)=f_{0}(x) \nonumber \]

    y

    \[\phi_{n}(x)=f_{n}(x)-\sum_{j=0}^{n-1} \dfrac{<f_{n}, \phi_{j}>}{\left\|\phi_{j}\right\|^{2}} \phi_{j}(x), \quad n=1,2, \ldots \nonumber \]

    Aquí estamos utilizando productos internos relativos al peso\(\sigma(x)\),

    \[<f, g>=\int_{a}^{b} f(x) g(x) \sigma(x) d x \nonumber \]

    Observe la similitud entre la base ortogonal en (7.7) y la expresión para el caso dimensional finito en la Ecuación (7.6).

    Ejemplo 7.1. Aplicar el proceso de ortogonalización de Gram-Schmidt al conjunto\(f_{n}(x)=x^{n}, n \in N_{0}\), cuando\(x \in(-1,1)\) y\(\sigma(x)=1\).

    Primero, tenemos\(\phi_{0}(x)=f_{0}(x)=1\). Tenga en cuenta que

    \[\int_{-1}^{1} \phi_{0}^{2}(x) d x=\dfrac{1}{2} \nonumber \]

    Podríamos usar este resultado para fijar la normalización de nuestra nueva base, pero vamos a dejar de hacerlo por ahora.

    Ahora, calculamos el segundo elemento base:

    \[\begin{aligned} \phi_{1}(x) &=f_{1}(x)-\dfrac{<f_{1}, \phi_{0}>}{\left\|\phi_{0}\right\|^{2}} \phi_{0}(x) \\ &=x-\dfrac{<x, 1>}{\|1\|^{2}} 1=x \end{aligned} \nonumber \]

    ya que\(<x, 1>\) es la integral de una función impar sobre un intervalo simétrico.

    Para\(\phi_{2}(x)\), tenemos

    \[\begin{aligned} \phi_{2}(x) &=f_{2}(x)-\dfrac{<f_{2}, \phi_{0}>}{\left\|\phi_{0}\right\|^{2}} \phi_{0}(x)-\dfrac{<f_{2}, \phi_{1}>}{\left\|\phi_{1}\right\|^{2}} \phi_{1} \\ &=x^{2}-\dfrac{<x^{2}, 1>}{\|1\|^{2}} 1-\dfrac{<x^{2}, x>}{\|x\|^{2}} x \\ &=x^{2}-\dfrac{\int_{-1}^{1} x^{2} d x}{\int_{-1}^{1} d x} \\ &=x^{2}-\dfrac{1}{3} \end{aligned} \nonumber \]

    Hasta el momento, tenemos el conjunto ortogonal\(\left\{1, x, x^{2}-\dfrac{1}{3}\right\}\). Si uno elige normalizar estos forzando\(\phi_{n}(1)=1\), entonces se obtienen los polinomios clásicos de Legendre,\(P_{n}(x)=\phi_{1}(x)\). Así,

    \[P_{2}(x)=\dfrac{1}{2}\left(3 x^{2}-1\right) . \nonumber \]

    Tenga en cuenta que esta normalización es diferente a la habitual. De hecho, vemos que\(P_{2}(x)\) no tiene norma unitaria,

    \[\left\|P_{2}\right\|^{2}=\int_{-1}^{1} P_{2}^{2}(x) d x=\dfrac{2}{5} \nonumber \]

    El conjunto de polinomios de Legendre es solo un conjunto de polinomios ortogonales clásicos que se pueden obtener de esta manera. Muchos habían aparecido originalmente como soluciones de importantes problemas de valor límite en la física. Todos ellos tienen propiedades similares y solo elaboraremos algunas de estas para las funciones de Legendre en la siguiente sección. Otros polinomios ortogonales de este grupo se muestran en la Tabla\(7.1\).

    Como referencia, también observamos las ecuaciones diferenciales satisfechas por estas funciones.

    \(7.2\)Polinomios de Legendre

    En la última sección vimos los polinomios de Legendre en el contexto de bases ortogonales para un conjunto de funciones integrables cuadradas en\(L^{2}(-1,1)\). En tu primer curso en ecuaciones diferenciales, viste estos polinomios como una de las soluciones de la ecuación diferencial

    Polinomio Símbolo Intervalo \(\sigma(x)\)
    Hermite \(H_{n}(x)\) \((-\infty, \infty)\) \(e^{-x^{2}}\)
    Laguerre \(L_{n}^{\alpha}(x)\) \([0, \infty)\) \(e^{-x}\)
    Legendre \(P_{n}(x)\) \((-1,1)\) 1
    Gegenbauer \(C_{n}^{\lambda}(x)\) \((-1,1)\) \(\left(1-x^{2}\right)^{\lambda-1 / 2}\)
    Tchebychef de 1ª clase \(T_{n}(x)\) \((-1,1)\) \(\left(1-x^{2}\right)^{-1 / 2}\)
    Tchebychef de la 2ª clase \(U_{n}(x)\) \((-1,1)\) \(\left(1-x^{2}\right)^{-1 / 2}\)
    Jacobi \(P_{n}^{(\nu, \mu)}(x)\) \((-1,1)\) \((1-x)^{\nu}(1-x)^{\mu}\)

    Cuadro 7.1. Polinomios ortogonales clásicos comunes con la función de intervalo y peso utilizada para definirlos.

    Polinomio Ecuación Diferencial
    Hermite \(y^{\prime \prime}-2 x y^{\prime}+2 n y=0\)
    Laguerre \(x y^{\prime \prime}+(\alpha+1-x) y^{\prime}+n y=0\)
    Legendre \(\left(1-x^{2}\right) y^{\prime \prime}-2 x y^{\prime}+n(n+1) y=0\)
    Gegenbauer \(\left(1-x^{2}\right) y^{\prime \prime}-(2 n+3) x y^{\prime}+\lambda y=0\)
      \(\left(1-x^{2}\right) y^{\prime \prime}-x y^{\prime}+n^{2} y=0\)
    Tchebychef de 1ª clase \(\left(1-x^{2}\right) y^{\prime \prime}+(\nu-\mu+(\mu+\nu+2) x) y^{\prime}+n(n+1+\mu+\nu) y=0\)
    Jacobi  

    Mesa\(7.2\). Ecuaciones diferenciales satisfechas por algunos de los polinomios ortogonales clásicos comunes.

    \[\left(1-x^{2}\right) y^{\prime \prime}-2 x y^{\prime}+n(n+1) y=0, \quad n \in N_{0} . \nonumber \]

    Recordemos que estos se obtuvieron mediante el uso de métodos de expansión en serie de potencia. En esta sección exploraremos algunas de las propiedades de estas funciones.

    Para completar, recordamos la solución de la Ecuación (7.11) utilizando el método de series de potencia. Suponemos que la solución toma la forma

    \[y(x)=\sum_{k=0}^{\infty} a_{k} x^{k} . \nonumber \]

    El objetivo es determinar los coeficientes,\(a_{k}\). Insertando esta serie en la Ecuación (7.11), tenemos

    \[\left(1-x^{2}\right) \sum_{k=0}^{\infty} k(k-1) a_{k} x^{k-2}-\sum_{k=0}^{\infty} 2 a_{k} k x^{k}+\sum_{k=0}^{\infty} n(n+1) a_{k} x^{k}=0 \nonumber \]

    \[\sum_{k=2}^{\infty} k(k-1) a_{k} x^{k-2}-\sum_{k=2}^{\infty} k(k-1) a_{k} x^{k}+\sum_{k=0}^{\infty}[-2 k+n(n+1)] a_{k} x^{k}=0 \nonumber \]

    Podemos combinar algunos de estos términos:

    \[\sum_{k=2}^{\infty} k(k-1) a_{k} x^{k-2}+\sum_{k=0}^{\infty}[-k(k-1)-2 k+n(n+1)] a_{k} x^{k}=0 . \nonumber \]

    Mayores rendimientos de simplificación

    \[\sum_{k=2}^{\infty} k(k-1) a_{k} x^{k-2}+\sum_{k=0}^{\infty}[n(n+1)-k(k+1)] a_{k} x^{k}=0 \nonumber \]

    Tenemos que recoger como poderes de\(x\). Esto se puede hacer reindexando cada suma. En la primera suma, dejamos\(m=k-2\), o\(k=m+2\). En la segunda suma dejamos de forma independiente\(k=m\). Entonces todos los poderes de\(x\) son de la forma\(x^{m}\). Esto da

    \[\sum_{m=0}^{\infty}(m+2)(m+1) a_{m+2} x^{m}+\sum_{m=0}^{\infty}[n(n+1)-m(m+1)] a_{m} x^{m}=0 \nonumber \]

    Combinando estas sumas, tenemos

    \[\sum_{m=0}^{\infty}\left[(m+2)(m+1) a_{m+2}+(n(n+1)-m(m+1)) a_{m}\right] x^{m}=0 \nonumber \]

    Esto tiene que aguantar para todos\(x\). Entonces, los coeficientes de\(x^{m}\) deben desvanecerse:

    \[(m+2)(m+1) a_{m+2}+(n(n+1)-m(m+1)) a_{m} \nonumber \]

    Resolviendo para\(a_{m+2}\), obtenemos la relación de recursión

    \[a_{m+2}=\dfrac{n(n+1)-m(m+1)}{(m+2)(m+1)} a_{m}, \quad m \geq 0 . \nonumber \]

    Así,\(a_{m+2}\) es proporcional a\(a_{m}\). Podemos iterar y mostrar que cada coeficiente es proporcional a\(a_{0}\) o\(a_{1}\). Sin embargo, para\(n\) un entero, tarde o temprano,\(m=n\) y la serie trunca. \(a_{m}=0\)para\(m>n\). Así, obtenemos soluciones polinomiales. Estas soluciones polinómicas son los polinomios de Legendre, que designamos como\(y(x)=P_{n}(x)\). Además, para\(n\) un entero par,\(P_{n}(x)\) es una función par y para\(n\) un entero impar,\(P_{n}(x)\) es una función impar.

    En realidad, esta es una versión recortada del método. Habría que encontrar una segunda solución linealmente independiente. No discutiremos estas soluciones y dejaremos eso para que el lector interesado investigue.

    La Fórmula Rodrigues

    La primera propiedad que tienen los polinomios de Legendre es la fórmula Rodrigues:

    \[P_{n}(x)=\dfrac{1}{2^{n} n !} \dfrac{d^{n}}{d x^{n}}\left(x^{2}-1\right)^{n}, \quad n \in N_{0} . \nonumber \]

    A partir de la fórmula Rodrigues, se puede demostrar que\(P_{n}(x)\) es un polinomio de grado\(n\) th. También, para\(n\) impar, el polinomio es una función impar y para\(n\) par, el polinomio es una función par.

    Como ejemplo, determinamos\(P_{2}(x)\) a partir de la fórmula de Rodrigues:

    \[\begin{aligned} P_{2}(x) &=\dfrac{1}{2^{2} 2 !} \dfrac{d^{2}}{d x^{2}}\left(x^{2}-1\right)^{2} \\ &=\dfrac{1}{8} \dfrac{d^{2}}{d x^{2}}\left(x^{4}-2 x^{2}+1\right) \\ &=\dfrac{1}{8} \dfrac{d}{d x}\left(4 x^{3}-4 x\right) \\ &=\dfrac{1}{8}\left(12 x^{2}-4\right) \\ &=\dfrac{1}{2}\left(3 x^{2}-1\right) \end{aligned} \nonumber \]

    Tenga en cuenta que obtenemos el mismo resultado que encontramos en la última sección usando ortogonalización.

    Se pueden generar sistemáticamente los polinomios de Legendre en forma tabular como se muestra en la Tabla\(7.2 .1\). En la Figura\(7.4\) se muestran algunos polinomios de Legendre.

    \(n\) \(\left(x^{2}-1\right)^{n}\) \(\dfrac{d^{n}}{d x^{n}}\left(x^{2}-1\right)^{n}\) \(\dfrac{1}{2^{n} n !}\) \(P_{n}(x)\)
    0 1 1 1 1
    1 \(x^{2}-1\) \(2 x\) \(\dfrac{1}{2}\) \(x\)
    2 \(x^{4}-2 x^{2}+1\) \(12 x^{2}-4\) \(\dfrac{1}{8}\) \(\dfrac{1}{2}\left(3 x^{2}-1\right)\)
    3 \(x^{6}-3 x^{4}+3 x^{2}-1\) \(120 x^{3}-72 x\) \(\dfrac{1}{48}\) \(\dfrac{1}{2}\left(5 x^{3}-3 x\right)\)

    Cuadro 7.3. Cálculo tabular de los polinomios de Legendre utilizando la fórmula Rodrigues.

    imagen
    Figura 7.4. Parcelas de los polinomios de Legendre\(P_{2}(x), P_{3}(x), P_{4}(x)\), y\(P_{5}(x)\).

    Fórmula de recursión de tres períodos

    Los polinomios ortogonales clásicos también satisfacen tres fórmulas de recurrencia de término. En el caso de los polinomios de Legendre, tenemos

    \[(2 n+1) x P_{n}(x)=(n+1) P_{n+1}(x)+n P_{n-1}(x), \quad n=1,2, \ldots \nonumber \]

    Esto también se puede reescribir reemplazando\(n\) con\(n-1\) como

    \[(2 n-1) x P_{n-1}(x)=n P_{n}(x)+(n-1) P_{n-2}(x), \quad n=1,2, \ldots \nonumber \]

    Demostraremos esta fórmula de recursividad de dos maneras. Primero utilizamos las propiedades de ortogonalidad de los polinomios de Legendre y el siguiente lema.

    Lema 7.2. El coeficiente principal de\(x^{n}\) in\(P_{n}(x)\) es\(\dfrac{1}{2^{n} n !} \dfrac{(2 n) !}{n !}\).

    Prueba. Podemos demostrarlo usando la fórmula Rodrigues. primero, nos enfocamos en el coeficiente principal de\(\left(x^{2}-1\right)^{n}\), que es\(x^{2 n}\). La primera derivada de\(x^{2 n}\) es\(2 n x^{2 n-1}\). La segunda derivada es\(2 n(2 n-1) x^{2 n-2}\). El\(j\) th derivado es

    \[\dfrac{d^{j} x^{2 n}}{d x^{j}}=[2 n(2 n-1) \ldots(2 n-j+1)] x^{2 n-j} \nonumber \]

    Así, la derivada\(n\) th viene dada por

    \[\dfrac{d^{n} x^{2 n}}{d x^{n}}=[2 n(2 n-1) \ldots(n+1)] x^{n} \nonumber \]

    Esto prueba que\(P_{n}(x)\) tiene grado\(n\). El coeficiente principal de ahora se\(P_{n}(x)\) puede escribir como

    \[\begin{aligned} \dfrac{1}{2^{n} n !}[2 n(2 n-1) \ldots(n+1)] &=\dfrac{1}{2^{n} n !}[2 n(2 n-1) \ldots(n+1)] \dfrac{n(n-1) \ldots 1}{n(n-1) \ldots 1} \\ &=\dfrac{1}{2^{n} n !} \dfrac{(2 n) !}{n !} \end{aligned} \nonumber \]

    Para probar la fórmula de recursión de tres términos consideramos la expresión\((2 n-1) x P_{n-1}(x)-n P_{n}(x)\). Si bien cada término es un polinomio de grado\(n\), los términos de orden principal cancelan. Solo necesitamos mirar el coeficiente de la primera expresión del término de orden principal. Es

    \[(2 n-1) \dfrac{1}{2^{n-1}(n-1) !} \dfrac{(2 n-2) !}{(n-1) !}=\dfrac{1}{2^{n-1}(n-1) !} \dfrac{(2 n-1) !}{(n-1) !}=\dfrac{(2 n-1) !}{2^{n-1}[(n-1) !]^{2}} . \nonumber \]

    El coeficiente del término principal para se\(n P_{n}(x)\) puede escribir como

    \[n \dfrac{1}{2^{n} n !} \dfrac{(2 n) !}{n !}=n\left(\dfrac{2 n}{2 n^{2}}\right)\left(\dfrac{1}{2^{n-1}(n-1) !}\right) \dfrac{(2 n-1) !}{(n-1) !} \dfrac{(2 n-1) !}{2^{n-1}[(n-1) !]^{2}} . \nonumber \]

    Es fácil ver que los términos del pedido principal en\((2 n-1) x P_{n-1}(x)-n P_{n}(x)\) cancelar.

    Los siguientes términos serán de grado\(n-2\). Esto se debe a que los\(P_{n}\)'s son funciones pares o impares, por lo tanto, solo contienen pares, o impares, poderes de\(x\). Concluimos que

    \[(2 n-1) x P_{n-1}(x)-n P_{n}(x)=\text { polynomial of degree } n-2 . \nonumber \]

    Por lo tanto, dado que los polinomios de Legendre forman una base, podemos escribir este polinomio como una combinación lineal de polinomios de Legendre:

    \[(2 n-1) x P_{n-1}(x)-n P_{n}(x)=c_{0} P_{0}(x)+c_{1} P_{1}(x)+\ldots+c_{n-2} P_{n-2}(x) . \nonumber \]

    Multiplicando Ecuación\((7.17)\) por\(P_{m}(x)\) for\(m=0,1, \ldots, n-3\), integrando de\(-1\) a 1, y usando ortogonalidad, obtenemos

    \[0=c_{m}\left\|P_{m}\right\|^{2}, \quad m=0,1, \ldots, n-3 . \nonumber \]

    [Nota:\(\int_{-1}^{1} x^{k} P_{n}(x) d x=0\) para\(k \leq n-1\). Por lo tanto,\(\int_{-1}^{1} x P_{n-1}(x) P_{m}(x) d x=0\) para\(m \leq n-3 .]\)

    Así, todos estos\(c_{m}\) son cero, dejando la Ecuación (7.17) como

    \[(2 n-1) x P_{n-1}(x)-n P_{n}(x)=c_{n-2} P_{n-2}(x) . \nonumber \]

    El coeficiente final se puede encontrar usando la condición de normalización,\(P_{n}(1)=1\). Así,\(c_{n-2}=(2 n-1)-n=n-1\).

    La función generadora

    imagen
    Figura 7.5. Los vectores de posición utilizados para describir la fuerza de marea en la Tierra debido a la luna.

    donde\(\theta\) esta el angulo entre\(\mathbf{r}_{1}\) y\(\mathbf{r}_{2}\).

    Típicamente, uno de los vectores de posición es mucho más grande que el otro. Supongamos eso\(r_{1} \ll r_{2}\). Entonces, uno puede escribir

    \[\Phi \propto \dfrac{1}{\sqrt{r_{1}^{2}-2 r_{1} r_{2} \cos \theta+r_{2}^{2}}}=\dfrac{1}{r_{2}} \dfrac{1}{\sqrt{1-2 \dfrac{r_{1}}{r_{2}} \cos \theta+\left(\dfrac{r_{1}}{r_{2}}\right)^{2}}} \nonumber \]

    Ahora, definir\(x=\cos \theta\) y\(t=\dfrac{r_{1}}{r_{2}}\). Entonces tenemos el potencial de marea es proporcional a la función generadora para los polinomios de Legendre! Entonces, podemos escribir el potencial de marea como

    \[\Phi \propto \dfrac{1}{r_{2}} \sum_{n=0}^{\infty} P_{n}(\cos \theta)\left(\dfrac{r_{1}}{r_{2}}\right)^{n} . \nonumber \]

    El primer término en la expansión es el potencial gravitacional que da la fuerza habitual entre la Tierra y la Luna. [Recordemos que la fuerza es el gradiente del potencial,\(\mathbf{F}=\nabla\left(\dfrac{1}{r}\right)\).] Los próximos términos darán expresiones para los efectos mareales

    Ahora que tenemos alguna idea de dónde podría haberse originado esta función generadora, podemos proceder a usarla. En primer lugar, la función generadora puede ser utilizada para obtener valores especiales de los polinomios de Legendre.

    Ejemplo 7.3. Evaluar\(P_{n}(0) . P_{n}(0)\) se encuentra considerando\(g(0, t)\). Estableciendo\(x=0\) en la Ecuación (7.18), tenemos

    \[g(0, t)=\dfrac{1}{\sqrt{1+t^{2}}}=\sum_{n=0}^{\infty} P_{n}(0) t^{n} \nonumber \]

    Podemos usar la expansión binomial para encontrar nuestra respuesta final. [Ver la última sección de este capítulo para una revisión.] A saber, tenemos

    \[\dfrac{1}{\sqrt{1+t^{2}}}=1-\dfrac{1}{2} t^{2}+\dfrac{3}{8} t^{4}+\ldots \nonumber \]

    Comparando estas expansiones, tenemos el\(P_{n}(0)=0\) para los enteros\(n\) impares y pares se puede mostrar (ver Problema\(7.10\)) que

    \[P_{2 n}(0)=(-1)^{n} \dfrac{(2 n-1) ! !}{(2 n) ! !} \nonumber \]

    donde\(n ! !\) está el doble factorial,

    \[n ! !=\left\{\begin{array}{c} n(n-2) \ldots(3) 1, n>0, \text { odd } \\ n(n-2) \ldots(4) 2, n>0, \text { even } \\ 1 \quad n=0,-1 \end{array}\right. \nonumber \]

    Ejemplo 7.4. Evaluar\(P_{n}(-1)\). Este es un problema más sencillo. En este caso tenemos

    \[g(-1, t)=\dfrac{1}{\sqrt{1+2 t+t^{2}}}=\dfrac{1}{1+t}=1-t+t^{2}-t^{3}+\ldots \nonumber \]

    Por lo tanto,\(P_{n}(-1)=(-1)^{n}\).

    También podemos usar la función generadora para encontrar relaciones de recursión. Para probar la recursión de tres términos (7.14) que introdujimos anteriormente, entonces sólo necesitamos diferenciar la función generadora con respecto a\(t\) en la Ecuación (7.18) y reorganizar el resultado. Primero tenga en cuenta que

    \[\dfrac{\partial g}{\partial t}=\dfrac{x-t}{\left(1-2 x t+t^{2}\right)^{3 / 2}}=\dfrac{x-t}{1-2 x t+t^{2}} g(x, t) \nonumber \]

    Combinando esto con

    \[\dfrac{\partial g}{\partial t}=\sum_{n=0}^{\infty} n P_{n}(x) t^{n-1} \nonumber \]

    tenemos

    \[(x-t) g(x, t)=\left(1-2 x t+t^{2}\right) \sum_{n=0}^{\infty} n P_{n}(x) t^{n-1} \nonumber \]

    Insertando la expresión de serie para\(g(x, t)\) y distribuyendo la suma en el lado derecho, obtenemos

    \[(x-t) \sum_{n=0}^{\infty} P_{n}(x) t^{n}=\sum_{n=0}^{\infty} n P_{n}(x) t^{n-1}-\sum_{n=0}^{\infty} 2 n x P_{n}(x) t^{n}+\sum_{n=0}^{\infty} n P_{n}(x) t^{n+1} \nonumber \]

    Reorganizar conduce a tres sumas separadas:

    \[\sum_{n=0}^{\infty} n P_{n}(x) t^{n-1}-\sum_{n=0}^{\infty}(2 n+1) x P_{n}(x) t^{n}+\sum_{n=0}^{\infty}(n+1) P_{n}(x) t^{n+1}=0 \nonumber \]

    Cada término contiene poderes de los\(t\) que nos gustaría combinar en una sola suma. Esto se hace mediante la reindexación. Para la primera suma, podríamos usar el nuevo índice\(k=n-1\). Entonces, se puede escribir la primera suma

    \[\sum_{n=0}^{\infty} n P_{n}(x) t^{n-1}=\sum_{k=-1}^{\infty}(k+1) P_{k+1}(x) t^{k} \nonumber \]

    Usar diferentes índices es solo otra forma de escribir los términos. Tenga en cuenta que

    \[\sum_{n=0}^{\infty} n P_{n}(x) t^{n-1}=0+P_{1}(x)+2 P_{2}(x) t+3 P_{3}(x) t^{2}+\ldots \nonumber \]

    y

    \[\sum_{k=-1}^{\infty}(k+1) P_{k+1}(x) t^{k}=0+P_{1}(x)+2 P_{2}(x) t+3 P_{3}(x) t^{2}+\ldots \nonumber \]

    en realidad dan la misma suma. A los índices se les hace referencia a veces como índices ficticios porque no aparecen en la expresión expandida y pueden ser reemplazados por otra letra.

    Si queremos hacerlo, ahora podríamos reemplazar todos los's por\(k\)'s Sin embargo, dejaremos los\(n\)\(k\)'s en el primer término y ahora reindexaremos las siguientes sumas en la Ecuación (7.21). La segunda suma solo necesita el reemplazo\(n=k\) y la última suma que reindexamos usando\(k=n+1\). Por lo tanto, la Ecuación (7.21) se convierte

    \[\sum_{k=-1}^{\infty}(k+1) P_{k+1}(x) t^{k}-\sum_{k=0}^{\infty}(2 k+1) x P_{k}(x) t^{k}+\sum_{k=1}^{\infty} k P_{k-1}(x) t^{k}=0 . \nonumber \]

    Ahora podemos combinar todos los términos, señalando que el\(k=-1\) término es automáticamente cero y los\(k=0\) términos dan

    \[P_{1}(x)-x P_{0}(x)=0 . \nonumber \]

    Por supuesto, ya lo sabemos. Entonces, eso deja los\(k>0\) términos:

    \[\sum_{k=1}^{\infty}\left[(k+1) P_{k+1}(x)-(2 k+1) x P_{k}(x)+k P_{k-1}(x)\right] t^{k}=0 \nonumber \]

    Como esto es cierto para todos\(t\), los coeficientes de los\(t^{k}\)'s son cero, o

    \[(k+1) P_{k+1}(x)-(2 k+1) x P_{k}(x)+k P_{k-1}(x)=0, \quad k=1,2, \ldots \nonumber \]

    Hay otras relaciones de recursión. Por ejemplo,

    \[P_{n+1}^{\prime}(x)-P_{n-1}^{\prime}(x)=(2 n+1) P_{n}(x) . \nonumber \]

    Esto se puede probar utilizando la función generadora diferenciando\(g(x, t)\) con respecto\(x\) y reordenando las series infinitas resultantes al igual que en esta última manipulación. Esto quedará como Problema 7.4.

    Otro uso de la función generadora es obtener la constante de normalización. A saber,\(\left\|P_{n}\right\|^{2}\). Al cuadrar la función generadora, tenemos

    \[\dfrac{1}{1-2 x t+t^{2}}=\left[\sum_{n=0}^{\infty} P_{n}(x) t^{n}\right]^{2}=\sum_{n=0}^{\infty} \sum_{m=0}^{\infty} P_{n}(x) P_{m}(x) t^{n+m} \nonumber \]

    Integrando de -1 a 1 y usando la ortogonalidad de los polinomios de Legendre, tenemos

    \[\begin{aligned} \int_{-1}^{1} \dfrac{d x}{1-2 x t+t^{2}} &=\sum_{n=0}^{\infty} \sum_{m=0}^{\infty} t^{n+m} \int_{-1}^{1} P_{n}(x) P_{m}(x) d x \\ &=\sum_{n=0}^{\infty} t^{2 n} \int_{-1}^{1} P_{n}^{2}(x) d x \end{aligned} \nonumber \]

    Sin embargo, se puede demostrar que

    \[\int_{-1}^{1} \dfrac{d x}{1-2 x t+t^{2}}=\dfrac{1}{t} \ln \left(\dfrac{1+t}{1-t}\right) \nonumber \]

    Ampliando esta expresión sobre\(t=0\), obtenemos

    \[\dfrac{1}{t} \ln \left(\dfrac{1+t}{1-t}\right)=\sum_{n=0}^{\infty} \dfrac{2}{2 n+1} t^{2 n} \nonumber \]

    Comparando este resultado con la ecuación\((7.27)\), encontramos que

    \[\left\|P_{n}\right\|^{2}=\int_{-1}^{1} P_{n}(x) P_{m}(x) d x=\dfrac{2}{2 n+1} . \nonumber \]

    Expansiones de función propia

    Finalmente, podemos expandir otras funciones en esta base ortogonal. Esto es solo una serie generalizada de Fourier. Una expansión de la serie Fourier-Legendre para\(f(x)\) on\([-1,1]\) toma la forma

    \[f(x) \sim \sum_{n=0}^{\infty} c_{n} P_{n}(x) . \nonumber \]

    Como antes, podemos determinar los coeficientes multiplicando ambos lados por\(P_{m}(x)\) e integrándolos. La ortogonalidad da la forma habitual para los coeficientes generalizados de Fourier. En este caso, tenemos

    \[c_{n}=\dfrac{<f, P_{n}>}{\left\|P_{n}\right\|^{2}}, \nonumber \]

    donde

    \[<f, P_{n}>=\int_{-1}^{1} f(x) P_{n}(x) d x \nonumber \]

    Acabamos de encontrar\(\left\|P_{n}\right\|^{2}=\dfrac{2}{2 n+1}\). Por lo tanto, los coeficientes de Fourier-Legendre son

    \[c_{n}=\dfrac{2 n+1}{2} \int_{-1}^{1} f(x) P_{n}(x) d x . \nonumber \]

    Ejemplo 7.5. Expandir\(f(x)=x^{3}\) en una serie Fourier-Legendre.

    Simplemente necesitamos computar

    \[c_{n}=\dfrac{2 n+1}{2} \int_{-1}^{1} x^{3} P_{n}(x) d x . \nonumber \]

    Primero notamos que

    \[\int_{-1}^{1} x^{m} P_{n}(x) d x=0 \quad \text { for } m<n \nonumber \]

    Esto simplemente se prueba usando la fórmula de Rodrigues. Insertando la ecuación (7.12), tenemos

    \[\int_{-1}^{1} x^{m} P_{n}(x) d x=\dfrac{1}{2^{n} n !} \int_{-1}^{1} x^{m} \dfrac{d^{n}}{d x^{n}}\left(x^{2}-1\right)^{n} d x \nonumber \]

    Ya que\(m<n\), podemos integrar por partes\(m\) -tiempos para mostrar el resultado, utilizando\(P_{n}(1)=1\) y\(P_{n}(-1)=(-1)^{n}\). En consecuencia, tendremos para este ejemplo que\(c_{n}=0\) para\(n>3\).

    Podríamos simplemente calcular\(\int_{-1}^{1} x^{3} P_{m}(x) d x\)\(m=0,1,2, \ldots\) por completo. Pero, al señalar que\(x^{3}\) es una función extraña, fácilmente confirmamos que\(c_{0}=0\) y\(c_{2}=0\). Esto nos deja con sólo dos coeficientes para calcular. Estos son

    \[c_{1}=\dfrac{3}{2} \int_{-1}^{1} x^{4} d x=\dfrac{3}{5} \nonumber \]

    y

    \[c_{3}=\dfrac{7}{2} \int_{-1}^{1} x^{3}\left[\dfrac{1}{2}\left(5 x^{3}-3 x\right)\right] d x=\dfrac{2}{5} \nonumber \]

    Así,

    \[x^{3}=\dfrac{3}{5} P_{1}(x)+\dfrac{2}{5} P_{3}(x) . \nonumber \]

    Por supuesto, esto es sencillo de verificar usando Table\(7.2 .1\):

    \[\dfrac{3}{5} P_{1}(x)+\dfrac{2}{5} P_{3}(x)=\dfrac{3}{5} x+\dfrac{2}{5}\left[\dfrac{1}{2}\left(5 x^{3}-3 x\right)\right]=x^{3} \nonumber \]

    Bueno, a lo mejor podríamos haber adivinado esto sin hacer ninguna integración. Vamos a ver,

    \[\begin{aligned} x^{3} &=c_{1} x+\dfrac{1}{2} c_{2}\left(5 x^{3}-3 x\right) \\ &=\left(c_{1}-\dfrac{3}{2} c_{2}\right) x+\dfrac{5}{2} c_{2} x^{3} \end{aligned} \nonumber \]

    Equiparando coeficientes de términos similares, tenemos eso\(c_{2}=\dfrac{2}{5}\) y\(c_{1}=\dfrac{3}{2} c_{2}=\dfrac{3}{5}\). Ejemplo 7.6. Expande la función Heaviside en una serie de Fourier-Legendre.

    La función Heaviside se define como

    \[H(x)=\left\{\begin{array}{l} 1, x>0 \\ 0, x<0 \end{array}\right. \nonumber \]

    En este caso, no podemos encontrar los coeficientes de expansión sin alguna integración. Tenemos que computar

    \[\begin{aligned} c_{n} &=\dfrac{2 n+1}{2} \int_{-1}^{1} f(x) P_{n}(x) d x \\ &=\dfrac{2 n+1}{2} \int_{0}^{1} P_{n}(x) d x, \quad n=0,1,2, \ldots \end{aligned} \nonumber \]

    Para\(n=0\), tenemos

    \[c_{0}=\dfrac{1}{2} \int_{0}^{1} d x=\dfrac{1}{2} . \nonumber \]

    Para\(n>1\), hacemos uso de la identidad\((7.25)\) para encontrar

    \[c_{n}=\dfrac{1}{2} \int_{0}^{1}\left[P_{n+1}^{\prime}(x)-P_{n-1}^{\prime}(x)\right] d x=\dfrac{1}{2}\left[P_{n-1}(0)-P_{n+1}(0)\right] . \nonumber \]

    Así, la serie Fourier-Bessel para la función Heaviside es

    \[f(x) \sim \dfrac{1}{2}+\dfrac{1}{2} \sum_{n=1}^{\infty}\left[P_{n-1}(0)-P_{n+1}(0)\right] P_{n}(x) . \nonumber \]

    Tenemos que evaluar\(P_{n-1}(0)-P_{n+1}(0)\). Ya que\(P_{n}(0)=0\) para\(n\) impar, los\(c_{n}\)'s desaparecen para\(n\) par. Dejando\(n=2 k-1\), tenemos

    \[f(x) \sim \dfrac{1}{2}+\dfrac{1}{2} \sum_{k=1}^{\infty}\left[P_{2 k-2}(0)-P_{2 k}(0)\right] P_{2 k-1}(x) . \nonumber \]

    Podemos usar Ecuación\((7.20)\)

    \[P_{2 k}(0)=(-1)^{k} \dfrac{(2 k-1) ! !}{(2 k) ! !}, \nonumber \]

    para calcular los coeficientes:

    \[\begin{aligned} f(x) & \sim \dfrac{1}{2}+\dfrac{1}{2} \sum_{k=1}^{\infty}\left[P_{2 k-2}(0)-P_{2 k}(0)\right] P_{2 k-1}(x) \\ &\left.=\dfrac{1}{2}+\dfrac{1}{2} \sum_{k=1}^{\infty}\left[(-1)^{k-1} \dfrac{(2 k-3) ! !}{(2 k-2) ! !}-(-1)^{k} \dfrac{(2 k-1) ! !}{(2 k) ! !}\right] P_{2 k-1}(x)\right) \\ &=\dfrac{1}{2}-\dfrac{1}{2} \sum_{k=1}^{\infty}(-1)^{k} \dfrac{(2 k-3) ! !}{(2 k-2) ! !}\left[1+\dfrac{2 k-1}{2 k}\right] P_{2 k-1}(x) \\ &=\dfrac{1}{2}-\dfrac{1}{2} \sum_{k=1}^{\infty}(-1)^{k} \dfrac{(2 k-3) ! !}{(2 k-2) ! !} \dfrac{4 k-1}{2 k} P_{2 k-1}(x) \end{aligned} \nonumber \]

    La suma de los primeros 21 términos se muestra en la Figura 7.6. Observamos la lenta convergencia a la función Heaviside. También, vemos que el fenómeno de Gibbs está presente debido a la discontinuidad del salto en\(x=0\).

    imagen
    Figura 7.6. Suma de los primeros 21 términos para la expansión de la serie Fourier-Legendre de la función Heaviside.

    Función Gamma

    Otra función que suele ocurrir en el estudio de funciones especiales es la función Gamma. Necesitaremos la función Gamma en la siguiente sección sobre funciones de Bessel.

    Porque\(x>0\) definimos la función Gamma como

    \[\Gamma(x)=\int_{0}^{\infty} t^{x-1} e^{-t} d t, \quad x>0 . \nonumber \]

    La función Gamma es una generalización de la función factorial. De hecho, tenemos

    \[\Gamma(1)=1 \nonumber \]

    y

    \[\Gamma(x+1)=x \Gamma(x) . \nonumber \]

    El lector puede probar esta identidad simplemente realizando una integración por partes. (Ver Problema 7.7.) En particular, para los enteros\(n \in Z^{+}\), entonces tenemos

    \[\Gamma(n+1)=n \Gamma(n)=n(n-1) \Gamma(n-2)=n(n-1) \cdots 2 \Gamma(1)=n ! \nonumber \]

    También podemos definir la función Gamma para valores negativos, no enteros de\(x\). Primero notamos que por iteración en\(n \in Z^{+}\), tenemos

    \[\Gamma(x+n)=(x+n-1) \cdots(x+1) x \Gamma(x), \quad x<0, \quad x+n>0 \nonumber \]

    Resolviendo para\(\Gamma(x)\), luego encontramos

    \[\Gamma(x)=\dfrac{\Gamma(x+n)}{(x+n-1) \cdots(x+1) x}, \quad-n<x<0 \nonumber \]

    Tenga en cuenta que la función Gamma no está definida en cero y los enteros negativos.

    Ejemplo 7.7. Ahora demostramos que

    \[\Gamma\left(\dfrac{1}{2}\right)=\sqrt{\pi} . \nonumber \]

    Esto se hace por cómputo directo de la integral:

    \[\Gamma\left(\dfrac{1}{2}\right)=\int_{0}^{\infty} t^{-\dfrac{1}{2}} e^{-t} d t \nonumber \]

    Dejando\(t=z^{2}\), tenemos

    \[\Gamma\left(\dfrac{1}{2}\right)=2 \int_{0}^{\infty} e^{-z^{2}} d z \nonumber \]

    Debido a la simetría del integrando, obtenemos la integral clásica

    \[\Gamma\left(\dfrac{1}{2}\right)=\int_{-\infty}^{\infty} e^{-z^{2}} d z \nonumber \]

    que se puede realizar usando un truco estándar. Considerar la integral

    \[I=\int_{-\infty}^{\infty} e^{-x^{2}} d x \nonumber \]

    Entonces,

    \[I^{2}=\int_{-\infty}^{\infty} e^{-x^{2}} d x \int_{-\infty}^{\infty} e^{-y^{2}} d y . \nonumber \]

    Tenga en cuenta que cambiamos la variable de integración. Esto nos permitirá escribir este producto de integrales como una doble integral:

    \[I^{2}=\int_{-\infty}^{\infty} \int_{-\infty}^{\infty} e^{-\left(x^{2}+y^{2}\right)} d x d y . \nonumber \]

    Esta es una integral en todo el\(x y\) plano. Podemos transformar esta integración cartesiana en una integración sobre coordenadas polares. La integral se convierte

    \[I^{2}=\int_{0}^{2 \pi} \int_{0}^{\infty} e^{-r^{2}} r d r d \theta \nonumber \]

    Esto es sencillo de integrar y tenemos\(I^{2}=\pi\). Entonces, el resultado final se encuentra tomando la raíz cuadrada de ambos lados:

    \[\Gamma\left(\dfrac{1}{2}\right)=I=\sqrt{\pi} . \nonumber \]

    Hemos visto que la función factorial se puede escribir en términos de funciones Gamma. Se pueden escribir las factoriales dobles pares e impares como

    \[(2 n) ! !=2^{n} n !, \quad(2 n+1) ! !=\dfrac{(2 n+1) !}{2^{n} n !} \nonumber \]

    En particular, se puede escribir

    \[\Gamma\left(n+\dfrac{1}{2}\right)=\dfrac{(2 n-1) ! !}{2^{n}} \sqrt{\pi} \nonumber \]

    Otra relación útil, que sólo declaramos, es

    \[\Gamma(x) \Gamma(1-x)=\dfrac{\pi}{\sin \pi x} \nonumber \]

    \(7.4\)Funciones de Bessel

    Otra ecuación diferencial importante que surge en muchas aplicaciones de la física es

    \[x^{2} y^{\prime \prime}+x y^{\prime}+\left(x^{2}-p^{2}\right) y=0 . \nonumber \]

    Esta ecuación se pone fácilmente en forma autoadjoint como

    \[\left(x y^{\prime}\right)^{\prime}+\left(x-\dfrac{p^{2}}{x}\right) y=0 . \nonumber \]

    Esta ecuación se resolvió en el primer curso sobre ecuaciones diferenciales utilizando métodos de series de potencia, es decir, utilizando el Método Frobenius. Uno asume una solución en serie de la forma

    \[y(x)=\sum_{n=0}^{\infty} a_{n} x^{n+s} \nonumber \]

    y se busca valores permitidos de la constante\(s\) y una relación de recursión para los coeficientes,\(a_{n}\). Uno encuentra eso\(s=\pm p\) y

    \[a_{n}=-\dfrac{a_{n-2}}{(n+s)^{2}-p^{2}}, \quad n \geq 2 . \nonumber \]

    Una solución de la ecuación diferencial es la función de Bessel del primer tipo de orden\(p\), dada como

    \[y(x)=J_{p}(x)=\sum_{n=0}^{\infty} \dfrac{(-1)^{n}}{\Gamma(n+1) \Gamma(n+p+1)}\left(\dfrac{x}{2}\right)^{2 n+p} . \nonumber \]

    En Figura\(7.7\) mostramos las primeras funciones de Bessel del primer tipo de orden entero. Tenga en cuenta que estas funciones pueden describirse como funciones oscilatorias en descomposición.

    imagen
    Figura 7.7. Parcelas de las funciones de Bessel\(J_{0}(x), J_{1}(x), J_{2}(x)\), y\(J_{3}(x)\).

    Se obtiene una segunda solución linealmente independiente para\(p\) no un número entero como\(J_{-p}(x)\). Sin embargo, para\(p\) un entero, el\(\Gamma(n+p+1)\) factor conduce a evaluaciones de la función Gamma en cero, o enteros negativos, cuando\(p\) es negativo. Por lo tanto, la serie anterior no se define en estos casos.

    Otro método para obtener una segunda solución linealmente independiente es a través de una combinación lineal de\(J_{p}(x)\) y\(J_{-p}(x)\) como

    \[N_{p}(x)=Y_{p}(x)=\dfrac{\cos \pi p J_{p}(x)-J_{-p}(x)}{\sin \pi p} . \nonumber \]

    Estas funciones se llaman las funciones de Neumann, o funciones de Bessel del segundo tipo de orden\(p\).

    En Figura\(7.8\) mostramos las primeras funciones de Bessel del segundo tipo de orden entero. Tenga en cuenta que estas funciones también son funciones oscilatorias en descomposición. Sin embargo, son singulares en\(x=0\).

    En muchas aplicaciones, estas funciones no satisfacen la condición de límite en la que se desea una solución limitada\(x=0\). Por ejemplo, un problema estándar es describir las oscilaciones de un tambor circular. Para este problema se resuelve la ecuación de onda utilizando la separación de variables en coordenadas cilíndricas. La\(r\) ecuación conduce a una ecuación de Bessel. Las soluciones de la función de Bessel describen la parte radial de la solución y no se espera una solución singular en el centro del tambor. La amplitud de la oscilación debe permanecer finita. Así, solo se pueden usar funciones de Bessel del primer tipo.

    Las funciones de Bessel satisfacen una variedad de propiedades, que solo enumeraremos en este momento para funciones de Bessel de primer tipo.

    Identidades Derivadas

    imagen
    Figura 7.8. Parcelas de las funciones de Neumann\(N_{0}(x), N_{1}(x), N_{2}(x)\), y\(N_{3}(x)\).

    \[\dfrac{d}{d x}\left[x^{-p} J_{p}(x)\right]=-x^{-p} J_{p+1}(x) \nonumber \]

    Fórmulas de recursión

    \[\begin{aligned} &J_{p-1}(x)+J_{p+1}(x)=\dfrac{2 p}{x} J_{p}(x) \\ &J_{p-1}(x)-J_{p+1}(x)=2 J_{p}^{\prime}(x) \end{aligned} \nonumber \]

    Ortogonalidad

    \[\int_{0}^{a} x J_{p}\left(j_{p n} \dfrac{x}{a}\right) J_{p}\left(j_{p m} \dfrac{x}{a}\right) d x=\dfrac{a^{2}}{2}\left[J_{p+1}\left(j_{p n}\right)\right]^{2} \delta_{n, m} \nonumber \]

    donde\(j_{p n}\) está la raíz\(n\) th de\(J_{p}(x), J_{p}\left(j_{p n}\right)=0, n=1,2, \ldots\) Una lista de algunas de estas raíces se proporcionan en la Tabla 7.4.

    \(n\) \(p=0\) \(p=1\) \(p=2\) \(p=3\) \(p=4\) \(p=5\)
    1 \(2.405\) \(3.832\) \(5.135\) \(6.379\) \(7.586\) \(8.780\)
    2 \(5.520\) \(7.016\) \(8.147\) \(9.760\) \(11.064\) \(12.339\)
    3 \(8.654\) \(10.173\) \(11.620\) \(13.017\) \(14.373\) \(15.700\)
    4 \(11.792\) \(13.323\) \(14.796\) \(16.224\) \(17.616\) \(18.982\)
    5 \(14.931\) \(16.470\) \(17.960\) \(19.410\) \(20.827\) \(22.220\)
    6 \(18.071\) \(19.616\) \(21.117\) \(22.583\) \(24.018\) \(25.431\)
    7 \(21.212\) \(22.760\) \(24.270\) \(25.749\) \(27.200\) \(28.628\)
    8 \(24.353\) \(25.903\) \(27.421\) \(28.909\) \(30.371\) \(31.813\)
    9 \(27.494\) \(29.047\) \(30.571\) \(32.050\) \(33.512\) \(34.983\)

    Mesa\(7.4\). Los ceros de las funciones de Bessel

    Función generadora

    \[e^{x\left(t-\dfrac{1}{t}\right) / 2}=\sum_{n=-\infty}^{\infty} J_{n}(x) t^{n}, \quad x>0, t \neq 0 \nonumber \]

    Representación Integral

    \[J_{n}(x)=\dfrac{1}{\pi} \int_{0}^{\pi} \cos (x \sin \theta-n \theta) d \theta, \quad x>0, n \in \mathrm{Z} . \nonumber \]

    Serie Fourier-Bessel

    Dado que las funciones de Bessel son un conjunto ortogonal de funciones propias de un problema de Sturm-Liouville, podemos expandir funciones integrables cuadradas en esta base. De hecho, el problema del valor propio se da en la forma

    \[x^{2} y^{\prime \prime}+x y^{\prime}+\left(\lambda x^{2}-p^{2}\right) y=0 . \nonumber \]

    Las soluciones son entonces de la forma\(J_{p}(\sqrt{\lambda} x)\), como se puede demostrar haciendo la sustitución\(t=\sqrt{\lambda} x\) en la ecuación diferencial.

    Además, se puede resolver la ecuación diferencial en un dominio finito,\([0, a]\), con las condiciones límite:\(y(x)\) está delimitado en\(x=0\) y\(y(a)=\) 0. Se puede demostrar que\(J_{p}\left(j_{p n} \dfrac{x}{a}\right)\) es una base de funciones propias y la expansión resultante de la serie Fourier-Bessel de\(f(x)\) defined on\(x \in[0, a]\) es

    \[f(x)=\sum_{n=1}^{\infty} c_{n} J_{p}\left(j_{p n} \dfrac{x}{a}\right), \nonumber \]

    donde se encuentran los coeficientes de Fourier-Bessel usando la relación de ortogonalidad como

    \[c_{n}=\dfrac{2}{a^{2}\left[J_{p+1}\left(j_{p n}\right)\right]^{2}} \int_{0}^{a} x f(x) J_{p}\left(j_{p n} \dfrac{x}{a}\right) d x . \nonumber \]

    Ejemplo 7.8. Ampliar\(f(x)=1\) para\(0 \leq x \leq 1\) en una serie de Fourier-Bessel del formulario

    \[f(x)=\sum_{n=1}^{\infty} c_{n} J_{0}\left(j_{0 n} x\right) \nonumber \]

    Solo necesitamos calcular los coeficientes de Fourier-Bessel en la Ecuación (7.50):

    \[c_{n}=\dfrac{2}{\left[J_{1}\left(j_{0 n}\right)\right]^{2}} \int_{0}^{1} x J_{0}\left(j_{0 n} x\right) d x . \nonumber \]

    De la Ecuación (7.41) tenemos

    \[\begin{aligned} \int_{0}^{1} x J_{0}\left(j_{0 n} x\right) d x &=\dfrac{1}{j_{0 n}^{2}} \int_{0}^{j_{0 n}} y J_{0}(y) d y \\ &=\dfrac{1}{j_{0 n}^{2}} \int_{0}^{j_{0 n}} \dfrac{d}{d y}\left[y J_{1}(y)\right] d y \\ &=\dfrac{1}{j_{0 n}^{2}}\left[y J_{1}(y)\right]_{0}^{j_{0 n}} \\ &=\dfrac{1}{j_{0 n}} J_{1}\left(j_{0 n}\right) \end{aligned} \nonumber \]

    Como resultado, hemos encontrado que la expansión deseada de Fourier-Bessel es

    \[1=2 \sum_{n=1}^{\infty} \dfrac{J_{0}\left(j_{0 n} x\right)}{j_{0 n} J_{1}\left(j_{0 n}\right)}, \quad 0<x<1 \nonumber \]

    En la Figura\(7.9\) se muestra la suma parcial de los primeros cincuenta términos de esta serie. Vemos que hay una convergencia lenta debido al fenómeno de Gibbs'.

    imagen
    Figura 7.9. Trama de los primeros 50 términos de la serie Fourier-Bessel en la Ecuación (7.53) para\(f(x)=1\) on\(0<x<1\).

    Funciones hipergeométricas

    Las funciones hipergeométricas son probablemente la clase de funciones más útil, pero menos entendida. Por lo general, no entran en el plan de estudios de pregrado y rara vez en el currículo de posgrado. La mayoría de las funciones que conoces se pueden expresar usando funciones hipergeométricas. Existen muchos enfoques para estas funciones y la literatura puede llenar libros. 1

    En 1812 Gauss publicó un estudio de la serie hipergeométrica

    \[\begin{aligned} y(x)=1 &+\dfrac{\alpha \beta}{\gamma} x+\dfrac{\alpha(1+\alpha)(1+\beta)}{2 ! \gamma(1+\gamma)} x^{2} \\ &+\dfrac{\alpha(1+\alpha)(2+\alpha) \beta(1+\beta)(2+\beta)}{3 ! \gamma(1+\gamma)(2+\gamma)} x^{3}+\ldots \end{aligned} \nonumber \]

    Aquí\(\alpha, \beta, \gamma\), y\(x\) son números reales. Si uno establece\(\alpha=1\) y\(\beta=\gamma\), esta serie se reduce a la serie geométrica familiar

    \[y(x)=1+x+x^{2}+x^{3}+\ldots . \nonumber \]

    La serie hipergeométrica es en realidad una solución de la ecuación diferencial

    \[x(1-x) y^{\prime \prime}+[\gamma-(\alpha+\beta+1) x] y^{\prime}-\alpha \beta y=0 \nonumber \]

    Esta ecuación fue introducida por primera vez por Euler y la última estudiada extensamente por Gauss, Kummer y Riemann. A veces se le llama ecuación de Gauss. Tenga en cuenta que hay una simetría en eso\(\alpha\) y\(\beta\) puede intercambiarse sin cambiar la ecuación. Los puntos\(x=0\) y\(x=1\) son puntos singulares regulares. Se pueden buscar soluciones en serie usando el método Frobenius. Se puede confirmar que los resultados de las series hipergeométricas anteriores.

    Se puede obtener una forma más compacta para la serie hipergeométrica introduciendo nueva notación. Uno típicamente introduce el símbolo de Pochhammer,\((\alpha)_{n}\), satisfaciendo (i)\((\alpha)_{0}=1\) if\(\alpha \neq 0\). y (ii)\((\alpha)_{k}=\alpha(1+\alpha) \ldots(k-1+\alpha)\), para\(k=1,2, \ldots\)

    Considerar\((1)_{n}\). Para\(n=0,(1)_{0}=1\). Para\(n>0\),

    \[(1)_{n}=1(1+1)(2+1) \ldots[(n-1)+1] \nonumber \]

    Esto reduce a\((1)_{n}=n !\). De hecho, se puede demostrar que

    \[(k)_{n}=\dfrac{(n+k-1) !}{(k-1) !} \nonumber \]

    para\(k\) y enteros\(n\) positivos. De hecho, uno puede extender este resultado a valores no enteros para\(k\) introduciendo la función gamma:

    \[(\alpha)_{n}=\dfrac{\Gamma(\alpha+n)}{\Gamma(\alpha)} \nonumber \]

    Ahora podemos escribir la serie hipergeométrica en notación estándar como

    \({ }^{1}\)Véase por ejemplo Funciones Especiales de G. E. Andrews, R. Askey, y R. Roy, 1999, Cambridge University Press.

    \[{ }_{2} F_{1}(\alpha, \beta ; \gamma ; x)=\sum_{n=0}^{\infty} \dfrac{(\alpha)_{n}(\beta)_{n}}{n !(\gamma)_{n}} x^{n} \nonumber \]

    Usando esto se puede demostrar que la solución general de la ecuación de Gauss es

    \[y(x)=A_{2} F_{1}(\alpha, \beta ; \gamma ; x)+B_{2} x_{2}^{1-\gamma} F_{1}(1-\gamma+\alpha, 1-\gamma+\beta ; 2-\gamma ; x) . \nonumber \]

    Al dejar\(\beta\) acercarse cuidadosamente\(\infty\), se obtiene lo que se llama la función hipergeométrica confluente. Esto en efecto cambia la naturaleza de la ecuación diferencial. La ecuación de Gauss tiene tres puntos singulares regulares en\(x=0,1, \infty\). Uno puede transformar la ecuación de Gauss dejando\(x=u / \beta\). Esto cambia los puntos singulares regulares a\(u=0, \beta, \infty\). Dejando\(\beta \rightarrow \infty\), dos de los puntos singulares se fusionan.

    La nueva función hipergeométrica confluente se da entonces como

    \[{ }_{1} F_{1}(\alpha ; \gamma ; u)=\lim _{\beta \rightarrow \infty}{ }_{2} F_{1}\left(\alpha, \beta ; \gamma ; \dfrac{u}{\beta}\right) . \nonumber \]

    Esta función satisface la ecuación diferencial

    \[x y^{\prime \prime}+(\gamma-x) y^{\prime}-\alpha y=0 . \nonumber \]

    El propósito de esta sección es únicamente introducir la función hipergeométrica. Muchas otras funciones especiales se relacionan con la función hipergeométrica después de realizar algunas transformaciones variables. Por ejemplo, los polinomios de Legendre están dados por

    \[P_{n}(x)={ }_{2} F_{1}\left(-n, n+1 ; 1 ; \dfrac{1-x}{2}\right) . \nonumber \]

    De hecho, también se puede demostrar que

    \[\sin ^{-1} x=x_{2} F_{1}\left(\dfrac{1}{2}, \dfrac{1}{2} ; \dfrac{3}{2} ; x^{2}\right) . \nonumber \]

    La función Bessel se\(J_{p}(x)\) puede escribir en términos de funciones geométricas confluentes como

    \[J_{p}(x)=\dfrac{1}{\Gamma(p+1)}\left(\dfrac{z}{2}\right)^{p} e^{-i z}{ }_{1} F_{1}\left(\dfrac{1}{2}+p, 1+2 p ; 2 i z\right) . \nonumber \]

    Estas son solo algunas conexiones de las poderosas funciones hipergeométricas con algunas de las funciones elementales que conoces.

    Apéndice: La expansión binomial

    En esta sección tuvimos que recordar la expansión binomial. Esto es simplemente la expansión de la expresión\((a+b)^{p}\). Investigaremos esta expansión primero para potencias enteras no negativas\(p\) y luego derivaremos la expansión para otros valores de\(p\).

    Vamos a enumerar algunas de las expansiones comunes para potencias enteras no negativas.

    \[\begin{aligned} &(a+b)^{0}=1 \\ &(a+b)^{1}=a+b \\ &(a+b)^{2}=a^{2}+2 a b+b^{2} \\ &(a+b)^{3}=a^{3}+3 a^{2} b+3 a b^{2}+b^{3} \\ &(a+b)^{4}=a^{4}+4 a^{3} b+6 a^{2} b^{2}+4 a b^{3}+b^{4} \end{aligned} \nonumber \]

    Ahora miramos los patrones de los términos en las expansiones. Primero, observamos que cada término consiste en un producto de un poder de\(a\) y un poder de\(b\). Los poderes de\(a\) están disminuyendo de\(n\) a 0 en la expansión de\((a+b)^{n}\). De igual manera, las facultades de\(b\) incremento de 0 a\(n\). Las sumas de los exponentes en cada término es\(n\). Entonces, podemos escribir el\((k+1)\) st término en la expansión como\(a^{n-k} b^{k}\). Por ejemplo, en la expansión\((a+b)^{51}\) del sexto término se encuentra\(a^{51-5} b^{5}=a^{46} b^{5}\). Sin embargo, no conocemos el coeficiente numérico en la expansión.

    Ahora enumeramos los coeficientes para las expansiones anteriores.

    Este patrón es el famoso triángulo de Pascal. Hay muchas características interesantes de este triángulo. Pero primero nos preguntaremos cómo se puede generar cada fila.

    Vemos que cada fila comienza y termina con uno. A continuación el segundo término y siguiente al último plazo tiene un coeficiente de\(n\). A continuación observamos que se pueden agregar pares consecutivos en cada fila para obtener entradas en la siguiente fila. Por ejemplo, tenemos

    imagen

    Con esto en mente, podemos generar las siguientes varias filas de nuestro triángulo.

    Por supuesto, tardaría un tiempo en computar cada fila hasta la deseada\(n\). Necesitamos una expresión simple para computar un coeficiente específico. Considerar

    \[\begin{aligned} & n=0: \quad 1 \\ & n=1: \quad 1 \quad 1 \\ & n=2: \quad 1 \quad 2 \quad 1 \\ & n=3: \quad 1 \quad 3 \quad 3 \quad 1 \\ & n=3: \quad 1 \quad 3 \quad 3 \quad 1 \\ & n=4: \quad 1 \quad 4 \quad 6 \quad 4 \quad 1 \end{aligned} \nonumber \]

    imagen

    el término\(k\) th en la expansión de\((a+b)^{n}\). Vamos\(r=k-1\). Entonces este término es de la forma\(C_{r}^{n} a^{n-r} b^{r}\). Hemos visto los coeficientes satisfacer

    \[C_{r}^{n}=C_{r}^{n-1}+C_{r-1}^{n-1} \nonumber \]

    En realidad, se ha encontrado que los coeficientes toman una forma sencilla.

    \[C_{r}^{n}=\dfrac{n !}{(n-r) ! r !}=\left(\begin{array}{c} n \\ r \end{array}\right) \nonumber \]

    Esto no es otra cosa que el símbolo combinatorio para determinar cómo elegir\(n\) las cosas\(r\) a la vez. En nuestro caso, esto tiene sentido. Tenemos que contar el número de formas en las que podemos organizar los productos de\(r\) b's\(n-r a\) con's. Hay\(n\) ranuras para colocar los\(b\)'s. Por ejemplo, el\(r=2\) caso\(n=4\) involucra a los seis productos:\(a a b b, a b a b, a b b a, b a a b, b a b a\), y bbaa. Por lo tanto, es natural usar esta notación. El problema original que preocupaba a Pascal estaba en los juegos de azar.

    Entonces, hemos encontrado que

    \[(a+b)^{n}=\sum_{r=0}^{n}\left(\begin{array}{c} n \\ r \end{array}\right) a^{n-r} b^{r} \nonumber \]

    ¿Y si\(a \gg b\)? ¿Podemos usar esto para obtener una aproximación a\((a+b)^{n}\)? Si descuidamos\(b\) entonces\((a+b)^{n} \simeq a^{n}\). ¿Qué tan buena es esta aproximación? Aquí es donde sería bueno conocer el orden del próximo término en la expansión, que podríamos afirmar usando la\(O\) notación grande. Para hacer esto primero dividimos\(a\) como

    \[(a+b)^{n}=a^{n}\left(1+\dfrac{b}{a}\right)^{n} . \nonumber \]

    Ahora tenemos un pequeño parámetro,\(\dfrac{b}{a}\). Según lo que hemos visto anteriormente, podemos usar la expansión binomial para escribir

    \[\left(1+\dfrac{b}{a}\right)^{n}=\sum_{r=0}^{n}\left(\begin{array}{l} n \\ r \end{array}\right)\left(\dfrac{b}{a}\right)^{r} \nonumber \]

    Así, tenemos una suma finita de términos que involucran poderes de\(\dfrac{b}{a}\). Ya que\(a \gg b\), la mayoría de estos términos se pueden descuidar. Entonces, podemos escribir

    \[\left(1+\dfrac{b}{a}\right)^{n}=1+n \dfrac{b}{a}+O\left(\left(\dfrac{b}{a}\right)^{2}\right) \nonumber \]

    tenga en cuenta que hemos utilizado la observación de que el segundo coeficiente en la fila\(n\) th del triángulo de Pascal es\(n\).

    Resumiendo, esto da entonces

    \[\begin{aligned} (a+b)^{n} &=a^{n}\left(1+\dfrac{b}{a}\right)^{n} \\ &=a^{n}\left(1+n \dfrac{b}{a}+O\left(\left(\dfrac{b}{a}\right)^{2}\right)\right) \\ &=a^{n}+n a^{n} \dfrac{b}{a}+a^{n} O\left(\left(\dfrac{b}{a}\right)^{2}\right) \end{aligned} \nonumber \]

    Por lo tanto, podemos aproximar\((a+b)^{n} \simeq a^{n}+n b a^{n-1}\), con un error del orden de\(b a^{n-2}\). Tenga en cuenta que el orden del error no incluye el factor constante de la expansión. También podríamos usar la aproximación que\((a+b)^{n} \simeq a^{n}\), pero no es tan buena porque el error en este caso es del orden\(b a^{n-1}\).

    Hemos visto que

    \[\dfrac{1}{1-x}=1+x+x^{2}+\ldots \nonumber \]

    Pero,\(\dfrac{1}{1-x}=(1-x)^{-1}\). Esto vuelve a ser un binomio a un poder, pero el poder no es un entero no negativo. Resulta que los coeficientes de tal expansión binomial pueden escribirse de manera similar a la forma en la Ecuación (7.60).

    Este ejemplo sugiere que nuestra suma puede que ya no sea finita. Entonces, para\(p\) un número real, escribimos

    \[(1+x)^{p}=\sum_{r=0}^{\infty}\left(\begin{array}{l} p \\ r \end{array}\right) x^{r} . \nonumber \]

    Sin embargo, rápidamente nos encontramos con problemas con esta forma. Considerar el coeficiente para\(r=1\) en una expansión de\((1+x)^{-1}\). Esto viene dado por

    \[\left(\begin{array}{c} -1 \\ 1 \end{array}\right)=\dfrac{(-1) !}{(-1-1) ! 1 !}=\dfrac{(-1) !}{(-2) ! 1 !} \text {. } \nonumber \]

    Pero lo que es\((-1) ! ?\) Por definición, es

    \[(-1) !=(-1)(-2)(-3) \cdots . \nonumber \]

    ¡Este producto no parece existir! Pero con un poco de cuidado, observamos que

    \[\dfrac{(-1) !}{(-2) !}=\dfrac{(-1)(-2) !}{(-2) !}=-1 \text {. } \nonumber \]

    Entonces, hay que tener cuidado de no interpretar el coeficiente combinatorio literalmente. Hay mejores formas de escribir la expansión binomial general. Podemos escribir el coeficiente general como

    \[\begin{aligned} \left(\begin{array}{l} p \\ r \end{array}\right) &=\dfrac{p !}{(p-r) ! r !} \\ &=\dfrac{p(p-1) \cdots(p-r+1)(p-r) !}{(p-r) ! r !} \\ &=\dfrac{p(p-1) \cdots(p-r+1)}{r !} . \end{aligned} \nonumber \]

    Con esto en mente exponemos ahora el teorema:

    Expansión binomial general La expansión binomial general para\((1+\)\(x)^{p}\) es una simple generalización de la Ecuación (7.60). De\(p\) verdad, tenemos eso

    \[\begin{aligned} (1+x)^{p} &=\sum_{r=0}^{\infty} \dfrac{p(p-1) \cdots(p-r+1)}{r !} x^{r} \\ &=\sum_{r=0}^{\infty} \dfrac{\Gamma(p+1)}{r ! \Gamma(p-r+1)} x^{r} \end{aligned} \nonumber \]

    Muchas veces necesitamos los primeros términos para el caso que\(x \ll 1\):

    \[(1+x)^{p}=1+p x+\dfrac{p(p-1)}{2} x^{2}+O\left(x^{3}\right) . \nonumber \]

    Problemas

    7.1. Considera el conjunto de vectores\((-1,1,1),(1,-1,1),(1,1,-1)\).

    a. Utilice el proceso Gram-Schmidt para encontrar una base ortonormal para\(R^{3}\) usar este conjunto en el orden dado.

    b. ¿Qué obtienes si inviertes el orden de estos vectores?

    7.2. Utilice el proceso Gram-Schmidt para encontrar los primeros cuatro polinomios ortogonales que satisfaga lo siguiente:

    a. Intervalo:\((-\infty, \infty)\) Peso Función:\(e^{-x^{2}} .\)

    b. Intervalo:\((0, \infty)\) Peso Función:\(e^{-x}\).

    7.3. Encuentra\(P_{4}(x)\) usando

    a. La Fórmula Rodrigues en la Ecuación (7.12)

    b. La fórmula de recursión de tres términos en la Ecuación (7.14).

    7.4. Utilice la función de generación de polinomios de Legendre para derivar la fórmula de recursión\(P_{n+1}^{\prime}(x)-P_{n-1}^{\prime}(x)=(2 n+1) P_{n}(x)\). A saber, considerar\(\dfrac{\partial g(x, t)}{\partial x}\) usar la Ecuación (7.18) para derivar una fórmula derivada de tres términos. Luego use la fórmula de recursión de tres términos (7.14) para obtener el resultado anterior.

    7.5. Utilice la relación de recursión (7.14) para evaluar\(\int_{-1}^{1} x P_{n}(x) P_{m}(x) d x, n \leq m\).

    7.6. Expande lo siguiente en una serie de Fourier-Legendre para\(x \in(-1,1)\).
    a\(f(x)=x^{2}\).
    b\(f(x)=5 x^{4}+2 x^{3}-x+3\).
    c.\(f(x)=\left\{\begin{array}{c}-1,-1<x<0, \\ 1, \quad 0<x<1 .\end{array}\right.\) d.\(f(x)=\left\{\begin{array}{l}x,-1<x<0 \\ 0,0<x<1\end{array}\right.\)

    7.7. Utilice la integración por partes para mostrar\(\Gamma(x+1)=x \Gamma(x)\).

    7.8. Exprese lo siguiente como funciones Gamma. Es decir, tomando nota de la forma\(\Gamma(x+1)=\int_{0}^{\infty} t^{x} e^{-t} d t\) y utilizando una sustitución apropiada, cada expresión puede escribirse en términos de una función Gamma.

    a.\(\int_{0}^{\infty} x^{2 / 3} e^{-x} d x\)

    b.\(\int_{0}^{\infty} x^{5} e^{-x^{2}} d x\)

    c.\(\int_{0}^{1}\left[\ln \left(\dfrac{1}{x}\right)\right]^{n} d x\)

    7.9. Los polinomios hermitas,\(H_{n}(x)\), satisfacen lo siguiente:

    i\(<H_{n}, H_{m}>=\int_{-\infty}^{\infty} e^{-x^{2}} H_{n}(x) H_{m}(x) d x=\sqrt{\pi} 2^{n} n ! \delta_{n, m}\).

    ii. \(H_{n}^{\prime}(x)=2 n H_{n-1}(x)\).

    iii. \(H_{n+1}(x)=2 x H_{n}(x)-2 n H_{n-1}(x)\).

    iv. \(H_{n}(x)=(-1)^{n} e^{x^{2}} \dfrac{d^{n}}{d x^{n}}\left(e^{-x^{2}}\right)\)

    Usando estos, demuestre que

    a\(H_{n}^{\prime \prime}-2 x H_{n}^{\prime}+2 n H_{n}=0\). [Utilizar las propiedades ii. y iii.]

    b\(\int_{-\infty}^{\infty} x e^{-x^{2}} H_{n}(x) H_{m}(x) d x=\sqrt{\pi} 2^{n-1} n !\left[\delta_{m, n-1}+2(n+1) \delta_{m, n+1}\right]\). [Utilizar las propiedades i. y iii.]

    \(H_{n}(0)=\left\{\begin{array}{cc}0, & n \text { odd, } \\ (-1)^{m} \dfrac{(2 m) !}{m !}, & n=2 m\end{array}\right.\)c. [Dejar\(x=0\) entrar iii. e iterar. Nota de iv. que\(H_{0}(x)=1\) y\(H_{1}(x)=1\).

    7.10. En Maple se puede escribir simplificar (LegendRep\(\left.\left(2^{*} \mathbf{n}-2,0\right)-\operatorname{Legendre} \mathbf{P}\left(2^{*} \mathbf{n}, 0\right)\right)\); para encontrar un valor para\(P_{2 n-2}(0)-P_{2 n}(0)\). Da el resultado en términos de funciones Gamma. No obstante, en\(7.6\) Example for Fourier-Legendre series, ¡el valor se da en términos de dobles factoriales! Entonces, tenemos

    \[P_{2 n-2}(0)-P_{2 n}(0)=\dfrac{\sqrt{\pi}(4 n-1)}{2 \Gamma(n+1) \Gamma\left(\dfrac{3}{2}-n\right)}=(-1)^{n} \dfrac{(2 n-3) ! !}{(2 n-2) ! !} \dfrac{4 n-1}{2 n} . \nonumber \]

    Verificarás que ambos resultados son los mismos haciendo lo siguiente:

    a. Demostrar que\(P_{2 n}(0)=(-1)^{n} \dfrac{(2 n-1) ! !}{(2 n) ! !}\) utilizando la función generadora y una expansión binomial.

    b. Demostrar que\(\Gamma\left(n+\dfrac{1}{2}\right)=\dfrac{(2 n-1) ! !}{2^{n}} \sqrt{\pi}\) el uso\(\Gamma(x)=(x-1) \Gamma(x-1)\) y la iteración.

    c. Verificar el resultado de Maple que\(P_{2 n-2}(0)-P_{2 n}(0)=\dfrac{\sqrt{\pi}(4 n-1)}{2 \Gamma(n+1) \Gamma\left(\dfrac{3}{2}-n\right)}\).

    d. ¿Se\(P_{2 n-2}(0)-P_{2 n}(0)\) puede simplificar aún más alguna expresión para? 7.11. Una solución La ecuación de Bessel,\(x^{2} y^{\prime \prime}+x y^{\prime}+\left(x^{2}-n^{2}\right) y=0\),, se puede encontrar usando la conjetura\(y(x)=\sum_{j=0}^{\infty} a_{j} x^{j+n}\). Se obtiene la relación de recurrencia\(a_{j}=\dfrac{-1}{j(2 n+j)} a_{j-2}\). Demuestre que para\(a_{0}=\left(n ! 2^{n}\right)^{-1}\) nosotros obtenemos la función Bessel del primer tipo de orden\(n\) a partir de los valores pares\(j=2 k\):

    \[J_{n}(x)=\sum_{k=0}^{\infty} \dfrac{(-1)^{k}}{k !(n+k) !}\left(\dfrac{x}{2}\right)^{n+2 k} \nonumber \]

    7.12. Usa la serie infinita en el último problema para derivar las identidades derivadas (7.41) y (7.42):

    a\(\dfrac{d}{d x}\left[x^{n} J_{n}(x)\right]=x^{n} J_{n-1}(x)\).

    b.\(\dfrac{d}{d x}\left[x^{-n} J_{n}(x)\right]=-x^{-n} J_{n+1}(x)\)

    7.13. Las funciones de Bessel\(J_{p}(\lambda x)\) son soluciones de\(x^{2} y^{\prime \prime}+x y^{\prime}+\left(\lambda^{2} x^{2}-p^{2}\right) y=0\). Asumir eso\(x \in(0,1)\) y\(J_{p}(\lambda)=0\) aquello y\(J_{p}(0)\) es finito.

    a. Poner esta ecuación diferencial en forma de Sturm-Liouville.

    b. Demostrar que las soluciones correspondientes a diferentes valores propios son ortogonales escribiendo primero la identidad de Green correspondiente utilizando estas funciones de Bessel.

    c. Demostrar que

    \[\int_{0}^{1} x J_{p}(\lambda x) J_{p}(\mu x) d x=\dfrac{1}{2} J_{p+1}^{2}(\lambda)=\dfrac{1}{2} J_{p}^{\prime 2}(\lambda) \nonumber \]

    Tenga en cuenta que\(\lambda\) es un cero de\(J_{p}(x)\)

    7.14. Podemos reescribir nuestra función Bessel en una forma que permita que el orden no sea entero usando la función gamma. Necesitarás los resultados de Problema\(7.10 \mathrm{~b}\) para\(\Gamma\left(k+\dfrac{1}{2}\right)\).

    a. Ampliar la definición de serie de la función Bessel del primer tipo de orden\(\nu, J_{\nu}(x)\), para\(\nu \geq 0\) escribiendo la solución de serie para\(y(x)\) en Problem\(7.11\) usando la función gamma.

    b. Extender la serie a\(J_{-\nu(x)}\), para\(\nu \geq 0\). Discutir la serie resultante y lo que sucede cuando\(\nu\) es un entero positivo.

    c. Utilice estos resultados para obtener expresiones de forma cerrada para\(J_{1 / 2}(x)\) y\(J_{-1 / 2}(x)\). Utilice la fórmula de recursión para las funciones de Bessel para obtener una forma cerrada para\(J_{3 / 2}(x)\).

    7.15. En este problema derivarás la expansión

    \[x^{2}=\dfrac{c^{2}}{2}+4 \sum_{j=2}^{\infty} \dfrac{J_{0}\left(\alpha_{j} x\right)}{\alpha_{j}^{2} J_{0}\left(\alpha_{j} c\right)}, \quad 0<x<c \nonumber \]

    donde las\(\alpha_{j}^{\prime} s\) son las raíces positivas de\(J_{1}(\alpha c)=0\), siguiendo los siguientes pasos. a. Listar los primeros cinco valores de\(\alpha\) para\(J_{1}(\alpha c)=0\) usar la Tabla\(7.4\) y la Figura 7.7. [Nota: Tenga cuidado al determinar\(\alpha_{1}\).]

    b. Demuéstralo\(\left\|J_{0}\left(\alpha_{1} x\right)\right\|^{2}=\dfrac{c^{2}}{2}\). Recordar,

    \[\left\|J_{0}\left(\alpha_{j} x\right)\right\|^{2}=\int_{0}^{c} x J_{0}^{2}\left(\alpha_{j} x\right) d x \nonumber \]

    c. Demostrar que\(\left\|J_{0}\left(\alpha_{j} x\right)\right\|^{2}=\dfrac{c^{2}}{2}\left[J_{0}\left(\alpha_{j} c\right)\right]^{2}, j=2,3, \ldots\) (Este es el paso más involucrado.) Primera nota de Problema\(7.13\) que\(y(x)=J_{0}\left(\alpha_{j} x\right)\) es una solución de

    \[x^{2} y^{\prime \prime}+x y^{\prime}+\alpha_{j}^{2} x^{2} y=0 . \nonumber \]

    i. Demostrar que la forma de Sturm-Liouville de esta ecuación diferencial es\(\left(x y^{\prime}\right)^{\prime}=-\alpha_{j}^{2} x y\)

    ii. Multiplicar la ecuación en la parte i. por\(y(x)\) e integrar de\(x=0\)\(x=c\) a para obtener

    \[\begin{aligned} \int_{0}^{c}\left(x y^{\prime}\right)^{\prime} y d x &=-\alpha_{j}^{2} \int_{0}^{c} x y^{2} d x \\ &=-\alpha_{j}^{2} \int_{0}^{c} x J_{0}^{2}\left(\alpha_{j} x\right) d x \end{aligned} \nonumber \]

    iii. Señalando que\(y(x)=J_{0}\left(\alpha_{j} x\right)\), integre el lado izquierdo por partes y utilice lo siguiente para simplificar la ecuación resultante.

    1. \(J_{0}^{\prime}(x)=-J_{1}(x)\)de la Ecuación (7.42).
    2. Ecuación\((7.45)\)
    3. \(J_{2}\left(\alpha_{j} c\right)+J_{0}\left(\alpha_{j} c\right)=0\)de la Ecuación (7.43).

    iv. Ahora deberías tener la información suficiente para completar esta parte.

    d. Utilice los resultados de las partes b y c para derivar los coeficientes de expansión para

    \[x^{2}=\sum_{j=1}^{\infty} c_{j} J_{0}\left(\alpha_{j} x\right) \nonumber \]

    con el fin de obtener la expansión deseada.

    7.16. Utilice las identidades derivadas de las funciones de Bessel\((7.41)-(7.42)\), y la integración por partes para mostrar que

    \[\int x^{3} J_{0}(x) d x=x^{3} J_{1}(x)-2 x^{2} J_{2}(x) \nonumber \]

    Funciones de Green

    En este capítulo investigaremos la solución de ecuaciones diferenciales no homogéneas utilizando las funciones de Green. Nuestro objetivo es resolver la ecuación diferencial no homogénea

    \[L[u]=f, \nonumber \]

    donde\(L\) es un operador diferencial. La solución es dada formalmente por

    \[u=L^{-1}[f] \nonumber \]

    La inversa de un operador diferencial es un operador integral, que buscamos escribir en la forma

    \[u=\int G(x, \xi) f(\xi) d \xi \nonumber \]

    La función\(G(x, \xi)\) se conoce como el núcleo del operador integral y se llama la función de Green.

    La historia de la función de los Verdes se remonta a 1828, cuando George Green publicó un trabajo en el que buscó soluciones de la ecuación de Poisson\(\nabla^{2} u=f\) para el potencial eléctrico\(u\) definido dentro de un volumen acotado con condiciones de límite especificadas en la superficie del volumen. Introdujo una función ahora identificada como lo que Riemann luego acuñó la “función del verde”.

    Restringiremos nuestra discusión a las funciones de Green para ecuaciones diferenciales ordinarias. Las extensiones a ecuaciones diferenciales parciales suelen ser uno de los temas de un curso de PDE. Comenzaremos nuestras investigaciones examinando soluciones de ecuaciones diferenciales lineales de segundo orden no homogéneas utilizando el Método de Variación de Parámetros, el cual se ve típicamente en un primer curso sobre ecuaciones diferenciales. Identificaremos la función de Green tanto para problemas de valor inicial como de valor límite. Luego nos centraremos en el valor límite de las funciones de Green y sus propiedades. La determinación de las funciones de Green también es posible utilizando la teoría de Sturm-Liouville. Esto lleva a una representación en serie de las funciones de Green, que estudiaremos en la última sección de este capítulo.

    El Método de Variación de Parámetros

    Estamos interesados en resolver ecuaciones diferenciales lineales de segundo orden no homogéneas de la forma

    \[a_{2}(x) y^{\prime \prime}(x)+a_{1}(x) y^{\prime}(x)+a_{0}(x) y(x)=f(x) . \nonumber \]

    La solución general de esta ecuación diferencial lineal de segundo orden no homogénea se encuentra como una suma de la solución general de la ecuación homogénea,

    \[a_{2}(x) y^{\prime \prime}(x)+a_{1}(x) y^{\prime}(x)+a_{0}(x) y(x)=0, \nonumber \]

    y una solución particular de la ecuación no homogénea. Recordemos del Capítulo 1 que existen varios enfoques para encontrar soluciones particulares de ecuaciones no homogéneas. Cualquier conjetura sería suficiente. Una conjetura inteligente, basada en el Método de Coeficientes Indeterminados, se revisó previamente en el Capítulo 1. Sin embargo, un método más metódico, que se ve por primera vez en un primer curso en ecuaciones diferenciales, es el Método de Variación de Parámetros. Además, exploramos la versión matricial de este método en la Sección\(2.8\). Revisaremos este método en esta sección y lo extenderemos a la solución de problemas de valor límite.

    Si bien es suficiente derivar el método para la ecuación diferencial general anterior, consideraremos resolver ecuaciones que estén en forma SturmLiouville, o autoadjoint. Por lo tanto, aplicaremos el Método de Variación de Parámetros a la ecuación

    \[\dfrac{d}{d x}\left(p(x) \dfrac{d y(x)}{d x}\right)+q(x) y(x)=f(x) \nonumber \]

    Obsérvese que\(f(x)\) en esta ecuación no se encuentra la misma función que en la ecuación general planteada al inicio de esta sección.

    Comenzamos asumiendo que hemos determinado dos soluciones linealmente independientes de la ecuación homogénea. La solución general es dada entonces por

    \[y(x)=c_{1} y_{1}(x)+c_{2} y_{2}(x) . \nonumber \]

    Para determinar una solución particular de la ecuación no homogénea, variamos los parámetros\(c_{1}\) y\(c_{2}\) en la solución del problema homogéneo haciéndolos funciones de la variable independiente. Así, buscamos una solución particular de la ecuación no homogénea en la forma

    \[y_{p}(x)=c_{1}(x) y_{1}(x)+c_{2}(x) y_{2}(x) . \nonumber \]

    Para que esto sea una solución, necesitamos demostrar que satisface la ecuación diferencial. Primero calculamos las derivadas de\(y_{p}(x)\). La primera derivada

    \[y_{p}^{\prime}(x)=c_{1}(x) y_{1}^{\prime}(x)+c_{2}(x) y_{2}^{\prime}(x)+c_{1}^{\prime}(x) y_{1}(x)+c_{2}^{\prime}(x) y_{2}(x) . \nonumber \]

    Sin pérdida de generalidad, pondremos a cero la suma de los dos últimos términos. (Se puede demostrar que se obtendrían los mismos resultados si no lo hiciéramos. Ver Problema 8.2.) Entonces, tenemos

    \[c_{1}^{\prime}(x) y_{1}(x)+c_{2}^{\prime}(x) y_{2}(x)=0 . \nonumber \]

    Ahora, tomamos la segunda derivada de los términos restantes para obtener

    \[y_{p}^{\prime \prime}(x)=c_{1}(x) y_{1}^{\prime \prime}(x)+c_{2}(x) y_{2}^{\prime \prime}(x)+c_{1}^{\prime}(x) y_{1}^{\prime}(x)+c_{2}^{\prime}(x) y_{2}^{\prime}(x) \nonumber \]

    Expandiendo el término derivado en la Ecuación (8.3),

    \[p(x) y_{p}^{\prime \prime}(x)+p^{\prime}(x) y_{p}^{\prime}(x)+q(x) y_{p}(x)=f(x), \nonumber \]

    e insertando las expresiones para\(y_{p}, y_{p}^{\prime}(x)\), y\(y_{p}^{\prime \prime}(x)\), tenemos

    \[\begin{aligned} f(x)=& p(x)\left[c_{1}(x) y_{1}^{\prime \prime}(x)+c_{2}(x) y_{2}^{\prime \prime}(x)+c_{1}^{\prime}(x) y_{1}^{\prime}(x)+c_{2}^{\prime}(x) y_{2}^{\prime}(x)\right] \\ &+p^{\prime}(x)\left[c_{1}(x) y_{1}^{\prime}(x)+c_{2}(x) y_{2}^{\prime}(x)\right]+q(x)\left[c_{1}(x) y_{1}(x)+c_{2}(x) y_{2}(x)\right] . \end{aligned} \nonumber \]

    Reordenando términos, encontramos

    \[\begin{aligned} f(x)=& c_{1}(x)\left[p(x) y_{1}^{\prime \prime}(x)+p^{\prime}(x) y_{1}^{\prime}(x)+q(x) y_{1}(x)\right] \\ &+c_{2}(x)\left[p(x) y_{2}^{\prime \prime}(x)+p^{\prime}(x) y_{2}^{\prime}(x)+q(x) y_{2}(x)\right] \\ &+p(x)\left[c_{1}^{\prime}(x) y_{1}^{\prime}(x)+c_{2}^{\prime}(x) y_{2}^{\prime}(x)\right] . \end{aligned} \nonumber \]

    Dado que\(y_{1}(x)\) y\(y_{2}(x)\) son ambas soluciones de la ecuación homogénea. Las dos primeras expresiones entre corchetes desaparecen. Dividiendo por\(p(x)\), tenemos que

    \[c_{1}^{\prime}(x) y_{1}^{\prime}(x)+c_{2}^{\prime}(x) y_{2}^{\prime}(x)=\dfrac{f(x)}{p(x)} . \nonumber \]

    Nuestro objetivo es determinar\(c_{1}(x)\) y\(c_{2}(x)\). En este análisis, hemos encontrado que las derivadas de estas funciones satisfacen un sistema lineal de ecuaciones (en los\(c_{i}\)'s):

    Sistema Lineal para Variación de Parámetros
    \(c_{1}^{\prime}(x) y_{1}(x)+c_{2}^{\prime}(x) y_{2}(x)=0 .\)
    \(c_{1}^{\prime}(x) y_{1}^{\prime}(x)+c_{2}^{\prime}(x) y_{2}^{\prime}(x)=\dfrac{f(x)}{p(x)}\)

    Este sistema se resuelve fácilmente para dar

    \[\begin{aligned} c_{1}^{\prime}(x) &=-\dfrac{f(x) y_{2}(x)}{p(x)\left[y_{1}(x) y_{2}^{\prime}(x)-y_{1}^{\prime}(x) y_{2}(x)\right]} \\ c_{2}^{\prime}(x) &=\dfrac{f(x) y_{1}(x)}{p(x)\left[y_{1}(x) y_{2}^{\prime}(x)-y_{1}^{\prime}(x) y_{2}(x)\right]} \end{aligned} \nonumber \]

    Observamos que el denominador en estas expresiones involucra al Wronskian de las soluciones al problema homogéneo. Recordemos que

    \[W\left(y_{1}, y_{2}\right)(x)=\left|\begin{array}{ll} y_{1}(x) & y_{2}(x) \\ y_{1}^{\prime}(x) & y_{2}^{\prime}(x) \end{array}\right| \nonumber \]

    Además, podemos demostrar que el denominador,\(p(x) W(x)\), es constante. Diferenciar esta expresión y usar la forma homogénea de la ecuación diferencial demuestra esta afirmación.

    \[\begin{aligned} \dfrac{d}{d x}(p(x) W(x))=& \dfrac{d}{d x}\left[p(x)\left(y_{1}(x) y_{2}^{\prime}(x)-y_{1}^{\prime}(x) y_{2}(x)\right)\right] \\ =&\left.y_{1}(x) \dfrac{d}{d x}\left(p(x) y_{2}^{\prime}(x)\right)\right)+p(x) y_{2}^{\prime}(x) y_{1}^{\prime}(x) \\ &\left.-y_{2}(x) \dfrac{d}{d x}\left(p(x) y_{1}^{\prime}(x)\right)\right)-p(x) y_{1}^{\prime}(x) y_{2}^{\prime}(x) \\ =&-y_{1}(x) q(x) y_{2}(x)+y_{2}(x) q(x) y_{1}(x)=0 \end{aligned} \nonumber \]

    Por lo tanto,

    \[p(x) W(x)=\text { constant. } \nonumber \]

    Entonces, después de una integración, encontramos los parámetros como

    \[\begin{aligned} &c_{1}(x)=-\int_{x_{0}}^{x} \dfrac{f(\xi) y_{2}(\xi)}{p(\xi) W(\xi)} d \xi \\ &c_{2}(x)=\int_{x_{1}}^{x} \dfrac{f(\xi) y_{1}(\xi)}{p(\xi) W(\xi)} d \xi \end{aligned} \nonumber \]

    donde\(x_{0}\) y\(x_{1}\) son constantes arbitrarias que se determinarán posteriormente.

    Por lo tanto, la solución particular de (8.3) puede escribirse como

    \[y_{p}(x)=y_{2}(x) \int_{x_{1}}^{x} \dfrac{f(\xi) y_{1}(\xi)}{p(\xi) W(\xi)} d \xi-y_{1}(x) \int_{x_{0}}^{x} \dfrac{f(\xi) y_{2}(\xi)}{p(\xi) W(\xi)} d \xi \nonumber \]

    Como nota adicional, por lo general no reescribimos nuestros problemas de valor inicial en forma autocomplementaria. Recordemos que para una ecuación de la forma

    \[a_{2}(x) y^{\prime \prime}(x)+a_{1}(x) y^{\prime}(x)+a_{0}(x) y(x)=g(x) . \nonumber \]

    obtuvimos la forma autoadjoint multiplicando la ecuación por

    \[\dfrac{1}{a_{2}(x)} e^{\int \dfrac{a_{1}(x)}{a_{2}(x)} d x}=\dfrac{1}{a_{2}(x)} p(x) . \nonumber \]

    Esto da la forma estándar

    \[\left(p(x) y^{\prime}(x)\right)^{\prime}+q(x) y(x)=f(x) \nonumber \]

    donde

    \[f(x)=\dfrac{1}{a_{2}(x)} p(x) g(x) . \nonumber \]

    Con esto en mente, la Ecuación (8.13) se convierte

    \[y_{p}(x)=y_{2}(x) \int_{x_{1}}^{x} \dfrac{g(\xi) y_{1}(\xi)}{a_{2}(\xi) W(\xi)} d \xi-y_{1}(x) \int_{x_{0}}^{x} \dfrac{g(\xi) y_{2}(\xi)}{\left.a_{(} \xi\right) W(\xi)} d \xi . \nonumber \]

    Ejemplo 8.1. Considerar la ecuación diferencial no homogénea

    \[y^{\prime \prime}-y^{\prime}-6 y=20 e^{-2 x} . \nonumber \]

    Buscamos una solución particular a esta ecuación. Primero, observamos que dos soluciones linealmente independientes de esta ecuación son

    \[y_{1}(x)=e^{3 x}, \quad y_{2}(x)=e^{-2 x} . \nonumber \]

    Entonces, la solución particular toma la forma

    \[y_{p}(x)=c_{1}(x) e^{3 x}+c_{2}(x) e^{-2 x} \nonumber \]

    Solo tenemos que determinar los\(c_{i}\)'s Dado que este problema no está en forma autoadconjunta, usaremos

    \[\dfrac{f(x)}{p(x)}=\dfrac{g(x)}{a_{2}(x)}=20 e^{-2 x} \nonumber \]

    como se ha visto anteriormente. Entonces el sistema lineal que tenemos que resolver es

    \[\begin{aligned} c_{1}^{\prime}(x) e^{3 x}+c_{2}^{\prime}(x) e^{-2 x} &=0 \\ 3 c_{1}^{\prime}(x) e^{3 x}-2 c_{2}^{\prime}(x) e^{-2 x} &=20 e^{-2 x} \end{aligned} \nonumber \]

    Multiplicar la primera ecuación por 2 y sumar las ecuaciones rinde

    \[5 c_{1}^{\prime}(x) e^{3 x}=20 e^{-2 x} \nonumber \]

    o

    \[c_{1}^{\prime}(x)=4 e^{-5 x} \nonumber \]

    Insertando esto de nuevo en la primera ecuación del sistema, tenemos

    \[4 e^{-2 x}+c_{2}^{\prime}(x) e^{-2 x}=0, \nonumber \]

    lo que lleva a

    \[c_{2}^{\prime}(x)=-4 . \nonumber \]

    Estas ecuaciones se integran fácilmente para dar

    \[c_{1}(x)=-\dfrac{4}{5} e^{-5 x}, \quad c_{2}(x)=-4 x . \nonumber \]

    Por lo tanto, la solución particular se ha encontrado como

    \[\begin{aligned} y_{p}(x) &=c_{1}(x) e^{3 x}+c_{2}(x) e^{-2 x} \\ &=-\dfrac{4}{5} e^{-5 x} e^{3 x}-4 x e^{-2 x} \\ &=-\dfrac{4}{5} e^{-2 x}-4 x e^{-2 x} \end{aligned} \nonumber \]

    Señalando que el primer término puede ser absorbido en la solución del problema homogéneo. Entonces, la solución particular puede escribirse simplemente como

    \[y_{p}(x)=-4 x e^{-2 x} \nonumber \]

    Esta es la respuesta que habrías encontrado si hubieras utilizado el Método Modificado de Coeficientes Indeterminados.

    Ejemplo 8.2. Revisando el último ejemplo,\(y^{\prime \prime}-y^{\prime}-6 y=20 e^{-2 x}\).

    La solución formal en la Ecuación (8.13) no se utilizó en el último ejemplo. En cambio, procedimos del Sistema Lineal para Variación de Parámetros anteriormente en esta sección. Este es el enfoque más natural para encontrar la solución particular de la ecuación no homogénea. Dado que usaremos la Ecuación (8.13) para obtener soluciones a problemas de valor inicial y valor límite, podría ser útil usarla para resolver este problema.

    Del último ejemplo tenemos

    \[y_{1}(x)=e^{3 x}, \quad y_{2}(x)=e^{-2 x} \nonumber \]

    Tenemos que computar el Wronskian:

    \[W(x)=W\left(y_{1}, y_{2}\right)(x)=\left|\begin{array}{cc} e^{3 x} & e^{-2 x} \\ 3 e^{3 x} & -2 e^{-2 x} \end{array}\right|=-5 e^{x} \nonumber \]

    Además, necesitamos\(p(x)\), lo que viene dado por

    \[p(x)=\exp \left(-\int d x\right)=e^{-x} . \nonumber \]

    Entonces, eso lo vemos\(p(x) W(x)=-5\). En efecto, es constante, tal y como habíamos demostrado antes.

    Por último, necesitamos\(f(x)\). Aquí es donde hay que tener cuidado ya que el problema original no estaba en forma autoadconjunta. Tenemos de la ecuación original que\(g(x)=20 e^{-2 x}\) y\(a_{2}(x)=1\). Entonces,

    \[f(x)=\dfrac{p(x)}{a_{2}(x)} g(x)=20 e^{-3 x} \nonumber \]

    Ahora estamos listos para construir la solución.

    \[\begin{aligned} y_{p}(x) &=y_{2}(x) \int_{x_{1}}^{x} \dfrac{f(\xi) y_{1}(\xi)}{p(\xi) W(\xi)} d \xi-y_{1}(x) \int_{x_{0}}^{x} \dfrac{f(\xi) y_{2}(\xi)}{p(\xi) W(\xi)} d \xi \\ &=e^{-2 x} \int_{x_{1}}^{x} \dfrac{20 e^{-3 \xi} e^{3 \xi}}{-5} d \xi-e^{3 x} \int_{x_{0}}^{x} \dfrac{20 e^{-3 \xi} e^{-2 \xi}}{-5} d \xi \\ &=-4 e^{-2 x} \int_{x_{1}}^{x} d \xi+4 e^{3 x} \int_{x_{0}}^{x} e^{-5 x} d \xi \\ &=-\left.4 \xi e^{-2 x}\right|_{x_{1}} ^{x}-\left.\dfrac{4}{5} e^{3 x} e^{-5 \xi}\right|_{x_{0}} ^{x} \\ &=-4 x e^{-2 x}-\dfrac{4}{5} e^{-2 x}+4 x_{1} e^{-2 x}+\dfrac{4}{5} e^{-5 x_{0}} e^{3 x} \end{aligned} \nonumber \]

    Tenga en cuenta que los dos primeros términos que habíamos encontrado en el último ejemplo. Los dos términos restantes son simplemente combinaciones lineales de\(y_{1}\) y\(y_{2}\). Así, realmente tenemos la solución al problema homogéneo contenido dentro de la solución cuando utilizamos los límites constantes arbitrarios en las integrales. En la siguiente sección haremos uso de estas constantes a la hora de resolver problemas de valor inicial y valor límite.

    En la siguiente sección determinaremos las constantes desconocidas sujetas ya sea a condiciones iniciales o a condiciones de límite. Esto nos permitirá combinar las dos integrales y luego determinar las funciones apropiadas de Green.

    Funciones de Green de Valor Inicial y Límite

    Comenzamos con la solución particular (8.13) de nuestra ecuación diferencial no homogénea (8.3). Esto se puede combinar con la solución general del problema homogéneo para dar la solución general de la ecuación diferencial no homogénea:

    \[y(x)=c_{1} y_{1}(x)+c_{2} y_{2}(x)+y_{2}(x) \int_{x_{1}}^{x} \dfrac{f(\xi) y_{1}(\xi)}{p(\xi) W(\xi)} d \xi-y_{1}(x) \int_{x_{0}}^{x} \dfrac{f(\xi) y_{2}(\xi)}{p(\xi) W(\xi)} d \xi \nonumber \]

    Como se ve en el último apartado, se\(x_{1}\) pudo encontrar una elección adecuada de\(x_{0}\) y para que no sea necesario escribir explícitamente la solución al problema homogéneo,\(c_{1} y_{1}(x)+c_{2} y_{2}(x)\). Sin embargo, establecer la solución en esta forma nos permitirá utilizar\(x_{0}\) y\(x_{1}\) determinar soluciones particulares que satisfagan ciertas condiciones homogéneas.

    Ahora consideraremos problemas de valor inicial y valor límite. Cada tipo de problema conducirá a una solución de la forma

    \[y(x)=c_{1} y_{1}(x)+c_{2} y_{2}(x)+\int_{a}^{b} G(x, \xi) f(\xi) d \xi \nonumber \]

    donde la función se\(G(x, \xi)\) identificará como la función del Verde y los límites de integración se encontrarán en la integral. Habiendo identificado la función de Green, veremos otros métodos en la última sección para determinar la función del Green.

    Función del Verde del Valor Inicial

    Comenzamos por considerar la solución del problema de valor inicial

    \[\begin{array}{r} \dfrac{d}{d x}\left(p(x) \dfrac{d y(x)}{d x}\right)+q(x) y(x)=f(x) . \\ y(0)=y_{0}, \quad y^{\prime}(0)=v_{0} . \end{array} \nonumber \]

    Por supuesto, podríamos haber estudiado la forma original de nuestra ecuación diferencial sin escribirla en forma autoadjoint. Sin embargo, esta forma es útil cuando se estudian problemas de valor límite. Volveremos a este punto más adelante.

    Primero notamos que podemos resolver este problema de valor inicial resolviendo dos problemas de valor inicial separados. Suponemos que la solución del problema homogéneo satisface las condiciones iniciales originales:

    \[\begin{aligned} \dfrac{d}{d x}\left(p(x) \dfrac{d y_{h}(x)}{d x}\right)+q(x) y_{h}(x) &=0 \\ y_{h}(0)=y_{0}, \quad y_{h}^{\prime}(0) &=v_{0} \end{aligned} \nonumber \]

    Entonces asumimos que la solución particular satisface el problema

    \[\begin{array}{r} \dfrac{d}{d x}\left(p(x) \dfrac{d y_{p}(x)}{d x}\right)+q(x) y_{p}(x)=f(x) \\ y_{p}(0)=0, \quad y_{p}^{\prime}(0)=0 \end{array} \nonumber \]

    Dado que la ecuación diferencial es lineal, entonces sabemos que\(y(x)=y_{h}(x)+\)\(y_{p}(x)\) es una solución de la ecuación no homogénea. Sin embargo, esta solución satisface las condiciones iniciales:

    \[\begin{gathered} y(0)=y_{h}(0)+y_{p}(0)=y_{0}+0=y_{0}, \\ y^{\prime}(0)=y_{h}^{\prime}(0)+y_{p}^{\prime}(0)=v_{0}+0=v_{0} . \end{gathered} \nonumber \]

    Por lo tanto, solo necesitamos enfocarnos en resolver para la solución particular que satisfaga condiciones iniciales homogéneas.

    Recupera la Ecuación (8.13) de la última sección,

    \[y_{p}(x)=y_{2}(x) \int_{x_{1}}^{x} \dfrac{f(\xi) y_{1}(\xi)}{p(\xi) W(\xi)} d \xi-y_{1}(x) \int_{x_{0}}^{x} \dfrac{f(\xi) y_{2}(\xi)}{p(\xi) W(\xi)} d \xi \nonumber \]

    Ahora buscamos valores para\(x_{0}\) y\(x_{1}\) que satisfaga las condiciones iniciales homogéneas,\(y_{p}(0)=0\) y\(y_{p}^{\prime}(0)=0\).

    En primer lugar, consideramos\(y_{p}(0)=0\). Tenemos

    \[y_{p}(0)=y_{2}(0) \int_{x_{1}}^{0} \dfrac{f(\xi) y_{1}(\xi)}{p(\xi) W(\xi)} d \xi-y_{1}(0) \int_{x_{0}}^{0} \dfrac{f(\xi) y_{2}(\xi)}{p(\xi) W(\xi)} d \xi \nonumber \]

    Aquí,\(y_{1}(x)\) y\(y_{2}(x)\) se toman como cualquier solución de la ecuación diferencial homogénea. Supongamos que\(y_{1}(0)=0\) y\(y_{2} \neq(0)=0\). Entonces tenemos

    \[y_{p}(0)=y_{2}(0) \int_{x_{1}}^{0} \dfrac{f(\xi) y_{1}(\xi)}{p(\xi) W(\xi)} d \xi \nonumber \]

    Podemos forzar\(y_{p}(0)=0\) si nos fijamos\(x_{1}=0\).

    Ahora, consideramos\(y_{p}^{\prime}(0)=0\). Primero diferenciamos la solución y encontramos que

    \[y_{p}^{\prime}(x)=y_{2}^{\prime}(x) \int_{0}^{x} \dfrac{f(\xi) y_{1}(\xi)}{p(\xi) W(\xi)} d \xi-y_{1}^{\prime}(x) \int_{x_{0}}^{x} \dfrac{f(\xi) y_{2}(\xi)}{p(\xi) W(\xi)} d \xi \nonumber \]

    ya que las contribuciones de diferenciar las integrales se cancelarán. Evaluando este resultado en\(x=0\), tenemos

    \[y_{p}^{\prime}(0)=-y_{1}^{\prime}(0) \int_{x_{0}}^{0} \dfrac{f(\xi) y_{2}(\xi)}{p(\xi) W(\xi)} d \xi \nonumber \]

    Suponiendo eso\(y_{1}^{\prime}(0) \neq 0\), podemos establecer\(x_{0}=0\).

    Por lo tanto, hemos encontrado que

    \[\begin{aligned} y_{p}(x) &=y_{2}(x) \int_{0}^{x} \dfrac{f(\xi) y_{1}(\xi)}{p(\xi) W(\xi)} d \xi-y_{1}(x) \int_{0}^{x} \dfrac{f(\xi) y_{2}(\xi)}{p(\xi) W(\xi)} d \xi \\ &=\int_{0}^{x}\left[\dfrac{y_{1}(\xi) y_{2}(x)-y_{1}(x) y_{2}(\xi)}{p(\xi) W \xi)}\right] f(\xi) d \xi \end{aligned} \nonumber \]

    Este resultado está en la forma correcta y podemos identificar el valor temporal, o inicial, la función de Green. Entonces, la solución particular se da como

    \[y_{p}(x)=\int_{0}^{x} G(x, \xi) f(\xi) d \xi, \nonumber \]

    donde el valor inicial La función de Green se define como

    \[G(x, \xi)=\dfrac{y_{1}(\xi) y_{2}(x)-y_{1}(x) y_{2}(\xi)}{p(\xi) W \xi)} \nonumber \]

    Resumimos

    Solución del problema de valor inicial (8.21)

    La solución del problema de valor inicial\((8.21)\) toma la forma

    \[y(x)=y_{h}(x)+\int_{0}^{x} G(x, \xi) f(\xi) d \xi, \nonumber \]

    donde

    \[G(x, \xi)=\dfrac{y_{1}(\xi) y_{2}(x)-y_{1}(x) y_{2}(\xi)}{p(\xi) W \xi)} \nonumber \]

    y la solución del problema homogéneo satisface las condiciones iniciales,

    \[y_{h}(0)=y_{0}, \quad y_{h}^{\prime}(0)=v_{0} \nonumber \]

    Ejemplo 8.3. Resolver el problema del oscilador forzado

    \[x^{\prime \prime}+x=2 \cos t, \quad x(0)=4, \quad x^{\prime}(0)=0 . \nonumber \]

    Este problema se resolvió en el Capítulo 2 utilizando la teoría de sistemas no homogéneos. Primero resolvemos el problema homogéneo con condiciones iniciales no homogéneas:

    \[x_{h}^{\prime \prime}+x_{h}=0, \quad x_{h}(0)=4, \quad x_{h}^{\prime}(0)=0 . \nonumber \]

    Se ve fácilmente que la solución es\(x_{h}(t)=4 \cos t\).

    A continuación, construimos la función del Verde. Necesitamos dos soluciones linealmente independientes,\(y_{1}(x), y_{2}(x)\), a la ecuación diferencial homogénea satisfactoria\(y_{1}(0)=0\) y\(y_{2}^{\prime}(0)=0\). Entonces, elegimos\(y_{1}(t)=\sin t\) y\(y_{2}(t)=\cos t\). El Wronskian se encuentra como

    \[W(t)=y_{1}(t) y_{2}^{\prime}(t)-y_{1}^{\prime}(t) y_{2}(t)=-\sin ^{2} t-\cos ^{2} t=-1 . \nonumber \]

    Ya que\(p(t)=1\) en este problema, tenemos

    \[\begin{aligned} G(t, \tau) &=\dfrac{y_{1}(\tau) y_{2}(t)-y_{1}(t) y_{2}(\tau)}{p(\tau) W \tau)} \\ &=\sin t \cos \tau-\sin \tau \cos t \\ &=\sin (t-\tau) \end{aligned} \nonumber \]

    Tenga en cuenta que la función del Verde depende de\(t-\tau\). Si bien esto es útil en algunos contextos, utilizaremos la forma expandida.

    Ahora podemos determinar la solución particular de la ecuación diferencial no homogénea. Tenemos

    \[\begin{aligned} x_{p}(t) &=\int_{0}^{t} G(t, \tau) f(\tau) d \tau \\ &=\int_{0}^{t}(\sin t \cos \tau-\sin \tau \cos t)(2 \cos \tau) d \tau \end{aligned} \nonumber \]

    \[\begin{aligned} & 8.2 \text { Initial and Boundary Value Green's Function } \\ =& 2 \sin t \int_{0}^{t} \cos ^{2} \tau d \tau-2 \cos t \int_{0}^{t} \sin \tau \cos \tau d \tau \\ =& 2 \sin t\left[\dfrac{\tau}{2}+\dfrac{1}{2} \sin 2 \tau\right]_{0}^{t}-2 \cos t\left[\dfrac{1}{2} \sin ^{2} \tau\right]_{0}^{t} \\ =& t \sin t \end{aligned} \nonumber \]

    Por lo tanto, la solución particular es\(x(t)=4 \cos t+t \sin t\). Esta es la misma solución que habíamos encontrado anteriormente en el Capítulo\(2 .\)

    Como se señaló en la última sección, generalmente no se nos da la ecuación diferencial en forma autoadjoint. Generalmente, toma la forma

    \[a_{2}(x) y^{\prime \prime}(x)+a_{1}(x) y^{\prime}(x)+a_{0}(x) y(x)=g(x) . \nonumber \]

    El término de conducción se convierte

    \[f(x)=\dfrac{1}{a_{2}(x)} p(x) g(x) . \nonumber \]

    Insertando esto en la forma de función de Green de la solución particular, obtenemos lo siguiente:

    Solución usando la función de Green

    La solución del problema del valor inicial,

    \[a_{2}(x) y^{\prime \prime}(x)+a_{1}(x) y^{\prime}(x)+a_{0}(x) y(x)=g(x) \nonumber \]

    toma la forma

    \[y(x)=c_{1} y_{1}(x)+c_{2} y_{2}(x)+\int_{0}^{t} G(x, \xi) g(\xi) d \xi, \nonumber \]

    donde la función de Green es la función definida por partes

    \[G(x, \xi)=\dfrac{y_{1}(\xi) y_{2}(x)-y_{1}(x) y_{2}(\xi)}{a_{2}(\xi) W(\xi)} \nonumber \]

    \(y_{1}(x)\)y\(y_{2}(x)\) son soluciones de la ecuación homogénea satisfaciendo

    \[y_{1}(0)=0, y_{2}(0) \neq 0, y_{1}^{\prime}(0) \neq 0, y_{2}^{\prime}(0)=0 . \nonumber \]

    Función del verde del valor límite

    Pasamos ahora a los problemas de valor límite. Nos centraremos en el problema

    \[\begin{array}{r} \dfrac{d}{d x}\left(p(x) \dfrac{d y(x)}{d x}\right)+q(x) y(x)=f(x), \quad a<x<b \\ y(a)=0, \quad y(b)=0 \end{array} \nonumber \]

    Sin embargo, la teoría general funciona para otras formas de condiciones de límite homogéneas.

    Una vez más, buscamos\(x_{0}\) y\(x_{1}\) en la forma

    \[y(x)=y_{2}(x) \int_{x_{1}}^{x} \dfrac{f(\xi) y_{1}(\xi)}{p(\xi) W(\xi)} d \xi-y_{1}(x) \int_{x_{0}}^{x} \dfrac{f(\xi) y_{2}(\xi)}{p(\xi) W(\xi)} d \xi \nonumber \]

    de manera que la solución al problema del valor límite pueda escribirse como una sola integral que involucre una función de Green. Aquí\(y_{h}(x)\) absorbimos en las integrales con una elección adecuada de límites inferiores en las integrales.

    Primero elegimos soluciones de la ecuación diferencial homogénea de tal manera que\(y_{1}(a)=0, y_{2}(b)=0\) y\(y_{1}(b) \neq 0, y_{2}(a) \neq 0\). Entonces, tenemos

    \[\begin{aligned} y(a) &=y_{2}(a) \int_{x_{1}}^{a} \dfrac{f(\xi) y_{1}(\xi)}{p(\xi) W(\xi)} d \xi-y_{1}(a) \int_{x_{0}}^{a} \dfrac{f(\xi) y_{2}(\xi)}{p(\xi) W(\xi)} d \xi \\ &=y_{2}(a) \int_{x_{1}}^{a} \dfrac{f(\xi) y_{1}(\xi)}{p(\xi) W(\xi)} d \xi . \end{aligned} \nonumber \]

    Esta expresión es cero si\(x_{1}=a\).

    En\(x=b\) encontramos que

    \[\begin{aligned} y(b) &=y_{2}(b) \int_{x_{1}}^{b} \dfrac{f(\xi) y_{1}(\xi)}{p(\xi) W(\xi)} d \xi-y_{1}(b) \int_{x_{0}}^{b} \dfrac{f(\xi) y_{2}(\xi)}{p(\xi) W(\xi)} d \xi \\ &=-y_{1}(b) \int_{x_{0}}^{b} \dfrac{f(\xi) y_{2}(\xi)}{p(\xi) W(\xi)} d \xi \end{aligned} \nonumber \]

    Esto se desvanece para\(x_{0}=b\).

    Entonces, hemos encontrado que

    \[y(x)=y_{2}(x) \int_{a}^{x} \dfrac{f(\xi) y_{1}(\xi)}{p(\xi) W(\xi)} d \xi-y_{1}(x) \int_{b}^{x} \dfrac{f(\xi) y_{2}(\xi)}{p(\xi) W(\xi)} d \xi . \nonumber \]

    Estamos buscando una función de Green para que la solución pueda escribirse como una integral. Podemos mover las funciones de\(x\) debajo de la integral. También, ya que\(a<x<b\), podemos voltear los límites en la segunda integral. Esto da

    \[y(x)=\int_{a}^{x} \dfrac{f(\xi) y_{1}(\xi) y_{2}(x)}{p(\xi) W(\xi)} d \xi+\int_{x}^{b} \dfrac{f(\xi) y_{1}(x) y_{2}(\xi)}{p(\xi) W(\xi)} d \xi \nonumber \]

    Este resultado se puede escribir de forma compacta:

    Función del verde del valor límite

    La solución del problema del valor límite toma la forma

    \[y(x)=\int_{a}^{b} G(x, \xi) f(\xi) d \xi, \nonumber \]

    donde la función de Green es la función definida por partes

    \[G(x, \xi)= \begin{cases}\dfrac{y_{1}(\xi) y_{2}(x)}{p W}, & a \leq \xi \leq x \\ \dfrac{y_{1}(x) y_{2}(\xi)}{p W}, x \leq \xi \leq b\end{cases} \nonumber \]

    La función de Green satisface varias propiedades, que exploraremos más a fondo en la siguiente sección. Por ejemplo, la función del Verde satisface las condiciones de contorno en\(x=a\) y\(x=b\). Así,

    \[\begin{aligned} G(a, \xi) &=\dfrac{y_{1}(a) y_{2}(\xi)}{p W}=0 \\ G(b, \xi) &=\dfrac{y_{1}(\xi) y_{2}(b)}{p W}=0 \end{aligned} \nonumber \]

    Además, la función del Verde es simétrica en sus argumentos. Intercambiar los argumentos da

    \[G(\xi, x)=\left\{\begin{array}{l} \dfrac{y_{1}(x) y_{2}(\xi)}{p W}, a \leq x \leq \xi \\ \dfrac{y_{1}(\xi) y_{2}(x)}{p W} \xi \leq x \leq b \end{array}\right. \nonumber \]

    Pero una mirada cuidadosa a la forma original demuestra que

    \[G(x, \xi)=G(\xi, x) \nonumber \]

    Haremos uso de estas propiedades en la siguiente sección para determinar rápidamente las funciones del Green para otros problemas de valor límite.

    Ejemplo 8.4. Resolver el problema del valor límite\(y^{\prime \prime}=x^{2}, \quad y(0)=0=y(1)\) utilizando la función del valor límite Verde.

    Primero resolvemos la ecuación homogénea,\(y^{\prime \prime}=0\). Después de dos integraciones, tenemos\(y(x)=A x+B\), para\(A\) y\(B\) constantes por determinar.

    Necesitamos una solución satisfactoria\(y_{1}(0)=0\) Así,\(0=y_{1}(0)=B\). Entonces, podemos escoger\(y_{1}(x)=x\), ya que\(A\) es arbitrario.

    La otra solución tiene que satisfacer\(y_{2}(1)=0\). Entonces,\(0=y_{2}(1)=A+B\). Esto se puede resolver para\(B=-A\). Nuevamente,\(A\) es arbitrario y vamos a elegir\(A=-1\). Así,\(y_{2}(x)=1-x\).

    Por este problema\(p(x)=1\). Por lo tanto, para\(y_{1}(x)=x\) y\(y_{2}(x)=1-x\)

    \[p(x) W(x)=y_{1}(x) y_{2}^{\prime}(x)-y_{1}^{\prime}(x) y_{2}(x)=x(-1)-1(1-x)=-1 . \nonumber \]

    Tenga en cuenta que\(p(x) W(x)\) es una constante, como debe ser. Ahora construimos la función del Verde. Tenemos

    \[G(x, \xi)=\left\{\begin{array}{l} -\xi(1-x), 0 \leq \xi \leq x \\ -x(1-\xi), x \leq \xi \leq 1 \end{array}\right. \nonumber \]

    Observe la simetría entre las dos ramas de la función del Verde. Además, la función del Verde satisface condiciones de límite homogéneas:\(G(0, \xi)=0\), desde la rama inferior y\(G(1, \xi)=0\), desde la rama superior.

    Finalmente, insertamos la función de Green en la forma integral de la solución:

    \[\begin{aligned} y(x) &=\int_{0}^{1} G(x, \xi) f(\xi) d \xi \\ &=\int_{0}^{1} G(x, \xi) \xi^{2} d \xi \\ &=-\int_{0}^{x} \xi(1-x) \xi^{2} d \xi-\int_{x}^{1} x(1-\xi) \xi^{2} d \xi \\ &=-(1-x) \int_{0}^{x} \xi^{3} d \xi-x \int_{x}^{1}\left(\xi^{2}-\xi^{3}\right) d \xi \\ &=-(1-x)\left[\dfrac{\xi^{4}}{4}\right]_{0}^{x}-x\left[\dfrac{\xi^{3}}{3}-\dfrac{\xi^{4}}{4}\right]_{x}^{1} \\ &=-\dfrac{1}{4}(1-x) x^{4}-\dfrac{1}{12} x(4-3)+\dfrac{1}{12} x\left(4 x^{3}-3 x^{4}\right) \\ &=\dfrac{1}{12}\left(x^{4}-x\right) \end{aligned} \nonumber \]

    Propiedades de Green's Functions

    Hemos anotado algunas propiedades de las funciones de Green en la última sección. En esta sección vamos a elaborar algunas de estas propiedades como una herramienta para construir rápidamente las funciones de Green para problemas de valor límite. Aquí hay una lista de las propiedades basadas en nuestra solución anterior.

    Propiedades de la Función de los Verdes

    Ecuación Diferencial:

    \(\dfrac{\partial}{\partial x}\left(p(x) \dfrac{\partial G(x, \xi)}{\partial x}\right)+q(x) G(x, \xi)=0, x \neq \xi\)

    Porque\(x<\xi\) estamos en la segunda rama y\(G(x, \xi)\) es proporcional a\(y_{1}(x)\). Así, ya que\(y_{1}(x)\) es una solución de la ecuación homogénea, entonces así es\(G(x, \xi)\). Porque\(x>\xi\) estamos en la primera rama y\(G(x, \xi)\) es proporcional a\(y_{2}(x)\). Entonces, una vez más\(G(x, \xi)\) es una solución del problema homogéneo.

    Condiciones de Límite

    Porque\(x=a\) estamos en la segunda rama y\(G(x, \xi)\) es proporcional a\(y_{1}(x)\). Así, cualquiera que sea la condición\(y_{1}(x)\) que satisfaga,\(G(x, \xi)\) satisfará. Se puede hacer una declaración similar para\(x=b\).

    1. Simetría o Reciprocidad: Esto\(G(x, \xi)=G(\xi, x)\) lo habíamos mostrado en la última sección.
    2. Continuidad de\(\mathbf{G}\) en\(x=\xi: G\left(\xi^{+}, \xi\right)=G\left(\xi^{-}, \xi\right)\) Aquí hemos definido

    \(x=\xi\)Ambientando en ambas ramas, tenemos

    \[\dfrac{y_{1}(\xi) y_{2}(\xi)}{p W}=\dfrac{y_{1}(\xi) y_{2}(\xi)}{p W} \nonumber \]

    1. Salto Discontinuidad de\(\dfrac{\partial G}{\partial x}\) al\(x=\xi\):

    \[\dfrac{\partial G\left(\xi^{+}, \xi\right)}{\partial x}-\dfrac{\partial G\left(\xi^{-}, \xi\right)}{\partial x}=\dfrac{1}{p(\xi)} \nonumber \]

    Este caso no es tan obvio. Primero calculamos las derivadas anotando qué rama está involucrada y luego evaluamos las derivadas y las restamos. Así, tenemos

    \[\begin{aligned} \dfrac{\partial G\left(\xi^{+}, \xi\right)}{\partial x}-\dfrac{\partial G\left(\xi^{-}, \xi\right)}{\partial x} &=-\dfrac{1}{p W} y_{1}(\xi) y_{2}^{\prime}(\xi)+\dfrac{1}{p W} y_{1}^{\prime}(\xi) y_{2}(\xi) \\ &=-\dfrac{y_{1}^{\prime}(\xi) y_{2}(\xi)-y_{1}(\xi) y_{2}^{\prime}(\xi)}{p(\xi)\left(y_{1}(\xi) y_{2}^{\prime}(\xi)-y_{1}^{\prime}(\xi) y_{2}(\xi)\right)} \\ &=\dfrac{1}{p(\xi)} \end{aligned} \nonumber \]

    Ahora mostramos cómo el conocimiento de estas propiedades permite construir rápidamente una función de Green.

    \[\begin{aligned} & G\left(\xi^{+}, x\right)=\lim _{x \downarrow \xi} G(x, \xi), \quad x>\xi, \\ & G\left(\xi^{-}, x\right)=\lim _{x \uparrow \xi} G(x, \xi), \quad x<\xi . \end{aligned} \nonumber \]

    Ejemplo 8.5. Construir la función del Verde para el problema

    \[\begin{gathered} y^{\prime \prime}+\omega^{2} y=f(x), \quad 0<x<1, \\ y(0)=0=y(1), \end{gathered} \nonumber \]

    con\(\omega \neq 0\).

    I. Encontrar soluciones a la ecuación homogénea.

    Una solución general a la ecuación homogénea se da como

    \[y_{h}(x)=c_{1} \sin \omega x+c_{2} \cos \omega x . \nonumber \]

    Por lo tanto, para\(x \neq \xi\)

    \[G(x, \xi)=c_{1}(\xi) \sin \omega x+c_{2}(\xi) \cos \omega x \nonumber \]

    II. Condiciones de Límite.

    Primero, tenemos\(G(0, \xi)=0\) para\(0 \leq x \leq \xi\). Entonces,

    \[G(0, \xi)=c_{2}(\xi) \cos \omega x=0 . \nonumber \]

    Entonces,

    \[G(x, \xi)=c_{1}(\xi) \sin \omega x, \quad 0 \leq x \leq \xi \nonumber \]

    Segundo, tenemos\(G(1, \xi)=0\) para\(\xi \leq x \leq 1\). Entonces,

    \[G(1, \xi)=c_{1}(\xi) \sin \omega+c_{2}(\xi) \cos \omega .=0 \nonumber \]

    Se puede elegir una solución con

    \[c_{2}(\xi)=-c_{1}(\xi) \tan \omega . \nonumber \]

    Esto da

    \[G(x, \xi)=c_{1}(\xi) \sin \omega x-c_{1}(\xi) \tan \omega \cos \omega x . \nonumber \]

    Esto puede simplificarse factorizando los términos restantes\(c_{1}(\xi)\) y colocando los términos restantes sobre un denominador común. El resultado es

    \[\begin{aligned} G(x, \xi) &=\dfrac{c_{1}(\xi)}{\cos \omega}[\sin \omega x \cos \omega-\sin \omega \cos \omega x] \\ &=-\dfrac{c_{1}(\xi)}{\cos \omega} \sin \omega(1-x) \end{aligned} \nonumber \]

    Dado que el coeficiente es arbitrario en este punto, ya que se puede escribir el resultado como

    \[G(x, \xi)=d_{1}(\xi) \sin \omega(1-x), \quad \xi \leq x \leq 1 \nonumber \]

    Observamos que podríamos haber comenzado\(y_{2}(x)=\sin \omega(1-x)\) como una de nuestras soluciones linealmente independientes del problema homogéneo en anticipación que\(y_{2}(x)\) satisface la segunda condición límite.

    Simetría o Reciprocidad

    Ahora eso lo imponemos\(G(x, \xi)=G(\xi, x)\). A este punto tenemos que

    \[G(x, \xi)=\left\{\begin{array}{cl} c_{1}(\xi) \sin \omega x, & 0 \leq x \leq \xi \\ d_{1}(\xi) \sin \omega(1-x), & \xi \leq x \leq 1 \end{array}\right. \nonumber \]

    Podemos hacer que las ramas sean simétricas escogiendo las formas adecuadas para\(c_{1}(\xi)\) y\(d_{1}(\xi)\). Elegimos\(c_{1}(\xi)=C \sin \omega(1-\xi)\) y\(d_{1}(\xi)=C \sin \omega \xi\). Entonces,

    \[G(x, \xi)=\left\{\begin{array}{l} C \sin \omega(1-\xi) \sin \omega x, 0 \leq x \leq \xi \\ C \sin \omega(1-x) \sin \omega \xi, \xi \leq x \leq 1 \end{array} .\right. \nonumber \]

    Ahora la función del Verde es simétrica y aún tenemos que determinar la constante\(C\). Observamos que podríamos haber llegado a este punto usando el Método de Variación de Parámetros resultado donde\(C=\dfrac{1}{p W}\).

    IV. Continuidad de\(G(x, \xi)\)

    Observamos que ya tenemos continuidad en virtud de la simetría impuesta en el último paso.

    V. Salto Discontinuidad en\(\dfrac{\partial}{\partial x} G(x, \xi)\).

    Aún tenemos que determinar\(C\). Podemos hacer esto usando la discontinuidad de salto de la derivada:

    \[\dfrac{\partial G\left(\xi^{+}, \xi\right)}{\partial x}-\dfrac{\partial G\left(\xi^{-}, \xi\right)}{\partial x}=\dfrac{1}{p(\xi)} \nonumber \]

    Por nuestro problema\(p(x)=1\). Entonces, insertando la función de nuestro Green, tenemos

    \[\begin{aligned} 1 &=\dfrac{\partial G\left(\xi^{+}, \xi\right)}{\partial x}-\dfrac{\partial G\left(\xi^{-}, \xi\right)}{\partial x} \\ &=\dfrac{\partial}{\partial x}[C \sin \omega(1-x) \sin \omega \xi]_{x=\xi}-\dfrac{\partial}{\partial x}[C \sin \omega(1-\xi) \sin \omega x\\ &=-\omega C \cos \omega(1-\xi) \sin \omega \xi-\omega C \sin \omega(1-\xi) \cos \omega \xi \\ &=-\omega C \sin \omega(\xi+1-\xi) \\ &=-\omega C \sin \omega . \end{aligned} \nonumber \]

    Por lo tanto,

    \[C=-\dfrac{1}{\omega \sin \omega} . \nonumber \]

    Por último, tenemos la función de nuestro Green:

    \[G(x, \xi)=\left\{\begin{array}{l} -\dfrac{\sin \omega(1-\xi) \sin \omega x}{\omega \sin \omega}, 0 \leq x \leq \xi \\ -\dfrac{\sin \omega(1-x) \sin \omega \xi}{\omega \sin \omega}, \xi \leq x \leq 1 \end{array} .\right. \nonumber \]

    Es instructivo comparar este resultado con el resultado de Variación de Parámetros. Tenemos las funciones\(y_{1}(x)=\sin \omega x\) y\(y_{2}(x)=\sin \omega(1-x)\) como las soluciones de la ecuación homogénea satisfactoria\(y_{1}(0)=0\) y\(y_{2}(1)=0\). Tenemos que computar\(p W\):

    \[\begin{aligned} p(x) W(x) &=y_{1}(x) y_{2}^{\prime}(x)-y_{1}^{\prime}(x) y_{2}(x) \\ &=-\omega \sin \omega x \cos \omega(1-x)-\omega \cos \omega x \sin \omega(1-x) \\ &=-\omega \sin \omega \end{aligned} \nonumber \]

    Al insertar este resultado en el resultado Variación de parámetros para la función del Verde, se obtiene la misma función de Verde que la anterior.

    La función Dirac Delta

    Desarrollaremos una teoría más general de las funciones de Green para ecuaciones diferenciales ordinarias que engloba algunas de las propiedades enumeradas. La función de Green satisface una ecuación diferencial homogénea para\(x \neq \xi\),

    \[\dfrac{\partial}{\partial x}\left(p(x) \dfrac{\partial G(x, \xi)}{\partial x}\right)+q(x) G(x, \xi)=0, \quad x \neq \xi \nonumber \]

    Cuando\(x=\xi\), vimos que la derivada tiene un salto en su valor. Esto es similar a la función step, o Heaviside,

    \[H(x)=\left\{\begin{array}{l} 1, x>0 \\ 0, x<0 \end{array}\right. \nonumber \]

    En el caso de la función step, la derivada es cero en todas partes excepto en el salto. En el salto, hay una pendiente infinita, aunque técnicamente, hemos aprendido que no hay derivado en este punto. Intentaremos remediar esto introduciendo la función delta de Dirac,

    \[\delta(x)=\dfrac{d}{d x} H(x) . \nonumber \]

    Luego mostraremos que la función del Verde satisface la ecuación diferencial

    \[\dfrac{\partial}{\partial x}\left(p(x) \dfrac{\partial G(x, \xi)}{\partial x}\right)+q(x) G(x, \xi)=\delta(x-\xi) \nonumber \]

    La función delta de Dirac,\(\delta(x)\), es un ejemplo de lo que se conoce como una función generalizada, o una distribución. Dirac había introducido esta función en la década de 1930 en su estudio de la mecánica cuántica como herramienta útil. Posteriormente se estudió en una teoría general de las distribuciones y se encontró que era más que una simple herramienta utilizada por los físicos. La función delta de Dirac, como cualquier distribución, solo tiene sentido bajo una integral.

    Antes de definir la función delta de Dirac e introducir algunas de sus propiedades, veremos algunas representaciones que conducen a la definición. Consideraremos los límites de dos secuencias de funciones.

    Primero definimos la secuencia de funciones

    \[f_{n}(x)=\left\{\begin{array}{l} 0,|x|>\dfrac{1}{n} \\ \dfrac{n}{2},|x|<\dfrac{1}{n} \end{array} .\right. \nonumber \]

    Esta es una secuencia de funciones como se muestra en la Figura 8.1. Como\(n \rightarrow \infty\), encontramos que el límite es cero para\(x \neq 0\) y es infinito para\(x=0\). Sin embargo, el área debajo de cada miembro de las secuencias es una ya que cada caja tiene altura\(\dfrac{n}{2}\) y ancho\(\dfrac{2}{n}\). Así, la función limitante es cero en la mayoría de los puntos pero tiene área uno. (¡En este punto el lector que es nuevo en esto debería estar rascándose la cabeza!)

    imagen
    Figura 8.1. Una trama de las funciones\(f_{n}(x)\) para\(n=2,4,8\).

    El límite no es realmente una función. Es una función generalizada. Se llama la función delta de Dirac, que se define por

    1. \(\delta(x)=0\)para\(x \neq 0\)
    2. \(\int_{-\infty}^{\infty} \delta(x) d x=1\)

    Otro ejemplo es la secuencia definida por

    \[D_{n}(x)=\dfrac{2 \sin n x}{x} \nonumber \]

    Podemos graficar esta función. Primero reescribimos esta función como

    \[D_{n}(x)=2 n \dfrac{\sin n x}{n x} . \nonumber \]

    Ahora es fácil verlo como\(x \rightarrow 0, D_{n}(x) \rightarrow 2 n\). Para grandes\(x\), La función tiende a cero. Una gráfica de esta función se encuentra en la Figura 8.2. Para grandes\(n\) el pico crece y los valores de\(D_{n}(x)\) para\(x \neq 0\) tienden a cero como se muestra en la Figura 8.3.

    Observamos que en el límite\(n \rightarrow \infty, D_{n}(x)=0\) para\(x \neq 0\) y es infinito en\(x=0\). Sin embargo, usando análisis complejos se puede demostrar que el área es

    \[\int_{-\infty}^{\infty} D_{n}(x) d x=2 \pi \nonumber \]

    Así, el área es constante para cada uno\(n\).

    imagen
    Figura 8.2. Una gráfica de la función\(D_{n}(x)\) para\(n=4\).
    imagen
    Figura 8.3. Una gráfica de la función\(D_{n}(x)\) para\(n=40\).

    Hay dos propiedades principales que definen una función delta de Dirac. Primero tiene que el área bajo la función delta es una,

    \[\int_{-\infty}^{\infty} \delta(x) d x=1 \nonumber \]

    La integración en intervalos más generales da

    \[\int_{a}^{b} \delta(x) d x=1, \quad 0 \in[a, b] \nonumber \]

    y

    \[\int_{a}^{b} \delta(x) d x=0, \quad 0 \notin[a, b] . \nonumber \]

    Otra propiedad común es lo que a veces se llama la propiedad tamizada. Es decir, integrar el producto de una función y la función delta “tamiza” un valor específico de la función. Está dado por

    \[\int_{-\infty}^{\infty} \delta(x-a) f(x) d x=f(a) \nonumber \]

    Esto se puede ver al señalar que la función delta es cero en todas partes excepto en\(x=a\). Por lo tanto, el integrando es cero en todas partes y la única contribución de\(f(x)\) será de\(x=a\). Entonces, podemos sustituir por\(f(x)\)\(f(a)\) debajo de la integral. Ya que\(f(a)\) es una constante, tenemos que

    \[\int_{-\infty}^{\infty} \delta(x-a) f(x) d x=\int_{-\infty}^{\infty} \delta(x-a) f(a) d x=f(a) \int_{-\infty}^{\infty} \delta(x-a) d x=f(a) \nonumber \]

    Otra propiedad resulta del uso de un argumento escalado, ax. En este caso demostramos que

    \[\delta(a x)=|a|^{-1} \delta(x) \nonumber \]

    Como es habitual, esto sólo tiene sentido bajo un signo integral. Entonces, colocamos\(\delta(a x)\) dentro de una integral y hacemos una sustitución\(y=a x\):

    \[\begin{aligned} \int_{-\infty}^{\infty} \delta(a x) d x &=\lim _{L \rightarrow \infty} \int_{-L}^{L} \delta(a x) d x \\ &=\lim _{L \rightarrow \infty} \dfrac{1}{a} \int_{-a L}^{a L} \delta(y) d y \end{aligned} \nonumber \]

    Si\(a>0\) entonces

    \[\int_{-\infty}^{\infty} \delta(a x) d x=\dfrac{1}{a} \int_{-\infty}^{\infty} \delta(y) d y \nonumber \]

    Sin embargo, si\(a<0\) entonces

    \[\int_{-\infty}^{\infty} \delta(a x) d x=\dfrac{1}{a} \int_{\infty}^{-\infty} \delta(y) d y=-\dfrac{1}{a} \int_{-\infty}^{\infty} \delta(y) d y \nonumber \]

    La diferencia general en un signo menos multiplicativo puede ser absorbida en una expresión cambiando el factor\(1 / a\) a\(1 /|a|\). Así,

    \[\int_{-\infty}^{\infty} \delta(a x) d x=\dfrac{1}{|a|} \int_{-\infty}^{\infty} \delta(y) d y . \nonumber \]

    Ejemplo 8.6. Evaluar\(\int_{-\infty}^{\infty}(5 x+1) \delta(4(x-2)) d x\). Esta es una integración sencilla:

    \[\int_{-\infty}^{\infty}(5 x+1) \delta(4(x-2)) d x=\dfrac{1}{4} \int_{-\infty}^{\infty}(5 x+1) \delta(x-2) d x=\dfrac{11}{4} \nonumber \]

    Una escala más general del argumento toma la forma\(\delta(f(x))\). La integral de se\(\delta(f(x))\) puede evaluar dependiendo del número de ceros de\(f(x)\). Si solo hay un cero,\(f\left(x_{1}\right)=0\), entonces uno tiene ese

    \[\int_{-\infty}^{\infty} \delta(f(x)) d x=\int_{-\infty}^{\infty} \dfrac{1}{\left|f^{\prime}\left(x_{1}\right)\right|} \delta\left(x-x_{1}\right) d x \nonumber \]

    Esto se puede probar usando la sustitución\(y=f(x)\) y se deja como un ejercicio para el lector. Este resultado suele escribirse como

    \[\delta(f(x))=\dfrac{1}{\left|f^{\prime}\left(x_{1}\right)\right|} \delta\left(x-x_{1}\right) . \nonumber \]

    Ejemplo 8.7. Evaluar\(\int_{-\infty}^{\infty} \delta(3 x-2) x^{2} d x\).

    Esto no es sencillo\(\delta(x-a)\). Entonces, necesitamos encontrar los ceros de\(f(x)=3 x-2\). Sólo hay uno,\(x=\dfrac{2}{3}\). También,\(\left|f^{\prime}(x)\right|=3\). Por lo tanto, tenemos

    \[\int_{-\infty}^{\infty} \delta(3 x-2) x^{2} d x=\int_{-\infty}^{\infty} \dfrac{1}{3} \delta\left(x-\dfrac{2}{3}\right) x^{2} d x=\dfrac{1}{3}\left(\dfrac{2}{3}\right)^{2}=\dfrac{4}{27} . \nonumber \]

    Tenga en cuenta que esta integral puede ser evaluada a la larga mediante el uso de la sustitución\(y=3 x-2\). Entonces,\(d y=3 d x\) y\(x=(y+2) / 3\). Esto da

    \[\int_{-\infty}^{\infty} \delta(3 x-2) x^{2} d x=\dfrac{1}{3} \int_{-\infty}^{\infty} \delta(y)\left(\dfrac{y+2}{3}\right)^{2} d y=\dfrac{1}{3}\left(\dfrac{4}{9}\right)=\dfrac{4}{27} \nonumber \]

    De manera más general, se puede demostrar que cuando\(f\left(x_{j}\right)=0\) y\(f^{\prime}\left(x_{j}\right) \neq 0\) para\(x_{j}\)\(j=1,2, \ldots, n\), (es decir, cuando uno tiene ceros\(n\) simples), entonces

    \[\delta(f(x))=\sum_{j=1}^{n} \dfrac{1}{\left|f^{\prime}\left(x_{j}\right)\right|} \delta\left(x-x_{j}\right) . \nonumber \]

    Ejemplo 8.8. Evaluar\(\int_{0}^{2 \pi} \cos x \delta\left(x^{2}-\pi^{2}\right) d x\)

    En este caso el argumento de la función delta tiene dos raíces simples. A saber,\(f(x)=x^{2}-\pi^{2}=0\) cuándo\(x=\pm \pi\). Además,\(f^{\prime}(x)=2 x\). Por lo tanto,\(\left|f^{\prime}(\pm \pi)\right|=2 \pi\). Esto da

    \[\delta\left(x^{2}-\pi^{2}\right)=\dfrac{1}{2 \pi}[\delta(x-\pi)+\delta(x+\pi)] . \nonumber \]

    Insertando esta expresión en la integral y señalando que no\(x=-\pi\) está en el intervalo de integración, tenemos

    \[\begin{aligned} \int_{0}^{2 \pi} \cos x \delta\left(x^{2}-\pi^{2}\right) d x &=\dfrac{1}{2 \pi} \int_{0}^{2 \pi} \cos x[\delta(x-\pi)+\delta(x+\pi)] d x \\ &=\dfrac{1}{2 \pi} \cos \pi=-\dfrac{1}{2 \pi} \end{aligned} \nonumber \]

    Finalmente, anteriormente notamos que existe una relación entre la función Heaviside, o step, y la función delta de Dirac. Definimos la función Heaviside como

    \[H(x)=\left\{\begin{array}{l} 0, x<0 \\ 1, x>0 \end{array}\right. \nonumber \]

    Entonces, es fácil verlo\(H^{\prime}(x)=\delta(x)\).

    Ecuación diferencial de función de Green

    Como se señaló, la función de Green satisface la ecuación diferencial

    \[\dfrac{\partial}{\partial x}\left(p(x) \dfrac{\partial G(x, \xi)}{\partial x}\right)+q(x) G(x, \xi)=\delta(x-\xi) \nonumber \]

    y satisface condiciones homogéneas. Hemos utilizado la función de Green para resolver la ecuación no homogénea

    \[\dfrac{d}{d x}\left(p(x) \dfrac{d y(x)}{d x}\right)+q(x) y(x)=f(x) \nonumber \]

    Estas ecuaciones se pueden escribir en las formas más compactas

    \[\begin{gathered} \mathcal{L}[y]=f(x) \\ \mathcal{L}[G]=\delta(x-\xi) \end{gathered} \nonumber \]

    Multiplicando la primera ecuación por\(G(x, \xi)\), la segunda ecuación por\(y(x)\), y luego restando, tenemos

    \[G \mathcal{L}[y]-y \mathcal{L}[G]=f(x) G(x, \xi)-\delta(x-\xi) y(x) . \nonumber \]

    Ahora, integrar ambos lados de\(x=a\) a\(x=b\). El lado izquierdo se convierte

    \[\int_{a}^{b}[f(x) G(x, \xi)-\delta(x-\xi) y(x)] d x=\int_{a}^{b} f(x) G(x, \xi) d x-y(\xi) \nonumber \]

    y, usando Green's Identity, el lado derecho es

    \[\int_{a}^{b}(G \mathcal{L}[y]-y \mathcal{L}[G]) d x=\left[p(x)\left(G(x, \xi) y^{\prime}(x)-y(x) \dfrac{\partial G}{\partial x}(x, \xi)\right)\right]_{x=a}^{x=b} \nonumber \]

    Combinando estos resultados y reordenando, obtenemos

    \[y(\xi)=\int_{a}^{b} f(x) G(x, \xi) d x-\left[p(x)\left(y(x) \dfrac{\partial G}{\partial x}(x, \xi)-G(x, \xi) y^{\prime}(x)\right)\right]_{x=a}^{x=b} \nonumber \]

    A continuación, se utilizan las condiciones de límite en el problema para determinar qué condiciones necesita satisfacer la función de Green. Por ejemplo, si tenemos la condición de límite\(y(a)=0\) y\(y(b)=0\), entonces los términos límite ceden

    \[\begin{aligned} y(\xi)=& \int_{a}^{b} f(x) G(x, \xi) d x-\left[p(b)\left(y(b) \dfrac{\partial G}{\partial x}(b, \xi)-G(b, \xi) y^{\prime}(b)\right)\right] \\ &+\left[p(a)\left(y(a) \dfrac{\partial G}{\partial x}(a, \xi)-G(a, \xi) y^{\prime}(a)\right)\right] \\ =& \int_{a}^{b} f(x) G(x, \xi) d x+p(b) G(b, \xi) y^{\prime}(b)-p(a) G(a, \xi) y^{\prime}(a) . \end{aligned} \nonumber \]

    El lado derecho sólo se desvanecerá si\(G(x, \xi)\) además satisface estas condiciones de límite homogéneas. Esto luego nos deja con la solución

    \[y(\xi)=\int_{a}^{b} f(x) G(x, \xi) d x . \nonumber \]

    Deberíamos reescribir esto en función de\(x\). Entonces, reemplazamos\(\xi\) con\(x\) y\(x\) con\(\xi\). Esto da

    \[y(x)=\int_{a}^{b} f(\xi) G(\xi, x) d \xi . \nonumber \]

    Sin embargo, esto aún no está en la forma deseable. Se revierten los argumentos de la función del Verde. Pero,\(G(x, \xi)\) es simétrico en sus argumentos. Entonces, podemos simplemente cambiar los argumentos obteniendo el resultado deseado.

    Ahora podemos ver que la teoría funciona para otras condiciones límite. Si lo hubiéramos hecho\(y^{\prime}(a)=0\), entonces el\(y(a) \dfrac{\partial G}{\partial x}(a, \xi)\) término en los términos límite podría hacerse desaparecer si nos fijamos\(\dfrac{\partial G}{\partial x}(a, \xi)=0\). Entonces, esto confirma que se pueden plantear otros problemas de valor límite además del que se ha elaborado en el capítulo hasta el momento.

    Incluso podemos adaptar esta teoría a condiciones de límite no homogéneas. Primero reescribimos la ecuación (8.62) como

    \[y(x)=\int_{a}^{b} G(x, \xi) f(\xi) d \xi-\left[p(\xi)\left(y(\xi) \dfrac{\partial G}{\partial \xi}(x, \xi)-G(x, \xi) y^{\prime}(\xi)\right)\right]_{\xi=a}^{\xi=b} \nonumber \]

    Consideremos las condiciones límite\(y(a)=\alpha\) y\(y^{\prime}(b)=\) beta. También asumimos que\(G(x, \xi)\) satisface condiciones de frontera homogéneas,

    \[G(a, \xi)=0, \quad \dfrac{\partial G}{\partial \xi}(b, \xi)=0 . \nonumber \]

    en ambos\(x\) y\(\xi\) ya que la función del Verde es simétrica en sus variables. Entonces, solo necesitamos enfocarnos en los términos límite para examinar el efecto en la solución. Tenemos

    \[\begin{aligned} {\left[p(\xi)\left(y(\xi) \dfrac{\partial G}{\partial \xi}(x, \xi)-G(x, \xi) y^{\prime}(\xi)\right)\right]_{\xi=a}^{\xi=b} } &=\left[p(b)\left(y(b) \dfrac{\partial G}{\partial \xi}(x, b)-G(x, b) y^{\prime}(b)\right)\right] \\ &-\left[p(a)\left(y(a) \dfrac{\partial G}{\partial \xi}(x, a)-G(x, a) y^{\prime}(a)\right)\right] \\ &=-\beta p(b) G(x, b)-\alpha p(a) \dfrac{\partial G}{\partial \xi}(x, a) . \end{aligned} \nonumber \]

    Por lo tanto, tenemos la solución

    \[y(x)=\int_{a}^{b} G(x, \xi) f(\xi) d \xi+\beta p(b) G(x, b)+\alpha p(a) \dfrac{\partial G}{\partial \xi}(x, a) . \nonumber \]

    Esta solución satisface las condiciones de límite no homogéneas. Veamos cómo funciona. Ejemplo 8.9. Modifique Ejemplo\(8.4\) para resolver el problema del valor límite\(y^{\prime \prime}=\)\(x^{2}, \quad y(0)=1, y(1)=2\) usando la función del valor de límite Verde que encontramos:

    \[G(x, \xi)=\left\{\begin{array}{l} -\xi(1-x), 0 \leq \xi \leq x \\ -x(1-\xi), x \leq \xi \leq 1 \end{array}\right. \nonumber \]

    Insertamos la función de Green en la solución y utilizamos las condiciones dadas para obtener

    \[\begin{aligned} y(x) &=\int_{0}^{1} G(x, \xi) \xi^{2} d \xi-\left[y(\xi) \dfrac{\partial G}{\partial \xi}(x, \xi)-G(x, \xi) y^{\prime}(\xi)\right]_{\xi=0}^{\xi=1} \\ &=\int_{0}^{x}(x-1) \xi^{3} d \xi+\int_{x}^{1} x(\xi-1) \xi^{2} d \xi+y(0) \dfrac{\partial G}{\partial \xi}(x, 0)-y(1) \dfrac{\partial G}{\partial \xi}(x) \\ &=\dfrac{(x-1) x^{4}}{4}+\dfrac{x\left(1-x^{4}\right)}{4}-\dfrac{x\left(1-x^{3}\right)}{3}+(x-1)-2 x \\ &=\dfrac{x^{4}}{12}+\dfrac{35}{12} x-1 \end{aligned} \nonumber \]

    Por supuesto, este problema se puede resolver más directamente mediante la integración directa. La solución general es

    \[y(x)=\dfrac{x^{4}}{12}+c_{1} x+c_{2} . \nonumber \]

    Al insertar esta solución en cada condición de contorno se obtiene el mismo resultado.

    Hemos visto cómo la introducción de la función delta de Dirac en la ecuación diferencial satisfecha por la función de Green, Ecuación (8.59), puede conducir a la solución de problemas de valor límite. La función delta de Dirac también ayuda en nuestra interpretación de la función de Green. Observamos que la función de Green es una solución de una ecuación en la que se encuentra la función no homogénea\(\delta(x-\xi)\). Tenga en cuenta que si multiplicamos la función delta por\(f(\xi)\) e integramos obtenemos

    \[\int_{-\infty}^{\infty} \delta(x-\xi) f(\xi) d \xi=f(x) \nonumber \]

    Podemos ver la función delta como un impulso unitario en el\(x=\xi\) que se puede utilizar para construir\(f(x)\) como una suma de impulsos de diferentes fortalezas,\(f(\xi)\). Así, la función del Verde es la respuesta al impulso gobernado por la ecuación diferencial y por las condiciones límite dadas.

    En particular, la ecuación forzada de función delta se puede utilizar para derivar la condición de salto. Comenzamos con la ecuación en la forma

    \[\dfrac{\partial}{\partial x}\left(p(x) \dfrac{\partial G(x, \xi)}{\partial x}\right)+q(x) G(x, \xi)=\delta(x-\xi) \nonumber \]

    Ahora, integrar ambos lados de\(\xi-\epsilon\) a\(\xi+\epsilon\) y tomar el límite como\(\epsilon \rightarrow 0\). Entonces,

    \[\begin{aligned} \lim _{\epsilon \rightarrow 0} \int_{\xi-\epsilon}^{\xi+\epsilon}\left[\dfrac{\partial}{\partial x}\left(p(x) \dfrac{\partial G(x, \xi)}{\partial x}\right)+q(x) G(x, \xi)\right] d x &=\lim _{\epsilon \rightarrow 0} \int_{\xi-\epsilon}^{\xi+\epsilon} \delta(x-\xi) d x \\ &=1 \end{aligned} \nonumber \]

    Dado que el\(q(x)\) término es continuo, el límite de ese término se desvanece. Usando el Teorema Fundamental del Cálculo, tenemos entonces

    \[\lim _{\epsilon \rightarrow 0}\left[p(x) \dfrac{\partial G(x, \xi)}{\partial x}\right]_{\xi-\epsilon}^{\xi+\epsilon}=1 . \nonumber \]

    ¡Esta es la condición de salto que hemos estado usando!

    Representaciones en serie de las funciones de Green

    Hay momentos en los que tal vez no sea tan sencillo encontrar la función del Verde en la simple forma cerrada que hemos visto hasta ahora. Sin embargo, existe un método para determinar las funciones de Green de los problemas de valor límite de Sturm-Liouville en forma de expansión de función propia. Terminaremos nuestra discusión sobre las funciones de Green para las ecuaciones diferenciales ordinarias mostrando cómo se obtienen tales representaciones en serie. (Tenga en cuenta que en realidad solo estamos repitiendo los pasos hacia el desarrollo de la expansión de la función propia que habíamos visto en el Capítulo 6.)

    Haremos uso del conjunto completo de funciones propias del operador diferencial\(\mathcal{L}\), satisfaciendo las condiciones de contorno homogéneas:

    \[\mathcal{L}\left[\phi_{n}\right]=-\lambda_{n} \sigma \phi_{n}, \quad n=1,2, \ldots \nonumber \]

    Queremos encontrar la solución particular\(y\) satisfactoria\(\mathcal{L}[y]=f\) y homogénea en condiciones de contorno. Suponemos que

    \[y(x)=\sum_{n=1}^{\infty} a_{n} \phi_{n}(x) . \nonumber \]

    Insertando esto en la ecuación diferencial, obtenemos

    \[\mathcal{L}[y]=\sum_{n=1}^{\infty} a_{n} \mathcal{L}\left[\phi_{n}\right]=-\sum_{n=1}^{\infty} \lambda_{n} a_{n} \sigma \phi_{n}=f \nonumber \]

    Esto ha resultado en la expansión generalizada de Fourier

    \[f(x)=\sum_{n=1}^{\infty} c_{n} \sigma \phi_{n}(x) \nonumber \]

    con coeficientes

    \[c_{n}=-\lambda_{n} a_{n} \nonumber \]

    Hemos visto cómo computar estos coeficientes antes en el texto. Multiplicamos ambos lados por\(\phi_{k}(x)\) e integramos. Usando la ortogonalidad de las funciones propias,

    \[\int_{a}^{b} \phi_{n}(x) \phi_{k}(x) \sigma(x) d x=N_{k} \delta_{n k} \nonumber \]

    se obtienen los coeficientes de expansión (si\(\lambda_{k} \neq 0\))

    \[a_{k}=-\dfrac{\left(f, \phi_{k}\right)}{N_{k} \lambda_{k}}, \nonumber \]

    donde\(\left(f, \phi_{k}\right) \equiv \int_{a}^{b} f(x) \phi_{k}(x) d x\).

    Como antes, podemos reorganizar la solución para obtener la función de Green. A saber, tenemos

    \[y(x)=\sum_{n=1}^{\infty} \dfrac{\left(f, \phi_{n}\right)}{-N_{n} \lambda_{n}} \phi_{n}(x)=\int_{a}^{b} \underbrace{\sum_{n=1}^{\infty} \dfrac{\phi_{n}(x) \phi_{n}(\xi)}{-N_{n} \lambda_{n}}}_{G(x, \xi)} f(\xi) d \xi \nonumber \]

    Por lo tanto, hemos encontrado la función de Green como una expansión en las funciones propias:

    \[G(x, \xi)=\sum_{n=1}^{\infty} \dfrac{\phi_{n}(x) \phi_{n}(\xi)}{-\lambda_{n} N_{n}} . \nonumber \]

    Ejemplo 8.10. Ejemplo de expansión de función propia

    Concluiremos esta discusión con un ejemplo. Considerar el problema del valor límite

    \[y^{\prime \prime}+4 y=x^{2}, \quad x \in(0,1), \quad y(0)=y(1)=0 . \nonumber \]

    La función de Green para este problema se puede construir con bastante rapidez para este problema una vez que se resuelve el problema del valor propio. Vamos a resolver este problema de tres formas distintas para resumir los métodos que hemos utilizado en el texto.

    El problema del valor propio es

    \[\phi^{\prime \prime}(x)+4 \phi(x)=-\lambda \phi(x) \nonumber \]

    dónde\(\phi(0)=0\) y\(\phi(1)=0\). La solución general se obtiene reescribiendo la ecuación como

    \[\phi^{\prime \prime}(x)+k^{2} \phi(x)=0 \nonumber \]

    donde

    \[k^{2}=4+\lambda \nonumber \]

    Las soluciones que satisfacen la condición límite en\(x=0\) son de la forma

    \[\phi(x)=A \sin k x . \nonumber \]

    Forzar\(\phi(1)=0\) da

    \[0=A \sin k \Rightarrow k=n \pi, \quad k=1,2,3 \ldots \nonumber \]

    Entonces, los valores propios son

    \[\lambda_{n}=n^{2} \pi^{2}-4, \quad n=1,2, \ldots \nonumber \]

    y las funciones propias son

    \[\phi_{n}=\sin n \pi x, \quad n=1,2, \ldots \nonumber \]

    Necesitamos la constante de normalización,\(N_{n}\). Tenemos eso

    \[N_{n}=\left\|\phi_{n}\right\|^{2}=\int_{0}^{1} \sin ^{2} n \pi x=\dfrac{1}{2} . \nonumber \]

    Ahora podemos construir la función de Green para este problema usando Ecuación\((8.72)\)

    \[G(x, \xi)=2 \sum_{n=1}^{\infty} \dfrac{\sin n \pi x \sin n \pi \xi}{\left(4-n^{2} \pi^{2}\right)} . \nonumber \]

    Podemos usar esta función de Green para determinar la solución del problema del valor límite. Así, tenemos

    \[\begin{aligned} y(x) &=\int_{0}^{1} G(x, \xi) f(\xi) d \xi \\ &=\int_{0}^{1}\left(2 \sum_{n=1}^{\infty} \dfrac{\sin n \pi x \sin n \pi \xi}{\left(4-n^{2} \pi^{2}\right)}\right) \xi^{2} d \xi \\ &=2 \sum_{n=1}^{\infty} \dfrac{\sin n \pi x}{\left(4-n^{2} \pi^{2}\right)} \int_{0}^{1} \xi^{2} \sin n \pi \xi d \xi \\ &=2 \sum_{n=1}^{\infty} \dfrac{\sin n \pi x}{\left(4-n^{2} \pi^{2}\right)}\left[\dfrac{\left(2-n^{2} \pi^{2}\right)(-1)^{n}-2}{n^{3} \pi^{3}}\right] \end{aligned} \nonumber \]

    Podemos comparar esta solución con la que se obtendría si no empleáramos directamente las funciones de Green. El método de expansión de función propia para resolver problemas de valor límite, que vimos anteriormente procede de la siguiente manera. Asumimos que nuestra solución está en la forma

    \[y(x)=\sum_{n=1}^{\infty} c_{n} \phi_{n}(x) . \nonumber \]

    Insertar esto en la ecuación diferencial\(\mathcal{L}[y]=x^{2}\) da

    \[\begin{aligned} x^{2} &=\mathcal{L}\left[\sum_{n=1}^{\infty} c_{n} \sin n \pi x\right] \\ &=\sum_{n=1}^{\infty} c_{n}\left[\dfrac{d^{2}}{d x^{2}} \sin n \pi x+4 \sin n \pi x\right] \\ &=\sum_{n=1}^{\infty} c_{n}\left[4-n^{2} \pi^{2}\right] \sin n \pi x \end{aligned} \nonumber \]

    Necesitamos la expansión de la serie sinusoidal de Fourier de\(x^{2}\) on\([0,1]\) para determinar los\(c_{n}\)'s.

    \[\begin{aligned} b_{n} &=\dfrac{2}{1} \int_{0}^{1} x^{2} \sin n \pi x \\ &=2\left[\dfrac{\left(2-n^{2} \pi^{2}\right)(-1)^{n}-2}{n^{3} \pi^{3}}\right], \quad n=1,2, \ldots \end{aligned} \nonumber \]

    Así,

    \[x^{2}=2 \sum_{n=1}^{\infty}\left[\dfrac{\left(2-n^{2} \pi^{2}\right)(-1)^{n}-2}{n^{3} \pi^{3}}\right] \sin n \pi x . \nonumber \]

    Insertando esto en la Ecuación\((8.75)\), encontramos

    \[2 \sum_{n=1}^{\infty}\left[\dfrac{\left(2-n^{2} \pi^{2}\right)(-1)^{n}-2}{n^{3} \pi^{3}}\right] \sin n \pi x=\sum_{n=1}^{\infty} c_{n}\left[4-n^{2} \pi^{2}\right] \sin n \pi x . \nonumber \]

    Debido a la independencia lineal de las funciones propias, podemos resolver los coeficientes desconocidos para obtener

    \[c_{n}=2 \dfrac{\left(2-n^{2} \pi^{2}\right)(-1)^{n}-2}{\left(4-n^{2} \pi^{2}\right) n^{3} \pi^{3}} \nonumber \]

    Por lo tanto, la solución que utiliza el método de expansión de función propia es

    \[\begin{aligned} y(x) &=\sum_{n=1}^{\infty} c_{n} \phi_{n}(x) \\ &=2 \sum_{n=1}^{\infty} \dfrac{\sin n \pi x}{\left(4-n^{2} \pi^{2}\right)}\left[\dfrac{\left(2-n^{2} \pi^{2}\right)(-1)^{n}-2}{n^{3} \pi^{3}}\right] \end{aligned} \nonumber \]

    Observamos que esta es la misma solución que habíamos obtenido usando la función de Green obtenida en forma de serie.

    Una pregunta restante es la siguiente: ¿Existe un formulario cerrado para la función del Verde y la solución a este problema? ¡La respuesta es sí! Observamos que el operador diferencial es un caso especial del ejemplo hecho es la sección 8.2.2. A saber, elegimos\(\omega=2\). La función del Verde ya se encontró en esa sección. Para este caso especial, tenemos

    \[G(x, \xi)=\left\{\begin{array}{l} -\dfrac{\sin 2(1-\xi) \sin 2 x}{2 \sin 2}, 0 \leq x \leq \xi \\ -\dfrac{\sin 2(1-x) \sin 2 \xi}{2 \sin 2}, \xi \leq x \leq 1 \end{array}\right. \nonumber \]

    ¿Qué pasa con la solución al problema del valor límite? Esta solución viene dada por

    \[\begin{aligned} y(x) &=\int_{0}^{1} G(x, \xi) f(\xi) d \xi \\ &=-\int_{0}^{x} \dfrac{\sin 2(1-x) \sin 2 \xi}{2 \sin 2} \xi^{2} d \xi+\int_{x}^{1} \dfrac{\sin 2(\xi-1) \sin 2 x}{2 \sin 2} \xi^{2} d \xi \\ &=-\dfrac{1}{4 \sin 2}\left[-x^{2} \sin 2-\sin 2 \cos ^{2} x+\sin 2+\cos 2 \sin x \cos x+\sin x \cos x\right] \\ &=-\dfrac{1}{4 \sin 2}\left[-x^{2} \sin 2+\left(1-\cos ^{2} x\right) \sin 2+\sin x \cos x(1+\cos 2)\right] \\ &\left.=-\dfrac{1}{4 \sin 2}\left[-x^{2} \sin 2+2 \sin ^{2} x \sin 1 \cos 1+2 \sin x \cos x \cos ^{2} 1\right)\right] \\ &=-\dfrac{1}{8 \sin 1 \cos 1}\left[-x^{2} \sin 2+2 \sin x \cos 1(\sin x \sin 1+\cos x \cos 1)\right] \\ &=\dfrac{x^{2}}{4}-\dfrac{\sin x \cos (1-x)}{4 \sin 1} . \end{aligned} \nonumber \]

    En la Figura\(8.4\) se muestra una gráfica de esta solución junto con los primeros cinco términos de la solución en serie. La solución en serie converge rápidamente.

    imagen
    Figura 8.4. Gráficas de la solución exacta al Ejemplo 8.10 con los primeros cinco términos de la solución en serie.

    Como última comprobación, resolvemos el problema del valor límite directamente, como lo habíamos hecho en el Capítulo 4. Nuevamente, el problema es

    \[y^{\prime \prime}+4 y=x^{2}, \quad x \in(0,1), \quad y(0)=y(1)=0 . \nonumber \]

    El problema tiene la solución general

    \[y(x)=c_{1} \cos 2 x+c_{2} \sin 2 x+y_{p}(x), \nonumber \]

    donde\(y_{p}\) es una solución particular de la ecuación diferencial no homogénea. Usando el Método de Coeficientes Indeterminados, asumimos una solución de la forma

    \[y_{p}(x)=A x^{2}+B x+C . \nonumber \]

    Insertando esto en la ecuación no homogénea, tenemos

    \[2 A+4\left(A x^{2}+B x+C\right)=x^{2}, \nonumber \]

    Así,\(B=0,4 A=1\) y\(2 A+4 C=0\). La solución de este sistema es

    \[A=\dfrac{1}{4}, \quad B=0, \quad C=-\dfrac{1}{8} \nonumber \]

    Entonces, la solución general de la ecuación diferencial no homogénea es

    \[y(x)=c_{1} \cos 2 x+c_{2} \sin 2 x+\dfrac{x^{2}}{4}-\dfrac{1}{8} . \nonumber \]

    Ahora determinamos las constantes arbitrarias usando las condiciones de límite. Tenemos

    \[\begin{aligned} 0 &=y(0) \\ &=c_{1}-\dfrac{1}{8} \\ 0 &=y(1) \\ &=c_{1} \cos 2+c_{2} \sin 2+\dfrac{1}{8} \end{aligned} \nonumber \]

    Así,\(c_{1}=\dfrac{1}{8}\) y

    \[c_{2}=-\dfrac{\dfrac{1}{8}+\dfrac{1}{8} \cos 2}{\sin 2} \nonumber \]

    Insertando estas constantes en la solución encontramos la misma solución que antes.

    \[\begin{aligned} y(x) &=\dfrac{1}{8} \cos 2 x-\left[\dfrac{\dfrac{1}{8}+\dfrac{1}{8} \cos 2}{\sin 2}\right] \sin 2 x+\dfrac{x^{2}}{4}-\dfrac{1}{8} \\ &=\dfrac{\cos 2 x \sin 2-\sin 2 x \cos 2-\sin 2 x}{8 \sin 2}+\dfrac{x^{2}}{4}-\dfrac{1}{8} \\ &=\dfrac{\left(1-2 \sin ^{2} x\right) \sin 1 \cos 1-\sin x \cos x\left(2 \cos ^{2} 1-1\right)-\sin x \cos x-\sin 1 \cos 1}{8 \sin 1 \cos 1}+\dfrac{x^{2}}{4} \\ &=-\dfrac{\sin ^{2} x \sin 1+\sin x \cos x \cos 1}{4 \sin 1}+\dfrac{x^{2}}{4} \\ &=\dfrac{x^{2}}{4}-\dfrac{\sin x \cos (1-x)}{4 \sin 1} . \end{aligned} \nonumber \]

    Problemas

    8.1. Utilice el Método de Variación de Parámetros para determinar la solución general para los siguientes problemas.

    a\(y^{\prime \prime}+y=\tan x\).

    b.\(y^{\prime \prime}-4 y^{\prime}+4 y=6 x e^{2 x}\)

    8.2. En lugar de suponer que\(c_{1}^{\prime} y_{1}+c_{2}^{\prime} y_{2}=0\) en la derivación de la solución usando Variación de Parámetros, asuma que\(c_{1}^{\prime} y_{1}+c_{2}^{\prime} y_{2}=h(x)\) para una función arbitraria\(h(x)\) y mostrar que uno obtiene la misma solución particular.

    8.3. Encuentre la solución de cada problema de valor inicial utilizando la función de valor inicial apropiado de Green.

    a\(y^{\prime \prime}-3 y^{\prime}+2 y=20 e^{-2 x}, \quad y(0)=0, \quad y^{\prime}(0)=6\).

    b\(y^{\prime \prime}+y=2 \sin 3 x, \quad y(0)=5, \quad y^{\prime}(0)=0\).

    \(y^{\prime \prime}+y=1+2 \cos x, \quad y(0)=2, \quad y^{\prime}(0)=0\)c.

    d\(x^{2} y^{\prime \prime}-2 x y^{\prime}+2 y=3 x^{2}-x, \quad y(1)=\pi, \quad y^{\prime}(1)=0\).

    8.4. Considera el problema\(y^{\prime \prime}=\sin x, y^{\prime}(0)=0, y(\pi)=0\).

    a. Resolver por integración directa.

    b. Determinar la función del Verde.

    c. Resolver el problema del valor límite utilizando la función de Green.

    d. Cambiar las condiciones de contorno a\(y^{\prime}(0)=5, y(\pi)=-3\).

    i. Resolver por integración directa.

    ii. Resuelve usando la función de Green.

    8.5. Considera el problema:

    \[\dfrac{\partial^{2} G}{\partial x^{2}}=\delta\left(x-x_{0}\right), \quad \dfrac{\partial G}{\partial x}\left(0, x_{0}\right)=0, \quad G\left(\pi, x_{0}\right)=0 \nonumber \]

    a. Resolver por integración directa.

    b. Comparar este resultado con la función de Green en la parte b del último problema.

    c. Verificar que\(G\) sea simétrico en sus argumentos.

    8.6. En este problema demostrarás que la secuencia de funciones

    \[f_{n}(x)=\dfrac{n}{\pi}\left(\dfrac{1}{1+n^{2} x^{2}}\right) \nonumber \]

    enfoques\(\delta(x)\) como\(n \rightarrow \infty\). Utilice lo siguiente para apoyar su argumento:

    a. demuéstralo\(\lim _{n \rightarrow \infty} f_{n}(x)=0\) para\(x \neq 0\).

    b. Demostrar que el área bajo cada función es una.

    8.7. Verificar que la secuencia de funciones\(\left\{f_{n}(x)\right\}_{n=1}^{\infty}\), definida por\(f_{n}(x)=\)\(\dfrac{n}{2} e^{-n|x|}\), se aproxime a una función delta. 8.8. Evaluar las siguientes integrales:
    a\(\int_{0}^{\pi} \sin x \delta\left(x-\dfrac{\pi}{2}\right) d x\).
    b.\(\int_{-\infty}^{\infty} \delta\left(\dfrac{x-5}{3} e^{2 x}\right)\left(3 x^{2}-7 x+2\right) d x\)
    c.\(\int_{0}^{\pi} x^{2} \delta\left(x+\dfrac{\pi}{2}\right) d x\)
    d\(\int_{0}^{\infty} e^{-2 x} \delta\left(x^{2}-5 x+6\right) d x\). [Ver Problema 8.10.]
    e\(\int_{-\infty}^{\infty}\left(x^{2}-2 x+3\right) \delta\left(x^{2}-9\right) d x\). [Ver Problema 8.10.]

    8.9. Encuentre una representación en serie de Fourier de la función delta de Dirac,\(\delta(x)\), on\([-L, L]\)

    8.10. Para el caso de que una función tenga múltiples raíces simples\(f\left(x_{i}\right)=0\),\(f^{\prime}\left(x_{i}\right) \neq 0, i=1,2, \ldots\),, se puede demostrar que

    \[\delta(f(x))=\sum_{i=1}^{n} \dfrac{\delta\left(x-x_{i}\right)}{\left|f^{\prime}\left(x_{i}\right)\right|} \nonumber \]

    Utilice este resultado para evaluar\(\int_{-\infty}^{\infty} \delta\left(x^{2}-5 x+6\right)\left(3 x^{2}-7 x+2\right) d x\).

    8.11. Considere el problema del valor límite:\(y^{\prime \prime}-y=x, x \in(0,1)\), con condiciones de límite\(y(0)=y(1)=0\).

    a. Encuentre una solución de formulario cerrado sin usar las funciones de Green.

    b. Determinar la función de forma cerrada Green usando las propiedades de las funciones de Green. Utilice esta función de Green para obtener una solución del problema del valor límite.

    c. Determinar una representación en serie de la función del Verde. Utilice esta función de Green para obtener una solución del problema del valor límite.

    d. Confirmar que todas las soluciones obtenidas dan los mismos resultados.


    This page titled Prefacio is shared under a CC BY-NC-SA 3.0 license and was authored, remixed, and/or curated by Russell Herman via source content that was edited to the style and standards of the LibreTexts platform; a detailed edit history is available upon request.