Saltar al contenido principal
LibreTexts Español

4.3: Conexiones al álgebra lineal

  • Page ID
    119006
  • \( \newcommand{\vecs}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} } \) \( \newcommand{\vecd}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash {#1}}} \)\(\newcommand{\id}{\mathrm{id}}\) \( \newcommand{\Span}{\mathrm{span}}\) \( \newcommand{\kernel}{\mathrm{null}\,}\) \( \newcommand{\range}{\mathrm{range}\,}\) \( \newcommand{\RealPart}{\mathrm{Re}}\) \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\) \( \newcommand{\Argument}{\mathrm{Arg}}\) \( \newcommand{\norm}[1]{\| #1 \|}\) \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\) \( \newcommand{\Span}{\mathrm{span}}\) \(\newcommand{\id}{\mathrm{id}}\) \( \newcommand{\Span}{\mathrm{span}}\) \( \newcommand{\kernel}{\mathrm{null}\,}\) \( \newcommand{\range}{\mathrm{range}\,}\) \( \newcommand{\RealPart}{\mathrm{Re}}\) \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\) \( \newcommand{\Argument}{\mathrm{Arg}}\) \( \newcommand{\norm}[1]{\| #1 \|}\) \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\) \( \newcommand{\Span}{\mathrm{span}}\)\(\newcommand{\AA}{\unicode[.8,0]{x212B}}\)

    Ya hemos visto en capítulos anteriores que las ideas del álgebra lineal surgen en nuestros estudios de ecuaciones diferenciales. A saber, resolvimos problemas de valores propios asociados a nuestros sistemas de ecuaciones diferenciales para determinar el comportamiento local de sistemas dinámicos cerca de puntos fijos. En nuestro estudio de problemas de valor límite encontraremos más conexiones con la teoría de los espacios vectoriales. Sin embargo, encontraremos que nuestros problemas radican en el ámbito de los espacios vectoriales infinitos dimensionales. En esta sección comenzaremos a ver estas conexiones.

    4.3.1 Expansiones de función propia para PDEs

    En la última sección se buscaron soluciones de la ecuación del calor. Escribamos formalmente la ecuación del calor en la forma

    \[\dfrac{1}{k} u_{t}=L[u] \label{4.13} \]

    donde

    \[L=\dfrac{\partial^{2}}{\partial x^{2}}. \nonumber \]

    \(L\)es otro ejemplo de un operador diferencial lineal. [Ver Sección 1.1.2.] Es un operador diferencial porque involucra operadores derivados. A veces definimos\(D_{x}=\dfrac{\partial}{\partial x}\), así que eso\(L=D_{x}^{2}\). Es lineal, porque para funciones\(f(x)\)\(g(x)\) y y constantes\(\alpha, \beta\) tenemos

    \[L[\alpha f+\beta g]=\alpha L[f]+\beta L[g] \nonumber \]

    Al resolver la ecuación de calor, utilizando el método de separación de variables, encontramos un número infinito de soluciones de producto\(u_{n}(x, t)=T_{n}(t) X_{n}(x)\). Lo hicimos resolviendo el problema del valor límite

    \[L[X]=\lambda X, \quad X(0)=0=X(L) \label{4.14} \]

    Aquí vemos que un operador actúa sobre una función desconocida y escupe una constante desconocida veces esa desconocida. ¿Dónde hemos hecho esto antes? Esta es la misma forma que\(A \mathbf{v}=\lambda \mathbf{v}\). Entonces, vemos que la Ecuación (4.14) es realmente un problema de valor propio para el operador\(L\) y dadas las condiciones de límite. Cuando resolvimos la ecuación de calor en la última sección, encontramos los valores propios

    \[\lambda_{n}=-\left(\dfrac{n \pi}{L}\right)^{2} \nonumber \]

    y los valores propios

    \[X_{n}(x)=\sin \dfrac{n \pi x}{L}. \nonumber \]

    Los usamos para construir la solución general que es esencialmente una combinación lineal sobre las funciones propias,

    \[u(x, t)=\sum_{n=1}^{\infty} T_{n}(t) X_{n}(x). \nonumber \]

    Tenga en cuenta que estas funciones propias viven en un espacio de función dimensional infinito.
    Nos gustaría generalizar este método a problemas en los que\(L\) proviene de un surtido de operadores diferenciales lineales. Entonces, consideramos la ecuación diferencial parcial más general

    \[u_{t}=L[u], \quad a \leq x \leq b, \quad t>0, \nonumber \]

    Satisfacer las condiciones de contorno

    \[B[u](a, t)=0, \quad B[u](b, t)=0, \quad t>0, \nonumber \]

    y condición inicial

    \[u(x, 0)=f(x), \quad a \leq x \leq b. \nonumber \]

    La forma de las condiciones\(B[u]\) límite permitidas se retomará posteriormente. Además, posteriormente veremos ejemplos específicos y propiedades de operadores diferenciales lineales que permitirán que este procedimiento funcione.

    Asumimos soluciones de producto de la forma\(u_{n}(x, t)=b_{n}(t) \phi_{n}(x)\), donde los\(\phi_{n}\)'s son las funciones propias del operador\(L\),

    \[L \phi_{n}=\lambda_{n} \phi_{n}, \quad n=1,2, \ldots \label{4.15} \]

    Satisfacer las condiciones de contorno

    \[B\left[\phi_{n}\right](a)=0, \quad B\left[\phi_{n}\right](b)=0 \label{4.16} \]

    Inserción de la solución general

    \[u(x, t)=\sum_{n=1}^{\infty} b_{n}(t) \phi_{n}(x) \nonumber \]

    en la ecuación diferencial parcial, tenemos

    \ [\ begin {alineado}
    u_ {t} &=L [u]\\
    \ dfrac {\ parcial} {\ parcial} {\ t}\ suma_ {n=1} ^ {\ infty} b_ {n} (t)\ phi_ {n} (x) &=L\ left [\ sum_ {n=1} ^ {\ infty} b_ {n} (t)\ phi_ {n} (x)\ derecha]
    \ final {alineado}\ etiqueta {4.17}\]

    A la izquierda diferenciamos término por término y en el lado derecho usamos la linealidad de\(L\):

    \[\sum_{n=1}^{\infty} \dfrac{d b_{n}(t)}{d t} \phi_{n}(x)=\sum_{n=1}^{\infty} b_{n}(t) L\left[\phi_{n}(x)\right] \label{4.18} \]

    Ahora, hacemos uso del resultado de aplicar\(L\) a la función propia\(\phi_{n}\):

    \[\sum_{n=1}^{\infty} \dfrac{d b_{n}(t)}{d t} \phi_{n}(x)=\sum_{n=1}^{\infty} b_{n}(t) \lambda_{n} \phi_{n}(x) \label{4.19} \]

    Comparando ambos lados, o usando la independencia lineal de las funciones propias, vemos que

    \[\dfrac{d b_{n}(t)}{d t}=\lambda_{n} b_{n}(t) \nonumber \]

    cuya solución es

    \[b_{n}(t)=b_{n}(0) e^{\lambda_{n} t} \nonumber \]

    Entonces, la solución general se convierte en

    \[u(x, t)=\sum_{n=1}^{\infty} b_{n}(0) e^{\lambda_{n} t} \phi_{n}(x). \nonumber \]

    Esta solución satisface, al menos formalmente, la ecuación diferencial parcial y satisface las condiciones de contorno.

    Por último, hay que determinar los\(b_{n}(0)\)'s, que hasta ahora son arbitrarios. Utilizamos la condición inicial\(u(x, 0)=f(x)\) para encontrar que

    \[f(x)=\sum_{n=1}^{\infty} b_{n}(0) \phi_{n}(x). \nonumber \]

    Entonces, dado\(f(x)\), nos quedamos con el problema de extraer los coeficientes\(b_{n}(0)\) en una expansión de\(f\) en las funciones propias\(\phi_{n}\). Veremos que esto está relacionado con las expansiones de series de Fourier, que retomaremos en el próximo capítulo.

    4.3.2 Expansiones de función propia para ODEs no homogéneas

    Las ecuaciones diferenciales parciales no son las únicas aplicaciones del método de expansiones de función propia, como se ve en la última sección. Podemos aplicar este método a problemas de valor límite de dos puntos no homogéneos para ecuaciones diferenciales ordinarias asumiendo que podemos resolver el problema de valor propio asociado.

    Comencemos con el problema del valor de límite no homogéneo:

    \ [\ comenzar {reunido}
    L [u] =f (x),\ quad a\ leq x\ leq b\\
    B [u] (a) =0,\ quad B [u] (b) =0
    \ final {reunido}\ etiqueta {4.20}\]

    Primero resolvemos el problema del valor propio,

    \ [\ comenzar {reunido}
    L [\ phi] =\ lambda\ phi,\ quad a\ leq x\ leq b\\
    B [\ phi] (a) =0,\ quad B [\ phi] (b) =0
    \ final {reunido}\ etiqueta {4.21}\]

    y obtener una familia de funciones propias,\(\left\{\phi_{n}(x)\right\}_{n=1}^{\infty}\). Entonces asumimos que se\(u(x)\) puede representar como una combinación lineal de estas funciones propias:

    \[u(x)=\sum_{n=1}^{\infty} b_{n} \phi_{n}(x) \nonumber \]

    Insertando esto en la ecuación diferencial, tenemos

    \ [\ begin {alineado}
    f (x) &=L [u]\\
    &=L\ izquierda [\ suma_ {n=1} ^ {\ infty} b_ {n}\ phi_ {n} (x)\ derecha]\\
    &=\ sum_ {n=1} ^ {\ infty} b_ {n} L\ izquierda [\ phi_ {n} (x)\ derecha]\\
    &=\ suma_ {n=1} ^ {\ infty}\ lambda_ {n} b_ {n}\ phi_ {n} (x)\\
    &\ equiv\ suma_ {n=1 } ^ {\ infty} c_ {n}\ phi_ {n} (x)
    \ final {alineado}\ etiqueta {4.22}\]

    Por lo tanto, tenemos que encontrar los coeficientes\(c_{n}=\lambda_{n} b_{n}\) de expansión de lo dado\(f(x)\) en una expansión en serie sobre las funciones propias. Esto es similar a lo que habíamos encontrado para el problema de la ecuación de calor y su generalización en la última sección.

    Hay muchas preguntas y detalles que se han pasado por alto en nuestras derivaciones formales. ¿Siempre podemos encontrar tales funciones propias para un operador dado? ¿Convergen las infinitas expansiones de la serie? ¿Podemos diferenciar nuestros términos de expansiones por término? ¿Se pueden encontrar expansiones que convergen a funciones dadas como las\(f(x)\) anteriores? Comenzaremos a explorar estas preguntas en el caso de que las funciones propias sean funciones trigonométricas simples como las de\(\phi_{n}(x)=\sin \dfrac{n \pi x}{L}\) la solución de la ecuación de calor.

    4.3.3 Espacios vectoriales lineales

    Gran parte de la discusión y terminología que usaremos proviene de la teoría de los espacios vectoriales. Hasta ahora es posible que solo hayas tratado con espacios vectoriales de dimensiones finitas en tus clases. Incluso entonces, tal vez solo te sientes cómodo con dos y tres dimensiones. Repasaremos un poco de lo que sabemos sobre los espacios de dimensiones finitas para que podamos lidiar con los espacios funcionales más generales, que es donde viven nuestras funciones propias.

    La noción de espacio vectorial es una generalización de nuestros espacios vectoriales tridimensionales. En tres dimensiones, tenemos cosas llamadas vectores, que son flechas de una longitud específica y que apuntan en una dirección dada. A cada vector, podemos asociar un punto en un sistema cartesiano tridimensional. Simplemente adjuntamos la cola del vector\(\mathbf{v}\) al origen y la cabeza aterriza en\((x, y, z)\). Luego usamos vectores unitarios\(\mathbf{i}, \mathbf{j}\) y\(\mathbf{k}\) a lo largo de los ejes de coordenadas para escribir

    \[\mathbf{v}=x \mathbf{i}+y \mathbf{j}+z \mathbf{k} \nonumber \]

    Habiendo definido vectores, aprendimos entonces a sumar vectores y multiplicar vectores por números, o escalares. Bajo estas operaciones, esperábamos recuperar nuevos vectores. Entonces aprendimos que había dos tipos de multiplicación de vectores. Podríamos multiplicar entonces para obtener un escalar o un vector. Esto llevó a los productos punteados y cruzados, respectivamente. El producto punto fue útil para determinar la longitud de un vector, el ángulo entre dos vectores, o si los vectores eran ortogonales.

    Estas nociones se generalizaron posteriormente a espacios de más de tres dimensiones en su clase de álgebra lineal. Las propiedades descritas más o menos arriba deben ser conservadas. Entonces, tenemos que comenzar con un espacio de vectores y las operaciones entre ellos. También necesitamos un conjunto de escalares, que generalmente provienen de algún campo. Sin embargo, en nuestras aplicaciones el campo será el conjunto de números reales o el conjunto de números complejos.

    Definición 4.1.

    Un espacio vectorial\(V\) sobre un campo\(F\) es un conjunto que se cierra bajo suma y multiplicación escalar y satisface las siguientes condiciones: Para cualquier\(u, v, w \in V\) y\(a, b \in F\)

    1. \(u+v=v+u\).
    2. \((u+v)+w=u+(v+w)\).
    3. Existe\(a 0\) tal que\(0+v=v\).
    4. Existe\(a-v\) tal que\(v+(-v)=0\).
    5. \(a(b v)=(a b) v\).
    6. \((a+b) v=a v+b v\).
    7. \(a(u+v)=a u+b v\).
    8. \(1(v)=v\).

    Ahora, para un espacio vectorial\(n\) -dimensional, tenemos la idea de que cualquier vector en el espacio se puede representar como la suma sobre vectores\(n\) linealmente independientes. Recordemos que un conjunto linealmente independiente de vectores\(\left\{\mathbf{v}_{j}\right\}_{j=1}^{n}\) satisface

    \[\sum_{j=1}^{n} c_{j} \mathbf{v}_{j}=\mathbf{0} \quad \Leftrightarrow \quad c_{j}=0. \nonumber \]

    Esto lleva a la idea de un conjunto de bases. La base estándar en un espacio vectorial\(n\) -dimensional es una generalización de la base estándar en tres dimensiones\((\mathbf{i}, \mathbf{j}\) y\(\mathbf{k})\). Definimos

    \[\mathbf{e}_{k}=(0, \ldots, 0, \underbrace{1}_{k \text { th space }}, 0, \ldots, 0), \quad k=1, \ldots, n. \label{4.23} \]

    Entonces, podemos ampliar cualquiera\(\mathbf{v} \in V\) como

    \[\mathbf{v}=\sum_{k=1}^{n} v_{k} \mathbf{e}_{k} \label{4.24} \]

    donde los\(v_{k}\)'s se llaman los componentes del vector en esta base y uno puede escribir\(\mathbf{v}\) como una\(n\) -tupla\(\left(v_{1}, v_{2}, \ldots, v_{n}\right)\).

    La única otra cosa que necesitaremos en este punto es generalizar el producto punto, o producto escalar. Recordemos que existen dos formas para el producto punto en tres dimensiones. Primero, uno tiene eso

    \[\mathbf{u} \cdot \mathbf{v}=u v \cos \theta, \label{4.25} \]

    donde\(u\) y\(v\) denotan la longitud de los vectores. La otra forma, es la forma componente:

    \[\mathbf{u} \cdot \mathbf{v}=u_{1} v_{1}+u_{2} v_{2}+u_{3} v_{3}=\sum_{k=1}^{3} u_{k} v_{k} \label{4.26} \]

    Por supuesto, esta forma es más fácil de generalizar. Entonces, definimos el producto escalar entre vectores\(n\) a-dimensionales como

    \[<\mathbf{u}, \mathbf{v}>=\sum_{k=1}^{n} u_{k} v_{k} \label{4.27} \]

    En realidad, hay una serie de notaciones que se utilizan en otros textos. Uno puede escribir el producto escalar como\((\mathbf{u}, \mathbf{v})\) o incluso usar la notación Dirac\(<\mathbf{u} \mid \mathbf{v}>\) para aplicaciones en mecánica cuántica.

    Si bien no siempre tiene sentido hablar de ángulos entre vectores generales en espacios vectoriales de dimensiones superiores, hay un concepto que es útil. Es el de la ortogonalidad, que en tres dimensiones otra forma de decir vectores son perpendiculares entre sí. Entonces, también decimos que los vectores\(\mathbf{u}\) y\(\mathbf{v}\) son ortogonales si y solo si\(<\mathbf{u}, \mathbf{v}>=0\). Si\(\left\{\mathbf{a}_{k}\right\}_{k=1}^{n}\), es un conjunto de vectores de base tal que

    \[<\mathbf{a}_{j}, \mathbf{a}_{k}>=0, \quad k \neq j, \nonumber \]

    entonces se le llama una base ortogonal. Si además cada vector base es un vector unitario, entonces uno tiene una base ortonormal

    Let\(\left\{\mathbf{a}_{k}\right\}_{k=1}^{n}\), ser un conjunto de vectores base para el espacio vectorial\(V\). Sabemos que cualquier vector\(\mathbf{v}\) puede ser representado en términos de esta base,\(\mathbf{v}=\sum_{k=1}^{n} v_{k} \mathbf{a}_{k}\). Si conocemos la base y el vector, ¿podemos encontrar los componentes? La respuesta es, sí. Podemos usar el producto escalar de\(\mathbf{v}\) con cada elemento base\(\mathbf{a}_{j}\). Entonces, tenemos para\(j=1, \ldots, n\)

    \ [\ begin {alineado &=
    <\ mathbf {a} _ {j},\ mathbf {v} > \<\ mathbf {a} _ {j},\ sum_ {k=1} ^ {n} v_ {k}\ mathbf {a} _ {k} >\ &=
    \ sum_ {k=1} ^ {n} v_ {k}\ <\ mathbf {a} _ {j},\ mathbf {a} _ {k} >
    end {alineado}\ label {4.28}\]

    Como conocemos los elementos básicos, podemos calcular fácilmente los números

    \[A_{j k} \equiv<\mathbf{a}_{j}, \mathbf{a}_{k}> \nonumber \]

    y

    \[b_{j} \equiv<\mathbf{a}_{j}, \mathbf{v}> \nonumber \]

    Por lo tanto, el sistema (4.28) para los\(v_{k}\)'s es un sistema algebraico lineal, que toma la forma\(A \mathbf{v}=\mathbf{b}\). Sin embargo, si la base es ortogonal, entonces la matriz\(A\) es diagonal y el sistema es fácilmente solucionable. Tenemos eso

    \[<\mathbf{a}_{j}, \mathbf{v}>=v_{j}<\mathbf{a}_{j}, \mathbf{a}_{j}>, \label{4.29} \]

    o

    \[v_{j}=\dfrac{<\mathbf{a}_{j}, \mathbf{v}>}{<\mathbf{a}_{j}, \mathbf{a}_{j}>} \label{4.30} \]

    De hecho, si la base es ortonormal,\(A\) es la matriz de identidad y la solución es más simple:

    \[v_{j}=<\mathbf{a}_{j}, \mathbf{v}> \label{4.31} \]

    Pasamos un tiempo mirando este sencillo caso de extraer los componentes de un vector en un espacio dimensional finito. Las claves para hacer esto simplemente fueron tener un producto escalar y un conjunto de bases ortogonales. Estos son los ingredientes clave que necesitaremos en el caso dimensional infinito. Recordemos que cuando resolvimos la ecuación de calor, teníamos una función (vector) que queríamos expandir en un conjunto de funciones propias (base) y necesitábamos encontrar los coeficientes de expansión (componentes). Como puede ver, necesitamos extender los conceptos para espacios dimensionales finitos a sus análogos en espacios dimensionales infinitos. El álgebra lineal proporcionará algunos de los telones de fondo para lo que sigue: El estudio de muchos problemas de valores límite equivale a la solución de problemas de valores propios sobre espacios vectoriales dimensionales infinitos (espacios completos de productos internos, el espacio de funciones integrables cuadradas o espacios Hilbert).

    Consideraremos el espacio de funciones de cierto tipo. Podrían ser el espacio de funciones continuas en [0,1], o el espacio de funciones diferencialmente continuas, o el conjunto de funciones integrables de\(a\) a\(b\). Posteriormente, especificaremos los tipos de funciones necesarias. Además, necesitaremos poder agregar funciones y multiplicarlas por escalares. Entonces, podemos obtener fácilmente un espacio vectorial de funciones.

    También necesitaremos un producto escalar definido en este espacio de funciones. Existen varios tipos de productos escalares, o productos internos, que podemos definir. Para un espacio vectorial real, definimos

    Definición 4.2.

    Un producto interno\(<,>\) en un espacio vectorial real\(V\) es un mapeo de\(V \times V\) hacia\(R\) tal que para\(u, v, w \in V\) y\(\alpha \in R\) uno tiene

    1. \(<u+v, w>=<u, w>+<v, w>\).
    2. \(<\alpha v, w>=\alpha<v, w>\).
    3. \(<v, w>=<w, v>\).
    4. \(<v, v>\geq 0\)y\(<v, v>=0\) iff\(v=0\).

    Un espacio vectorial real equipado con el producto interno anterior conduce a un espacio de producto interno real. Se necesita una definición más general con el tercer ítem reemplazado por para espacios internos complejos de productos.\(\langle v, w\rangle=\langle w, v\rangle\)

    Por el momento, estamos tratando solo con funciones reales valoradas. Necesitamos un producto interno apropiado para tales espacios. Una de esas definiciones es la siguiente. Dejar\(f(x)\) y\(g(x)\) ser funciones definidas en\([a, b]\). Entonces, definimos el producto interno, si la integral existe, como

    \[<f, g>=\int_{a}^{b} f(x) g(x) d x. \label{4.32} \]

    Hasta el momento, contamos con espacios de funciones equipados con un producto interior. ¿Podemos encontrar una base para el espacio? Para un espacio\(n\) -dimensional necesitamos vectores de\(n\) base.

    Para un espacio dimensional infinito, ¿cuántos necesitaremos? ¿Cómo sabemos cuando tenemos suficiente? Pensaremos en esas cosas más adelante.

    Supongamos que tenemos una base de funciones\(\left\{\phi_{n}(x)\right\}_{n=1}^{\infty}\). Dada una función\(f(x)\), ¿cómo podemos ir para encontrar los componentes de\(f\) en esta base? En otras palabras, vamos

    \[f(x)=\sum_{n=1}^{\infty} c_{n} \phi_{n}(x) \nonumber \]

    ¿Cómo encontramos los\(c_{n}\)'s? ¿Esto te recuerda el problema que tuvimos antes? Formalmente, tomamos el producto interno de\(f\) con cada uno\(\phi_{j}\), para encontrar

    \ [\ begin {alineado &=
    <\ phi_ {j}, f> \<\ phi_ {j},\ sum_ {n=1} ^ {\ infty} c_ {n}\ phi_ {n} >\ &=
    \ sum_ {n=1} ^ {\ infty} c_ {n}\ <\ phi_ {j},\ phi_ {n} >
    end {alineado}\ label {4.33}\]

    Si nuestra base es una base ortogonal, entonces tenemos

    \[<\phi_{j}, \phi_{n}>=N_{j} \delta_{j n} \label{4.34} \]

    donde\(\delta_{i j}\) se define el delta de Kronecker como

    \ [\ delta_ {i j} =\ izquierda\ {\ begin {array} {l}
    0, i\ neq j\\
    1, i=j
    \ end {array}\ derecha. \ label {4.35}\]

    Por lo tanto, tenemos

    \ [\ comenzar {alineado &=
    <\ phi_ {j}, f>\ suma_ {n=1} ^ {\ infty} c_ {n}\ <\ phi_ {j},\ phi_ {n} >\ &=
    \ suma_ {n=1} ^ {\ infty} c_ {n} N_ {j}\ delta_ {j n}\\ &=c_
    {1} N_ {j}\ delta_ {j 1} +c_ {2} N_ {j} N_ {j}\ delta_ {j 2} +\ ldots+c_ {j} N_ {j}\ delta_ {j j} +\ lpuntos\\ &=c_
    {j} N_ {j}
    \ final {alineado}\ etiqueta {4.36}\]

    Entonces, el coeficiente de expansión es

    \[c_{j}=\dfrac{<\phi_{j}, f>}{N_{j}}=\dfrac{<\phi_{j}, f>}{<\phi_{j}, \phi_{j}>} \nonumber \]

    Resumimos este importante resultado:

    Expansión de Bases Generalizadas

    Dejar\(f(x)\) ser representado por una expansión sobre una base de funciones ortogonales,\(\left\{\phi_{n}(x)\right\}_{n=1}^{\infty}\)

    \[f(x)=\sum_{n=1}^{\infty} c_{n} \phi_{n}(x). \nonumber \]

    Luego, los coeficientes de expansión se determinan formalmente como

    \[c_{n}=\dfrac{<\phi_{n}, f>}{<\phi_{n}, \phi_{n}>}. \nonumber \]

    En nuestra preparación para secciones posteriores, determinemos si el conjunto de funciones\(\phi_{n}(x)=\sin n x\) para\(n=1,2, \ldots\) es ortogonal en el intervalo\([-\pi, \pi]\). Tenemos que demostrarlo\(<\phi_{n}, \phi_{m}>=0\) para\(n \neq m\). Así, tenemos para\(n \neq m\)

    \ [\ comenzar {alineado &=
    <\ phi_ {n},\ phi_ {m} >\ int_ {-\ pi} ^ {\ pi}\ sin n x\ sin m x d x\ &=
    \ dfrac {1} {2}\ int_ {-\ pi} ^ {\ pi} [\ cos (n-m) x-\ cos (n+m) x] d x\ &=
    \ dfrac {1} {2} izquierda [\ dfrac {\ sin (n-m) x} {n-m} -\ dfrac {\ sin (n+m) x} {n+m}\ derecha] _ {-\ pi} ^ {\ pi} =0
    \ end {alineado}\ etiqueta {4.37}\]

    Aquí hemos hecho uso de una identidad trigonométrica para el producto de dos senos. Recordamos cómo se deriva esta identidad. Recordemos las fórmulas de adición para cosenos:

    \ begin {alineado}
    &\ cos (A+B) =\ cos A\ cos B-\ sin A\ sin B\\
    &\ cos (A-B) =\ cos A\ cos B+\ sin A\ sin B
    \ end {alineado}

    Sumando, o restando, estas ecuaciones da

    \ begin {alineado}
    &2\ cos A\ cos B=\ cos (A+B) +\ cos (A-B),\\
    &2\ sin A\ sin B=\ cos (A-B) -\ cos (A+B).
    \ end {alineado}

    Entonces, hemos determinado que el set\(\phi_{n}(x)=\sin n x\) for\(n=1,2, \ldots\) es un conjunto ortogonal de funciones en el intervalo\([=\pi, \pi]\). Al igual que con los vectores en tres dimensiones, podemos normalizar nuestras funciones base para llegar a una base ortonormal,\(<\phi_{n}, \phi_{m}>=\delta_{n m}, m, n=1,2, \ldots\) Esto se hace simplemente dividiendo por la longitud del vector. Recordemos que la longitud de un vector se obtuvo como\(v=\sqrt{\mathbf{v} \cdot \mathbf{v}}\) De la misma manera, definimos la norma de nuestras funciones por

    \[\|f\|=\sqrt{<f, f>}. \nonumber \]

    Tenga en cuenta que hay muchos tipos de normas, pero esto será suficiente para nosotros.

    Para la base anterior de las funciones sinusoidales, primero queremos calcular la norma de cada función. Entonces nos gustaría encontrar una nueva base a partir de esta tal manera que cada función propia base tenga longitud unitaria y por lo tanto sea una base ortonormal. Primero computamos

    \ [\ comenzar {alineado}
    \ izquierda\ |\ phi_ {n}\ derecha\ |^ {2} &=\ int_ {-\ pi} ^ {\ pi}\ sin ^ {2} n x d x\
    &=\ dfrac {1} {2}\ int_ {-\ pi} ^ {\ pi} [1-\ cos 2 n x] d x\
    &= d= {1} {2}\ izquierda [x-\ dfrac {\ sin 2 n x} {2 n}\ derecha] _ {-\ pi} ^ {\ pi} =\ pi
    \ final {alineado}\ etiqueta {4.38}\]

    Hemos encontrado para nuestro ejemplo que

    \[<\phi_{n}, \phi_{m}>=\pi \delta_{n m} \label{4.39} \]

    y eso\(\left\|\phi_{n}\right\|=\sqrt{\pi}\). Definiendo\(\psi_{n}(x)=\dfrac{1}{\sqrt{\pi}} \phi_{n}(x)\), hemos normalizado los\(\phi_{n}\)'s y hemos obtenido una base ortonormal de funciones sobre\([-\pi, \pi]\).

    Las expansiones de funciones en bases trigonométricas ocurren a menudo y originalmente resultaron del estudio de ecuaciones diferenciales parciales. Han sido nombradas series de Fourier y serán el tema del próximo capítulo.


    This page titled 4.3: Conexiones al álgebra lineal is shared under a CC BY-NC-SA 3.0 license and was authored, remixed, and/or curated by Russell Herman via source content that was edited to the style and standards of the LibreTexts platform; a detailed edit history is available upon request.