Saltar al contenido principal
LibreTexts Español

6.4: El teorema alternativo de Fredholm

  • Page ID
    118933
  • \( \newcommand{\vecs}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} } \) \( \newcommand{\vecd}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash {#1}}} \)\(\newcommand{\id}{\mathrm{id}}\) \( \newcommand{\Span}{\mathrm{span}}\) \( \newcommand{\kernel}{\mathrm{null}\,}\) \( \newcommand{\range}{\mathrm{range}\,}\) \( \newcommand{\RealPart}{\mathrm{Re}}\) \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\) \( \newcommand{\Argument}{\mathrm{Arg}}\) \( \newcommand{\norm}[1]{\| #1 \|}\) \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\) \( \newcommand{\Span}{\mathrm{span}}\) \(\newcommand{\id}{\mathrm{id}}\) \( \newcommand{\Span}{\mathrm{span}}\) \( \newcommand{\kernel}{\mathrm{null}\,}\) \( \newcommand{\range}{\mathrm{range}\,}\) \( \newcommand{\RealPart}{\mathrm{Re}}\) \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\) \( \newcommand{\Argument}{\mathrm{Arg}}\) \( \newcommand{\norm}[1]{\| #1 \|}\) \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\) \( \newcommand{\Span}{\mathrm{span}}\)\(\newcommand{\AA}{\unicode[.8,0]{x212B}}\)

    Ante eso\(L y=f\), ¿cuándo se puede esperar encontrar una solución? ¿Es único? Estas preguntas son respondidas por el Teorema Alternativo de Fredholm. Este teorema ocurre en muchas formas desde una declaración sobre soluciones a sistemas de ecuaciones algebraicas hasta soluciones de problemas de valor límite y ecuaciones integrales. El teorema viene en dos partes, de ahí el término “alternativa”. O la ecuación tiene exactamente una solución para todos\(f\), o la ecuación tiene muchas soluciones para algunas\(f^{\prime}\) y ninguna para el resto.

    El lector está familiarizado con las afirmaciones de la Alternativa de Fredholm para la solución de sistemas de ecuaciones algebraicas. Se buscan soluciones del sistema\(A x=b\) para\(A\) una\(n \times m\) matriz. Definir la matriz anexa,\(A^{*}\) a través\(<A x, y>=<x, A^{*} y>\) para todos\(x, y, \in \mathcal{C}^{n}\), entonces ya sea

    Teorema 6.12. Primera Alternativa

    La ecuación\(A x=b\) tiene una solución si y sólo si\(<b, v>=0\) por todos\(v\) tales que\(A^{*} v=0\).

    o

    Teorema 6.13. Segunda Alternativa

    \(A\)solución de\(A x=b\), si existe, es única si y sólo si\(x=0\) es la única solución de\(A x=0\).

    La segunda alternativa es más familiar cuando se da en la forma: La solución de un sistema no homogéneo de\(n\) ecuaciones e\(n\) incógnitas es única si la única solución al problema homogéneo es la solución cero. O, equivalentemente,\(A\) es invertible, o tiene un determinante distinto de cero.

    Comprobante. Demostramos primero el segundo teorema. Supongamos que\(A x=0\) para\(x \neq 0\) y\(A x_{0}=b\). Entonces\(A\left(x_{0}+\alpha x\right)=b\) para todos\(\alpha\). Por lo tanto, la solución no es única. Por el contrario, si hay dos soluciones diferentes,\(x_{1}\) y\(x_{2}\), satisfactorias\(A x_{1}=b\) y\(A x_{2}=b\), entonces una tiene una solución distinta de cero\(x=x_{1}-x_{2}\) tal que\(A x=A\left(x_{1}-x_{2}\right)=0\).

    La prueba de la primera parte del primer teorema es simple. Dejar\(A^{*} v=0\) y\(A x_{0}=b\). Entonces tenemos

    \[<b, v>=<A x_{0}, v>=<x_{0}, A^{*} v>=0 . \nonumber \]

    Para la segunda parte asumimos que\(\langle b, v\rangle=0\) para todos\(v\) tales que\(A^{*} v=0\). Escribir\(b\) como la suma de una parte que está en el rango de\(A\) y una parte que en el espacio ortogonal al rango de\(A, b=b_{R}+b_{O}\). Entonces,\(0=<b_{O}, A x>=<A^{*} b, x>\) para todos\(x\). Por lo tanto,\(A^{*} b_{O}\). Ya que\(\langle b, v\rangle=0\) para todos\(v\) en el espacio nulo de\(A^{*}\), entonces\(<b, b_{O}>=0\). Por lo tanto,\(<b, v>=0\) implica que\(0=<b, O>=<b_{R}+b_{O}, b_{O}>=<b_{O}, b_{O}>\). Esto significa que\(b_{O}=0\), dar\(b=b_{R}\) está en el rango de\(A\). Entonces,\(A x=b\) tiene una solución.

    Ejemplo\(\PageIndex{1}\)

    Determinar las formas permitidas de\(\mathbf{b}\) para una solución\(A \mathbf{x}=\mathbf{b}\) de existir, donde

    \ [A=\ left (\ begin {array} {ll}
    1 & 2\\
    3 & 6
    \ end {array}\ derecha)\ nonumber\]

    Solución

    Primero tenga en cuenta que\(A^{*}=\bar{A}^{T}\). Esto se ve al mirar

    \ [\ comenzar {alineado &=
    <A\ mathbf {x},\ mathbf {y} > \<\ mathbf {x}, A^ {*}\ mathbf {y} >\
    suma_ {i=1} ^ {n}\ suma_ {j=1} ^ {n} a_ {i j} x_ {j}\ bar {y} _ {i} &=\ suma_ {j=1} ^ {n} x_ {j}\ suma_ {j=1} ^ {n} a_ {i j} y_ {i}\\ &=
    \ suma_ {j=1} ^ {n} x_ {j}\ suma_ {j=1} ^ {n}\ izquierda (\ bar {a} ^ {T}\ derecha) _ {j i} y_ {i}
    \ final {alineado}\ etiqueta {6.27}\]

    Para este ejemplo,

    \ (A^ {*} =\ left (\ begin {array} {ll}
    1 & 3\\
    2 & 6
    \ end {array}\ right)\)

    A continuación resolvemos\(A^{*} \mathbf{v}=0\). Esto significa,\(v_{1}+3 v_{2}=0\). Entonces, el espacio nulo de\(A^{*}\) se extiende por\(\mathbf{v}=(3,-1)^{T}\). Para que una solución\(A \mathbf{x}=\mathbf{b}\) de existir,\(\mathbf{b}\) tendría que ser ortogonal a\(\mathbf{v}\). Por lo tanto, existe una solución cuando

    \ (\ mathbf {b} =\ alfa\ izquierda (\ begin {array} {l}
    1\\
    3
    \ end {array}\ derecha)\)

    Entonces, ¿qué dice esto sobre las soluciones de los problemas de valor límite? Existe una teoría más general para los operadores lineales. A continuación se presentan las formulaciones matriciales, ya que las matrices son simplemente representaciones de transformaciones lineales. Una declaración más general sería

    Teorema 6.15.

    Si\(L\) es un operador lineal acotado en un espacio Hilbert, entonces\(L y=f\) tiene una solución si y solo si\(<f, v>=0\) por cada\(v\) tal que\(L^{\dagger} v=0\).

    La declaración para problemas de valor límite es similar. No obstante, debemos tener cuidado para tratar las condiciones de los límites en nuestra declaración. Como hemos visto, después de varias integraciones por partes tenemos que

    \(<\mathcal{L} u, v>=S(u, v)+<u, \mathcal{L}^{\dagger} v>\),

    donde\(S(u, v)\) involucra las condiciones de límite en\(u\) y\(v\). Tenga en cuenta que para condiciones de límite no homogéneas, este término ya no puede desvanecerse.

    Teorema 6.16.

    La solución del problema del valor límite\(\mathcal{L} u=f\) con las condiciones de contorno\(B u=g\) existe si y solo si

    \[<f, v>-S(u, v)=0 \nonumber \]

    para todos\(v\) satisfactorios\(\mathcal{L}^{\dagger} v=0\) y\(B^{\dagger} v=0\).

    Ejemplo\(\PageIndex{2}\)

    Considera el problema

    \[u^{\prime \prime}+u=f(x), \quad u(0)-u(2 \pi)=\alpha, u^{\prime}(0)-u^{\prime}(2 \pi)=\beta. \nonumber \]

    Solución

    Sólo ciertos valores de\(\alpha\) y\(\beta\) conducirán a soluciones. Primero notamos que\(L=L^{\dagger} =\)

    \[\dfrac{d^{2}}{d x^{2}}+1 \nonumber \]

    Soluciones de

    \[L^{\dagger} v=0, \quad v(0)-v(2 \pi)=0, v^{\prime}(0)-v^{\prime}(2 \pi)=0 \nonumber \]

    se encuentran fácilmente para ser combinaciones lineales de\(v=\sin x\) y\(v=\cos x\).

    Siguiente computa

    \ [\ begin {alineado}
    S (u, v) &=\ left [u^ {\ prime} v-u v^ {\ prime}\ derecha] _ {0} ^ {2\ pi}\\
    &=u^ {\ prime} (2\ pi) v (2\ pi) -u (2\ pi) v^ {\ prime} (2\ pi) -u^ {\ prime} (0) v (0) +u (0) v^ {\ prime} (0)
    \ final {alineado}\ etiqueta {6.28}\]

    Para\(v(x)=\sin x\), esto rinde

    \[S(u, \sin x)=-u(2 \pi)+u(0)=\alpha . \nonumber \]

    Del mismo modo,

    \[S(u, \cos x)=\beta . \nonumber \]

    Usando\(<f, v>-S(u, v)=0\), esto lleva a las condiciones

    \ begin {alineado}
    &\ int_ {0} ^ {2\ pi} f (x)\ sin x d x=\ alfa\\
    &\ int_ {0} ^ {2\ pi} f (x)\ cos x d x=\ beta
    \ end {alineado}


    This page titled 6.4: El teorema alternativo de Fredholm is shared under a CC BY-NC-SA 3.0 license and was authored, remixed, and/or curated by Russell Herman via source content that was edited to the style and standards of the LibreTexts platform; a detailed edit history is available upon request.