Saltar al contenido principal
LibreTexts Español

5.6: Diferenciales. El teorema de Taylor y la serie de Taylor

  • Page ID
    114031
  • \( \newcommand{\vecs}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} } \)

    \( \newcommand{\vecd}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash {#1}}} \)

    \( \newcommand{\id}{\mathrm{id}}\) \( \newcommand{\Span}{\mathrm{span}}\)

    ( \newcommand{\kernel}{\mathrm{null}\,}\) \( \newcommand{\range}{\mathrm{range}\,}\)

    \( \newcommand{\RealPart}{\mathrm{Re}}\) \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\)

    \( \newcommand{\Argument}{\mathrm{Arg}}\) \( \newcommand{\norm}[1]{\| #1 \|}\)

    \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\)

    \( \newcommand{\Span}{\mathrm{span}}\)

    \( \newcommand{\id}{\mathrm{id}}\)

    \( \newcommand{\Span}{\mathrm{span}}\)

    \( \newcommand{\kernel}{\mathrm{null}\,}\)

    \( \newcommand{\range}{\mathrm{range}\,}\)

    \( \newcommand{\RealPart}{\mathrm{Re}}\)

    \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\)

    \( \newcommand{\Argument}{\mathrm{Arg}}\)

    \( \newcommand{\norm}[1]{\| #1 \|}\)

    \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\)

    \( \newcommand{\Span}{\mathrm{span}}\) \( \newcommand{\AA}{\unicode[.8,0]{x212B}}\)

    \( \newcommand{\vectorA}[1]{\vec{#1}}      % arrow\)

    \( \newcommand{\vectorAt}[1]{\vec{\text{#1}}}      % arrow\)

    \( \newcommand{\vectorB}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} } \)

    \( \newcommand{\vectorC}[1]{\textbf{#1}} \)

    \( \newcommand{\vectorD}[1]{\overrightarrow{#1}} \)

    \( \newcommand{\vectorDt}[1]{\overrightarrow{\text{#1}}} \)

    \( \newcommand{\vectE}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash{\mathbf {#1}}}} \)

    \( \newcommand{\vecs}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} } \)

    \( \newcommand{\vecd}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash {#1}}} \)

    Recordemos (Teorema 2 de §1) que una función\(f\) es diferenciable en\(p\) iff

    \[\Delta f=f^{\prime}(p) \Delta x+\delta(x) \Delta x,\]

    con\(\lim _{x \rightarrow p} \delta(x)=\delta(p)=0.\) Se acostumbra escribir\(df\) para\(f^{\prime}(p) \Delta x\) y\(o(\Delta x)\) para\(\delta(x) \Delta x; df\) se llama el diferencial de\(f\) (at\(p\) y\(x\)). Por lo tanto

    \[\Delta f=d f+o(\Delta x);\]

    es decir,\(df\) se\(\Delta f\) aproxima al interior\(o(\Delta x)\).

    De manera más general, dada cualquier función\(f : E^{1} \rightarrow E\) y\(p, x \in E^{1},\) definimos

    \[d^{n} f=d^{n} f(p, x)=f^{(n)}(p)(x-p)^{n}, \quad n=0,1,2, \ldots,\]

    donde\(f^{(n)}\) es la función derivada\(n\) th (Definición 2 en §1);\(d^{n} f\) se llama el enésimo diferencial, o diferencial de orden n, de\(f\) (at\(p\) y\(x\)). En particular,\(d^{1} f=f^{\prime}(p) \Delta x=d f.\) Por nuestras convenciones, siempre\(d^{n} f\) se define, como es\(f^{(n)}\).

    Como veremos, a menudo se pueden obtener buenas aproximaciones de\(\Delta f\) (sugeridas por Taylor) usando diferenciales más altos (1), de la siguiente manera:

    \[\Delta f=d f+\frac{d^{2} f}{2 !}+\frac{d^{3} f}{3 !}+\cdots+\frac{d^{n} f}{n !}+R_{n}, \quad n=1,2,3, \ldots,\]

    donde

    \[R_{n}=\Delta f-\sum_{k=1}^{n} \frac{d^{k} f}{k !} \quad \text {(the "remainder term")}\]

    es el error de la aproximación. Sustituyendo los valores de\(\Delta f\)\(d^{k} f\) y y transposición\(f(p),\) tenemos

    \[f(x)=f(p)+\frac{f^{\prime}(p)}{1 !}(x-p)+\frac{f^{\prime \prime}(p)}{2 !}(x-p)^{2}+\cdots+\frac{f^{(n)}(p)}{n !}(x-p)^{n}+R_{n}.\]

    La fórmula (3) se conoce como la enésima expansión de Taylor de\(f\) aproximadamente\(p\) (con término\(R_{n}\) de resto por estimar). Por lo general\(p\), tratamos como fijos y\(x\) como variables. Escribiendo\(R_{n}(x)\)\(R_{n}\) y configurando

    \[P_{n}(x)=\sum_{k=0}^{n} \frac{f^{(k)}(p)}{k !}(x-p)^{k},\]

    tenemos

    \[f(x)=P_{n}(x)+R_{n}(x).\]

    La función\(P_{n} : E^{1} \rightarrow E\) así definida se llama el enésimo polinomio Taylor para\(f\) aproximadamente\(p.\) Así (3) produce aproximaciones de\(f\) por polinomios\(P_{n}, n=1,2,3, \ldots.\) Esta es una forma de interpretarla. El otro (fácil de recordar) uno es (2), lo que da aproximaciones de\(\Delta f\) por el\(d^{k} f.\) Queda, sin embargo, para encontrar una buena estimación para\(R_{n}.\) Lo hacemos a continuación.

    Teorema\(\PageIndex{1}\) (taylor)

    Deje que la función\(f : E^{1} \rightarrow E\) y sus primeras n funciones derivadas sean relativamente continuas y finitas en un intervalo I y diferenciables en\(I-Q\) (Q contable). Deje que las fórmulas (2) y (3)\(p, x \in I.\) se mantengan, con

    \[R_{n}=\frac{1}{n !} \int_{p}^{x} f^{(n+1)}(t) \cdot(x-t)^{n} d t \quad\left(\text {"integral form of } R_{n} \text{"}\right)\]

    y

    \[\left|R_{n}\right| \leq M_{n} \frac{|x-p|^{n+1}}{(n+1) !} \text { for some real } M_{n} \leq \sup _{t \in I-Q}\left|f^{(n+1)}(t)\right|.\]

    Prueba

    Por definición,\(R_{n}=f-P_{n},\) o

    \[R_{n}=f(x)-f(p)-\sum_{k=1}^{n} f^{(k)}(p) \frac{(x-p)^{k}}{k !}.\]

    Usamos el lado derecho como un “patrón” para definir una función\(h : E^{1} \rightarrow E.\) Esta vez, nos mantenemos\(x\) fijos\((\text { say }, x=a \in I)\) y reemplazamos\(p\) por una variable\(t.\) Así establecemos

    \[h(t)=f(a)-f(t)-\frac{f^{\prime}(t)}{1 !}(a-t)-\cdots-\frac{f^{(n)}(t)}{n !}(a-t)^{n} \text { for all } t \in E^{1}.\]

    Entonces\(h(p)=R_{n}\) y\(h(a)=0.\) Nuestras suposiciones implican que\(h\) es relativamente continuo y finito\(I,\) y diferenciable en\(I-Q.\) Diferenciar (4), vemos que todo cancela excepto por un término

    \[h^{\prime}(t)=-f^{(n+1)}(t) \frac{(a-t)^{n}}{n !}, \quad t \in I-Q. \quad \text {(Verify!)}\]

    De ahí que por las Definiciones 1 y 2 de §5

    \[-h(t)=\frac{1}{n !} \int_{t}^{a} f^{(n+1)}(s)(a-s)^{n} d s \quad \text { on } I\]

    y

    \[\frac{1}{n !} \int_{p}^{a} f^{(n+1)}(t)(a-t)^{n} d t=-h(a)+h(p)=0+R_{n}=R_{n} \quad\left(\text {for } h(p)=R_{n}\right).\]

    Como se demuestra\(x=a,\) (3').

    A continuación, vamos

    \[M=\sup _{t \in I-Q}\left|f^{(n+1)}(t)\right|.\]

    Si\(M<+\infty,\) define

    \[g(t)=M \frac{(t-a)^{n+1}}{(n+1) !} \text { for } t \geq a \text { and } g(t)=-M \frac{(a-t)^{n+1}}{(n+1) !} \text { for } t \leq a.\]

    En ambos casos,

    \[g^{\prime}(t)=M \frac{|a-t|^{n}}{n !} \geq\left|h^{\prime}(t)\right| \text { on } I-Q \text { by (5).}\]

    De ahí, aplicando el Teorema 1 en §4 a las funciones\(h\) y\(g\) en el intervalo\([a, p]\) (o\([p, a]),\) obtenemos

    \[|h(p)-h(a)| \leq|g(p)-g(a)|,\]

    o

    \[\left|R_{n}-0\right| \leq M \frac{|a-p|^{n+1}}{(n+1) !}.\]

    Así sigue (3"), con\(M_{n}=M\).

    Por último, si\(M=+\infty,\) ponemos

    \[M_{n}=\left|R_{n}\right| \frac{(n+1) !}{|a-p|^{n+1}}<M. \quad \square\]

    Para funciones reales, obtenemos algunas estimaciones adicionales de\(R_{n}\).

    Teorema\(\PageIndex{1'}\)

    Si\(f\) es real y los\(n+1\) tiempos diferenciales encendido\(I\), entonces\(p \neq x\)\((p, x \in I),\) porque hay\(q_{n}, q_{n}^{\prime}\) en el intervalo\((p, x)\) (respectivamente,\((x, p) )\) tal que

    \[R_{n}=\frac{f^{(n+1)}\left(q_{n}\right)}{(n+1) !}(x-p)^{n+1}\]

    y

    \[R_{n}=\frac{f^{(n+1)}\left(q_{n}^{\prime}\right)}{n !}(x-p)\left(x-q_{n}^{\prime}\right)^{n}.\]

    (Las fórmulas (5') y (5") se conocen como las formas Lagrange y Cauchy de\(R_{n},\) respectivamente.)

    Prueba

    Exactamente como en la prueba del Teorema 1, obtenemos la función\(h\) y fórmula (5). Por nuestros supuestos actuales,\(h\) es diferenciable (por lo tanto continuo) en\(I,\) lo que podemos aplicarlo la ley de Cauchy de la media (Teorema 2 de §2) en el intervalo\([a, p]\) (o\([p, a]\) si\(p<a ),\) donde\(a=x \in I\).

    Para ello, nos asociaremos\(h\) con otra función adecuada\(g\) (que se especificará más adelante). Entonces por el Teorema 2 de §2, hay un real\(q \in(a, p)\) (respectivamente,\(q \in(p, a))\) tal que

    \[g^{\prime}(q)[h(a)-h(p)]=h^{\prime}(q)[g(a)-g(p)].\]

    Aquí por la prueba anterior,\(h(a)=0, h(p)=R_{n},\) y

    \[h^{\prime}(q)=-\frac{f^{(n+1)}}{n !}(a-q)^{n}.\]

    Por lo tanto

    \[g^{\prime}(q) \cdot R_{n}=\frac{f^{(n+1)}(q)}{n !}(a-q)^{n}[g(a)-g(p)].\]

    Ahora define\(g\) por

    \[g(t)=a-t, \quad t \in E^{1}.\]

    Entonces

    \[g(a)-g(p)=-(a-p) \text { and } g^{\prime}(q)=-1,\]

    entonces (6) rinde (5") (con\(q_{n}^{\prime}=q\) y\(a=x)\).

    Del mismo modo, el ajuste\(g(t)=(a-t)^{n+1},\) obtenemos (5'). (¡Verifica!) Así todo está probado. \(\quad \square\)

    Nota 1. En (5') y (5"), los números\(q_{n}\) y\(q_{n}^{\prime}\) dependen\(n\) y son diferentes en general\(\left(q_{n} \neq q_{n}^{\prime}\right),\) ya que dependen de la elección de la función\(g\). Ya que están entre\(p\) y\(x,\) pueden escribirse como

    \[q_{n}=p+\theta_{n}(x-p) \text { and } q_{n}^{\prime}=p+\theta_{n}^{\prime}(x-p),\]

    dónde\(0<\theta_{n}<1\) y\(0<\theta_{n}^{\prime}<1.\) (¡Explique!)

    Nota 2. Para cualquier función\(f : E^{1} \rightarrow E,\) los polinomios de Taylor\(P_{n}\) son sumas parciales de una serie power, llamada la serie Taylor para\(f\) (acerca de\(p).\) Decimos que\(f\) admite tal serie en un set\(B\) si la serie converge\(f\) en\(B;\) i.e.,

    \[f(x)=\lim _{n \rightarrow \infty} P_{n}(x)=\sum_{n=1}^{\infty} \frac{f^{(n)}(p)}{n !}(x-p)^{n} \neq \pm \infty \text { for } x \in B.\]

    Este es claramente el caso si

    \[\lim _{n \rightarrow \infty} R_{n}(x)=\lim _{n \rightarrow \infty}\left[f(x)-P_{n}(x)\right]=0 \text { for } x \in B;\]

    brevemente,\(R_{n} \rightarrow 0.\) Así

    \[f \text { admits a Taylor series (about p) iff } R_{n} \rightarrow 0.\]

    Precaución: La convergencia de la serie por sí sola (ya sea puntual o uniforme) no es suficiente. En ocasiones la serie converge a una suma distinta de\(f(x);\) entonces (7) falla. Así todo depende de la condición necesaria y suficiente:\(R_{n} \rightarrow 0\).

    Definición 1

    Decimos que\(f\) es de clase\(\mathrm{CD}^{n}\), o\(n\) tiempos continuamente diferenciables, en un conjunto\(B\) iff\(f\) es\(n\) tiempos diferenciables en\(B,\) y\(f^{(n)}\) es relativamente continuo en\(B\). Notación:\(f \in \mathrm{CD}^{n}\) (on\(B).\)

    Si esto se mantiene para cada uno\(n \in N,\) decimos que\(f\) es infinitamente diferenciable on\(B\) y write\(f \in \mathrm{CD}^{\infty}\) (on\(B).\)

    La notación\(f \in \mathrm{CD}^{0}\) significa que\(f\) es finita y relativamente continua (todo en\(B).\)

    Ejemplos

    (a) Dejar

    \[f(x)=e^{x} \text { on } E^{1}.\]

    Entonces

    \[(\forall n) \quad f^{(n)}(x)=e^{x},\]

    así\(f \in \mathrm{CD}^{\infty}\) sucesivamente\(E^{1}.\) At\(p=0, f^{(n)}(p)=1,\) así obtenemos por Teorema 1' (usando (5') y Nota 1)

    \[e^{x}=1+\frac{x}{1 !}+\frac{x^{2}}{2 !}+\cdots+\frac{x^{n}}{n !}+\frac{e^{\theta_{n} x}}{(n+1) !} x^{n+1}, \quad 0<\theta_{n}<1.\]

    Así, en un intervalo\([-a, a]\),

    \[e^{x} \approx 1+\frac{x}{1 !}+\frac{x^{2}}{2 !}+\cdots+\frac{x^{n}}{n !}\]

    a dentro de un error\(R_{n}(>0 \text { if } x>0)\) con

    \[\left|R_{n}\right|<e^{a} \frac{a^{n+1}}{(n+1) !},\]

    que tiende a 0 como\(n \rightarrow+\infty.\) Para\(a=1=x,\) obtenemos

    \[e=1+\frac{1}{1 !}+\frac{1}{2 !}+\cdots+\frac{1}{n !}+R_{n} \text { with } 0<R_{n}<\frac{e^{1}}{(n+1) !}.\]

    Tomando\(n=10,\) tenemos

    \[e \approx 2.7182818 | 011463845 \ldots\]

    con un error no negativo de no más de

    \[\frac{e}{11 !}=0.00000006809869 \ldots;\]

    todos los dígitos son correctos antes de la barra vertical.

    b) Dejar

    \[f(x)=e^{-1 / x^{2}} \text { with } f(0)=0.\]

    Como\(\lim _{x \rightarrow 0} f(x)=0=f(0), f\) es continuo en Ahora\(0.\) demostramos que\(f \in \mathrm{CD}^{\infty}\) en\(E^{1}.\)

    Para\(x \neq 0,\) esto es claro; además, los rendimientos de inducción

    \[f^{(n)}(x)=e^{-1 / x^{2}} x^{-3 n} S_{n}(x),\]

    donde\(S_{n}\) es un polinomio en\(x\) grado 2\((n-1)\) (esto es todo lo que necesitamos saber de\(S_{n}).\) Una aplicación repetida de la regla de L'Hôpital muestra entonces que

    \[\lim _{x \rightarrow 0} f^{(n)}(x)=0 \text { for each } n.\]

    Para encontrar\(f^{\prime}(0),\) tenemos que usar la definición de un derivado:

    \[f^{\prime}(0)=\lim _{x \rightarrow 0} \frac{f(x)-f(0)}{x-0},\]

    o por regla de L'Hôpital,

    \[f^{\prime}(0)=\lim _{x \rightarrow 0} \frac{f^{\prime}(x)}{1}=0.\]

    Usando la inducción nuevamente, obtenemos

    \[f^{(n)}(0)=0, \quad n=1,2, \ldots.\]

    Así, efectivamente,\(f\) tiene derivados finitos de todos los órdenes en cada uno\(x \in E^{1},\) incluyendo\(x=0,\) así\(f \in \mathrm{CD}^{\infty}\) sucesivamente\(E^{1},\) como se reivindica.

    Sin embargo, cualquier intento de usar la fórmula (3) en nada\(p=0\) rinde nada. Como todos\(f^{(n)}\) desaparecen al igual\(0,\) que todos los términos excepto\(R_{n}.\) Así no resulta ninguna aproximación por polinomios - solo nos llevamos\(E^{1}\) y\(R_{n}(x)=e^{-1 / x^{2}}\).\(P_{n}=0\) \(R_{n}\)no tiende a 0 excepto en\(x=0,\) lo que\(f\) admite ninguna serie Taylor sobre 0 (excepto en\(E=\{0\}).\)

    El teorema de Taylor también arroja condiciones suficientes para máximos y mínimos, como vemos en el siguiente teorema.

    Teorema\(\PageIndex{2}\)

    Vamos\(f : E^{1} \rightarrow E^{*}\) a ser\(\mathrm{CD}^{n}\) de clase\(G_{p}(\delta)\) para un número par\(n \geq 2,\) y dejar

    \[f^{(k)}(p)=0 \text { for } k=1,2, \ldots,\text{ } n-1,\]

    mientras

    \[f^{(n)}(p)<0 \text { (respectively, } f^{(n)}(p)>0).\]

    Entonces\(f(p)\) es el valor máximo (respectivamente, mínimo) de\(f\) en algunos\(G_{p}(\varepsilon)\)\(\varepsilon \leq \delta.\)

    Sin embargo, si estas condiciones se mantienen para algún impar\(n \geq 1\) (es decir, la primera derivada no desaparecida at\(p\) es de orden impar), no\(f\) tiene máximo o mínimo en\(p.\)

    Prueba

    Como

    \[f^{(k)}(p)=0, \quad k=1,2, \ldots, \text{ } n-1,\]

    Teorema 1' (con\(n\) reemplazado por\(n-1)\) rendimientos

    \[f(x)=f(p)+f^{(n)}\left(q_{n}\right) \frac{(x-p)^{n}}{n !} \quad \text { for all } x \in G_{p}(\delta),\]

    con\(q_{n}\) entre\(x\) y\(p\).

    También, como\(f \in \mathrm{CD}^{n}, f^{(n)}\) es continuo en\(p.\) Así si\(f^{(n)}(p)<0,\) entonces\(f^{(n)}<0\) en algunos\(G_{p}(\varepsilon), 0<\varepsilon \leq \delta.\) Sin embargo,\(x \in G_{p}(\varepsilon)\) implica\(q_{n} \in G_{p}(\varepsilon),\) así

    \[f^{(n)}\left(q_{n}\right)<0,\]

    mientras

    \[(x-p)^{n} \geq 0 \text { if } n \text { is even.}\]

    De ello se deduce que

    \[f^{(n)}\left(q_{n}\right) \frac{(x-p)^{n}}{n !} \leq 0,\]

    y así

    \[f(x)=f(p)+f^{(n)}\left(q_{n}\right) \frac{(x-p)^{n}}{n !} \leq f(p) \quad \text { for } x \in G_{p}(\varepsilon),\]

    es decir,\(f(p)\) es el valor máximo de\(f\) on\(G_{p}(\varepsilon),\) como se reivindica.

    De igual manera, en el caso resultaría\(f^{(n)}(p)>0,\) un mínimo.

    Si, sin embargo,\(n\) es impar, entonces\((x-p)^{n}\) es negativo para\(x<p\) pero positivo para\(x>p .\) El mismo argumento luego muestra que de un\(f(x)<f(p)\)\(f(x)>f(p)\) lado\(p\) y del otro lado; así no puede existir ningún máximo o mínimo local en\(p.\) Esto completa la prueba. \(\quad \square\)

    Ejemplos

    (a') Dejar

    \[f(x)=x^{2} \text { on } E^{1} \text { and } p=0.\]

    Entonces

    \[f^{\prime}(x)=2 x \text { and } f^{\prime \prime}(x)=2>0,\]

    por lo

    \[f^{\prime}(0)=0 \text { and } f^{\prime \prime}(0)=2>0.\]

    Por Teorema 2,\(f(p)=0^{2}=0\) es un valor mínimo.

    Resulta ser mínimo en todos\(E^{1}\). De hecho\(x>0\),\(f^{\prime}(x)>0\) para, y\(f^{\prime}<0\) para\(x<0,\) tan\(f\) estrictamente disminuye\((-\infty, 0)\) y aumenta en\((0,+\infty).\)

    En realidad, incluso sin usar el Teorema 2, el último argumento arroja la respuesta.

    (b') Dejar

    \[f(x)=\ln x \text { on }(0,+\infty).\]

    Entonces

    \[f^{\prime}(x)=\frac{1}{x}>0 \text { on all of }(0,+\infty).\]

    Esto demuestra que\(f\) estrictamente aumenta en todas partes y por lo tanto no puede tener ningún máximo o mínimo en ninguna parte. Lo mismo sigue por la segunda parte del Teorema 2, con\(n=1\).

    b”) En el Ejemplo (b'), considere también

    \[f^{\prime \prime}(x)=-\frac{1}{x^{2}}<0.\]

    En este caso, no\(f^{\prime \prime}\) tiene relación con la existencia de un máximo o mínimo porque\(f^{\prime} \neq 0.\) Still, la fórmula\(f^{\prime \prime}<0\) sí tiene cierto significado. De hecho, si\(f^{\prime \prime}(p)<0\) y\(f \in \mathrm{CD}^{2}\)\(G_{p}(\delta),\) luego (usando el mismo argumento que en el Teorema 2) el lector encontrará fácilmente que

    \[f(x) \leq f(p)+f^{\prime}(p)(x-p) \quad \text { for } x \text { in some } G_{p}(\varepsilon), 0<\varepsilon \leq \delta.\]

    ya que\(y=f(p)+f^{\prime}(p)(x-p)\) es la ecuación de la tangente at\(p\), se deduce que\(f(x) \leq y;\) es decir, cerca de\(p\) la curva se encuentra por debajo de la tangente en\(p.\)

    Del mismo modo,\(f^{\prime \prime}(p)>0\) y\(f \in \mathrm{CD}^{2}\) on\(G_{p}(\delta)\) implica que la curva cercana\(p\) se encuentra por encima de la tangente.


    This page titled 5.6: Diferenciales. El teorema de Taylor y la serie de Taylor is shared under a CC BY 3.0 license and was authored, remixed, and/or curated by Elias Zakon (The Trilla Group (support by Saylor Foundation)) via source content that was edited to the style and standards of the LibreTexts platform; a detailed edit history is available upon request.