Saltar al contenido principal
LibreTexts Español

3.6: Serie Taylor

  • Page ID
    119244
  • \( \newcommand{\vecs}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} } \) \( \newcommand{\vecd}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash {#1}}} \)\(\newcommand{\id}{\mathrm{id}}\) \( \newcommand{\Span}{\mathrm{span}}\) \( \newcommand{\kernel}{\mathrm{null}\,}\) \( \newcommand{\range}{\mathrm{range}\,}\) \( \newcommand{\RealPart}{\mathrm{Re}}\) \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\) \( \newcommand{\Argument}{\mathrm{Arg}}\) \( \newcommand{\norm}[1]{\| #1 \|}\) \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\) \( \newcommand{\Span}{\mathrm{span}}\) \(\newcommand{\id}{\mathrm{id}}\) \( \newcommand{\Span}{\mathrm{span}}\) \( \newcommand{\kernel}{\mathrm{null}\,}\) \( \newcommand{\range}{\mathrm{range}\,}\) \( \newcommand{\RealPart}{\mathrm{Re}}\) \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\) \( \newcommand{\Argument}{\mathrm{Arg}}\) \( \newcommand{\norm}[1]{\| #1 \|}\) \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\) \( \newcommand{\Span}{\mathrm{span}}\)\(\newcommand{\AA}{\unicode[.8,0]{x212B}}\)

    Extensión de polinomios de Taylor

    Recordemos 1 que los polinomios de Taylor proporcionan una jerarquía de aproximaciones a una función dada\(f(x)\) cerca de un punto dado\(a\text{.}\) Típicamente, la calidad de estas aproximaciones mejora a medida que avanzamos en la jerarquía.

    • La aproximación más cruda es la aproximación constante\(f(x)\approx f(a)\text{.}\)
    • Luego viene la aproximación lineal o tangente\(f(x)\approx f(a) + f'(a)\,(x-a)\text{.}\)
    • Luego viene la aproximación cuadrática

      \[ f(x)\approx f(a) + f'(a)\,(x-a) +\frac{1}{2} f''(a)\,(x-a)^2 \nonumber \]

    • En general, el polinomio Taylor de grado\(n\text{,}\) para la función\(f(x)\text{,}\) sobre el punto de expansión\(a\text{,}\) es el polinomio,\(T_n(x)\text{,}\) determinado por los requisitos que\(f^{(k)}(a) = T_n^{(k)}(a)\) para todos\(0\le k \le n\text{.}\) Eso es,\(f\) y\(T_n\) tienen las mismas derivadas en\(a\text{,}\) orden \(n\text{.}\)Explícitamente,

      \ begin {alinear*} f (x) &\ approx t_n (x)\\ &= f (a) + f' (a)\, (x-a) +\ frac {1} {2} f "(a)\, (x-a) ^2 +\ cdots+\ frac {1} {n!} f^ {(n)} (a)\, (x-a) ^n\\ &=\ suma_ {k=0} ^n\ frac {1} {k!} f^ {(k)} (a)\, (x-a) ^k\ final {alinear*}

    Estas son, por supuesto, aproximaciones —a menudo muy buenas aproximaciones cercanas\(x=a\) — pero aún así solo aproximaciones. Se podría esperar que si dejamos que el grado,\(n\text{,}\) de la aproximación vaya al infinito entonces el error en la aproximación pueda llegar a cero. Si ese es el caso entonces el polinomio Taylor “infinito” sería una representación exacta de la función. Veamos cómo podría funcionar esto.

    Fijar un número real\(a\) y suponer que todas las derivadas de la función\(f(x)\) existen. Entonces, vimos en (3.4.33) del texto CLP-1 que, para cualquier número natural\(n\text{,}\)

    Ecuación 3.6.1

    \[\begin{align*} f(x) &=T_n(x) +E_n(x) \end{align*}\]

    donde\(T_n(x)\) es el polinomio Taylor de grado\(n\) para la función\(f(x)\) expandida alrededor\(a\text{,}\) y\(E_n(x)=f(x)-T_n(x)\) es el error en la aproximación\(f(x) \approx T_n(x)\text{.}\) El polinomio Taylor 2 viene dado por la fórmula

    Ecuación 3.6.2

    \[\begin{align*} T_n(x)&=f(a)+f'(a)\,(x-a)+\cdots+\tfrac{1}{n!}f^{(n)}(a)\, (x-a)^n \end{align*}\]

    mientras que el error satisface 3

    Ecuación 3.6.3

    \ begin {reunir*} e_n (x) =\ tfrac {1} {(n+1)!} f^ {(n+1)} (c)\, (x-a) ^ {n+1}\ final {reunir*}

    para algunos\(c\) estrictamente entre\(a\) y\(x\text{.}\)

    Tenga en cuenta que normalmente no conocemos el valor de\(c\) en la fórmula para el error. En su lugar, usamos los límites\(c\) para encontrar límites en\(f^{(n+1)}(c)\) y así limitar el error 4.

    Para que nuestro polinomio Taylor sea una representación exacta de la función\(f(x)\) necesitamos que el error\(E_n(x)\) sea cero. Esto no sucederá cuando\(n\) sea finito a menos que\(f(x)\) sea un polinomio. Sin embargo puede suceder en el límite como\(n \to \infty\text{,}\) y en ese caso podemos escribir\(f(x)\) como el límite

    \[ f(x)=\lim_{n\rightarrow\infty} T_n(x) =\lim_{n\rightarrow\infty} \sum_{k=0}^n \tfrac{1}{k!}f^{(k)}(a)\, (x-a)^k \nonumber \]

    Esto es realmente un límite de sumas parciales, y así podemos escribir

    \ begin {reunir*} f (x) =\ sum_ {k=0} ^\ infty\ tfrac {1} {k!} f^ {(k)} (a)\, (x-a) ^k\ fin {reunir*}

    que es una representación en serie de potencia de la función. Formalicemos esto en una definición.

    Definición 3.6.4 Serie Taylor

    La serie Taylor para la función\(f(x)\) ampliada\(a\) es la serie power

    \ comenzar {reunir*}\ suma_ {n=0} ^\ infty\ tfrac {1} {n!} f^ {(n)} (a)\, (x-a) ^n\ final {reunir*}

    Cuando también\(a=0\) se llama la serie Maclaurin de\(f(x)\text{.}\) If\(\lim_{n\rightarrow\infty}E_n(x)=0\text{,}\) then

    \ comenzar {reunir*} f (x) =\ suma_ {n=0} ^\ infty\ tfrac {1} {n!} f^ {(n)} (a)\, (x-a) ^n\ final {reunir*}

    Demostrar que, para una función dada,\(\lim_{n\rightarrow\infty}E_n(x)=0\) puede ser difícil, pero para muchas de las funciones estándar con las que estás acostumbrado a tratar, resulta ser bastante fácil. Calculemos algunas series de Taylor y veamos cómo lo hacemos.

    Ejemplo 3.6.5 Serie exponencial

    Encuentra la serie Maclaurin para\(f(x)=e^x\text{.}\)

    Solución

    Así como fue el caso para calcular polinomios de Taylor, necesitamos computar las derivadas de la función a la elección particular de\(a\text{.}\) Ya que se nos pide una serie Maclaurin,\(a=0\text{.}\) Así que ahora solo necesitamos encontrar\(f^{(k)}(0)\) para todos los enteros\(k\ge 0\text{.}\)

    Eso lo sabemos\(\frac{d}{dx}e^x = e^x\) y así

    \ begin {align*} e^x &= f (x) = f' (x) = f "(x) =\ cdots = f^ {(k)} (x) =\ cdots &\ text {que da}\\ 1 &= f (0) = f' (0) = f" (0) =\ cdots = f^ {(k)} (0) =\ cdots. \ end {alinear*}

    Las ecuaciones 3.6.1 y 3.6.2 luego nos dan

    \ begin {alinear*} e^x=f (x) &= 1+x+\ frac {x^2} {2!} +\ cdots+\ frac {x^n} {n!} +E_N (x)\ final {alinear*}

    Veremos, en el ejemplo opcional 3.6.8 a continuación, que, para cualquier fijo\(x\text{,}\)\(\lim\limits_{n\rightarrow\infty}E_n(x)=0\text{.}\) Consecuentemente, para todos\(x\text{,}\)

    \[ e^x=\lim_{n\rightarrow\infty}\Big[1 +x + \frac{1}{2} x^2 +\frac{1}{3!} x^3+\cdots+\frac{1}{n!} x^n\Big] =\sum_{n=0}^\infty \frac{1}{n!}x^n \nonumber \]

    Ahora hemos visto representaciones de series de potencia para las funciones

    \ begin {alinear*}\ frac {1} {1-x} &&\ frac {1} {(1-x) ^2} &&\ log (1+x) &&\ arctan (x) && e^x.\ end {alinear*}

    No creemos que usted, el lector, se sorprenderá terriblemente al ver que desarrollamos series para seno y coseno a continuación.

    Ejemplo 3.6.6 Serie sinusoidal y coseno

    Las funciones trigonométricas\(\sin x\) y\(\cos x\) también tienen ampliaciones de la serie Maclaurin ampliamente utilizadas (es decir, expansiones de la serie Taylor sobre\(a=0\)). Para encontrarlos, primero calculamos todas las derivadas en general\(x\text{.}\)

    \ begin {alinear*} f (x) &=\ sin x & f' (x) &=\ cos x & f "(x) &=\! -\ sin x & f^ {(3)} (x) &=\! -\ cos x\\ & & f^ {(4)} (x) &=\ sin x &\ cdots\\ g (x) &=\ cos x & g' (x) &=\! -\ sin x & g "(x) &=\! -\ cos x & g^ {(3)} (x) &=\ sin x\\ & g^ {(4)} (x) &=\ cos x &\ cdots\ final {alinear*}

    Ahora establece\(x=a=0\text{.}\)

    \ begin {alinear*} f (x) &=\ sin x & f (0) &=0 & f' (0) &=1 & f "(0) &=0 & f^ {(3)} (0) &=\! -1\\ & & f^ {(4)} (0) &=0 &\ cdots\\ g (x) &=\ cos x & g (0) &=1 & g' (0) &=0 & g "(0) &=\! -1 & g^ {(3)} (0) &=0\\ & & g^ {(4)} (0) &=1 &\ cdots\ end {alinear*}

    Para\(\sin x\text{,}\) todas las derivadas de número par (at\(x=0\)) son cero, mientras que las derivadas impares se alternan entre\(1\) y\(-1\text{.}\) Muy similar, para\(\cos x\text{,}\) todas las derivadas impares (at\(x=0\)) son cero, mientras que las derivadas de número par alternan entre\(1\) y \(-1\text{.}\)Entonces, los polinomios de Taylor que mejor se aproximan\(\sin x\) y\(\cos x\) cerca\(x=a=0\) son

    \ begin {alinear*}\ sin x &\ aprox x-\ tfrac {1} {3!} x^3+\ tfrac {1} {5!} x^5-\ cdots\\ cos x &\ aprox 1-\ tfrac {1} {2!} x^2+\ tfrac {1} {4!} x^4-\ cdots\ final {alinear*}

    Veremos, en el ejemplo opcional 3.6.10 a continuación, que, para ambos\(\sin x\) y\(\cos x\text{,}\) tenemos para\(\lim\limits_{n\rightarrow\infty}E_n(x)=0\) que

    \ begin {alinear*} f (x) &=\ lim_ {n\ fila derecha\ infty}\ Grande [f (0) +f' (0)\, x+\ cdots +\ tfrac {1} {n!} f^ {(n)} (0)\, x^n\ Grande]\\ g (x) &=\ lim_ {n\ fila derecha\ infty}\ Grande [g (0) +g' (0)\, x+\ cdots +\ tfrac {1} {n!} g^ {(n)} (0)\, x^n\ Grande]\ final {alinear*}

    Revisando los patrones que encontramos en los derivados, concluimos que, para todos\(x\text{,}\)

    \[ \begin{alignedat}{2} \sin x &= x-\tfrac{1}{3!}x^3+\tfrac{1}{5!}x^5-\cdots& &=\sum_{n=0}^\infty(-1)^n\tfrac{1}{(2n+1)!}x^{2n+1}\\ \cos x &= 1-\tfrac{1}{2!}x^2+\tfrac{1}{4!}x^4-\cdots& &=\sum_{n=0}^\infty(-1)^n\tfrac{1}{(2n)!}x^{2n} \end{alignedat} \nonumber \]

    y, en particular, ambas series en los lados de la derecha convergen para todos\(x\text{.}\)

    También podríamos probar la convergencia de la serie usando la prueba de ratio. El cálculo de las proporciones de términos sucesivos en estas dos series nos da

    \ begin {alinear*}\ izquierda|\ frac {A_ {n+1}} {a_n}\ derecha| &=\ frac {|x|^ {2n+3}/(2n+3)!} {|x|^ {2n+1}/(2n+1)!} =\ frac {|x|^2} {(2n+3) (2n+2)}\\\ izquierda|\ frac {A_ {n+1}} {a_n}\ derecha| &=\ frac {|x|^ {2n+2}/(2n+2)!} {|x|^ {2n}/(2n)!} =\ frac {|x|^2} {(2n+2) (2n+1)}\ final {alinear*}

    para seno y coseno respectivamente. De ahí como\(n \to \infty\) estas proporciones van a cero y consecuentemente ambas series son convergentes para todos\(x\text{.}\) (Esto es muy similar a lo observado en el Ejemplo 3.5.5.)

    Hemos desarrollado representaciones de series de potencia para una serie de funciones importantes 5. Aquí hay un teorema que los resume.

    Teorema 3.6.7

    \[ \begin{alignedat}{5} e^x &= \sum_{n=0}^\infty\dfrac{x^n}{n!} &&= 1 +x + \frac{1}{2!} x^2 +\frac{1}{3!} x^3+\cdots &&\ \text{for all $-\infty \lt x \lt \infty$} \\ \sin(x) &= \sum_{n=0}^\infty(-1)^n\dfrac{x^{2n+1}}{(2n+1)!} &&= x-\frac{1}{3!}x^3+\frac{1}{5!}x^5-\cdots &&\ \text{for all $-\infty \lt x \lt \infty$} \\ \cos(x) &= \sum_{n=0}^\infty(-1)^n\dfrac{x^{2n}}{(2n)!} &&= 1-\frac{1}{2!}x^2+\frac{1}{4!}x^4-\cdots &&\ \text{for all $-\infty \lt x \lt \infty$} \\ \frac{1}{1-x} &= \sum_{n=0}^\infty x^n &&= 1 + x+ x^2 + x^3 + \cdots &&\ \text{for all $-1 \lt x \lt 1$} \\ \log(1+x) &= \sum_{n=0}^\infty (-1)^n\dfrac{x^{n+1}}{n+1} &&= x-\frac{x^2}{2}+\frac{x^3}{3}-\frac{x^4}{4}+\cdots &&\ \text{for all $-1 \lt x\le 1$} \\ \arctan x &= \sum_{n=0}^\infty (-1)^n\dfrac{x^{2n+1}}{2n+1} &&= x -\frac{x^3}{3} +\frac{x^5}{5}-\cdots &&\ \text{for all $-1\le x\le 1$} \end{alignedat} \nonumber \]

    Observe que la serie para seno y coseno suma a algo que se ve muy similar a la serie para\(e^x\text{:}\)

    \ begin {alinear*}\ sin (x) +\ cos (x) &=\ left (x-\ frac {1} {3!} x^3+\ frac {1} {5!} x^5-\ cdots\ derecha) +\ izquierda (1-\ frac {1} {2!} x^2+\ frac {1} {4!} x^4-\ cdots\ derecha)\\ &= 1 + x -\ frac {1} {2!} x^2 -\ frac {1} {3!} x^3 +\ frac {1} {4!} x^4 +\ frac {1} {5!} x^5 -\ cdots\\ e^x &= 1 + x +\ frac {1} {2!} x^2 +\ frac {1} {3!} x^3 +\ frac {1} {4!} x^4 +\ frac {1} {5!} x^5 +\ cdots\ final {alinear*}

    Entonces ambas series tienen coeficientes con el mismo valor absoluto (es decir\(\frac{1}{n!}\)), pero hay diferencias en el signo 6. Esto no es una coincidencia y dirigimos al lector interesado a la optativa Sección 3.6.3 donde se mostrará cómo se vinculan estas series a través de\(\sqrt{-1}\text{.}\)

    Ejemplo 3.6.8 Opcional: por qué\(\sum_{n=0}^\infty \frac{1}{n!}x^n\) is \(e^x\)

    Ya hemos visto, en el Ejemplo 3.6.5, que

    \[ e^x = 1+x+\frac{x^2}{2!}+\cdots+\frac{x^n}{n!}+E_n(x) \nonumber \]

    Por (3.6.3)

    \[ E_n(x) = \frac{1}{(n+1)!}e^c x^{n+1} \nonumber \]

    para algunos (desconocido)\(c\) entre\(0\) y\(x\text{.}\) Fijar cualquier número real Ahora\(x\text{.}\) mostraremos que\(E_n(x)\) converge a cero como\(n\rightarrow\infty\text{.}\)

    Para ello necesitamos quedar atados del tamaño de\(e^c\text{,}\) y para ello, considerar lo que sucede si\(x\) es positivo o negativo.

    • Si\(x \lt 0\) entonces\(x \leq c \leq 0\) y por lo tanto\(e^x \leq e^c \leq e^0=1\text{.}\)
    • Por otro lado, si\(x\geq 0\) entonces\(0\leq c \leq x\) y así\(1=e^0 \leq e^c \leq e^x\text{.}\)

    En cualquier caso tenemos que\(0 \leq e^c \leq 1+e^x\text{.}\) Debido a esto el término de error

    \[ |E_n(x)|=\Big|\frac{e^c}{(n+1)!}x^{n+1}\Big| \le [e^x+1]\frac{|x|^{n+1}}{(n+1)!} \nonumber \]

    Afirmamos que este límite superior, y por lo tanto el error se reduce\(E_n(x)\text{,}\) rápidamente a cero como\(n \to \infty\text{.}\)

    Llamar al límite superior (excepto por el factor\(e^x+1\text{,}\) que es independiente de\(n\))\(e_n(x)=\tfrac{|x|^{n+1}}{(n+1)!}\text{.}\) Para mostrar que esto se reduce a cero como\(n\rightarrow\infty\text{,}\) vamos a escribirlo de la siguiente manera.

    \[\begin{align*} e_n(x) &= \frac{|x|^{n+1}}{(n+1)!} = \overbrace{\frac{|x|}{1} \cdot \frac{|x|}{2} \cdot \frac{|x|}{3} \cdots \frac{|x|}{n}\cdot \frac{|x|}{|n+1|}}^{\text{$n+1$ factors}}\\ \end{align*}\]

    Ahora vamos a\(k\) ser un entero más grande que\(|x|\text{.}\) Podemos dividir el producto

    \ begin {align*} e_n (x) &=\ overbrackets {\ left (\ frac {|x|} {1}\ cdot\ frac {|x|} {2}\ cdot\ frac {|x|} {3}\ cdots\ frac {|x|} {k}\ derecha)} ^ {\ text {$k$ factores}}\ cdot\ izquierda (\ frac {|x|} {k+1}\ cdots\ frac {|x|} {|n+1 |}\ derecha)\\ &\ leq\ underbrackets {\ left (\ frac {|x|} {1}\ cdot\ frac {|x|} {2}\ cdot\ frac {|x|} {3}\ cdots\ frac {|x|} {k}\ derecha)} _ {=Q (x)}\ cdot\ izquierda (\ frac {|x|} {k+1}\ derecha) ^ {n+1-k}\\ &= Q (x)\ cdot\ izquierda (\ frac {|x|} {k+1}\ derecha) ^ {n+1-k}\ end {align*}

    Ya que\(k\) no depende no\(n\) (aunque sí depende de\(x\)), la función\(Q(x)\) no cambia a medida que aumentamos\(n\text{.}\) Adicionalmente, sabemos eso\(|x| \lt k+1\) y así\(\frac{|x|}{k+1} \lt 1\text{.}\) De ahí que como dejemos que\(n \to \infty\) el límite anterior deba ir a cero.

    Alternativamente, compare\(e_n(x)\) y\(e_{n+1}(x)\text{.}\)

    \[ \frac{e_{n+1}(x)}{e_n(x)} =\frac{\vphantom{\Big[}\tfrac{|x|^{n+2}}{(n+2)!}} {\vphantom{\Big[}\tfrac{|x|^{n+1}}{(n+1)!}} =\frac{|x|}{n+2} \nonumber \]

    Cuando\(n\) es mayor que, por ejemplo\(2|x|\text{,}\) tenemos Es\(\tfrac{e_{n+1}(x)}{e_n(x)} \lt \frac{1}{2}\text{.}\) decir, aumentar el índice en\(e_n(x)\) uno disminuye el tamaño de\(e_n(x)\) por un factor de al menos dos. Como resultado\(e_n(x)\) debe tender a cero como\(n\rightarrow\infty\text{.}\)

    En consecuencia, para todos\(x\text{,}\)\(\lim\limits_{n\rightarrow\infty}E_n(x)=0\text{,}\) como se afirma, y realmente tenemos

    \[ e^x=\lim_{n\rightarrow\infty}\Big[1 +x + \frac{1}{2} x^2 +\frac{1}{3!} x^3+\cdots+\frac{1}{n!} x^n\Big] =\sum_{n=0}^\infty \frac{1}{n!}x^n \nonumber \]

    Hay otra manera de demostrar que la serie\(\sum_{n=0}^\infty \frac{x^n}{n!}\) converge a la función\(e^x\text{.}\) En lugar de mirar cómo se\(E_n(x)\) comporta el término de error ya que\(n \to \infty\text{,}\) podemos demostrar que la serie satisface la misma ecuación diferencial simple 7 y la misma condición inicial que la función.

    Ejemplo 3.6.9 Opcional — Otro enfoque para mostrar que\(\sum_{n=0}^\infty \frac{1}{n!}x^n\) is \(e^x\)

    Ya sabemos por el Ejemplo 3.5.5, que la serie\(\sum_{n=0}^\infty \frac{1}{n!}x^n\) converge a alguna función\(f(x)\) para todos los valores de\(x\). Todo lo que queda por hacer es demostrar que\(f(x)\) es realmente\(e^x\text{.}\) Haremos esto demostrando eso\(f(x)\) y\(e^x\) satisfaciendo la misma ecuación diferencial con las mismas condiciones iniciales 8. Sabemos que\(y=e^x\) satisface

    \ begin {align*}\ dfrac {dy} {dx} &= y &\ text {and} && y (0) =1\ end {align*}

    y por Teorema 2.4.4 (con\(a=1\text{,}\)\(b=0\) y\(y(0)=1\)), esta es la única solución. Por lo que basta con mostrar que\(f(x)= \sum_{n=0}^\infty \frac{x^n}{n!}\) satisface

    \ begin {align*}\ frac {df} {dx} &=f (x) &\ text {y} && f (0) &=1. \ end {alinear*}

    • Por Teorema 3.5.13,

      \ begin {alinear*}\ frac {df} {dx} &=\ frac {d} {dx}\ izquierda\ {\ sum_ {n=0} ^\ infty\ frac {1} {n!} x^n\ derecha\} =\ suma_ {n=1} ^\ infty\ frac {n} {n!} x^ {n-1} =\ suma_ {n=1} ^\ infty\ frac {1} {(n-1)!} x^ {n-1}\\ &=\ overbrackets {1} ^ {n=1} +\ overbrackets {x} ^ {n=2} +\ overbrackets {\ frac {x^2} {2!}} ^ {n=3} +\ overbrackets {\ frac {x^3} {3!}} ^ {n=4} +\ cdots\\ &= f (x)\ final {alinear*}

    • Cuando sustituimos\(x=0\) en la serie obtenemos (ver la discusión después de la Definición 3.5.1)

      \ begin {alinear*} f (0) &= 1 +\ frac {0} {1!} +\ frac {0} {2!} +\ cdots = 1. \ end {alinear*}

    De ahí\(f(x)\) resuelve el mismo problema de valor inicial y debemos tener\(f(x)=e^x\text{.}\)

    Podemos demostrar que los términos de error en los polinomios de Maclaurin para seno y coseno van a cero ya que\(n \to \infty\) usan mucho el mismo enfoque que en el Ejemplo 3.6.8.

    Ejemplo 3.6.10 Opcional: por qué\(\sum\limits_{n=0}^\infty\frac{(-1)^n}{(2n+1)!}x^{2n+1}=\sin x\) and \(\sum\limits_{n=0}^\infty\frac{(-1)^n}{(2n)!}x^{2n}=\cos x\)

    \(f(x)\)Sea cualquiera\(\sin x\) o\(\cos x\text{.}\) Sabemos que cada derivada de\(f(x)\) será una de\(\pm \sin(x)\) o\(\pm \cos(x)\text{.}\) Consecuentemente, cuando calculamos el término de error usando la ecuación 3.6.3 siempre tenemos\(\big|f^{(n+1)}(c)\big|\le 1\) y por lo tanto

    \ begin {align*} |e_n (x) | &\ le\ frac {|x|^ {n+1}} {(n+1)!}. \ end {alinear*}

    En el Ejemplo 3.6.5, lo demostramos\(\frac{|x|^{n+1}}{(n+1)!} \to 0\) como\(n \to \infty\) — así todo el arduo trabajo ya está hecho. Dado que el término de error se reduce a cero para ambos\(f(x)=\sin x\) y\(f(x)=\cos x\text{,}\) y

    \ comenzar {reunir*} f (x) =\ lim_ {n\ fila derecha\ infty}\ Grande [f (0) +f' (0)\, x+\ cdots +\ tfrac {1} {n!} f^ {(n)} (0)\, x^n\ Grande]\ final {reunir*}

    según sea necesario.

    Opcional — Más sobre el resto Taylor

    En esta sección, fijamos un número real\(a\) y un número natural\(n\text{,}\) suponemos que\(f(x)\) existen todas las derivadas de la función, y estudiamos el error

    \ begin {alinear*} e_n (a, x) &= f (x) - T_n (a, x)\\ text {donde} t_n (a, x) &=f (a) +f' (a)\, (x-a) +\ cdots+\ tfrac {1} {n!} f^ {(n)} (a)\, (x-a) ^n\ final {alinear*}

    hecho cuando aproximamos\(f(x)\) por el polinomio Taylor\(T_n(a,x)\) de grado\(n\) para la función\(f(x)\text{,}\) expandida sobre Ya\(a\text{.}\) hemos visto, en (3.6.3), una fórmula, probablemente la fórmula más utilizada, para\(E_n(a,x)\text{.}\) En el siguiente teorema, repetimos esa fórmula y damos una segunda fórmula, de uso común. Después de un ejemplo, damos un segundo teorema que contiene algunas fórmulas menos utilizadas.

    Teorema 3.6.11 Fórmulas de uso común para el resto de Taylor

    El resto de Taylor\(E_n(a,x)\) viene dado por

    1. (forma integral)

      \[ E_n(a,x)=\int_a^x \frac{1}{n!}f^{(n+1)}(t)\, (x-t)^n\,\, d{t} \nonumber \]

    2. (Forma Lagrange)

      \[ E_n(a,x)=\frac{1}{(n+1)!}\,f^{(n+1)}(c)\, (x-a)^{n+1} \nonumber \]

      para algunos\(c\) estrictamente entre\(a\) y\(x\text{.}\)

    Observe que la forma integral del error es explícita; podríamos, en principio, calcularlo exactamente. (Claro que si pudiéramos hacer eso, probablemente no necesitaríamos usar una expansión de Taylor para aproximarnos\(f\text{.}\)) Esto contrasta con la forma Lagrange que es una declaración 'existencial' -nos dice que\(c\) '' existe, pero no como computarla.

    Prueba
    1. Daremos dos pruebas. El primero es más corto y más sencillo, pero usa alguna artimaña. El segundo es más largo, pero es más sencillo. Utiliza una técnica llamada inducción matemática.

      Prueba 1: Vamos a usar un poco de engaños para obtener una prueba simple. Simplemente vemos\(x\) como fijos y estudiamos la dependencia de\(a\text{.}\) Para hacer hincapié\(E_n(a,x)\) en que eso es lo que estamos haciendo, definimos

      \ begin {alinear*} S (t) &= f (x) - f (t) -f' (t)\, (x-t) -\ tfrac {1} {2} f "(t)\, (x-t) ^2\\ &\ hskip2in -\ cdots-\ tfrac {1} {n!} f^ {(n)} (t)\, (x-t) ^n\ tag {$*$}\ end {align*}

      y observar que\(E_n(a,x) = S(a)\text{.}\)

      Entonces, por el teorema fundamental del cálculo (Teorema 1.3.1), la función\(S(t)\) está determinada por su derivada,\(S'(t)\text{,}\) y su valor en un solo punto. Encontrar un valor de\(S(t)\) por un valor de\(t\) es fácil. Sustituir\(t=x\) en\((*)\) para ceder\(S(x)=0\text{.}\) Para encontrar\(S'(t)\text{,}\) aplicar\(\dfrac{d}{dt}\) a ambos lados de\((*)\text{.}\) Recordando eso\(x\) es solo un parámetro constante,

      \ begin {alinear*} S' (t) &= 0 - {\ color {azul} {f' (t)}} -\ grande [{\ color {rojo} {f "(t) (x\! -\! t)}} - {\ color {azul} {f' (t)}}\ grande]\\ &\ hskip0.5in -\ grande [\ tfrac {1} {2} f^ {(3)} (t) (x\! -\! t) ^2- {\ color {rojo} {f "(t) (x\! -\! t)}}\ grande]\\ &\ hskip0.5in -\ cdots-\ grande [\ tfrac {1} {n!} f^ {(n+1)} (t)\, (x-t) ^n -\ tfrac {1} {(n-1)!} f^ {(n)} (t)\, (x-t) ^ {n-1}\ grande]\\ &=-\ tfrac {1} {n!} f^ {(n+1)} (t)\, (x-t) ^n\ final {alinear*}

      Entonces, por el teorema fundamental del cálculo,\(S(x)=S(a)+\int_a^x S'(t)\,\, d{t}\) y

      \ begin {alinear*} e_n (a, x) &= -\ grande [S (x) -S (a)\ grande] = -\ int_a^x S' (t)\,\, d {t}\\ &=\ int_a^x\ frac {1} {n!} f^ {(n+1)} (t)\, (x-t) ^n\,\, d {t}\ final {alinear*}

      Prueba 2: La prueba que acabamos de dar fue corta, pero también muy complicada —casi nadie podría crear esa prueba sin grandes pistas. Aquí hay otra prueba mucho menos complicada, pero también de uso común.

      • Primero considere el caso\(n=0\text{.}\) Cuando\(n=0\text{,}\)

        \[ E_0(a,x) = f(x) - T_0(a,x) = f(x) -f(a) \nonumber \]

        El teorema fundamental del cálculo da

        \[ f(x)-f(a) = \int_a^x f'(t)\,\, d{t} \nonumber \]

        para que

        \[ E_0(a,x) = \int_a^x f'(t)\,\, d{t} \nonumber \]

        Ese es exactamente el\(n=0\) caso de la parte (a).
      • Siguiente arreglar cualquier entero\(n\ge 0\) y supongamos que ya sabemos que

        \[ E_n(a,x)=\int_a^x \frac{1}{n!}f^{(n+1)}(t)\, (x-t)^n\,\, d{t} \nonumber \]

        Aplicar integración por partes (Teorema 1.7.2) a esta integral con

        \ begin {alinear*} u (t) &=f^ {(n+1)} (t)\\\, d {v} &=\ frac {1} {n!} (x-t) ^n\,\, d {t},\ qquad v (t) =-\ frac {1} {(n+1)!} (x-t) ^ {n+1}\ final {alinear*}

        Dado que\(v(x)=0\text{,}\) la integración por partes da

        \ begin {alinear*} &e_n (a, x) =u (x) v (x) -u (a) v (a) -\ int_a^x v (t) u' (t)\,\, d {t}\\ &\ quad=\ frac {1} {(n+1)!} f^ {(n+1)} (a)\, (x-a) ^ {n+1}\\ &\ hskip0.5in +\ int_a^x\ frac {1} {(n+1)!} f^ {(n+2)} (t)\, (x-t) ^ {n+1}\,\, d {t}\ tag {$**$}\ end {align*}

        Ahora, definimos

        \ begin {alinear*} e_n (a, x) &= f (x) - f (a) -f' (a)\, (x-a) -\ tfrac {1} {2} f "(a)\, (x-a) ^2\\ &\ hskip1in -\ cdots-\ tfrac {1} {n!} f^ {(n)} (a)\, (x-a) ^n\ final {alinear*}

        por lo

        \[ E_{n+1}(a,x) = E_n(a,x)-\tfrac{1}{(n+1)!}f^{(n+1)}(a)\, (x-a)^{n+1} \nonumber \]

        Esta fórmula se expresa\(E_{n+1}(a,x)\) en términos de\(E_n(a,x)\text{.}\) Eso se llama fórmula de reducción. Combinando la fórmula de reducción con (\(**\)) da

        \[ E_{n+1}(a,x)=\int_a^x \frac{1}{(n+1)!}f^{(n+2)}(t)\, (x-t)^{n+1}\,\, d{t} \nonumber \]

      • Hagamos una pausa para resumir lo que hemos aprendido en las dos últimas balas. Utilice la notación\(P(n)\) para representar la declaración “\(E_n(a,x)=\int_a^x \frac{1}{n!}f^{(n+1)}(t)\, (x-t)^n\,\, d{t}\)”. Para probar la parte (a) del teorema, necesitamos probar que la afirmación\(P(n)\) es cierta para todos los enteros\(n\ge 0\text{.}\) En la primera viñeta, demostramos que la afirmación\(P(0)\) es verdadera. En la segunda viñeta, demostramos que si, para algún entero\(n\ge 0\text{,}\) la sentencia\(P(n)\) es verdadera, entonces la declaración también\(P(n+1)\) es verdadera. En consecuencia,
        • \(P(0)\)es verdad por la primera bala y luego
        • \(P(1)\)es cierto por la segunda bala con\(n=0\) y luego
        • \(P(2)\)es cierto por la segunda bala con\(n=1\) y luego
        • \(P(3)\)es cierto por la segunda bala con\(n=2\)
        • y así sucesivamente, para siempre y para siempre.

        Eso nos dice que\(P(n)\) es cierto para todos los enteros\(n\ge 0\text{,}\) que es exactamente parte (a) del teorema. Esta técnica de prueba se llama inducción matemática 9.

    2. Ya hemos visto una prueba en la optativa Sección 3.4.9 del texto CLP-1. Aquí veremos dos pruebas más.

      Prueba 1: Aplicamos el teorema del valor medio generalizado, que es el Teorema 3.4.38 en el texto CLP-1. Dice que

      \[ \frac{F(b)-F(a)}{G(b)-G(a)} = \frac{F'(c)}{G'(c)} \tag{GMVT} \nonumber \]

      para algunos\(c\) estrictamente entre 10\(a\) y\(b\text{.}\) aplicamos (GMVT) con\(b=x\text{,}\)\(F(t)=S(t)\) y\(G(t)=(x-t)^{n+1}\text{.}\) Esto da

      \ begin {alinear*} e_n (a, x) &= -\ grande [S (x) -S (a)\ grande] =-\ frac {S' (c)} {G' (c)}\ grande [G (x) -G (a)\ grande]\\ &=-\ frac {-\ frac {1} {n!} f^ {(n+1)} (c)\, (x-c) ^n} {- (n+1) (x-c) ^n}\\ grande [0- (x-a) ^ {n+1}\ grande]\\ &=\ frac {1} {(n+1)!} f^ {(n+1)} (c) (x-a) ^ {n+1}\ final {alinear*}

      No olvides, a la hora de computar\(G'(c)\text{,}\) eso\(G\) es una función de\(t\) con\(x\) solo un parámetro fijo.

      Prueba 2: Aplicamos el Teorema 2.2.10 (el teorema del valor medio para integrales ponderadas). Si\(a\lt x\text{,}\) usamos la función de peso\(w(t) = \frac{1}{n!} (x-t)^n\text{,}\) que es estrictamente positiva para todos\(a\lt t\lt x\text{.}\) Por la parte (a) esto da

      \ begin {alinear*} e_n (a, x) &=\ int_a^x\ frac {1} {n!} f^ {(n+1)} (t)\, (x-t) ^n\,\, d {t}\\ &= f^ {(n+1)} (c)\ int_a^x\ frac {1} {n!} (x-t) ^n\,\, d {t}\ qquad\ texto {para algunos} a\ lt c\ lt x\\ &= f^ {(n+1)} (c)\ left [-\ frac {1} {n!} \ frac {(x-t) ^ {n+1}} {n+1}\ derecha] _a^x\\ &=\ frac {1} {(n+1)!} f^ {(n+1)} (c)\, (x-a) ^ {n+1}\ final {alinear*}

      Si en cambio\(x\lt a\text{,}\) usamos la función de peso\(w(t) = \frac{1}{n!} (t-x)^n\text{,}\) que es estrictamente positiva para todos\(x\lt t\lt a\text{.}\) Esto da

      \ begin {alinear*} e_n (a, x) &=\ int_a^x\ frac {1} {n!} f^ {(n+1)} (t)\, (x-t) ^n\,\, d {t}\\ &=- (-1) ^n\ int^a_x\ frac {1} {n!} f^ {(n+1)} (t)\, (t-x) ^n\,\, d {t}\\ &= (-1) ^ {n+1} f^ {(n+1)} (c)\ int_x^a\ frac {1} {n!} (t-x) ^n\,\, d {t}\ qquad\ texto {para algunos} x\ lt c\ lt a\\ &= (-1) ^ {n+1} f^ {(n+1)} (c)\ left [\ frac {1} {n!} \ frac {(t-x) ^ {n+1}} {n+1}\ derecha] _x^a\\ &=\ frac {1} {(n+1)!} f^ {(n+1)} (c)\, (-1) ^ {n+1} (a-x) ^ {n+1}\\ &=\ frac {1} {(n+1)!} f^ {(n+1)} (c)\, (x-a) ^ {n+1}\ final {alinear*}

    Teorema 3.6.11 nos ha proporcionado dos fórmulas para el resto de Taylor\(E_n(a,x)\text{.}\) La fórmula de la parte (b),\(E_n(a,x)=\frac{1}{(n+1)!}\,f^{(n+1)}(c)\, (x-a)^{n+1}\text{,}\) es probablemente la más fácil de usar, y la más utilizada, fórmula para\(E_n(a,x)\text{.}\) La fórmula de la parte (a),\(E_n(a,x)=\int_a^x \frac{1}{n!}f^{(n+1)}(t)\, (x-t)^n\,\, d{t}\text{,}\) aunque un poco más difícil de aplicar, da un poco mejor ligada que la de parte (b) (en la prueba del Teorema 3.6.11 mostramos que la parte (b) se desprende de la parte (a)). Aquí hay un ejemplo en el que utilizamos ambas partes.

    Ejemplo 3.6.12

    En el Teorema 3.6.7 afirmamos que

    \[ \log(1+x) = \sum_{n=0}^\infty (-1)^n\frac{x^{n+1}}{n+1} = x-\frac{x^2}{2}+\frac{x^3}{3}-\frac{x^4}{4}+\cdots \tag{S1} \nonumber \]

    para todos\(-1\lt x\le 1\text{.}\) Pero, hasta el momento, no hemos justificado esta afirmación. Lo hacemos ahora, usando (ambas partes de) Teorema 3.6.11. Comenzamos fijando\(f(x)=\log(1+x)\) y encontrando los polinomios de Taylor\(T_n(0,x)\text{,}\) y los errores correspondientes\(E_n(0,x)\text{,}\) para\(f(x)\text{.}\)

    \ begin {alinear*} f (x) &=\ log (1+x) & f (0) &=\ log 1 = 0\\ f' (x) &=\ frac {1} {1+x} & f' (0) &= 1\ f "(x) &=\ frac {-1} {(1+x) ^2} & f" (0) &= -1\ f\ "'(x) &=\ frac {2} {(1+x) ^3} & f"' (1) &= 2\\ f^ {(4)} (x) &=\ frac {-2\ veces 3} {(1+x) ^4} & f^ {(4)} (0) &= -3! \\ f^ {(5)} (x) &=\ frac {2\ times 3\ times 4} {(1+x) ^5} & f^ {(5)} (0) &= 4! \\\ &\\\ vdots & &\\\\ vdots\\ f^ {(n)} (x) &=\ frac {(-1) ^ {n+1} (n-1)!} {(1+x) ^n} & f^ {(n)} (0) &= (-1) ^ {n+1} (n-1)! \ end {alinear*}

    Entonces el polinomio de Taylor de grado\(n\) para la función\(f(x)=\log(1+x)\text{,}\) expandida sobre\(a=0\text{,}\) es

    \ begin {alinear*} t_n (0, x) &=f (0) +f' (0)\, x+\ cdots+\ tfrac {1} {n!} f^ {(n)} (0)\, x^n\\ &= x -\ frac {1} {2} x^2 +\ frac {1} {3} x^3 -\ frac {1} {4} x^4 +\ frac {1} {5} x^5 +\ cdots +\ frac {(-1) ^ {n+1} {n} ^n\ final {alinear*}

    El teorema 3.6.11 nos da dos fórmulas para el error\(E_n(0,x) = f(x) - T_n(0,x)\) cometido cuando nos aproximamos\(f(x)\) por la\(T_n(0,x)\text{.}\) Parte (a) del teorema da

    \[ E_n(0,x) = \int_0^x \frac{1}{n!}f^{(n+1)}(t)\, (x-t)^n\,\, d{t} = (-1)^n \int_0^x \frac{(x-t)^n}{(1+t)^{n+1}}\,\, d{t} \tag{Ea} \nonumber \]

    y la parte b) da

    \[ E_n(0,x)=\frac{1}{(n+1)!}\,f^{(n+1)}(c)\, x^{n+1} = (-1)^n\,\frac{1}{n+1}\,\frac{x^{n+1}}{(1+c)^{n+1}} \tag{Eb} \nonumber \]

    para algunos (desconocidos)\(c\) entre\(0\) y\(x\text{.}\) La declaración (S1), que deseamos probar, es equivalente a la declaración

    \[ \lim_{n\rightarrow\infty} E_n(0,x)=0 \qquad\text{for all }-1\lt x\le 1 \tag{S2} \nonumber \]

    y ahora vamos a demostrar que (S2) es cierto.

    El caso\(x=0\text{:}\)

    Este caso es trivial, ya que, cuando\(x=0\text{,}\)\(E_n(0,x)=0\) para todos\(n\text{.}\)

    El caso\(0\lt x\le 1\text{:}\)

    Este caso es relativamente fácil de tratar usando (Eb). En este caso\(0\lt x\le 1\text{,}\) para que el\(c\) de (Eb) sea positivo y

    \ begin {alinear*}\ izquierda|e_n (0, x)\ derecha| &=\ frac {1} {n+1}\ frac {x^ {n+1}} {(1+c) ^ {n+1}}\\ &\ le\ frac {1} {n+1}\ frac {1^ {n+1}} {(1+0) ^ {n+1}} =\ frac {1} {n+1}\ final {alinear*}

    converge a cero como\(n\rightarrow\infty\text{.}\)

    El caso\(-1\lt x\lt 0\text{:}\)

    Cuando\(-1\lt x\lt 0\) está cerca de\(-1\text{,}\) (Eb) no es suficiente para demostrar que (S2) es cierto. Para ver esto, consideremos el ejemplo\(x=-0.8\text{.}\) Todo lo que sabemos sobre el\(c\) de (Eb) es que tiene que ser entre\(0\) y\(-0.8\text{.}\) Por ejemplo, (Eb) ciertamente\(c\) permite ser\(-0.6\) y luego

    \ begin {alinear*} &\ izquierda| (-1) ^n\ frac {1} {n+1}\ frac {x^ {n+1}} {(1+c) ^ {n+1}}\ derecha|_ {\ genfrac {} {} {} {0pt} {} {x=-0.8} {c=-0.6}}\\ &\ hskip0.25in=\ frac {1} {n+1}\ frac {0.8^ {n+1}} {(1-0.6) ^ {n+1}}\\ &\ hskip0.25in=\ frac {1} {n+1} 2^ {n+1}\ end {align*}

    va a\(+\infty\) como\(n\rightarrow\infty\text{.}\)

    Tenga en cuenta que, si bien esto sí nos dice que (Eb) no es suficiente para probar (S2), cuando\(x\) está cerca de\(-1\text{,}\) él tampoco nos dice que\(\lim\limits_{n\rightarrow\infty}|E_n(0,-0.8)|=+\infty\) (lo que implicaría que (S2) es falso)\(c\) —podría igualmente bien ser\(-0.2\) y entonces

    \ begin {alinear*} &\ izquierda| (-1) ^n\ frac {1} {n+1}\ frac {x^ {n+1}} {(1+c) ^ {n+1}}\ derecha|_ {\ genfrac {} {} {} {0pt} {} {x=-0.8} {c=-0.2}}\\ &\ hskip0.25in=\ frac {1} {n+1}\ frac {0.8^ {n+1}} {(1-0.2) ^ {n+1}}\\ &\ hskip0.25in=\ frac {1} {n+1}\ final {alinear*}

    va a\(0\) como\(n\rightarrow\infty\text{.}\)

    Ahora usaremos (Ea) (que tiene la ventaja de no contener ningún parámetro libre desconocido\(c\)) para verificar (S2) cuando\(-1\lt x\lt 0\text{.}\) reescriba el lado derecho de (Ea)

    \ begin {alinear*} & (-1) ^n\ int_0^x\ frac {(x-t) ^n} {(1+t) ^ {n+1}}\,\, d {t} =-\ int_x^0\ frac {(t-x) ^n} {(1+t) ^ {n+1}}\,\,\, d {t}\\ &=-\ int_0^ {-x}\ frac {s^n} {(1+x+s) ^ {n+1}}\,\, d {s}\ s=t-x,\,\, d {s} =\, d {t}\ final {alinear*}

    La evaluación exacta de esta integral es muy desordenada y no muy esclarecedora. En cambio, lo atamos. Tenga en cuenta que, para\(1+x\gt 0\text{,}\)

    \ begin {align*}\ dfrac {d} {ds}\ izquierda (\ frac {s} {1+x+s}\ derecha) &=\ dfrac {d} {ds}\ izquierda (\ frac {1+x+s- (1+x)} {1+x+s}\ derecha)\\ &=\ dfrac {d} {ds}\ izquierda (1-\ frac {1+x} {1+x+s}\ derecha)\\ &=\ frac {1+x} {(1+x+s) ^2}\ gt 0\ end {alinear*}

    por lo que\(\frac{s}{1+x+s}\) aumenta a medida que\(s\) aumenta. En consecuencia, el mayor valor que\(\frac{s}{1+x+s}\) adquiere el dominio de la integración\(0\le s\le -x=|x|\) es

    \[ \frac{s}{1+x+s}\bigg|_{s=-x} = -x = |x| \nonumber \]

    y el integrand

    \ begin {align*} 0\ le\ frac {s^n} {[1+x+s] ^ {n+1}} &=\ left (\ frac {s} {1+x+s}\ derecha) ^n\ frac {1} {1+x+s}\\ &\ le\ frac {|x|^n} {1+x+s}\ end {align*}

    En consecuencia,

    \ begin {alinear*}\ izquierda|e_n (0, x)\ derecha| &=\ izquierda| (-1) ^n\ int_0^x\ frac {(x-t) ^n} {(1+t) ^ {n+1}}\,\, d {t}\ derecha|\\ &=\ int_0^ {-x}\ frac {1+n} {[x+s] ^ {n+1}}\,\, d {s}\\ &\ le |x|^n\ int_0^ {-x}\ frac {1} {1+x+s}\,\, d {s}\\ &=|x|^n\ Grande [\ log (1+x+s)\ Grande] _ {s=0} ^ {s=-x}\\ &= |x|^n [-\ log (1+x)]\ end {align*}

    converge a cero como\(n\rightarrow\infty\) para cada fijo\(-1\lt x\lt 0\text{.}\)

     

    Por lo que hemos verificado (S2), según se desee.

    Como dijimos anteriormente, el Teorema 3.6.11 dio las dos fórmulas más utilizadas para el resto Taylor. Aquí hay algunas fórmulas menos utilizadas, pero ocasionalmente útiles.

    Teorema 3.6.13 Más fórmulas para el resto Taylor
    1. Si\(G(t)\) es diferenciable 11 y\(G'(c)\) es distinto de cero para todos\(c\) estrictamente entre\(a\) y\(x\text{,}\) luego el resto de Taylor

      \[ E_n(a,x)=\frac{1}{n!} f^{(n+1)}(c)\,\frac{G(x)-G(a)}{G'(c)}\, (x-c)^n \nonumber \]

      para algunos\(c\) estrictamente entre\(a\) y\(x\text{.}\)
    2. (Forma Cauchy)

      \[ E_n(a,x)=\frac{1}{n!}f^{(n+1)}(c)\, (x-c)^n(x-a) \nonumber \]

      para algunos\(c\) estrictamente entre\(a\) y\(x\text{.}\)
    Prueba

    Al igual que en la prueba del Teorema 3.6.11, definimos

    \[ S(t) = f(x) - f(t) -f'(t)\,(x\!-\!t)-\tfrac{1}{2}f''(t)\,(x\!-\!t)^2 -\cdots-\tfrac{1}{n!}f^{(n)}(t)\, (x\!-\!t)^n \nonumber \]

    y observar que\(E_n(a,x) = S(a)\) y\(S(x)=0\) y\(S'(t)= -\tfrac{1}{n!} f^{(n+1)}(t)\,(x-t)^n\text{.}\)

    1. Recordemos que el teorema del valor medio generalizado, que es el Teorema 3.4.38 en el texto CLP-1, dice que

      \[ \frac{F(b)-F(a)}{G(b)-G(a)} = \frac{F'(c)}{G'(c)} \tag{GMVT} \nonumber \]

      para algunos\(c\) estrictamente entre\(a\) y\(b\text{.}\) Aplicamos este teorema con\(b=x\) y\(F(t)=S(t)\text{.}\) Esto da

      \ begin {alinear*} e_n (a, x) &= -\ grande [S (x) -S (a)\ grande] =-\ frac {S' (c)} {G' (c)}\ grande [G (x) -G (a)\ grande]\\ &=-\ frac {-\ frac {1} {n!} f^ {(n+1)} (c)\, (x-c) ^n} {G' (c)}\\ grande [G (x) -G (a)\ grande]\\ &=\ frac {1} {n!} f^ {(n+1)} (c)\,\ frac {G (x) -G (a)} {G' (c)}\, (x-c) ^n\ final {alinear*}

    2. Aplicar la parte (a) con\(G(x)=x\text{.}\) Esto da

      \ begin {alinear*} e_n (a, x) &=\ frac {1} {n!} f^ {(n+1)} (c)\,\ frac {x-a} {1}\, (x-c) ^n\\ &=\ frac {1} {n!} f^ {(n+1)} (c)\, (x-c) ^n (x-a)\ final {alinear*}

      para algunos\(c\) estrictamente entre\(a\) y\(b\text{.}\)
    Ejemplo 3.6.14 Ejemplo 3.6.12, continuación

    En el Ejemplo 3.6.12 verificamos que

    \[ \log(1+x) = \sum_{n=0}^\infty (-1)^n\frac{x^{n+1}}{n+1} = x-\frac{x^2}{2}+\frac{x^3}{3}-\frac{x^4}{4}+\cdots \tag{S1} \nonumber \]

    para todos\(-1\lt x\le 1\text{.}\) Allí utilizamos la forma Lagrange,

    \[ E_n(a,x)=\frac{1}{(n+1)!}\,f^{(n+1)}(c)\, (x-a)^{n+1} \nonumber \]

    para el resto de Taylor verificar (S1) cuando\(0\le x\le 1\text{,}\) pero también vimos que no es posible usar el formulario Lagrange para verificar (S1) cuando\(x\) esta cerca de\(-1\text{.}\) Nosotros en cambio usamos la forma integral

    \[ E_n(a,x) = \int_a^x \frac{1}{n!}f^{(n+1)}(t)\, (x-t)^n\,\, d{t} \nonumber \]

    Ahora utilizaremos la forma Cauchy (parte (b) del Teorema 3.6.13)

    \[ E_n(a,x)=\frac{1}{n!}f^{(n+1)}(c)\, (x-c)^n(x-a) \nonumber \]

    verificar

    \[ \lim_{n\rightarrow\infty} E_n(0,x)=0 \tag{S2} \nonumber \]

    cuando ya\(-1\lt x\lt 0\text{.}\) hemos señalado que (S2) es equivalente a (S1).

    Escribe\(f(x)=\log(1+x)\text{.}\) Vimos en el Ejemplo 3.6.12 que

    \[ f^{(n+1)}(x) = \frac{(-1)^n n!}{(1+x)^{n+1}} \nonumber \]

    Entonces, en este ejemplo, la forma Cauchy es

    \[ E_n(0,x)=(-1)^n\frac{(x-c)^nx}{(1+c)^{n+1}} \nonumber \]

    para algunos\(x\lt c\lt 0\text{.}\) Cuando\(-1\lt x\lt c \lt 0\text{,}\)

    • \(c\)y\(x\) son negativos y\(1+x\text{,}\)\(1+c\) y\(c-x\) son (estrictamente) positivos para que

      \ begin {align*} c (1+x)\ lt 0 &\ implica c\ lt -cx\ implica c-x\ lt -x-xc=|x| (1+c)\\ &\ implica\ izquierda|\ frac {x-c} {1+c}\ derecha| =\ frac {c-x} {1+c}\ lt |x|\ end {align*}

      para que\(\left|\frac{x-c}{1+c}\right|^n \lt |x|^n\) y
    • la distancia de\(-1\) a\(c-(-1)=1+c\) es\(c\text{,}\) decir, es mayor que la distancia de\(-1\) a\(x\text{,}\) es decir, de\(x-(-1)=1+x\text{,}\) modo que\(\frac{1}{1+c}\lt\frac{1}{1+x}\text{.}\)

    Entonces, para\(-1\lt x\lt c\lt 0\text{,}\)

    \ begin {reunir*} |e_n (0, x) |=\ izquierda|\ frac {x-c} {1+c}\ derecha|^n\ frac {|x|} {1+c}\ lt\ frac {|x|^ {n+1}} {1+c}\ lt\ frac {|x|^ {n+1}} {1+x}\ end {reunir*}

    va a cero como\(n\rightarrow\infty\text{.}\)

    Computación con la serie Taylor

    La serie Taylor tiene una gran cantidad de aplicaciones. (De ahí su lugar en este curso.) Una de las más inmediatas de éstas es que nos dan una forma alternativa de computar muchas funciones. Por ejemplo, la primera definición que vemos para las funciones seno y coseno es en términos de triángulos. Esas definiciones, sin embargo, no se prestan a computar seno y coseno salvo en ángulos muy especiales. Armados con representaciones de series de potencia, sin embargo, podemos calcularlas con una precisión muy alta en cualquier ángulo. Para ilustrar esto, considere el cómputo de\(\pi\) — un problema que se remonta a los babilonios.

    Ejemplo 3.6.15 Cálculo del número\(\pi\)

    Existen numerosos métodos\(\pi\) para calcular con cualquier grado de precisión deseado 12. Muchos de ellos utilizan la expansión Maclaurin

    \ begin {alinear*}\ arctan x &=\ suma_ {n=0} ^\ infty (-1) ^n\ frac {x^ {2n+1}} {2n+1}\ final {alinear*}

    del Teorema 3.6.7. Ya que\(\arctan(1)=\frac{\pi}{4}\text{,}\) la serie nos da una fórmula muy bonita para\(\pi\text{:}\)

    \ begin {align*}\ frac {\ pi} {4} =\ arctan 1 &=\ sum_ {n=0} ^\ infty\ frac {(-1) ^n} {2n+1}\\\ pi &= 4\ izquierda (1 -\ frac {1} {3} +\ frac {1} {5} -\ frac {1} {7} +\ cdots\ derecha)\ final {alinear*}

    Desafortunadamente, esta serie no es muy útil para la computación\(\pi\) porque converge muy lentamente. Si aproximamos la serie por su suma\(N^\mathrm{th}\) parcial, entonces la prueba de series alternas (Teorema 3.3.14) nos dice que el error está delimitado por el primer término que bajamos. Para garantizar que tenemos 2 dígitos decimales de\(\pi\) correcto, ¡necesitamos sumar alrededor de los primeros 200 términos!

    Una forma mucho mejor de calcular\(\pi\) usando esta serie es aprovechar el hecho de que\(\tan\frac{\pi}{6}=\frac{1}{\sqrt{3}}\text{:}\)

    \ begin {alinear*}\ pi&= 6\ arctan\ Grande (\ frac {1} {\ sqrt {3}}\ Grande) = 6\ sum_ {n=0} ^\ infty (-1) ^n\ frac {1} {2n+1}\\ frac {1} {{(\ sqrt {3})} ^ {2n+1}\\ &= 2\ sqrt {3}\ sum_ {n=0} ^\ infty (-1) ^n\ frac {1} {2n+1}\\ frac {1} {3^n}\\ &=2\ sqrt {3}\ Grande (1-\ frac {1} {3\ veces 3} +\ frac {1} {5\ veces 9} -\ frac {1} {7\ times 27} +\ frac {1} {9\ times 81} -\ frac {1} {11\ times 243} +\ cdots\ Grande)\ final {alinear*}

    Nuevamente, esta es una serie alternante y así (vía Teorema 3.3.14) el error que introducimos truncándola está delimitada por el primer término caído. Por ejemplo, si mantenemos diez términos, parando en\(n=9\text{,}\) obtenemos\(\pi=3.141591\) (a 6 decimales) con un error entre cero y

    \[ \frac{2\sqrt{3}}{21\times 3^{10}} \lt 3\times 10^{-6} \nonumber \]

    En 1699, el astrónomo y matemático inglés Abraham Sharp (1653—1742) utilizó 150 términos de esta serie para calcular 72 dígitos de\(\pi\) — ¡a mano!

    Esta es solo una de las muchas formas de calcular\(\pi\text{.}\) Otra, que todavía usa la expansión Maclaurin de\(\arctan x\text{,}\) pero es mucho más eficiente, es

    \[ \pi= 16\arctan\frac{1}{5}-4\arctan\frac{1}{239} \nonumber \]

    Esta fórmula fue utilizada por John Machin en 1706 para calcular\(\pi\) a 100 dígitos decimales —nuevamente, a mano.

    Las series Power también nos dan acceso a nuevas funciones que tal vez no se expresen fácilmente en términos de las funciones que se nos han introducido hasta ahora. El siguiente es un buen ejemplo de ello.

    Ejemplo 3.6.16 Función de error

    La función de error

    \[ erf(x) =\frac{2}{\sqrt{\pi}}\int_0^x e^{-t^2}\, d{t} \nonumber \]

    se utiliza en el cálculo de probabilidades de “curva de campana”. La integral indefinida del integrando\(e^{-t^2}\) no puede expresarse en términos de funciones estándar. Pero aún podemos evaluar la integral dentro de cualquier grado deseado de precisión mediante el uso de la expansión Taylor de lo exponencial. Comienza con la serie Maclaurin para\(e^x\text{:}\)

    \[\begin{align*} e^x &= \sum_{n=0}^\infty \frac{1}{n!}x^n\\ \end{align*}\]

    y luego sustituirlo\(x = -t^2\) en esto:

    \ begin {alinear*} e^ {-t^2} &=\ suma_ {n=0} ^\ infty\ frac {(-1) ^n} {n!} t^ {2n}\ final {alinear*}

    Entonces podemos aplicar el Teorema 3.5.13 para integrar término por término:

    \ begin {align*}\ erf (x) &=\ frac {2} {\ sqrt {\ pi}}\ int_0^x\ left [\ sum_ {n=0} ^\ infty\ frac

    ParseError: ")" expected (click for details)
    Callstack:
        at (Matematicas/Calculo_Integral_CLP-2_(Feldman_Rechnitzer_y_Yeager)/03:_Secuencia_y_serie/3.06:_Serie_Taylor), /content/body/div/div[1]/article[2]/div/p[6]/span, line 1, column 4
    
    \ suma_ {n=0} ^\ infty (-1) ^n\ frac {x^ {2n+1}} {(2n+1) n!} \ end {alinear*}

    Por ejemplo, para la curva de campana, la probabilidad de estar dentro de una desviación estándar de la media 13, es

    \ begin {alinear*} & erf\ Grande (\ frac {1} {\ sqrt {2}}\ Grande) =\ frac {2} {\ sqrt {\ pi}}\ sum_ {n=0} ^\ infty (-1) ^n\ frac

    ParseError: invalid StatementList (click for details)
    Callstack:
        at (Matematicas/Calculo_Integral_CLP-2_(Feldman_Rechnitzer_y_Yeager)/03:_Secuencia_y_serie/3.06:_Serie_Taylor), /content/body/div/div[1]/article[2]/div/p[8]/span, line 1, column 2
    
    \ suma_ {n=0} ^\ infty (-1) ^n\ frac {1} {(2n+1) 2^n n!} \\ &=\ sqrt {\ frac {2} {\ pi}}\ Grande (1-\ frac {1} {3\ times 2} +\ frac {1} {5\ times 2^2\ times 2} -\ frac {1} {7\ times 2^3\ times 3!} +\ frac {1} {9\ times2^4\ veces 4!} -\ cdots\ Grande)\ final {alinear*}

    Esta es otra serie alternante. Si mantenemos cinco términos, parando en\(n=4\text{,}\) obtenemos\(0.68271\) (a 5 decimales) con, por Teorema 3.3.14 nuevamente, un error entre cero y el primer término caído, que es menos

    \[ \sqrt{\frac{2}{\pi}}\ \frac{1}{11\times 2^5\times 5!} \lt 2\times 10^{-5} \nonumber \]

    Ejemplo 3.6.17 Dos series bonitas

    Evaluar

    \[ \sum_{n=1}^\infty \frac{(-1)^{n-1}}{n3^n}\qquad\text{and}\qquad \sum_{n=1}^\infty \frac{1}{n3^n} \nonumber \]

    Solución. No hay muchas series que puedan ser fácilmente evaluadas exactamente. Pero de vez en cuando uno se encuentra con una serie que puede ser evaluada simplemente al darse cuenta de que es exactamente una de las series en el Teorema 3.6.7, solo con un valor específico de\(x\text{.}\) La mano izquierda dada serie es

    \[ \sum_{n=1}^\infty \frac{(-1)^{n-1}}{n}\ \frac{1}{3^n} = \frac{1}{3}-\frac{1}{2}\ \frac{1}{3^2}+\frac{1}{3}\ \frac{1}{3^3} -\frac{1}{4}\ \frac{1}{3^4}+\cdots \nonumber \]

    La serie en el Teorema 3.6.7 que esto más se asemeja es

    \[ \log(1+x) = x-\frac{x^2}{2}+\frac{x^3}{3}-\frac{x^4}{4}-\cdots \nonumber \]

    Efectivamente

    \ begin {alinear*}\ sum_ {n=1} ^\ infty\ frac {(-1) ^ {n-1}} {n}\\ frac {1} {3^n} &=\ frac {1} {3} -\ frac {1} {2}\\ frac {1} {3^2} +\ frac {1} {3}\ frac {1}\ frac {1} {3}\ frac {1}} {3^3} -\ frac {1} {4}\ frac {1} {3^4} +\ cdots\\ & =\ bigg [x-\ frac {x^2} {2} {2} +\ frac {x^3} {3} -\ frac {x^4} {4} -\ cdots\ bigg] _ {x=\ frac {1} {3}}\\ & =\ Grande [\ log (1+x)\ Grande] _ {x=\ frac {1} {3}}\\ & =\ log\ frac {4} {3}\ end {align*}

    La serie de la mano derecha anterior difiere de la serie de la mano izquierda anterior solo que los signos de la serie de la mano izquierda se alternan mientras que los de la serie de la mano derecha no. Podemos voltear cada segundo signo en una serie de potencia con solo usar un negativo\(x\text{.}\)

    \ begin {alinear*}\ Grande [\ log (1+x)\ Grande] _ {x=-\ frac {1} {3}} &=\ bigg [x-\ frac {x^2} {2} +\ frac {x^3} {3} -\ frac {x^4} {4} -\ cdots\ bigg] _ {x=-\ frac {1} {3}}\\ &= -\ frac {1} {3} -\ frac {1} {2}\\ frac {1} {3^2} -\ frac {1} {3}\ frac {1} {3^3} -\ frac {1} {4}\\ frac {1} {3^4} +\ cdots\ end {align*}

    que es exactamente menos la serie deseada de la mano derecha. Entonces

    \[ \sum_{n=1}^\infty \frac{1}{n3^n} =- \Big[\log(1+x) \Big]_{x=-\frac{1}{3}} =-\log\frac{2}{3} =\log\frac{3}{2} \nonumber \]

    Ejemplo 3.6.18 Encontrar una derivada de una serie

    Vamos a\(f(x) = \sin(2x^3)\text{.}\) encontrar\(f^{(15)}(0)\text{,}\) la decimoquinta derivada de\(f\) al\(x=0\text{.}\)

    Solución: Esta es una pregunta un poco engañosa. Por supuesto, podríamos usar las reglas de producto y cadena para aplicar directamente quince derivados y luego establecer\(x=0\text{,}\) pero eso sería extremadamente tedioso 14. Hay un enfoque mucho más eficiente que explota dos piezas de conocimiento que tenemos.

    • De la ecuación 3.6.2, vemos que el coeficiente de\((x-a)^n\) en la serie Taylor de\(f(x)\) con punto de expansión\(a\) es exactamente\(\frac{1}{n!} f^{(n)}(a)\text{.}\) Así\(f^{(n)}(a)\) es exactamente\(n!\) veces el coeficiente de\((x-a)^n\) en la serie Taylor de\(f(x)\) con punto de expansión\(a\text{.}\)
    • Sabemos, o al menos podemos encontrar fácilmente, la serie Taylor para\(\sin(2x^3)\text{.}\)

    Apliquemos esa estrategia.

    • Primero, sabemos que, para todos\(y\text{,}\)

      \[ \sin y = y-\frac{1}{3!}y^3+\frac{1}{5!}y^5-\cdots \nonumber \]

    • Solo sustituyendo\(y= 2x^3\text{,}\) tenemos

      \ begin {alinear*}\ sin (2 x^3) &= 2x^3-\ frac {1} {3!} {(2x^3)} ^3+\ frac {1} {5!} {(2x^3)} ^5-\ cdots\\ &= 2x^3-\ frac {8} {3!} x^9+\ frac {2^5} {5!} x^ {15} -\ cdots\ end {align*}

    • Entonces el coeficiente de\(x^{15}\) en la serie Taylor de\(f(x)=\sin(2x^3)\) con punto de expansión\(a=0\) es\(\frac{2^5}{5!}\)

    y tenemos

    \[ f^{(15)}(0) = 15!\times \frac{2^5}{5!} = 348{,}713{,}164{,}800 \nonumber \]

    Ejemplo 3.6.19 Opcional — Cálculo del número\(e\)

    De vuelta en el Ejemplo 3.6.8, vimos que

    \[ e^x =1+x+\tfrac{x^2}{2!}+\cdots+\tfrac{x^n}{n!}+\tfrac{1}{(n+1)!}e^c x^{n+1} \nonumber \]

    para algunos (desconocido)\(c\) entre\(0\) y\(x\text{.}\) Esto se puede utilizar para aproximar el número\(e\text{,}\) con cualquier grado de precisión deseado. El ajuste\(x=1\) en esta ecuación da

    \[ e=1+1+\tfrac{1}{2!}+\cdots+\tfrac{1}{n!}+\tfrac{1}{(n+1)!}e^c \nonumber \]

    para algunos\(c\) entre\(0\) y\(1\text{.}\) Aunque no sepamos\(c\) exactamente, podemos encuadrar ese término con bastante facilidad. Sabemos que\(e^c\) en una función creciente 15 de\(c\text{,}\) y así\(1=e^0 \leq e^c \leq e^1=e\text{.}\) así sabemos que

    \ comenzar {reunir*}\ frac {1} {(n+1)!} \ leq e -\ izquierda (1+1+\ tfrac {1} {2!} +\ cdots+\ tfrac {1} {n!} \ derecha)\ leq\ frac {e} {(n+1)!} \ end {reunir*}

    Entonces tenemos un límite inferior en el error, pero nuestro límite superior involucra el\(e\) — precisamente la cantidad que estamos tratando de manejar.

    Pero no todo está perdido. Veamos un poco más de cerca la desigualdad de la mano derecha cuando\(n=1\text{:}\)

    \ begin {align*} e - (1+1) &\ leq\ frac {e} {2} &\ text {mover los $e$'s a un lado}\\\ frac {e} {2} &\ leq 2 &\ text {y limpiarlo}\\ e &\ leq 4. \ end {alinear*}

    Ahora bien, este es un encuadernado 16 bastante crudo pero no es difícil de mejorar. Inténtalo de nuevo con\(n=1\text{:}\)

    \ begin {alinear*} e - (1+1+\ frac {1} {2}) &\ leq\ frac {e} {6} &\ text {mover $e$'s a un lado}\\\ frac {5e} {6} &\ leq\ frac {5} {2}\\ e &\ leq 3. \ end {alinear*}

    Mejor. Ahora podemos reescribir nuestro encuadernado:

    \ comenzar {reunir*}\ frac {1} {(n+1)!} \ leq e -\ izquierda (1+1+\ tfrac {1} {2!} +\ cdots+\ tfrac {1} {n!} \ derecha)\ leq\ frac {e} {(n+1)!} \ leq\ frac {3} {(n+1)!} \ end {reunir*}

    Si nos fijamos\(n=4\) en esto obtenemos

    \ begin {alinear*}\ frac {1} {120} =\ frac {1} {5!} &\ leq e -\ izquierda (1 + 1 +\ frac {1} {2} +\ frac {1} {6} +\ frac {1} {24}\ derecha)\ leq\ frac {3} {120}\ end {align*}

    Entonces el error es entre\(\frac{1}{120}\) y\(\frac{3}{120}=\frac{1}{40}\) — esta aproximación no está garantizada para darnos los primeros 2 decimales. Si aumentamos\(n\) hasta\(9\) sin embargo, obtenemos

    \ begin {alinear*}\ frac {1} {10!} &\ leq e -\ izquierda (1 + 1 +\ frac {1} {2} +\ cdots +\ frac {1} {9!} \ derecha)\ leq\ frac {3} {10!} \ end {alinear*}

    Dado que\(10! = 3628800\text{,}\) el límite superior en el error es\(\frac{3}{3628800} \lt \frac{3}{3000000} = 10^{-6}\text{,}\) y podemos aproximarnos\(e\) por

    \[ \begin{alignedat}{10} &1+1 +\ \tfrac{1}{2!} & &+\ \ \tfrac{1}{3!}\ & &+\hskip10pt\tfrac{1}{4!}\hskip10pt & &+\hskip10pt\tfrac{1}{5!}\hskip10pt & &+\hskip15pt\tfrac{1}{6!}\hskip15pt & &+\hskip15pt\tfrac{1}{7!}\hskip15pt \\ &&&&&&&&&+\hskip15pt\tfrac{1}{8!}\hskip15pt & &+\hskip15pt\tfrac{1}{9!} \\ =&1+1+0.5& &+0.1\dot 6& &+0.041\dot 6& &+0.008\dot 3& &+0.0013\dot 8& &+0.0001984& \\ &&&&&&&&&+0.0000248& &+0.0000028\\ =&2.718282 \end{alignedat} \nonumber \]

    y es correcto a seis decimales.

    Opcional — Vinculación\(e^{x}\) with trigonometric functions

    Volvamos a la observación que hicimos anteriormente sobre la serie Maclaurin para seno, coseno y las funciones exponenciales:

    \ begin {alinear*}\ cos x +\ sin x &= 1 + x -\ frac {1} {2!} x^2 -\ frac {1} {3!} x^3 +\ frac {1} {4!} x^4 +\ frac {1} {5!} x^5 -\ cdots\\ e^x &= 1 + x +\ frac {1} {2!} x^2 +\ frac {1} {3!} x^3 +\ frac {1} {4!} x^4 +\ frac {1} {5!} x^5 +\ cdots\ final {alinear*}

    Vemos que estas series son idénticas a excepción de las diferencias en los signos de los coeficientes. Tratemos de hacer que se vean aún más parecidos introduciendo constantes adicionales\(A, B\) y\(q\) en las ecuaciones. Considerar

    \ begin {alinear*} A\ cos x + B\ sin x &= A + Bx -\ frac {A} {2!} x^2 -\ frac {B} {3!} x^3 +\ frac {A} {4!} x^4 +\ frac {B} {5!} x^5 -\ cdots\\ e^ {q x} &= 1 + qx +\ frac {q^2} {2!} x^2 +\ frac {q^3} {3!} x^3 +\ frac {q^4} {4!} x^4 +\ frac {q^5} {5!} x^5 +\ cdots\ final {alinear*}

    Tratemos de elegir\(A\text{,}\)\(B\) y para\(q\) que estas a expresiones sean iguales. Para ello debemos asegurarnos de que los coeficientes de las diversas facultades de\(x\) acuerdo. Mirando solo los coeficientes de\(x^0\) y\(x^1\text{,}\) vemos que necesitamos

    \ begin {align*} A&=1 &\ text {y} && b&=Q\ end {alinear*}

    Sustituir esto en nuestras expansiones da

    \ start {alinear*}\ cos x + q\ sin x &= 1 + qx -\ frac {1} {2!} x^2 -\ frac {q} {3!} x^3 +\ frac {1} {4!} x^4 +\ frac {q} {5!} x^5 -\ cdots\\ e^ {q x} &= 1 + qx +\ frac {q^2} {2!} x^2 +\ frac {q^3} {3!} x^3 +\ frac {q^4} {4!} x^4 +\ frac {q^5} {5!} x^5 +\ cdots\ final {alinear*}

    Ahora los coeficientes de\(x^0\) y\(x^1\) están de acuerdo, pero el coeficiente de nos\(x^2\) dice que necesitamos\(q\) ser un número para que\(q^2 =-1\text{,}\) o

    \ begin {align*} q &=\ sqrt {-1}\ end {align*}

    Sabemos que no\(q\) existe tal número real. Pero por el momento veamos qué pasa si solo asumimos 17 que podemos encontrar\(q\) para que\(q^2=-1\text{.}\) entonces tengamos que

    \ begin {align*} q^3 &= -q & q^4 &= 1 & q^5 &= q &\ cdots\ end {align*}

    para que las series para\(\cos x + q\sin x\) y\(e^{q x}\) sean idénticas. Eso es

    \ comenzar {alinear*} e^ {qx} &=\ cos x + q\ sin x\ final {alinear*}

    Si ahora escribimos esto con la notación más habitual\(q=\sqrt{-1}=i\) llegamos a lo que ahora se conoce como la fórmula de Euler

    Ecuación 3.6.20
    \[\begin{align*} e^{i x} &= \cos x + i \sin x \end{align*}\]

    La prueba de Euler de esta fórmula (en 1740) se basó en expansiones de Maclaurin (muy parecida a nuestra explicación anterior). La fórmula 18 de Euler es ampliamente considerada como una de las más importantes y bellas de todas las matemáticas.

    Por supuesto, habiendo establecido la fórmula de Euler se pueden encontrar demostraciones más hábiles. Por ejemplo, vamos

    \ begin {align*} f (x) &= e^ {-ix}\ izquierda (\ cos x + i\ sin x\ derecha)\ end {align*}

    Diferenciar (con reglas de producto y cadena y el hecho de que\(i^2=-1\)) nos da

    \ begin {align*} f' (x) &= -i e^ {-ix}\ izquierda (\ cos x + i\ sin x\ derecha) + e^ {-ix}\ izquierda (-\ sin x + i\ cos x\ derecha)\\ &= 0\ end {align*}

    Dado que la derivada es cero, la función\(f(x)\) debe ser una constante. El ajuste nos\(x=0\) dice que

    \ begin {alinear*} f (0) &= e^0\ izquierda (\ cos 0 + i\ sin 0\ derecha) = 1. \ end {alinear*}

    De ahí\(f(x)=1\) que para todos\(x\text{.}\) Reordenando luego llegue a

    \ comenzar {alinear*} e^ {ix} &=\ cos x + i\ sin x\ final {alinear*}

    según sea necesario.

    Sustituyendo\(x=\pi\) a la fórmula de Euler obtenemos la identidad de Euler

    \ begin {align*} e^ {i\ pi} &= -1\ end {align*}

    que se afirma con más frecuencia

    Ecuación 3.6.21 Identidad de Euler

    \[\begin{align*} e^{i\pi} + 1 &= 0 \end{align*}\]

    que vincula las 5 constantes más importantes en matemáticas,\(1,0,\pi,e\) y\(\sqrt{-1}\text{.}\)

    Evaluar límites usando expansiones de Taylor

    Los polinomios de Taylor proporcionan una buena manera de entender el comportamiento de una función cerca de un punto específico y, por lo tanto, son útiles para evaluar límites complicados. Aquí hay algunos ejemplos.

    Ejemplo 3.6.22 Un límite simple de una expansión de Taylor

    En este ejemplo, comenzaremos con un límite relativamente simple, a saber

    \[ \lim_{x\rightarrow 0}\frac{\sin x}{x} \nonumber \]

    Lo primero que hay que notar sobre este límite es que, como\(x\) tiende a cero, tanto el numerador,\(\sin x\text{,}\) como el denominador,\(x\text{,}\) tienden a\(0\text{.}\) Así que no podemos evaluar el límite de la relación simplemente dividiendo los límites del numerador y denominador. Para encontrar el límite, o demostrar que no existe, vamos a tener que exhibir una cancelación entre el numerador y el denominador. Empecemos por echar un vistazo más de cerca al numerador. Por Ejemplo 3.6.6.

    \[ \sin x = x-\frac{1}{3!}x^3+\frac{1}{5!}x^5 - \cdots \nonumber \]

    En consecuencia 19

    \[ \frac{\sin x}{x}=1-\frac{1}{3!}x^2 + \frac{1}{5!}x^4 - \cdots \nonumber \]

    Cada término de esta serie, excepto el primer término, es proporcional a una potencia estrictamente positiva de\(x\text{.}\) Consecuentemente, como\(x\) tiende a cero, todos los términos de esta serie, excepto el primer término, tienden a cero. De hecho la suma de todos los términos, comenzando por el segundo término, también tiende a cero. Es decir,

    \[ \lim_{x\rightarrow 0}\Big[-\frac{1}{3!}x^2 + \frac{1}{5!}x^4 - \cdots\Big] =0 \nonumber \]

    Aquí no vamos a justificar esa afirmación, pero se justificará en la siguiente subsección (optativa). Entonces

    \ begin {alinear*}\ lim_ {x\ fila derecha 0}\ frac {\ sin x} {x} & =\ lim_ {x\ fila derecha 0}\ grande [1-\ frac {1} {3!} x^2 +\ frac {1} {5!} x^4 -\ cdots\ Grande]\\ &=1+\ lim_ {x\ fila derecha 0}\ Grande [-\ frac {1} {3!} x^2 +\ frac {1} {5!} x^4 -\ cdots\ Grande]\\ &=1\ end {alinear*}

    El límite en el ejemplo anterior también se puede evaluar con relativa facilidad utilizando la regla 20 de L'hôpital. Si bien el siguiente límite también puede evaluarse, en principio, utilizando la regla de L'hôpital, es mucho más eficiente usar Taylor serie 21.

    Ejemplo 3.6.23 Un límite no tan fácil hecho más fácil

    En este ejemplo evaluamos

    \[ \lim_{x\rightarrow 0}\frac{\arctan x -x}{\sin x-x} \nonumber \]

    Una vez más, lo primero que hay que notar sobre este límite es que, como x tiende a cero, el numerador tiende a\(\arctan 0 -0\text{,}\) cuál es\(0\text{,}\) y el denominador tiende a\(\sin 0-0\text{,}\) que también es\(0\text{.}\) Así que no podemos evaluar el límite de la relación simplemente dividiendo los límites del numerador y denominador. Nuevamente, para encontrar el límite, o demostrar que no existe, vamos a tener que exhibir una cancelación entre el numerador y el denominador. Para obtener una comprensión más detallada del comportamiento del numerador y denominador cerca\(x=0\text{,}\) encontramos sus expansiones de Taylor. Por Ejemplo 3.5.21,

    \[ \arctan x = x-\frac{x^3}{3}+\frac{x^5}{5}-\cdots \nonumber \]

    por lo que el numerador

    \[ \arctan x -x = -\frac{x^3}{3}+\frac{x^5}{5}-\cdots \nonumber \]

    Por Ejemplo 3.6.6.

    \[ \sin x = x-\frac{1}{3!}x^3+\frac{1}{5!}x^5 - \cdots \nonumber \]

    por lo que el denominador

    \[ \sin x -x = -\frac{1}{3!}x^3+\frac{1}{5!}x^5 - \cdots \nonumber \]

    y la relación

    \[ \frac{\arctan x -x}{\sin x - x} = \frac{-\frac{x^3}{3}+\frac{x^5}{5}-\cdots} {-\frac{1}{3!}x^3+\frac{1}{5!}x^5 - \cdots} \nonumber \]

    Observe que cada término tanto en el numerador como en el denominador contiene un factor común del\(x^3\text{,}\) cual podemos cancelar.

    \[ \frac{\arctan x -x}{\sin x - x} = \frac{-\frac{1}{3}+\frac{x^2}{5}-\cdots} {-\frac{1}{3!}+\frac{1}{5!}x^2 - \cdots} \nonumber \]

    Como\(x\) tiende a cero,

    • el numerador tiende a\(-\frac{1}{3}\text{,}\) que no es\(0\text{,}\) y
    • el denominador tiende a\(-\frac{1}{3!}=-\frac{1}{6}\text{,}\) lo que tampoco es\(0\text{.}\)

    así que ahora podemos evaluar legítimamente el límite de la relación simplemente dividiendo los límites del numerador y denominador.

    \ begin {alinear*}\ lim_ {x\ fila derecha 0}\ frac {\ arctan x -x} {\ sin x-x} &=\ lim_ {x\ fila derecha 0}\ frac {-\ frac {1} {3} +\ frac {x^2} {5} -\ cdots} {-\ frac {1} {3!} +\ frac {1} {5!} x^2 -\ cdots}\\ &=\ frac {\ lim_ {x\ fila derecha 0}\ grande [-\ frac {1} {3} +\ frac {x^2} {5} -\ cdots\ grande]} {\ lim_ {x\ fila derecha 0}\ grande [-\ frac {1} {3!} +\ frac {1} {5!} x^2 -\ cdots\ big]}\\ &=\ frac {-\ frac {1} {3}} {-\ frac {1} {3!}} \\ &=2\ final {alinear*}

    Opcional — La notación Big O

    En el Ejemplo 3.6.22 utilizamos, sin justificación 22, que, como\(x\) tiende a cero, no sólo cada término en

    \[ \frac{\sin x}{x}-1 = -\frac{1}{3!}x^2 + \frac{1}{5!}x^4 - \cdots =\sum_{n=1}^\infty (-1)^n\frac{1}{(2n+1)!}x^{2n} \nonumber \]

    convergen a cero, pero de hecho la suma de todos infinitamente muchos términos también converge a cero. Hicimos algo similar dos veces en el Ejemplo 3.6.23; una en computar el límite del numerador y otra en computar el límite del denominador.

    Ahora desarrollaremos alguna maquinaria que brinde la justificación. Comenzamos recordando, de la ecuación 3.6.1, que si, para algún número natural\(n\text{,}\) la función\(f(x)\) tiene\(n+1\) derivadas cerca del punto\(a\text{,}\) entonces

    \[ f(x) =T_n(x) +E_n(x) \nonumber \]

    donde

    \[ T_n(x)=f(a)+f'(a)\,(x-a)+\cdots+\tfrac{1}{n!}f^{(n)}(a)\, (x-a)^n \nonumber \]

    es el polinomio Taylor de grado\(n\) para la función\(f(x)\) y punto de expansión\(a\) y

    \[ E_n(x)=f(x)-T_n(x)=\tfrac{1}{(n+1)!}f^{(n+1)}(c)\, (x-a)^{n+1} \nonumber \]

    es el error introducido cuando aproximamos\(f(x)\) por el polinomio\(T_n(x)\text{.}\) Aquí\(c\) hay algún número desconocido entre\(a\) y\(x\text{.}\) Como no\(c\) se sabe, no sabemos exactamente cuál\(E_n(x)\) es el error. Pero eso no suele ser un problema.

    En el presente contexto 23 nos interesa tomar el límite como\(x \to a\text{.}\) Así que sólo nos interesan\(x\) -valores que están muy cerca\(a\text{,}\) y porque\(c\) se encuentra entre\(x\) y también\(a\text{,}\)\(c\) está muy cerca de\(a\text{.}\) Ahora, siempre y cuando \(f^{(n+1)}(x)\)es continuo en\(a\text{,}\) cuanto\(x \to a\text{,}\)\(f^{(n+1)}(c)\) debe acercarse\(f^{(n+1)}(a)\), lo cual es algún valor finito. Esto, a su vez, significa que debe haber constantes\(M,D \gt 0\) tales que\(\big|f^{(n+1)}(c)\big|\le M\) para todos están dentro\(c\) de una distancia\(D\) de\(a\text{.}\) Si es así, hay otra constante\(C\) (es decir\(\tfrac{M}{(n+1)!}\)) tal que

    \[ \big|E_n(x)\big|\le C |x-a|^{n+1}\qquad\hbox{whenever }|x-a|\le D \nonumber \]

    Hay alguna notación para este comportamiento.

    Definición 3.6.24 Big O

    Dejemos\(a\) y\(m\) sean números reales. Decimos que la función “\(g(x)\)es de orden\(|x-a|^m\) cerca\(a\)” y escribimos\(g(x)=O\big(|x-a|^m\big)\) si existen constantes 24\(C,D \gt 0\) tal que

    \ comenzar {reunir}\ big|g (x)\ big|\ le C |x-a|^m\ qquad\ hbox {siempre} |x-a|\ le D\ etiqueta {eq_bigoh}\ tag {\(\star\)}\ end {reunir}

    Siempre que\(O\big(|x-a|^m\big)\) aparece en una expresión algebraica, solo representa alguna función (desconocida)\(g(x)\) que obedece (\(\star\)). A esto se le llama notación “big O”.

    ¿Cómo debemos analizar la gran notación O cuando la vemos? Considera lo siguiente

    \ begin {align*} g (x) &= O (|x-3|^2)\ end {align*}

    En primer lugar, sabemos por la definición que la notación solo nos dice algo acerca\(g(x)\) para\(x\) cerca del punto\(a\text{.}\) La ecuación anterior contiene “\(O(|x-3|^2)\)” que nos dice algo sobre cómo se ve la función cuando\(x\) está cerca de\(3\text{.}\) Más lejos, porque es” \(|x-3|\)” al cuadrado, dice que la gráfica de la función se encuentra debajo de una parábola\(y=C(x-3)^2\) y encima de una parábola\(y=-C(x-3)^2\) cerca\(x=3\text{.}\) La notación no nos dice nada más que esto —no sabemos, por ejemplo, que la gráfica de\(g(x)\) es cóncava hacia arriba o cóncava hacia abajo. También nos dice que Taylor expansión de\(g(x)\) alrededor\(x=3\) no contiene ningún término constante o lineal — el primer término distinto de cero en la expansión es de grado al menos dos. Por ejemplo, todas las siguientes funciones son\(O(|x-3|^2)\text{.}\)

    \ begin {reunir*} 5 (x-3) ^2 + 6 (x-3) ^3,\ qquad -7 (x-3) ^2 - 8 (x-3) ^4,\ qquad (x-3) ^3,\ qquad (x-3) ^ {\ frac {5} {2}}\ end {reunir*}

    En los siguientes ejemplos reescribiremos algunos de los polinomios de Taylor que conocemos usando esta gran notación O.

    Ejemplo 3.6.25 Seno y la O grande

    Deja\(f(x)=\sin x\) y\(a=0\text{.}\) luego

    \ begin {align*} f (x) &=\ sin x & f' (x) &=\ cos x & f "(x) &=-\ sin x & f^ {(3)} (x) &=-\ cos x &\ f (0) &=0 & f' (0) &=1 & f" (0) &=0 & f^ {(3)} (0) =-1 &\\ f^ {(4)} (x) &=\ sin x & &\ cdots\\ f^ {(4)} (0) &=0 & &\ cdots\ end {alinear*}

    y el patrón se repite. Entonces cada derivada es más o menos ya sea seno o coseno y, como vimos en ejemplos anteriores, esto hace que analizar el término de error para las series seno y coseno sea bastante sencillo. En particular,\(\big|f^{(n+1)}(c)\big|\le 1\) para todos los números reales\(c\) y todos los números naturales\(n\text{.}\) Así que el polinomio Taylor de, por ejemplo, grado 3 y su término de error son

    \ begin {alinear*}\ sin x &= x-\ tfrac {1} {3!} x^3+\ tfrac {\ cos c} {5!} x^5\\ &= x-\ tfrac {1} {3!} x^3+o (|x|^5)\ final {alinear*}

    bajo la Definición 3.6.24, con\(C=\tfrac{1}{5!}\) y cualquier\(D \gt 0\text{.}\) Similarmente, para cualquier número natural\(n\text{,}\)

    Ecuación 3.6.26
    \[\begin{align*} \sin x&=x-\tfrac{1}{3!}x^3+\tfrac{1}{5!}x^5-\cdots+(-1)^{n}\tfrac{1}{(2n+1)!} x^{2n+1} +O\big( |x|^{2n+3}\big)\\ \cos x&=1-\tfrac{1}{2!}x^2+\tfrac{1}{4!}x^4-\cdots+(-1)^{n}\tfrac{1}{(2n)!} x^{2n} +O\big( |x|^{2n+2}\big) \end{align*}\]

    Cuando estudiamos el error en la expansión de la función exponencial (muy atrás en opcional Ejemplo 3.6.8), tuvimos que ir hasta cierto punto para entender el comportamiento del término de error lo suficientemente bien como para probar la convergencia para todos los números\(x\text{.}\) Sin embargo, en la notación O grande, somos libres de asumir que\(x\) está cerca de\(0\text{.}\) Además no necesitamos derivar un límite explícito sobre el tamaño del coeficiente\(C\text{.}\) Esto hace que sea bastante más fácil verificar que la notación O grande es correcta.

    Ejemplo 3.6.27 Exponencial y la O grande

    Dejar\(n\) ser cualquier número natural. Ya que\(\frac{d}{dx} e^x = e^x\text{,}\) sabemos que\(\frac{d^{k}}{dx^{k}}\left\{ e^x \right\} = e^x\) por cada entero\(k \geq 0\text{.}\) Así

    \[ e^x=1+x+\tfrac{x^2}{2!}+\tfrac{x^3}{3!}+\cdots+\tfrac{x^n}{n!} +\tfrac{e^c}{(n+1)!} x^{n+1} \nonumber \]

    para algunos\(c\) entre\(0\) y\(x\text{.}\) Si, por ejemplo,\(|x|\le 1\text{,}\)\(|e^c|\le e\text{,}\) entonces para que el término de error

    \[ \big|\tfrac{e^c}{(n+1)!} x^{n+1}\big| \le C|x|^{n+1}\qquad\hbox{ with } C=\tfrac{e}{(n+1)!}\qquad\hbox{ whenever }|x|\le 1 \nonumber \]

    Entonces, bajo la Definición 3.6.24, con\(C=\tfrac{e}{(n+1)!}\) y\(D=1\text{,}\)

    Ecuación 3.6.28

    \[ e^x=1+x+\tfrac{x^2}{2!}+\tfrac{x^3}{3!}+\cdots+\tfrac{x^n}{n!} +O\big( |x|^{n+1}\big) \nonumber \]

    Se puede ver eso, porque sólo tenemos que\(x\) considerar's que están cerca del punto de expansión (en este ejemplo,\(0\)) es relativamente fácil derivar los límites que se requieren para justificar el uso de la notación O grande.

    Ejemplo 3.6.29 Logaritmos y la O grande

    Deja\(f(x)=\log(1+x)\) y\(a=0\text{.}\) luego

    \ begin {alinear*} f' (x) &=\ tfrac {1} {1+x} & f "(x) &=-\ tfrac {1} {(1+x) ^2} & f^ {(3)} (x) &=\ tfrac {2} {(1+x) ^3} &\ f' (0) &=1 & f" (0) &=-1 & f^ {(3)} (0) &=2 &\\ f^ {(4)} (x) &=-\ tfrac {2\ times 3} {(1+x) ^4} & f^ {(5)} (x) &=\ tfrac {2\ times 3\ times 4} {(1+x) ^5}\\ f^ {(4)} (0)) &=- ¡3! & f^ {(5)} (0) &=4! \ end {alinear*}

    Podemos ver un patrón para\(f^{(n)}(x)\) formar aquí —\(f^{(n)}(x)\) es un signo multiplicado por una relación con

    • siendo la señal\(+\) cuando\(n\) es impar y ser\(-\) cuando\(n\) es par. Entonces el signo es\((-1)^{n-1}\text{.}\)
    • El denominador es\((1+x)^n\text{.}\)
    • El numerador 25 es el producto\(2\times 3\times 4\times \cdots \times (n-1) = (n-1)!\text{.}\)

    Así 26, para cualquier número natural\(n\text{,}\)

    \ begin {alinear*} f^ {(n)} (x) &= (-1) ^ {n-1}\ tfrac {(n-1)!} {(1+x) ^n} &\ text {lo que significa que}\\\ tfrac {1} {n!} f^ {(n)} (0)\, x^n &= (-1) ^ {n-1}\ tfrac {(n-1)!} {n!} x^n = (-1) ^ {n-1}\ tfrac {x^n} {n}\ final {alinear*}

    entonces

    \[ \log(1+x) = x-\tfrac{x^2}{2}+\tfrac{x^3}{3}-\cdots +(-1)^{n-1}\tfrac{x^n}{n} +E_n(x) \nonumber \]

    con

    \[ E_n(x)=\tfrac{1}{(n+1)!}f^{(n+1)}(c)\, (x-a)^{n+1} = \tfrac{1}{n+1} \cdot \tfrac{(-1)^n}{(1+c)^{n+1}} \cdot x^{n+1} \nonumber \]

    Si elegimos, por ejemplo\(D=\frac{1}{2}\text{,}\) entonces 27 para cualquiera\(x\) obedeciendo\(|x|\le D=\frac{1}{2}\text{,}\) tenemos\(|c|\le\frac{1}{2} \) y\(|1+c|\ge\frac{1}{2}\) para que

    \[ |E_n(x)|\le \tfrac{1}{(n+1)(1/2)^{n+1}}|x|^{n+1} = O\big(|x|^{n+1}\big) \nonumber \]

    bajo la Definición 3.6.24, con\(C=\tfrac{2^{n+1}}{n+1}\) y\(D=\frac{1}{2}\text{.}\) Así podemos escribir

    Ecuación 3.6.30

    \[ \log(1+x) = x-\tfrac{x^2}{2}+\tfrac{x^3}{3}-\cdots +(-1)^{n-1}\tfrac{x^n}{n} +O\big(|x|^{n+1}\big) \nonumber \]

    Observación 3.6.31

    La gran notación O tiene algunas propiedades que son útiles en cálculos y tomando límites. Todos siguen inmediatamente de la Definición 3.6.24.

    1. Si\(p \gt 0\text{,}\) entonces

      \[ \lim\limits_{x\rightarrow 0} O(|x|^p)=0 \nonumber \]

    2. Para cualquier número real\(p\) y\(q\text{,}\)

      \[ O(|x|^p)\ O(|x|^q)=O(|x|^{p+q}) \nonumber \]

      (Esto es sólo porque\(C|x|^p\times C'|x|^q= (CC')|x|^{p+q}\text{.}\)) En particular,

      \[ ax^m\,O(|x|^p)=O(|x|^{p+m}) \nonumber \]

      para cualquier constante\(a\) y cualquier entero\(m\text{.}\)
    3. Para cualquier número real\(p\) y\(q\text{,}\)

      \[ O(|x|^p) + O(|x|^q)=O(|x|^{\min\{p,q\}}) \nonumber \]

      (Por ejemplo, si\(p=2\) y\(q=5\text{,}\) luego\(C|x|^2+C'|x|^5 =\big(C+C'|x|^3\big) |x|^2\le (C+C')|x|^2\) cuando sea\(|x|\le 1\text{.}\))
    4. Para cualquier número real\(p\) y\(q\) con\(p \gt q\text{,}\) cualquier función que\(O(|x|^p)\) es también\(O(|x|^q)\) porque\(C|x|^p= C|x|^{p-q}|x|^q\le C|x|^q\) siempre\(|x|\le 1\text{.}\)
    5. Todas las observaciones anteriores también se mantienen para expresiones más generales con\(|x|\) reemplazadas por\(|x-a|\text{,}\) es decir, para\(O(|x-a|^p)\text{.}\) La única diferencia está en (a) donde debemos tomar el límite como\(x \to a\) en lugar de\(x\to 0\text{.}\)

    Opcional — Evaluar límites usando expansiones de Taylor — Más ejemplos

    Ejemplo 3.6.32 Ejemplo 3.6.22 revisitado

    En este ejemplo, volveremos al límite

    \[ \lim_{x\rightarrow 0}\frac{\sin x}{x} \nonumber \]

    del Ejemplo 3.6.22 y tratarlo con más cuidado. Por Ejemplo 3.6.25,

    \[ \sin x = x-\frac{1}{3!}x^3+O(|x|^5) \nonumber \]

    Es decir, para pequeño\(x\text{,}\)\(\sin x\) es lo mismo que\(x-\frac{1}{3!}x^3\text{,}\) hasta un error que está limitado por algunos tiempos constantes\(|x|^5\text{.}\) Entonces, dividir por\(x\text{,}\)\(\frac{\sin x}{x}\) es lo mismo que\(1-\frac{1}{3!}x^2\text{,}\) hasta un error que está limitado por algunos tiempos constantes\(x^4\) — ver Observación 3.6.31 (b). Eso es

    \[ \frac{\sin x}{x}=1-\frac{1}{3!}x^2+O(x^4) \nonumber \]

    Pero cualquier función que esté delimitada por algunos tiempos constantes\(x^4\) (para todos\(x\) menores que alguna constante\(D \gt 0\)) tiende necesariamente a\(0\) como\(x\rightarrow 0\) — véase la observación 3.6.31 (a). Así

    \[ \lim_{x\rightarrow 0}\frac{\sin x}{x} =\lim_{x\rightarrow 0}\Big[1-\frac{1}{3!}x^2+O(x^4)\Big] =\lim_{x\rightarrow 0}\Big[1-\frac{1}{3!}x^2\Big] =1 \nonumber \]

    Revisando el cómputo anterior, vemos que hicimos un poco más de trabajo del que teníamos que hacer. No fue necesario hacer un seguimiento de la\(-\frac{1}{3!}x^3\) contribución a\(\sin x\) tan cuidadosamente. Podríamos haber dicho eso

    \[ \sin x = x+O(|x|^3) \nonumber \]

    para que

    \[ \lim_{x\rightarrow 0}\frac{\sin x}{x} =\lim_{x\rightarrow 0}\frac{x+O(|x|^3)}{x} =\lim_{x\rightarrow 0}\big[1+O(x^2)\big] =1 \nonumber \]

    Pasaremos un poco de tiempo en los ejemplos posteriores, más complicados, aprendiendo a elegir la cantidad de términos que guardamos en nuestras expansiones de Taylor para que nuestros cálculos sean lo más eficientes posible.

    Ejemplo 3.6.33 Practicar usando polinomios de Taylor para límites

    En este ejemplo, usaremos el polinomio Taylor del Ejemplo 3.6.29 para evaluar\(\lim\limits_{x\rightarrow 0}\tfrac{\log(1+x)}{x}\) y\(\lim\limits_{x\rightarrow 0}(1+x)^{a/x}\text{.}\) La expansión de Taylor de la ecuación 3.6.30 con nos\(n=1\) dice que

    \[ \log(1+x)=x+O(|x|^2) \nonumber \]

    Es decir, para pequeños\(x\text{,}\)\(\log(1+x)\) es lo mismo que\(x\text{,}\) hasta un error que está delimitado por algunos tiempos constantes\(x^2\text{.}\) Entonces, dividir por\(x\text{,}\)\(\frac{1}{x}\log(1+x)\) es lo mismo que\(1\text{,}\) hasta un error que está delimitado por algunos tiempos constantes\(|x|\text{.}\) Eso es

    \[ \frac{1}{x}\log(1+x)=1+O(|x|) \nonumber \]

    Pero cualquier función que esté limitada por algunos tiempos constantes\(|x|\text{,}\) para todos los\(x\) más pequeños que alguna constante\(D \gt 0\text{,}\) necesariamente tiende a\(0\) como\(x\rightarrow 0\text{.}\) Así

    \[ \lim_{x\rightarrow 0}\frac{\log(1+x)}{x} =\lim_{x\rightarrow 0}\frac{x+O(|x|^2)}{x} =\lim_{x\rightarrow 0}\big[1+O(|x|)\big] =1 \nonumber \]

    Ahora podemos usar este límite para evaluar

    \ begin {reunir*}\ lim_ {x\ rightarrow 0} (1+x) ^ {a/x}. \ end {reunir*}

    Ahora bien, podríamos evaluar el límite del logaritmo de esta expresión, o bien podemos reescribir cuidadosamente la expresión como\(e^\mathrm{(something)}\text{.}\) Hagamos lo último.

    \ begin {alinear*}\ lim_ {x\ fila derecha 0} (1+x) ^ {a/x} &=\ lim_ {x\ fila derecha 0} e^ {\ frac {a} {x}\ log (1+x)}\\ &=\ lim_ {x\ fila derecha 0} e^ {\ frac {a} {x} [x^O (|x|x^O 2)]}\\ &=\ lim_ {x\ fila derecha 0} e^ {A+o (|x|)} =e^a\ end {alinear*}

    Aquí hemos usado eso si\(F(x)=O(|x|^2)\) entonces\(\frac{a}{x} F(x) = O(x)\) — véase Observación 3.6.31 (b). También hemos usado que lo exponencial es continuo —como\(x\) tiende a cero, el exponente de\(e^{a+O(|x|)}\) tiende a\(a\) así que\(e^{a+O(|x|)}\) tiende a\(e^a\) — ver Comentario 3.6.31 (a).

    Ejemplo 3.6.34 Un límite difícil

    En este ejemplo, evaluaremos 28 el límite más difícil

    \[ \lim_{x\rightarrow 0}\frac{\cos x -1 + \frac{1}{2} x\sin x}{{[\log(1+x)]}^4} \nonumber \]

    Lo primero que hay que notar sobre este límite es que, como\(x\) tiende a cero, el numerador

    \ begin {alinear*}\ cos x -1 +\ frac {1} {2} x\ sin x &\ a\ cos 0 -1 +\ frac {1} {2}\ cdot 0\ cdot\ sin 0=0\ end {alinear*}

    y el denominador

    \ begin {align*} [\ log (1+x)] ^4 &\ a [\ log (1+0)] ^4=0\ end {align*}

    también. Entonces tanto el numerador como el denominador tienden a cero y no podemos simplemente evaluar el límite de la relación tomando los límites del numerador y denominador y dividiendo.

    Para encontrar el límite, o demostrar que no existe, vamos a tener que exhibir una cancelación entre el numerador y el denominador. Para desarrollar una estrategia para evaluar este límite, hagamos un “pequeño trabajo de scratch”, comenzando por echar un vistazo más de cerca al denominador. Por Ejemplo 3.6.29,

    \ start {reunir*}\ log (1+x) = x+o (x^2)\ end {reunir*}

    Esto nos dice que\(\log(1+x)\) se parece mucho\(x\) para muy pequeños\(x\text{.}\) Así que el denominador\([x+O(x^2)]^4\) se parece mucho\(x^4\) para muy pequeños\(x\text{.}\) Ahora bien, ¿qué pasa con el numerador?

    • Si el numerador se ve como algunos tiempos constantes\(x^p\) con\(p \gt 4\text{,}\) por muy pequeños\(x\text{,}\) entonces la relación se verá como los tiempos constantes\(\frac{x^p}{x^4}=x^{p-4}\) y, como\(p-4 \gt 0\text{,}\) tenderá a\(0\) como\(x\) tiende a cero.
    • Si el numerador se ve como algunos tiempos constantes\(x^p\) con\(p \lt 4\text{,}\) por muy pequeños\(x\text{,}\) entonces la relación se verá como los tiempos constantes\(\frac{x^p}{x^4}=x^{p-4}\) y lo hará, como\(p-4 \lt 0\text{,}\) tienden al infinito, y en particular divergir, como\(x\) tiende a cero.
    • Si el numerador se ve como\(Cx^4\text{,}\) por muy pequeño\(x\text{,}\) entonces la relación se verá como\(\frac{Cx^4}{x^4}=C\) y tenderá a\(C\) como\(x\) tiende a cero.

    La moraleja del anterior “scratch work” es que necesitamos conocer el comportamiento del numerador, por pequeño\(x\text{,}\) hasta ordenar\(x^4\text{.}\) Cualquier contribución de orden\(x^p\) con\(p \gt 4\) puede ser puesta en términos de error\(O(|x|^p)\text{.}\)

    Ahora estamos listos para evaluar el límite. Debido a que las expresiones están un poco involucradas, simplificaremos el numerador y el denominador por separado y luego juntaremos las cosas. Usando las expansiones que desarrollamos en el Ejemplo 3.6.25, el numerador,

    \[\begin{align*} \cos x -1 + \frac{1}{2} x\sin x &= \left( 1 - \frac{1}{2!}x^2 + \frac{1}{4!}x^4 + O(|x|^6) \right)\\ &\phantom{=\ } -1 + \frac{x}{2}\left( x - \frac{1}{3!}x^3 + O(|x|^5) \right) & \text{expand}\\ &= \left( \frac{1}{24}-\frac{1}{12} \right)x^4 + O(|x|^6) + \frac{x}{2} O(|x|^5)\\ \end{align*}\]

    Luego por Observación 3.6.31 b)

    \ begin {align*} &= -\ frac {1} {24} x^4 + O (|x|^6) + O (|x|^6)\\\ end {align*}

    y ahora por Remar3.6.31 c)

    \ begin {align*} &= -\ frac {1} {24} x^4 + O (|x|^6)\ end {align*}

    Del mismo modo, utilizando la expansión que desarrollamos en el Ejemplo 3.6.29,

    \ begin {align*} [\ log (1+x)] ^4 &=\ grande [x + O (|x|^2)\ grande] ^4\\ &=\ grande [x + x O (|x|)\ grande] ^4 &\ text {por observación} {\ text {3.6.31}}\ texto {(b)}\\ &= x^4 [1 + O (x|)] ^4\ final {alinear*}

    Ahora pon estos juntos y toma el límite como\(x \to 0\text{:}\)

    \ begin {alinear*}\ lim_ {x\ a 0}\ frac {\ cos x -1 +\ frac {1} {2} x\ sin x} {[\ log (1+x)] ^4} &=\ lim_ {x\ a 0}\ frac {-\ frac {1} {24} x^4 + O (|x|^6)} {x^4 [O (|x|)] ^4}\\ &=\ lim_ {x\ a 0}\ frac {-\ frac {1} {24} x^4 + x^4o (|x|^2)} {x^4 [1+O (|x|)] ^4} &\ text {por Observación} {\ text {3.6.31}}\ texto {(b)}\\ &=\ lim_ {x\ a 0}\ frac {-\ frac {1} {24} + O (|x|^2)} {[1+O (|x|)] ^4}\\ &= -\ frac {1} {24} &\ text {por Observación} {\ text {3.6.31}}\ text {(a)}. \ end {alinear*}

    Los dos límites siguientes tienen el mismo sabor que los anteriores: expandir el numerador y el denominador a un orden lo suficientemente alto, hacer algunas cancelaciones y luego tomar el límite. Hemos aumentado un poco la dificultad introduciendo “expansiones de expansiones”.

    Ejemplo 3.6.35 Otro límite difícil

    En este ejemplo evaluaremos otro límite más difícil, a saber

    \[ \lim_{x\rightarrow 0}\frac{\log\big(\frac{\sin x}{x}\big)}{x^2} \nonumber \]

    Lo primero que hay que notar sobre este límite es que, como\(x\) tiende a cero, el denominador\(x^2\) tiende a\(0\text{.}\) Entonces, una vez más, para encontrar el límite, vamos a tener que demostrar que el numerador también tiende a\(0\) y vamos a tener que exhibir una cancelación entre el numerador y el denominador.

    Debido a que el denominador es\(x^2\) cualquier término en el numerador,\(\log\big(\frac{\sin x}{x}\big)\) que sean de orden\(x^3\) o superiores aportarán términos en la relación\(\frac{\log(\frac{\sin x}{x})}{x^2}\) que sean de orden\(x\) o superiores. Esos términos en la relación convergerán a cero como\(x\rightarrow 0\text{.}\) La moraleja de esta discusión es que necesitamos computar\(\log\frac{\sin x}{x}\) al orden\(x^2\) con errores de orden\(x^3\text{.}\) Ahora vimos, en el Ejemplo 3.6.32, que

    \[ \frac{\sin x}{x}=1-\frac{1}{3!}x^2+O(x^4) \nonumber \]

    También vimos, en la ecuación 3.6.30 con\(n=1\text{,}\) eso

    \[ \log(1+X) = X +O(X^2) \nonumber \]

    Sustituyendo 29\(X= -\frac{1}{3!}x^2+O(x^4)\text{,}\) y usando eso\(X^2=O(x^4)\) (por Observación 3.6.31 (b, c)), tenemos que el numerador

    \[ \log\Big(\frac{\sin x}{x}\Big) =\log(1+X) = X +O(X^2) =-\frac{1}{3!}x^2+O(x^4) \nonumber \]

    y el límite

    \ begin {alinear*}\ lim_ {x\ fila derecha 0}\ frac {\ log\ grande (\ frac {\ sin x} {x}\ grande)} {x^2} & =\ lim_ {x\ fila derecha 0}\ frac {-\ frac {1} {3!} x^2+o (x^4)} {x^2} =\ lim_ {x\ fila derecha 0}\ Grande [-\ frac {1} {3!} +O (x^2)\ Grande] =-\ frac {1} {3!} \\ & =-\ frac {1} {6}\ final {alinear*}

    Ejemplo 3.6.36 Otro límite difícil

    Evaluar

    \[ \lim_{x\rightarrow 0}\frac{e^{x^2}-\cos x}{\log(1+x)-\sin x} \nonumber \]

    Solución:

    Paso 1: Encuentra el límite del denominador.

    \[ \lim_{x\rightarrow 0}\big[\log(1+x)-\sin x\big] =\log(1+0)-\sin 0 =0 \nonumber \]

    Esto nos dice que no podemos evaluar el límite simplemente encontrando los límites del numerador y denominador por separado y luego dividiendo.

    Paso 2: Determinar el comportamiento de orden inicial del denominador cerca de\(x=0\text{.}\) Por ecuaciones 3.6.30 y 3.6.26,

    \ begin {alinear*}\ log (1+x) & = x-\ tfrac {1} {2} x^2+\ tfrac {1} {3} x^3-\ cdots\\\ sin x & = x-\ tfrac {1} {3!} x^3+\ tfrac {1} {5!} x^5-\ cdots\ final {alinear*}

    Tomando la diferencia de estas expansiones da

    \[ \log(1+x)-\sin x = -\tfrac{1}{2}x^2+\big(\tfrac{1}{3} +\tfrac{1}{3!}\big)x^3 +\cdots \nonumber \]

    Esto nos dice que, para\(x\) cerca de cero, el denominador es\(-\tfrac{x^2}{2}\) (ese es el término de orden principal) más contribuciones que son de orden\(x^3\) y menores. Eso es

    \[ \log(1+x)-\sin x = -\tfrac{x^2}{2}+ O(|x|^3) \nonumber \]

    Paso 3: Determinar el comportamiento del numerador cerca\(x=0\) al orden\(x^2\) con errores de orden\(x^3\) y menores (al igual que el denominador). Por ecuación 3.6.28

    \[ e^X=1+X+O\big(X^2\big) \nonumber \]

    Sustituyendo\(X=x^2\)

    \ begin {alinear*} e^ {x^2} & = 1+x^2 +O\ grande (x^4\ grande)\\ cos x & = 1-\ tfrac {1} {2} x^2+o\ grande (x^4\ grande)\ final {alinear*}

    por la ecuación 3.6.26. Restar, el numerador

    \[ e^{x^2}-\cos x = \tfrac{3}{2}x^2+O\big(x^4\big) \nonumber \]

    Paso 4: Evaluar el límite.

    \ begin {alinear*}\ lim_ {x\ fila derecha 0}\ frac {e^ {x^2} -\ cos x} {\ log (1+x) -\ sin x} & =\ lim_ {x\ fila derecha 0}\ frac {\ frac {3} {2} x^2+o (x^4)} {-\ frac {x^2} {2} + O (|x|^3)}\\ & =\ lim_ {x\ fila derecha 0}\ frac {\ frac {3} {2} +O (x^2)} {-\ frac {1} {2} + O (|x|)}\\ & =\ frac {\ frac {3} {2}} {-\ frac {1} {2}} =-3\ final {alinear*}

    Ejercicios

    Etapa 1
    1

    A continuación se muestra una gráfica de\(y=f(x)\text{,}\) junto con la aproximación constante, aproximación lineal, y centro de aproximación cuadrática en ¿\(a=2\text{.}\)Cuál es cuál?

    image-526.svg

    2

    Supongamos que\(T(x)\) es la serie Taylor para\(f(x)=\arctan^3\left(e^x+7\right)\) centerd en\(a=5\text{.}\) What is\(T(5)\text{?}\)

    3

    A continuación se muestra una lista de funciones comunes, y sus representaciones de la serie Taylor. Empareja la función con la serie Taylor.

    función serie
    A.\(\dfrac{1}{1-x}\) I.\(\displaystyle\sum_{n=0}^\infty(-1)^n\dfrac{x^{n+1}}{n+1}\)
    B.\(\log(1+x)\) II. \(\displaystyle\sum_{n=0}^\infty(-1)^n\dfrac{x^{2n+1}}{(2n+1)!}\)
    C.\(\arctan x\) III. \(\displaystyle\sum_{n=0}^\infty(-1)^n\dfrac{x^{2n}}{(2n)!}\)
    D.\(e^x\) IV. \(\displaystyle\sum_{n=0}^\infty(-1)^n\dfrac{x^{2n+1}}{2n+1}\)
    E.\(\sin x\) V.\(\displaystyle\sum_{n=0}^\infty x^n\)
    F.\(\cos x\) VI. \(\displaystyle\sum_{n=0}^\infty \frac{x^n}{n!}\)
    4
    1. Supongamos\(f(x)=\displaystyle\sum_{n=0}^\infty \frac{n^2}{(n!+1)}(x-3)^n\) para todos reales\(x\text{.}\) ¿Qué es\(f^{(20)}(3)\) (el vigésimo derivado de\(f(x)\) at\(x=3\))?
    2. Supongamos\(g(x)=\displaystyle\sum_{n=0}^\infty \frac{n^2}{(n!+1)}(x-3)^{2n}\) para todos los reales\(x\text{.}\) ¿Qué es\(g^{(20)}(3)\text{?}\)
    3. Si\(h(x)=\dfrac{\arctan(5x^2)}{x^4}\text{,}\) lo que es\(h^{(20)}(0)\text{?}\) lo que es\(h^{(22)}(0)\text{?}\)
    Etapa 2

    En las preguntas 5 a 8, crearás series de Taylor desde cero. En la práctica, muchas veces es preferible modificar una serie existente, en lugar de crear una nueva, pero se debe entender en ambos sentidos.

    5

    Usando la definición de una serie de Taylor, encuentra la serie Taylor para\(f(x)=\log(x)\) centerd en\(x=1\text{.}\)

    6

    Encuentra la serie Taylor para\(f(x)=\sin x\) centerd en\(a=\pi\text{.}\)

    7

    Usando la definición de una serie de Taylor, encuentra la serie Taylor para\(g(x)=\dfrac{1}{x}\) centerd en\(x=10\text{.}\) ¿Cuál es el intervalo de convergencia de la serie resultante?

    8

    Usando la definición de una serie de Taylor, encuentra la serie Taylor para\(h(x)=e^{3x}\) centerd en\(x=a\text{,}\) donde\(a\) hay alguna constante. ¿Cuál es el radio de convergencia de la serie resultante?

    En las preguntas del 9 al 16, practica la creación de nuevas series de Taylor modificando series conocidas de Taylor, en lugar de crear tu serie desde cero.

    9 (✳)

    Encuentra la serie Maclaurin para\(f(x) = \dfrac{1}{2x-1}\text{.}\)

    10 (✳)

    Let\(\displaystyle\sum\limits_{n=0}^\infty b_nx^n\) be la serie Maclaurin para\(\displaystyle f(x) = \frac{3}{x+1} - \frac{1}{2x-1}\text{,}\)

    i.e.\(\displaystyle\sum\limits_{n=0}^\infty b_nx^n = \frac{3}{x+1} - \frac{1}{2x-1}\text{.}\)

    Encuentra\(b_n\text{.}\)

    11 (✳)

    Encuentra el coeficiente\(c_5\) del quinto cuatrimestre de grado en la serie Maclaurin\(\displaystyle\sum_{n=0}^\infty c_nx^n\) para\(e^{3x}\text{.}\)

    12 (✳)

    Exprese la serie Taylor de la función

    \[ f(x) = \log(1 + 2x) \nonumber \]

    acerca\(x = 0\) en notación de suma.

    13 (✳)

    Los dos primeros términos de la serie Maclaurin para\(x^2 \sin(x^3)\) son\(ax^5 + bx^{11}\), dónde\(a\) y\(b\) son constantes. Encuentra los valores de\(a\) y\(b\text{.}\)

    14 (✳)

    Dar los dos primeros términos distintos de cero en la serie Maclaurin para\(\displaystyle{\int \frac{e^{-x^2}-1}{x} \,\, d{x}}\text{.}\)

    15 (✳)

    Encuentra la serie Maclaurin para\(\displaystyle{\int x^4\arctan(2x) \,\, d{x}}\text{.}\)

    16 (✳)

    Supongamos que\(\displaystyle\frac{df}{dx}=\frac{x}{1+3x^3}\) y\(f(0)=1\text{.}\) Encuentra la serie Maclaurin para\(f(x)\text{.}\)

    En capítulos pasados, solo pudimos evaluar exactamente tipos de series muy específicas: geométricas y telescópicas. En las preguntas 17 a 25, ampliamos nuestra gama relacionando series dadas con series Taylor.

    17 (✳)

    La serie Maclaurin para\(\arctan x\) está dada por

    \[ \arctan x = \sum_{n=0}^\infty (-1)^n\frac{x^{2n+1}}{2n+1} \nonumber \]

    que tiene radio de convergencia igual a\(1\text{.}\) Usa este hecho para calcular el valor exacto de la serie a continuación:

    \[ \sum_{n=0}^\infty \frac{(-1)^n}{(2n+1) 3^n} \nonumber \]

    18 (✳)

    Evaluar\({\displaystyle\sum_{n=0}^\infty\frac{(-1)^n}{n!}}\,\text{.}\)

    19 (✳)

    Evaluar\({\displaystyle\sum_{k=0}^\infty\frac{1}{e^k k!}}\,\text{.}\)

    20 (✳)

    Evaluar la suma de la serie convergente\({\displaystyle\sum_{k=1}^\infty\frac{1}{\pi^k k!}}\,\text{.}\)

    21 (✳)

    Evaluar\({\displaystyle\sum_{n=1}^\infty\frac{(-1)^{n-1}}{n\, 2^n}}\,\text{.}\)

    22 (✳)

    Evaluar\({\displaystyle\sum_{n=1}^\infty\frac{n+2}{n!}e^n}\,\text{.}\)

    23

    Evaluar\(\displaystyle\sum_{n=1}^\infty \frac{2^n}{n}\text{,}\) o demostrar que diverge.

    24

    Evaluar

    \[ \sum_{n=0}^\infty \frac{(-1)^n}{(2n+1)!}\left(\frac{\pi}{4} \right)^{2n+1}\left(1+2^{2n+1} \right) \nonumber \]

    o demostrar que diverge.

    25 (✳)

    (a) Demostrar que la serie power\(\displaystyle\sum_{n=0}^\infty \frac{x^{2n}}{(2n)!}\) converge absolutamente para todos los números reales\(x\text{.}\)

    b) Evaluar\(\displaystyle\sum_{n=0}^\infty \frac{1}{(2n)!}\text{.}\)

    26
    1. Usando el hecho de que\(\arctan(1)=\dfrac{\pi}{4}\text{,}\) cuántos términos de la serie Taylor para arctangent tendrías que sumar para aproximarse\(\pi\) con un error de como máximo\(4\times 10^{-5}\text{?}\)
    2. Ejemplo 3.6.15 menciona la fórmula

      \[ \pi=16\arctan\frac15-4\arctan\frac{1}{239} \nonumber \]

      Usando la serie Taylor para arctangent, cuántos términos tendrías que sumar para aproximarse\(\pi\) con un error de como máximo\(4\times 10^{-5}\text{?}\)

    3. Asumir sin prueba lo siguiente:

      \[ \arctan\frac12+\arctan\frac13=\arctan\left(\frac{3+2}{2\cdot3-1}\right) \nonumber \]

      Usando la serie Taylor para arctangent, cuántos términos tendrías que sumar para aproximarse\(\pi\) con un error de como máximo\(4\times 10^{-5}\text{?}\)
    27

    Supongamos que quería aproximar el número\(\log(1.5)\) como un número racional usando la expansión Taylor de\(\log(1+x)\text{.}\) ¿Cuántos términos necesitarías agregar para obtener 10 decimales de precisión? (Es decir, un error absoluto menor que\(5\times10^{-11}\text{.}\))

    28

    Supongamos que quería aproximar el número\(e\) como un número racional usando la expansión Maclaurin de\(e^x\text{.}\) ¿Cuántos términos necesitarías agregar para obtener 10 decimales de precisión? (Es decir, un error absoluto menor que\(5\times10^{-11}\text{.}\))

    Usted puede asumir sin pruebas que\(2 \lt e \lt 3\text{.}\)

    29

    Supongamos que querías aproximar el número\(\log(0.9)\) como un número racional usando la expansión Taylor de ¿\(\log(1-x)\text{.}\)Qué suma parcial deberías usar para obtener 10 decimales de precisión? (Es decir, un error absoluto menor que\(5\times10^{-11}\text{.}\))

    30

    Definir la función sinusoidal hiperbólica como

    \[ \sinh x = \frac{e^{x}-e^{-x}}{2}. \nonumber \]

    Supongamos que quería aproximar el número\(\sinh(b)\) usando la serie Maclaurin de\(\sinh x\text{,}\) dónde\(b\) está algún número en ¿\((-2,1)\text{.}\)Qué suma parcial debe utilizar para garantizar 10 decimales de precisión? (Es decir, un error absoluto menor que\(5\times10^{-11}\text{.}\))

    Usted puede asumir sin pruebas que\(2 \lt e \lt 3\text{.}\)

    31

    Dejar\(f(x)\) ser una función con

    \[ f^{(n)}(x)=\frac{(n-1)!}{2}\left[(1-x)^{-n}+(-1)^{n-1}(1+x)^{-n} \right] \nonumber \]

    para todos\(n \ge 1\text{.}\)

    Dar límites razonables (tanto superior como inferior) sobre el error involucrado en la aproximación\(f\left(-\frac13 \right)\) usando la suma parcial\(S_6\) de la serie Taylor para\(f(x)\) centerd en\(a=\frac12\text{.}\)

    Nota: Una función con esta calidad es la función tangente hiperbólica inversa 30.

    Etapa 3
    32 (✳)

    Usar series para evaluar\(\displaystyle \lim\limits_{x\rightarrow 0}\frac{1-\cos x}{1+x-e^x}\text{.}\)

    33 (✳)

    Evaluar\(\displaystyle \lim\limits_{x\rightarrow 0}\frac{\sin x -x +\frac{x^3}{6}}{x^5}\text{.}\)

    34

    Evaluar\(\displaystyle \lim\limits_{x\rightarrow 0}\left(1+x+x^2\right)^{2/x}\) usando una serie Taylor para el logaritmo natural.

    35

    Usar series para evaluar

    \[ \lim_{x \to \infty} \left(1+\frac{1}{2x}\right)^{x} \nonumber \]

    36

    Evaluar la serie\(\displaystyle\sum_{n=0}^\infty\frac{ (n+1)(n+2)}{7^n}\) o mostrar que diverge.

    37

    Escribe la serie\(f(x)=\displaystyle\sum_{n=0}^\infty\frac{(-1)^nx^{2n+4}}{(2n+1)(2n+2)}\) como una combinación de funciones familiares.

    38
    1. Encuentra la serie Maclaurin para\(f(x) = (1-x)^{-1/2}\text{.}\) ¿Cuál es su radio de convergencia?
    2. Manipula la serie que acabas de encontrar para encontrar la serie Maclaurin para\(g(x)=\arcsin x\text{.}\) ¿Cuál es su radio de convergencia?
    39 (✳)

    Encuentra la serie Taylor para\(f(x) = \log(x)\) centerd en\(a = 2\text{.}\) Encuentra el intervalo de convergencia para esta serie.

    40 (✳)

    Let\(\displaystyle I(x)=\int_0^x\frac{1}{1+t^4}\ \, d{t}\text{.}\)

    1. Encuentra la serie Maclaurin para\(I(x)\text{.}\)
    2. Aproximado\(I(1/2)\) a dentro\(\pm0.0001\text{.}\)
    3. ¿Su aproximación en (b) es mayor o menor que el verdadero valor de\(I(1/2)\text{?}\) Explique.
    41 (✳)

    Usando una serie Maclaurin,\(a = 1/5-1/7+1/18\) se encuentra que el número es una aproximación para\(\displaystyle I = \int_0^1 x^4 e^{-x^2}\,\, d{x}\text{.}\) Dar el mejor límite superior que pueda para\(|I - a|\text{.}\)

    42 (✳)

    Encuentra un intervalo de longitud\(0.0002\) o menor que contenga el número

    \[ I=\int_0^{\frac{1}{2}} x^2 e^{-x^2}\ \, d{x} \nonumber \]

    43 (✳)

    Let\(\displaystyle I(x)=\int_0^x\frac{e^{-t}-1}{t}\,\, d{t}\text{.}\)

    1. Encuentra la serie Maclaurin para\(I(x)\text{.}\)
    2. Aproximado\(I(1)\) a dentro\(\pm0.01\text{.}\)
    3. Explique por qué su respuesta a la parte (b) tiene la precisión deseada.
    44 (✳)

    La función\(\sum (x)\) está definida por\(\sum (x)=\displaystyle\int_0^x\frac{\sin t}{t}\,\, d{t}\text{.}\)

    1. Encuentra la serie Maclaurin para\(\sum (x)\text{.}\)
    2. Se puede demostrar que\(\sum (x)\) tiene un máximo absoluto el cual ocurre en su punto crítico positivo más pequeño (ver la gráfica de\(\sum (x)\) abajo). Encuentra este punto crítico.
    3. Utilice la información anterior para encontrar el valor máximo de\(\sum (x)\) a dentro\(\pm 0.01\text{.}\)

    graphE97_9.svg

    45 (✳)

    Let\(\displaystyle I(x)=\int_0^x\frac{\cos t-1}{t^2}\,\, d{t}\text{.}\)

    1. Encuentra la serie Maclaurin para\(I(x)\text{.}\)
    2. Utilice esta serie para\(I(1)\) aproximarse a\(\pm0.01\)
    3. ¿Su estimación en (b) es mayor que\(I(1)\text{?}\) Explique.
    46 (✳)

    Let\(\displaystyle I(x)=\int_0^x\frac{\cos t+t\sin t-1}{t^2}\,\, d{t}\)

    1. Encuentra la serie Maclaurin para\(I(x)\text{.}\)
    2. Utilice esta serie para\(I(1)\) aproximarse a\(\pm0.001\)
    3. ¿Su estimación en (b) es mayor o menor que\(I(1)\text{?}\)
    47 (✳)

    Definir\({\displaystyle f(x) = \int_0^x\frac{1-e^{-t}}{t}\ \, d{t}} \text{.}\)

    1. Demuestre que la serie Maclaurin para\(f(x)\) es\(\displaystyle\sum_{n=1}^\infty \frac{(-1)^{n-1}}{n\cdot n!} x^n\text{.}\)
    2. Utilice la prueba de relación para determinar los valores\(x\) para los cuales\(\displaystyle\sum_{n=1}^\infty \frac{(-1)^{n-1}}{n\cdot n!} x^n\) converge la serie Maclaurin.
    48 (✳)

    Demostrar que\(\displaystyle \int_0^1\frac{x^3}{e^x-1}\,\, d{x}\le\frac{1}{3}\text{.}\)

    49 (✳)

    Let\(\displaystyle \cosh(x) =\frac{e^x+e^{-x}}{2}\text{.}\)

    1. Encuentre la expansión de la serie de potencia de\(\cosh(x)\) aproximadamente\(x_0 = 0\) y determine su intervalo de convergencia.
    2. Demostrar que\(3\frac{2}{3}\le \cosh(2) \le 3\frac{2}{3} + 0.1\text{.}\)
    3. Demuestre que\(\cosh(t) \le e^{\frac{1}{2}t^2}\) para todos\(t\text{.}\)
    50

    La ley del instrumento dice “Si tienes un martillo entonces todo parece un clavo” — es realmente una descripción de la “tendencia de los trabajos a adaptarse a las herramientas en lugar de adaptar las herramientas a los trabajos” 31. De todas formas, este es un largo camino para decir que el solo hecho de que sepamos calcular las cosas usando la serie Taylor no significa que debamos descuidar otras técnicas.

    1. Usando el método de Newton, aproxime la constante\(\sqrt[3]{2}\) como raíz de la función\(g(x)=x^3-2\text{.}\) Usando una calculadora, haga que su estimación sea precisa dentro de 0.01.
    2. Usted puede asumir sin pruebas que

      \[ \sqrt[3]{x}=1+\frac{1}{6}(x-1)+\sum_{n=2}^\infty(-1)^{n-1}\frac{(2)(5)(8)\cdots(3n-4)}{3^n\, n!}(x-1)^n. \nonumber \]

      para todos los números reales\(x\text{.}\) Utilizando el hecho de que se trata de una serie alterna, ¿cuántos términos tendrías que sumar para que la suma parcial estime\(\sqrt[3]{2}\) con un error menor a 0.01?
    51

    Dejar\(f(x)=\arctan(x^3)\text{.}\) Escribir\(f^{(10)}\left(\frac{1}{5} \right)\) como una suma de números racionales con un error menor que el\(10^{-6}\) uso de la serie Maclaurin para arcotangente.

    52

    Considere la siguiente función:

    \[ f(x)=\begin{cases} e^{-1/x^2} & x \neq 0\\ 0 & x=0 \end{cases} \nonumber \]

    1. Sketch\(y=f(x)\text{.}\)
    2. Supongamos (sin pruebas) que\(f^{(n)}(0)=0\) para todos los números enteros\(n\text{.}\) Encuentra la serie Maclaurin para\(f(x)\text{.}\)
    3. ¿Dónde\(f(x)\) converge la serie Maclaurin para?
    4. ¿Para qué valores de\(x\) es\(f(x)\) igual a su serie Maclaurin?
    53

    Supongamos que\(f(x)\) es una función impar, y\(f(x)=\displaystyle\sum_{n=0}^\infty\frac{f^{(n)}(0)}{n!}x^n\text{.}\) Simplificar\(\displaystyle\sum_{n=0}^\infty \dfrac{f^{(2n)}(0)}{(2n)!}x^{2n}\text{.}\)

    1. Por favor revise sus notas del último trimestre si este material se siente un poco desconocido.
    2. ¿Echaste un vistazo rápido a tus notas?
    3. Esta es probablemente la fórmula más utilizada para el error. Pero hay otra fórmula de uso bastante común. Éste, y algunas fórmulas menos utilizadas, se dan en la siguiente subsección (opcional) “Más sobre el resto Taylor”.
    4. Se supone que la discusión aquí solo te va a remar la memoria. Si se siente insuficientemente troteado, entonces por favor mire sus notas del último trimestre.
    5. El lector podría preguntarse si vamos a dar o no la serie para otras funciones trigonométricas o sus inversas. Si bien la función tangente tiene una serie perfectamente bien definida, sus coeficientes no son tan simples como los de las series que hemos visto —forman una secuencia de números conocidos (quizás como era de esperar) como los “números tangentes”. Ellos, y los números relacionados de Bernoulli, tienen muchas propiedades interesantes, enlaces a los que el lector interesado puede encontrar con su buscador favorito. La serie Maclaurin para seno inverso es la\(\arcsin(x) = \sum_{n=0}^\infty \frac{4^{-n}}{2n+1}\frac{(2n)!}{(n!)^2} x^{2n+1}\) cual es bastante ordenada, pero demostrando que está más allá del alcance del curso.
    6. Advertencia: letrero antiguo—juego de palabras sinusoidal. Sin duda el lector lo vio por primera vez muchos años syne.
    7. Recordemos, estudiaste esa ecuación diferencial en la sección sobre ecuaciones diferenciales separables (Teorema 2.4.4 en la Sección 2.4) así como wayyyy de nuevo en la sección sobre crecimiento exponencial y decaimiento en el cálculo diferencial.
    8. Recordemos que cuando resolvamos de una ecuación diferencial separable nuestra solución general tendrá una constante arbitraria en ella. Esa constante no se puede determinar solo a partir de la ecuación diferencial y necesitamos algunos datos extra para encontrarla. Esta información extra suele ser información sobre el sistema en su inicio (por ejemplo, cuando la posición o el tiempo es cero) —de ahí las “condiciones iniciales”. Por supuesto que el lector ya está familiarizado con esto porque fue cubierto de nuevo en la Sección 2.4.
    9. Si bien el uso de las ideas de inducción se remonta a más de 2000 años, el primer uso riguroso registrado de la inducción apareció en la obra de Levi ben Gershon (1288—1344, mejor conocido como Gersonides). La primera formulación explícita de la inducción matemática fue dada por el matemático francés Blaise Pascal en 1665.
    10. En el Teorema 3.4.38 en el texto CLP-1, asumimos, por simplicidad, que\(a\lt b\text{.}\) To get (GVMT) when \(b\lt a\) simply exchange \(a\) and \(b\) in Theorem 3.4.38.
    11. Tenga en cuenta que la función no\(G\) necesita estar relacionada con\(f\). Simplemente tiene que ser diferenciable con un derivado distinto de cero.
    12. El cómputo de\(\pi\) tiene una historia muy, muy larga y tu buscador favorito te dará la vuelta a muchos sitios que exploran el tema. Para una historia más completa se puede recurrir a libros como “Una historia de Pi” de Petr Beckmann y “La alegría de\(\pi\)” de David Blatner.
    13. Si no sabes lo que esto significa (perdona el juego de palabras) no te preocupes, porque no forma parte del curso. La desviación estándar es una forma de cuantificar la variación dentro de una población.
    14. Podríamos conseguir que un sistema de álgebra computacional lo hiciera por nosotros sin mucha dificultad —pero no aprenderíamos mucho en el proceso. El objetivo de este ejemplo es ilustrar que se puede hacer más que solo representar una función con la serie Taylor. Más sobre esto en la siguiente sección.
    15. ¡Comprueba el derivado!
    16. Los autores esperan que a estas alturas todos “sepamos” que\(e\) is between 2 and 3, but maybe we don't know how to prove it.
    17. Aquí no queremos dar una cartilla sobre números imaginarios y complejos. El lector interesado puede comenzar por mirar el Apéndice B.
    18. Cabe mencionar aquí que la historia de este tema es quizás un poco dura para Roger Cotes (1682-1716) quien fue uno de los matemáticos más fuertes de su tiempo y colaborador de Newton. Cotes publicó un artículo sobre logaritmos en 1714 en el que afirma\(ix = \log( \cos x + i \sin x).\). (después de traducir sus resultados a una notación más moderna). Demostró este resultado calculando de dos maneras diferentes la superficie de una elipse girada alrededor de un eje e igualando los resultados. Desafortunadamente Cotes murió solo 2 años después a la edad de 33 años. Al enterarse de su muerte, se supone que Newton dijo “Si hubiera vivido, podríamos haber sabido algo”. El lector podría pensar que esta es una declaración bastante débil, sin embargo viniendo de Newton fue un gran elogio.
    19. Estamos escondiendo algunas matemáticas detrás de esto “consecuentemente”. Lo que realmente estamos utilizando nuestro conocimiento de los polinomios de Taylor para escribir\(f(x) = \sin(x) = x-\frac{1}{3!}x^3+\frac{1}{5!}x^5 + E_5(x)\) dónde\(E_5(x) = \frac{f^{(6)}(c)}{6!} x^6\) y\(c\) está entre 0 y\(x\). Efectivamente estamos escondiendo “\(E_5(x)\)” dentro del “”. Ahora podemos dividir ambos lados por\(x\) (asumiendo\(x \neq 0\)):\(\frac{\sin(x)}{x} = 1-\frac{1}{3!}x^2+\frac{1}{5!}x^4 + \frac{E_5(x)}{x}.\) y todo está bien siempre que el término\(\frac{E_5(x)}{x}\) se mantenga bien portado.
    20. Muchos de ustedes aprendieron sobre la regla de L'hôptial en la escuela y todos ustedes deberían haberla visto el último trimestre en su curso de cálculo diferencial.
    21. Se necesitan 3 aplicaciones de la regla de L'hôpital y un poco de limpieza cuidadosa de las expresiones intermedias. ¡Oof!
    22. Aunque hubo algunos comentarios en una nota al pie de página.
    23. Vale la pena señalar que nuestra serie Taylor debe ampliarse sobre el punto al que estamos limitando —es decir, a. para elaborar un límite ya que\(x\to a\) necesitamos que la serie Taylor se expanda sobre aa y no algún otro punto.
    24. Para ser precisos,\(C\) y\(D\) no dependan de\(x\text{,}\) aunque pueden, y generalmente lo hacen, depender de\(m\text{.}\)
    25. Recuerda eso\(n! = 1\times 2\times 3\times \cdots\times n\text{,}\) y que usamos la convención\(0!=1\text{.}\)
    26. No es demasiado difícil hacer esto riguroso utilizando el principio de inducción matemática. El lector interesado debería hacer un poco de busqueda de motor. La inducción es una técnica muy estándar para probar declaraciones de la forma “Por cada número natural\(n\text{,}\)...”. Por ejemplo\(\text{For every natural number $n$, } \sum_{k=1}^n k = \frac{n(n+1)}{2}\text{,}\) o\ (\ text {Por cada número natural $n$,}\ frac {d^ {n}} {dx^ {n}}\ left\ {\ log (1+x)\ right\} = (-1) ^ {n-1}\ frac {(n-1)!} {(1+x) ^n}
      \ text {.}\) También fue utilizado por Polya (1887—1985) para dar una prueba muy convincente (pero sutil (y deliberadamente) defectuosa) de que todos los caballos tienen el mismo color.
    27. Desde\(|c|\leq \frac{1}{2}\text{,}\) \(-\frac{1}{2} \leq c \leq \frac{1}{2}\text{.}\) If we now add 1 to every term we get \(\frac{1}{2} \leq 1+c \leq \frac{3}{2}\) and so \(|1+c| \geq \frac{1}{2}\text{.}\) You can also do this with the triangle inequality which tells us that for any \(x,y\) we know that \(|x+y| \leq |x|+|y|\text{.}\) Actually, you want the reverse triangle inequality (which is a simple corollary of the triangle inequality) which says that for any \(x,y\) we have \(|x+y| \geq \big||x|-|y| \big|\text{.}\)
    28. El uso de la regla de L'hôpital aquí podría caracterizarse como una “decisión valiente”. El lector interesado debe buscar-motor su camino a Sir Humphrey Appleby y “Yes Minister” para entender mejor esta referencia (y el funcionamiento del gobierno en el sistema de Westminster). Siendo la discreción la mejor parte del valor, nos detendremos y pensaremos un poco antes de limitar (ja) nuestras elecciones.
    29. En nuestra derivación de\(\log(1+X) = X +O(X^2)\) en el Ejemplo 3.6.29, solo requerimos eso\(|X|\le\frac{1}{2}\text{.}\) Así que somos libres de sustituir\(X= -\frac{1}{3!}x^2+O(x^4)\) a cualquiera\(x\) que sea lo suficientemente pequeña que\(\big|-\frac{1}{3!}x^2+O(x^4)\big| \lt \frac{1}{2}\text{.}\)
    30. ¡Por supuesto que lo es! En realidad, la tangente hiperbólica es\(\mathrm{tanh}(x) = \dfrac{e^x-e^{-x}}{e^x+e^{-x}}\text{,}\) y la tangente hiperbólica inversa es su inversa funcional.
    31. Cita de Simulación por Computación de la Personalidad: Frontera de la Teoría Psicológica de Silvan Tomkins. Ver también Destornilladores Birmingham.

    This page titled 3.6: Serie Taylor is shared under a CC BY-NC-SA 4.0 license and was authored, remixed, and/or curated by Joel Feldman, Andrew Rechnitzer and Elyse Yeager via source content that was edited to the style and standards of the LibreTexts platform; a detailed edit history is available upon request.