Loading [MathJax]/jax/output/HTML-CSS/jax.js
Saltar al contenido principal
Library homepage
 

Text Color

Text Size

 

Margin Size

 

Font Type

Enable Dyslexic Font
LibreTexts Español

C.2 El comportamiento de error del método de Newton

( \newcommand{\kernel}{\mathrm{null}\,}\)

El método de Newton suele funcionar espectacularmente bien, siempre que tu suposición inicial esté razonablemente cerca de una solución def(x)=0. Una buena manera de seleccionar esta suposición inicial es bosquejar la gráfica de Ahoray=f(x). explicamos por qué “el método de Newton suele funcionar espectacularmente bien, siempre que tu suposición inicial sea razonablemente cerca de una solución def(x)=0”.

rSea cualquier solución def(x)=0. Entoncesf(r)=0. Supongamos que ya hemos calculadoxn. El error enxn es Ahora|xnr|. derivamos una fórmula que relaciona el error después del siguiente paso,|xn+1r|, a|xnr|. Hemos visto en (3.4.32) que

\ begin {reunir*} f (x) =f (x_n) +f' (x_n) (x-x_n) +\ frac {1} {2} f "(c) (x-x_n) ^2\ end {reunir*}

para algunosc entrexn yx. En particular, elegirx=r,

0=f(r)=f(xn)+f(xn)(rxn)+12f(c)(rxn)2

Recordemos quexn+1 es la solución de0=f(xn)+f(xn)(xxn). So

0=f(xn)+f(xn)(xn+1xn)

Necesitamos obtener una expresión paraxn+1r. restar (E2) de (E1) da

\ begin {align*} 0=f' (x_n) (r-x_ {n+1}) +\ frac {1} {2} f "(c) (r-x_n) ^2\ &\ implica\ x_ {n+1} -r=\ frac {f" (c)} {2f' (x_n)} (x_n-r) ^2\\ &\ implica\\ big|x_ {n+1} -r\ big| =\ frac {|f "(c) |} {2|f' (x_n) |} |x_n-r|^2\ end {align*}

Si la conjeturaxn es cercana ar, entoncesc, que debe estar entrexn y tambiénr, está cerca der y vamos a tenerf(c)f(r) yf(xn)f(r) y

|xn+1r||f(r)|2|f(r)||xnr|2

Incluso cuando noxn está cerca der, si sabemos que hay dos númerosL,M>0 tales quef obedece:

  1. |f(xn)|L
  2. |f(c)|M

(veremos ejemplos de esto a continuación) entonces tendremos

|xn+1r|M2L|xnr|2

Denotemos porε1 el error,|x1r|, de nuestra suposición inicial. De hecho, denotemos porεn el error,|xnr|, enxn. Entonces (E4) dice

εn+1M2Lε2n

En particular

\ begin {alignat*} {3}\ varepsilon_2&\ le\ frac {M} {2L}\ varepsilon_1^2\\ varepsilon_3&\ le\ frac {M} {2L}\ varepsilon_2^2 & &\ le\ frac {M} {2L}\ izquierda (\ frac {M} {2L}\ varepsilon_1^2\ derecha) ^2 & & =\ izquierda (\ frac {M} {2L}\ derecha) ^3\ varepsilon_1^4\\ varepsilon_4&\ le\ frac {M} {2L}\ varepsilon_3^2 & & amp;\ le\ frac {M} {2L}\ izquierda [\ izquierda (\ frac {M} {2L}\ derecha) ^3\ varepsilon_1^4\ derecha] ^2 & & =\ izquierda (\ frac {M} {2L}\ derecha) ^7\ varepsilon_1^8\\ varepsilon_5& le\\ frac {M} {2L}\ varepsilon_4^2 & &\ le\ frac {M} {2L}\ izquierda [\ izquierda (\ frac {M} {2L}\ derecha) ^7\ varepsilon_1^8\ derecha] ^2 & & =\ izquierda (\ frac {M} {2L}\ derecha) ^ {15}\ varepsilon_1^ {16}\ end {alignat*}

A estas alturas podemos ver la formación de un patrón, que se verifica fácilmente por inducción 1 La inducción matemática es una técnica para probar una secuenciaS1, S2, S3, of statements. That technique consists of first proving that S1 is true, and then proving that, for any natural number n, if Sn is true then Sn+1 is true..

εn(M2L)2n11ε2n11=2LM(M2Lε1)2n1

Siempre y cuandoM2Lε1<1 (lo que nos da una idea cuantitativa de lo buena que tiene que ser nuestra primera suposición para que el método de Newton funcione), esto va a cero extremadamente rápido a medida quen aumenta. Por ejemplo, supongamos queM2Lε112. Entonces

εn2LM(12)2n12LM{0.25if n=20.0625if n=30.0039=3.9×103if n=40.000015=1.5×105if n=50.00000000023=2.3×1010if n=60.000000000000000000054=5.4×1020if n=7

Cada vez quen aumentas en uno, el número de ceros después del decimal se duplica aproximadamente. Se puede ver por qué desde (E5). Desde

(M2Lε1)2(n+1)1=(M2Lε1)2n1×2=[(M2Lε1)2n1]2

tenemos, en términos muy generales,εn+1ε2n. Este comportamiento cuadrático es la razón por la que el método de Newton es tan útil.

Ejemplo C.2.1 (Ejemplo C.1.2, continuación).

Consideremos, como hicimos en el Ejemplo C.1.2,f(x)=x22, comenzando conx1=32. Entonces

f(x)=2xf(x)=2

Recordando, de (H1) y (H2), queL es un límite inferior en|f| yM es un límite superior en ciertamente|f|, podemos tomarM=2 y si, por ejemplo,xn1 para todosn (como sucedió en el Ejemplo C.1.2), podemos tomarL=2 también. Si bien no sabemos quér es, sí sabemos eso1r2 (desdef(1)=112<0 yf(2)=222>0). Como tomamosx1=32, tenemosε1=|x1r|12, para queM2Lε114 y

εn+12LM(M2Lε1)2n12(14)2n1

Esto tiende a cero muy rápidamente a medida quen aumenta. Además, este es un límite superior en el error y no en el error real. De hecho (E6) es un límite superior muy crudo. Por ejemplo, la configuraciónn=3 da el límite

ε42(14)22=7×103

y vimos en el Ejemplo C.1.2 que el error real enx4 era menor que5×1010.

Ejemplo C.2.2 (Ejemplo C.1.3, continuación).

Consideremos, como hicimos en el Ejemplo C.1.3,f(x)=sinx, comenzando conx1=3. Entonces

\ begin {reunir*} f' (x) =\ cos x\ qquad f "(x) =-\ sin x\ fin {reunir*}

Como ciertamente|sinx|1, podemos tomarM=1. En el Ejemplo C.1.3, todosxn estaban entre3 y3.2. Desde (a tres decimales)

\ comenzar {reunir*}\ sin (3) =0.141>0\ qquad\ sin (3.2) =-0.058\ lt 0\ end {reunir*}

el IVT (teorema del valor intermedio) nos dice que3<r<3.2 yε1=|x1r|<0.2.

Asír y todosxn y por lo tanto todosc se encuentran en el intervalo(3,3.2). Desde

\ begin {reunir*} -0.9990=\ cos (3)\ lt\ cos c\ lt\ cos (3.2) =- 0.9983\ end {reunir*}

necesariamente tenemos|f(c)|=|cosc|0.9 y podemos tomarL=0.9. tan

\ begin {reunir*}\ varepsilon_ {n+1}\ le\ frac {2L} {M}\ izquierda (\ frac {M} {2L}\ varepsilon_1\ derecha) ^ {2^ {n-1}}\ le\ frac {2\ tiempos0.9} {1}\ izquierda (\ frac {1} {2\ tiempo0.9} 0.2\ derecha) ^ {2^ {n-1}}\ le 2\ izquierda (\ frac {1} {9}\ derecha) ^ {2^ {n-1}}\ end {reunir*}

Esto tiende a cero muy rápidamente a medida quen aumenta.

Ahora hemos visto dos procedimientos para encontrar raíces de una funciónf(x): el método de la bisección (que no usa la derivada def(x), pero que no es muy eficiente) y el método de Newton (que utiliza la derivada def(x), y que es muy eficiente). De hecho, hay toda una constelación de otros métodos 2 ¿Qué dice de los matemáticos que han desarrollado tantas formas de encontrar cero? y el lector interesado debe buscar su camino hacia, por ejemplo, el artículo de Wikipedia sobre algoritmos de búsqueda de raíces. Aquí, solo mencionaremos otros dos métodos, siendo uno una variante del método de la bisección y el otro una variante del método de Newton.


This page titled C.2 El comportamiento de error del método de Newton is shared under a CC BY-NC-SA 4.0 license and was authored, remixed, and/or curated by Joel Feldman, Andrew Rechnitzer and Elyse Yeager via source content that was edited to the style and standards of the LibreTexts platform.

Support Center

How can we help?