Loading [MathJax]/jax/element/mml/optable/GeneralPunctuation.js
Saltar al contenido principal
Library homepage
 

Text Color

Text Size

 

Margin Size

 

Font Type

Enable Dyslexic Font
LibreTexts Español

C.5 El comportamiento de error del método secante

( \newcommand{\kernel}{\mathrm{null}\,}\)

Dejarf(x) tener dos derivadas continuas, y dejarr ser cualquier solución de Ahoraf(x)=0. vamos a obtener un manejo bastante bueno sobre el comportamiento de error del método secante cercar.

Denote por˜εn=xnr el error (firmado) enxn y porεn=|xnr| el error (absoluto) enxn. Entonces,xn=r+˜εn, y, por (C.4.1),

\ begin {align*}\ tilde\ varepsilon_ {n+1} & =\ frac {x_ {n-1} f (x_n) - x_n f (x_ {n-1})} {f (x_n) -f (x_ {n-1})} -r\\ & =\ frac {[r+\ tilde\ varepsilon_ {n-1}] f (x_n) - [r+\ tilde\ varepsilon_n] f (x_ {n-1})} {f (x_n) -f (x_ {n-1})} -r\\ & =\ frac {\ tilde\ varepsilon_ {n-1} f (x_n) -\ tilde\ varepsilon_ _n f (x_ {n-1})} {f (x_n) - f (x_ {n-1})}\ final {alinear*}

Por la expansión de Taylor (3.4.32) y el teorema del valor medio (Teorema 2.13.5),

\ begin {align*} f (x_n) & = f (r) + f' (r)\ tilde\ varepsilon_n +\ frac {1} {2} f "(c_1)\ tilde\ varepsilon_n^2\\ & = f' (r)\ tilde\ varepsilon_n +\ frac {1} {2} f" (c_1)\ tilde\ varepsilon_n^2\\ f (x_n) -f (x_ {n-1}) & = f' (c_2) [x_n-x_ {n-1}]\\ & = f' (c_2) [\ tilde\ varepsilon_n-\ tilde\ varepsilon_ {n-1}]\ end {alinear*}

para algunosc1 entrer yxn y algunosc2 entrexn1 yxn. Entonces, paraxn1 yxn cercar,c1 yc2 también tienen que estar cercar y

\ begin {align*} f (x_n) &\ approx f' (r)\ tilde\ varepsilon_n +\ frac {1} {2} f "(r)\ tilde\ varepsilon_n^2\\ f (x_ {n-1}) &\ approx f' (r)\ tilde\ varepsilon_ {n-1} +\ frac {1} {2} f" (r)\ tilde\ varepsilon_ {n-1} ^2\\ f (x_n) -f (x_ {n-1}) &\ approx f' (r) [\ tilde\ varepsilon_n-\ tilde\ varepsilon_ {n-1}]\ end {align*}

y

\ begin {alinear*}\ tilde\ varepsilon_ {n+1} & =\ frac {\ tilde\ varepsilon_ {n-1} f (x_n) -\ tilde\ varepsilon_n f (x_ {n-1})} {f (x_n) -f (x_ {n-1})}\\ &\ aprox {\ tilde\ varepsilon_ {n-1} [f' (r)\ tilde\ varepsilon_n +\ frac {1} {2} f "(r)\ tilde\ varepsilon_n^2] -\ tilde\ varepsilon_n [f' (r)\ tilde\ varepsilon_ {n-1} +\ frac {1} {2} f "(r)\ tilde\ varepsilon_ {n-1} ^2]} {f' (r) [\ tilde\ varepsilon_n-\ tilde\ varepsilon_ {n-1}]}\\ & =\ frac {\ frac {1} {2}\ tilde\ varepsilon_ {n-1}\ tilde\ varepsilon_nf" (r) [\ tilde\ varepsilon_n-\ tilde\ varepsilon_ {n-1}]} {f' (r) [\ tilde\ varepsilon_n-\ tilde\ varepsilon_ {n-1}]}\\ & =\ frac {f "(r)} {2f' (r)}\ tilde\ varepsilon_ {n-1}\ tilde\ varepsilon_n\ final {alinear*}

Tomando valores absolutos, tenemos

εn+1Kεn1εnwith K=|f

Hemos visto que el método de Newton obedece a una fórmula similar — (E3) dice que, cuandox_n está cerca el método der\text{,} Newton obedece\varepsilon_{n+1}\approx K\varepsilon_n^2\text{,} también conK = \left|\frac{f''(r)} {2f'(r)} \right|\text{.} Como veremos ahora, el cambio de\varepsilon_n^2\text{,} in\varepsilon_{n+1}\approx K\varepsilon_n^2\text{,} a\varepsilon_{n-1}\varepsilon_n\text{,} in\varepsilon_{n+1}\approx K\varepsilon_{n-1}\varepsilon_n\text{,} sí tiene un impacto sustancial en el comportamiento de \varepsilon_npara grandesn\text{.}

Para ver eln comportamiento grande, ahora iteramos (E7). Las fórmulas se verán más simples si multiplicamos (E7) porK y escribimos\delta_n=K\varepsilon_n\text{.} Entonces (E7) se convierte\delta_{n+1}\approx\delta_{n-1}\delta_n (y hemos eliminadoK). Las primeras iteraciones son

\ begin {alignat*} {2}\ delta_2& & &\ approx\ delta_0\ delta_1\\ delta_3&\ approx\ delta_1\ delta_2 & &\ approx\ delta_0\ delta_1^2\\ delta_4&\ approx\ delta_2\ delta_3 &\ approx\ delta_0^2\ delta_1^3\\\ delta_5&\ approx\ delta_3\ delta_4 & &\ approx\ delta_0^3\ delta_ 1^5\\ delta_6&\ approx\ delta_4\ delta_5 & &\ approx\ delta_0^5\ delta_1^8\\ delta_7&\ approx\ delta_5\ delta_6 & &\ approx\ delta_0^8\ delta_1^ {13}\ end {alignat*}

Observe que cada\delta_n es de la forma\delta_0^{\alpha_n}\delta_1^{\beta_n}\text{.} Sustituir\delta_n=\delta_0^{\alpha_n}\delta_1^{\beta_n} en\delta_{n+1}\approx\delta_{n-1}\delta_n da

\delta_0^{\alpha_{n+1}}\delta_1^{\beta_{n+1}} \approx \delta_0^{\alpha_{n-1}}\delta_1^{\beta_{n-1}} \delta_0^{\alpha_n}\delta_1^{\beta_n} \nonumber

y tenemos

\alpha_{n+1}=\alpha_{n-1}+\alpha_{n} \qquad \beta_{n+1}=\beta_{n-1}+\beta_{n} \tag{E8} \nonumber

La regla de recursión en (E8) es famosa 1. La secuencia de Fibonacci 2 (que es0\text{,}1\text{,}1\text{,}2\text{,}3\text{,}5\text{,}8\text{,}13\text{,}\cdots), se define por

\ begin {align*} F_0& =0\\ F_1& =1\\ F_n& =F_ {n-1} +F_ {n-2}\ qquad\ text {for} n>1\ end {align*}

Entonces, paran\ge 2\text{,}\alpha_n = F_{n-1} y\beta_n=F_n y

\delta_n \approx \delta_0^{\alpha_n}\delta_1^{\beta_n} = \delta_0^{F_{n-1}}\delta_1^{F_n} \nonumber

Una de las propiedades conocidas de la secuencia de Fibonacci es que, paran\text{,}

F_n\approx\frac{\varphi^n}{\sqrt{5}}\qquad\text{where } \varphi=\frac{1+\sqrt{5}}{2} \approx 1.61803 \nonumber

Esta\varphi es la proporción áurea 3. Entonces, para grandesn\text{,}

\ begin {alinear*} K\ varepsilon_n & =\ delta_n\ approx\ delta_0^ {F_ {n-1}}\ delta_1^ {f_n}\ approx\ delta_0^ {\ frac {\ varphi^ {n-1}} {\ sqrt {5}}\ delta_1^ {\ frac {\ varphi^ {\ varphi^ {\ varphi^ {\ sqrt {5}}\ delta_1^ {\ frac {\ ^n} {\ sqrt {5}}} =\ delta_0^ {\ frac {1} {\ sqrt {5}\ varphi}\ veces\ varphi^n}\ delta_1^ {\ frac {1} {\ sqrt {5}}\ veces\ varphi^n}\\ & = d^ {\ varphi^n}\ qquad\ text { donde}\ quad d=\ delta_0^ {\ frac {1} {\ sqrt {5}\,\ varphi}}\ delta_1^ {\ frac {1} {\ sqrt {5}}}\\ &\ aprox d^ {1.6^n}\ end {align*}

Suponiendo que0\lt \delta_0=K\varepsilon_0\lt 1 y0\lt \delta_1=K\varepsilon_1\lt 1\text{,} vamos a tener0\lt d\lt 1\text{.}

A modo de contraste, para el método de Newton, para grandesn\text{,}

\ begin {reunir*} K\ varepsilon_n\ aprox d^ {2^n}\ qquad\ text {donde}\ quad d= (K\ varepsilon_1) ^ {1/2}\ end {reunir*}

Como2^n crece bastante más rápido que1.6^n (por ejemplo, cuando n=5,2^n=32 y cuándo1.6^n=10.5\text{,}n=10\text{,}2^n=1024 y1.6^n=110) el método de Newton se casa en la raíz bastante más rápido que el método secante, asumiendo que comienzas razonablemente cerca de la raíz.


This page titled C.5 El comportamiento de error del método secante is shared under a CC BY-NC-SA 4.0 license and was authored, remixed, and/or curated by Joel Feldman, Andrew Rechnitzer and Elyse Yeager via source content that was edited to the style and standards of the LibreTexts platform.

Support Center

How can we help?