Loading [MathJax]/jax/output/HTML-CSS/jax.js
Saltar al contenido principal
Library homepage
 

Text Color

Text Size

 

Margin Size

 

Font Type

Enable Dyslexic Font
LibreTexts Español

2.6: Optimización sin restricciones: métodos numéricos

( \newcommand{\kernel}{\mathrm{null}\,}\)

Los tipos de problemas que resolvimos en la sección anterior fueron ejemplos de problemas de optimización sin restricciones. Es decir, intentamos encontrar puntos locales (y quizás incluso globales) máximos y mínimos de funciones de valor realf(x,y), donde los puntos(x,y) pudieran ser cualquier punto en el dominio def. El método que utilizamos nos requirió encontrar los puntos críticos def, lo que significaba tener que resolver la ecuaciónf=0, que en general es un sistema de dos ecuaciones en dos incógnitas (x and y). Si bien esto fue relativamente sencillo para los ejemplos que hicimos, en general este no será el caso. Si las ecuaciones involucran polinomios enx and y grado tres o superior, o expresiones complicadas que involucran funciones trigonométricas, exponenciales o logarítmicas, entonces resolver incluso una de esas ecuaciones, y mucho menos dos, podría ser imposible por medios elementales.

Por ejemplo, si una de las ecuaciones que había que resolver era

x3+9x2=0,

es posible que tenga dificultades para obtener las soluciones exactas. Prueba y error no ayudaría mucho, sobre todo porque la única solución real resulta ser

328+13281.

En una situación como esta, la única opción puede ser encontrar una solución usando algún método numérico que dé una secuencia de números que converjan a la solución real. Por ejemplo, el método de Newton para resolver ecuacionesf(x)=0, que probablemente aprendiste en el cálculo de una sola variable. En esta sección describiremos otro método de Newton para encontrar puntos críticos de funciones de valor real de dos variables.

Dejarf(x,y) ser una función de valor real suave, y definir

D(x,y)=2fx2(x,y)2fy2(x,y)(2fyx(x,y))2

Algoritmo de Newton: Escoge un punto inicial(x0,y0). Paran = 0,1,2,3,..., defina:

xn+1=xn|2fy2(xn,yn)2fxy(xn,yn)fy(xn,yn)fx(xn,yn)|D(xn,yn),yn+1=yn|2fx2(xn,yn)2fxy(xn,yn)fx(xn,yn)fy(xn,yn)|D(xn,yn)

Entonces la secuencia de puntos(xn,yn)n=1 converge a un punto crítico. Si hay varios puntos críticos, entonces tendrás que probar diferentes puntos iniciales para encontrarlos.

f(x,y)=x3xyx+xy3y4 for 1x0 and 0y1

La derivación del algoritmo de Newton, y la prueba de que converge (dada una elección “razonable” para el punto inicial) requiere técnicas más allá del alcance de este texto. Ver RALSTON y RABINOWITZ para más detalles y para discusión de otros métodos numéricos. Nuestra descripción del algoritmo de Newton es el caso especial de dos variables de un algoritmo más general que se puede aplicar a funciones den2 variables.

En el caso de funciones que tienen un máximo o mínimo global, el algoritmo de Newton puede ser utilizado para encontrar esos puntos. En general, los máximos y mínimos globales tienden a ser más interesantes que las versiones locales, al menos en aplicaciones prácticas. Un problema de maximización siempre se puede convertir en un problema de minimización (¿por qué?) , por lo que se han desarrollado un gran número de métodos para encontrar el mínimo global de funciones de cualquier número de variables. Este campo de estudio se llama programación no lineal. Muchos de estos métodos se basan en la técnica de descenso más pronunciada, la cual se basa en una idea que discutimos en la Sección 2.4. Recordemos que el gradiente negativof da la dirección de la tasa más rápida de disminución de una funciónf. El quid de la idea de descenso más empinada, entonces, es que a partir de algún punto inicial, se mueve cierta cantidad en la dirección def en ese punto. Dondequiera que eso te lleve se convierte en tu nuevo punto, y luego sigues repitiendo ese procedimiento hasta que finalmente (ojalá) llegues al punto donde f tiene su valor más pequeño. Existe un método de descenso “puro” más empinado, y una multitud de variaciones en él que mejoran la tasa de convergencia, facilidad de cálculo, etc. De hecho, el algoritmo de Newton puede interpretarse como un método de descenso más empinado modificado. Para mayor discusión de esto, y de la programación no lineal en general, ver BAZARAA, SHERALI y SHETTY.

Colaboradores y Atribuciones


This page titled 2.6: Optimización sin restricciones: métodos numéricos is shared under a GNU Free Documentation License 1.3 license and was authored, remixed, and/or curated by Michael Corral.

Support Center

How can we help?