Saltar al contenido principal
LibreTexts Español

3.4: Aproximaciones de segundo orden

  • Page ID
    111722
  • \( \newcommand{\vecs}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} } \) \( \newcommand{\vecd}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash {#1}}} \)\(\newcommand{\id}{\mathrm{id}}\) \( \newcommand{\Span}{\mathrm{span}}\) \( \newcommand{\kernel}{\mathrm{null}\,}\) \( \newcommand{\range}{\mathrm{range}\,}\) \( \newcommand{\RealPart}{\mathrm{Re}}\) \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\) \( \newcommand{\Argument}{\mathrm{Arg}}\) \( \newcommand{\norm}[1]{\| #1 \|}\) \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\) \( \newcommand{\Span}{\mathrm{span}}\) \(\newcommand{\id}{\mathrm{id}}\) \( \newcommand{\Span}{\mathrm{span}}\) \( \newcommand{\kernel}{\mathrm{null}\,}\) \( \newcommand{\range}{\mathrm{range}\,}\) \( \newcommand{\RealPart}{\mathrm{Re}}\) \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\) \( \newcommand{\Argument}{\mathrm{Arg}}\) \( \newcommand{\norm}[1]{\| #1 \|}\) \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\) \( \newcommand{\Span}{\mathrm{span}}\)\(\newcommand{\AA}{\unicode[.8,0]{x212B}}\)

    En el cálculo de una variable, los polinomios de Taylor proporcionan una forma natural de extender las mejores aproximaciones afinas a aproximaciones de polinomios de orden superior. Es posible generalizar estas ideas a funciones de valor escalar de dos o más variables, pero la teoría rápidamente se vuelve involucrada y técnica. En esta sección nos contentaremos meramente con señalar el camino con una discusión de polinomios Taylor de segundo grado. Incluso en este nivel, lo mejor es dejar explicaciones completas para un curso de cálculo avanzado.

    Derivados de orden superior

    El primer paso es introducir derivados de orden superior. Si\(f: \mathbb{R}^{n} \rightarrow \mathbb{R}\) tiene derivadas parciales que existen en un conjunto abierto\(U\), entonces, para cualquiera\(i=1,2,3, \ldots, n, \frac{\partial f}{\partial x_{i}}\) es en sí misma una función de\(\mathbb{R}^n\) a\(\mathbb{R}\). Las derivadas parciales de\(\frac{\partial f}{\partial x_{i}}\), si existen, se denominan derivadas parciales de segundo orden de\(f\). Podemos denotar la derivada parcial de\(\frac{\partial f}{\partial x_{i}}\) con respecto a\(x_{j}, j=1,2,3, \ldots\), evaluada en un punto\(\mathbf{x}\), por cualquiera\(\frac{\partial^{2}}{\partial x_{j} \partial x_{i}} f(\mathbf{x})\), o\(f_{x_{i} x_{j}}(\mathbf{x})\), o\(D_{x_{i} x_{j}} f(\mathbf{x})\). Obsérvese el orden en que se escriben las variables; es posible que diferenciar primero con respecto\(x_i\) y segundo con respecto\(x_j\) arroje un resultado diferente al de si el orden fuera invertido.

    Si\(j=i\), escribiremos\(\frac{\partial^{2}}{\partial x_{i}^{2}} f(\mathbf{x})\) para\(\frac{\partial^{2}}{\partial x_{i} \partial x_{i}} f(\mathbf{x})\). Por supuesto, es posible extender esta notación a las derivadas de tercera, cuarta y de orden superior.

    Ejemplo\(\PageIndex{1}\)

    Supongamos\(f(x, y)=x^{2} y-3 x \sin (2 y)\). Entonces

    \[ f_{x}(x, y)=2 x y-3 \sin (2 y) \nonumber \]

    y

    \[ f_{y}(x, y)=x^{2}-6 x \cos (2 y) , \nonumber \]

    por lo

    \ [\ comenzar {reunido}
    f_ {x x} (x, y) =2 y,\\
    f_ {x y} (x, y) =2 x-6\ cos (2 y),\\
    f_ {y y} (x, y) =12 x\ sin (2 y),
    \ final {reunido}\]

    y

    \[ f_{y x}(x, y)=2 x-6 \cos (2 y) . \nonumber \]

    Obsérvese que, en este ejemplo,\(f_{x y}(x, y)=f_{y x}(x, y)\). Para un ejemplo de un derivado de tercer orden,

    \[ f_{y x y}(x, y)=12 \sin (2 y) . \nonumber \]

    Ejemplo\(\PageIndex{2}\)

    Supongamos\(w=x y^{2} z^{3}-4 x y \log (z)\). Entonces, por ejemplo,

    \[ \frac{\partial^{2} w}{\partial y \partial x}=\frac{\partial}{\partial y}\left(\frac{\partial w}{\partial x}\right)=\frac{\partial}{\partial y}\left(y^{2} z^{3}-4 y \log (z)\right)=2 y z^{3}-4 \log (z) \nonumber \]

    y

    \[ \frac{\partial^{2} w}{\partial z^{2}}=\frac{\partial}{\partial z}\left(\frac{\partial w}{\partial z}\right)=\frac{\partial}{\partial z}\left(3 x y^{2} z^{2}-\frac{4 x y}{z}\right)=6 x y^{2} z+\frac{4 x y}{z^{2}} . \nonumber \]

    Además,

    \[ \frac{\partial^{2} w}{\partial x \partial y}=\frac{\partial}{\partial x}\left(\frac{\partial w}{\partial y}\right)=\frac{\partial}{\partial x}\left(2 x y z^{3}-4 x \log (z)\right)=2 y z^{3}-4 \log (z) , \nonumber \]

    y así

    \[ \frac{\partial^{2} w}{\partial y \partial x}=\frac{\partial^{2} w}{\partial x \partial y} . \nonumber \]

    En ambos ejemplos hemos visto instancias en las que las derivadas parciales mixtas de segundo orden, es decir, las derivadas parciales de segundo orden con respecto a dos variables diferentes, tomadas en diferentes órdenes son iguales. Esto no siempre es así, pero sí sigue si asumimos que ambas derivadas parciales mixtas en cuestión son continuas.

    Definición\(\PageIndex{1}\)

    Decimos que una función\(f: \mathbb{R}^{n} \rightarrow \mathbb{R}\) está\(C^2\) en un conjunto abierto\(U\) si\(f_{x_{j} x_{i}}\) es continuo encendido\(U\) para cada\(i=1,2, \ldots, n\) y\(j=1,2, \ldots, n\).

    Teorema\(\PageIndex{1}\)

    Si\(f\) está\(C^2\) en una bola abierta que contiene un punto\(\mathbf{c}\), entonces

    \[ \frac{\partial^{2}}{\partial x_{j} \partial x_{i}} f(\mathbf{c})=\frac{\partial^{2}}{\partial x_{i} \partial x_{j}} f(\mathbf{c}) \nonumber \]

    para\(i=1,2, \ldots, n\) y\(j=1,2, \ldots, n\).

    Si bien contamos con las herramientas para verificar este resultado, dejaremos la justificación para un curso más avanzado.

    Veremos que es conveniente utilizar una matriz para disponer las segundas derivadas parciales de una función\(f\). Si\(f: \mathbb{R}^{n} \rightarrow \mathbb{R}\), hay\(n^2\) segundas derivadas parciales y esta matriz lo será\(n \times n\).

    Definición\(\PageIndex{2}\)

    Supongamos que las derivadas parciales de segundo orden de\(f: \mathbb{R}^{n} \rightarrow \mathbb{R}\) todas existen en el punto\(\mathbf{c}\). Llamamos a la\(n \times n\) matriz

    \ [H f (\ mathbf {c}) =\ left [\ begin {array} {ccccc}
    \ frac {\ parcial^ {2}} {\ parcial x_ {1} ^ {2}} f (\ mathbf {c}) &\ frac {\ parcial^ {2}} {\ parcial x_ {2}\ parcial x_ {1}} f (\ mathbf {c}) &\ frac {\ parcial^ {2}} {\ parcial x_ {3}\ parcial x_ {1}} f (\ mathbf {c}) &\ cdots &\ frac {\ parcial^ {2}} {\ parcial x_ {n}\ parcial x_ {1}} f (\ mathbf {c})\
    \ frac {\ parcial^ {2}} {\ parcial x_ {1}\ parcial x_ {2}} f (\ mathbf {c}) &\ frac {\ parcial^ {2}} {\ parcial x_ {2} ^ {2}} f (\ mathbf {c}) &\ frac {\ parcial^ {2}} {\ parcial x_ {3}\ parcial x_ {2}} f (\ mathbf {c}) &\ cdots &\ frac {\ parcial^ {2}} {\ parcial x_ {n}\ parcial x_ {2}} f (\ mathbf {c})\
    \ frac {\ parcial^ {2}} {\ parcial x_ {1}\ parcial x_ {3}} f (\ mathbf {c}) &\ frac {\ parcial^ {2}} {\ parcial x_ {2}\ parcial x_ {3}} f (\ mathbf {c}) &\ frac {\ parcial^ {2}} {\ parcial x_ {3} ^ {2}} f (\ mathbf {c}) &\ cdots &\ frac {\ parcial^ {2}} {\ parcial x_ {n}\ parcial x_ {3}} f (\ mathbf {c})\\
    \ vdots &\ vdots &\ vdots &\ ddots &\ vdots\
    \ vdots\\ frac {\ parcial^ {2}} {\ parcial x_ {1}\ parcial x_ {n}} f (\ mathbf {c}) &\ frac {\ parcial^ {2}} {\ parcial x_ {2}\ parcial x_ {n}} f (\ mathbf {c}) &\ frac {\ parcial^ {2}} {\ parcial x_ {3}\ parcial x_ {n}} f (\ mathbf {c}) &\ cdots & amp;\ frac {\ parcial^ {2}} {\ parcial x_ {n} ^ {2}} f (\ mathbf {c})\ label {}
    \ end {array}\ derecha]\]

    el Hessian de\(f\) al\(\mathbf{c}\).

    Dicho de otra manera, el hessiano de\(f\) at\(\mathbf{c}\) es la\(n \times n \) matriz cuya fila\(i\) th es\(\nabla f_{x_{i}}(\mathbf{c})\).

    Ejemplo\(\PageIndex{3}\)

    Supongamos\(f(x, y)=x^{2} y-3 x \sin (2 y)\). Luego, usando nuestros resultados de arriba,

    \ [H f (x, y) =\ left [\ begin {array} {cc}
    f_ {x x} (x, y) & f_ {x y} (x, y)\\
    f_ {y x} (x, y) & f_ {y y} (x, y)
    \ end {array}\ right] =\ left [\ begin {array} {cc}
    2 y y 2 x-6\ cos (y)\\
    2 x-6\ cos (2 y) & 12 x\ sin (2 y)
    \ fin { array}\ derecho]. \ nonumber\]

    Así, por ejemplo,

    \ [H f (2,0) =\ left [\ begin {array} {rr}
    0 & -2\\
    -2 & 0
    \ end {array}\ right]. \ nonumber\]

    Supongamos que\(f: \mathbb{R}^{n} \rightarrow \mathbb{R}\) está\(C^2\) en una bola abierta\(B^{2}(\mathbf{c}, r)\) y deja\(\mathbf{h}=\left(h_{1}, h_{2}\right)\) ser un punto con\(\|\mathbf{h}\|<r\). Si definimos\(\varphi: \mathbb{R} \rightarrow \mathbb{R}\) por\(\varphi(t)=f(\mathbf{c}+t \mathbf{h})\), entonces\(\varphi(0)=f(\mathbf{c})\) y\(\varphi(1)=f(\mathbf{c}+\mathbf{h})\). De la versión de cálculo de una variable del teorema de Taylor, sabemos que

    \[ \varphi(1)=\varphi(0)+\varphi^{\prime}(0)+\frac{1}{2} \varphi^{\prime \prime}(s) , \label{3.4.2} \]

    donde\(s\) es un número real entre 0 y 1. Usando la regla de la cadena, tenemos

    \[ \varphi^{\prime}(t)=\nabla f(\mathbf{c}+t \mathbf{h}) \cdot \frac{d}{d t}(\mathbf{c}+t \mathbf{h})=\nabla f(\mathbf{c}+t \mathbf{h}) \cdot \mathbf{h}=f_{x}(\mathbf{c}+t \mathbf{h}) h_{1}+f_{y}(\mathbf{c}+t \mathbf{h}) h_{2} \label{3.4.3} \]

    y

    \ [\ begin {align}
    \ varphi^ {\ prime\ prime} (t) &=h_ {1}\ nabla f_ {x} (\ mathbf {c} +t\ mathbf {h})\ cdot\ mathbf {h} +h_ {2}\ nabla f_ {y} (\ mathbf {c} +t\ mathbf {h})\ cdot\ mathbf {h}\ nonumber\\
    &=\ izquierda (h_ {1}\ nabla f_ {x} (\ mathbf {c} +t\ mathbf {h}) +h_ {2}\ nabla f_ {y} (\ mathbf {c} +t\ mathbf {h}) \ cdot\ mathbf {h}\ derecho. \ nonumber\\
    &=\ left [\ begin {array} {ll}
    h_ {1} & h_ {2}
    \ end {array}\ right]\ left [\ begin {array} {ll}
    f_ {x x} (\ mathbf {c} +t\ mathbf {h}) & f_ {x y} (\ mathbf {c} +t\ mathbf {h})\ nonumber\\
    f_ {y x} (\ mathbf {c} +t\ mathbf {h}) & f_ {y y} (\ mathbf {c} +t\ mathbf {h})
    \ end {array}\ derecha]\ izquierda [\ begin {array} {l} h_ {1}\\
    h_ {2}\ end {array}\
    derecha]\ nonumber
    \\
    &=\ mathbf {h} ^ {T} H f (\ mathbf {c} +t\ mathbf {h})\ mathbf {h})\ mathbf {h})\ mathbf {h})\ mathbf {h})\ mathbf {h})\},\ label {3.4.4}
    \ end {align}\]

    donde hemos usado la notación

    \ [\ mathbf {h} =\ left [\ begin {array} {l}
    h_ {1}\\
    h_ {2}
    \ end {array}\ right]\ nonumber\]

    y

    \ [\ mathbf {h} ^ {T} =\ left [\ begin {array} {ll}
    h_ {1} & h_ {2}
    \ end {array}\ right],\ nonumber\]

    esta última denominándose transposición de\(\mathbf{h}\) (ver Problema 12 de la Sección 1.6). De ahí

    \[ \varphi^{\prime}(0)=\nabla f(\mathbf{c}) \cdot \mathbf{h} \label{3.4.5} \]

    y

    \[ \varphi^{\prime \prime}(s)=\frac{1}{2} \mathbf{h}^{T} H f(c+s \mathbf{h}) \mathbf{h} , \label{3.4.6} \]

    entonces, sustituyendo en (\(\ref{3.4.2}\)), tenemos

    \[ f(\mathbf{c}+\mathbf{h})=\varphi(1)=f(\mathbf{c})+\nabla f(\mathbf{c}) \cdot \mathbf{h}+\frac{1}{2} \mathbf{h}^{T} H f(\mathbf{c}+s \mathbf{h}) \mathbf{h} . \label{3.4.7} \]

    Este resultado, una versión del teorema de Taylor, se generaliza fácilmente a dimensiones superiores.

    Teorema\(\PageIndex{2}\)

    Supongamos que\(f: \mathbb{R}^{n} \rightarrow \mathbb{R}\) está\(C^2\) en una bola abierta\(B^{n}(\mathbf{c}, r)\) y deja\(\mathbf{h}\) ser un punto con\(\|\mathbf{h}\|<r\). Entonces existe un número real\(s\) entre 0 y 1 tal que

    \[ f(\mathbf{c}+\mathbf{h})=f(\mathbf{c})+\nabla f(\mathbf{c}) \cdot \mathbf{h}+\frac{1}{2} \mathbf{h}^{T} H f(\mathbf{c}+s \mathbf{h}) \mathbf{h} . \label{3.4.8} \]

    Si dejamos\(\mathbf{x}=\mathbf{c}+\mathbf{h}\) y evaluamos el hessian at\(\mathbf{c}\), (\(\ref{3.4.8}\)) se convierte en una aproximación polinómica para\(f\).

    Definición\(\PageIndex{3}\)

    Si\(f: \mathbb{R}^{n} \rightarrow \mathbb{R}\) está\(C^2\) en una bola abierta sobre el punto\(\mathbf{c}\), entonces llamamos

    \[ P_{2}(\mathbf{x})=f(\mathbf{c})+\nabla f(\mathbf{c}) \cdot(\mathbf{x}-\mathbf{c})+\frac{1}{2}(\mathbf{x}-\mathbf{c})^{T} H f(\mathbf{c})(\mathbf{x}-\mathbf{c}) \]

    el polinomio Taylor de segundo orden para\(f\) at\(\mathbf{c}\).

    Ejemplo\(\PageIndex{4}\)

    Para encontrar el polinomio Taylor de segundo orden para\(f(x, y)=e^{-2 x+y}\) at (0, 0), calculamos

    \[ \nabla f(x, y)=\left(-2 e^{-2 x+y}, e^{-2 x+y}\right) \nonumber \]

    y

    \ [H f (x, y) =\ left [\ begin {array} {cc}
    4 e^ {-2 x+y} & -2 e^ {-2 x+y}\\
    -2 e^ {-2 x+y} & e^ {-2 x+y}
    \ end {array}\ right],\ nonumber\]

    de lo que se deduce que

    \[ \nabla f(0,0)=(-2,1) \nonumber \]

    y

    \ [H f (0,0) =\ left [\ begin {array} {rr}
    4 & -2\\
    -2 & 1
    \ end {array}\ right]. \ nonumber\]

    Entonces

    \ [\ begin {alineado}
    P_ {2} (x, y) &=f (0,0) +\ nabla f (0,0)\ cdot (x, y) +\ frac {1} {2}\ left [\ begin {array} {ll}
    x & y
    \ end {array}\ right] H f (0,0)\ left [\ begin {array} {l}
    x\
    y\
    \ end {array}\ derecha]\\
    &=1+ (-2,1) \ cdot (x, y) +\ frac {1} {2}\ left [\ begin {array} {ll}
    x & y
    \ end {array}\ right]\ left [\ begin {array} {rr}
    4 & -2\\
    -2 & 1
    \ end {array}\ right]\ left [\ begin {array} {l}
    x\\
    y
    \ end {array}\ derecha]\\
    &=1-2 x+y=\ frac {1} {2}\ left [\ begin {array} {ll}
    x & y
    \ end {array}\ right]\ left [\ begin {array} {c}
    4 x-2 y\\
    -2 x+y
    \ end {array}\ right]\\
    &=1-2 x+y+\ frac {1} {2}\ left (4 x+y+ ^ {2} -2 x y-2 x y+y ^ {2}\ derecha)\\
    &=1-2 x+y+2 x^ {2} -2 x y+\ frac {1} {2} y^ {2}.
    \ end {alineado}\]

    Matrices simétricas

    Tenga en cuenta que si\(f: \mathbb{R}^{2} \rightarrow \mathbb{R}\) está\(C^2\) en una bola abierta sobre el punto\(\mathbf{c}\), entonces la entrada en la fila\(i\) th y\(j\) th columna de\(Hf(\mathbf{c})\) es igual a la entrada en la fila\(j\) th y\(i\) th columna de\(Hf(\mathbf{c})\) since

    \[ \frac{\partial^{2}}{\partial x_{j} \partial x_{i}} f(\mathbf{c})=\frac{\partial^{2}}{\partial x_{i} \partial x_{j}} f(\mathbf{c}) . \nonumber \]

    Definición\(\PageIndex{4}\)

    Llamamos a una matriz\(M=\left[a_{i j}\right]\) con la propiedad que\(a_{i j}=a_{j i}\) para todos\(i \neq j\) una matriz simétrica.

    Ejemplo\(\PageIndex{5}\)

    Las matrices

    \ [\ left [\ begin {array} {ll}
    2 & 1\\
    1 & 5
    \ end {array}\ right]\ nonumber\]

    y

    \ [\ left [\ begin {array} {rrr}
    1 & 2 & 3\\
    2 & 4 & 5\\
    3 & 5 & -7
    \ end {array}\ derecha]\ nonumber\]

    ambos son simétricos, mientras que las matrices

    \ [\ left [\ begin {array} {rr}
    2 & -1\\
    3 & 4
    \ end {array}\ derecha]\ nonumber\]

    y

    \ [\ left [\ begin {array} {rrr}
    2 & 1 & 3\\
    2 & 3 & 4\\
    -2 & 4 & -6
    \ end {array}\ right]\ nonumber\]

    no son simétricos.

    Ejemplo\(\PageIndex{6}\)

    El hessian de cualquier función de valor\(C^2\) escalar es una matriz simétrica. Por ejemplo, el hessian de\(f(x, y)=e^{-2 x+y}\), a saber,

    \ [H f (x, y) =\ left [\ begin {array} {cc}
    4 e^ {-2 x+y} & -2 e^ {-2 x+y}\\
    -2 e^ {-2 x+y} & e^ {-2 x+y}
    \ end {array}\ right],\ nonumber\]

    es simétrico para cualquier valor de\((x,y)\).

    Dada una matriz\(n \times n \) simétrica\(M\), la función\(q: \mathbb{R}^{n} \rightarrow \mathbb{R}\) definida por

    \[ q(\mathbf{x})=\mathbf{x}^{T} M \mathbf{x} \nonumber \]

    es un polinomio cuadrático. Cuando\(M\) es el hessian de alguna función\(f\), esta es la forma del término cuadrático en el polinomio Taylor de segundo orden para\(f\). En la siguiente sección será importante poder determinar cuándo este término es positivo para todos\(\mathbf{x} \neq \mathbf{0}\) o negativo para todos\(\mathbf{x} \neq \mathbf{0}\).

    Definición\(\PageIndex{5}\)

    Dejar\(M\) ser una matriz\(n \times n \) simétrica y definir\(q: \mathbb{R}^{n} \rightarrow \mathbb{R}\) por

    \[q(\mathbf{x})=\mathbf{x}^{T} M \mathbf{x} . \nonumber \]

    Decimos que\(M\) es positivo definido si\(q(\mathbf{x})>0\) para todos\(\mathbf{x} \neq \mathbf{0}\) en\(\mathbb{R}^n\), negativo definido si\(q(\mathbf{x})<0\) para todos\(\mathbf{x} \neq \mathbf{0}\) adentro\(\mathbb{R}^n\), e indefinido si existe un\(\mathbf{x} \neq 0\) para el cual \(q(\mathbf{x})>0\)y una\(\mathbf{x} \neq \mathbf{0}\) para la cual\(q(\mathbf{x})<0\). De lo contrario, decimos que\(M\) es indefinido.

    En general no es fácil determinar a cuál de estas categorías pertenece una matriz simétrica dada. Sin embargo, el importante caso especial de\(2 \times 2\) las matrices es sencillo. Considerar

    \ [M=\ left [\ begin {array} {ll}
    a & b\\
    b & c
    \ end {array}\ right]\ nonumber\]

    y dejar

    \ [q (x, y) =\ left [\ begin {array} {ll}
    x & y
    \ end {array}\ right] M\ left [\ begin {array} {l}
    x\\
    y
    \ end {array}\ right] =a x^ {2} +2 b x y+c y^ {2}. \ label {3.4.10}\]

    Si\(a \neq 0\), entonces podemos completar el cuadrado en (\(\ref{3.4.10}\)) para obtener

    \ [\ begin {align}
    q (x, y) &=a\ izquierda (x^ {2} +\ frac {2 b} {a} x y\ derecha) +c y^ {2}\ nonumber\\
    &=a\ izquierda (\ izquierda (x+\ frac {b} {a} y\ derecha) ^ {2} -\ frac {b^ {2}} a{ ^ {2}} y^ {2}\ derecha) +c y^ {2}\ nonumber\\
    &=a\ izquierda (x+\ frac {b} {a} y\ derecha) ^ {2} +\ izquierda (c-\ frac {b^ {2}} {a}\ derecha) y^ {2}\ nonumber\\
    &=a\ left (x+\ frac {b} {a} y\ right) ^ {2} +\ frac {a c-b^ {2}} {a} y^ {2}\ nonumber\\
    &=a\ left (x+\ frac {b} {a} y\ right) ^ {2} +\ frac {\ nombreoperador {det} (M)} {a} y^ {2}. \ label {3.4.11}
    \ end {align}\]

    Ahora supongamos\(\operatorname{det}(M)>0\). Entonces desde (\(\ref{3.4.11}\)) vemos eso\(q(x, y)>0\) para todos\((x, y) \neq(0,0)\) si\(a>0\) y\(q(x, y)<0\) para todos\((x, y) \neq(0,0)\) si\(a<0\). Es decir,\(M\) es positivo definido si\(a>0\) y negativo definido si\(a<0\). Si\(\operatorname{det}(M)<0\), entonces\(q(1,0)\) y\(q\left(-\frac{b}{a}, 1\right)\) tendrá signos opuestos, y así\(M\) es indefinido. Por último, supongamos\(\operatorname{det}(M)=0\). Entonces

    \[ q(x, y)=a\left(x+\frac{b}{a} y\right)^{2} , \nonumber \]

    así\(q(x,y) = 0\) cuando\(x=-\frac{b}{a} y\). Además,\(q(x,y)\) tiene el mismo signo que\(a\) para todos los demás valores de\((x,y)\). De ahí que en este caso\(M\) sea indefinido.

    Análisis similares para el caso nos\(a=0\) dan el siguiente resultado.

    Teorema\(\PageIndex{3}\)

    Supongamos

    \ [M=\ left [\ begin {array} {ll}
    a & b\\
    b & c
    \ end {array}\ right]. \ nonumber\]

    Si\(\operatorname{det}(M)>0\), entonces\(M\) es positivo definido si\(a>0\) y negativo definido si\(a<0\). Si\(\operatorname{det}(M)<0\), entonces\(M\) es indefinido. Si\(\operatorname{det}(M)=0\), entonces\(M\) es indefinido.

    Ejemplo\(\PageIndex{7}\)

    La matriz

    \ [M=\ left [\ begin {array} {ll}
    2 & 1\\
    1 & 3
    \ end {array}\ right]\ nonumber\]

    es positivo definido desde\(\operatorname{det}(M)=5>0\) y\(2>0\).

    Ejemplo\(\PageIndex{8}\)

    La matriz

    \ [M=\ left [\ begin {array} {rr}
    -2 & 1\\
    1 & -4
    \ end {array}\ right]\ nonumber\]

    es negativo definido desde\(\operatorname{det}(M)=7>0\) y\(-2<0\).

    Ejemplo\(\PageIndex{9}\)

    La matriz

    \ [M=\ left [\ begin {array} {rr}
    -3 & 1\\
    1 & 2
    \ end {array}\ right]\ nonumber\]

    es indefinido desde\(\operatorname{det}(M)=-7<0\).

    Ejemplo\(\PageIndex{10}\)

    La matriz

    \ [M=\ left [\ begin {array} {ll}
    4 & 2\\
    2 & 1
    \ end {array}\ right]\ nonumber\]

    es indefinido desde\(\operatorname{det}(M)=0\).

    En la siguiente sección veremos cómo estas ideas nos ayudan a identificar valores extremos locales para funciones valoradas escalares de dos variables.


    This page titled 3.4: Aproximaciones de segundo orden is shared under a CC BY-NC-SA 1.0 license and was authored, remixed, and/or curated by Dan Sloughter via source content that was edited to the style and standards of the LibreTexts platform; a detailed edit history is available upon request.