Saltar al contenido principal

# 6.10: Más sobre Diferenciación Implícita. Extrema Condicional

$$\newcommand{\vecs}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} }$$

$$\newcommand{\vecd}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash {#1}}}$$

$$\newcommand{\id}{\mathrm{id}}$$ $$\newcommand{\Span}{\mathrm{span}}$$

( \newcommand{\kernel}{\mathrm{null}\,}\) $$\newcommand{\range}{\mathrm{range}\,}$$

$$\newcommand{\RealPart}{\mathrm{Re}}$$ $$\newcommand{\ImaginaryPart}{\mathrm{Im}}$$

$$\newcommand{\Argument}{\mathrm{Arg}}$$ $$\newcommand{\norm}[1]{\| #1 \|}$$

$$\newcommand{\inner}[2]{\langle #1, #2 \rangle}$$

$$\newcommand{\Span}{\mathrm{span}}$$

$$\newcommand{\id}{\mathrm{id}}$$

$$\newcommand{\Span}{\mathrm{span}}$$

$$\newcommand{\kernel}{\mathrm{null}\,}$$

$$\newcommand{\range}{\mathrm{range}\,}$$

$$\newcommand{\RealPart}{\mathrm{Re}}$$

$$\newcommand{\ImaginaryPart}{\mathrm{Im}}$$

$$\newcommand{\Argument}{\mathrm{Arg}}$$

$$\newcommand{\norm}[1]{\| #1 \|}$$

$$\newcommand{\inner}[2]{\langle #1, #2 \rangle}$$

$$\newcommand{\Span}{\mathrm{span}}$$ $$\newcommand{\AA}{\unicode[.8,0]{x212B}}$$

$$\newcommand{\vectorA}[1]{\vec{#1}} % arrow$$

$$\newcommand{\vectorAt}[1]{\vec{\text{#1}}} % arrow$$

$$\newcommand{\vectorB}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} }$$

$$\newcommand{\vectorC}[1]{\textbf{#1}}$$

$$\newcommand{\vectorD}[1]{\overrightarrow{#1}}$$

$$\newcommand{\vectorDt}[1]{\overrightarrow{\text{#1}}}$$

$$\newcommand{\vectE}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash{\mathbf {#1}}}}$$

$$\newcommand{\vecs}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} }$$

$$\newcommand{\vecd}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash {#1}}}$$

I. La diferenciación implícita se esbozó en §7. Bajo supuestos adecuados (Teorema 4 en §7), se puede diferenciar un sistema dado de ecuaciones,

$g_{k}\left(x_{1}, \ldots, x_{n}, y_{1}, \ldots, y_{m}\right)=0, \quad k=1,2, \ldots, n,$

tratar las$$x_{j}$$ como funciones implícitas del$$y_{i}$$ sin buscar una solución explícita de la forma

$x_{j}=H_{j}\left(y_{1}, \dots, y_{m}\right).$

Esto arroja un nuevo sistema de ecuaciones a partir del cual se$$D_{i} H_{j}=\frac{\partial x_{j}}{\partial y_{i}}$$ pueden encontrar directamente los parciales.

Ahora complementamos Teorema 4 en §7 (¡revísalo!) al demostrar que este nuevo sistema es lineal en los parciales involucrados y que su determinante es$$\neq 0.$$ Así, en general, es más sencillo de resolver que (1).

Al igual que en la Parte IV de §7, establecemos

$(\vec{x}, \vec{y})=\left(x_{1}, \ldots, x_{n}, y_{1}, \ldots, y_{m}\right) \text { and } g=\left(g_{1}, \ldots, g_{n}\right),$

reemplazando el$$f$$ de §7 por$$g.$$ Entonces las ecuaciones (1) simplifican a

$g(\vec{x}, \vec{y})=\overrightarrow{0},$

donde$$g : E^{n+m} \rightarrow E^{n}$$ (o$$g : C^{n+m} \rightarrow C^{n})$$.

## Teorema$$\PageIndex{1}$$ (implicit differentiation)

Adoptar todos los supuestos del Teorema 4 en §7, reemplazando$$f$$ por$$g$$ y estableciendo$$H=\left(H_{1}, \ldots, H_{n}\right)$$,

$D_{j} g_{k}(\vec{p}, \vec{q})=a_{j k}, \quad j \leq n+m, \quad k \leq n.$

Entonces para cada uno$$i=1, \ldots, m,$$ tenemos ecuaciones$$n$$ lineales,

$\sum_{j=1}^{n} a_{j k} D_{i} H_{j}(\vec{q})=-a_{n+i, k}, \quad k \leq n,$

con

$\operatorname{det}\left(a_{j k}\right) \neq 0, \quad(j, k \leq n),$

que determinan de manera única los parciales$$D_{i} H_{j}(\vec{q})$$ para$$j=1,2, \ldots, n$$.

Prueba

Como es habitual, extender el mapa$$H : Q \rightarrow P$$ del Teorema 4 en §7 a$$H : E^{m} \rightarrow$$$$E^{n}$$ (o$$C^{m} \rightarrow C^{n})$$ fijándose$$H=\overrightarrow{0}$$ en$$-Q$$.

Además, definir$$\sigma : E^{m} \rightarrow E^{n+m}\left(C^{m} \rightarrow C^{n+m}\right)$$ por

$\sigma(\vec{y})=(H(\vec{y}), \vec{y})=\left(H_{1}(\vec{y}), \ldots, H_{n}(\vec{y}), y_{1}, \ldots, y_{m}\right), \quad \vec{y} \in E^{m}\left(C^{m}\right).$

Entonces$$\sigma$$ es diferenciable al$$\vec{q} \in Q,$$ igual que sus$$n+m$$ componentes. (¿Por qué?) ya que$$\vec{x}=H(\vec{y})$$ es una solución de (2), las ecuaciones (1) y (2) se convierten en identidades cuando$$\vec{x}$$ se sustituye por$$H(\vec{y}).$$ También,$$\sigma(\vec{q})=(H(\vec{q}), \vec{q})=(\vec{p}, \vec{q})$$ ya que$$H(\vec{q})=\vec{p}$$. Además,

$g(\sigma(\vec{y}))=g(H(\vec{y}), \vec{y})=\overrightarrow{0} \text { for } \vec{y} \in Q;$

es decir,$$g \circ \sigma=\overrightarrow{0}$$ en$$Q$$.

Ahora, por suposición,$$g \in C D^{1}$$ en$$(\vec{p}, \vec{q});$$ así se aplica la regla de la cadena (Teorema 2 en §4), con$$f, \vec{p}, \vec{q}, n,$$ y$$m$$ reemplazada por$$\sigma, \vec{q},(\vec{p}, \vec{q}), m,$$ y$$n+m,$$ respectivamente.

Como$$h=g \circ \sigma=\overrightarrow{0}$$ en$$Q,$$ un set abierto, los parciales de$$h$$ desaparecer en$$Q.$$ Así por Teorema 2 de §4, escribiendo$$\sigma_{j}$$ para el componente$$j$$ th de$$\sigma,$$

$\overrightarrow{0}=\sum_{j=1}^{n+m} D_{j} g(\vec{p}, \vec{q}) \cdot D_{i} \sigma_{j}(\vec{q}), \quad i \leq m.$

Por (4),$$\sigma_{j}=H_{j}$$ si$$j \leq n,$$ y$$\sigma_{j}(\vec{y})=y_{i}$$ si$$j=n+i.$$ Así$$D_{i} \sigma_{j}=D_{i} H_{j}$$$$j \leq n;$$ pero para$$j>n,$$ nosotros tenemos$$D_{i} \sigma_{j}=1$$ si$$j=n+i,$$ y de$$D_{i} \sigma_{j}=0$$ otra manera. De ahí por (5),

$\overrightarrow{0}=\sum_{j=1}^{n} D_{j} g(\vec{p}, \vec{q}) \cdot D_{i} H_{j}(\vec{q})+D_{n+i} g(\vec{p}, \vec{q}), \quad i=1,2, \ldots, m.$

A medida que$$g=\left(g_{1}, \ldots, g_{n}\right),$$ cada una de estas ecuaciones vectoriales se divide en$$n$$ escalares:

$0=\sum_{j=1}^{n} D_{j} g_{k}(\vec{p}, \vec{q}) \cdot D_{i} H_{j}(\vec{q})+D_{n+i} g_{k}(\vec{p}, \vec{q}), \quad i \leq m, k \leq n.$

Con$$D_{j} g_{k}(\vec{p}, \vec{q})=a_{j k},$$ esto rinde (3), donde$$\operatorname{det}\left(a_{j k}\right)=\operatorname{det}\left(D_{j} g_{k}(\vec{p}, \vec{q})\right) \neq 0$$ por hipótesis (ver Teorema 4 en §7).

Así todo está probado. $$\quad \square$$

Nota 1. Por continuidad (Nota 1 en §6), tenemos det$$D_{j} g_{k}(\vec{x}, \vec{y})) \neq 0$$ para todos$$(\vec{x}, \vec{y})$$ en un barrio suficientemente pequeño de$$(\vec{p}, \vec{q}).$$ Así Teorema 1 sostiene también con$$(\vec{p}, \vec{q})$$ reemplazado por tal$$(\vec{x}, \vec{y})$$. En la práctica, no se tiene que memorizar (3), sino que se obtiene diferenciando implícitamente ecuaciones (1).

II. Ahora aplicaremos el Teorema 1 a la teoría de los extremos condicionales.

## Definición 1

Decimos que$$f : E^{n+m} \rightarrow E^{1}$$ tiene un máximo condicional local (mínimo) en$$\vec{p} \in E^{n+m},$$ con restricciones

$g=\left(g_{1}, \ldots, g_{n}\right)=\overrightarrow{0}$

$$\left(g : E^{n+m} \rightarrow E^{n}\right)$$iff en algún barrio$$G$$ de$$\vec{p}$$ tenemos

$\Delta f=f(\vec{x})-f(\vec{p}) \leq 0 \quad(\geq 0, \text { respectively)}$

para todos$$\vec{x} \in G$$ para los cuales$$g(\vec{x})=\overrightarrow{0}$$.

En §9 (Ejemplo (B) y Problemas), encontramos tales extremos condicionales usando las ecuaciones de restricción$$g=\overrightarrow{0}$$ para eliminar algunas variables y así reducir todas a encontrar los extremos incondicionales de una función de menos variables (independientes).

A menudo, sin embargo, dicha eliminación es engorrosa ya que implica resolver un sistema (1) de ecuaciones posiblemente no lineales. Es aquí donde resulta útil la diferenciación implícita (basada en el Teorema 1).

Lagrange inventó un método (conocido como el de multiplicadores) para encontrar los puntos críticos en los que pueden existir tales extremos; a saber, tenemos lo siguiente:

$$f : E^{n+m} \rightarrow E^{1},$$Conjunto dado

$F=f+\sum_{k=1}^{n} c_{k} g_{k},$

donde se$$c_{k}$$ van a determinar las constantes y$$g_{k}$$ son las anteriores.

Luego encuentra los parciales$$D_{j} F(j \leq n+m)$$ y resuelve el sistema de$$2 n+m$$ ecuaciones

$D_{j} F(\vec{x})=0, \quad j \leq n+m, \quad \text { and } \quad g_{k}(\vec{x})=0, \quad k \leq n,$

para las$$2 n+m$$ “incógnitas”$$x_{j}(j \leq n+m)$$ y$$c_{k}(k \leq n),$$ las$$c_{k}$$ originarias de (7).

Cualquier$$\vec{x}$$ satisfactorio (8), con$$c_{k}$$ lo así determinado es un punto crítico (aún por probar). El método se basa en el Teorema 2 a continuación, donde escribimos de nuevo$$(\vec{p}, \vec{q})$$$$(\vec{x}, \vec{y})$$ para$$\vec{p}$$ y para$$\vec{x}$$ (lo llamamos “doble notación”).

## Teorema$$\PageIndex{2}$$ (Lagrange multipliers)

Supongamos que$$f : E^{n+m} \rightarrow E^{1}$$ es diferenciable en

$(\vec{p}, \vec{q})=\left(p_{1}, \ldots, p_{n}, q_{1}, \ldots, q_{m}\right)$

y tiene un extremo local$$(\vec{p}, \vec{q})$$ sujeto a las limitaciones

$g=\left(g_{1}, \ldots, g_{n}\right)=\overrightarrow{0},$

con$$g$$ como en el Teorema 1,$$g : E^{n+m} \rightarrow E^{n}.$$ Entonces

$\sum_{k=1}^{n} c_{k} D_{j} g_{k}(\vec{p}, \vec{q})=-D_{j} f(\vec{p}, \vec{q}), \quad j=1,2, \ldots, n+m,$

para ciertos multiplicadores$$c_{k}$$ (determinados por las primeras n ecuaciones en (9)).

Prueba

Estas$$n$$ ecuaciones admiten una solución única para el$$c_{k},$$ ya que son lineales, y

$\operatorname{det}\left(D_{j} g_{k}(\vec{p}, \vec{q})\right) \neq 0 \quad(j, k \leq n)$

por hipótesis. Con$$c_{k}$$ lo así determinado, (9) sostiene para$$j \leq n.$$ Queda por probar (9) para$$n<j \leq n+m.$$

Ahora, ya que$$f$$ tiene un extremo condicional en$$(\vec{p}, \vec{q})$$ como se ha dicho, tenemos

$f(\vec{x}, \vec{y})-f(\vec{p}, \vec{q}) \leq 0 \quad(\text { or } \quad \geq 0)$

para todos$$(\vec{x}, \vec{y}) \in P \times Q$$ con$$g(\vec{x}, \vec{y})=\overrightarrow{0},$$ siempre hacemos el barrio lo suficientemente$$P \times Q$$ pequeño.

Definir$$H$$ y$$\sigma$$ como en la prueba anterior (ver (4)); así$$\vec{x}=H(\vec{y})$$ es equivalente a$$g(\vec{x}, \vec{y})=\overrightarrow{0}$$ for$$(\vec{x}, \vec{y}) \in P \times Q$$.

Entonces, para todos esos$$(\vec{x}, \vec{y}),$$ con$$\vec{x}=H(\vec{y}),$$ seguro que tenemos$$g(\vec{x}, \vec{y})=\overrightarrow{0}$$ y también

$f(\vec{x}, \vec{y})=f(H(\vec{y}), \vec{y})=f(\sigma(\vec{y})).$

Establecer$$h=f \circ \sigma, h : E^{m} \rightarrow E^{1}.$$ Entonces (10) reduce a

$h(\vec{y})-h(\vec{q}) \leq 0(\text { or } \geq 0) \quad \text { for all } \vec{y} \in Q.$

Esto significa que$$h$$ tiene un extremo incondicional en$$\vec{q},$$ un punto interior de$$Q.$$ Así, por el Teorema 1 en §9,

$D_{i} h(\vec{q})=0, \quad i=1, \ldots, m.$

De ahí, aplicando la regla de la cadena (Teorema 2 de §4) para$$h=f \circ \sigma,$$ que obtengamos, tanto como en la prueba anterior,

\begin{aligned} 0 &=\sum_{j=1}^{n+m} D_{j} f(\vec{p}, \vec{q}) D_{i} \sigma_{j}(\vec{q}) \\ &=\sum_{j=1}^{n} D_{j} f(\vec{p}, \vec{q}) D_{i} H_{j}(\vec{q})+D_{n+i} f(\vec{p}, \vec{q}), \quad i \leq m. \end{aligned}

(¡Verifica!)

A continuación, como$$g$$ por hipótesis satisface el Teorema 1, obtenemos ecuaciones (3) o equivalentemente (6). Multiplicando (6)$$c_{k},$$ sumando y combinando con (11), obtenemos

$\begin{array}{l}{\sum_{j=1}^{n}\left[D_{j} f(\vec{p}, \vec{q})+\sum_{k=1}^{n} c_{k} D_{j} g_{k}(\vec{p}, \vec{q})\right] D_{i} H_{j}(\vec{q})} \\ {\qquad+D_{n+i} f(\vec{p}, \vec{q})+\sum_{k=1}^{n} c_{k} D_{n+i} g_{k}(\vec{p}, \vec{q})=0, \quad i \leq m}. \end{array}$

(¡Verifica!) Pero la expresión entre corchetes cuadrados es$$0;$$ porque elegimos el$$c_{k}$$ para satisfacer (9) para$$j \leq n.$$ Así todo simplifica a

$\sum_{k=1}^{n} c_{k} D_{n+i} g_{k}(\vec{p}, \vec{q})=-D_{n+i} f(\vec{p}, \vec{q}), \quad i=1,2, \ldots, m.$

De ahí que (9) se mantenga para$$n<j \leq n+m,$$ también, y todo está probado. $$\quad \square$$

Observaciones. El método de Lagrange tiene la ventaja de que todas las variables ($$y_{i}$$the$$x_{k}$$ y) son tratadas por igual, sin señalar las dependientes. Así, en las aplicaciones, se usa solo$$F,$$ i.e.,$$f$$ y$$g$$ (no$$H$$).

También se puede escribir$$\vec{x}=\left(x_{1}, \ldots, x_{n+m}\right)$$ para$$(\vec{x}, \vec{y})=\left(x_{1}, \ldots, x_{n}, y_{1}, \ldots, y_{m}\right)$$ (la notación “doble” era buena solo para la prueba).

Por otro lado, todavía se deben resolver ecuaciones (8).

El teorema 2 arroja solo una condición necesaria (9) para extremos con restricciones. También hay varias condiciones suficientes, pero en su mayoría se utilizan consideraciones geométricas y otras consideraciones (como hicimos en §9). Por lo tanto, nos limitamos a una proposición (usando notación “única” esta vez).

## Teorema$$\PageIndex{3}$$ (sufficient conditions)

Let

$F=f+\sum_{k=1}^{n} c_{k} g_{k},$

con$$f : E^{n+m} \rightarrow E^{1}, g : E^{n+m} \rightarrow E^{n},$$ y$$c_{k}$$ como en Teorema 2.

Entonces$$f$$ tiene un máximo (mínimo) en$$\vec{p}=\left(p_{1}, \ldots, p_{n+m}\right)$$ (con restricciones$$g=\left(g_{1}, \ldots, g_{n}\right)=\overrightarrow{0}$$ siempre que$$F$$ lo haga. (A fortiori, este es el caso si$$F$$ tiene un extremo incondicional at$$\vec{p}$$.)

Prueba

Supongamos que$$F$$ tiene un máximo en$$\vec{p},$$ con restricciones$$g=\overrightarrow{0}.$$ Entonces

$0 \geq F(\vec{x})-F(\vec{p})=f(\vec{x})-f(\vec{p})+\sum_{k=1}^{n} c_{k}\left[g_{k}(\vec{x})-g_{k}(\vec{p})\right]$

para los$$\vec{x}$$ cercanos$$\vec{p}$$ (incluyendo$$\vec{x}=\vec{p} )$$ para los cuales$$g(\vec{x})=\overrightarrow{0}$$.

Pero para tal$$\vec{x}, g_{k}(\vec{x})=g_{k}(\vec{p})=0, c_{k}\left[g_{k}(\vec{x})-g_{k}(\vec{p})\right]=0,$$ y tal

$0 \geq F(\vec{x})-F(\vec{p})=f(\vec{x})-f(\vec{p}).$

De ahí$$f$$ que tenga un máximo en$$\vec{p},$$ con restricciones como se indica.

De igual manera,$$\Delta F=\Delta f$$ en caso de$$F$$ que tenga un mínimo condicional en$$\vec{p}$$. $$\quad \square$$

## Ejemplo 1

Encuentra el extremo local de

$f(x, y, z, t)=x+y+z+t$

con la condición de que

$g(x, y, z, t)=x y z t-a^{4}=0,$

con$$a>0$$ y$$x, y, z, t>0.$$ (Tenga en cuenta que las desigualdades no cuentan como “restricciones” en el sentido de los Teoremas 2 y 3.) Aquí uno puede simplemente eliminar$$t=a^{4} /(x y z),$$ pero aún es más fácil usar el método de Lagrange.

Set$$F(x, y, z, t)=x+y+z+t+c x y z t.$$ (Dejamos caer$$a^{4}$$ ya que de todos modos desaparecerá en diferenciación.) Ecuaciones (8) luego leer

$0=1+c y z t=1+c x z t=1+c x y t=1+c x y z, \quad x y z t-a^{4}=0.$

Resolviendo para$$x, z, t$$ y$$c,$$ obtenemos$$c=-a^{-3}, x=y=z=t=a$$.

Así$$F(x, y, z, t)=x+y+z+t-x y z t / a^{3},$$ y el único punto crítico es$$\vec{p}=(a, a, a, a).$$ (¡Verifica!)

Por el Teorema 3, ahora se puede explorar el signo de$$F(\vec{x})-F(\vec{p}),$$ donde$$\vec{x}=(x, y, z, t).$$ Para$$\vec{x}$$ cerca$$\vec{p},$$ concuerda con el signo de$$d^{2} F(\vec{p} ; \cdot).$$ (Ver prueba del Teorema 2 en §9.) Lo haremos a continuación, utilizando otro dispositivo más, para ser explicados ahora.

Eliminación de diferenciales dependientes. Si todos los parciales de$$F$$ desaparecer en$$\vec{p}$$ (por ejemplo, si$$\vec{p}$$ satisface (9), luego$$d^{1} F(\vec{p} ; \cdot)=0$$ en$$E^{n+m}$$ (brevemente$$d F \equiv 0$$).

Por el contrario, si$$d^{1} f(\vec{p} ; \cdot)=0$$ en un globo$$G_{\vec{p}},$$ para alguna función$$f$$ en variables$$n$$ independientes, entonces

$D_{k} f(\vec{p})=0, \quad k=1,2, \ldots, n,$

ya que$$d^{1} f(\vec{p} ; \cdot)$$ (¡un polinomio!) desaparece en infinitamente muchos puntos si sus coeficientes$$D_{k} f(\vec{p})$$ desaparecen. (Este último falla, sin embargo, si las variables son interdependientes.)

Así, en lugar de trabajar con los parciales, se puede equiparar al$$0$$ diferencial$$d F$$ o$$d f.$$ Usando la notación “variable” y la invarianza de$$d f$$ (Nota 4 en §4), luego se escribe$$d x, d y, \ldots$$ para los “diferenciales” de variables dependientes e independientes por igual, e intenta eliminar los diferenciales de las variables dependientes. Ahora rehacemos el Ejemplo 1 usando este método.

## Ejemplo 2

Con$$f$$ y$$g$$ como en el Ejemplo 1, tratamos$$t$$ como la variable dependiente, es decir, una función implícita de$$x, y, z$$,

$t=a^{4} /(x y z)=H(x, y, z),$

y diferenciar la identidad$$x y z t-a^{4}=0$$ para obtener

$0=y z t d x+x z t d y+x y t d z+x y z d t;$

por lo

$d t=-t\left(\frac{d x}{x}+\frac{d y}{y}+\frac{d z}{z}\right).$

Sustituyendo este valor de$$d t$$ in$$d f=d x+d y+d z+d t=0$$ (la ecuación para puntos críticos), eliminamos$$d t$$ y encontramos:

$\left(1-\frac{t}{x}\right) d x+\left(1-\frac{t}{y}\right) d y+\left(1-\frac{t}{z}\right) d z \equiv 0.$

Al igual$$x, y, z$$ que las variables independientes, esta identidad implica que los coeficientes de$$d x, d y,$$ y$$d z$$ deben desaparecer, como se señaló anteriormente. Así

$1-\frac{t}{x}=1-\frac{t}{y}=1-\frac{t}{z}=0.$

De ahí$$x=y=z=t=a$$. (¿Por qué?) Así, de nuevo, el único punto crítico es$$\vec{p}=(a, a, a, a).$$

Ahora, volviendo al método de Lagrange, usamos la fórmula (5) en §5 para calcular

$d^{2} F=-\frac{2}{a}(d x d y+d x d z+d z d t+d x d t+d y d z+d y d t).$

(¡Verifica!)

Demostraremos que esta expresión es signo-constante (si$$x y z t=a^{4})$$, cerca del punto crítico$$\vec{p}.$$ Efectivamente,$$x=y=z=t=a$$ fijándonos en (12), obtenemos$$d t=-(d x+d y+d z),$$ y (13) se convierte en

\begin{array}{l}{\qquad \begin{aligned}-\frac{2}{a}[d x d y+d x d z+& d y d z-(d x+d y+d z)^{2} ] \\=& \frac{1}{a}\left[d x^{2}+d y^{2}+d z^{2}+(d x+d y+d z)^{2}\right]=d^{2} F. \end{aligned}}\end{array}

Esta expresión es$$>0$$ (para$$d x, d y,$$ y no$$d z$$ son todos$$0$$). Por lo tanto,$$f$$ tiene
un mínimo condicional local en$$\vec{p}=(a, a, a, a).$$

Precaución; aquí no podemos inferir que$$f(\vec{p})$$ es el menor valor de$$f$$ bajo las condiciones impuestas:$$x, y, z>0$$ y$$x y z t=a^{4}.$$

La simplificación debida a la regla invariante de Cauchy (Nota 4 en §4) hace atractivo el uso de la notación “variable”, aunque la precaución es obligatoria.

Nota 2. Al usar el Teorema 2, basta con determinar que algunas$$n$$ ecuaciones de (9) admiten una solución$$c_{k};$$ para el entonces, renumerando las ecuaciones, se puede lograr que éstas se conviertan en las primeras$$n$$ ecuaciones, como se suponía. Esto significa que la$$n \times(n+m)$$ matriz$$\left(D_{j} g_{k}(\vec{p}, \vec{q})\right)$$ debe ser de rango$$n,$$ es decir, contiene una$$n \times n$$ -submatriz (obtenida eliminando algunas columnas), con un determinante distinto de cero.

En los Problemas solemos utilizar$$r, s, t, \ldots$$ para multiplicadores Lagrange.

This page titled 6.10: Más sobre Diferenciación Implícita. Extrema Condicional is shared under a CC BY 3.0 license and was authored, remixed, and/or curated by Elias Zakon (The Trilla Group (support by Saylor Foundation)) via source content that was edited to the style and standards of the LibreTexts platform; a detailed edit history is available upon request.