Saltar al contenido principal
LibreTexts Español

3.2: Derivadas direccionales y el gradiente

  • Page ID
    111743
  • \( \newcommand{\vecs}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} } \)

    \( \newcommand{\vecd}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash {#1}}} \)

    \( \newcommand{\id}{\mathrm{id}}\) \( \newcommand{\Span}{\mathrm{span}}\)

    ( \newcommand{\kernel}{\mathrm{null}\,}\) \( \newcommand{\range}{\mathrm{range}\,}\)

    \( \newcommand{\RealPart}{\mathrm{Re}}\) \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\)

    \( \newcommand{\Argument}{\mathrm{Arg}}\) \( \newcommand{\norm}[1]{\| #1 \|}\)

    \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\)

    \( \newcommand{\Span}{\mathrm{span}}\)

    \( \newcommand{\id}{\mathrm{id}}\)

    \( \newcommand{\Span}{\mathrm{span}}\)

    \( \newcommand{\kernel}{\mathrm{null}\,}\)

    \( \newcommand{\range}{\mathrm{range}\,}\)

    \( \newcommand{\RealPart}{\mathrm{Re}}\)

    \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\)

    \( \newcommand{\Argument}{\mathrm{Arg}}\)

    \( \newcommand{\norm}[1]{\| #1 \|}\)

    \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\)

    \( \newcommand{\Span}{\mathrm{span}}\) \( \newcommand{\AA}{\unicode[.8,0]{x212B}}\)

    \( \newcommand{\vectorA}[1]{\vec{#1}}      % arrow\)

    \( \newcommand{\vectorAt}[1]{\vec{\text{#1}}}      % arrow\)

    \( \newcommand{\vectorB}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} } \)

    \( \newcommand{\vectorC}[1]{\textbf{#1}} \)

    \( \newcommand{\vectorD}[1]{\overrightarrow{#1}} \)

    \( \newcommand{\vectorDt}[1]{\overrightarrow{\text{#1}}} \)

    \( \newcommand{\vectE}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash{\mathbf {#1}}}} \)

    \( \newcommand{\vecs}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} } \)

    \( \newcommand{\vecd}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash {#1}}} \)

    \(\newcommand{\avec}{\mathbf a}\) \(\newcommand{\bvec}{\mathbf b}\) \(\newcommand{\cvec}{\mathbf c}\) \(\newcommand{\dvec}{\mathbf d}\) \(\newcommand{\dtil}{\widetilde{\mathbf d}}\) \(\newcommand{\evec}{\mathbf e}\) \(\newcommand{\fvec}{\mathbf f}\) \(\newcommand{\nvec}{\mathbf n}\) \(\newcommand{\pvec}{\mathbf p}\) \(\newcommand{\qvec}{\mathbf q}\) \(\newcommand{\svec}{\mathbf s}\) \(\newcommand{\tvec}{\mathbf t}\) \(\newcommand{\uvec}{\mathbf u}\) \(\newcommand{\vvec}{\mathbf v}\) \(\newcommand{\wvec}{\mathbf w}\) \(\newcommand{\xvec}{\mathbf x}\) \(\newcommand{\yvec}{\mathbf y}\) \(\newcommand{\zvec}{\mathbf z}\) \(\newcommand{\rvec}{\mathbf r}\) \(\newcommand{\mvec}{\mathbf m}\) \(\newcommand{\zerovec}{\mathbf 0}\) \(\newcommand{\onevec}{\mathbf 1}\) \(\newcommand{\real}{\mathbb R}\) \(\newcommand{\twovec}[2]{\left[\begin{array}{r}#1 \\ #2 \end{array}\right]}\) \(\newcommand{\ctwovec}[2]{\left[\begin{array}{c}#1 \\ #2 \end{array}\right]}\) \(\newcommand{\threevec}[3]{\left[\begin{array}{r}#1 \\ #2 \\ #3 \end{array}\right]}\) \(\newcommand{\cthreevec}[3]{\left[\begin{array}{c}#1 \\ #2 \\ #3 \end{array}\right]}\) \(\newcommand{\fourvec}[4]{\left[\begin{array}{r}#1 \\ #2 \\ #3 \\ #4 \end{array}\right]}\) \(\newcommand{\cfourvec}[4]{\left[\begin{array}{c}#1 \\ #2 \\ #3 \\ #4 \end{array}\right]}\) \(\newcommand{\fivevec}[5]{\left[\begin{array}{r}#1 \\ #2 \\ #3 \\ #4 \\ #5 \\ \end{array}\right]}\) \(\newcommand{\cfivevec}[5]{\left[\begin{array}{c}#1 \\ #2 \\ #3 \\ #4 \\ #5 \\ \end{array}\right]}\) \(\newcommand{\mattwo}[4]{\left[\begin{array}{rr}#1 \amp #2 \\ #3 \amp #4 \\ \end{array}\right]}\) \(\newcommand{\laspan}[1]{\text{Span}\{#1\}}\) \(\newcommand{\bcal}{\cal B}\) \(\newcommand{\ccal}{\cal C}\) \(\newcommand{\scal}{\cal S}\) \(\newcommand{\wcal}{\cal W}\) \(\newcommand{\ecal}{\cal E}\) \(\newcommand{\coords}[2]{\left\{#1\right\}_{#2}}\) \(\newcommand{\gray}[1]{\color{gray}{#1}}\) \(\newcommand{\lgray}[1]{\color{lightgray}{#1}}\) \(\newcommand{\rank}{\operatorname{rank}}\) \(\newcommand{\row}{\text{Row}}\) \(\newcommand{\col}{\text{Col}}\) \(\renewcommand{\row}{\text{Row}}\) \(\newcommand{\nul}{\text{Nul}}\) \(\newcommand{\var}{\text{Var}}\) \(\newcommand{\corr}{\text{corr}}\) \(\newcommand{\len}[1]{\left|#1\right|}\) \(\newcommand{\bbar}{\overline{\bvec}}\) \(\newcommand{\bhat}{\widehat{\bvec}}\) \(\newcommand{\bperp}{\bvec^\perp}\) \(\newcommand{\xhat}{\widehat{\xvec}}\) \(\newcommand{\vhat}{\widehat{\vvec}}\) \(\newcommand{\uhat}{\widehat{\uvec}}\) \(\newcommand{\what}{\widehat{\wvec}}\) \(\newcommand{\Sighat}{\widehat{\Sigma}}\) \(\newcommand{\lt}{<}\) \(\newcommand{\gt}{>}\) \(\newcommand{\amp}{&}\) \(\definecolor{fillinmathshade}{gray}{0.9}\)

    Para una función\(\varphi: \mathbb{R} \rightarrow \mathbb{R}\), la derivada en un punto\(c\), es decir,

    \[ \varphi^{\prime}(c)=\lim _{h \rightarrow 0} \frac{\varphi(c+h)-\varphi(c)}{h}, \label{3.2.1} \]

    es la pendiente de la mejor aproximación afín a\(\varphi\) at\(c\). También podemos considerarlo como la pendiente de la gráfica de\(\varphi\) at\((c, \varphi(c))\), o como la tasa instantánea de cambio de\(\varphi(x)\) con respecto a\(x\) cuándo\(x=c\). Como preludio para encontrar las mejores aproximaciones afín para una función\(f: \mathbb{R}^{n} \rightarrow \mathbb{R}\), primero discutiremos cómo generalizar (\(\ref{3.2.1}\)) a este entorno utilizando las ideas de pendientes y tasas de cambio para nuestra motivación.

    Derivadas direccionales

    Ejemplo\(\PageIndex{1}\)

    Considere la función\(f: \mathbb{R}^{2} \rightarrow \mathbb{R}\) definida por

    \[ f(x, y)=4-2 x^{2}-y^{2} , \nonumber \]

    cuya gráfica se representa en la Figura 3.2.1. Si imaginamos un error moviéndose a lo largo de esta superficie, entonces la pendiente del camino que encuentre el error dependerá tanto de la posición del error como de la dirección en la que se mueva. Por ejemplo, si el error está por encima del punto (1, 1) en el\(xy\) plano -plano, moverse en la dirección del vector\(\mathbf{v}=(-1,-1)\) hará que se dirija directamente hacia la parte superior de la gráfica, y por lo tanto tenga una tasa de ascenso pronunciada, mientras que moverse en la dirección de\(-\mathbf{v}=(1,1)\) haría que descienda a una tarifa rápida. Estas dos posibilidades están ilustradas por la curva roja sobre la superficie en la Figura 3.2.1. Para otro ejemplo, dirigirse alrededor de la superficie por encima de la elipse

    \[ 2 x^{2}+y^{2}=3 \nonumber \]

    en el\(xy\) plano -que de (1, 1) significa dirigirse inicialmente en dirección al vector\(\mathbf{w}=(-1,2)\), conduciría al insecto alrededor del costado del cerro sin cambio de elevación, y de ahí una pendiente de 0. Esta posibilidad se ilustra por la curva verde en la superficie en la Figura 3.2.1. Así, para poder hablar de la pendiente de la gráfica de\(f\) en un punto, debemos especificar una dirección también.

    Screen Shot 2021-07-21 a las 12.20.53.png
    Figura\(\PageIndex{1}\): Gráfica de\(f(x)=4-2 x^{2}-y^{2}\)

    Por ejemplo, supongamos que el error se mueve en la dirección de\(\mathbf{v}\). Si dejamos

    \[ \mathbf{u}=-\frac{1}{\sqrt{2}}(1,1) , \nonumber \]

    la dirección de\(\mathbf{v}\), entonces, dejar\(\mathbf{c}=(1,1)\),

    \[ \frac{f(\mathbf{c}+h \mathbf{u})-f(\mathbf{c})}{h} \nonumber \]

    representaría, para cualquiera\(h>0\), una aproximación a la pendiente de la gráfica de\(f\) at (1, 1) en la dirección de\(\mathbf{u}\). Al igual que en el cálculo de una sola variable, debemos esperar que tomar el límite como\(h\) se acerca a 0 nos dé la pendiente exacta en (1, 1) en la dirección de\(\mathbf{u}\). Ahora

    \ [\ begin {alineado}
    f (\ mathbf {c} +h\ mathbf {u}) -f (\ mathbf {c}) &=f\ left (1-\ frac {h} {\ sqrt {2}}, 1-\ frac {h} {\ sqrt {2}}\ derecha) -f (1,1)\\
    &=4-2\ izquierda (1-\ frac {2} {h} {\ sqrt {2}}\ derecha) ^ {2} -\ izquierda (1-\ frac {h} {\ sqrt {2}}\ derecha) ^ {2} -1\
    &=3-3\ izquierda (1-\ sqrt {2} h+\ frac {h^ {2}} {2}} {2}\ derecha)\\
    &=3\ sqrt {2} h-\ frac {3 h^ {2}} {2}\\
    &=h\ izquierda (3\ sqrt {2} -\ frac {3 h} {2}\ derecha),
    \ end {alineado}\]

    por lo

    \[ \lim _{h \rightarrow 0} \frac{f(\mathbf{c}+h \mathbf{u})-f(\mathbf{c})}{h}=\lim _{h \rightarrow 0}\left(3 \sqrt{2}-\frac{3 h}{2}\right)=3 \sqrt{2} . \nonumber \]

    De ahí que la gráfica de\(f\) tenga una pendiente de\(3\sqrt{2}\) si partimos arriba (1, 1) y nos dirigimos en la dirección de\(\mathbf{u}\); cálculos similares mostrarían que la pendiente en la dirección de\(-\mathbf{u}\) es\(-3\sqrt{2}\) y la pendiente en la dirección de

    \[ \frac{\mathbf{w}}{\|\mathbf{w}\|}=\frac{1}{\sqrt{5}}(-1,2) \nonumber \]

    es 0.

    Definición\(\PageIndex{1}\)

    Supongamos que\(f: \mathbb{R}^{n} \rightarrow \mathbb{R}\) se define en una bola abierta alrededor de un punto\(\mathbf{c}\). Dado un vector de unidad\(\mathbf{u}\), llamamos

    \[ D_{\mathbf{u}} f(\mathbf{c})=\lim _{h \rightarrow 0} \frac{f(\mathbf{c}+h \mathbf{u})-f(\mathbf{c})}{h} , \]

    siempre que exista el límite, la derivada direccional de\(f\) en la dirección de\(\mathbf{u}\) at\(\mathbf{c}\).

    Ejemplo\(\PageIndex{2}\)

    De nuestro trabajo anterior, si\(f(x, y)=4-2 x^{2}-y^{2}\) y

    \[ u=-\frac{1}{\sqrt{2}}(1,1) , \nonumber \]

    entonces\(D_{\mathbf{u}} f(1,1)=3 \sqrt{2}\).

    Las derivadas direccionales en la dirección de los vectores base estándar serán de especial importancia.

    Definición\(\PageIndex{2}\)

    Supongamos que\(f: \mathbb{R}^{n} \rightarrow \mathbb{R}\) se define en una bola abierta alrededor de un punto\(\mathbf{c}\). Si consideramos\(f\) como una función de\(\mathbf{x}=\left(x_{1}, x_{2}, \ldots, x_{n}\right)\) y dejamos\(\mathbf{e}_{k}\) ser el\(k\) th vector base estándar\(k=1,2, \ldots, n\), entonces llamamos\(D_{\mathbf{e}_{k}} f(\mathbf{c})\), si existe, la derivada parcial de\(f\) con respecto a\(x_{k}\) en\(\mathbf{c}\).

    Las notaciones para la derivada parcial de\(f\) con respecto a\(x_k\) en un punto arbitrario\(\mathbf{x}=\left(x_{1}, x_{2}, \ldots, x_{n}\right)\) incluyen\(D_{x_{k}} f\left(x_{1}, x_{2}, \ldots, x_{n}\right), f_{x_{k}}\left(x_{1}, x_{2}, \ldots, x_{n}\right)\), y

    \[ \frac{\partial}{\partial x_{k}} f\left(x_{1}, x_{2}, \ldots, x_{n}\right). \nonumber \]

    Ahora supongamos\(f: \mathbb{R}^{n} \rightarrow \mathbb{R}\) y, para fijo\(\mathbf{x}=\left(x_{1}, x_{2}, \ldots, x_{n}\right)\), defina\(g: \mathbb{R} \rightarrow \mathbb{R}\) por

    \[ g(t)=f\left(t, x_{2}, \ldots, x_{n}\right). \nonumber \]

    Entonces

    \ [\ begin {align}
    f_ {x_ {1}}\ izquierda (x_ {1}, x_ {2},\ ldots, x_ {n}\ derecha) &=\ lim _ {h\ fila derecha 0}\ frac {f\ izquierda (\ izquierda (x_ {1}, x_ {2},\ ldots, x_ {n}\ derecha) +h\ mathbf {e} _ {1}\ derecha) -f\ izquierda (x_ {1}, x_ {2},\ ldots, x_ {n}\ derecha)} {h}\ nonumber\\
    &=\ lim _ {h\ fila derecha 0}\ frac {f\ izquierda (\ izquierda (x _ {1}, x_ {2},\ lpuntos, x_ {n}\ derecha) + (h, 0,\ lpuntos, 0)\ derecha) -f\ izquierda (x_ {1}, x_ {2},\ lpuntos, x_ {n}\ derecha)} {h}\ nonumber\\
    &=\ lim _ {h\ fila derecha 0}\ frac {f\ izquierda (x_ {1} +h, x_ {2},\ ldots, x_ {n}\ derecha) -f\ izquierda (x_ {1}, x_ {2},\ ldots, x_ {n}\ derecha)} {h}\ label {}\\
    &=\ lim _ {h\ fila derecha 0 }\ frac {g\ izquierda (x_ {1} +h\ derecha) -g\ izquierda (x_ {1}\ derecha)} {h}\ nonumber\\
    &=g^ {\ prime}\ izquierda (x_ {1}\ derecha). \ nonumber
    \ end {align}\]

    En otras palabras, podemos calcular la derivada\(f_{x_{1}}\left(x_{1}, x_{2}, \ldots, x_{n}\right)\) parcial tratando\(x_{2}, x_{3}, \ldots, x_{n}\) como constantes y diferenciando con respecto a\(x_1\) como lo haríamos en el cálculo de una sola variable. La misma sentencia se mantiene para cualquier coordenada: Para encontrar la derivada parcial con respecto a\(x_k\), tratar las otras coordenadas como constantes y diferenciar como si la función dependiera únicamente de\(x_k\).

    Ejemplo\(\PageIndex{3}\)

    Si\(f: \mathbb{R}^{2} \rightarrow \mathbb{R}\) está definido por

    \[ f(x, y)=3 x^{2}-4 x y^{2}, \nonumber \]

    entonces, tratándose\(y\) como una constante y diferenciadora con respecto a\(x\),

    \[ f_{x}(x, y)=6 x-4 y^{2} \nonumber \]

    y, tratándose\(x\) como una constante y diferenciadora con respecto a\(y\),

    \[ f_{y}(x, y)=-8 x y . \nonumber \]

    Ejemplo\(\PageIndex{4}\)

    Si\(f: \mathbb{R}^{4} \rightarrow \mathbb{R}\) está definido por

    \[ f(w, x, y, z)=-\log \left(w^{2}+x^{2}+y^{2}+z^{2}\right) , \nonumber \]

    entonces

    \ begin {alineado}
    \ frac {\ parcial} {\ parcial} f (w, z, y, z) &=-\ frac {2 w} {w^ {2} +x^ {2} +y^ {2} +z^ {2}},\\ frac {\ parcial} {
    \ x parcial} f (w, z, y, z) &=-\ frac {\ parcial} {\ parcial} f (w, z, y, z) &=\ frac {2 x} {w^ {2} +x^ {2} +y^ {2} +z^ {2}},
    \\ frac {\ parcial} {\ parcial y} f (w, z, z, z) &=-\ frac {2 y} {w^ {2} +x^ {2} +y^ { 2} +z^ {2}},
    \ end {alineado}

    y

    \[ \frac{\partial}{\partial z} f(w, z, y, z)=-\frac{2 z}{w^{2}+x^{2}+y^{2}+z^{2}} . \nonumber \]

    Ejemplo\(\PageIndex{5}\)

    Supongamos que\(g: \mathbb{R}^{2} \rightarrow \mathbb{R}\) está definido por

    \[ g(x, y)= \begin{cases}\frac{x y}{x^{2}+y^{2}}, & \text { if }(x, y) \neq(0,0), \\ 0, & \text { if }(x, y)=(0,0) .\end{cases} \nonumber \]

    Vimos en la Sección 3.1 que\(\lim _{(x, y) \rightarrow(0,0)} g(x, y)\) no existe; en particular, no\(g\) es continuo en (0, 0). Sin embargo,

    \[ \frac{\partial}{\partial x} g(0,0)=\lim _{h \rightarrow 0} \frac{g((0,0)+h(1,0))-g(0,0)}{h}=\lim _{h \rightarrow 0} \frac{g(h, 0)}{h}=\lim _{h \rightarrow 0} \frac{0}{h}=0 \nonumber \]

    y

    \[ \frac{\partial}{\partial y} g(0,0)=\lim _{h \rightarrow 0} \frac{g((0,0)+h(0,1))-g(0,0)}{h}=\lim _{h \rightarrow 0} \frac{g(0, h)}{h}=\lim _{h \rightarrow 0} \frac{0}{h}=0 . \nonumber \]

    Esto demuestra que es posible que una función tenga derivadas parciales en un punto sin ser continuas en ese punto. No obstante, veremos en la Sección 3.3 que esta función no es diferenciable en (0, 0); es decir,\(f\) no tiene una mejor aproximación afín en (0, 0).

    El gradiente

    Definición\(\PageIndex{3}\)

    Supongamos que\(f: \mathbb{R}^{n} \rightarrow \mathbb{R}\) se define en una bola abierta que contiene el punto\(\mathbf{c}\) y\(\frac{\partial}{\partial x_{k}} f(\mathbf{c})\)) existe para\(k=1,2, \ldots, n\). Llamamos al vector

    \[ \nabla f(\mathbf{c})=\left(\frac{\partial}{\partial x_{1}} f(\mathbf{c}), \frac{\partial}{\partial x_{2}} f(\mathbf{c}), \ldots, \frac{\partial}{\partial x_{n}} f(\mathbf{c})\right) \]

    el gradiente de\(f\) at\(\mathbf{c}\).

    Ejemplo\(\PageIndex{6}\)

    Si\(f: \mathbb{R}^{2} \rightarrow \mathbb{R}\) está definido por

    \[ f(x, y)=3 x^{2}-4 x y^{2}, \nonumber \]

    entonces

    \[ \nabla f(x, y)=\left(6 x-4 y^{2},-8 x y\right) . \nonumber \]

    Así, por ejemplo,\(\nabla f(2,-1)=(8,16)\).

    Ejemplo\(\PageIndex{7}\)

    Si\(f: \mathbb{R}^{4} \rightarrow \mathbb{R}\) está definido por

    \[ f(w, x, y, z)=-\log \left(w^{2}+x^{2}+y^{2}+z^{2}\right) , \nonumber \]

    entonces

    \[ \nabla f(w, x, y, z)=-\frac{2}{w^{2}+x^{2}+y^{2}+z^{2}}(w, x, y, z) . \nonumber \]

    Así, por ejemplo,

    \[ \nabla f(1,2,2,1)=-\frac{1}{5}(1,2,2,1) . \nonumber \]

    Observe que si\(f: \mathbb{R}^{n} \rightarrow \mathbb{R}\), entonces\(f: \mathbb{R}^{n} \rightarrow \mathbb{R}^n\); es decir, podemos ver el gradiente como una función que toma un vector\(n\) -dimensional para la entrada y devuelve otro vector\(n\) -dimensional. Llamamos a una función de este tipo un campo vectorial.

    Definición\(\PageIndex{4}\)

    Decimos que una función\(f: \mathbb{R}^{n} \rightarrow \mathbb{R}\) está\(C^1\) en un conjunto abierto\(U\) si\(f\) es continuo encendido\(U\) y, para\(k=1,2, \ldots, n, \frac{\partial f}{\partial x_{k}}\) es continuo encendido\(U\).

    Ahora supongamos que\(f: \mathbb{R}^{2} \rightarrow \mathbb{R}\) está\(C^1\) en alguna bola abierta que contiene la punta\(\mathbf{c}=\left(c_{1}, c_{2}\right)\). \(\mathbf{u}=\left(u_{1}, u_{2}\right)\)Sea un vector unitario y supongamos que deseamos calcular la derivada direccional\(D_{\mathbf{u}} f(\mathbf{c})\). De la definición, tenemos

    \ begin {alineado}
    D_ {\ mathbf {u}} f (\ mathbf {c}) &=\ lim _ {h\ fila derecha 0}\ frac {f (\ mathbf {c} +h\ mathbf {u}) -f (\ mathbf {c})} {h}\
    &=\ lim _ {h\ fila derecha 0}\ frac {f izquierda\ (c_ {1} +h u_ {1}, c_ {2} +h u_ {2}\ derecha) -f\ izquierda (c_ {1}, c_ {2}\ derecha)} {h}\\
    &=\ lim _ {h\ fila derecha 0}\ frac {f\ izquierda (c_ {1} +h u_ {1}, c_ {2} +h u_ {2}\ derecha) -f\ izquierda (c_ {1} +h u_ {1}, c_ {2}\ derecha) +f\ izquierda (c_ {1} +h u_ {1}, c_ {2}\ derecha) -f izquierda\ (c_ {1}, c_ {2}\ derecha)} {h}\\
    &=\ lim _ {h\ fila derecha 0}\ izquierda (\ frac {f\ izquierda (c_ {1} +h u_ {1}, c_ {2} +h u_ {2}\ derecha) -f\ izquierda (c_ {1} +h u_ {1}, c_ {2}\ derecha)} {h} +\ frac {f\ izquierda (c_ {1} +h u_ {1}, c_ {2}\ derecha) -f\ izquierda (c_ {1}, c_ {2}\ derecha)} {h}\ derecha).
    \ end {alineado}

    Para un valor fijo de\(h \neq 0\), definir\(\varphi: \mathbb{R} \rightarrow \mathbb{R}\) por

    \[ \varphi(t)=f\left(c_{1}+h u_{1}, c_{2}+t\right) . \]

    Tenga en cuenta que\(\varphi\) es diferenciable con

    \ [\ begin {align}
    \ varphi^ {\ prime} (t) &=\ lim _ {s\ fila derecha 0}\ frac {\ varphi (t+s) -\ varphi (t)} {s}\ nonumber\\
    &=\ lim _ {s\ fila derecha 0}\ frac {f\ izquierda (c_ {1} +h u_ {1}, c_ {2} +t+s\ derecha) -f\ izquierda (c_ {1} +h u_ {1}, c_ {2} +t\ derecha)} {s}\ etiqueta {}\\
    &=\ frac {\ parcial} {\ parcial y} f\ izquierda (c_ {1} +h u_ {1}, c_ {2} +t\ derecha). \ nonumber
    \ end {align}\]

    De ahí que si definimos\(\alpha: \mathbb{R} \rightarrow \mathbb{R}\) por

    \[ \alpha(t)=\varphi\left(u_{2} t\right)=f\left(c_{1}+h u_{1}, c_{2}+t u_{2}\right) , \label{3.2.7} \]

    entonces\(\alpha\) es diferenciable con

    \[ \alpha^{\prime}(t)=u_{2} \varphi^{\prime}\left(u_{2} t\right)=u_{2} \frac{\partial}{\partial y} f\left(c_{1}+h u_{1}, c_{2}+t u_{2}\right) . \label{3.2.8} \]

    Por el Teorema del Valor Medio a partir del cálculo de una sola variable, existe un número\(a\) entre 0 y\(h\) tal que

    \[ \frac{\alpha(h)-\alpha(0)}{h}=\alpha^{\prime}(a) . \label{3.2.9} \]

    Poniendo (\(\ref{3.2.7}\)\(\ref{3.2.8}\)) y () en (\(\ref{3.2.9}\)), tenemos

    \[ \frac{f\left(c_{1}+h u_{1}, c_{2}+h u_{2}\right)-f\left(c_{1}+h u_{2}, c_{2}\right)}{h}=u_{2} \frac{\partial}{\partial y} f\left(c_{1}+h u_{1}, c_{2}+a u_{2}\right) . \label{3.2.10} \]

    Del mismo modo, si definimos\(\beta: \mathbb{R} \rightarrow \mathbb{R}\) por

    \[ \beta(t)=f\left(c_{1}+t u_{1}, c_{2}\right) , \label{3.2.11} \]

    entonces\(\beta\) es diferenciable,

    \[ \beta^{\prime}(t)=u_{1} \frac{\partial}{\partial x} f\left(c_{1}+t u_{1}, c_{2}\right) , \label{3.2.12} \]

    y, utilizando de nuevo el Teorema del Valor Medio, existe un número\(b\) entre 0 y\(h\) tal que

    \[ \frac{f\left(c_{1}+h u_{1}, c_{2}\right)-f\left(c_{1}, c_{2}\right)}{h}=\frac{\beta(h)-\beta(0)}{h}=\beta^{\prime}(b)=u_{1} \frac{\partial}{\partial x} f\left(c_{1}+b u_{1}, c_{2}\right) . \label{3.2.13} \]

    Poniendo (\(\ref{3.2.10}\)\(\ref{3.2.13}\)) y () en nuestra expresión para\(D_{\mathbf{u}} f(\mathbf{c})\) arriba, tenemos

    \[ D_{\mathbf{u}} f(\mathbf{c})=\lim _{h \rightarrow 0}\left(u_{2} \frac{\partial}{\partial y} f\left(c_{1}+h u_{1}, c_{2}+a u_{2}\right)+u_{1} \frac{\partial}{\partial x} f\left(c_{1}+b u_{1}, c_{2}\right)\right) . \label{3.2.14} \]

    Ahora ambos\(a\) y\(b\) acercarse a 0 como\(h\) se acerca a 0 y ambos\(\frac{\partial f}{\partial x}\) y\(\frac{\partial f}{\partial y}\) se supone que son continuos, por lo que evaluar el límite en (\(\ref{3.2.14}\)) nos da

    \[ D_{\mathbf{u}} f(\mathbf{c})=u_{2} \frac{\partial}{\partial y} f\left(c_{1}, c_{2}\right)+u_{1} \frac{\partial}{\partial x} f\left(c_{1}, c_{2}\right)=\nabla f(\mathbf{c}) \cdot \mathbf{u} . \label{3.2.15} \]

    Una generalización directa de (\(\ref{3.2.15}\)) al caso de una función nos\(f: \mathbb{R}^{n} \rightarrow \mathbb{R}\) da el siguiente teorema.

    Teorema\(\PageIndex{1}\)

    Supongamos que\(f: \mathbb{R}^{n} \rightarrow \mathbb{R}\) está\(C^1\) en una bola abierta que contiene la punta\(\mathbf{c}\). Entonces para cualquier vector de unidad\(\mathbf{u}\),\(D_{\mathbf{u}} f(\mathbf{c})\) existe y

    \[ D_{\mathbf{u}} f(\mathbf{c})=\nabla f(\mathbf{c}) \cdot \mathbf{u} . \label{3.2.16} \]

    Ejemplo\(\PageIndex{8}\)

    Si\(f: \mathbb{R}^{2} \rightarrow \mathbb{R}\) está definido por

    \[ f(x, y)=4-2 x^{2}-y^{2}, \nonumber \]

    entonces

    \[\nabla f(x, y)=(-4 x,-2 y) . \nonumber \]

    Si

    \[\mathbf{u}=-\frac{1}{\sqrt{2}}(1,1), \nonumber \]

    entonces

    \[ D_{\mathbf{u}} f(1,1)=\nabla f(1,1) \cdot \mathbf{u}=(-4,-2) \cdot\left(-\frac{1}{\sqrt{2}}(1,1)\right)=\frac{6}{\sqrt{2}}=3 \sqrt{2} , \nonumber \]

    como vimos en este primer ejemplo de esta sección. Tenga en cuenta también que

    \[ D_{-\mathbf{u}} f(1,1)=\nabla f(1,1) \cdot(-\mathbf{u})=(-4,-2) \cdot\left(\frac{1}{\sqrt{2}}(1,1)\right)=-\frac{6}{\sqrt{2}}=-3 \sqrt{2} \nonumber \]

    y, si

    \ begin {reunió}
    \ mathbf {w} =\ frac {1} {\ sqrt {5}} (-1,2),\\
    D_ {\ mathbf {w}} f (1,1) =\ nabla f (1,1)\ cdot (\ mathbf {w}) =( -4, -2)\ cdot\ izquierda (\ frac {1} {\ sqrt {5}} (-1,2)\ derecha) =0,
    \ end {reunido}

    como se afirmó anteriormente.

    Ejemplo\(\PageIndex{9}\)

    Supongamos que la temperatura en un punto en un cubo de metal viene dada por

    \[ T(x, y, z)=80-20 x e^{-\frac{1}{20}\left(x^{2}+y^{2}+z^{2}\right)} , \nonumber \]

    donde se toma el centro del cubo para estar en (0, 0, 0). Entonces tenemos

    \ begin {reunió}
    \ frac {\ parcial} {\ parcial x} T (x, y, z) =2 x^ {2} e^ {-\ frac {1} {20}\ izquierda (x^ {2} +y^ {2} +z^ {2}\ derecha)} -20 e^ {-\ frac {1} {20}\ izquierda (x^ {2} +y^ {2} +z^ {2}\ derecha)},\\ frac {
    \ parcial} {\ parcial y} T (x, y, z) =2 x y e^ {-\ frac {1} {20}\ izquierda (x^ {2} +y^ {2} +z^ {2} +z^ {2}\ derecha)},
    \ end { reunidos}

    y

    \[ \frac{\partial}{\partial z} T(x, y, z)=2 x z e^{-\frac{1}{20}\left(x^{2}+y^{2}+z^{2}\right)} , \nonumber \]

    por lo

    \[ \nabla T(x, y, z)=e^{-\frac{1}{20}\left(x^{2}+y^{2}+z^{2}\right)}\left(2 x^{2}-20,2 x y, 2 x z\right) . \nonumber \]

    De ahí, por ejemplo, la tasa de cambio de temperatura en el origen en la dirección del vector unitario

    \[ \mathbf{u}=\frac{1}{\sqrt{3}}(1,-1,1) \nonumber \]

    es

    \[ D_{\mathbf{u}} T(0,0,0)=\nabla T(0,0,0) \cdot \mathbf{u}=(-20,0,0) \cdot\left(\frac{1}{\sqrt{3}}(1,-1,1)\right)=-\frac{20}{\sqrt{3}} . \nonumber \]

    Una aplicación de la desigualdad Cauchy-Schwarz a (\(\ref{3.2.16}\)) nos muestra que

    \[ \left|D_{\mathbf{u}} f(\mathbf{c})\right|=|\nabla f(\mathbf{c}) \cdot \mathbf{u}| \leq\|\nabla f(\mathbf{c})\|\|\mathbf{u}\|=\|\nabla f(\mathbf{c})\| . \label{3.2.17} \]

    Así, la magnitud de la velocidad de cambio de\(f\) en cualquier dirección en un punto dado nunca excede la longitud del vector de gradiente en ese punto. Además, en nuestra discusión sobre la desigualdad Cauchy-Schwarz vimos que tenemos igualdad en (\(\ref{3.2.17}\)) si y sólo si\(\mathbf{u}\) es paralela a\(\nabla f(\mathbf{c})\). En efecto, suponiendo\(\nabla f(\mathbf{c}) \neq \mathbf{0}\), cuando

    \[ \mathbf{u}=\frac{\nabla f(\mathbf{c})}{\|\nabla f(\mathbf{c})\|} , \nonumber \]

    tenemos

    \[ D_{\mathbf{u}} f(\mathbf{c})=\nabla f(\mathbf{c}) \cdot \mathbf{u}=\frac{\nabla f(\mathbf{c}) \cdot \nabla f(\mathbf{c})}{\|\nabla f(\mathbf{c})\|}=\frac{\|\nabla f(\mathbf{c})\|^{2}}{\|\nabla f(\mathbf{c})\|}=\|\nabla f(\mathbf{c})\| \]

    y

    \[ D_{-\mathbf{u}} f(\mathbf{c})=-\|\nabla f(\mathbf{c})\| . \]

    De ahí que tengamos el siguiente resultado.

    Proposición\(\PageIndex{1}\)

    Supongamos que\(f: \mathbb{R}^{n} \rightarrow \mathbb{R}\) está\(C^1\) en una bola abierta que contiene la punta\(\mathbf{c}\). Entonces\(D_{\mathbf{u}} f(\mathbf{c})\) tiene un valor máximo de\(\|\nabla f(\mathbf{c})\|\) cuándo\(\mathbf{u}\) es la dirección de\(\nabla f(\mathbf{c})\) y un valor mínimo de\(-\|\nabla f(\mathbf{c})\|\) cuándo\(\mathbf{u}\) es la dirección de\(-\nabla f(\mathbf{c})\).

    En otras palabras, el vector de gradiente apunta en la dirección de la tasa máxima de incremento de la función y el negativo del vector de gradiente apunta en la dirección de la tasa máxima de disminución de la función. Además, la longitud del vector de gradiente nos indica la tasa de aumento en la dirección del aumento máximo y su negativo nos indica la tasa de disminución en la dirección de disminución máxima.

    Ejemplo\(\PageIndex{10}\)

    Como vimos anteriormente, si\(f: \mathbb{R}^{2} \rightarrow \mathbb{R}\) se define por

    \[ f(x, y)=4-2 x^{2}-y^{2} , \nonumber \]

    entonces

    \[ \nabla f(x, y,)=(-4 x,-2 y) . \nonumber \]

    Así\(\nabla f(1,1)=(-4,-2)\). De ahí que si un bug parado arriba (1, 1) en la gráfica de\(f\) quiere dirigirse en la dirección del ascenso más rápido, debe moverse en la dirección del vector unitario

    \[\mathbf{u}=\frac{\nabla f(1,1)}{\|\nabla f(1,1)\|}=-\frac{1}{\sqrt{5}}(2,1) . \nonumber \]

    Si el error quiere dirigirse en la dirección de descenso más rápido, debe moverse en la dirección del vector unitario

    \[ -\mathbf{u}=\frac{1}{\sqrt{5}}(2,1) . \nonumber \]

    Además,

    \[ D_{\mathbf{u}} f(1,1)=\|\nabla f(1,1)\|=\sqrt{20} \nonumber \]

    y

    \[ D_{-\mathbf{u}} f(1,1)=-\|\nabla f(1,1)\|=-\sqrt{20} . \nonumber \]

    La Figura 3.2.2 muestra valores escalados de\(\nabla f(x, y)\) trazados para una cuadrícula de puntos\((x,y)\). Los vectores se escalan para que encajen en la trama, sin solapamiento, pero aún así muestran sus magnitudes relativas. Esta es otra buena forma geométrica de ver el comportamiento de la función. Suponiendo que nuestro bicho estuviera colocado en el costado de la gráfica anterior (1, 1) y que se dirigía hacia el cerro de tal manera que siempre escogió la dirección del ascenso más empinado, podemos ver que se dirigía más rápidamente hacia el\(y\) eje -eje que hacia el\(x\) -eje. De manera más explícita,

    Capturación de pantalla 2021-07-21 a las 14.49.46.png
    Figura\(\PageIndex{2}\): Vectores de gradiente escalados para\(f(x, y)=4-2 x^{2}-y^{2}\)

    si\(C\) es la sombra del camino del bug en el\(xy\) -plano, entonces la pendiente de\(C\) en cualquier punto\((x,y)\) sería

    \[ \frac{d y}{d x}=\frac{-2 y}{-4 x}=\frac{y}{2 x} . \nonumber \]

    De ahí

    \[ \frac{1}{y} \frac{d y}{d x}=\frac{1}{2 x} . \nonumber \]

    Si integramos ambos lados de esta igualdad, tenemos

    \[\int \frac{1}{y} \frac{d y}{d x} d x=\int \frac{1}{2 x} d x . \nonumber \]

    Así

    \[ \log |y|=\frac{1}{2} \log |x|+c \nonumber \]

    para alguna constante\(c\), de la que tenemos

    \[ e^{\log |y|}=e^{\frac{1}{2} \log |x|+c} . \nonumber \]

    De ello se deduce que

    \[ y=k \sqrt{|x|} , \nonumber \]

    donde\(k=\pm e^{c}\). Desde\(y=1\) cuando\(x=1\),\(k=1\) y vemos que\(C\) es la gráfica de\(y=\sqrt{x}\). La Figura 3.2.2 muestra\(C\) junto con la gráfica de los vectores de gradiente de\(f\), mientras que la Figura 3.2.3 muestra la ruta real del error en la gráfica de\(f\).

    Capturación de pantalla 2021-07-21 a las 14.56.08.png
    Figura\(\PageIndex{3}\): Gráfica\(f(x, y)=4-2 x^{2}-y^{2}\) con trayectoria de ascenso más rápido desde (1, 1, 1)

    Ejemplo\(\PageIndex{11}\)

    Para una versión bidimensional del ejemplo de temperatura discutido anteriormente, considere una placa metálica calentada de manera que su temperatura a\((x,y)\) esté dada por

    \[ T(x, y)=80-20 x e^{-\frac{1}{20}\left(x^{2}+y^{2}\right)} . \nonumber \]

    Entonces

    \[ \nabla T(x, y)=e^{-\frac{1}{20}\left(x^{2}+y^{2}\right)}\left(2 x^{2}-20,2 x y\right) , \nonumber \]

    así, por ejemplo,

    \[ \nabla T(0,0)=(-20,0) . \nonumber \]

    Así, en el origen la temperatura está aumentando más rápidamente en la dirección de (1, 0)\(u=(-1,0)\) y disminuyendo más rápidamente en la dirección de (1, 0). Además,

    \[ D_{\mathbf{u}} T(0,0)=\|\nabla f(0,0)\|=20 \nonumber \]

    y

    \[ D_{-\mathbf{u}} T(0,0)=-\|\nabla f(0,0)\|=20 . \nonumber \]

    Tenga en cuenta que

    \[ D_{-\mathbf{u}} T(0,0)=\frac{\partial}{\partial x} T(0,0) \nonumber \]

    y

    \[ D_{\mathbf{u}} T(0,0)=-\frac{\partial}{\partial x} T(0,0) . \nonumber \]

    La Figura 3.2.4 es una gráfica de vectores de gradiente escalados para esta función de temperatura. Desde la parcela es fácil ver en qué dirección tendría que elegir un bicho colocado en esta placa metálica para calentarse lo más rápido posible. También debe quedar claro que la temperatura tiene un máximo relativo alrededor\((-3,0)\) y un mínimo relativo alrededor\( (3,0) \); estos puntos son, de hecho, exactamente\((-\sqrt{10}, 0)\) y\((\sqrt{10}, 0)\), los puntos donde\(\nabla T(x, y)=(0,0)\). Consideraremos el problema de encontrar valores máximos y mínimos de funciones de más de una variable en la Sección 3.5.

    Screen Shot 2021-07-21 a las 15.00.44.png
    Figura\(\PageIndex{4}\): Vectores de gradiente escalados para\(T(x, y)=80-20 x e^{-\frac{1}{20}\left(x^{2}+y^{2}\right)}\)

    This page titled 3.2: Derivadas direccionales y el gradiente is shared under a CC BY-NC-SA 1.0 license and was authored, remixed, and/or curated by Dan Sloughter via source content that was edited to the style and standards of the LibreTexts platform.