Saltar al contenido principal
LibreTexts Español

9.3: La Derivada

  • Page ID
    111607
  • \( \newcommand{\vecs}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} } \) \( \newcommand{\vecd}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash {#1}}} \)\(\newcommand{\id}{\mathrm{id}}\) \( \newcommand{\Span}{\mathrm{span}}\) \( \newcommand{\kernel}{\mathrm{null}\,}\) \( \newcommand{\range}{\mathrm{range}\,}\) \( \newcommand{\RealPart}{\mathrm{Re}}\) \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\) \( \newcommand{\Argument}{\mathrm{Arg}}\) \( \newcommand{\norm}[1]{\| #1 \|}\) \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\) \( \newcommand{\Span}{\mathrm{span}}\) \(\newcommand{\id}{\mathrm{id}}\) \( \newcommand{\Span}{\mathrm{span}}\) \( \newcommand{\kernel}{\mathrm{null}\,}\) \( \newcommand{\range}{\mathrm{range}\,}\) \( \newcommand{\RealPart}{\mathrm{Re}}\) \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\) \( \newcommand{\Argument}{\mathrm{Arg}}\) \( \newcommand{\norm}[1]{\| #1 \|}\) \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\) \( \newcommand{\Span}{\mathrm{span}}\)\(\newcommand{\AA}{\unicode[.8,0]{x212B}}\)

    Recordemos que cuando teníamos una función\(f \colon {\mathbb{R}}\to {\mathbb{R}}\), definimos la derivada\(x\) como\[\lim_{h \to 0} \frac{f(x+h)-f(x)}{h} .\] En otras palabras, había un número\(a\) (la derivada de\(f\) at\(x\)) tal que\[\lim_{h \to 0} \left\lvert {\frac{f(x+h)-f(x)}{h} - a} \right\rvert = \lim_{h \to 0} \left\lvert {\frac{f(x+h)-f(x) - ah}{h}} \right\rvert = \lim_{h \to 0} \frac{\left\lvert {f(x+h)-f(x) - ah} \right\rvert}{\left\lvert {h} \right\rvert} = 0.\] Multiplicar por\(a\) es un mapa lineal en una dimensión. Es decir, pensamos en\(a \in L({\mathbb{R}}^1,{\mathbb{R}}^1)\). Utilizamos esta definición para extender la diferenciación a más variables. Dejar\(U \subset {\mathbb{R}}^n\) ser un subconjunto abierto y\(f \colon U \to {\mathbb{R}}^m\). Decimos que\(f\) es diferenciable en\(x \in U\) si existe\(A \in L({\mathbb{R}}^n,{\mathbb{R}}^m)\) tal que\[\lim_{\substack{h \to 0\\h\in {\mathbb{R}}^n}} \frac{\left\lVert {f(x+h)-f(x) - Ah} \right\rVert}{\left\lVert {h} \right\rVert} = 0 .\] definimos\(Df(x) := A\), o\(f'(x) := A\), y decimos que\(A\) es el derivado de\(f\) at\(x\). Cuando\(f\) es diferenciable en absoluto\(x \in U\), decimos simplemente que\(f\) es diferenciable. Para una función diferenciable, la derivada de\(f\) es una función de\(U\) a\(L({\mathbb{R}}^n,{\mathbb{R}}^m)\). Comparar con el caso unidimensional, donde la derivada es una función de\(U\) a\({\mathbb{R}}\), pero realmente queremos pensar\({\mathbb{R}}\) aquí como\(L({\mathbb{R}}^1,{\mathbb{R}}^1)\). Las normas anteriores deben estar en los espacios adecuados por supuesto. La norma en el numerador está en\({\mathbb{R}}^m\), y la norma en el denominador es\({\mathbb{R}}^n\) donde\(h\) vive. Normalmente se entiende eso\(h \in {\mathbb{R}}^n\) desde el contexto. No lo vamos a decir explícitamente a partir de ahora. Hemos vuelto a hacer trampa un poco y hemos dicho que\(A\) es el derivado. Aún no hemos demostrado que sólo hay uno, hagámoslo ahora. Dejar\(U \subset {\mathbb{R}}^n\) ser un subconjunto abierto y\(f \colon U \to {\mathbb{R}}^m\). Supongamos\(x \in U\) y existen\(A,B \in L({\mathbb{R}}^n,{\mathbb{R}}^m)\) tal que\[\lim_{h \to 0} \frac{\left\lVert {f(x+h)-f(x) - Ah} \right\rVert}{\left\lVert {h} \right\rVert} = 0 \qquad \text{and} \qquad \lim_{h \to 0} \frac{\left\lVert {f(x+h)-f(x) - Bh} \right\rVert}{\left\lVert {h} \right\rVert} = 0 .\] Entonces\(A=B\). \[\begin{split} \frac{\left\lVert {(A-B)h} \right\rVert}{\left\lVert {h} \right\rVert} & = \frac{\left\lVert {f(x+h)-f(x) - Ah - (f(x+h)-f(x) - Bh)} \right\rVert}{\left\lVert {h} \right\rVert} \\ & \leq \frac{\left\lVert {f(x+h)-f(x) - Ah} \right\rVert}{\left\lVert {h} \right\rVert} + \frac{\left\lVert {f(x+h)-f(x) - Bh} \right\rVert}{\left\lVert {h} \right\rVert} . \end{split}\] Así\(\frac{\left\lVert {(A-B)h} \right\rVert}{\left\lVert {h} \right\rVert} \to 0\) como\(h \to 0\). Es decir, dado\(\epsilon > 0\), entonces para todos\(h\) en alguna\(\delta\) -bola alrededor del origen\[\epsilon > \frac{\left\lVert {(A-B)h} \right\rVert}{\left\lVert {h} \right\rVert} = \left\lVert {(A-B)\frac{h}{\left\lVert {h} \right\rVert}} \right\rVert .\] Para cualquiera\(x\) con\(\left\lVert {x} \right\rVert=1\) let\(h = (\nicefrac{\delta}{2}) \, x\), entonces\(\left\lVert {h} \right\rVert < \delta\)\(\frac{h}{\left\lVert {h} \right\rVert} = x\) y así\(\left\lVert {A-B} \right\rVert \leq \epsilon\). Entonces\(A = B\). Si\(f(x) = Ax\) para un mapeo lineal\(A\), entonces\(f'(x) = A\). Esto se ve fácilmente:\[\frac{\left\lVert {f(x+h)-f(x) - Ah} \right\rVert}{\left\lVert {h} \right\rVert} = \frac{\left\lVert {A(x+h)-Ax - Ah} \right\rVert}{\left\lVert {h} \right\rVert} = \frac{0}{\left\lVert {h} \right\rVert} = 0 .\] Dejar\(U \subset {\mathbb{R}}^n\) ser abierto y\(f \colon U \to {\mathbb{R}}^m\) ser diferenciable en\(x_0\). Entonces\(f\) es continuo en\(x_0\). Otra forma de escribir la diferenciabilidad es escribir\[r(h) := f(x_0+h)-f(x_0) - f'(x_0) h .\] Como\(\frac{\left\lVert {r(h)} \right\rVert}{\left\lVert {h} \right\rVert}\) debe ir a cero como\(h \to 0\), entonces\(r(h)\) sí mismo debe ir a cero. El mapeo\(h \mapsto f'(x_0) h\) es mapeo lineal entre espacios dimensionales finitos. Por lo tanto es continuo y va a cero. Por lo tanto,\(f(x_0+h)\) debe ir a\(f(x_0)\) como\(h \to 0\). Es decir,\(f\) es continuo en\(x_0\). \(U \subset {\mathbb{R}}^n\)Déjese abrir y dejar\(f \colon U \to {\mathbb{R}}^m\) ser diferenciable en\(x_0 \in U\). \(V \subset {\mathbb{R}}^m\)Déjese abrir,\(f(U) \subset V\) y dejar que\(g \colon V \to {\mathbb{R}}^\ell\) sea diferenciable en\(f(x_0)\). Entonces\[F(x) = g\bigl(f(x)\bigr)\] es diferenciable en\(x_0\) y\[F'(x_0) = g'\bigl(f(x_0)\bigr) f'(x_0) .\] Sin los puntos esto a veces se escribe como\(F' = {(f \circ g)}' = g' f'\). La manera de entenderlo es que el derivado de la composición\(g \circ f\) es la composición de los derivados de\(g\) y\(f\). Es decir, si\(A := f'(x_0)\) y\(B := g'\bigl(f(x_0)\bigr)\), entonces\(F'(x_0) = BA\). Dejar\(A := f'(x_0)\) y\(B := g'\bigl(f(x_0)\bigr)\). Toma\(h \in {\mathbb{R}}^n\) y escribe\(y_0 = f(x_0)\),\(k = f(x_0+h)-f(x_0)\). Let\[r(h) := f(x_0+h)-f(x_0) - A h = k - Ah.\] Then\[\begin{split} \frac{\left\lVert {F(x_0+h)-F(x_0) - BAh} \right\rVert}{\left\lVert {h} \right\rVert} & = \frac{\left\lVert {g\bigl(f(x_0+h)\bigr)-g\bigl(f(x_0)\bigr) - BAh} \right\rVert}{\left\lVert {h} \right\rVert} \\ & = \frac{\left\lVert {g(y_0+k)-g(y_0) - B\bigl(k-r(h)\bigr)} \right\rVert}{\left\lVert {h} \right\rVert} \\ %& = %\frac %{\norm{g(y_0+k)-g(y_0) - B\bigl(k-r(h)\bigr)}} %{\norm{k}} %\frac %{\norm{f(x_0+h)-f(x_0)}} %{\norm{h}} %\\ & \leq \frac {\left\lVert {g(y_0+k)-g(y_0) - Bk} \right\rVert} {\left\lVert {h} \right\rVert} + \left\lVert {B} \right\rVert \frac {\left\lVert {r(h)} \right\rVert} {\left\lVert {h} \right\rVert} \\ & = \frac {\left\lVert {g(y_0+k)-g(y_0) - Bk} \right\rVert} {\left\lVert {k} \right\rVert} \frac {\left\lVert {f(x_0+h)-f(x_0)} \right\rVert} {\left\lVert {h} \right\rVert} + \left\lVert {B} \right\rVert \frac {\left\lVert {r(h)} \right\rVert} {\left\lVert {h} \right\rVert} . \end{split}\] First,\(\left\lVert {B} \right\rVert\) es constante y\(f\) es diferenciable en\(x_0\), por lo que el término\(\left\lVert {B} \right\rVert\frac{\left\lVert {r(h)} \right\rVert}{\left\lVert {h} \right\rVert}\) va a 0. Siguiente como\(f\) es continuo en\(x_0\), tenemos eso como\(h\) va a 0, luego\(k\) va a 0. Por lo tanto\(\frac {\left\lVert {g(y_0+k)-g(y_0) - Bk} \right\rVert} {\left\lVert {k} \right\rVert}\) va a 0 porque\(g\) es diferenciable en\(y_0\). Finalmente\[\frac {\left\lVert {f(x_0+h)-f(x_0)} \right\rVert} {\left\lVert {h} \right\rVert} \leq \frac {\left\lVert {f(x_0+h)-f(x_0)-Ah} \right\rVert} {\left\lVert {h} \right\rVert} + \frac {\left\lVert {Ah} \right\rVert} {\left\lVert {h} \right\rVert} \leq \frac {\left\lVert {f(x_0+h)-f(x_0)-Ah} \right\rVert} {\left\lVert {h} \right\rVert} + \left\lVert {A} \right\rVert .\] As\(f\) es diferenciable en\(x_0\), el término\(\frac {\left\lVert {f(x_0+h)-f(x_0)} \right\rVert} {\left\lVert {h} \right\rVert}\) se mantiene acotado como\(h\) va a 0. Por lo tanto,\(\frac{\left\lVert {F(x_0+h)-F(x_0) - BAh} \right\rVert}{\left\lVert {h} \right\rVert}\) va a cero, y\(F'(x_0) = BA\), que es lo que se reclamó. Derivadas parciales Existe otra manera de generalizar la derivada desde una dimensión. Podemos mantener constantes todas las variables menos una y tomar la derivada regular. Dejar\(f \colon U \to {\mathbb{R}}\) ser una función en un conjunto abierto\(U \subset {\mathbb{R}}^n\). Si existe el siguiente límite escribimos\[\frac{\partial f}{\partial x^j} (x) := \lim_{h\to 0}\frac{f(x^1,\ldots,x^{j-1},x^j+h,x^{j+1},\ldots,x^n)-f(x)}{h} = \lim_{h\to 0}\frac{f(x+h e_j)-f(x)}{h} .\] Llamamos a\(\frac{\partial f}{\partial x^j} (x)\) la derivada parcial de\(f\) con respecto a\(x^j\). A veces escribimos\(D_j f\) en su lugar. Para un mapeo\(f \colon U \to {\mathbb{R}}^m\) escribimos\(f = (f^1,f^2,\ldots,f^m)\), donde\(f^k\) están las funciones de valor real. Después definimos\(\frac{\partial f^k}{\partial x^j}\) (o lo escribimos como\(D_j f^k\)). Las derivadas parciales son más fáciles de calcular con toda la maquinaria del cálculo, y proporcionan una manera de calcular la derivada total de una función. \(U \subset {\mathbb{R}}^n\)Déjese abrir y dejar\(f \colon U \to {\mathbb{R}}^m\) ser diferenciable en\(x_0 \in U\). Entonces todas las derivadas parciales en\(x_0\) existir y en términos de la base estándar de\({\mathbb{R}}^n\) y\({\mathbb{R}}^m\),\(f'(x_0)\) se representa por la matriz\[\begin{bmatrix} \frac{\partial f^1}{\partial x^1}(x_0) & \frac{\partial f^1}{\partial x^2}(x_0) & \ldots & \frac{\partial f^1}{\partial x^n}(x_0) \\ \frac{\partial f^2}{\partial x^1}(x_0) & \frac{\partial f^2}{\partial x^2}(x_0) & \ldots & \frac{\partial f^2}{\partial x^n}(x_0) \\ \vdots & \vdots & \ddots & \vdots \\ \frac{\partial f^m}{\partial x^1}(x_0) & \frac{\partial f^m}{\partial x^2}(x_0) & \ldots & \frac{\partial f^m}{\partial x^n}(x_0) \end{bmatrix} .\] En otras palabras\[f'(x_0) \, e_j = \sum_{k=1}^m \frac{\partial f^k}{\partial x^j}(x_0) \,e_k .\] Si\(h = \sum_{j=1}^n c^j e_j\), entonces\[f'(x_0) \, h = \sum_{j=1}^n \sum_{k=1}^m c^j \frac{\partial f^k}{\partial x^j}(x_0) \,e_k .\] nuevamente anote el patrón arriba-abajo con los índices siendo resumió. Eso es a propósito. Fije a\(j\) y tenga en cuenta que\[\begin{split} \left\lVert {\frac{f(x_0+h e_j)-f(x_0)}{h} - f'(x_0) e_j} \right\rVert & = \left\lVert {\frac{f(x_0+h e_j)-f(x_0) - f'(x_0) h e_j}{h}} \right\rVert \\ & = \frac{\left\lVert {f(x_0+h e_j)-f(x_0) - f'(x_0) h e_j} \right\rVert}{\left\lVert {h e_j} \right\rVert} . \end{split}\] As\(h\) va a 0, el lado derecho va a cero por diferenciabilidad de\(f\), y por lo tanto\[\lim_{h \to 0} \frac{f(x_0+h e_j)-f(x_0)}{h} = f'(x_0) e_j .\] Note que\(f\) es vector valorado. Así que representan\(f\) por componentes\(f = (f^1,f^2,\ldots,f^m)\), y tenga en cuenta que tomar un límite en\({\mathbb{R}}^m\) es lo mismo que tomar el límite en cada componente por separado. Por lo tanto para cualquier\(k\) la derivada parcial\[\frac{\partial f^k}{\partial x^j} (x_0) = \lim_{h \to 0} \frac{f^k(x_0+h e_j)-f^k(x_0)}{h}\] existe y es igual al\(k\) th componente de\(f'(x_0) e_j\), y estamos hechos. Una de las consecuencias del teorema es que si\(f\) es diferenciable en\(U\), entonces\(f' \colon U \to L({\mathbb{R}}^n,{\mathbb{R}}^m)\) es una función continua si y sólo si todas las\(\frac{\partial f^k}{\partial x^j}\) son funciones continuas. Derivadas de gradiente y direccionales Let\(U \subset {\mathbb{R}}^n\) ser abierto y\(f \colon U \to {\mathbb{R}}\) es una función diferenciable. Definimos el gradiente como\[\nabla f (x) := \sum_{j=1}^n \frac{\partial f}{\partial x^j} (x)\, e_j .\] Aquí los índices superior-inferior realmente no coinciden. Supongamos que\(\gamma \colon (a,b) \subset {\mathbb{R}}\to {\mathbb{R}}^n\) es una función diferenciable y la imagen\(\gamma\bigl((a,b)\bigr) \subset U\). Escribir\(\gamma = (\gamma^1,\gamma^2,\ldots,\gamma^n)\). Dejar\[g(t) := f\bigl(\gamma(t)\bigr) .\] La función\(g\) es diferenciable y la derivada es\[g'(t) = \sum_{j=1}^n \frac{\partial f}{\partial x^j} \bigl(\gamma(t)\bigr) \frac{d\gamma^j}{dt} (t) = \sum_{j=1}^n \frac{\partial f}{\partial x^j} \frac{d\gamma^j}{dt} .\] Por conveniencia, a veces dejamos fuera los puntos donde estamos evaluando como en el lado derecho arriba. Observe\[g'(t) = (\nabla f) \bigl(\gamma(t)\bigr) \cdot \gamma'(t) = \nabla f \cdot \gamma' ,\] dónde el punto es el producto escalar estándar. Utilizamos esta idea para definir derivados en una dirección específica. Una dirección es simplemente un vector que apunta en esa dirección. Así que escoge un vector\(u \in {\mathbb{R}}^n\) tal que\(\left\lVert {u} \right\rVert = 1\). Arreglar\(x \in U\). Entonces definir\[\gamma(t) := x + tu .\] Es fácil computar eso\(\gamma'(t) = u\) para todos\(t\). Por regla de cadena\[\frac{d}{dt}\Big|_{t=0} \bigl[ f(x+tu) \bigr] = (\nabla f) (x) \cdot u ,\] donde la notación\(\frac{d}{dt}\big|_{t=0}\) representa la derivada evaluada en\(t=0\). También calculamos directamente\[\frac{d}{dt}\Big|_{t=0} \bigl[ f(x+tu) \bigr] = \lim_{h\to 0} \frac{f(x+hu)-f(x)}{h} .\] Obtenemos la derivada direccional, denotada por la\[D_u f (x) := \frac{d}{dt}\Big|_{t=0} \bigl[ f(x+tu) \bigr] ,\] cual se puede computar por uno de los métodos anteriores. Supongamos\((\nabla f)(x) \neq 0\). Por Cauchy-Schwarz la desigualdad que tenemos La\[\left\lvert {D_u f(x)} \right\rvert \leq \left\lVert {(\nabla f)(x)} \right\rVert .\] igualdad se logra cuando\(u\) es un múltiplo escalar de\((\nabla f)(x)\). Es decir, cuando\[u = \frac{(\nabla f)(x)}{\left\lVert {(\nabla f)(x)} \right\rVert} ,\] lleguemos\(D_u f(x) = \left\lVert {(\nabla f)(x)} \right\rVert\). El gradiente apunta en la dirección en la que la función crece más rápido, es decir, en la dirección en la que\(D_u f(x)\) es máxima. Limitando la derivada Probemos un “teorema del valor medio” para las funciones de valor vectorial. Si\(\varphi \colon [a,b] \to {\mathbb{R}}^n\) es diferenciable encendido\((a,b)\) y continuo encendido\([a,b]\), entonces existe\(t\) tal que\[\left\lVert {\varphi(b)-\varphi(a)} \right\rVert \leq (b-a) \left\lVert {\varphi'(t)} \right\rVert .\] Por teorema del valor medio en la función\(\bigl(\varphi(b)-\varphi(a) \bigr) \cdot \varphi(t)\) (el punto es el producto escalar de nuevo) obtenemos hay\(t\) tal que\[\bigl(\varphi(b)-\varphi(a) \bigr) \cdot \varphi(b) - \bigl(\varphi(b)-\varphi(a) \bigr) \cdot \varphi(a) = \left\lVert {\varphi(b)-\varphi(a)} \right\rVert^2 = \bigl(\varphi(b)-\varphi(a) \bigr) \cdot \varphi'(t)\] donde tratamos\(\varphi'\) como un simple vector de columnas de números por abuso de notación. Tenga en cuenta que en este caso, no es difícil verlo\(\left\lVert {\varphi'(t)} \right\rVert_{L({\mathbb{R}},{\mathbb{R}}^n)} = \left\lVert {\varphi'(t)} \right\rVert_{{\mathbb{R}}^n}\) (ejercicio FIXME). Por Cauchy-Schwarz desigualdad\[\left\lVert {\varphi(b)-\varphi(a)} \right\rVert^2 = \bigl(\varphi(b)-\varphi(a) \bigr) \cdot \varphi'(t) \leq \left\lVert {\varphi(b)-\varphi(a)} \right\rVert \left\lVert {\varphi'(t)} \right\rVert . \qedhere\] Recordemos que un conjunto\(U\) es convexo si siempre\(x,y \in U\), el segmento de línea de\(x\) a\(y\) yace en\(U\). [mv:prop:convexlip] Dejar\(U \subset {\mathbb{R}}^n\) ser un conjunto abierto convexo,\(f \colon U \to {\mathbb{R}}^m\) una función diferenciable, y\(M\) tal que\[\left\lVert {f'(x)} \right\rVert \leq M\] para todos\(x \in U\). Entonces\(f\) está Lipschitz con constante\(M\), eso es\[\left\lVert {f(x)-f(y)} \right\rVert \leq M \left\lVert {x-y} \right\rVert\] para todos\(x,y \in U\). Fijar\(x\) y\(y\) adentro\(U\) y anotar eso\((1-t)x+ty \in U\) para todos\(t \in [0,1]\) por convexidad. Siguiente\[\frac{d}{dt} \Bigl[f\bigl((1-t)x+ty\bigr)\Bigr] = f'\bigl((1-t)x+ty\bigr) (y-x) .\] Por valor medio teorema arriba obtenemos\[\left\lVert {f(x)-f(y)} \right\rVert \leq \left\lVert {\frac{d}{dt} \Bigl[ f\bigl((1-t)x+ty\bigr) \Bigr] } \right\rVert \leq \left\lVert {f'\bigl((1-t)x+ty\bigr)} \right\rVert \left\lVert {y-x} \right\rVert \leq M \left\lVert {y-x} \right\rVert . \qedhere\] Si no\(U\) es convexa la proposición no es verdadera. Para ver este hecho, toma el conjunto\[U = \{ (x,y) : 0.9 < x^2+y^2 < 1.1 \} \setminus \{ (x,0) : x < 0 \} .\] Let\(f(x,y)\) be el ángulo que la línea desde el origen hasta\((x,y)\) hace con el\(x\) eje positivo. Incluso puedes escribir la fórmula para\(f\):\[f(x,y) = 2 \operatorname{arctan}\left( \frac{y}{x+\sqrt{x^2+y^2}}\right) .\] Piense en escalera de caracol con espacio en el medio. Ver. La función es diferenciable, y la derivada está acotada\(U\), lo cual no es difícil de ver. Pensando en lo que sucede cerca de donde el\(x\) eje negativo corta el anillo por la mitad, vemos que la conclusión no puede sostenerse. Resolvamos la ecuación diferencial\(f' = 0\). Si\(U \subset {\mathbb{R}}^n\) está conectado y\(f \colon U \to {\mathbb{R}}^m\) es diferenciable y\(f'(x) = 0\), para todos\(x \in U\), entonces\(f\) es constante. Para cualquiera\(x \in U\), hay una pelota\(B(x,\delta) \subset U\). La bola\(B(x,\delta)\) es convexa. Desde\(\left\lVert {f'(y)} \right\rVert \leq 0\) para todos\(y \in B(x,\delta)\) entonces por el teorema,\(\left\lVert {f(x)-f(y)} \right\rVert \leq 0 \left\lVert {x-y} \right\rVert = 0\), así\(f(x) = f(y)\) para todos\(y \in B(x,\delta)\). Esto significa que\(f^{-1}(c)\) está abierto para cualquier\(c \in {\mathbb{R}}^m\). Supongamos que no\(f^{-1}(c)\) está vacío. Los dos conjuntos\[U' = f^{-1}(c), \qquad U'' = f^{-1}({\mathbb{R}}^m\setminus\{c\}) = \bigcup_{\substack{a \in {\mathbb{R}}^m\\a\neq c}} f^{-1}(a)\] son abiertos disjuntos, y además\(U = U' \cup U''\). Entonces como no\(U'\) está vacío, y\(U\) está conectado, eso lo tenemos\(U'' = \emptyset\). Entonces\(f(x) = c\) para todos\(x \in U\). Funciones continuamente diferenciables Decimos que\(f \colon U \subset {\mathbb{R}}^n \to {\mathbb{R}}^m\) es continuamente diferenciable, o\(C^1(U)\) si\(f\) es diferenciable y\(f' \colon U \to L({\mathbb{R}}^n,{\mathbb{R}}^m)\) es continuo. Que\(U \subset {\mathbb{R}}^n\) se abran y\(f \colon U \to {\mathbb{R}}^m\). La función\(f\) es continuamente diferenciable si y sólo si todas las derivadas parciales existen y son continuas. Sin continuidad el teorema no se sostiene. El hecho de que existan derivados parciales no significa que eso\(f\) sea diferenciable, de hecho,\(f\) puede que ni siquiera sea continuo. Ver los ejercicios FIXME. Hemos visto que si\(f\) es diferenciable, entonces existen las derivadas parciales. Además, las derivadas parciales son las entradas de la matriz de\(f'(x)\). Entonces si\(f' \colon U \to L({\mathbb{R}}^n,{\mathbb{R}}^m)\) es continuo, entonces las entradas son continuas, de ahí que las derivadas parciales sean continuas. Para probar la dirección opuesta, supongamos que las derivadas parciales existen y son continuas. Arreglar\(x \in U\). Si podemos mostrar que\(f'(x)\) existe estamos hechos, porque las entradas de la matriz\(f'(x)\) son entonces las derivadas parciales y si las entradas son funciones continuas, la función valorada en matriz\(f'\) es continua. Hagamos inducción sobre la dimensión. Primero señalemos que la conclusión es cierta cuando\(n=1\). En este caso la derivada es solo la derivada regular (ejercicio: debes comprobar que el hecho de que la función sea valorada por vector no es un problema). Supongamos que la conclusión es cierta para\({\mathbb{R}}^{n-1}\), es decir, si nos restringimos a las primeras\(n-1\) variables, la conclusión es verdadera. Es fácil ver que las primeras derivadas\(n-1\) parciales de\(f\) restringidas al conjunto donde se fija la última coordenada son las mismas que las de\(f\). En lo siguiente pensamos\({\mathbb{R}}^{n-1}\) como un subconjunto de\({\mathbb{R}}^n\), ese es el conjunto en\({\mathbb{R}}^n\) donde\(x^n = 0\). \[A = \begin{bmatrix} \frac{\partial f^1}{\partial x^1}(x) & \ldots & \frac{\partial f^1}{\partial x^n}(x) \\ \vdots & \ddots & \vdots \\ \frac{\partial f^m}{\partial x^1}(x) & \ldots & \frac{\partial f^m}{\partial x^n}(x) \end{bmatrix} , \qquad A_1 = \begin{bmatrix} \frac{\partial f^1}{\partial x^1}(x) & \ldots & \frac{\partial f^1}{\partial x^{n-1}}(x) \\ \vdots & \ddots & \vdots \\ \frac{\partial f^m}{\partial x^1}(x) & \ldots & \frac{\partial f^m}{\partial x^{n-1}}(x) \end{bmatrix} , \qquad v = %\frac{\partial f}{\partial x^n}(x) = \begin{bmatrix} \frac{\partial f^1}{\partial x^n}(x) \\ \vdots \\ \frac{\partial f^m}{\partial x^n}(x) \end{bmatrix} .\]Dejemos que\(\epsilon > 0\) se den. \(\delta > 0\)Sea tal que para cualquiera\(k \in {\mathbb{R}}^{n-1}\) con\(\left\lVert {k} \right\rVert < \delta\) nosotros tenemos\[\frac{\left\lVert {f(x+k) - f(x) - A_1k} \right\rVert}{\left\lVert {k} \right\rVert} < \epsilon .\] Por continuidad de las derivadas parciales, supongamos que\(\delta\) es lo suficientemente pequeño como\[\left\lvert {\frac{\partial f^j}{\partial x^n}(x+h) - \frac{\partial f^j}{\partial x^n}(x)} \right\rvert < \epsilon ,\] para que para todos\(j\) y todos\(h\) con\(\left\lVert {h} \right\rVert < \delta\). Dejar\(h = h_1 + t e_n\) ser un vector en\({\mathbb{R}}^n\) donde\(h_1 \in {\mathbb{R}}^{n-1}\) tal que\(\left\lVert {h} \right\rVert < \delta\). Entonces\(\left\lVert {h_1} \right\rVert \leq \left\lVert {h} \right\rVert < \delta\). Tenga en cuenta que\(Ah = A_1h_1 + tv\). \[\begin{split} \left\lVert {f(x+h) - f(x) - Ah} \right\rVert & = \left\lVert {f(x+h_1 + t e_n) - f(x+h_1) - tv + f(x+h_1) - f(x) - A_1h_1} \right\rVert \\ & \leq \left\lVert {f(x+h_1 + t e_n) - f(x+h_1) -tv} \right\rVert + \left\lVert {f(x+h_1) - f(x) - A_1h_1} \right\rVert \\ & \leq \left\lVert {f(x+h_1 + t e_n) - f(x+h_1) -tv} \right\rVert + \epsilon \left\lVert {h_1} \right\rVert . \end{split}\]Como todas las derivadas parciales existen entonces por el teorema del valor medio para cada uno\(j\) hay alguna\(\theta_j \in [0,t]\) (o\([t,0]\) si\(t < 0\)), tal que\[f^j(x+h_1 + t e_n) - f^j(x+h_1) = t \frac{\partial f^j}{\partial x^n}(x+h_1+\theta_j e_n).\] Tenga en cuenta que si\(\left\lVert {h} \right\rVert < \delta\) entonces\(\left\lVert {h_1+\theta_j e_n} \right\rVert \leq \left\lVert {h} \right\rVert < \delta\). Entonces para terminar la estimación\[\begin{split} \left\lVert {f(x+h) - f(x) - Ah} \right\rVert & \leq \left\lVert {f(x+h_1 + t e_n) - f(x+h_1) -tv} \right\rVert + \epsilon \left\lVert {h_1} \right\rVert \\ & \leq \sqrt{\sum_{j=1}^m {\left(t\frac{\partial f^j}{\partial x^n}(x+h_1+\theta_j e_n) - t \frac{\partial f^j}{\partial x^n}(x)\right)}^2} + \epsilon \left\lVert {h_1} \right\rVert \\ & \leq \sqrt{m}\, \epsilon \left\lvert {t} \right\rvert + \epsilon \left\lVert {h_1} \right\rVert \\ & \leq (\sqrt{m}+1)\epsilon \left\lVert {h} \right\rVert . \end{split}\] El Let jacobiano\(U \subset {\mathbb{R}}^n\) y\(f \colon U \to {\mathbb{R}}^n\) ser un mapeo diferenciable. Entonces define el jacobiano de\(f\) at\(x\) como\[J_f(x) := \det\bigl( f'(x) \bigr) .\] A veces esto se escribe como\[\frac{\partial(f^1,\ldots,f^n)}{\partial(x^1,\ldots,x^n)} .\] Esta última pieza de notación puede parecer algo confusa, pero es útil cuando es necesario especificar las variables exactas y los componentes de función utilizados. El jacobiano\(J_f\) es una función valorada real, y cuando\(n=1\) es simplemente la derivada. Cuando\(f\) es\(C^1\), entonces\(J_f\) es una función continua. De la regla de la cadena se deduce que:\[J_{f \circ g} (x) = J_f\bigl(g(x)\bigr) J_g(x) .\] Se puede computar directamente que el determinante nos dice qué pasa con el área/volumen. Supongamos que estamos en\({\mathbb{R}}^2\). Entonces si\(A\) es una transformación lineal, se sigue por cálculo directo que la imagen directa del cuadrado unitario\(A([0,1]^2)\) tiene área\(\left\lvert {\det(A)} \right\rvert\). Obsérvese que el signo del determinante determina la “orientación”. Si el determinante es negativo, entonces los dos lados del cuadrado unitario se voltearán en la imagen. Afirmamos sin pruebas que esto sigue para las cifras arbitrarias, no sólo la plaza. Del mismo modo, el jacobiano mide cuánto un mapeo diferenciable estira las cosas localmente, y si cambia la orientación. Ejercicios Dejar\(f \colon {\mathbb{R}}^2 \to {\mathbb{R}}\) ser dados por\(f(x,y) = \sqrt{x^2+y^2}\). Demostrar que no\(f\) es diferenciable en el origen. Definir una función\(f \colon {\mathbb{R}}^2 \to {\mathbb{R}}\) por\[f(x,y) := \begin{cases} \frac{xy}{x^2+y^2} & \text{ if $(x,y) \not= (0,0)$}, \\ 0 & \text{ if $(x,y) = (0,0)$}. \end{cases}\] a) Mostrar que las derivadas parciales\(\frac{\partial f}{\partial x}\) y\(\frac{\partial f}{\partial y}\) existen en todos los puntos (incluyendo el origen). b) Demostrar que no\(f\) es continuo en el origen (y por lo tanto no diferenciable). Definir una función\(f \colon {\mathbb{R}}^2 \to {\mathbb{R}}\) por\[f(x,y) := \begin{cases} \frac{x^2y}{x^2+y^2} & \text{ if $(x,y) \not= (0,0)$}, \\ 0 & \text{ if $(x,y) = (0,0)$}. \end{cases}\] a) Mostrar que las derivadas parciales\(\frac{\partial f}{\partial x}\) y\(\frac{\partial f}{\partial y}\) existen en todos los puntos. b) Demostrar que\(f\) es continuo en el origen. c) Demostrar que no\(f\) es diferenciable en el origen.

    This page titled 9.3: La Derivada is shared under a CC BY-SA 4.0 license and was authored, remixed, and/or curated by Jiří Lebl via source content that was edited to the style and standards of the LibreTexts platform; a detailed edit history is available upon request.