5.1: Estructura de Rn
- Page ID
- 110546
\( \newcommand{\vecs}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} } \)
\( \newcommand{\vecd}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash {#1}}} \)
\( \newcommand{\id}{\mathrm{id}}\) \( \newcommand{\Span}{\mathrm{span}}\)
( \newcommand{\kernel}{\mathrm{null}\,}\) \( \newcommand{\range}{\mathrm{range}\,}\)
\( \newcommand{\RealPart}{\mathrm{Re}}\) \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\)
\( \newcommand{\Argument}{\mathrm{Arg}}\) \( \newcommand{\norm}[1]{\| #1 \|}\)
\( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\)
\( \newcommand{\Span}{\mathrm{span}}\)
\( \newcommand{\id}{\mathrm{id}}\)
\( \newcommand{\Span}{\mathrm{span}}\)
\( \newcommand{\kernel}{\mathrm{null}\,}\)
\( \newcommand{\range}{\mathrm{range}\,}\)
\( \newcommand{\RealPart}{\mathrm{Re}}\)
\( \newcommand{\ImaginaryPart}{\mathrm{Im}}\)
\( \newcommand{\Argument}{\mathrm{Arg}}\)
\( \newcommand{\norm}[1]{\| #1 \|}\)
\( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\)
\( \newcommand{\Span}{\mathrm{span}}\) \( \newcommand{\AA}{\unicode[.8,0]{x212B}}\)
\( \newcommand{\vectorA}[1]{\vec{#1}} % arrow\)
\( \newcommand{\vectorAt}[1]{\vec{\text{#1}}} % arrow\)
\( \newcommand{\vectorB}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} } \)
\( \newcommand{\vectorC}[1]{\textbf{#1}} \)
\( \newcommand{\vectorD}[1]{\overrightarrow{#1}} \)
\( \newcommand{\vectorDt}[1]{\overrightarrow{\text{#1}}} \)
\( \newcommand{\vectE}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash{\mathbf {#1}}}} \)
\( \newcommand{\vecs}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} } \)
\( \newcommand{\vecd}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash {#1}}} \)
\(\newcommand{\avec}{\mathbf a}\) \(\newcommand{\bvec}{\mathbf b}\) \(\newcommand{\cvec}{\mathbf c}\) \(\newcommand{\dvec}{\mathbf d}\) \(\newcommand{\dtil}{\widetilde{\mathbf d}}\) \(\newcommand{\evec}{\mathbf e}\) \(\newcommand{\fvec}{\mathbf f}\) \(\newcommand{\nvec}{\mathbf n}\) \(\newcommand{\pvec}{\mathbf p}\) \(\newcommand{\qvec}{\mathbf q}\) \(\newcommand{\svec}{\mathbf s}\) \(\newcommand{\tvec}{\mathbf t}\) \(\newcommand{\uvec}{\mathbf u}\) \(\newcommand{\vvec}{\mathbf v}\) \(\newcommand{\wvec}{\mathbf w}\) \(\newcommand{\xvec}{\mathbf x}\) \(\newcommand{\yvec}{\mathbf y}\) \(\newcommand{\zvec}{\mathbf z}\) \(\newcommand{\rvec}{\mathbf r}\) \(\newcommand{\mvec}{\mathbf m}\) \(\newcommand{\zerovec}{\mathbf 0}\) \(\newcommand{\onevec}{\mathbf 1}\) \(\newcommand{\real}{\mathbb R}\) \(\newcommand{\twovec}[2]{\left[\begin{array}{r}#1 \\ #2 \end{array}\right]}\) \(\newcommand{\ctwovec}[2]{\left[\begin{array}{c}#1 \\ #2 \end{array}\right]}\) \(\newcommand{\threevec}[3]{\left[\begin{array}{r}#1 \\ #2 \\ #3 \end{array}\right]}\) \(\newcommand{\cthreevec}[3]{\left[\begin{array}{c}#1 \\ #2 \\ #3 \end{array}\right]}\) \(\newcommand{\fourvec}[4]{\left[\begin{array}{r}#1 \\ #2 \\ #3 \\ #4 \end{array}\right]}\) \(\newcommand{\cfourvec}[4]{\left[\begin{array}{c}#1 \\ #2 \\ #3 \\ #4 \end{array}\right]}\) \(\newcommand{\fivevec}[5]{\left[\begin{array}{r}#1 \\ #2 \\ #3 \\ #4 \\ #5 \\ \end{array}\right]}\) \(\newcommand{\cfivevec}[5]{\left[\begin{array}{c}#1 \\ #2 \\ #3 \\ #4 \\ #5 \\ \end{array}\right]}\) \(\newcommand{\mattwo}[4]{\left[\begin{array}{rr}#1 \amp #2 \\ #3 \amp #4 \\ \end{array}\right]}\) \(\newcommand{\laspan}[1]{\text{Span}\{#1\}}\) \(\newcommand{\bcal}{\cal B}\) \(\newcommand{\ccal}{\cal C}\) \(\newcommand{\scal}{\cal S}\) \(\newcommand{\wcal}{\cal W}\) \(\newcommand{\ecal}{\cal E}\) \(\newcommand{\coords}[2]{\left\{#1\right\}_{#2}}\) \(\newcommand{\gray}[1]{\color{gray}{#1}}\) \(\newcommand{\lgray}[1]{\color{lightgray}{#1}}\) \(\newcommand{\rank}{\operatorname{rank}}\) \(\newcommand{\row}{\text{Row}}\) \(\newcommand{\col}{\text{Col}}\) \(\renewcommand{\row}{\text{Row}}\) \(\newcommand{\nul}{\text{Nul}}\) \(\newcommand{\var}{\text{Var}}\) \(\newcommand{\corr}{\text{corr}}\) \(\newcommand{\len}[1]{\left|#1\right|}\) \(\newcommand{\bbar}{\overline{\bvec}}\) \(\newcommand{\bhat}{\widehat{\bvec}}\) \(\newcommand{\bperp}{\bvec^\perp}\) \(\newcommand{\xhat}{\widehat{\xvec}}\) \(\newcommand{\vhat}{\widehat{\vvec}}\) \(\newcommand{\uhat}{\widehat{\uvec}}\) \(\newcommand{\what}{\widehat{\wvec}}\) \(\newcommand{\Sighat}{\widehat{\Sigma}}\) \(\newcommand{\lt}{<}\) \(\newcommand{\gt}{>}\) \(\newcommand{\amp}{&}\) \(\definecolor{fillinmathshade}{gray}{0.9}\)En este capítulo estudiamos funciones definidas sobre subconjuntos del espacio real\(n\) -dimensional\(\R^n\), que consiste en todas las\(n\) -tuplas ordenadas\(\mathbf{X}=(x_1,x_2, \dots,x_n)\) de números reales, llamadas las {} o {} de\(\mathbf{X}\). Este espacio a veces se llama {}.
En esta sección introducimos una estructura algebraica para\(\R^n\). También consideramos sus {} propiedades; es decir, propiedades que pueden describirse en términos de una clase especial de subconjuntos, los barrios en\(\R^n\). En Sección~1.3 estudiamos las propiedades topológicas de\(\R^1\), las cuales seguiremos denotando simplemente como\(\R\). La mayoría de las definiciones y pruebas en la Sección~1.3 fueron declaradas en términos de barrios en\(\R\). Veremos que se traspasan a\(\R^n\) si se define adecuadamente el concepto de barrio en\(\R^n\).
Los miembros de\(\R\) tienen interpretaciones duales: geométricas, como puntos en la línea real, y algebraicas, como números reales. Suponemos que está familiarizado con la interpretación geométrica de los miembros de\(\R^2\) y\(\R^3\) como las coordenadas rectangulares de puntos en un plano y espacio tridimensional, respectivamente. Aunque\(\R^n\) no se puede visualizar geométricamente si\(n\ge4\), las ideas geométricas de\(\R\),\(\R^2\), y\(\R^3\) muchas veces nos ayudan a interpretar las propiedades de\(\R^n\) para arbitrarias\(n\).
Como dijimos en la Sección~1.3, la idea de barrio siempre se asocia con alguna definición de ``cercanía” de puntos. La siguiente definición impone una estructura algebraica sobre\(\R^n\), en términos de la cual la distancia entre dos puntos se puede definir de manera natural. Además, esta estructura algebraica será útil posteriormente para otros fines.
-2em
Tenga en cuenta que $+$” tiene dos significados distintos en\ eqref {eq:5.1.1}: a la izquierda,
\(+\) ''significa la nueva adición definida de miembros de\(\R^n\) y, a la derecha, la adición de números reales. Sin embargo, esto nunca puede conducir a confusión, ya que el significado de ``\(+\)” siempre se puede deducir de los símbolos a cada lado del mismo. Un comentario similar se aplica al uso de la yuxtaposición para indicar multiplicación escalar a la izquierda y multiplicación de números reales a la derecha.
Te dejamos la prueba del siguiente teorema (Ejercicio~).
Claramente,\(\mathbf{0}=(0,0, \dots,0)\) y, si\(\mathbf{X}=(x_1,x_2, \dots,x_n)\), entonces\ [ -\ mathbf {X} = (-x_1, -x_2,\ dots, -x_n). \] Escribimos\(\mathbf{X}+(-\mathbf{Y})\) como\(\mathbf{X}-\mathbf{Y}\). El punto\(\mathbf{0}\) se llama el {}.
Un conjunto no vacío\(V=\{\mathbf{X},\mathbf{Y},\mathbf{Z}, \dots\}\), junto con reglas como, asociar a un miembro único de\(V\) con cada par ordenado de sus miembros, y, asociar un miembro único de\(V\) con cada número real y miembro de\(V\), se dice que es un {} si tiene las propiedades enumeradas en Teorem~. Los miembros de un espacio vectorial se llaman {}. Cuando queremos enfatizar que estamos considerando a un miembro de\(\R^n\) como parte de esta estructura algebraica, hablaremos de ella como un vector; de lo contrario, hablaremos de ella como un punto.
Si\(n=1\), esta definición de longitud se reduce al valor absoluto familiar, y la distancia entre dos puntos es la longitud del intervalo que los tiene como puntos finales; para\(n=2\) y\(n=3\), la longitud y distancia de Definición~ reducir a las definiciones familiares para el plano y tres- espacio dimensional.
Si\(\mathbf{Y}=\mathbf{0}\), entonces ambos lados de son\(\mathbf{0}\), así se sostiene, con igualdad. En este caso,\(\mathbf{Y}=0\mathbf{X}\). Ahora supongamos que\(\mathbf{Y}\ne\mathbf{0}\) y\(t\) es cualquier número real. Entonces\ [\ begin {ecuación}\ label {eq:5.1.4} \ begin {array} {rcl} 0\ ar\ le\ dst {\ sum^n_ {i=1} (x_i-ty_i) ^2}\ \ ar=\ dst {\ sum^n_ {i=1} x^2_i-2t\ ^n_ {i=1} x_iy_i+t^t 2\ sum^n_ {i=1} y^2_i}\\\ \ ar=|\ mathbf {X} |^2-2 (\ mathbf {X}\ cdot\ mathbf {Y}) t+t^2|\ mathbf {Y} |^2. \ end {array} \ end {equation}\] La última expresión es un polinomio de segundo grado\(p\) en\(t\). De la fórmula cuadrática, los ceros de\(p\) son\ [ t=\ frac {(\ mathbf {X}\ cdot\ mathbf {Y})\ pm\ sqrt {(\ mathbf {X}\ cdot\ mathbf {Y}) ^2- |\ mathbf {X} |^2|\ mathbf {Y} |^2}} {|\ mathbf {Y} 2}. \] De ahí,\ [\ begin {ecuación}\ label {eq:5.1.5} (\ mathbf {X}\ cdot\ mathbf {Y}) ^2\ le |\ mathbf {X} |^2|\ mathbf {Y} |^2, \ end {ecuación}\] porque si no, entonces\(p\) tendría dos ceros reales distintos y por lo tanto sería negativo entre ellos contradictorio (Figura~), la desigualdad. Tomando raíces cuadradas en rendimientos si\(\mathbf{Y}\ne\mathbf{0}\).
Si\(\mathbf{X}=t\mathbf{Y}\), entonces\(|\mathbf{X}\cdot\mathbf{Y}|=|\mathbf{X}||\mathbf{Y}| =|t||\mathbf{Y}|^2\) (verificar), así se mantiene la igualdad. Por el contrario, si la igualdad se mantiene, entonces\(p\) tiene el cero real\(t_0=(\mathbf{X}\cdot\mathbf{Y})/|\mathbf{Y}\|^2\), y \ [\ sum_ {i=1} ^n (x_i-t_0y_i) ^2=0 \] from; por lo tanto,\(\mathbf{X}=t_0\mathbf{Y}\).
6pt12pt
Por definición,\ [\ begin {ecuación}\ label {eq:5.1.7} \ begin {array} {rcl} |\ mathbf {X} +\ mathbf {Y} |^2\ ar=\ dst\ sum^n_ {i=1} (x_i+y_i) ^2=\ sum^n_ {i=1} x^2_i+ 2\ sum^n_ {i=1} x_iy_i+\ sum^n_ {i=1} y^2_i\ [4\ jot] \ ar=|\ mathbf {X} |^2+2 (\ mathbf {X}\ cdot\ mathbf {Y}) +|\ mathbf {Y} |^2\ [2\ jot] \ ar\ le |\ mathbf {X} |^2+2|\ mathbf {X} |\, |\ mathbf {Y} |+|\ mathbf {Y} |^2\ mbox {\ quad (por la desigualdad de Schwarz)}\\ [2\ jot] \ ar =( |\ mathbf {X} |+|\ mathbf {Y} |) ^2. \ end {array} \ end {ecuación}\] Por lo tanto,\ [ |\ mathbf {X} +\ mathbf {Y} |^2\ le (|\ mathbf {X} |+|\ mathbf {Y} |) ^2. \] Tomando rendimientos de raíces cuadradas.
A partir de la tercera línea de, la igualdad se mantiene en si y solo si\(\mathbf{X}\cdot\mathbf{Y}=|\mathbf{X}||\mathbf{Y}|\), que es verdadero si y solo si uno de los vectores\(\mathbf{X}\) y\(\mathbf{Y}\) es un múltiplo escalar no negativo del otro (Lemma~).
Escribe\ [ \ mathbf {X} -\ mathbf {Z} =(\ mathbf {X} -\ mathbf {Y}) + (\ mathbf {Y} -\ mathbf {Z}), \] y aplicar Teorem~ con\(\mathbf{X}\) y\(\mathbf{Y}\) reemplazado por\(\mathbf{X}-\mathbf{Y}\) y\(\mathbf{Y}-\mathbf{Z}\).
Desde\ [ \ mathbf {X} =\ mathbf {Y} + (\ mathbf {X} -\ mathbf {Y}), \] Teoremo~ implica que\ [ |\ mathbf {X} |\ le |\ mathbf {Y} |+|\ mathbf {X} -\ mathbf {Y} |, \] que es equivalente a\ [ |\ mathbf {X} |-|\ mathbf {Y} |\ le |\ mathbf {X} -\ mathbf {Y} |. \] Intercambiando\(\mathbf{X}\) y\(\mathbf{Y}\) rendimientos\ [ |\ mathbf {Y} |-|\ mathbf {X} |\ le |\ mathbf {Y} -\ mathbf {X} |. \] Ya que\(|\mathbf{X}-\mathbf{Y}|=|\mathbf{Y}-\mathbf{X}|\), las dos últimas desigualdades implican la conclusión planteada.
El siguiente teorema enumera las propiedades de longitud, distancia y producto interno que siguen directamente de Definiciones~ y. Te dejamos la prueba (Ejercicio~).
La ecuación de una línea a través de un punto\(\mathbf{X}_0=(x_0,y_0,z_0)\) en se\(\R^3\) puede escribir paramétricamente como\ [ x=x_0+u_1t,\ quad y=y_0+u_2t,\ quad z=z_0+u_3t,\ quad -\ infty<t< \ infty, \] donde\(u_1\),\(u_2\), y no\(u_3\) son todas cero. Escribimos esto en forma vectorial como\ [\ begin {ecuación}\ label {eq:5.1.9} \ mathbf {X} =\ mathbf {X} _0+t\ mathbf {U},\ quad -\ infty<t<\ infty, \ end {ecuación}\] con\(\mathbf{U}=(u_1,u_2,u_3)\), y decimos que la línea es {}.
Hay muchas maneras de representar una línea determinada paramétricamente. Por ejemplo,\ [\ begin {ecuación}\ label {eq:5.1.10} \ mathbf {X} =\ mathbf {X} _0+s\ mathbf {V},\ quad -\ infty<s<\ infty, \ end {ecuación}\] representa la misma línea que si y solo si\(\mathbf{V}=a\mathbf{U}\) para algún número real distinto de cero\(a\). Entonces la línea se recorre en la misma dirección que\(s\) y\(t\) varía de\(-\infty\) a\(\infty\) si\(a>0\), o en direcciones opuestas si\(a<0\).
Para escribir la ecuación paramétrica de una línea a través de dos puntos\(\mathbf{X}_{0}\) y\(\mathbf{X}_1\) en\(\R^3\), tomamos\(\mathbf{U}=\mathbf{X}_1-\mathbf{0}\) en, que produce\ [ \ mathbf {X} =\ mathbf {X} _0+t (\ mathbf {X} _1-\ mathbf {X} _0) =t\ mathbf {X} _1+ (1-t)\ mathbf {X} _0,\ quad -\ infty<t<\ infty. \] El segmento de línea de\(\mathbf{X}_0\) a\(\mathbf{X}_1\) consiste en aquellos puntos para los cuales\(0\le t\le1\).
Estas nociones familiares pueden generalizarse a\(\R^n\), de la siguiente manera:
Habiendo definido la distancia en\(\R^n\), ahora podemos decir lo que queremos decir con un barrio de un punto en\(\R^n\).
Un\(\epsilon\) -vecindario de un punto\(\mathbf{X}_0\) adentro\(\R^2\) es el interior, pero no la circunferencia, del círculo de radio\(\epsilon\) alrededor\(\mathbf{X}_0\). En\(\R^3\) ella está el interior, pero no la superficie, de la esfera de radio\(\epsilon\) alrededor\(\mathbf{X}_0\).
En la Sección~1.3 indicamos varias otras definiciones en términos de\(\epsilon\) -barrios: {}, {}, {}, {}, {}, {}, {}, {}, {}, {}, {}, {}, y {}. Dado que estas definiciones son las\(\R^n\) mismas para que para\(\R\), no las vamos a repetir. Te aconsejamos que los leas de nuevo en la Sección~1.3, sustituyendo\(\R^n\) por\(\R\) y\(\mathbf{X}_{0}\) para\(x_0\).
1pc 12pt 6pt12pt
6pt12pt
Las\(n\) bolas abiertas y cerradas son generalizaciones a\(\R^n\) intervalos abiertos y cerrados.
El siguiente lema será útil más adelante en esta sección, cuando consideremos conjuntos conectados.
El segmento de línea viene dado por\ [ \ mathbf {X} =t\ mathbf {X} _2+ (1-t)\ mathbf {X} _1,\ quad 0<t<1. \] Supongamos que\(r>0\). Si\ [ |\ mathbf {X} _1-\ mathbf {X} _0|<r,\ quad |\ mathbf {X} _2-\ mathbf {X} _0|<r, \] y\(0<t<1\), entonces\ [\ begin {eqnarray*} |\ mathbf {X} -\ mathbf {X} _0|\ ar=|t\ mathbf {X} _2+ (1-t)\ mathbf {X} _1-t\ mathbf {X} _0- (1-t)\ mathbf {X} _0|\\ \ ar=|t (\ mathbf {X} _2-\ mathbf {X} _0) + (1-t)\ mathbf {X} _1-\ mathbf {X} _0) |\\ \ ar\ le t|\ mathbf {X} _2-\ mathbf {X} _0|+ (1-t) |\ mathbf {X} _1-\ mathbf {X} _0|\\ \ ar< tr+ (1-t) r=r. \ end {eqnarray*}\] -2em2em
Las pruebas en la Sección ~1.3 del Teorem~ (la unión de conjuntos abiertos es abierta, la intersección de conjuntos cerrados es cerrada) y Teorem~ y su Corolario ~ (un conjunto se cierra si y solo si contiene todos sus puntos límite) también son válidas en\(\R^n\). Deberías releerlos ahora.
El teorema de Heine—Borel (Teorem~) también se sostiene\(\R^n\), pero la prueba en la Sección~1.3 es válida solo para\(n=1\). Para probar el teorema de Heine—Borel para general\(n\), necesitamos algunas definiciones preliminares y resultados que sean de interés por derecho propio.
De esto se derivan los dos teoremas siguientes, la definición de distancia en\(\R^n\), y lo que ya sabemos sobre la convergencia en\(\R\). Te dejamos las pruebas (Ejercicios~ y).
La siguiente definición generaliza la definición del diámetro de un círculo o esfera.
Que\(\{\mathbf{X}_r\}\) sea una secuencia tal que\(\mathbf{X}_r\in S_r\ (r\ge1)\). Debido a,\(\mathbf{X}_r\in S_k\) si\(r\ge k\), así\ [ |\ mathbf {X} _r-\ mathbf {X} _s|<d (s_k)\ mbox {\ quad if\ quad} r, s\ ge k. \] De y Teorem~,\(\mathbf{X}_{r}\) converge a un límite\(\overline{\mathbf{X}}\). Ya que\(\overline{\mathbf{X}}\) es un punto límite de todos\(S_k\) y cada uno\(S_k\) está cerrado,\(\overline{\mathbf{X}}\) está en cada\(S_k\) (Corolary~). Por lo tanto\(\overline{\mathbf{X}}\in I\),, entonces\(I\ne \emptyset\). Además,\(\overline{\mathbf{X}}\) es el único punto en\(I\), ya que si\(\mathbf{Y}\in I\), entonces\ [ |\ overline {\ mathbf {X}} -\ mathbf {Y} |\ le d (s_k),\ quad k\ ge1, \] e implica que\(\mathbf{Y}=\overline{\mathbf{X}}\).
Ahora podemos probar el teorema de Heine—Borel para\(\R^n\). Este teorema se refiere a {} conjuntos. Al igual que en\(\R\), un conjunto compacto\(\R^n\) es un conjunto cerrado y acotado.
Recordemos que una colección\({\mathcal H}\) de conjuntos abiertos es una cubierta abierta de un conjunto\(S\) si\ [ S\ subconjunto\ copa\ set {H} {H\ in {\ mathcal H}}. \]
La prueba es por contradicción. Primero consideramos el caso donde\(n=2\), para que puedas visualizar el método. Supongamos que existe una cobertura\({\mathcal H}\) para\(S\) la que es imposible seleccionar una subcubierta finita. Ya que\(S\) está acotado,\(S\) está contenido en un cuadrado cerrado\ [ T=\ {(x, y) |a_1\ le x\ le a_1+L, a_2\ le x\ le a_2+L\} \] con lados de longitud\(L\) (Figura~).
6pt12pt
Bisecar los lados de\(T\) como se muestra por las líneas discontinuas en la Figura ~ conduce a cuatro cuadrados cerrados\(T^{(1)}, T^{(2)}\),,\(T^{(3)}\), y\(T^{(4)}\), con lados de longitud\(L/2\). Vamos\ [ S^ {(i)} =S\ cap T^ {(i)},\ quad 1\ le i\ le4. \] Cada uno\(S^{(i)}\), siendo la intersección de conjuntos cerrados, está cerrado, y\ [ S=\ bigcup^4_ {i=1} S^ {(i)}. \] Además,\({\mathcal H}\) abarca cada uno\(S^{(i)}\), pero al menos uno\(S^{(i)}\) no puede ser cubierto por ninguna subcolección finita de\({\mathcal H}\), ya que si todo el\(S^{(i)}\) pudiera ser, entonces también podría\(S\). Dejar\(S_1\) ser un conjunto con esta propiedad, elegido de\(S^{(1)}\),\(S^{(2)}\),\(S^{(3)}\), y\(S^{(4)}\). Ahora volvemos a la situación de la que partimos: un conjunto compacto\(S_1\) cubierto por\({\mathcal H}\), pero no por ninguna subcolección finita de\({\mathcal H}\). Sin embargo,\(S_1\) está contenido en un cuadrado\(T_1\) con lados de longitud\(L/2\) en lugar de\(L\). Bisecando los lados\(T_1\) y repitiendo el argumento, obtenemos un subconjunto\(S_2\) de\(S_1\) que tiene las mismas propiedades que\(S\), excepto que está contenido en un cuadrado con lados de longitud\(L/4\). Continuando de esta manera se produce una secuencia de conjuntos cerrados no vacíos\(S_0\,(=S)\)\(S_1\),\(S_2\),,, tal que\(S_k\supset S_{k+1}\) y\(d(S_k)\le L/2^{k-1/2}\,(k\ge0)\). Del Teorem~, hay un punto\(\overline{\mathbf{X}}\) en\(\bigcap^\infty_{k=1}S_k\). Ya que\(\overline{\mathbf{X}}\in S\), hay un conjunto abierto\(H\) en\({\mathcal H}\) que contiene\(\overline{\mathbf{X}}\), y este también\(H\) debe contener algún\(\epsilon\) -barrio de\(\overline{\mathbf{X}}\). Dado que cada\(\mathbf{X}\) en\(S_k\) satisface la desigualdad\ [ |\ mathbf {X} -\ overline {\ mathbf {X}} |\ le2^ {-k+1/2} L, \] se deduce que\(S_k\subset H\) para\(k\) suficientemente grande. Esto contradice nuestra suposición sobre\({\mathcal H}\), lo que nos llevó a creer que no\(S_k\) podía ser cubierto por un número finito de conjuntos de\({\mathcal H}\). En consecuencia, esta suposición debe ser falsa:\({\mathcal H}\) debe tener una subcolección finita que cubra\(S\). Esto completa la prueba para\(n=2\).
La idea de la prueba es la misma para\(n>2\). La contraparte del cuadrado\(T\) es el {} con lados de longitud\(L\):\ [ T=\ set {(x_1, x_2,\ dots, x_n)} {a_i\ le x_i\ le a_i+L, i=1,2,\ dots, n}. \] Halving los intervalos de variación de las\(n\) coordenadas\(x_1\),\(x_2\),,\(x_n\)\(T\) divide en hipercubos\(2^n\) cerrados con lados de longitud\(L/2\):\ [ T^ {(i)} =\ set {(x_1, x_2,\ dots, x_n)} {b_i\ le x_i\ le b_i+l/2, 1\ le i\ le n}, \] donde\(b_i=a_i\) o\(b_i=a_i+L/2\). Si no hay una subcolección finita de\({\mathcal H}\) cubiertas\(S\), entonces al menos uno de estos hipercubos más pequeños debe contener un subconjunto\(S\) que no esté cubierto por ninguna subcolección finita de\(S\). Ahora la prueba procede en cuanto a\(n=2\).
El teorema de Bolzano—Weierstrass es válido en\(\R^n\); su prueba es la misma que en\(\R\).
Aunque es legítimo considerar funciones definidas en dominios arbitrarios, restringimos nuestro estudio de funciones de una variable principalmente a funciones definidas en intervalos. Hay buenas razones para ello. Si queremos plantear cuestiones de continuidad y diferenciabilidad en cada punto del dominio\(D\) de una función\(f\), entonces cada punto de\(D\) debe ser un punto límite de\(D^0\). Los intervalos tienen esta propiedad. Además, la definición de\(\int_a^b f(x)\,dx\) es obviamente aplicable sólo si\(f\) se define en\([a,b]\).
No es productivo considerar cuestiones de continuidad y diferenciabilidad de funciones definidas sobre la unión de intervalos disjuntos, ya que muchos resultados importantes simplemente no se sostienen para tales dominios. Por ejemplo, el teorema del valor intermedio (Teorem~; ver también Ejercicio~) dice que si\(f\) es continuo en un intervalo\(I\) y\(f(x_1)<\mu<f(x_2)\) para algunos\(x_1\) y\(x_2\) en\(I\), entonces\(f(\overline{x})=\mu\) para algunos\(\overline{x}\) en\(I\). Teorem~ dice que\(f\) es constante en un intervalo\(I\) si está\(f'\equiv0\) encendido\(I\). Ninguno de estos resultados se mantiene si\(I\) es la unión de intervalos disjuntos en lugar de un solo intervalo; así, si\(f\) está definido\(I=(0,1)\cup (2,3)\) por\ [ f (x) =\ left\ {\ casespace\ begin {array} {ll} 1, &0<x<1,\\ 0, &2<x<3,\ end {array}\ right. \] entonces\(f\) es continuo en\(I\), pero no asume ningún valor entre\(0\) y\(1\), y\(f'\equiv0\) on\(I\), pero no\(f\) es constante.
No es difícil ver por qué estos resultados no se mantienen para esta función: el dominio de\(f\) consta de dos piezas desconectadas. Sería más sensato considerar\(f\) como dos funciones completamente distintas, una definida sobre\((0,1)\) y la otra en\((2,3)\). Los dos resultados mencionados son válidos para cada una de estas funciones.
Como veremos cuando estudiemos funciones definidas en subconjuntos de\(\R^n\), consideraciones como las que acabamos de citar como hacer natural considerar funciones definidas en intervalos nos\(\R\) llevan a señalar una clase preferida de subconjuntos como dominios de funciones de\(n\) variables. Estos subconjuntos se llaman {}. Para definir este término, primero necesitamos la siguiente definición.
6pt12pt
Si\(\mathbf{X}_1,\mathbf{X}_2, \dots,\mathbf{X}_k\) son puntos en\(\R^n\) y\(L_i\) es el segmento de línea de\(\mathbf{X}_i\) a\(\mathbf{X}_{i+1}\)\(1\le i\le k-1\),, decimos que\(L_1\),\(L_2\),\(L_{k-1}\) forman un {} de\(\mathbf{X}_1\) a\(\mathbf{X}_k\), y eso\(\mathbf{X}_{1}\) y\(\mathbf{X}_k\) son {} por la trayectoria poligonal. Por ejemplo, Figure~ muestra una trayectoria poligonal en la\(\R^2\) conexión\((0,0)\) con\((3,3)\). Un conjunto\(S\) es {} si cada par de puntos en se\(S\) puede conectar por un camino poligonal que se encuentra completamente en\(S\).
Para la suficiencia, mostraremos que si\(S\) está desconectado, entonces no\(S\) está conectado poligonalmente. Dejar\(S=A\cup B\), dónde\(A\) y\(B\) satisfacer. Supongamos que\(\mathbf{X}_1\in A\) y\(\mathbf{X}_2\in B\), y supongamos que hay una trayectoria poligonal en la\(S\) conexión\(\mathbf{X}_{1}\) con\(\mathbf{X}_2\). Entonces algún segmento de línea\(L\) en esta ruta debe contener un punto\(\mathbf{Y}_1\) adentro\(A\) y un punto\(\mathbf{Y}_2\) adentro\(B\). El segmento de línea\ [ \ mathbf {X} =t\ mathbf {Y} _2+ (1-t)\ mathbf {Y} _1,\ quad 0\ le t\ le1, \] es parte de\(L\) y por lo tanto en\(S\). Ahora define\ [ \ rho=\ sup\ set {\ tau} {Ty_2+ (1-t)\ mathbf {Y} _1\ en A,\ 0\ le t\ le \ le\ tau\ le1}, \] y dejar\ [ \ mathbf {X} _\ rho=\ rho\ mathbf {Y} _2+ (1-\ rho)\ mathbf {Y} _1. \] Entonces\(\mathbf{X}_\rho\in\overline{A}\cap\overline{B}\). No obstante, desde $_AB $ y\(\overline{A}\cap B=A\cap\overline{B}=\emptyset\), esto es imposible. Por lo tanto, la suposición de que existe un camino poligonal en\(S\) de\(\mathbf{X}_1\) a\(\mathbf{X}_2\) debe ser falsa.
Por necesidad, supongamos que\(S\) es un conjunto abierto conectado y\(\mathbf{X}_0\in S\). Let\(A\) Ser el conjunto que consiste en\(\mathbf{X}_0\) y los puntos en\(S\) pueden ser conectados\(\mathbf{X}_0\) por caminos poligonales en\(S\). Dejar\(B\) ser conjunto de puntos en los\(S\) que no se puede conectar\(\mathbf{X}_0\) por caminos poligonales. Si\(\mathbf{Y}_0\in S\), entonces\(S\) contiene un\(\epsilon\) -barrio\(N_\epsilon (\mathbf{Y}_0)\) de\(\mathbf{Y}_0\), ya que\(S\) está abierto. Cualquier punto\(\mathbf{Y}_1\) en\(N_\epsilon (\mathbf{Y}_{0}\) puede ser conectado\(\mathbf{Y}_0\) por el segmento de línea\ [ \ mathbf {X} =t\ mathbf {Y} _1+ (1-t)\ mathbf {Y} _0,\ quad 0\ le t\ le1, \] que se encuentra en\(N_\epsilon(\mathbf{Y}_0)\) (Lemma~) y por lo tanto en\(S\). Esto implica que se\(\mathbf{Y}_0\) puede conectar a\(\mathbf{X}_0\) por un camino poligonal en\(S\) si y solo si cada miembro de\(N_\epsilon (\mathbf{Y}_{0})\) puede también. Así,\(N_\epsilon(\mathbf{Y}_0)\subset A\) si\(\mathbf{Y}_0\in A\), y\(N_\epsilon (\mathbf{Y}_0)\in B\) si\(\mathbf{Y}_0\in B\). Por lo tanto,\(A\) y\(B\) están abiertos. Ya que\(A\cap B =\emptyset\), esto implica que\(A\cap\overline{B}=\overline{A}\cap B=\emptyset\) (Ejercicio~). Dado que no\(A\) está vacío\((\mathbf{X}_0\in A)\), ahora se deduce que\(B=\emptyset\), ya que si\(B\ne\emptyset\),\(S\) estaría desconectado (Definición~). Por lo tanto\(A=S\),, que completa la prueba de necesidad.
No utilizamos el supuesto que\(S\) está abierto en la prueba de suficiencia. De hecho, en realidad probamos que cualquier conjunto conectado poligonalmente, abierto o no, está conectado. Lo contrario es falso. Un conjunto (no abierto) puede estar conectado pero no conectado poligonalmente (Ejercicio~).
Nuestro estudio de funciones se\(\R^n\) ocupará principalmente de funciones cuyos dominios son regiones, definidas a continuación.
De Definition~, una secuencia\(\{\mathbf{X}_r\}\) de puntos en\(\R^n\) converge a un límite\(\overline{\mathbf{X}}\) si y solo si por cada\(\epsilon>0\) hay un entero\(K\) tal que\ [ |\ mathbf {X} _r-\ overline {\ mathbf {X}} |<\ épsilon\ mbox {\ quad if\ quad} r\ ge K. \]
Las\(\R^n\) definiciones de divergencia, límite, subsecuencia, y sumas, diferencias y múltiplos constantes de secuencias son análogas a las dadas en las Secciones 4.1 y 4.2 para el caso donde\(n=1\). Ya que no\(\R^n\) está ordenado para\(n>1\), monotonicidad, límites inferiores y superiores de secuencias en\(\R^n\), y divergencia a\(\pm\infty\) son indefinidos para\(n>1\). Productos y cocientes de miembros de también\(\R^n\) son indefinidos si\(n>1\).
24pt 6pt 12pt12pt
Varios teoremas de las Secciones ~4.1 y 4.2 siguen siendo válidos para secuencias en\(\R^n\), con pruebas sin cambios, siempre que ``\(|\quad |\)"se interprete como distancia adentro\(\R^n\). (Se requiere un cambio trivial: el subíndice\(n\), utilizado en las Secciones~4.1 y 4.2 para identificar los términos de la secuencia, debe ser reemplazado, ya que\(n\) aquí representa la dimensión del espacio). Estos incluyen Teoremas ~ (unicidad del límite), (amplitud de una secuencia convergente), partes de (concernientes a límites de sumas, diferencias y múltiplos constantes de secuencias convergentes), y (cada subsecuencia de una secuencia convergente convergente converge al límite de la secuencia).
{\(),\)y\(\ref{exer:1.3.21}.\)}
Ahora estudiamos funciones de\(n\) variables de valor real. Denotamos el dominio de una función\(f\) por\(D_f\) y el valor de\(f\) en un punto\(\mathbf{X}=(x_1,x_2, \dots,x_n)\) por\(f(\mathbf{X})\) o\(f(x_1,x_2, \dots,x_n)\). Seguimos la convención adoptada en la Sección~2.1 para funciones de una variable: Si una función es definida por una fórmula como\ [\ begin {eqnarray} f (\ mathbf {X}) \ ar=\ left (1-x^2_1-x^2_2-\ cdots-x^2_n\ right) ^ {1/2}\ label {eq:5.2.1}\ \ arraytext {o}\ nonumber\\ g (\ mathbf {X}) \ ar=\ izquierda (1-x^2_1-x^2_2-\ cdots-x^2_n\ right) ^ {-1}\ label {eq:5.2.2} \ end {eqnarray}\] sin especificación de su dominio, se debe entender que su dominio es el subconjunto más grande del\(\R^n\) cual la fórmula define un número real único. Así, a falta de cualquier otra estipulación, el dominio de\(f\) in es la\(n\) bola cerrada\(\set{\mathbf{X}}{|\mathbf{X}|\le1}\), mientras que el dominio de\(g\) in es el conjunto\(\set{\mathbf{X}}{|\mathbf{X}|\ne1}\).
El objetivo principal de esta sección es estudiar los límites y la continuidad de las funciones de\(n\) las variables. Las pruebas de muchos de los teoremas aquí son similares a las pruebas de sus contrapartes en las Secciones~2.1 y. Te dejamos la mayoría de ellos a ti.
Definición~ no requiere que\(f\) se defina en\(\mathbf{X}_0\), o incluso en un vecindario eliminado de\(\mathbf{X}_{0}\).
6ptEl siguiente teorema es análogo al Teoremo~2.1.3. Te dejamos su comprobante (Ejercicio~).
Al investigar si una función tiene un límite en un punto\(\mathbf{X}_0\), no se puede hacer ninguna restricción en la forma en que se\(\mathbf{X}\) aproxima\(\mathbf{X}_0\), salvo que\(\mathbf{X}\) debe estar en\(D_f\). El siguiente ejemplo muestra que las restricciones incorrectas pueden llevar a conclusiones incorrectas.
La suma, diferencia y producto de las funciones de\(n\) las variables se definen de la misma manera que lo son para las funciones de una variable (Definición~), y la prueba del siguiente teorema es la misma que la prueba del Teorem~.
6pt12pt
Te dejamos a ti definir\(\lim_{|\mathbf{X}|\to\infty} f(\mathbf{X})=\infty\) y\(\lim_{|\mathbf{X}|\to\infty} f(\mathbf{X})=-\infty\) (Ejercicio~).
Continuaremos la convención adoptada en la Sección~2.1: $\ lim_ {\ mathbf {X}\ to\ mathbf {X} _0} f (\ mathbf {X}) $ existe” significa que $\ lim_ {\ mathbf {X}\ to\ mathbf {X} _0} f (\ mathbf {X}) =L$, donde $L$ es finito; dejar abierto la posibilidad de que $L=\ pm\ infty$, diremos que
\(\lim_{\mathbf{X}\to\mathbf{X}_0} f(\mathbf{X})\) existe en el extendido reales.” Una convención similar se aplica a los límites como\(|\mathbf{X}|\to\infty\).
Teorem~ sigue siendo válido si $\ lim_ {\ mathbf {X}\ to\ mathbf {X} _0} $” se sustituye por
\(\lim_{|\mathbf{X}|\to\infty}\),” siempre que no\(D\) esté acotado. Además,,, y son válidos en cualquiera de las versiones del Teorem~ si alguno o ambos de\(L_1\) y\(L_2\) son infinitos, siempre que sus lados derechos no sean indeterminados, y sigan siendo válidos si\(L_2\ne 0\) y\(L_1/L_2\) no son indeterminados.
Ahora definimos continuidad para funciones de\(n\) variables. La definición es bastante similar a la definición de funciones de una variable.
El siguiente teorema se desprende de esto y Definición~.
Al aplicar este teorema cuando\(\mathbf{X}_0\in D^0_f\), usualmente omitiremos ``y”\(\mathbf{X}\in D_f\), entendiéndose eso\(S_\delta (\mathbf{X}_{0}) \subset D_f\).
Vamos a decir que\(f\) es {}\(S\) si\(f\) es continuo en cada punto de\(S\).
Teorem~ implica el siguiente teorema, que es análogo al Teorem~ y, como este último, nos permite investigar la continuidad de una función dada considerando la función como resultado de la suma, resta, multiplicación y división de funciones más simples.
Supongamos que\(g_1\)\(g_2\),,\(g_n\) son funciones de valor real definidas en un subconjunto\(T\) de\(\R^m\), y definen la {}\(\mathbf{G}\) on\(T\) por \ [\ mathbf {G} (\ mathbf {U}) =\ left (g_1 (\ mathbf {U}), g_2 (\ mathbf {U}),\ dots, g_n (\ mathbf {U})\ right),\ quad\ mathbf {U}\ en T. \] Entonces \(g_1\),\(g_2\),,\(g_n\) son los {} de\(\mathbf{G}=(g_1,g_2, \dots,g_n)\). Decimos que\ [ \ lim_ {\ mathbf {U}\ a\ mathbf {U} _0}\ mathbf {G} (\ mathbf {U}) =\ mathbf {L} =( L_1, L_2,\ dots, L_n) \] si\ [ \ lim_ {\ mathbf {U}\ a\ mathbf {U} _0} g_i (\ mathbf {U}) =L_i,\ quad 1\ le i\ le n, \] y eso\(\mathbf{G}\) es {} en\(\mathbf{U}_0\) si\(g_1\),,\(g_2\),\(g_n\) son cada uno continuo en\(\mathbf{U}_0\).
El siguiente teorema se desprende del Teorem~ y Definiciones~ y. Omitimos la prueba.
El siguiente teorema sobre la continuidad de una función compuesta es análogo al Teorem~.
6pt12pt
Supongamos que\(\epsilon>0\). Dado que\(f\) es continuo en\(\mathbf{X}_0=\mathbf{G}(\mathbf{U}_0)\), hay\(\epsilon_1>0\) tal que\ [\ begin {ecuación}\ label {eq:5.2.17} |f (\ mathbf {X}) -f (\ mathbf {G} (\ mathbf {U} _0)) |<\ epsilon \ end {ecuación}\] if\ [\ begin {ecuación}\ label {eq:5.2.18} |\ mathbf {X} -\ mathbf {G} (\ mathbf {U} _0) |<\ epsilon_1\ mbox {\ quad y\ quad} \ mathbf {X}\ in d_F. \ end {ecuación}\] Dado que\(\mathbf{G}\) es continuo en\(\mathbf{U}_0\), hay\(\delta>0\) tal que\ [ |\ mathbf {G} (\ mathbf {U}) -\ mathbf {G} (\ mathbf {U} _0) |<\ epsilon_1\ mbox { \ quad if\ quad} |\ mathbf {U} -\ mathbf {U} -\ mathbf {U} _0|< \ delta\ mbox {\ quad y\ quad}\ mathbf {U}\ en D_\ mathbf {G}. \] Al tomar\(\mathbf{X}=\mathbf{G}(\mathbf{U})\) y, vemos que\ [ |h (\ mathbf {U}) -h (\ mathbf {U} _0) |=|f (\ mathbf {G} (\ mathbf {U}) -f (\ mathbf {G} (\ mathbf {U} _0)) |<\ epsilon\] if\ [ | \ mathbf {U} -\ mathbf {U} -\ mathbf bf {U} _0|<\ delta\ mbox {\ quad y\ quad}\ mathbf {U}\ en T. \]
-.4em Las definiciones de {}, y {} en un conjunto\(S\) son las mismas para las funciones de\(n\) variables que para las funciones de una variable, al igual que las definiciones de {} y {} de una función en un conjunto\(S\) (Sección 2.2). Las pruebas de los dos teoremas siguientes son similares a las de Teoremas ~ y (Ejercicios~ y).
El siguiente teorema es análogo al Teorem~.
Si no hay tal\(\mathbf{C}\), entonces\(S=R\cup T\), donde\ [\ begin {eqnarray*} R\ ar=\ set {\ mathbf {X}} {\ mathbf {X}\ en S\ mbox {y} f (\ mathbf {X}) <u}\\ \ arraytext {y}\\ T\ ar=\ set {\ mathbf {X}} {\ mathbf {X}\ in S\ mbox {y} f (\ mathbf {X}) >u}. \ end {eqnarray*}\] Si\(\mathbf{X}_0\in R\), la continuidad de\(f\) implica que hay\(\delta>0\) tal que\(f(\mathbf{X})<u\) si\(|\mathbf{X}-\mathbf{X}_0|<\delta\) y\(\mathbf{X}\in S\). Esto significa que\(\mathbf{X}_0\not\in\overline{T}\). Por lo tanto,\(R\cap\overline{T}=\emptyset\). De igual manera,\(\overline{R}\cap T=\emptyset\). Por lo tanto,\(S\) se desconecta (Definición~), lo que contradice la suposición de que\(S\) es una región (Ejercicio~). De ahí, concluimos que\(f(\mathbf{C})=u\) para algunos\(\mathbf{C}\) en\(S\).
-.4em La definición de continuidad uniforme para funciones de\(n\) variables es la misma que para funciones de una variable;\(f\) es uniformemente continua en un subconjunto\(S\) de su dominio en\(\R^n\) si por cada\(\epsilon>0\) hay un\(\delta>0\) tal que\ [ |f (\ mathbf {X}) -f (\ mathbf {X} ') |& lt;\ épsilon \] cuando\(|\mathbf{X}-\mathbf{X}'|<\delta\) y\(\mathbf{X},\mathbf{X}'\in S\). Destacamos nuevamente que\(\delta\) deben depender sólo de\(\epsilon\) y\(S\), y no de los puntos particulares\(\mathbf{X}\) y\(\mathbf{X}'\).
La prueba del siguiente teorema es análoga a la del Teorem~. Te lo dejamos a ti (Ejercicio~).
{}
Decir que una función de una variable tiene una derivada at\(x_0\) es lo mismo que decir que es diferenciable at\(x_0\). La situación no es tan sencilla para una función\(f\) de más de una variable. Primero, no hay un número específico que pueda llamarse {} derivado de\(f\) en un punto\(\mathbf{X}_0\) en\(\R^n\). De hecho, hay infinitamente muchos números, llamados los {}\(\mathbf{X}_0\) (definidos a continuación), que son análogos a la derivada de una función de una variable. En segundo lugar, veremos que la existencia de derivadas direccionales at\(\mathbf{X}_0\) no implica que\(f\) sea diferenciable en\(\mathbf{X}_0\), si la diferenciabilidad at\(\mathbf{X}_0\) es implicar (como lo hace para funciones de una variable) que\(f(\mathbf{X})-f(\mathbf{X}_0)\) puede aproximarse bien cerca\(\mathbf{X}_0\) por un simple función lineal, o incluso que\(f\) es continua en\(\mathbf{X}_0\).
Ahora definiremos derivadas direccionales y derivadas parciales de funciones de varias variables. Sin embargo, todavía tendremos ocasión de referirnos a derivadas de funciones de una variable. Los llamaremos {} derivados cuando queramos distinguir entre ellos y las derivadas parciales que estamos a punto de definir.
-2em2em
Las derivadas direccionales que más nos interesan son aquellas en las direcciones de los vectores unitarios\ [ \ mathbf {E} _1 =( 1,0,\ puntos,0),\ quad\ mathbf {E} _2 =( 0,1,0,\ puntos,0), \ puntos,\ quad \ mathbf {E} _n =( 0,\ puntos,0,1). \] (Todos los componentes de\(\mathbf{E}_i\) son cero excepto el\(i\) th, que es\(1\).) Dado que\(\mathbf{X}\) y\(\mathbf{X}+t\mathbf{E}_i\) difieren sólo en la coordenada\(i\) th,\(\partial f(\mathbf{X})/\partial\mathbf{E}_i\) se llama el {}. También se denota por\(\partial f(\mathbf{X})/\partial x_i\) o\(f_{x_i}(\mathbf{X})\); así,\ [ \ frac {\ parcial f (\ mathbf {X})} {\ parcial x_1} =f_ {x_1} (\ mathbf {X}) =\ lim_ {t\ a 0}\ frac {f (x_1+t, x_2,\ dots, x_n) -f (x_1, x_2,\ puntos, x_n)} {t}, \]
\ [ \ frac {\ parcial f (\ mathbf {X})} {\ parcial x_i} =f_ {x_i} (\ mathbf {X}) = \ lim_ {t\ to0} \ frac {{f (x_1,\ puntos, x_ {i-1}, x_i+t, x_ {i+1},\ puntos, x_n)} -f (x_1, x_2,\ dots, x_n) } {t} \] if\(2\le i\le n\), y\ [ \ frac {\ parcial f (\ mathbf {X})} {\ parcial x_n} =f_ {x_n} (\ mathbf {X}) =\ lim_ {t\ a 0}\ frac {f (x_1,\ dots, x_ {n-1}, x_n+t) -f (x_1,\ dots, x_ {n-1}, x_n)} {t}, \] si existen los límites.
Si escribimos\(\mathbf{X}=(x,y)\), entonces denotamos las derivadas parciales en consecuencia; así,\ [\ begin {eqnarray*} \ frac {\ parcial f (x, y)} {\ parcial x}\ ar=f_x (x, y) =\ lim_ {h\ a 0} \ frac {f (x+h, y) - f (x, y)} {h}\\ \ arraytext {y}\\ \ frac {\ parcial f (x, y)} {\ parcial y}\ ar=f_y (x, y) =\ lim_ {h\ a 0} \ frac {f (x, y+h) - f (x, y )} {h}. \ end {eqnarray*}\]
Se puede ver a partir de estas definiciones que para calcular simplemente\(f_{x_i}(\mathbf{X})\) nos diferenciamos\(f\) con respecto a\(x_i\) según las reglas para la diferenciación ordinaria, al tiempo que se tratan las otras variables como constantes.
1pc-3em3em
El siguiente teorema se desprende de la regla que se acaba de dar para calcular las derivadas parciales.
Si\(f_{x_i}(\mathbf{X})\) existe en cada punto de un conjunto\(D\), entonces define una función\(f_{x_i}\) on\(D\). Si esta función tiene una derivada parcial con respecto a\(x_j\) un subconjunto de\(D\), denotamos la derivada parcial por\ [ \ frac {\ parcial} {\ parcial} {\ parcial x_j}\ left (\ frac {\ parcial f} {\ parcial x_ {i}} \ right) =\ frac {\ parcial^2 f} {\ parcial x_j\ parcial x_i} =f_ {x_ix_j}. \] Del mismo modo, \ [\ frac {\ parcial} {\ x_k parcial}\ izquierda (\ frac {\ parcial^2 f} {\ x_j parcial \ x_i parcial}\ derecha) =\ frac {\ parcial^3 f} {\ x_k parcial\ x_j parcial \ x_i parcial} =f_ {x_ix_jx_k}. \] La función obtenida diferenciando\(f\) sucesivamente con respecto a\(x_{i_1}, x_{i_2}, \dots, x_{i_r}\) se denota por\ [ \ frac {\ parcial^r f} {\ parcial x_ {i_r}\ parcial x_ {i_ {r-1}}\ cdots\ parcial x_ {i1}} =f_ {x_ {i_1}}\ cdots x_ {i_ {r-1}} x_ {i_i_r}; \] es un {}.
Este ejemplo muestra eso\(f_{xy}(\mathbf{X}_0)\) y\(f_{yx}(\mathbf{X}_0)\) puede diferir. No obstante, el siguiente teorema muestra que son iguales si\(f\) satisface una condición bastante leve.
Supongamos que\(\epsilon>0\). Elige\(\delta>0\) para que el cuadrado abierto
\ [ S_\ delta =\ set {(x, y)} {|x-x_0|<\ delta, |y-y_0|<\ delta} \] está adentro\(N\) y\ [\ begin {ecuación}\ label {eq:5.3.6} |f_ {xy} (\ sombrero ancho {x},\ sombrero ancho {y}) -f_ {xy} (x_0, y_0) <\ épsilon\ quad \ mbox {\ quad if\ quad} (\ anchohat {x},\ anchohat {y})\ en S_\ delta. \ end {ecuación}\] Esto es posible debido a la continuidad de\(f_{xy}\) at\((x_0,y_0)\). La función\ [\ begin {ecuación}\ label {eq:5.3.7} A (h, k) =f (x_0+h, y_0+k) -f (x_0+h, y_0) -f (x_0, y_0+k) +f (x_0, y_0) \ end {ecuación}\] se define si\(-\delta<h\),\(k<\delta\); además,\ [\ begin {ecuación}\ label {eq:5.3.8} A (h, k) =\ phi (x_0+h) -\ phi (x_0), \ end {ecuación}\] donde\ [ \ phi (x) =f (x, y_0+k) -f (x, y_0). \] Dado que\ [ \ phi' (x) =f_x (x, y_0+k) -f_x (x, y_0),\ quad |x-x_0|<\ delta, \] y el teorema del valor medio implican que\ [\ begin {ecuación}\ label {eq:5.3.9} A (h, k) =\ left [f_x (\ anchohat {x}, y_0+k) -f_x (\ anchohat {x}, y_0)\ derecho] h, \ end {ecuación}\] donde\(\widehat{x}\) está entre\(x_0\) y\(x_0+h\). El teorema del valor medio, aplicado a\(f_x(\widehat{x},y)\) (donde\(\widehat{x}\) se considera como constante), también implica que\ [ f_x (\ anchohat {x}, y_0+k) -f_x (\ anchohat {x}, y_0) =f_ {xy} (\ anchohat {x},\ anchohat {y}) k, \] donde\(\widehat{y}\) está entre\(y_0\) y\(y_0+k\). A partir de esto y,\ [ A (h, k) =f_ {xy} (\ anchohat {x},\ anchohat {y}) hk. \] Ahora implica que\ [\ begin {ecuación}\ label {eq:5.3.10} \ izquierda|\ frac {A (h, k)} {hk} -f_ {xy} (x_0, y_0)\ derecha|=\ izquierda|f_ {xy} (\ anchohat {x}, \ anchohat {y}) -f_ {xy} (x_0, y_0, y_0, 0)\ derecha|<\ épsilon \ mbox {\ quad if\ quad} 0<|h|, |k|<\ delta. \ end {ecuación}\] Ya que implica que\ [\ begin {eqnarray*} \ lim_ {k\ a 0}\ frac {A (h, k)} {hk}\ ar=\ lim_ {k\ a 0} \ frac {f (x_0+h, y_0+k) -f (x_0 +h, y_0)} {hk}\ \ ar {} -\ lim_ {k\ a 0}\ frac {f (x_0, y_0+k) -f (x_0, y_0)} {hk}\\ \ ar=\ frac {f_y (x_0+h, y_0) -f_y (x_0, y_0)} {h}, \ end {eqnarray*}\] se desprende de que\ [ \ izquierda|\ frac {f_y (x_0+h, y_0) -f_y (x_0, y_0)} {h} -f_ {xy} (x_0, y_0)\ derecha|\ le \ épsilon\ mbox {\ quad if\ quad} 0<|h|<\ delta. \]
Tomando el límite como\(h\to0\) rendimientos\ [ |f_ {yx} (x_0, y_0) -f_ {xy} (x_0, y_0) |\ le\ epsilon. \] Dado que\(\epsilon\) es un número positivo arbitrario, esto prueba.
Teorema ~ implica el siguiente teorema. Te dejamos la prueba (Ejercicios~ y).
Por ejemplo, si\(f\) satisface las hipótesis del Teorem~ con\(k=4\) en un punto\(\mathbf{X}_0\) en\(\R^n\) (\(n\ge2\)), entonces\ [ f_ {xxyy} (\ mathbf {X} _0) =f_ {xyxy} (\ mathbf {X} _0) =f_ {xyyx} (\ mathbf {X} _0) =f_ {yyxx} (\ mathbf {X} _0) = f_ {yyxx} (\ mathbf {X} _0) = f_ _ {yxyx} (\ mathbf {X} _0) =f_ {yxxy} (\ mathbf {X} _0), \] y su común valor se denota por\ [ \ frac {\ parcial^4f (\ mathbf {X} _0)} {\ parcial x^2\ parcial y^2}. \]
Se puede mostrar (Ejercicio~) que si\(f\) es una función de\((x_1,x_2, \dots,x_n)\) y\((r_1,r_2, \dots,r_n)\) es una\(n\) -tupla fija ordenada que satisface y, entonces el número de derivadas parciales\(f_{x_{i_1}x_{i_2}\cdots x_{i_r}}\) que implican\(r_i\) tiempos de diferenciación con respecto a\(x_i\),\(1\le i\le n\), es igual a la {}\ [ \ frac {r!} {r_1! r_2! \ cdots r_n!}. \]
Una función de varias variables puede tener derivadas parciales de primer orden en un punto\(\mathbf{X}_0\) pero no ser continua en\(\mathbf{X}_0\). Por ejemplo, si
\ [\ begin {ecuación}\ label {eq:5.3.15} f (x, y) =\ izquierda\ {\ casespace\ begin {array} {ll}\ dst\ frac {xy} { x^2+y^2}, & (x, y)\ ne (0,0),\\ [2\ jot] 0, & (x, y) =( 0,0),\ end {array}\ derecho. \ end {ecuación}\]entonces\ [\ begin {eqnarray*} f_x (0,0)\ ar=\ lim_ {h\ to0}\ frac {f (h,0) -f (0,0)} {h} =\ lim_ {h\ to0}\ frac {0-0} {h} =0\\ \ arraytext {y}\\ f_y (0,0)\ ar=\ lim_ {k\ to0}\ frac {f (0, k) -f (0,0)} {k} =\ lim_ {k\ to0}\ frac {0-0} {k} =0, \ end {eqnarray*}\] pero no\(f\) es continuo en\((0,0)\). (Ver Ejemplos~ y.) Por lo tanto, si la diferenciabilidad de una función de varias variables va a ser una propiedad más fuerte que la continuidad, como lo es para funciones de una variable, la definición de diferenciabilidad debe requerir más que la existencia de primeras derivadas parciales. Ejercise~ caracteriza la diferenciabilidad de una función\(f\) de una variable de una manera que sugiere la generalización adecuada:\(f\) es diferenciable en\(x_0\) si y solo si\ [ \ lim_ {x\ a {x_0}}\ frac {f (x) -f (x_0) -m (x-x_0)} {x-x_0} =0 \] para alguna constante\(m\), en cuyo caso \(m=f'(x_0)\).
La generalización a funciones de\(n\) variables es la siguiente.
De,\(m_1=f_x(x_0,y_0)\) y\(m_2=f_y(x_0,y_0)\) en Ejemplo~. El siguiente teorema muestra que esto no es una coincidencia.
Dejar\(i\) ser un entero dado en\(\{1,2, \dots,n\}\). Vamos\(\mathbf{X}=\mathbf{X}_0+t\mathbf{E}_i\), para que\(x_i=x_{i0}+t\),\(x_j =x_{j0}\) si\(j\ne i\), y\(|\mathbf{X}-\mathbf{X}_0|=|t|\). Entonces y la diferenciabilidad de\(f\) at\(\mathbf{X}_0\) implica que\ [ \ lim_ {t\ a 0}\ frac {f (\ mathbf {X} _0+t\ mathbf {E} _i) -f (\ mathbf {X} _0) -m_it} {t} =0. \]
De ahí que\ [ \ lim_ {t\ a 0}\ frac {f (\ mathbf {X} _0+t\ mathbf {E} _i) -f (\ mathbf {X} _0)} {t} =m_i. \] 6pt
Esto prueba, ya que el límite de la izquierda es\(f_{x_i} (\mathbf{X}_0)\), por definición.
A {} es una función de la forma\ [\ begin {ecuación}\ label {eq:5.3.19} L (\ mathbf {X}) =m_1x_1+m_2x_2+\ cdots+m_nx_n, \ end {ecuación}\] donde\(m_1\)\(m_2\),,\(,\)\(m_n\) son constantes. De Definición~,\(f\) es diferenciable en\(\mathbf{X}_0\) si y solo si hay una función lineal\(L\) tal que se\(f(\mathbf{X})-f(\mathbf{X}_{0})\) puede aproximar tan bien cerca\(\mathbf{X}_0\) de\ [ L (\ mathbf {X}) -L (\ mathbf {X} _0) =L (\ mathbf {X} -\ mathbf {X} _0)\] que\ [ \ begin {ecuación}\ label {eq:5.3.20} f (\ mathbf {X} _0)\ bf {X }) -f (\ mathbf {X} _0) =L (\ mathbf {X} -\ mathbf {X} _0) + E (\ mathbf {X}) (|\ mathbf {X} -\ mathbf {X} _0|), \ end {ecuación}\] donde\ [\ begin {ecuación}\ label {eq:5.3.21} \ lim_ {mathmathbf {X}\ a\ mathbf {X} _0} E (\ mathbf {X}) =0. \ end {ecuación}\]
6ptDe y la desigualdad de Schwarz,\ [ |L (\ mathbf {X} -\ mathbf {X} _0) |\ le M|\ mathbf {X} -\ mathbf {X} _0|, \] donde\ [ M =( m^2_1+m^2_2+\ cdots+m^2_n) ^ {1/2}. \] Esto e implica que\ [ |f (\ mathbf {X}) -f (\ mathbf {X} _0) |\ le (M+|E (\ mathbf {X}) |) |\ mathbf {X} -\ mathbf {X} _0|, \] lo que, con, implica que\(f\) es continuo en\(\mathbf{X}_0\).
Teorem~ implica que la función\(f\) definida por no es diferenciable en\((0,0)\), ya que no es continua en\((0,0)\). Sin embargo,\(f_x(0,0)\) y\(f_y(0,0)\) existir, así lo contrario de Teorem~ es falso; es decir, una función puede tener derivadas parciales en un punto sin ser diferenciable en el punto.
Teorem~ implica que si\(f\) es diferenciable at\(\mathbf{X}_{0}\), entonces hay exactamente una función lineal\(L\) que satisface y:\ [ L (\ mathbf {X}) =f_ {x_1} (\ mathbf {X} _0) x_1+ f_ {x_2} (\ mathbf {X} _0) x_2+\ cdots+f_ {x_n} (\ mathbf {X} _0 0) x_n. \]
Esta función se llama {}. Lo denotaremos por\(d_{\mathbf{X}_0}f\) y su valor por\((d_{\mathbf{X}_0}f)(\mathbf{X})\); así,\ [\ begin {ecuación}\ label {eq:5.3.22} (d_ {\ mathbf {X} _0} f) (\ mathbf {X}) =f_ {x_1} (\ mathbf {X} _0) x_1+f_ {x_2} (\ mathbf {X} _0) x_2+\ cdots+f_ {x_n} (\ mathbf {X} _0) x_n. \ end {ecuación}\] En términos del diferencial, se puede reescribir como\ [ \ lim_ {\ mathbf {X}\ a\ mathbf {X} _0} \ frac {f (\ mathbf {X}) -f (\ mathbf {X} _0) - (d_ {\ mathbf {X} _0} f) (\ mathbf {X} -\ mathbf {X} _0)} {|\ mathbf {X} -\ mathbf {X} _0|} =0. \]
Por conveniencia en la escritura\(d_{\mathbf{X}_0} f\), y para conformar con la notación estándar, introducimos la función\(dx_i\), definida por\ [ dx_i (\ mathbf {X}) =x_i; \] es decir,\(dx_i\) es la función cuyo valor en un punto en\(\R^n\) es la coordenada\(i\) th del punto. Es el diferencial de la función\(g_i(\mathbf{X})=x_i\). De,\ [\ begin {ecuación}\ label {eq:5.3.23} d_ {\ mathbf {X} _0} f=f_ {x_1} (\ mathbf {X} _0)\, dx_1+f_ {x_2} (\ mathbf {X} _ _ {0}\, dx_2+\ cdots+f_ {x_n} (\ mathbf {X} _0)\, dx_n. \ final {ecuación}\]
Si escribimos\(\mathbf{X}=(x,y, \dots,)\), entonces escribimos\ [ d_ {\ mathbf {X} _0} f=f_x (\ mathbf {X} _0)\, dx+f_y (\ mathbf {X} _0)\, dy+\ cdots, \] donde\(dx\),\(dy\), son las funciones definidas por\ [ dx (\ mathbf {X}) =x,\ quad dy (\ mathbf {X}) =y,\ puntos \]
Cuando no sea necesario enfatizar el punto específico\(\mathbf{X}_0\), se puede escribir de manera más sencilla como\ [ df=f_ {x_1}\, dx_1+f_ {x_2}\, dx_2+\ cdots+f_ {x_n}\, dx_n. \] Al tratar con una función específica en un punto arbitrario de su dominio, podemos usar la notación híbrida\ [ df=f_ {x_1} (\ mathbf {X})\, dx_1+f_ {x _2} (\ mathbf {X})\, dx_2+\ cdots+f_ {x_n} (\ mathbf {X})\, dx_n. \]
Desafortunadamente, la notación para el diferencial es tan complicada que oscurece la simplicidad del concepto. Los símbolos peculiares\(df\)\(dx\),\(dy\),, etc., se introdujeron en las primeras etapas del desarrollo del cálculo para representar incrementos muy pequeños (``infinitesimales”) en las variables. Sin embargo, en el uso moderno no son cantidades en absoluto, sino funciones lineales. Este significado del símbolo\(dx\) difiere de su significado en\(\int_a^b f(x)\,dx\), donde sirve meramente para identificar la variable de integración; en efecto, algunos autores la omiten en este último contexto y escriben simplemente\(\int^b_a f\).
Teorem~ implica el siguiente lema, que es análogo al Lemma~. Te dejamos la prueba (Ejercicio~).
Teoremas ~ y y la definición del diferencial implican lo siguiente\ teorema.
El siguiente teorema proporciona una condición suficiente ampliamente aplicable para la diferenciabilidad.
Dejemos\(\mathbf{X}_0=(x_{10},x_{20}, \dots,x_{n0})\) y supongamos eso\(\epsilon>0\). Nuestras suposiciones implican que hay\(\delta>0\) tal que\(f_{x_1}, f_{x_2}, \dots, f_{x_n}\) se definen en la\(n\) -bola\ [ S_\ delta (\ mathbf {X} _0) =\ set {\ mathbf {X}} {|\ mathbf {X} -\ mathbf {X} _0|<\ delta} \] y\ [\ begin {ecuación}\ label {eq:5.3.24} |f_ {x_j} (\ mathbf {X}) -f_ {x_j} (\ mathbf {X} _0) |<\ épsilon\ mbox {\ quad si\ quad} |\ mathbf {X} -\ mathbf {X} _0|<\ delta,\ quad 1\ le j\ le n. \ end {ecuación}\] Dejar entrar\(\mathbf{X}=(x_1,x_, \dots,x_n)\)\(S_\delta(\mathbf{X}_0)\). Definir\ [ \ mathbf {X} _j =( x_1,\ dots, x_j, x_ {j+1,0},\ dots, x_ {n0}),\ quad 1\ le j\ le n-1, \] y\(\mathbf{X}_n=\mathbf{X}\). Por lo tanto\(1\le j\le n\), for,\(\mathbf{X}_j\) difiere de\(\mathbf{X}_{j-1}\) en el componente\(j\) th solamente, y el segmento de línea de\(\mathbf{X}_{j-1}\) a\(\mathbf{X}_j\) está en\(S_\delta (\mathbf{X}_0)\). Ahora escribe\ [\ begin {ecuación}\ label {eq:5.3.25} f (\ mathbf {X}) -f (\ mathbf {X} _0) =f (\ mathbf {X} _n) -f (\ mathbf {X} _0) = \ sum^n_ {j=1}\, [f (\ mathbf {X} _j) -f (\ mathbf {X} _ {j-1})], \ end {ecuación}\] y considera las funciones auxiliares\ [\ begin {ecuación}\ label {eq:5.3.26} \ begin {array} {rcl} g_1 (t)\ ar=f (t, x_ {20},\ puntos, x_ {n0}),\\ [2\ jot] g_j (t)\ ar=f (x_1,\ puntos, x_ {j-1}, t, x_ {j+1,0},\ puntos, x_ {n0}),\ quad 2\ le j\ le n-1,\\ [2\ jot] g_n (t)\ ar=f (x_1,\ dots, x_ {n-1}, t), \ end {array} \ end {ecuación}\] donde, en cada caso, todas las variables excepto\(t\) se consideran temporalmente como constantes. Dado que\ [ f (\ mathbf {X} _j) -f (\ mathbf {X} _ {j-1}) =g_j (x_j) -g_j (x_ {j0}), \] el teorema del valor medio implica que\ [ f (\ mathbf {X} _j) -f (\ mathbf {X} _ {j-1}) =g'_j (\ tau_j) (x_j-x_ {j0}), \]
donde\(\tau_j\) esta entre\(x_j\) y\(x_{j0}\). De,\ [ g'_j (\ tau_j) =f_ {x_j} (\ anchohat {\ mathbf {X}} _j), \] donde\(\widehat{\mathbf{X}}_j\) está en el segmento de línea de\(\mathbf{X}_{j-1}\) a\(\mathbf{X}_j\). Por lo tanto,\ [ f (\ mathbf {X} _j) -f (\ mathbf {X} _ _ {j-1}) =f_ {x_j} (\ anchohat {\ mathbf {X}} _j) (x_j-x_ {j0}), \] e implica que\ [\ begin {eqnarray*} f (\ mathbf {X}) -f (\ mathbf {X} _0)\ ar=\ sum^n_ {j=1} f_ {x_j} (\ anchohat {\ mathbf {X}} _j) (x_j-x_ {j0})\ \ ar=\ sum^n_ {j=1} f_ {x_j} (\ mathbf {X} _0) (x_j-x_ {j0}) +\ sum^n_ {j=1} \, [f_ {x_j} (\ sombrero ancho {\ mathbf {X}} _j) -f_ {x_j} (\ mathbf {X} _0)] (x_j-x_ {j0}). \ end {eqnarray*}\] De esto y,\ [ \ izquierda|f (\ mathbf {X}) -f (\ mathbf {X} _0) -\ sum^n_ {j=1} f_ {x_j} (\ mathbf {X} _ _ {0}) (x_j-x_ {j0})\ derecha|\ le \ épsilon\ sum^n_ {j=1} |x_j-x_ {j0} |\ le n\ epsilon |\ mathbf {X} -\ mathbf {X} _0|, \] lo que implica que\(f\) es diferenciable en\(\mathbf{X}_0\).
Decimos que\(f\) es {} sobre un subconjunto\(S\) de\(\R^n\) si\(S\) está contenido en un conjunto abierto sobre el cual\(f_{x_1}\),\(f_{x_2}\),\(,\)\(f_{x_n}\) son continuos. Teorem~ implica que tal función es diferenciable\(\mathbf{X}_0\) en cada una de ellas\(S\).
En la Sección~2.3 vimos que si una función\(f\) de una variable es diferenciable at\(x_0\), entonces la curva\(y=f(x)\) tiene una línea tangente\ [ y=T (x) =f (x_0) +f' (x_0) (x-x_0) \] que se aproxima tan bien cerca de\(x_0\) eso\ [ \ lim_ {x\ a x_0}\ frac {f (x) -T (x)} x-x_0} =0. \]
Además, la línea tangente es el ``límite” de la línea secante a través de los puntos\((x_1,f(x_0))\) y a\((x_0,f(x_0))\) medida que se\(x_1\) aproxima\(x_0\).
6pt12pt La diferenciabilidad de una función de\(n\) variables tiene una interpretación geométrica análoga. Lo ilustraremos para\(n=2\). Si\(f\) se define en una región\(D\) en\(\R^2\), entonces el conjunto de puntos\((x,y,z)\) tal que\ [\ begin {ecuación}\ label {eq:5.3.27} z=f (x, y),\ quad (x, y)\ en D, \ end {ecuación}\] es un {} in\(\R^3\) (Figura~).
6pt12pt
Si\(f\) es diferenciable en\(\mathbf{X}_0=(x_0,y_0)\), entonces el plano\ [\ begin {ecuación}\ label {eq:5.3.28} z=T (x, y) =f (\ mathbf {X} _0) +f_x (\ mathbf {X} _0) (x-x_0) +f_y (\ mathbf {X} _0) (y-secy_0) \ end {ecuación}\] interrelación la superficie en\((x_0,y_0,f(x_0,y_0))\) y se aproxima a la superficie tan bien cerca\((x_0,y_0)\) que
\ [
\ lim_ {(x, y)\ a (x_0, y_0)}\ frac {f (x, y) -T (x, y)} {\ sqrt {(x-x_0) ^2+
(y-y_0) ^2}} =0
\] (Figura~). Además, es el único plano\(\R^3\) con estas propiedades (Ejercicio~). Decimos que este avión es {}\((x_0,y_0,f(x_0,y_0))\). Ahora mostraremos que es el límite” de
planos secantes” asociados a la superficie\(z=f(x,y)\), así como una línea tangente a una curva\(y=f(x)\) en\(\R^3\) es el límite de líneas secantes a la curva (Sección~2.3).
Vamos\(\mathbf{X}_i=(x_i,y_i)\)\((i=1,2,3)\). La ecuación del ``plano secante” a través de los puntos\((x_i,y_i,f(x_i,y_i))\)\((i=1,2,3)\) en la superficie\(z=f(x,y)\) (Figura~) es de la forma\ [\ begin {ecuación}\ label {eq:5.3.29} z=f (\ mathbf {X} _0) +A (x-x_0) +B (y-y_0), \ end {ecuación}\] donde\(A\) y\(B\) satisfacer el sistema\ [\ begin {eqnarray*} f (\ mathbf {X} _1)\ ar=f (\ mathbf {X} _0) +A (x_1-x_0) +B (y_1-y_0),\\ f (\ mathbf {X} _2)\ ar=f (\ mathbf {X} _0) +A (x_2-x_0) +B (y_2-y_0). \ end {eqnarray*}\] Resolviendo para\(A\) y\(B\) rinde\ [\ begin {eqnarray} A\ ar=\ frac {(f (\ mathbf {X} _1) -f (\ mathbf {X} _0)) (y_2-y_0) - (f (\ mathbf {X} _2) -f (\ mathbf {X} _0)) (y_1-y_0)} {(x_1-x_0) (y_2-y_0) - (x_2-x_0) (y_1-y_0)}\ label {eq:5.3.30}\\ \ arraytext {y}\ nonumber\\ B\ ar=\ frac {(f (\ mathbf {X} _2) -f (\ mathbf {X} _0)) (x_1-x_0) - (f (\ mathbf {X} _1) -f (\ mathbf {X} _0)) (x_2-x_0)} {(x_1-x_0) (y_2-y_0) - (x_2-x_0) (y_1-y_0)}\ label {eq:5.3.31} \ end {eqnarray}\] if\ [\ begin {ecuación}\ label {eq:5.3.32} (x_1-x_0) (y_2-y_0) - (x_2-x_0) (y_1-y_0)\ ne0, \ end {ecuación}\] que es equivalente a la requisito que\(\mathbf{X}_0\),\(\mathbf{X}_1\), y\(\mathbf{X}_2\) no se encuentran en una línea (Ejercicio~). Si escribimos\ [ \ mathbf {X} _1=\ mathbf {X} _0+t\ mathbf {U}\ mbox {\ quad y\ quad}\ mathbf {X} _2= \ mathbf {X} _0+t\ mathbf {V}, \] donde\(\mathbf{U}=(u_1,u_2)\) y\(\mathbf{V}=(v_1,v_2)\) son fijos vectores distintos de cero (Figura~), entonces,, y tomar las formas más convenientes\ [comienzan\ {eqnarray} A\ ar=\ frac {\ dst {\ frac {f (\ mathbf {X} _0+t\ mathbf {U}) -f (\ mathbf {X} _0)} {t} v_2- \ frac {f (\ mathbf {X} _0+t\ mathbf {V}) -f (\ mathbf {X} _0)} {t} u_2}} {u_1v_2-u_2v_1}, \ label {eq:5.3.33}\\ B\ ar=\ frac {\ dst {\ frac {f (\ mathbf {X} _0+t\ mathbf {V}) -f (\ mathbf {X} _0)} {t} u_1- \ frac {f (\ mathbf {X} _0+t\ mathbf {U}) -f (\ mathbf {X} _0)} {t} v_1}} {u_1v_2-u_2v_1}, \ label {eq:5.3.34} \ end {eqnarray}\] y\ [ u_1v_2-u_2v_1\ ne0. \]
6pt12pt
Si\(f\) es diferenciable en\(\mathbf{X}_0\), entonces\ [\ begin {ecuación}\ label {eq:5.3.35} f (\ mathbf {X}) -f (\ mathbf {X} _0) =f_x (\ mathbf {X} _0) (x-x_0) +f_y (\ mathbf {X} _0) (y-y_0) + \ epsilon (\ mathbf {X}) |\ mathbf {X} -\ mathbf {X} _0|, \ end {ecuación}\] donde\ [\ begin {ecuación}\ label {eq:5.3.36} \ lim_ {\ mathbf {X}\ to \ mathbf {X} _0}\ épsilon (\ mathbf {X}) =0. \ end {ecuación}\] Sustituyendo primero\(\mathbf{X}=\mathbf{X}_0+t\mathbf{U}\) y luego\(\mathbf{X} =\mathbf{X}_0+t\mathbf{V}\) en y dividiendo por\(t\) rendimientos\ [\ begin {ecuación}\ label {eq:5.3.37} \ frac {f (\ mathbf {X} _0+t\ mathbf {U}) -f (\ mathbf {X} _0)} {t} =f_x (\ mathbf {X} _0) u_1+ f_y (\ mathbf {X} _0) U_2+e_1 (t) |\ mathbf {U} | \ end {ecuación}\] y\ [\ begin { ecuación}\ label {eq:5.3.38} \ frac {f (\ mathbf {X} _0+t\ mathbf {V}) -f (\ mathbf {X} _0)} {t} =f_x (\ mathbf {X} _0) v_1+ f_y (\ mathbf {X} _0) v_2+e_2 (t) |\ mathbf {V} |, \ end {ecuación}\] donde\ [ E_1 (t) =\ épsilon (\ mathbf {X} _0+t\ mathbf {U}) |t|/t\ mbox {\ quad y\ quad} E_2 (t) = \ épsilon (\ mathbf {X} _0+t\ mathbf {V}) |t|/t, \] así\ [\ begin {ecuación}\ label {eq:5.3.39} \ lim_ {t\ a 0} e_i (t) =0,\ quad i=1,2, \ end {ecuación}\] debido a. Sustituyendo y en y rinde\ [\ begin {ecuación}\ label {eq:5.3.40} a=F_x (\ mathbf {X} _0) +\ Delta_1 (t),\ quad b=F_y (\ mathbf {X} _0) +\ Delta_2 (t), \ end {ecuación}\] donde
\ [ \ Delta_1 (t) =\ frac {v_2 |\ mathbf {U} |E-1 (t) -u_2|\ mathbf {V} |E_2 (t)} { u_1v_2-u_2v_1} \] y\ [ \ Delta_2 (t) =\ frac {u_1|\ mathbf {V} |E_2 (t) -v_1|\ mathbf {U} |E_1 (t)} { u_1v_2-u_2v_1}, \] así que\ [\ begin {ecuación}\ label {eq:5.3.41} \ lim_ {t\ a 0}\ delta_i (t) =0,\ quad i=1,2, \ end {ecuación}\] debido a .
De y, la ecuación del plano secante es\ [ z=f (\ mathbf {X} _0) + [f_x (\ mathbf {X} _0) +\ Delta_1 (t)] (x-x_0) + [f_y (\ mathbf {X} _0) +\ Delta_2 (t)] (y-y_0). \] Por lo tanto, debido a, el plano secante ``se acerca” al plano tangente a medida que se\(t\) acerca a cero.
Decimos que\(\mathbf{X}_0\) es un {} de\(f\) si hay\(\delta>0\) tal que\ [ f (\ mathbf {X}) -f (\ mathbf {X} _0) \] no cambia de inicio de sesión\(S_\delta (\mathbf{X}_0)\cap D_f\). Más específicamente,\(\mathbf{X}_0\) es un {} si\ [ f (\ mathbf {X})\ le f (\ mathbf {X} _0) \] o un {} if\ [ f (\ mathbf {X})\ ge f (\ mathbf {X} _0) \] para all\(\mathbf{X}\) in\(S_\delta (\mathbf{X}_0)\cap D_f\).
El siguiente teorema es análogo al Teorem~.
Vamos\ [ \ mathbf {E} _1 =( 1,0,\ puntos,0),\ quad\ mathbf {E} _ {2} =( 0,1,0,\ puntos,0),\ puntos,\ quad\ mathbf {E} _n= (0,0,\ puntos,1), \] y\ [ g_i (t) =f (\ mathbf {X} _+0t\ mathbf {E} _i),\ quad 1\ le i\ le n. \] Entonces\(g_i\) es diferenciable en\(t=0\), con\ [ g'_i (0) =f_ {x_i} (\ mathbf {X} _0) \]
(Definición~). Ya que\(\mathbf{X}_0\) es un punto extremo local de\(f\),\(t_0=0\) es un punto extremo local de\(g_i\). Ahora Teorem~ implica eso\(g'_i(0)=0\), y esto implica.
Lo contrario de Teorem~ es falso, ya que puede sostenerse en un punto\(\mathbf{X}_0\) que no es un punto extremo local de\(f\). Por ejemplo, let\(\mathbf{X}_0= (0,0)\) y\ [ f (x, y) =x^3+y^3. \] Decimos que un punto\(\mathbf{X}_0\) donde se sostiene es un {} de\(f\). Así, si\(f\) se define en un barrio de un punto extremo local\(\mathbf{X}_0\), entonces\(\mathbf{X}_0\) es un punto crítico de\(f\); sin embargo, un punto crítico no necesita ser un punto extremo local de\(f\).
El uso del Teorem~ para encontrar puntos extremos locales está cubierto en el cálculo, por lo que no lo perseguiremos aquí.
Consideramos ahora el problema de diferenciar una función compuesta\ [ h (\ mathbf {U}) =f (\ mathbf {G} (\ mathbf {U})), \] donde\(\mathbf{G}=(g_1,g_2, \dots,g_n)\) es una función de valor vectorial, como se define en la Sección~5.2. Comenzamos con la siguiente definición.
Necesitamos el siguiente lema para acreditar el resultado principal de la sección.
Ya que\(g_1\)\(g_2\),,\(g_n\) son diferenciables en\(\mathbf{U}_0\), aplicando Lemma~ a\(g_i\) muestra que\ [\ begin {ecuación}\ label {eq:5.4.1} \ begin {array} {rcl} g_i (\ mathbf {U}) -g_i (\ mathbf {U} _0)\ ar =( d_ {\ mathbf {U} _0} g_i) (\ mathbf {U} -\ mathbf {U} _0) + e_I (\ mathbf {U}) | (\ mathbf {U} -\ mathbf {U } _0|\\ [2\ jot] \ ar=\ dst\ sum_ {j=1} ^m\ frac {\ parcial g_i (\ mathbf {U} _0)} {\ parcial u_j} (u_j-u_ {j0}) + e_i (\ mathbf {U}) | (\ mathbf {U} -\ mathbf {U} _0| \ end {array} \ end {ecuación}\]
donde\ [\ begin {ecuación}\ label {eq:5.4.2} \ lim_ {\ mathbf {U}\ a\ mathbf {U} _0} e_I (\ mathbf {U}) =0,\ quad 1\ le i\ le n. \ end {ecuación}\] De la desigualdad de Schwarz,\ [ |g_i (\ mathbf {U}) -g_i (\ mathbf {U} _0) |\ le (m_i+|e_I (\ mathbf {U}) |) |\ mathbf {U} -\ mathbf {U} _ _ {0} |, \] donde\ [ m_i=\ izquierda (\ sum_ {j=1} ^m\ izquierda (\ frac {\ parcial g_i (\ mathbf {U} _0)} {\ parcial u_j}\ derecha) ^2\ derecha) ^ {1/2}. \] Por lo tanto, \ [\ frac {|\ mathbf {G} (\ mathbf {U}) -\ mathbf {G} (\ mathbf {U} _0) |} {|\ mathbf {U} -\ mathbf {U} _0|} \ le\ left (\ sum_ {i=1} ^n (m_i+|e_i (\ mathbf {U}) |) ^2\ derecha) ^ {1/2}. \] De,\ [ \ lim_ {\ mathbf {U}\ a\ mathbf {U} _0} \ izquierda (\ sum_ {i=1} ^n (m_i+|e_I (\ mathbf {U}) |) ^2\ derecha) ^ {1/2} =\ izquierda (\ suma_ {i=1} ^nm_i^2\ derecha) ^ {1/2} =M, \] lo que implica la conclusión.
El siguiente teorema es análogo al Teorem~.
Te dejamos a ti demostrar que\(\mathbf{U}_0\) es un punto interior del dominio de\(h\) (Ejercicio~), por lo que es legítimo preguntar si\(h\) es diferenciable en\(\mathbf{U}_0\).
Vamos\(\mathbf{X}_0=(x_{10},x_{20}, \dots,x_{n0})\). Tenga en cuenta que\ [ x_ {i0} =g_i (\ mathbf {U} _0),\ quad 1\ le i\ le n, \] por suposición. Dado que\(f\) es diferenciable en\(\mathbf{X}_0\), Lemma~ implica que\ [\ begin {ecuación}\ label {eq:5.4.5} f (\ mathbf {X}) -f (\ mathbf {X} _0) =\ sum_ {i=1} ^n f_ {x_i} (\ mathbf {X} _0) (x_i-x_ {i0}) +E (\ mathbf {X}) |\ mathbf {X} -\ mathbf {X} _0|, \ end {ecuación}\] donde\ [ \ lim_ {\ mathbf {X}\ a\ mathbf {X} _0} E (\ mathbf {X}) =0. \]
Sustituyendo\(\mathbf{X}=\mathbf{G}(\mathbf{U})\) y\(\mathbf{X}_0=\mathbf{G}(\mathbf{U}_0)\) en y recordando rendimientos\ [\ begin {ecuación}\ label {eq:5.4.6} h (\ mathbf {U}) -h (\ mathbf {U} _0) =\ dst {\ sum_ {i=1} ^n}\, f_ {x_i} (\ mathbf {X} _0) (g_i (\ mathbf {U}) -g_i (\ mathbf {U} _0)) +E (\ mathbf {G} (\ mathbf {U})) |\ mathbf {G} (\ mathbf {U}) -\ mathbf {G} (\ mathbf {U} _0) |. \ end {ecuación}\] Sustituyendo en rendimientos\ [ \ begin {array} {rcl} h (\ mathbf {U}) -h (\ mathbf {U} _0)\ ar=\ dst {\ sum_ {i=1} ^n} f_ {x_i} (\ mathbf {X} _0) (d_ {\ mathbf {U} _0} g_i) (\ mathbf {U} -\ mathbf {U} _0) +\ dst {\ left (\ sum_ {i=1} ^n f_ {x_i} (\ mathbf {X} _0) e_I (\ mathbf {U})\ derecha)} |\ mathbf {U} -\ mathbf {U} _0| \ \\ \ ar {} +E (\ mathbf {G} (\ mathbf {U})) |\ mathbf {G} (\ mathbf {U}) -\ mathbf {G} (\ mathbf {U} _ {0} |. \ end {array} \] Desde\ [ \ lim_ {\ mathbf {U}\ a\ mathbf {U} _0} E (\ mathbf {G} (\ mathbf {U})) =\ lim_ {\ mathbf {X}\ a\ mathbf {X} _0} E (\ mathbf {X}) =0, \] y Lemma~ implican que \ [frfr{ h (\ mathbf {U}) -h (\ mathbf {U} _0) -\ dst\ sum_ {i=1} ^nf_ {x_i} (\ mathbf {X} _ _ {0} d_ {\ mathbf {U} _0} g_i (\ mathbf {U} -\ mathbf {U} _0)} {|\ mathbf {U} -\ mathbf {U} _0|} =0. \] Por lo tanto,\(h\) es diferenciable en\(\mathbf{U}_0\), y\(d_{\mathbf{U}_0}h\) es dado por.
Sustituyendo\ [ d_ {\ mathbf {U} _0} g_i=\ frac {\ parcial g_i (\ mathbf {U} _0)} {\ parcial u_1} \, du_1+\ frac {\ parcial g_i (\ mathbf {U} _0)} {\ parcial u_2}\, du_2+\ cdots+ \ frac {parcial\ g_i (\ mathbf {U} _0)} { \ parcial u_m}\, du_m,\ quad 1\ le i\ le n, \] en y recogiendo multiplicadores de\(du_1\), \(du_2\),,\(du_m\) cede\ [ d_ {\ mathbf {U} _0} h=\ suma_ {i=1} ^m\ izquierda (\ suma_ {j=1} ^n \ frac {\ parcial f (\ mathbf {X} _0)} {\ parcial x_j}\ frac {\ parcial g_j (\ mathbf {U} _0)} {\ parcial u_i} derecha)\, du_i. \] Sin embargo, del Teorem~,\ [ d_ {\ mathbf {U} _0} h=\ sum_ {i=1} ^m\ frac {\ parcial h (\ mathbf {U} _0)} {\ parcial u_i}\, du_i. \] Comparando las dos últimas ecuaciones rinde.
Cuando no es importante enfatizar el punto particular\(\mathbf{X}_0\), escribimos menos formalmente como\ [\ begin {ecuación}\ label {eq:5.4.9} \ frac {\ h parcial} {\ parcial u_i} =\ suma_ {j=1} ^n\ frac {\ parcial f} {\ parcial x_j}\ frac {\ parcial g_j} {\ parcial u_i},\ quad 1\ le i\ le m, \ end {ecuación}\] con el entendiendo que en el cálculo\(\partial h(\mathbf{U}_0)/\partial u_i\),\(\partial g_j/\partial u_i\) se evalúa en\(\mathbf{U}_0\) y\(\partial f/\partial x_j\) en\(\mathbf{X}_0=\mathbf{G}(\mathbf{U}_0)\).
Las fórmulas y también se pueden simplificar reemplazando el símbolo\(\mathbf{G}\) por\(\mathbf{X}=\mathbf{X}(\mathbf{U})\); luego escribimos\ [ h (\ mathbf {U}) =f (\ mathbf {X} (\ mathbf {U})) \] y\ [ \ frac {\ partial h (\ mathbf {U} _0)} {\ partial u_i} =\ sum_ {j=1} ^n\ frac {\ parcial f (\ mathbf {X} _0)} {\ parcial x_j}\ frac {\ parcial x_j (\ mathbf {U} _0)} {\ parcial u_i}, \] o simplemente\ [\ comenzar {ecuación}\ etiqueta {eq:5.4.10} \ frac {\ h parcial} {\ parcial u_i} =\ suma_ {j=1} ^n\ frac {\ parcial f} {\ parcial x_j}\ frac {\ parcial x_j} {\ parcial u_i}. \ end {ecuación}\]
La prueba de Corolary~ sugiere una manera sencilla de calcular las derivadas parciales de una función compuesta sin usar explícitamente. Si\(h(\mathbf{U})=f(\mathbf{X}(\mathbf{U}))\), entonces Teorem~, en la notación más casual introducida antes del Ejemplo~, implica que\ [\ begin {ecuación}\ label {eq:5.4.12} dh=f_ {x_1} dx_1+f_ {x_2} dx_2+\ cdots+f_ {x_n} dx_n, \ end {ecuación}\] donde\(dx_1\),\(dx_2\),,\(dx_n\) debe escribirse en términos de los diferenciales \(du_1\),\(du_2\),,\(du_m\) de las variables independientes; así,
\ [ dx_i=\ frac {\ parcial x_i} {\ parcial u_1}\, du_1+\ frac {\ parcial x_i} { \ parcial u_2}\, du_2+\ cdots+\ frac {\ parcial x_i} {\ parcial u_m}\, du_m. \] Sustituyendo esto en y recogiendo los multiplicadores de\(du_1\),,\(du_2\),\(du_m\) yieler ds~.
Derivadas superiores de funciones compuestas se pueden calcular aplicando repetidamente la regla de cadena. Por ejemplo, diferenciando con respecto a\(u_k\) rendimientos\ [\ begin {ecuación}\ label {eq:5.4.16} \ begin {array} {rcl} \ dst\ frac {\ parcial^2h} {\ parcial u_k\ parcial u_i}\ ar=\ dst {\ sum_ {j=1} ^n \ frac {\ parcial } {\ parcial u_k}\ left (\ frac {\ parcial f} {\ parcial x_j}\ frac {\ parcial x_j} {\ parcial u_i}\ derecha)}\\ [2\ jot] \ ar=\ dst {\ sum_ {j=1} ^n\ frac {\ parcial f} {\ parcial x_j}\ frac {\ parcial^2 x_j} { \ parcial u_k\,\ parcial u_i} +\ suma_ {j=1} ^n\ frac {\ parcial x_j} {\ parcial u_i} \ frac {\ parcial} {\ parcial u_k}\ izquierda (\ frac {\ parcial f} {\ parcial x_j}\ derecha)}. \ end {array} \ end {ecuación}\] Debemos tener cuidado encontrando\ [ \ frac {\ parcial} {\ parcial} {\ partial u_k}\ left (\ frac {\ partial f} {\ partial x_j}\ right), \] que realmente representa\ [\ begin {ecuación}\ label {eq:5.4.17} \ frac {\ parcial} {\ parcial} {\ partial u_k}\ izquierda (\ frac {\ parcial f (\ mathbf {X} (\ mathbf {U}))} { \ parcial x_j}\ derecha). \ end {ecuación}\] El procedimiento más seguro es escribir temporalmente\ [ g (\ mathbf {X}) =\ frac {\ parcial f (\ mathbf {X})} {\ parcial x_j}; \] luego se convierte en \ [\ frac {\ parcial g (\ mathbf {X} (\ mathbf {U}))} {\ parcial u_k} =\ sum_ {s=1} ^n \ frac {\ parcial g (\ mathbf {X} (\ mathbf {U}))} {\ x_s parcial}\ frac {\ x_s parcial (\ mathbf {U})} {\ parcial u_k}. \] Desde\ [ \ frac {\ parcial g} {\ parcial x_s} =\ frac {\ parcial^2f} {\ parcial x_s\,\ parcial x_j}, \] esto rinde \ [\ frac {\ parcial} {\ parcial u_k}\ izquierda (\ frac {\ parcial f} {\ parcial x_k}\ derecha) = \ sum_ {=1} ^n\ frac {\ parcial^2f} {\ x_s parcial\,\ x_j parcial} \ frac {\ x_s parcial} {\ parcial u_k}. \] Sustituyendo esto en rendimientos\ [\ begin {ecuación}\ label {eq:5.4.18} \ frac {\ parcial^2h} {\ parcial u_k\,\ parcial u_i} =\ suma_ {j=1} ^n \ frac {\ parcial f } {\ parcial x_j}\ frac {\ parcial^2x_j} {\ parcial u_k\,\ parcial u_i} + \ suma_ {j=1} ^n\ frac {\ parcial x_j} {\ parcial u_i}\ suma_ {s=1} ^n \ frac {\ parcial^2f } {\ x_s parcial\,\ x_j parcial}\ frac {\ x_s parcial}\, {\ parcial u_k}. \ end {ecuación}\]
Para calcular a\(h_{u_iu_k}(\mathbf{U}_0)\) partir de esta fórmula, evaluamos las derivadas parciales de\(x_1\)\(x_2\),,,\(x_n\) at\(\mathbf{U}_0\) y las de\(f\) at\(\mathbf{X}_0= \mathbf{X}(\mathbf{U}_0)\). La fórmula es válida si\(x_1\),\(x_2\),,\(x_n\) y sus primeras derivadas parciales son diferenciables en\(\mathbf{U}_0\) y\(f\),\(f_{x_i}\),\(f_{x_2}\),,\(f_{x_n}\) y sus primeras derivadas parciales son diferenciables en\(\mathbf{X}_0\).
En lugar de memorizar, debes entender cómo se deriva y usar el método, en lugar de la fórmula, al calcular segundas derivadas parciales de funciones compuestas. El mismo método se aplica para el cálculo de derivados superiores.
Para una función compuesta de la forma\ [ h (t) =f (x_1 (t), x_2 (t),\ dots, x_n (t)) \] donde\(t\) es una variable real,\(x_1\),\(x_2\),,\(x_n\) son diferenciables en\(t_0\), y\(f\) es diferenciable en\(\mathbf{X}_0=\mathbf{X}(t_0)\), toma la forma\ [\ begin {ecuación}\ label {eq:5.4.20} h' (t_0) =\ suma_ {j=1} ^n f_ {x_j} (\ mathbf {X} (t_0)) x'_j (t_0). \ end {ecuación}\] Esto será útil en la prueba del siguiente teorema.
Una ecuación de\(L\) es\ [ \ mathbf {X} =\ mathbf {X} (t) =t\ mathbf {X} _2+ (1-t)\ mathbf {X} _1,\ quad 0\ le t\ le1. \] Nuestras hipótesis implican que la función\ [ h (t) =f (\ mathbf {X} (t)) \] es continua\([0,1]\) y diferenciable sobre\((0,1)\). Dado que\ [ x_i (t) =tx_ {i2} + (1-t) x_ {i1}, \] implica que\ [ h' (t) =\ sum_ {i=1} ^n f_ {x_i} (\ mathbf {X} (t)) (x_ {i2} -x_ {i1}),\ quad 0<t<1. \] Del teorema del valor medio para funciones de una variable (Teorem~),\ [ h (1) -h (0) =h' (t_0) \] para algunos\(t_0\in (0,1)\). Desde\(h(1)=f(\mathbf{X}_2)\) y\(h(0)=f(\mathbf{X}_1)\), esto implica con\(\mathbf{X}_0=\mathbf{X}(t_0)\).
Vamos a demostrar que si\(\mathbf{X}_0\) y\(\mathbf{X}\) estamos en\(S\), entonces\(f(\mathbf{X})=f(\mathbf{X}_0)\). Dado que\(S\) es una región abierta,\(S\) está conectada poligonalmente (Teorem~). Por lo tanto, hay puntos\ [ \ mathbf {X} _0,\ mathbf {X} _1,\ dots,\ mathbf {X} _n=\ mathbf {X} \] tal que el segmento\(L_i\) de línea de\(\mathbf{X}_{i-1}\) a\(\mathbf{X}_i\) está en\(S\),\(1\le i\le n\). Del Teorem~,\ [ f (\ mathbf {X} _i) -f (\ mathbf {X} _ _ {i-1}) =\ sum_ {i=1} ^n (d_ {\ Widetilde {\ mathbf {X}} _i} f) (\ mathbf {X} _i-\ mathbf {X} _ _ {i-1}), \] dónde\(\widetilde{\mathbf{X}}\) está encendido\(L_i\) y por lo tanto pulg\(S\). Por lo tanto,\ [ f_ {x_i} (\ Widetilde {\ mathbf {X}} _i) =f_ {x_2} (\ Widetilde {\ mathbf {X}} _i) =\ cdots= f_ {x_n} (\ Widetilde {\ mathbf {X}} _i) =0, \]
lo que significa que\(d_{\widetilde{\mathbf{X}}_i} f\equiv0\). De ahí que\ [ f (\ mathbf {X} _0) =f (\ mathbf {X} _1) =\ cdots=f (\ mathbf {X} _n); \] es decir,\(f(\mathbf{X})=f(\mathbf{X}_0)\) para cada\(\mathbf{X}\) en\(S\).
Supongamos que\(f\) se define en una\(n\) -bola\(B_\rho(\mathbf{X}_0)\), con\(\rho>0\). Si\(\mathbf{X}\in B_\rho(\mathbf{X}_0)\), entonces\ [ \ mathbf {X} (t) =\ mathbf {X} _0+t (\ mathbf {X} -\ mathbf {X} _0)\ en B_\ rho (\ mathbf {X}),\ quad 0\ le t\ le 1, \] así la función\ [ h (t) =f (\ mathbf {X} (t)) \] se define para\(0\le t\le 1\). Del Teorem~ (ver también),\ [ h' (t) =\ sum_ {i=1} ^n f_ {x_i} (\ mathbf {X} (t) (x_i-x_ {i0}) \] si\(f\) es diferenciable en\(B_\rho(\mathbf{X}_0)\), y\ [\ begin {eqnarray*} h "(t)\ ar=\ sum_ {j=1} ^n\ frac {\ parcial} {\ parcial x_j}\ izquierda (\ suma_ {i=1} ^n \ frac {\ parcial f (\ mathbf {X} (t))} {\ parcial x_i} (x_i-x_ {i0})\ derecha ) (x_j-x_ {j0})\ \ ar=\ suma_ {i, j=1} ^n\ frac {\ parcial^2f (\ mathbf {X} (t))} {\ parcial x_j\,\ parcial x_i} (x_i-x_ {i0}) (x_j-x_ {j0}) \ final {eqnarray_}\] si\(f_{x_1}\),\(f_{x_2}\),,\(f_{x_n}\) son diferenciables en\(B_\rho(\mathbf{X}_0)\). Continuando de esta manera, vemos que\ [\ begin {ecuación}\ label {eq:5.4.22} h^ {(r)} (t) =\ sum_ {i_1, i_2,\ dots, i_r=1} ^n\ frac {\ parcial^r f (\ mathbf {X} (t)) } {\ parcial x_ {i_r}\, parcial\ _ {i_ {r-1}}\ cdots\ x_ parcial {i_1}} (x_ {i_1} -x_ {i_1,0}) (x_ {i_2} -x_ {i_2,0})\ cdots (x_ {i_r} -x_ {i_r,0}) \ final {ecuación}\] si todas las derivadas parciales\(f\) de orden\(\le r-1\) son diferenciables en\(B_\rho(\mathbf{X_0})\).
Esto motiva la siguiente definición.
Bajo los supuestos de Definición~, el valor de\ [ \ frac {\ parcial^rf (\ mathbf {X} _0)} {\ parcial x_ {i_r}\ parcial x_ {i_ {r-1}}\ cdots \ parcial x_ {i_1}} \] depende únicamente del número de veces que\(f\) se diferencia con respecto a cada variable, y no del orden en que la diferenciación son realizado (Ejercicio~). Por lo tanto, Ejercicio~ implica que se puede reescribir como\ [\ begin {ecuación}\ label {eq:5.4.24} d^ {(r)} _ {\ mathbf {X} _0} f=\ sum_r\ frac {r!} {r_1! r_2! \ cdots r_n!} \ frac {\ parcial^rf (\ mathbf {X} _0)} {\ parcial x^ {r_1} _1\ parcial x^ {r_2} _2\ cdots \ xparcial ^ {r_n} _n} (dx_1) ^ {r_1} (dx_2) ^ {r_2}\ cdots (dx_n) ^ {r_n}, \ end {ecuación}\] donde\(\sum_r\) indica la suma sobre todas las\(n\) -tuplas ordenadas\((r_1,r_2, \dots,r_n)\) de enteros no negativos tal que\ [ r_1+r_2+\ cdots+r_n =r \] y\(\partial x_i^{r_i}\) se omite de los ``denominadores” de todos los términos en los que\(r_i=0\). En particular, si\(n=2\),\ [ d^ {(r)} _ {\ mathbf {X} _0} f=\ suma_ {j=0} ^r\ binom {r} {j} \ frac {\ parcial^rf (x_0, y_0)} {\ parcial x^j\,\ parcial y^ {r-j}} (dx) ^j (dy) ^ {r-j}. \]
El siguiente teorema es análogo al teorema de Taylor para funciones de una variable (Teorem~).
Define\ [\ begin {ecuación}\ label {eq:5.4.26} h (t) =f (\ mathbf {X} _0+t (\ mathbf {X} -\ mathbf {X} _0)). \ end {ecuación}\] Con\(\boldsymbol{\Phi}=\mathbf{X}-\mathbf{X}_0\), nuestras suposiciones y la discusión que precede a Definición~ implican que\(h\)\(h'\),,,\(h^{(k+1)}\) existen en\([0,1]\). Del teorema de Taylor para funciones de una variable,\ [\ begin {ecuación}\ label {eq:5.4.27} h (1) =\ sum_ {r=0} ^k\ frac {h^ {(r)} (0)} {r!} +\ frac {h^ {(k+1)} (\ tau)} {(k+1)!} , \ end {ecuación}\] para algunos\(\tau\in(0,1)\). De,\ [\ begin {ecuación}\ label {eq:5.4.28} h (0) =f (\ mathbf {X} _0)\ mbox {\ quad y\ quad} h (1) =f (\ mathbf {X}). \ end {ecuación}\] De y con\(\boldsymbol{\Phi}=\mathbf{X}-\mathbf{X}_0\),\ [\ begin {eqnarray} h^ {(r)} (0)\ ar =( d^ {(r)} _ {\ mathbf {X} _0} f) (\ mathbf {X} -\ mathbf {X} _0),\ quad 1\ le r\ le k,\ label {eq:5.4.29}\\ \ matriztexto {y}\ nonumber\\ h^ {(k+1)} (\ tau)\ ar=\ izquierda (d^ {k+1} _ {\ Widetilde {\ mathbf {X}}} f\ derecha) (\ mathbf {X} -\ mathbf {X} _0 )\ label {eq:5.4.30} \ end {eqnarray}\]
donde\ [ \ Widetilde {\ mathbf {X}} =\ mathbf {X} _0+\ tau (\ mathbf {X} -\ mathbf {X} _0) \] está activado\(L\) y distinto de\(\mathbf{X}_0\) y\(\mathbf{X}\). Sustituyendo,, y en rendimientos.
Por analogía con la situación para funciones de una variable, definimos la\(k\) th {}\(\mathbf{X}_0\) por\ [ T_k (\ mathbf {X}) =\ sum_ {r=0} ^k\ frac {1} {r!} (d^ {(r)} _ {\ mathbf {X} _0} f) (\ mathbf {X} -\ mathbf {X} _0) \] si existen los diferenciales; entonces se puede reescribir como
\ [ f (\ mathbf {X}) =T_k (\ mathbf {X}) +\ frac {1} {(k+1)!} (d^ {(k+1)} _ {\ Widetilde {\ mathbf {X}}} f) (\ mathbf {X} -\ mathbf {X} _0). \]
El siguiente teorema conduce a una condición suficiente útil para máximos y mínimos locales. Se relaciona con el Teoremo~. Estrictamente hablando, sin embargo, no es una generalización del Teorema (Ejercicio).
Si\(\epsilon>0\), hay\(\delta>0\) tal que\(B_\delta (\mathbf{X}_0)\subset N\) y todas las derivadas parciales de\(k\) orden th\(f\) satisfacen la desigualdad\ [\ begin {ecuación}\ label {eq:5.4.32} \ izquierda|\ frac {\ parcial^kf (\ widtilde {\ mathbf {X}})} {\ parcial x_ {i_k}\ parcial x_ {i_ {i_ {k-1}}\ cdots\ parcial x_ {i_ _1}} - \ frac {\ parcial^kf (\ mathbf {X} _0)} {\ parcial x_ {i_k}\ parcial x_ {i_ {k-1}}\ cdots\ parcial x_ {i_1}}\ derecha|<\ épsilon,\ quad\ Widetilde {\ mathbf {X}}\ en B_\ delta (\ mathbf {X} _0). \ end {ecuación}\] Ahora supongamos eso\(\mathbf{X}\in B_\delta (\mathbf{X}_0)\). Del Teorem~ con\(k\) reemplazado por\(k-1\),\ [\ begin {ecuación}\ label {eq:5.4.33} f (\ mathbf {X}) =T_ {k-1} (\ mathbf {X}) +\ frac {1} {k!} (d^ {(k)} _ {\ Widetilde {\ mathbf {X}} f) (\ mathbf {X} -\ mathbf {X} _0), \ end {ecuación}\] donde\(\widetilde{\mathbf{X}}\) está algún punto en el segmento de línea de\(\mathbf{X}_0\) a\(\mathbf{X}\) y por lo tanto está en\(B_\delta(\mathbf{X}_0)\). Podemos reescribir como\ [\ begin {ecuación}\ label {eq:5.4.34} f (\ mathbf {X}) =T_k (\ mathbf {X}) +\ frac {1} { k!} \ left [(d^ {(k)} _ {\ Widetilde {\ mathbf {X}}} f) (\ mathbf {X} -\ mathbf {X} _0) - (d^ {(k)} _ {\ mathbf {X} _0} f) (\ mathbf {X} -\ mathbf {X} _0)\ derecha]. \ end {ecuación}\] Pero e implica que\ [\ begin {ecuación}\ label {eq:5.4.35} \ izquierda| (d^ {(k)} _ {\ widtilde {\ mathbf {X}} f) (\ mathbf {X} -\ mathbf {X} _0) - (d^ {(k)} _ _ {{\ mathbf {X} _0 0} f) (\ mathbf {X} -\ mathbf {X} _0)\ derecha|< n^k\ epsilon |\ mathbf {X} -\ mathbf {X} _0|^k \ end {ecuación}\] (Ejercicio~), lo que implica que\ [ \ frac {|f (\ mathbf {X}) -T_k (\ mathbf {X}) |} {|\ mathbf {X} -\ mathbf {X} _0|^k} <\ frac {n^k\ epsilon} {k!} ,\ quad\ mathbf {X}\ en B_\ delta (\ mathbf {X} _0), \] de. Esto implica.
Dejar\(r\) ser un entero positivo y\(\mathbf{X}_0=(x_{10},x_{20}, \dots,x_{n0})\). Una función de la forma\ [\ begin {ecuación}\ label {eq:5.4.36} p (\ mathbf {X}) =\ sum_r a_ {r_1r_2\ dots r_n} (x_1-x_ {10}) ^ {r_1} (x_2-x_ {20}) ^ {r_2}\ cdots (x_n-x_ {n0}) ^ {r_n}, \ end {ecuación}\] donde los coeficientes\(\{a_{r_1r_2\dots r_n}\}\) son constantes y la suma es sobre todas\(n\) -tuplas de no negativos enteros\((r_1,r_2, \dots,r_n)\) tales que\ [ r_1+r_2+\ cdots+r_n=r, \] es un {}, siempre que al menos uno de los coeficientes sea distinto de cero. Por ejemplo, si\(f\) satisface las condiciones de Definición~, entonces la función\ [ p (\ mathbf {X}) =( d^ {(r)} _ {\ mathbf {X} _0} f) (\ mathbf {X} -\ mathbf {X} _0) \]
es tal polinomio si al menos una de las derivadas parciales mixtas de\(r\) orden th de\(f\) at\(\mathbf{X}_0\) es distinta de cero.
Claramente,\(p(\mathbf{X}_0)=0\) si\(p\) es un polinomio homogéneo de grado\(r\ge 1\) en\(\mathbf{X}-\mathbf{X}_0\). Si\(p(\mathbf{X})\ge0\) para todos\(\mathbf{X}\), decimos que\(p\) es {}; si\(p(\mathbf{X})>0\) excepto cuando\(\mathbf{X}=\mathbf{X}_0\),\(p\) es {}.
Del mismo modo,\(p\) es {} si\(p(\mathbf{X})\le0\) o {} si\(p(\mathbf{X})<0\) para todos\(\mathbf{X}\ne \mathbf{X}_0\). En todos estos casos,\(p\) es {}.
Con\(p\) como en,\ [ p (-\ mathbf {X} +2\ mathbf {X} _0) =( -1) ^r p (\ mathbf {X}), \] así que\(p\) no puede ser semidefinito si\(r\) es impar.
Desde Teorem~, si\(f\) es diferenciable y alcanza un valor extremo local en\(\mathbf{X}_0\), entonces\ [\ begin {ecuación}\ label {eq:5.4.37} d_ {\ mathbf {X} _0} f=0, \ end {ecuación}\] desde\(f_{x_1}(\mathbf{X}_0)=f_{x_2} (\mathbf{X}_0)=\cdots=f_{x_n}(\mathbf{X}_0)=0\). Sin embargo, lo contrario es falso. El siguiente teorema proporciona un método para decidir si un punto satisfactorio es un punto extremo. Se relaciona con el Teoremo~.
De y Teorem~,\ [\ begin {ecuación}\ label {eq:5.4.39} \ lim_ {\ mathbf {X}\ a\ mathbf {X} _0} \ frac {f (\ mathbf {X}) -f (\ mathbf {X} _0) -\ dst\ frac {1} {k!} (d^ {(k)} _ {\ mathbf {X} _0}) (\ mathbf {X} -\ mathbf {X} _0)} {|\ mathbf {X} -\ mathbf {X} _0|^k} =0. \ end {ecuación}\] Si\(\mathbf{X}=\mathbf{X}_0+t\mathbf{U}\), donde\(\mathbf{U}\) es un vector constante, entonces\ [ (d^ {(k)} _ {\ mathbf {X} _0} f) (\ mathbf {X} -\ mathbf {X} _0) = t^k (d^ {(k)} _ _ {\ mathbf {X} _0} f) (\ mathbf {U}), \] así implica que\ [ \ lim_ {t\ a 0}\ frac {f (\ mathbf {X} _0+t\ mathbf {U}) - f (\ mathbf {X} _0) -\ dst\ frac {t^k} {k!} (d^ {(k)} _ {\ mathbf {X} _0} f) (\ mathbf {U})} { t^k} =0, \] o, equivalentemente,\ [\ begin {ecuación}\ label {eq:5.4.40} \ lim_ {t\ a 0}\ frac {f (\ mathbf {X} _0+t\ mathbf {U}) -f (\ mathbf {X} _0)} {t^k} =\ frac {1} {k!} (d^ {(k)} _ {\ mathbf {X} _0} f) (\ mathbf {U}) \ end {ecuación}\] para cualquier vector constante\(\mathbf{U}\).
Para acreditar, supongamos que no\(d^{(k)}_{\mathbf{X}_0}f\) es semidefinito. Luego hay vectores\(\mathbf{U}_1\) y\(\mathbf{U}_2\) tales que\ [ (d^ {(k)} _ {\ mathbf {X} _0} f) (\ mathbf {U} _1) >0\ mbox {\ quad y\ quad} (d^ {(k)} _\ mathbf {X_0} f) (\ mathbf {U} _2) <0. \] Esto e implica que\ [ f (\ mathbf {X} _0+t\ mathbf {U} _1) >f (\ mathbf {X} _0)\ mbox {\ quad y\ quad} f (\ mathbf {X} _0+t\ mathbf {U} _2) <f (\ mathbf {X} _0) \] para\(t\) suficientemente pequeño. De ahí, no\(\mathbf{X}_0\) es un punto extremo local de\(f\).
Para acreditar, primero supongamos que\(d^{(k)}_{\mathbf{X}_0} f\) es positivo definido. Entonces se puede demostrar que hay\(\rho>0\) tal que\ [\ begin {ecuación}\ label {eq:5.4.41} \ frac {(d^ {(k)} _ {\ mathbf {X} _0} f) (\ mathbf {X} -\ mathbf {X} _0)} {k!} \ ge\ rho |\ mathbf {X} -\ mathbf {X} _0|^k \ fin {ecuación}\]
para todos\(\mathbf{X}\) (Ejercicio~). De, hay\(\delta>0\) tal que\ [ \ frac {f (\ mathbf {X}) -f (\ mathbf {X} _0) -\ dst\ frac {1} {k!} (d^ {(k)} _ {\ mathbf {X} _0} f) (\ mathbf {X} -\ mathbf {X} _0)} {|\ mathbf {X} -\ mathbf {X} _0|^k} >- \ frac {\ rho} {2}\ mbox {\ quad si\ quad} |\ mathbf {X} -\ mathbf {X} _0|<\ delta. \] Por lo tanto,\ [ f (\ mathbf {X}) -f (\ mathbf {X} _0) >\ frac {1} {k!} (d^ {(k)} _ {\ mathbf {X} _0}) (\ mathbf {X} -\ mathbf {X} _0) -\ frac {\ rho} {2} |\ mathbf {X} -\ mathbf {X} _0|^k\ mbox {\ quad si\ quad} |\ mathbf {X} -\ mathbf {X} _0|<\ delta. \] Esto e implica que\ [ f (\ mathbf {X}) -f (\ mathbf {X} _0) >\ frac {\ rho} {2} |\ mathbf {X} -\ mathbf {X} _0|^k\ mbox {\ quad if\ quad} |\ mathbf {X} -\ mathbf {X} _0| < \ delta, que implica que\(\mathbf{X}_0\) es un punto mínimo local de\(f\). Esto prueba la mitad de. Te dejamos la otra mitad (Ejercicio~).
Para probarsimplemente requiere ejemplos; ver Ejercicio~.
Escribe\((x-x_0,y-y_0)=(u,v)\) y\ [ p (u, v) =( d^ {(2)} _ {\ mathbf {X} _0} f) (u, v) =Au^2+2Buv+Cv^2, \] donde\(A=f_{xx}(x_0,y_0)\),\(B=f_{xy}(x_0,y_0)\), y\(C=f_{yy}(x_0,y_0)\), así\ [ D=AC-B^2. \] Si\(D>0\), entonces\(A\ne0\), y podemos escribir\ [\ begin {eqnarray*} p (u, v)\ ar=A\ left (u^2+\ frac {2B} {A} uv+\ frac {B^2} { A^2} v^2\ right) +\ left (C-\ frac {B^2} {A}\ arright) v^2\ \ =A\ izquierda (u+\ frac {B} {A} v\ derecha) ^2+\ frac {D} {A} v^2. \ end {eqnarray*}\] Esto no puede desvanecerse a menos que\(u=v=0\). Por lo tanto,\(d^{(2)}_{\mathbf{X}_0}f\) es positivo definido si\(A>0\) o negativo definido si\(A<0\), y Teorem~ implica.
Si\(D<0\), hay tres posibilidades:
En cada caso los dos valores dados de\(p\) difieren en signo, por lo que no\(\mathbf{X}_0\) es un punto extremo local de\(f\), a partir del Teorem~.
{}