Saltar al contenido principal

# 6.1: Transformaciones lineales y matrices

$$\newcommand{\vecs}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} }$$

$$\newcommand{\vecd}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash {#1}}}$$

$$\newcommand{\id}{\mathrm{id}}$$ $$\newcommand{\Span}{\mathrm{span}}$$

( \newcommand{\kernel}{\mathrm{null}\,}\) $$\newcommand{\range}{\mathrm{range}\,}$$

$$\newcommand{\RealPart}{\mathrm{Re}}$$ $$\newcommand{\ImaginaryPart}{\mathrm{Im}}$$

$$\newcommand{\Argument}{\mathrm{Arg}}$$ $$\newcommand{\norm}[1]{\| #1 \|}$$

$$\newcommand{\inner}[2]{\langle #1, #2 \rangle}$$

$$\newcommand{\Span}{\mathrm{span}}$$

$$\newcommand{\id}{\mathrm{id}}$$

$$\newcommand{\Span}{\mathrm{span}}$$

$$\newcommand{\kernel}{\mathrm{null}\,}$$

$$\newcommand{\range}{\mathrm{range}\,}$$

$$\newcommand{\RealPart}{\mathrm{Re}}$$

$$\newcommand{\ImaginaryPart}{\mathrm{Im}}$$

$$\newcommand{\Argument}{\mathrm{Arg}}$$

$$\newcommand{\norm}[1]{\| #1 \|}$$

$$\newcommand{\inner}[2]{\langle #1, #2 \rangle}$$

$$\newcommand{\Span}{\mathrm{span}}$$ $$\newcommand{\AA}{\unicode[.8,0]{x212B}}$$

$$\newcommand{\vectorA}[1]{\vec{#1}} % arrow$$

$$\newcommand{\vectorAt}[1]{\vec{\text{#1}}} % arrow$$

$$\newcommand{\vectorB}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} }$$

$$\newcommand{\vectorC}[1]{\textbf{#1}}$$

$$\newcommand{\vectorD}[1]{\overrightarrow{#1}}$$

$$\newcommand{\vectorDt}[1]{\overrightarrow{\text{#1}}}$$

$$\newcommand{\vectE}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash{\mathbf {#1}}}}$$

$$\newcommand{\vecs}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} }$$

$$\newcommand{\vecd}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash {#1}}}$$

$$\newcommand{\avec}{\mathbf a}$$ $$\newcommand{\bvec}{\mathbf b}$$ $$\newcommand{\cvec}{\mathbf c}$$ $$\newcommand{\dvec}{\mathbf d}$$ $$\newcommand{\dtil}{\widetilde{\mathbf d}}$$ $$\newcommand{\evec}{\mathbf e}$$ $$\newcommand{\fvec}{\mathbf f}$$ $$\newcommand{\nvec}{\mathbf n}$$ $$\newcommand{\pvec}{\mathbf p}$$ $$\newcommand{\qvec}{\mathbf q}$$ $$\newcommand{\svec}{\mathbf s}$$ $$\newcommand{\tvec}{\mathbf t}$$ $$\newcommand{\uvec}{\mathbf u}$$ $$\newcommand{\vvec}{\mathbf v}$$ $$\newcommand{\wvec}{\mathbf w}$$ $$\newcommand{\xvec}{\mathbf x}$$ $$\newcommand{\yvec}{\mathbf y}$$ $$\newcommand{\zvec}{\mathbf z}$$ $$\newcommand{\rvec}{\mathbf r}$$ $$\newcommand{\mvec}{\mathbf m}$$ $$\newcommand{\zerovec}{\mathbf 0}$$ $$\newcommand{\onevec}{\mathbf 1}$$ $$\newcommand{\real}{\mathbb R}$$ $$\newcommand{\twovec}[2]{\left[\begin{array}{r}#1 \\ #2 \end{array}\right]}$$ $$\newcommand{\ctwovec}[2]{\left[\begin{array}{c}#1 \\ #2 \end{array}\right]}$$ $$\newcommand{\threevec}[3]{\left[\begin{array}{r}#1 \\ #2 \\ #3 \end{array}\right]}$$ $$\newcommand{\cthreevec}[3]{\left[\begin{array}{c}#1 \\ #2 \\ #3 \end{array}\right]}$$ $$\newcommand{\fourvec}[4]{\left[\begin{array}{r}#1 \\ #2 \\ #3 \\ #4 \end{array}\right]}$$ $$\newcommand{\cfourvec}[4]{\left[\begin{array}{c}#1 \\ #2 \\ #3 \\ #4 \end{array}\right]}$$ $$\newcommand{\fivevec}[5]{\left[\begin{array}{r}#1 \\ #2 \\ #3 \\ #4 \\ #5 \\ \end{array}\right]}$$ $$\newcommand{\cfivevec}[5]{\left[\begin{array}{c}#1 \\ #2 \\ #3 \\ #4 \\ #5 \\ \end{array}\right]}$$ $$\newcommand{\mattwo}[4]{\left[\begin{array}{rr}#1 \amp #2 \\ #3 \amp #4 \\ \end{array}\right]}$$ $$\newcommand{\laspan}[1]{\text{Span}\{#1\}}$$ $$\newcommand{\bcal}{\cal B}$$ $$\newcommand{\ccal}{\cal C}$$ $$\newcommand{\scal}{\cal S}$$ $$\newcommand{\wcal}{\cal W}$$ $$\newcommand{\ecal}{\cal E}$$ $$\newcommand{\coords}[2]{\left\{#1\right\}_{#2}}$$ $$\newcommand{\gray}[1]{\color{gray}{#1}}$$ $$\newcommand{\lgray}[1]{\color{lightgray}{#1}}$$ $$\newcommand{\rank}{\operatorname{rank}}$$ $$\newcommand{\row}{\text{Row}}$$ $$\newcommand{\col}{\text{Col}}$$ $$\renewcommand{\row}{\text{Row}}$$ $$\newcommand{\nul}{\text{Nul}}$$ $$\newcommand{\var}{\text{Var}}$$ $$\newcommand{\corr}{\text{corr}}$$ $$\newcommand{\len}[1]{\left|#1\right|}$$ $$\newcommand{\bbar}{\overline{\bvec}}$$ $$\newcommand{\bhat}{\widehat{\bvec}}$$ $$\newcommand{\bperp}{\bvec^\perp}$$ $$\newcommand{\xhat}{\widehat{\xvec}}$$ $$\newcommand{\vhat}{\widehat{\vvec}}$$ $$\newcommand{\uhat}{\widehat{\uvec}}$$ $$\newcommand{\what}{\widehat{\wvec}}$$ $$\newcommand{\Sighat}{\widehat{\Sigma}}$$ $$\newcommand{\lt}{<}$$ $$\newcommand{\gt}{>}$$ $$\newcommand{\amp}{&}$$ $$\definecolor{fillinmathshade}{gray}{0.9}$$

En esta y subsiguientes secciones muchas veces será conveniente escribir vectores verticalmente; así, en lugar de$$\mathbf{X}=(x_1,x_2, \dots,x_n)$$ escribiremos\ [ \ mathbf {X} =\ left [\ begin {array} {c} x_1\\ x_2\\ vdots\\ x_n\ end {array}\ right] \] cuando se trata de operaciones matriciales. Aunque suponemos que ha completado un curso de álgebra lineal, revisaremos las operaciones matriciales pertinentes.

Hemos definido funciones con valores vectoriales como$$n$$ tuplas ordenadas de funciones de valor real, en conexión con funciones compuestas$$h=f\circ \mathbf{G}$$, donde$$f$$ es de valor real y$$\mathbf{G}$$ de valor vectorial. Ahora consideramos las funciones con valores vectoriales como objetos de interés por sí mismas.

Si$$f_1$$,$$f_2$$,$$f_m$$ son funciones de valor real definidas en un conjunto$$D$$ en$$\R^n$$, entonces\ [ \ mathbf {F} =\ left [\ begin {array} {c} f_1\\ f_2\\\ vdots\\ f_m\ end {array}\ right] \] asigna a cada$$\mathbf{X}$$ en$$D$$ un$$m$$ -vector\ [ \ mathbf {F} (\ mathbf {X}) =\ left [\ begin {array} {c} f_1 (\ mathbf {X})\\ f_2 (\ mathbf {X}) \\\ vdots\\ f_m (\ mathbf {X})\ end {array}\ derecha]. \] Recordemos que$$f_1$$$$f_2$$,,$$f_m$$ son los {}, o simplemente {}, de$$\mathbf{F}$$. Escribimos\ [ \ mathbf {F}:\ R^n\ a\ R^m \] para indicar que el dominio de$$\mathbf{F}$$ esta en$$\R^n$$ y el rango de$$\mathbf{F}$$ esta en$$\R^m$$. También decimos que$$\mathbf{F}$$ es un {}$$\R^n$$ {}$$\R^m$$. Si$$m=1$$, nos identificamos$$\mathbf{F}$$ con su función de componente único$$f_1$$ y la consideramos como una función de valor real.

.75pz

Las transformaciones interesantes más simples de$$\R^n$$ a$$\R^m$$ son las {}, definidas de la siguiente manera

.75pz

Si se puede ver por inducción (Ejercicio~) que si$$\mathbf{L}$$ es lineal, entonces\ [\ begin {ecuación}\ label {eq:6.1.2} \ mathbf {L} (a_1\ mathbf {X} _1+a_2\ mathbf {X} _2+\ cdots+a_k\ mathbf {X} _k) = a_1\ mathbf {L} (\ mathbf {X} _1) +a_2\ mathbf {L} (\ mathbf {X} _2) +\ cdots+a_k\ mathbf {L} (\ mathbf {X} _k) \ end {ecuación}\] para cualquier vector $$\mathbf{X}_1$$,$$\mathbf{X}_2$$,,$$\mathbf{X}_k$$ y números reales$$a_1$$,$$a_2$$,,$$a_k$$. Cualquier$$\mathbf{X}$$ in$$\R^n$$ puede escribirse como\ [\ begin {eqnarray*} \ mathbf {X}\ ar=\ left [\ begin {array} {c} x_1\ x_2\\\ vdots\\ x_n\ end {array}\ right] =x_1\ left [\ begin {array} {c} 1\\ 0\\ vdots\\ 0\ end {array}\ derecha] +x_2\ izquierda [\ begin {array} {c} 0\\ 1\\\ vdots\\ 0\ end {array}\ derecha] +\ cdots +x_n\ izquierda [\ begin { array} {c} 0\\ 0\\ vdots\\ 1\ end {array}\ derecha]\\ \ ar=x_1\ mathbf {E} _1+x_2\ mathbf {E} _2+\ cdots+x_n\ mathbf {E} _n. \ end {eqnarray*}\] Aplicando con$$k=n$$,$$\mathbf{X}_i=\mathbf{E}_i$$, y$$a_i=x_i$$ rinde\ [\ begin {ecuación}\ etiqueta {eq:6.1.3} \ mathbf {L} (\ mathbf {X}) =x_1\ mathbf {L} (\ mathbf {E} _1) +x_2\ mathbf {L} (\ mathbf {E } _2) +\ cdots+x_n\ mathbf {L} (\ mathbf {E} _n). \ end {ecuación}\] Ahora denota\ [ \ mathbf {L} (\ mathbf {E} _j) =\ left [\ begin {array} {c} a_ {1j}\\ a_ {2j}\\ \ vdots\\ a_ {mj}\ end {array}\ derecha], \] así se convierte en\ [ \ mathbf {L} (\ mathbf {X}) =x_1\ izquierda [\ begin {array} {c} a_ {11}\\ a_ {21}\\\ vdots\\ a_ {m1} \ end {array}\ derecha] +x_2\ left [\ begin {array} {c} a_ {12}\ \ a_ {22}\\\ vdots\\ a_ {m2}\ end {array} \ derecha] +\ cdots +x_n\ left [\ begin {array} {c} a_ {1n}\\ a_ {2n}\\\ vdots\\ a_ {mn}\ end {array} \ right], \] que es equivalente a. Esto demuestra que si$$\mathbf{L}$$ es lineal, entonces$$\mathbf{L}$$ tiene la forma. Te dejamos la prueba de lo contrario a ti (Ejercicio~).

Llamamos a la matriz rectangular\ [\ begin {ecuación}\ label {eq:6.1.4} \ mathbf {A} =\ left [\ begin {array} {cccc} a_ {11} &a_ {12} &\ cdots&a_ {1n}\\ a_ {21} &a_ {21} &\ cdots&a_ {2n}\ \ vdots&a_ &\ vdots&\ ddots&\ vdots\\ a_ {m1} &a_ {m2} &\ cdots&a_ {mn}\ end {array}\ derecha] \ end { ecuación}\]

el {} de la transformación lineal. El número$$a_{ij}$$ en la$$i$$ fila y la columna$$j$$ th de$$\mathbf{A}$$ se llama {}$$\mathbf{A}$$. Decimos que$$\mathbf{A}$$ es una$$m\times n$$ matriz, ya que$$\mathbf{A}$$ tiene$$m$$ filas y$$n$$ columnas. A veces abreviaremos como\ [ \ mathbf {A} = [a_ {ij}]. \]

Ahora recordaremos las operaciones matriciales que necesitamos para estudiar el cálculo diferencial de las transformaciones.

Te dejamos las pruebas de los siguientes tres teoremas (Ejercicios~—)

El siguiente teorema muestra por qué Definition~ es apropiado. Te dejamos la prueba (Ejercicio~).

Si una función de valor real$$f: \R^n\to \R$$ es diferenciable en$$\mathbf{X}_0$$, entonces\ [ d_ {\ mathbf {X} _0} f=f_ {x_1} (\ mathbf {X} _0)\, dx_1+f_ {x_2} (\ mathbf {X} _0)\, dx_2+\ cdots+f_ {x_n} (\ mathbf {X} _0)\, dx_n. \] Esto se puede escribir como un producto matricial\ [\ begin {ecuación}\ label {eq:6.1.5} d_ {\ mathbf {X} _0} f= [f_ {x_1} (\ mathbf {X} _0)\ quad f_ {x_2} (\ mathbf {X} _0)\ quad \ cdots\ quad f_ {x_n} (\ mathbf {X} _0)] \ left [\ begin {array} {c} dx_1\ dx_2\\ vdots\\ dx_n\ end {array}\ derecha]. \ end {ecuación}\] Definimos el {} por\ [\ begin {ecuación}\ label {eq:6.1.6} f' (\ mathbf {X} _0) = [f_ {x_1} (\ mathbf {X} _0)\ quad f_ {x_n} (\ mathbf {X} _0)\ quad\ cdots\ quad f_ {x_n} (\ mathbf {X} _0)] \ end {ecuación}\] y el {} por\ [ d\ mathbf {X} =\ left [\ begin {array} {c} dx_1\\ dx_2\\ vdots\\ dx_n\ end {array}\ right]. \]

Entonces se puede reescribir como\ [\ begin {ecuación}\ label {eq:6.1.7} d_ {\ mathbf {X} _0} f=f' (\ mathbf {X} _0)\, d\ mathbf {X}. \ end {ecuación}\]

Esto es análogo a la fórmula correspondiente para funciones de una variable (Ejemplo~), y muestra que la matriz diferencial$$f'(\mathbf{X}_0)$$ es una generalización natural de la derivada. Con esta nueva notación podemos expresar la propiedad definitoria del diferencial de una manera similar a la forma que aplica para$$n=1$$:\ [ \ lim_ {\ mathbf {X}\ to\ mathbf {X} _0} \ frac {f (\ mathbf {X}) -f (\ mathbf {X} _0) -f' (\ mathbf {X} _ {0}) (\ mathbf {X} -\ mathbf {X} _0)} {|\ mathbf {X} -\ mathbf {X} _0|} =0, \] donde $$\mathbf{X}_0=(x_{10},x_{20}, \dots,x_{n0})$$y$$f'(\mathbf{X}_0)(\mathbf{X}-\mathbf{X}_{0})$$ es la matriz producto\ [ [f_ {x_1} (\ mathbf {X} _0)\ quad f_ {x_2} (\ mathbf {X} _0)\ quad\ cdots\ quad f_ {x_n} (\ mathbf {X} _0)] \ left [\ begin {array} {c} x_1-x_ {10}\ x_2-x_ {20}\\\ vdots\\ x_n-x_ {n0}\ end {array} \ derecha]. \]

Como antes, omitimos el$$\mathbf{X}_0$$ in y cuando no es necesario enfatizar el punto específico; así, escribimos\ [ f'= \ left [\ hskip-.5em\ begin {array} {cccc} f_ {x_1} &f_ {x_2} &\ cdots&f_ {x_n} \ end {array}\ hskip-.5em\ right] \ mbox {\ quad\ y\ quad} df=f'd\ mathbf {X}. \]

Necesitaremos la siguiente definición en la siguiente sección.

Para justificar esta definición, debemos demostrar que$$\|\mathbf{A}\|$$ existe. Los componentes de$$\mathbf{Y}=\mathbf{AX}$$ son\ [ y_i=a_ {i1} x_1+a_ {i2} x_2+\ cdots+a_ {in} x_n,\ quad 1\ le i\ le m. \] Por la desigualdad de Schwarz,\ [ y^2_i\ le (a^2_ {i1} +a^2_ {i2} +\ cdots+a^2_ _ {in}) |\ mathbf {X} |^2. \] Sumando esto sobre$$1\le i\le m$$ rendimientos\ [ |\ mathbf {Y} |^2\ le\ left (\ sum^m_ {i=1}\ sum^n_ {j=1} a^2_ {ij}\ derecha) |\ mathbf {X} |^2. \] Por lo tanto, el conjunto\ [ B=\ set {K} {|\ mathbf {AX} |\ le K|\ mathbf {X} |\ mbox {\ quad para todos $\ mathbf {X}$ en $\ r^n$}} \] no está vacío. Ya que$$B$$ está delimitado por debajo de cero,$$B$$ tiene un infimum$$\alpha$$. Si$$\epsilon>0$$, entonces$$\alpha+\epsilon$$ está adentro$$B$$ porque si no, entonces ningún número menor al que$$\alpha+\epsilon$$ podría estar en$$B$$. Entonces$$\alpha+\epsilon$$ sería un límite inferior para$$B$$, contradiciendo la definición de$$\alpha$$. De ahí que\ [ |\ mathbf {AX} |\ le (\ alpha+\ epsilon) |\ mathbf {X} |,\ quad\ mathbf {X}\ in\ r^n. \] Dado que$$\epsilon$$ es un número positivo arbitrario, esto implica que\ [ |\ mathbf {AX} |\ le\ alpha |\ mathbf {X} |,\ quad\ mathbf {X}\ in\ r^N, \] así$$\alpha\in B$$. Como no hay menor número en$$B$$, concluimos que$$\|\mathbf{A}\|=\alpha$$.

En nuestras aplicaciones no tendremos que computar realmente la norma de una matriz$$\mathbf{A}$$; más bien, bastará con saber que la norma existe (finita).

Las transformaciones lineales de$$\R^n$$ a$$\R^n$$ serán importantes cuando discutamos el teorema de la función inversa en Sección~6.3 y el cambio de variables en múltiples integrales en Sección~7.3. La matriz de tal transformación es {}; es decir, tiene el mismo número de filas y columnas.

Suponemos que conoces la definición del determinante\ [\ det ( \ mathbf {A}) =\ izquierda|\ begin {array} {cccc} a_ {11} &a_ {12} &\ cdots&a_ {1n}\\ a_ {21} &a_ {22} &\ cdots&a_ {2n}\\ \ vdots&\ puntos&\ ddots&\ vdots\\ a_ {n1} &a_ {n2} &\ cdots&a_ {nn}\ end {array}\ derecha| \] de una$$n\times n$$ matriz\ [ \ mathbf {A} =\ left [\ begin {array} {cccc} a_ {11} &a_ {12} &\ cdots&a_ {1n}\\ a_ {21} &a_ {22} &\ cdots&a_ {2n}\ \\ vdots&\ vdots&\ ddots&\ vdots\ _ {n1} &a_ {n2} &\ cdots&a_ {nn}\ end {array}\ right]. \]

El {},$$\mathbf{A}^t$$, de una matriz$$\mathbf{A}$$ (cuadrada o no) es la matriz obtenida intercambiando las filas y columnas de$$\mathbf{A}$$; así, si\ [ \ mathbf {A} =\ left [\ begin {array} {ccr} 1&2 &3\\ 3&1 &4\\ 0&1 &-2\ end {array}\ right],\ mbox {\ quad entonces\ quad} \ mathbf {A} ^t=\ left [\ begin { array} {ccr} 1&3 &0\\ 2&1 &1\\ 3&4 &-2\ end {array}\ right]. \] Una matriz cuadrada y su transposición tienen el mismo determinante; así,\ [ \ det (\ mathbf {A} ^t) =\ det (\ mathbf {A}). \]

Tomamos el siguiente teorema del álgebra lineal como se da.

.2pc

Las entradas$$a_{ii}$$,$$1\le i\le n$$, de una$$n\times n$$ matriz$$\mathbf{A}$$ están en el {} de$$\mathbf{A}$$. La$$n\times n$$ matriz con unos en la diagonal principal y ceros en otra parte se llama {} y se denota por$$\mathbf{I}$$; así, if$$n=3$$, .4pc\ [ \ mathbf {I} =\ left [\ begin {array} {ccc} 1&0 &0\\ 0&1 &0\\ 0&0 &1\\ end {array}\ right]. \] .4pc Llamamos a$$\mathbf{I}$$ la matriz de identidad porque$$\mathbf{A}\mathbf{I}= \mathbf{A}$$ y$$\mathbf{I}\mathbf{A}=\mathbf{A}$$ si$$\mathbf{A}$$ es alguna$$n\times n$$ matriz. Decimos que una$$n\times n$$ matriz$$\mathbf{A}$$ es {} si hay una$$n\times n$$ matriz$$\mathbf{A}^{-1}$$, la {}$$\mathbf{A}$$, tal que$$\mathbf{A}\mathbf{A}^{-1}=\mathbf{A}^{-1}\mathbf{A}=\mathbf{I}$$. De lo contrario, decimos que$$\mathbf{A}$$ es {}

Nuestro principal objetivo es mostrar que una$$n\times n$$ matriz no$$\mathbf{A}$$ es singular si y solo si$$\det(\mathbf{A})\ne0$$. También encontraremos una fórmula para la inversa.

.1pc

Para una prueba del siguiente teorema, ver cualquier texto elemental de álgebra lineal.

Si calculamos$$\det(\mathbf{A})$$ a partir de la fórmula \ [\ det (\ mathbf {A}) =\ sum_ {k=1} ^na_ {ik} c_ {ik}, \]

decimos que somos {}. Ya que podemos elegir$$i$$ arbitrariamente entre$$\{1, \dots,n\}$$, hay$$n$$ formas de hacerlo. Si calculamos$$\det(\mathbf{A})$$ a partir de la fórmula \ [\ det (\ mathbf {A}) =\ sum_ {k=1} ^na_ {kj} c_ {kj}, \] decimos que somos {}. También hay$$n$$ formas de hacerlo.

En particular, señalamos que$$\det(\mathbf{I})=1$$ para todos$$n\ge1$$.

Si$$\det(\mathbf{A})=0$$, entonces$$\det(\mathbf{A}\mathbf{B})=0$$ para cualquier$$n\times n$$ matriz, por Teoremo~. Por lo tanto$$\det(\mathbf{I})=1$$, ya que, no existe$$n\times n$$ matriz matriz$$\mathbf{B}$$ tal que$$\mathbf{A}\mathbf{B}=\mathbf{I}$$; es decir,$$\mathbf{A}$$ es singular si$$\det(\mathbf{A})=0$$. Ahora supongamos eso$$\det(\mathbf{A})\ne0$$. Ya que implica que\ [ \ mathbf {A}\ adj (\ mathbf {A}) =\ det (\ mathbf {A})\ mathbf {I} \] e implica que\ [ \ adj (\ mathbf {A})\ mathbf {A} =\ det (\ mathbf {A})\ mathbf {I}, \] dividiendo ambos lados de estas dos ecuaciones por$$\det(\mathbf{A})$$ muestra que si$$\mathbf{A}^{-1}$$ es como se define en, entonces$$\mathbf{A}\mathbf{A}^{-1}=\mathbf{A}^{-1}\mathbf{A}=\mathbf{I}$$. Por lo tanto,$$\mathbf{A}^{-1}$$ es una inversa de$$\mathbf{A}$$. Para ver que es la única inversa, supongamos que$$\mathbf{B}$$ es una$$n\times n$$ matriz tal que$$\mathbf{A}\mathbf{B}=\mathbf{I}$$. Entonces$$\mathbf{A}^{-1}(\mathbf{A}\mathbf{B})=\mathbf{A}^{-1}$$, entonces$$(\mathbf{A}^{-1}\mathbf{A})\mathbf{B}=\mathbf{A}^{-1}$$. Desde$$\mathbf{A}\mathbf{A}^{-1}=\mathbf{I}$$ y$$\mathbf{I}\mathbf{B}=\mathbf{B}$$, se deduce que$$\mathbf{B}=\mathbf{A}^{-1}$$.

Ahora considere la ecuación\ [\ begin {ecuación}\ label {eq:6.1.11} \ mathbf {A}\ mathbf {X} =\ mathbf {Y} \ end {ecuación}\] con\ [ \ mathbf {A} = \ left [\ begin {array} {cccc} a_ {11} &a_ {12} &\ cdots&a_ {1n}\ a_ {21} &a_ {22} &\ cdots&a_ {2n}\\ \ vdots&\ vdots&\ ddots&\ vdots\\ a_ {n1} &a_ {n2} &\ cdots&a_ {nn} \ end {array}\ derecha],\ quad \ mathbf {X} = \ left [\ begin {array} {c} x_1\\ x_2\\ vdots\\ x_n \ end {array}\ derecha], \ mbox {\ quad y\ quad} \ mathbf {Y} = \ left [\ begin {array} {c} y_1\\ y_2\\\ vdots\\ y_n \ end {array}\ right]. \] Aquí$$\mathbf{A}$$ y$$\mathbf{Y}$$ se dan, y el problema es encontrar$$\mathbf{X}$$.

Supongamos que eso no$$\mathbf{A}$$ es singular, y vamos$$\mathbf{X}=\mathbf{A}^{-1}\mathbf{Y}$$. Entonces\ [ \ mathbf {A}\ mathbf {X} =\ mathbf {A} (\ mathbf {A} ^ {-1}\ mathbf {Y}) = (\ mathbf {A}\ mathbf {A} ^ {-1})\ mathbf {Y} =\ mathbf {I}\ mathbf {Y} =\ mathbf {Y}; \] es decir,$$\mathbf{X}$$ es una solución de. Para ver esa$$\mathbf{X}$$ es la única solución de, supongamos que$$\mathbf{A}\mathbf{X}_1=\mathbf{Y}$$. Entonces$$\mathbf{A}\mathbf{X}_1=\mathbf{A} \mathbf{X}$$, entonces\ [\ begin {eqnarray*} \ mathbf {A} ^ {-1} (\ mathbf {A}\ mathbf {X})\ ar= \ mathbf {A} ^ {-1} (\ mathbf {A}\ mathbf {X} _1)\\\ arraytext {y} \\ (\ mathbf {A} ^ {-1}\ mathbf {A} ^ {-1}\ mathbf {A}})\ mathbf {X}\ ar= (\ mathbf {A} ^ {-1}\ mathbf {A})\ mathbf {X} _1, \ end {eqnarray*}\] que es equivalente a$$\mathbf{I}\mathbf{X}=\mathbf{I}\mathbf{X}_1$$, o $$\mathbf{X}=\mathbf{X}_1$$.

Por el contrario, supongamos que tiene una solución para cada$$\mathbf{Y}$$, y dejar que$$\mathbf{X}_i$$ satisfaga$$\mathbf{A}\mathbf{X}_i=\mathbf{E}_i$$,$$1\le i\le n$$. Que\ [ \ mathbf {B} = [\ mathbf {X} _1\,\ mathbf {X} _2\,\ cdots\,\ mathbf {X} _n]; \] es decir,$$\mathbf{X}_1$$,$$\mathbf{X}_2$$,,$$\mathbf{X}_n$$ son las columnas de$$\mathbf{B}$$. Entonces\ [ \ mathbf {A}\ mathbf {B} = [\ mathbf {A}\ mathbf {X} _1\,\ mathbf {A}\ mathbf {X} _2\,\ cdots\,\ mathbf {A}\ mathbf {X} _n] = [\ mathbf {E} _1\,\ mathbf {E} _2\,\ cdots\,\ mathbf {E} _n] =\ mathbf {I}. \] Para demostrar eso$$\mathbf{B}=\mathbf{A}^{-1}$$, aún debemos demostrarlo$$\mathbf{B}\mathbf{A}=\mathbf{I}$$. Primero notamos que, desde$$\mathbf{A}\mathbf{B} =\mathbf{I}$$ y$$\det(\mathbf{B}\mathbf{A})=\det(\mathbf{A}\mathbf{B})=1$$ (Teorem~),$$\mathbf{B}\mathbf{A}$$ es no singular (Teorem~). Ahora tenga en cuenta que\ [ (\ mathbf {B}\ mathbf {A}) (\ mathbf {B}\ mathbf {A}) = \ mathbf {B} (\ mathbf {A}\ mathbf {B})\ mathbf {A}) =\ mathbf {B}\ mathbf {I}\ mathbf {A}; \] es decir,\ [ (\ mathbf {B}\ mathbf {A}) (\ mathbf {B}\ mathbf {A}) =(\ mathbf {B}\ mathbf {A}). \] Multiplicando ambos lados de esta ecuación a la izquierda por$$\mathbf{B}\mathbf{A})^{-1}$$ rendimientos$$\mathbf{B}\mathbf{A}=\mathbf{I}$$.

El siguiente teorema da una fórmula útil para los componentes de la solución de.

De Teoremas ~ y, la solución de$$\mathbf{A}\mathbf{X}=\mathbf{Y}$$ es\ [\ begin {eqnarray*} \ left [\ begin {array} {c} x_1\\ x_2\\\ vdots\\ x_n \ end {array}\ right] =\ mathbf {A} ^ {-1}\ mathbf {Y} \ ar=\ frac {1} {\ det (\ mathbf {A})} \ left [\ begin {array} {cccc} c_ {11} &c_ {21} &\ cdots&c_ {n1}\\ c_ {12} &c_ {22} & amp;\ cdots&c_ {n2}\\ \ cdots&\ cdots&\ ddots&\ cdots\\ c_ {1n} &c_ {2n} &\ cdots&c_ {nn} \ end {array}\ derecha] \ left [\ begin {array} {c} y_1\\ y_2\\\ vdots\\ y_n end {array}\ derecha]\\ \ ar= \ izquierda [\ begin {array} {c} c_ {11} y_1+c_ {21} y_2+\ cdots+c_ {n1} y_n\\ c_ {12} y_1+c_ {22} y_2+\ cdots+c_ {n2} y_n\\ \ vdots\\ c_ {1n} y_1+c_ {2n} y_2+\ cdots+c_ {nn} y_n \ end {array}\ right]. \ end {eqnarray*}\] Pero\ [ c_ {11} y_1+c_ {21} y_2+\ cdots+c_ {n1} y_n= \ izquierda|\ begin {array} {cccc} y_1&a_ {12} &\ cdots&a_ {1n}\\ y_2&a_ {22} &\ puntos&a_ {2n}\\ \ vdots&\ vdots&\ ddots&\ vdots\\ y_n&a_ {n2} &\ cdots&a_ {nn}\ end {array}\ derecha|, \]

como puede verse expandiendo el determinante a la derecha en cofactores de su primera columna. Del mismo modo,\ [ c_ {12} y_1+c_ {22} y_2+\ cdots+c_ {n2} y_n= \ izquierda|\ begin {array} {ccccc} a_ {11} &y_1&a_ {13} &\ cdots&a_ {1n}\\ a_ {21} &y_2&a_ {23} &\ cdots&a_ {2n}\ \\ vdots&\ vdots&\ vdots&\ ddots&\ vdots\\ a_ {n1} &y_n&a_ {n3} &\ cdots&a_ {nn}\ end {array}\ derecha|, \] como puede verse expandiendo el determinante a la derecha en cofactores de su segunda columna. Continuando de esta manera completa la prueba.

Un sistema de$$n$$ ecuaciones en$$n$$ incógnitas\ [\ begin {ecuación}\ label {eq:6.1.12} \ begin {array} {rcl} a_ {11} x_1+a_ {12} x_2+\ cdots+a_ {1n} x_n\ ar=0\\ a_ {21} x_1+a_ {22} x_2+\ cdots+a_ {2n} x_n\ ar=0\\ &\ vdots&\\ a_ {n1} x_1+a_ {n2} x_2+\ cdots+a_ {nn} x_n\ ar=0 \ end {array} \ end { ecuación}\] (o, en forma de matriz,$$\mathbf{A}\mathbf{X}=\mathbf{0}$$) es {}. Es obvio que$$\mathbf{X}_0=\mathbf{0}$$ satisface este sistema. A esto lo llamamos el {} de. Cualquier otra solución de, si existen, son {}.

Vamos a necesitar los siguientes teoremas. Las pruebas se pueden encontrar en cualquier texto de álgebra lineal.

A lo largo del resto de este capítulo, las transformaciones$$\mathbf{F}$$ y los puntos$$\mathbf{X}$$ deben considerarse escritos en forma vertical cuando ocurren en relación con operaciones matriciales. Sin embargo, vamos a escribir$$\mathbf{X}=(x_1,x_2, \dots,x_n)$$ cuándo$$\mathbf{X}$$ es el argumento de una función.

-.2em En la Sección~5.2 definimos una función de valor vectorial (transformación) para que sea continua en$$\mathbf{X}_0$$ si cada una de sus funciones componentes es continua en$$\mathbf{X}_0$$. Te dejamos demostrar que esto implica el siguiente teorema (Ejercicio~1).

Este teorema es lo mismo que Teorem~ excepto que el valor absoluto” en ahora representa distancia en$$\R^m$$ lugar de$$\R$$.

Si$$\mathbf{C}$$ es un vector constante, entonces $$\lim_{\mathbf{X}\to\mathbf{X}_0}\mathbf{F}(\mathbf{X})=\mathbf{C}$$” significa que\ [ \ lim_ {\ mathbf {X}\ a\ mathbf {X} _0} |\ mathbf {F} (\ mathbf {X}) -\ mathbf {C} |=0. \] Teoremo~ implica que$$\mathbf{F}$$ es continuo en$$\mathbf{X}_{0}$$ si y solo si\ [ \ lim_ {\ mathbf {X}\ a\ mathbf {X} _0}\ mathbf {F} (\ mathbf {X}) =\ mathbf {F} (\ mathbf {X} _0). \]

En Sección~5.4 definimos una función de valor vectorial (transformación) para ser diferenciable en$$\mathbf{X}_0$$ si cada uno de sus componentes es diferenciable en$$\mathbf{X}_0$$ (Definición~). El siguiente teorema caracteriza esta propiedad de manera útil.

Vamos$$\mathbf{X}_0=(x_{10},x_{20}, \dots,x_{n0})$$. Si$$\mathbf{F}$$ es diferenciable en$$\mathbf{X}_0$$, entonces también lo son$$f_1$$,$$f_2$$,,$$f_m$$ (Definición~). Por lo tanto, \ [\ lim_ {\ mathbf {X}\ a\ mathbf {X} _0}\ frac {\ dst {f_i (\ mathbf {X}) -f_i (\ mathbf {X} _0) - \ sum_ {j=1} ^n\ frac {\ parcial f_i (\ mathbf {X} _0)} {\ parcial x_j} (x_j-x_ {j0})}} {|\ mathbf {X} -\ mathbf {X} _ _ {0} |} =0, \ quad 1\ le i\ le m, \] lo que implica con$$\mathbf{A}$$ como en.

Ahora supongamos que eso se sostiene con$$\mathbf{A}=[a_{ij}]$$. Dado que cada componente del vector en se aproxima a cero como se$$\mathbf{X}$$ aproxima$$\mathbf{X}_0$$, se deduce que \ [\ lim_ {\ mathbf {X}\ a \ mathbf {X} _0}\ frac {\ dst {f_i (\ mathbf {X}) -f_i (\ mathbf {X} _0) -\ dst {\ sum_ {j=1} ^n} a_ {ij} (xj-x_ {j0})}} {|\ mathbf {X} -\ mathbf {X} _0|} =0,\ quad 1\ le i\ le m, \] entonces cada uno$$f_i$$ es diferenciable en$$\mathbf{X}_0$$, y por lo tanto también lo es$$\mathbf{F}$$ (Definición~). Por Teoremo~,\ [ a_ {ij} =\ frac {\ parcial f_i (\ mathbf {X} _0)} {\ parcial x_j},\ quad 1\ le i\ le m, \ quad 1\ le j\ le n, \] lo que implica.

Una transformación$$\mathbf{T}: \R^n\to\R^m$$ de la forma\ [ \ mathbf {T} (\ mathbf {X}) =\ mathbf {U} +\ mathbf {A} (\ mathbf {X} -\ mathbf {X} _0), \] donde$$\mathbf{U}$$ es un vector constante en$$\R^m$$,$$\mathbf{X}_0$$ es un vector constante en$$\R^n$$, y$$\mathbf{A}$$ es una$$m \times n$$ matriz constante, se dice que es {}. Teorem~ dice que si$$\mathbf{F}$$ es diferenciable en$$\mathbf{X}_0$$, entonces$$\mathbf{F}$$ puede ser bien aproximado por una transformación afín.

Si$$\mathbf{F}=(f_1,f_2, \dots,f_m)$$ es diferenciable en$$\mathbf{X}_0$$, definimos el {}$$\mathbf{X}_0$$ como la transformación lineal\ [\ begin {ecuación}\ label {eq:6.2.4} d_ {\ mathbf {X} _0}\ mathbf {F} =\ left [\ begin {array} {c} d_ {\ mathbf {X} _0} f_1\\ d_ {\ mathbf {X} _0} f_2\\ \ vdots\\ d_ {\ mathbf {X} _0} f_m\ end {array}\ right]. \ end {ecuación}\] Llamamos a la matriz$$\mathbf{A}$$ in y la denotamos por$$\mathbf{F}'(\mathbf{X}_{0})$$; así,\ [\ begin {ecuación}\ label {eq:6.2.5} \ mathbf {F} '(\ mathbf {X} _0) =\ left [\ begin {array} {cccc}\ dst {\ frac {\ parcial f_1 (\ mathbf {X} _0)} {\ parcial x_0) 1}} &\ dst {\ frac {\ parcial f_1 (\ mathbf {X} _0)} {\ parcial x_2}} & \ cdots&\ dst {\ frac {\ parcial f_1 (\ mathbf {X} _0)} {\ parcial x_n}}\\ [3\ jot] \ dst {\ frac {\ parcial f_2 (\ mathbf {X} _0)} {\ parcial x_1}} & \ dst {\ frac {\ parcial f_2 (\ mathbf {X} _0)} {\ parcial x_2}} &\ cdots& \ dst {\ frac {\ parcial f_2 (\ mathbf {X} _0)} {\ parcial x_n}}\\ [3\ jot] \ vdots&\ vdots&\ ddots&\ vdots\\ [3\ jot] \ dst {\ frac {\ parcial f_m (\ mathbf {X} _0)} {\ parcial x_1}} & \ dst {\ frac {\ parcial f_m (\ mathbf {X} _0)} {\ parcial x_2}} &\ cdots& \ dst {\ frac {\ f_parcial m (\ mathbf {X} _0)} {\ parcial x_n}}\ end {array} \ derecha]. \ end {ecuación}\]

(Es importante tener en cuenta que si bien$$\mathbf{F}$$ es una función de$$\R^n$$ a$$\R^m$$, no$$\mathbf{F'}$$ es tal función;$$\mathbf{F}'$$ es una$$m\times n$$ matriz.) Desde Teorem~, el diferencial puede escribirse en términos de la matriz diferencial como\ [\ begin {ecuación}\ label {eq:6.2.6} d_ {\ mathbf {X} _0}\ mathbf {F} =\ mathbf {F} '(\ mathbf {X} _0)\ left [\ begin {array} {c} dx_1\\ dx_2\ \ vdots\\ dx_n\ end {array}\ derecha] \ end {ecuación}\] o, más sucintamente, como\ [ d_ {\ mathbf {X } _0}\ mathbf {F} =\ mathbf {F} '(\ mathbf {X} _0)\, d\ mathbf {X}, \] donde\ [ d\ mathbf {X} =\ left [\ begin {array} {c} dx_1\ dx_2\\ vdots\\ dx_n\ end {array} \ right], \] como se definió anteriormente.

Cuando no es necesario enfatizar el punto particular$$\mathbf{X}_0$$, escribimos como\ [ d\ mathbf {F} =\ left [\ begin {array} {c} df_1\\ df_2\\\ vdots\\ df_m\ end {array}\ right], \] como .5pc\ [ \ mathbf {F} '=\ left [\ begin {array} {cccc}\ dst {frac {\ parcial f_1} {\ parcial x_1}} &\ dst {\ frac {\ parcial f_1} {\ parcial x_2}} &\ cdots& \ dst {\ frac {\ parcial f_1} {\ parcial x_n}}\\ [3\ jot] \ dst {\ frac {\ parcial f_2} {\ parcial x_1}} & \ dst {\ frac {\ parcial f_2} {\ parcial x_2}} &\ cdots& \ dst {\ frac {parcial\ f_2} {\ parcial x_n}}\\ [3\ jot] \ vdots&\ vdots&\ ddots&\ vdots\\ [3\ jot] \ dst { \ frac {\ parcial f_m} {\ parcial x_1}} & \ dst {\ frac {\ parcial f_m} {\ parcial x_2}} &\ cdots& \ dst {\ frac {\ parcial f_m} {\ parcial x_n}}\ end {array}\ derecho], \] .5pc y como\ [ d\ mathbf {F} =\ mathbf {F} '\, d\ mathbf {X}. \]

Con la notación diferencial podemos reescribir como\ [ \ lim_ {\ mathbf {X}\ a\ mathbf {X} _0}\ frac {\ mathbf {F} (\ mathbf {X}) -\ mathbf {F} (\ mathbf {X} _ {0}) - \ mathbf {F} '(\ mathbf {X} _0) (\ mathbf {X} _0) (\ mathbf {X} -\ mathbf {X} _0)} {|\ mathbf {X} -\ mathbf {X} _0|} =\ mathbf {0}. \]

Si$$m=n$$, la matriz diferencial es cuadrada y su determinante se llama {}. La notación estándar para este determinante es\ [ \ frac {\ partial (f_1, f_2,\ dots, f_n)} {\ partial (x_1, x_2, \ dots, x_n)} = \ izquierda|\ begin {array} {cccc}\ dst {\ frac {\ parcial f_1} {\ parcial x_1}} & \ dst {\ frac {\ parcial f_1} {\ parcial x_2}} &\ cdots& \ dst {\ frac {\ parcial f_1} {\ parcial x_n}}\\ [3\ jot] \ dst {\ frac {\ parcial f_2} {\ parcial x_1}} &\ dst {\ frac {\ parcial f_2} {\ parcial x_2}} &\ cdots&\ dst {\ frac {\ parcial f_2} { \ parcial x_n}}\\ [3\ jot] \ vdots&\ vdots&\ ddots&\ puntos\\ [3\ jot] \ dst {\ frac {\ parcial f_n} {\ parcial x_1}} &\ dst {\ frac {\ parcial f_n} {\ parcial x_2}} &\ cdots&\ dst {\ frac {\ parcial f_n} { \ parcial x_n}}\ end {array}\ derecha|. \] A menudo escribiremos el jacobiano de$$\mathbf{F}$$ más simplemente como$$J(\mathbf{F})$$, y su valor en$$\mathbf{X}_0$$ as$$J\mathbf{F}(\mathbf{X}_0)$$.

Dado que una$$n\times n$$ matriz es no singular si y solo si su determinante es distinto de cero, se deduce que si$$\mathbf{F}: \R^n\to \R^n$$ es diferenciable en$$\mathbf{X}_0$$, entonces$$\mathbf{F}'(\mathbf{X}_{0})$$ es no singular si y solo si$$J\mathbf{F}(\mathbf{X}_0)\ne0$$. Pronto usaremos este importante hecho.

Te dejamos la prueba del siguiente teorema (Ejercicio~).

Teorem~ y Definición~ implican el siguiente teorema.

Decimos que$$\mathbf{F}$$ es {} en un conjunto$$S$$ si$$S$$ está contenido en un conjunto abierto sobre el que las derivadas parciales en son continuas. Los tres siguientes lemmas dan propiedades de transformaciones continuamente diferenciables que necesitaremos más adelante.

Considera la función auxiliar\ [\ begin {ecuación}\ label {eq:6.2.9} \ mathbf {G} (\ mathbf {X}) =\ mathbf {F} (\ mathbf {X}) -\ mathbf {F} '(\ mathbf {X} _0)\ mathbf {X}. \ end {ecuación}\] Los componentes de$$\mathbf{G}$$ son\ [ g_i (\ mathbf {X}) =f_i (\ mathbf {X}) -\ sum_ {j=1} ^n \ frac {\ parcial f_i (\ mathbf {X} _ {0}) \ parcial x_j} x_j, \] so\ [\ frac { \ parcial g_i (\ mathmathi (\ mathbf {X})} {\ parcial x_j} = \ frac {\ parcial f_i (\ mathbf {X})} {\ parcial x_j} -\ frac {\ parcial f_i (\ mathbf {X} _0)} {\ parcial x_j}. \]

Así,$$\partial g_i/\partial x_j$$ es continuo encendido$$N$$ y cero en$$\mathbf{X}_0$$. Por lo tanto, hay$$\delta>0$$ tal que\ [\ begin {ecuación}\ label {eq:6.2.10} \ izquierda|\ frac {\ parcial g_i (\ mathbf {X})} {\ parcial x_j}\ derecha|<\ frac {\ épsilon} { \ sqrt {mn}}\ mbox {\ quad for\ quad} 1\ le i\ m,\ 1\ le j\ le n, \ mbox {\ quad si\ quad} |\ mathbf {X} -\ mathbf {X} _0|<\ delta. \ end {ecuación}\] Ahora supongamos que$$\mathbf{X}$$,$$\mathbf{Y}\in B_\delta(\mathbf{X}_0)$$. Por Teoremo~,\ [\ begin {ecuación}\ label {eq:6.2.11} g_i (\ mathbf {X}) -g_i (\ mathbf {Y}) =\ sum_ {j=1} ^n \ frac {\ parcial g_i (\ mathbf {X} _i)} {\ parcial x_j} (x_j-y_j), \ end {ecuación}\] donde$$\mathbf{X}_i$$ está en el segmento de línea de$$\mathbf{X}$$ a$$\mathbf{Y}$$, entonces$$\mathbf{X}_i\in B_\delta(\mathbf{X}_0)$$. De,, y la desigualdad de Schwarz,\ [ (g_i (\ mathbf {X}) -g_i (\ mathbf {Y})) ^2\ le\ left (\ sum_ {j=1} ^n\ left [\ frac {\ partial g_i (\ mathbf {X} _i)} {\ partial x_j}\ right] ^2\ right) |\ mathbf {X} -\ mathbf {Y} |^2 <\ frac {\ epsilon^2} {m} |\ mathbf {X} -\ mathbf {Y} |^2. \] Sumando esto de$$i=1$$ a$$i=m$$ y tomando raíces cuadradas rinde\ [\ begin {ecuación}\ label {eq:6.2.12} |\ mathbf {G} (\ mathbf {X}) -\ mathbf {G} (\ mathbf {Y}) |<\ epsilon |\ mathbf {X} -\ mathbf {Y} | \ mbox {quad\ if\ quad}\ mathbf {X},\ mathbf {Y}\ en B_\ delta (\ mathbf {X} _0). \ end {ecuación}\] Para completar la prueba, observamos que\ [\ begin {ecuación}\ label {eq:6.2.13} \ mathbf {F} (\ mathbf {X}) -\ mathbf {F} (\ mathbf {Y}) = \ mathbf {G} (\ mathbf {X}) -\ mathbf {G} (\ mathbf {Y}) +\ mathbf bf {F} '(\ mathbf {X} _0) (\ mathbf {X} -\ mathbf {Y}), \ end {ecuación}\] así y la desigualdad triángulo implica.

Dejar$$\mathbf{X}$$ y$$\mathbf{Y}$$ ser arbitrarios puntos adentro$$D_\mathbf{F}$$ y dejar$$\mathbf{G}$$ ser como en. De,\ [\ begin {ecuación}\ label {eq:6.2.16} |\ mathbf {F} (\ mathbf {X}) -\ mathbf {F} (\ mathbf {Y}) |\ ge\ big| |\ mathbf {F} '(\ mathbf {X} _0) (\ mathbf {X} -\ mathbf {Y}) |-|\ mathbf {G} (\ mathbf {X}) -\ mathbf {G} (\ mathbf {Y}) |\ big|, \ end {ecuación}\] Desde\ [ \ mathbf {X} -\ mathbf {Y} = [\ mathbf {F}' (\ mathbf {X} _0)] ^ {-1} \ mathbf {F} '(\ mathbf {X} _ {0}) (\ mathbf {X} -\ mathbf {Y}), \] implica que\ [ |\ mathbf {X} -\ mathbf {Y} |\ le\ frac {1} {r} |\ mathbf {F}' (\ mathbf {X} _0) (\ mathbf {X} -\ mathbf {X} -\ mathbf bf {Y} |, \] así\ [\ begin {ecuación}\ label {eq:6.2.17} |\ mathbf {F} '(\ mathbf {X} _0) (\ mathbf {X} -\ mathbf {Y}) |\ ge r|\ mathbf {X} -\ mathbf {Y} |. \ end {ecuación}\] Ahora elige$$\delta>0$$ para que se mantenga. Entonces e implica.

Ver Ejercicio~ para una conclusión más fuerte en el caso donde$$\mathbf{F}$$ es lineal.

On\ [ S=\ set {(\ mathbf {X},\ mathbf {Y})} {\ mathbf {X},\ mathbf {Y}\ en D}\ subconjunto\ R^ {2n} \] definir\ [ g (\ mathbf {X},\ mathbf {Y}) =\ left\ {\ casespace\ begin {array} {ll} \ dst {\ frac {|\ mathbf {F} (\ mathbf {Y}) - \ mathbf {F} (\ mathbf {X}) -\ mathbf {F} '(\ mathbf {X}) (\ mathbf {Y} -\ mathbf {X}) |} {|\ mathbf {Y} -\ mathbf {X} |}}, & \ mathbf {Y}\ ne\ mathbf {X},\\ [2\ jot] 0, &\ mathbf {Y} =\ mathbf {X}. \ end {array}\ derecho. \] Entonces$$g$$ es continuo para todos$$(\mathbf{X},\mathbf{Y})$$ en$$S$$ tal que$$\mathbf{X}\ne \mathbf{Y}$$. Ahora demostramos que si$$\mathbf{X}_0\in D$$, entonces

\ [\ begin {ecuación}\ label {eq:6.2.19} \ lim_ {(\ mathbf {X},\ mathbf {Y})\ to (\ mathbf {X} _0,\ mathbf {X} _0)} g (\ mathbf {X},\ mathbf {Y}) =0 =g (\ mathbf {X} _0,\ mathbf {X} _0); \ end {ecuación}\]

es decir, también$$g$$ es continuo en puntos$$(\mathbf{X}_0,\mathbf{X}_0)$$ en$$S$$.

Supongamos que$$\epsilon>0$$ y$$\mathbf{X}_0\in D$$. Dado que las derivadas parciales de$$f_1$$$$f_2$$,,,$$f_m$$ son continuas en un conjunto abierto que contiene$$D$$, hay$$\delta>0$$ tal que\ [\ begin {ecuación}\ label {eq:6.2.20} \ izquierda|\ frac {\ parcial f_i (\ mathbf {Y})} {\ parcial x_j} -\ frac {\ parcial f_i (\ mathbf {X}) } {\ parcial x_j}\ derecha|& lt;\ frac {\ épsilon} {\ sqrt {mn}}\ mbox {\ quad if\ quad} \ mathbf {X},\ mathbf {Y}\ in B_\ delta (\ mathbf {X} _0),\ 1\ le i\ le m,\ 1\ le j\ le n. \ end {ecuación}\] (Tenga en cuenta que$$\partial f_i/\partial x_j$$ es uniformemente continuo en$$\overline{B_\delta(\mathbf{X}_0)}$$$$\delta$$ suficientemente pequeño, del Teorem~.) Aplicando Teorem~ a$$f_1$$$$f_2$$,$$f_m$$,, nos encontramos con que si$$\mathbf{X}$$$$\mathbf{Y}\in B_\delta (\mathbf{X}_0)$$,, entonces\ [ f_i (\ mathbf {Y}) -f_i (\ mathbf {X}) =\ sum_ {j=1} ^n \ frac {\ parcial f_i (\ mathbf {X} _ _ {i})} {\ parcial x_j} (y_j-x_j), \] donde$$\mathbf{X}_i$$ esta en el segmento de línea de$$\mathbf{X}$$ a $$\mathbf{Y}$$. A partir de esto,\ [\ begin {eqnarray*} \ left [f_i (\ mathbf {Y}) -f_i (\ mathbf {X}) -\ dst {\ sum_ {j=1} ^n} \ frac {\ parcial f_i (\ mathbf {X})} {\ parcial x_j} (y_j-x_j)\ derecha] ^2 \ ar=\ izquierda [\ sum_ {j=1} ^n\ izquierda [\ frac {\ parcial f_i (\ mathbf {X} _i)} {\ parcial x_j} - \ frac {\ parcial f_i (\ mathbf {X})} {\ parcial x_j}\ derecha] (y_j-x _j)\ derecha] ^2\\ \ ar\ le |\ mathbf {Y} -\ mathbf {X} |^2\ sum_ {j=1} ^n \ izquierda [\ frac {\ parcial f_i (\ mathbf {X} _ _ {i})} {\ parcial x_j} -\ frac {\ parcial f_i (\ mathbf {X})} {parcial\ x_j}\ derecha] ^2\\ \ ar {}\ mbox {(por la desigualdad de Schwarz)}\\ \ ar<\ frac {\ épsilon^2} {m} |\ mathbf {Y} -\ mathbf {X} |^2\ quad\ mbox {\ quad ( por \ eqref {eq:6.2.20})\ quad}. \ end {eqnarray*}\] Sumando de$$i=1$$ a$$i=m$$ y tomando raíces cuadradas rinde\ [ |\ mathbf {F} (\ mathbf {Y}) -\ mathbf {F} (\ mathbf {X}) -\ mathbf {F} '(\ mathbf {X}) (\ mathbf {Y} -\ mathbf {X}) | <\ epsilon |\ mathbf {Y} -\ mathbf {X} |\ mbox {\ quad si\ quad} \ mathbf {X},\ mathbf {Y}\ en B_\ delta (\ mathbf {X} _0 ). \] Esto implica y completa la prueba que$$g$$ es continua$$S$$.

Ya que$$D$$ es compacto, también lo es$$S$$ (Ejercicio~). Por lo tanto,$$g$$ se limita a$$S$$ (Teorem~); así$$M_1$$, para algunos,\ [ |\ mathbf {F} (\ mathbf {Y}) -\ mathbf {F} (\ mathbf {X}) -\ mathbf {F} '(\ mathbf {X}) (\ mathbf {Y} -\ mathbf {X}) |\ le M_1|\ mathbf {X} -\ mathbf {Y} |\ mbox {\ quad if\ quad} \ mathbf {X},\ mathbf {Y}\ en D. \] Pero\ [\ begin {ecuación}\ label {eq:6.2.21} \ begin {array} {rcl} |\ mathbf {F} (\ mathbf {Y}) -\ mathbf {F} (\ mathbf {X}) |\ ar\ le |\ mathbf {F} (\ mathbf {Y}) -\ mathbf {F} (\ mathbf {X}) -\ mathbf {F} '(\ mathbf {X}) (\ mathbf {Y} -\ mathbf {X}) |+|\ mathbf {F}' (\ mathbf {X}) (\ mathbf {Y} -\ mathbf {X}) |\ \ ar\ le (M_1+\ |\ mathbf {F} '(\ mathbf {X})\ |) | (\ mathbf {Y} -\ mathbf {X} |. \ end {array} \ end {ecuación}\] Desde\ [ \ |\ mathbf {F} '(\ mathbf {X})\ | \ le\ left (\ suma_ {i=1} ^m\ suma_ {j=1} ^n\ izquierda [\ frac {\ parcial f_i (\ mathbf {X})} {\ parcial x_j}\ derecha] ^2\ derecha) {1/2} \] y las derivadas parciales$$\{\partial f_i/\partial x_j\}$$ están delimitadas sobre$$D$$, se deduce que$$\|\mathbf{F}'(\mathbf{X})\|$$ está delimitada en $$D$$; es decir, hay una constante$$M_2$$ tal que\ [ \ |\ mathbf {F} '(\ mathbf {X})\ |\ le M_2,\ quad\ mathbf {X}\ en D. \] Ahora implica con$$M=M_1+M_2$$.

Mediante el uso de matrices diferenciales, podemos escribir la regla de cadena para transformaciones en una forma análoga a la forma de la regla de cadena para funciones de valor real de una variable (Teorem~).

Los componentes de$$\mathbf{H}$$ son$$h_1$$,$$h_2$$,$$h_m$$, donde\ [ h_i (\ mathbf {U}) =f_i (\ mathbf {G} (\ mathbf {U})). \] Aplicando Teorem~ a$$h_i$$ rendimientos\ [\ begin {ecuación}\ label {eq:6.2.24} d_ {\ mathbf {U} _0} h_i=\ sum_ {j=1} ^n\ frac {\ parcial f_i (\ mathbf {X} _ {0})} {\ parcial x_j} d_ {\ mathbf {U} _0} g_j,\ quad 1\ le i\ le m. \ fin {ecuación}\]

Desde\ [ d_ {\ mathbf {U} _0}\ mathbf {H} =\ izquierda [\ begin {array} {c} d_ {\ mathbf {U} _0} h_1\ d_ {\ mathbf {U} _0} h_2\ \ vdots\\ d_ {\ mathbf {U} _0} h_m\ end {array}\ derecha]\ mbox { \ quad y\ quad} d_ {\ mathbf {U} _0}\ mathbf {G} = \ left [\ begin {array} {c} d_ {\ mathbf {U} _0} g_1\ d_ {\ mathbf {U} _0} g_2\ \ vdots\\ d_ {\ mathbf {U} _0} g_n \ end {array}\ right], \] 5pt las$$m$$ ecuaciones en pueden escribirse en forma de matriz como\ [\ begin {ecuación}\ label {eq:6.2.25} d_ {\ mathbf {U} _0}\ mathbf {H} =\ mathbf {F} '(\ mathbf {X} _0) d_ {\ mathbf {U} _0}\ mathbf {G} = \ mathbf {F}' (\ mathbf {G} (\ mathbf {U} _0)) d_ {\ mathbf {U} _0}\ mathbf {G}. \ end {ecuación}\] Pero\ [ d_ {\ mathbf {U} _0}\ mathbf {G} =\ mathbf {G} '(\ mathbf {U} _0)\, d\ mathbf {U}, \] donde\ [ d\ mathbf {U} =\ left [\ begin {array} {c} du_1\\ du_2\\ vdots\\ du_k\ end {array}\ right], \] así se puede reescribir como\ [ d_ {\ mathbf {U} _0}\ mathbf {H} = \ mathbf {F}' (\ mathbf {G} (\ mathbf {U} _0)) \ mathbf {G} '(\ mathbf {U} _0)\, d\ mathbf {U}. \] Por otro lado,\ [ d_ {\ mathbf {U} _0}\ mathbf {H} =\ mathbf {H} '(\ mathbf {U} _0)\, d\ mathbf {U}. \] Comparando los rendimientos de las dos últimas ecuaciones. Dado que$$\mathbf{G}'(\mathbf{U}_0)$$ es la matriz de$$d_{\mathbf{U}_0}\mathbf{G}$$ y$$\mathbf{F}'(\mathbf{G}(\mathbf{U}_0))=\mathbf{F}'(\mathbf{X}_0)$$ es la matriz de$$d_{\mathbf{X}_0}\mathbf{F}$$, Teorem~

e imply~.

Hasta ahora nuestra discusión sobre las transformaciones ha tratado principalmente de propiedades que bien podrían definirse y estudiarse considerando las funciones componentes individualmente. Ahora nos dirigimos a preguntas que implican una transformación en su conjunto, que no se puede estudiar considerándola como una colección de funciones componentes independientes.

En esta sección restringimos nuestra atención a las transformaciones de$$\R^n$$ a sí mismo. Es útil interpretar dichas transformaciones geométricamente. Si$$\mathbf{F}=(f_1,f_2, \dots,f_n)$$, podemos pensar en los componentes de\ [ \ mathbf {F} (\ mathbf {X}) =( f_1 (\ mathbf {X}), f_2 (\ mathbf {X}),\ dots, f_n (\ mathbf {X})) \] como las coordenadas de un punto$$\mathbf{U}=\mathbf{F}(\mathbf{X})$$ en otra copia” de$$\R^n$$. Así,$$\mathbf{U}=(u_1,u_2, \dots,u_n)$$, con\ [ u_1=f_1 (\ mathbf {X}),\ quad u_2=f_2 (\ mathbf {X}),\ quad\ dots,\ quad u_n= f_n (\ mathbf {X}). \] Decimos eso$$\mathbf{F}$$ {}, y eso$$\mathbf{U}$$ {}$$\mathbf{F}$$. Ocasionalmente también escribiremos$$\partial u_i/ \partial x_j$$ para significar$$\partial f_i/\partial x_j$$. Si$$S\subset D_\mathbf{F}$$, entonces el conjunto\ [ \ mathbf {F} (S) =\ set {\ mathbf {U}} {\ mathbf {U} =\ mathbf {F} (\ mathbf {X}),\,\ mathbf {X}\ in S} \] es el {}.

A menudo denotaremos los componentes de$$\mathbf{X}$$ by$$x$$,$$y$$,, y los componentes de$$\mathbf{U}$$ by$$u$$,$$v$$,.

6pt

12pt

-.15em Una transformación$$\mathbf{F}$$ es {}, o {}, si$$\mathbf{F}(\mathbf{X}_1)$$ y$$\mathbf{F}(\mathbf{X}_2)$$ son distintos siempre$$\mathbf{X}_1$$ y$$\mathbf{X}_2$$ son puntos distintos de$$D_\mathbf{F}$$. En este caso, podemos definir una función$$\mathbf{G}$$ en el rango\ [ R (\ mathbf {F}) =\ set {\ mathbf {U}} {\ mathbf {U} =\ mathbf {F} (\ mathbf {X})\ mbox {para algunos}\ mathbf {X}\ en D_\ mathbf {F}} \] de$$\mathbf{F}$$$$\mathbf{G}(\mathbf{U})$$ definiendo ser el punto único en$$D_\mathbf{F}$$ tal que$$\mathbf{F}(\mathbf{U}) =\mathbf{U}$$. Entonces\ [ D_\ mathbf {G} =R (\ mathbf {F})\ mbox {\ quad y\ quad} R (\ mathbf {G}) =D_\ mathbf {F}. \] Además,$$\mathbf{G}$$ es uno a uno,\ [ \ mathbf {G} (\ mathbf {F} (\ mathbf {X})) =\ mathbf {X},\ quad\ mathbf {X}\ en D_\ mathbf {F}, \] y\ [ \ mathbf {F} (\ mathbf {G} (\ mathbf {U})) =\ mathbf {U},\ quad\ mathbf {U}\ en D_\ mathbf {G}. \] Decimos que$$\mathbf{G}$$ es el {} de$$\mathbf{F}$$, y escribimos$$\mathbf{G}=\mathbf{F}^{-1}$$. La relación entre$$\mathbf{F}$$ y$$\mathbf{G}$$ es simétrica; es decir,$$\mathbf{F}$$ es también la inversa de$$\mathbf{G}$$, y escribimos$$\mathbf{F}= \mathbf{G}^{-1}$$.

La diferencia crucial entre las transformaciones de Ejemplos~ y es que la matriz de$$\mathbf{L}$$ es no singular mientras que la matriz de$$\mathbf{L}_1$$ es singular. Así,$$\mathbf{L}$$ (ver) se puede escribir como\ [\ begin {ecuación}\ label {eq:6.3.5} \ left [\ begin {array} {c} u\\ v\ end {array}\ right] =\ left [\ begin {array} {rr} 1&-1\\ 1& 1\ end {array}\ right]\ left [\ begin {array} {c} x\\ y\ end {array}\ derecha], \ end {ecuación}\] donde la matriz tiene la inversa\ [ \ left [ \ begin {array} {rr}\ frac {1} {2} &\ frac {1} {2}\\ [3\ jot] -\ frac {1} {2} &\ frac {1} {2}\ end {array}\ right]. \] (Verificar.) Multiplicar ambos lados de por esta matriz produce\ [ \ left [\ begin {array} {rr}\ frac {1} {2} &\ frac {1} {2}\\ [3\ jot] -\ frac {1} {2} &\ frac {1} {2}\ end {array}\ right] \ left [\ begin {array} {c} u\\ v end {array}\ right] =\ left [\ begin {array} {c} x\\ y\ end {array} \ right], \] que es equivalente a.

Dado que la matriz\ [ \ left [\ begin {array} {cc} 1&1\\ 2&2\ end {array}\ right] \] of$$\mathbf{L}_1$$ es singular, no se puede resolver únicamente para$$(x,y)$$ en términos de$$(u,v)$$. De hecho, no puede resolverse en absoluto a menos que$$v=2u$$.

El siguiente teorema resuelve la cuestión de la invertibilidad de las transformaciones lineales de$$\R^n$$ a$$\R^n$$. Te dejamos la prueba (Ejercicio~).

-.5em Ahora revisaremos brevemente las coordenadas polares, las cuales usaremos en algunos de los siguientes ejemplos.

Las coordenadas de cualquier punto se$$(x,y)$$ pueden escribir de infinitamente muchas formas como\ [\ begin {equation}\ label {eq:6.3.6} x=r\ cos\ theta,\ quad y=r\ sin\ theta, \ end {ecuación}\]

donde\ [ r^2=x^2+y^2 \] y, si$$r>0$$,$$\theta$$ es el ángulo desde el$$x$$ eje -hasta el segmento de línea de$$(0,0)$$ a$$(x,y)$$, medido en sentido antihorario (Figura~).

1pc 6pt

12pt 1pieza

Para cada uno$$(x,y)\ne (0,0)$$ hay infinitamente muchos valores de$$\theta$$, que difieren por múltiplos integrales de$$2\pi$$, que satisfacen. Si$$\theta$$ es alguno de estos valores, decimos que$$\theta$$ es un {} de$$(x,y)$$, y escribimos\ [ \ theta=\ arg (x, y). \] Por sí mismo, esto no define una función. Sin embargo, si$$\phi$$ es un número fijo arbitrario, entonces \ [\ theta=\ arg (x, y),\ quad\ phi\ le\ theta<\ phi+2\ pi, \] sí define una función, ya que cada intervalo medio abierto$$[\phi,\phi+2\pi)$$ contiene exactamente un argumento de$$(x,y)$$.

No definimos$$\arg(0,0)$$, ya que no pone restricción alguna sobre$$\theta$$ si$$(x,y)=(0,0)$$ y por lo tanto$$r=0$$.

La transformación\ [ \ left [\ begin {array} {c} r\\\ theta\ end {array}\ right] =\ mathbf {G} (x, y) = \ left [\ begin {array} {c}\ sqrt {x^2+y^2}\\ [3\ jot] \ arg (x, y)\ end {array}\ derecha],\ quad\ phi\ le\ arg (x, y) <\ phi+2\ pi, \] se define y uno a uno en\ [ D_\ mathbf {G} =\ set {(x, y)} {(x, y)\ ne (0,0)}, \] y su rango es\ [ R (\ mathbf {G}) =\ set {(r,\ theta)} {r>0,\,\ phi\ le\ theta<\ phi+2\ pi}. \]

Por ejemplo, si$$\phi=0$$, entonces\ [ \ mathbf {G} (1,1) =\ left [\ begin {array} {c}\ sqrt {2}\\ [3\ jot] \ dst {\ frac {\ pi} {4}}\ end {array}\ right], \] ya que$$\pi/4$$ es el argumento único de$$(1,1)$$ in$$[0,2\pi)$$. Si$$\phi=\pi$$, entonces\ [ \ mathbf {G} (1,1) =\ left [\ begin {array} {c}\ sqrt {2}\\ [3\ jot] \ dst {\ frac {9\ pi} {4}}\ end {array}\ right], \] ya que$$9\pi/4$$ es el argumento único de$$(1,1)$$ in$$[\pi,3\pi)$$.

Si$$\arg(x_0,y_0)=\phi$$, entonces$$(x_0,y_0)$$ está en la media línea que se muestra en Figura~ y no$$\mathbf{G}$$ es continua en$$(x_0,y_0)$$, ya que cada vecindad de$$(x_0,y_0)$$ contiene puntos$$(x,y)$$ para los que el segundo componente de$$\mathbf{G}(x,y)$$ está arbitrariamente cerca$$\phi+2\pi$$, mientras que el segundo componente de$$\mathbf{G}(x_0,y_0)$$ es$$\phi$$. Mostraremos más adelante, sin embargo, que$$\mathbf{G}$$ es continuo, de hecho, continuamente diferenciable, en el plano con esta media línea eliminada.

6pt

12pt

Una transformación$$\mathbf{F}$$ puede no ser uno a uno, pero ser uno a uno en un subconjunto$$S$$ de$$D_\mathbf{F}$$. Con esto queremos decir que$$\mathbf{F}(\mathbf{X}_1)$$ y$$\mathbf{F}(\mathbf{X}_2)$$ son distintos cada vez$$\mathbf{X}_{1}$$ y$$\mathbf{X}_2$$ son puntos distintos de$$S$$. En este caso, no$$\mathbf{F}$$ es invertible, pero si$$\mathbf{F}_S$$ se define on$$S$$ por\ [ \ mathbf {F} _S (\ mathbf {X}) =\ mathbf {F} (\ mathbf {X}),\ quad\ mathbf {X}\ en S, \] y dejado indefinido para$$\mathbf{X}\not\in S$$, entonces$$\mathbf{F}_S$$ es invertible. Decimos que$$\mathbf{F}_S$$ es el {}, y ese$$\mathbf{F}^{-1}_S$$ es el {}. El dominio de$$\mathbf{F}^{-1}_S$$ es$$\mathbf{F}(S)$$.

Si$$\mathbf{F}$$ es uno a uno en un barrio de$$\mathbf{X}_0$$, decimos que$$\mathbf{F}$$ es {}. Si esto es cierto para cada uno$$\mathbf{X}_0$$ en un conjunto$$S$$, entonces$$\mathbf{F}$$ es {}.

La cuestión de la invertibilidad de una transformación arbitraria$$\mathbf{F}: \R^n\to \R^n$$ es demasiado general para tener una respuesta útil. Sin embargo, existe una condición suficiente útil y fácilmente aplicable que implica que las restricciones uno a uno de transformaciones continuamente diferenciables tienen inversos continuamente diferenciables.

Para motivar nuestro estudio de esta pregunta, consideremos primero la transformación lineal\ [ \ mathbf {F} (\ mathbf {X}) =\ mathbf {A}\ mathbf {X} =\ left [\ begin {array} {cccc} a_ {11} &a_ {12} &\ cdots&a_ {1n}\\ a_ {21} &a_ {22} &\ cdots&a_ {2n}\\\ vdots&\ vdots&\ ddots&\ vdots\\ a_ {n1} &a _ {n2} &\ cdots&a_ {nn}\ end {array}\ right] \ left [\ begin {array} {c} x_1\\ x_2\\\ vdots\\ x_n\ end {array}\ right]. \] Del Teoremo~,$$\mathbf{F}$$ es invertible si y solo si$$\mathbf{A}$$ es no singular, en cuyo caso$$R(\mathbf{F})=\R^n$$ y\ [ \ mathbf {F} ^ {-1} (\ mathbf {U}) =\ mathbf {A} ^ {-1}\ mathbf {U}. \] Dado que$$\mathbf{A}$$ y$$\mathbf{A}^{-1}$$ son las matrices diferenciales de$$\mathbf{F}$$ y$$\mathbf{F}^{-1}$$, respectivamente, podemos decir que una transformación lineal es invertible si y solo si su matriz diferencial$$\mathbf{F}'$$ es no singular, en cuyo caso la matriz diferencial de$$\mathbf{F}^{-1}$$ viene dada por\ [ (\ mathbf {F} ^ {-1}) '= (\ mathbf {F} ') ^ {-1}. \] Debido a esto, es tentador conjeturar que si$$\mathbf{F}: \R^n\to \R^n$$ es continuamente diferenciable y no$$\mathbf{A}'(\mathbf{X})$$ es singular, o, equivalentemente,$$J\mathbf{F}(\mathbf{X})\ne0$$, porque$$\mathbf{X}$$ en un conjunto$$S$$, entonces$$\mathbf{F}$$ es uno a uno encendido$$S$$. Sin embargo, esto es falso. Por ejemplo, si\ [ \ mathbf {F} (x, y) =\ left [\ begin {array} {c} e^x\ cos y\\ e^x\ sin y\ end {array}\ right], \] entonces\ [\ begin {ecuación}\ label {eq:6.3.19} J\ mathbf {F} (x, y) =\ izquierda|\ begin {array} {cr} e^x\ cos y&-e^x\ sin y\\ e^x\ sin y&e^x\ cos y\ end {array}\ derecha|=e^ {2x}\ ne0, \ end {ecuación}\] pero $$\mathbf{F}$$no es uno a uno en$$\R^2$$ (Ejemplo~). Lo mejor que se puede decir en general es que si$$\mathbf{F}$$ es continuamente diferenciable y$$J\mathbf{F}(\mathbf{X}) \ne0$$ en un conjunto abierto$$S$$, entonces$$\mathbf{F}$$ es localmente invertible encendido$$S$$, y las inversas locales son continuamente diferenciables. Esto es parte del teorema de la función inversa, que probaremos actualmente. Primero, necesitamos la siguiente definición.

Primero demostramos que si$$\mathbf{X}_{0} \in S$$, entonces un barrio de$$\mathbf{F}(\mathbf{X}_0)$$ está en$$\mathbf{F}(S)$$. Esto implica que$$\mathbf{F}(S)$$ es abierto.

Ya que$$S$$ está abierto, hay$$\rho>0$$ tal que$$\overline{B_\rho(\mathbf{X}_0)}\subset S$$. $$B$$Sea el límite de$$B_\rho(\mathbf{X}_0)$$; así,\ [\ begin {ecuación}\ label {eq:6.3.20} B=\ set\ mathbf {X} {|\ mathbf {X} -\ mathbf {X} _0|=\ rho}. \ end {ecuación}\] La función\ [ \ sigma (\ mathbf {X}) =|\ mathbf {F} (\ mathbf {X}) -\ mathbf {F} (\ mathbf {X} _0) | \] es continua encendido$$S$$ y por lo tanto encendido$$B$$, lo cual es compacto. De ahí que por Teoremo~, hay un punto$$\mathbf{X}_1$$ en$$B$$ donde$$\sigma(\mathbf{X})$$ alcanza su valor mínimo, digamos$$m$$, on$$B$$. Además,$$m>0$$, desde$$\mathbf{X}_1\ne\mathbf{X}_0$$ y$$\mathbf{F}$$ es uno a uno en$$S$$. Por lo tanto,\ [\ begin {ecuación}\ label {eq:6.3.21} |\ mathbf {F} (\ mathbf {X}) -\ mathbf {F} (\ mathbf {X} _0) |\ ge m>0\ mbox {\ quad if\ quad} |\ mathbf {X} -\ mathbf {X} _0|=\ rho. \ end {ecuación}\] El conjunto\ [ \ set {\ mathbf {U}} {|\ mathbf {U} -\ mathbf {F} (\ mathbf {X} _0) |<m/2} \] es un barrio de$$\mathbf{F}(\mathbf{X}_0)$$. Mostraremos que es un subconjunto de$$\mathbf{F}(S)$$. Para ver esto, deja$$\mathbf{U}$$ ser un punto fijo en este conjunto; así,\ [\ begin {ecuación}\ label {eq:6.3.22} |\ mathbf {U} -F (\ mathbf {X} _0) |<m/2. \ end {ecuación}\] Considera la función\ [ \ sigma_1 (\ mathbf {X}) =|\ mathbf {U} -\ mathbf {F} (\ mathbf {X}) |^2, \] que es continua en$$S$$. Tenga en cuenta que\ [\ begin {ecuación}\ label {eq:6.3.23} \ sigma_1 (\ mathbf {X})\ ge\ frac {m^2} {4}\ mbox {\ quad if\ quad} |\ mathbf {X} -\ mathbf {X} _0|=\ rho, \ end {ecuación}\] desde if$$|\mathbf{X}-\mathbf{X}_0|=\rho$$, entonces\ [\ begin {eq:qnarray*} |\ mathbf {U} -\ mathbf {F} (\ mathbf {X}) |\ ar=| (\ mathbf {U} -\ mathbf {F} (\ mathbf {X} _0)) + (\ mathbf {F} (\ mathbf {X} _0) -\ mathbf {F} (\ mathbf {X})) |\ \ ar\ ge\ big||\ mathbf {F} (\ mathbf {X} _0) -\ mathbf {F} (\ mathbf {X}) | -|\ mathbf {U} -\ mathbf {F} (\ mathbf {X} _0) |\ big|\\ \ ar\ ge m-\ frac {m} {2} =\ frac {m} {2}, \ end {eqnarray*}\] de y.

Dado que$$\sigma_1$$ es continuo on$$S$$,$$\sigma_1$$ alcanza un valor mínimo$$\mu$$ en el conjunto compacto$$\overline{B_\rho(\mathbf{X}_0)}$$ (Teorem~); es decir, hay un$$\overline{\mathbf{X}}$$ en$$\overline{B_\rho(\mathbf{X}_0)}$$ tal que\ [ \ sigma_1 (\ mathbf {X})\ ge\ sigma_1 (\ overline {\ mathbf {X}) =\ mu, \ quad\ mathbf {X}\ in\ overline {B_\ rho (\ mathbf {X} _0)}. \] Ajuste$$\mathbf{X}=\mathbf{X}_0$$, concluimos de esto y aquello\ [ \ sigma_1 (\ overline {\ mathbf {X}}) =\ mu\ le\ sigma_1 (\ mathbf {X} _0) <\ frac {m^2} {4}. \] Debido a y, esto descarta la posibilidad de que$$\overline{\mathbf{X}}\in B$$, así$$\overline{\mathbf{X}}\in B_\rho(\mathbf{X}_0)$$.

Ahora queremos demostrar eso$$\mu=0$$; es decir,$$\mathbf{U}= \mathbf{F}(\overline{\mathbf{X}})$$. Para ello, observamos que se$$\sigma_1(\mathbf{X})$$ puede escribir como\ [ \ sigma_1 (\ mathbf {X}) =\ sum^n_ {j=1} (u_j-f_j (\ mathbf {X})) ^2, \] -.4em así$$\sigma_1$$ es diferenciable en$$B_p(\mathbf{X}_{0})$$. Por lo tanto, las primeras derivadas parciales de$$\sigma_1$$ son todas cero en el punto mínimo local$$\overline{\mathbf{X}}$$ (Teorem~), así que 3pt \ [\ sum^n_ {j=1}\ frac {\ parcial f_j (\ overline {\ mathbf {X}})} {\ partial x_i} (u_j-f_j (\ overline {\ mathbf {X}})) =0,\ quad 1 le\ i\ le n, \] o, en forma de matriz,\ [ \ mathbf {F} '(\ overline {\ mathbf {X}}) (\ mathbf {U} -\ mathbf {F} (\ overline {\ mathbf {X}})) =0. \] Dado que$$\mathbf{F}'(\overline{\mathbf{X}})$$ es no singular esto implica que$$\mathbf{U}= \mathbf{F}(\overline{\mathbf{X}})$$ (Teorem~). Así, hemos demostrado que todo$$\mathbf{U}$$ lo que satisface está en$$\mathbf{F}(S)$$. Por lo tanto, ya que$$\mathbf{X}_0$$ es un punto arbitrario de$$S$$,$$\mathbf{F}(S)$$ está abierto.

A continuación, mostramos que$$\mathbf{G}$$ es continuo en$$\mathbf{F}(S)$$. Supongamos que$$\mathbf{U}_0\in\mathbf{F}(S)$$ y$$\mathbf{X}_0$$ es el punto único en$$S$$ tal que$$\mathbf{F}(\mathbf{X}_0)=\mathbf{U}_0$$. Como$$\mathbf{F}'(\mathbf{X}_{0})$$ es invertible, Lemma~ implica que hay un$$\lambda>0$$ y un barrio abierto$$N$$ de$$\mathbf{X}_0$$ tal que$$N\subset S$$ y\ [\ begin {ecuación}\ label {eq:6.3.24} |\ mathbf {F} (\ mathbf {X}) -\ mathbf {F} (\ mathbf {X} _0) |\ ge\ lambda |\ mathbf {X} -\ mathbf {X} _0| \ caja {\ quad si\ quad}\ mathbf {X}\ in N. \ end {ecuación}\] (Ejercicio~ también implica esto.) Ya que$$\mathbf{F}$$ satisface las hipótesis del presente teorema sobre$$N$$, la primera parte de esta prueba muestra que$$\mathbf{F}(N)$$ es un conjunto abierto que contiene$$\mathbf{U}_0=\mathbf{F} (\mathbf{X}_0)$$. Por lo tanto, hay$$\delta>0$$ tal que$$\mathbf{X}=\mathbf{G}(\mathbf{U})$$ está en$$N$$ si$$\mathbf{U}\in B_\delta(\mathbf{U}_{0})$$. Ajuste$$\mathbf{X}=\mathbf{G}(\mathbf{U})$$ y$$\mathbf{X}_0 = \mathbf{G}(\mathbf{U}_0)$$ en rendimientos\ [ |\ mathbf {F} (\ mathbf {G} (\ mathbf {U})) -\ mathbf {F} (\ mathbf {G} (\ mathbf {U} _0)) |\ ge\ lambda |\ mathbf {G} (\ mathbf {U}) -\ mathbf {G} (\ mathbf {U} _0) |\ caja {\ quad si\ quad} \ mathbf {U}\ en B_\ delta (\ mathbf {U} _0). \] Ya que$$\mathbf{F}(\mathbf{G}(\mathbf{U}))=\mathbf{U}$$ esto puede ser reescrito como\ [\ begin {ecuación}\ label {eq:6.3.25} |\ mathbf {G} (\ mathbf {U}) -\ mathbf {G} (\ mathbf {U} _0) |\ le\ frac {1} {\ lambda} |\ mathbf {U} - \ mathbf {U} _0|\ mbox {\ quad si\ quad}\ mathbf {U}\ en B_\ delta (\ mathbf {U} _0), \ end {ecuación}\] lo que significa que$$\mathbf{G}$$ es continuo en$$\mathbf{U}_0$$. Ya que$$\mathbf{U}_0$$ es un punto arbitrario en$$\mathbf{F}(S)$$, se deduce que$$\mathbf{G}$$ es continuo$$\mathbf{F}(S)$$.

Ahora vamos a demostrar que$$\mathbf{G}$$ es diferenciable en$$\mathbf{U}_0$$. Dado que\ [ \ mathbf {G} (\ mathbf {F} (\ mathbf {X})) =\ mathbf {X},\ quad\ mathbf {X}\ en S,\] la regla de la cadena (Teoremo~) implica que {}$$\mathbf{G}$$ es diferenciable en, entonces \ [\ mathbf {G} '(\$$\mathbf{U}_0$$ mathbf {U} _0) \ mathbf {F}' (\ mathbf {F} '(\ mathbf {U} _0)\ mathbf {F}' (\ mathbf {bf {X} _0) =\ mathbf {I} \]

(Ejemplo~). Por lo tanto, si$$\mathbf{G}$$ es diferenciable at$$\mathbf{U}_0$$, la matriz diferencial de$$\mathbf{G}$$ debe ser \ [\ mathbf {G} '(\ mathbf {U} _0) = [\ mathbf {F}' (\ mathbf {X} _0)] ^ {-1}, \] así que para mostrar que$$\mathbf{G}$$ es diferenciable en$$\mathbf{U}_0$$, debemos mostrar que si\ [\ begin {ecuación}\ label {eq:6.3.26} \ mathbf {H } (\ mathbf {U}) = \ frac {\ mathbf {G} (\ mathbf {U}) -\ mathbf {G} (\ mathbf {U} _0) - [\ mathbf {F} '(\ mathbf {X} _0)] ^ {-1} (\ mathbf {U} -\ mathbf {U} _0)} {|\ mathbf {U} _0)} {|\ mathbf {U} _0)} {|\ mathbf {U} _0} -\ mathbf {U} _0|}\ quad (\ mathbf {U}\ ne \ mathbf {U} _0),\ end {ecuación}\] luego\ [\ begin {ecuación}\ label {eq:6.3.27} \ lim_ {\ mathbf {U}\ a\ mathbf {U} _0}\ mathbf {H} (\ mathbf {U}) =\ mathbf {0}. \ end {ecuación}\]

Ya que$$\mathbf{F}$$ es uno a uno encendido$$S$$ y$$\mathbf{F} (\mathbf{G}(\mathbf{U})) =\mathbf{U}$$, de ello se deduce que si$$\mathbf{U}\ne\mathbf{U}_0$$, entonces$$\mathbf{G}(\mathbf{U})\ne\mathbf{G}(\mathbf{U}_0)$$. Por lo tanto, podemos multiplicar el numerador y denominador de por$$|\mathbf{G}(\mathbf{U}) -\mathbf{G}(\mathbf{U}_0)|$$ para obtener\ [ \ begin {array} {rcl} \ mathbf {H} (\ mathbf {U})\ ar=\ dst\ frac {| \ mathbf {G} (\ mathbf {U}) -\ mathbf {G} (\ mathbf {U} (\ mathbf {U} _ _ {0} |} {|\ mathbf {U} -\ mathbf {U} -\ mathbf {U} - \ mathbf {U} bf {U} _0|}\ izquierda (\ frac {\ mathbf {G} (\ mathbf {U}) -\ mathbf {G} (\ mathbf {U} _0) - \ left [\ mathbf {F} '(\ mathbf {X} _ _ {0}) \ derecha] ^ {-1} (\ mathbf {U} -\ mathbf {U} _0)} {|\ mathbf {G} (\ mathbf {U}) -\ mathbf {G} (\ mathbf {U} _0) |}\\ derecha)\\ \ ar=- dst\ frac {|\ mathbf {G} (\ mathbf {U}) -\ mathbf {G} (\ mathbf {U} _0) |} { |\ mathbf {U} -\ mathbf {U} _0|} \ left [\ mathbf {F}' (\ mathbf {X} _0)\ derecha] ^ {-1} \ izquierda (\ frac {\ mathbf {U} -\ mathbf {U} _0-\ mathbf {F} '(\ mathbf {X} _0) (\ mathbf {G} (\ mathbf {U}) -\ mathbf {G} (\ mathbf {U} _0))}} {|\ mathbf {G} (\ mathbf {U }) -\ mathbf {G} (\ mathbf {G} (\ mathbf {G} (\ mathbf {G} (\ mathbf {G} (\ mathbf {bf {U} _0) |} \ derecha)\ end {array} \] si$$0<|\mathbf{U}-\mathbf{U}_0|<\delta$$. Debido a, esto implica que\ [ |\ mathbf {H} (\ mathbf {U}) |\ le\ frac {1} {\ lambda} \ | [\ mathbf {F} '(\ mathbf {X} _0)] ^ {-1}\ | \ izquierda|\ frac {\ mathbf {U} -\ mathbf {U} _0-\ mathbf {F}' (\ mathbf {X} _0) (\ mathbf {G} (\ mathbf {U}) -\ mathbf {G} (\ mathbf {U} _0))} { |\ mathbf {G} (\ mathbf {U}) -\ mathbf {G} (\ mathbf {U} _0) |}\ derecha| \] si$$0<|\mathbf{U}-\mathbf{U}_0|<\delta$$. Ahora vamos\ [ \ mathbf {H} _1 (\ mathbf {U}) =\ frac {\ mathbf {U} -\ mathbf {U} _0-\ mathbf {F} '(\ mathbf {X} _0) (\ mathbf {G} (\ mathbf {U}) -\ mathbf {G} (\ mathbf {U} _0))} | {\ mathbf {G} (\ mathbf {U}) -\ mathbf {G} (\ mathbf {U} _0) |} \] Para completar la prueba de, debemos demostrar que\ [\ begin {ecuación}\ label {eq:6.3.28} \ lim_ {\ mathbf { U}\ a\ mathbf {U} _0}\ mathbf {H} _1 (\ mathbf {U}) =\ mathbf {0}. \ end {ecuación}\] Dado que$$\mathbf{F}$$ es diferenciable en$$\mathbf{X}_0$$, sabemos que si\ [ \ mathbf {H} _2 (\ mathbf {X}) =\ lim_ { \ mathbf {X}\ a\ mathbf {X} _0}\ frac {\ mathbf {F} ( \ mathbf {X}) -\ mathbf {F} (\ mathbf {X} _0) -\ mathbf {X} _0) -\ mathbf {F} (\ mathbf {X} _0) -\ mathbf {F} ' (\ mathbf {X} _0) (\ mathbf {X} -\ mathbf {X} _0)} { |\ mathbf {X} -\ mathbf {X} _0|}, \ ] entonces\ [\ begin {ecuación}\ label {eq:6.3.29} \ lim_ {\ mathbf {X}\ a\ mathbf {X} _0}\ mathbf {H} _2 (\ mathbf {X}) =\ mathbf {0}. \ end {ecuación}\] Desde$$\mathbf{F}(\mathbf{G}(\mathbf{U}))=\mathbf{U}$$ y$$\mathbf{X}_0= \mathbf{G}(\mathbf{U}_0)$$,\ [ \ mathbf {H} _1 (\ mathbf {U}) =\ mathbf {H} _2 (\ mathbf {G} (\ mathbf {U})). \]

Ahora supongamos eso$$\epsilon>0$$. De, hay$$\delta_1>0$$ tal que\ [\ begin {ecuación}\ label {eq:6.3.30} |\ mathbf {H} _2 (\ mathbf {X}) |<\ épsilon\ mbox {\ quad if\ quad} 0< |\ mathbf {X} -\ mathbf {X} _ _ {0} | =|\ mathbf {X} -\ mathbf {G} (\ mathbf {U} _0) |<\ delta_1. \ end {ecuación}\] Dado que$$\mathbf{G}$$ es continuo en$$\mathbf{U}_0$$, hay$$\delta_2\in(0,\delta)$$ tal que\ [ |\ mathbf {G} (\ mathbf {U}) -\ mathbf {G} (\ mathbf {U} _0) |<\ delta_1\ mbox {\ quad if\ quad} 0<|\ mathbf {U} -\ mathbf {U} _0|<\ delta_2. \] Esto e implica que\ [ |\ mathbf {H} _1 (\ mathbf {U}) |=|\ mathbf {H} _2 (\ mathbf {G} (\ mathbf {U})) |<\ épsilon \ mbox {\ quad if\ quad} 0<|\ mathbf {U} -\ mathbf {U} _0|<\ delta_2. \] Dado que esto implica,$$\mathbf{G}$$ es diferenciable en$$\mathbf{X}_0$$.

Dado que$$\mathbf{U}_0$$ es un miembro arbitrario de$$\mathbf{F}(N)$$, ahora podemos bajar el subíndice cero y concluir que$$\mathbf{G}$$ es continuo y diferenciable en$$\mathbf{F}(N)$$, y\ [ \ mathbf {G} '(\ mathbf {U}) = [\ mathbf {F}' (\ mathbf {X})] ^ {-1},\ quad\ mathbf {U}\ in\ mathbf {F} (N). \] Para ver que$$\mathbf{G}$$ está encendido$$\mathbf{F}(N)$$, observamos que por Teoremo~, cada entrada de$$\mathbf{G}'(\mathbf{U})$$ (es decir, cada derivada parcial$$\partial g_i(\mathbf{U})/\partial u_j$$,$$1\le i, j\le n$$) puede escribirse como la relación, con denominador distinto de cero, de determinantes con entradas de la forma\ [\ begin {ecuación}\ label {eq:6.3.31} \ frac {\ parcial f_r (\ mathbf {G} (\ mathbf {U}))} {\ x_s parcial}. \ end {ecuación}\] Dado que$$\partial f_r/\partial x_s$$ es continuo en$$N$$ y$$\mathbf{G}$$ es continuo en$$\mathbf{F}(N)$$, Teorem~ implica que es continuo en$$\mathbf{F}(N)$$. Dado que un determinante es una función continua de sus entradas, ahora se deduce que las entradas de$$\mathbf{G}'(\mathbf{U})$$ son continuas en$$\mathbf{F}(N)$$.

-.4em Si$$\mathbf{F}$$ es regular en un set abierto$$S$$, decimos que$$\mathbf{F}^{-1}_S$$ es un {}$$\mathbf{F}^{-1}$$. (Esta es una terminología conveniente pero no pretende implicar que$$\mathbf{F}$$ en realidad tenga una inversa.) A partir de esta definición, es posible definir una rama de$$\mathbf{F}^{-1}$$ en un conjunto$$T \subset R(\mathbf{F})$$ si y solo si$$T=\mathbf{F}(S)$$, donde$$\mathbf{F}$$ es regular on$$S$$. Puede haber subconjuntos abiertos de$$R(\mathbf{F})$$ que no tengan esta propiedad, y por lo tanto no se$$\mathbf{F}^{-1}$$ puede definir ninguna rama de en ellos. También es posible que$$T=\mathbf{F}(S_1)= \mathbf{F}(S_2)$$, donde$$S_1$$ y$$S_2$$ son distintos subconjuntos de$$D_\mathbf{F}$$. En este caso,$$\mathbf{F}^{-1}$$ se define más de una rama de$$T$$. Así, vimos en Ejemplo~ que dos ramas de$$\mathbf{F}^{-1}$$ pueden definirse en un conjunto$$T$$. En Ejemplo~ infinitamente muchas ramas de$$\mathbf{F}^{-1}$$ se definen en el mismo conjunto.

Es útil definir ramas del argumento Para ello, pensamos en la relación entre coordenadas polares y rectangulares en términos de la transformación\ [\ begin {ecuación}\ label {eq:6.3.32} \ left [\ begin {array} {c} x\\ y\ end {array}\ right] =\ mathbf {F} (r,\ theta) = \ left [\ begin {array} {c} r \ cos\ theta\\ r\ sin\ theta\ end {array}\ right], \ end {ecuación}\] donde por el momento consideramos$$r$$ y$$\theta$$ como coordenadas rectangulares de un punto en un$$r\theta$$ plano. Dejar$$S$$ ser un subconjunto abierto de la mitad derecha de este plano (es decir,$$S\subset\set{(r,\theta)}{r>0}$$)

que no contiene ningún par de puntos$$(r,\theta)$$ y$$(r,\theta+2k\pi)$$, donde$$k$$ es un entero distinto de cero. Entonces$$\mathbf{F}$$ es uno a uno y continuamente diferenciable encendido$$S$$, con\ [\ begin {ecuación}\ label {eq:6.3.33} \ mathbf {F} '(r,\ theta) =\ left [\ begin {array} {rr}\ cos\ theta&-r\ sin\ theta\\ sin\ theta& r\ cos\ theta\ end {array}\ right] \ end {ecuación}\] y\ [\ begin {ecuación}\ label {eq:6.3.34} J\ mathbf {F} (r,\ theta) =r>0,\ quad (r,\ theta)\ in S. \ end {ecuación}\] Por lo tanto,$$\mathbf{F}$$ es regular on$$S$$. Ahora vamos$$T=\mathbf{F}(S)$$, el conjunto de puntos en el$$xy$$ plano -con coordenadas polares adentro$$S$$. Teorem~ establece que$$T$$ es abierto y$$\mathbf{F}_S$$ tiene un inverso continuamente diferenciable (que denotamos por$$\mathbf{G}$$, en lugar de$$\mathbf{F}^{-1}_S$$, por razones tipográficas) \ [\ left [\ begin {array} {c} r\\ theta\ end {array}\ right] = \ mathbf {G} (x, y) =\ left [\ begin {array} {c} \ sqrt {x^2+^y2}\ [3\ jot]\ arg_s (x, y)\ end {array}\ right],\ quad (x, y)\ in T, \] donde$$\arg_S(x,y)$$ está el valor único de$$\arg(x,y)$$ tal que\ [ (r,\ theta) =\ left (\ sqrt {x^2+y^2},\,\ arg_s (x, y)\ right)\ in S. \] Decimos que$$\arg_S(x,y)$$ es un {}. Teoremo~ también implica que\ [\ begin {eqnarray*} \ mathbf {G} '(x, y) =\ left [ \ mathbf {F}' (r,\ theta)\ right] ^ {-1}\ ar=\ left [\ begin {array} {rr}\ cos\ theta& \ sin\ theta\ \ dst {-\ frac {\ sin theta\ eta} {r}} &\ dst {\ frac {\ cos\ theta} { r}}\ end {array}\ derecha]\ mbox {\ quad (ver\ eqref {eq:6.3.33})}\\ \ ar=\ izquierda [\ begin {array} {rr}\ dst {\ frac {x} {\ sqrt {x^2+y^2}}} & \ dst {\ frac {y} {\ sqrt {x^2+y^2}}}\\ [3\ jot] \ dst {-\ frac {y} {x^2+y^2}} &\ dst {\ frac {x} {x2+y^2}} \ end {array}\ right]\ mbox {\ quad (ver\ eqref {eq:6.3.32})}. \ end {eqnarray*}\] 1pc Por lo tanto,\ [\ begin {ecuación}\ label {eq:6.3.35} \ frac {\ parcial\ arg_s (x, y)} {\ parcial x} =-\ frac {y} {x^2+y^2},\ quad \ frac {\ parcial\ arg_s (x, y)} {\ parcial y} =\ frac {x} {x^2+y^2}. \ end {ecuación}\]

$$\arg(x,y)$$Se puede definir una rama de en un conjunto abierto$$T$$ del$$xy$$ plano -si y solo si las coordenadas polares de los puntos$$T$$ forman un subconjunto abierto del$$r\theta$$ plano -que no interseca el$$\theta$$ eje -o contiene dos puntos cualesquiera de la forma$$(r,\theta)$$ y$$(r,\theta+2k\pi)$$, donde$$k$$ es un entero distinto de cero. Ningún subconjunto que contenga el origen$$(x,y)=(0,0)$$ tiene esta propiedad, ni ninguna vecindad eliminada del origen (Ejercicio~), por lo que hay conjuntos abiertos en los que no se puede definir ninguna rama del argumento. Sin embargo, si se puede definir una rama en$$T$$, entonces también pueden infinitamente muchas otras. (¿Por qué?) Todas las ramas de$$\arg(x,y)$$ tienen las mismas derivadas parciales, dadas en.

Te dejamos a ti (Ejercicio~) verificar eso y también se puede obtener diferenciando directamente.

\ begin {ejemplo}\ rm Si\ [ \ left [\ begin {array} {c} u\\ v\ end {array}\ right] = \ mathbf {F} (x, y) =\ left [\ begin {array} {c} e^x\ cos y\\ e^x\ sin y\ end {array}\ right] \] (Ejemplo~), también podemos definir una rama$$\mathbf{G}$$ de$$\mathbf{F}^{-1}$$ en cualquier subconjunto$$T$$ del$$uv$$ plano -en el que una rama de $$\arg(u,v)$$se puede definir, y$$\mathbf{G}$$ tiene la forma\ [\ begin {ecuación}\ label {eq:6.3.39} \ left [\ begin {array} {r} x\\ y\ end {array}\ right] = \ mathbf {G} (u, v) =\ left [\ begin {array} {c} \ log (u^2+v^2) ^ {1/2}\\ arg (u, v)\ end {array}\ derecho]. \ end {ecuación}\] Dado que las ramas del argumento difieren por múltiplos integrales de$$2\pi$$, implica que si$$\mathbf{G}_1$$ y$$\mathbf{G}_2$$ son ramas de$$\mathbf{F}^{-1}$$, ambas definidas en$$T$$, entonces \ [\ mathbf {G} _1 (u, v) -\ mathbf {G} _2 (u, v) =\ left [\ begin {array} {c} 0 \\ 2k\ pi\ end {array}\ right] \ mbox {\ quad ($k=$ entero)}. \]

Del Teorem~,\ [\ begin {eqnarray*} \ mathbf {G} '(u, v) =\ left [ \ mathbf {F}' (x, y)\ right] ^ {-1}\ ar=\ left [\ begin {array} {rr} e^x\ cos y &-e^x\ sin y\ e^x\ sin y&e^x cos y\ end {array}\ derecha] ^ {-1}\\ [2\ jot] \ ar=\ izquierda [\ begin {array} {rr} e^ {-x}\ cos y&e^ {-x}\ sin y\\ -e^ {-x}\ sin y&e^ {-x}\ cos y\ end {array}\ right]. \ end {eqnarray*}\] Sustituyendo por$$x$$ y$$y$$ en términos de$$u$$ y$$v$$ desde, encontramos que\ [\ begin {eqnarray*} \ frac {\ parcial x} {\ parcial u}\ ar=\ frac {\ parcial y} {\ parcial v} = e^ {-x}\ cos y=e^ {-2x} u=\ frac {u} {u^2+v^2}\\ \ arraytext {y}\\ \ frac {\ parcial x} {\ parcial v}\ ar=-\ frac {\ parcial y} {\ parcial u} = e^ {-x}\ sin y=e^ {-2x} v=\ frac {v} {u^2+v^2}. \ end {eqnarray*}\]\ end {ejemplo}

Ejemplos~ y muestran que una función continuamente diferenciable$$\mathbf{F}$$ puede no tener una inversa en un conjunto$$S$$ incluso si está$$J\mathbf{F}(\mathbf{X})\ne0$$ activada$$S$$. Sin embargo, el siguiente teorema muestra que en este caso$$\mathbf{F}$$ es localmente invertible en$$S$$.

\ begin {teorema} [El teorema de la función inversa] Dejar$$\mathbf{F}: \R^n\to \R^n$$ ser continuamente diferenciable en un conjunto abierto$$S,$$ y supongamos que$$J\mathbf{F}(\mathbf{X})\ne0$$ en$$S.$$ Entonces$$,$$ si$$\mathbf{X}_0\in S,$$ hay un barrio abierto$$N$$ de$$\mathbf{X}_0$$ sobre el que$$\mathbf{F}$$ es regular$$.$$ Por otra parte $$,$$$$\mathbf{F}(N)$$está abierto y$$\mathbf{G}= \mathbf{F}^{-1}_N$$ es continuamente diferenciable$$\mathbf{F}(N),$$ con\ [ \ mathbf {G} '(\ mathbf {U}) =\ left [\ mathbf {F}' (\ mathbf {X})\ right] ^ {-1}\ quad \ mbox {$($donde $\ mathbf {U} =\ mathbf {F} (\ mathbf {X})\])$}, (N). $$\ end {teorema} Lemma~ implica que hay un barrio abierto$$\mathbf{X}_0$$ en$$N$$ el que$$\mathbf{F}$$ se encuentra uno a uno. El resto de las conclusiones siguen entonces de aplicar Teorem~ a$$\mathbf{F}$$ on$$N$$. Por continuidad, ya que$$J\mathbf{F}'(\mathbf{X}_0)\ne0$$,$$J\mathbf{F}'(\mathbf{X})$$ es distinto de cero para todos$$\mathbf{X}$$ en algún barrio abierto$$S$$ de$$\mathbf{X}_0$$. Ahora aplica Teorem~. Teorem~ e implican que la transformación es localmente invertible en$$S=\set{(r,\theta)}{ r>0}$$, lo que significa que es posible definir una rama de$$\arg(x,y)$$ en un vecindario de cualquier punto$$(x_0,y_0)\ne (0,0)$$. También implica, como ya hemos visto, que la transformación de Ejemplo~ es localmente invertible en todas partes excepto en$$(0,0)$$, donde su jacobiano es igual a cero, y la transformación de Ejemplo~ es localmente invertible en todas partes. En esta sección consideramos transformaciones de$$\R^{n+m}$$ a$$\R^m$$. Será conveniente denotar puntos en$$\R^{n+m}$$ por\ [ (\ mathbf {X},\ mathbf {U}) =( x_1, x_2,\ dots, x_n, u_1, u_2,\ dots, u_m). \] A menudo denotaremos los componentes de$$\mathbf{X}$$ by$$x$$,$$y$$,, y los componentes de$$\mathbf{U}$$ by$$u$$,$$v$$,. Para motivar el problema que nos interesa, primero preguntamos si el sistema lineal de$$m$$ ecuaciones en$$m+n$$ variables\ [\ begin {ecuación}\ label {eq:6.4.1} \ begin {array} {rcl} a_ {11} x_1\ hspace* {.11em} +\ hspace* {.11em} a_ {12} x_2\ hspace* {.11em} +\ hspace* {.11em}\ cdots\ hspace* {.11em} +\ hespacio* {.11em } a_ {1n} x_n\ hspace* {.11em} +\ hspace* {.11em} b_ {11} u_1\ hspace* {.11em} +\ hspace* {.11em} b_ {12} u_2\ hspace* {.11em} +\ hspace* {.11em}\ cdots\ hspace* {.11em} +\ hspace* {.11em} b_ {1m} u_m\ ar=0\\ a_ {21} x_1\ hspace* {.11em} +\ hspace* {.11em} a_ {22} x_2\ hspace* {.11em} +\ hspace* {.11em}\ cdots\ hspace* {.11em} +\ hspace* {.11em} a_ {2n} x_n\ hspace* {.11em} +\ hspace* {.11em} b_ {21} u_1\ hspace* {.11em} +\ hspace* {.11em} b_ {22} u_x\ hspace* {.11em} +\ hspace* {.11em}\ cdots\ hspace* {.11em} +\ hspace* {.11em} b_ {2m} u_m\ ar=0\\ &\ vdots&\\ a_ {m1} x_1+a_ {m2} x_2+\ cdots+a_ {mn} x_n+b_ {m1} u_1+b_ {m2} u_2+\ cdots+ b_ {mm} u_m\ ar=0\ end {array} \ end {ecuación}\] determina$$u_1$$,$$u_2$$,, de$$u_m$$ manera única en términos de$$x_1$$,$$x_2$$,,$$x_n$$. Al reescribir el sistema en forma de matriz como\ [ \ mathbf {AX} +\ mathbf {BU} =\ mathbf {0}, \] donde \ [\ mathbf {A} =\ left [\ begin {array} {cccc} a_ {11} &a_ {12} &\ cdots&a_ {1n}\\ a_ {21} &a_ {22} &\ cdots&a_ {2n}\ \\ vdots&\ vdots&\ ddots&\ vdots\\ a_ {m1} &a_ {m2} &\ cdots&a _ {mn}\ end {array}\ derecha],\ quad \ mathbf {B} =\ izquierda [\ begin {array} {cccc} b_ {11} &b_ {12} &\ cdots&b_ {1m}\\ b_ {21} &b_ {22} &\ cdots&b_ {2m} \\\ vdots&\ puntos&\ vdots\\ b_ {m1} &b_ {m2} &\ cdots&b_ {mm}\ end {array}\ derecha], \]\ [ \ mathbf {X} =\ left [\ begin {array} {c } x_1\\ x_2\\\ vdots\\ x_n\ end {array}\ derecha], \ mbox {\ quad y\ quad} \ mathbf {U} =\ left [\ begin {array} {c} u_1\\ u_2\\\ vdots\\ u_m\ end {array}\ right], \] vemos que se puede resolver únicamente para$$\mathbf{U}$$ en términos de$$\mathbf{X}$$ si la matriz cuadrada$$\mathbf{B}$$ es no singular. En este caso la solución es\ [ \ mathbf {U} =-\ mathbf {B} ^ {-1}\ mathbf {AX}. \] Para nuestros propósitos es conveniente reafirmar esto: Si\ [\ begin {ecuación}\ label {eq:6.4.2} \ mathbf {F} (\ mathbf {X},\ mathbf {U}) =\ mathbf {AX} +\ mathbf {BU}, \ end {ecuación}\] donde$$\mathbf{B}$$ es no singular, entonces el sistema\ [ \ mathbf {F} (\ mathbf {X},\ mathbf {U}) =\ mathbf {0} \] determina $$\mathbf{U}$$en función de$$\mathbf{X}$$, para todos$$\mathbf{X}$$ en$$\R^n$$. Observe que$$\mathbf{F}$$ en es una transformación lineal. Si$$\mathbf{F}$$ es una transformación más general de$$\R^{n+m}$$ a$$\R^m$$, aún podemos preguntar si el sistema\ [ \ mathbf {F} (\ mathbf {X},\ mathbf {U}) =\ mathbf {0}, \] o, en términos de componentes,\ [\ begin {eqnarray*} f_1 (x_1, x_2,\ dots, x_n, u_1, u_2,\ dots, u_m)\ ar=0\\ f_2 (x_1, x_2,\ puntos, x_n, u_1, u_2, \ dots, u_m)\ ar=0\\ &\ vdots&\\ f_m (x_1, x_2,\ dots, x_n, u_1, u_2,\ dots, u_m)\ ar=0, \ end {eqnarray*}\] se puede resolver para$$\mathbf{U}$$ en términos de$$\mathbf{X}$$. No obstante, la situación es ahora más complicada, aunque sea$$m=1$$. Por ejemplo, supongamos que$$m=1$$ y\ [ f (x, y, u) =1-x^2-y^2-u^2. \] Si$$x^2+y^2>1$$, entonces ningún valor de$$u$$ satisface\ [\ begin {ecuación}\ label {eq:6.4.3} f (x, y, u) =0. \ end {equation}\] Sin embargo, infinitamente muchas funciones$$u=u(x,y)$$ satisfacen en el conjunto\ [ S=\ set {(x, y)} {x^2+y^2\ le1}. \] Son de la forma\ [ u (x, y) =\ épsilon (x, y)\ sqrt {1-x^2-y^2}, \] donde se$$\epsilon(x,y)$$ pueden elegir arbitrariamente, para cada uno$$(x,y)$$ en$$S$$, ser$$1$$ o$$-1$$. Podemos reducir la elección de funciones a dos requiriendo que$$u$$ sean continuas en$$S$$; luego\ [\ begin {eqnarray} u (x, y)\ ar=\ sqrt {1-x^2-y^2}\ label {eq:6.4.4}\ \ arraytext {o}\ nonumber\\ u (x, y)\ ar=-\ sqrt {1-x^2-y^2}. \ nonumber \ end {eqnarray}\] Podemos definir una solución continua única$$u$$ de especificando su valor en un único punto interior de$$S$$. Por ejemplo, si requerimos que\ [ u\ left (\ frac {1} {\ sqrt {3}}, \ frac {1} {\ sqrt {3}}\ right) =\ frac {1} {\ sqrt {3}}, \] entonces$$u$$ debe ser como se define por. La cuestión de si un sistema arbitrario\ [ \ mathbf {F} (\ mathbf {X},\ mathbf {U}) =\ mathbf {0} \] determina$$\mathbf{U}$$ como una función de$$\mathbf{X}$$ es demasiado general para tener una respuesta útil. Sin embargo, existe un teorema, el teorema de la función implícita, que responde afirmativamente a esta pregunta en un caso especial importante. Para facilitar la afirmación de este teorema, particionamos la matriz diferencial de$$\mathbf{F}: \R^{n+m}\to \R^m$$:\ [\ begin {ecuación}\ label {eq:6.4.5} \ begin {array} {rcl}\ mathbf {F} '=\ left [\ begin {array} {ccccccc} \ dst {\ frac {\ parcial f_1} {\ parcial x_1}} & \ dst {\ frac {parcial\ f_1} {\ parcial x_2}} &\ cdots& \ dst {\ frac {\ parcial f_1} {\ parcial x_n}} &|& \ dst {\ frac {\ parcial f_1} {\ parcial u_1}} & \ dst {\ frac {\ parcial f_1} {\ parcial u_2}} &\ cdots& \ dst {\ frac {\ parcial f_1} {\ parcial u_m}\ [3\ jot] \ dst {\ frac {\ parcial f_2} {\ parcial x_1}} & \ dst {\ frac {\ parcial f_2} {\ parcial x_2}} & \ cdots& \ dst {\ frac {\ parcial f_2} {\ parcial x_n}} &|& \ dst {\ frac {\ parcial f_2} {\ parcial u_1}} & \ dst {\ frac {\ parcial f_2} {\ parcial u_2}} &\ cdots& \ dst {\ frac {\ parcial f_2} {\ parcial u_m}\\ [3\ jot] \ vdots&\ vdots&\ ddots&\ vdots&|&\ vdots&\ vdots&\ ddots&\ vdots\ \ dst {\ frac {\ parcial f_m} {\ parcial x_1}} & \ dst {\ frac {\ parcial f_m} {\ parcial x_2}} &\ cdots& \ dst {\ frac {\ parcial f_m} {\ parcial x_n}} &|& \ dst {\ frac {\ parcial f_m} {\ parcial u_1}} & \ dst {\ frac {\ parcial f_m} {\ parcial u_2}} &\ cdots& \ dst {\ frac {\ parcial f_m} {\ parcial u_m}}\ end {array}\ derecha]\ \ end {array} \ end {ecuación}\] o\ [ \ mathbf {F} '= [\ mathbf {F} _\ mathbf {X},\ mathbf {F} _\ mathbf {U}], \] donde$$\mathbf{F}_\mathbf{X}$$ está la submatriz a la izquierda de la línea discontinua en y$$\mathbf{F}_\mathbf{U}$$ está a la derecha. Para la transformación lineal,$$\mathbf{F}_\mathbf{X}=\mathbf{A}$$ y$$\mathbf{F}_\mathbf{U}=\mathbf{B}$$, y hemos visto que el sistema$$\mathbf{F}(\mathbf{X},\mathbf{U})=\mathbf{0}$$ define$$\mathbf{U}$$ como una función de$$\mathbf{X}$$ para todos$$\mathbf{X}$$ en$$\R^n$$ si$$\mathbf{F}_\mathbf{U}$$ es no singular. El siguiente teorema muestra que un resultado relacionado se mantiene para transformaciones más generales. Definir$$\boldsymbol{\Phi}:\R^{n+m}\to \R^{n+m}$$ por\ [\ begin {ecuación}\ label {eq:6.4.8} \ boldsymbol {\ Phi} (\ mathbf {X},\ mathbf {U}) =\ left [\ begin {array} {c} x_1\\ x_2\\ vdots\\ x_n\\ f_1 (\ mathbf {X},\ mathbf {U})\ [3\ jot] f_2 (\ mathbf {X},\ mathbf {U})\\\ vdots\\ f_m (\ mathbf {X},\ mathbf {U})\ end {array} \ derecha] \ end {ecuación}\] o, en notación horizontal” por\ [\ begin {ecuación}\ label {eq:6.4.9} \ boldsymbol {\ Phi} (\ mathbf {X},\ mathbf {U}) =(\ mathbf {X},\ mathbf {F} (\ mathbf {X},\ mathbf {U})). \ end {ecuación}\] Entonces$$\boldsymbol{\Phi}$$ es continuamente diferenciable on$$S$$ y, ya que$$\mathbf{F}(\mathbf{X}_0,\mathbf{U}_0)=\mathbf{0}$$,\ [\ begin {ecuación}\ label {eq:6.4.10} \ boldsymbol {\ Phi} (\ mathbf {X} _0,\ mathbf {U} _0) =(\ mathbf {X} _0,\ mathbf {0}). \ end {ecuación}\] La matriz diferencial de$$\boldsymbol{\Phi}$$ es\ [ \ negridsymbol {\ Phi} '=\ left [\ begin {array} {cccccccc} 1&0&\ cdots&0&0&0&\ cdots&0\\ [3\ jot] 0&1&\ cdots&0&0&0&\ cdots&0\\ cdots&0\ \ vdots&0\\ &\ vdots&\ ddots&\ vdots&\ vdots&\ vdots&\ ddots&\ vdots\\ 0&0&\ cdots&1&0&0&\ cdots&0\\ [3\ jot] \ dst {\ frac {\ parcial f_1} {\ parcial x_1}} & \ dst {\ frac {\ parcial f_1} {\ parcial x_2}} &\ cdots& \ dst\ frac {\ parcial f_1} {\ parcial x_n}} & \ dst {\ frac {\ parcial f_1} {\ parcial u_1}} & \ dst {\ frac {\ parcial f_1} {\ parcial u_2}} &\ cdots& \ dst {\ frac {\ parcial f_1} {\ parcial u_m}}\\ [3\ jot] \ dst {\ frac {\ parcial f_2} {\ parcial x_1}} & \ dst {\ frac {\ parcial f_2} {\ parcial x_2} &\ cdots& \ dst {\ frac {\ parcial f_2} {\ parcial x_n}} & \ dst {\ frac {\ parcial f_2} {\ parcial u_1}} & \ dst {\ frac {\ parcial f_2} {\ parcial u_2}} &\ cdots& \ dst {\ frac {\ parcial f_2} {\ parcial u_m}}\\ [3 \ jot]\ vdots&\ vdots&\ ddots&\ vdots&\ vdots&\ vdots&\ [3\ jot]\ dst { \ frac {\ parcial f_m} {\ parcial x_1}} & \ dst {\ frac {\ parcial f_m} {\ x parcial _2}} &\ cdots& \ dst {\ frac {\ parcial f_m} {\ parcial x_n}} & \ dst {\ frac {\ parcial f_m} {\ parcial u_1}} & \ dst {\ frac {\ parcial f_m} {\ parcial u_2}} &\ cdots& \ dst {\ frac {\ parcial f_m} {parcial u_m}}\ end {array}\ derecha] = \ izquierda [\ begin {array} {cc}\ mathbf {I} &\ mathbf {0}\\\ mathbf {F} _\ mathbf {X} &\ mathbf {F} _\ mathbf {U} \ end {array}\ derecho], \] donde$$\mathbf{I}$$ está la matriz de$$n\times n$$ identidad,$$\mathbf{0}$$ es la$$n\times m$$ matriz con todas las entradas cero, y$$\mathbf{F}_\mathbf{X}$$ y$$\mathbf{F}_\mathbf{U}$$ son como en. Al expandir$$\det(\boldsymbol{\Phi}')$$ y los determinantes que evolucionan de ella en términos de los cofactores de sus primeras filas, se puede mostrar en$$n$$ pasos que .5pc\ [ J\ boldsymbol {\ Phi} =\ det (\ boldsymbol {\ Phi} ') =\ izquierda|\ begin {array} {cccc} \ dst {\ frac {\ parcial f_1} {\ parcial u_1}} & \ dst {\ frac {\ parcial f_1} {\ parcial u_2}} &\ cdots& \ dst {\ frac {\ parcial f_1} {\ parcial u_m}}\\ [3\ jot] \ dst {\ frac {\ parcial f_2} {\ parcial u_1}} & \ dst {\ frac {\ parcial f_2} {\ parcial}} &\ cdots& \ dst {\ frac {\ parcial f_2} {\ parcial u_m}}\\ [3\ jot] \ vdots&\ vdots&\ ddots&\ vdots\ \ dst {\ frac {\ parcial f_m} {\ parcial u_1}} & \ dst {\ frac {\ parcial f_m} {\ parcial u_2}} &\ cdots& \ dst {\ frac {\ parcial f_m} {\ parcial u_m}}\ end {array}\ derecho|= \ det (\ mathbf {F} _\ mathbf {U}). \] .5pc En particular,\ [ J\ boldsymbol {\ Phi} (\ mathbf {X} _0,\ mathbf {U} _0) =\ det (\ mathbf {F} _ _\ mathbf {U} (\ mathbf {X} _0,\ mathbf {U} _ _ {0})\ ne0. \] Dado que$$\boldsymbol{\Phi}$$ es continuamente diferenciable en$$S$$, Corolary~ implica que$$\boldsymbol{\Phi}$$ es regular en algún vecindario abierto$$M$$ de$$(\mathbf{X}_0,\mathbf{U}_0)$$ y que$$\widehat{M}=\boldsymbol{\Phi}(M)$$ es abierto. Por la forma de$$\boldsymbol{\Phi}$$ (ver o), podemos escribir puntos de$$\widehat{M}$$ como$$(\mathbf{X},\mathbf{V})$$, dónde$$\mathbf{V}\in \R^m$$. Corolario ~ también implica que$$\boldsymbol{\Phi}$$ tiene un inverso continuamente diferenciable$$\boldsymbol{\Gamma}(\mathbf{X},\mathbf{V})$$ definido$$\widehat{M}$$ con valores en$$M$$. Dado que$$\boldsymbol{\Phi}$$ deja la \ mathbf {X}  parte” de  (\ mathbf {X},\ mathbf {U})  fija, una inversa local de \ boldsymbol {\ Phi}  también debe tener esta propiedad. Por lo tanto, \ boldsymbol {\ Gamma}  debe tener la forma\ vskip.5pc\ [\ boldsymbol {\ Gamma} (\ mathbf {X},\ mathbf {V}) =\ left [\ begin {array} {c} x_1\ x_2\\\ vdots\\ x_n\\ [3\ jot] h_1 (\ mathbf {X},\ mathbf {V})\\ [3\ jot] h_2 (\ mathbf {X},\ mathbf {V})\\\ vdots\\ [3\ jot] h_m (\ mathbf {X},\ mathbf {V})\ end {array}\ derecho]$$\ vskip1pc o, en horizontal” notación,\ [ \ negridsymbol {\ Gamma} (\ mathbf {X},\ mathbf {V}) =(\ mathbf {X},\ mathbf {H} (\ mathbf {X},\ mathbf {V})), \] donde$$\mathbf{H}:\R^{n+m}\to \R^m$$ es continuamente diferenciable en$$\widehat{M}$$. Mostraremos que$$\mathbf{G}(\mathbf{X})=\mathbf{H}(\mathbf{X},\mathbf{0})$$ tiene las propiedades declaradas.

Desde,$$(\mathbf{X}_0,\mathbf{0})\in\widehat{M}$$ y, ya que$$\widehat{M}$$ está abierto, hay un barrio$$N$$ de$$\mathbf{X}_0$$ en$$\R^n$$ tal que$$(\mathbf{X},\mathbf{0})\in\widehat{M}$$ si$$\mathbf{X}\in N$$ (Ejercicio~). Por lo tanto,$$(\mathbf{X},\mathbf{G}(\mathbf{X})) =\boldsymbol{\Gamma}(\mathbf{X},\mathbf{0})\in M$$ si$$\mathbf{X}\in N$$. Ya que$$\boldsymbol{\Gamma}=\boldsymbol{\Phi}^{-1}$$,$$(\mathbf{X},\mathbf{0}) =\boldsymbol{\Phi}(\mathbf{X},\mathbf{G}(\mathbf{X}))$$. $$\mathbf{X}=\mathbf{X}_0$$Ambientar y recordar demuestra que$$\mathbf{G}(\mathbf{X}_0)=\mathbf{U}_0$$, ya que$$\boldsymbol{\Phi}$$ es uno a uno encendido$$M$$.

En adelante asumimos eso$$\mathbf{X}\in N$$. Ahora,\ [ \ begin {array} {rcll} (\ mathbf {X},\ mathbf {0})\ ar= \ boldsymbol {\ phi} (\ boldsymbol {\ Gamma} (\ mathbf {X},\ mathbf {0})) &\ mbox { (desde $\ boldsymbol {\ Phi} =\ boldsymbol {\ Gamma} {^ -1})$}\\\ ar= \ negridsymbol {\ Phi} (\ mathbf {X},\ mathbf {G} (\ mathbf {X})) &\ mbox {(desde $\ negridsymbol {\ Gamma} ( \ mathbf {X},\ mathbf {0}) = (\ mathbf {X},\ mathbf {G} (\ mathbf {X}))$)}\\ \ ar =(\ mathbf {X},\ mathbf {F} (\ mathbf {X},\ mathbf {G} (\ mathbf {X}))) &\ mbox {(desde $\ boldsymbol {\ Phi} (\ mathbf {X},\ mathbf {U}) = (\ mathbf {X},\ mathbf {F} (\ mathbf {X},\ mathbf {U}))$)}. \ end {array} \] Por lo tanto,$$\mathbf{F}(\mathbf{X},\mathbf{G}(\mathbf{X}))=\mathbf{0}$$; es decir,$$\mathbf{G}$$ satisface. Para ver eso$$\mathbf{G}$$ es único, supongamos que eso$$\mathbf{G}_1:\R^n\to \R^m$$ también satisface. Entonces\ [ \ boldsymbol {\ Phi} (\ mathbf {X},\ mathbf {G} (\ mathbf {X})) = (\ mathbf {X},\ mathbf {F} (\ mathbf {X},\ mathbf {G} (\ mathbf {X})))) =(\ mathbf {X},\ mathbf {0}) \] y [\ \ boldsymbol {\ Phi} (\ mathbf {X},\ mathbf {G} _1 (\ mathbf {X})) =(\ mathbf {X},\ mathbf {F} (\ mathbf {X},\ mathbf {G} _1 (\ mathbf {X}))) =(\ mathbf {X},\ mathbf {0}) \] para todos$$\mathbf{X}$$ en$$N$$. Dado que$$\boldsymbol{\Phi}$$ es uno a uno en$$M$$, esto implica que$$\mathbf{G}(\mathbf{X})= \mathbf{G}_1(\mathbf{X})$$.

Dado que las derivadas parciales \ [\ frac {\ parcial h_i} {\ parcial x_j},\ quad 1\ le i\ le m,\ quad 1\ le j \ le n,\] son funciones continuas de$$(\mathbf{X},\mathbf{V})$$ on$$\widehat{M}$$, son continuas con respecto al$$\mathbf{X}$$ subconjunto$$\set{(\mathbf{X},\mathbf{0})}{\mathbf{X} \in N}$$ de$$\widehat{M}$$. Por lo tanto,$$\mathbf{G}$$ es continuamente diferenciable en$$N$$. Para verificar, escribimos$$\mathbf{F}(\mathbf{X},\mathbf{G}(\mathbf{X}))=\mathbf{0}$$ en términos de componentes; así,\ [ f_i (x_1, x_2,\ dots, x_n, g_1 (\ mathbf {X}), g_2 (\ mathbf {X}),\ dots, g_m (\ mathbf {X})) =0,\ quad 1\ le i\ m,\ quad\ mathbf {X}\ in \] Desde$$f_i$$ y$$g_1$$,$$g_2$$,,$$g_m$$ son continuamente diferenciables en su respectivos dominios, la regla de la cadena (Teorem~) implica que\ [\ begin {ecuación}\ label {eq:6.4.11} \ frac {\ parcial f_i (\ mathbf {X},\ mathbf {G} (\ mathbf {X}))} {\ parcial x_j} + \ sum^m_ {r=1} \ frac {\ parcial f_i (\ mathbf {X},\ mathbf {G} (\ mathbf {X}))} {\ parcial u_r} \ frac {\ parcial g_r (\ mathbf {X}) } {\ parcial x_j} =0,\ quad 1\ le i\ le m,\ 1\ le j\ le n, \ end {ecuación}\] o, en forma de matriz,\ [\ begin {ecuación}\ label {eq:6.4.12} \ mathbf {F} _\ mathbf {X} (\ mathbf {X},\ mathbf {G} (\ mathbf {X})) +\ mathbf {F} _\ mathbf {U} (\ mathbf {X},\ mathbf {G} (\ mathbf {X}))\ mathbf {G} '(\ mathbf {X}) =\ mathbf {0}. \ end {ecuación}\] Ya que$$(\mathbf{X},\mathbf{G}(\mathbf{X}))\in M$$ para todos$$\mathbf{X}$$ en$$N$$ y$$\mathbf{F}_\mathbf{U}(\mathbf{X},\mathbf{U})$$ es nonsingular cuando$$(\mathbf{X},\mathbf{U})\in M$$, podemos multiplicar a la izquierda por$$\mathbf{F}^{-1}_\mathbf{U}(\mathbf{X},\mathbf{G}(\mathbf{X}))$$ para obtener. Esto completa la prueba.

En Teorem~ denotamos la transformación implícitamente definida por$$\mathbf{G}$$ por razones de claridad en la prueba. Sin embargo, al aplicar el teorema es conveniente denotar la transformación de manera más informal por$$\mathbf{U}=\mathbf{U}(\mathbf{X})$$; así$$\mathbf{U}(\mathbf{X}_0)=\mathbf{U}_0$$,, y reemplazamos y por\ [ (\ mathbf {X},\ mathbf {U} (\ mathbf {X}))\ en M\ mbox {\ quad y\ quad} \ mathbf {X} (\ mathbf {X},\ mathbf {U} (\ mathbf {X})) =0\ mbox {\ quad si}\ quad\ mathbf {X}\ in N, \] y\ [ \ mathbf {U} '(\ mathbf {X}) =- [\ mathbf {F} _\ mathbf {U} (\ mathbf {X},\ mathbf {U} (\ mathbf {X}))] ^ {-1} \ mathbf {F} _\ mathbf {X} (\ mathbf {X},\ mathbf {U} (\ mathbf {X})),\ quad\ mathbf {X}\ en N, \]

mientras se convierte en\ [\ begin {ecuación}\ label {eq:6.4.13} \ frac {\ parcial f_i} {\ parcial x_j} + \ sum^m_ {r=1} \ frac {\ parcial f_i} {\ parcial u_r} \ frac {\ parcial u_r } {\ parcial x_j} =0,\ quad 1\ le i\ le m,\ 1\ le j\ le n, \ end {ecuación}\] entendiéndose que las derivadas parciales de$$u_r$$ y $$f_i$$se evalúan en$$\mathbf{X}$$ y$$(\mathbf{X},\mathbf{U}(\mathbf{X}))$$, respectivamente.

El siguiente corolario es el teorema de la función implícita para$$m=1$$.

-2em2em

No es necesario memorizar fórmulas como y. Ya que sabemos eso$$f$$ y$$u$$ somos diferenciables, podemos obtener y aplicando la regla de la cadena a la identidad\ [ f (x, y, u (x, y)) =0. \]

Si tratamos de resolver para$$u$$, vemos muy claramente que Teorem~ y Corolary~ son {} teoremas; es decir, nos dicen que hay una función$$u=u(x,y)$$ que satisface, pero no como encontrarla. En este caso no existe una fórmula conveniente para la función, aunque sus derivadas parciales pueden expresarse convenientemente en términos de$$x$$,$$y$$, y$$u(x,y)$$:\ [ u_x (x, y) =-\ frac {f_x (x, y, u (x, y))} { f_u (x, y, u (x, y))},\ quad u_y (x, y) =-\ frac {_y (x, y, u (x, y))} {f_u (x, y, u (x, y))}. \] En particular, ya que$$u(1,-1)=1$$,\ [ u_x (1, -1) =-\ frac {0} {-7} =0,\ quad u_y (1, -1) =-\ frac {4} {-7} =\ frac {4} {7}. \]

Nuevamente, no es necesario memorizar, ya que las derivadas parciales de una función implícitamente definida pueden obtenerse a partir de la regla de la cadena y de la regla de Cramer, como en el siguiente ejemplo.

-.4em Es conveniente ampliar la notación introducida en la Sección 6.2 para el jacobiano de una transformación$$\mathbf{F}:\R^m\to \R^m$$. Si$$f_1$$,$$f_2$$,,$$f_m$$ son funciones de$$k$$ variables de valor real$$k\ge m$$,$$\xi_1$$, y$$\xi_2$$,,,$$\xi_m$$ son alguna$$m$$ de las variables, entonces llamamos al determinante\ [ \ izquierda|\ begin {array} {cccc} \ dst {\ frac {\ parcial f_1} {\ parcial\ xi_1}} & \ dst {\ frac {\ parcial f_1} {\ parcial\ xi_2}} &\ cdots& \ dst {\ frac {\ parcial f_1} {\ parcial\ xi_m}}\\ [3\ jot] \ dst {\ frac {\ parcial f_2} {\ parcial\ xi_1}} & \ dst {\ frac {\ parcial f_2} {\ parcial\ xi_2}} &\ cdots& \ dst {\ frac {\ parcial f_2} {\ parcial\ xi_m}}\\ [3\ jot] \ vdots&\ vdots&\ ddots& amp;\ vdots\\ [3\ jot] \ dst {\ frac {\ parcial f_m} {\ parcial\ xi_1}} & \ dst {\ frac {\ parcial f_m} {\ parcial\ xi_2}} &\ cdots& \ dst {\ frac {\ parcial f_m} {\ parcial\ xi_m}}\ end {array}\ derecha|, \] el {}. Denotamos a este jacobiano por \ [\ frac {\ partial (f_1, f_2,\ dots, f_m)} {\ partial (\ xi_1,\ xi_2,\ dots,\ xi_m)}, \] y denotamos el valor del jacobiano en un punto$$\mathbf{P}$$ por\ [ \ frac {\ partial (f_1, f_2,\ dots, f_m)} {\ parcial (\ xi_1,\ xi_2,\ dots,\ xi_m)}\ Bigg|_\ mathbf {P}. \]

El requisito en Teorem~ que$$\mathbf{F}_\mathbf{U}(\mathbf{X}_0,\mathbf{U}_0)$$ sea no singular es equivalente a\ [ \ frac {\ partial (f_1, f_2,\ dots, f_m)} {\ partial (u_1, u_2,\ dots, u_m)} \ Bigg|_ {(\ mathbf {X} _0,\ mathbf {U} _0)}\ ne0. \] Si esto es así entonces, para un fijo$$j$$, la regla de Cramer nos permite escribir la solución de como\ [ \ frac {\ parcial u_i} {\ parcial x_j} =- \ frac {\ dst {\ frac {\ parcial (f_1, f_2,\ dots, f_i,\ dots, f_m)} {\ partial (u_1, u_2,\ dots, x_j,\ puntos, u_m)}}} { \ dst {\ frac {\ parcial (f_1, f_2,\ puntos, f_i,\ puntos, f_m)} { \ partial (u_1, u_2,\ dots, u_i,\ dots, u_m)}}},\ quad 1\ le i\ le m, \] Observe que el determinante en el numerador de la derecha se obtiene reemplazando la$$i$$ ésima columna del determinante en el denominador, que es\ [ \ left [\ begin {array} {c}\ dst {\ frac {\ parcial f_1} {\ parcial u_i}}\\ [3\ jot] \ dst {\ frac {\ parcial f_2} {\ parcial u_i}}\\\ vdots\ \ dst {\ frac {\ parcial f_m} {\ parcial u_i}}\ end {array}\ derecha], \ mbox {\ quad por\ quad}\ izquierda [\ begin {array} {c}\ dst {\ frac {parcial\ f_1} { \ parcial x_j}}\\ [3\ jot] \ dst {\ frac {\ parcial f_2} {\ parcial x_j}}\\\ vdots\ \ dst {\ frac {\ parcial f _m} {\ parcial x_j}}\ end {array}\ right]. \]

Hasta ahora solo hemos considerado el problema de resolver un sistema continuamente diferenciable\ [\ begin {ecuación}\ label {eq:6.4.21} \ mathbf {F} (\ mathbf {X},\ mathbf {U}) =\ mathbf {0}\ quad (\ mathbf {F}:\ R^ {n+m}\ to \ r^m) \ end {ecuación}\] para el últimas$$m$$ variables,$$u_1$$,$$u_2$$,,$$u_m$$, en términos de la primera$$n$$,$$x_1$$,$$x_2$$,,$$x_n$$. Esto fue meramente por conveniencia; se puede resolver cerca$$(\mathbf{X}_0,\mathbf{U}_0)$$ para cualquiera$$m$$ de las variables en términos de la otra$$n$$, siempre que el jacobiano de$$f_1$$,,$$f_2$$,$$f_m$$ con respecto a las$$m$$ variables elegidas sea distinto de cero en$$(\mathbf{X}_0,\mathbf{U}_0)$$. Esto se puede ver renombrando las variables y aplicando Teorem~.

Cerramos esta sección observando que las funciones$$u_1$$,,$$u_2$$,$$u_m$$ definidas en Teorem~ tienen mayores derivadas si$$f_1,f_2, \dots,f_m$$ lo hacen, y pueden obtenerse diferenciando, usando la regla de la cadena. (Ejercicio~).

This page titled 6.1: Transformaciones lineales y matrices is shared under a CC BY-NC-SA 3.0 license and was authored, remixed, and/or curated by William F. Trench.