Loading [MathJax]/extensions/TeX/boldsymbol.js
Saltar al contenido principal
Library homepage
 

Text Color

Text Size

 

Margin Size

 

Font Type

Enable Dyslexic Font
LibreTexts Español

6.1: Transformaciones lineales y matrices

( \newcommand{\kernel}{\mathrm{null}\,}\)

En esta y subsiguientes secciones muchas veces será conveniente escribir vectores verticalmente; así, en lugar de\mathbf{X}=(x_1,x_2, \dots,x_n) escribiremos\ [ \ mathbf {X} =\ left [\ begin {array} {c} x_1\\ x_2\\ vdots\\ x_n\ end {array}\ right] \] cuando se trata de operaciones matriciales. Aunque suponemos que ha completado un curso de álgebra lineal, revisaremos las operaciones matriciales pertinentes.

Hemos definido funciones con valores vectoriales comon tuplas ordenadas de funciones de valor real, en conexión con funciones compuestash=f\circ \mathbf{G}, dondef es de valor real y\mathbf{G} de valor vectorial. Ahora consideramos las funciones con valores vectoriales como objetos de interés por sí mismas.

Sif_1,f_2,f_m son funciones de valor real definidas en un conjuntoD en\R^n, entonces\ [ \ mathbf {F} =\ left [\ begin {array} {c} f_1\\ f_2\\\ vdots\\ f_m\ end {array}\ right] \] asigna a cada\mathbf{X} enD unm -vector\ [ \ mathbf {F} (\ mathbf {X}) =\ left [\ begin {array} {c} f_1 (\ mathbf {X})\\ f_2 (\ mathbf {X}) \\\ vdots\\ f_m (\ mathbf {X})\ end {array}\ derecha]. \] Recordemos quef_1f_2,,f_m son los {}, o simplemente {}, de\mathbf{F}. Escribimos\ [ \ mathbf {F}:\ R^n\ a\ R^m \] para indicar que el dominio de\mathbf{F} esta en\R^n y el rango de\mathbf{F} esta en\R^m. También decimos que\mathbf{F} es un {}\R^n {}\R^m. Sim=1, nos identificamos\mathbf{F} con su función de componente únicof_1 y la consideramos como una función de valor real.

.75pz

Las transformaciones interesantes más simples de\R^n a\R^m son las {}, definidas de la siguiente manera

.75pz

Si se puede ver por inducción (Ejercicio~) que si\mathbf{L} es lineal, entonces\ [\ begin {ecuación}\ label {eq:6.1.2} \ mathbf {L} (a_1\ mathbf {X} _1+a_2\ mathbf {X} _2+\ cdots+a_k\ mathbf {X} _k) = a_1\ mathbf {L} (\ mathbf {X} _1) +a_2\ mathbf {L} (\ mathbf {X} _2) +\ cdots+a_k\ mathbf {L} (\ mathbf {X} _k) \ end {ecuación}\] para cualquier vector \mathbf{X}_1,\mathbf{X}_2,,\mathbf{X}_k y números realesa_1,a_2,,a_k. Cualquier\mathbf{X} in\R^n puede escribirse como\ [\ begin {eqnarray*} \ mathbf {X}\ ar=\ left [\ begin {array} {c} x_1\ x_2\\\ vdots\\ x_n\ end {array}\ right] =x_1\ left [\ begin {array} {c} 1\\ 0\\ vdots\\ 0\ end {array}\ derecha] +x_2\ izquierda [\ begin {array} {c} 0\\ 1\\\ vdots\\ 0\ end {array}\ derecha] +\ cdots +x_n\ izquierda [\ begin { array} {c} 0\\ 0\\ vdots\\ 1\ end {array}\ derecha]\\ \ ar=x_1\ mathbf {E} _1+x_2\ mathbf {E} _2+\ cdots+x_n\ mathbf {E} _n. \ end {eqnarray*}\] Aplicando conk=n,\mathbf{X}_i=\mathbf{E}_i, ya_i=x_i rinde\ [\ begin {ecuación}\ etiqueta {eq:6.1.3} \ mathbf {L} (\ mathbf {X}) =x_1\ mathbf {L} (\ mathbf {E} _1) +x_2\ mathbf {L} (\ mathbf {E } _2) +\ cdots+x_n\ mathbf {L} (\ mathbf {E} _n). \ end {ecuación}\] Ahora denota\ [ \ mathbf {L} (\ mathbf {E} _j) =\ left [\ begin {array} {c} a_ {1j}\\ a_ {2j}\\ \ vdots\\ a_ {mj}\ end {array}\ derecha], \] así se convierte en\ [ \ mathbf {L} (\ mathbf {X}) =x_1\ izquierda [\ begin {array} {c} a_ {11}\\ a_ {21}\\\ vdots\\ a_ {m1} \ end {array}\ derecha] +x_2\ left [\ begin {array} {c} a_ {12}\ \ a_ {22}\\\ vdots\\ a_ {m2}\ end {array} \ derecha] +\ cdots +x_n\ left [\ begin {array} {c} a_ {1n}\\ a_ {2n}\\\ vdots\\ a_ {mn}\ end {array} \ right], \] que es equivalente a. Esto demuestra que si\mathbf{L} es lineal, entonces\mathbf{L} tiene la forma. Te dejamos la prueba de lo contrario a ti (Ejercicio~).

Llamamos a la matriz rectangular\ [\ begin {ecuación}\ label {eq:6.1.4} \ mathbf {A} =\ left [\ begin {array} {cccc} a_ {11} &a_ {12} &\ cdots&a_ {1n}\\ a_ {21} &a_ {21} &\ cdots&a_ {2n}\ \ vdots&a_ &\ vdots&\ ddots&\ vdots\\ a_ {m1} &a_ {m2} &\ cdots&a_ {mn}\ end {array}\ derecha] \ end { ecuación}\]

el {} de la transformación lineal. El númeroa_{ij} en lai fila y la columnaj th de\mathbf{A} se llama {}\mathbf{A}. Decimos que\mathbf{A} es unam\times n matriz, ya que\mathbf{A} tienem filas yn columnas. A veces abreviaremos como\ [ \ mathbf {A} = [a_ {ij}]. \]

Ahora recordaremos las operaciones matriciales que necesitamos para estudiar el cálculo diferencial de las transformaciones.

Te dejamos las pruebas de los siguientes tres teoremas (Ejercicios~—)

El siguiente teorema muestra por qué Definition~ es apropiado. Te dejamos la prueba (Ejercicio~).

Si una función de valor realf: \R^n\to \R es diferenciable en\mathbf{X}_0, entonces\ [ d_ {\ mathbf {X} _0} f=f_ {x_1} (\ mathbf {X} _0)\, dx_1+f_ {x_2} (\ mathbf {X} _0)\, dx_2+\ cdots+f_ {x_n} (\ mathbf {X} _0)\, dx_n. \] Esto se puede escribir como un producto matricial\ [\ begin {ecuación}\ label {eq:6.1.5} d_ {\ mathbf {X} _0} f= [f_ {x_1} (\ mathbf {X} _0)\ quad f_ {x_2} (\ mathbf {X} _0)\ quad \ cdots\ quad f_ {x_n} (\ mathbf {X} _0)] \ left [\ begin {array} {c} dx_1\ dx_2\\ vdots\\ dx_n\ end {array}\ derecha]. \ end {ecuación}\] Definimos el {} por\ [\ begin {ecuación}\ label {eq:6.1.6} f' (\ mathbf {X} _0) = [f_ {x_1} (\ mathbf {X} _0)\ quad f_ {x_n} (\ mathbf {X} _0)\ quad\ cdots\ quad f_ {x_n} (\ mathbf {X} _0)] \ end {ecuación}\] y el {} por\ [ d\ mathbf {X} =\ left [\ begin {array} {c} dx_1\\ dx_2\\ vdots\\ dx_n\ end {array}\ right]. \]

Entonces se puede reescribir como\ [\ begin {ecuación}\ label {eq:6.1.7} d_ {\ mathbf {X} _0} f=f' (\ mathbf {X} _0)\, d\ mathbf {X}. \ end {ecuación}\]

Esto es análogo a la fórmula correspondiente para funciones de una variable (Ejemplo~), y muestra que la matriz diferencialf'(\mathbf{X}_0) es una generalización natural de la derivada. Con esta nueva notación podemos expresar la propiedad definitoria del diferencial de una manera similar a la forma que aplica paran=1:\ [ \ lim_ {\ mathbf {X}\ to\ mathbf {X} _0} \ frac {f (\ mathbf {X}) -f (\ mathbf {X} _0) -f' (\ mathbf {X} _ {0}) (\ mathbf {X} -\ mathbf {X} _0)} {|\ mathbf {X} -\ mathbf {X} _0|} =0, \] donde \mathbf{X}_0=(x_{10},x_{20}, \dots,x_{n0})yf'(\mathbf{X}_0)(\mathbf{X}-\mathbf{X}_{0}) es la matriz producto\ [ [f_ {x_1} (\ mathbf {X} _0)\ quad f_ {x_2} (\ mathbf {X} _0)\ quad\ cdots\ quad f_ {x_n} (\ mathbf {X} _0)] \ left [\ begin {array} {c} x_1-x_ {10}\ x_2-x_ {20}\\\ vdots\\ x_n-x_ {n0}\ end {array} \ derecha]. \]

Como antes, omitimos el\mathbf{X}_0 in y cuando no es necesario enfatizar el punto específico; así, escribimos\ [ f'= \ left [\ hskip-.5em\ begin {array} {cccc} f_ {x_1} &f_ {x_2} &\ cdots&f_ {x_n} \ end {array}\ hskip-.5em\ right] \ mbox {\ quad\ y\ quad} df=f'd\ mathbf {X}. \]

Necesitaremos la siguiente definición en la siguiente sección.

Para justificar esta definición, debemos demostrar que\|\mathbf{A}\| existe. Los componentes de\mathbf{Y}=\mathbf{AX} son\ [ y_i=a_ {i1} x_1+a_ {i2} x_2+\ cdots+a_ {in} x_n,\ quad 1\ le i\ le m. \] Por la desigualdad de Schwarz,\ [ y^2_i\ le (a^2_ {i1} +a^2_ {i2} +\ cdots+a^2_ _ {in}) |\ mathbf {X} |^2. \] Sumando esto sobre1\le i\le m rendimientos\ [ |\ mathbf {Y} |^2\ le\ left (\ sum^m_ {i=1}\ sum^n_ {j=1} a^2_ {ij}\ derecha) |\ mathbf {X} |^2. \] Por lo tanto, el conjunto\ [ B=\ set {K} {|\ mathbf {AX} |\ le K|\ mathbf {X} |\ mbox {\ quad para todos $\ mathbf {X} $ en $\ r^n$}} \] no está vacío. Ya queB está delimitado por debajo de cero,B tiene un infimum\alpha. Si\epsilon>0, entonces\alpha+\epsilon está adentroB porque si no, entonces ningún número menor al que\alpha+\epsilon podría estar enB. Entonces\alpha+\epsilon sería un límite inferior paraB, contradiciendo la definición de\alpha. De ahí que\ [ |\ mathbf {AX} |\ le (\ alpha+\ epsilon) |\ mathbf {X} |,\ quad\ mathbf {X}\ in\ r^n. \] Dado que\epsilon es un número positivo arbitrario, esto implica que\ [ |\ mathbf {AX} |\ le\ alpha |\ mathbf {X} |,\ quad\ mathbf {X}\ in\ r^N, \] así\alpha\in B. Como no hay menor número enB, concluimos que\|\mathbf{A}\|=\alpha.

En nuestras aplicaciones no tendremos que computar realmente la norma de una matriz\mathbf{A}; más bien, bastará con saber que la norma existe (finita).

Las transformaciones lineales de\R^n a\R^n serán importantes cuando discutamos el teorema de la función inversa en Sección~6.3 y el cambio de variables en múltiples integrales en Sección~7.3. La matriz de tal transformación es {}; es decir, tiene el mismo número de filas y columnas.

Suponemos que conoces la definición del determinante\ [\ det ( \ mathbf {A}) =\ izquierda|\ begin {array} {cccc} a_ {11} &a_ {12} &\ cdots&a_ {1n}\\ a_ {21} &a_ {22} &\ cdots&a_ {2n}\\ \ vdots&\ puntos&\ ddots&\ vdots\\ a_ {n1} &a_ {n2} &\ cdots&a_ {nn}\ end {array}\ derecha| \] de unan\times n matriz\ [ \ mathbf {A} =\ left [\ begin {array} {cccc} a_ {11} &a_ {12} &\ cdots&a_ {1n}\\ a_ {21} &a_ {22} &\ cdots&a_ {2n}\ \\ vdots&\ vdots&\ ddots&\ vdots\ _ {n1} &a_ {n2} &\ cdots&a_ {nn}\ end {array}\ right]. \]

El {},\mathbf{A}^t, de una matriz\mathbf{A} (cuadrada o no) es la matriz obtenida intercambiando las filas y columnas de\mathbf{A}; así, si\ [ \ mathbf {A} =\ left [\ begin {array} {ccr} 1&2 &3\\ 3&1 &4\\ 0&1 &-2\ end {array}\ right],\ mbox {\ quad entonces\ quad} \ mathbf {A} ^t=\ left [\ begin { array} {ccr} 1&3 &0\\ 2&1 &1\\ 3&4 &-2\ end {array}\ right]. \] Una matriz cuadrada y su transposición tienen el mismo determinante; así,\ [ \ det (\ mathbf {A} ^t) =\ det (\ mathbf {A}). \]

Tomamos el siguiente teorema del álgebra lineal como se da.

.2pc

Las entradasa_{ii},1\le i\le n, de unan\times n matriz\mathbf{A} están en el {} de\mathbf{A}. Lan\times n matriz con unos en la diagonal principal y ceros en otra parte se llama {} y se denota por\mathbf{I}; así, ifn=3, .4pc\ [ \ mathbf {I} =\ left [\ begin {array} {ccc} 1&0 &0\\ 0&1 &0\\ 0&0 &1\\ end {array}\ right]. \] .4pc Llamamos a\mathbf{I} la matriz de identidad porque\mathbf{A}\mathbf{I}= \mathbf{A} y\mathbf{I}\mathbf{A}=\mathbf{A} si\mathbf{A} es algunan\times n matriz. Decimos que unan\times n matriz\mathbf{A} es {} si hay unan\times n matriz\mathbf{A}^{-1}, la {}\mathbf{A}, tal que\mathbf{A}\mathbf{A}^{-1}=\mathbf{A}^{-1}\mathbf{A}=\mathbf{I}. De lo contrario, decimos que\mathbf{A} es {}

Nuestro principal objetivo es mostrar que unan\times n matriz no\mathbf{A} es singular si y solo si\det(\mathbf{A})\ne0. También encontraremos una fórmula para la inversa.

.1pc

Para una prueba del siguiente teorema, ver cualquier texto elemental de álgebra lineal.

Si calculamos\det(\mathbf{A}) a partir de la fórmula \ [\ det (\ mathbf {A}) =\ sum_ {k=1} ^na_ {ik} c_ {ik}, \]

decimos que somos {}. Ya que podemos elegiri arbitrariamente entre\{1, \dots,n\}, hayn formas de hacerlo. Si calculamos\det(\mathbf{A}) a partir de la fórmula \ [\ det (\ mathbf {A}) =\ sum_ {k=1} ^na_ {kj} c_ {kj}, \] decimos que somos {}. También hayn formas de hacerlo.

En particular, señalamos que\det(\mathbf{I})=1 para todosn\ge1.

Si\det(\mathbf{A})=0, entonces\det(\mathbf{A}\mathbf{B})=0 para cualquiern\times n matriz, por Teoremo~. Por lo tanto\det(\mathbf{I})=1, ya que, no existen\times n matriz matriz\mathbf{B} tal que\mathbf{A}\mathbf{B}=\mathbf{I}; es decir,\mathbf{A} es singular si\det(\mathbf{A})=0. Ahora supongamos eso\det(\mathbf{A})\ne0. Ya que implica que\ [ \ mathbf {A}\ adj (\ mathbf {A}) =\ det (\ mathbf {A})\ mathbf {I} \] e implica que\ [ \ adj (\ mathbf {A})\ mathbf {A} =\ det (\ mathbf {A})\ mathbf {I}, \] dividiendo ambos lados de estas dos ecuaciones por\det(\mathbf{A}) muestra que si\mathbf{A}^{-1} es como se define en, entonces\mathbf{A}\mathbf{A}^{-1}=\mathbf{A}^{-1}\mathbf{A}=\mathbf{I}. Por lo tanto,\mathbf{A}^{-1} es una inversa de\mathbf{A}. Para ver que es la única inversa, supongamos que\mathbf{B} es unan\times n matriz tal que\mathbf{A}\mathbf{B}=\mathbf{I}. Entonces\mathbf{A}^{-1}(\mathbf{A}\mathbf{B})=\mathbf{A}^{-1}, entonces(\mathbf{A}^{-1}\mathbf{A})\mathbf{B}=\mathbf{A}^{-1}. Desde\mathbf{A}\mathbf{A}^{-1}=\mathbf{I} y\mathbf{I}\mathbf{B}=\mathbf{B}, se deduce que\mathbf{B}=\mathbf{A}^{-1}.

Ahora considere la ecuación\ [\ begin {ecuación}\ label {eq:6.1.11} \ mathbf {A}\ mathbf {X} =\ mathbf {Y} \ end {ecuación}\] con\ [ \ mathbf {A} = \ left [\ begin {array} {cccc} a_ {11} &a_ {12} &\ cdots&a_ {1n}\ a_ {21} &a_ {22} &\ cdots&a_ {2n}\\ \ vdots&\ vdots&\ ddots&\ vdots\\ a_ {n1} &a_ {n2} &\ cdots&a_ {nn} \ end {array}\ derecha],\ quad \ mathbf {X} = \ left [\ begin {array} {c} x_1\\ x_2\\ vdots\\ x_n \ end {array}\ derecha], \ mbox {\ quad y\ quad} \ mathbf {Y} = \ left [\ begin {array} {c} y_1\\ y_2\\\ vdots\\ y_n \ end {array}\ right]. \] Aquí\mathbf{A} y\mathbf{Y} se dan, y el problema es encontrar\mathbf{X}.

Supongamos que eso no\mathbf{A} es singular, y vamos\mathbf{X}=\mathbf{A}^{-1}\mathbf{Y}. Entonces\ [ \ mathbf {A}\ mathbf {X} =\ mathbf {A} (\ mathbf {A} ^ {-1}\ mathbf {Y}) = (\ mathbf {A}\ mathbf {A} ^ {-1})\ mathbf {Y} =\ mathbf {I}\ mathbf {Y} =\ mathbf {Y}; \] es decir,\mathbf{X} es una solución de. Para ver esa\mathbf{X} es la única solución de, supongamos que\mathbf{A}\mathbf{X}_1=\mathbf{Y}. Entonces\mathbf{A}\mathbf{X}_1=\mathbf{A} \mathbf{X}, entonces\ [\ begin {eqnarray*} \ mathbf {A} ^ {-1} (\ mathbf {A}\ mathbf {X})\ ar= \ mathbf {A} ^ {-1} (\ mathbf {A}\ mathbf {X} _1)\\\ arraytext {y} \\ (\ mathbf {A} ^ {-1}\ mathbf {A} ^ {-1}\ mathbf {A}})\ mathbf {X}\ ar= (\ mathbf {A} ^ {-1}\ mathbf {A})\ mathbf {X} _1, \ end {eqnarray*}\] que es equivalente a\mathbf{I}\mathbf{X}=\mathbf{I}\mathbf{X}_1, o \mathbf{X}=\mathbf{X}_1.

Por el contrario, supongamos que tiene una solución para cada\mathbf{Y}, y dejar que\mathbf{X}_i satisfaga\mathbf{A}\mathbf{X}_i=\mathbf{E}_i,1\le i\le n. Que\ [ \ mathbf {B} = [\ mathbf {X} _1\,\ mathbf {X} _2\,\ cdots\,\ mathbf {X} _n]; \] es decir,\mathbf{X}_1,\mathbf{X}_2,,\mathbf{X}_n son las columnas de\mathbf{B}. Entonces\ [ \ mathbf {A}\ mathbf {B} = [\ mathbf {A}\ mathbf {X} _1\,\ mathbf {A}\ mathbf {X} _2\,\ cdots\,\ mathbf {A}\ mathbf {X} _n] = [\ mathbf {E} _1\,\ mathbf {E} _2\,\ cdots\,\ mathbf {E} _n] =\ mathbf {I}. \] Para demostrar eso\mathbf{B}=\mathbf{A}^{-1}, aún debemos demostrarlo\mathbf{B}\mathbf{A}=\mathbf{I}. Primero notamos que, desde\mathbf{A}\mathbf{B} =\mathbf{I} y\det(\mathbf{B}\mathbf{A})=\det(\mathbf{A}\mathbf{B})=1 (Teorem~),\mathbf{B}\mathbf{A} es no singular (Teorem~). Ahora tenga en cuenta que\ [ (\ mathbf {B}\ mathbf {A}) (\ mathbf {B}\ mathbf {A}) = \ mathbf {B} (\ mathbf {A}\ mathbf {B})\ mathbf {A}) =\ mathbf {B}\ mathbf {I}\ mathbf {A}; \] es decir,\ [ (\ mathbf {B}\ mathbf {A}) (\ mathbf {B}\ mathbf {A}) =(\ mathbf {B}\ mathbf {A}). \] Multiplicando ambos lados de esta ecuación a la izquierda por\mathbf{B}\mathbf{A})^{-1} rendimientos\mathbf{B}\mathbf{A}=\mathbf{I}.

El siguiente teorema da una fórmula útil para los componentes de la solución de.

De Teoremas ~ y, la solución de\mathbf{A}\mathbf{X}=\mathbf{Y} es\ [\ begin {eqnarray*} \ left [\ begin {array} {c} x_1\\ x_2\\\ vdots\\ x_n \ end {array}\ right] =\ mathbf {A} ^ {-1}\ mathbf {Y} \ ar=\ frac {1} {\ det (\ mathbf {A})} \ left [\ begin {array} {cccc} c_ {11} &c_ {21} &\ cdots&c_ {n1}\\ c_ {12} &c_ {22} & amp;\ cdots&c_ {n2}\\ \ cdots&\ cdots&\ ddots&\ cdots\\ c_ {1n} &c_ {2n} &\ cdots&c_ {nn} \ end {array}\ derecha] \ left [\ begin {array} {c} y_1\\ y_2\\\ vdots\\ y_n end {array}\ derecha]\\ \ ar= \ izquierda [\ begin {array} {c} c_ {11} y_1+c_ {21} y_2+\ cdots+c_ {n1} y_n\\ c_ {12} y_1+c_ {22} y_2+\ cdots+c_ {n2} y_n\\ \ vdots\\ c_ {1n} y_1+c_ {2n} y_2+\ cdots+c_ {nn} y_n \ end {array}\ right]. \ end {eqnarray*}\] Pero\ [ c_ {11} y_1+c_ {21} y_2+\ cdots+c_ {n1} y_n= \ izquierda|\ begin {array} {cccc} y_1&a_ {12} &\ cdots&a_ {1n}\\ y_2&a_ {22} &\ puntos&a_ {2n}\\ \ vdots&\ vdots&\ ddots&\ vdots\\ y_n&a_ {n2} &\ cdots&a_ {nn}\ end {array}\ derecha|, \]

como puede verse expandiendo el determinante a la derecha en cofactores de su primera columna. Del mismo modo,\ [ c_ {12} y_1+c_ {22} y_2+\ cdots+c_ {n2} y_n= \ izquierda|\ begin {array} {ccccc} a_ {11} &y_1&a_ {13} &\ cdots&a_ {1n}\\ a_ {21} &y_2&a_ {23} &\ cdots&a_ {2n}\ \\ vdots&\ vdots&\ vdots&\ ddots&\ vdots\\ a_ {n1} &y_n&a_ {n3} &\ cdots&a_ {nn}\ end {array}\ derecha|, \] como puede verse expandiendo el determinante a la derecha en cofactores de su segunda columna. Continuando de esta manera completa la prueba.

Un sistema den ecuaciones enn incógnitas\ [\ begin {ecuación}\ label {eq:6.1.12} \ begin {array} {rcl} a_ {11} x_1+a_ {12} x_2+\ cdots+a_ {1n} x_n\ ar=0\\ a_ {21} x_1+a_ {22} x_2+\ cdots+a_ {2n} x_n\ ar=0\\ &\ vdots&\\ a_ {n1} x_1+a_ {n2} x_2+\ cdots+a_ {nn} x_n\ ar=0 \ end {array} \ end { ecuación}\] (o, en forma de matriz,\mathbf{A}\mathbf{X}=\mathbf{0}) es {}. Es obvio que\mathbf{X}_0=\mathbf{0} satisface este sistema. A esto lo llamamos el {} de. Cualquier otra solución de, si existen, son {}.

Vamos a necesitar los siguientes teoremas. Las pruebas se pueden encontrar en cualquier texto de álgebra lineal.

A lo largo del resto de este capítulo, las transformaciones\mathbf{F} y los puntos\mathbf{X} deben considerarse escritos en forma vertical cuando ocurren en relación con operaciones matriciales. Sin embargo, vamos a escribir\mathbf{X}=(x_1,x_2, \dots,x_n) cuándo\mathbf{X} es el argumento de una función.

-.2em En la Sección~5.2 definimos una función de valor vectorial (transformación) para que sea continua en\mathbf{X}_0 si cada una de sus funciones componentes es continua en\mathbf{X}_0. Te dejamos demostrar que esto implica el siguiente teorema (Ejercicio~1).

Este teorema es lo mismo que Teorem~ excepto que el ``valor absoluto” en ahora representa distancia en\R^m lugar de\R.

Si\mathbf{C} es un vector constante, entonces ``\lim_{\mathbf{X}\to\mathbf{X}_0}\mathbf{F}(\mathbf{X})=\mathbf{C}” significa que\ [ \ lim_ {\ mathbf {X}\ a\ mathbf {X} _0} |\ mathbf {F} (\ mathbf {X}) -\ mathbf {C} |=0. \] Teoremo~ implica que\mathbf{F} es continuo en\mathbf{X}_{0} si y solo si\ [ \ lim_ {\ mathbf {X}\ a\ mathbf {X} _0}\ mathbf {F} (\ mathbf {X}) =\ mathbf {F} (\ mathbf {X} _0). \]

En Sección~5.4 definimos una función de valor vectorial (transformación) para ser diferenciable en\mathbf{X}_0 si cada uno de sus componentes es diferenciable en\mathbf{X}_0 (Definición~). El siguiente teorema caracteriza esta propiedad de manera útil.

Vamos\mathbf{X}_0=(x_{10},x_{20}, \dots,x_{n0}). Si\mathbf{F} es diferenciable en\mathbf{X}_0, entonces también lo sonf_1,f_2,,f_m (Definición~). Por lo tanto, \ [\ lim_ {\ mathbf {X}\ a\ mathbf {X} _0}\ frac {\ dst {f_i (\ mathbf {X}) -f_i (\ mathbf {X} _0) - \ sum_ {j=1} ^n\ frac {\ parcial f_i (\ mathbf {X} _0)} {\ parcial x_j} (x_j-x_ {j0})}} {|\ mathbf {X} -\ mathbf {X} _ _ {0} |} =0, \ quad 1\ le i\ le m, \] lo que implica con\mathbf{A} como en.

Ahora supongamos que eso se sostiene con\mathbf{A}=[a_{ij}]. Dado que cada componente del vector en se aproxima a cero como se\mathbf{X} aproxima\mathbf{X}_0, se deduce que \ [\ lim_ {\ mathbf {X}\ a \ mathbf {X} _0}\ frac {\ dst {f_i (\ mathbf {X}) -f_i (\ mathbf {X} _0) -\ dst {\ sum_ {j=1} ^n} a_ {ij} (xj-x_ {j0})}} {|\ mathbf {X} -\ mathbf {X} _0|} =0,\ quad 1\ le i\ le m, \] entonces cada unof_i es diferenciable en\mathbf{X}_0, y por lo tanto también lo es\mathbf{F} (Definición~). Por Teoremo~,\ [ a_ {ij} =\ frac {\ parcial f_i (\ mathbf {X} _0)} {\ parcial x_j},\ quad 1\ le i\ le m, \ quad 1\ le j\ le n, \] lo que implica.

Una transformación\mathbf{T}: \R^n\to\R^m de la forma\ [ \ mathbf {T} (\ mathbf {X}) =\ mathbf {U} +\ mathbf {A} (\ mathbf {X} -\ mathbf {X} _0), \] donde\mathbf{U} es un vector constante en\R^m,\mathbf{X}_0 es un vector constante en\R^n, y\mathbf{A} es unam \times n matriz constante, se dice que es {}. Teorem~ dice que si\mathbf{F} es diferenciable en\mathbf{X}_0, entonces\mathbf{F} puede ser bien aproximado por una transformación afín.

Si\mathbf{F}=(f_1,f_2, \dots,f_m) es diferenciable en\mathbf{X}_0, definimos el {}\mathbf{X}_0 como la transformación lineal\ [\ begin {ecuación}\ label {eq:6.2.4} d_ {\ mathbf {X} _0}\ mathbf {F} =\ left [\ begin {array} {c} d_ {\ mathbf {X} _0} f_1\\ d_ {\ mathbf {X} _0} f_2\\ \ vdots\\ d_ {\ mathbf {X} _0} f_m\ end {array}\ right]. \ end {ecuación}\] Llamamos a la matriz\mathbf{A} in y la denotamos por\mathbf{F}'(\mathbf{X}_{0}); así,\ [\ begin {ecuación}\ label {eq:6.2.5} \ mathbf {F} '(\ mathbf {X} _0) =\ left [\ begin {array} {cccc}\ dst {\ frac {\ parcial f_1 (\ mathbf {X} _0)} {\ parcial x_0) 1}} &\ dst {\ frac {\ parcial f_1 (\ mathbf {X} _0)} {\ parcial x_2}} & \ cdots&\ dst {\ frac {\ parcial f_1 (\ mathbf {X} _0)} {\ parcial x_n}}\\ [3\ jot] \ dst {\ frac {\ parcial f_2 (\ mathbf {X} _0)} {\ parcial x_1}} & \ dst {\ frac {\ parcial f_2 (\ mathbf {X} _0)} {\ parcial x_2}} &\ cdots& \ dst {\ frac {\ parcial f_2 (\ mathbf {X} _0)} {\ parcial x_n}}\\ [3\ jot] \ vdots&\ vdots&\ ddots&\ vdots\\ [3\ jot] \ dst {\ frac {\ parcial f_m (\ mathbf {X} _0)} {\ parcial x_1}} & \ dst {\ frac {\ parcial f_m (\ mathbf {X} _0)} {\ parcial x_2}} &\ cdots& \ dst {\ frac {\ f_parcial m (\ mathbf {X} _0)} {\ parcial x_n}}\ end {array} \ derecha]. \ end {ecuación}\]

(Es importante tener en cuenta que si bien\mathbf{F} es una función de\R^n a\R^m, no\mathbf{F'} es tal función;\mathbf{F}' es unam\times n matriz.) Desde Teorem~, el diferencial puede escribirse en términos de la matriz diferencial como\ [\ begin {ecuación}\ label {eq:6.2.6} d_ {\ mathbf {X} _0}\ mathbf {F} =\ mathbf {F} '(\ mathbf {X} _0)\ left [\ begin {array} {c} dx_1\\ dx_2\ \ vdots\\ dx_n\ end {array}\ derecha] \ end {ecuación}\] o, más sucintamente, como\ [ d_ {\ mathbf {X } _0}\ mathbf {F} =\ mathbf {F} '(\ mathbf {X} _0)\, d\ mathbf {X}, \] donde\ [ d\ mathbf {X} =\ left [\ begin {array} {c} dx_1\ dx_2\\ vdots\\ dx_n\ end {array} \ right], \] como se definió anteriormente.

Cuando no es necesario enfatizar el punto particular\mathbf{X}_0, escribimos como\ [ d\ mathbf {F} =\ left [\ begin {array} {c} df_1\\ df_2\\\ vdots\\ df_m\ end {array}\ right], \] como .5pc\ [ \ mathbf {F} '=\ left [\ begin {array} {cccc}\ dst {frac {\ parcial f_1} {\ parcial x_1}} &\ dst {\ frac {\ parcial f_1} {\ parcial x_2}} &\ cdots& \ dst {\ frac {\ parcial f_1} {\ parcial x_n}}\\ [3\ jot] \ dst {\ frac {\ parcial f_2} {\ parcial x_1}} & \ dst {\ frac {\ parcial f_2} {\ parcial x_2}} &\ cdots& \ dst {\ frac {parcial\ f_2} {\ parcial x_n}}\\ [3\ jot] \ vdots&\ vdots&\ ddots&\ vdots\\ [3\ jot] \ dst { \ frac {\ parcial f_m} {\ parcial x_1}} & \ dst {\ frac {\ parcial f_m} {\ parcial x_2}} &\ cdots& \ dst {\ frac {\ parcial f_m} {\ parcial x_n}}\ end {array}\ derecho], \] .5pc y como\ [ d\ mathbf {F} =\ mathbf {F} '\, d\ mathbf {X}. \]

Con la notación diferencial podemos reescribir como\ [ \ lim_ {\ mathbf {X}\ a\ mathbf {X} _0}\ frac {\ mathbf {F} (\ mathbf {X}) -\ mathbf {F} (\ mathbf {X} _ {0}) - \ mathbf {F} '(\ mathbf {X} _0) (\ mathbf {X} _0) (\ mathbf {X} -\ mathbf {X} _0)} {|\ mathbf {X} -\ mathbf {X} _0|} =\ mathbf {0}. \]

Sim=n, la matriz diferencial es cuadrada y su determinante se llama {}. La notación estándar para este determinante es\ [ \ frac {\ partial (f_1, f_2,\ dots, f_n)} {\ partial (x_1, x_2, \ dots, x_n)} = \ izquierda|\ begin {array} {cccc}\ dst {\ frac {\ parcial f_1} {\ parcial x_1}} & \ dst {\ frac {\ parcial f_1} {\ parcial x_2}} &\ cdots& \ dst {\ frac {\ parcial f_1} {\ parcial x_n}}\\ [3\ jot] \ dst {\ frac {\ parcial f_2} {\ parcial x_1}} &\ dst {\ frac {\ parcial f_2} {\ parcial x_2}} &\ cdots&\ dst {\ frac {\ parcial f_2} { \ parcial x_n}}\\ [3\ jot] \ vdots&\ vdots&\ ddots&\ puntos\\ [3\ jot] \ dst {\ frac {\ parcial f_n} {\ parcial x_1}} &\ dst {\ frac {\ parcial f_n} {\ parcial x_2}} &\ cdots&\ dst {\ frac {\ parcial f_n} { \ parcial x_n}}\ end {array}\ derecha|. \] A menudo escribiremos el jacobiano de\mathbf{F} más simplemente comoJ(\mathbf{F}), y su valor en\mathbf{X}_0 asJ\mathbf{F}(\mathbf{X}_0).

Dado que unan\times n matriz es no singular si y solo si su determinante es distinto de cero, se deduce que si\mathbf{F}: \R^n\to \R^n es diferenciable en\mathbf{X}_0, entonces\mathbf{F}'(\mathbf{X}_{0}) es no singular si y solo siJ\mathbf{F}(\mathbf{X}_0)\ne0. Pronto usaremos este importante hecho.

Te dejamos la prueba del siguiente teorema (Ejercicio~).

Teorem~ y Definición~ implican el siguiente teorema.

Decimos que\mathbf{F} es {} en un conjuntoS siS está contenido en un conjunto abierto sobre el que las derivadas parciales en son continuas. Los tres siguientes lemmas dan propiedades de transformaciones continuamente diferenciables que necesitaremos más adelante.

Considera la función auxiliar\ [\ begin {ecuación}\ label {eq:6.2.9} \ mathbf {G} (\ mathbf {X}) =\ mathbf {F} (\ mathbf {X}) -\ mathbf {F} '(\ mathbf {X} _0)\ mathbf {X}. \ end {ecuación}\] Los componentes de\mathbf{G} son\ [ g_i (\ mathbf {X}) =f_i (\ mathbf {X}) -\ sum_ {j=1} ^n \ frac {\ parcial f_i (\ mathbf {X} _ {0}) \ parcial x_j} x_j, \] so\ [\ frac { \ parcial g_i (\ mathmathi (\ mathbf {X})} {\ parcial x_j} = \ frac {\ parcial f_i (\ mathbf {X})} {\ parcial x_j} -\ frac {\ parcial f_i (\ mathbf {X} _0)} {\ parcial x_j}. \]

Así,\partial g_i/\partial x_j es continuo encendidoN y cero en\mathbf{X}_0. Por lo tanto, hay\delta>0 tal que\ [\ begin {ecuación}\ label {eq:6.2.10} \ izquierda|\ frac {\ parcial g_i (\ mathbf {X})} {\ parcial x_j}\ derecha|<\ frac {\ épsilon} { \ sqrt {mn}}\ mbox {\ quad for\ quad} 1\ le i\ m,\ 1\ le j\ le n, \ mbox {\ quad si\ quad} |\ mathbf {X} -\ mathbf {X} _0|<\ delta. \ end {ecuación}\] Ahora supongamos que\mathbf{X},\mathbf{Y}\in B_\delta(\mathbf{X}_0). Por Teoremo~,\ [\ begin {ecuación}\ label {eq:6.2.11} g_i (\ mathbf {X}) -g_i (\ mathbf {Y}) =\ sum_ {j=1} ^n \ frac {\ parcial g_i (\ mathbf {X} _i)} {\ parcial x_j} (x_j-y_j), \ end {ecuación}\] donde\mathbf{X}_i está en el segmento de línea de\mathbf{X} a\mathbf{Y}, entonces\mathbf{X}_i\in B_\delta(\mathbf{X}_0). De,, y la desigualdad de Schwarz,\ [ (g_i (\ mathbf {X}) -g_i (\ mathbf {Y})) ^2\ le\ left (\ sum_ {j=1} ^n\ left [\ frac {\ partial g_i (\ mathbf {X} _i)} {\ partial x_j}\ right] ^2\ right) |\ mathbf {X} -\ mathbf {Y} |^2 <\ frac {\ epsilon^2} {m} |\ mathbf {X} -\ mathbf {Y} |^2. \] Sumando esto dei=1 ai=m y tomando raíces cuadradas rinde\ [\ begin {ecuación}\ label {eq:6.2.12} |\ mathbf {G} (\ mathbf {X}) -\ mathbf {G} (\ mathbf {Y}) |<\ epsilon |\ mathbf {X} -\ mathbf {Y} | \ mbox {quad\ if\ quad}\ mathbf {X},\ mathbf {Y}\ en B_\ delta (\ mathbf {X} _0). \ end {ecuación}\] Para completar la prueba, observamos que\ [\ begin {ecuación}\ label {eq:6.2.13} \ mathbf {F} (\ mathbf {X}) -\ mathbf {F} (\ mathbf {Y}) = \ mathbf {G} (\ mathbf {X}) -\ mathbf {G} (\ mathbf {Y}) +\ mathbf bf {F} '(\ mathbf {X} _0) (\ mathbf {X} -\ mathbf {Y}), \ end {ecuación}\] así y la desigualdad triángulo implica.

Dejar\mathbf{X} y\mathbf{Y} ser arbitrarios puntos adentroD_\mathbf{F} y dejar\mathbf{G} ser como en. De,\ [\ begin {ecuación}\ label {eq:6.2.16} |\ mathbf {F} (\ mathbf {X}) -\ mathbf {F} (\ mathbf {Y}) |\ ge\ big| |\ mathbf {F} '(\ mathbf {X} _0) (\ mathbf {X} -\ mathbf {Y}) |-|\ mathbf {G} (\ mathbf {X}) -\ mathbf {G} (\ mathbf {Y}) |\ big|, \ end {ecuación}\] Desde\ [ \ mathbf {X} -\ mathbf {Y} = [\ mathbf {F}' (\ mathbf {X} _0)] ^ {-1} \ mathbf {F} '(\ mathbf {X} _ {0}) (\ mathbf {X} -\ mathbf {Y}), \] implica que\ [ |\ mathbf {X} -\ mathbf {Y} |\ le\ frac {1} {r} |\ mathbf {F}' (\ mathbf {X} _0) (\ mathbf {X} -\ mathbf {X} -\ mathbf bf {Y} |, \] así\ [\ begin {ecuación}\ label {eq:6.2.17} |\ mathbf {F} '(\ mathbf {X} _0) (\ mathbf {X} -\ mathbf {Y}) |\ ge r|\ mathbf {X} -\ mathbf {Y} |. \ end {ecuación}\] Ahora elige\delta>0 para que se mantenga. Entonces e implica.

Ver Ejercicio~ para una conclusión más fuerte en el caso donde\mathbf{F} es lineal.

On\ [ S=\ set {(\ mathbf {X},\ mathbf {Y})} {\ mathbf {X},\ mathbf {Y}\ en D}\ subconjunto\ R^ {2n} \] definir\ [ g (\ mathbf {X},\ mathbf {Y}) =\ left\ {\ casespace\ begin {array} {ll} \ dst {\ frac {|\ mathbf {F} (\ mathbf {Y}) - \ mathbf {F} (\ mathbf {X}) -\ mathbf {F} '(\ mathbf {X}) (\ mathbf {Y} -\ mathbf {X}) |} {|\ mathbf {Y} -\ mathbf {X} |}}, & \ mathbf {Y}\ ne\ mathbf {X},\\ [2\ jot] 0, &\ mathbf {Y} =\ mathbf {X}. \ end {array}\ derecho. \] Entoncesg es continuo para todos(\mathbf{X},\mathbf{Y}) enS tal que\mathbf{X}\ne \mathbf{Y}. Ahora demostramos que si\mathbf{X}_0\in D, entonces

\ [\ begin {ecuación}\ label {eq:6.2.19} \ lim_ {(\ mathbf {X},\ mathbf {Y})\ to (\ mathbf {X} _0,\ mathbf {X} _0)} g (\ mathbf {X},\ mathbf {Y}) =0 =g (\ mathbf {X} _0,\ mathbf {X} _0); \ end {ecuación}\]

es decir, tambiéng es continuo en puntos(\mathbf{X}_0,\mathbf{X}_0) enS.

Supongamos que\epsilon>0 y\mathbf{X}_0\in D. Dado que las derivadas parciales def_1f_2,,,f_m son continuas en un conjunto abierto que contieneD, hay\delta>0 tal que\ [\ begin {ecuación}\ label {eq:6.2.20} \ izquierda|\ frac {\ parcial f_i (\ mathbf {Y})} {\ parcial x_j} -\ frac {\ parcial f_i (\ mathbf {X}) } {\ parcial x_j}\ derecha|& lt;\ frac {\ épsilon} {\ sqrt {mn}}\ mbox {\ quad if\ quad} \ mathbf {X},\ mathbf {Y}\ in B_\ delta (\ mathbf {X} _0),\ 1\ le i\ le m,\ 1\ le j\ le n. \ end {ecuación}\] (Tenga en cuenta que\partial f_i/\partial x_j es uniformemente continuo en\overline{B_\delta(\mathbf{X}_0)}\delta suficientemente pequeño, del Teorem~.) Aplicando Teorem~ af_1f_2,f_m,, nos encontramos con que si\mathbf{X}\mathbf{Y}\in B_\delta (\mathbf{X}_0),, entonces\ [ f_i (\ mathbf {Y}) -f_i (\ mathbf {X}) =\ sum_ {j=1} ^n \ frac {\ parcial f_i (\ mathbf {X} _ _ {i})} {\ parcial x_j} (y_j-x_j), \] donde\mathbf{X}_i esta en el segmento de línea de\mathbf{X} a \mathbf{Y}. A partir de esto,\ [\ begin {eqnarray*} \ left [f_i (\ mathbf {Y}) -f_i (\ mathbf {X}) -\ dst {\ sum_ {j=1} ^n} \ frac {\ parcial f_i (\ mathbf {X})} {\ parcial x_j} (y_j-x_j)\ derecha] ^2 \ ar=\ izquierda [\ sum_ {j=1} ^n\ izquierda [\ frac {\ parcial f_i (\ mathbf {X} _i)} {\ parcial x_j} - \ frac {\ parcial f_i (\ mathbf {X})} {\ parcial x_j}\ derecha] (y_j-x _j)\ derecha] ^2\\ \ ar\ le |\ mathbf {Y} -\ mathbf {X} |^2\ sum_ {j=1} ^n \ izquierda [\ frac {\ parcial f_i (\ mathbf {X} _ _ {i})} {\ parcial x_j} -\ frac {\ parcial f_i (\ mathbf {X})} {parcial\ x_j}\ derecha] ^2\\ \ ar {}\ mbox {(por la desigualdad de Schwarz)}\\ \ ar<\ frac {\ épsilon^2} {m} |\ mathbf {Y} -\ mathbf {X} |^2\ quad\ mbox {\ quad ( por \ eqref {eq:6.2.20})\ quad}. \ end {eqnarray*}\] Sumando dei=1 ai=m y tomando raíces cuadradas rinde\ [ |\ mathbf {F} (\ mathbf {Y}) -\ mathbf {F} (\ mathbf {X}) -\ mathbf {F} '(\ mathbf {X}) (\ mathbf {Y} -\ mathbf {X}) | <\ epsilon |\ mathbf {Y} -\ mathbf {X} |\ mbox {\ quad si\ quad} \ mathbf {X},\ mathbf {Y}\ en B_\ delta (\ mathbf {X} _0 ). \] Esto implica y completa la prueba queg es continuaS.

Ya queD es compacto, también lo esS (Ejercicio~). Por lo tanto,g se limita aS (Teorem~); asíM_1, para algunos,\ [ |\ mathbf {F} (\ mathbf {Y}) -\ mathbf {F} (\ mathbf {X}) -\ mathbf {F} '(\ mathbf {X}) (\ mathbf {Y} -\ mathbf {X}) |\ le M_1|\ mathbf {X} -\ mathbf {Y} |\ mbox {\ quad if\ quad} \ mathbf {X},\ mathbf {Y}\ en D. \] Pero\ [\ begin {ecuación}\ label {eq:6.2.21} \ begin {array} {rcl} |\ mathbf {F} (\ mathbf {Y}) -\ mathbf {F} (\ mathbf {X}) |\ ar\ le |\ mathbf {F} (\ mathbf {Y}) -\ mathbf {F} (\ mathbf {X}) -\ mathbf {F} '(\ mathbf {X}) (\ mathbf {Y} -\ mathbf {X}) |+|\ mathbf {F}' (\ mathbf {X}) (\ mathbf {Y} -\ mathbf {X}) |\ \ ar\ le (M_1+\ |\ mathbf {F} '(\ mathbf {X})\ |) | (\ mathbf {Y} -\ mathbf {X} |. \ end {array} \ end {ecuación}\] Desde\ [ \ |\ mathbf {F} '(\ mathbf {X})\ | \ le\ left (\ suma_ {i=1} ^m\ suma_ {j=1} ^n\ izquierda [\ frac {\ parcial f_i (\ mathbf {X})} {\ parcial x_j}\ derecha] ^2\ derecha) {1/2} \] y las derivadas parciales\{\partial f_i/\partial x_j\} están delimitadas sobreD, se deduce que\|\mathbf{F}'(\mathbf{X})\| está delimitada en D; es decir, hay una constanteM_2 tal que\ [ \ |\ mathbf {F} '(\ mathbf {X})\ |\ le M_2,\ quad\ mathbf {X}\ en D. \] Ahora implica conM=M_1+M_2.

Mediante el uso de matrices diferenciales, podemos escribir la regla de cadena para transformaciones en una forma análoga a la forma de la regla de cadena para funciones de valor real de una variable (Teorem~).

Los componentes de\mathbf{H} sonh_1,h_2,h_m, donde\ [ h_i (\ mathbf {U}) =f_i (\ mathbf {G} (\ mathbf {U})). \] Aplicando Teorem~ ah_i rendimientos\ [\ begin {ecuación}\ label {eq:6.2.24} d_ {\ mathbf {U} _0} h_i=\ sum_ {j=1} ^n\ frac {\ parcial f_i (\ mathbf {X} _ {0})} {\ parcial x_j} d_ {\ mathbf {U} _0} g_j,\ quad 1\ le i\ le m. \ fin {ecuación}\]

Desde\ [ d_ {\ mathbf {U} _0}\ mathbf {H} =\ izquierda [\ begin {array} {c} d_ {\ mathbf {U} _0} h_1\ d_ {\ mathbf {U} _0} h_2\ \ vdots\\ d_ {\ mathbf {U} _0} h_m\ end {array}\ derecha]\ mbox { \ quad y\ quad} d_ {\ mathbf {U} _0}\ mathbf {G} = \ left [\ begin {array} {c} d_ {\ mathbf {U} _0} g_1\ d_ {\ mathbf {U} _0} g_2\ \ vdots\\ d_ {\ mathbf {U} _0} g_n \ end {array}\ right], \] 5pt lasm ecuaciones en pueden escribirse en forma de matriz como\ [\ begin {ecuación}\ label {eq:6.2.25} d_ {\ mathbf {U} _0}\ mathbf {H} =\ mathbf {F} '(\ mathbf {X} _0) d_ {\ mathbf {U} _0}\ mathbf {G} = \ mathbf {F}' (\ mathbf {G} (\ mathbf {U} _0)) d_ {\ mathbf {U} _0}\ mathbf {G}. \ end {ecuación}\] Pero\ [ d_ {\ mathbf {U} _0}\ mathbf {G} =\ mathbf {G} '(\ mathbf {U} _0)\, d\ mathbf {U}, \] donde\ [ d\ mathbf {U} =\ left [\ begin {array} {c} du_1\\ du_2\\ vdots\\ du_k\ end {array}\ right], \] así se puede reescribir como\ [ d_ {\ mathbf {U} _0}\ mathbf {H} = \ mathbf {F}' (\ mathbf {G} (\ mathbf {U} _0)) \ mathbf {G} '(\ mathbf {U} _0)\, d\ mathbf {U}. \] Por otro lado,\ [ d_ {\ mathbf {U} _0}\ mathbf {H} =\ mathbf {H} '(\ mathbf {U} _0)\, d\ mathbf {U}. \] Comparando los rendimientos de las dos últimas ecuaciones. Dado que\mathbf{G}'(\mathbf{U}_0) es la matriz ded_{\mathbf{U}_0}\mathbf{G} y\mathbf{F}'(\mathbf{G}(\mathbf{U}_0))=\mathbf{F}'(\mathbf{X}_0) es la matriz ded_{\mathbf{X}_0}\mathbf{F}, Teorem~

e imply~.

Hasta ahora nuestra discusión sobre las transformaciones ha tratado principalmente de propiedades que bien podrían definirse y estudiarse considerando las funciones componentes individualmente. Ahora nos dirigimos a preguntas que implican una transformación en su conjunto, que no se puede estudiar considerándola como una colección de funciones componentes independientes.

En esta sección restringimos nuestra atención a las transformaciones de\R^n a sí mismo. Es útil interpretar dichas transformaciones geométricamente. Si\mathbf{F}=(f_1,f_2, \dots,f_n), podemos pensar en los componentes de\ [ \ mathbf {F} (\ mathbf {X}) =( f_1 (\ mathbf {X}), f_2 (\ mathbf {X}),\ dots, f_n (\ mathbf {X})) \] como las coordenadas de un punto\mathbf{U}=\mathbf{F}(\mathbf{X}) en otra ``copia” de\R^n. Así,\mathbf{U}=(u_1,u_2, \dots,u_n), con\ [ u_1=f_1 (\ mathbf {X}),\ quad u_2=f_2 (\ mathbf {X}),\ quad\ dots,\ quad u_n= f_n (\ mathbf {X}). \] Decimos eso\mathbf{F} {}, y eso\mathbf{U} {}\mathbf{F}. Ocasionalmente también escribiremos\partial u_i/ \partial x_j para significar\partial f_i/\partial x_j. SiS\subset D_\mathbf{F}, entonces el conjunto\ [ \ mathbf {F} (S) =\ set {\ mathbf {U}} {\ mathbf {U} =\ mathbf {F} (\ mathbf {X}),\,\ mathbf {X}\ in S} \] es el {}.

A menudo denotaremos los componentes de\mathbf{X} byx,y,, y los componentes de\mathbf{U} byu,v,.

6pt

12pt

-.15em Una transformación\mathbf{F} es {}, o {}, si\mathbf{F}(\mathbf{X}_1) y\mathbf{F}(\mathbf{X}_2) son distintos siempre\mathbf{X}_1 y\mathbf{X}_2 son puntos distintos deD_\mathbf{F}. En este caso, podemos definir una función\mathbf{G} en el rango\ [ R (\ mathbf {F}) =\ set {\ mathbf {U}} {\ mathbf {U} =\ mathbf {F} (\ mathbf {X})\ mbox {para algunos}\ mathbf {X}\ en D_\ mathbf {F}} \] de\mathbf{F}\mathbf{G}(\mathbf{U}) definiendo ser el punto único enD_\mathbf{F} tal que\mathbf{F}(\mathbf{U}) =\mathbf{U}. Entonces\ [ D_\ mathbf {G} =R (\ mathbf {F})\ mbox {\ quad y\ quad} R (\ mathbf {G}) =D_\ mathbf {F}. \] Además,\mathbf{G} es uno a uno,\ [ \ mathbf {G} (\ mathbf {F} (\ mathbf {X})) =\ mathbf {X},\ quad\ mathbf {X}\ en D_\ mathbf {F}, \] y\ [ \ mathbf {F} (\ mathbf {G} (\ mathbf {U})) =\ mathbf {U},\ quad\ mathbf {U}\ en D_\ mathbf {G}. \] Decimos que\mathbf{G} es el {} de\mathbf{F}, y escribimos\mathbf{G}=\mathbf{F}^{-1}. La relación entre\mathbf{F} y\mathbf{G} es simétrica; es decir,\mathbf{F} es también la inversa de\mathbf{G}, y escribimos\mathbf{F}= \mathbf{G}^{-1}.

La diferencia crucial entre las transformaciones de Ejemplos~ y es que la matriz de\mathbf{L} es no singular mientras que la matriz de\mathbf{L}_1 es singular. Así,\mathbf{L} (ver) se puede escribir como\ [\ begin {ecuación}\ label {eq:6.3.5} \ left [\ begin {array} {c} u\\ v\ end {array}\ right] =\ left [\ begin {array} {rr} 1&-1\\ 1& 1\ end {array}\ right]\ left [\ begin {array} {c} x\\ y\ end {array}\ derecha], \ end {ecuación}\] donde la matriz tiene la inversa\ [ \ left [ \ begin {array} {rr}\ frac {1} {2} &\ frac {1} {2}\\ [3\ jot] -\ frac {1} {2} &\ frac {1} {2}\ end {array}\ right]. \] (Verificar.) Multiplicar ambos lados de por esta matriz produce\ [ \ left [\ begin {array} {rr}\ frac {1} {2} &\ frac {1} {2}\\ [3\ jot] -\ frac {1} {2} &\ frac {1} {2}\ end {array}\ right] \ left [\ begin {array} {c} u\\ v end {array}\ right] =\ left [\ begin {array} {c} x\\ y\ end {array} \ right], \] que es equivalente a.

Dado que la matriz\ [ \ left [\ begin {array} {cc} 1&1\\ 2&2\ end {array}\ right] \] of\mathbf{L}_1 es singular, no se puede resolver únicamente para(x,y) en términos de(u,v). De hecho, no puede resolverse en absoluto a menos quev=2u.

El siguiente teorema resuelve la cuestión de la invertibilidad de las transformaciones lineales de\R^n a\R^n. Te dejamos la prueba (Ejercicio~).

-.5em Ahora revisaremos brevemente las coordenadas polares, las cuales usaremos en algunos de los siguientes ejemplos.

Las coordenadas de cualquier punto se(x,y) pueden escribir de infinitamente muchas formas como\ [\ begin {equation}\ label {eq:6.3.6} x=r\ cos\ theta,\ quad y=r\ sin\ theta, \ end {ecuación}\]

donde\ [ r^2=x^2+y^2 \] y, sir>0,\theta es el ángulo desde elx eje -hasta el segmento de línea de(0,0) a(x,y), medido en sentido antihorario (Figura~).

1pc 6pt

12pt 1pieza

Para cada uno(x,y)\ne (0,0) hay infinitamente muchos valores de\theta, que difieren por múltiplos integrales de2\pi, que satisfacen. Si\theta es alguno de estos valores, decimos que\theta es un {} de(x,y), y escribimos\ [ \ theta=\ arg (x, y). \] Por sí mismo, esto no define una función. Sin embargo, si\phi es un número fijo arbitrario, entonces \ [\ theta=\ arg (x, y),\ quad\ phi\ le\ theta<\ phi+2\ pi, \] sí define una función, ya que cada intervalo medio abierto[\phi,\phi+2\pi) contiene exactamente un argumento de(x,y).

No definimos\arg(0,0), ya que no pone restricción alguna sobre\theta si(x,y)=(0,0) y por lo tantor=0.

La transformación\ [ \ left [\ begin {array} {c} r\\\ theta\ end {array}\ right] =\ mathbf {G} (x, y) = \ left [\ begin {array} {c}\ sqrt {x^2+y^2}\\ [3\ jot] \ arg (x, y)\ end {array}\ derecha],\ quad\ phi\ le\ arg (x, y) <\ phi+2\ pi, \] se define y uno a uno en\ [ D_\ mathbf {G} =\ set {(x, y)} {(x, y)\ ne (0,0)}, \] y su rango es\ [ R (\ mathbf {G}) =\ set {(r,\ theta)} {r>0,\,\ phi\ le\ theta<\ phi+2\ pi}. \]

Por ejemplo, si\phi=0, entonces\ [ \ mathbf {G} (1,1) =\ left [\ begin {array} {c}\ sqrt {2}\\ [3\ jot] \ dst {\ frac {\ pi} {4}}\ end {array}\ right], \] ya que\pi/4 es el argumento único de(1,1) in[0,2\pi). Si\phi=\pi, entonces\ [ \ mathbf {G} (1,1) =\ left [\ begin {array} {c}\ sqrt {2}\\ [3\ jot] \ dst {\ frac {9\ pi} {4}}\ end {array}\ right], \] ya que9\pi/4 es el argumento único de(1,1) in[\pi,3\pi).

Si\arg(x_0,y_0)=\phi, entonces(x_0,y_0) está en la media línea que se muestra en Figura~ y no\mathbf{G} es continua en(x_0,y_0), ya que cada vecindad de(x_0,y_0) contiene puntos(x,y) para los que el segundo componente de\mathbf{G}(x,y) está arbitrariamente cerca\phi+2\pi, mientras que el segundo componente de\mathbf{G}(x_0,y_0) es\phi. Mostraremos más adelante, sin embargo, que\mathbf{G} es continuo, de hecho, continuamente diferenciable, en el plano con esta media línea eliminada.

6pt

12pt

Una transformación\mathbf{F} puede no ser uno a uno, pero ser uno a uno en un subconjuntoS deD_\mathbf{F}. Con esto queremos decir que\mathbf{F}(\mathbf{X}_1) y\mathbf{F}(\mathbf{X}_2) son distintos cada vez\mathbf{X}_{1} y\mathbf{X}_2 son puntos distintos deS. En este caso, no\mathbf{F} es invertible, pero si\mathbf{F}_S se define onS por\ [ \ mathbf {F} _S (\ mathbf {X}) =\ mathbf {F} (\ mathbf {X}),\ quad\ mathbf {X}\ en S, \] y dejado indefinido para\mathbf{X}\not\in S, entonces\mathbf{F}_S es invertible. Decimos que\mathbf{F}_S es el {}, y ese\mathbf{F}^{-1}_S es el {}. El dominio de\mathbf{F}^{-1}_S es\mathbf{F}(S).

Si\mathbf{F} es uno a uno en un barrio de\mathbf{X}_0, decimos que\mathbf{F} es {}. Si esto es cierto para cada uno\mathbf{X}_0 en un conjuntoS, entonces\mathbf{F} es {}.

La cuestión de la invertibilidad de una transformación arbitraria\mathbf{F}: \R^n\to \R^n es demasiado general para tener una respuesta útil. Sin embargo, existe una condición suficiente útil y fácilmente aplicable que implica que las restricciones uno a uno de transformaciones continuamente diferenciables tienen inversos continuamente diferenciables.

Para motivar nuestro estudio de esta pregunta, consideremos primero la transformación lineal\ [ \ mathbf {F} (\ mathbf {X}) =\ mathbf {A}\ mathbf {X} =\ left [\ begin {array} {cccc} a_ {11} &a_ {12} &\ cdots&a_ {1n}\\ a_ {21} &a_ {22} &\ cdots&a_ {2n}\\\ vdots&\ vdots&\ ddots&\ vdots\\ a_ {n1} &a _ {n2} &\ cdots&a_ {nn}\ end {array}\ right] \ left [\ begin {array} {c} x_1\\ x_2\\\ vdots\\ x_n\ end {array}\ right]. \] Del Teoremo~,\mathbf{F} es invertible si y solo si\mathbf{A} es no singular, en cuyo casoR(\mathbf{F})=\R^n y\ [ \ mathbf {F} ^ {-1} (\ mathbf {U}) =\ mathbf {A} ^ {-1}\ mathbf {U}. \] Dado que\mathbf{A} y\mathbf{A}^{-1} son las matrices diferenciales de\mathbf{F} y\mathbf{F}^{-1}, respectivamente, podemos decir que una transformación lineal es invertible si y solo si su matriz diferencial\mathbf{F}' es no singular, en cuyo caso la matriz diferencial de\mathbf{F}^{-1} viene dada por\ [ (\ mathbf {F} ^ {-1}) '= (\ mathbf {F} ') ^ {-1}. \] Debido a esto, es tentador conjeturar que si\mathbf{F}: \R^n\to \R^n es continuamente diferenciable y no\mathbf{A}'(\mathbf{X}) es singular, o, equivalentemente,J\mathbf{F}(\mathbf{X})\ne0, porque\mathbf{X} en un conjuntoS, entonces\mathbf{F} es uno a uno encendidoS. Sin embargo, esto es falso. Por ejemplo, si\ [ \ mathbf {F} (x, y) =\ left [\ begin {array} {c} e^x\ cos y\\ e^x\ sin y\ end {array}\ right], \] entonces\ [\ begin {ecuación}\ label {eq:6.3.19} J\ mathbf {F} (x, y) =\ izquierda|\ begin {array} {cr} e^x\ cos y&-e^x\ sin y\\ e^x\ sin y&e^x\ cos y\ end {array}\ derecha|=e^ {2x}\ ne0, \ end {ecuación}\] pero \mathbf{F}no es uno a uno en\R^2 (Ejemplo~). Lo mejor que se puede decir en general es que si\mathbf{F} es continuamente diferenciable yJ\mathbf{F}(\mathbf{X}) \ne0 en un conjunto abiertoS, entonces\mathbf{F} es localmente invertible encendidoS, y las inversas locales son continuamente diferenciables. Esto es parte del teorema de la función inversa, que probaremos actualmente. Primero, necesitamos la siguiente definición.

Primero demostramos que si\mathbf{X}_{0} \in S, entonces un barrio de\mathbf{F}(\mathbf{X}_0) está en\mathbf{F}(S). Esto implica que\mathbf{F}(S) es abierto.

Ya queS está abierto, hay\rho>0 tal que\overline{B_\rho(\mathbf{X}_0)}\subset S. BSea el límite deB_\rho(\mathbf{X}_0); así,\ [\ begin {ecuación}\ label {eq:6.3.20} B=\ set\ mathbf {X} {|\ mathbf {X} -\ mathbf {X} _0|=\ rho}. \ end {ecuación}\] La función\ [ \ sigma (\ mathbf {X}) =|\ mathbf {F} (\ mathbf {X}) -\ mathbf {F} (\ mathbf {X} _0) | \] es continua encendidoS y por lo tanto encendidoB, lo cual es compacto. De ahí que por Teoremo~, hay un punto\mathbf{X}_1 enB donde\sigma(\mathbf{X}) alcanza su valor mínimo, digamosm, onB. Además,m>0, desde\mathbf{X}_1\ne\mathbf{X}_0 y\mathbf{F} es uno a uno enS. Por lo tanto,\ [\ begin {ecuación}\ label {eq:6.3.21} |\ mathbf {F} (\ mathbf {X}) -\ mathbf {F} (\ mathbf {X} _0) |\ ge m>0\ mbox {\ quad if\ quad} |\ mathbf {X} -\ mathbf {X} _0|=\ rho. \ end {ecuación}\] El conjunto\ [ \ set {\ mathbf {U}} {|\ mathbf {U} -\ mathbf {F} (\ mathbf {X} _0) |<m/2} \] es un barrio de\mathbf{F}(\mathbf{X}_0). Mostraremos que es un subconjunto de\mathbf{F}(S). Para ver esto, deja\mathbf{U} ser un punto fijo en este conjunto; así,\ [\ begin {ecuación}\ label {eq:6.3.22} |\ mathbf {U} -F (\ mathbf {X} _0) |<m/2. \ end {ecuación}\] Considera la función\ [ \ sigma_1 (\ mathbf {X}) =|\ mathbf {U} -\ mathbf {F} (\ mathbf {X}) |^2, \] que es continua enS. Tenga en cuenta que\ [\ begin {ecuación}\ label {eq:6.3.23} \ sigma_1 (\ mathbf {X})\ ge\ frac {m^2} {4}\ mbox {\ quad if\ quad} |\ mathbf {X} -\ mathbf {X} _0|=\ rho, \ end {ecuación}\] desde if|\mathbf{X}-\mathbf{X}_0|=\rho, entonces\ [\ begin {eq:qnarray*} |\ mathbf {U} -\ mathbf {F} (\ mathbf {X}) |\ ar=| (\ mathbf {U} -\ mathbf {F} (\ mathbf {X} _0)) + (\ mathbf {F} (\ mathbf {X} _0) -\ mathbf {F} (\ mathbf {X})) |\ \ ar\ ge\ big||\ mathbf {F} (\ mathbf {X} _0) -\ mathbf {F} (\ mathbf {X}) | -|\ mathbf {U} -\ mathbf {F} (\ mathbf {X} _0) |\ big|\\ \ ar\ ge m-\ frac {m} {2} =\ frac {m} {2}, \ end {eqnarray*}\] de y.

Dado que\sigma_1 es continuo onS,\sigma_1 alcanza un valor mínimo\mu en el conjunto compacto\overline{B_\rho(\mathbf{X}_0)} (Teorem~); es decir, hay un\overline{\mathbf{X}} en\overline{B_\rho(\mathbf{X}_0)} tal que\ [ \ sigma_1 (\ mathbf {X})\ ge\ sigma_1 (\ overline {\ mathbf {X}) =\ mu, \ quad\ mathbf {X}\ in\ overline {B_\ rho (\ mathbf {X} _0)}. \] Ajuste\mathbf{X}=\mathbf{X}_0, concluimos de esto y aquello\ [ \ sigma_1 (\ overline {\ mathbf {X}}) =\ mu\ le\ sigma_1 (\ mathbf {X} _0) <\ frac {m^2} {4}. \] Debido a y, esto descarta la posibilidad de que\overline{\mathbf{X}}\in B, así\overline{\mathbf{X}}\in B_\rho(\mathbf{X}_0).

Ahora queremos demostrar eso\mu=0; es decir,\mathbf{U}= \mathbf{F}(\overline{\mathbf{X}}). Para ello, observamos que se\sigma_1(\mathbf{X}) puede escribir como\ [ \ sigma_1 (\ mathbf {X}) =\ sum^n_ {j=1} (u_j-f_j (\ mathbf {X})) ^2, \] -.4em así\sigma_1 es diferenciable enB_p(\mathbf{X}_{0}). Por lo tanto, las primeras derivadas parciales de\sigma_1 son todas cero en el punto mínimo local\overline{\mathbf{X}} (Teorem~), así que 3pt \ [\ sum^n_ {j=1}\ frac {\ parcial f_j (\ overline {\ mathbf {X}})} {\ partial x_i} (u_j-f_j (\ overline {\ mathbf {X}})) =0,\ quad 1 le\ i\ le n, \] o, en forma de matriz,\ [ \ mathbf {F} '(\ overline {\ mathbf {X}}) (\ mathbf {U} -\ mathbf {F} (\ overline {\ mathbf {X}})) =0. \] Dado que\mathbf{F}'(\overline{\mathbf{X}}) es no singular esto implica que\mathbf{U}= \mathbf{F}(\overline{\mathbf{X}}) (Teorem~). Así, hemos demostrado que todo\mathbf{U} lo que satisface está en\mathbf{F}(S). Por lo tanto, ya que\mathbf{X}_0 es un punto arbitrario deS,\mathbf{F}(S) está abierto.

A continuación, mostramos que\mathbf{G} es continuo en\mathbf{F}(S). Supongamos que\mathbf{U}_0\in\mathbf{F}(S) y\mathbf{X}_0 es el punto único enS tal que\mathbf{F}(\mathbf{X}_0)=\mathbf{U}_0. Como\mathbf{F}'(\mathbf{X}_{0}) es invertible, Lemma~ implica que hay un\lambda>0 y un barrio abiertoN de\mathbf{X}_0 tal queN\subset S y\ [\ begin {ecuación}\ label {eq:6.3.24} |\ mathbf {F} (\ mathbf {X}) -\ mathbf {F} (\ mathbf {X} _0) |\ ge\ lambda |\ mathbf {X} -\ mathbf {X} _0| \ caja {\ quad si\ quad}\ mathbf {X}\ in N. \ end {ecuación}\] (Ejercicio~ también implica esto.) Ya que\mathbf{F} satisface las hipótesis del presente teorema sobreN, la primera parte de esta prueba muestra que\mathbf{F}(N) es un conjunto abierto que contiene\mathbf{U}_0=\mathbf{F} (\mathbf{X}_0). Por lo tanto, hay\delta>0 tal que\mathbf{X}=\mathbf{G}(\mathbf{U}) está enN si\mathbf{U}\in B_\delta(\mathbf{U}_{0}). Ajuste\mathbf{X}=\mathbf{G}(\mathbf{U}) y\mathbf{X}_0 = \mathbf{G}(\mathbf{U}_0) en rendimientos\ [ |\ mathbf {F} (\ mathbf {G} (\ mathbf {U})) -\ mathbf {F} (\ mathbf {G} (\ mathbf {U} _0)) |\ ge\ lambda |\ mathbf {G} (\ mathbf {U}) -\ mathbf {G} (\ mathbf {U} _0) |\ caja {\ quad si\ quad} \ mathbf {U}\ en B_\ delta (\ mathbf {U} _0). \] Ya que\mathbf{F}(\mathbf{G}(\mathbf{U}))=\mathbf{U} esto puede ser reescrito como\ [\ begin {ecuación}\ label {eq:6.3.25} |\ mathbf {G} (\ mathbf {U}) -\ mathbf {G} (\ mathbf {U} _0) |\ le\ frac {1} {\ lambda} |\ mathbf {U} - \ mathbf {U} _0|\ mbox {\ quad si\ quad}\ mathbf {U}\ en B_\ delta (\ mathbf {U} _0), \ end {ecuación}\] lo que significa que\mathbf{G} es continuo en\mathbf{U}_0. Ya que\mathbf{U}_0 es un punto arbitrario en\mathbf{F}(S), se deduce que\mathbf{G} es continuo\mathbf{F}(S).

Ahora vamos a demostrar que\mathbf{G} es diferenciable en\mathbf{U}_0. Dado que\ [ \ mathbf {G} (\ mathbf {F} (\ mathbf {X})) =\ mathbf {X},\ quad\ mathbf {X}\ en S,\] la regla de la cadena (Teoremo~) implica que {}\mathbf{G} es diferenciable en, entonces \ [\ mathbf {G} '(\\mathbf{U}_0 mathbf {U} _0) \ mathbf {F}' (\ mathbf {F} '(\ mathbf {U} _0)\ mathbf {F}' (\ mathbf {bf {X} _0) =\ mathbf {I} \]

(Ejemplo~). Por lo tanto, si\mathbf{G} es diferenciable at\mathbf{U}_0, la matriz diferencial de\mathbf{G} debe ser \ [\ mathbf {G} '(\ mathbf {U} _0) = [\ mathbf {F}' (\ mathbf {X} _0)] ^ {-1}, \] así que para mostrar que\mathbf{G} es diferenciable en\mathbf{U}_0, debemos mostrar que si\ [\ begin {ecuación}\ label {eq:6.3.26} \ mathbf {H } (\ mathbf {U}) = \ frac {\ mathbf {G} (\ mathbf {U}) -\ mathbf {G} (\ mathbf {U} _0) - [\ mathbf {F} '(\ mathbf {X} _0)] ^ {-1} (\ mathbf {U} -\ mathbf {U} _0)} {|\ mathbf {U} _0)} {|\ mathbf {U} _0)} {|\ mathbf {U} _0} -\ mathbf {U} _0|}\ quad (\ mathbf {U}\ ne \ mathbf {U} _0),\ end {ecuación}\] luego\ [\ begin {ecuación}\ label {eq:6.3.27} \ lim_ {\ mathbf {U}\ a\ mathbf {U} _0}\ mathbf {H} (\ mathbf {U}) =\ mathbf {0}. \ end {ecuación}\]

Ya que\mathbf{F} es uno a uno encendidoS y\mathbf{F} (\mathbf{G}(\mathbf{U})) =\mathbf{U}, de ello se deduce que si\mathbf{U}\ne\mathbf{U}_0, entonces\mathbf{G}(\mathbf{U})\ne\mathbf{G}(\mathbf{U}_0). Por lo tanto, podemos multiplicar el numerador y denominador de por|\mathbf{G}(\mathbf{U}) -\mathbf{G}(\mathbf{U}_0)| para obtener\ [ \ begin {array} {rcl} \ mathbf {H} (\ mathbf {U})\ ar=\ dst\ frac {| \ mathbf {G} (\ mathbf {U}) -\ mathbf {G} (\ mathbf {U} (\ mathbf {U} _ _ {0} |} {|\ mathbf {U} -\ mathbf {U} -\ mathbf {U} - \ mathbf {U} bf {U} _0|}\ izquierda (\ frac {\ mathbf {G} (\ mathbf {U}) -\ mathbf {G} (\ mathbf {U} _0) - \ left [\ mathbf {F} '(\ mathbf {X} _ _ {0}) \ derecha] ^ {-1} (\ mathbf {U} -\ mathbf {U} _0)} {|\ mathbf {G} (\ mathbf {U}) -\ mathbf {G} (\ mathbf {U} _0) |}\\ derecha)\\ \ ar=- dst\ frac {|\ mathbf {G} (\ mathbf {U}) -\ mathbf {G} (\ mathbf {U} _0) |} { |\ mathbf {U} -\ mathbf {U} _0|} \ left [\ mathbf {F}' (\ mathbf {X} _0)\ derecha] ^ {-1} \ izquierda (\ frac {\ mathbf {U} -\ mathbf {U} _0-\ mathbf {F} '(\ mathbf {X} _0) (\ mathbf {G} (\ mathbf {U}) -\ mathbf {G} (\ mathbf {U} _0))}} {|\ mathbf {G} (\ mathbf {U }) -\ mathbf {G} (\ mathbf {G} (\ mathbf {G} (\ mathbf {G} (\ mathbf {G} (\ mathbf {bf {U} _0) |} \ derecha)\ end {array} \] si0<|\mathbf{U}-\mathbf{U}_0|<\delta. Debido a, esto implica que\ [ |\ mathbf {H} (\ mathbf {U}) |\ le\ frac {1} {\ lambda} \ | [\ mathbf {F} '(\ mathbf {X} _0)] ^ {-1}\ | \ izquierda|\ frac {\ mathbf {U} -\ mathbf {U} _0-\ mathbf {F}' (\ mathbf {X} _0) (\ mathbf {G} (\ mathbf {U}) -\ mathbf {G} (\ mathbf {U} _0))} { |\ mathbf {G} (\ mathbf {U}) -\ mathbf {G} (\ mathbf {U} _0) |}\ derecha| \] si0<|\mathbf{U}-\mathbf{U}_0|<\delta. Ahora vamos\ [ \ mathbf {H} _1 (\ mathbf {U}) =\ frac {\ mathbf {U} -\ mathbf {U} _0-\ mathbf {F} '(\ mathbf {X} _0) (\ mathbf {G} (\ mathbf {U}) -\ mathbf {G} (\ mathbf {U} _0))} | {\ mathbf {G} (\ mathbf {U}) -\ mathbf {G} (\ mathbf {U} _0) |} \] Para completar la prueba de, debemos demostrar que\ [\ begin {ecuación}\ label {eq:6.3.28} \ lim_ {\ mathbf { U}\ a\ mathbf {U} _0}\ mathbf {H} _1 (\ mathbf {U}) =\ mathbf {0}. \ end {ecuación}\] Dado que\mathbf{F} es diferenciable en\mathbf{X}_0, sabemos que si\ [ \ mathbf {H} _2 (\ mathbf {X}) =\ lim_ { \ mathbf {X}\ a\ mathbf {X} _0}\ frac {\ mathbf {F} ( \ mathbf {X}) -\ mathbf {F} (\ mathbf {X} _0) -\ mathbf {X} _0) -\ mathbf {F} (\ mathbf {X} _0) -\ mathbf {F} ' (\ mathbf {X} _0) (\ mathbf {X} -\ mathbf {X} _0)} { |\ mathbf {X} -\ mathbf {X} _0|}, \ ] entonces\ [\ begin {ecuación}\ label {eq:6.3.29} \ lim_ {\ mathbf {X}\ a\ mathbf {X} _0}\ mathbf {H} _2 (\ mathbf {X}) =\ mathbf {0}. \ end {ecuación}\] Desde\mathbf{F}(\mathbf{G}(\mathbf{U}))=\mathbf{U} y\mathbf{X}_0= \mathbf{G}(\mathbf{U}_0),\ [ \ mathbf {H} _1 (\ mathbf {U}) =\ mathbf {H} _2 (\ mathbf {G} (\ mathbf {U})). \]

Ahora supongamos eso\epsilon>0. De, hay\delta_1>0 tal que\ [\ begin {ecuación}\ label {eq:6.3.30} |\ mathbf {H} _2 (\ mathbf {X}) |<\ épsilon\ mbox {\ quad if\ quad} 0< |\ mathbf {X} -\ mathbf {X} _ _ {0} | =|\ mathbf {X} -\ mathbf {G} (\ mathbf {U} _0) |<\ delta_1. \ end {ecuación}\] Dado que\mathbf{G} es continuo en\mathbf{U}_0, hay\delta_2\in(0,\delta) tal que\ [ |\ mathbf {G} (\ mathbf {U}) -\ mathbf {G} (\ mathbf {U} _0) |<\ delta_1\ mbox {\ quad if\ quad} 0<|\ mathbf {U} -\ mathbf {U} _0|<\ delta_2. \] Esto e implica que\ [ |\ mathbf {H} _1 (\ mathbf {U}) |=|\ mathbf {H} _2 (\ mathbf {G} (\ mathbf {U})) |<\ épsilon \ mbox {\ quad if\ quad} 0<|\ mathbf {U} -\ mathbf {U} _0|<\ delta_2. \] Dado que esto implica,\mathbf{G} es diferenciable en\mathbf{X}_0.

Dado que\mathbf{U}_0 es un miembro arbitrario de\mathbf{F}(N), ahora podemos bajar el subíndice cero y concluir que\mathbf{G} es continuo y diferenciable en\mathbf{F}(N), y\ [ \ mathbf {G} '(\ mathbf {U}) = [\ mathbf {F}' (\ mathbf {X})] ^ {-1},\ quad\ mathbf {U}\ in\ mathbf {F} (N). \] Para ver que\mathbf{G} está encendido\mathbf{F}(N), observamos que por Teoremo~, cada entrada de\mathbf{G}'(\mathbf{U}) (es decir, cada derivada parcial\partial g_i(\mathbf{U})/\partial u_j,1\le i, j\le n) puede escribirse como la relación, con denominador distinto de cero, de determinantes con entradas de la forma\ [\ begin {ecuación}\ label {eq:6.3.31} \ frac {\ parcial f_r (\ mathbf {G} (\ mathbf {U}))} {\ x_s parcial}. \ end {ecuación}\] Dado que\partial f_r/\partial x_s es continuo enN y\mathbf{G} es continuo en\mathbf{F}(N), Teorem~ implica que es continuo en\mathbf{F}(N). Dado que un determinante es una función continua de sus entradas, ahora se deduce que las entradas de\mathbf{G}'(\mathbf{U}) son continuas en\mathbf{F}(N).

-.4em Si\mathbf{F} es regular en un set abiertoS, decimos que\mathbf{F}^{-1}_S es un {}\mathbf{F}^{-1}. (Esta es una terminología conveniente pero no pretende implicar que\mathbf{F} en realidad tenga una inversa.) A partir de esta definición, es posible definir una rama de\mathbf{F}^{-1} en un conjuntoT \subset R(\mathbf{F}) si y solo siT=\mathbf{F}(S), donde\mathbf{F} es regular onS. Puede haber subconjuntos abiertos deR(\mathbf{F}) que no tengan esta propiedad, y por lo tanto no se\mathbf{F}^{-1} puede definir ninguna rama de en ellos. También es posible queT=\mathbf{F}(S_1)= \mathbf{F}(S_2), dondeS_1 yS_2 son distintos subconjuntos deD_\mathbf{F}. En este caso,\mathbf{F}^{-1} se define más de una rama deT. Así, vimos en Ejemplo~ que dos ramas de\mathbf{F}^{-1} pueden definirse en un conjuntoT. En Ejemplo~ infinitamente muchas ramas de\mathbf{F}^{-1} se definen en el mismo conjunto.

Es útil definir ramas del argumento Para ello, pensamos en la relación entre coordenadas polares y rectangulares en términos de la transformación\ [\ begin {ecuación}\ label {eq:6.3.32} \ left [\ begin {array} {c} x\\ y\ end {array}\ right] =\ mathbf {F} (r,\ theta) = \ left [\ begin {array} {c} r \ cos\ theta\\ r\ sin\ theta\ end {array}\ right], \ end {ecuación}\] donde por el momento consideramosr y\theta como coordenadas rectangulares de un punto en unr\theta plano. DejarS ser un subconjunto abierto de la mitad derecha de este plano (es decir,S\subset\set{(r,\theta)}{r>0})

que no contiene ningún par de puntos(r,\theta) y(r,\theta+2k\pi), dondek es un entero distinto de cero. Entonces\mathbf{F} es uno a uno y continuamente diferenciable encendidoS, con\ [\ begin {ecuación}\ label {eq:6.3.33} \ mathbf {F} '(r,\ theta) =\ left [\ begin {array} {rr}\ cos\ theta&-r\ sin\ theta\\ sin\ theta& r\ cos\ theta\ end {array}\ right] \ end {ecuación}\] y\ [\ begin {ecuación}\ label {eq:6.3.34} J\ mathbf {F} (r,\ theta) =r>0,\ quad (r,\ theta)\ in S. \ end {ecuación}\] Por lo tanto,\mathbf{F} es regular onS. Ahora vamosT=\mathbf{F}(S), el conjunto de puntos en elxy plano -con coordenadas polares adentroS. Teorem~ establece queT es abierto y\mathbf{F}_S tiene un inverso continuamente diferenciable (que denotamos por\mathbf{G}, en lugar de\mathbf{F}^{-1}_S, por razones tipográficas) \ [\ left [\ begin {array} {c} r\\ theta\ end {array}\ right] = \ mathbf {G} (x, y) =\ left [\ begin {array} {c} \ sqrt {x^2+^y2}\ [3\ jot]\ arg_s (x, y)\ end {array}\ right],\ quad (x, y)\ in T, \] donde\arg_S(x,y) está el valor único de\arg(x,y) tal que\ [ (r,\ theta) =\ left (\ sqrt {x^2+y^2},\,\ arg_s (x, y)\ right)\ in S. \] Decimos que\arg_S(x,y) es un {}. Teoremo~ también implica que\ [\ begin {eqnarray*} \ mathbf {G} '(x, y) =\ left [ \ mathbf {F}' (r,\ theta)\ right] ^ {-1}\ ar=\ left [\ begin {array} {rr}\ cos\ theta& \ sin\ theta\ \ dst {-\ frac {\ sin theta\ eta} {r}} &\ dst {\ frac {\ cos\ theta} { r}}\ end {array}\ derecha]\ mbox {\ quad (ver\ eqref {eq:6.3.33})}\\ \ ar=\ izquierda [\ begin {array} {rr}\ dst {\ frac {x} {\ sqrt {x^2+y^2}}} & \ dst {\ frac {y} {\ sqrt {x^2+y^2}}}\\ [3\ jot] \ dst {-\ frac {y} {x^2+y^2}} &\ dst {\ frac {x} {x2+y^2}} \ end {array}\ right]\ mbox {\ quad (ver\ eqref {eq:6.3.32})}. \ end {eqnarray*}\] 1pc Por lo tanto,\ [\ begin {ecuación}\ label {eq:6.3.35} \ frac {\ parcial\ arg_s (x, y)} {\ parcial x} =-\ frac {y} {x^2+y^2},\ quad \ frac {\ parcial\ arg_s (x, y)} {\ parcial y} =\ frac {x} {x^2+y^2}. \ end {ecuación}\]

\arg(x,y)Se puede definir una rama de en un conjunto abiertoT delxy plano -si y solo si las coordenadas polares de los puntosT forman un subconjunto abierto delr\theta plano -que no interseca el\theta eje -o contiene dos puntos cualesquiera de la forma(r,\theta) y(r,\theta+2k\pi), dondek es un entero distinto de cero. Ningún subconjunto que contenga el origen(x,y)=(0,0) tiene esta propiedad, ni ninguna vecindad eliminada del origen (Ejercicio~), por lo que hay conjuntos abiertos en los que no se puede definir ninguna rama del argumento. Sin embargo, si se puede definir una rama enT, entonces también pueden infinitamente muchas otras. (¿Por qué?) Todas las ramas de\arg(x,y) tienen las mismas derivadas parciales, dadas en.

Te dejamos a ti (Ejercicio~) verificar eso y también se puede obtener diferenciando directamente.

\ begin {ejemplo}\ rm Si\ [ \ left [\ begin {array} {c} u\\ v\ end {array}\ right] = \ mathbf {F} (x, y) =\ left [\ begin {array} {c} e^x\ cos y\\ e^x\ sin y\ end {array}\ right] \] (Ejemplo~), también podemos definir una rama\mathbf{G} de\mathbf{F}^{-1} en cualquier subconjuntoT deluv plano -en el que una rama de \arg(u,v)se puede definir, y\mathbf{G} tiene la forma\ [\ begin {ecuación}\ label {eq:6.3.39} \ left [\ begin {array} {r} x\\ y\ end {array}\ right] = \ mathbf {G} (u, v) =\ left [\ begin {array} {c} \ log (u^2+v^2) ^ {1/2}\\ arg (u, v)\ end {array}\ derecho]. \ end {ecuación}\] Dado que las ramas del argumento difieren por múltiplos integrales de2\pi, implica que si\mathbf{G}_1 y\mathbf{G}_2 son ramas de\mathbf{F}^{-1}, ambas definidas enT, entonces \ [\ mathbf {G} _1 (u, v) -\ mathbf {G} _2 (u, v) =\ left [\ begin {array} {c} 0 \\ 2k\ pi\ end {array}\ right] \ mbox {\ quad ($k=$ entero)}. \]

Del Teorem~,\ [\ begin {eqnarray*} \ mathbf {G} '(u, v) =\ left [ \ mathbf {F}' (x, y)\ right] ^ {-1}\ ar=\ left [\ begin {array} {rr} e^x\ cos y &-e^x\ sin y\ e^x\ sin y&e^x cos y\ end {array}\ derecha] ^ {-1}\\ [2\ jot] \ ar=\ izquierda [\ begin {array} {rr} e^ {-x}\ cos y&e^ {-x}\ sin y\\ -e^ {-x}\ sin y&e^ {-x}\ cos y\ end {array}\ right]. \ end {eqnarray*}\] Sustituyendo porx yy en términos deu yv desde, encontramos que\ [\ begin {eqnarray*} \ frac {\ parcial x} {\ parcial u}\ ar=\ frac {\ parcial y} {\ parcial v} = e^ {-x}\ cos y=e^ {-2x} u=\ frac {u} {u^2+v^2}\\ \ arraytext {y}\\ \ frac {\ parcial x} {\ parcial v}\ ar=-\ frac {\ parcial y} {\ parcial u} = e^ {-x}\ sin y=e^ {-2x} v=\ frac {v} {u^2+v^2}. \ end {eqnarray*}\]\ end {ejemplo}

Ejemplos~ y muestran que una función continuamente diferenciable\mathbf{F} puede no tener una inversa en un conjuntoS incluso si estáJ\mathbf{F}(\mathbf{X})\ne0 activadaS. Sin embargo, el siguiente teorema muestra que en este caso\mathbf{F} es localmente invertible enS.

\ begin {teorema} [El teorema de la función inversa] Dejar\mathbf{F}: \R^n\to \R^n ser continuamente diferenciable en un conjunto abiertoS, y supongamos queJ\mathbf{F}(\mathbf{X})\ne0 enS. Entonces, si\mathbf{X}_0\in S, hay un barrio abiertoN de\mathbf{X}_0 sobre el que\mathbf{F} es regular. Por otra parte ,\mathbf{F}(N)está abierto y\mathbf{G}= \mathbf{F}^{-1}_N es continuamente diferenciable\mathbf{F}(N), con\ [ \ mathbf {G} '(\ mathbf {U}) =\ left [\ mathbf {F}' (\ mathbf {X})\ right] ^ {-1}\ quad \ mbox {$ ($donde $\ mathbf {U} =\ mathbf {F} (\ mathbf {X})\]) $}, (N). $$\ end {teorema}

Lemma~ implica que hay un barrio abierto\mathbf{X}_0 enN el que\mathbf{F} se encuentra uno a uno. El resto de las conclusiones siguen entonces de aplicar Teorem~ a\mathbf{F} onN.

Por continuidad, ya queJ\mathbf{F}'(\mathbf{X}_0)\ne0,J\mathbf{F}'(\mathbf{X}) es distinto de cero para todos\mathbf{X} en algún barrio abiertoS de\mathbf{X}_0. Ahora aplica Teorem~.

Teorem~ e implican que la transformación es localmente invertible enS=\set{(r,\theta)}{ r>0}, lo que significa que es posible definir una rama de\arg(x,y) en un vecindario de cualquier punto(x_0,y_0)\ne (0,0). También implica, como ya hemos visto, que

la transformación de Ejemplo~ es localmente invertible en todas partes excepto en(0,0), donde su jacobiano es igual a cero, y la transformación de Ejemplo~ es localmente invertible en todas partes.

En esta sección consideramos transformaciones de\R^{n+m} a\R^m. Será conveniente denotar puntos en\R^{n+m} por\ [ (\ mathbf {X},\ mathbf {U}) =( x_1, x_2,\ dots, x_n, u_1, u_2,\ dots, u_m). \] A menudo denotaremos los componentes de\mathbf{X} byx,y,, y los componentes de\mathbf{U} byu,v,.

Para motivar el problema que nos interesa, primero preguntamos si el sistema lineal dem ecuaciones enm+n variables\ [\ begin {ecuación}\ label {eq:6.4.1} \ begin {array} {rcl} a_ {11} x_1\ hspace* {.11em} +\ hspace* {.11em} a_ {12} x_2\ hspace* {.11em} +\ hspace* {.11em}\ cdots\ hspace* {.11em} +\ hespacio* {.11em } a_ {1n} x_n\ hspace* {.11em} +\ hspace* {.11em} b_ {11} u_1\ hspace* {.11em} +\ hspace* {.11em} b_ {12} u_2\ hspace* {.11em} +\ hspace* {.11em}\ cdots\ hspace* {.11em} +\ hspace* {.11em} b_ {1m} u_m\ ar=0\\ a_ {21} x_1\ hspace* {.11em} +\ hspace* {.11em} a_ {22} x_2\ hspace* {.11em} +\ hspace* {.11em}\ cdots\ hspace* {.11em} +\ hspace* {.11em} a_ {2n} x_n\ hspace* {.11em} +\ hspace* {.11em} b_ {21} u_1\ hspace* {.11em} +\ hspace* {.11em} b_ {22} u_x\ hspace* {.11em} +\ hspace* {.11em}\ cdots\ hspace* {.11em} +\ hspace* {.11em} b_ {2m} u_m\ ar=0\\ &\ vdots&\\ a_ {m1} x_1+a_ {m2} x_2+\ cdots+a_ {mn} x_n+b_ {m1} u_1+b_ {m2} u_2+\ cdots+ b_ {mm} u_m\ ar=0\ end {array} \ end {ecuación}\]

determinau_1,u_2,, deu_m manera única en términos dex_1,x_2,,x_n. Al reescribir el sistema en forma de matriz como\ [ \ mathbf {AX} +\ mathbf {BU} =\ mathbf {0}, \] donde \ [\ mathbf {A} =\ left [\ begin {array} {cccc} a_ {11} &a_ {12} &\ cdots&a_ {1n}\\ a_ {21} &a_ {22} &\ cdots&a_ {2n}\ \\ vdots&\ vdots&\ ddots&\ vdots\\ a_ {m1} &a_ {m2} &\ cdots&a _ {mn}\ end {array}\ derecha],\ quad \ mathbf {B} =\ izquierda [\ begin {array} {cccc} b_ {11} &b_ {12} &\ cdots&b_ {1m}\\ b_ {21} &b_ {22} &\ cdots&b_ {2m} \\\ vdots&\ puntos&\ vdots\\ b_ {m1} &b_ {m2} &\ cdots&b_ {mm}\ end {array}\ derecha], \]\ [ \ mathbf {X} =\ left [\ begin {array} {c } x_1\\ x_2\\\ vdots\\ x_n\ end {array}\ derecha], \ mbox {\ quad y\ quad} \ mathbf {U} =\ left [\ begin {array} {c} u_1\\ u_2\\\ vdots\\ u_m\ end {array}\ right], \] vemos que se puede resolver únicamente para\mathbf{U} en términos de\mathbf{X} si la matriz cuadrada\mathbf{B} es no singular. En este caso la solución es\ [ \ mathbf {U} =-\ mathbf {B} ^ {-1}\ mathbf {AX}. \] Para nuestros propósitos es conveniente reafirmar esto: Si\ [\ begin {ecuación}\ label {eq:6.4.2} \ mathbf {F} (\ mathbf {X},\ mathbf {U}) =\ mathbf {AX} +\ mathbf {BU}, \ end {ecuación}\] donde\mathbf{B} es no singular, entonces el sistema\ [ \ mathbf {F} (\ mathbf {X},\ mathbf {U}) =\ mathbf {0} \] determina \mathbf{U}en función de\mathbf{X}, para todos\mathbf{X} en\R^n.

Observe que\mathbf{F} en es una transformación lineal. Si\mathbf{F} es una transformación más general de\R^{n+m} a\R^m, aún podemos preguntar si el sistema\ [ \ mathbf {F} (\ mathbf {X},\ mathbf {U}) =\ mathbf {0}, \] o, en términos de componentes,\ [\ begin {eqnarray*} f_1 (x_1, x_2,\ dots, x_n, u_1, u_2,\ dots, u_m)\ ar=0\\ f_2 (x_1, x_2,\ puntos, x_n, u_1, u_2, \ dots, u_m)\ ar=0\\ &\ vdots&\\ f_m (x_1, x_2,\ dots, x_n, u_1, u_2,\ dots, u_m)\ ar=0, \ end {eqnarray*}\] se puede resolver para\mathbf{U} en términos de\mathbf{X}. No obstante, la situación es ahora más complicada, aunque seam=1. Por ejemplo, supongamos quem=1 y\ [ f (x, y, u) =1-x^2-y^2-u^2. \]

Six^2+y^2>1, entonces ningún valor deu satisface\ [\ begin {ecuación}\ label {eq:6.4.3} f (x, y, u) =0. \ end {equation}\] Sin embargo, infinitamente muchas funcionesu=u(x,y) satisfacen en el conjunto\ [ S=\ set {(x, y)} {x^2+y^2\ le1}. \] Son de la forma\ [ u (x, y) =\ épsilon (x, y)\ sqrt {1-x^2-y^2}, \] donde se\epsilon(x,y) pueden elegir arbitrariamente, para cada uno(x,y) enS, ser1 o-1. Podemos reducir la elección de funciones a dos requiriendo queu sean continuas enS; luego\ [\ begin {eqnarray} u (x, y)\ ar=\ sqrt {1-x^2-y^2}\ label {eq:6.4.4}\ \ arraytext {o}\ nonumber\\ u (x, y)\ ar=-\ sqrt {1-x^2-y^2}. \ nonumber \ end {eqnarray}\] Podemos definir una solución continua únicau de especificando su valor en un único punto interior deS. Por ejemplo, si requerimos que\ [ u\ left (\ frac {1} {\ sqrt {3}}, \ frac {1} {\ sqrt {3}}\ right) =\ frac {1} {\ sqrt {3}}, \] entoncesu debe ser como se define por.

La cuestión de si un sistema arbitrario\ [ \ mathbf {F} (\ mathbf {X},\ mathbf {U}) =\ mathbf {0} \] determina\mathbf{U} como una función de\mathbf{X} es demasiado general para tener una respuesta útil. Sin embargo, existe un teorema, el teorema de la función implícita, que responde afirmativamente a esta pregunta en un caso especial importante. Para facilitar la afirmación de este teorema, particionamos la matriz diferencial de\mathbf{F}: \R^{n+m}\to \R^m:\ [\ begin {ecuación}\ label {eq:6.4.5} \ begin {array} {rcl}\ mathbf {F} '=\ left [\ begin {array} {ccccccc} \ dst {\ frac {\ parcial f_1} {\ parcial x_1}} & \ dst {\ frac {parcial\ f_1} {\ parcial x_2}} &\ cdots& \ dst {\ frac {\ parcial f_1} {\ parcial x_n}} &|& \ dst {\ frac {\ parcial f_1} {\ parcial u_1}} & \ dst {\ frac {\ parcial f_1} {\ parcial u_2}} &\ cdots& \ dst {\ frac {\ parcial f_1} {\ parcial u_m}\ [3\ jot] \ dst {\ frac {\ parcial f_2} {\ parcial x_1}} & \ dst {\ frac {\ parcial f_2} {\ parcial x_2}} & \ cdots& \ dst {\ frac {\ parcial f_2} {\ parcial x_n}} &|& \ dst {\ frac {\ parcial f_2} {\ parcial u_1}} & \ dst {\ frac {\ parcial f_2} {\ parcial u_2}} &\ cdots& \ dst {\ frac {\ parcial f_2} {\ parcial u_m}\\ [3\ jot] \ vdots&\ vdots&\ ddots&\ vdots&|&\ vdots&\ vdots&\ ddots&\ vdots\ \ dst {\ frac {\ parcial f_m} {\ parcial x_1}} & \ dst {\ frac {\ parcial f_m} {\ parcial x_2}} &\ cdots& \ dst {\ frac {\ parcial f_m} {\ parcial x_n}} &|& \ dst {\ frac {\ parcial f_m} {\ parcial u_1}} & \ dst {\ frac {\ parcial f_m} {\ parcial u_2}} &\ cdots& \ dst {\ frac {\ parcial f_m} {\ parcial u_m}}\ end {array}\ derecha]\ \ end {array} \ end {ecuación}\] o\ [ \ mathbf {F} '= [\ mathbf {F} _\ mathbf {X},\ mathbf {F} _\ mathbf {U}], \] donde\mathbf{F}_\mathbf{X} está la submatriz a la izquierda de la línea discontinua en y\mathbf{F}_\mathbf{U} está a la derecha.

Para la transformación lineal,\mathbf{F}_\mathbf{X}=\mathbf{A} y\mathbf{F}_\mathbf{U}=\mathbf{B}, y hemos visto que el sistema\mathbf{F}(\mathbf{X},\mathbf{U})=\mathbf{0} define\mathbf{U} como una función de\mathbf{X} para todos\mathbf{X} en\R^n si\mathbf{F}_\mathbf{U} es no singular. El siguiente teorema muestra que un resultado relacionado se mantiene para transformaciones más generales.

Definir\boldsymbol{\Phi}:\R^{n+m}\to \R^{n+m} por\ [\ begin {ecuación}\ label {eq:6.4.8} \ boldsymbol {\ Phi} (\ mathbf {X},\ mathbf {U}) =\ left [\ begin {array} {c} x_1\\ x_2\\ vdots\\ x_n\\ f_1 (\ mathbf {X},\ mathbf {U})\ [3\ jot] f_2 (\ mathbf {X},\ mathbf {U})\\\ vdots\\ f_m (\ mathbf {X},\ mathbf {U})\ end {array} \ derecha] \ end {ecuación}\] o, en notación ``horizontal” por\ [\ begin {ecuación}\ label {eq:6.4.9} \ boldsymbol {\ Phi} (\ mathbf {X},\ mathbf {U}) =(\ mathbf {X},\ mathbf {F} (\ mathbf {X},\ mathbf {U})). \ end {ecuación}\] Entonces\boldsymbol{\Phi} es continuamente diferenciable onS y, ya que\mathbf{F}(\mathbf{X}_0,\mathbf{U}_0)=\mathbf{0},\ [\ begin {ecuación}\ label {eq:6.4.10} \ boldsymbol {\ Phi} (\ mathbf {X} _0,\ mathbf {U} _0) =(\ mathbf {X} _0,\ mathbf {0}). \ end {ecuación}\] La matriz diferencial de\boldsymbol{\Phi} es\ [ \ negridsymbol {\ Phi} '=\ left [\ begin {array} {cccccccc} 1&0&\ cdots&0&0&0&\ cdots&0\\ [3\ jot] 0&1&\ cdots&0&0&0&\ cdots&0\\ cdots&0\ \ vdots&0\\ &\ vdots&\ ddots&\ vdots&\ vdots&\ vdots&\ ddots&\ vdots\\ 0&0&\ cdots&1&0&0&\ cdots&0\\ [3\ jot] \ dst {\ frac {\ parcial f_1} {\ parcial x_1}} & \ dst {\ frac {\ parcial f_1} {\ parcial x_2}} &\ cdots& \ dst\ frac {\ parcial f_1} {\ parcial x_n}} & \ dst {\ frac {\ parcial f_1} {\ parcial u_1}} & \ dst {\ frac {\ parcial f_1} {\ parcial u_2}} &\ cdots& \ dst {\ frac {\ parcial f_1} {\ parcial u_m}}\\ [3\ jot] \ dst {\ frac {\ parcial f_2} {\ parcial x_1}} & \ dst {\ frac {\ parcial f_2} {\ parcial x_2} &\ cdots& \ dst {\ frac {\ parcial f_2} {\ parcial x_n}} & \ dst {\ frac {\ parcial f_2} {\ parcial u_1}} & \ dst {\ frac {\ parcial f_2} {\ parcial u_2}} &\ cdots& \ dst {\ frac {\ parcial f_2} {\ parcial u_m}}\\ [3 \ jot]\ vdots&\ vdots&\ ddots&\ vdots&\ vdots&\ vdots&\ [3\ jot]\ dst { \ frac {\ parcial f_m} {\ parcial x_1}} & \ dst {\ frac {\ parcial f_m} {\ x parcial _2}} &\ cdots& \ dst {\ frac {\ parcial f_m} {\ parcial x_n}} & \ dst {\ frac {\ parcial f_m} {\ parcial u_1}} & \ dst {\ frac {\ parcial f_m} {\ parcial u_2}} &\ cdots& \ dst {\ frac {\ parcial f_m} {parcial u_m}}\ end {array}\ derecha] = \ izquierda [\ begin {array} {cc}\ mathbf {I} &\ mathbf {0}\\\ mathbf {F} _\ mathbf {X} &\ mathbf {F} _\ mathbf {U} \ end {array}\ derecho], \]

donde\mathbf{I} está la matriz den\times n identidad,\mathbf{0} es lan\times m matriz con todas las entradas cero, y\mathbf{F}_\mathbf{X} y\mathbf{F}_\mathbf{U} son como en. Al expandir\det(\boldsymbol{\Phi}') y los determinantes que evolucionan de ella en términos de los cofactores de sus primeras filas, se puede mostrar enn pasos que .5pc\ [ J\ boldsymbol {\ Phi} =\ det (\ boldsymbol {\ Phi} ') =\ izquierda|\ begin {array} {cccc} \ dst {\ frac {\ parcial f_1} {\ parcial u_1}} & \ dst {\ frac {\ parcial f_1} {\ parcial u_2}} &\ cdots& \ dst {\ frac {\ parcial f_1} {\ parcial u_m}}\\ [3\ jot] \ dst {\ frac {\ parcial f_2} {\ parcial u_1}} & \ dst {\ frac {\ parcial f_2} {\ parcial}} &\ cdots& \ dst {\ frac {\ parcial f_2} {\ parcial u_m}}\\ [3\ jot] \ vdots&\ vdots&\ ddots&\ vdots\ \ dst {\ frac {\ parcial f_m} {\ parcial u_1}} & \ dst {\ frac {\ parcial f_m} {\ parcial u_2}} &\ cdots& \ dst {\ frac {\ parcial f_m} {\ parcial u_m}}\ end {array}\ derecho|= \ det (\ mathbf {F} _\ mathbf {U}). \] .5pc En particular,\ [ J\ boldsymbol {\ Phi} (\ mathbf {X} _0,\ mathbf {U} _0) =\ det (\ mathbf {F} _ _\ mathbf {U} (\ mathbf {X} _0,\ mathbf {U} _ _ {0})\ ne0. \] Dado que\boldsymbol{\Phi} es continuamente diferenciable enS, Corolary~ implica que\boldsymbol{\Phi} es regular en algún vecindario abiertoM de(\mathbf{X}_0,\mathbf{U}_0) y que\widehat{M}=\boldsymbol{\Phi}(M) es abierto.

Por la forma de\boldsymbol{\Phi} (ver o), podemos escribir puntos de\widehat{M} como(\mathbf{X},\mathbf{V}), dónde\mathbf{V}\in \R^m. Corolario ~ también implica que\boldsymbol{\Phi} tiene un inverso continuamente diferenciable\boldsymbol{\Gamma}(\mathbf{X},\mathbf{V}) definido\widehat{M} con valores enM. Dado que\boldsymbol{\Phi} deja la $\ mathbf {X} $ parte” de $ (\ mathbf {X},\ mathbf {U}) $ fija, una inversa local de $\ boldsymbol {\ Phi} $ también debe tener esta propiedad. Por lo tanto, $\ boldsymbol {\ Gamma} $ debe tener la forma\ vskip.5pc\ [\ boldsymbol {\ Gamma} (\ mathbf {X},\ mathbf {V}) =\ left [\ begin {array} {c} x_1\ x_2\\\ vdots\\ x_n\\ [3\ jot] h_1 (\ mathbf {X},\ mathbf {V})\\ [3\ jot] h_2 (\ mathbf {X},\ mathbf {V})\\\ vdots\\ [3\ jot] h_m (\ mathbf {X},\ mathbf {V})\ end {array}\ derecho] $$\ vskip1pc o, en horizontal” notación,\ [ \ negridsymbol {\ Gamma} (\ mathbf {X},\ mathbf {V}) =(\ mathbf {X},\ mathbf {H} (\ mathbf {X},\ mathbf {V})), \] donde\mathbf{H}:\R^{n+m}\to \R^m es continuamente diferenciable en\widehat{M}. Mostraremos que\mathbf{G}(\mathbf{X})=\mathbf{H}(\mathbf{X},\mathbf{0}) tiene las propiedades declaradas.

Desde,(\mathbf{X}_0,\mathbf{0})\in\widehat{M} y, ya que\widehat{M} está abierto, hay un barrioN de\mathbf{X}_0 en\R^n tal que(\mathbf{X},\mathbf{0})\in\widehat{M} si\mathbf{X}\in N (Ejercicio~). Por lo tanto,(\mathbf{X},\mathbf{G}(\mathbf{X})) =\boldsymbol{\Gamma}(\mathbf{X},\mathbf{0})\in M si\mathbf{X}\in N. Ya que\boldsymbol{\Gamma}=\boldsymbol{\Phi}^{-1},(\mathbf{X},\mathbf{0}) =\boldsymbol{\Phi}(\mathbf{X},\mathbf{G}(\mathbf{X})). \mathbf{X}=\mathbf{X}_0Ambientar y recordar demuestra que\mathbf{G}(\mathbf{X}_0)=\mathbf{U}_0, ya que\boldsymbol{\Phi} es uno a uno encendidoM.

En adelante asumimos eso\mathbf{X}\in N. Ahora,\ [ \ begin {array} {rcll} (\ mathbf {X},\ mathbf {0})\ ar= \ boldsymbol {\ phi} (\ boldsymbol {\ Gamma} (\ mathbf {X},\ mathbf {0})) &\ mbox { (desde $\ boldsymbol {\ Phi} =\ boldsymbol {\ Gamma} {^ -1}) $}\\\ ar= \ negridsymbol {\ Phi} (\ mathbf {X},\ mathbf {G} (\ mathbf {X})) &\ mbox {(desde $\ negridsymbol {\ Gamma} ( \ mathbf {X},\ mathbf {0}) = (\ mathbf {X},\ mathbf {G} (\ mathbf {X})) $)}\\ \ ar =(\ mathbf {X},\ mathbf {F} (\ mathbf {X},\ mathbf {G} (\ mathbf {X}))) &\ mbox {(desde $\ boldsymbol {\ Phi} (\ mathbf {X},\ mathbf {U}) = (\ mathbf {X},\ mathbf {F} (\ mathbf {X},\ mathbf {U})) $)}. \ end {array} \] Por lo tanto,\mathbf{F}(\mathbf{X},\mathbf{G}(\mathbf{X}))=\mathbf{0}; es decir,\mathbf{G} satisface. Para ver eso\mathbf{G} es único, supongamos que eso\mathbf{G}_1:\R^n\to \R^m también satisface. Entonces\ [ \ boldsymbol {\ Phi} (\ mathbf {X},\ mathbf {G} (\ mathbf {X})) = (\ mathbf {X},\ mathbf {F} (\ mathbf {X},\ mathbf {G} (\ mathbf {X})))) =(\ mathbf {X},\ mathbf {0}) \] y [\ \ boldsymbol {\ Phi} (\ mathbf {X},\ mathbf {G} _1 (\ mathbf {X})) =(\ mathbf {X},\ mathbf {F} (\ mathbf {X},\ mathbf {G} _1 (\ mathbf {X}))) =(\ mathbf {X},\ mathbf {0}) \] para todos\mathbf{X} enN. Dado que\boldsymbol{\Phi} es uno a uno enM, esto implica que\mathbf{G}(\mathbf{X})= \mathbf{G}_1(\mathbf{X}).

Dado que las derivadas parciales \ [\ frac {\ parcial h_i} {\ parcial x_j},\ quad 1\ le i\ le m,\ quad 1\ le j \ le n,\] son funciones continuas de(\mathbf{X},\mathbf{V}) on\widehat{M}, son continuas con respecto al\mathbf{X} subconjunto\set{(\mathbf{X},\mathbf{0})}{\mathbf{X} \in N} de\widehat{M}. Por lo tanto,\mathbf{G} es continuamente diferenciable enN. Para verificar, escribimos\mathbf{F}(\mathbf{X},\mathbf{G}(\mathbf{X}))=\mathbf{0} en términos de componentes; así,\ [ f_i (x_1, x_2,\ dots, x_n, g_1 (\ mathbf {X}), g_2 (\ mathbf {X}),\ dots, g_m (\ mathbf {X})) =0,\ quad 1\ le i\ m,\ quad\ mathbf {X}\ in \] Desdef_i yg_1,g_2,,g_m son continuamente diferenciables en su respectivos dominios, la regla de la cadena (Teorem~) implica que\ [\ begin {ecuación}\ label {eq:6.4.11} \ frac {\ parcial f_i (\ mathbf {X},\ mathbf {G} (\ mathbf {X}))} {\ parcial x_j} + \ sum^m_ {r=1} \ frac {\ parcial f_i (\ mathbf {X},\ mathbf {G} (\ mathbf {X}))} {\ parcial u_r} \ frac {\ parcial g_r (\ mathbf {X}) } {\ parcial x_j} =0,\ quad 1\ le i\ le m,\ 1\ le j\ le n, \ end {ecuación}\] o, en forma de matriz,\ [\ begin {ecuación}\ label {eq:6.4.12} \ mathbf {F} _\ mathbf {X} (\ mathbf {X},\ mathbf {G} (\ mathbf {X})) +\ mathbf {F} _\ mathbf {U} (\ mathbf {X},\ mathbf {G} (\ mathbf {X}))\ mathbf {G} '(\ mathbf {X}) =\ mathbf {0}. \ end {ecuación}\] Ya que(\mathbf{X},\mathbf{G}(\mathbf{X}))\in M para todos\mathbf{X} enN y\mathbf{F}_\mathbf{U}(\mathbf{X},\mathbf{U}) es nonsingular cuando(\mathbf{X},\mathbf{U})\in M, podemos multiplicar a la izquierda por\mathbf{F}^{-1}_\mathbf{U}(\mathbf{X},\mathbf{G}(\mathbf{X})) para obtener. Esto completa la prueba.

En Teorem~ denotamos la transformación implícitamente definida por\mathbf{G} por razones de claridad en la prueba. Sin embargo, al aplicar el teorema es conveniente denotar la transformación de manera más informal por\mathbf{U}=\mathbf{U}(\mathbf{X}); así\mathbf{U}(\mathbf{X}_0)=\mathbf{U}_0,, y reemplazamos y por\ [ (\ mathbf {X},\ mathbf {U} (\ mathbf {X}))\ en M\ mbox {\ quad y\ quad} \ mathbf {X} (\ mathbf {X},\ mathbf {U} (\ mathbf {X})) =0\ mbox {\ quad si}\ quad\ mathbf {X}\ in N, \] y\ [ \ mathbf {U} '(\ mathbf {X}) =- [\ mathbf {F} _\ mathbf {U} (\ mathbf {X},\ mathbf {U} (\ mathbf {X}))] ^ {-1} \ mathbf {F} _\ mathbf {X} (\ mathbf {X},\ mathbf {U} (\ mathbf {X})),\ quad\ mathbf {X}\ en N, \]

mientras se convierte en\ [\ begin {ecuación}\ label {eq:6.4.13} \ frac {\ parcial f_i} {\ parcial x_j} + \ sum^m_ {r=1} \ frac {\ parcial f_i} {\ parcial u_r} \ frac {\ parcial u_r } {\ parcial x_j} =0,\ quad 1\ le i\ le m,\ 1\ le j\ le n, \ end {ecuación}\] entendiéndose que las derivadas parciales deu_r y f_ise evalúan en\mathbf{X} y(\mathbf{X},\mathbf{U}(\mathbf{X})), respectivamente.

El siguiente corolario es el teorema de la función implícita param=1.

-2em2em

No es necesario memorizar fórmulas como y. Ya que sabemos esof yu somos diferenciables, podemos obtener y aplicando la regla de la cadena a la identidad\ [ f (x, y, u (x, y)) =0. \]

Si tratamos de resolver parau, vemos muy claramente que Teorem~ y Corolary~ son {} teoremas; es decir, nos dicen que hay una funciónu=u(x,y) que satisface, pero no como encontrarla. En este caso no existe una fórmula conveniente para la función, aunque sus derivadas parciales pueden expresarse convenientemente en términos dex,y, yu(x,y):\ [ u_x (x, y) =-\ frac {f_x (x, y, u (x, y))} { f_u (x, y, u (x, y))},\ quad u_y (x, y) =-\ frac {_y (x, y, u (x, y))} {f_u (x, y, u (x, y))}. \] En particular, ya queu(1,-1)=1,\ [ u_x (1, -1) =-\ frac {0} {-7} =0,\ quad u_y (1, -1) =-\ frac {4} {-7} =\ frac {4} {7}. \]

Nuevamente, no es necesario memorizar, ya que las derivadas parciales de una función implícitamente definida pueden obtenerse a partir de la regla de la cadena y de la regla de Cramer, como en el siguiente ejemplo.

-.4em Es conveniente ampliar la notación introducida en la Sección 6.2 para el jacobiano de una transformación\mathbf{F}:\R^m\to \R^m. Sif_1,f_2,,f_m son funciones dek variables de valor realk\ge m,\xi_1, y\xi_2,,,\xi_m son algunam de las variables, entonces llamamos al determinante\ [ \ izquierda|\ begin {array} {cccc} \ dst {\ frac {\ parcial f_1} {\ parcial\ xi_1}} & \ dst {\ frac {\ parcial f_1} {\ parcial\ xi_2}} &\ cdots& \ dst {\ frac {\ parcial f_1} {\ parcial\ xi_m}}\\ [3\ jot] \ dst {\ frac {\ parcial f_2} {\ parcial\ xi_1}} & \ dst {\ frac {\ parcial f_2} {\ parcial\ xi_2}} &\ cdots& \ dst {\ frac {\ parcial f_2} {\ parcial\ xi_m}}\\ [3\ jot] \ vdots&\ vdots&\ ddots& amp;\ vdots\\ [3\ jot] \ dst {\ frac {\ parcial f_m} {\ parcial\ xi_1}} & \ dst {\ frac {\ parcial f_m} {\ parcial\ xi_2}} &\ cdots& \ dst {\ frac {\ parcial f_m} {\ parcial\ xi_m}}\ end {array}\ derecha|, \] el {}. Denotamos a este jacobiano por \ [\ frac {\ partial (f_1, f_2,\ dots, f_m)} {\ partial (\ xi_1,\ xi_2,\ dots,\ xi_m)}, \] y denotamos el valor del jacobiano en un punto\mathbf{P} por\ [ \ frac {\ partial (f_1, f_2,\ dots, f_m)} {\ parcial (\ xi_1,\ xi_2,\ dots,\ xi_m)}\ Bigg|_\ mathbf {P}. \]

El requisito en Teorem~ que\mathbf{F}_\mathbf{U}(\mathbf{X}_0,\mathbf{U}_0) sea no singular es equivalente a\ [ \ frac {\ partial (f_1, f_2,\ dots, f_m)} {\ partial (u_1, u_2,\ dots, u_m)} \ Bigg|_ {(\ mathbf {X} _0,\ mathbf {U} _0)}\ ne0. \] Si esto es así entonces, para un fijoj, la regla de Cramer nos permite escribir la solución de como\ [ \ frac {\ parcial u_i} {\ parcial x_j} =- \ frac {\ dst {\ frac {\ parcial (f_1, f_2,\ dots, f_i,\ dots, f_m)} {\ partial (u_1, u_2,\ dots, x_j,\ puntos, u_m)}}} { \ dst {\ frac {\ parcial (f_1, f_2,\ puntos, f_i,\ puntos, f_m)} { \ partial (u_1, u_2,\ dots, u_i,\ dots, u_m)}}},\ quad 1\ le i\ le m, \] Observe que el determinante en el numerador de la derecha se obtiene reemplazando lai ésima columna del determinante en el denominador, que es\ [ \ left [\ begin {array} {c}\ dst {\ frac {\ parcial f_1} {\ parcial u_i}}\\ [3\ jot] \ dst {\ frac {\ parcial f_2} {\ parcial u_i}}\\\ vdots\ \ dst {\ frac {\ parcial f_m} {\ parcial u_i}}\ end {array}\ derecha], \ mbox {\ quad por\ quad}\ izquierda [\ begin {array} {c}\ dst {\ frac {parcial\ f_1} { \ parcial x_j}}\\ [3\ jot] \ dst {\ frac {\ parcial f_2} {\ parcial x_j}}\\\ vdots\ \ dst {\ frac {\ parcial f _m} {\ parcial x_j}}\ end {array}\ right]. \]

Hasta ahora solo hemos considerado el problema de resolver un sistema continuamente diferenciable\ [\ begin {ecuación}\ label {eq:6.4.21} \ mathbf {F} (\ mathbf {X},\ mathbf {U}) =\ mathbf {0}\ quad (\ mathbf {F}:\ R^ {n+m}\ to \ r^m) \ end {ecuación}\] para el últimasm variables,u_1,u_2,,u_m, en términos de la primeran,x_1,x_2,,x_n. Esto fue meramente por conveniencia; se puede resolver cerca(\mathbf{X}_0,\mathbf{U}_0) para cualquieram de las variables en términos de la otran, siempre que el jacobiano def_1,,f_2,f_m con respecto a lasm variables elegidas sea distinto de cero en(\mathbf{X}_0,\mathbf{U}_0). Esto se puede ver renombrando las variables y aplicando Teorem~.

Cerramos esta sección observando que las funcionesu_1,,u_2,u_m definidas en Teorem~ tienen mayores derivadas sif_1,f_2, \dots,f_m lo hacen, y pueden obtenerse diferenciando, usando la regla de la cadena. (Ejercicio~).


This page titled 6.1: Transformaciones lineales y matrices is shared under a CC BY-NC-SA 3.0 license and was authored, remixed, and/or curated by William F. Trench.

Support Center

How can we help?