Saltar al contenido principal

# 6.6: Determinantes. Jacobianos. Operadores Lineales Biyectivos

$$\newcommand{\vecs}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} }$$ $$\newcommand{\vecd}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash {#1}}}$$$$\newcommand{\id}{\mathrm{id}}$$ $$\newcommand{\Span}{\mathrm{span}}$$ $$\newcommand{\kernel}{\mathrm{null}\,}$$ $$\newcommand{\range}{\mathrm{range}\,}$$ $$\newcommand{\RealPart}{\mathrm{Re}}$$ $$\newcommand{\ImaginaryPart}{\mathrm{Im}}$$ $$\newcommand{\Argument}{\mathrm{Arg}}$$ $$\newcommand{\norm}[1]{\| #1 \|}$$ $$\newcommand{\inner}[2]{\langle #1, #2 \rangle}$$ $$\newcommand{\Span}{\mathrm{span}}$$ $$\newcommand{\id}{\mathrm{id}}$$ $$\newcommand{\Span}{\mathrm{span}}$$ $$\newcommand{\kernel}{\mathrm{null}\,}$$ $$\newcommand{\range}{\mathrm{range}\,}$$ $$\newcommand{\RealPart}{\mathrm{Re}}$$ $$\newcommand{\ImaginaryPart}{\mathrm{Im}}$$ $$\newcommand{\Argument}{\mathrm{Arg}}$$ $$\newcommand{\norm}[1]{\| #1 \|}$$ $$\newcommand{\inner}[2]{\langle #1, #2 \rangle}$$ $$\newcommand{\Span}{\mathrm{span}}$$$$\newcommand{\AA}{\unicode[.8,0]{x212B}}$$

Suponemos que el lector está familiarizado con elementos de álgebra lineal. Así, sólo recordamos brevemente algunas definiciones y reglas bien conocidas.

## Definición

Dado un operador lineal$$\phi : E^{n} \rightarrow E^{n}\left(\text { or } \phi : C^{n} \rightarrow C^{n}\right),$$ con matriz
\ [
[\ phi] =\ left (v_ {i k}\ right),\ quad i, k=1,\ ldots, n,
\]
definimos el determinante de$$[\phi]$$ by
\ [
\ begin {aligned}\ operatorname {det} [\ phi] =\ operatorname {det}\ left (v_ {i k}\ derecha) &=\ izquierda|\ begin {array} {cccc} {v_ {11}} & {v_ {12}} & {\ dots} & {v_ {1 n}}\\ {v_ {21}} & {v_ {22}} & {\ dots} & {v_ {2 n}}\\ {\ vdots} & {\ vdots} & {\ vdots} & {\ vdots} & {\ ddots} & {\ vdots}\\ {v_ {n 1}} & {v_ {n 2}} & {\ puntos} & {v_ {n n}}\ end {array}\ derecha|\\ [12pt] &=\ sum (-1) ^ {\ lambda} v_ {1 k_ {1}} v_ {2 k_ {2}}\ ldots v_ {n k_ {n}}\ end {alineado}
\]
donde la suma está sobre todas las$$n$$ -tuplas ordenadas$$\left(k_{1}, \ldots, k_{n}\right)$$ de enteros distintos$$k_{j}\left(1 \leq k_{j} \leq n\right),$$ y
\ [
\ lambda=\ left\ {\ begin {array} {ll} {0} & {\ text {if}\ prod_ {j<m}\ izquierda (k_ {m} -k_ {j}\ derecha) >0\ text {y}}\\ {1} & {\ text {if}\ prod_ {j<m}\ left (k_ {m} -k_ {j}\ right) <0}\ end {array}\ right.
\]

Recordemos (Problema 12 en §2) que un conjunto$$B=\left\{\vec{v}_{1}, \vec{v}_{2}, \ldots, \vec{v}_{n}\right\}$$ en un espacio vectorial$$E$$ es una base iff
(i)$$B$$ abarca$$E,$$ es decir, cada uno$$\vec{v} \in E$$ tiene la forma
\ [
\ vec {v} =\ sum_ {i=1} ^ {n} a_ {i}\ vec {v} _ _ {i}
\]
para algunos escalares $$a_{i},$$y
ii) esta representación es única.
Esto último es cierto si los$$\vec{v}_{i}$$ son independientes, es decir,
\ [
\ sum_ {i=1} ^ {n} a_ {i}\ vec {v} _ {i} =\ overrightarrow {0}\ Longleftrightarrow a_ {i} =0, i=1,\ ldots, n.
\]
Si$$E$$ tiene una base de$$n$$ vectores, llamamos $$E$$n-dimensional (por ejemplo,$$E^{n}$$ y$$C^{n} )$$.
Los determinantes y bases cumplen las siguientes reglas.
a) Regla de multiplicación. Si$$\phi, g : E^{n} \rightarrow E^{n}\left(\text { or } C^{n} \rightarrow C^{n}\right)$$ son lineales, entonces
\ [
\ operatorname {det} [g]\ cdot\ operatorname {det} [\ phi] =\ operatorname {det} ([g] [\ phi]) =\ operatorname {det} [g\ circ\ phi]
\]
(ver §2, Teorema 3 y Nota 4).
(b) Si$$\phi(\vec{x})=\vec{x}$$ (mapa de identidad), entonces$$[\phi]=\left(v_{i k}\right)$$, donde
\ [
v_ {i k} =\ left\ {\ begin {array} {ll} {0} & {\ text {if} i\ neq k\ text {and}}\\ {1} & {\ text {if} i=k}\ end {array}\ right.
\] de
ahí det$$[\phi]=1 .(\text { Why } ?)$$ Ver también los Problemas.
(c) Un espacio$$n$$ -dimensional$$E$$ es abarcado por un conjunto de$$n$$ vectores si son independientes. Si es así, cada base consta exactamente de$$n$$ vectores.

## Definición

Para cualquier función$$f : E^{n} \rightarrow E^{n}$$ (o$$f : C^{n} \rightarrow C^{n} ),$$ definimos el mapa jacobiano$$f$$ -inducido$$J_{f} : E^{n} \rightarrow E^{1}\left(J_{f} : C^{n} \rightarrow C\right)$$ configurando
\ [
J_ {f} (\ vec {x}) =\ operatorname {det}\ left (v_ {i k}\ right),
\]
donde$$v_{i k}=D_{k} f_{i}(\vec{x}), \vec{x} \in E^{n}\left(C^{n}\right),$$ y$$f=\left(f_{1}, \ldots, f_{n}\right)$$.
El determinante
\ [
J_ {f} (\ vec {p}) =\ operatorname {det}\ left (D_ {k} f_ {i} (\ vec {p})\ right)
\]
se llama el jacobiano de$$f$$ at$$\vec{p}$$.
Por nuestras convenciones, siempre se define, como son las funciones$$D_{k} f_{i}$$.

De manera explícita,$$J_{f}(\vec{p})$$ es el determinante de la matriz del lado derecho en la fórmula$$(14)$$ en §3. Brevemente,

\ [
J_ {f} =\ nombreoperador {det}\ izquierda (D_ {k} f_ {i}\ derecha).
\]

Por Definición 2 y Nota 2 en §5

\ [
J_ {f} (\ vec {p}) =\ nombreoperador {det}\ izquierda [d^ {1} f (\ vec {p};\ cdot)\ derecha].
\]

Si$$f$$ es diferenciable en$$\vec{p}$$,

\ [
J_ {f} (\ vec {p}) =\ nombreoperador {det}\ izquierda [f^ {\ prime} (\ vec {p})\ derecha].
\]

Nota 1. De manera más general, dada cualquier función$$v_{i k} : E^{\prime} \rightarrow E^{1}(C),$$ podemos definir un mapa$$f : E^{\prime} \rightarrow E^{1}(C)$$ mediante

\ [
f (\ vec {x}) =\ nombreoperador {det}\ izquierda (v_ {i k} (\ vec {x})\ derecha);
\]

brevemente$$f=\operatorname{det}\left(v_{i k}\right), i, k=1, \ldots, n$$.

Entonces llamamos$$f$$ un determinante funcional.

Si$$E^{\prime}=E^{n}\left(C^{n}\right)$$ entonces$$f$$ es una función de$$n$$ variables, ya que$$\vec{x}=\left(x_{1}, x_{2}, \ldots, x_{n}\right)$$. Si todos$$v_{i k}$$ son continuos o diferenciables en algunos$$\vec{p} \in E^{\prime},$$ así es$$f ;$$ para by$$(1), f$$ es una suma finita de funciones de la forma

\ [
(-1) ^ {\ lambda} v_ {i k_ {1}} v_ {i k_ {2}}\ puntos v_ {i k_ {n}},
\]

y cada uno de estos es continuo o diferenciable si los$$v_{i k_{i}}$$ son (ver Problemas 7 y 8 en §3).

Nota 2. De ahí que el mapa jacobiano$$J_{f}$$ sea continuo o diferenciable$$\vec{p}$$ si todas las funciones derivadas parcialmente lo$$D_{k} f_{i}(i, k \leq n)$$ son.

Si, además,$$J_{f}(\vec{p}) \neq 0,$$ entonces$$J_{f} \neq 0$$ en algún globo sobre$$\vec{p}.$$ (Aplica el Problema 7 en el Capítulo 4, §2, a$$\left|J_{f}\right|.)$$

En notación clásica, se escribe

\ [
\ frac {\ parcial\ izquierda (f_ {1},\ ldots, f_ {n}\ derecha)} {\ parcial\ izquierda (x_ {1},\ ldots, x_ {n}\ derecha)}\ text {o}\ frac {\ parcial\ izquierda (y_ {1},\ ldots, y_ {n}\ derecha)} {\ parcial\ izquierda (x_ {1},\ lpuntos, x_ {n}\ derecha)}
\]

para$$J_{f}(\vec{x}) .$$ Aquí$$\left(y_{1}, \ldots, y_{n}\right)=f\left(x_{1}, \ldots, x_{n}\right)$$.

Las observaciones hechas en §4 se aplican también a esta notación “variable”. La regla de la cadena produce fácilmente el siguiente corolario.

## Corolario$$\PageIndex{1}$$

Si$$f : E^{n} \rightarrow E^{n}$$ y$$g : E^{n} \rightarrow E^{n}$$ (o$$f, g : C^{n} \rightarrow C^{n})$$ son diferenciables en$$\vec{p}$$ y$$\vec{q}=f(\vec{p}),$$ respectivamente, y si

$h=g \circ f,$

entonces

$J_{h}(\vec{p})=J_{g}(\vec{q}) \cdot J_{f}(\vec{p})=\operatorname{det}\left(z_{i k}\right),$

donde

$z_{i k}=D_{k} h_{i}(\vec{p}), \quad i, k=1, \ldots, n;$

o, establecer

\begin{aligned}\left(u_{1}, \ldots, u_{n}\right) &=g\left(y_{1}, \ldots, y_{n}\right) \text { and } \\\left(y_{1}, \ldots, y_{n}\right) &=f\left(x_{1}, \ldots, x_{n}\right) \text { ("variables")}, \end{aligned}

tenemos

$\frac{\partial\left(u_{1}, \ldots, u_{n}\right)}{\partial\left(x_{1}, \ldots, x_{n}\right)}=\frac{\partial\left(u_{1}, \ldots, u_{n}\right)}{\partial\left(y_{1}, \ldots, y_{n}\right)} \cdot \frac{\partial\left(y_{1}, \ldots, y_{n}\right)}{\partial\left(x_{1}, \ldots, x_{n}\right)}=\operatorname{det}\left(z_{i k}\right),$

donde

$z_{i k}=\frac{\partial u_{i}}{\partial x_{k}}, \quad i, k=1, \ldots, n.$

Prueba

Por Nota 2 en §4,

$\left[h^{\prime}(\vec{p})\right]=\left[g^{\prime}(\vec{q})\right] \cdot\left[f^{\prime}(\vec{p})\right].$

Así pues, mediante la regla a) supra,

$\operatorname{det}\left[h^{\prime}(\vec{p})\right]=\operatorname{det}\left[g^{\prime}(\vec{q})\right] \cdot \operatorname{det}\left[f^{\prime}(\vec{p})\right],$

es decir,

$J_{h}(\vec{p})=J_{g}(\vec{q}) \cdot J_{f}(\vec{p}).$

Además, si$$\left[h^{\prime}(\vec{p})\right]=\left(z_{i k}\right),$$ la Definición 2 rinde$$z_{i k}=D_{k} h_{i}(\vec{p})$$.

Esto prueba (i), de ahí (ii) también. $$\quad \square$$

En la práctica, los jacobianos ocurren mayormente cuando se realiza un cambio de variables. Por ejemplo, en$$E^{2},$$ podemos pasar de coordenadas cartesianas$$(x, y)$$ a otro sistema$$(u, v)$$ tal que

$x=f_{1}(u, v) \text { and } y=f_{2}(u, v).$

Luego establecemos$$f=\left(f_{1}, f_{2}\right)$$ y obtenemos$$f : E^{2} \rightarrow E^{2}$$,

$J_{f}=\operatorname{det}\left(D_{k} f_{i}\right), \quad k, i=1,2.$

## Ejemplo (paso a coordenadas polares)

Dejar$$x=f_{1}(r, \theta)=r \cos \theta$$ y$$y=f_{2}(r, \theta)=r \sin \theta$$.

Luego usando la notación “variable”, obtenemos$$J_{f}(r, \theta)$$ como

\begin{aligned} \frac{\partial(x, y)}{\partial(r, \theta)}=\left|\begin{array}{ll}{\frac{\partial x}{\partial r}} & {\frac{\partial x}{\partial \theta}} \\ {\frac{\partial y}{\partial r}} & {\frac{\partial y}{\partial \theta}}\end{array}\right| &=\left|\begin{array}{cc}{\cos \theta} & {-r \sin \theta} \\ {\sin \theta} & {r \cos \theta}\end{array}\right| \\ &=r \cos ^{2} \theta+r \sin ^{2} \theta=r. \end{aligned}

Así que aquí$$J_{f}(r, \theta)=r$$ para todos$$r, \theta \in E^{1} ; J_{f}$$ es independiente de$$\theta$$.

Ahora nos concentramos en funciones uno a uno (invertibles).

## Teorema$$\PageIndex{1}$$

Para un mapa lineal,$$\phi : E^{n} \rightarrow E^{n}\left(\text {or} \phi : C^{n} \rightarrow C^{n}\right),$$ los siguientes son equivalentes:

i)$$\phi$$ sea uno a uno;

ii) los vectores$$\vec{v}_{1}, \ldots, \vec{v}_{n}$$ de columna de la matriz$$[\phi]$$ son independientes;

iii)$$\phi$$ está en$$E^{n}\left(C^{n}\right)$$;

iv)$$\operatorname{det}[\phi] \neq 0$$.

Prueba

Asumir (i) y dejar

$\sum_{k=1}^{n} c_{k} \vec{v}_{k}=\overrightarrow{0}.$

Para deducir (ii), debemos demostrar que todos$$c_{k}$$ desaparecen.

Ahora bien, por la Nota 3 en §2,$$\vec{v}_{k}=\phi\left(\vec{e}_{k}\right);$$ entonces por linealidad,

$\sum_{k=1}^{n} c_{k} \vec{v}_{k}=\overrightarrow{0}$

implica

$\phi\left(\sum_{k=1}^{n} c_{k} \vec{e}_{k}\right)=\overrightarrow{0}.$

Como$$\phi$$ es uno a uno,$$\overrightarrow{0}$$ solo puede desvanecerse. Así

$\sum_{k=1}^{n} c_{k} \vec{e}_{k}=\overrightarrow{0}.$

De ahí que por el Teorema 2 en el Capítulo 3, §§1-3,$$c_{k}=0, k=1, \ldots, n,$$ y (ii) sigue.

A continuación, supongamos (ii); entonces, por regla (c) anterior,$$\left\{\vec{v}_{1}, \ldots, \vec{v}_{n}\right\}$$ es una base.

Así cada uno$$\vec{y} \in E^{n}\left(C^{n}\right)$$ tiene la forma

$\vec{y}=\sum_{k=1}^{n} a_{k} \vec{v}_{k}=\sum_{k=1}^{n} a_{k} \phi\left(\vec{e}_{k}\right)=\phi\left(\sum_{k=1}^{n} a_{k} \vec{e}_{k}\right)=\phi(\vec{x}),$

donde

$\vec{x}=\sum_{k=1}^{n} a_{k} \vec{e}_{k} \text { (uniquely).}$

De ahí que (ii) implica tanto (iii) como (i). (¿Por qué?)

Ahora asuma (iii). Entonces cada uno$$\vec{y} \in E^{n}\left(C^{n}\right)$$ tiene la forma$$\vec{y}=\phi(\vec{x}),$$ donde

$\vec{x}=\sum_{k=1}^{n} x_{k} \vec{e}_{k},$

por Teorema 2 en el Capítulo 3, §§1-3. De ahí otra vez

$\vec{y}=\sum_{k=1}^{n} x_{k} \phi\left(\vec{e}_{k}\right)=\sum_{k=1}^{n} x_{k} \vec{v}_{k};$

entonces el$$\vec{v}_{k}$$ lapso todo de$$E^{n}\left(C^{n}\right).$$ Por regla (c) anterior, esto implica (ii), de ahí (i), también. Así, los incisos i), ii) y iii) son equivalentes.

Además, por las reglas (a) y (b), tenemos

$\operatorname{det}[\phi] \cdot \operatorname{det}\left[\phi^{-1}\right]=\operatorname{det}\left[\phi \circ \phi^{-1}\right]=1$

si$$\phi$$ es uno a uno (para$$\phi \circ \phi^{-1}$$ es el mapa de identidad). De ahí que$$\operatorname{det}[\phi] \neq 0$$ si (i) se sostiene.

Para lo contrario, supongamos que no$$\phi$$ es uno a uno. Entonces por (ii), los no$$\vec{v}_{k}$$ son independientes. Así uno de ellos es una combinación lineal de los otros, digamos,

$\vec{v}_{1}=\sum_{k=2}^{n} a_{k} \vec{v}_{k}.$

Pero por álgebra lineal (Problema 13 (iii)),$$\operatorname{det}[\phi]$$ no cambia si$$\vec{v}_{1}$$ se sustituye por

$\vec{v}_{1}-\sum_{k=2}^{n} a_{k} \vec{v}_{k}=\overrightarrow{0}.$

Así$$\operatorname{det}[\phi]=0$$ (una columna volviéndose a$$\overrightarrow{0}).$$ Esto completa la prueba. $$\quad \square$$

Nota 3. Los mapas que están tanto en como uno a uno se llaman biyective. Tal es$$\phi$$ en el Teorema 1. Esto significa que la ecuación

$\phi(\vec{x})=\vec{y}$

tiene una solución única

$\vec{x}=\phi^{-1}(\vec{y})$

para cada$$\vec{y}.$$ Componentwise, por Teorema 1, las ecuaciones

$\sum_{k=1}^{n} x_{k} v_{i k}=y_{i}, \quad i=1, \ldots, n,$

tienen una solución única para el$$x_{k}$$ iff$$\operatorname{det}\left(v_{i k}\right) \neq 0$$.

## Corolario$$\PageIndex{2}$$

Si$$\phi \in L\left(E^{\prime}, E\right)$$ es biyectiva, con$$E^{\prime}$$ y$$E$$ completa, entonces$$\phi^{-1} \in L\left(E, E^{\prime}\right).$$

Prueba para$$E=E^{n}\left(C^{n}\right)$$

La notación$$\phi \in L\left(E^{\prime}, E\right)$$ significa que$$\phi : E^{\prime} \rightarrow E$$ es lineal y continua.

Como$$\phi$$ es biyectiva,$$\phi^{-1} : E \rightarrow E^{\prime}$$ es lineal (Problema 12).

Si$$E=E^{n}\left(C^{n}\right),$$ es continuo, también (Teorema 2 en §2).

Así$$\phi^{-1} \in L\left(E, E^{\prime}\right). \quad \square$$

Nota. El caso$$E=E^{n}\left(C^{n}\right)$$ es suficiente para un curso de licenciatura. (Se aconseja al principiante que omita el “estrellado” §8.) El corolario 2 y el teorema 2 a continuación, sin embargo, son válidos en el caso general. Así es el Teorema 1 en §7.

## Teorema$$\PageIndex{2}$$

Dejar$$E, E^{\prime}$$ y$$\phi$$ ser como en Corolario 2. Set

$\left\|\phi^{-1}\right\|=\frac{1}{\varepsilon}.$

Entonces cualquier mapa$$\theta \in L\left(E^{\prime}, E\right)$$ con$$\|\theta-\phi\|<\varepsilon$$ es uno a uno, y$$\theta^{-1}$$ es uniformemente continuo.

Prueba

Comprobante. Por Corolario 2,$$\phi^{-1} \in L\left(E, E^{\prime}\right),$$ así$$\left\|\phi^{-1}\right\|$$ se define y$$>0$$ (porque no$$\phi^{-1}$$ es el mapa cero, siendo uno a uno).

Por lo tanto, podemos establecer

$\varepsilon=\frac{1}{\left\|\phi^{-1}\right\|}, \quad\left\|\phi^{-1}\right\|=\frac{1}{\varepsilon}.$

Claramente$$\vec{x}=\phi^{-1}(\vec{y})$$ si$$\vec{y}=\phi(\vec{x}).$$ También,

$\left|\phi^{-1}(\vec{y})\right| \leq \frac{1}{\varepsilon}|\vec{y}|$

por Nota 5 en §2, Por lo tanto

$|\vec{y}| \geq \varepsilon\left|\phi^{-1}(\vec{y})\right|,$

es decir,

$|\phi(\vec{x})| \geq \varepsilon|\vec{x}|$

para todos$$\vec{x} \in E^{\prime}$$ y$$\vec{y} \in E$$.

Ahora supongamos$$\phi \in L\left(E^{\prime}, E\right)$$ y$$\|\theta-\phi\|=\sigma<\varepsilon$$.

Obviamente,$$\theta=\phi-(\phi-\theta),$$ y por la Nota 5 en §2,

$|(\phi-\theta)(\vec{x})| \leq\|\phi-\theta\||\vec{x}|=\sigma|\vec{x}|.$

Por lo tanto, para cada$$\vec{x} \in E^{\prime}$$,

\begin{aligned}|\theta(\vec{x})| & \geq|\phi(\vec{x})|-|(\phi-\theta)(\vec{x})| \\ & \geq|\phi(\vec{x})|-\sigma|\vec{x}| \\ & \geq(\varepsilon-\sigma)|\vec{x}| \end{aligned}

por (2). Por lo tanto, dado$$\vec{p} \neq \vec{r}$$ en$$E^{\prime}$$ y ajuste$$\vec{x}=\vec{p}-\vec{r} \neq \overrightarrow{0},$$ obtenemos

$|\theta(\vec{p})-\theta(\vec{r})|=|\theta(\vec{p}-\vec{r})|=|\theta(\vec{x})| \geq(\varepsilon-\sigma)|\vec{x}|>0$

(ya que$$\sigma<\varepsilon )$$.

Vemos que eso$$\vec{p} \neq \vec{r}$$ implica que$$\theta(\vec{p}) \neq \theta(\vec{r});$$ así$$\theta$$ es uno a uno, en efecto.

Además, configurando$$\theta(\vec{x})=\vec{z}$$ y$$\vec{x}=\theta^{-1}(\vec{z})$$ en (3), obtenemos

$|\vec{z}| \geq(\varepsilon-\sigma)\left|\theta^{-1}(\vec{z})\right|;$

es decir,

$\left|\theta^{-1}(\vec{z})\right| \leq(\varepsilon-\sigma)^{-1}|\vec{z}|$

para todos$$\vec{z}$$ en el rango de$$\theta$$ (dominio de$$\theta^{-1})$$.

Así$$\theta^{-1}$$ está linealmente delimitado (por el Teorema 1 en §2), de ahí uniformemente continuo, como se reivindica. $$\quad \square$$

## Corolario$$\PageIndex{3}$$

Si$$E^{\prime}=E=E^{n}\left(C^{n}\right)$$ en el Teorema 2 anterior, entonces para dado$$\phi$$ y siempre$$\delta>0,$$ hay$$\delta^{\prime}>0$$ tal que

$\|\theta-\phi\|<\delta^{\prime} \text { implies }\left\|\theta^{-1}-\phi^{-1}\right\|<\delta.$

En otras palabras, la transformación$$\phi \rightarrow \phi^{-1}$$ es continua en$$L(E), E=$$$$E^{n}\left(C^{n}\right).$$

Prueba

Primero, ya que$$E^{\prime}=E=E^{n}\left(C^{n}\right), \theta$$ es biyectiva por el Teorema 1 (iii), así$$\theta^{-1} \in L(E)$$.

Como antes, set$$\|\theta-\phi\|=\sigma<\varepsilon$$.

Por Nota 5 en §2, la fórmula (5) anterior implica que

$\left\|\theta^{-1}\right\| \leq \frac{1}{\varepsilon-\sigma}.$

También,

$\phi^{-1} \circ(\theta-\phi) \circ \theta^{-1}=\phi^{-1}-\theta^{-1}$

(ver Problema 11).

De ahí por Corolario 4 en §2, recordando que$$\left\|\phi^{-1}\right\|=1 / \varepsilon,$$ obtenemos

$\left\|\theta^{-1}-\phi^{-1}\right\| \leq\left\|\phi^{-1}\right\| \cdot\|\theta-\phi\| \cdot\left\|\theta^{-1}\right\| \leq \frac{\sigma}{\varepsilon(\varepsilon-\sigma)} \rightarrow 0 \text { as } \sigma \rightarrow 0. \quad \square$

This page titled 6.6: Determinantes. Jacobianos. Operadores Lineales Biyectivos is shared under a CC BY 3.0 license and was authored, remixed, and/or curated by Elias Zakon (The Trilla Group (support by Saylor Foundation)) via source content that was edited to the style and standards of the LibreTexts platform; a detailed edit history is available upon request.