Saltar al contenido principal
LibreTexts Español

6.6: Determinantes. Jacobianos. Operadores Lineales Biyectivos

  • Page ID
    113716
  • \( \newcommand{\vecs}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} } \) \( \newcommand{\vecd}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash {#1}}} \)\(\newcommand{\id}{\mathrm{id}}\) \( \newcommand{\Span}{\mathrm{span}}\) \( \newcommand{\kernel}{\mathrm{null}\,}\) \( \newcommand{\range}{\mathrm{range}\,}\) \( \newcommand{\RealPart}{\mathrm{Re}}\) \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\) \( \newcommand{\Argument}{\mathrm{Arg}}\) \( \newcommand{\norm}[1]{\| #1 \|}\) \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\) \( \newcommand{\Span}{\mathrm{span}}\) \(\newcommand{\id}{\mathrm{id}}\) \( \newcommand{\Span}{\mathrm{span}}\) \( \newcommand{\kernel}{\mathrm{null}\,}\) \( \newcommand{\range}{\mathrm{range}\,}\) \( \newcommand{\RealPart}{\mathrm{Re}}\) \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\) \( \newcommand{\Argument}{\mathrm{Arg}}\) \( \newcommand{\norm}[1]{\| #1 \|}\) \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\) \( \newcommand{\Span}{\mathrm{span}}\)\(\newcommand{\AA}{\unicode[.8,0]{x212B}}\)

    Suponemos que el lector está familiarizado con elementos de álgebra lineal. Así, sólo recordamos brevemente algunas definiciones y reglas bien conocidas.

    Definición

    Dado un operador lineal\(\phi : E^{n} \rightarrow E^{n}\left(\text { or } \phi : C^{n} \rightarrow C^{n}\right),\) con matriz
    \ [
    [\ phi] =\ left (v_ {i k}\ right),\ quad i, k=1,\ ldots, n,
    \]
    definimos el determinante de\([\phi]\) by
    \ [
    \ begin {aligned}\ operatorname {det} [\ phi] =\ operatorname {det}\ left (v_ {i k}\ derecha) &=\ izquierda|\ begin {array} {cccc} {v_ {11}} & {v_ {12}} & {\ dots} & {v_ {1 n}}\\ {v_ {21}} & {v_ {22}} & {\ dots} & {v_ {2 n}}\\ {\ vdots} & {\ vdots} & {\ vdots} & {\ vdots} & {\ ddots} & {\ vdots}\\ {v_ {n 1}} & {v_ {n 2}} & {\ puntos} & {v_ {n n}}\ end {array}\ derecha|\\ [12pt] &=\ sum (-1) ^ {\ lambda} v_ {1 k_ {1}} v_ {2 k_ {2}}\ ldots v_ {n k_ {n}}\ end {alineado}
    \]
    donde la suma está sobre todas las\(n\) -tuplas ordenadas\(\left(k_{1}, \ldots, k_{n}\right)\) de enteros distintos\(k_{j}\left(1 \leq k_{j} \leq n\right),\) y
    \ [
    \ lambda=\ left\ {\ begin {array} {ll} {0} & {\ text {if}\ prod_ {j<m}\ izquierda (k_ {m} -k_ {j}\ derecha) >0\ text {y}}\\ {1} & {\ text {if}\ prod_ {j<m}\ left (k_ {m} -k_ {j}\ right) <0}\ end {array}\ right.
    \]

    Recordemos (Problema 12 en §2) que un conjunto\(B=\left\{\vec{v}_{1}, \vec{v}_{2}, \ldots, \vec{v}_{n}\right\}\) en un espacio vectorial\(E\) es una base iff
    (i)\(B\) abarca\(E,\) es decir, cada uno\(\vec{v} \in E\) tiene la forma
    \ [
    \ vec {v} =\ sum_ {i=1} ^ {n} a_ {i}\ vec {v} _ _ {i}
    \]
    para algunos escalares \(a_{i},\)y
    ii) esta representación es única.
    Esto último es cierto si los\(\vec{v}_{i}\) son independientes, es decir,
    \ [
    \ sum_ {i=1} ^ {n} a_ {i}\ vec {v} _ {i} =\ overrightarrow {0}\ Longleftrightarrow a_ {i} =0, i=1,\ ldots, n.
    \]
    Si\(E\) tiene una base de\(n\) vectores, llamamos \(E\)n-dimensional (por ejemplo,\(E^{n}\) y\(C^{n} )\).
    Los determinantes y bases cumplen las siguientes reglas.
    a) Regla de multiplicación. Si\(\phi, g : E^{n} \rightarrow E^{n}\left(\text { or } C^{n} \rightarrow C^{n}\right)\) son lineales, entonces
    \ [
    \ operatorname {det} [g]\ cdot\ operatorname {det} [\ phi] =\ operatorname {det} ([g] [\ phi]) =\ operatorname {det} [g\ circ\ phi]
    \]
    (ver §2, Teorema 3 y Nota 4).
    (b) Si\(\phi(\vec{x})=\vec{x}\) (mapa de identidad), entonces\([\phi]=\left(v_{i k}\right)\), donde
    \ [
    v_ {i k} =\ left\ {\ begin {array} {ll} {0} & {\ text {if} i\ neq k\ text {and}}\\ {1} & {\ text {if} i=k}\ end {array}\ right.
    \] de
    ahí det\([\phi]=1 .(\text { Why } ?)\) Ver también los Problemas.
    (c) Un espacio\(n\) -dimensional\(E\) es abarcado por un conjunto de\(n\) vectores si son independientes. Si es así, cada base consta exactamente de\(n\) vectores.

    Definición

    Para cualquier función\(f : E^{n} \rightarrow E^{n}\) (o\(f : C^{n} \rightarrow C^{n} ),\) definimos el mapa jacobiano\(f\) -inducido\(J_{f} : E^{n} \rightarrow E^{1}\left(J_{f} : C^{n} \rightarrow C\right)\) configurando
    \ [
    J_ {f} (\ vec {x}) =\ operatorname {det}\ left (v_ {i k}\ right),
    \]
    donde\(v_{i k}=D_{k} f_{i}(\vec{x}), \vec{x} \in E^{n}\left(C^{n}\right),\) y\(f=\left(f_{1}, \ldots, f_{n}\right)\).
    El determinante
    \ [
    J_ {f} (\ vec {p}) =\ operatorname {det}\ left (D_ {k} f_ {i} (\ vec {p})\ right)
    \]
    se llama el jacobiano de\(f\) at\(\vec{p}\).
    Por nuestras convenciones, siempre se define, como son las funciones\(D_{k} f_{i}\).

    De manera explícita,\(J_{f}(\vec{p})\) es el determinante de la matriz del lado derecho en la fórmula\((14)\) en §3. Brevemente,

    \ [
    J_ {f} =\ nombreoperador {det}\ izquierda (D_ {k} f_ {i}\ derecha).
    \]

    Por Definición 2 y Nota 2 en §5

    \ [
    J_ {f} (\ vec {p}) =\ nombreoperador {det}\ izquierda [d^ {1} f (\ vec {p};\ cdot)\ derecha].
    \]

    Si\(f\) es diferenciable en\(\vec{p}\),

    \ [
    J_ {f} (\ vec {p}) =\ nombreoperador {det}\ izquierda [f^ {\ prime} (\ vec {p})\ derecha].
    \]

    Nota 1. De manera más general, dada cualquier función\(v_{i k} : E^{\prime} \rightarrow E^{1}(C),\) podemos definir un mapa\(f : E^{\prime} \rightarrow E^{1}(C)\) mediante

    \ [
    f (\ vec {x}) =\ nombreoperador {det}\ izquierda (v_ {i k} (\ vec {x})\ derecha);
    \]

    brevemente\(f=\operatorname{det}\left(v_{i k}\right), i, k=1, \ldots, n\).

    Entonces llamamos\(f\) un determinante funcional.

    Si\(E^{\prime}=E^{n}\left(C^{n}\right)\) entonces\(f\) es una función de\(n\) variables, ya que\(\vec{x}=\left(x_{1}, x_{2}, \ldots, x_{n}\right)\). Si todos\(v_{i k}\) son continuos o diferenciables en algunos\(\vec{p} \in E^{\prime},\) así es\(f ;\) para by\((1), f\) es una suma finita de funciones de la forma

    \ [
    (-1) ^ {\ lambda} v_ {i k_ {1}} v_ {i k_ {2}}\ puntos v_ {i k_ {n}},
    \]

    y cada uno de estos es continuo o diferenciable si los\(v_{i k_{i}}\) son (ver Problemas 7 y 8 en §3).

    Nota 2. De ahí que el mapa jacobiano\(J_{f}\) sea continuo o diferenciable\(\vec{p}\) si todas las funciones derivadas parcialmente lo\(D_{k} f_{i}(i, k \leq n)\) son.

    Si, además,\(J_{f}(\vec{p}) \neq 0,\) entonces\(J_{f} \neq 0\) en algún globo sobre\(\vec{p}.\) (Aplica el Problema 7 en el Capítulo 4, §2, a\(\left|J_{f}\right|.)\)

    En notación clásica, se escribe

    \ [
    \ frac {\ parcial\ izquierda (f_ {1},\ ldots, f_ {n}\ derecha)} {\ parcial\ izquierda (x_ {1},\ ldots, x_ {n}\ derecha)}\ text {o}\ frac {\ parcial\ izquierda (y_ {1},\ ldots, y_ {n}\ derecha)} {\ parcial\ izquierda (x_ {1},\ lpuntos, x_ {n}\ derecha)}
    \]

    para\(J_{f}(\vec{x}) .\) Aquí\(\left(y_{1}, \ldots, y_{n}\right)=f\left(x_{1}, \ldots, x_{n}\right)\).

    Las observaciones hechas en §4 se aplican también a esta notación “variable”. La regla de la cadena produce fácilmente el siguiente corolario.

    Corolario\(\PageIndex{1}\)

    Si\(f : E^{n} \rightarrow E^{n}\) y\(g : E^{n} \rightarrow E^{n}\) (o\(f, g : C^{n} \rightarrow C^{n})\) son diferenciables en\(\vec{p}\) y\(\vec{q}=f(\vec{p}),\) respectivamente, y si

    \[h=g \circ f,\]

    entonces

    \[J_{h}(\vec{p})=J_{g}(\vec{q}) \cdot J_{f}(\vec{p})=\operatorname{det}\left(z_{i k}\right),\]

    donde

    \[z_{i k}=D_{k} h_{i}(\vec{p}), \quad i, k=1, \ldots, n;\]

    o, establecer

    \[\begin{aligned}\left(u_{1}, \ldots, u_{n}\right) &=g\left(y_{1}, \ldots, y_{n}\right) \text { and } \\\left(y_{1}, \ldots, y_{n}\right) &=f\left(x_{1}, \ldots, x_{n}\right) \text { ("variables")}, \end{aligned}\]

    tenemos

    \[\frac{\partial\left(u_{1}, \ldots, u_{n}\right)}{\partial\left(x_{1}, \ldots, x_{n}\right)}=\frac{\partial\left(u_{1}, \ldots, u_{n}\right)}{\partial\left(y_{1}, \ldots, y_{n}\right)} \cdot \frac{\partial\left(y_{1}, \ldots, y_{n}\right)}{\partial\left(x_{1}, \ldots, x_{n}\right)}=\operatorname{det}\left(z_{i k}\right),\]

    donde

    \[z_{i k}=\frac{\partial u_{i}}{\partial x_{k}}, \quad i, k=1, \ldots, n.\]

    Prueba

    Por Nota 2 en §4,

    \[\left[h^{\prime}(\vec{p})\right]=\left[g^{\prime}(\vec{q})\right] \cdot\left[f^{\prime}(\vec{p})\right].\]

    Así pues, mediante la regla a) supra,

    \[\operatorname{det}\left[h^{\prime}(\vec{p})\right]=\operatorname{det}\left[g^{\prime}(\vec{q})\right] \cdot \operatorname{det}\left[f^{\prime}(\vec{p})\right],\]

    es decir,

    \[J_{h}(\vec{p})=J_{g}(\vec{q}) \cdot J_{f}(\vec{p}).\]

    Además, si\(\left[h^{\prime}(\vec{p})\right]=\left(z_{i k}\right),\) la Definición 2 rinde\(z_{i k}=D_{k} h_{i}(\vec{p})\).

    Esto prueba (i), de ahí (ii) también. \(\quad \square\)

    En la práctica, los jacobianos ocurren mayormente cuando se realiza un cambio de variables. Por ejemplo, en\(E^{2},\) podemos pasar de coordenadas cartesianas\((x, y)\) a otro sistema\((u, v)\) tal que

    \[x=f_{1}(u, v) \text { and } y=f_{2}(u, v).\]

    Luego establecemos\(f=\left(f_{1}, f_{2}\right)\) y obtenemos\(f : E^{2} \rightarrow E^{2}\),

    \[J_{f}=\operatorname{det}\left(D_{k} f_{i}\right), \quad k, i=1,2.\]

    Ejemplo (paso a coordenadas polares)

    Dejar\(x=f_{1}(r, \theta)=r \cos \theta\) y\(y=f_{2}(r, \theta)=r \sin \theta\).

    Luego usando la notación “variable”, obtenemos\(J_{f}(r, \theta)\) como

    \[\begin{aligned} \frac{\partial(x, y)}{\partial(r, \theta)}=\left|\begin{array}{ll}{\frac{\partial x}{\partial r}} & {\frac{\partial x}{\partial \theta}} \\ {\frac{\partial y}{\partial r}} & {\frac{\partial y}{\partial \theta}}\end{array}\right| &=\left|\begin{array}{cc}{\cos \theta} & {-r \sin \theta} \\ {\sin \theta} & {r \cos \theta}\end{array}\right| \\ &=r \cos ^{2} \theta+r \sin ^{2} \theta=r. \end{aligned}\]

    Así que aquí\(J_{f}(r, \theta)=r\) para todos\(r, \theta \in E^{1} ; J_{f}\) es independiente de\(\theta\).

    Ahora nos concentramos en funciones uno a uno (invertibles).

    Teorema\(\PageIndex{1}\)

    Para un mapa lineal,\(\phi : E^{n} \rightarrow E^{n}\left(\text {or} \phi : C^{n} \rightarrow C^{n}\right),\) los siguientes son equivalentes:

    i)\(\phi\) sea uno a uno;

    ii) los vectores\(\vec{v}_{1}, \ldots, \vec{v}_{n}\) de columna de la matriz\([\phi]\) son independientes;

    iii)\(\phi\) está en\(E^{n}\left(C^{n}\right)\);

    iv)\(\operatorname{det}[\phi] \neq 0\).

    Prueba

    Asumir (i) y dejar

    \[\sum_{k=1}^{n} c_{k} \vec{v}_{k}=\overrightarrow{0}.\]

    Para deducir (ii), debemos demostrar que todos\(c_{k}\) desaparecen.

    Ahora bien, por la Nota 3 en §2,\(\vec{v}_{k}=\phi\left(\vec{e}_{k}\right);\) entonces por linealidad,

    \[\sum_{k=1}^{n} c_{k} \vec{v}_{k}=\overrightarrow{0}\]

    implica

    \[\phi\left(\sum_{k=1}^{n} c_{k} \vec{e}_{k}\right)=\overrightarrow{0}.\]

    Como\(\phi\) es uno a uno,\(\overrightarrow{0}\) solo puede desvanecerse. Así

    \[\sum_{k=1}^{n} c_{k} \vec{e}_{k}=\overrightarrow{0}.\]

    De ahí que por el Teorema 2 en el Capítulo 3, §§1-3,\(c_{k}=0, k=1, \ldots, n,\) y (ii) sigue.

    A continuación, supongamos (ii); entonces, por regla (c) anterior,\(\left\{\vec{v}_{1}, \ldots, \vec{v}_{n}\right\}\) es una base.

    Así cada uno\(\vec{y} \in E^{n}\left(C^{n}\right)\) tiene la forma

    \[\vec{y}=\sum_{k=1}^{n} a_{k} \vec{v}_{k}=\sum_{k=1}^{n} a_{k} \phi\left(\vec{e}_{k}\right)=\phi\left(\sum_{k=1}^{n} a_{k} \vec{e}_{k}\right)=\phi(\vec{x}),\]

    donde

    \[\vec{x}=\sum_{k=1}^{n} a_{k} \vec{e}_{k} \text { (uniquely).}\]

    De ahí que (ii) implica tanto (iii) como (i). (¿Por qué?)

    Ahora asuma (iii). Entonces cada uno\(\vec{y} \in E^{n}\left(C^{n}\right)\) tiene la forma\(\vec{y}=\phi(\vec{x}),\) donde

    \[\vec{x}=\sum_{k=1}^{n} x_{k} \vec{e}_{k},\]

    por Teorema 2 en el Capítulo 3, §§1-3. De ahí otra vez

    \[\vec{y}=\sum_{k=1}^{n} x_{k} \phi\left(\vec{e}_{k}\right)=\sum_{k=1}^{n} x_{k} \vec{v}_{k};\]

    entonces el\(\vec{v}_{k}\) lapso todo de\(E^{n}\left(C^{n}\right).\) Por regla (c) anterior, esto implica (ii), de ahí (i), también. Así, los incisos i), ii) y iii) son equivalentes.

    Además, por las reglas (a) y (b), tenemos

    \[\operatorname{det}[\phi] \cdot \operatorname{det}\left[\phi^{-1}\right]=\operatorname{det}\left[\phi \circ \phi^{-1}\right]=1\]

    si\(\phi\) es uno a uno (para\(\phi \circ \phi^{-1}\) es el mapa de identidad). De ahí que\(\operatorname{det}[\phi] \neq 0\) si (i) se sostiene.

    Para lo contrario, supongamos que no\(\phi\) es uno a uno. Entonces por (ii), los no\(\vec{v}_{k}\) son independientes. Así uno de ellos es una combinación lineal de los otros, digamos,

    \[\vec{v}_{1}=\sum_{k=2}^{n} a_{k} \vec{v}_{k}.\]

    Pero por álgebra lineal (Problema 13 (iii)),\(\operatorname{det}[\phi]\) no cambia si\(\vec{v}_{1}\) se sustituye por

    \[\vec{v}_{1}-\sum_{k=2}^{n} a_{k} \vec{v}_{k}=\overrightarrow{0}.\]

    Así\(\operatorname{det}[\phi]=0\) (una columna volviéndose a\(\overrightarrow{0}).\) Esto completa la prueba. \(\quad \square\)

    Nota 3. Los mapas que están tanto en como uno a uno se llaman biyective. Tal es\(\phi\) en el Teorema 1. Esto significa que la ecuación

    \[\phi(\vec{x})=\vec{y}\]

    tiene una solución única

    \[\vec{x}=\phi^{-1}(\vec{y})\]

    para cada\(\vec{y}.\) Componentwise, por Teorema 1, las ecuaciones

    \[\sum_{k=1}^{n} x_{k} v_{i k}=y_{i}, \quad i=1, \ldots, n,\]

    tienen una solución única para el\(x_{k}\) iff\(\operatorname{det}\left(v_{i k}\right) \neq 0\).

    Corolario\(\PageIndex{2}\)

    Si\(\phi \in L\left(E^{\prime}, E\right)\) es biyectiva, con\(E^{\prime}\) y\(E\) completa, entonces\(\phi^{-1} \in L\left(E, E^{\prime}\right).\)

    Prueba para\(E=E^{n}\left(C^{n}\right)\)

    La notación\(\phi \in L\left(E^{\prime}, E\right)\) significa que\(\phi : E^{\prime} \rightarrow E\) es lineal y continua.

    Como\(\phi\) es biyectiva,\(\phi^{-1} : E \rightarrow E^{\prime}\) es lineal (Problema 12).

    Si\(E=E^{n}\left(C^{n}\right),\) es continuo, también (Teorema 2 en §2).

    Así\(\phi^{-1} \in L\left(E, E^{\prime}\right). \quad \square\)

    Nota. El caso\(E=E^{n}\left(C^{n}\right)\) es suficiente para un curso de licenciatura. (Se aconseja al principiante que omita el “estrellado” §8.) El corolario 2 y el teorema 2 a continuación, sin embargo, son válidos en el caso general. Así es el Teorema 1 en §7.

    Teorema\(\PageIndex{2}\)

    Dejar\(E, E^{\prime}\) y\(\phi\) ser como en Corolario 2. Set

    \[\left\|\phi^{-1}\right\|=\frac{1}{\varepsilon}.\]

    Entonces cualquier mapa\(\theta \in L\left(E^{\prime}, E\right)\) con\(\|\theta-\phi\|<\varepsilon\) es uno a uno, y\(\theta^{-1}\) es uniformemente continuo.

    Prueba

    Comprobante. Por Corolario 2,\(\phi^{-1} \in L\left(E, E^{\prime}\right),\) así\(\left\|\phi^{-1}\right\|\) se define y\(>0\) (porque no\(\phi^{-1}\) es el mapa cero, siendo uno a uno).

    Por lo tanto, podemos establecer

    \[\varepsilon=\frac{1}{\left\|\phi^{-1}\right\|}, \quad\left\|\phi^{-1}\right\|=\frac{1}{\varepsilon}.\]

    Claramente\(\vec{x}=\phi^{-1}(\vec{y})\) si\(\vec{y}=\phi(\vec{x}).\) También,

    \[\left|\phi^{-1}(\vec{y})\right| \leq \frac{1}{\varepsilon}|\vec{y}|\]

    por Nota 5 en §2, Por lo tanto

    \[|\vec{y}| \geq \varepsilon\left|\phi^{-1}(\vec{y})\right|,\]

    es decir,

    \[|\phi(\vec{x})| \geq \varepsilon|\vec{x}|\]

    para todos\(\vec{x} \in E^{\prime}\) y\(\vec{y} \in E\).

    Ahora supongamos\(\phi \in L\left(E^{\prime}, E\right)\) y\(\|\theta-\phi\|=\sigma<\varepsilon\).

    Obviamente,\(\theta=\phi-(\phi-\theta),\) y por la Nota 5 en §2,

    \[|(\phi-\theta)(\vec{x})| \leq\|\phi-\theta\||\vec{x}|=\sigma|\vec{x}|.\]

    Por lo tanto, para cada\(\vec{x} \in E^{\prime}\),

    \[\begin{aligned}|\theta(\vec{x})| & \geq|\phi(\vec{x})|-|(\phi-\theta)(\vec{x})| \\ & \geq|\phi(\vec{x})|-\sigma|\vec{x}| \\ & \geq(\varepsilon-\sigma)|\vec{x}| \end{aligned}\]

    por (2). Por lo tanto, dado\(\vec{p} \neq \vec{r}\) en\(E^{\prime}\) y ajuste\(\vec{x}=\vec{p}-\vec{r} \neq \overrightarrow{0},\) obtenemos

    \[|\theta(\vec{p})-\theta(\vec{r})|=|\theta(\vec{p}-\vec{r})|=|\theta(\vec{x})| \geq(\varepsilon-\sigma)|\vec{x}|>0\]

    (ya que\(\sigma<\varepsilon )\).

    Vemos que eso\(\vec{p} \neq \vec{r}\) implica que\(\theta(\vec{p}) \neq \theta(\vec{r});\) así\(\theta\) es uno a uno, en efecto.

    Además, configurando\(\theta(\vec{x})=\vec{z}\) y\(\vec{x}=\theta^{-1}(\vec{z})\) en (3), obtenemos

    \[|\vec{z}| \geq(\varepsilon-\sigma)\left|\theta^{-1}(\vec{z})\right|;\]

    es decir,

    \[\left|\theta^{-1}(\vec{z})\right| \leq(\varepsilon-\sigma)^{-1}|\vec{z}|\]

    para todos\(\vec{z}\) en el rango de\(\theta\) (dominio de\(\theta^{-1})\).

    Así\(\theta^{-1}\) está linealmente delimitado (por el Teorema 1 en §2), de ahí uniformemente continuo, como se reivindica. \(\quad \square\)

    Corolario\(\PageIndex{3}\)

    Si\(E^{\prime}=E=E^{n}\left(C^{n}\right)\) en el Teorema 2 anterior, entonces para dado\(\phi\) y siempre\(\delta>0,\) hay\(\delta^{\prime}>0\) tal que

    \[\|\theta-\phi\|<\delta^{\prime} \text { implies }\left\|\theta^{-1}-\phi^{-1}\right\|<\delta.\]

    En otras palabras, la transformación\(\phi \rightarrow \phi^{-1}\) es continua en\(L(E), E=\)\(E^{n}\left(C^{n}\right).\)

    Prueba

    Primero, ya que\(E^{\prime}=E=E^{n}\left(C^{n}\right), \theta\) es biyectiva por el Teorema 1 (iii), así\(\theta^{-1} \in L(E)\).

    Como antes, set\(\|\theta-\phi\|=\sigma<\varepsilon\).

    Por Nota 5 en §2, la fórmula (5) anterior implica que

    \[\left\|\theta^{-1}\right\| \leq \frac{1}{\varepsilon-\sigma}.\]

    También,

    \[\phi^{-1} \circ(\theta-\phi) \circ \theta^{-1}=\phi^{-1}-\theta^{-1}\]

    (ver Problema 11).

    De ahí por Corolario 4 en §2, recordando que\(\left\|\phi^{-1}\right\|=1 / \varepsilon,\) obtenemos

    \[\left\|\theta^{-1}-\phi^{-1}\right\| \leq\left\|\phi^{-1}\right\| \cdot\|\theta-\phi\| \cdot\left\|\theta^{-1}\right\| \leq \frac{\sigma}{\varepsilon(\varepsilon-\sigma)} \rightarrow 0 \text { as } \sigma \rightarrow 0. \quad \square\]


    This page titled 6.6: Determinantes. Jacobianos. Operadores Lineales Biyectivos is shared under a CC BY 3.0 license and was authored, remixed, and/or curated by Elias Zakon (The Trilla Group (support by Saylor Foundation)) via source content that was edited to the style and standards of the LibreTexts platform; a detailed edit history is available upon request.