6.6: Determinantes. Jacobianos. Operadores Lineales Biyectivos
- Page ID
- 113716
\( \newcommand{\vecs}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} } \)
\( \newcommand{\vecd}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash {#1}}} \)
\( \newcommand{\id}{\mathrm{id}}\) \( \newcommand{\Span}{\mathrm{span}}\)
( \newcommand{\kernel}{\mathrm{null}\,}\) \( \newcommand{\range}{\mathrm{range}\,}\)
\( \newcommand{\RealPart}{\mathrm{Re}}\) \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\)
\( \newcommand{\Argument}{\mathrm{Arg}}\) \( \newcommand{\norm}[1]{\| #1 \|}\)
\( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\)
\( \newcommand{\Span}{\mathrm{span}}\)
\( \newcommand{\id}{\mathrm{id}}\)
\( \newcommand{\Span}{\mathrm{span}}\)
\( \newcommand{\kernel}{\mathrm{null}\,}\)
\( \newcommand{\range}{\mathrm{range}\,}\)
\( \newcommand{\RealPart}{\mathrm{Re}}\)
\( \newcommand{\ImaginaryPart}{\mathrm{Im}}\)
\( \newcommand{\Argument}{\mathrm{Arg}}\)
\( \newcommand{\norm}[1]{\| #1 \|}\)
\( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\)
\( \newcommand{\Span}{\mathrm{span}}\) \( \newcommand{\AA}{\unicode[.8,0]{x212B}}\)
\( \newcommand{\vectorA}[1]{\vec{#1}} % arrow\)
\( \newcommand{\vectorAt}[1]{\vec{\text{#1}}} % arrow\)
\( \newcommand{\vectorB}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} } \)
\( \newcommand{\vectorC}[1]{\textbf{#1}} \)
\( \newcommand{\vectorD}[1]{\overrightarrow{#1}} \)
\( \newcommand{\vectorDt}[1]{\overrightarrow{\text{#1}}} \)
\( \newcommand{\vectE}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash{\mathbf {#1}}}} \)
\( \newcommand{\vecs}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} } \)
\( \newcommand{\vecd}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash {#1}}} \)
\(\newcommand{\avec}{\mathbf a}\) \(\newcommand{\bvec}{\mathbf b}\) \(\newcommand{\cvec}{\mathbf c}\) \(\newcommand{\dvec}{\mathbf d}\) \(\newcommand{\dtil}{\widetilde{\mathbf d}}\) \(\newcommand{\evec}{\mathbf e}\) \(\newcommand{\fvec}{\mathbf f}\) \(\newcommand{\nvec}{\mathbf n}\) \(\newcommand{\pvec}{\mathbf p}\) \(\newcommand{\qvec}{\mathbf q}\) \(\newcommand{\svec}{\mathbf s}\) \(\newcommand{\tvec}{\mathbf t}\) \(\newcommand{\uvec}{\mathbf u}\) \(\newcommand{\vvec}{\mathbf v}\) \(\newcommand{\wvec}{\mathbf w}\) \(\newcommand{\xvec}{\mathbf x}\) \(\newcommand{\yvec}{\mathbf y}\) \(\newcommand{\zvec}{\mathbf z}\) \(\newcommand{\rvec}{\mathbf r}\) \(\newcommand{\mvec}{\mathbf m}\) \(\newcommand{\zerovec}{\mathbf 0}\) \(\newcommand{\onevec}{\mathbf 1}\) \(\newcommand{\real}{\mathbb R}\) \(\newcommand{\twovec}[2]{\left[\begin{array}{r}#1 \\ #2 \end{array}\right]}\) \(\newcommand{\ctwovec}[2]{\left[\begin{array}{c}#1 \\ #2 \end{array}\right]}\) \(\newcommand{\threevec}[3]{\left[\begin{array}{r}#1 \\ #2 \\ #3 \end{array}\right]}\) \(\newcommand{\cthreevec}[3]{\left[\begin{array}{c}#1 \\ #2 \\ #3 \end{array}\right]}\) \(\newcommand{\fourvec}[4]{\left[\begin{array}{r}#1 \\ #2 \\ #3 \\ #4 \end{array}\right]}\) \(\newcommand{\cfourvec}[4]{\left[\begin{array}{c}#1 \\ #2 \\ #3 \\ #4 \end{array}\right]}\) \(\newcommand{\fivevec}[5]{\left[\begin{array}{r}#1 \\ #2 \\ #3 \\ #4 \\ #5 \\ \end{array}\right]}\) \(\newcommand{\cfivevec}[5]{\left[\begin{array}{c}#1 \\ #2 \\ #3 \\ #4 \\ #5 \\ \end{array}\right]}\) \(\newcommand{\mattwo}[4]{\left[\begin{array}{rr}#1 \amp #2 \\ #3 \amp #4 \\ \end{array}\right]}\) \(\newcommand{\laspan}[1]{\text{Span}\{#1\}}\) \(\newcommand{\bcal}{\cal B}\) \(\newcommand{\ccal}{\cal C}\) \(\newcommand{\scal}{\cal S}\) \(\newcommand{\wcal}{\cal W}\) \(\newcommand{\ecal}{\cal E}\) \(\newcommand{\coords}[2]{\left\{#1\right\}_{#2}}\) \(\newcommand{\gray}[1]{\color{gray}{#1}}\) \(\newcommand{\lgray}[1]{\color{lightgray}{#1}}\) \(\newcommand{\rank}{\operatorname{rank}}\) \(\newcommand{\row}{\text{Row}}\) \(\newcommand{\col}{\text{Col}}\) \(\renewcommand{\row}{\text{Row}}\) \(\newcommand{\nul}{\text{Nul}}\) \(\newcommand{\var}{\text{Var}}\) \(\newcommand{\corr}{\text{corr}}\) \(\newcommand{\len}[1]{\left|#1\right|}\) \(\newcommand{\bbar}{\overline{\bvec}}\) \(\newcommand{\bhat}{\widehat{\bvec}}\) \(\newcommand{\bperp}{\bvec^\perp}\) \(\newcommand{\xhat}{\widehat{\xvec}}\) \(\newcommand{\vhat}{\widehat{\vvec}}\) \(\newcommand{\uhat}{\widehat{\uvec}}\) \(\newcommand{\what}{\widehat{\wvec}}\) \(\newcommand{\Sighat}{\widehat{\Sigma}}\) \(\newcommand{\lt}{<}\) \(\newcommand{\gt}{>}\) \(\newcommand{\amp}{&}\) \(\definecolor{fillinmathshade}{gray}{0.9}\)Suponemos que el lector está familiarizado con elementos de álgebra lineal. Así, sólo recordamos brevemente algunas definiciones y reglas bien conocidas.
Dado un operador lineal\(\phi : E^{n} \rightarrow E^{n}\left(\text { or } \phi : C^{n} \rightarrow C^{n}\right),\) con matriz
\ [
[\ phi] =\ left (v_ {i k}\ right),\ quad i, k=1,\ ldots, n,
\]
definimos el determinante de\([\phi]\) by
\ [
\ begin {aligned}\ operatorname {det} [\ phi] =\ operatorname {det}\ left (v_ {i k}\ derecha) &=\ izquierda|\ begin {array} {cccc} {v_ {11}} & {v_ {12}} & {\ dots} & {v_ {1 n}}\\ {v_ {21}} & {v_ {22}} & {\ dots} & {v_ {2 n}}\\ {\ vdots} & {\ vdots} & {\ vdots} & {\ vdots} & {\ ddots} & {\ vdots}\\ {v_ {n 1}} & {v_ {n 2}} & {\ puntos} & {v_ {n n}}\ end {array}\ derecha|\\ [12pt] &=\ sum (-1) ^ {\ lambda} v_ {1 k_ {1}} v_ {2 k_ {2}}\ ldots v_ {n k_ {n}}\ end {alineado}
\]
donde la suma está sobre todas las\(n\) -tuplas ordenadas\(\left(k_{1}, \ldots, k_{n}\right)\) de enteros distintos\(k_{j}\left(1 \leq k_{j} \leq n\right),\) y
\ [
\ lambda=\ left\ {\ begin {array} {ll} {0} & {\ text {if}\ prod_ {j<m}\ izquierda (k_ {m} -k_ {j}\ derecha) >0\ text {y}}\\ {1} & {\ text {if}\ prod_ {j<m}\ left (k_ {m} -k_ {j}\ right) <0}\ end {array}\ right.
\]
Recordemos (Problema 12 en §2) que un conjunto\(B=\left\{\vec{v}_{1}, \vec{v}_{2}, \ldots, \vec{v}_{n}\right\}\) en un espacio vectorial\(E\) es una base iff
(i)\(B\) abarca\(E,\) es decir, cada uno\(\vec{v} \in E\) tiene la forma
\ [
\ vec {v} =\ sum_ {i=1} ^ {n} a_ {i}\ vec {v} _ _ {i}
\]
para algunos escalares \(a_{i},\)y
ii) esta representación es única.
Esto último es cierto si los\(\vec{v}_{i}\) son independientes, es decir,
\ [
\ sum_ {i=1} ^ {n} a_ {i}\ vec {v} _ {i} =\ overrightarrow {0}\ Longleftrightarrow a_ {i} =0, i=1,\ ldots, n.
\]
Si\(E\) tiene una base de\(n\) vectores, llamamos \(E\)n-dimensional (por ejemplo,\(E^{n}\) y\(C^{n} )\).
Los determinantes y bases cumplen las siguientes reglas.
a) Regla de multiplicación. Si\(\phi, g : E^{n} \rightarrow E^{n}\left(\text { or } C^{n} \rightarrow C^{n}\right)\) son lineales, entonces
\ [
\ operatorname {det} [g]\ cdot\ operatorname {det} [\ phi] =\ operatorname {det} ([g] [\ phi]) =\ operatorname {det} [g\ circ\ phi]
\]
(ver §2, Teorema 3 y Nota 4).
(b) Si\(\phi(\vec{x})=\vec{x}\) (mapa de identidad), entonces\([\phi]=\left(v_{i k}\right)\), donde
\ [
v_ {i k} =\ left\ {\ begin {array} {ll} {0} & {\ text {if} i\ neq k\ text {and}}\\ {1} & {\ text {if} i=k}\ end {array}\ right.
\] de
ahí det\([\phi]=1 .(\text { Why } ?)\) Ver también los Problemas.
(c) Un espacio\(n\) -dimensional\(E\) es abarcado por un conjunto de\(n\) vectores si son independientes. Si es así, cada base consta exactamente de\(n\) vectores.
Para cualquier función\(f : E^{n} \rightarrow E^{n}\) (o\(f : C^{n} \rightarrow C^{n} ),\) definimos el mapa jacobiano\(f\) -inducido\(J_{f} : E^{n} \rightarrow E^{1}\left(J_{f} : C^{n} \rightarrow C\right)\) configurando
\ [
J_ {f} (\ vec {x}) =\ operatorname {det}\ left (v_ {i k}\ right),
\]
donde\(v_{i k}=D_{k} f_{i}(\vec{x}), \vec{x} \in E^{n}\left(C^{n}\right),\) y\(f=\left(f_{1}, \ldots, f_{n}\right)\).
El determinante
\ [
J_ {f} (\ vec {p}) =\ operatorname {det}\ left (D_ {k} f_ {i} (\ vec {p})\ right)
\]
se llama el jacobiano de\(f\) at\(\vec{p}\).
Por nuestras convenciones, siempre se define, como son las funciones\(D_{k} f_{i}\).
De manera explícita,\(J_{f}(\vec{p})\) es el determinante de la matriz del lado derecho en la fórmula\((14)\) en §3. Brevemente,
\ [
J_ {f} =\ nombreoperador {det}\ izquierda (D_ {k} f_ {i}\ derecha).
\]
Por Definición 2 y Nota 2 en §5
\ [
J_ {f} (\ vec {p}) =\ nombreoperador {det}\ izquierda [d^ {1} f (\ vec {p};\ cdot)\ derecha].
\]
Si\(f\) es diferenciable en\(\vec{p}\),
\ [
J_ {f} (\ vec {p}) =\ nombreoperador {det}\ izquierda [f^ {\ prime} (\ vec {p})\ derecha].
\]
Nota 1. De manera más general, dada cualquier función\(v_{i k} : E^{\prime} \rightarrow E^{1}(C),\) podemos definir un mapa\(f : E^{\prime} \rightarrow E^{1}(C)\) mediante
\ [
f (\ vec {x}) =\ nombreoperador {det}\ izquierda (v_ {i k} (\ vec {x})\ derecha);
\]
brevemente\(f=\operatorname{det}\left(v_{i k}\right), i, k=1, \ldots, n\).
Entonces llamamos\(f\) un determinante funcional.
Si\(E^{\prime}=E^{n}\left(C^{n}\right)\) entonces\(f\) es una función de\(n\) variables, ya que\(\vec{x}=\left(x_{1}, x_{2}, \ldots, x_{n}\right)\). Si todos\(v_{i k}\) son continuos o diferenciables en algunos\(\vec{p} \in E^{\prime},\) así es\(f ;\) para by\((1), f\) es una suma finita de funciones de la forma
\ [
(-1) ^ {\ lambda} v_ {i k_ {1}} v_ {i k_ {2}}\ puntos v_ {i k_ {n}},
\]
y cada uno de estos es continuo o diferenciable si los\(v_{i k_{i}}\) son (ver Problemas 7 y 8 en §3).
Nota 2. De ahí que el mapa jacobiano\(J_{f}\) sea continuo o diferenciable\(\vec{p}\) si todas las funciones derivadas parcialmente lo\(D_{k} f_{i}(i, k \leq n)\) son.
Si, además,\(J_{f}(\vec{p}) \neq 0,\) entonces\(J_{f} \neq 0\) en algún globo sobre\(\vec{p}.\) (Aplica el Problema 7 en el Capítulo 4, §2, a\(\left|J_{f}\right|.)\)
En notación clásica, se escribe
\ [
\ frac {\ parcial\ izquierda (f_ {1},\ ldots, f_ {n}\ derecha)} {\ parcial\ izquierda (x_ {1},\ ldots, x_ {n}\ derecha)}\ text {o}\ frac {\ parcial\ izquierda (y_ {1},\ ldots, y_ {n}\ derecha)} {\ parcial\ izquierda (x_ {1},\ lpuntos, x_ {n}\ derecha)}
\]
para\(J_{f}(\vec{x}) .\) Aquí\(\left(y_{1}, \ldots, y_{n}\right)=f\left(x_{1}, \ldots, x_{n}\right)\).
Las observaciones hechas en §4 se aplican también a esta notación “variable”. La regla de la cadena produce fácilmente el siguiente corolario.
Si\(f : E^{n} \rightarrow E^{n}\) y\(g : E^{n} \rightarrow E^{n}\) (o\(f, g : C^{n} \rightarrow C^{n})\) son diferenciables en\(\vec{p}\) y\(\vec{q}=f(\vec{p}),\) respectivamente, y si
\[h=g \circ f,\]
entonces
\[J_{h}(\vec{p})=J_{g}(\vec{q}) \cdot J_{f}(\vec{p})=\operatorname{det}\left(z_{i k}\right),\]
donde
\[z_{i k}=D_{k} h_{i}(\vec{p}), \quad i, k=1, \ldots, n;\]
o, establecer
\[\begin{aligned}\left(u_{1}, \ldots, u_{n}\right) &=g\left(y_{1}, \ldots, y_{n}\right) \text { and } \\\left(y_{1}, \ldots, y_{n}\right) &=f\left(x_{1}, \ldots, x_{n}\right) \text { ("variables")}, \end{aligned}\]
tenemos
\[\frac{\partial\left(u_{1}, \ldots, u_{n}\right)}{\partial\left(x_{1}, \ldots, x_{n}\right)}=\frac{\partial\left(u_{1}, \ldots, u_{n}\right)}{\partial\left(y_{1}, \ldots, y_{n}\right)} \cdot \frac{\partial\left(y_{1}, \ldots, y_{n}\right)}{\partial\left(x_{1}, \ldots, x_{n}\right)}=\operatorname{det}\left(z_{i k}\right),\]
donde
\[z_{i k}=\frac{\partial u_{i}}{\partial x_{k}}, \quad i, k=1, \ldots, n.\]
- Prueba
-
Por Nota 2 en §4,
\[\left[h^{\prime}(\vec{p})\right]=\left[g^{\prime}(\vec{q})\right] \cdot\left[f^{\prime}(\vec{p})\right].\]
Así pues, mediante la regla a) supra,
\[\operatorname{det}\left[h^{\prime}(\vec{p})\right]=\operatorname{det}\left[g^{\prime}(\vec{q})\right] \cdot \operatorname{det}\left[f^{\prime}(\vec{p})\right],\]
es decir,
\[J_{h}(\vec{p})=J_{g}(\vec{q}) \cdot J_{f}(\vec{p}).\]
Además, si\(\left[h^{\prime}(\vec{p})\right]=\left(z_{i k}\right),\) la Definición 2 rinde\(z_{i k}=D_{k} h_{i}(\vec{p})\).
Esto prueba (i), de ahí (ii) también. \(\quad \square\)
En la práctica, los jacobianos ocurren mayormente cuando se realiza un cambio de variables. Por ejemplo, en\(E^{2},\) podemos pasar de coordenadas cartesianas\((x, y)\) a otro sistema\((u, v)\) tal que
\[x=f_{1}(u, v) \text { and } y=f_{2}(u, v).\]
Luego establecemos\(f=\left(f_{1}, f_{2}\right)\) y obtenemos\(f : E^{2} \rightarrow E^{2}\),
\[J_{f}=\operatorname{det}\left(D_{k} f_{i}\right), \quad k, i=1,2.\]
Dejar\(x=f_{1}(r, \theta)=r \cos \theta\) y\(y=f_{2}(r, \theta)=r \sin \theta\).
Luego usando la notación “variable”, obtenemos\(J_{f}(r, \theta)\) como
\[\begin{aligned} \frac{\partial(x, y)}{\partial(r, \theta)}=\left|\begin{array}{ll}{\frac{\partial x}{\partial r}} & {\frac{\partial x}{\partial \theta}} \\ {\frac{\partial y}{\partial r}} & {\frac{\partial y}{\partial \theta}}\end{array}\right| &=\left|\begin{array}{cc}{\cos \theta} & {-r \sin \theta} \\ {\sin \theta} & {r \cos \theta}\end{array}\right| \\ &=r \cos ^{2} \theta+r \sin ^{2} \theta=r. \end{aligned}\]
Así que aquí\(J_{f}(r, \theta)=r\) para todos\(r, \theta \in E^{1} ; J_{f}\) es independiente de\(\theta\).
Ahora nos concentramos en funciones uno a uno (invertibles).
Para un mapa lineal,\(\phi : E^{n} \rightarrow E^{n}\left(\text {or} \phi : C^{n} \rightarrow C^{n}\right),\) los siguientes son equivalentes:
i)\(\phi\) sea uno a uno;
ii) los vectores\(\vec{v}_{1}, \ldots, \vec{v}_{n}\) de columna de la matriz\([\phi]\) son independientes;
iii)\(\phi\) está en\(E^{n}\left(C^{n}\right)\);
iv)\(\operatorname{det}[\phi] \neq 0\).
- Prueba
-
Asumir (i) y dejar
\[\sum_{k=1}^{n} c_{k} \vec{v}_{k}=\overrightarrow{0}.\]
Para deducir (ii), debemos demostrar que todos\(c_{k}\) desaparecen.
Ahora bien, por la Nota 3 en §2,\(\vec{v}_{k}=\phi\left(\vec{e}_{k}\right);\) entonces por linealidad,
\[\sum_{k=1}^{n} c_{k} \vec{v}_{k}=\overrightarrow{0}\]
implica
\[\phi\left(\sum_{k=1}^{n} c_{k} \vec{e}_{k}\right)=\overrightarrow{0}.\]
Como\(\phi\) es uno a uno,\(\overrightarrow{0}\) solo puede desvanecerse. Así
\[\sum_{k=1}^{n} c_{k} \vec{e}_{k}=\overrightarrow{0}.\]
De ahí que por el Teorema 2 en el Capítulo 3, §§1-3,\(c_{k}=0, k=1, \ldots, n,\) y (ii) sigue.
A continuación, supongamos (ii); entonces, por regla (c) anterior,\(\left\{\vec{v}_{1}, \ldots, \vec{v}_{n}\right\}\) es una base.
Así cada uno\(\vec{y} \in E^{n}\left(C^{n}\right)\) tiene la forma
\[\vec{y}=\sum_{k=1}^{n} a_{k} \vec{v}_{k}=\sum_{k=1}^{n} a_{k} \phi\left(\vec{e}_{k}\right)=\phi\left(\sum_{k=1}^{n} a_{k} \vec{e}_{k}\right)=\phi(\vec{x}),\]
donde
\[\vec{x}=\sum_{k=1}^{n} a_{k} \vec{e}_{k} \text { (uniquely).}\]
De ahí que (ii) implica tanto (iii) como (i). (¿Por qué?)
Ahora asuma (iii). Entonces cada uno\(\vec{y} \in E^{n}\left(C^{n}\right)\) tiene la forma\(\vec{y}=\phi(\vec{x}),\) donde
\[\vec{x}=\sum_{k=1}^{n} x_{k} \vec{e}_{k},\]
por Teorema 2 en el Capítulo 3, §§1-3. De ahí otra vez
\[\vec{y}=\sum_{k=1}^{n} x_{k} \phi\left(\vec{e}_{k}\right)=\sum_{k=1}^{n} x_{k} \vec{v}_{k};\]
entonces el\(\vec{v}_{k}\) lapso todo de\(E^{n}\left(C^{n}\right).\) Por regla (c) anterior, esto implica (ii), de ahí (i), también. Así, los incisos i), ii) y iii) son equivalentes.
Además, por las reglas (a) y (b), tenemos
\[\operatorname{det}[\phi] \cdot \operatorname{det}\left[\phi^{-1}\right]=\operatorname{det}\left[\phi \circ \phi^{-1}\right]=1\]
si\(\phi\) es uno a uno (para\(\phi \circ \phi^{-1}\) es el mapa de identidad). De ahí que\(\operatorname{det}[\phi] \neq 0\) si (i) se sostiene.
Para lo contrario, supongamos que no\(\phi\) es uno a uno. Entonces por (ii), los no\(\vec{v}_{k}\) son independientes. Así uno de ellos es una combinación lineal de los otros, digamos,
\[\vec{v}_{1}=\sum_{k=2}^{n} a_{k} \vec{v}_{k}.\]
Pero por álgebra lineal (Problema 13 (iii)),\(\operatorname{det}[\phi]\) no cambia si\(\vec{v}_{1}\) se sustituye por
\[\vec{v}_{1}-\sum_{k=2}^{n} a_{k} \vec{v}_{k}=\overrightarrow{0}.\]
Así\(\operatorname{det}[\phi]=0\) (una columna volviéndose a\(\overrightarrow{0}).\) Esto completa la prueba. \(\quad \square\)
Nota 3. Los mapas que están tanto en como uno a uno se llaman biyective. Tal es\(\phi\) en el Teorema 1. Esto significa que la ecuación
\[\phi(\vec{x})=\vec{y}\]
tiene una solución única
\[\vec{x}=\phi^{-1}(\vec{y})\]
para cada\(\vec{y}.\) Componentwise, por Teorema 1, las ecuaciones
\[\sum_{k=1}^{n} x_{k} v_{i k}=y_{i}, \quad i=1, \ldots, n,\]
tienen una solución única para el\(x_{k}\) iff\(\operatorname{det}\left(v_{i k}\right) \neq 0\).
Si\(\phi \in L\left(E^{\prime}, E\right)\) es biyectiva, con\(E^{\prime}\) y\(E\) completa, entonces\(\phi^{-1} \in L\left(E, E^{\prime}\right).\)
- Prueba para\(E=E^{n}\left(C^{n}\right)\)
-
La notación\(\phi \in L\left(E^{\prime}, E\right)\) significa que\(\phi : E^{\prime} \rightarrow E\) es lineal y continua.
Como\(\phi\) es biyectiva,\(\phi^{-1} : E \rightarrow E^{\prime}\) es lineal (Problema 12).
Si\(E=E^{n}\left(C^{n}\right),\) es continuo, también (Teorema 2 en §2).
Así\(\phi^{-1} \in L\left(E, E^{\prime}\right). \quad \square\)
Nota. El caso\(E=E^{n}\left(C^{n}\right)\) es suficiente para un curso de licenciatura. (Se aconseja al principiante que omita el “estrellado” §8.) El corolario 2 y el teorema 2 a continuación, sin embargo, son válidos en el caso general. Así es el Teorema 1 en §7.
Dejar\(E, E^{\prime}\) y\(\phi\) ser como en Corolario 2. Set
\[\left\|\phi^{-1}\right\|=\frac{1}{\varepsilon}.\]
Entonces cualquier mapa\(\theta \in L\left(E^{\prime}, E\right)\) con\(\|\theta-\phi\|<\varepsilon\) es uno a uno, y\(\theta^{-1}\) es uniformemente continuo.
- Prueba
-
Comprobante. Por Corolario 2,\(\phi^{-1} \in L\left(E, E^{\prime}\right),\) así\(\left\|\phi^{-1}\right\|\) se define y\(>0\) (porque no\(\phi^{-1}\) es el mapa cero, siendo uno a uno).
Por lo tanto, podemos establecer
\[\varepsilon=\frac{1}{\left\|\phi^{-1}\right\|}, \quad\left\|\phi^{-1}\right\|=\frac{1}{\varepsilon}.\]
Claramente\(\vec{x}=\phi^{-1}(\vec{y})\) si\(\vec{y}=\phi(\vec{x}).\) También,
\[\left|\phi^{-1}(\vec{y})\right| \leq \frac{1}{\varepsilon}|\vec{y}|\]
por Nota 5 en §2, Por lo tanto
\[|\vec{y}| \geq \varepsilon\left|\phi^{-1}(\vec{y})\right|,\]
es decir,
\[|\phi(\vec{x})| \geq \varepsilon|\vec{x}|\]
para todos\(\vec{x} \in E^{\prime}\) y\(\vec{y} \in E\).
Ahora supongamos\(\phi \in L\left(E^{\prime}, E\right)\) y\(\|\theta-\phi\|=\sigma<\varepsilon\).
Obviamente,\(\theta=\phi-(\phi-\theta),\) y por la Nota 5 en §2,
\[|(\phi-\theta)(\vec{x})| \leq\|\phi-\theta\||\vec{x}|=\sigma|\vec{x}|.\]
Por lo tanto, para cada\(\vec{x} \in E^{\prime}\),
\[\begin{aligned}|\theta(\vec{x})| & \geq|\phi(\vec{x})|-|(\phi-\theta)(\vec{x})| \\ & \geq|\phi(\vec{x})|-\sigma|\vec{x}| \\ & \geq(\varepsilon-\sigma)|\vec{x}| \end{aligned}\]
por (2). Por lo tanto, dado\(\vec{p} \neq \vec{r}\) en\(E^{\prime}\) y ajuste\(\vec{x}=\vec{p}-\vec{r} \neq \overrightarrow{0},\) obtenemos
\[|\theta(\vec{p})-\theta(\vec{r})|=|\theta(\vec{p}-\vec{r})|=|\theta(\vec{x})| \geq(\varepsilon-\sigma)|\vec{x}|>0\]
(ya que\(\sigma<\varepsilon )\).
Vemos que eso\(\vec{p} \neq \vec{r}\) implica que\(\theta(\vec{p}) \neq \theta(\vec{r});\) así\(\theta\) es uno a uno, en efecto.
Además, configurando\(\theta(\vec{x})=\vec{z}\) y\(\vec{x}=\theta^{-1}(\vec{z})\) en (3), obtenemos
\[|\vec{z}| \geq(\varepsilon-\sigma)\left|\theta^{-1}(\vec{z})\right|;\]
es decir,
\[\left|\theta^{-1}(\vec{z})\right| \leq(\varepsilon-\sigma)^{-1}|\vec{z}|\]
para todos\(\vec{z}\) en el rango de\(\theta\) (dominio de\(\theta^{-1})\).
Así\(\theta^{-1}\) está linealmente delimitado (por el Teorema 1 en §2), de ahí uniformemente continuo, como se reivindica. \(\quad \square\)
Si\(E^{\prime}=E=E^{n}\left(C^{n}\right)\) en el Teorema 2 anterior, entonces para dado\(\phi\) y siempre\(\delta>0,\) hay\(\delta^{\prime}>0\) tal que
\[\|\theta-\phi\|<\delta^{\prime} \text { implies }\left\|\theta^{-1}-\phi^{-1}\right\|<\delta.\]
En otras palabras, la transformación\(\phi \rightarrow \phi^{-1}\) es continua en\(L(E), E=\)\(E^{n}\left(C^{n}\right).\)
- Prueba
-
Primero, ya que\(E^{\prime}=E=E^{n}\left(C^{n}\right), \theta\) es biyectiva por el Teorema 1 (iii), así\(\theta^{-1} \in L(E)\).
Como antes, set\(\|\theta-\phi\|=\sigma<\varepsilon\).
Por Nota 5 en §2, la fórmula (5) anterior implica que
\[\left\|\theta^{-1}\right\| \leq \frac{1}{\varepsilon-\sigma}.\]
También,
\[\phi^{-1} \circ(\theta-\phi) \circ \theta^{-1}=\phi^{-1}-\theta^{-1}\]
(ver Problema 11).
De ahí por Corolario 4 en §2, recordando que\(\left\|\phi^{-1}\right\|=1 / \varepsilon,\) obtenemos
\[\left\|\theta^{-1}-\phi^{-1}\right\| \leq\left\|\phi^{-1}\right\| \cdot\|\theta-\phi\| \cdot\left\|\theta^{-1}\right\| \leq \frac{\sigma}{\varepsilon(\varepsilon-\sigma)} \rightarrow 0 \text { as } \sigma \rightarrow 0. \quad \square\]