Saltar al contenido principal
LibreTexts Español

9.2: Análisis con espacios vectoriales

  • Page ID
    111620
  • \( \newcommand{\vecs}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} } \) \( \newcommand{\vecd}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash {#1}}} \)\(\newcommand{\id}{\mathrm{id}}\) \( \newcommand{\Span}{\mathrm{span}}\) \( \newcommand{\kernel}{\mathrm{null}\,}\) \( \newcommand{\range}{\mathrm{range}\,}\) \( \newcommand{\RealPart}{\mathrm{Re}}\) \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\) \( \newcommand{\Argument}{\mathrm{Arg}}\) \( \newcommand{\norm}[1]{\| #1 \|}\) \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\) \( \newcommand{\Span}{\mathrm{span}}\) \(\newcommand{\id}{\mathrm{id}}\) \( \newcommand{\Span}{\mathrm{span}}\) \( \newcommand{\kernel}{\mathrm{null}\,}\) \( \newcommand{\range}{\mathrm{range}\,}\) \( \newcommand{\RealPart}{\mathrm{Re}}\) \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\) \( \newcommand{\Argument}{\mathrm{Arg}}\) \( \newcommand{\norm}[1]{\| #1 \|}\) \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\) \( \newcommand{\Span}{\mathrm{span}}\)\(\newcommand{\AA}{\unicode[.8,0]{x212B}}\)

    Normas Comencemos a medir la distancia. Si\(X\) es un espacio vectorial, entonces decimos que una función valorada real\(\left\lVert {\cdot} \right\rVert\) es una norma si: \(\left\lVert {x} \right\rVert \geq 0\), con\(\left\lVert {x} \right\rVert=0\) si y solo si\(x=0\). \(\left\lVert {cx} \right\rVert = \left\lvert {c} \right\rvert\left\lVert {x} \right\rVert\)para todos\(c \in {\mathbb{R}}\) y\(x \in X\). \(\left\lVert {x+y} \right\rVert \leq \left\lVert {x} \right\rVert+\left\lVert {y} \right\rVert\)para todos\(x,y \in X\) (Desigualdad triangular). Antes de definir la norma estándar en\({\mathbb{R}}^n\), definamos el producto escalar estándar de punto en\({\mathbb{R}}^n\). Para dos vectores si\(x=(x^1,x^2,\ldots,x^n) \in {\mathbb{R}}^n\) y\(y=(y^1,y^2,\ldots,y^n) \in {\mathbb{R}}^n\), definir\[x \cdot y := \sum_{j=1}^n x^j y^j .\] Es fácil ver que el producto punto es lineal en cada variable por separado, es decir, es un mapeo lineal cuando se mantiene constante una de las variables. La norma euclidiana se define entonces como\[\left\lVert {x} \right\rVert := \sqrt{x \cdot x} = \sqrt{(x^1)^2+(x^2)^2 + \cdots + (x^n)^2}.\] Es fácil ver que la norma euclidiana satisface (i) y (ii). Para probar que (iii) sostiene, la clave de la desigualdad en la llamada desigualdad Cauchy-Schwarz que hemos visto antes. Como esta desigualdad es tan importante, reafirmémosla y reprobémosla usando la notación de este capítulo. Vamos\(x, y \in {\mathbb{R}}^n\), entonces\[\left\lvert {x \cdot y} \right\rvert \leq \left\lVert {x} \right\rVert\left\lVert {y} \right\rVert = \sqrt{x\cdot x}\, \sqrt{y\cdot y},\] con igualdad si y sólo si los vectores son múltiplos escalares entre sí. Si\(x=0\) o\(y = 0\), entonces el teorema sostiene trivialmente. Así que\(x\not= 0\) asumamos y\(y \not= 0\). Si\(x\) es un múltiplo escalar de\(y\), es decir\(x = \lambda y\) para algunos\(\lambda \in {\mathbb{R}}\), entonces el teorema se sostiene con igualdad:\[\left\lvert {\lambda y \cdot y} \right\rvert = \left\lvert {\lambda} \right\rvert \, \left\lvert {y\cdot y} \right\rvert = \left\lvert {\lambda} \right\rvert \, \left\lVert {y} \right\rVert^2 = \left\lVert {\lambda y} \right\rVert \left\lVert {y} \right\rVert .\] Siguiente toma\(x+ty\),\[\left\lVert {x+ty} \right\rVert^2 = (x+ty) \cdot (x+ty) = x \cdot x + x \cdot ty + ty \cdot x + ty \cdot ty = \left\lVert {x} \right\rVert^2 + 2t(x \cdot y) + t^2 \left\lVert {y} \right\rVert^2 .\] Si no\(x\) es un múltiplo escalar de\(y\), entonces\(\left\lVert {x+ty} \right\rVert^2 > 0\) para todos\(t\). Entonces el polinomio anterior en nunca\(t\) es cero. Del álgebra elemental se deduce que el discriminante debe ser negativo:\[4 {(x \cdot y)}^2 - 4 \left\lVert {x} \right\rVert^2\left\lVert {y} \right\rVert^2 < 0,\] o en otras palabras\({(x \cdot y)}^2 < \left\lVert {x} \right\rVert^2\left\lVert {y} \right\rVert^2\). El ítem (iii), la desigualdad del triángulo, sigue a través de un simple cálculo:\[\left\lVert {x+y} \right\rVert^2 = x \cdot x + y \cdot y + 2 (x \cdot y) \leq \left\lVert {x} \right\rVert^2 + \left\lVert {y} \right\rVert^2 + 2 (\left\lVert {x} \right\rVert+\left\lVert {y} \right\rVert) = {(\left\lVert {x} \right\rVert + \left\lVert {y} \right\rVert)}^2 .\] La distancia\(d(x,y) := \left\lVert {x-y} \right\rVert\) es la función de distancia estándar en la\({\mathbb{R}}^n\) que usamos cuando hablamos de espacios métricos. De hecho, en cualquier espacio vectorial\(X\), una vez que tenemos una norma (cualquier norma), definimos una distancia\(d(x,y) := \left\lVert {x-y} \right\rVert\) que\(X\) se convierte en un espacio métrico (un ejercicio fácil). Vamos\(A \in L(X,Y)\). Definir\[\left\lVert {A} \right\rVert := \sup \{ \left\lVert {Ax} \right\rVert : x \in X ~ \text{with} ~ \left\lVert {x} \right\rVert = 1 \} .\] El número\(\left\lVert {A} \right\rVert\) se llama la norma del operador. Veremos a continuación que efectivamente es una norma (al menos para espacios dimensionales finitos). Por linealidad obtenemos\[\left\lVert {A} \right\rVert = \sup \{ \left\lVert {Ax} \right\rVert : x \in X ~ \text{with} ~ \left\lVert {x} \right\rVert = 1 \} = \sup_{\substack{x \in X\\x\neq 0}} \frac{\left\lVert {Ax} \right\rVert}{\left\lVert {x} \right\rVert} .\] Esto implica que no es\[\left\lVert {Ax} \right\rVert \leq \left\lVert {A} \right\rVert \left\lVert {x} \right\rVert .\] difícil ver desde la definición que\(\left\lVert {A} \right\rVert = 0\) si y solo si\(A = 0\), es decir, si\(A\) lleva cada vector al vector cero. Para espacios dimensionales finitos\(\left\lVert {A} \right\rVert\) es siempre finito como probamos a continuación. Esto también implica que\(A\) es continuo. Para espacios dimensionales infinitos ninguna declaración necesita ser verdadera. Para un ejemplo simple, tome el espacio vectorial de funciones continuamente diferenciables\([0,1]\) y como norma use la norma uniforme. Las funciones\(\sin(nx)\) tienen norma 1, pero las derivadas tienen norma\(n\). Entonces la diferenciación (que es un operador lineal) tiene una norma sin límites en este espacio. Pero apegémonos ahora a los espacios dimensionales finitos. Si\(A \in L({\mathbb{R}}^n,{\mathbb{R}}^m)\), entonces\(\left\lVert {A} \right\rVert < \infty\) y\(A\) es uniformemente continuo (Lipschitz con constante\(\left\lVert {A} \right\rVert\)). Si\(A,B \in L({\mathbb{R}}^n,{\mathbb{R}}^m)\) y\(c \in {\mathbb{R}}\), entonces\[\left\lVert {A+B} \right\rVert \leq \left\lVert {A} \right\rVert+\left\lVert {B} \right\rVert, \qquad \left\lVert {cA} \right\rVert = \left\lvert {c} \right\rvert\left\lVert {A} \right\rVert .\] En particular\(L({\mathbb{R}}^n,{\mathbb{R}}^m)\) es un espacio métrico con distancia\(\left\lVert {A-B} \right\rVert\). Si\(A \in L({\mathbb{R}}^n,{\mathbb{R}}^m)\) y\(B \in L({\mathbb{R}}^m,{\mathbb{R}}^k)\), entonces\[\left\lVert {BA} \right\rVert \leq \left\lVert {B} \right\rVert \left\lVert {A} \right\rVert .\] Por (i), vamos\(x \in {\mathbb{R}}^n\). Sabemos que\(A\) se define por su acción sobre una base. Escribe\[x = \sum_{j=1}^n c^j e_j .\] Entonces\[\left\lVert {Ax} \right\rVert = \left\lVert {\sum_{j=1}^n c^j Ae_j} \right\rVert \leq \sum_{j=1}^n \left\lvert {c^j} \right\rvert \left\lVert {Ae_j} \right\rVert .\] Si\(\left\lVert {x} \right\rVert = 1\), entonces es fácil ver eso\(\left\lvert {c^j} \right\rvert \leq 1\) para todos\(j\), entonces\[\left\lVert {Ax} \right\rVert \leq \sum_{j=1}^n \left\lvert {c^j} \right\rvert \left\lVert {Ae_j} \right\rVert \leq \sum_{j=1}^n \left\lVert {Ae_j} \right\rVert .\] El lado derecho no depende de\(x\) y así estamos hechos, hemos encontrado un límite superior finito. A continuación,\[\left\lVert {A(x-y)} \right\rVert \leq \left\lVert {A} \right\rVert \left\lVert {x-y} \right\rVert\] como mencionamos anteriormente. Entonces si\(\left\lVert {A} \right\rVert < \infty\), entonces esto dice que\(A\) es Lipschitz con constante\(\left\lVert {A} \right\rVert\). Para el (ii), señalemos\[\left\lVert {(A+B)x} \right\rVert = \left\lVert {Ax+Bx} \right\rVert \leq \left\lVert {Ax} \right\rVert+\left\lVert {Bx} \right\rVert \leq \left\lVert {A} \right\rVert \left\lVert {x} \right\rVert+\left\lVert {B} \right\rVert\left\lVert {x} \right\rVert = (\left\lVert {A} \right\rVert+\left\lVert {B} \right\rVert) \left\lVert {x} \right\rVert .\] que So\(\left\lVert {A+B} \right\rVert \leq \left\lVert {A} \right\rVert+\left\lVert {B} \right\rVert\). De manera similar\[\left\lVert {(cA)x} \right\rVert = \left\lvert {c} \right\rvert \left\lVert {Ax} \right\rVert \leq (\left\lvert {c} \right\rvert\left\lVert {A} \right\rVert) \left\lVert {x} \right\rVert .\] Así\(\left\lVert {cA} \right\rVert \leq \left\lvert {c} \right\rvert\left\lVert {A} \right\rVert\). Siguiente nota\[\left\lvert {c} \right\rvert \left\lVert {Ax} \right\rVert = \left\lVert {cAx} \right\rVert \leq \left\lVert {cA} \right\rVert \left\lVert {x} \right\rVert .\] Por lo tanto\(\left\lvert {c} \right\rvert\left\lVert {A} \right\rVert \leq \left\lVert {cA} \right\rVert\). Que tengamos un espacio métrico sigue con bastante facilidad, y se deja en manos del estudiante. Para (iii) escribir\[\left\lVert {BAx} \right\rVert \leq \left\lVert {B} \right\rVert \left\lVert {Ax} \right\rVert \leq \left\lVert {B} \right\rVert \left\lVert {A} \right\rVert \left\lVert {x} \right\rVert . \qedhere\] Como norma define una métrica, hemos definido una topología de espacio métrico\(L({\mathbb{R}}^n,{\mathbb{R}}^m)\) para que podamos hablar de conjuntos abiertos/cerrados, continuidad y convergencia. Tenga en cuenta que hemos definido una norma solo sobre\({\mathbb{R}}^n\) y no sobre un espacio vectorial dimensional finito arbitrario. Sin embargo, después de recoger bases, podemos definir una norma sobre cualquier espacio vectorial de la misma manera. Entonces realmente tenemos una topología en cualquiera\(L(X,Y)\), aunque la métrica precisa dependería de la base escogido. Dejar\(U \subset L({\mathbb{R}}^n)\) ser el conjunto de operadores lineales invertibles. Si\(A \in U\) y\(B \in L({\mathbb{R}}^n)\), y\[\label{eqcontineq} \left\lVert {A-B} \right\rVert < \frac{1}{\left\lVert {A^{-1}} \right\rVert},\] entonces\(B\) es invertible. \(U\)está abierto y\(A \mapsto A^{-1}\) es una función continua en\(U\). Dice la proposición que\(U\) es un conjunto abierto y\(A \mapsto A^{-1}\) es continuo\(U\). Siempre se debe pensar en\({\mathbb{R}}^1\), donde los operadores lineales son solo números\(a\). El operador\(a\) es invertible (\(a^{-1} = \nicefrac{1}{a}\)) cuando sea\(a \not=0\). Por supuesto\(a \mapsto \nicefrac{1}{a}\) que es continuo. Cuando\(n > 1\), entonces hay otros operadores no invertibles, y en general las cosas son un poco más difíciles. Demostremos (i). Primero un cómputo directo\[\left\lVert {x} \right\rVert = \left\lVert {A^{-1}Ax} \right\rVert \leq \left\lVert {A^{-1}} \right\rVert \left\lVert {Ax} \right\rVert \leq \left\lVert {A^{-1}} \right\rVert ( \left\lVert {(A-B)x} \right\rVert + \left\lVert {Bx} \right\rVert ) \leq \left\lVert {A^{-1}} \right\rVert\left\lVert {A-B} \right\rVert \left\lVert {x} \right\rVert + \left\lVert {A^{-1}} \right\rVert\left\lVert {Bx} \right\rVert .\] Ahora asuma\(x \neq 0\) y así\(\left\lVert {x} \right\rVert \neq 0\). Usando [eqcontineq] obtenemos\[\left\lVert {x} \right\rVert < \left\lVert {x} \right\rVert + \left\lVert {A^{-1}} \right\rVert\left\lVert {Bx} \right\rVert ,\] o en otras palabras\(\left\lVert {Bx} \right\rVert \not= 0\) para todos los distintos de cero\(x\), y por lo tanto\(Bx \not= 0\) para todos los distintos de cero\(x\). Esto es suficiente para ver que\(B\) es uno a uno (si\(Bx = By\), entonces\(B(x-y) = 0\), así\(x=y\)). Como\(B\) es operador uno a uno de\({\mathbb{R}}^n\) a\({\mathbb{R}}^n\) él está en y por lo tanto invertible. Veamos (ii). Dejar\(B\) ser invertible y cerca\(A^{-1}\), es decir [eqcontineq] se satisface. De hecho, supongamos\(\left\lVert {A-B} \right\rVert \left\lVert {A^{-1}} \right\rVert < \nicefrac{1}{2}\). Entonces hemos mostrado arriba (usando\(B^{-1}y\) en lugar de\(x\))\[\left\lVert {B^{-1}y} \right\rVert \leq \left\lVert {A^{-1}} \right\rVert\left\lVert {A-B} \right\rVert \left\lVert {B^{-1}y} \right\rVert + \left\lVert {A^{-1}} \right\rVert\left\lVert {y} \right\rVert \leq \nicefrac{1}{2} \left\lVert {B^{-1}y} \right\rVert + \left\lVert {A^{-1}} \right\rVert\left\lVert {y} \right\rVert ,\] o\[\left\lVert {B^{-1}y} \right\rVert \leq %\frac{1}{1- \norm{A^{-1}}\norm{A-B}) \norm{A^{-1}}\norm{y} . 2\left\lVert {A^{-1}} \right\rVert\left\lVert {y} \right\rVert .\] So\(\left\lVert {B^{-1}} \right\rVert \leq 2 \left\lVert {A^{-1}} \right\rVert %\frac{\norm{A^{-1}}}{1- \norm{A^{-1}}\norm{A-B})} .\). Ahora notemos eso\[A^{-1}(A-B)B^{-1} = A^{-1}(AB^{-1}-I) = B^{-1}-A^{-1} ,\] y\[\left\lVert {B^{-1}-A^{-1}} \right\rVert = \left\lVert {A^{-1}(A-B)B^{-1}} \right\rVert \leq \left\lVert {A^{-1}} \right\rVert\left\lVert {A-B} \right\rVert\left\lVert {B^{-1}} \right\rVert \leq %\frac{\norm{A^{-1}}^2}{1- \norm{A^{-1}}\norm{A-B})} %\norm{A-B} %\leq 2\left\lVert {A^{-1}} \right\rVert^2 \left\lVert {A-B} \right\rVert . \qedhere\] FIXME: continuidad del espacio vectorial Matrices Finalmente vamos a llegar a las matrices, que son una forma conveniente de representar operadores de dimensiones finitas. Si tenemos bases\(\{ x_1, x_2, \ldots, x_n \}\) y\(\{ y_1, y_2, \ldots, y_m \}\) para espacios vectoriales\(X\) y\(Y\), entonces sabemos que un operador lineal está determinado por sus valores sobre la base. Dado\(A \in L(X,Y)\), defina los números\(\{ a_i^j \}\) de la siguiente manera\[A x_j = \sum_{i=1}^m a_j^i y_i ,\] y escríbelos como una matriz\[A = \begin{bmatrix} a_1^1 & a_2^1 & \cdots & a_n^1 \\ a_1^2 & a_2^2 & \cdots & a_n^2 \\ \vdots & \vdots & \ddots & \vdots \\ a_1^m & a_2^m & \cdots & a_n^m \end{bmatrix} .\] Tenga en cuenta que las columnas de la matriz son precisamente los coeficientes que representan\(A x_j\). Derivamos la regla familiar para la multiplicación matricial. Cuando\[x = \sum_{j=1}^n \gamma^j x_j ,\] entonces\[A x = \sum_{j=1}^n \sum_{i=1}^m \gamma^j a_j^i y_i , = \sum_{i=1}^m \left(\sum_{j=1}^n \gamma^j a_j^i \right) y_i ,\] lo que da lugar a la regla familiar para la multiplicación matricial. Hay una correspondencia uno a uno entre matrices y operadores lineales en\(L(X,Y)\). Es decir, una vez que fijamos una base en\(X\) y en\(Y\). Si escogiéramos una base diferente, obtendríamos diferentes matrices. Esto es importante, el operador\(A\) actúa sobre elementos de\(X\), la matriz es algo que funciona con\(n\) -tuplas de números. Si\(B\) es una\(m\) matriz\(r\) -by- con entradas\(b_k^j\), entonces la matriz para\(BA\) tiene la entrada\(i,k\) th\(c_k^i\) siendo\[c_k^i = \sum_{j=1}^m b_k^ja_j^i .\] Tenga en cuenta cómo se alinean los índices superior e inferior. Un mapeo lineal que cambia una base a otra es entonces solo una matriz cuadrada en la que las columnas representan elementos base de la segunda base en términos de la primera base. Llamamos a tal mapeo lineal un cambio de base. Ahora supongamos que todas las bases son solo las bases estándar y\(X={\mathbb{R}}^n\) y\(Y={\mathbb{R}}^m\). Si recordamos la desigualdad Cauchy-Schwarz notamos que\[\left\lVert {Ax} \right\rVert^2 = \sum_{i=1}^m { \left(\sum_{j=1}^n \gamma^j a_j^i \right)}^2 \leq \sum_{i=1}^m { \left(\sum_{j=1}^n {(\gamma^j)}^2 \right) \left(\sum_{j=1}^n {(a_j^i)}^2 \right) } = \sum_{i=1}^m \left(\sum_{j=1}^n {(a_j^i)}^2 \right) \left\lVert {x} \right\rVert^2 .\] En otras palabras, tenemos un límite en la norma del operador\[\left\lVert {A} \right\rVert \leq \sqrt{\sum_{i=1}^m \sum_{j=1}^n {(a_j^i)}^2} .\] Si las entradas van a cero, entonces\(\left\lVert {A} \right\rVert\) va a cero. En particular,\(A\) si es fijo y\(B\) está cambiando de tal manera que las entradas de\(A-B\) van a cero entonces\(B\) va a\(A\) en norma de operador. Eso\(B\) va a\(A\) en la topología espacial métrica inducida por la norma del operador. Hemos demostrado la primera parte de: Si\(f \colon S \to {\mathbb{R}}^{nm}\) es una función continua para un espacio métrico\(S\), entonces tomar los componentes de\(f\) como las entradas de una matriz,\(f\) es un mapeo continuo de\(S\) a\(L({\mathbb{R}}^n,{\mathbb{R}}^m)\). Por el contrario, si\(f \colon S \to L({\mathbb{R}}^n,{\mathbb{R}}^m)\) es una función continua entonces las entradas de la matriz son funciones continuas. La prueba de la segunda parte es bastante fácil. Tomar\(f(x) e_j\) y anotar que es una función continua\({\mathbb{R}}^m\) con norma euclidiana estándar (Nota\(\left\lVert {(A-B)e_j} \right\rVert \leq \left\lVert {A-B} \right\rVert\)). Tal función recuerda del semestre pasado que tal función es continua si y sólo si sus componentes son continuos y estos son los componentes de la columna\(j\) th de la matriz\(f(x)\). Determinantes Sería bueno tener una prueba fácil para cuando es una matriz invertible. Aquí es donde entran los determinantes. Primero definir el símbolo\(\operatorname{sgn}(x)\) para un número es definido por\[\operatorname{sgn}(x) := \begin{cases} -1 & \text{ if $x < 0$} , \\ 0 & \text{ if $x = 0$} , \\ 1 & \text{ if $x > 0$} . \end{cases}\] Supongamos que\(\sigma = (\sigma_1,\ldots,\sigma_n)\) es una permutación de los enteros\((1,\ldots,n)\). No es difícil ver que cualquier permutación se puede obtener por una secuencia de transposiciones (conmutaciones de dos elementos). Llamar a una permutación par (resp. impar) si se necesita un número par (resp. impar) de transposiciones para llegar de\(\sigma\) a\((1,\ldots,n)\). Se puede demostrar que esto está bien definido, de hecho no es difícil demostrar que\[\operatorname{sgn}(\sigma) := \operatorname{sgn}(\sigma_1,\ldots,\sigma_n) = \prod_{p < q} \operatorname{sgn}(\sigma_q-\sigma_p)\] es\(1\) si\(\sigma\) es par y\(-1\) si\(\sigma\) es impar. Este hecho se puede probar al señalar que aplicar una transposición cambia el signo, lo cual no es difícil de probar por inducción sobre\(n\). Entonces tenga en cuenta que el signo de\((1,2,\ldots,n)\) es 1. Dejar\(S_n\) ser el conjunto de todas las permutaciones sobre\(n\) los elementos (el grupo simétrico). \(A= [a_j^i]\)Déjese ser una matriz. Definir el determinante de\(A\)\[\det(A) := \sum_{\sigma \in S_n} \operatorname{sgn} (\sigma) \prod_{i=1}^n a_{\sigma_i}^i .\] \(\det(I) = 1\). \(\det([x_1 x_2 \ldots x_n ])\)como una función de vectores de columna\(x_j\) es lineal en cada variable\(x_j\) por separado. Si se intercambian dos columnas de una matriz, entonces el determinante cambia de signo. Si dos columnas de\(A\) son iguales, entonces\(\det(A) = 0\). Si una columna es cero, entonces\(\det(A) = 0\). \(A \mapsto \det(A)\)es una función continua. \(\det\left[\begin{smallmatrix} a & b \\ c &d \end{smallmatrix}\right] = ad-bc\)y\(\det [a] = a\). De hecho, el determinante es la función única que satisface (i), (ii) y (iii). Pero nosotros digremos. Pasamos por la prueba rápidamente, como es probable que hayas visto esto antes. (i) es trivial. Para (ii) Observe que cada término en la definición del determinante contiene exactamente un factor de cada columna. La parte (iii) sigue señalando que cambiar dos columnas es como cambiar los dos números correspondientes en cada elemento en\(S_n\). De ahí que se cambien todos los signos. La parte (iv) sigue porque si dos columnas son iguales y las cambiamos obtenemos la misma matriz de vuelta y así parte (iii) dice que el determinante debe haber sido 0. La parte (v) sigue porque el producto en cada término en la definición incluye un elemento de la columna cero. La parte (vi) sigue como\(\det\) es un polinomio en las entradas de la matriz y por lo tanto continua. Hemos visto que una función definida en matrices es continua en la norma del operador si es continua en las entradas. Por último, la parte (vii) es un cómputo directo. Si\(A\) y\(B\) son\(n\times n\) matrices, entonces\(\det(AB) = \det(A)\det(B)\). En particular,\(A\) es invertible si y sólo si\(\det(A) \not= 0\) y en este caso,\(\det(A^{-1}) = \frac{1}{\det(A)}\). \(b_1,b_2,\ldots,b_n\)Dejen ser las columnas de\(B\). Entonces es\[AB = [ Ab_1 \quad Ab_2 \quad \cdots \quad Ab_n ] .\] decir, las columnas de\(AB\) son\(Ab_1,Ab_2,\ldots,Ab_n\). Dejar\(b_j^i\) denotar los elementos de\(B\) y\(a_j\) las columnas de\(A\). Tenga en cuenta que\(Ae_j = a_j\). Por linealidad del determinante como se probó anteriormente tenemos\[\begin{split} \det(AB) & = \det ([ Ab_1 \quad Ab_2 \quad \cdots \quad Ab_n ]) = \det \left(\left[ \sum_{j=1}^n b_1^ja_j \quad Ab_2 \quad \cdots \quad Ab_n \right]\right) \\ & = \sum_{j=1}^n b_1^j \det ([ a_j \quad Ab_2 \quad \cdots \quad Ab_n ]) \\ & = \sum_{1 \leq j_1,j_2,\ldots,j_n \leq n} b_1^{j_1} b_2^{j_2} \cdots b_n^{j_n} \det ([ a_{j_1} \quad a_{j_2} \quad \cdots \quad a_{j_n} ]) \\ & = \left( \sum_{(j_1,j_2,\ldots,j_n) \in S_n} b_1^{j_1} b_2^{j_2} \cdots b_n^{j_n} \operatorname{sgn}(j_1,j_2,\ldots,j_n) \right) \det ([ a_{1} \quad a_{2} \quad \cdots \quad a_{n} ]) . \end{split}\] En lo anterior, pasar de todos los enteros entre 1 y\(n\), a solo elementos de\(S_n\) al señalar que cuando dos columnas en el determinante son iguales entonces el determinante es cero. Luego reordenamos las columnas al orden original y obtenemos el sgn. La conclusión sigue reconociendo el determinante de\(B\). Se intercambian las filas y columnas, pero la reflexión de un momento revela que no importa. También podríamos simplemente enchufar\(A=I\) arriba. Para la segunda parte del teorema señalar que si\(A\) es invertible, entonces\(A^{-1}A = I\) y así\(\det(A^{-1})\det(A) = 1\). Si no\(A\) es invertible, entonces las columnas son linealmente dependientes. Es decir, supongamos\[\sum_{j=1}^n c^j a_j = 0 .\] Sin pérdida de generalidad supongamos\(c^1\neq 1\). \[B := \begin{bmatrix} c^1 & 0 & 0 & \cdots & 0 \\ c^2 & 1 & 0 & \cdots & 0 \\ c^3 & 0 & 1 & \cdots & 0 \\ \vdots & \vdots & \vdots & \ddots & \vdots \\ c^n & 0 & 0 & \cdots & 1 \end{bmatrix} .\]Toma No es difícil ver por la definición que\(\det(B) = c^1 \not= 0\). Entonces\(\det(AB) = \det(A)\det(B) = c^1\det(A)\). Tenga en cuenta que la primera columna de\(AB\) es cero, y por lo tanto\(\det(AB) = 0\). Por lo tanto\(\det(A) = 0\). Existen tipos de árboles de las llamadas matrices elementales. Primero para algunos\(j = 1,2,\ldots,n\) y algunos\(\lambda \in {\mathbb{R}}\),\(\lambda \neq 0\), una\(n \times n\) matriz\(E\) definida por\[Ee_i = \begin{cases} e_i & \text{if $i \neq j$} , \\ \lambda e_i & \text{if $i = j$} . \end{cases}\] Dada cualquier\(n \times m\) matriz\(M\) la matriz\(EM\) es la misma matriz que\(M\) excepto con la fila\(k\) th multiplicada por\(\lambda\). Es un cómputo fácil (ejercicio) que\(\det(E) = \lambda\). Segundo, para algunos\(j\) y\(k\) con\(j\neq k\), y\(\lambda \in {\mathbb{R}}\) una\(n \times n\) matriz\(E\) definida por\[Ee_i = \begin{cases} e_i & \text{if $i \neq j$} , \\ e_i + \lambda e_k & \text{if $i = j$} . \end{cases}\] Dada cualquier\(n \times m\) matriz\(M\) la matriz\(EM\) es la misma matriz que\(M\) excepto con\(\lambda\) veces la \(k\)th fila agregada a la fila\(j\) th. Es un cómputo fácil (ejercicio) que\(\det(E) = 1\). Finalmente para algunos\(j\) y\(k\) con\(j\neq k\) una\(n \times n\) matriz\(E\) definida por\[Ee_i = \begin{cases} e_i & \text{if $i \neq j$ and $i \neq k$} , \\ e_k & \text{if $i = j$} , \\ e_j & \text{if $i = k$} . \end{cases}\] Dada cualquier\(n \times m\) matriz\(M\) la matriz\(EM\) es la misma matriz con las filas\(j\)\(k\) th y th intercambiadas. Es un cómputo fácil (ejercicio) que\(\det(E) = -1\). Las matrices elementales son útiles para computar el determinante. Se deja como ejercicio la prueba de la siguiente proposición. [prop:elemmatrixdecomp] Dejar\(T\) ser una matriz\(n \times n\) invertible. Entonces existe una secuencia finita de matrices elementales\(E_1, E_2, \ldots, E_k\) tal que\[T = E_1 E_2 \cdots E_k ,\] y\[\det(T) = \det(E_1)\det(E_2)\cdots \det(E_k) .\] Determinante es independiente de la base. Es decir, si\(B\) es invertible entonces,\[\det(A) = \det(B^{-1}AB) .\] La prueba es inmediata. Si en una base\(A\) está la matriz representando un operador lineal, entonces para otra base podemos encontrar una matriz\(B\) tal que la matriz nos\(B^{-1}AB\) lleve a la primera base, aplique\(A\) en la primera base, y nos lleve de vuelta a la base con la que empezamos. Por lo tanto, el determinante puede definirse como una función en el espacio\(L(X)\) para algún espacio métrico dimensional finito\(X\), no solo en matrices. Elegimos una base sobre\(X\), y podemos representar un mapeo lineal usando una matriz con respecto a esta base. Obtenemos el mismo determinante que si hubiéramos utilizado cualquier otra base. De las dos proposiciones se desprende que\[\det \colon L(X) \to {\mathbb{R}}\] es una función bien definida y continua. Ejercicios Si\(X\) es un espacio vectorial con una norma\(\left\lVert {\cdot} \right\rVert\), entonces muestra que\(d(x,y) := \left\lVert {x-y} \right\rVert\) hace\(X\) un espacio métrico. Verificar el cálculo del determinante para los tres tipos de matrices elementales.

    This page titled 9.2: Análisis con espacios vectoriales is shared under a CC BY-SA 4.0 license and was authored, remixed, and/or curated by Jiří Lebl via source content that was edited to the style and standards of the LibreTexts platform; a detailed edit history is available upon request.