Saltar al contenido principal
LibreTexts Español

12.2: Aritmética matricial

  • Page ID
    114838
  • \( \newcommand{\vecs}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} } \) \( \newcommand{\vecd}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash {#1}}} \)\(\newcommand{\id}{\mathrm{id}}\) \( \newcommand{\Span}{\mathrm{span}}\) \( \newcommand{\kernel}{\mathrm{null}\,}\) \( \newcommand{\range}{\mathrm{range}\,}\) \( \newcommand{\RealPart}{\mathrm{Re}}\) \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\) \( \newcommand{\Argument}{\mathrm{Arg}}\) \( \newcommand{\norm}[1]{\| #1 \|}\) \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\) \( \newcommand{\Span}{\mathrm{span}}\) \(\newcommand{\id}{\mathrm{id}}\) \( \newcommand{\Span}{\mathrm{span}}\) \( \newcommand{\kernel}{\mathrm{null}\,}\) \( \newcommand{\range}{\mathrm{range}\,}\) \( \newcommand{\RealPart}{\mathrm{Re}}\) \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\) \( \newcommand{\Argument}{\mathrm{Arg}}\) \( \newcommand{\norm}[1]{\| #1 \|}\) \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\) \( \newcommand{\Span}{\mathrm{span}}\)\(\newcommand{\AA}{\unicode[.8,0]{x212B}}\)

    En esta sección, examinamos las propiedades algebraicas del conjunto\(\mathbb{F}^{m \times n}\) (donde\(m, n \in \mathbb{Z}_+\)). Específicamente,\(\mathbb{F}^{m \times n}\) forma un espacio vectorial bajo las operaciones de adición por componentes y multiplicación escalar, y es isomórfico\(\mathbb{F}^{mn}\) como un espacio vectorial.

    También definimos una operación de multiplicación entre matrices de tamaño compatible y mostramos que esta operación de multiplicación interactúa con la estructura del espacio vectorial de forma natural.\(\mathbb{F}^{m \times n}\) En particular,\(\mathbb{F}^{n \times n}\) forma un álgebra sobre\(\mathbb{F}\) con respecto a estas operaciones. (Véase la Sección C.3 para la definición de un álgebra.)

    A.2.1 Adición y multiplicación escalar

    Let\(A = (a_{ij} )\) and\(B = (b_{ij} )\) be\(m \times n\) matrices over\(\mathbb{F}\) (where\(m, n \in \mathbb{Z}_+\)), y let\(\alpha \in \mathbb{F}\) .Entonces, la suma de matriz\(A+B = ((a+b)_{ij} )_{m \times n}\) y la multiplicación escalar\(\alpha A = ((\alpha a)_{ij} )_{m \times n}\) son definidas en cuanto a componentes, es decir

    \[(a + b)_{ij} = a_{ij} + b_{ij} \rm{~and~} (\alpha a)_{ij} = \alpha a_{ij}.\]

    Equivalentemente,\(A + B\) es la\(m \times n\) matriz dada por

    \[ \left[ \begin{array}{ccc} a_{1 1} & \cdots & a_{1 n} \\ \vdots & \ddots & \vdots \\ a_{m 1} & \cdots & a_{m n} \end{array} \right] + \left[ \begin{array}{ccc} b_{1 1} & \cdots & b_{1 n} \\ \vdots & \ddots & \vdots \\ b_{m 1} & \cdots & b_{m n} \end{array} \right] = \left[ \begin{array}{ccc} a_{1 1}+b_{1 1} & \cdots & a_{1 n}+b_{1 n} \\ \vdots & \ddots & \vdots \\ a_{m 1}+b_{m 1} & \cdots & a_{m n}+b_{m n} \end{array} \right],\]

    y\(\alpha A\) es la\(m \times n\) matriz dada por

    \[ \alpha \left[ \begin{array}{ccc} a_{1 1} & \cdots & a_{1 n} \\ \vdots & \ddots & \vdots \\ a_{m 1} & \cdots & a_{m n} \end{array} \right]= \left[ \begin{array}{ccc} \alpha a_{1 1} & \cdots & \alpha a_{1 n} \\ \vdots & \ddots & \vdots \\ \alpha a_{m 1} & \cdots & \alpha a_{m n} \end{array} \right].\]

    Ejemplo A.2.1. Con notación como en el Ejemplo A.1.3,

    \[ D+E= \left[ \begin{array}{ccc} 7 & 6 & 5 \\ -2 & 1 & 3 \\ 7 & 3 & 7 \end{array} \right],\]

    y no se pueden agregar otras dos matrices del Ejemplo A.1.3 ya que sus tamaños no son compatibles. Del mismo modo, podemos hacer cálculos como

    \[ D-E=D+(-1)E= \left[ \begin{array}{ccc} -5 & 4 & -1 \\ 0 & -1 & -1 \\ -1 & 1 & 1 \end{array} \right] \rm{~and~} 0D=0E=\left[ \begin{array}{ccc} 0 & 0 & 0 \\ 0 & 0 & 0 \\ 0 & 0 & 0 \end{array} \right]=0_{3\times3}. \]

    Es importante señalar que, si bien estas no son las únicas formas de definir las operaciones de adición y multiplicación escalar\(\mathbb{F}_{m \times n}\), las operaciones anteriores tienen la ventaja de dotar de\(\mathbb{F}_{m \times n}\) una estructura espacial vectorial razonablemente natural. Como un espacio vectorial,\(\mathbb{F}_{m \times n}\) se ve que tiene dimensión\(mn\) ya que podemos construir las matrices base estándar

    \[E_{1 1} , E_{1 2} , \ldots, E_{1 n} , E_{2 1}, E_{2 2} ,\ldots, E_{2 n} , \ldots, E_{m 1}, E_{m 2} , \ldots, E_{m n}\]

    por analogía a la base estándar para\(\mathbb{F}^{mn}\). Es decir, cada\(E_{kl} = ((e^{(k,l)} )_{ij} )\) uno satisface

    \[ (e^{(k,l)} )_{ij} = \left\{ \begin{array}{cc} 1, & \rm{~if~} i = k \rm{~and~} j = l \\ 0, & \rm{~otherwise~} \end{array} \right. . \]

    Esto nos permite construir un isomorfismo espacial vectorial\(\mathbb{F}^{m \times n} \rightarrow \mathbb{F}^{mn}\) utilizando una biyección que simplemente “pone cada matriz en flat”. En otras palabras, dado\(A = (a_{ij} ) \in \mathbb{F}^{m \times n} ,\)

    \[ \left[ \begin{array}{ccc} a_{1 1} & \cdots & a_{1 n} \\ \vdots & \ddots & \vdots \\ a_{m 1} & \cdots & a_{m n} \end{array} \right] \mapsto (a_{1 1} , a_{1 2} , \ldots, a_{1 n} , a_{2 1}, a_{2 2} ,\ldots, a_{2 n} , \ldots, a_{m 1}, a_{m 2} , \ldots, a_{m n}) \in \mathbb{F}^{mn} .\]

    Ejemplo A.2.2. El espacio vectorial\(\mathbb{R}^{2 \times 3}\) de\(2 \times 3\) las matrices sobre\(\mathbb{R}\) tiene una base estándar

    \[ \left\{ E_{1 1} = \left[ \begin{array}{ccc} 1 & 0 & 0 \\ 0 & 0 & 0 \end{array} \right] , E_{1 2}= \left[ \begin{array}{ccc} 0 & 1 & 0 \\ 0 & 0 & 0 \end{array} \right], E_{1 3} = \left[ \begin{array}{ccc} 0 & 0 & 1 \\ 0 & 0 & 0 \end{array} \right], E_{2 1} = \left[ \begin{array}{ccc} 0 & 0 & 0 \\ 1 & 0 & 0 \end{array} \right], E_{2 2}= \left[ \begin{array}{ccc} 0 & 0 & 0 \\ 0 & 1 & 0 \end{array} \right], E_{2 3}= \left[ \begin{array}{ccc} 0 & 0 & 0 \\ 0 & 0 & 1 \end{array} \right] \right\}, \]

    que se considera que corresponde naturalmente con la base estándar\(\{e_1 , \ldots, e_6 \}\) para\(\mathbb{R}_6\), donde

    \[ e_1 = (1, 0, 0, 0, 0, 0), e_2 = (0, 1, 0, 0, 0, 0), \ldots , e_6 = (0, 0, 0, 0, 0, 1). \]

    Por supuesto, no basta con afirmar que\(\mathbb{F}^{m \times n}\) es un espacio vectorial ya que aún tenemos que verificar que las operaciones de suma y multiplicación escalar definidas anteriormente satisfagan los axiomas del espacio vectorial. La prueba del siguiente teorema es sencilla y algo que debes trabajar para practicar con notación matricial.

    Teorema A.2.3. Dados los enteros positivos\(m, n \in \mathbb{Z}_+\) y las operaciones de adición de matriz y multiplicación escalar definidas anteriormente, el conjunto\(\mathbb{F}^{m \times n}\) de todas las\(m \times n\) matrices satisface cada una de las siguientes propiedades.

    1. (asociatividad de la adición de matriz) Teniendo en cuenta tres matrices cualesquiera\(A, B, C \in \mathbb{F}^{m \times n} ,\)\[ (A + B) + C = A + (B + C).\]
    2. (identidad aditiva para la adición de matriz) Dada cualquier matriz\(A \in \mathbb{F}^{m \times n},\)\[A + 0_{m \times n} = 0_{m \times n} + A = A.\]
    3. (inversión aditiva para adición de matriz) Dada cualquier matriz\(A \in \mathbb{F}^{m \times n} ,\) existe una matriz\(−A \in \mathbb{F}^{m \times n}\) tal que \[A + (−A) = (−A) + A = 0_{m \times n} .\]
    4. (conmutatividad de la adición de matriz) Dadas dos matrices cualesquiera\(A, B \in \mathbb{F}^{m \times n} ,\)\[A + B = B + A.\]
    5. (asociatividad de multiplicación escalar) Dada cualquier matriz\(A \in \mathbb{F}^{m \times n}\) y dos escalares cualesquiera\(\alpha,\beta \in \mathbb{F},\) \[ (\alpha \beta)A = \alpha(\beta A).\]
    6. (identidad multiplicativa para multiplicación escalar) Dada cualquier matriz\(A \in \mathbb{F}^{m \times n}\) y denotando por\(1\) la identidad multiplicativa de\(\mathbb{F},\) \[1A = A.\]
    7. (distributividad de la multiplicación escalar) Dadas dos matrices cualesquiera\(A, B \in \mathbb{F}^{m \times n}\) y dos escalares cualesquiera\(\alpha , \beta \in \mathbb{F},\) \[ (\alpha + \beta)A = \alpha A + \beta A \rm{~and~} \alpha (A + B) = \alpha A + \alpha B.\]

    Es decir,\( \mathbb{F}^{m \times n}\) forma un espacio vectorial bajo las operaciones de adición matricial y multiplicación escalar.

    Como consecuencia del Teorema A.2.3, toda propiedad que posee para un espacio vectorial arbitrario puede ser tomada como una\(\mathbb{F}^{m \times n}\) propiedad de específicamente. Destacamos algunas de estas propiedades en el siguiente corolario del Teorema A.2.3.

    Corolario A.2.4. Dados los enteros positivos\(m, n \in \mathbb{Z}_+\) y las operaciones de adición de matriz y multiplicación escalar definidas anteriormente, el conjunto\(\mathbb{F}^{m \times n}\) de todas las\(m \times n\) matrices satisface cada una de las siguientes propiedades:

    1. Dada cualquier matriz\(A \in \mathbb{F}^{m \times n} ,\) dada cualquier escalar\(\alpha \in \mathbb{F}\), y denotando por\(0\) la identidad aditiva de\(\mathbb{F},\) \[ 0A = A \rm{~and~} \alpha 0_{m \times n} = 0_{m \times n} .\]
    2. Dada cualquier matriz\(A \in \mathbb{F}^{m \times n}\) y cualquier escalar\(\alpha \in \mathbb{F},\)\[ \alpha A = 0 \Longrightarrow \rm{~either~} \alpha = 0 \rm{~or~} A = 0_{m \times n}.\]
    3. Dada cualquier matriz\(A \in \mathbb{F}^{m \times n}\) y cualquier escalar\(\alpha \in \mathbb{F},\)\[ −( \alpha A) = (− \alpha )A = \alpha (−A).\]

    En particular, la inversa aditiva\(−A\) de\(A\) viene dada por\(−A = (−1)A,\) donde\(−1\) denota la inversa aditiva para la identidad de aditividad de\(\mathbb{F}.\)

    Si bien uno podría probar el Corolario A.2.4 directamente a partir de las definiciones, el punto de reconocer\(\mathbb{F}^{m \times n}\) como un espacio vectorial es que se llega a utilizar estos resultados sin preocuparse por su prueba. Además, no hay necesidad de separar la prueba para cada uno de\(\mathbb{R}^{m \times n}\) y\(\mathbb{C}^{m \times n} .\)

    A.2.2 Multiplicación y matrices

    Dejar\(r, s, t \in \mathbb{Z}_+\) ser enteros positivos,\(A = (a_{ij} ) \in \mathbb{F}^{r \times s}\) ser una\(r \times s\) matriz, y\(B = (b_{ij} ) \in \mathbb{F}^{s \times t}\) ser una\(s \times t\) matriz. Entonces la multiplicación matricial\(AB = ((ab)_{ij} )_{r \times t}\) es definida por

    \[(ab)_{ij} = \sum_{k=1}^{s} a_{ik} b_{kj}.\]

    En particular, tenga en cuenta que la “\(i, j\)entrada” del producto matriz\(AB\) implica una suma sobre el entero positivo\(k = 1, \ldots , s\), donde\(s\) está tanto el número de columnas en\(A\) como el número de filas en\(B\). Así, esta multiplicación solo se determina cuando la dimensión “media” de cada matriz es la misma:

    \[(a_{ij} )_{r \times s} (b_{ij} )_{s \times t} =r\left\{ \underset{s}{\underbrace{\left[ \begin{array}{ccc} a_{1 1} & \cdots & a_{1 s} \\ \vdots & \ddots & \vdots \\ a_{r 1} & \cdots & a_{r s} \end{array} \right]}} \underset{t}{\underbrace{\left[ \begin{array}{ccc} b_{1 1} & \cdots & b_{1 t} \\ \vdots & \ddots & \vdots \\ b_{s 1} & \cdots & b_{s t} \end{array} \right]}} \right\} s \\ = \underset{t}{\underbrace{\left.\left[ \begin{array}{ccc} \sum_{k=1}^{s}a_{1k}b_{k1} & \cdots & \sum_{k=1}^{s}a_{1k}b_{kt} \\ \vdots & \ddots & \vdots \\ \sum_{k=1}^{s}a_{rk}b_{k1} & \cdots & \sum_{k=1}^{s}a_{rk}b_{kt} \end{array} \right] \right\}}} r\]

    Alternativamente, si dejamos\(n \in \mathbb{Z}_+\) ser un entero positivo, entonces otra forma de ver la multiplicación matricial es a través del uso del producto interno estándar en\(\mathbb{F}^n = \mathbb{F}^{1 \times n} = \mathbb{F}^{n \times 1}\). En particular, definimos el producto de punto (también conocido como producto interno euclidiano) del vector de fila\(x = (x_{1j} ) \in \mathbb{F}^{1 \times n}\) y el vector de columna\(y = (y_{i1} ) \in \mathbb{F}^{n \times 1}\) para ser

    \[ x \cdot y = \left[ \begin{array}{ccc} x_{1 1}, & \cdots, & x_{1 n} \end{array} \right] \cdot \left[ \begin{array}{c} y_{1 1}\\ \vdots \\ y_{n 1} \end{array} \right]=\sum_{k=1}^{n}x_{1 k}y_{k 1}
    \in \mathbb{F}. \]

    Luego podemos descomponer las matrices\(A = (a_{ij} )_{r \times s}\) y\(B = (b_{ij} )_{s \times t}\) en sus vectores de fila constituyentes al fijar un entero positivo\(k \in \mathbb{Z}_+\) y establecer

    \[A^{(k,\cdot)} = \left[ \begin{array}{ccc} a_{k 1}, & \cdots, & a_{k s} \end{array} \right] \in \mathbb{F}^{1 \times s} \rm{~and~} B^{(k,\cdot)} = \left[ \begin{array}{ccc} b_{k 1}, & \cdots, & b_{k t} \end{array} \right] \in \mathbb{F}^{1 \times t}.\]

    Del mismo modo, fixing\( l \in \mathbb{Z}_+ \), también podemos descomponer\(A\) y\(B\) en los vectores de columna

    \[A^{(\cdot, l)} = \left[ \begin{array}{c} a_{1 l} \\ \vdots \\ a_{r l} \end{array} \right] \in \mathbb{F}^{r \times 1} \rm{~and~} B^{(\cdot, l)} = \left[ \begin{array}{c} b_{1 l} \\ \vdots \\ b_{s l} \end{array} \right] \in \mathbb{F}^{s \times 1}.\]

    De ello se deduce que el producto\(AB\) es la siguiente matriz de productos punteados:

    \[AB= \left[ \begin{array}{ccc} A^{(1,\cdot)}\cdot B^{(\cdot,1)} & \cdots & A^{(1,\cdot)}\cdot B^{(\cdot,t)} \\ \vdots & \ddots & \vdots \\ A^{(r,\cdot)}\cdot B^{(\cdot,1)} & \cdots & A^{(r,\cdot)}\cdot B^{(\cdot,t)}\end{array} \right] \in \mathbb{F}^{r \times t}.\]

    Ejemplo A.2.5. Con la notación como en el Ejemplo A.1.3, debe sentarse y usar las definiciones anteriores para verificar que los siguientes productos de matriz se mantienen.

    \[ AC= \left[ \begin{array}{c} 3 \\ -1 \\ 1 \end{array} \right] \left[ \begin{array}{ccc} 1, & 4, & 2 \end{array} \right] = \left[ \begin{array}{ccc} 3 & 12 & 6 \\ -1 & -4 & -2 \\ 1 & 4 & 2 \end{array} \right] \in \mathbb{F}^{3 \times 3}, \]

    \[ CA = \left[ \begin{array}{ccc} 1, & 4, & 2 \end{array} \right] \left[ \begin{array}{ccc} 3 \\ -1 \\ 1 \end{array} \right] = 3-4+2=1 \in \mathbb{F},\]

    \[ B^2=BB= \left[ \begin{array}{cc} 4 & -1 \\ 0 & 2 \end{array} \right] \left[ \begin{array}{cc} 4 & -1 \\ 0 & 2 \end{array} \right] = \left[ \begin{array}{cc} 16 & -6 \\ 0 & 4 \end{array} \right] \in \mathbb{F}^{2 \times 2}, \]

    \[ CE= \left[ \begin{array}{ccc} 1, & 4, & 2 \end{array} \right] \left[ \begin{array}{ccc} 6 & 1 & 3 \\ -1 & 1 & 2 \\ 4 & 1 & 3 \end{array} \right] = \left[ \begin{array}{ccc} 10, & 7, & 17 \end{array} \right] \in \mathbb{F}^{1 \times 3}, \rm{~and~} \]

    \[ DA = \left[ \begin{array}{ccc} 1 & 5 & 2 \\ -1 & 0 & 1 \\ 3 & 2 & 4 \end{array} \right] \left[ \begin{array}{c} 3 \\ -1 \\ 1 \end{array} \right] = \left[ \begin{array}{c} 0 \\ -2 \\ 11 \end{array} \right] \in \mathbb{F}^{3 \times 1}.\]

    Tenga en cuenta, sin embargo, que\(B\) no se puede multiplicar por ninguna de las otras matrices, ni tiene sentido tratar de formar los productos\(AD, AE, DC, \rm{~and~} EC\) debido a los desajustes de tamaño inherentes.

    Como se ilustra en el Ejemplo A.2.5 anterior, la multiplicación matricial no es una operación conmutativa (ya que, por ejemplo,\(AC \in \mathbb{F}^{3 \times 3} \rm{~while~} CA \in \mathbb{F}^{1 \times 1}\)). Sin embargo, a pesar de la complejidad de su definición, el producto matriz satisface muchas propiedades familiares de una operación de multiplicación. Resumimos la más básica de estas propiedades en el siguiente teorema.

    Teorema A.2.6. Dejar\(r, s, t, u \in \mathbb{Z}_+\) ser enteros positivos.

    1. (asociatividad de la multiplicación matricial) Dada\(A \in \mathbb{F}^{r \times s} , B \in \mathbb{F}^{s \times t} \), y\(C \in \mathbb{F}^{t×u} ,\) \[A(BC) = (AB)C.\]
    2. (distributividad de la multiplicación matricial) Dada\(A \in \mathbb{F}^{r \times s} , B, C \in \mathbb{F}^{s \times t} \), y\(D \in \mathbb{F}^{t \times u} , \) \[A(B + C) = AB + AC \rm{~and ~} (B + C)D = BD + CD.\]
    3. (compatibilidad con multiplicación escalar) Dado\(A \in \mathbb{F}^{r \times s} , B \in \mathbb{F}^{s \times t} \), y\(\alpha \in \mathbb{F},\) \[ \alpha (AB) = (\alpha A)B = A(\alpha B).\]

    Además, dado que cualquier entero positivo\(n \in \mathbb{Z}_+ , \mathbb{F}^{n \times n}\) es un álgebra sobre\(\mathbb{F}.\)

    Al igual que con el Teorema A.2.3, se debe trabajar a través de una prueba de cada parte del Teorema A.2.6 (y especialmente de la primera parte) para practicar la manipulación correcta de los índices de entradas. Declaramos y demostramos un seguimiento útil a los Teoremas A.2.3 y A.2.6 como ilustración.

    Teorema A.2.7. Dejar\(A, B \in \mathbb{F}^{n \times n}\) ser matrices triangulares superiores y\(c \in \mathbb{F}\) ser cualquier escalar.

    Entonces se mantienen cada una de las siguientes propiedades:

    1. \(cA\)es triangular superior.
    2. \(A + B\)es triangular superior.
    3. \(AB\)es triangular superior.

    En otras palabras, el conjunto de todas las matrices triangulares\(m \times n\) superiores forma un álgebra sobre\(\mathbb{F}.\)

    Además, cada una de las declaraciones anteriores aún se mantiene cuando el triangular superior es reemplazado por el triangular
    inferior
    .

    Prueba. Las pruebas de las Partes 1 y 2 son sencillas y siguen directamente de las definiciones apropiadas. Además, la prueba del caso para matrices triangulares inferiores se desprende del hecho de que una matriz\(A\) es triangular superior si y sólo si\(A^T\) es triangular inferior, donde\(A^T\) denota la transposición de\(A.\) (Ver Sección A.5.1 para la definición de transposición.)

    Para probar la Parte 3, partimos de la definición del producto matriz. Denotando\(A = (a_{ij} )\) y\(B = (b_{ij} ),\) anotar que\(AB = ((ab)_{ij} )\) es una\(n \times n\) matriz que tiene “\(i-j\)entrada” dada por

    \[(ab)_{ij} = \sum_{k=1}^{n} a_{ik} b_{kj}.\]

    Ya que\(A\) y\(B\) son triangulares superiores, tenemos que\(a_{ik} = 0\) cuando\(i > k\) y que\(b_{kj} = 0\) cuando\(k > j.\) Así, para obtener una suma distinta de cero\(a_{ik} b_{kj} \neq 0,\) debemos tener ambos\(a_{ik} \neq 0,\) lo que implica eso\(i ≤ k,\) y\(b_{kj} \neq 0,\) lo que implica que\(k ≤ j.\) En particular, estos dos condiciones son simultáneamente satisfacíbles sólo cuando\(i ≤ j.\) Por lo tanto,\((ab)_{ij} = 0\) cuando\(i > j,\) de la cual\(AB\) es triangular superior.

    Al mismo tiempo, debes tener cuidado de no realizar operaciones con alegría en matrices como lo harías con los números. El hecho de que la multiplicación matricial no sea una operación conmutativa debería dejar claro que se requiere significantemente más cuidado con la aritmética matricial. Como otro ejemplo, dado un entero positivo\(n \in \mathbb{Z}_+\), el conjunto\(\mathbb{F}^{n \times n}\) tiene lo que se llama divisores cero. Es decir, existen matrices distintas de cero\(A, B \in \mathbb{F}^{n \times n}\) tales que\(AB = 0_{n \times n}:\)

    \[\left[ \begin{array}{cc} 0 & 1 \\ 0 & 0 \end{array} \right]^2= \left[ \begin{array}{cc} 0 & 1 \\ 0 & 0 \end{array} \right] \left[ \begin{array}{cc} 0 & 1 \\ 0 & 0 \end{array} \right]= \left[ \begin{array}{cc} 0 & 0 \\ 0 & 0 \end{array} \right]= 0_{2 \times 2}.\]

    Además, tenga en cuenta que existen matrices\(A, B, C \in \mathbb{F}^{n \times n}\) tales que\(AB = AC\) pero\(B \neq C\):

    \[\left[ \begin{array}{cc} 0 & 1 \\ 0 & 0 \end{array} \right] \left[ \begin{array}{cc} 1 & 0 \\ 0 & 0 \end{array} \right]= 0_{2 \times 2}=\left[ \begin{array}{cc} 0 & 1 \\ 0 & 0 \end{array} \right]\left[ \begin{array}{cc} 0 & 1 \\ 0 & 0 \end{array} \right].\]

    En consecuencia, decimos que el conjunto\(\mathbb{F}^{n \times n}\) no logra contar con la llamada propiedad de cancelación. Esta falla es resultado directo del hecho de que existen matrices distintas de cero en las\(\mathbb{F}^{n \times n}\) que no tienen inversa multiplicativa. Discutimos la invertibilidad de la matriz en profundidad en la siguiente sección
    y definimos un subconjunto especial\(GL(n, \mathbb{F}) \subset \mathbb{F}^{n \times n}\) sobre el cual se mantiene la propiedad de cancelación.

    A.2.3 Invertibilidad de matrices cuadradas

    En esta sección, exploramos lo contrario de la multiplicación matricial. Más específicamente, caracterizamos matrices cuadradas para las que existen inversas multiplicativas.

    Definición A.2.8. Dado un entero positivo\(n \in \mathbb{Z}_+ \), decimos que la matriz cuadrada\(A \in \mathbb{F}^{n \times n}\) es invertible (también conocida como nonsingular) si existe una matriz cuadrada\(B \in \mathbb{F}^{n \times n}\) tal que

    \[AB = BA = I_{n} .\]

    Usamos\(GL(n, \mathbb{F})\) para denotar el conjunto de todas las\(n \times n\) matrices invertibles que tienen entradas de\(\mathbb{F}\).

    Se puede probar que, si existe el inverso multiplicativo de una matriz, entonces el inverso es único. Como tal, usualmente denotaremos la llamada matriz inversa de\(A \in GL(n, \mathbb{F})\) by\(A_{−1}\). A pesar de que esta notación es análoga a la notación para la inversa multiplicativa de un escalar, no se debe tomar esto en el sentido de que es posible “dividir” por una matriz. Además, tenga en cuenta que la matriz cero\(0_{n \times n} \not\in GL(n, \mathbb{F})\). Esto quiere decir que no\(GL(n, \mathbb{F})\) es un subespacio vectorial de\(\mathbb{F}^{n \times n} \).

    Dado que la multiplicación de matrices no es una operación conmutativa, se debe tener cuidado al trabajar con las inversas multiplicativas de matrices invertibles. En particular, muchas de las propiedades algebraicas para inversos multiplicativos de escalares, cuando se modifican adecuadamente, continúan manteniéndose. Resumimos la más básica de estas propiedades en el siguiente teorema.

    Teorema A.2.9. Dejar\(n \in \mathbb{Z}_+\) ser un número entero positivo y\(A, B \in GL(n, \mathbb{F}).\) Entonces

    1. la matriz inversa\(A^{−1} \in GL(n, \mathbb{F})\) y satisface\((A_{−1} )^{−1} = A.\)
    2. el poder de la matriz\(A^m \in GL(n, \mathbb{F})\) y satisface\((A^m )^{−1} = (A^{−1} )^m \), donde\(m \in \mathbb{Z}_+\) es cualquier entero positivo.
    3. t la matriz\(\alpha A \in GL(n, \mathbb{F})\) y satisface\((\alpha A)^{−1} = \alpha^{−1} A^{−1} \), donde\(\alpha \in \mathbb{F}\) es cualquier escalar distinto de cero.
    4. el producto\(AB \in GL(n, \mathbb{F})\) y tiene inverso dado por la fórmula\[(AB)^{−1} = B^{ −1} A^{−1} .\]

    Además,\(GL(n, \mathbb{F})\) cuenta con la propiedad de cancelación. En otras palabras, dadas tres matrices cualesquiera\(A, B, C \in GL(n, \mathbb{F})\), si\(AB = AC,\) entonces\(B = C.\)

    Al mismo tiempo, es importante señalar que la matriz cero no es la única matriz no invertible. Como ilustración de la sutileza que implica entender la invertibilidad, damos el siguiente teorema para el\(2 \times 2\) caso.

    Teorema A.2.10. Let\(A = \left[ \begin{array}{cc} a_{1 1} & a_{1 2} \\ a_{2 1} & a_{2 2} \end{array} \right] \in \mathbb{F}^{2 \times 2}.\) Entonces\(A\) es invertible si y solo si\(A\) satisface

    \[a_{1 1}a_{2 2}- a_{1 2}a_{2 1} \neq 0.\]

    Además, si\(A\) es invertible, entonces

    \[A^{-1}= \left[ \begin{array}{cc} \frac{a_{2 2}}{a_{1 1}a_{2 2}- a_{1 2}a_{2 1} } & \frac{-a_{1 2}}{a_{1 1}a_{2 2}- a_{1 2}a_{2 1} } \\ \frac{-a_{2 1}}{a_{1 1}a_{2 2}- a_{1 2}a_{2 1} } & \frac{a_{1 1}}{a_{1 1}a_{2 2}- a_{1 2}a_{2 1} } \end{array} \right].\]

    Un teorema más general se sostiene para matrices más grandes, pero su afirmación requiere sustancialmente más maquinaria de la que razonablemente podría incluirse aquí. No obstante, declaramos este resultado para ser completo y remitimos al lector al Capítulo 8 para la definición del determinante.

    Teorema A.2.11. Dejar\(n \in \mathbb{Z}_+\) ser un entero positivo, y dejar\(A = (a_{ij} ) \in \mathbb{F}^{n \times n}\) ser una\(n \times n\) matriz. Entonces\(A\) es invertible si y solo si\(det(A) \neq 0.\) Por otra parte, si\(A\) es invertible, entonces la\(i, j\)entradade\(A_{−1}\) es\(A_{ji} / det(A).\) Aquí,\(A_{ij} = (−1)^{i+j} M_{ij}\), y\(M_{ij}\) es el determinante de la matriz obtenida cuando se eliminan tanto la fila\(i\)\(j\) th como la ésima columna\(A\).

    Cerramos esta sección señalando que el conjunto\(GL(n, \mathbb{F})\) de todas las\(n \times n\) matrices invertibles a menudo\(\mathbb{F}\) se denomina grupo lineal general. Este conjunto tiene tantos usos importantes en matemáticas que hay muchas notaciones equivalentes para ello, incluyendo\(GLn (\mathbb{F})\) y\(GL(\mathbb{F}n ),\) y a veces simplemente\(GL(n)\) o\(GLn\) si no es importante hacer énfasis en la dependencia de\(\mathbb{F}.\) Note, además, que el uso del término “grupo” en el nombre El “grupo lineal general” es altamente técnico. Esto se debe a que\(GL(n, \mathbb{F})\) forma un grupo no abeliano bajo multiplicación matricial. (Véase la Sección C.2 para la definición de un grupo.)

    Template:Shilling


    This page titled 12.2: Aritmética matricial is shared under a not declared license and was authored, remixed, and/or curated by Isaiah Lankham, Bruno Nachtergaele, & Anne Schilling.