Saltar al contenido principal
LibreTexts Español

A.2: Álgebra Matricial

  • Page ID
    115296
  • \( \newcommand{\vecs}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} } \) \( \newcommand{\vecd}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash {#1}}} \)\(\newcommand{\id}{\mathrm{id}}\) \( \newcommand{\Span}{\mathrm{span}}\) \( \newcommand{\kernel}{\mathrm{null}\,}\) \( \newcommand{\range}{\mathrm{range}\,}\) \( \newcommand{\RealPart}{\mathrm{Re}}\) \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\) \( \newcommand{\Argument}{\mathrm{Arg}}\) \( \newcommand{\norm}[1]{\| #1 \|}\) \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\) \( \newcommand{\Span}{\mathrm{span}}\) \(\newcommand{\id}{\mathrm{id}}\) \( \newcommand{\Span}{\mathrm{span}}\) \( \newcommand{\kernel}{\mathrm{null}\,}\) \( \newcommand{\range}{\mathrm{range}\,}\) \( \newcommand{\RealPart}{\mathrm{Re}}\) \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\) \( \newcommand{\Argument}{\mathrm{Arg}}\) \( \newcommand{\norm}[1]{\| #1 \|}\) \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\) \( \newcommand{\Span}{\mathrm{span}}\)\(\newcommand{\AA}{\unicode[.8,0]{x212B}}\)

    Matrices uno por uno

    Motivemos lo que queremos lograr con matrices. Las asignaciones lineales de valor real de la línea real, las funciones lineales que comen números y escupen números, son solo multiplicaciones por un número. Considera un mapeo definido multiplicando por un número. Llamemos a este número\(\alpha\). El mapeo luego lleva\(x\) a\(\alpha x\). Podemos agregar tales mapeos: Si tenemos otro mapeo\(\beta\), entonces\[\alpha x + \beta x = (\alpha + \beta) x . \nonumber \]

    Obtenemos un nuevo mapeo\(\alpha+\beta\) que se multiplica\(x\) por, bueno,\(\alpha+\beta\). Si\(D\) es un mapeo que duplica su entrada,\(Dx = 2x\), y\(T\) es un mapeo que se triplica,\(Tx = 3x\), entonces\(D+T\) es un mapeo que se multiplica por\(5\),\((D+T)x = 5x\).

    De igual manera podemos componer tales mapeos, es decir, podríamos aplicar una y luego la otra. Tomamos\(x\), lo ejecutamos a través del primer mapeo\(\alpha\) para obtener\(\alpha\) tiempos\(x\), luego corremos\(\alpha x\) por el segundo mapeo\(\beta\). En otras palabras,\[\beta ( \alpha x ) = (\beta \alpha) x . \nonumber \]

    Simplemente multiplicamos esos dos números. Usando nuestras asignaciones de duplicación y triplicación, si doblamos y luego triplicamos, es decir\(T(Dx)\) entonces obtenemos\(3(2x) = 6x\). La composición\(TD\) es el mapeo que se multiplica por\(6\). Para matrices más grandes, la composición también termina siendo una especie de multiplicación.

    Adición de Matrices y Multiplicación Escalar

    Los mapeos que multiplican números por números son solo\(1 \times 1\) matrices. El número\(\alpha\) anterior podría escribirse como una matriz\([\alpha]\). Quizás quisiéramos hacerle a todas las matrices las mismas cosas que le hicimos a esas\(1 \times 1\) matrices al inicio de esta sección anterior. Primero, agreguemos matrices. Si tenemos una matriz\(A\) y una matriz\(B\) que son del mismo tamaño, digamos\(m \times n\), entonces son mapeos de\({\mathbb{R}}^n\) a\({\mathbb{R}}^m\). El mapeo también\(A+B\) debe ser un mapeo de\({\mathbb{R}}^n\) a\({\mathbb{R}}^m\), y debe hacer lo siguiente a los vectores:\[(A+B) \vec{x} = A\vec{x} + B \vec{x} . \nonumber \]

    Resulta que solo agregas las matrices element-wise: Si la\(ij^{\text{th}}\) entrada de\(A\) es\(a_{ij}\), y la\(ij^{\text{th}}\) entrada de\(B\) es\(b_{ij}\), entonces la\(ij^{\text{th}}\) entrada de\(A+B\) es\(a_{ij} + b_{ij}\). Si\[A = \begin{bmatrix} a_{11} & a_{12} & a_{13} \\ a_{21} & a_{22} & a_{23} \end{bmatrix} \qquad \text{and} \qquad B = \begin{bmatrix} b_{11} & b_{12} & b_{13} \\ b_{21} & b_{22} & b_{23} \end{bmatrix} , \nonumber \] entonces\[A+B = \begin{bmatrix} a_{11} + b_{11} & a_{12} + b_{12} & a_{13} + b_{13} \\ a_{21} + b_{21} & a_{22} + b_{22} & a_{23} + b_{23} \end{bmatrix} . \nonumber \]

    Ilustremos con un ejemplo más concreto:\[\begin{bmatrix} 1 & 2 \\ 3 & 4 \\ 5 & 6 \end{bmatrix} + \begin{bmatrix} 7 & 8 \\ 9 & 10 \\ 11 & -1 \end{bmatrix} = \begin{bmatrix} 1+7 & 2+8 \\ 3+9 & 4+10 \\ 5+11 & 6-1 \end{bmatrix} = \begin{bmatrix} 8 & 10 \\ 12 & 14 \\ 16 & 5 \end{bmatrix} . \nonumber \]

    Comprobemos que esto le haga lo correcto a un vector. Usemos algo del álgebra vectorial que ya conocemos, y reagruparemos cosas:

    \[\begin{align}\begin{aligned} \begin{bmatrix} 1 & 2 \\ 3 & 4 \\ 5 & 6 \end{bmatrix} \begin{bmatrix} 2 \\ -1 \end{bmatrix} + \begin{bmatrix} 7 & 8 \\ 9 & 10 \\ 11 & -1 \end{bmatrix} \begin{bmatrix} 2 \\ -1 \end{bmatrix} & = \left( 2 \begin{bmatrix} 1 \\ 3 \\ 5 \end{bmatrix} - \begin{bmatrix} 2 \\ 4 \\ 6 \end{bmatrix} \right) + \left( 2 \begin{bmatrix} 7 \\ 9 \\ 11 \end{bmatrix} - \begin{bmatrix} 8 \\ 10 \\ -1 \end{bmatrix} \right) \\ & = 2 \left( \begin{bmatrix} 1 \\ 3 \\ 5 \end{bmatrix} + \begin{bmatrix} 7 \\ 9 \\ 11 \end{bmatrix} \right) - \left( \begin{bmatrix} 2 \\ 4 \\ 6 \end{bmatrix} + \begin{bmatrix} 8 \\ 10 \\ -1 \end{bmatrix} \right) \\ & = 2 \begin{bmatrix} 1+7 \\ 3+9 \\ 5+11 \end{bmatrix} - \begin{bmatrix} 2+8 \\ 4+10 \\ 6-1 \end{bmatrix} = 2 \begin{bmatrix} 8 \\ 12 \\ 16 \end{bmatrix} - \begin{bmatrix} 10 \\ 14 \\ 5 \end{bmatrix} \\ & = \begin{bmatrix} 8 & 10 \\ 12 & 14 \\ 16 & 5 \end{bmatrix} \begin{bmatrix} 2 \\ -1 \end{bmatrix} \quad \left( = \begin{bmatrix} 2(8)- 10 \\ 2(12) - 14 \\ 2(16) - 5 \end{bmatrix} = \begin{bmatrix} 6 \\ 10 \\ 27 \end{bmatrix} \right) . \end{aligned}\end{align} \nonumber \]

    ¡Si sustituyéramos los números por letras eso constituiría una prueba! Notarás que en realidad ni siquiera tuvimos que calcular cuál es el resultado para convencernos de que las dos expresiones eran iguales.

    Si los tamaños de las matrices no coinciden, entonces no se define la adición. Si\(A\) es\(3 \times 2\) y\(B\) es\(2 \times 5\), entonces no podemos agregar estas matrices. No sabemos lo que eso podría significar.

    También es útil tener una matriz que cuando se agrega a cualquier otra matriz no haga nada. Esta es la matriz cero, la matriz de todos los ceros:\[\begin{bmatrix} 1 & 2 \\ 3 & 4 \end{bmatrix} + \begin{bmatrix} 0 & 0 \\ 0 & 0 \end{bmatrix} = \begin{bmatrix} 1 & 2 \\ 3 & 4 \end{bmatrix} . \nonumber \]

    A menudo denotamos la matriz cero\(0\) sin especificar el tamaño. Entonces solo escribiríamos\(A + 0\), donde simplemente asumimos que\(0\) es la matriz cero del mismo tamaño que\(A\).

    Realmente hay dos cosas por las que podemos multiplicar las matrices. Podemos multiplicar matrices por escalares o podemos multiplicar por otras matrices. Consideremos primero la multiplicación por escalares. Para una matriz\(A\) y un escalar\(\alpha\), queremos\(\alpha A\) ser la matriz que logre\[(\alpha A) \vec{x} = \alpha (A \vec{x}) . \nonumber \]

    Eso es simplemente escalar el resultado por\(\alpha\). Si lo piensas, escalar cada término en\(A\) by\(\alpha\) logra precisamente eso: Si\[A = \begin{bmatrix} a_{11} & a_{12} & a_{13} \\ a_{21} & a_{22} & a_{23} \end{bmatrix}, \qquad\text{then} \qquad \alpha A = \begin{bmatrix} \alpha a_{11} & \alpha a_{12} & \alpha a_{13} \\ \alpha a_{21} & \alpha a_{22} & \alpha a_{23} \end{bmatrix} . \nonumber \]

    Por ejemplo,\[2 \begin{bmatrix} 1 & 2 & 3 \\ 4 & 5 & 6 \end{bmatrix} = \begin{bmatrix} 2 & 4 & 6 \\ 8 & 10 & 12 \end{bmatrix} . \nonumber \]

    Vamos a enumerar algunas propiedades de adición matricial y multiplicación escalar. Denote por\(0\) la matriz cero, por\(\alpha\),\(\beta\) escalares, y por\(A\),\(B\),\(C\) matrices. Entonces:\[\begin{align}\begin{aligned} A + 0 & = A = 0 + A , \\ A + B & = B + A , \\ (A + B) + C & = A + (B + C) , \\ \alpha(A+B) & = \alpha A+\alpha B, \\ (\alpha+\beta)A & = \alpha A + \beta A.\end{aligned}\end{align} \nonumber \] Estas reglas deberían parecer muy familiares.

    Multiplicación Matricial

    Como mencionamos anteriormente, la composición de mapeos lineales es también una multiplicación de matrices. Supongamos que\(A\) es una\(m \times n\) matriz, es decir\({\mathbb R}^m\),\(A\) toma\({\mathbb R}^n\) a, y\(B\) es una\(n \times p\) matriz, es decir,\(B\) lleva\({\mathbb R}^p\) a\({\mathbb R}^n\). La composición\(AB\) debe funcionar de la siguiente manera\[AB\vec{x} = A(B\vec{x}) . \nonumber \]

    Primero, un vector\(\vec{x}\) en\({\mathbb R}^p\) es llevado al vector\(B\vec{x}\) en\({\mathbb R}^n\). Entonces el mapeo lo\(A\) lleva al vector\(A(B\vec{x})\) en\({\mathbb R}^m\). Es decir, la composición\(AB\) debe ser una\(m \times p\) matriz. En cuanto a tamaños deberíamos tener\[ "\quad [m\times n]\: [n\times p]=[m\times p].\quad " \nonumber \]

    Observe cómo debe coincidir la talla media.

    Bien, ahora sabemos qué tamaños de matrices deberíamos poder multiplicar, y cuál debería ser el producto. Veamos cómo calcular realmente la multiplicación matricial. Comenzamos con el llamado producto punto (o producto interno) de dos vectores. Por lo general, este es un vector de fila multiplicado por un vector de columna del mismo tamaño. El producto de punto multiplica cada par de entradas del primer y segundo vector y suma estos productos. El resultado es un solo número. Por ejemplo,\[\begin{bmatrix} a_1 & a_2 & a_3 \end{bmatrix} \cdot \begin{bmatrix} b_1 \\ b_2 \\ b_3 \end{bmatrix} = a_1 b_1 + a_2 b_2 + a_3 b_3 . \nonumber \] Y de manera similar para vectores más grandes (o más pequeños). Un producto de punto es realmente un producto de dos matrices: una\(1 \times n\) matriz y una\(n \times 1\) matriz dando como resultado una\(1 \times 1\) matriz, es decir, un número.

    Armado con el producto dot definimos el producto de matrices. Denotamos por\(\operatorname{row}_i(A)\) la\(i^{\text{th}}\) fila de\(A\) y por\(\operatorname{column}_j(A)\) la\(j^{\text{th}}\) columna de\(A\). Para una\(m \times n\) matriz\(A\) y una\(n \times p\) matriz\(B\) podemos computar el producto\(AB\): La matriz\(AB\) es una\(m \times p\) matriz cuya\(ij^{\text{th}}\) entrada es el producto punto\[\operatorname{row}_i(A) \cdot \operatorname{column}_j(B) . \nonumber \]

    Por ejemplo, dada a\(2 \times 3\) y una\(3 \times 2\) matriz deberíamos terminar con una\(2 \times 2\) matriz:\[\label{eq:1} \begin{bmatrix} a_{11} & a_{12} & a_{13} \\ a_{21} & a_{22} & a_{23} \end{bmatrix} \begin{bmatrix} b_{11} & b_{12} \\ b_{21} & b_{22} \\ b_{31} & b_{32} \end{bmatrix} = \begin{bmatrix} a_{11} b_{11} + a_{12} b_{21} + a_{13} b_{31} & & a_{11} b_{12} + a_{12} b_{22} + a_{13} b_{32} \\ a_{21} b_{11} + a_{22} b_{21} + a_{23} b_{31} & & a_{21} b_{12} + a_{22} b_{22} + a_{23} b_{32} \end{bmatrix} , \] o con algunos números:\[\begin{bmatrix} 1 & 2 & 3 \\ 4 & 5 & 6 \end{bmatrix} \begin{bmatrix} -1 & 2 \\ -7 & 0 \\ 1 & -1 \end{bmatrix} = \begin{bmatrix} 1\cdot (-1) + 2\cdot (-7) + 3 \cdot 1 & & 1\cdot 2 + 2\cdot 0 + 3 \cdot (-1) \\ 4\cdot (-1) + 5\cdot (-7) + 6 \cdot 1 & & 4\cdot 2 + 5\cdot 0 + 6 \cdot (-1) \end{bmatrix} = \begin{bmatrix} -12 & -1 \\ -33 & 2 \end{bmatrix} . \nonumber \]

    Una consecuencia útil de la definición es que la evaluación\(A \vec{x}\) para una matriz\(A\) y un vector (columna) también\(\vec{x}\) es multiplicación matricial. Por eso realmente pensamos en los vectores como vectores de columna, o\(n \times 1\) matrices. Por ejemplo,\[\begin{bmatrix} 1 & 2 \\ 3 & 4 \end{bmatrix} \begin{bmatrix} 2 \\ -1 \end{bmatrix} = \begin{bmatrix} 1 \cdot 2 + 2 \cdot (-1) \\ 3 \cdot 2 + 4 \cdot (-1) \end{bmatrix} = \begin{bmatrix} 0 \\ 2 \end{bmatrix} . \nonumber \] Si nos fijamos en la última sección, ese es precisamente el último ejemplo que dimos.

    Debe mirar fijamente el cálculo de multiplicación de matrices\(AB\) y la definición previa de\(A\vec{y}\) como mapeo por un momento. Lo que estamos haciendo con la multiplicación matricial es aplicar el mapeo\(A\) a las columnas de\(B\). Esto suele escribirse de la siguiente manera. Supongamos que escribimos la\(n \times p\) matriz\(B = [ \vec{b}_1 ~ \vec{b}_2 ~ \cdots ~ \vec{b}_p ]\), donde\(\vec{b}_1, \vec{b}_2, \ldots, \vec{b}_p\) están las columnas de\(B\). Entonces para una\(m \times n\) matriz\(A\),\[AB = A [ \vec{b}_1 ~ \vec{b}_2 ~ \cdots ~ \vec{b}_p ] = [ A\vec{b}_1 ~ A\vec{b}_2 ~ \cdots ~ A\vec{b}_p ] . \nonumber \]

    Las columnas de la\(m \times p\) matriz\(AB\) son los vectores\(A\vec{b}_1, A\vec{b}_2, \ldots, A\vec{b}_p\). Por ejemplo, en\(\eqref{eq:1}\), las columnas de\[\begin{bmatrix} a_{11} & a_{12} & a_{13} \\ a_{21} & a_{22} & a_{23} \end{bmatrix} \begin{bmatrix} b_{11} & b_{12} \\ b_{21} & b_{22} \\ b_{31} & b_{32} \end{bmatrix} \nonumber \] son\[\begin{bmatrix} a_{11} & a_{12} & a_{13} \\ a_{21} & a_{22} & a_{23} \end{bmatrix} \begin{bmatrix} b_{11} \\ b_{21} \\ b_{31} \end{bmatrix} \qquad \text{and} \qquad \begin{bmatrix} a_{11} & a_{12} & a_{13} \\ a_{21} & a_{22} & a_{23} \end{bmatrix} \begin{bmatrix} b_{12} \\ b_{22} \\ b_{32} \end{bmatrix} . \nonumber \] Esta es una forma muy útil de entender qué es la multiplicación matricial. También debería facilitar el recuerdo de cómo realizar la multiplicación matricial.

    Reglas de Álgebra Matricial

    Para la multiplicación queremos un análogo de un 1. Es decir, deseamos una matriz que simplemente deje todo como lo encontró. Este análogo es la llamada matriz de identidad. La matriz de identidad es una matriz cuadrada con 1s en la diagonal principal y ceros en todas partes. Por lo general se denota por\(I\). Para cada tamaño tenemos una matriz de identidad diferente y así a veces podemos denotar el tamaño como subíndice. Por ejemplo,\(I_3\) es la matriz de\(3 \times 3\) identidad\[I = I_3 = \begin{bmatrix} 1 & 0 & 0 \\ 0 & 1 & 0 \\ 0 & 0 & 1 \end{bmatrix} . \nonumber \] Veamos cómo funciona la matriz en un ejemplo más pequeño, La\[\begin{bmatrix} a_{11} & a_{12} \\ a_{21} & a_{22} \end{bmatrix} \begin{bmatrix} 1 & 0 \\ 0 & 1 \end{bmatrix} = \begin{bmatrix} a_{11} \cdot 1 + a_{12} \cdot 0 & & a_{11} \cdot 0 + a_{12} \cdot 1 \\ a_{21} \cdot 1 + a_{22} \cdot 0 & & a_{21} \cdot 0 + a_{22} \cdot 1 \end{bmatrix} = \begin{bmatrix} a_{11} & a_{12} \\ a_{21} & a_{22} \end{bmatrix} . \nonumber \] multiplicación por la identidad desde la izquierda se ve similar, y además no toca nada.

    Tenemos las siguientes reglas para la multiplicación matricial. Supongamos que\(A\)\(B\),,\(C\) son matrices de los tamaños correctos para que las siguientes tengan sentido. Dejar\(\alpha\) denotar un escalar (número). Entonces\[\begin{align}\begin{aligned} A(BC) & = (AB)C & & \text{(associative law)} , \\ A(B+C) & = AB + AC & & \text{(distributive law)} , \\ (B+C)A & = BA + CA & & \text{(distributive law)} , \\ \alpha(AB) & = (\alpha A)B = A(\alpha B) , & & \\ IA & = A = AI & & \text{(identity)}.\end{aligned}\end{align} \nonumber \]

    Ejemplo\(\PageIndex{1}\)

    Demostremos un par de estas reglas. Por ejemplo, la ley asociativa:\[\underbrace{ \begin{bmatrix} -3 & 3 \\ 2 & -2 \end{bmatrix} }_A \biggl( \underbrace{ \begin{bmatrix} 4 & 4 \\ 1 & -3 \end{bmatrix} }_B \underbrace{ \begin{bmatrix} -1 & 4 \\ 5 & 2 \end{bmatrix} }_C \biggr) = \underbrace{ \begin{bmatrix} -3 & 3 \\ 2 & -2 \end{bmatrix} }_A \underbrace{ \begin{bmatrix} 16 & 24 \\ -16 & -2 \end{bmatrix} }_{BC} = \underbrace{ \begin{bmatrix} -96 & -78 \\ 64 & 52 \end{bmatrix} }_{A(BC)} , \nonumber \] y\[\biggl( \underbrace{ \begin{bmatrix} -3 & 3 \\ 2 & -2 \end{bmatrix} }_A \underbrace{ \begin{bmatrix} 4 & 4 \\ 1 & -3 \end{bmatrix} }_B \biggr) \underbrace{ \begin{bmatrix} -1 & 4 \\ 5 & 2 \end{bmatrix} }_C = \underbrace{ \begin{bmatrix} -9 & -21 \\ 6 & 14 \end{bmatrix} }_{AB} \underbrace{ \begin{bmatrix} -1 & 4 \\ 5 & 2 \end{bmatrix} }_C = \underbrace{ \begin{bmatrix} -96 & -78 \\ 64 & 52 \end{bmatrix} }_{(AB)C} . \nonumber \]

    O qué tal la multiplicación por escalares:

    \[\begin{align} 10\biggl(\underbrace{\left[\begin{array}{cc}{-3}&{3}\\{2}&{-2}\end{array}\right]}_{A} \underbrace{\left[\begin{array}{cc}{4}&{4}\\{1}&{-3}\end{array}\right]}_{B}\biggr)&=10\underbrace{\left[\begin{array}{cc}{-9}&{-21}\\{6}&{14}\end{array}\right]}_{AB}=\underbrace{\left[\begin{array}{cc}{-90}&{-210}\\{60}&{140}\end{array}\right]}_{10(AB)}, \\ \biggl(10\underbrace{\left[\begin{array}{cc}{-3}&{3}\\{2}&{-2}\end{array}\right]}_{A}\biggr)\underbrace{\left[\begin{array}{cc}{4}&{4}\\{1}&{-3}\end{array}\right]}_{B}&=\underbrace{\left[\begin{array}{cc}{-30}&{30}\\{20}&{-20}\end{array}\right]}_{10A}\underbrace{\left[\begin{array}{cc}{4}&{4}\\{1}&{-3}\end{array}\right]}_{B}=\underbrace{\left[\begin{array}{cc}{-90}&{-210}\\{60}&{140}\end{array}\right]}_{(10A)B},\end{align} \nonumber \]

    y\[\underbrace{ \begin{bmatrix} -3 & 3 \\ 2 & -2 \end{bmatrix} }_A \biggl( 10 \underbrace{ \begin{bmatrix} 4 & 4 \\ 1 & -3 \end{bmatrix} }_B \biggr) = \underbrace{ \begin{bmatrix} -3 & 3 \\ 2 & -2 \end{bmatrix} }_{A} \underbrace{ \begin{bmatrix} 40 & 40 \\ 10 & -30 \end{bmatrix} }_{10B} = \underbrace{ \begin{bmatrix} -90 & -210 \\ 60 & 140 \end{bmatrix} }_{A(10B)} . \nonumber \]

    Una regla de multiplicación, una que has usado desde la primaria sobre números, falta bastante notoriamente para las matrices. Es decir, la multiplicación matricial no es conmutativa. En primer lugar, solo porque tiene\(AB\) sentido, puede ser que ni siquiera\(BA\) esté definido. Por ejemplo, si\(A\) es\(2 \times 3\), y\(B\) es\(3 \times 4\), el podemos multiplicar\(AB\) pero no\(BA\).

    Aunque\(AB\) y\(BA\) estén ambos definidos, no significa que sean iguales. Por ejemplo, tomar\(A = \left[ \begin{smallmatrix} 1 & 1 \\ 1 & 1 \end{smallmatrix} \right]\) y\(B = \left[ \begin{smallmatrix} 1 & 0 \\ 0 & 2 \end{smallmatrix} \right]\):\[AB = \begin{bmatrix} 1 & 1 \\ 1 & 1 \end{bmatrix} \begin{bmatrix} 1 & 0 \\ 0 & 2 \end{bmatrix} = \begin{bmatrix} 1 & 2 \\ 1 & 2 \end{bmatrix} \qquad \not= \qquad \begin{bmatrix} 1 & 1 \\ 2 & 2 \end{bmatrix} = \begin{bmatrix} 1 & 0 \\ 0 & 2 \end{bmatrix} \begin{bmatrix} 1 & 1 \\ 1 & 1 \end{bmatrix} = BA . \nonumber \]

    Inversa

    Un par de otras reglas de álgebra que conoces para los números no funcionan del todo en las matrices:

    1. \(AB = AC\)no implica necesariamente\(B=C\), aunque no\(A\) sea 0.
    2. \(AB = 0\)no necesariamente significa eso\(A=0\) o\(B=0\).

    Por ejemplo:\[\begin{bmatrix} 0 & 1 \\ 0 & 0 \end{bmatrix} \begin{bmatrix} 0 & 1 \\ 0 & 0 \end{bmatrix} = \begin{bmatrix} 0 & 0 \\ 0 & 0 \end{bmatrix} = \begin{bmatrix} 0 & 1 \\ 0 & 0 \end{bmatrix} \begin{bmatrix} 0 & 2 \\ 0 & 0 \end{bmatrix} . \nonumber \]

    Para que estas reglas se mantengan, no solo necesitamos que una de las matrices no sea cero, necesitaríamos por una matriz. Aquí es donde entra la matriz inversa. Supongamos que\(A\) y\(B\) son\(n \times n\) matrices tales que\[AB = I = BA . \nonumber \]

    Entonces llamamos a\(B\) la inversa de\(A\) y denotamos\(B\) por\(A^{-1}\). Quizás no en vano,\({(A^{-1})}^{-1} = A\), ya que si la inversa de\(A\) es\(B\), entonces la inversa de\(B\) es\(A\). Si la inversa de\(A\) existe, entonces decimos que\(A\) es invertible. Si no\(A\) es invertible, decimos que\(A\) es singular.

    Si\(A = [a]\) es una\(1 \times 1\) matriz, entonces\(A^{-1}\) es\(a^{-1} = \frac{1}{a}\). De ahí viene la notación. El cálculo no es tan sencillo cuando\(A\) es más grande.

    La formulación adecuada de la regla de cancelación es:

    Si\(A\) es invertible, entonces\(AB = AC\) implica\(B=C\).

    El cálculo es lo que harías en álgebra regular con números, pero hay que tener cuidado de nunca conmutar matrices:\[\begin{align}\begin{aligned} AB & = AC , \\ A^{-1}AB & = A^{-1}AC , \\ IB & = IC , \\ B & = C .\end{aligned}\end{align} \nonumber \] Y de manera similar para la cancelación a la derecha:

    Si\(A\) es invertible, entonces\(BA = CA\) implica\(B=C\).

    La regla dice, entre otras cosas, que la inversa de una matriz es única si existe: Si\(AB = I = AC\), entonces\(A\) es invertible y\(B=C\).

    Veremos más adelante cómo calcular una inversa de una matriz en general. Por ahora, notemos que existe una fórmula simple para la inversa de una\(2 \times 2\) matriz\[\begin{bmatrix} a & b \\ c & d \end{bmatrix}^{-1} = \frac{1}{ad-bc} \begin{bmatrix} d & -b \\ -c & a \end{bmatrix} . \nonumber \] Por ejemplo:\[\begin{bmatrix} 1 & 1 \\ 2 & 4 \end{bmatrix}^{-1} = \frac{1}{1\cdot 4-1 \cdot 2} \begin{bmatrix} 4 & -1 \\ -2 & 1 \end{bmatrix} = \begin{bmatrix} 2 & \frac{-1}{2} \\ -1 & \frac{1}{2} \end{bmatrix} . \nonumber \] Vamos a probarlo:\[\begin{bmatrix} 1 & 1 \\ 2 & 4 \end{bmatrix} \begin{bmatrix} 2 & \frac{-1}{2} \\ -1 & \frac{1}{2} \end{bmatrix} = \begin{bmatrix} 1 & 0 \\ 0 & 1 \end{bmatrix} \qquad \text{and} \qquad \begin{bmatrix} 2 & \frac{-1}{2} \\ -1 & \frac{1}{2} \end{bmatrix} \begin{bmatrix} 1 & 1 \\ 2 & 4 \end{bmatrix} = \begin{bmatrix} 1 & 0 \\ 0 & 1 \end{bmatrix} . \nonumber \] Así como no podemos dividir por cada número, no todas las matrices son invertibles. En el caso de las matrices sin embargo podemos tener matrices singulares que no son cero. Por ejemplo,\[\begin{bmatrix} 1 & 1 \\ 2 & 2 \end{bmatrix} \nonumber \] es una matriz singular. Pero, ¿no acabamos de dar una fórmula para una inversa? Vamos a probarlo:\[\begin{bmatrix} 1 & 1 \\ 2 & 2 \end{bmatrix}^{-1} = \frac{1}{1\cdot 2-1 \cdot 2} \begin{bmatrix} 2 & -1 \\ -2 & 1 \end{bmatrix} =? \nonumber \] Nos metemos en un poco de problemas; estamos tratando de dividir por cero.

    Entonces una\(2 \times 2\) matriz\(A\) es invertible siempre\[ad - bc \not= 0 \nonumber \] y de lo contrario es singular. A la expresión\(ad-bc\) se le llama el determinante y la veremos con más detenimiento en una sección posterior. Existe una expresión similar para una matriz cuadrada de cualquier tamaño.

    Matrices diagonales

    Un tipo simple (y sorprendentemente útil) de una matriz cuadrada es una llamada matriz diagonal. Se trata de una matriz cuyas entradas son todas cero excepto las de la diagonal principal de arriba izquierda a abajo derecha. Por ejemplo una matriz\(4 \times 4\) diagonal es de la forma\[\begin{bmatrix} d_1 & 0 & 0 & 0 \\ 0 & d_2 & 0 & 0 \\ 0 & 0 & d_3 & 0 \\ 0 & 0 & 0 & d_4 \end{bmatrix} . \nonumber \] Tales matrices tienen buenas propiedades cuando multiplicamos por ellas. Si los multiplicamos por un vector, multiplican la\(k^{\text{th}}\) entrada por\(d_k\). Por ejemplo,\[\begin{bmatrix} 1 & 0 & 0 \\ 0 & 2 & 0 \\ 0 & 0 & 3 \end{bmatrix} \begin{bmatrix} 4 \\ 5 \\ 6 \end{bmatrix} = \begin{bmatrix} 1 \cdot 4 \\ 2 \cdot 5 \\ 3 \cdot 6 \end{bmatrix} = \begin{bmatrix} 4 \\ 10 \\ 18 \end{bmatrix} . \nonumber \] Del mismo modo, cuando multiplican otra matriz desde la izquierda, multiplican la\(k^{\text{th}}\) fila por\(d_k\). Por ejemplo,\[\begin{bmatrix} 2 & 0 & 0 \\ 0 & 3 & 0 \\ 0 & 0 & -1 \end{bmatrix} \begin{bmatrix} 1 & 1 & 1 \\ 1 & 1 & 1 \\ 1 & 1 & 1 \end{bmatrix} = \begin{bmatrix} 2 & 2 & 2 \\ 3 & 3 & 3 \\ -1 & -1 & -1 \end{bmatrix} . \nonumber \] por otro lado, multiplicando a la derecha, multiplican las columnas:\[\begin{bmatrix} 1 & 1 & 1 \\ 1 & 1 & 1 \\ 1 & 1 & 1 \end{bmatrix} \begin{bmatrix} 2 & 0 & 0 \\ 0 & 3 & 0 \\ 0 & 0 & -1 \end{bmatrix} = \begin{bmatrix} 2 & 3 & -1 \\ 2 & 3 & -1 \\ 2 & 3 & -1 \end{bmatrix} . \nonumber \] Y es realmente fácil multiplicar dos matrices diagonales juntas —multiplicamos las entradas:\[\begin{bmatrix} 1 & 0 & 0 \\ 0 & 2 & 0 \\ 0 & 0 & 3 \end{bmatrix} \begin{bmatrix} 2 & 0 & 0 \\ 0 & 3 & 0 \\ 0 & 0 & -1 \end{bmatrix} = \begin{bmatrix} 1 \cdot 2 & 0 & 0 \\ 0 & 2 \cdot 3 & 0 \\ 0 & 0 & 3 \cdot (-1) \end{bmatrix} = \begin{bmatrix} 2 & 0 & 0 \\ 0 & 6 & 0 \\ 0 & 0 & -3 \end{bmatrix} . \nonumber \] Por esta última razón, son fáciles de invertir, simplemente se invierte cada elemento diagonal:\[\begin{bmatrix} d_1 & 0 & 0 \\ 0 & d_2 & 0 \\ 0 & 0 & d_3 \end{bmatrix}^{-1} = \begin{bmatrix} d_1^{-1} & 0 & 0 \\ 0 & d_2^{-1} & 0 \\ 0 & 0 & d_3^{-1} \end{bmatrix} . \nonumber \] Comprobemos un ejemplo No\[\underbrace{ \begin{bmatrix} 2 & 0 & 0 \\ 0 & 3 & 0 \\ 0 & 0 & 4 \end{bmatrix}^{-1} }_{A^{-1}} \underbrace{ \begin{bmatrix} 2 & 0 & 0 \\ 0 & 3 & 0 \\ 0 & 0 & 4 \end{bmatrix} }_{A} = \underbrace{ \begin{bmatrix} \frac{1}{2} & 0 & 0 \\ 0 & \frac{1}{3} & 0 \\ 0 & 0 & \frac{1}{4} \end{bmatrix} }_{A^{-1}} \underbrace{ \begin{bmatrix} 2 & 0 & 0 \\ 0 & 3 & 0 \\ 0 & 0 & 4 \end{bmatrix} }_{A} = \underbrace{ \begin{bmatrix} 1 & 0 & 0 \\ 0 & 1 & 0 \\ 0 & 0 & 1 \end{bmatrix} }_{I} . \nonumber \] es de extrañar que la forma en que resolvemos muchos problemas en álgebra lineal (y en ecuaciones diferenciales) es tratar de reducir el problema al caso de matrices diagonales.

    Transpone

    Los vectores no siempre tienen que ser vectores de columna, eso es sólo una convención. El intercambio de filas y columnas es necesario de vez en cuando. La operación que intercambia filas y columnas es la llamada transposición. La transposición de\(A\) se denota por\(A^T\). Ejemplo:\[\begin{bmatrix} 1 & 2 & 3 \\ 4 & 5 & 6 \end{bmatrix}^T = \begin{bmatrix} 1 & 4 \\ 2 & 5 \\ 3 & 6 \end{bmatrix} . \nonumber \] La transposición toma una\(m \times n\) matriz a una\(n \times m\) matriz.

    Una característica clave de la transposición es que si el producto tiene\(AB\) sentido, entonces\(B^TA^T\) también tiene sentido, al menos desde el punto de vista de los tamaños. De hecho, obtenemos precisamente la transposición de\(AB\). \[{\left( \begin{bmatrix} 1 & 2 & 3 \\ 4 & 5 & 6 \end{bmatrix} \begin{bmatrix} 0 & 1 \\ 1 & 0 \\ 2 & -2 \end{bmatrix} \right)}^T = \begin{bmatrix} 0 & 1 & 2 \\ 1 & 0 & -2 \end{bmatrix} \begin{bmatrix} 1 & 4 \\ 2 & 5 \\ 3 & 6 \end{bmatrix} . \nonumber \]Es decir:\[{(AB)}^T = B^TA^T . \nonumber \] Por ejemplo, se deja al lector verificar que computar el producto matricial a la izquierda y luego transponer es lo mismo que computar el producto matricial a la derecha.

    Si tenemos un vector de columna\(\vec{x}\) al que aplicamos una matriz\(A\) y transponemos el resultado, entonces el vector de fila\(\vec{x}^T\) se aplica a\(A^T\) desde la izquierda:\[{(A\vec{x})}^T = \vec{x}^TA^T . \nonumber \] Otro lugar donde la transposición es útil es cuando deseamos aplicar el producto punto \(^{1}\)a dos columnas vectores:\[\vec{x} \cdot \vec{y} = \vec{y}^T \vec{x} . \nonumber \] Esa es la forma en que uno suele escribir el producto punto en el software.

    Decimos que una matriz\(A\) es simétrica si\(A = A^T\). Por ejemplo,\[\begin{bmatrix} 1 & 2 & 3 \\ 2 & 4 & 5 \\ 3 & 5 & 6 \end{bmatrix} \nonumber \] es una matriz simétrica. Observe que una matriz simétrica es siempre cuadrada, es decir,\(n \times n\). Las matrices simétricas tienen muchas propiedades agradables \(^{2}\), y aparecen con bastante frecuencia en aplicaciones.

    Notas al pie

    [1] Como nota al margen, los matemáticos escriben\(\vec{y}^T\vec{x}\) y los físicos escriben\(\vec{x}^T\vec{y}\). Shhh... no se lo digas a nadie, pero los físicos probablemente tengan razón en esto.

    [2] Aunque hasta el momento no hemos aprendido lo suficiente sobre las matrices para apreciarlas realmente.


    A.2: Álgebra Matricial is shared under a CC BY-SA 1.3 license and was authored, remixed, and/or curated by LibreTexts.