Saltar al contenido principal
LibreTexts Español

3.2: Matrices y sistemas lineales

  • Page ID
    115409
  • \( \newcommand{\vecs}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} } \) \( \newcommand{\vecd}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash {#1}}} \)\(\newcommand{\id}{\mathrm{id}}\) \( \newcommand{\Span}{\mathrm{span}}\) \( \newcommand{\kernel}{\mathrm{null}\,}\) \( \newcommand{\range}{\mathrm{range}\,}\) \( \newcommand{\RealPart}{\mathrm{Re}}\) \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\) \( \newcommand{\Argument}{\mathrm{Arg}}\) \( \newcommand{\norm}[1]{\| #1 \|}\) \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\) \( \newcommand{\Span}{\mathrm{span}}\) \(\newcommand{\id}{\mathrm{id}}\) \( \newcommand{\Span}{\mathrm{span}}\) \( \newcommand{\kernel}{\mathrm{null}\,}\) \( \newcommand{\range}{\mathrm{range}\,}\) \( \newcommand{\RealPart}{\mathrm{Re}}\) \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\) \( \newcommand{\Argument}{\mathrm{Arg}}\) \( \newcommand{\norm}[1]{\| #1 \|}\) \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\) \( \newcommand{\Span}{\mathrm{span}}\)\(\newcommand{\AA}{\unicode[.8,0]{x212B}}\)

    Matrices y vectores

    Antes de que podamos empezar a hablar de sistemas lineales de ODEs, tendremos que hablar de matrices, así que vamos a repasarlas brevemente. Una matriz es una\(m \times n \) matriz de números (\(m\)filas y\(n\) columnas). Por ejemplo, denotamos una\( 3 \times 5\) matriz de la siguiente manera

    \[ A = \begin {bmatrix} a_{11} & a_{12} & a_{13} & a_{14} & a_{15} \\ a_{21} & a_{22} & a_{23} & a_{24} & a_{25} \\ a_{31} & a_{32} & a_{33} & a_{34} & a_{35} \end {bmatrix} \nonumber \]

    Los números\(a_{ij}\) se llaman elementos o entradas.

    Por un vector generalmente nos referiremos a un vector de columna, es decir, una\( m \times 1 \) matriz. Si nos referimos a un vector de fila lo diremos explícitamente (un vector de fila es una\( 1 \times n\) matriz). Usualmente denotaremos matrices por letras mayúsculas y vectores por letras minúsculas con una flecha como\( \vec {\text {x}}\) o\( \vec {b} \). Por\( \vec {0} \) nos referiremos al vector de todos los ceros.

    Es fácil definir algunas operaciones en matrices. Tenga en cuenta que vamos a querer que\( 1 \times 1 \) las matrices actúen realmente como números, por lo que nuestras operaciones tendrán que ser compatibles con este punto de vista.

    Primero, podemos multiplicar por un escalar (un número). Esto significa simplemente multiplicar cada entrada por el mismo número. Por ejemplo,

    \[ 2 {\begin {bmatrix} 1 & 2 & 3 \\ 4 & 5 & 6 \end {bmatrix}} = \begin {bmatrix} 2 & 4 & 6 \\ 8 & 10 & 12 \end {bmatrix} \nonumber \]

    La adición de matrices también es fácil. Agregamos matrices elemento por elemento. Por ejemplo,

    \[ \begin {bmatrix} 1 & 2 & 3 \\ 4 & 5 & 6 \end {bmatrix} + \begin {bmatrix} 1 & 1 & -1 \\ 0 & 2 & 4 \end {bmatrix} = \begin {bmatrix} 2 & 3 & 2 \\ 4 & 7 & 10 \end {bmatrix} \nonumber \]

    Si los tamaños no coinciden, entonces no se define la adición.

    Si denotamos por 0 la matriz de con todas las entradas cero, por\( c, d \) escalares y por\( A, B, C\) matrices, tenemos las siguientes reglas familiares.

    \[\begin{align}\begin{aligned} A + 0 &= A = 0 + A \\ A + B &= B + A \\ (A + B) + C &= A + ( B + C) \\ c( A + B) &= cA + cB \\ ( c + d) A &= cA + dA \end{aligned}\end{align} \nonumber \]

    Otra operación útil para matrices es la llamada transposición. Esta operación simplemente intercambia filas y columnas de una matriz. La transposición de\( A\) se denota por\(A^T\). Ejemplo:

    \[ { \begin {bmatrix} 1 & 2 & 3 \\ 4 & 5 & 6 \end {bmatrix}}^T = \begin {bmatrix} 1 & 4 \\ 2 & 5 \\ 3 & 6 \end {bmatrix} \nonumber \]

    Multiplicación Matricial

    Definamos ahora la multiplicación matricial. Primero definimos el llamado producto punto (o producto interno) de dos vectores. Por lo general, este será un vector de fila multiplicado por un vector de columna del mismo tamaño. Para el producto punto multiplicamos cada par de entradas del primer y segundo vector y sumamos estos productos. El resultado es un solo número. Por ejemplo,

    \[ \begin {bmatrix} a_1 & a_2 & a_3 \end {bmatrix} \cdot \begin {bmatrix} b_1 \\ b_2 \\ b_3 \end {bmatrix} = \begin {bmatrix} a_1b_1 + a_2b_2 + a_3b_3 \end {bmatrix} \nonumber \]

    Y de manera similar para vectores más grandes (o más pequeños).

    Armados con el producto dot podemos definir el producto de matrices. Primero denotemos por\( \text {row}_i (A) \) la\( i^{th}\) fila de\(A\) y por\( \text {column}_j (A) \) la\(j^{th} \) columna de\(A\). Para una\(m \times n \) matriz\(A\) y una\( n \times p \) matriz\(B\) podemos definir el producto\(AB\). Dejamos\(AB\) ser una\(m \times p \) matriz cuya\( ij^{th} \) entrada es

    \[ \text {row}_i (A) \cdot \text {column}_j (B) \nonumber \]

    Ten en cuenta cómo coinciden las tallas. Ejemplo:

    \[\begin{gathered} \begin{bmatrix} 1 & 2 & 3 \\ 4 & 5 & 6 \end{bmatrix} \begin{bmatrix} 1 & 0 & -1 \\ 1 & 1 & 1 \\ 1 & 0 & 0 \end{bmatrix} = \\ = \begin{bmatrix} 1\cdot 1 + 2\cdot 1 + 3 \cdot 1 & & 1\cdot 0 + 2\cdot 1 + 3 \cdot 0 & & 1\cdot (-1) + 2\cdot 1 + 3 \cdot 0 \\ 4\cdot 1 + 5\cdot 1 + 6 \cdot 1 & & 4\cdot 0 + 5\cdot 1 + 6 \cdot 0 & & 4\cdot (-1) + 5\cdot 1 + 6 \cdot 0 \end{bmatrix} = \begin{bmatrix} 6 & 2 & 1 \\ 15 & 5 & 1 \end{bmatrix}\end{gathered} \nonumber \]

    Para la multiplicación queremos un análogo de un 1. Este análogo es la llamada matriz de identidad. La matriz de identidad es una matriz cuadrada con 1s en la diagonal principal y ceros en todas partes. Por lo general se denota por\(I\). Para cada tamaño tenemos una matriz de identidad diferente y así a veces podemos denotar el tamaño como subíndice. Por ejemplo, el\(I_3\) sería la matriz de\( 3 \times 3\) identidad

    \[ I = I_3 = \begin {bmatrix} 1 & 0 & 0 \\ 0 & 1 & 0 \\ 0 & 0 & 1 \end {bmatrix} \nonumber \]

    Tenemos las siguientes reglas para la multiplicación matricial. Supongamos que\( A, B, C\) son matrices de los tamaños correctos para que las siguientes tengan sentido. Dejar\( \alpha\) denotar un escalar (número).

    \[\begin{align}\begin{aligned} A (BC) &= (AB) C\\ A (B + C) &= AB + AC \\ (B + C) A &= BA + CA \\ \alpha (AB) &= ( \alpha A )B = A ( \alpha B) \\ IA &= A = AI \end{aligned}\end{align} \nonumber \]

    Algunas advertencias están en orden.

    1. \( AB \ne BA \)en general (puede ser cierto por casualidad a veces). Es decir, las matrices no se conmutan. Por ejemplo tomar\( A = \begin {bmatrix} 1 & 1 \\ 1 & 1 \end {bmatrix} \) y\( B = \begin {bmatrix} 1 & 0 \\ 0 & 2 \end {bmatrix} \).
    2. \( AB = AC \)no implica necesariamente\(B = C\), aunque no\(A\) sea 0.
    3. \(AB = 0\)no necesariamente significa eso\(A = 0\) o\(B = 0\). Por ejemplo tomar\(A = B = \begin {bmatrix} 0 & 1 \\ 0 & 0 \end {bmatrix} \).

    Para que los dos últimos ítems se mantengan necesitaríamos “dividir” por una matriz. Aquí es donde entra la matriz inversa. Supongamos que\(A\) y\(B\) son\( n \times n \) matrices tales que

    \[ AB = I = BA \nonumber \]

    Entonces llamamos a\(B\) la inversa de\(A\) y denotamos\(B\) por\(A^{-1}\). Si la inversa de\(A\) existe, entonces llamamos\(A\) invertible. Si no\(A\) es invertible a veces decimos que\(A\) es singular.

    Si\(A\) es invertible, entonces\(AB = AC\) implica eso\(B = C\) (en particular el inverso de\(A\) es único). Simplemente multiplicamos ambos lados por\(A^{-1} \) para obtener\(A^{-1} AB = A^{-1} AC\) o\(IB = IC\) o\(B = C\). Tampoco es difícil verlo\( {(A^{-1})}^{-1} = A\).

    3.2.3Determinante

    Ahora podemos hablar de determinantes de matrices cuadradas. Definimos el determinante de una\( 1 \times 1\) matriz como el valor de su única entrada. Para una\( 2 \times 2\) matriz definimos

    \[ \text {det} \left ( \begin {bmatrix} a & b \\ c & d \end {bmatrix} \right ) \overset {\text {def}}{=} ad - bc \nonumber \]

    Antes de intentar calcular el determinante para matrices más grandes, primero tomemos nota del significado del determinante. Considerar una\(n \times n\) matriz como un mapeo del espacio euclidiano\( n\) dimensional\( \mathbb {R}^n\) a\( \mathbb {R}^n\). En particular, una\( 2 \times 2\) matriz\(A\) es un mapeo del plano a sí mismo, donde\( \vec {x} \) se envía a\( A \vec {x} \). Entonces el determinante de\(A\) es el factor por el cual se cambia el área de los objetos. Si tomamos el cuadrado unitario (cuadrado del lado 1) en el plano, entonces\(A\) toma el cuadrado a un paralelogramo de área\( \mid \text {det} (A) \mid \). El signo de\( \text {det} (A) \) denota cambio de orientación (negativo si los ejes se voltearon). Por ejemplo, vamos

    \[ A = \begin {bmatrix} 1 & 1 \\ -1 & 1 \end {bmatrix} \nonumber \]

    Entonces\( \text {det} (A) = 1 + 1 = 2 \). Veamos de dónde\( (1, 1) \) se envía el cuadrado con vértices\( (0, 0), (1, 0), (0, 1)\) y. Claramente\( (0, 0 ) \) se envía a\( (0, 0)\).

    \[ \begin {bmatrix} 1 & 1 \\ -1 & 1 \end {bmatrix} \begin {bmatrix} 1 \\ 0 \end {bmatrix} = \begin {bmatrix} 1 \\ -1 \end {bmatrix}, \quad \begin {bmatrix} 1 & 1 \\ -1 & 1 \end {bmatrix} \begin {bmatrix} 0 \\ 1 \end {bmatrix} = \begin {bmatrix} 1 \\ 1 \end {bmatrix},\quad \begin {bmatrix} 1 & 1 \\ -1 & 1 \end {bmatrix} \begin {bmatrix} 1 \\ 1 \end {bmatrix} = \begin {bmatrix} 2 \\ 0 \end {bmatrix} \nonumber \]

    Entonces la imagen de la plaza es otra plaza. El cuadrado de la imagen tiene un lado de largo\( \sqrt {2} \) y, por lo tanto, es de área 2.

    Si piensas en geometría de secundaria, es posible que hayas visto una fórmula para computar el área de un paralelogramo con vértices\( (0, 0), (a, c), (b, d)\) y\( (a + b, c + d ) \). Y es precisamente

    \[ \left| \text {det} \left ( \begin {bmatrix} a & b \\ c & d \end {bmatrix} \right ) \right| \nonumber \]

    Las líneas verticales por encima del valor absoluto medio. La matriz\( \begin {bmatrix} a & b \\ c & d \end {bmatrix} \) lleva el cuadrado unitario al paralelogramo dado.

    Ahora podemos definir el determinante para matrices más grandes. Definimos\( A_{ij} \) como la matriz\(A\) con la\( i^{th}\) fila y la\(j^{th} \) columna borradas. Para calcular el determinante de una matriz, elija una fila, diga la\(i^{th} \) fila y calme.

    \[ \text {det} (A) = \sum _ {j=1}^n (-1)^{i+j} a_{ij} \text {det} (A_{ij}) \nonumber \]

    Para la primera fila obtenemos

    \[ \text {det} (A) = a_{11} \text {det} (A_{11}) - a_{12} \text {det} (A_{12}) + a_{13} \text {det} (A_{13}) - \dots \begin {cases} +a_{1n} \text {det} (A_{1n} & \text {if n is odd} \\ -a_{1n} \text {det} (A_{1n} & \text {if n even} \end {cases} \nonumber \]

    Alternadamente sumamos y restamos los determinantes de las submatrices\(A_{ij}\) para un fijo\(i\) y todo\(j\). Para una\(3 \times 3\) matriz, escogiendo la primera fila, obtendríamos\( \text {det} (A) = a_{11} \text {det} (A_{11}) - a_{12} \text {det} (A_{12}) + a_{13} \text {det} (A_{13})\). Por ejemplo,

    \[\begin{align}\begin{aligned} \text {det} \left ( \begin {bmatrix} 1 & 2 & 3 \\ 4 & 5 & 6 \\ 7 & 8 & 9 \end {bmatrix} \right ) &= 1 \cdot \text {det} \left ( \begin {bmatrix} 5 & 6 \\ 8 & 9 \end {bmatrix} \right ) - 2 \cdot \text {det} \left ( \begin {bmatrix} 4 & 6 \\ 7 & 9 \end {bmatrix} \right ) + 3 \cdot \text {det} \left ( \begin {bmatrix} 4 & 5 \\ 7 & 8 \end {bmatrix} \right ) \\ &= 1(5 \cdot 9 - 6 \cdot 8) - 2 ( 4 \cdot 9 - 6 \cdot 7) + 3 ( 4 \cdot 8 - 5 \cdot 7 ) = 0 \end{aligned}\end{align} \nonumber \]

    \( (-1)^{i+j} \text {det} (A_{ij}) \)Los números se denominan cofactores de la matriz y esta forma de computar el determinante se denomina expansión del cofactor. También es posible calcular el determinante expandiéndolo a lo largo de las columnas (escogiendo una columna en lugar de una fila arriba).

    Tenga en cuenta que una notación común para el determinante es un par de líneas verticales:

    \[ \begin {bmatrix} a & b \\ c & d \end {bmatrix} = \text {det} \left ( \begin {bmatrix} a & b \\ c & d \end {bmatrix} \right ) \nonumber \]

    Personalmente, esta notación me parece confusa ya que las líneas verticales suelen significar una cantidad positiva, mientras que los determinantes pueden ser negativos. No voy a usar esta notación en este libro. Una de las propiedades más importantes de los determinantes (en el contexto de este curso) es el siguiente teorema.

    Piensa en los determinantes que te dicen el escalado de un mapeo. Si\(B\) duplica los tamaños de los objetos geométricos y los\(A\) triplica, entonces\(AB\) (que se aplica\(B\) a un objeto y luego\(A\)) debería hacer que el tamaño suba por un factor de\(6\). Esto es cierto en general:\[\det(AB) = \det(A)\det(B) . \nonumber \] Esta propiedad es una de las más útiles, y se emplea a menudo para realmente calcular determinantes. Una consecuencia particularmente interesante es señalar lo que significa para la existencia de inversos. Tomar\(A\) y\(B\) ser inversos el uno del otro, es decir\(AB=I\). Entonces\[\det(A)\det(B) = \det(AB) = \det(I) = 1 . \nonumber \] ni\(\det(A)\) tampoco\(\det(B)\) puede ser cero. Afirmemos esto como teorema ya que será muy importante en el contexto de este curso.

    Teorema\(\PageIndex{1}\)

    Una\( n \times n\) matriz n\(A\) es invertible si y solo si\( \text {det} (A) \ne 0 \).

    De hecho, existe una fórmula para la inversa de una\(2 \times 2 \) matriz

    \[ {\begin {bmatrix} a & b \\ c & d \end {bmatrix}}^ {-1} = \frac {1}{ad - bc} \begin {bmatrix} d & -b \\ -c & a \end {bmatrix} \nonumber \]

    Observe el determinante de la matriz en el denominador de la fracción. La fórmula sólo funciona si el determinante es distinto de cero, de lo contrario estamos dividiendo por cero.

    Resolviendo Sistemas Lineales

    Una aplicación de matrices que necesitaremos es resolver sistemas de ecuaciones lineales. Esto se muestra mejor con el ejemplo. Supongamos que tenemos el siguiente sistema de ecuaciones lineales

    \[\begin{align}\begin{aligned} 2x_1 + 2x_2 + 2x_3 &= 2 \\ x_1 + x_2 + 3x_3 &= 5\\ x_1 + 4x_2 + x_3 &= 10\end{aligned}\end{align} \nonumber \]

    Sin cambiar la solución, podríamos intercambiar ecuaciones en este sistema, podríamos multiplicar cualquiera de las ecuaciones por un número distinto de cero, y podríamos agregar un múltiplo de una ecuación a otra ecuación. Resulta que estas operaciones siempre bastan para encontrar una solución.

    Es más fácil escribir el sistema como una ecuación matricial. Tenga en cuenta que el sistema puede escribirse como

    \[ \begin {bmatrix} 2 & 2 & 2 \\ 1 & 1 & 3 \\ 1 & 4 & 1 \end {bmatrix} \begin {bmatrix} x_1 \\ x_2 \\ x_3 \end {bmatrix} = \begin {bmatrix} 2 \\ 5 \\ 10 \end {bmatrix} \nonumber \]

    Para resolver el sistema colocamos la matriz de coeficientes (la matriz en el lado izquierdo de la ecuación) junto con el vector en el lado derecho y el lado y obtenemos la llamada matriz aumentada

    \[ \left [ \begin {array}{ccc|c} 2 & 2 & 2 & 2 \\ 1 & 1 & 3 & 5 \\ 1 & 4 & 1&10 \end {array} \right ] \nonumber \]

    Aplicamos las siguientes tres operaciones elementales.

    1. Intercambiar dos filas.
    2. Agrega un múltiplo de una fila a otra fila.
    3. Multiplica una fila por un número distinto de cero.

    Seguiremos haciendo estas operaciones hasta que lleguemos a un estado en el que sea fácil leer la respuesta, o hasta que nos metamos en una contradicción que indique que no hay solución, por ejemplo si se nos ocurre una ecuación como\( 0 = 1\).

    Trabajemos a través del ejemplo. Primero multiplica la primera fila por\( \frac {1}{2} \) para obtener

    \[ \left [ \begin {array}{ccc|c} 1 & 1 & 1 & 1 \\ 1 & 1 & 3 & 5 \\ 1 & 4 & 1&10 \end {array} \right ] \nonumber \]

    Ahora resta la primera fila de la segunda y tercera fila.

    \[ \left [ \begin {array}{ccc|c} 1 & 1 & 1 & 1 \\ 0 & 0 & 2 & 4 \\ 0 & 3 & 0 & 9 \end {array} \right ] \nonumber \]

    Multiplica la última fila por\(\frac {1}{3} \) y la segunda fila por\(\frac {1}{2} \).

    \[ \left [ \begin {array}{ccc|c} 1 & 1 & 1 & 1 \\ 0 & 0 & 1 & 2 \\ 0 & 1 & 0 & 3 \end {array} \right ] \nonumber \]

    Intercambiar las filas 2 y 3.

    \[ \left [ \begin {array}{ccc|c} 1 & 1 & 1 & 1 \\ 0 & 1 & 0 & 3 \\ 0 & 0 & 1 & 2 \end {array} \right ] \nonumber \]

    Resta la última fila de la primera, luego resta la segunda fila de la primera.

    \[ \left [ \begin {array}{ccc|c} 1 & 0 & 0 & -4 \\ 0 & 1 & 0 & 3 \\ 0 & 0 & 1 & 2 \end {array} \right ] \nonumber \]

    Si pensamos en qué ecuaciones representa esta matriz aumentada, vemos eso\( x_1 = -4, x_2 = 3 \) y\( x_3 = 2 \). Intentamos esta solución en el sistema original y, voilà, ¡funciona!

    Ejercicio\(\PageIndex{1}\)

    Comprobar que la solución anterior realmente resuelve las ecuaciones dadas.

    Escribimos esta ecuación en notación matricial como\[A \vec{x} = \vec{b} , \nonumber \] donde\(A\) está la matriz\(\left[ \begin{smallmatrix} 2 & 2 & 2 \\ 1 & 1 & 3 \\ 1 & 4 & 1 \end{smallmatrix} \right]\) y\(\vec{b}\) es el vector\(\left[ \begin{smallmatrix} 2 \\ 5 \\ 10 \end{smallmatrix} \right]\). La solución también se puede calcular a través de la inversa,\[\vec{x} = A^{-1} A \vec{x} = A^{-1} \vec{b} . \nonumber \]

    Es posible que la solución no sea única, o que no exista ninguna solución. Es fácil saber si una solución no existe. Si durante la reducción de fila se le ocurre una fila donde todas las entradas excepto la última son cero (la última entrada en una fila corresponde al lado derecho de la ecuación), entonces el sistema es inconsistente y no tiene solución. Por ejemplo, para un sistema de 3 ecuaciones y 3 incógnitas, si encuentras una fila como\([\,0 \quad 0 \quad 0 ~\,|\,~ 1\,]\) en la matriz aumentada, sabes que el sistema es inconsistente. Esa fila corresponde a\(0=1\).

    Por lo general, intenta utilizar operaciones de fila hasta que se cumplan las siguientes condiciones. La primera entrada distinta de cero (desde la izquierda) en cada fila se llama entrada principal.

    1. La entrada principal en cualquier fila está estrictamente a la derecha de la entrada principal de la fila anterior.
    2. Cualquier fila cero está por debajo de todas las filas distintas de cero.
    3. Todas las entradas principales son\(1\).
    4. Todas las entradas por encima y por debajo de una entrada principal son cero.

    Se dice que dicha matriz está en forma de escalón de fila reducida. Se dice que las variables correspondientes a columnas sin entradas iniciales son variables libres. Las variables libres significan que podemos elegir esas variables para que sean lo que queramos y luego resolverlas para el resto de las incógnitas.

    Ejemplo\(\PageIndex{1}\)

    La siguiente matriz aumentada está en forma de escalón de fila reducida.

    \[ \left [ \begin {array}{ccc|c} 1 & 2 & 0 & 3 \\ 0 & 0 & 1 & 1 \\ 0 & 0 & 0 & 0 \end {array} \right ] \nonumber \]

    Supongamos que las variables son\( x_1, x_2\) y\(x_3\). Entonces\(x_2\) es la variable libre,\( x_1 = 3 - 2x_2\), y\( x_3 = 1\).

    Por otro lado si durante el proceso de reducción de filas se le ocurre la matriz

    \[ \left [ \begin {array}{ccc|c} 1 & 2 & 13 & 3 \\ 0 & 0 & 1 & 1 \\ 0 & 0 & 0 & 3 \end {array} \right ] \nonumber \]

    no hay necesidad de ir más allá. La última fila corresponde a la ecuación\( 0x_1 + 0x_2 + 0x_3 = 3 \), que es ridícula. De ahí que no exista ninguna solución.

    Computación de la inversa

    Si la matriz de coeficientes es cuadrada y existe una solución única\( \vec {x} \) para\( A \vec {x} = \vec {b} \) para cualquiera\( \vec {b} \), entonces\( A\) es invertible. De hecho multiplicando ambos lados por eso se\( A^{-1} \) puede ver\( \vec {x} = A^{-1} \vec {b} \). Por lo que es útil calcular la inversa si se quiere resolver la ecuación para muchos lados diferentes de la mano derecha\( \vec {b}\).

    El\( 2 \times 2 \) inverso puede estar dado por una fórmula, pero tampoco es difícil calcular inversas de matrices más grandes. Si bien no tendremos demasiada ocasión para calcular inversos para matrices más grandes que a\( 2 \times 2\) mano, toquemos cómo hacerlo. Encontrar la inversa de\(A\) es en realidad solo resolver un montón de ecuaciones lineales. Si podemos resolver\( A \vec {x}_k = \vec {e}_k\) dónde\( \vec {e}_k \) está el vector con todos los ceros excepto un 1 en la\( k^{th} \) posición, entonces el inverso es la matriz con las columnas\( \vec {x}_k \) para\( k = 1, \dots , n \) (ejercicio: ¿por qué?). Por lo tanto, para encontrar la inversa podemos escribir una matriz\(n \times 2n \) aumentada más grande\( [ A \mid I ] \), donde\(I\) está la identidad. Luego realizamos la reducción de filas. La forma de escalón de fila reducida de\( [ A \mid I ] \) será de la forma\( [ I \mid A^{-1} ] \) si y solo si\(A\) es invertible. Entonces podemos simplemente leer la inversa\( A^{-1}\).


    This page titled 3.2: Matrices y sistemas lineales is shared under a CC BY-SA 4.0 license and was authored, remixed, and/or curated by Jiří Lebl via source content that was edited to the style and standards of the LibreTexts platform; a detailed edit history is available upon request.