Saltar al contenido principal
LibreTexts Español

2.7: Propiedades de la Matriz Inversa

  • Page ID
    116372
  • \( \newcommand{\vecs}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} } \) \( \newcommand{\vecd}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash {#1}}} \)\(\newcommand{\id}{\mathrm{id}}\) \( \newcommand{\Span}{\mathrm{span}}\) \( \newcommand{\kernel}{\mathrm{null}\,}\) \( \newcommand{\range}{\mathrm{range}\,}\) \( \newcommand{\RealPart}{\mathrm{Re}}\) \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\) \( \newcommand{\Argument}{\mathrm{Arg}}\) \( \newcommand{\norm}[1]{\| #1 \|}\) \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\) \( \newcommand{\Span}{\mathrm{span}}\) \(\newcommand{\id}{\mathrm{id}}\) \( \newcommand{\Span}{\mathrm{span}}\) \( \newcommand{\kernel}{\mathrm{null}\,}\) \( \newcommand{\range}{\mathrm{range}\,}\) \( \newcommand{\RealPart}{\mathrm{Re}}\) \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\) \( \newcommand{\Argument}{\mathrm{Arg}}\) \( \newcommand{\norm}[1]{\| #1 \|}\) \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\) \( \newcommand{\Span}{\mathrm{span}}\)\(\newcommand{\AA}{\unicode[.8,0]{x212B}}\)

    Objetivos de aprendizaje
    • ¿Qué significa decir que dos afirmaciones son “equivalentes”?
    • T/F: Si no\(A\) es invertible, entonces no\(A\vec{x}=\vec{0}\) podría tener soluciones.
    • T/F: Si no\(A\) es invertible, entonces\(A\vec{x}=\vec{b}\) podría tener infinitas soluciones.
    • ¿Cuál es la inversa de la inversa de\(A\)?
    • T/F: Resolver\(A\vec{x}=\vec{b}\) usando la eliminación gaussiana es más rápido que usar la inversa de\(A\).

    Terminamos la sección anterior afirmando que las matrices invertibles son importantes. Ya que son, en esta sección estudiamos matrices invertibles de dos maneras. Primero, analizamos formas de saber si una matriz es invertible o no, y en segundo lugar, estudiamos las propiedades de las matrices invertibles (es decir, cómo interactúan con otras operaciones matriciales).

    Empezamos por recolectar formas en las que sabemos que una matriz es invertible. De hecho ya conocemos la verdad de este teorema a partir de nuestro trabajo en la sección anterior, pero es bueno enumerar las siguientes afirmaciones en un solo lugar. A medida que avanzamos por otras secciones, añadiremos a este teorema.

    Teorema\(\PageIndex{1}\): Invertible Matrix Theorem

    \(A\)Déjese ser una\(n\times n\) matriz. Las siguientes declaraciones son equivalentes.

    1. \(A\)es invertible.
    2. Existe una matriz\(B\) tal que\(BA = I\).
    3. Existe una matriz\(C\) tal que\(AC = I\).
    4. La forma de escalón de fila reducida de\(A\) es\(I\).
    5. La ecuación\(A\vec{x}=\vec{b}\) tiene exactamente una solución por cada\(n\times 1\) vector\(\vec{b}\).
    6. La ecuación\(A\vec{x}=\vec{0}\) tiene exactamente una solución (a saber,\(\vec{x}=\vec{0}\)).

    Tomemos nota de algunas cosas sobre el Teorema de Matriz Invertible.

    1. Primero, tenga en cuenta que el teorema utiliza la frase “las siguientes declaraciones son equivalentes. ” Cuando dos o más afirmaciones son equivalentes, significa que la verdad de cualquiera de ellas implica que el resto también son verdaderas; si alguna de las afirmaciones es falsa, entonces todas son falsas. Entonces, por ejemplo, si determinamos que la ecuación\(A\vec{x}=\vec{0}\) tenía exactamente una solución (y\(A\) era una\(n\times n\) matriz) entonces sabríamos que\(A\) era invertible, que solo\(A\vec{x}=\vec{b}\) tenía una solución, que la forma de escalón de fila reducida de\(A\) era\(I\), etc.
    2. Repasemos cada una de las declaraciones y veamos por qué ya sabíamos que todos decían esencialmente lo mismo.
      1. Esto simplemente afirma que\(A\) es invertible —es decir, que existe una matriz\(A^{-1}\) tal que\(A^{-1}A=AA^{-1}=I\). Continuaremos demostrando por qué todas las demás declaraciones básicamente nos dicen “\(A\)es invertible”.
      2. Si sabemos que\(A\) es invertible, entonces ya sabemos que hay una matriz\(B\) donde\(BA=I\). Eso es parte de la definición de invertible. Sin embargo, también podemos “ir por el otro lado”. Recordemos del Teorema 2.6.1 que aunque todo lo que sabemos es que hay una matriz\(B\) donde\(BA=I\), entonces también sabemos eso\(AB=I\). Es decir, sabemos que\(B\) es lo inverso de\(A\) (y por lo tanto\(A\) es invertible).
      3. Utilizamos la misma lógica que en el enunciado anterior para mostrar por qué esto es lo mismo que “\(A\)es invertible”.
      4. Si\(A\) es invertible, podemos encontrar la inversa usando la Idea Clave 2.6.1 (que a su vez depende del Teorema 2.6.1). El quid de Key Idea 2.6.1 es que la forma de escalón de fila reducida de\(A\) es\(I\); si es otra cosa, no podemos encontrar\(A^{-1}\) (no existe). Saber que\(A\) es invertible significa que la forma de escalón de fila reducida de\(A\) es\(I\). Podemos ir por otro lado; si sabemos que la forma de escalón de fila reducida de\(A\) es\(I\), entonces podemos emplear Key Idea 2.6.1 para encontrar\(A^{-1}\), entonces\(A\) es invertible.
      5. Sabemos por el Teorema 2.6.4 que si\(A\) es invertible, entonces dado cualquier vector\(\vec{b}\), siempre\(A\vec{x}=\vec{b}\) tiene exactamente una solución, a saber\(\vec{x}=A^{-1}\vec{b}\). No obstante, podemos ir por el otro lado; digamos que sabemos que\(A\vec{x}=\vec{b}\) siempre tiene exactamente solución. ¿Cómo podemos concluir que\(A\) es invertible?
        Piense en cómo nosotros, hasta este punto, determinamos la solución a\(A\vec{x}=\vec{b}\). Configuramos la matriz aumentada\(\left[\begin{array}{cc}{A}&{\vec{b}}\end{array}\right]\) y la colocamos en forma de escalón de fila reducida. Sabemos que obtener la matriz de identidad a la izquierda significa que teníamos una solución única (y no obtener la identidad significa que o no tenemos solución ni soluciones infinitas). Entonces, llegar\(I\) a la izquierda significa tener una solución única; tener\(I\) a la izquierda significa que la forma de escalón de fila reducida de\(A\) es\(I\), que sabemos desde arriba es lo mismo que\(A\) ser invertible.
      6. Esto es lo mismo que lo anterior; simplemente reemplace el vector\(\vec{b}\) con el vector\(\vec{0}\).

    Entonces se nos ocurrió una lista de declaraciones que son todas equivalentes a la afirmación “\(A\)es invertible”. Nuevamente, si sabemos que si alguno de ellos es verdadero (o falso), entonces todos son verdaderos (o todos falsos).

    Teorema\(\PageIndex{1}\) afirma formalmente que si\(A\) es invertible, entonces\(A\vec{x}=\vec{b}\) tiene exactamente una solución, a saber\(A^{-1}\vec{b}\). ¿Y si no\(A\) es invertible? ¿Cuáles son las posibilidades de soluciones para\(A\vec{x}=\vec{b}\)?

    Sabemos que\(A\vec{x}=\vec{b}\) no puede tener exactamente una solución; si lo hiciera, entonces por nuestro teorema sería invertible. Recordando que las ecuaciones lineales tienen una solución, soluciones infinitas, o ninguna solución, nos quedamos con estas últimas opciones cuando no\(A\) es invertible. Esta idea es importante y así la declararemos nuevamente como una Idea Clave.

    Idea Clave\(\PageIndex{1}\): Solutions to \(A\vec{x}=\vec{b}\) and the Invertibility of \(A\)

    Considerar el sistema de ecuaciones lineales\(A\vec{x}=\vec{b}\).

    1. Si\(A\) es invertible, entonces\(A\vec{x}=\vec{b}\) tiene exactamente una solución, a saber\(A^{-1}\vec{b}\).
    2. Si no\(A\) es invertible, entonces\(A\vec{x}=\vec{b}\) tiene soluciones infinitas o ninguna solución.

    En Teorema se\(\PageIndex{1}\) nos ha llegado a una lista de formas en las que podemos decir si una matriz es o no invertible. Al mismo tiempo, hemos elaborado una lista de propiedades de matrices invertibles —cosas que sabemos que son ciertas sobre ellas. (Por ejemplo, si sabemos que\(A\) es invertible, entonces sabemos que solo\(A\vec{x}=\vec{b}\) tiene una solución).

    Ahora vamos a descubrir otras propiedades de matrices invertibles. Específicamente, queremos conocer cómo la invertibilidad interactúa con otras operaciones matriciales. Por ejemplo, si lo sabemos\(A\) y\(B\) somos invertibles, ¿de qué es lo inverso\(A+B\)? ¿Cuál es la inversa de\(AB\)? ¿Qué es “la inversa de la inversa?” Exploraremos estas preguntas a través de un ejemplo.

    Ejemplo\(\PageIndex{1}\)

    Let

    \[A=\left[\begin{array}{cc}{3}&{2}\\{0}&{1}\end{array}\right]\quad\text{and}\quad B=\left[\begin{array}{cc}{-2}&{0}\\{1}&{1}\end{array}\right] . \nonumber \]

    Encuentra:

    1. \(A^{-1}\)
    2. \(B^{-1}\)
    3. \((AB)^{-1}\)
    4. \((A^{-1})^{-1}\)
    5. \((A+B)^{-1}\)
    6. \((5A)^{-1}\)

    Además, tratar de encontrar conexiones entre cada uno de los anteriores.

    Solución

    1. \(A^{-1}\)La computación es sencilla; usaremos el Teorema 2.6.3.
      \[A^{-1}=\frac{1}{3}\left[\begin{array}{cc}{1}&{-2}\\{0}&{3}\end{array}\right]=\left[\begin{array}{cc}{1/3}&{-2/3}\\{0}&{1}\end{array}\right] \nonumber \]
    2. Calculamos\(B^{-1}\) de la misma manera que arriba.
      \[B^{-1}=\frac{1}{-2}\left[\begin{array}{cc}{1}&{0}\\{-1}&{-2}\end{array}\right]=\left[\begin{array}{cc}{-1/2}&{0}\\{1/2}&{1}\end{array}\right] \nonumber \]
    3. Para calcular\((AB)^{-1}\), primero computamos\(AB\): Ahora
      \[AB=\left[\begin{array}{cc}{3}&{2}\\{0}&{1}\end{array}\right]\left[\begin{array}{cc}{-2}&{0}\\{1}&{1}\end{array}\right]=\left[\begin{array}{cc}{-4}&{2}\\{1}&{1}\end{array}\right] \nonumber \]
      aplicamos el Teorema 2.6.3 para encontrar\((AB)^{-1}\).
      \[(AB)^{-1}=\frac{1}{-6}\left[\begin{array}{cc}{1}&{-2}\\{-1}&{-4}\end{array}\right]=\left[\begin{array}{cc}{-1/6}&{1/3}\\{1/6}&{2/3}\end{array}\right] \nonumber \]
    4. Para calcular\((A^{-1})^{-1}\), simplemente aplicamos el Teorema 2.6.3 a\(A^{-1}\):
      \[(A^{-1})^{-1}=\frac{1}{1/3}\left[\begin{array}{cc}{1}&{2/3}\\{0}&{1/3}\end{array}\right]=\left[\begin{array}{cc}{3}&{2}\\{0}&{1}\end{array}\right]. \nonumber \]
    5. Para calcular\((A+B)^{-1}\), primero calculamos\(A+B\) luego aplicamos Teorema 2.6.3:
      \[A+B=\left[\begin{array}{cc}{3}&{2}\\{0}&{1}\end{array}\right]+\left[\begin{array}{cc}{-2}&{0}\\{1}&{1}\end{array}\right]=\left[\begin{array}{cc}{1}&{2}\\{1}&{2}\end{array}\right]. \nonumber \]
      De ahí que
      \[(A+B)^{-1}=\frac{1}{0}\left[\begin{array}{cc}{2}&{-2}\\{-1}&{1}\end{array}\right]=! \nonumber \]
      Nuestra última expresión sea realmente absurda; sabemos que si\(ad-bc=0\), entonces la matriz dada no es invertible. Ese es el caso con\(A+B\), por lo que concluimos que no\(A+B\) es invertible.
    6. Para calcular\((5A)^{-1}\), calculamos\(5A\) y luego aplicamos el Teorema 2.6.3.
      \[(5A)^{-1}=\left(\left[\begin{array}{cc}{15}&{10}\\{0}&{5}\end{array}\right]\right)^{-1}=\frac{1}{75}\left[\begin{array}{cc}{5}&{-10}\\{0}&{15}\end{array}\right]=\left[\begin{array}{cc}{1/15}&{-2/15}\\{0}&{1/5}\end{array}\right] \nonumber \]

    Ahora buscamos conexiones entre\(A^{-1}\),,\(B^{-1}\)\((AB)^{-1}\),\((A^{-1})^{-1}\) y\((A+B)^{-1}\).

    1. ¿Existe algún tipo de relación entre\((AB)^{-1}\) y\(A^{-1}\) y\(B^{-1}\)? Una primera suposición que parece plausible es\((AB)^{-1}=A^{-1}B^{-1}\). ¿Es esto cierto? Usando nuestro trabajo desde arriba, tenemos
      \[A^{-1}B^{-1}=\left[\begin{array}{cc}{1/3}&{-2/3}\\{0}&{1}\end{array}\right]\left[\begin{array}{cc}{-1/2}&{0}\\{1/2}&{1}\end{array}\right]=\left[\begin{array}{cc}{-1/2}&{-2/3}\\{1/2}&{1}\end{array}\right]. \nonumber \]
      Obviamente, esto no es igual a\((AB)^{-1}\). Antes de hacer algunas conjeturas más, pensemos en lo que\(AB\) se supone que debe hacer la inversa de. Lo inverso —llamémoslo\(C\) — se supone que es una matriz tal que
      \[(AB)C=C(AB)=I. \nonumber \]
      Al examinar la expresión\((AB)C\), vemos que de alguna manera\(B\) queremos “cancelar” con\(C\). ¿Qué “cancela”\(B\)? Una respuesta obvia es\(B^{-1}\). Esto nos da un pensamiento: tal vez antes obtuvimos el orden de\(A^{-1}\) y nos\(B^{-1}\) equivocamos. Después de todo, esperábamos encontrar eso
      \[ABA^{-1}B^{-1}\stackrel{?}{=} I, \nonumber \]
      pero algebraicamente hablando, es difícil cancelar estos términos. \(^{1}\)No obstante, cambiar el orden de\(A^{-1}\) y nos\(B^{-1}\) da alguna esperanza. ¿Es\((AB)^{-1}=B^{-1}A^{-1}\)? A ver.
      \[\begin{align}\begin{aligned}(AB)(B^{-1}A^{-1})&=A(BB^{-1})A^{-1} &\text{(regrouping by the associative property)} \\ &=AIA^{-1} &(BB^{-1}=I) \\ &=AA^{-1} &(AI=A) \\ &=I &(AA^{-1}=I)\end{aligned}\end{align} \nonumber \]
      Así parece que\((AB)^{-1}=B^{-1}A^{-1}\). Confirmemos esto con nuestras matrices de ejemplo.
      \[B^{-1}A^{-1}=\left[\begin{array}{cc}{-1/2}&{0}\\{1/2}&{1}\end{array}\right]\left[\begin{array}{cc}{1/3}&{-2/3}\\{0}&{1}\end{array}\right]=\left[\begin{array}{cc}{-1/6}&{1/3}\\{1/6}&{2/3}\end{array}\right]=(AB)^{-1}. \nonumber \]
      ¡Funcionó!

    2. ¿Hay algún tipo de conexión entre\((A^{-1})^{-1}\) y\(A\)? La respuesta es bastante obvia: son iguales. El “inverso de lo inverso” devuelve uno a la matriz original.

    3. ¿Hay algún tipo de relación entre\((A+B)^{-1}\),\(A^{-1}\) y\(B^{-1}\)? Ciertamente, si nos vieran obligados a hacer una conjetura sin trabajar ningún ejemplo, adivinaríamos que
      \[(A+B)^{-1}\stackrel{?}{=} A^{-1}+B^{-1}. \nonumber \]
      Sin embargo, vimos que en nuestro ejemplo, la matriz ni\((A+B)\) siquiera es invertible. Esto prácticamente mata cualquier esperanza de una conexión.

    4. ¿Existe una conexión entre\((5A)^{-1}\) y\(A^{-1}\)? Considera:
      \[\begin{align}\begin{aligned}(5A)^{-1}&=\left[\begin{array}{cc}{1/15}&{-2/15}\\{0}&{1/5}\end{array}\right] \\ &=\frac{1}{5}\left[\begin{array}{cc}{1/3}&{-2/3}\\{0}&{1/5}\end{array}\right] \\ &=\frac{1}{5}A^{-1}\end{aligned}\end{align} \nonumber \]
      ¡Sí, hay una conexión!

    Resumimos los resultados de este ejemplo. Si\(A\) y\(B\) son ambas matrices invertibles, entonces también lo es su producto,\(AB\). Esto lo demostramos con nuestro ejemplo, y hay más por decir. Supongamos que\(A\) y\(B\) son\(n\times n\) matrices, pero aún no sabemos si son invertibles. Si\(AB\) es invertible, entonces cada uno de\(A\) y\(B\) son; si no\(AB\) es invertible, entonces\(A\) o tampoco\(B\) es invertible.

    En definitiva, la invertibilidad “funciona bien” con la multiplicación matricial. Sin embargo, vimos que no funciona bien con la adición de matriz. Saber que\(A\) y\(B\) son invertibles no nos ayuda a encontrar lo inverso de\((A+B)\); de hecho, esta última matriz puede que ni siquiera sea invertible. \(^{2}\)

    Hagamos un ejemplo más, luego resumiremos los resultados de esta sección en un teorema.

    Ejemplo\(\PageIndex{2}\)

    Encuentra la inversa de\(A=\left[\begin{array}{ccc}{2}&{0}&{0}\\{0}&{3}&{0}\\{0}&{0}&{-7}\end{array}\right].\)

    Solución

    Encontraremos\(A^{-1}\) using Key Idea 2.6.1.

    \[\left[\begin{array}{cccccc}{2}&{0}&{0}&{1}&{0}&{0}\\{0}&{3}&{0}&{0}&{1}&{0}\\{0}&{0}&{-7}&{0}&{0}&{1}\end{array}\right]\quad\vec{\text{rref}}\quad\left[\begin{array}{cccccc}{1}&{0}&{0}&{1/2}&{0}&{0}\\{0}&{1}&{0}&{0}&{1/3}&{0}\\{0}&{0}&{1}&{0}&{0}&{-1/7}\end{array}\right] \nonumber \]

    Por lo tanto

    \[A^{-1}=\left[\begin{array}{ccc}{1/2}&{0}&{0}\\{0}&{1/3}&{0}\\{0}&{0}&{-1/7}\end{array}\right]. \nonumber \]

    La matriz\(A\) en el ejemplo anterior es una matriz diagonal: las únicas entradas distintas de cero de\(A\) mentira sobre la diagonal. \(^{3}\)La relación entre\(A\) y\(A^{-1}\) en el ejemplo anterior parece bastante fuerte, y se mantiene cierta en general. Lo expondremos y resumiremos los resultados de esta sección con el siguiente teorema.

    Teorema\(\PageIndex{2}\)

    Propiedades de Matrices Invertibles

    Dejar\(A\) y\(B\) ser matrices\(n\times n\) invertibles. Entonces:

    1. \(AB\)es invertible;\((AB)^{-1}=B^{-1}A^{-1}\).
    2. \(A^{-1}\)es invertible;\((A^{-1})^{-1}=A\).
    3. \(nA\)es invertible para cualquier escalar distinto de cero\(n\);\((nA)^{-1}=\frac{1}{n}A^{-1}\).
    4. Si\(A\) es una matriz diagonal, con entradas diagonales\(d_{1},\: d_{2},\cdots , d_{n}\), donde ninguna de las entradas diagonales está\(0\), entonces\(A^{−1}\) existe y es una matriz diagonal. Además, las entradas diagonales de\(A^{−1}\) son\(1/d_{1},\: 1/d_{2},\cdots , 1/d_{n}\).

    Además,

    1. Si un producto no\(AB\) es invertible, entonces\(A\) o no\(B\) es invertible.
    2. Si\(A\) o no\(B\) son invertibles, entonces no\(AB\) es invertible.

    Terminamos esta sección con un comentario sobre la resolución de sistemas de ecuaciones “en la vida real”. \(^{4}\)Resolver un sistema\(A\vec{x}=\vec{b}\) por computación\(A^{-1}\vec{b}\) parece bastante hábil, por lo que tendría sentido que así sea la forma en que se hace normalmente. Sin embargo, en la práctica, esto rara vez se hace. Hay dos razones principales por las que este es el caso.

    En primer lugar, la computación\(A^{-1}\) y\(A^{-1}\vec{b}\) es “cara” en el sentido de que ocupa mucho tiempo de computación. Ciertamente, nuestras calculadoras no tienen problemas para tratar los\(3 \times 3\) casos que a menudo consideramos en este libro de texto, pero en la vida real las matrices que se están considerando son muy grandes (como en, cientos de mil filas y columnas). La computación\(A^{-1}\) por sí sola es bastante poco práctica, y perdemos mucho tiempo si llegamos a descubrir que eso\(A^{-1}\) no existe. Aunque ya sepamos lo que\(A^{-1}\) es, la computación\(A^{-1}\vec{b}\) es computacionalmente costosa — la eliminación gaussiana es más rápida.

    En segundo lugar, la computación\(A^{-1}\) usando el método que hemos descrito a menudo da lugar a errores numéricos de redondeos. Aunque las computadoras a menudo hacen cálculos con una precisión de más de 8 decimales, después de miles de cálculos, los redondeos pueden causar grandes errores. (¡Una\(1,000 \times 1,000\) matriz “pequeña” tiene\(1,000,000\) entradas! ¡Eso es un montón de lugares para que se acumulen errores de redondeo!) No es inaudito tener una computadora computa\(A^{-1}\) para una matriz grande, y luego inmediatamente tenerla computar\(AA^{-1}\) y no obtener la matriz de identidad. \(^{5}\)

    Por lo tanto, en la vida real, las soluciones a\(A\vec{x}=\vec{b}\) se suelen encontrar utilizando los métodos que aprendimos en la Sección 2.4. Resulta que incluso con todos nuestros avances en matemáticas, es difícil superar el método básico que Gauss introdujo hace mucho tiempo.

    Notas al pie

    [1] Recordemos que la multiplicación matricial no es conmutativa.

    [2] El hecho de que la invertibilidad funcione bien con la multiplicación matricial no debería ser una sorpresa. Después de todo, decir que\(A\) es invertible hace una declaración sobre las propiedades mulitiplicativas de\(A\). Dice que puedo multiplicar\(A\) con una matriz especial para conseguir\(I\). La invertibilidad, en sí misma, no dice nada sobre la adición matricial, por lo tanto, no debemos sorprendernos demasiado de que no funcione bien con ella.

    [3] Todavía no hemos definido formalmente la diagonal, pero la definición es más bien visual por lo que la arriesgamos. Consulte la Definición 3.1.2 para más detalles.

    [4] Sí, la gente real sí resuelve ecuaciones lineales en la vida real. No solo los matemáticos, sino los economistas, ingenieros y científicos de todos los sabores necesitan resolver ecuaciones lineales con regularidad, y las matrices que utilizan suelen ser enormes.

    La mayoría de la gente ve matrices en el trabajo sin pensarlo. Las imágenes digitales son simplemente “matrices rectangulares” de números que representan colores — son matrices de colores. Muchas de las operaciones estándar de procesamiento de imágenes implican operaciones matriciales. La esposa del autor tiene una cámara de “7 megapíxeles” que crea imágenes de tamaño, dando más de 7 millones de píxeles, y eso ni siquiera se considera una imagen “grande” en estos días.\(3072\times 2304\)

    [5] El resultado suele ser muy cercano, con los números en la diagonal cerca de 1 y las otras entradas cerca de 0. Pero no es exactamente la matriz de identidad.


    This page titled 2.7: Propiedades de la Matriz Inversa is shared under a CC BY-NC 3.0 license and was authored, remixed, and/or curated by Gregory Hartman et al. via source content that was edited to the style and standards of the LibreTexts platform; a detailed edit history is available upon request.