Saltar al contenido principal
LibreTexts Español

16.2: Operaciones matriciales

  • Page ID
    87838
  • \( \newcommand{\vecs}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} } \)

    \( \newcommand{\vecd}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash {#1}}} \)

    \( \newcommand{\id}{\mathrm{id}}\) \( \newcommand{\Span}{\mathrm{span}}\)

    ( \newcommand{\kernel}{\mathrm{null}\,}\) \( \newcommand{\range}{\mathrm{range}\,}\)

    \( \newcommand{\RealPart}{\mathrm{Re}}\) \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\)

    \( \newcommand{\Argument}{\mathrm{Arg}}\) \( \newcommand{\norm}[1]{\| #1 \|}\)

    \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\)

    \( \newcommand{\Span}{\mathrm{span}}\)

    \( \newcommand{\id}{\mathrm{id}}\)

    \( \newcommand{\Span}{\mathrm{span}}\)

    \( \newcommand{\kernel}{\mathrm{null}\,}\)

    \( \newcommand{\range}{\mathrm{range}\,}\)

    \( \newcommand{\RealPart}{\mathrm{Re}}\)

    \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\)

    \( \newcommand{\Argument}{\mathrm{Arg}}\)

    \( \newcommand{\norm}[1]{\| #1 \|}\)

    \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\)

    \( \newcommand{\Span}{\mathrm{span}}\) \( \newcommand{\AA}{\unicode[.8,0]{x212B}}\)

    \( \newcommand{\vectorA}[1]{\vec{#1}}      % arrow\)

    \( \newcommand{\vectorAt}[1]{\vec{\text{#1}}}      % arrow\)

    \( \newcommand{\vectorB}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} } \)

    \( \newcommand{\vectorC}[1]{\textbf{#1}} \)

    \( \newcommand{\vectorD}[1]{\overrightarrow{#1}} \)

    \( \newcommand{\vectorDt}[1]{\overrightarrow{\text{#1}}} \)

    \( \newcommand{\vectE}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash{\mathbf {#1}}}} \)

    \( \newcommand{\vecs}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} } \)

    \( \newcommand{\vecd}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash {#1}}} \)

    Interpretación de Matrices

    Recordemos que una matriz\(A \in \mathbb{R}^{m \times n}\) consiste en\(m\) filas y\(n\) columnas para el total de\(m \cdot n\) entradas,\[A=\left(\begin{array}{cccc} A_{11} & A_{12} & \cdots & A_{1 n} \\ A_{21} & A_{22} & \cdots & A_{2 n} \\ \vdots & \vdots & \ddots & \vdots \\ A_{m 1} & A_{m 2} & \cdots & A_{m n} \end{array}\right)\] Esta matriz se puede interpretar de manera centrada en columnas como un conjunto de\(n\) columnas\(m\) - vectores. Alternativamente, la matriz se puede interpretar de una manera centrada en filas como un conjunto de\(n\) vectores de\(m\) fila. Cada una de estas interpretaciones es útil para comprender las operaciones matriciales, las cuales se tratan a continuación.

    Operaciones Matrix

    La primera operación matricial que consideramos es la multiplicación de una matriz\(A \in \mathbb{R}^{m_{1} \times n_{1}}\) por un escalar\(\alpha \in \mathbb{R}\). La operación rinde\[B=\alpha A,\] donde cada entrada de\(B \in \mathbb{R}^{m_{1} \times n_{1}}\) viene dada por\[B_{i j}=\alpha A_{i j}, \quad i=1, \ldots, m_{1}, j=1, \ldots, n_{1} .\] Similar a la multiplicación de un vector por un escalar, la multiplicación de una matriz por un escalar escala cada entrada de la matriz.

    La segunda operación que consideramos es la adición de dos matrices\(A \in \mathbb{R}^{m_{1} \times n_{1}}\) y\(B \in \mathbb{R}^{m_{2} \times n_{2}}\). La suma rinde\[C=A+B\] donde cada entrada de\(C \in \mathbb{R}^{m_{1} \times n_{1}}\) viene dada por\[C_{i j}=A_{i j}+B_{i j}, \quad i=1, \ldots, m_{1}, j=1, \ldots, n_{1} .\] Para que la adición de dos matrices tenga sentido, las matrices deben tener las mismas dimensiones,\(m_{1}\) y\(n_{1}\).

    Podemos combinar el escalado escalar y la operación de adición. Vamos\(A \in \mathbb{R}^{m_{1} \times n_{1}}, B \in \mathbb{R}^{m_{1} \times n_{1}}\), y\(\alpha \in \mathbb{R}\). Entonces, la operación\[C=A+\alpha B\] produce una matriz\(C \in \mathbb{R}^{m_{1} \times n_{1}}\) cuyas entradas están dadas por\[C_{i j}=A_{i j}+\alpha B_{i j}, \quad i=1, \ldots, m_{1}, j=1, \ldots, n_{1} .\] Note que las operaciones de multiplicación de matriz escalar y adición matriz-matriz tratan las matrices como matrices de números, operando entrada por entrada. Esto es diferente al prodcut matriz-matriz, que se introduce a continuación después de un ejemplo de escalado y adición de matriz.

    Ejemplo 16.2.1 Escalado y adición de matriz

    Consideremos las siguientes matrices y escalares,\[A=\left(\begin{array}{cc} 1 & \sqrt{3} \\ -4 & 9 \\ \pi & -3 \end{array}\right), \quad B=\left(\begin{array}{cc} 0 & 2 \\ 2 & -3 \\ \pi & -4 \end{array}\right), \quad \text { and } \quad \alpha=2\] Entonces,\[C=A+\alpha B=\left(\begin{array}{cc} 1 & \sqrt{3} \\ -4 & 9 \\ \pi & -3 \end{array}\right)+2 \cdot\left(\begin{array}{cc} 0 & 2 \\ 2 & -3 \\ \pi & -4 \end{array}\right)=\left(\begin{array}{cc} 1 & \sqrt{3}+4 \\ 0 & 3 \\ 3 \pi & -11 \end{array}\right)\]

    Producto Matrix-Matrix

    Consideremos dos matrices\(A \in \mathbb{R}^{m_{1} \times n_{1}}\) y\(B \in \mathbb{R}^{m_{2} \times n_{2}}\) con\(n_{1}=m_{2}\). El producto matriz-matriz de las matrices resulta en\[C=A B\] con\[C_{i j}=\sum_{k=1}^{n_{1}} A_{i k} B_{k j}, \quad i=1, \ldots, m_{1}, j=1, \ldots, n_{2} .\] Debido a que la suma se aplica al segundo índice de\(A\) y al primer índice de\(B\), el número de columnas de\(A\) debe coincidir con el número de filas de \(B: n_{1}=m_{2}\)debe ser verdad. Consideremos algunos ejemplos.

    Ejemplo 16.2.2 Producto matriz-matriz

    Consideremos matrices\(A \in \mathbb{R}^{3 \times 2}\) y\(B \in \mathbb{R}^{2 \times 3}\) con\[A=\left(\begin{array}{cc} 1 & 3 \\ -4 & 9 \\ 0 & -3 \end{array}\right) \quad \text { and } B=\left(\begin{array}{ccc} 2 & 3 & -5 \\ 1 & 0 & -1 \end{array}\right)\] Los rendimientos de producto matriz-matriz\[C=A B=\left(\begin{array}{cc} 1 & 3 \\ -4 & 9 \\ 0 & -3 \end{array}\right)\left(\begin{array}{ccc} 2 & 3 & -5 \\ 1 & 0 & -1 \end{array}\right)=\left(\begin{array}{ccc} 5 & 3 & -8 \\ 1 & -12 & 11 \\ -3 & 0 & 3 \end{array}\right)\] donde cada entrada se calcula como\[\begin{aligned} C_{11} &=\sum_{k=1}^{2} A_{1 k} B_{k 1}=A_{11} B_{11}+A_{12} B_{21}=1 \cdot 2+3 \cdot 1=5 \\ C_{12} &=\sum_{k=1}^{2} A_{1 k} B_{k 2}=A_{11} B_{12}+A_{12} B_{22}=1 \cdot 3+3 \cdot 0=3 \\ C_{13} &=\sum_{k=1}^{2} A_{1 k} B_{k 3}=A_{11} B_{13}+A_{12} B_{23}=1 \cdot-5+3 \cdot(-1)=-8 \\ C_{21} &=\sum_{k=1}^{2} A_{2 k} B_{k 1}=A_{21} B_{11}+A_{22} B_{21}=-4 \cdot 2+9 \cdot 1=1 \\ & \vdots \\ C_{33} &=\sum_{k=1}^{2} A_{3 k} B_{k 3}=A_{31} B_{13}+A_{32} B_{23}=0 \cdot-5+(-3) \cdot(-1)=3 \end{aligned}\] Tenga en cuenta que porque\(A \in \mathbb{R}^{3 \times 2}\) y\(B \in \mathbb{R}^{2 \times 3}, C \in \mathbb{R}^{3 \times 3}\).

    Esto es muy diferente de\[D=B A=\left(\begin{array}{ccc} 2 & 3 & -5 \\ 1 & 0 & -1 \end{array}\right)\left(\begin{array}{cc} 1 & 3 \\ -4 & 9 \\ 0 & -3 \end{array}\right)=\left(\begin{array}{cc} -10 & 48 \\ 1 & 6 \end{array}\right)\] donde se calcula cada entrada como\[\begin{aligned} D_{11} &=\sum_{k=1}^{3} A_{1 k} B_{k 1}=B_{11} A_{11}+B_{12} A_{21}+B_{13} A_{31}=2 \cdot 1+3 \cdot(-4)+(-5) \cdot 0=-10 \\ & \vdots \\ D_{22} &=\sum_{k=1}^{3} A_{2 k} B_{k 2}=B_{21} A_{12}+B_{22} A_{22}+B_{23} A_{32}=1 \cdot 3+0 \cdot 9+(-1) \cdot(-3)=6 . \end{aligned}\] Tenga en cuenta que porque\(B \in \mathbb{R}^{2 \times 3}\) y\(A \in \mathbb{R}^{3 \times 2}, D \in \mathbb{R}^{2 \times 2}\). Claramente,\(C=A B \neq B A=D ; C\) y\(D\) de hecho tienen dimensiones diferentes. Así, el producto matriz-matriz no es conmutativo en general, aunque ambos\(A B\) y\(B A\) tengan sentido.

    Ejemplo 16.2.3 Producto interno como producto matriz-matriz

    El producto interno de dos vectores puede considerarse como un caso especial de producto matriz-matriz. \[v=\left(\begin{array}{l} 1 \\ 3 \\ 6 \end{array}\right) \quad \text { and } \quad w=\left(\begin{array}{c} -2 \\ 0 \\ 4 \end{array}\right)\]Dejemos que tengamos\(v, w \in \mathbb{R}^{3}\left(=\mathbb{R}^{3 \times 1}\right)\). Tomando la transposición, tenemos\(v^{T} \in \mathbb{R}^{1 \times 3}\). Observando que la segunda dimensión de\(v^{\mathrm{T}}\) y la primera dimensión de\(w\) coincidencia, podemos realizar producto matriz-matriz,\[\beta=v^{\mathrm{T}} w=\left(\begin{array}{lll} 1 & 3 & 6 \end{array}\right)\left(\begin{array}{c} -2 \\ 0 \\ 4 \end{array}\right)=1 \cdot(-2)+3 \cdot 0+6 \cdot 4=22\]

    Ejemplo 16.2.4 producto exterior

    El producto externo de dos vectores es otro caso especial de producto matriz-matriz. El producto externo\(B\) de dos vectores\(v \in \mathbb{R}^{m}\) y\(w \in \mathbb{R}^{m}\) se define como\[B=v w^{\mathrm{T}} .\] Porque\(v \in \mathbb{R}^{m \times 1}\) y\(w^{\mathrm{T}} \in \mathbb{R}^{1 \times m}\), el producto matriz-matriz\(v w^{\mathrm{T}}\) está bien definido y rinde como\(m \times m\) matriz.

    Al igual que en el ejemplo anterior, vamos\[v=\left(\begin{array}{l} 1 \\ 3 \\ 6 \end{array}\right) \quad \text { and } \quad w=\left(\begin{array}{c} -2 \\ 0 \\ 4 \end{array}\right) .\] El producto exterior de dos vectores viene dado por\[w v^{\mathrm{T}}=\left(\begin{array}{c} -2 \\ 0 \\ 4 \end{array}\right)\left(\begin{array}{ccc} 1 & 3 & 6 \end{array}\right)=\left(\begin{array}{ccc} -2 & -6 & -12 \\ 0 & 0 & 0 \\ 4 & 12 & 24 \end{array}\right) .\] Claramente\(\beta=v^{\mathrm{T}} w \neq w v^{\mathrm{T}}=B\),, ya que incluso tienen diferentes dimensiones. En el ejemplo anterior, lo vimos\(A B \neq B A\) en general. De hecho,\(A B\) puede que ni siquiera se permita aunque\(B A\) esté permitido (considerar\(A \in \mathbb{R}^{2 \times 1}\) y\(B \in \mathbb{R}^{3 \times 2}\)). Sin embargo, aunque el producto matriz-matriz no es conmutativo en general, el producto matriz-matriz es asociativo, es decir.\[A B C=A(B C)=(A B) C .\] Además, el producto matriz-matriz también es distributivo, i.e.\[(A+B) C=A C+B C .\]

    Prueba

    Las propiedades asociativas y distributivas del producto matriz-matriz se prueban fácilmente a partir de su definición. Para la asociatividad, consideramos\(i j\) -entrada de la\(m_{1} \times n_{3}\) matriz\(A(B C)\), es decir\[\begin{aligned} (A(B C))_{i j} &=\sum_{k=1}^{n_{1}} A_{i k}(B C)_{k j}=\sum_{k=1}^{n_{1}} A_{i k}\left(\sum_{l=1}^{n_{2}} B_{k l} C_{l j}\right)=\sum_{k=1}^{n_{1}} \sum_{l=1}^{n_{2}} A_{i k} B_{k l} C_{l j}=\sum_{l=1}^{n_{2}} \sum_{k=1}^{n_{1}} A_{i k} B_{k l} C_{l j} \\ &=\sum_{l=1}^{n_{2}}\left(\sum_{k=1}^{n_{1}} A_{i k} B_{k l}\right) C_{l j}=\sum_{l=1}^{n_{2}}(A B)_{i l} C_{l j}=((A B) C)_{i j}, \quad \forall i, j . \end{aligned}\] Dado que la igualdad se\((A(B C))_{i j}=((A B) C)_{i j}\) mantiene para todas las entradas, tenemos\(A(B C)=(A B) C\).

    La propiedad distributiva también se puede probar directamente. El\(i j\) -ingreso de se\((A+B) C\) puede expresar como\[\begin{aligned} ((A+B) C)_{i j} &=\sum_{k=1}^{n_{1}}(A+B)_{i k} C_{k j}=\sum_{k=1}^{n_{1}}\left(A_{i k}+B_{i k}\right) C_{k j}=\sum_{k=1}^{n_{1}}\left(A_{i k} C_{k j}+B_{i k} C_{k j}\right) \\ &=\sum_{k=1}^{n_{1}} A_{i k} C_{k j}+\sum_{k=1}^{n_{1}} B_{i k} C_{k j}=(A C)_{i j}+(B C)_{i j}, \quad \forall i, j . \end{aligned}\] Nuevamente, ya que la igualdad se mantiene para todas las entradas, tenemos\((A+B) C=A C+B C\).

    Otra regla útil sobre el producto matriz-matriz y la operación de transposición es\[(A B)^{\mathrm{T}}=B^{\mathrm{T}} A^{\mathrm{T}} .\] Esta regla se usa muy a menudo.

    Prueba

    La prueba sigue comprobando los componentes de cada lado. El lado izquierdo rinde\[\left((A B)^{\mathrm{T}}\right)_{i j}=(A B)_{j i}=\sum_{k=1}^{n_{1}} A_{j k} B_{k i} .\] El lado derecho rinde\[\left(B^{\mathrm{T}} A^{\mathrm{T}}\right)_{i j}=\sum_{k=1}^{n_{1}}\left(B^{\mathrm{T}}\right)_{i k}\left(A^{\mathrm{T}}\right)_{k j}=\sum_{k=1}^{n_{1}} B_{k i} A_{j k}=\sum_{k=1}^{n_{1}} A_{j k} B_{k i}\] Así, tenemos\[\left((A B)^{\mathrm{T}}\right)_{i j}=\left(B^{\mathrm{T}} A^{\mathrm{T}}\right)_{i j}, \quad i=1, \ldots, n_{2}, j=1, \ldots, m_{1} .\]

    Interpretaciones del Producto Matriz-Vector

    Consideremos un caso especial del producto matriz-matriz: el producto matriz-vector. El caso especial surge cuando la segunda matriz tiene sólo una columna. Entonces, con\(A \in \mathbb{R}^{m \times n}\) y\(w=B \in \mathbb{R}^{n \times 1}=\mathbb{R}^{n}\), tenemos\[C=A B\] donde\[C_{i j}=\sum_{k=1}^{n} A_{i k} B_{k j}=\sum_{k=1}^{n} A_{i k} w_{k}, \quad i=1, \ldots, m_{1}, j=1 .\] Desde\(C \in \mathbb{R}^{m \times 1}=\mathbb{R}^{m}\), podemos introducir\(v \in \mathbb{R}^{m}\) y escribir concisamente el producto matriz-vector como\[v=A w,\] donde\[v_{i}=\sum_{k=1}^{n} A_{i k} w_{k}, \quad i=1, \ldots, m .\] Expandiendo la suma, podemos pensar en la matriz-vector producto como\[\begin{aligned} v_{1} &=A_{11} w_{1}+A_{12} w_{2}+\cdots+A_{1 n} w_{n} \\ v_{2} &=A_{21} w_{1}+A_{22} w_{2}+\cdots+A_{2 n} w_{n} \\ & \vdots \\ v_{m} &=A_{m 1} w_{1}+A_{m 2} w_{2}+\cdots+A_{m n} w_{n} . \end{aligned}\] Ahora, consideramos dos interpretaciones diferentes del producto matriz-vector.

    Interpretación

    La primera interpretación es la interpretación de “fila”, donde consideramos la multiplicación matriz-vector como una serie de productos internos. En particular, consideramos\(v_{i}\) como el producto interno de\(i\) -ésima fila de\(A\) y\(w\). En otras palabras, el vector\(v\) se calcula entrada por entrada en el sentido de que\[v_{i}=\left(\begin{array}{cccc} A_{i 1} & A_{i 2} & \cdots & A_{i n} \end{array}\right)\left(\begin{array}{c} w_{1} \\ w_{2} \\ \vdots \\ w_{n} \end{array}\right), \quad i=1, \ldots, m .\]

    Interpretación de Columna

    La segunda interpretación es la interpretación de “columna”, donde consideramos la multiplicación matriz-vector como una suma de\(n\) vectores correspondientes a las\(n\) columnas de la matriz, es decir,\[v=\left(\begin{array}{c} A_{11} \\ A_{21} \\ \vdots \\ A_{m 1} \end{array}\right) w_{1}+\left(\begin{array}{c} A_{12} \\ A_{22} \\ \vdots \\ A_{m 2} \end{array}\right) w_{2}+\cdots+\left(\begin{array}{c} A_{1 n} \\ A_{2 n} \\ \vdots \\ A_{m n} \end{array}\right) w_{n} .\] en este caso, consideramos\(v\) como una combinación lineal de columnas de\(A\) con coeficientes\(w\). De ahí\(v=A w\) es simplemente otra forma de escribir una combinación lineal de vectores: las columnas de\(A\) son los vectores, y\(w\) contiene los coeficientes.

    Ejemplo 16.2.6 Interpretación de columna del producto matriz-vector

    Un ejemplo de la interpretación de columna del producto matriz-vector es\[v=\left(\begin{array}{lll} 0 & 1 & 0 \\ 1 & 0 & 0 \\ 0 & 0 & 0 \\ 0 & 0 & 1 \end{array}\right)\left(\begin{array}{l} 3 \\ 2 \\ 1 \end{array}\right)=3 \cdot\left(\begin{array}{l} 0 \\ 1 \\ 0 \\ 0 \end{array}\right)+2 \cdot\left(\begin{array}{l} 1 \\ 0 \\ 0 \\ 0 \end{array}\right)+1 \cdot\left(\begin{array}{l} 0 \\ 0 \\ 0 \\ 1 \end{array}\right)=\left(\begin{array}{l} 2 \\ 3 \\ 0 \\ 1 \end{array}\right) .\] Claramente, el resultado del producto matriz-vector es idéntico al calculado usando la interpretación de fila.

    Producto de matriz vectorial

    Consideramos ahora otro caso especial del producto matriz-matriz: el producto vector-matriz izquierda. Este caso especial surge cuando la primera matriz sólo tiene una fila. Entonces, tenemos\(A \in \mathbb{R}^{1 \times m}\) y\(B \in \mathbb{R}^{m \times n}\). Denotemos la matriz\(A\), que es un vector de fila, por\(w^{T}\). Claramente,\(w \in \mathbb{R}^{m}\), porque\(w^{\mathrm{T}} \in \mathbb{R}^{1 \times m}\). El producto vector-matriz izquierda rinde\[v=w^{\mathrm{T}} B,\] donde\[v_{j}=\sum_{k=1}^{m} w_{k} B_{k j}, \quad j=1, \ldots, n .\] El vector resultante\(v\) es un vector de fila en\(\mathbb{R}^{1 \times n}\). El producto vector-matriz izquierda también se puede interpretar de dos maneras diferentes. La primera interpretación considera el producto como una serie de productos puntuales, donde cada entrada\(v_{j}\) se calcula como un producto punto de\(w\) con la\(j\) -ésima columna de\(B\), es decir\[v_{j}=\left(\begin{array}{llll} w_{1} & w_{2} & \cdots & w_{m} \end{array}\right)\left(\begin{array}{c} B_{1 j} \\ B_{2 j} \\ \vdots \\ B_{m j} \end{array}\right), \quad j=1, \ldots, n .\] La segunda interpretación considera la izquierda producto vector-matriz como una combinación lineal de filas de\(B\), i.e.\[\begin{aligned} v=& w_{1}\left(\begin{array}{llll} B_{11} & B_{12} & \cdots & B_{1 n} \end{array}\right)+w_{2}\left(\begin{array}{llll} B_{21} & B_{22} & \cdots & B_{2 n} \end{array}\right) \\ &+\cdots+w_{m}\left(\begin{array}{lllll} B_{m 1} & B_{m 2} & \cdots & B_{m n} \end{array}\right) . \end{aligned}\]

    Interpretaciones del producto Matrix-Matrix

    Similar al producto matriz-vector, el producto matriz-matriz se puede interpretar de varias maneras diferentes. A lo largo de la discusión, asumimos\(A \in \mathbb{R}^{m_{1} \times n_{1}}\) y\(B \in \mathbb{R}^{n_{1} \times n_{2}}\) y por lo tanto\(C=A B \in\)\(\mathbb{R}^{m_{1} \times n_{2}}\).

    Producto Matrix-Matrix como una Serie de Productos Matrix-Vector

    Una interpretación del producto matriz-matriz es considerarlo como computar\(C\) una columna a la vez, donde la\(j\) -ésima columna de\(C\) resultados del producto matriz-vector de la matriz\(A\) con la\(j\) -ésima columna de\(B\), es decir,\[C_{\cdot j}=A B_{\cdot j}, \quad j=1, \ldots, n_{2},\] donde\(C \cdot j\) se refiere a la\(j\) -ésima columna de\(C\). En otras palabras,\[\left(\begin{array}{c} C_{1 j} \\ C_{2 j} \\ \vdots \\ C_{m_{1} j} \end{array}\right)=\left(\begin{array}{cccc} A_{11} & A_{12} & \cdots & A_{1 n_{1}} \\ A_{21} & A_{22} & \cdots & A_{2 n_{1}} \\ \vdots & \vdots & \ddots & \vdots \\ A_{m_{1} 1} & A_{m_{1} 2} & \cdots & A_{m_{1} n_{1}} \end{array}\right)\left(\begin{array}{c} B_{1 j} \\ B_{2 j} \\ \vdots \\ B_{n_{1} j} \end{array}\right), \quad j=1, \ldots, n_{2} .\]

    Ejemplo 16.2.7 Producto matriz-matriz como una serie de productos matriz-vector

    \(A \in \mathbb{R}^{3 \times 2}\)y\(B \in \mathbb{R}^{2 \times 3}\) con\[A=\left(\begin{array}{cc} 1 & 3 \\ -4 & 9 \\ 0 & -3 \end{array}\right) \quad \text { and } B=\left(\begin{array}{ccc} 2 & 3 & -5 \\ 1 & 0 & -1 \end{array}\right)\] La primera columna de\(C=A B \in \mathbb{R}^{3 \times 3}\) viene dada por\[C \cdot 1=A B \cdot 1=\left(\begin{array}{cc} 1 & 3 \\ -4 & 9 \\ 0 & -3 \end{array}\right)\left(\begin{array}{l} 2 \\ 1 \end{array}\right)=\left(\begin{array}{c} 5 \\ 1 \\ -3 \end{array}\right) .\] Similarmente, la segunda y tercera columnas están dadas por\[C_{\cdot 2}=A B_{\cdot 2}=\left(\begin{array}{cc} 1 & 3 \\ -4 & 9 \\ 0 & -3 \end{array}\right)\left(\begin{array}{l} 3 \\ 0 \end{array}\right)=\left(\begin{array}{c} 3 \\ -12 \\ 0 \end{array}\right)\] y\[C_{3}=A B_{\cdot 3}=\left(\begin{array}{cc} 1 & 3 \\ -4 & 9 \\ 0 & -3 \end{array}\right)\left(\begin{array}{c} -5 \\ -1 \end{array}\right)=\left(\begin{array}{c} -8 \\ 11 \\ 3 \end{array}\right) .\] Poner las columnas de\(C\) juntas\[C=\left(\begin{array}{ccc} C \cdot 1 & C \cdot 2 & C \cdot 3 \end{array}\right)=\left(\begin{array}{ccc} 5 & 3 & -8 \\ 1 & -12 & 11 \\ -3 & 0 & 3 \end{array}\right)\]

    Producto Matrix-Matrix como una serie de productos de matriz vectorial izquierda

    En la interpretación anterior, se realizó el producto matriz-matriz construyendo la matriz resultante una columna a la vez. También podemos usar una serie de productos vector-matriz izquierda para construir la matriz resultante una fila a la vez. A saber, en\(C=A B\), la\(i\) -ésima fila de\(C\) resultados del producto vector-matriz izquierda de\(i\) -ésima fila de\(A\) con la matriz\(B\), es decir,\[C_{i}=A_{i} . B, \quad i=1, \ldots, m_{1},\] donde\(C_{i}\). se refiere a la \(i\)-ésima fila de\(C\). En otras palabras,\[\left(\begin{array}{ccc} C_{i 1} & \cdots & C_{i n_{1}} \end{array}\right)=\left(\begin{array}{ccc} A_{i 1} & \cdots & A_{i n_{1}} \end{array}\right)\left(\begin{array}{ccc} B_{11} & \cdots & B_{1 n_{2}} \\ \vdots & \ddots & \vdots \\ B_{m_{2} 1} & \cdots & B_{m_{2} n_{2}} \end{array}\right), \quad i=1, \ldots, m_{1} .\]

    Recuento de Operación del Producto Matrix-Matrix

    El producto matriz-matriz es omnipresente en la computación científica, y se ha puesto un esfuerzo significativo en el desempeño eficiente de la operación en computadoras modernas. Ahora contemos el número de adiciones y multiplicaciones necesarias para calcular este producto. Considera la multiplicación de\(A \in \mathbb{R}^{m_{1} \times n_{1}}\) y\(B \in \mathbb{R}^{n_{1} \times n_{2}}\). Para computar\(C=A B\), realizamos\[C_{i j}=\sum_{k=1}^{n_{1}} A_{i k} B_{k j}, \quad i=1, \ldots, m_{1}, j=1, \ldots, n_{2} .\] Computación cada\(C_{i j}\) una requiere\(n_{1}\) multiplicaciones y\(n_{1}\) adiciones, rindiendo el total de\(2 n_{1}\) operaciones. Debemos realizar esto para\(m_{1} n_{2}\) entradas en\(C\). Así, el conteo total de operaciones para la computación\(C\) es\(2 m_{1} n_{1} n_{2}\). Considerando el producto matriz-vector y el producto interno como casos especiales de producto matriz-matriz, podemos resumir cómo escala el conteo de operación.

    Operación Tallas Recuento de operaciones
    Matriz-matriz \(m_{1}=n_{1}=m_{2}=n_{2}=n\) \(2 n^{3}\)
    Matriz-vector \(m_{1}=n_{1}=m_{2}=n, n_{2}=1\) \(2 n^{2}\)
    Producto interior \(n_{1}=m_{1}=n, m_{1}=n_{2}=1\) \(2 n\)

    El conteo de operaciones se mide en Operaciones de Punto Flotante, o FLOP. (Nota FLOPS es diferente de FLOP: FLOPS se refiere a Operaciones de Punto Flotante por Segundo, que es una “velocidad” asociada con una computadora/hardware en particular y una implementación particular de un algoritmo).

    Inverso de una matriz (Brevemente)

    Ahora hemos estudiado el producto vector matriz, en el que, dado un vector\(x \in \mathbb{R}^{n}\), calculamos un nuevo vector\(b=A x\), dónde\(A \in \mathbb{R}^{n \times n}\) y por lo tanto\(b \in \mathbb{R}^{n}\). Podemos pensar en esto como un problema “hacia adelante”, en el que dado\(x\) calculamos\(b=A x\). Ahora también podemos preguntar sobre el problema “inverso” correspondiente: dado\(b\), ¿podemos encontrar\(x\) tal que\(A x=b\)? Anote en esta sección, y por razones que quedarán claras en breve, consideraremos exclusivamente matrices cuadradas, y por lo tanto estableceremos\(m=n\).

    Para comenzar, volvamos al caso escalar. Si\(b\) es un escalar y\(a\) es un escalar distinto de cero, sabemos que la ecuación (lineal muy simple)\(a x=b\) tiene la solución\(x=b / a\). Podemos escribir esto de manera más sugestiva como\(x=a^{-1} b\) desde luego\(a^{-1}=1 / a\). Es importante señalar que la ecuación\(a x=b\) tiene una solución sólo si no\(a\) es cero; si\(a\) es cero, entonces claro que no hay\(x\) tal que\(a x=b\). (Esto no es del todo cierto: de hecho, si\(b=0\) y\(a=0\) entonces\(a x=b\) tiene una infinidad de soluciones - cualquier valor de\(x\). Discutimos este caso “singular pero solucionable” con más detalle en la Unidad V.)

    Ahora podemos proceder al caso matricial “por analogía”. Por supuesto, la ecuación matricial\(A x=b\) puede ser vista como un sistema de ecuaciones lineales en\(n\) incógnitas. La primera ecuación establece que el producto interno de la primera fila de\(A\) con\(x\) debe ser igual\(b_{1}\); en general, la\(i^{\text {th }}\) ecuación establece que el producto interno de la\(i^{\text {th }}\) fila de\(A\) con \(x\)debe ser igual\(b_{i}\). Entonces si\(A\) es distinto de cero podríamos esperar plausiblemente eso\(x=A^{-1} b\). Esta afirmación es claramente deficiente en dos formas relacionadas: ¿a qué nos referimos cuando decimos que una matriz es distinta de cero? y a qué nos referimos de hecho con\(A^{-1}\).

    En cuanto a la primera pregunta,\(A x=b\) tendrá una solución cuando no\(A\) es singular: no singular es la extensión adecuada del concepto escalar de “distinto de cero” en este contexto de sistemas lineales. Por el contrario, si\(A\) es singular entonces (excepto especial\(b\)) no\(A x=b\) tendrá solución: singular es la extensión adecuada del concepto escalar de “cero” en este contexto de sistemas lineales. ¿Cómo podemos determinar si una matriz\(A\) es singular? Desafortunadamente, no es tan simple como verificar, digamos, que la matriz consiste en al menos una entrada distinta de cero, o contiene todas las entradas distintas de cero.

    Existen diversas formas de determinar si una matriz no es singular, muchas de las cuales solo pueden tener sentido en capítulos posteriores (en particular, en la Unidad V): una\(n \times n\) matriz no singular\(A\) tiene columnas\(n\) independientes (o, equivalentemente, \(n\)filas independientes); una\(n \times n\) matriz no singular\(A\) tiene todos los valores propios distintos de cero; una matriz no singular\(A\) tiene un determinante distinto de cero (tal vez esta condición es la más cercana al caso escalar, pero también es quizás la menos útil); una no- \(A\)La matriz singular tiene todos los pivotes distintos de cero en un proceso de descomposición “LU” (parcialmente pivotado) (descrito en la Unidad V). Por ahora, simplemente asumiremos que eso no\(A\) es singular. (También debemos enfatizar que en el contexto numérico debemos preocuparnos no solo por matrices que puedan ser singulares sino también por matrices que son “casi” singulares en algún sentido apropiado). En cuanto a la segunda cuestión, primero debemos introducir la matriz de identidad,\(I\).

    Definamos ahora una matriz de identidad. La matriz de identidad es una matriz\(m \times m\) cuadrada con unos en la diagonal y ceros en otra parte, es decir Matrices de\[I_{i j}=\left\{\begin{array}{ll} 1, & i=j \\ 0, & i \neq j \end{array} .\right.\] identidad en\(\mathbb{R}^{1}, \mathbb{R}^{2}\), y\(\mathbb{R}^{3}\) son\[I=(1), \quad I=\left(\begin{array}{cc} 1 & 0 \\ 0 & 1 \end{array}\right), \quad \text { and } \quad I=\left(\begin{array}{ccc} 1 & 0 & 0 \\ 0 & 1 & 0 \\ 0 & 0 & 1 \end{array}\right)\] La matriz de identidad se denota convencionalmente por\(I\). Si\(v \in \mathbb{R}^{m}\), la\(i\) -ésima entrada de\(I v\) es\[\begin{aligned} (I v)_{i} &=\sum_{k=1}^{m} I_{i k} v_{k} \\ &=I_{i 1} v_{1}+\cdots+I_{i, i-1} v_{i-1}^{0}+I_{i i} v_{i}+I_{i, i+1} v_{i+1}^{0}+\cdots+I_{i m} v_{m}^{0} \\ &=v_{i}, \quad i=1, \ldots, m . \end{aligned}\] So, tenemos\(I v=v\). Siguiendo el mismo argumento, también tenemos\(v^{\mathrm{T}} I=v^{\mathrm{T}}\). En esencia,\(I\) es la versión\(m\) -dimensional de “uno”.

    Entonces podemos definir\(A^{-1}\) como esa matriz (única) tal que\(A^{-1} A=I\). (Por supuesto en el caso escalar, esto define\(a^{-1}\) como el escalar único tal que\(a^{-1} a=1\) y por lo tanto\(a^{-1}=1 / a\).) De hecho,\(A^{-1} A=I\) y también\(A A^{-1}=I\) y por lo tanto este es un caso en el que la multiplicación matricial efectivamente conmuta. Ahora podemos “derivar” el resultado\(x=A^{-1} b\): comenzamos con\(A x=b\) y multiplicamos ambos lados por\(A^{-1}\) para obtener\(A^{-1} A x=A^{-1} b\) o, ya que el producto matriz es asociativo,\(x=A^{-1} b\). Por supuesto esta definición de aún\(A^{-1}\) no nos dice cómo encontrar\(A^{-1}\): en breve consideraremos esta cuestión desde una perspectiva pragmática de MATLAB y luego en Unidad\(V\) desde una perspectiva de álgebra lineal numérica más fundamental. Cabe señalar aquí, sin embargo, que la inversa de la matriz rara vez se calcula o se utiliza en la práctica, por razones que entenderemos en la Unidad V. Sin embargo, la inversa puede ser bastante útil para sistemas muy\(n\) pequeños (pequeños) y por supuesto más generalmente como un concepto central en el consideración de sistemas lineales de ecuaciones.

    Ejemplo 16.2.8 La inversa de una matriz\ times 2\)

    Consideramos aquí el caso de una\(2 \times 2\) matriz\(A\) que escribimos como\[A=\left(\begin{array}{ll} a & b \\ c & d \end{array}\right) \text {. }\] Si las columnas van a ser independientes debemos tener\(a / b \neq c / d\) o\((a d) /(b c) \neq 1\) o\(a d-b c \neq 0\) que de hecho es la condición de que el determinante de \(A\)es distinto de cero. El inverso de\(A\) es entonces dado por\[A^{-1}=\frac{1}{a d-b c}\left(\begin{array}{rr} d & -b \\ -c & a \end{array}\right) .\] Note que esta inversa sólo se define si\(a d-b c \neq 0\), y así vemos la necesidad que\(A\) es no singular. Es una cuestión sencilla de mostrar por multiplicación matricial explícita que\(A^{-1} A=A A^{-1}=I\), según se desee.


    This page titled 16.2: Operaciones matriciales is shared under a CC BY-NC-SA 4.0 license and was authored, remixed, and/or curated by Masayuki Yano, James Douglass Penn, George Konidaris, & Anthony T Patera (MIT OpenCourseWare) via source content that was edited to the style and standards of the LibreTexts platform; a detailed edit history is available upon request.