Saltar al contenido principal
LibreTexts Español

13.2: Matrices

  • Page ID
    84113
    • Franz S. Hover & Michael S. Triantafyllou
    • Massachusetts Institute of Technology via MIT OpenCourseWare
    \( \newcommand{\vecs}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} } \) \( \newcommand{\vecd}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash {#1}}} \)\(\newcommand{\id}{\mathrm{id}}\) \( \newcommand{\Span}{\mathrm{span}}\) \( \newcommand{\kernel}{\mathrm{null}\,}\) \( \newcommand{\range}{\mathrm{range}\,}\) \( \newcommand{\RealPart}{\mathrm{Re}}\) \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\) \( \newcommand{\Argument}{\mathrm{Arg}}\) \( \newcommand{\norm}[1]{\| #1 \|}\) \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\) \( \newcommand{\Span}{\mathrm{span}}\) \(\newcommand{\id}{\mathrm{id}}\) \( \newcommand{\Span}{\mathrm{span}}\) \( \newcommand{\kernel}{\mathrm{null}\,}\) \( \newcommand{\range}{\mathrm{range}\,}\) \( \newcommand{\RealPart}{\mathrm{Re}}\) \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\) \( \newcommand{\Argument}{\mathrm{Arg}}\) \( \newcommand{\norm}[1]{\| #1 \|}\) \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\) \( \newcommand{\Span}{\mathrm{span}}\)\(\newcommand{\AA}{\unicode[.8,0]{x212B}}\)

    Definición

    Una matriz, o matriz, es equivalente a un conjunto de vectores de columna de la misma dimensión, dispuestos uno al lado del otro, digamos

    \[ A \, = \, [\vec{a} \,\, \vec{b}] \, = \, \begin{bmatrix} 2 & 3\\[4pt] 1 & 3\\[4pt] 7 & 2 \end{bmatrix}. \]

    Esta matriz tiene tres filas (\(m\)= 3) y dos columnas (\(n\)= 2); un vector es un caso especial de una matriz con una columna. Las matrices, al igual que los vectores, permiten la adición y la multiplicación escalar. Por lo general, usamos un símbolo en minúsculas para denotar una matriz.

    Multiplicar un Vector por una Matriz

    Si\(A_{ij}\) denota el elemento de matriz\(A\) en la\(i\) 'ésima fila y la\(j\) 'ésima columna, entonces la multiplicación\(\vec{c} = A \vec{v}\) se construye como:

    \[ c_i \, = \, A_{i1} v_1 + A_{i2} v_2 + \cdots + A_{in} v_n \, = \, \sum_{j=1}^{n} A_{ij} v_j, \]

    donde\(n\) está el número de columnas en\(A\). \(\vec{c}\)tendrá tantas filas como\(A\) filas (\(m\)). Tenga en cuenta que esta multiplicación se define sólo si\(\vec{v}\) tiene tantas filas como\(A\) columnas; tienen una dimensión interna consistente\(n\). El producto\(\vec{v}A\) estaría bien planteado solo si\(A\) tuviera una fila, y el número adecuado de columnas. Hay otra interpretación importante de esta multiplicación vectorial — deja que el subíndice: indique todas las filas, de manera que cada una\(A_{:j}\) sea el\(j\) 'ésimo vector de columna. Entonces

    \[ \vec{c} \, = \, A \vec{v} \, = \, A_{:1} v_1 + A_{:2} v_2 + \cdots + A_{:n} v_n. \]

    Estamos multiplicando vectores de columna de\(A\) por los elementos escalares de\(\vec{v}\).

    Multiplicar una Matriz por una Matriz

    La multiplicación\(C = AB\) es equivalente a una disposición lado a lado de vectores de columna\(C_{:j} = AB_{:j}\), de modo que

    \[ C \, = \, AB \, = \begin{bmatrix} AB_{:1} & AB_{:2} & \cdots & AB_{:k} \end{bmatrix}, \]

    donde\(k\) es el número de columnas en la matriz\(B\). La misma condición de dimensión interna se aplica como se señaló anteriormente: el número de columnas en\(A\) debe ser igual al número de filas en\(B\). La multiplicación matricial es:

    1. Asociativo. \((AB) C = A (BC). \)
    2. Distributivo. \(A(B+C) = AB + AC, \, (B+C)A = BA + CA. \)
    3. NO conmutativo. \(AB \neq BA\), salvo en casos especiales.

    Matrices Comunes

    Identidad. La matriz de identidad generalmente se denota\(I\), y comprende una matriz cuadrada con unos en la diagonal, y ceros en otra parte, p.

    \[ I_{3 \times 3} \, = \, \begin{bmatrix} 1 & 0 & 0 \\[4pt] 0 & 1 & 0 \\[4pt] 0 & 0 & 1 \end{bmatrix}. \]

    La identidad siempre satisface\(AI_{n \times n} \, = \, I_{m \times m}A \, = \, A.\)

    Matrices diagonales. Una matriz diagonal es cuadrada, y tiene todos los ceros fuera de la diagonal. Por ejemplo, la siguiente es una matriz diagonal:

    \[ A \, = \, \begin{bmatrix} 4 & 0 & 0 \\[4pt] 0 & -2 & 0 \\[4pt] 0 & 0 & 3 \end{bmatrix}. \]

    El producto de una matriz diagonal con otra matriz diagonal es diagonal, y en este caso la operación es conmutativa.

    Transpone

    La transposición de un vector o matriz, indicada por un\(T\) superíndice, resulta de simplemente intercambiar los índices fila-columna de cada entrada; equivale a “voltear” el vector o matriz alrededor de la línea diagonal. Por ejemplo,

    \[ \vec{a} \, = \, \begin{Bmatrix} 1 \\[4pt] 2 \\[4pt] 3 \end{Bmatrix} \longrightarrow \vec{a}^T \, = \, \begin{Bmatrix} 1 & 2 & 3 \end{Bmatrix} \]

    \[ A \, = \, \begin{bmatrix} 1 & 2 \\[4pt] 4 & 5 \\[4pt] 8 & 9 \end{bmatrix} \longrightarrow A^T \, = \, \begin{bmatrix} 1 & 4 & 8 \\[4pt] 2 & 5 & 9 \end{bmatrix}. \]

    Una propiedad muy útil de la transpuesta es\[ (AB)^T \, = \, B^T A^T. \]

    Determinante

    El determinante de una matriz cuadrada\(A\) es un escalar igual al volumen del paralelepípedo encerrado por los vectores constituyentes. El caso bidimensional es particularmente fácil de recordar, e ilustra el principio de volumen:

    \[ det(A) \, = \, A_{11} A{22} - A_{21} A_{12} \]

    Ejemplo\(\PageIndex{8}.1\)

    \[ det \left( \begin{bmatrix} 1 & -1 \\[4pt] 1 & 1 \end{bmatrix} \right) \, = \, 1 + 1 \, = \, 2. \nonumber \]

    Gráfico del paralelepípedo formado por los vectores <-1, 1y <1, 1>.” src=”/@api /deki/Archivos/40902/screenshot_ (103) .png">
    Figura\(\PageIndex{1}\): el paralelepípedo bidimensional formado por los vectores dados anteriormente:\(\langle 1, 1 \rangle\) y\(\langle 1, -1 \rangle\).

    En dimensiones superiores, el determinante es más complicado de calcular. La fórmula general permite elegir una fila\(k\), tal vez la que contiene más ceros, y aplicar\[ det(A) \, = \, \sum_{j=1}^{j=n} A_{kj} (-1)^{k+j} \Delta_{kj}, \]

    donde\(\Delta_{kj}\) es el determinante de la submatriz formada al descuidar la\(k\) 'ésima fila y la\(j\) 'ésima columna. La fórmula es simétrica, en el sentido de que también se podría apuntar a la\(k\) 'ésima columna:\[ det(A) \, = \, \sum_{j=1}^{j=n} A_{jk} (-1)^{k+j} \Delta_{jk}.\]

    Si el determinante de una matriz es cero, entonces se dice que la matriz es singular —no hay volumen, y esto resulta del hecho de que los vectores constituyentes no abarcan la dimensión de la matriz. Por ejemplo, en dos dimensiones, una matriz singular tiene los vectores colineales; en tres dimensiones, una matriz singular tiene todos sus vectores dispuestos en un plano (bidimensional). Tenga en cuenta también eso\(det(A) = det(A^T)\). Si\(det(A) \neq 0,\) entonces se dice que la matriz es no singular.

    Inversa

    La inversa de una matriz cuadrada\(A\), denotada\(A^{-1}\), satisface\(AA^{-1} = A^{-1}A = I.\) Su cálculo requiere el determinante anterior, y la siguiente definición de la matriz\(n \times n\) contigua:

    \[ adj(A) \, = \, \begin{bmatrix} (-1)^{1+1} \Delta_{11} & \cdots & (-1)^{1+n} \Delta_{1n} \\[4pt] \cdots & \cdots & \cdots \\[4pt] (-1)^{n+1} \Delta_{n1} & \cdots & (-1)^{n+n} \Delta_{nn} \end{bmatrix} ^T . \]

    Una vez realizado este cálculo, el inverso se desprende de\[ A^(-1) \, = \, \frac{adj(A)}{det(A)}. \]

    Si\(A\) es singular, es decir\(det(A) = 0\), entonces la inversa no existe. La inversa encuentra aplicación común en la resolución de sistemas de ecuaciones lineales como\[ A \vec{x} = \vec{b} \longrightarrow \vec{x} = A^{-1} \vec{b}. \]

    Valores propios y vectores propios

    Un problema típico de valor propio se establece como\[A \vec{x} = \lambda \vec{x}, \]

    donde\(A\) es una\(n \times n\) matriz,\(\vec{x}\) es un vector de columna con\(n\) elementos, y\(\lambda\) es un escalar. Pedimos qué vectores distintos de cero\(\vec{x}\) (vectores propios derechos) y escalares\(\lambda\) (valores propios) serán satisfechos con la ecuación. Dado que lo anterior equivale a\((A - \lambda I) \vec{x} = \vec{0}\), es claro que\(det (A - \lambda I) = 0.\) Esta observación lleva a las soluciones para\(\lambda\); aquí hay un ejemplo para el caso bidimensional:

    Ejemplo\(\PageIndex{8}.1\)

    \ begin {align*} A\, &=\,\ begin {bmatrix} 4 & -5\\ [4pt] 2 & -3\ end {bmatrix}\ longrightarrow\\ [4pt] [4 pt] A -\ lambda I\, &=\,\ begin {bmatrix} 4-\ lambda & -5\ [4pt] 2 y -3 -\ lambda\ end {bmatrix}\ largoderrow\\ [4pt] [4 pt] det (A -\ lambda I)\, &=\, (4 -\ lambda) (-3 -\ lambda) + 10\\ [4pt] &=\,\ lambda^2 -\ lambda - 2\\ [4pt] &=\, (\ lambda + 1) (\ lambda - 2). \ end {alinear*}

    Así,\(A\) tiene dos valores propios,\(\lambda_1 = -1\) y\(\lambda_2 = 2\). Cada uno está asociado con un vector propio derecho\(\vec{x}.\) En este ejemplo,

    \ begin {align*} (A -\ lambda_1 I)\ vec {x} _1\, &=\,\ vec {0}\ longrightarrow\\ [4pt] [4 pt]\ begin {bmatrix} 5 & -5\\ [4pt] 2 & -2\ end {bmatrix}\ vec {x} _1\, &=\,\ vec {0}\ largofila derecha\\ [4pt]\ vec {x} _1\, &=\,\ begin {Bmatrix}\ sqrt {2} /2,\,\,\ sqrt {2} /2\ end {Bmatrix} ^T\\ [4pt]\ cuádruple \\ [4pt] (A -\ lambda_2 I)\ vec {x} _2\, &=\,\ vec {0}\ longrightarrow\\ [4pt] [4 pt]\ begin {bmatrix} 2 & -5\\ [4pt] 2 & -5\ end {bmatrix}\ vec {x} _2\, &=\,\ vec {0}\ rightarrow\\ [4pt]\ vec {x} _2\, &=\,\ begin {Bmatrix} 5\ sqrt {29}/29,\,\, 2\ sqrt {29}/29\ end {Bmatrix} ^T.\ end {align*}

    Los vectores propios se definen solo dentro de una constante arbitraria, es decir, si\(\vec{x}\) es un vector propio entonces también\(c \vec{x}\) es un vector propio para cualquiera\(c \neq 0\). A menudo se normalizan para tener magnitud de unidad, y primer elemento positivo (como arriba). La condición que\(rank(A - \lambda_i I) =\)\(rank(A) - 1\) indica que solo hay un vector propio para el autovalor\(\lambda_i\); más precisamente, una dirección única para el autovector, ya que la magnitud puede ser arbitraria. Si el rango del lado izquierdo es menor que esto, entonces hay múltiples vectores propios que van con\(\lambda_i\).

    La discusión anterior relaciona solo los vectores propios correctos, generados a partir de la ecuación\(A \vec{x} = \lambda \vec{x}\). Los valores propios izquierdos, definidos como\(\vec{y}^T A = \lambda \vec{y}^T\), también son útiles para muchos problemas, y pueden definirse simplemente como los vectores propios derechos de\(A^T\). \(A\)y\(A^T\) comparten los mismos valores propios\(\lambda\), ya que comparten el mismo determinante. Ejemplo:

    Ejemplo\(\PageIndex{8}.2\)

    \ begin {align*} (A^T -\ lambda_1 I)\ vec {y} _1\, &=\,\ vec {0}\ largoderrow\\ [4pt] [4 pt]\ begin {bmatrix}\,\, 5 &\,\, 2\ [4pt] -5 y -2\ end {bmatrix}\ vec {y} _1\, &=\,\ vec {0}\ largofila derecha\\ [4pt]\ vec {y} _1\, &=\,\ begin {Bmatrix} 2\ sqrt {29}/29,\,\,\, -5\ sqrt {29}/29\ end { Bmatrix} ^T\\ [4pt]\ quad\\ [4pt] (A^T -\ lambda_2 I)\ vec {y} _1\, &=\,\ vec {0}\ largoderrow\\ [4pt] [4 pt] [4 pt]\ begin {bmatrix}\,\, 2 &\,\, 2\\ [4pt] -5 & -5\ final bmatrix}\ vec {y} _2\, &=\,\ vec {0}\ largoderrow\\ [4pt]\ vec {y} _2\, &=\,\ begin {Bmatrix}\ sqrt {2}/2,\,\, -\ sqrt {2}/2\ end {Bmatrix} ^T.\ end {align*}

    Descomposición modal

    Por simplicidad, consideramos matrices que tienen vectores propios únicos para cada valor propio. Los autovectores derecho e izquierdo correspondientes a un valor propio particular\(\lambda\) pueden definirse para que tengan producto de punto de unidad, es decir\(\vec{x}_i^T \vec{y}_i = 1\), con la normalización señalada anteriormente. Los productos de punto de un vector propio izquierdo con los vectores propios derechos correspondientes a diferentes valores propios son cero. Por lo tanto, si el conjunto de vectores propios derecho e izquierdo,\(V\) y\(W\), respectivamente, es

    \ begin {align} V\, &=\, [\ vec {x} _1\ cdots\ vec {x} _n],\,\,\ text {y}\\ [4pt] W\, &=\, [\ vec {y} _1\ cdots\ vec {y} _n],\ nonumber\ end {align}

    entonces tenemos\ begin {align} W^T V\, &=\, I,\,\,\ text {o}\\ [4pt] W^T\, &=\, V^ {-1}. \ nonumber\ end {align}

    A continuación, construya una matriz diagonal que contenga los valores propios:

    \[ \Lambda \, = \, \begin{bmatrix} \lambda_1 & 0 \\[4pt] . \\[4pt] 0 & \lambda_n \end{bmatrix}; \]se deduce que

    \ begin {align} A V\, &=\, V\ lambda\ largoderrow\ nonumber\\ [4pt] [4 pt] [4 pt] A\, &=\, V\ lambda W^T\ [4pt] &=\,\ sum_ {i=1} ^n\ lambda_i\ vec {v} _i\ vec {w} _i ^T. er\ end {align}

    De ahí que se\(A\) pueda escribir como una suma de componentes modales. Al llevar a cabo multiplicaciones sucesivas, se puede demostrar que\(A_k\) tiene sus valores propios en\(\lambda_i ^k\), y mantiene los mismos valores propios que\(A\).


    This page titled 13.2: Matrices is shared under a CC BY-NC-SA 4.0 license and was authored, remixed, and/or curated by Franz S. Hover & Michael S. Triantafyllou (MIT OpenCourseWare) via source content that was edited to the style and standards of the LibreTexts platform; a detailed edit history is available upon request.