Saltar al contenido principal
LibreTexts Español

1.3: Notación general, transpone e invierte

  • Page ID
    119113
  • \( \newcommand{\vecs}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} } \)

    \( \newcommand{\vecd}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash {#1}}} \)

    \( \newcommand{\id}{\mathrm{id}}\) \( \newcommand{\Span}{\mathrm{span}}\)

    ( \newcommand{\kernel}{\mathrm{null}\,}\) \( \newcommand{\range}{\mathrm{range}\,}\)

    \( \newcommand{\RealPart}{\mathrm{Re}}\) \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\)

    \( \newcommand{\Argument}{\mathrm{Arg}}\) \( \newcommand{\norm}[1]{\| #1 \|}\)

    \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\)

    \( \newcommand{\Span}{\mathrm{span}}\)

    \( \newcommand{\id}{\mathrm{id}}\)

    \( \newcommand{\Span}{\mathrm{span}}\)

    \( \newcommand{\kernel}{\mathrm{null}\,}\)

    \( \newcommand{\range}{\mathrm{range}\,}\)

    \( \newcommand{\RealPart}{\mathrm{Re}}\)

    \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\)

    \( \newcommand{\Argument}{\mathrm{Arg}}\)

    \( \newcommand{\norm}[1]{\| #1 \|}\)

    \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\)

    \( \newcommand{\Span}{\mathrm{span}}\) \( \newcommand{\AA}{\unicode[.8,0]{x212B}}\)

    \( \newcommand{\vectorA}[1]{\vec{#1}}      % arrow\)

    \( \newcommand{\vectorAt}[1]{\vec{\text{#1}}}      % arrow\)

    \( \newcommand{\vectorB}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} } \)

    \( \newcommand{\vectorC}[1]{\textbf{#1}} \)

    \( \newcommand{\vectorD}[1]{\overrightarrow{#1}} \)

    \( \newcommand{\vectorDt}[1]{\overrightarrow{\text{#1}}} \)

    \( \newcommand{\vectE}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash{\mathbf {#1}}}} \)

    \( \newcommand{\vecs}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} } \)

    \( \newcommand{\vecd}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash {#1}}} \)

    \(\newcommand{\avec}{\mathbf a}\) \(\newcommand{\bvec}{\mathbf b}\) \(\newcommand{\cvec}{\mathbf c}\) \(\newcommand{\dvec}{\mathbf d}\) \(\newcommand{\dtil}{\widetilde{\mathbf d}}\) \(\newcommand{\evec}{\mathbf e}\) \(\newcommand{\fvec}{\mathbf f}\) \(\newcommand{\nvec}{\mathbf n}\) \(\newcommand{\pvec}{\mathbf p}\) \(\newcommand{\qvec}{\mathbf q}\) \(\newcommand{\svec}{\mathbf s}\) \(\newcommand{\tvec}{\mathbf t}\) \(\newcommand{\uvec}{\mathbf u}\) \(\newcommand{\vvec}{\mathbf v}\) \(\newcommand{\wvec}{\mathbf w}\) \(\newcommand{\xvec}{\mathbf x}\) \(\newcommand{\yvec}{\mathbf y}\) \(\newcommand{\zvec}{\mathbf z}\) \(\newcommand{\rvec}{\mathbf r}\) \(\newcommand{\mvec}{\mathbf m}\) \(\newcommand{\zerovec}{\mathbf 0}\) \(\newcommand{\onevec}{\mathbf 1}\) \(\newcommand{\real}{\mathbb R}\) \(\newcommand{\twovec}[2]{\left[\begin{array}{r}#1 \\ #2 \end{array}\right]}\) \(\newcommand{\ctwovec}[2]{\left[\begin{array}{c}#1 \\ #2 \end{array}\right]}\) \(\newcommand{\threevec}[3]{\left[\begin{array}{r}#1 \\ #2 \\ #3 \end{array}\right]}\) \(\newcommand{\cthreevec}[3]{\left[\begin{array}{c}#1 \\ #2 \\ #3 \end{array}\right]}\) \(\newcommand{\fourvec}[4]{\left[\begin{array}{r}#1 \\ #2 \\ #3 \\ #4 \end{array}\right]}\) \(\newcommand{\cfourvec}[4]{\left[\begin{array}{c}#1 \\ #2 \\ #3 \\ #4 \end{array}\right]}\) \(\newcommand{\fivevec}[5]{\left[\begin{array}{r}#1 \\ #2 \\ #3 \\ #4 \\ #5 \\ \end{array}\right]}\) \(\newcommand{\cfivevec}[5]{\left[\begin{array}{c}#1 \\ #2 \\ #3 \\ #4 \\ #5 \\ \end{array}\right]}\) \(\newcommand{\mattwo}[4]{\left[\begin{array}{rr}#1 \amp #2 \\ #3 \amp #4 \\ \end{array}\right]}\) \(\newcommand{\laspan}[1]{\text{Span}\{#1\}}\) \(\newcommand{\bcal}{\cal B}\) \(\newcommand{\ccal}{\cal C}\) \(\newcommand{\scal}{\cal S}\) \(\newcommand{\wcal}{\cal W}\) \(\newcommand{\ecal}{\cal E}\) \(\newcommand{\coords}[2]{\left\{#1\right\}_{#2}}\) \(\newcommand{\gray}[1]{\color{gray}{#1}}\) \(\newcommand{\lgray}[1]{\color{lightgray}{#1}}\) \(\newcommand{\rank}{\operatorname{rank}}\) \(\newcommand{\row}{\text{Row}}\) \(\newcommand{\col}{\text{Col}}\) \(\renewcommand{\row}{\text{Row}}\) \(\newcommand{\nul}{\text{Nul}}\) \(\newcommand{\var}{\text{Var}}\) \(\newcommand{\corr}{\text{corr}}\) \(\newcommand{\len}[1]{\left|#1\right|}\) \(\newcommand{\bbar}{\overline{\bvec}}\) \(\newcommand{\bhat}{\widehat{\bvec}}\) \(\newcommand{\bperp}{\bvec^\perp}\) \(\newcommand{\xhat}{\widehat{\xvec}}\) \(\newcommand{\vhat}{\widehat{\vvec}}\) \(\newcommand{\uhat}{\widehat{\uvec}}\) \(\newcommand{\what}{\widehat{\wvec}}\) \(\newcommand{\Sighat}{\widehat{\Sigma}}\) \(\newcommand{\lt}{<}\) \(\newcommand{\gt}{>}\) \(\newcommand{\amp}{&}\) \(\definecolor{fillinmathshade}{gray}{0.9}\)

    Una notación útil para escribir una\(n\) matriz general\(m\) -by-\(\text{A}\) es

    \[\text{A}=\left(\begin{array}{cccc}a_{11}&a_{12}&\cdots&a_{1n} \\ a_{21}&a_{22}&\cdots&a_{2n} \\ \vdots&\vdots&\ddots&\vdots \\ a_{m1}&a_{m2}&\cdots&a_{mn}\end{array}\right).\label{eq:1} \]

    Aquí, el elemento matriz de\(\text{A}\) en la fila\(i\) th y la\(j\) ésima columna se denota como\(a_{ij}\).

    La multiplicación matricial se puede escribir en términos de los elementos de la matriz. Dejar\(\text{A}\) ser una\(n\) matriz\(m\) -by- y dejar\(\text{B}\) ser una\(p\) matriz\(n\) -by-. Entonces\(\text{C} = \text{AB}\) es una\(p\) matriz\(m\) -by-, y su\(ij\) elemento puede escribirse como

    \[c_{ij}=\sum\limits_{k=1}^na_{ik}b_{kj}.\label{eq:2} \]

    Observe que el segundo índice de\(a\) y el primer índice de\(b\) se suman.

    Podemos definir la transposición de la matriz\(\text{A}\), denotada por\(\text{A}^{\text{T}}\) y hablada como A-transposición, como la matriz para la que las filas se convierten en las columnas y las columnas se convierten en las filas. Aquí, usando\(\eqref{eq:1}\),

    \[\text{A}^{\text{T}}=\left(\begin{array}{cccc}a_{11}&a_{21}&\cdots&a_{m1}\\a_{12}&a_{22}&\cdots&a_{m2} \\ \vdots&\vdots&\ddots&\vdots \\ a_{1n}&a_{2n}&\cdots&a_{mn}\end{array}\right),\nonumber \]

    donde podríamos escribir

    \[a_{ij}^{\text{T}}=a_{ji}.\nonumber \]

    Evidentemente, si\(\text{A}\) es\(m\) -por-\(n\) entonces\(\text{A}^{\text{T}}\) es\(n\) -por-\(m\). Como ejemplo sencillo, vea el siguiente par:

    \[\text{A}=\left(\begin{array}{cc}a&d\\b&e\\c&f\end{array}\right),\text{A}^{\text{T}}=\left(\begin{array}{ccc}a&b&c\\d&e&f\end{array}\right).\label{eq:3} \]

    Si\(\text{A}\) es una matriz cuadrada, y\(\text{A}^{\text{T}} = \text{A}\), entonces decimos que\(\text{A}\) es simétrica. Por ejemplo la\(3\) matriz\(3\) -by-

    \[\text{A}=\left(\begin{array}{ccc}a&b&c\\b&d&e\\c&e&f\end{array}\right)\nonumber \]

    es simétrico. Una matriz que satisface\(\text{A}^{\text{T}} = −\text{A}\) se llama sesgo simétrico. Por ejemplo,

    \[\text{A}=\left(\begin{array}{ccc}0&b&c\\-b&0&e\\-c&-e&0\end{array}\right)\nonumber \]

    es simétrico sesgado. Observe que los elementos diagonales deben ser cero. Un hecho a veces útil es que cada matriz puede escribirse como la suma de una matriz simétrica y una matriz simétrica oblicua usando

    \[\text{A}=\frac{1}{2}(\text{A}+\text{A}^{\text{T}})+\frac{1}{2}(\text{A}-\text{A}^{\text{T}}).\nonumber \]

    Esto es como el hecho de que cada función puede escribirse como la suma de una función par y otra impar.

    ¿Cómo escribimos la transposición del producto de dos matrices? Nuevamente, dejemos\(\text{A}\) ser una\(n\) matriz\(m\) -by-,\(\text{B}\) ser una\(p\) matriz\(n\) -by-, y\(\text{C} = \text{AB}\). Tenemos

    \[c_{ij}^{\text{T}}=c_{ji}=\sum\limits_{k=1}^na_{jk}b_{ki}=\sum\limits_{k=1}^nb_{ik}^{\text{T}}a_{kj}^{\text{T}}.\nonumber \]

    Con\(\text{C}^{\text{T}}=(\text{AB})^{\text{T}}\), tenemos

    \[(\text{AB})^{\text{T}}=\text{B}^{\text{T}}\text{A}^{\text{T}}.\nonumber \]

    En palabras, la transposición del producto de matrices es igual al producto de los transpones con el orden de multiplicación invertido.

    La transposición de un vector de columna es un vector de fila. El producto interno (o producto punto) entre dos vectores se obtiene por el producto de un vector de fila y un vector de columna. Con vectores de columna

    \[\text{u}=\left(\begin{array}{c}u_1\\u_2\\u_3\end{array}\right),\quad\text{v}=\left(\begin{array}{c}v_1\\v_2\\v_3\end{array}\right),\nonumber \]

    el producto interno entre estos dos vectores se convierte

    \[\text{u}^{\text{T}}\text{v}=\left(\begin{array}{ccc}u_1&u_2&u_3\end{array}\right)\left(\begin{array}{c}v_1\\v_2\\v_3\end{array}\right)=u_1v_1+u_2v_2+u_3v_3.\nonumber \]

    La norma-cuadrada de un vector se convierte en

    \[\text{u}^{\text{T}}\text{u}=\left(\begin{array}{ccc}u_1&u_2&u_3\end{array}\right)\left(\begin{array}{c}u_1\\u_2\\u_3\end{array}\right)=u_1^2+u_2^2+u_3^2.\nonumber \]

    Decimos que dos vectores de columna son ortogonales si su producto interno es cero. Decimos que un vector de columna se normaliza si tiene una norma de uno. Se dice que un conjunto de vectores de columna que están normalizados y mutuamente ortogonales son ortonormales.

    Cuando los vectores son complejos, el producto interno necesita definirse de manera diferente. En lugar de una transposición de una matriz, se define la transposición conjugada como la transposición junto con tomar el conjugado complejo de cada elemento de la matriz. El símbolo utilizado es el de una daga, de manera que

    \[\text{u}^\dagger =\left(\begin{array}{ccc}\overline{u}_1&\overline{u}_2&\overline{u}_3\end{array}\right).\nonumber \]

    Entonces

    \[\text{u}^\dagger \text{u}=\left(\begin{array}{ccc}\overline{u}_1&\overline{u}_2&\overline{u}_3\end{array}\right)\left(\begin{array}{c}u_1\\u_2\\u_3\end{array}\right)=|u_1|^2+|u_2|^2+|u_3|^2.\nonumber \]

    Cuando una matriz real es igual a su transposición decimos que la matriz es simétrica. Cuando una matriz compleja es igual a su transposición conjugada, decimos que la matriz es hermitiana. Las matrices hermitianas juegan un papel fundamental en la física cuántica.

    También se define un producto exterior, y se utiliza en algunas aplicaciones. El producto exterior entre\(\text{u}\) y\(\text{v}\) está dado por

    \[\text{uv}^{\text{T}}=\left(\begin{array}{c}u_1\\u_2\\u_3\end{array}\right)\left(\begin{array}{ccc}\overline{u}_1&\overline{u}_2&\overline{u}_3\end{array}\right)=\left(\begin{array}{ccc}u_1v_1&u_1v_2&u_1v_3 \\ u_2v_1&u_2v_2&u_2v_3\\u_3v_1&u_3v_2&u_3v_3\end{array}\right).\nonumber \]

    Observe que cada columna es un múltiplo del vector único\(\text{u}\), y cada fila es un múltiplo del vector único\(\text{v}^{\text{T}}\).

    La operación de transposición también se puede utilizar para hacer matrices cuadradas. Si\(\text{A}\) es una\(n\) matriz\(m\) -by-, entonces\(\text{A}^{\text{T}}\) es\(n\) -by-\(m\) y\(\text{A}^{\text{T}}\text{A}\) es una\(n\) matriz\(n\) -by-. Por ejemplo, usando\(\eqref{eq:3}\), nosotros

    \[\text{A}^{\text{T}}\text{A}=\left(\begin{array}{cc}a^2+b^2+c^2&ad+be+cf \\ ad+be+cf&d^2+e^2+f^2\end{array}\right)\nonumber \]

    Observe que\(\text{A}^{\text{T}}\text{A}\) es simétrico porque

    \[(\text{A}^{\text{T}}\text{A})^{\text{T}}=\text{A}^{\text{T}}\text{A}.\nonumber \]

    La traza de una matriz cuadrada\(\text{A}\), denotada como\(\text{Tr A}\), es la suma de los elementos diagonales de\(\text{A}\). Entonces, si\(\text{A}\) es una\(n\) matriz\(n\) -by-, entonces

    \[\text{Tr A}=\sum\limits_{i=1}^na_{ii}.\nonumber \]

    Ejemplo\(\PageIndex{1}\)

    Dejar\(\text{A}\) ser una\(n\) matriz\(m\) -by-. Demostrar que\(\text{Tr}(\text{A}^{\text{T}}\text{A})\) es la suma de los cuadrados de todos los elementos de\(\text{A}\).

    Solución

    Tenga en cuenta que\(\text{A}^{\text{T}}\text{A}\) es una\(n\) matriz\(n\) -by-. Tenemos

    \[\begin{aligned}\text{Tr}(\text{A}^{\text{T}}\text{A})&=\sum\limits_{i=1}^n(\text{A}^{\text{T}}\text{A})_{ii} \\ &=\sum\limits_{i=1}^n\sum\limits_{j=1}^ma_{ij}^{\text{T}}a_{ji} \\ &=\sum\limits_{i=1}^n\sum\limits_{j=1}^ma_{ji}a_{ji} \\ &=\sum\limits_{i=1}^m\sum\limits_{j=1}^na_{ij}^2.\end{aligned} \nonumber \]

    Las matrices cuadradas también pueden tener inversas. Posteriormente, veremos que para que una matriz tenga una inversa su determinante, que definiremos en general, debe ser distinto de cero. Aquí, si una\(n\) matriz\(n\) -by-\(\text{A}\) tiene una inversa, denotada como\(\text{A}^{−1}\), entonces

    \[\text{AA}^{-1}=\text{A}^{-1}\text{A}=\text{I}.\nonumber \]

    Si tanto las\(n\) matrices\(n\)\(\text{A}\) -by- como\(\text{B}\) tienen inversas entonces podemos preguntarnos ¿cuál es la inversa del producto de estas dos matrices? Observe que a partir de la definición de un inverso,

    \[(\text{AB})^{-1}(\text{AB})=\text{I}.\nonumber \]

    Primero podemos múltiples a la derecha por\(\text{B}^{−1}\), y luego por\(\text{A}^{−1}\), para obtener

    \[(\text{AB})^{-1}=\text{B}^{-1}\text{A}^{-1}.\nonumber \]

    Nuevamente en palabras, la inversa del producto de matrices es igual al producto de las inversas con el orden de multiplicación invertido. Tenga cuidado aquí: esta regla se aplica sólo si ambas matrices en el producto son invertibles.

    Ejemplo\(\PageIndex{2}\)

    Supongamos que\(\text{A}\) es una matriz invertible. \((\text{A}^{−1})^{\text{T}} = (\text{A}^{\text{T}})^{−1}\)Demuéstralo. En palabras: la transposición de la matriz inversa es la inversa de la matriz de transposición.

    Solución

    Sabemos que

    \[\text{AA}^{−1} = \text{I}\quad\text{ and }\quad\text{A}^{−1}\text{A} = \text{I}.\nonumber \]

    Tomando la transposición de estas ecuaciones, y usando\((\text{AB})^{\text{T}} = \text{B}^{\text{T}}\text{A}^{\text{T}}\) y\(\text{I}^{\text{T}} = \text{I}\), obtenemos

    \[(\text{A}^{-1})^{\text{T}}\text{A}^{\text{T}}=\text{I}\quad\text{ and }\quad\text{A}^{\text{T}}(\text{A}^{-1})^{\text{T}}=\text{I}.\nonumber \]

    Por lo tanto, podemos concluir eso\((\text{A}^{-1})^{\text{T}}=(\text{A}^{\text{T}})^{-1}\).

    Es iluminador para derivar la inversa de una matriz de dos por dos. Para encontrar el inverso de\(\text{A}\) dado por

    \[\text{A}=\left(\begin{array}{cc}a&b\\c&d\end{array}\right),\nonumber \]

    el enfoque más directo sería escribir

    \[\left(\begin{array}{cc}a&b\\c&d\end{array}\right)\left(\begin{array}{cc}x_1&x_2\\y_1&y_2\end{array}\right)=\left(\begin{array}{cc}1&0\\0&1\end{array}\right)\nonumber \]

    y resolver para\(x_1,\: x_2,\: y_1,\) y\(y_2\). Hay dos ecuaciones no homogéneas y dos homogéneas dadas por

    \[\begin{array}{ll}ax_1+by_1=1,&cx_1+dy_1=0, \\ cx_2+dy_2=1,&ax_2+by_2=0.\end{array}\nonumber \]

    Para resolver, podemos eliminar\(y_1\) y\(y_2\) usar las dos ecuaciones homogéneas, y luego resolver para\(x_1\) y\(x_2\) usando las dos ecuaciones no homogéneas. Finalmente, utilizamos las dos ecuaciones homogéneas para resolver para\(y_1\) y\(y_2\). La solución para\(\text{A}^{−1}\) se encuentra que es

    \[\text{A}^{-1}=\frac{1}{ad-bc}\left(\begin{array}{rr}d&-b\\-c&a\end{array}\right).\label{eq:4} \]

    El factor frente a la matriz es la definición del determinante para nuestra matriz de dos por dos\(\text{A}\):

    \[\det\text{ A}=\left|\begin{array}{cc}a&b\\c&d\end{array}\right|=ad-bc.\nonumber \]

    El determinante de una matriz de dos por dos es el producto de las diagonales menos el producto de las diagonales fuera. Evidentemente,\(\text{A}\) es invertible sólo si\(\det\text{ A}\neq 0\). Observe que la inversa de una matriz de dos por dos, en palabras, se encuentra cambiando los elementos diagonales de la matriz, negando los elementos fuera de la diagonal, y dividiendo por el determinante. Puede ser útil en un curso de álgebra lineal recordar esta fórmula.


    This page titled 1.3: Notación general, transpone e invierte is shared under a CC BY 3.0 license and was authored, remixed, and/or curated by Jeffrey R. Chasnov via source content that was edited to the style and standards of the LibreTexts platform.