Saltar al contenido principal
LibreTexts Español

3.1: La Transpone Matrix

  • Page ID
    116299
  • \( \newcommand{\vecs}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} } \) \( \newcommand{\vecd}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash {#1}}} \)\(\newcommand{\id}{\mathrm{id}}\) \( \newcommand{\Span}{\mathrm{span}}\) \( \newcommand{\kernel}{\mathrm{null}\,}\) \( \newcommand{\range}{\mathrm{range}\,}\) \( \newcommand{\RealPart}{\mathrm{Re}}\) \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\) \( \newcommand{\Argument}{\mathrm{Arg}}\) \( \newcommand{\norm}[1]{\| #1 \|}\) \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\) \( \newcommand{\Span}{\mathrm{span}}\) \(\newcommand{\id}{\mathrm{id}}\) \( \newcommand{\Span}{\mathrm{span}}\) \( \newcommand{\kernel}{\mathrm{null}\,}\) \( \newcommand{\range}{\mathrm{range}\,}\) \( \newcommand{\RealPart}{\mathrm{Re}}\) \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\) \( \newcommand{\Argument}{\mathrm{Arg}}\) \( \newcommand{\norm}[1]{\| #1 \|}\) \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\) \( \newcommand{\Span}{\mathrm{span}}\)\(\newcommand{\AA}{\unicode[.8,0]{x212B}}\)

    Objetivos de aprendizaje
    • T/F: Si\(A\) es una\(3\times 5\) matriz, entonces\(A^{T}\) será una\(5\times 3\) matriz.
    • ¿Dónde hay ceros en una matriz triangular superior?
    • T/F: Una matriz es simétrica si no cambia cuando se toma su transposición.
    • ¿Cuál es la transposición de la transposición de\(A\)?
    • Dar otros 2 términos para describir matrices simétricas además de “interesantes”.

    Saltamos directamente con una definición.

    Definición: Transpone

    \(A\)Déjese ser una\(m\times n\) matriz. El tranpsose de\(A\), denotado\(A^{T}\), es la\(n\times m\) matriz cuyas columnas son las respectivas filas de\(A\).

    Los ejemplos dejarán clara esta definición.

    Ejemplo\(\PageIndex{1}\)

    Encuentra la transposición de\(A=\left[\begin{array}{ccc}{1}&{2}&{3}\\{4}&{5}&{6}\end{array}\right].\)

    Solución

    Tenga en cuenta que\(A\) is a \(2\times 3\) matrix, so \(A^{T}\) will be a \(3 \times 2\) matrix. By the definition, the first column of \(A^{T}\) is the first row of \(A\); the second column of \(A^{T}\) is the second row of \(A\). Therefore,

    \[A^{T}=\left[\begin{array}{cc}{1}&{4}\\{2}&{5}\\{3}&{6}\end{array}\right]. \nonumber \]

    Ejemplo\(\PageIndex{2}\)

    Encuentra la transposición de las siguientes matrices.

    \[A=\left[\begin{array}{cccc}{7}&{2}&{9}&{1}\\{2}&{-1}&{3}&{0}\\{-5}&{3}&{0}&{11}\end{array}\right]\quad B=\left[\begin{array}{ccc}{1}&{10}&{-2}\\{3}&{-5}&{7}\\{4}&{2}&{-3}\end{array}\right]\quad C=\left[\begin{array}{ccccc}{1}&{-1}&{7}&{8}&{3}\end{array}\right] \nonumber \]

    Solución

    Encontramos cada transposición usando la definición sin explicación. Tomar nota de las dimensiones de la matriz original y las dimensiones de su transposición.

    \[A^{T}=\left[\begin{array}{ccc}{7}&{2}&{-5}\\{2}&{-1}&{3}\\{9}&{3}&{0}\\{1}&{0}&{11}\end{array}\right]\quad B^{T}=\left[\begin{array}{ccc}{1}&{3}&{4}\\{10}&{-5}&{2}\\{-2}&{7}&{-3}\end{array}\right]\quad C^{T}=\left[\begin{array}{c}{1}\\{-1}\\{7}\\{8}\\{3}\end{array}\right] \nonumber \]

    Observe que con matriz\(B\), cuando tomamos la transposición, la diagonal no cambió. Podemos ver cuál es la diagonal debajo donde reescribimos\(B\) y\(B^{T}\) con la diagonal en negrita. Seguiremos esto con una definición de lo que queremos decir con “la diagonal de una matriz”, junto con algunas otras definiciones relacionadas.

    \[B=\left[\begin{array}{ccc}{\mathbf{1}}&{10}&{-2}\\{3}&{\mathbf{-5}}&{7}\\{4}&{2}&{\mathbf{-3}}\end{array}\right]\quad B^{T}=\left[\begin{array}{ccc}{\mathbf{1}}&{3}&{4}\\{10}&{\mathbf{-5}}&{2}\\{-2}&{7}&{\mathbf{-3}}\end{array}\right] \nonumber \]

    Probablemente esté bastante claro por qué llamamos a esas entradas “la diagonal”. Aquí está la definición formal.

    Definición: La Diagonal, una Matriz Diagonal, Matrices Triangulares

    \(A\)Déjese ser una\(m\times n\) matriz. La diagonal de\(A\) consiste en las entradas\(a_{11},\: a_{22},\cdots\) de\(A\).

    • Una matriz diagonal es una\(n\times n\) matriz en la que las únicas entradas distintas de cero se encuentran en la diagonal.
    • Una matriz triangular superior (inferior) es una matriz en la que cualquier entrada distinta de cero se encuentra sobre o por encima (por debajo) de la diagonal.
    Ejemplo\(\PageIndex{3}\)

    Considere las matrices\(A\),\(B\),\(C\) y\(I_{4}\), así como sus transpone, donde

    \[A=\left[\begin{array}{ccc}{1}&{2}&{3}\\{0}&{4}&{5}\\{0}&{0}&{6}\end{array}\right]\quad B=\left[\begin{array}{ccc}{3}&{0}&{0}\\{0}&{7}&{0}\\{0}&{0}&{-1}\end{array}\right]\quad C=\left[\begin{array}{ccc}{1}&{2}&{3}\\{0}&{4}&{5}\\{0}&{0}&{6}\\{0}&{0}&{0}\end{array}\right]. \nonumber \]

    Identificar la diagonal de cada matriz y establecer si cada matriz es diagonal, triangular superior, triangular inferior o ninguna de las anteriores.

    Solución

    Primero calculamos la transposición de cada matriz.

    \[A^{T}=\left[\begin{array}{ccc}{1}&{0}&{0}\\{2}&{4}&{0}\\{3}&{5}&{6}\end{array}\right]\quad B^{T}=\left[\begin{array}{ccc}{3}&{0}&{0}\\{0}&{7}&{0}\\{0}&{0}&{-1}\end{array}\right]\quad C^{T}=\left[\begin{array}{cccc}{1}&{0}&{0}&{0}\\{2}&{4}&{0}&{0}\\{3}&{5}&{6}&{0}\end{array}\right] \nonumber \]

    Tenga en cuenta que\(I_{4}^{T}=I_{4}\).

    Las diagonales de\(A\) y\(A^{T}\) son las mismas, que consisten en las entradas\(1,\: 4\) y\(6\). Las diagonales de\(B\) y también\(B^{T}\) son las mismas, que consisten en las entradas\(3,\: 7\) y\(-1\). Por último, las diagonales de\(C\) y\(C^{T}\) son las mismas, consistentes en las entradas\(1,\: 4\) y\(6\).

    La matriz\(A\) es triangular superior; las únicas entradas distintas de cero se encuentran sobre o por encima de la diagonal. De igual manera,\(A^{T}\) es triangular inferior.

    La matriz\(B\) es diagonal. Por sus definiciones, también podemos ver que\(B\) es tanto triangular superior como inferior. De igual manera,\(I_{4}\) es diagonal, así como triangular superior e inferior.

    Finalmente,\(C\) es triangular superior,\(C^{T}\) siendo triangular inferior.

    Tomar nota de las definiciones de matrices diagonales y triangulares. Especificamos que una matriz diagonal debe ser cuadrada, pero las matrices triangulares no tienen que serlo. (“La mayoría” de las veces, sin embargo, los que estudiamos son.) También, como mencionamos anteriormente en el ejemplo, por definición una matriz diagonal es también triangular tanto superior como inferior. Finalmente, observe que por definición, la transposición de una matriz triangular superior es una matriz triangular inferior, y viceversa.

    Hay muchas preguntas para sondear sobre las operaciones de transposición. \(^{1}\)El primer conjunto de preguntas que investigaremos involucra la aritmética matricial que aprendimos del último capítulo. Hacemos esta investigación a modo de ejemplos, para luego resumir lo que hemos aprendido al final.

    Ejemplo\(\PageIndex{4}\)

    Let

    \[A=\left[\begin{array}{ccc}{1}&{2}&{3}\\{4}&{5}&{6}\end{array}\right]\quad\text{and}\quad B=\left[\begin{array}{ccc}{1}&{2}&{1}\\{3}&{-1}&{0}\end{array}\right]. \nonumber \]

    Encontrar\(A^{T}+B^{T}\) y\((A+B)^{T}\).

    Solución

    Observamos que

    \[A^{T}=\left[\begin{array}{cc}{1}&{4}\\{2}&{5}\\{3}&{6}\end{array}\right]\quad\text{and}\quad B^{T}=\left[\begin{array}{cc}{1}&{3}\\{2}&{-1}\\{1}&{0}\end{array}\right]. \nonumber \]

    Por lo tanto

    \[\begin{align}\begin{aligned}A^{T}+B^{T}&=\left[\begin{array}{cc}{1}&{4}\\{2}&{5}\\{3}&{6}\end{array}\right]+\left[\begin{array}{cc}{1}&{3}\\{2}&{-1}\\{1}&{0}\end{array}\right] \\ &=\left[\begin{array}{cc}{2}&{7}\\{4}&{4}\\{4}&{6}\end{array}\right].\end{aligned}\end{align} \nonumber \]

    Además,

    \[\begin{align}\begin{aligned}(A+B)^{T}&=\left(\left[\begin{array}{ccc}{1}&{2}&{3}\\{4}&{5}&{6}\end{array}\right]+\left[\begin{array}{ccc}{1}&{2}&{1}\\{3}&{-1}&{0}\end{array}\right]\right)^{T} \\ &=\left(\left[\begin{array}{ccc}{2}&{4}&{4}\\{7}&{4}&{6}\end{array}\right]\right)^{T} \\ &=\left[\begin{array}{cc}{2}&{7}\\{4}&{4}\\{4}&{6}\end{array}\right].\end{aligned}\end{align} \nonumber \]

    Parece que “la suma de los transpones es la transposición de la suma”. \(^{2}\)Esto debería llevarnos a preguntarnos cómo funciona la transposición con la multiplicación.

    Ejemplo\(\PageIndex{5}\)

    Let

    \[A=\left[\begin{array}{cc}{1}&{2}\\{3}&{4}\end{array}\right]\quad\text{and}\quad B=\left[\begin{array}{ccc}{1}&{2}&{-1}\\{1}&{0}&{1}\end{array}\right]. \nonumber \]

    Encontrar\((AB)^{T}\),\(A^{T}B^{T}\) y\(B^{T}A^{T}\).

    Solución

    Primero notamos que

    \[A^{T}=\left[\begin{array}{cc}{1}&{3}\\{2}&{4}\end{array}\right]\quad\text{and}\quad B^{T}=\left[\begin{array}{cc}{1}&{1}\\{2}&{0}\\{-1}&{1}\end{array}\right]. \nonumber \]

    Encuentra\((AB)^{T}\):

    \[\begin{align}\begin{aligned}(AB)^{T}&=\left(\left[\begin{array}{cc}{1}&{2}\\{3}&{4}\end{array}\right]\left[\begin{array}{ccc}{1}&{2}&{-1}\\{1}&{0}&{1}\end{array}\right]\right)^{T} \\ &=\left(\left[\begin{array}{ccc}{3}&{2}&{1}\\{7}&{6}&{1}\end{array}\right]\right)^{T} \\ &=\left[\begin{array}{cc}{3}&{7}\\{2}&{6}\\{1}&{1}\end{array}\right]\end{aligned}\end{align} \nonumber \]

    Ahora encuentra\(A^{T}B^{T}\):

    \[\begin{align}\begin{aligned}A^{T}B^{T}&=\left[\begin{array}{cc}{1}&{3}\\{2}&{4}\end{array}\right]\left[\begin{array}{cc}{1}&{1}\\{2}&{0}\\{-1}&{1}\end{array}\right] \\ &=\text{Not defined!}\end{aligned}\end{align} \nonumber \]

    Así que no podemos computar\(A^{T}B^{T}\). Let’s finish by computing \(B^{T}A^{T}\):

    \[\begin{align}\begin{aligned}B^{T}A^{T}&=\left[\begin{array}{cc}{1}&{1}\\{2}&{0}\\{-1}&{1}\end{array}\right]\left[\begin{array}{cc}{1}&{3}\\{2}&{4}\end{array}\right] \\ &=\left[\begin{array}{cc}{3}&{7}\\{2}&{6}\\{1}&{1}\end{array}\right]\end{aligned}\end{align} \nonumber \]

    Eso puede que lo hayamos sospechado\((AB)^{T}=A^{T}B^{T}\). Vimos que este no era el caso, aunque — y no solo no era igual, ¡ni siquiera se definió el segundo producto! Por extraño que parezca, eso lo vimos\((AB)^{T}=B^{T}A^{T}\). \(^{3}\)Para ayudar a entender por qué esto es cierto, mira hacia atrás en el trabajo anterior y confirma los pasos de cada multiplicación.

    Tenemos una operación aritmética más que mirar: la inversa.

    Ejemplo\(\PageIndex{6}\)

    Let

    \[A=\left[\begin{array}{cc}{2}&{7}\\{1}&{4}\end{array}\right]. \nonumber \]

    Encontrar\((A^{-1})^{T}\) y\((A^{T})^{-1}\).

    Solución

    Primero encontramos\(A^{-1}\) y\(A^{T}\):

    \[A^{-1}=\left[\begin{array}{cc}{4}&{-7}\\{-1}&{2}\end{array}\right]\quad\text{and}\quad A^{T}=\left[\begin{array}{cc}{2}&{1}\\{7}&{4}\end{array}\right]. \nonumber \]

    Encontrar\((A^{-1})^{T}\):

    \[\begin{align}\begin{aligned}(A^{-1})^{T}&=\left[\begin{array}{cc}{4}&{-7}\\{-1}&{2}\end{array}\right]^{T} \\ &=\left[\begin{array}{cc}{4}&{-1}\\{-7}&{2}\end{array}\right]\end{aligned}\end{align} \nonumber \]

    Encontrar\((A^{T})^{-1}\):

    \[\begin{align}\begin{aligned}(A^{T})^{-1}&=\left[\begin{array}{cc}{2}&{1}\\{7}&{4}\end{array}\right]^{-1} \\ &=\left[\begin{array}{cc}{4}&{-1}\\{-7}&{2}\end{array}\right]\end{aligned}\end{align} \nonumber \]

    Parece que “la inversa de la transposición es la transposición de la inversa”. \(^{4}\)

    Acabamos de ver algunos ejemplos de cómo la operación de transposición interactúa con operaciones aritméticas matriciales. \(^{5}\)Ahora damos un teorema que nos dice que lo que vimos no fue una coincidencia, sino que siempre es cierto.

    Teorema\(\PageIndex{1}\): Properties of the Matrix Transpose

    Dejar\(A\) y\(B\) ser matrices donde se definen las siguientes operaciones. Entonces:

    1. \((A+B)^{T}=A^{T}+B^{T}\)y\((A-B)^{T}=A^{T}-B^{T}\)
    2. \((kA)^{T}=kA^{T}\)
    3. \((AB)^{T}=B^{T}A^{T}\)
    4. \((A^{-1})^{T}=(A^{T})^{-1}\)
    5. \((A^{T})^{T}=A\)

    Incluimos en el teorema dos ideas que no discutimos ya. Primero, eso\((kA)^{T}=kA^{T}\). Esto es probablemente obvio. No importa cuando multiplicas una matriz por un escalar cuando se trata de transpones.

    El segundo ítem “nuevo” es ese\((A^{T})^{T}=A\). Es decir, si tomamos la transposición de una matriz, entonces volvemos a tomar su transposición, ¿qué tenemos? La matriz original.

    Ahora que conocemos algunas propiedades de la operación de transposición, nos vemos tentados a jugar con ella y ver qué pasa. Por ejemplo, si\(A\) es una\(m\times n\) matriz, sabemos que\(A^{T}\) es una\(n\times m\) matriz. Entonces no importa con qué matriz\(A\) comencemos, siempre podemos realizar la multiplicación\(AA^{T}\) (y también\(A^{T}A\)) y el resultado es una matriz cuadrada!

    Otra cosa que hay que preguntarnos mientras “jugamos” con la transposición: supongamos que\(A\) es una matriz cuadrada. ¿Hay algo especial sobre\(A+A^{T}\)? El siguiente ejemplo nos hace probar estas ideas.

    Ejemplo\(\PageIndex{7}\)

    Let

    \[A=\left[\begin{array}{ccc}{2}&{1}&{3}\\{2}&{-1}&{1}\\{1}&{0}&{1}\end{array}\right]. \nonumber \]

    Encontrar\(AA^{T}\),\(A+A^{T}\) y\(A-A^{T}\).

    Solución

    Encontrar\(AA^{T}\):

    \[\begin{align}\begin{aligned}AA^{T}&=\left[\begin{array}{ccc}{2}&{1}&{3}\\{2}&{-1}&{1}\\{1}&{0}&{1}\end{array}\right]\left[\begin{array}{ccc}{2}&{2}&{1}\\{1}&{-1}&{0}\\{3}&{1}&{1}\end{array}\right] \\ &=\left[\begin{array}{ccc}{14}&{6}&{5}\\{6}&{4}&{3}\\{5}&{3}&{2}\end{array}\right]\end{aligned}\end{align} \nonumber \]

    Encontrar\(A+A^{T}\):

    \[\begin{align}\begin{aligned}A+A^{T}&=\left[\begin{array}{ccc}{2}&{1}&{3}\\{2}&{-1}&{1}\\{1}&{0}&{1}\end{array}\right]+\left[\begin{array}{ccc}{2}&{2}&{1}\\{1}&{-1}&{0}\\{3}&{1}&{1}\end{array}\right] \\ &=\left[\begin{array}{ccc}{2}&{3}&{4}\\{3}&{-2}&{1}\\{4}&{1}&{2}\end{array}\right]\end{aligned}\end{align} \nonumber \]

    Encontrar\(A-A^{T}\):

    \[\begin{align}\begin{aligned}A-A^{T}&=\left[\begin{array}{ccc}{2}&{1}&{3}\\{2}&{-1}&{1}\\{1}&{0}&{1}\end{array}\right]-\left[\begin{array}{ccc}{2}&{2}&{1}\\{1}&{-1}&{0}\\{3}&{1}&{1}\end{array}\right] \\ &=\left[\begin{array}{ccc}{0}&{-1}&{2}\\{1}&{0}&{1}\\{-2}&{-1}&{0}\end{array}\right]\end{aligned}\end{align} \nonumber \]

    Veamos las matrices que hemos formado en este ejemplo. En primer lugar, considere\(AA^{T}\). Algo parece estar bien en esta matriz — mira la ubicación de los 6's, los 5's y los 3's Más precisamente, veamos la transposición de\(AA^{T}\). Debemos notar que si tomamos la transposición de esta matriz, tenemos la misma matriz. Es decir,

    \[\left(\left[\begin{array}{ccc}{14}&{6}&{5}\\{6}&{4}&{3}\\{5}&{3}&{2}\end{array}\right]\right)^{T}=\left[\begin{array}{ccc}{14}&{6}&{5}\\{6}&{4}&{3}\\{5}&{3}&{2}\end{array}\right]! \nonumber \]

    Esto lo definiremos formalmente en un momento, pero una matriz que es igual a su transposición se llama simétrica.

    Mira la siguiente parte del ejemplo; ¿de qué nos damos cuenta\(A+A^{T}\)? Deberíamos ver que también es simétrica. Por último, consideremos la última parte del ejemplo: ¿notamos algo al respecto\(A-A^{T}\)?

    Debemos notar de inmediato que no es simétrico, aunque sí parece “cercano”. En lugar de ser igual a su transposición, notamos que esta matriz es lo opuesto a su transposición. Llamamos a este tipo de sesgo matricial simétrico. \(^{6}\)Aquí definimos formalmente estas matrices.

    Definición: Matrices simétricas y simétricas sesgadas

    Una matriz\(A\) es simétrica si\(A^{T}=A\).

    Una matriz\(A\) es simétrica sesgada si\(A^{T}=-A\).

    Tenga en cuenta que para que una matriz sea simétrica o simétrica sesgada, debe ser cuadrada.

    Entonces, ¿por qué era\(AA^{T}\) simétrico en nuestro ejemplo anterior? ¿Acabamos de salir de suerte? \(^{7}\)Tomemos la transposición de\(AA^{T}\) y veamos qué pasa.

    \[\begin{align}\begin{aligned} (AA^{T})^{T}&=(A^{T})^{T}(A)^{T} &\text{transpose multiplication rule} \\ &=AA^{T} &(A^{T})^{T}=A\end{aligned}\end{align} \nonumber \]

    Acabamos de demostrar que no importa con qué matriz\(A\) empecemos, la matriz\(AA^{T}\) será simétrica. Nada en nuestra cadena de igualdades incluso exigía\(A\) que fuera una matriz cuadrada; siempre es cierto.

    Podemos hacer una prueba similar para demostrar que mientras\(A\) sea cuadrado,\(A+A^{T}\) es una matriz simétrica. \(^{8}\)En cambio vamos a mostrar aquí que si\(A\) es una matriz cuadrada, entonces\(A-A^{T}\) es simétrica sesgada.

    \[\begin{align}\begin{aligned} (A-A^{T})^{T}&=A^{T}-(A^{T})^{T} &\text{transpose subtraction rule} \\ &=A^{T}-A \\ &=-(A-A^{T})\end{aligned}\end{align} \nonumber \]

    Entonces tomamos la transposición de\(A-A^{T}\) y lo conseguimos\(-(A-A^{T})\); esta es la definición de ser asimétrico sesgado.

    Tomaremos lo que aprendimos de Ejemplo\(\PageIndex{7}\) y lo pondremos en una caja. (Ya hemos demostrado que la mayor parte de esto es cierto; el resto lo dejamos para resolver en los Ejercicios.)

    Teorema\(\PageIndex{2}\)

    Matrices simétricas y simétricas sesgadas

    1. Dada cualquier matriz\(A\), las matrices\(AA^{T}\) y\(A^{T}A\) son simétricas.
    2. Dejar\(A\) ser una matriz cuadrada. La matriz\(A + A^{T}\) es simétrica.
    3. Dejar\(A\) ser una matriz cuadrada. La matriz\(A − A^{T}\) es simétrica sesgada.

    ¿Por qué nos importa la transposición de una matriz? ¿Por qué nos importan las matrices simétricas?

    Hay dos respuestas que cada una responde a ambas preguntas. Primero, nos interesa el tranpose de una matriz y matrices simétricas porque son interesantes. \(^{9}\)Una cosa particularmente interesante de las matrices simétricas y simétricas sesgadas es esto: considerar la suma de\((A+A^{T})\) y\((A-A^{T})\):

    \[(A+A^{T})+(A-A_{T})=2A. \nonumber \]

    Esto nos da una idea: si tuviéramos que multiplicar ambos lados de esta ecuación por\(\frac12\), entonces el lado derecho simplemente sería\(A\). Esto significa que

    \[\begin{align}\begin{aligned} A&=\underbrace{\frac{1}{2}(A+A^{T})}+\underbrace{\frac{1}{2}(A-A^{T})}.\\ &\quad\text{symmetric}\qquad\text{skew symmetric}\end{aligned}\end{align} \nonumber \]

    Es decir, cualquier matriz\(A\) puede escribirse como la suma de una matriz simétrica y simétrica sesgada. Eso es interesante.

    La segunda razón por la que nos importan es que son muy útiles e importantes en diversas áreas de las matemáticas. La transposición de una matriz resulta ser una operación importante; las matrices simétricas tienen muchas propiedades agradables que hacen posible resolver ciertos tipos de problemas.

    La mayor parte de este texto se centra en los preliminares del álgebra matricial, y los usos reales están más allá de nuestro alcance actual. Un ejemplo fácil de describir es el ajuste de curvas. Supongamos que se nos da un gran conjunto de puntos de datos que, cuando se trazan, parecen más o menos cuadráticos. ¿Cómo encontramos la cuadrática que “mejor se ajusta” a estos datos? La solución se puede encontrar usando álgebra matricial, y específicamente una matriz llamada pseudoinversa. Si\(A\) es una matriz, la pseudoinversa de\(A\) es la matriz\(A^{\dagger}=(A^{T}A)^{-1}A^{T}\) (asumiendo que existe la inversa). No nos vamos a preocupar por lo que significa todo lo anterior; solo fíjate que tiene un nombre que suena genial y la transposición aparece dos veces.

    En la siguiente sección aprenderemos sobre el rastreo, otra operación que se puede realizar sobre una matriz que es relativamente simple de calcular pero que puede conducir a algunos resultados profundos.

    Notas al pie

    [1] Recuerden, esto es lo que hacen los matemáticos. Aprendemos algo nuevo, y luego hacemos muchas preguntas al respecto. A menudo las primeras preguntas que hacemos son en la línea de “¿Cómo se relaciona esta cosa nueva con las cosas viejas que ya conozco?”

    [2] Esto es algo divertido de decir, sobre todo cuando se dice rápido. Independientemente de lo rápido que lo digamos, debemos pensar en esta afirmación. El “es” representa “iguales”. Las cosas antes de “is” son iguales a las cosas después.

    [3] Por otra parte, tal vez esto no sea tan “extraño”. Es una reminiscencia del hecho de que, cuando es invertible,\((AB)^{-1}=B^{-1}A^{-1}\).

    [4] Nuevamente, deberíamos pensar en esta afirmación. La parte antes de “es” establece que tomamos la transposición de una matriz, luego encontramos la inversa. La parte después de “es” establece que encontramos la inversa de la matriz, luego tomamos la transposición. Dado que estas dos afirmaciones están vinculadas por un “es”, son iguales.

    [5] Estos ejemplos no prueban nada, aparte de que funcionó en ejemplos específicos.

    [6] Algunos matemáticos utilizan el término antisimétrico

    [7] Por supuesto que no.

    [8] ¿Por qué decimos que\(A\) tiene que ser cuadrado?

    [9] O: “aseado”, “genial”, “malo”, “malvado”, “phat”, “fo-shizzle”.


    This page titled 3.1: La Transpone Matrix is shared under a CC BY-NC 3.0 license and was authored, remixed, and/or curated by Gregory Hartman et al. via source content that was edited to the style and standards of the LibreTexts platform; a detailed edit history is available upon request.