Saltar al contenido principal
LibreTexts Español

4.1: Determinantes- Definición

  • Page ID
    113034
  • \( \newcommand{\vecs}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} } \)

    \( \newcommand{\vecd}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash {#1}}} \)

    \( \newcommand{\id}{\mathrm{id}}\) \( \newcommand{\Span}{\mathrm{span}}\)

    ( \newcommand{\kernel}{\mathrm{null}\,}\) \( \newcommand{\range}{\mathrm{range}\,}\)

    \( \newcommand{\RealPart}{\mathrm{Re}}\) \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\)

    \( \newcommand{\Argument}{\mathrm{Arg}}\) \( \newcommand{\norm}[1]{\| #1 \|}\)

    \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\)

    \( \newcommand{\Span}{\mathrm{span}}\)

    \( \newcommand{\id}{\mathrm{id}}\)

    \( \newcommand{\Span}{\mathrm{span}}\)

    \( \newcommand{\kernel}{\mathrm{null}\,}\)

    \( \newcommand{\range}{\mathrm{range}\,}\)

    \( \newcommand{\RealPart}{\mathrm{Re}}\)

    \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\)

    \( \newcommand{\Argument}{\mathrm{Arg}}\)

    \( \newcommand{\norm}[1]{\| #1 \|}\)

    \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\)

    \( \newcommand{\Span}{\mathrm{span}}\) \( \newcommand{\AA}{\unicode[.8,0]{x212B}}\)

    \( \newcommand{\vectorA}[1]{\vec{#1}}      % arrow\)

    \( \newcommand{\vectorAt}[1]{\vec{\text{#1}}}      % arrow\)

    \( \newcommand{\vectorB}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} } \)

    \( \newcommand{\vectorC}[1]{\textbf{#1}} \)

    \( \newcommand{\vectorD}[1]{\overrightarrow{#1}} \)

    \( \newcommand{\vectorDt}[1]{\overrightarrow{\text{#1}}} \)

    \( \newcommand{\vectE}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash{\mathbf {#1}}}} \)

    \( \newcommand{\vecs}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} } \)

    \( \newcommand{\vecd}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash {#1}}} \)

    \(\newcommand{\avec}{\mathbf a}\) \(\newcommand{\bvec}{\mathbf b}\) \(\newcommand{\cvec}{\mathbf c}\) \(\newcommand{\dvec}{\mathbf d}\) \(\newcommand{\dtil}{\widetilde{\mathbf d}}\) \(\newcommand{\evec}{\mathbf e}\) \(\newcommand{\fvec}{\mathbf f}\) \(\newcommand{\nvec}{\mathbf n}\) \(\newcommand{\pvec}{\mathbf p}\) \(\newcommand{\qvec}{\mathbf q}\) \(\newcommand{\svec}{\mathbf s}\) \(\newcommand{\tvec}{\mathbf t}\) \(\newcommand{\uvec}{\mathbf u}\) \(\newcommand{\vvec}{\mathbf v}\) \(\newcommand{\wvec}{\mathbf w}\) \(\newcommand{\xvec}{\mathbf x}\) \(\newcommand{\yvec}{\mathbf y}\) \(\newcommand{\zvec}{\mathbf z}\) \(\newcommand{\rvec}{\mathbf r}\) \(\newcommand{\mvec}{\mathbf m}\) \(\newcommand{\zerovec}{\mathbf 0}\) \(\newcommand{\onevec}{\mathbf 1}\) \(\newcommand{\real}{\mathbb R}\) \(\newcommand{\twovec}[2]{\left[\begin{array}{r}#1 \\ #2 \end{array}\right]}\) \(\newcommand{\ctwovec}[2]{\left[\begin{array}{c}#1 \\ #2 \end{array}\right]}\) \(\newcommand{\threevec}[3]{\left[\begin{array}{r}#1 \\ #2 \\ #3 \end{array}\right]}\) \(\newcommand{\cthreevec}[3]{\left[\begin{array}{c}#1 \\ #2 \\ #3 \end{array}\right]}\) \(\newcommand{\fourvec}[4]{\left[\begin{array}{r}#1 \\ #2 \\ #3 \\ #4 \end{array}\right]}\) \(\newcommand{\cfourvec}[4]{\left[\begin{array}{c}#1 \\ #2 \\ #3 \\ #4 \end{array}\right]}\) \(\newcommand{\fivevec}[5]{\left[\begin{array}{r}#1 \\ #2 \\ #3 \\ #4 \\ #5 \\ \end{array}\right]}\) \(\newcommand{\cfivevec}[5]{\left[\begin{array}{c}#1 \\ #2 \\ #3 \\ #4 \\ #5 \\ \end{array}\right]}\) \(\newcommand{\mattwo}[4]{\left[\begin{array}{rr}#1 \amp #2 \\ #3 \amp #4 \\ \end{array}\right]}\) \(\newcommand{\laspan}[1]{\text{Span}\{#1\}}\) \(\newcommand{\bcal}{\cal B}\) \(\newcommand{\ccal}{\cal C}\) \(\newcommand{\scal}{\cal S}\) \(\newcommand{\wcal}{\cal W}\) \(\newcommand{\ecal}{\cal E}\) \(\newcommand{\coords}[2]{\left\{#1\right\}_{#2}}\) \(\newcommand{\gray}[1]{\color{gray}{#1}}\) \(\newcommand{\lgray}[1]{\color{lightgray}{#1}}\) \(\newcommand{\rank}{\operatorname{rank}}\) \(\newcommand{\row}{\text{Row}}\) \(\newcommand{\col}{\text{Col}}\) \(\renewcommand{\row}{\text{Row}}\) \(\newcommand{\nul}{\text{Nul}}\) \(\newcommand{\var}{\text{Var}}\) \(\newcommand{\corr}{\text{corr}}\) \(\newcommand{\len}[1]{\left|#1\right|}\) \(\newcommand{\bbar}{\overline{\bvec}}\) \(\newcommand{\bhat}{\widehat{\bvec}}\) \(\newcommand{\bperp}{\bvec^\perp}\) \(\newcommand{\xhat}{\widehat{\xvec}}\) \(\newcommand{\vhat}{\widehat{\vvec}}\) \(\newcommand{\uhat}{\widehat{\uvec}}\) \(\newcommand{\what}{\widehat{\wvec}}\) \(\newcommand{\Sighat}{\widehat{\Sigma}}\) \(\newcommand{\lt}{<}\) \(\newcommand{\gt}{>}\) \(\newcommand{\amp}{&}\) \(\definecolor{fillinmathshade}{gray}{0.9}\)
    Objetivos
    1. Aprender la definición del determinante.
    2. Aprenda algunas formas de hacer un globo ocular con determinante cero, y cómo calcular determinantes de matrices triangulares superiores e inferiores.
    3. Aprende las propiedades básicas del determinante, y cómo aplicarlas.
    4. Receta: calcular el determinante usando operaciones de fila y columna.
    5. Teoremas: teorema de existencia, propiedad de invertibilidad, propiedad de multiplicatividad, propiedad de transposición.
    6. Palabras del vocabulario: diagonal, triangular superior, triangular inferior, transposición.
    7. Palabra esencial del vocabulario: determinante.

    En esta sección, definimos el determinante, y presentamos una forma de calcularlo. Luego discutimos algunas de las muchas propiedades maravillosas que disfruta el determinante.

    La Definición del Determinante

    El determinante de una matriz cuadrada\(A\) es un número real\(\det(A)\). Se define a través de su comportamiento con respecto a las operaciones de fila; esto significa que podemos usar la reducción de filas para calcularlo. Daremos una fórmula recursiva para el determinante en la Sección 4.2. También mostraremos en la Subsección Propiedades Mágicas del Determinante que el determinante está relacionado con la invertibilidad, y en la Sección 4.3 que está relacionado con los volúmenes.

    Definición\(\PageIndex{1}\): Determinant

    El determinante es una función

    \[ \det\colon \bigl\{\text{square matrices}\bigr\}\to \mathbb{R} \nonumber \]

    satisfaciendo las siguientes propiedades:

    1. Hacer un reemplazo de fila en\(A\) no cambia\(\det(A)\).
    2. Escalar una fila de\(A\) por un escalar\(c\) multiplica el determinante por\(c\).
    3. El intercambio de dos filas de una matriz multiplica el determinante por\(-1\).
    4. El determinante de la matriz de identidad\(I_n\) es igual a\(1\).

    Es decir, a cada matriz cuadrada le\(A\) asignamos un número\(\det(A)\) de manera que satisfaga las propiedades anteriores.

    En cada uno de los tres primeros casos, hacer una operación de fila en una matriz escala el determinante por un número distinto de cero. (Multiplicar una fila por cero no es una operación de fila). Por lo tanto, hacer operaciones de fila en una matriz cuadrada\(A\) no cambia si el determinante es cero o no.

    La motivación principal detrás del uso de estas propiedades definitorias particulares es geométrica: ver Sección 4.3. Otra motivación para esta definición es que nos dice cómo calcular el determinante: remar reducir y hacer un seguimiento de los cambios.

    Ejemplo\(\PageIndex{1}\)

    Vamos a calcular\(\det\left(\begin{array}{cc}2&1\\1&4\end{array}\right).\) Primero remonamos reducir, luego calculamos el determinante en el orden opuesto:

    \ begin {align*}\ amp\ left (\ begin {array} {cc} 2&1\\ 1&4\ end {array}\ right)\ amp\ strut\ det\ amp=7\\\;\ xrightarrow {R_1\ leftrightarrow R_2}\;\ amp\ left (\ begin {array} {cc} 1&4\ 2&1\ end {array}\ derecha)\ amp\ puntal\ det\ amp= -7\\\;\ xrightarrow {R_2=R_2-2R_1}\;\ amp\ izquierda (\ begin {array} {cc} 1&4\ 0&-7\ end { array}\ derecha)\ amp\ strut\ det\ amp = -7\\\;\ xrightarrow {R_2=R_2\ div -7}\;\ amp\ left (\ begin {array} {cc} 1&4\\ 0&1\ end {array}\ derecha)\ amp\ strut\ det\ amp = amp= 1\\\;\ xfila derecha {R_1=R_1-4R_2}\;\ amp\ left (\ begin {array} {cc} 1&0\\ 0&1\ end {array}\ derecha)\ amp\ strut\ det\ amp = 1\ end {align*}

    La forma de escalón de fila reducida de la matriz es la matriz de identidad\(I_2\text{,}\) por lo que su determinante es\(1\). El segundo último paso en la reducción de fila fue un reemplazo de fila, por lo que la matriz de la segunda final también tiene determinante\(1\). El paso previo en la reducción de fila fue un escalado de fila\(-1/7\text{;}\) ya que (el determinante de los tiempos de la segunda matriz\(-1/7\)) es\(1\text{,}\) el determinante de la segunda matriz debe ser\(-7\). El primer paso en la reducción de fila fue un intercambio de filas, por lo que el determinante de la primera matriz es negativo el determinante de la segunda. Así, el determinante de la matriz original es\(7\).

    Tenga en cuenta que nuestra respuesta concuerda con la Definición 3.5.2 en la Sección 3.5 del determinante.

    Ejemplo\(\PageIndex{2}\)

    \(\det\left(\begin{array}{cc}1&0\\0&3\end{array}\right)\)Cómpiate.

    Solución

    Vamos\(A=\left(\begin{array}{cc}1&0\\0&3\end{array}\right)\). Ya que\(A\) se obtiene de\(I_2\) multiplicando la segunda fila por la constante\(3\text{,}\) que tenemos

    \[ \det(A)=3\det(I_2)=3\cdot 1=3. \nonumber \]

    Tenga en cuenta que nuestra respuesta concuerda con la Definición 3.5.2 en la Sección 3.5 del determinante.

    Ejemplo\(\PageIndex{3}\)

    \(\det\left(\begin{array}{ccc}1&0&0\\0&0&1\\5&1&0\end{array}\right)\)Cómpiate.

    Solución

    Primero remaremos reducir, luego calculamos el determinante en el orden opuesto:

    \ begin {align*}\ amp\ left (\ begin {array} {ccc} 1&0&0\\ 0&0&0&1\\ 5&1&0\ end {array}\ derecha)\ amp\ strut\ det\ amp=-1\\\;\ xrightarrow {R_2\ leftrightarrow R_3}\;\ amp\ left (\ begin {array} {ccc} &0&0\\ 5&1&0\\ 0&0&1\ end {array}\ derecha)\ amp\ puntal\ det\ amp = 1\\\;\ xrightarrow {R_2=R_2-5R_1} \;\ amp\ left (\ begin {array} {ccc} 1&0&0\\ 0&1&0\\ 0&0&1\ end {array}\ right)\ amp\ strut\ det\ amp= 1\ end {align*}

    La forma de escalón de fila reducida es\(I_3\text{,}\) la que tiene determinante\(1\). Trabajando hacia atrás desde\(I_3\) y usando las cuatro propiedades definitorias Definición\(\PageIndex{1}\), vemos que la segunda matriz también tiene determinante\(1\) (difiere de\(I_3\) por un reemplazo de fila), y la primera matriz tiene determinante\(-1\) (difiere de la segunda por un intercambio de filas).

    Aquí está el método general para calcular determinantes usando la reducción de filas.

    Receta: Determinantes computacionales por reducción de filas

    Dejar\(A\) ser una matriz cuadrada. Supongamos que realiza cierto número de operaciones de fila\(A\) para obtener una matriz\(B\) en forma de escalón de filas. Entonces

    \[ \det(A) = (-1)^r\cdot \frac{\text{(product of the diagonal entries of $B$)}} {\text{(product of scaling factors used)}}, \nonumber \]

    donde\(r\) es el número de swaps de fila realizados.

    En otras palabras, el determinante de\(A\) es el producto de entradas diagonales de la forma escalón de fila\(B\text{,}\) multiplicado por un factor de\(\pm1\) procedencia del número de intercambios de filas que realizó, dividido por el producto de los factores de escalado utilizados en la reducción de fila.

    Obrar

    Esta es una forma eficiente de computar el determinante de una matriz grande, ya sea a mano o por computadora. La complejidad computacional de la reducción de filas es,\(O(n^3)\text{;}\) por el contrario, el algoritmo de expansión de cofactores que aprenderemos en la Sección 4.2 tiene complejidad\(O(n!)\approx O(n^n\sqrt n)\text{,}\) que es mucho mayor. (La expansión del cofactor tiene otros usos.)

    Ejemplo\(\PageIndex{4}\)

    Compute\(\det\left(\begin{array}{ccc}0&-7&-4\\2&4&6\\3&7&-1\end{array}\right).\)

    Solución

    Reducimos la matriz, haciendo un seguimiento del número de swaps de fila y de los factores de escalado utilizados.

    \[\begin{aligned}\left(\begin{array}{ccc}0&-7&-4\\2&4&6\\3&7&-1\end{array}\right)\quad\xrightarrow{R_1\leftrightarrow R_2}\quad &\left(\begin{array}{ccc}2&4&6\\0&-7&-4\\3&7&-1\end{array}\right)\quad r=1 \\ {}\xrightarrow{R_1=R_1\div 2}\quad &\left(\begin{array}{ccc}1&2&3\\0&-7&-4\\3&7&-1\end{array}\right)\quad \text{scaling factors }=\frac{1}{2} \\ {}\xrightarrow{R_3=R_3-3R_1}\quad &\left(\begin{array}{ccc}1&2&3\\0&-7&-4\\0&1&-10\end{array}\right) \\ {}\xrightarrow{R_2\leftrightarrow R_3}\quad &\left(\begin{array}{ccc}1&2&3\\0&1&-10\\0&-7&-4\end{array}\right)\quad r=2 \\ {}\xrightarrow{R_3=R_3+7R_2}\quad &\left(\begin{array}{c}1&2&3\\0&1&-10\\0&0&-74\end{array}\right)\end{aligned}\]

    Hicimos dos swaps de filas y escalamos una vez por un factor de\(1/2\text{,}\) así que la Receta: Computación de determinantes por reducción de filas dice que

    \[ \det\left(\begin{array}{ccc}0&-7&-4\\2&4&6\\3&7&-1\end{array}\right) = (-1)^2\cdot\frac{1\cdot 1\cdot(-74)}{1/2} = -148. \nonumber \]

    Ejemplo\(\PageIndex{5}\)

    Compute\(\det\left(\begin{array}{ccc}1&2&3\\2&-1&1\\3&0&1\end{array}\right).\)

    Solución

    Reducimos la matriz, haciendo un seguimiento del número de swaps de fila y de los factores de escalado utilizados.

    \[\begin{aligned}\left(\begin{array}{ccc}1&2&3\\2&-1&1\\3&0&1\end{array}\right)\quad\xrightarrow{\begin{array}{l}{R_2=R_2-2R_1}\\{R_3=R_3-3R_1}\end{array}}\quad &\left(\begin{array}{ccc}1&2&3\\0&-5&-5 \\ 0&-6&-8\end{array}\right) \\ {}\xrightarrow{R_2=R_2\div 5}\quad &\left(\begin{array}{ccc}1&2&3\\0&1&1\\0&-6&-8\end{array}\right)\quad\text{scaling factors }=-\frac{1}{5} \\ {}\xrightarrow{R_3=R_3+6R_2}\quad &\left(\begin{array}{ccc}1&2&3\\0&1&1\\0&0&-2\end{array}\right)\end{aligned}\]

    No hicimos ningún intercambio de filas, y escalamos una vez por un factor de\(-1/5\text{,}\) así que la Receta: Computar determinantes por reducción de filas dice que

    \[ \det\left(\begin{array}{ccc}1&2&3\\2&-1&1\\3&0&1\end{array}\right) = \frac{1\cdot 1\cdot(-2)}{-1/5} = 10. \nonumber \]

    Ejemplo\(\PageIndex{6}\): The Determinant of a \(2\times 2\) Matrix

    Usemos la Receta: Determinantes computacionales por reducción de filas para calcular el determinante de una\(2\times 2\) matriz general\(A = \left(\begin{array}{cc}a&b\\c&d\end{array}\right)\).

    • Si\(a = 0\text{,}\) entonces
      \[ \det\left(\begin{array}{cc}a&b\\c&d\end{array}\right) = \det\left(\begin{array}{cc}0&b\\c&d\end{array}\right) = -\det\left(\begin{array}{cc}c&d\\0&b\end{array}\right) = -bc. \nonumber \]
    • Si\(a\neq 0\text{,}\) entonces
      \[\begin{aligned} \det\left(\begin{array}{cc}a&b\\c&d\end{array}\right)&=a\cdot\det\left(\begin{array}{cc}1&b/a\\c&d\end{array}\right)=a\cdot\det\left(\begin{array}{cc}1&b/a \\ 0&d-c\cdot b/a\end{array}\right) \\ &=a\cdot 1\cdot (d-bc/a)=ad-bc.\end{aligned}\]

    En cualquier caso, recuperamos la Definición 3.5.2 en la Sección 3.5.

    \[ \det\left(\begin{array}{cc}a&b\\c&d\end{array}\right) = ad-bc. \nonumber \]

    Si una matriz ya está en forma de escalón de fila, entonces simplemente puede leer el determinante como el producto de las entradas diagonales. Resulta que esto es cierto para una clase de matrices un poco más grande llamada triangular.

    Definición\(\PageIndex{2}\): Diagonal
    • Las entradas diagonales de una matriz\(A\) son las entradas\(a_{11},a_{22},\ldots\text{:}\)

    clipboard_e5079ab7aead0701ad694476c1adaf67e.png

    Figura\(\PageIndex{1}\)

    • Una matriz cuadrada se llama superior-triangular si todas sus entradas distintas de cero se encuentran por encima de la diagonal, y se llama triangular inferior si todas sus entradas distintas de cero se encuentran por debajo de la diagonal. Se llama diagonal si todas sus entradas distintas de cero se encuentran en la diagonal, es decir, si es tanto triangulares superiores como triangulares inferiores.

    clipboard_e7129caeeae33e503966a2c5961101d36.png

    Figura\(\PageIndex{2}\)

    Proposición \(\PageIndex{1}\)

    \(A\)Déjese ser una\(n\times n\) matriz.

    1. Si\(A\) tiene una fila o columna cero, entonces\(\det(A) = 0.\)
    2. Si\(A\) es triangulares superiores o triangulares inferiores, entonces\(\det(A)\) es el producto de sus entradas diagonales.
    Prueba
    1. Supongamos que\(A\) has a zero row. Let \(B\) be the matrix obtained by negating the zero row. Then \(\det(A) = -\det(B)\) by the second defining property, Definition \(\PageIndex{1}\). But \(A = B\text{,}\) so \(\det(A) = \det(B)\text{:}\)
      \[\left(\begin{array}{ccc}1&2&3\\0&0&0\\7&8&9\end{array}\right)\quad\xrightarrow{R_2=-R_2}\quad\left(\begin{array}{ccc}1&2&3\\0&0&0\\7&8&9\end{array}\right).\nonumber\]
      juntar estos rinde\(\det(A) = -\det(A)\text{,}\) así\(\det(A)=0\).
      Ahora supongamos que\(A\) tiene una columna cero. Entonces no\(A\) es invertible por el Teorema 3.6.1 en la Sección 3.6, por lo que su forma de escalón de fila reducida tiene una fila cero. Dado que las operaciones de fila no cambian si el determinante es cero, concluimos\(\det(A)=0\).
    2. Primero supongamos que\(A\) es superior-triangular, y que una de las entradas diagonales es cero, digamos\(a_{ii}=0\). Podemos realizar operaciones de fila para borrar las entradas por encima de las entradas diagonales distintas de cero:
      \[\left(\begin{array}{cccc}a_{11}&\star&\star&\star \\ 0&a_{22}&\star&\star \\ 0&0&0&\star \\ 0&0&0&a_{44}\end{array}\right)\xrightarrow{\qquad}\left(\begin{array}{cccc}a_{11}&0&\star &0\\0&a_{22}&\star&0\\0&0&0&0\\0&0&0&a_{44}\end{array}\right)\nonumber\]
      En la matriz resultante, la fila\(i\) th es cero, así que\(\det(A) = 0\) por la primera parte.
      Aún asumiendo que\(A\) es superior-triangular, ahora supongamos que todas las entradas diagonales de\(A\) son distintas de cero. Luego se\(A\) puede transformar a la matriz de identidad escalando las entradas diagonales y luego haciendo reemplazos de fila:
      \[\begin{array}{ccccc}{\left(\begin{array}{ccc}a&\star&\star \\ 0&b&\star \\ 0&0&c\end{array}\right)}&{\xrightarrow{\begin{array}{c}{\text{scale by}}\\{a^{-1},\:b^{-1},\:c^{-1}}\end{array}}}&{\left(\begin{array}{ccc}1&\star&\star \\ 0&1&\star \\ 0&0&1\end{array}\right)}&{\xrightarrow{\begin{array}{c}{\text{row}}\\{\text{replacements}}\end{array}}}&{\left(\begin{array}{ccc}1&0&0\\0&1&0\\0&0&1\end{array}\right)}\\{\det =abc}&{\xleftarrow{\qquad}}&{\det =1}&{\xleftarrow{\qquad}}&{\det =1}\end{array}\nonumber\]
      Dado que\(\det(I_n) = 1\) y escalamos por los recíprocos de las entradas diagonales, esto implica que\(\det(A)\) es el producto de la entradas diagonales.
      El mismo argumento funciona para matrices triangulares inferiores, excepto que los reemplazos de fila bajan en lugar de subir.
    Ejemplo\(\PageIndex{7}\)

    Compute los determinantes de estas matrices:

    \[\left(\begin{array}{ccc}1&2&3\\0&4&5\\0&0&6\end{array}\right)\qquad\left(\begin{array}{ccc}-20&0&0\\ \pi&0&0\\ 100&3&-7\end{array}\right)\qquad\left(\begin{array}{ccc}17&03&4\\0&0&0\\11/2&1&e\end{array}\right).\nonumber\]

    Solución

    La primera matriz es triangular superior, la segunda es triangular inferior y la tercera tiene una fila cero:

    \[\begin{aligned}\det\left(\begin{array}{ccc}1&2&3\\0&4&5\\0&0&6\end{array}\right)&=1\cdot 4\cdot 6=24 \\ \det\left(\begin{array}{ccc}-20&0&0\\ \pi&0&0\\100&3&-7\end{array}\right)&=-20\cdot 0\cdot -7=0 \\ \det\left(\begin{array}{ccc}17&-3&4\\0&0&0\\ 11/2&1&e\end{array}\right)&=0.\end{aligned}\]

    Una matriz siempre se puede transformar en forma de escalón de filas mediante una serie de operaciones de fila, y una matriz en forma de escalón de fila es triangular superior. Por lo tanto, hemos justificado completamente Receta: Computación Determinantes por Reducción de Fila para computar el determinante.

    El determinante se caracteriza por sus propiedades definitorias, Definición\(\PageIndex{1}\), ya que podemos calcular el determinante de cualquier matriz usando reducción de filas, como en la anterior Receta: Cálculo de Determinantes por Reducción de Filas. Sin embargo, ¡aún no hemos probado la existencia de una función que satisfaga las propiedades definitorias! La reducción de filas calculará el determinante si existe, pero no podemos usar la reducción de filas para probar la existencia, porque aún no sabemos que calcula el mismo número por fila reduciendo de dos maneras diferentes.

    Teorema \(\PageIndex{1}\): Existence of the Determinant

    Existe una y sólo una función desde el conjunto de matrices cuadradas hasta los números reales, que satisface las cuatro propiedades definitorias, Definición\(\PageIndex{1}\).

    Demostraremos el teorema de la existencia en la Sección 4.2, exhibiendo una fórmula recursiva para el determinante. Nuevamente, el contenido real del teorema de la existencia es:

    Nota\(\PageIndex{1}\)

    No importa qué operaciones de fila realice, siempre calculará el mismo valor para el determinante.

    Propiedades mágicas del Determinante

    En esta subsección, discutiremos algunas de las increíbles propiedades que disfruta el determinante: la propiedad de invertibilidad, la Proposición\(\PageIndex{2}\), la propiedad de multiplicatividad, la Proposición\(\PageIndex{3}\), y la propiedad de transposición, Proposición\(\PageIndex{4}\).

    Proposición \(\PageIndex{2}\): Invertibility Property

    Una matriz cuadrada es invertible si y solo si\(\det(A)\neq 0\).

    Prueba

    Si\(A\) es invertible, entonces tiene un pivote en cada fila y columna según el Teorema 3.6.1 en la Sección 3.6, por lo que su forma de escalón de fila reducida es la matriz de identidad. Dado que las operaciones de fila no cambian si el determinante es cero, y dado que\(\det(I_n) = 1\text{,}\) esto implica\(\det(A)\neq 0.\) Por el contrario, si no\(A\) es invertible, entonces es fila equivalente a una matriz con una fila cero. Nuevamente, las operaciones de fila no cambian si el determinante es distinto de cero, por lo que en este caso\(\det(A) = 0.\)

    Por la propiedad de invertibilidad, una matriz que no satisface ninguna de las propiedades del Teorema 3.6.1 en la Sección 3.6 tiene determinante cero.

    Corolario \(\PageIndex{1}\)

    Dejar\(A\) ser una matriz cuadrada. Si las filas o columnas de\(A\) son linealmente dependientes, entonces\(\det(A)=0\).

    Prueba

    Si las columnas de\(A\) son linealmente dependientes, entonces no\(A\) es invertible por la condición 4 del Teorema 3.6.1 en la Sección 3.6. Supongamos ahora que las filas de\(A\) son linealmente dependientes. Si\(r_1,r_2,\ldots,r_n\) son las filas de\(A\text{,}\) entonces una de las filas está en el lapso de las otras, entonces tenemos una ecuación como

    \[ r_2 = 3r_1 - r_3 + 2r_4. \nonumber \]

    Si realizamos las siguientes operaciones de fila en\(A\text{:}\)

    \[ R_2 = R_2 - 3R_1;\quad R_2 = R_2 + R_3;\quad R_2 = R_2 - 2R_4 \nonumber \]

    entonces la segunda fila de la matriz resultante es cero. De ahí que tampoco\(A\) sea invertible en este caso.

    Alternativamente, si las filas de\(A\) son linealmente dependientes, entonces se puede combinar la condición 4 del Teorema 3.6.1 en la Sección 3.6 y la propiedad de transposición, Proposición a\(\PageIndex{4}\) continuación para concluir eso\(\det(A)=0\).

    En particular, si dos filas/columnas de\(A\) son múltiplos entre sí, entonces también\(\det(A)=0.\) recuperamos el hecho de que una matriz con una fila o columna de ceros tiene determinante cero.

    Ejemplo\(\PageIndex{8}\)

    Todas las matrices siguientes tienen un determinante cero:

    \[\left(\begin{array}{ccc}0&2&-1 \\ 0&5&10\\0&-7&3\end{array}\right),\quad \left(\begin{array}{ccc}5&-15&11\\3&-9&2\\2&-6&16\end{array}\right),\quad\left(\begin{array}{cccc}3&1&2&4\\0&0&0&0\\4&2&5&12\\-1&3&4&8\end{array}\right),\quad\left(\begin{array}{ccc}\pi&e&11 \\3\pi&3e&33\\12&-7&2\end{array}\right).\nonumber\]

    Las pruebas de la propiedad de multiplicatividad, Proposición\(\PageIndex{3}\), y la propiedad de transposición, a continuación\(\PageIndex{4}\), así como el teorema de expansión del cofactor, Teorema 4.2.1 en la Sección 4.2, y los determinantes y volúmenes Teorema, Teorema 4.3.2 en la Sección 4.3 , utilice la siguiente estrategia: definir otra función\(d\colon\{\text{$n\times n$ matrices}\} \to \mathbb{R}\text{,}\) y demostrar que\(d\) satisface las mismas cuatro propiedades definitorias que el determinante. Por el teorema de la existencia\(\PageIndex{1}\), Teorema, la función\(d\) es igual al determinante. Esta es una ventaja de definir una función a través de sus propiedades: para demostrar que es igual a otra función, solo hay que verificar las propiedades definitorias.

    Proposición \(\PageIndex{3}\): Multiplicativity Property

    Si\(A\) y\(B\) son\(n\times n\) matrices, entonces

    \[ \det(AB) = \det(A)\det(B). \nonumber \]

    Prueba

    En esta prueba, necesitamos usar la noción de una matriz elemental. Esta es una matriz obtenida haciendo una operación de fila a la matriz de identidad. Hay tres tipos de matrices elementales: las que surgen del reemplazo de filas, el escalado de filas y los swaps de filas:

    \[\begin{array}{ccc} {\left(\begin{array}{ccc}1&0&0\\0&1&0\\0&0&1\end{array}\right)}&{\xrightarrow{R_2=R_2-2R_1}} &{\left(\begin{array}{ccc}1&0&0\\-2&1&0\\0&0&1\end{array}\right)} \\ {\left(\begin{array}{ccc}1&0&0\\0&1&0\\0&0&1\end{array}\right)}&{\xrightarrow{R_1=3R_1}} &{\left(\begin{array}{ccc}3&0&0\\0&1&0\\0&0&1\end{array}\right)} \\ {\left(\begin{array}{ccc}1&0&0\\0&1&0\\0&0&1\end{array}\right)}&{\xrightarrow{R_1\leftrightarrow R_2}} &{\left(\begin{array}{ccc}0&1&0\\1&0&0\\0&0&1\end{array}\right)}\end{array}\nonumber\]

    La propiedad importante de las matrices elementales es la siguiente afirmación.

    Reclamación: Si\(E\) es la matriz elemental para una operación de fila, entonces\(EA\) es la matriz obtenida realizando la misma operación de fila en\(A\).

    En otras palabras, la multiplicación a la izquierda por una matriz elemental aplica una operación de fila. Por ejemplo,

    \[\begin{aligned}\left(\begin{array}{ccc}1&0&0\\-2&1&0\\0&0&1\end{array}\right)\left(\begin{array}{ccc}a_{11}&a_{12}&a_{13}\\a_{21}&a_{22}&a_{23}\\a_{31}&a_{32}&a_{33}\end{array}\right)&=\left(\begin{array}{lll}a_{11}&a_{12}&a_{13} \\ a_{21}-2a_{11}&a_{22}-2a_{12}&a_{23}&-2a_{13} \\ a_{31}&a_{32}&a_{33}\end{array}\right) \\ \left(\begin{array}{ccc}3&0&0\\0&1&0\\0&0&1\end{array}\right)\left(\begin{array}{ccc}a_{11}&a_{12}&a_{13}\\a_{21}&a_{22}&a_{23}\\a_{31}&a_{32}&a_{33}\end{array}\right)&=\left(\begin{array}{rrr}3a_{11}&3a_{12}&3a_{13} \\ a_{21}&a_{22}&a_{23}\\a_{31}&a_{32}&a_{33}\end{array}\right) \\ \left(\begin{array}{ccc}0&1&0\\1&0&0\\0&0&1\end{array}\right)\left(\begin{array}{ccc}a_{11}&a_{12}&a_{13}\\a_{21}&a_{22}&a_{23}\\a_{31}&a_{32}&a_{33}\end{array}\right)&=\left(\begin{array}{ccc}a_{21}&a_{22}&a_{23}\\a_{11}&a_{12}&a_{13}\\a_{31}&a_{32}&a_{33}\end{array}\right).\end{aligned}\]

    El comprobante de la Reclamación es por cálculo directo; dejamos al lector generalizar las igualdades anteriores a\(n\times n\) matrices.

    Como consecuencia de la Reclamación y las cuatro propiedades definitorias\(\PageIndex{1}\), Definición, tenemos la siguiente observación. Dejar\(C\) ser cualquier matriz cuadrada.

    1. Si\(E\) es la matriz elemental para un reemplazo de fila, entonces\(\det(EC) = \det(C).\) En otras palabras, la multiplicación a la izquierda por\(E\) no cambia el determinante.
    2. Si\(E\) es la matriz elemental para una escala de fila por un factor de\(c\text{,}\) entonces\(\det(EC) = c\det(C).\) En otras palabras, multiplicación a la izquierda por\(E\) escalas el determinante por un factor de\(c\).
    3. Si\(E\) es la matriz elemental para un intercambio de filas, entonces\(\det(EC) = -\det(C).\) En otras palabras, la multiplicación a la izquierda por\(E\) niega el determinante.

    Dado que\(d\) satisface las cuatro propiedades definitorias del determinante, es igual al determinante por el teorema de la existencia\(\PageIndex{1}\). En otras palabras, para todas las matrices\(A\text{,}\) tenemos

    \[ \det(A) = d(A) = \frac{\det(AB)}{\det(B)}. \nonumber \]

    Multiplicando por\(\det(B)\) da\(\det(A)\det(B)=\det(AB).\)

    1. Dejar\(C'\) ser la matriz obtenida al intercambiar dos filas de\(C\text{,}\) y dejar\(E\) ser la matriz elemental para esta sustitución de filas, así\(C' = EC\). Dado que la multiplicación\(E\) a la izquierda por niega el determinante, tenemos\(\det(ECB) = -\det(CB)\text{,}\) tan
      \[ d(C') = \frac{\det(C'B)}{\det(B)} = \frac{\det(ECB)}{\det(B)} = \frac{-\det(CB)}{\det(B)} = -d(C). \nonumber \]
    2. Tenemos
      \[ d(I_n) = \frac{\det(I_nB)}{\det(B)} = \frac{\det(B)}{\det(B)} = 1. \nonumber \]

    Ahora pasamos a la prueba de la propiedad de multiplicatividad. Supongamos que para comenzar eso no\(B\) es invertible. Entonces tampoco\(AB\) es invertible: de lo contrario,\((AB)^{-1} AB = I_n\) implica\(B^{-1} = (AB)^{-1} A.\) Por la propiedad de invertibilidad, Proposición\(\PageIndex{2}\), ambos lados de la ecuación\(\det(AB) = \det(A)\det(B)\) son cero.

    Ahora supongamos que\(B\) es invertible, entonces\(\det(B)\neq 0\). Definir una función

    \[ d\colon\bigl\{\text{$n\times n$ matrices}\bigr\} \to \mathbb{R} \quad\text{by}\quad d(C) = \frac{\det(CB)}{\det(B)}. \nonumber \]

    Afirmamos que\(d\) satisface las cuatro propiedades definitorias del determinante.

    1. Dejar\(C'\) ser la matriz obtenida haciendo un reemplazo de fila en\(C\text{,}\) y dejar\(E\) ser la matriz elemental para este reemplazo de fila, entonces\(C' = EC\). Como la multiplicación a la izquierda por\(E\) no cambia el determinante, tenemos\(\det(ECB) = \det(CB)\text{,}\) tan
      \[ d(C') = \frac{\det(C'B)}{\det(B)} = \frac{\det(ECB)}{\det(B)} = \frac{\det(CB)}{\det(B)} = d(C). \nonumber \]
    2. Dejar\(C'\) ser la matriz obtenida escalando una fila de\(C\) por un factor de\(c\text{,}\) y dejar\(E\) ser la matriz elemental para esta sustitución de fila, así\(C' = EC\). Desde la multiplicación izquierda por\(E\) escalas el determinante por un factor de\(c\text{,}\) tenemos\(\det(ECB) = c\det(CB)\text{,}\) tan
      \[ d(C') = \frac{\det(C'B)}{\det(B)} = \frac{\det(ECB)}{\det(B)} = \frac{c\det(CB)}{\det(B)} = c\cdot d(C). \nonumber \]

    Recordemos que tomar un poder de una matriz cuadrada\(A\) significa tomar productos\(A\) consigo mismo:

    \[ A^2 = AA \qquad A^3 = AAA \qquad \text{etc.} \nonumber \]

    Si\(A\) es invertible, entonces definimos

    \[ A^{-2} = A^{-1} A^{-1} \qquad A^{-3} = A^{-1} A^{-1} A^{-1} \qquad \text{etc.} \nonumber \]

    Para completar, establecemos\(A^0 = I_n\) si\(A\neq 0\).

    Corolario \(\PageIndex{2}\)

    Si\(A\) es una matriz cuadrada, entonces

    \[ \det(A^n) = \det(A)^n \nonumber \]

    para todos\(n\geq 1\). Si\(A\) es invertible, entonces la ecuación también\(n\leq 0\) se mantiene para todos; en particular,

    \[ \det(A^{-1}) = \frac 1{\det(A)}. \nonumber \]

    Prueba

    Usando la propiedad multiplicatividad, Proposición\(\PageIndex{3}\), calculamos

    \[ \det(A^2) = \det(AA) = \det(A)\det(A) = \det(A)^2 \nonumber \]

    y

    \[ \det(A^3) = \det(AAA) = \det(A)\det(AA) = \det(A)\det(A)\det(A) = \det(A)^3; \nonumber \]

    el patrón es claro.

    Tenemos

    \[ 1 = \det(I_n) = \det(A A^{-1}) = \det(A)\det(A^{-1}) \nonumber \]

    por la propiedad multiplicatividad, Proposición\(\PageIndex{3}\) y la cuarta propiedad definitoria, Definición\(\PageIndex{1}\), lo que demuestra que\(\det(A^{-1}) = \det(A)^{-1}\). Así

    \[ \det(A^{-2}) = \det(A^{-1} A^{-1}) = \det(A^{-1})\det(A^{-1}) = \det(A^{-1})^2 = \det(A)^{-2}, \nonumber \]

    y así sucesivamente.

    Ejemplo\(\PageIndex{9}\)

    Calcular\(\det(A^{100}),\) dónde

    \[ A = \left(\begin{array}{cc}4&1\\2&1\end{array}\right). \nonumber \]

    Solución

    Tenemos\(\det(A) = 4 - 2 = 2\text{,}\) tan

    \[ \det(A^{100}) = \det(A)^{100} = 2^{100}. \nonumber \]

    En ninguna parte tuvimos que calcular el poder\(100\) th de\(A\text{!}\) (Aprenderemos una manera eficiente de hacerlo en la Sección 5.4.)

    Aquí hay otra aplicación de la propiedad de multiplicatividad, Proposición\(\PageIndex{3}\).

    Corolario\(\PageIndex{3}\)

    \(A_1,A_2,\ldots,A_k\)Dejen ser\(n\times n\) matrices. Entonces el producto\(A_1A_2\cdots A_k\) es invertible si y sólo si cada uno\(A_i\) es invertible.

    Prueba

    El determinante del producto es el producto de los determinantes por la propiedad de multiplicatividad, Proposición\(\PageIndex{3}\):

    \[ \det(A_1A_2\cdots A_k) = \det(A_1)\det(A_2)\cdots\det(A_k). \nonumber \]

    Por la propiedad de invertibilidad, Proposición\(\PageIndex{2}\), esto es distinto de cero si y solo si\(A_1A_2\cdots A_k\) es invertible. Por otro lado,\(\det(A_1)\det(A_2)\cdots\det(A_k)\) es distinto de cero si y sólo si cada uno\(\det(A_i)\neq0\text{,}\) lo que significa que cada uno\(A_i\) es invertible.

    Ejemplo\(\PageIndex{10}\)

    Para cualquier número\(n\) que definamos

    \[ A_n = \left(\begin{array}{cc}1&n\\1&2\end{array}\right). \nonumber \]

    Demostrar que el producto

    \[ A_1 A_2 A_3 A_4 A_5 \nonumber \]

    no es invertible.

    Solución

    Cuando\(n = 2\text{,}\) la matriz no\(A_2\) es invertible, porque sus filas son idénticas:

    \[ A_2 = \left(\begin{array}{cc}1&2\\1&2\end{array}\right). \nonumber \]

    De ahí que cualquier producto que involucre no\(A_2\) es invertible.

    Para establecer la propiedad de transposición, necesitamos definir la transposición de una matriz.

    Definición\(\PageIndex{3}\): Transpose

    La transposición de una\(m\times n\) matriz\(A\) es la\(n\times m\) matriz\(A^T\) cuyas filas son las columnas de\(A\). En otras palabras, la\(ij\) entrada de\(A^T\) es\(a_{ji}\).

    clipboard_e27c14330239fdede3a41a0277d2074ec.png

    Figura\(\PageIndex{3}\)

    Al igual que la inversión, la transposición invierte el orden de multiplicación matricial.

    Hecho\(\PageIndex{1}\)

    Dejar\(A\) ser una\(m\times n\) matriz, y dejar\(B\) ser una\(n\times p\) matriz. Entonces

    \[ (AB)^T = B^TA^T. \nonumber \]

    Prueba

    Primero supongamos que\(A\) es un vector de fila y\(B\) es un vector de columna, es decir,\(m = p = 1\). Entonces

    \[\begin{aligned}AB&=\left(\begin{array}{cccc}a_1 &a_2&\cdots &a_n\end{array}\right)\left(\begin{array}{c}b_1\\b_2\\ \vdots\\b_n\end{array}\right)=a_1b_1+a_2b_2+\cdots +a_nb_n \\ &=\left(\begin{array}{cccc}b_1&b_2&\cdots &b_n\end{array}\right)\left(\begin{array}{c}a_1\\a_2\\ \vdots\\a_n\end{array}\right)=B^TA^T.\end{aligned}\]

    Ahora usamos la regla fila-columna para la multiplicación matricial. \(r_1,r_2,\ldots,r_m\)Dejen ser las filas de\(A\text{,}\) y dejar que\(c_1,c_2,\ldots,c_p\) sean las columnas de\(B\text{,}\) tan

    \[AB=\left(\begin{array}{c}—r_1 —\\ —r_2— \\ \vdots \\ —r_m—\end{array}\right)\left(\begin{array}{cccc}|&|&\quad &| \\ c_1&c_2&\cdots &c_p \\ |&|&\quad &|\end{array}\right)=\left(\begin{array}{cccc}r_1c_1&r_1c_2&\cdots &r_1c_p \\ r_2c_1&r_2c_2&\cdots &r_2c_p \\ \vdots &\vdots &{}&\vdots \\ r_mc_1&r_mc_2&\cdots &r_mc_p\end{array}\right).\nonumber\]

    Por el caso que manejamos anteriormente, tenemos\(r_ic_j = c_j^Tr_i^T\). Entonces

    \[\begin{aligned}(AB)^T&=\left(\begin{array}{cccc}r_1c_1&r_2c_1&\cdots &r_mc_1 \\ r_1c_2&r_2c_2&\cdots &r_mc_2 \\ \vdots &\vdots &{}&\vdots \\ r_1c_p&r_2c_p&\cdots &r_mc_p\end{array}\right) \\ &=\left(\begin{array}{cccc}c_1^Tr_1^T &c_1^Tr_2^T&\cdots &c_1^Tr_m^T \\ c_2^Tr_1^T&c_2^Tr_2^T&\cdots &c_2^Tr_m^T \\ \vdots&\vdots&{}&\vdots \\ c_p^Tr_1^T&c_p^Tr_2^T&\cdots&c_p^Tr_m^T\end{array}\right) \\ &=\left(\begin{array}{c}—c_1^T— \\ —c_2^T— \\ \vdots \\ —c_p^T—\end{array}\right)\left(\begin{array}{cccc}|&|&\quad&| \\ r_1^T&r_2^T&\cdots&r_m^T \\ |&|&\quad&|\end{array}\right)=B^TA^T.\end{aligned}\]

    Proposición \(\PageIndex{4}\): Transpose Property

    Para cualquier matriz cuadrada\(A\text{,}\) tenemos

    \[ \det(A) = \det(A^T). \nonumber \]

    Prueba

    Seguimos la misma estrategia que en la prueba de la propiedad de multiplicatividad, Proposición\(\PageIndex{3}\): es decir, definimos

    \[ d(A) = \det(A^T), \nonumber \]

    y demostramos que\(d\) satisface las cuatro propiedades definitorias del determinante. Nuevamente utilizamos matrices elementales, también introducidas en la prueba de la propiedad de multiplicatividad, Proposición\(\PageIndex{3}\).

    1. Dejar De\(C'\) be the matrix obtained by doing a row replacement on \(C\text{,}\) and let \(E\) be the elementary matrix for this row replacement, so \(C' = EC\). The elementary matrix for a row replacement is either upper-triangular or lower-triangular, with ones on the diagonal: \[R_1=R_1+3R_3:\left(\begin{array}{ccc}1&0&3\\0&1&0\\0&0&1\end{array}\right)\quad R_3=R_3+3R_1:\left(\begin{array}{ccc}1&0&0\\0&1&0\\3&0&1\end{array}\right).\nonumber\]
      ello se deduce que también\(E^T\) es o superior-triangular o inferior triangular, con unos en la diagonal, así\(\det(E^T) = 1\) por esta Proposición\(\PageIndex{1}\). Por el hecho\(\PageIndex{1}\) y la propiedad de multiplicatividad, Proposición\(\PageIndex{3}\),\[ \begin{split} d(C') \amp= \det((C')^T) = \det((EC)^T) = \det(C^TE^T) \\ \amp= \det(C^T)\det(E^T) = \det(C^T) = d(C). \end{split} \nonumber \]
    2. Dejar\(C'\) ser la matriz obtenida escalando una fila de\(C\) por un factor de\(c\text{,}\) y dejar\(E\) ser la matriz elemental para esta sustitución de fila, así\(C' = EC\). Entonces\(E\) es una matriz diagonal:\[R_2=cR_2:\: \left(\begin{array}{ccc}1&0&0\\0&c&0\\0&0&1\end{array}\right).\nonumber\] Así\(\det(E^T) = c\). Por el hecho\(\PageIndex{1}\) y la propiedad de multiplicatividad, Proposición\(\PageIndex{3}\),\[ \begin{split} d(C') \amp= \det((C')^T) = \det((EC)^T) = \det(C^TE^T) \\ \amp= \det(C^T)\det(E^T) = c\det(C^T) = c\cdot d(C). \end{split} \nonumber \]
    3. Dejar\(C'\) ser la matriz obtenida al intercambiar dos filas de\(C\text{,}\) y dejar\(E\) ser la matriz elemental para esta sustitución de filas, así\(C' = EC\). El\(E\) es igual a su propia transposición:\[R_1\longleftrightarrow R_2:\:\left(\begin{array}{ccc}0&1&0\\1&0&0\\0&0&1\end{array}\right)=\left(\begin{array}{ccc}0&1&0\\1&0&0\\0&0&1\end{array}\right)^T.\nonumber\] Dado que\(E\) (por lo tanto\(E^T\)) se obtiene realizando un intercambio de fila en la matriz de identidad, tenemos\(\det(E^T) = -1\). Por el hecho\(\PageIndex{1}\) y la propiedad de multiplicatividad, Proposición\(\PageIndex{3}\),\[ \begin{split} d(C') \amp= \det((C')^T) = \det((EC)^T) = \det(C^TE^T) \\ \amp= \det(C^T)\det(E^T) = -\det(C^T) = - d(C). \end{split} \nonumber \]
    4. Ya que\(I_n^T = I_n,\) tenemos\[ d(I_n) = \det(I_n^T) = det(I_n) = 1. \nonumber \]\(d\) Since satisface las cuatro propiedades definitorias del determinante, es igual al determinante por el teorema de la existencia\(\PageIndex{1}\). En otras palabras, para todas las matrices\(A\text{,}\) tenemos\[ \det(A) = d(A) = \det(A^T). \nonumber \]

    La propiedad de transposición, Proposición\(\PageIndex{4}\), es muy útil. Para concretar, señalamos que\(\det(A)=\det(A^T)\) significa, por ejemplo, que

    \[ \det\left(\begin{array}{ccc}1&2&3\\4&5&6\\7&8&9\end{array}\right) = \det\left(\begin{array}{ccc}1&4&7\\2&5&8\\3&6&9\end{array}\right). \nonumber \]

    Esto implica que el determinante tiene la curiosa característica de que también se comporta bien con respecto a las operaciones de columna. En efecto, una operación de columna en\(A\) es lo mismo que una operación de fila en\(A^T\text{,}\) y\(\det(A) = \det(A^T)\).

    Corolario\(\PageIndex{4}\)

    El determinante satisface las siguientes propiedades con respecto a las operaciones de columna:

    1. Hacer un reemplazo de columna\(A\) encendido no cambia\(\det(A)\).
    2. Escalar una columna de\(A\) por un escalar\(c\) multiplica el determinante por\(c\).
    3. El intercambio de dos columnas de una matriz multiplica el determinante por\(-1\).

    El corolario anterior facilita el cálculo del determinante: se permite realizar operaciones de fila y columna al simplificar la matriz. (Por supuesto, todavía hay que hacer un seguimiento de cómo las operaciones de fila y columna cambian el determinante).

    Ejemplo\(\PageIndex{11}\)

    Compute\(\det\left(\begin{array}{ccc}2&7&4\\3&1&3\\4&0&1\end{array}\right).\)

    Solución

    Se necesitan menos operaciones de columna que operaciones de fila para hacer esta matriz triangulares superiores:

    \[\begin{aligned}\left(\begin{array}{ccc}2&7&4\\3&1&3\\4&0&1\end{array}\right)\quad\xrightarrow{C_1=C_1-4C_3}\quad &\left(\begin{array}{ccc}-14&7&4\\-9&1&3\\0&0&1\end{array}\right) \\ {}\xrightarrow{C_1=C_1+9C_2}\quad&\left(\begin{array}{ccc}49&7&4\\0&1&3\\0&0&1\end{array}\right)\end{aligned}\]

    Se realizaron dos reemplazos de columna, lo que no cambia el determinante; por lo tanto,

    \[ \det\left(\begin{array}{ccc}2&7&4\\3&1&3\\4&0&1\end{array}\right) = \det\left(\begin{array}{ccc}49&7&4\\0&1&3\\0&0&1\end{array}\right) = 49. \nonumber \]

    Multilinealidad

    La siguiente observación es útil para fines teóricos.

    Podemos pensar en\(\det\) como una función de las filas de una matriz:

    \[ \det(v_1,v_2,\ldots,v_n) = \det\left(\begin{array}{c}—v_1— \\ —v_2— \\ \vdots \\ —v_n—\end{array}\right). \nonumber \]

    Proposición\(\PageIndex{5}\): Multilinearity Property

    Dejar\(i\) ser un número entero entre\(1\) y\(n\text{,}\) y fijar\(n-1\) vectores\(v_1,v_2,\ldots,v_{i-1},v_{i+1},\ldots,v_n\) en\(\mathbb{R}^n \). Luego la transformación\(T\colon\mathbb{R}^n \to\mathbb{R}\) definida por

    \[ T(x) = \det(v_1,v_2,\ldots,v_{i-1},x,v_{i+1},\ldots,v_n) \nonumber \]

    es lineal.

    Prueba

    Primero asumamos que\(i=1\text{,}\) así

    \[ T(x) = \det(x,v_2,\ldots,v_n). \nonumber \]

    Tenemos que demostrar que\(T\) satisface las propiedades definitorias, Definición 3.3.1, en la Sección 3.3.

    • Por la primera propiedad definitoria\(\PageIndex{1}\), Definición, escalando cualquier fila de una matriz por un número\(c\) escala el determinante por un factor de\(c\). Esto implica que\(T\) satisface la segunda propiedad, es decir, que\[ T(cx) = \det(cx,v_2,\ldots,v_n) = c\det(x,v_2,\ldots,v_n) = cT(x). \nonumber \]
    • Eso lo afirmamos\(T(v+w) = T(v) + T(w)\). Si\(w\) está en\(\text{Span}\{v,v_2,\ldots,v_n\}\text{,}\) entonces\[ w = cv + c_2v_2 + \cdots + c_nv_n \nonumber \] para algunos escalares\(c,c_2,\ldots,c_n\). Dejar\(A\) ser la matriz con filas\(v+w,v_2,\ldots,v_n\text{,}\) así\(T(v+w) = \det(A).\) Al realizar las operaciones de fila\[ R_1 = R_1 - c_2R_2;\quad R_1 = R_1 - c_3R_3;\quad\ldots\quad R_1 = R_1 - c_nR_n, \nonumber \] la primera fila de la matriz\(A\) se convierte\[ v+w-(c_2v_2+\cdots+c_nv_n) = v + cv = (1+c)v. \nonumber \] Por lo tanto,\[ \begin{split} T(v+w) = \det(A) \amp= \det((1+c)v,v_2,\ldots,v_n) \\ \amp= (1+c)\det(v,v_2,\ldots,v_n) \\ \amp= T(v) + cT(v) = T(v) + T(cv). \end{split} \nonumber \] Hacer las operaciones de fila opuesta\[ R_1 = R_1 + c_2R_2;\quad R_1 = R_1 + c_3R_3;\quad\ldots\quad R_1 = R_1 + c_nR_n \nonumber \] a la matriz con filas\(cv,v_2,\ldots,v_n\) muestra aquello\[ \begin{split} T(cv) \amp= \det(cv,v_2,\ldots,v_n) \\ \amp= \det(cv+c_2v_2+\cdots+c_nv_n,v_2,\ldots,v_n) \\ \amp= \det(w,v_2,\ldots,v_n) = T(w), \end{split} \nonumber \] que termina el comprobante del primer inmueble en este caso.

      Ahora supongamos que eso no\(w\) está adentro\(\text{Span}\{v,v_2,\ldots,v_n\}\). Esto implica que\(\{v,v_2,\ldots,v_n\}\) es linealmente dependiente (de lo contrario formaría una base para\(\mathbb{R}^n \)), así\(T(v)\) = 0. Si no\(v\) está en\(\text{Span}\{v_2,\ldots,v_n\}\text{,}\) entonces\(\{v_2,\ldots,v_n\}\) es linealmente dependiente por el criterio de span creciente, Teorema 2.5.2 en la Sección 2.5, por lo que\(T(x) = 0\) para todos\(x\text{,}\) como la matriz con filas no\(x,v_2,\ldots,v_n\) es invertible. De ahí que podamos suponer que\(v\) está en\(\text{Span}\{v_2,\ldots,v_n\}\). Por el argumento anterior con los roles de\(v\) y\(w\) revertidos, tenemos\(T(v+w) = T(v)+T(w).\)

    Para\(i\neq 1\text{,}\) notamos que

    \[ \begin{split} T(x) \amp= \det(v_1,v_2,\ldots,v_{i-1},x,v_{i+1},\ldots,v_n) \\ \amp= -\det(x,v_2,\ldots,v_{i-1},v_1,v_{i+1},\ldots,v_n). \end{split} \nonumber \]

    Por el caso previamente manejado, sabemos que\(-T\) es lineal:

    \[ -T(cx) = -cT(x) \qquad -T(v+w) = -T(v) - T(w). \nonumber \]

    Multiplicando ambos lados por\(-1\text{,}\) vemos que\(T\) es lineal.

    Por ejemplo, tenemos

    \[\det\left(\begin{array}{lcr}—&v_1&— \\ —&av+bw&— \\ —&v_3&—\end{array}\right)=a\det\left(\begin{array}{c}—v_1— \\ —v— \\ —v_3—\end{array}\right)+b\det\left(\begin{array}{c}—v_1— \\ —w— \\ —v_3—\end{array}\right)\nonumber\]

    Por la propiedad de transposición, Proposición\(\PageIndex{4}\), el determinante también es multilineal en las columnas de una matriz:

    \[ \det\left(\begin{array}{ccc}|&|&|\\ v_1&av+bw&v_3 \\ |&|&|\end{array}\right) = a\det\left(\begin{array}{ccc}|&|&|\\v_1&v&v_3 \\ |&|&|\end{array}\right) + b\det\left(\begin{array}{ccc}|&|&|\\v_1&w&v_3\\|&|&|\end{array}\right). \nonumber \]

    Observación: Propiedades alternativas de definición

    En tratamientos más teóricos del tema, donde la reducción de filas juega un papel secundario, las propiedades definitorias del determinante suelen ser:

    1. El determinante\(\det(A)\) es multilineal en las filas de\(A\).
    2. Si\(A\) tiene dos filas idénticas, entonces\(\det(A) = 0\).
    3. El determinante de la matriz de identidad es igual a uno.

    Ya hemos demostrado que nuestras cuatro propiedades definitorias, Definición\(\PageIndex{1}\), implican estas tres. Por el contrario, probaremos que estas tres propiedades alternativas implican nuestras cuatro, de manera que ambos conjuntos de propiedades son equivalentes.

    Definir propiedad\(2\) es solo la segunda propiedad definitoria, Definición 3.3.1, en la Sección 3.3. Supongamos que las filas de\(A\) son\(v_1,v_2,\ldots,v_n\). Si realizamos el reemplazo de fila\(A\text{,}\) entonces\(R_i = R_i + cR_j\) las filas de nuestra nueva matriz son\(v_1,v_2,\ldots,v_{i-1},v_i+cv_j,v_{i+1},\ldots,v_n\text{,}\) así por linealidad en la fila\(i\) th,

    \[ \begin{split} \det(\amp v_1,v_2,\ldots,v_{i-1},v_i+cv_j,v_{i+1},\ldots,v_n) \\ \amp= \det(v_1,v_2,\ldots,v_{i-1},v_i,v_{i+1},\ldots,v_n) + c\det(v_1,v_2,\ldots,v_{i-1},v_j,v_{i+1},\ldots,v_n) \\ \amp= \det(v_1,v_2,\ldots,v_{i-1},v_i,v_{i+1},\ldots,v_n) = \det(A), \end{split} \nonumber \]

    donde\(\det(v_1,v_2,\ldots,v_{i-1},v_j,v_{i+1},\ldots,v_n)=0\) porque\(v_j\) se repite. Así, las propiedades definitorias alternativas implican nuestras dos primeras propiedades definitorias. Para el tercero, supongamos que queremos intercambiar fila\(i\) con fila\(j\). Usando la segunda alternativa que define la propiedad y la multilinealidad en las filas\(i\)\(j\) th y th, tenemos

    \[ \begin{split} 0 \amp= \det(v_1,\ldots,v_i+v_j,\ldots,v_i+v_j,\ldots,v_n) \\ \amp= \det(v_1,\ldots,v_i,\ldots,v_i+v_j,\ldots,v_n) + \det(v_1,\ldots,v_j,\ldots,v_i+v_j,\ldots,v_n) \\ \amp= \det(v_1,\ldots,v_i,\ldots,v_i,\ldots,v_n) + \det(v_1,\ldots,v_i,\ldots,v_j,\ldots,v_n) \\ \amp\qquad+\det(v_1,\ldots,v_j,\ldots,v_i,\ldots,v_n) + \det(v_1,\ldots,v_j,\ldots,v_j,\ldots,v_n) \\ \amp= \det(v_1,\ldots,v_i,\ldots,v_j,\ldots,v_n) + \det(v_1,\ldots,v_j,\ldots,v_i,\ldots,v_n), \end{split} \nonumber \]

    según se desee.

    Ejemplo\(\PageIndex{12}\)

    Tenemos

    \[ \left(\begin{array}{c}-1\\2\\3\end{array}\right) = -\left(\begin{array}{c}1\\0\\0\end{array}\right) + 2\left(\begin{array}{c}0\\1\\0\end{array}\right) + 3\left(\begin{array}{c}0\\0\\1\end{array}\right). \nonumber \]

    Por lo tanto,

    \[ \begin{split} \det\amp\left(\begin{array}{ccc}-1&7&2\\2&-3&2\\3&1&1\end{array}\right) = -\det\left(\begin{array}{ccc}1&7&2\\0&-3&2\\0&1&1\end{array}\right) \\ \amp+ 2\det\left(\begin{array}{ccc}0&7&2\\1&-3&2\\0&1&1\end{array}\right) + 3\det\left(\begin{array}{ccc}0&7&2\\0&-3&2\\1&1&1\end{array}\right). \end{split} \nonumber \]

    Esta es la idea básica detrás de las expansiones de cofactores en la Sección 4.2.

    Nota\(\PageIndex{2}\): Summary: Magical Properties of the Determinant
    1. Hay una y sólo una función que\(\det\colon\{n\times n\text{ matrices}\}\to\mathbb{R}\) satisface las cuatro propiedades definitorias, Definición\(\PageIndex{1}\).
    2. El determinante de una matriz triangular superior o triangular inferior es el producto de las entradas diagonales.
    3. Una matriz cuadrada es invertible si y sólo si\(\det(A)\neq 0\text{;}\) en este caso,\[ \det(A^{-1}) = \frac 1{\det(A)}. \nonumber \]
    4. Si\(A\) y\(B\) son\(n\times n\) matrices, entonces\[ \det(AB) = \det(A)\det(B). \nonumber \]
    5. Para cualquier matriz cuadrada\(A\text{,}\) tenemos\[ \det(A^T) = \det(A). \nonumber \]
    6. El determinante se puede calcular realizando operaciones de fila y/o columna.

    This page titled 4.1: Determinantes- Definición is shared under a GNU Free Documentation License 1.3 license and was authored, remixed, and/or curated by Dan Margalit & Joseph Rabinoff via source content that was edited to the style and standards of the LibreTexts platform.