Saltar al contenido principal
LibreTexts Español

A.3: Eliminación

  • Page ID
    115273
  • \( \newcommand{\vecs}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} } \) \( \newcommand{\vecd}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash {#1}}} \)\(\newcommand{\id}{\mathrm{id}}\) \( \newcommand{\Span}{\mathrm{span}}\) \( \newcommand{\kernel}{\mathrm{null}\,}\) \( \newcommand{\range}{\mathrm{range}\,}\) \( \newcommand{\RealPart}{\mathrm{Re}}\) \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\) \( \newcommand{\Argument}{\mathrm{Arg}}\) \( \newcommand{\norm}[1]{\| #1 \|}\) \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\) \( \newcommand{\Span}{\mathrm{span}}\) \(\newcommand{\id}{\mathrm{id}}\) \( \newcommand{\Span}{\mathrm{span}}\) \( \newcommand{\kernel}{\mathrm{null}\,}\) \( \newcommand{\range}{\mathrm{range}\,}\) \( \newcommand{\RealPart}{\mathrm{Re}}\) \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\) \( \newcommand{\Argument}{\mathrm{Arg}}\) \( \newcommand{\norm}[1]{\| #1 \|}\) \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\) \( \newcommand{\Span}{\mathrm{span}}\)\(\newcommand{\AA}{\unicode[.8,0]{x212B}}\)

    Sistemas Lineales de Ecuaciones

    Una aplicación de matrices es resolver sistemas de ecuaciones lineales \(^{1}\). Considera el siguiente sistema de ecuaciones lineales\[ \begin{align} 2 x_1 + 2 x_2 + 2 x_3 & = 2 ,\nonumber \\ \phantom{9} x_1 + \phantom{9} x_2 + 3 x_3 & = 5 ,\label{eq:1} \\ \phantom{9} x_1 + 4 x_2 + \phantom{9} x_3 & = 10 . \end{align} \nonumber \] Existe un procedimiento sistemático llamado eliminación para resolver dicho sistema. En este procedimiento, intentamos eliminar cada variable de todas las ecuaciones menos una. Queremos terminar con ecuaciones como\(x_3 = 2\), donde solo podamos leer la respuesta.

    Escribimos un sistema de ecuaciones lineales como una ecuación matricial:\[A \vec{x} = \vec{b} . \nonumber \] El sistema\(\eqref{eq:1}\) se escribe como\[\underbrace{ \begin{bmatrix} 2 & 2 & 2 \\ 1 & 1 & 3 \\ 1 & 4 & 1 \end{bmatrix} }_{A} \underbrace{ \begin{bmatrix} x_1 \\ x_2 \\ x_3 \end{bmatrix} }_{\vec{x}} = \underbrace{ \begin{bmatrix} 2 \\ 5 \\ 10 \end{bmatrix} }_{\vec{b}} . \nonumber \]

    Si supiéramos lo inverso de\(A\), entonces estaríamos hechos; simplemente resolveríamos la ecuación:\[\vec{x} = A^{-1} A \vec{x} = A^{-1} \vec{b} . \nonumber \] Bueno, pero eso es parte del problema, no sabemos cómo calcular la inversa para matrices mayores que\(2 \times 2\). Veremos más adelante que para calcular la inversa realmente estamos resolviendo\(A \vec{x} = \vec{b}\) para varios diferentes\(\vec{b}\). En otras palabras, tendremos que hacer eliminación para encontrar\(A^{-1}\). Además, tal vez deseemos resolver\(A \vec{x} = \vec{b}\) si no\(A\) es invertible, o tal vez ni siquiera cuadrado.

    Volvamos a las propias ecuaciones y veamos cómo podemos manipularlas. Hay algunas operaciones que podemos realizar sobre las ecuaciones que no cambian la solución. Primero, tal vez una operación que puede parecer estúpida, podemos intercambiar dos ecuaciones en\(\eqref{eq:1}\):\[\begin{align}\begin{aligned} \phantom{9} x_1 + \phantom{9} x_2 + 3 x_3 & = 5 , \\ 2 x_1 + 2 x_2 + 2 x_3 & = 2 , \\ \phantom{9} x_1 + 4 x_2 + \phantom{9} x_3 & = 10 . \end{aligned}\end{align} \nonumber \]

    Claramente estas nuevas ecuaciones tienen las mismas soluciones\(x_1,\: x_2,\: x_3\). Una segunda operación es que podemos multiplicar una ecuación por un número distinto de cero. Por ejemplo, multiplicamos la tercera ecuación\(\eqref{eq:1}\) por 3:\[\begin{align}\begin{aligned} 2 x_1 + \phantom{9} 2 x_2 + 2 x_3 & = 2 , \\ \phantom{9} x_1 + \phantom{99} x_2 + 3 x_3 & = 5 , \\ 3 x_1 + 12 x_2 + 3 x_3 & = 30 . \end{aligned}\end{align} \nonumber \] Finalmente, podemos agregar un múltiplo de una ecuación a otra ecuación. Por ejemplo, agregamos 3 veces la tercera ecuación en\(\eqref{eq:1}\) la segunda ecuación:\[\begin{align}\begin{aligned} \phantom{(1+3)} 2 x_1 + \phantom{(1+12)} 2 x_2 + \phantom{(3+3)} 2 x_3 & = 2 , \\ \phantom{2} (1+3) x_1 + \phantom{2}(1+12) x_2 + \phantom{2} (3+3) x_3 & = 5+30 , \\ \phantom{2 (1+3)} x_1 + \phantom{(1+12)} 4 x_2 + \phantom{(3+3) 2} x_3 & = 10 . \end{aligned}\end{align} \nonumber \] Lo mismo\(x_1,\: x_2,\: x_3\) debería seguir siendo soluciones a las nuevas ecuaciones. Estos fueron solo ejemplos; no nos acercamos más a la solución. Debemos hacer estas tres operaciones de alguna manera más lógica, pero resulta que estas tres operaciones bastan para resolver cada ecuación lineal.

    Lo primero es escribir las ecuaciones de una manera más compacta. Dado\[A \vec{x} = \vec{b} , \nonumber \] escribimos la llamada matriz aumentada\[[A\: |\:\vec{b}\: ], \nonumber \] donde la línea vertical es solo un marcador para que sepamos dónde comienza el de la ecuación. Para el sistema\(\eqref{eq:1}\) la matriz aumentada es Todo\[\left[ \begin{array}{ccc|c} 2 & 2 & 2 & 2 \\ 1 & 1 & 3 & 5 \\ 1 & 4 & 1 & 10 \end{array} \right] . \nonumber \] el proceso de eliminación, que describiremos, a menudo se aplica a cualquier tipo de matriz, no solo a una matriz aumentada. Simplemente piense en la matriz como la\(3 \times 4\) matriz\[\begin{bmatrix} 2 & 2 & 2 & 2 \\ 1 & 1 & 3 & 5 \\ 1 & 4 & 1 & 10 \end{bmatrix} . \nonumber \]

    Formulario Echelon y Operaciones Elementales

    Aplicamos las tres operaciones anteriores a la matriz. A estas las llamamos las operaciones elementales o las operaciones elementales de fila. Al traducir las operaciones a la configuración de matriz, las operaciones se convierten en:

    1. Intercambiar dos filas.
    2. Multiplica una fila por un número distinto de cero.
    3. Agrega un múltiplo de una fila a otra fila.

    Ejecutamos estas operaciones hasta llegar a un estado en el que sea fácil leer la respuesta, o hasta que nos metamos en una contradicción que indique que no hay solución.

    Más específicamente, ejecutamos las operaciones hasta obtener la llamada forma de escalón de filas. Llamemos a la primera entrada distinta de cero (desde la izquierda) en cada fila la entrada principal. Una matriz está en forma de escalón de filas si se cumplen las siguientes condiciones:

    1. La entrada principal en cualquier fila está estrictamente a la derecha de la entrada principal de la fila anterior.
    2. Cualquier fila cero está por debajo de todas las filas distintas de cero.
    3. Todas las entradas principales son\(1\).

    Una matriz está en forma de escalón de fila reducida si además se cumple la siguiente condición.

    1. Todas las entradas por encima de una entrada principal son cero.

    Tenga en cuenta que la definición se aplica a matrices de cualquier tamaño.

    Ejemplo\(\PageIndex{1}\)

    Las siguientes matrices están en forma de escalón de fila. Las entradas principales están marcadas:\[\begin{bmatrix} \fbox{1} & 2 & 9 & 3 \\ 0 & 0 & \fbox{1} & 5 \\ 0 & 0 & 0 & \fbox{1} \end{bmatrix} \qquad \begin{bmatrix} \fbox{1} & -1 & -3 \\ 0 & \fbox{1} & 5 \\ 0 & 0 & \fbox{1} \end{bmatrix} \qquad \begin{bmatrix} \fbox{1} & 2 & 1 \\ 0 & \fbox{1} & 2 \\ 0 & 0 & 0 \end{bmatrix} \qquad \begin{bmatrix} 0 & \fbox{1} & -5 & 2 \\ 0 & 0 & 0 & \fbox{1} \\ 0 & 0 & 0 & 0 \end{bmatrix} \nonumber \] Ninguna de las matrices anteriores está en forma de escalón de fila reducida. Por ejemplo, en la primera matriz ninguna de las entradas por encima de la segunda y tercera entradas principales son cero; son 9, 3 y 5. Las siguientes matrices están en forma de escalón de fila reducida. Las entradas principales están marcadas:\[\begin{bmatrix} \fbox{1} & 3 & 0 & 8 \\ 0 & 0 & \fbox{1} & 6 \\ 0 & 0 & 0 & 0 \end{bmatrix} \qquad \begin{bmatrix} \fbox{1} & 0 & 2 & 0 \\ 0 & \fbox{1} & 3 & 0 \\ 0 & 0 & 0 & \fbox{1} \end{bmatrix} \qquad \begin{bmatrix} \fbox{1} & 0 & 3 \\ 0 & \fbox{1} & -2 \\ 0 & 0 & 0 \end{bmatrix} \qquad \begin{bmatrix} 0 & \fbox{1} & 2 & 0 \\ 0 & 0 & 0 & \fbox{1} \\ 0 & 0 & 0 & 0 \end{bmatrix} \nonumber \]

    El procedimiento que describiremos para encontrar una forma de escalón de fila reducida de una matriz se llama eliminación Gauss-Jordan. La primera parte de la misma, que obtiene una forma de escalón de fila, se denomina eliminación gaussiana o reducción de filas. Para algunos problemas, una forma escalonada de fila es suficiente, y es un poco menos trabajo hacer solo esta primera parte.

    Para alcanzar la forma escalón de fila trabajamos sistemáticamente. Vamos columna por columna, comenzando en la primera columna. Encontramos la entrada más alta en la primera columna que no es cero, y la llamamos el pivote. Si no hay entrada distinta de cero pasamos a la siguiente columna. Intercambiamos filas para poner la fila con el pivote como primera fila. Dividimos la primera fila por el pivote para hacer que la entrada de pivote sea un 1. Ahora mira todas las filas de abajo y resta el múltiplo correcto de la fila de pivote para que todas las entradas debajo del pivote se conviertan en cero.

    Después de este procedimiento olvidamos que teníamos una primera fila (ahora está fija), y nos olvidamos de la columna con el pivote y todas las columnas cero precedentes. Debajo de la fila de pivote, todas las entradas en estas columnas son apenas cero. Después nos enfocamos en la matriz más pequeña y repetimos los pasos anteriores.

    Se muestra mejor con el ejemplo, así que volvamos al ejemplo desde el inicio de la sección. Mantenemos la línea vertical en la matriz, aunque el procedimiento funcione en cualquier matriz, no solo en una matriz aumentada. Comenzamos con la primera columna y ubicamos el pivote, en este caso la primera entrada de la primera columna. \[\left[ \begin{array}{ccc|c} \fbox{2} & 2 & 2 & 2 \\ 1 & 1 & 3 & 5 \\ 1 & 4 & 1 & 10 \end{array} \right] \nonumber \]Multiplicamos la primera fila por\(\frac{1}{2}\). \[\left[ \begin{array}{ccc|c} \fbox{1} & 1 & 1 & 1 \\ 1 & 1 & 3 & 5 \\ 1 & 4 & 1 & 10 \end{array} \right] \nonumber \]Restamos la primera fila de la segunda y tercera fila (dos operaciones elementales). \[\left[ \begin{array}{ccc|c} 1 & 1 & 1 & 1 \\ 0 & 0 & 2 & 4 \\ 0 & 3 & 0 & 9 \end{array} \right] \nonumber \]Ya terminamos con la primera columna y la primera fila por ahora. Casi pretendemos que la matriz no tiene la primera columna y la primera fila. \[\left[ \begin{array}{ccc|c} * & * & * & * \\ * & 0 & 2 & 4 \\ * & 3 & 0 & 9 \end{array} \right] \nonumber \]OK, mira la segunda columna, y fíjate que ahora el pivote está en la tercera fila. \[\left[ \begin{array}{ccc|c} 1 & 1 & 1 & 1 \\ 0 & 0 & 2 & 4 \\ 0 & \fbox{3} & 0 & 9 \end{array} \right] \nonumber \]Intercambiamos filas. \[\left[ \begin{array}{ccc|c} 1 & 1 & 1 & 1 \\ 0 & \fbox{3} & 0 & 9 \\ 0 & 0 & 2 & 4 \end{array} \right] \nonumber \]Y dividimos la fila de pivote por 3. \[\left[ \begin{array}{ccc|c} 1 & 1 & 1 & 1 \\ 0 & \fbox{1} & 0 & 3 \\ 0 & 0 & 2 & 4 \end{array} \right] \nonumber \]No necesitamos restar nada ya que todo por debajo del pivote ya es cero. Seguimos adelante, nuevamente comenzamos a ignorar la segunda fila y la segunda columna y\[\left[ \begin{array}{ccc|c} * & * & * & * \\ * & * & * & * \\ * & * & 2 & 4 \end{array} \right] . \nonumber \] nos enfocamos en Encontramos el pivote, luego dividimos esa fila por 2:\[\left[ \begin{array}{ccc|c} 1 & 1 & 1 & 1 \\ 0 & 1 & 0 & 3 \\ 0 & 0 & \fbox{2} & 4 \end{array} \right] \qquad \to \qquad \left[ \begin{array}{ccc|c} 1 & 1 & 1 & 1 \\ 0 & 1 & 0 & 3 \\ 0 & 0 & 1 & 2 \end{array} \right] . \nonumber \] La matriz ahora está en forma de escalón de fila.

    La ecuación correspondiente a la última fila es\(x_3 = 2\). Sabemos\(x_3\) y podríamos sustituirlo por las dos primeras ecuaciones para obtener ecuaciones para\(x_1\) y\(x_2\). Entonces podríamos hacer lo mismo con\(x_2\), hasta que resolvamos para las 3 variables. Este procedimiento se llama retrosustitución y podemos lograrlo a través de operaciones elementales. Partimos del pivote más bajo (entrada principal en la forma de escalón de fila) y restamos el múltiplo derecho de la fila de arriba para hacer cero todas las entradas por encima de este pivote. Después pasamos al siguiente pivote y así sucesivamente. Una vez que hayamos terminado, tendremos una matriz en forma de escalón de fila reducida.

    Seguimos nuestro ejemplo. Restar la última fila de la primera para obtener\[\left[ \begin{array}{ccc|c} 1 & 1 & 0 & -1 \\ 0 & 1 & 0 & 3 \\ 0 & 0 & 1 & 2 \end{array} \right] . \nonumber \] La entrada por encima del pivote en la segunda fila ya es cero. Entonces pasamos al siguiente pivote, el de la segunda fila. Restamos esta fila de la fila superior para obtener\[\left[ \begin{array}{ccc|c} 1 & 0 & 0 & -4 \\ 0 & 1 & 0 & 3 \\ 0 & 0 & 1 & 2 \end{array} \right] . \nonumber \] La matriz está en forma de escalón de fila reducida.

    Si ahora escribimos las ecuaciones para\(x_1,x_2,x_3\), nos encontramos\[x_1 = -4, \qquad x_2 = 3, \qquad x_3 = 2 . \nonumber \] en otras palabras, hemos resuelto el sistema.

    Soluciones no únicas y sistemas inconsistentes

    Es posible que la solución de un sistema lineal de ecuaciones no sea única, o que no exista ninguna solución. Supongamos por un momento que la forma de escalón de fila que encontramos era\[\left[ \begin{array}{ccc|c} 1 & 2 & 3 & 4 \\ 0 & 0 & 1 & 3 \\ 0 & 0 & 0 & 1 \end{array} \right] . \nonumber \] Entonces tenemos una ecuación que\(0=1\) viene de la última fila. Eso es imposible y las ecuaciones son lo que llamamos inconsistentes. No hay solución para\(A \vec{x} = \vec{b}\).

    Por otro lado, si encontramos una forma de escalón de fila\[\left[ \begin{array}{ccc|c} 1 & 2 & 3 & 4 \\ 0 & 0 & 1 & 3 \\ 0 & 0 & 0 & 0 \end{array} \right] , \nonumber \] entonces no hay problema con encontrar soluciones. De hecho, encontraremos demasiadas. Continuemos con la retrosustitución (restando 3 veces la tercera fila de la primera) para encontrar la forma de escalón de fila reducida y marquemos los pivotes. \[\left[ \begin{array}{ccc|c} \fbox{1} & 2 & 0 & -5 \\ 0 & 0 & \fbox{1} & 3 \\ 0 & 0 & 0 & 0 \end{array} \right] \nonumber \]La última fila son todos ceros; solo dice\(0=0\) y la ignoramos. Las dos ecuaciones restantes son\[x_1 + 2 x_2 = -5 , \qquad x_3 = 3 . \nonumber \] Vamos a resolver para las variables que correspondían a los pivotes, es decir\(x_1\) y\(x_3\) como había un pivote en la primera columna y en la tercera columna:\[\begin{align}\begin{aligned} & x_1 = - 2 x_2 -5 , \\ & x_3 = 3 .\end{aligned}\end{align} \nonumber \] La variable\(x_2\) puede ser cualquier cosa que desees y aun así conseguimos una solución. El\(x_2\) se llama una variable libre. Hay infinitamente muchas soluciones, una para cada elección de\(x_2\). Si escogemos\(x_2=0\), entonces\(x_1 = -5\), y\(x_3 = 3\) damos una solución. Pero también obtenemos una solución escogiendo digamos\(x_2 = 1\), en cuyo caso\(x_1 = -9\) y\(x_3 = 3\), o escogiendo\(x_2 = -5\) en qué caso\(x_1 = 5\) y\(x_3 = 3\).

    La idea general es que si alguna fila tiene todos los ceros en las columnas correspondientes a las variables, pero una entrada distinta de cero en la columna correspondiente al lado derecho\(\vec{b}\), entonces el sistema es inconsistente y no tiene soluciones. En otras palabras, el sistema es inconsistente si encuentras un pivote en el lado derecho de la línea vertical dibujada en la matriz aumentada. De lo contrario, el sistema es consistente, y al menos existe una solución.

    Supongamos que el sistema es consistente (al menos existe una solución):

    1. Si cada columna correspondiente a una variable tiene un elemento pivote, entonces la solución es única.
    2. Si hay columnas correspondientes a variables sin pivote, entonces esas son variables libres que se pueden elegir arbitrariamente, y hay infinitamente muchas soluciones.

    Cuando\(\vec{b} = \vec{0}\), tenemos una llamada ecuación matricial homogénea No\[A \vec{x} = \vec{0} . \nonumber \] hay necesidad de escribir una matriz aumentada en este caso. Como las operaciones elementales no hacen nada a una columna cero, siempre permanece una columna cero. Además,\(A \vec{x} = \vec{0}\) siempre tiene al menos una solución, a saber\(\vec{x} = \vec{0}\). Tal sistema siempre es consistente. Puede tener otras soluciones: Si encuentras alguna variable libre, entonces obtienes infinitamente muchas soluciones.

    El conjunto de soluciones de\(A \vec{x} = \vec{0}\) surge con bastante frecuencia así que la gente le da un nombre. Se llama el espacio nullspace o el kernel de\(A\). Un lugar donde surge el kernel es la invertibilidad de una matriz cuadrada\(A\). Si el kernel de\(A\) contiene un vector distinto de cero, entonces contiene infinitamente muchos vectores (había una variable libre). Pero entonces es imposible invertir\(\vec{0}\), ya que van infinitamente muchos vectores\(\vec{0}\), por lo que no hay un vector único que\(A\) lleve a\(\vec{0}\). Entonces si el kernel es no trivial, es decir, si hay algún vector distinto de cero en el kernel, es decir, si hay alguna variable libre, o en otras palabras, si la forma escalón de fila de\(A\) tiene columnas sin pivotes, entonces no\(A\) es invertible. Volveremos a esta idea más adelante.

    Independencia lineal y rango

    Si las filas de una matriz corresponden a ecuaciones, puede ser bueno averiguar cuántas ecuaciones necesitamos realmente para encontrar el mismo conjunto de soluciones. Del mismo modo, si encontramos una serie de soluciones a una ecuación lineal\(A \vec{x} = \vec{0}\), podemos preguntar si encontramos suficiente para que todas las demás soluciones puedan formarse a partir del conjunto dado. El concepto que queremos es el de independencia lineal. Ese mismo concepto es útil para ecuaciones diferenciales, por ejemplo en el Capítulo 2.

    Dados los vectores de fila o columna\(\vec{y}_1, \vec{y}_2, \ldots, \vec{y}_n\), una combinación lineal es una expresión de la forma\[\alpha_1 \vec{y}_1 + \alpha_2 \vec{y}_2 + \cdots + \alpha_n \vec{y}_n , \nonumber \] donde\(\alpha_1, \alpha_2, \ldots, \alpha_n\) están todos los escalares. Por ejemplo,\(3 \vec{y}_1 + \vec{y}_2 - 5 \vec{y}_3\) es una combinación lineal de\(\vec{y}_1\),\(\vec{y}_2\), y\(\vec{y}_3\).

    Hemos visto combinaciones lineales antes. La expresión\[A \vec{x} \nonumber \] es una combinación lineal de las columnas de\(A\), mientras que\[\vec{x}^T A = (A^T \vec{x})^T \nonumber \] es una combinación lineal de las filas de\(A\).

    La forma en que aparecen las combinaciones lineales en nuestro estudio de ecuaciones diferenciales es similar al siguiente cálculo. Supongamos que\(\vec{x}_1\)\(\vec{x}_2\),,...,\(\vec{x}_n\) son soluciones a\(A \vec{x}_1 = \vec{0}\),\(A \vec{x}_2 = \vec{0}\),...,\(A \vec{x}_n = \vec{0}\). Entonces la combinación lineal\[\vec{y} = \alpha_1 \vec{x}_1 + \alpha_2 \vec{x}_2 + \cdots + \alpha_n \vec{x}_n \nonumber \] es una solución para\(A \vec{y} = \vec{0}\):\[\begin{align}\begin{aligned} A \vec{y} &= A (\alpha_1 \vec{x}_1 + \alpha_2 \vec{x}_2 + \cdots + \alpha_n \vec{x}_n ) \\ &= \alpha_1 A \vec{x}_1 + \alpha_2 A \vec{x}_2 + \cdots + \alpha_n A \vec{x}_n = \alpha_1 \vec{0} + \alpha_2 \vec{0} + \cdots + \alpha_n \vec{0} = \vec{0} .\end{aligned}\end{align} \nonumber \] Entonces, si has encontrado suficientes soluciones, las tienes todas. La pregunta es, ¿cuándo encontramos suficientes de ellos?

    Decimos que los vectores\(\vec{y}_1\)\(\vec{y}_2\),,...,\(\vec{y}_n\) son linealmente independientes si la única solución a\[\alpha_1 \vec{x}_1 + \alpha_2 \vec{x}_2 + \cdots + \alpha_n \vec{x}_n = \vec{0} \nonumber \] es\(\alpha_1 = \alpha_2 = \cdots = \alpha_n = 0\). De lo contrario, decimos que los vectores son linealmente dependientes.

    Por ejemplo, los vectores\(\left[ \begin{smallmatrix} 1 \\ 2 \end{smallmatrix} \right]\) y\(\left[ \begin{smallmatrix} 0 \\ 1 \end{smallmatrix} \right]\) son linealmente independientes. Intentemos:\[\alpha_1 \begin{bmatrix} 1 \\ 2 \end{bmatrix} + \alpha_2 \begin{bmatrix} 0 \\ 1 \end{bmatrix} = \begin{bmatrix} \alpha_1 \\ 2 \alpha_1 + \alpha_2 \end{bmatrix} = \vec{0} = \begin{bmatrix} 0 \\ 0 \end{bmatrix} . \nonumber \] Entonces\(\alpha_1 = 0\), y luego eso\(\alpha_2 = 0\) también queda claro. En otras palabras, los dos vectores son linealmente independientes.

    Si un conjunto de vectores es linealmente dependiente, es decir, algunos de los\(\alpha_j\) s son distintos de cero, entonces podemos resolver para un vector en términos de los demás. Supongamos\(\alpha_1 \not= 0\). Desde\(\alpha_1 \vec{x}_1 + \alpha_2 \vec{x}_2 + \cdots + \alpha_n \vec{x}_n = \vec{0}\), entonces\[\vec{x}_1 = \frac{-\alpha_2}{\alpha_1} \vec{x}_2 - \frac{-\alpha_3}{\alpha_1} \vec{x}_3 + \cdots + \frac{-\alpha_n}{\alpha_1} \vec{x}_n . \nonumber \] Por ejemplo,\[2 \begin{bmatrix} 1 \\ 2 \\ 3 \end{bmatrix} -4 \begin{bmatrix} 1 \\ 1 \\ 1 \end{bmatrix} + 2 \begin{bmatrix} 1 \\ 0 \\ -1 \end{bmatrix} = \begin{bmatrix} 0 \\ 0 \\ 0 \end{bmatrix} , \nonumber \] y así\[\begin{bmatrix} 1 \\ 2 \\ 3 \end{bmatrix} = 2 \begin{bmatrix} 1 \\ 1 \\ 1 \end{bmatrix} - \begin{bmatrix} 1 \\ 0 \\ -1 \end{bmatrix} . \nonumber \] Usted puede haber notado que resolver para esos\(\alpha_j\) s es solo resolver ecuaciones lineales, y así puede que no se sorprenda que para verificar si un conjunto de vectores es linealmente independiente usamos reducción de fila.

    Dado un conjunto de vectores, puede que no nos interese solo encontrar si son linealmente independientes o no, podemos estar interesados en encontrar un subconjunto linealmente independiente. O tal vez queramos encontrar algunos otros vectores que den las mismas combinaciones lineales y sean linealmente independientes. La manera de resolverlo es formar una matriz a partir de nuestros vectores. Si tenemos vectores de fila los consideramos como filas de una matriz. Si tenemos vectores de columna los consideramos columnas de una matriz. El conjunto de todas las combinaciones lineales de un conjunto de vectores se llama su span. \[\operatorname{span} \bigl\{ \vec{x}_1, \vec{x}_2 , \ldots , \vec{x}_n \bigr\} = \bigl\{ \text{Set of all linear combinations of $\vec{x}_1, \vec{x}_2 , \ldots , \vec{x}_n$} \bigr\} . \nonumber \]Dada una matriz\(A\), el número máximo de filas linealmente independientes se llama rango de\(A\), y escribimos para el rango. Por ejemplo,\[\operatorname{rank} \begin{bmatrix} 1 & 1 & 1 \\ 2 & 2 & 2 \\ -1 & -1 & -1 \end{bmatrix} = 1 . \nonumber \] La segunda y tercera fila son múltiplos de la primera. No podemos elegir más de una fila y todavía tenemos un conjunto linealmente independiente. Pero qué es\[\operatorname{rank} \begin{bmatrix} 1 & 2 & 3 \\ 4 & 5 & 6 \\ 7 & 8 & 9 \end{bmatrix} \quad = \quad ? \nonumber \] Esa parece ser una pregunta más difícil de responder. Las dos primeras filas son linealmente independientes (ninguna es múltiplo de la otra), por lo que el rango es al menos dos. Si configuráramos las ecuaciones para el\(\alpha_1\),\(\alpha_2\), y\(\alpha_3\), encontraríamos un sistema con infinitamente muchas soluciones. Una solución es\[\begin{bmatrix} 1 & 2 & 3 \end{bmatrix} -2 \begin{bmatrix} 4 & 5 & 6 \end{bmatrix} + \begin{bmatrix} 7 & 8 & 9 \end{bmatrix} = \begin{bmatrix} 0 & 0 & 0 \end{bmatrix} . \nonumber \] Así que el conjunto de las tres filas es linealmente dependiente, el rango no puede ser 3. Por lo tanto el rango es 2.

    Pero, ¿cómo podemos hacer esto de una manera más sistemática? ¡Encontramos la forma de escalón de fila! \[\text{Row echelon form of} \quad \begin{bmatrix} 1 & 2 & 3 \\ 4 & 5 & 6 \\ 7 & 8 & 9 \end{bmatrix} \quad \text{is} \quad \begin{bmatrix} 1 & 2 & 3 \\ 0 & 1 & 2 \\ 0 & 0 & 0 \end{bmatrix} . \nonumber \]Las operaciones de fila elemental no cambian el conjunto de combinaciones lineales de las filas (esa fue una de las principales razones para definirlas como estaban). En otras palabras, el lapso de las filas de la\(A\) es el mismo que el lapso de las filas de la forma escalón de fila de\(A\). En particular, el número de filas linealmente independientes es el mismo. Y en la forma de escalón de filas, todas las filas distintas de cero son linealmente independientes. Esto no es difícil de ver. Considera las dos filas distintas de cero en el ejemplo anterior. Supongamos que intentamos resolver para el\(\alpha_1\) y\(\alpha_2\) en\[\alpha_1 \begin{bmatrix} 1 & 2 & 3 \end{bmatrix} + \alpha_2 \begin{bmatrix} 0 & 1 & 2 \end{bmatrix} = \begin{bmatrix} 0 & 0 & 0 \end{bmatrix} . \nonumber \] Dado que la primera columna de la matriz de escalón de filas tiene ceros excepto en la primera fila significa que\(\alpha_1 = 0\). Por la misma razón,\(\alpha_2\) es cero. Solo tenemos dos filas distintas de cero, y son linealmente independientes, por lo que el rango de la matriz es 2.

    El lapso de las filas se llama espacio de filas. El espacio de fila de\(A\) y la forma de escalón de filas de\(A\) son los mismos. En el ejemplo,\[\begin{align}\begin{aligned} \text{row space of } \begin{bmatrix} 1 & 2 & 3 \\ 4 & 5 & 6 \\ 7 & 8 & 9 \end{bmatrix} & = \operatorname{span} \left\{ \begin{bmatrix} 1 & 2 & 3 \end{bmatrix} , \begin{bmatrix} 4 & 5 & 6 \end{bmatrix} , \begin{bmatrix} 7 & 8 & 9 \end{bmatrix} \right\} \\ & = \operatorname{span} \left\{ \begin{bmatrix} 1 & 2 & 3 \end{bmatrix} , \begin{bmatrix} 0 & 1 & 2 \end{bmatrix} \right\} . \end{aligned}\end{align} \nonumber \] De manera similar al espacio de filas, el tramo de columnas se denomina espacio de columnas. \[\text{column space of } \begin{bmatrix} 1 & 2 & 3 \\ 4 & 5 & 6 \\ 7 & 8 & 9 \end{bmatrix} = \operatorname{span} \left\{ \begin{bmatrix} 1 \\ 4 \\ 7 \end{bmatrix} , \begin{bmatrix} 2 \\ 5 \\ 8 \end{bmatrix} , \begin{bmatrix} 3 \\ 6 \\ 9 \end{bmatrix} \right\} . \nonumber \]Por lo que también puede ser bueno encontrar el número de columnas linealmente independientes de\(A\). Una forma de hacerlo es encontrar el número de filas linealmente independientes de\(A^T\). Es un hecho tremendamente útil que el número de columnas linealmente independientes sea siempre el mismo que el número de filas linealmente independientes:

    Teorema\(\PageIndex{1}\)

    \(\operatorname{rank} A = \operatorname{rank} A^T\)

    En particular, para encontrar un conjunto de columnas linealmente independientes necesitamos mirar dónde estaban los pivotes. Si recuerda lo anterior, al resolver\(A \vec{x} = \vec{0}\) la clave era encontrar los pivotes, cualquier columna no pivotante correspondía a variables libres. Eso significa que podemos resolver para las columnas no pivotantes en términos de las columnas pivotantes. Veamos un ejemplo. Primero reducimos alguna matriz aleatoria:\[\begin{bmatrix} 1 & 2 & 3 & 4 \\ 2 & 4 & 5 & 6 \\ 3 & 6 & 7 & 8 \end{bmatrix} . \nonumber \] Encontramos un pivote y reducimos las filas a continuación:\[\begin{bmatrix} \fbox{1} & 2 & 3 & 4 \\ 2 & 4 & 5 & 6 \\ 3 & 6 & 7 & 8 \end{bmatrix} \to \begin{bmatrix} \fbox{1} & 2 & 3 & 4 \\ 0 & 0 & -1 & -2 \\ 3 & 6 & 7 & 8 \end{bmatrix} \to \begin{bmatrix} \fbox{1} & 2 & 3 & 4 \\ 0 & 0 & -1 & -2 \\ 0 & 0 & -2 & -4 \end{bmatrix} . \nonumber \] Encontramos el siguiente pivote, lo hacemos uno, y enjuagamos y repetimos:\[\begin{bmatrix} \fbox{1} & 2 & 3 & 4 \\ 0 & 0 & \fbox{-1} & -2 \\ 0 & 0 & -2 & -4 \end{bmatrix} \to \begin{bmatrix} \fbox{1} & 2 & 3 & 4 \\ 0 & 0 & \fbox{1} & 2 \\ 0 & 0 & -2 & -4 \end{bmatrix} \to \begin{bmatrix} \fbox{1} & 2 & 3 & 4 \\ 0 & 0 & \fbox{1} & 2 \\ 0 & 0 & 0 & 0 \end{bmatrix} . \nonumber \] La matriz final es la forma escalón de fila de la matriz. Considera los pivotes que marcamos. Las columnas pivotes son la primera y la tercera columna. Todas las demás columnas corresponden a variables libres a la hora de resolver\(A \vec{x} = \vec{0}\), por lo que todas las demás columnas se pueden resolver en términos de la primera y la tercera columna. Es decir, quizás\[\text{column space of } \begin{bmatrix} 1 & 2 & 3 & 4 \\ 2 & 4 & 5 & 6 \\ 3 & 6 & 7 & 8 \end{bmatrix} = \operatorname{span} \left\{ \begin{bmatrix} 1 \\ 2 \\ 3 \end{bmatrix} , \begin{bmatrix} 2 \\ 4 \\ 6 \end{bmatrix} , \begin{bmatrix} 3 \\ 5 \\ 7 \end{bmatrix} , \begin{bmatrix} 4 \\ 6 \\ 8 \end{bmatrix} \right\} = \operatorname{span} \left\{ \begin{bmatrix} 1 \\ 2 \\ 3 \end{bmatrix} , \begin{bmatrix} 3 \\ 5 \\ 7 \end{bmatrix} \right\} . \nonumber \] podríamos usar otro par de columnas para obtener el mismo lapso, pero la primera y la tercera están garantizadas para funcionar porque son columnas pivotantes.

    La discusión anterior podría ampliarse en una prueba del teorema si quisiéramos. Como cada fila distinta de cero en la forma de escalón de fila contiene un pivote, entonces el rango es el número de pivotes, que es el mismo que el número máximo de columnas linealmente independientes.

    La idea también funciona a la inversa. Supongamos que tenemos un montón de vectores de columna y solo necesitamos encontrar un conjunto linealmente independiente. Por ejemplo, supongamos que empezamos con los vectores\[\vec{v}_1 = \begin{bmatrix} 1 \\ 2 \\ 3 \end{bmatrix} , \quad \vec{v}_2 = \begin{bmatrix} 2 \\ 4 \\ 6 \end{bmatrix} , \quad \vec{v}_3 = \begin{bmatrix} 3 \\ 5 \\ 7 \end{bmatrix} , \quad \vec{v}_4 = \begin{bmatrix} 4 \\ 6 \\ 8 \end{bmatrix} . \nonumber \] Estos vectores no son linealmente independientes como vimos anteriormente. En particular, el lapso de\(\vec{v}_1\) y\(\vec{v}_3\) es el mismo que el lapso de los cuatro vectores. Entonces\(\vec{v}_2\) y ambos\(\vec{v}_4\) pueden escribirse como combinaciones lineales de\(\vec{v}_1\) y\(\vec{v}_3\). Una cosa común que surge en la práctica es que se obtiene un conjunto de vectores cuyo lapso es el conjunto de soluciones de algún problema. Pero tal vez obtenemos demasiados vectores, queremos simplificar. Por ejemplo anterior, todos los vectores en el lapso de\(\vec{v}_1, \vec{v}_2, \vec{v}_3, \vec{v}_4\) pueden escribirse\(\alpha_1 \vec{v}_1 + \alpha_2 \vec{v}_2 + \alpha_3 \vec{v}_3 + \alpha_4 \vec{v}_4\) para algunos números\(\alpha_1,\alpha_2,\alpha_3,\alpha_4\). Pero también es cierto que cada vector de este tipo se puede escribir como\(a \vec{v}_1 + b \vec{v}_3\) para dos números\(a\) y\(b\). Y hay que admitir, eso parece mucho más sencillo. Además, estos números\(a\) y\(b\) son únicos. Más sobre eso en la siguiente sección.

    Para encontrar este conjunto linealmente independiente simplemente tomamos nuestros vectores y formamos la matriz\([ \vec{v}_1 ~ \vec{v}_2 ~ \vec{v}_3 ~ \vec{v}_4 ]\), es decir, la matriz\[\begin{bmatrix} 1 & 2 & 3 & 4 \\ 2 & 4 & 5 & 6 \\ 3 & 6 & 7 & 8 \end{bmatrix} . \nonumber \] Ponemos en marcha la máquina de reducción de filas, alimentamos esta matriz en ella, encontramos las columnas pivotantes y las recogemos. En este caso,\(\vec{v}_1\) y\(\vec{v}_3\).

    Computación de la inversa

    Si la matriz\(A\) es cuadrada y existe una solución única\(\vec{x}\) para\(A \vec{x} = \vec{b}\) para alguna\(\vec{b}\) (no hay variables libres), entonces\(A\) es invertible. Esto equivale a que la\(n \times n\) matriz\(A\) sea de rango\(n\).

    En particular, si\(A \vec{x} = \vec{b}\) entonces\(\vec{x} = A^{-1} \vec{b}\). Ahora solo necesitamos computar lo que\(A^{-1}\) es. Seguramente podemos hacer eliminación cada vez que queramos encontrar\(A^{-1} \vec{b}\), pero eso sería ridículo. El mapeo\(A^{-1}\) es lineal y por lo tanto dado por una matriz, y hemos visto que para averiguar la matriz solo necesitamos encontrar donde\(A^{-1}\) lleva los vectores base estándar\(\vec{e}_1\),\(\vec{e}_2\),...,\(\vec{e}_n\).

    Es decir, para encontrar la primera columna de\(A^{-1}\), resolvemos\(A \vec{x} = \vec{e}_1\), porque entonces\(A^{-1} \vec{e}_1 = \vec{x}\). Para encontrar la segunda columna de\(A^{-1}\), resolvemos\(A \vec{x} = \vec{e}_2\). Y así sucesivamente. Realmente son solo\(n\) eliminaciones lo que tenemos que hacer. Pero se vuelve aún más fácil. Si lo piensas, la eliminación es la misma para todo en el lado izquierdo de la matriz aumentada. Haciendo\(n\) eliminaciones por separado reharíamos la mayoría de los cálculos. Lo mejor es hacerlo todo a la vez.

    Por lo tanto, para encontrar la inversa de\(A\), escribimos una matriz\(n \times 2n\) aumentada\([ \,A ~|~ I\, ]\), donde\(I\) está la matriz de identidad, cuyas columnas son precisamente los vectores base estándar. Luego realizamos la reducción de filas hasta llegar a la forma de escalón de fila reducida. Si\(A\) es invertible, entonces los pivotes se pueden encontrar en cada columna de\(A\), y así la forma de escalón de fila reducida de\([ \,A ~|~ I\, ]\) parece\([ \,I ~|~ A^{-1}\, ]\). Entonces acabamos de leer la inversa\(A^{-1}\). Si no encuentras un pivote en cada una de las primeras\(n\) columnas de la matriz aumentada, entonces no\(A\) es invertible.

    Esto se ve mejor con el ejemplo. Supongamos que deseamos invertir la matriz\[\begin{bmatrix} 1 & 2 & 3 \\ 2 & 0 & 1 \\ 3 & 1 & 0 \end{bmatrix} . \nonumber \] Escribimos la matriz aumentada y comenzamos a reducir:

    \[\begin{align}\begin{aligned} & \left[ \begin{array}{ccc|ccc} \fbox{1} & 2 & 3 & 1 & 0 & 0\\ 2 & 0 & 1 & 0 & 1 & 0 \\ 3 & 1 & 0 & 0 & 0 & 1 \end{array} \right] \to & & \left[ \begin{array}{ccc|ccc} \fbox{1} & 2 & 3 & 1 & 0 & 0\\ 0 & -4 & -5 & -2 & 1 & 0 \\ 0 & -5 & -9 & -3 & 0 & 1 \end{array} \right] \to \\ \to & \left[ \begin{array}{ccc|ccc} \fbox{1} & 2 & 3 & 1 & 0 & 0\\ 0 & \fbox{1} & \frac{5}{4} & \frac{1}{2} & \frac{1}{4} & 0 \\ 0 & -5 & -9 & -3 & 0 & 1 \end{array} \right] \to & & \left[ \begin{array}{ccc|ccc} \fbox{1} & 2 & 3 & 1 & 0 & 0\\ 0 & \fbox{1} & \frac{5}{4} & \frac{1}{2} & \frac{1}{4} & 0 \\ 0 & 0 & \frac{-11}{4} & \frac{-1}{2} & \frac{-5}{4} & 1 \end{array} \right] \to \\ \to & \left[ \begin{array}{ccc|ccc} \fbox{1} & 2 & 3 & 1 & 0 & 0\\ 0 & \fbox{1} & \frac{5}{4} & \frac{1}{2} & \frac{1}{4} & 0 \\ 0 & 0 & \fbox{1} & \frac{2}{11} & \frac{5}{11} & \frac{-4}{11} \end{array} \right] \to & & \left[ \begin{array}{ccc|ccc} \fbox{1} & 2 & 0 & \frac{5}{11} & \frac{-5}{11} & \frac{12}{11} \\ 0 & \fbox{1} & 0 & \frac{3}{11} & \frac{-9}{11} & \frac{5}{11} \\ 0 & 0 & \fbox{1} & \frac{2}{11} & \frac{5}{11} & \frac{-4}{11} \end{array} \right] \to \\ \to & \left[ \begin{array}{ccc|ccc} \fbox{1} & 0 & 0 & \frac{-1}{11} & \frac{3}{11} & \frac{2}{11} \\ 0 & \fbox{1} & 0 & \frac{3}{11} & \frac{-9}{11} & \frac{5}{11} \\ 0 & 0 & \fbox{1} & \frac{2}{11} & \frac{5}{11} & \frac{-4}{11} \end{array} \right] .\end{aligned}\end{align} \nonumber \]Así que\[{\begin{bmatrix} 1 & 2 & 3 \\ 2 & 0 & 1 \\ 3 & 1 & 0 \end{bmatrix}}^{-1} = \begin{bmatrix} \frac{-1}{11} & \frac{3}{11} & \frac{2}{11} \\ \frac{3}{11} & \frac{-9}{11} & \frac{5}{11} \\ \frac{2}{11} & \frac{5}{11} & \frac{-4}{11} \end{bmatrix} . \nonumber \] no es demasiado terrible, ¿no? Quizás más difícil que invertir una\(2 \times 2\) matriz para la que teníamos una fórmula simple, pero no tan mal. Realmente en la práctica esto se hace de manera eficiente por una computadora.

    Notas al pie

    [1] Aunque tal vez tengamos esto al revés, muy a menudo resolvemos un sistema lineal de ecuaciones para averiguar algo sobre las matrices, en lugar de viceversa.


    A.3: Eliminación is shared under a CC BY-SA 1.3 license and was authored, remixed, and/or curated by LibreTexts.