Saltar al contenido principal
LibreTexts Español

12.3: Resolver sistemas lineales factorizando la matriz de coeficientes

  • Page ID
    114850
  • \( \newcommand{\vecs}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} } \)

    \( \newcommand{\vecd}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash {#1}}} \)

    \( \newcommand{\id}{\mathrm{id}}\) \( \newcommand{\Span}{\mathrm{span}}\)

    ( \newcommand{\kernel}{\mathrm{null}\,}\) \( \newcommand{\range}{\mathrm{range}\,}\)

    \( \newcommand{\RealPart}{\mathrm{Re}}\) \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\)

    \( \newcommand{\Argument}{\mathrm{Arg}}\) \( \newcommand{\norm}[1]{\| #1 \|}\)

    \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\)

    \( \newcommand{\Span}{\mathrm{span}}\)

    \( \newcommand{\id}{\mathrm{id}}\)

    \( \newcommand{\Span}{\mathrm{span}}\)

    \( \newcommand{\kernel}{\mathrm{null}\,}\)

    \( \newcommand{\range}{\mathrm{range}\,}\)

    \( \newcommand{\RealPart}{\mathrm{Re}}\)

    \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\)

    \( \newcommand{\Argument}{\mathrm{Arg}}\)

    \( \newcommand{\norm}[1]{\| #1 \|}\)

    \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\)

    \( \newcommand{\Span}{\mathrm{span}}\) \( \newcommand{\AA}{\unicode[.8,0]{x212B}}\)

    \( \newcommand{\vectorA}[1]{\vec{#1}}      % arrow\)

    \( \newcommand{\vectorAt}[1]{\vec{\text{#1}}}      % arrow\)

    \( \newcommand{\vectorB}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} } \)

    \( \newcommand{\vectorC}[1]{\textbf{#1}} \)

    \( \newcommand{\vectorD}[1]{\overrightarrow{#1}} \)

    \( \newcommand{\vectorDt}[1]{\overrightarrow{\text{#1}}} \)

    \( \newcommand{\vectE}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash{\mathbf {#1}}}} \)

    \( \newcommand{\vecs}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} } \)

    \( \newcommand{\vecd}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash {#1}}} \)

    \(\newcommand{\avec}{\mathbf a}\) \(\newcommand{\bvec}{\mathbf b}\) \(\newcommand{\cvec}{\mathbf c}\) \(\newcommand{\dvec}{\mathbf d}\) \(\newcommand{\dtil}{\widetilde{\mathbf d}}\) \(\newcommand{\evec}{\mathbf e}\) \(\newcommand{\fvec}{\mathbf f}\) \(\newcommand{\nvec}{\mathbf n}\) \(\newcommand{\pvec}{\mathbf p}\) \(\newcommand{\qvec}{\mathbf q}\) \(\newcommand{\svec}{\mathbf s}\) \(\newcommand{\tvec}{\mathbf t}\) \(\newcommand{\uvec}{\mathbf u}\) \(\newcommand{\vvec}{\mathbf v}\) \(\newcommand{\wvec}{\mathbf w}\) \(\newcommand{\xvec}{\mathbf x}\) \(\newcommand{\yvec}{\mathbf y}\) \(\newcommand{\zvec}{\mathbf z}\) \(\newcommand{\rvec}{\mathbf r}\) \(\newcommand{\mvec}{\mathbf m}\) \(\newcommand{\zerovec}{\mathbf 0}\) \(\newcommand{\onevec}{\mathbf 1}\) \(\newcommand{\real}{\mathbb R}\) \(\newcommand{\twovec}[2]{\left[\begin{array}{r}#1 \\ #2 \end{array}\right]}\) \(\newcommand{\ctwovec}[2]{\left[\begin{array}{c}#1 \\ #2 \end{array}\right]}\) \(\newcommand{\threevec}[3]{\left[\begin{array}{r}#1 \\ #2 \\ #3 \end{array}\right]}\) \(\newcommand{\cthreevec}[3]{\left[\begin{array}{c}#1 \\ #2 \\ #3 \end{array}\right]}\) \(\newcommand{\fourvec}[4]{\left[\begin{array}{r}#1 \\ #2 \\ #3 \\ #4 \end{array}\right]}\) \(\newcommand{\cfourvec}[4]{\left[\begin{array}{c}#1 \\ #2 \\ #3 \\ #4 \end{array}\right]}\) \(\newcommand{\fivevec}[5]{\left[\begin{array}{r}#1 \\ #2 \\ #3 \\ #4 \\ #5 \\ \end{array}\right]}\) \(\newcommand{\cfivevec}[5]{\left[\begin{array}{c}#1 \\ #2 \\ #3 \\ #4 \\ #5 \\ \end{array}\right]}\) \(\newcommand{\mattwo}[4]{\left[\begin{array}{rr}#1 \amp #2 \\ #3 \amp #4 \\ \end{array}\right]}\) \(\newcommand{\laspan}[1]{\text{Span}\{#1\}}\) \(\newcommand{\bcal}{\cal B}\) \(\newcommand{\ccal}{\cal C}\) \(\newcommand{\scal}{\cal S}\) \(\newcommand{\wcal}{\cal W}\) \(\newcommand{\ecal}{\cal E}\) \(\newcommand{\coords}[2]{\left\{#1\right\}_{#2}}\) \(\newcommand{\gray}[1]{\color{gray}{#1}}\) \(\newcommand{\lgray}[1]{\color{lightgray}{#1}}\) \(\newcommand{\rank}{\operatorname{rank}}\) \(\newcommand{\row}{\text{Row}}\) \(\newcommand{\col}{\text{Col}}\) \(\renewcommand{\row}{\text{Row}}\) \(\newcommand{\nul}{\text{Nul}}\) \(\newcommand{\var}{\text{Var}}\) \(\newcommand{\corr}{\text{corr}}\) \(\newcommand{\len}[1]{\left|#1\right|}\) \(\newcommand{\bbar}{\overline{\bvec}}\) \(\newcommand{\bhat}{\widehat{\bvec}}\) \(\newcommand{\bperp}{\bvec^\perp}\) \(\newcommand{\xhat}{\widehat{\xvec}}\) \(\newcommand{\vhat}{\widehat{\vvec}}\) \(\newcommand{\uhat}{\widehat{\uvec}}\) \(\newcommand{\what}{\widehat{\wvec}}\) \(\newcommand{\Sighat}{\widehat{\Sigma}}\) \(\newcommand{\lt}{<}\) \(\newcommand{\gt}{>}\) \(\newcommand{\amp}{&}\) \(\definecolor{fillinmathshade}{gray}{0.9}\)

    {{Template.dropdown {ruta:” /álgebra/linear_álgebra "}}}

    Hay muchas maneras en las que podrías intentar resolver un sistema dado de ecuaciones lineales. Esta sección está dedicada principalmente a describir dos técnicas particularmente populares, las cuales implican factorizar la matriz coeciente para el sistema en un producto de matrices más simples. Estas técnicas también están en el corazón de muchas aplicaciones numéricas (es decir, asistidas por computadora) del Álgebra Lineal de uso frecuente.

    Cabe señalar que la factorización de objetos complicados en componentes más simples es una técnica de resolución de problemas extremadamente común en matemáticas. Por ejemplo, a menudo factorizaremos un polinomio dado en varios polinomios de menor grado, y de manera similar se puede usar la factorización prima para un número entero con el fin de simplificar ciertos cálculos numéricos.

    A.3.1 Factorizar matrices mediante eliminación gaussiana

    En esta sección, se discute una factorización particularmente significativa para matrices conocida como eliminación gaussiana (también conocida como eliminación Gauss-Jordania). La eliminación gaussiana se puede utilizar para expresar cualquier matriz como un producto que involucra una matriz en la llamada forma de fila reducida y una o más matrices llamadas elementales. Entonces, una vez que se ha encontrado tal factorización, podemos resolver de inmediato cualquier sistema lineal que tenga la matriz factorizada como su matriz coincidente. Además, la técnica subyacente para llegar a tal factorización es esencialmente una extensión de las técnicas ya familiares para resolver pequeños sistemas de ecuaciones lineales a mano.

    Vamos a\(m, n \in \mathbb{Z}_+\) denotar enteros positivos, y supongamos que\(A \in \mathbb{F}^{m \times n}\) es una\(m \times n\) matriz sobre\(\mathbb{F}.\) Entonces, siguiendo la Sección A.2.2, haremos un uso extensivo de\(A^{(i, \cdot)}\) y\(A^{(\cdot ,j)}\) para
    denotar los vectores de fila y los vectores de columna de\(A\), respectivamente.

    Definición A.3.1. Let\(A \in \mathbb{F}^{m \times n}\) be an\(m \times n\) matrix over\(mathbb{F}.\) Entonces decimos que\(A\) está en forma
    fila-escalón
    (abreviado REF) si las filas de\(A\) satisfacen las siguientes condiciones:

    1. o bien\(A^{(1,\cdot)}\) es el vector cero o la primera entrada distinta de cero en\(A^{(1,\cdot)}\) (cuando se lee de izquierda a derecha) es uno.
    2. porque\(i = 1, \ldots, m,\) si cualquier vector de fila\(A^{(i,\cdot)}\) es el vector cero, entonces cada vector de fila posterior\(A^{(i+1,\cdot)} ,\ldots , A^{(m,\cdot)}\) es también el vector cero.
    3. porque\(i = 2, \ldots , m,\) si algunos no\(A^{(i,\cdot)}\) es el vector cero, entonces la primera entrada distinta de cero (cuando se lee de izquierda a derecha) es uno y ocurre a la derecha de la inicial en\(A^{(i-1,\cdot)}\).

    El inicial inicial en cada fila distinta de cero se llama pivote. Además, decimos que A está en forma de fila reducida (abreviado RREF) si

    (4) para cada vector de columna\(A(\cdot,j)\) que contiene un pivote en\((j = 2, . . . , n),\) el que el pivote es el único elemento distinto de cero\(A(\cdot,j)\).

    La motivación detrás de Definition A.3.1 es que las ecuaciones matriciales que tienen su matriz coffcient en RREF (y, en cierto sentido, también REF) son particularmente fáciles de resolver. Obsérvese, en particular, que la única matriz cuadrada en RREF sin filas cero es la matriz de identidad.

    Ejemplo A.3.2. Las siguientes matrices están todas en REF:

    \[A_1=\left[ \begin{array}{cccc} 1 & 1 & 1 & 1 \\ 0 & 1 & 1 & 1 \\ 0 & 0 & 0 & 1 \end{array} \right], A_2= \left[ \begin{array}{cccc} 1 & 1 & 1 & 0 \\ 0 & 1 & 1 & 0 \\ 0 & 0 & 0 & 0 \end{array} \right], A_3= \left[ \begin{array}{cccc} 1 & 1 & 0 & 1 \\ 0 & 1 & 1 & 0 \\ 0 & 0 & 0 & 1 \end{array} \right], A_4= \left[ \begin{array}{cccc} 1 & 1 & 0 & 0 \\ 0 & 0 & 1 & 0 \\ 0 & 0 & 0 & 1 \end{array} \right],\\ A_5= \left[ \begin{array}{cccc} 1 & 0 & 1 & 0 \\ 0 & 0 & 0 & 1 \\ 0 & 0 & 0 & 0 \end{array} \right], A_6= \left[ \begin{array}{cccc} 0 & 0 & 1 & 0 \\ 0 & 0 & 0 & 1 \\ 0 & 0 & 0 & 0 \end{array} \right], A_7=\left[ \begin{array}{cccc} 0 & 0 & 0 & 1 \\ 0 & 0 & 0 & 0 \\ 0 & 0 & 0 & 0 \end{array} \right], A_8=\left[ \begin{array}{cccc} 0 & 0 & 0 & 0 \\ 0 & 0 & 0 & 0 \\ 0 & 0 & 0 & 0 \end{array} \right].\]

    No obstante, solo\(A_4\) a través\(A_8\) están en RREF, como debes verificar. Además, si tomamos la
    transposición de cada una de estas matrices (como se define en la Sección A.5.1), entonces solo\(A^T_6 , A^T_7 ,\) y\(A^T_8\) estamos en RREF.

    Ejemplo A.3.3.
    1. Considere la siguiente matriz en RREF:

    \[A = \left[ \begin{array}{cccc} 1 & 0 & 0 & 0 \\ 0 & 1 & 0 & 0 \\ 0 & 0 & 1 & 0 \\ 0 & 0 & 0 & 1 \end{array} \right].\]

    Dado cualquier vector\(b = (b_i ) \in \mathbb{F}^4 \), la ecuación matricial\(Ax = b \) corresponde al sistema
    de ecuaciones

    \[\left. \begin{array}{cccccc} x_1 &~~ &~~~~ &~~~ & = & b_1 \\ & x_2 & & & = & b_2 \\ & & x_3 & & = &b_3 \\ & & & x_4 & = & b_4\end{array} \right\}.\]


    Dado que\(A\) está en RREF (de hecho,\(A = I_4\) es la matriz de\(4 \times 4\) identidad), podemos concluir inmediatamente que la ecuación matricial\(Ax = b\) tiene la solución\(x = b\) para cualquier elección de\(b\).
    Además, como veremos en la Sección A.4.2,\(x = b\) es la única solución a este sistema.

    2. Considere la siguiente matriz en RREF:

    \[A = \left[ \begin{array}{cccccc} 1 & 6 & 0 & 0 & 4 & -2 \\ 0 & 0 & 1 & 0 & 3 & 1 \\ 0 & 0 & 0 & 1 & 5 & 2 \\ 0 & 0 & 0 & 0 & 0 & 0 \end{array} \right].\]

    Dado cualquier vector\(b = (b_i ) \in \mathbb{F}^4 \), la ecuación matricial\(Ax = b\) corresponde al sistema

    \[ \left. \begin{array}{cccccccccccc} x_1 & + & 6x_2 & & & & + & 4x_5 & - & 2x_6 & = & b_1 \\ & & & & x_3 & &+ &3x_5 &+& x_6 & =& b_2 \\ && & & & x_4 & + & 5x_5 && 2x_6 &= &b_3 \\ & & & & & & & & & 0 &=&b_4\end{array} \right\}.\]

    Dado que\(A\) está en RREF, podemos concluir de inmediato una serie de hechos sobre soluciones a este sistema. En primer lugar, existen soluciones si y solo si\(b_4 = 0.\) Además, al “resolver para los pivotes”, vemos que el sistema se reduce a


    \[\left. \begin{array}{cccccccc} x_1 & = & b_1 & −6x_2 & − & 4x_5 & + & 2x_6 \\ x_3 & = & b_2 & & − & 3x_5 & + & x_6 \\ x_4 & = & b_3 & & − & 5x_5 & + & 2x_6 \end{array} \right\},\]


    por lo que solo hay suficiente información para especificar valores para\(x_1, x_3,\) y\(x_4\) en términos de los valores por lo demás arbitrarios para\(x_2 , x_5 ,\) y\(x_6 .\)

    En este contexto,\(x_1 , x_3 ,\) y\(x_4\) se denominan variables principales ya que estas son las variables correspondientes a los pivotes en\(A\). De igual manera llamamos\(x_2 , x_5 \), y las variables\(x_6\) libres ya que las variables principales se han expresado en términos de estas variables restantes. En particular, dados los escalares\(\alpha , \beta, \gamma \in \mathbb{F},\) se deduce que el vector

    \[x= \left[ \begin{array}{c} x_1 \\ x_2 \\ x_3 \\ x_4 \\ x_5 \\ x_6 \end{array} \right]=\left[ \begin{array}{c} b_1 - 6\alpha -4\beta+2\gamma \\ \alpha \\ b_2-3\beta -\gamma \\ b_3-5\beta -2\gamma \\ \beta \\ \gamma \end{array} \right]= \left[ \begin{array}{c} b_1 \\ 0 \\ b_2 \\ b_3 \\ 0 \\ 0 \end{array} \right]+\left[ \begin{array}{c} -6\alpha \\ \alpha \\ 0 \\ 0 \\ 0 \\ 0 \end{array} \right]+\left[ \begin{array}{c} -4\beta \\ 0 \\ -3\beta \\ -5\beta \\ \beta \\ 0 \end{array} \right]+\left[ \begin{array}{c} 2\gamma \\ 0 \\ -\gamma \\ -2\gamma \\ 0 \\ \gamma \end{array} \right]\]

    debe satisfacer la ecuación matricial También\(Ax = b.\) se puede verificar que cada solución a
    la ecuación matricial debe ser de esta forma. Se deduce entonces que el conjunto de todas las soluciones debería ser de alguna manera “tridimensional”. Como ilustran los ejemplos anteriores, una ecuación matricial que tiene una matriz coincidente en RREF
    corresponde a un sistema de ecuaciones que se pueden resolver con solo una pequeña cantidad de cómputos. Algo sorprendentemente, cualquier matriz se puede factorizar en un producto que involucra exactamente una matriz en RREF y una o más de las matrices definidas de la siguiente manera.

    Definición A.3.4. Una matriz cuadrada\(E \in \mathbb{F}^{m \times m}\) se denomina matriz elemental si tiene
    una de las siguientes formas:

    1. (intercambio de filas, también conocido como “intercambio de filas”, matriz)\(E\) se obtiene de la matriz de identidad\(I_m\) intercambiando los vectores de fila\(I_m^{(r, \cdot)}\) y\(I_m^{(s, \cdot)}\) para alguna elección particular de enteros positivos, es\(r, s \in \{1, 2, . . . , m\}.\) decir, en el caso de que\(r < s,\)

    \[ \]

    ¡AQUÍ!


    2. (matriz de escalado de filas)\(E\) se obtiene de la matriz de identidad\(I_m\) reemplazando el vector de fila\(I_m^{(r, \cdot)}\) con\(\alpha I_m^{(r, \cdot)}\) para alguna elección de escalar distinto de cero\(0 \neq \alpha \in \mathbb{F}\) y alguna elección de entero positivo,\(r \in \{1, 2, . . . , m\}.\) es decir,

    \[ \]

    donde\(E_{rr}\) es la matriz que tiene “\(r, r\)entrada” igual a una y todas las demás entradas iguales a cero. (Recordemos que\(E_{rr}\) fue definido en la Sección A.2.1 como un vector base estándar para el espacio vectorial\(\mathbb{F}^{m \times m} .\))

    3. (combinación de filas, también conocida como “suma de filas”, matriz)\(E\) se obtiene de la matriz de identidad\(I_m\) reemplazando el vector de fila\(I_m\) con\(I_m^{(r, \cdot)} + \alpha I_m^{(s, \cdot)}\) para alguna elección de escalar\(\alpha \in \mathbb{F}\) y alguna elección de enteros positivos,\(r, s \in \{1, 2, \ldots , m\}.\) es decir, en el caso de que\(r < s,\)

    \[ \]

    donde\(E_{rs}\) es la matriz que tiene “\(r, s\)entrada” igual a una y todas las demás entradas iguales a cero. (también\(E_{rs}\) se definió en la Sección A.2.1 como un vector base estándar para\(\mathbb{F}^{m \times m}\).)

    El “elemental” en el nombre de “matriz elemental” proviene de la correspondencia entre estas matrices y las llamadas “operaciones elementales” en sistemas de ecuaciones. En particular, cada una de las matrices elementales es claramente invertible (en el sentido definido en la Sección A.2.3), así como cada “operación elemental” es en sí misma completamente reversible. Ilustramos esta correspondencia en el siguiente ejemplo.

    Ejemplo A.3.5. Define\(A, x,\) y\(b\) por

    \[ A= \left[ \begin{array}{ccc} 2 & 5 & 3 \\ 1 & 2 & 3 \\ 1 & 0 & 8 \end{array} \right],x= \left[ \begin{array}{c} x_1 \\ x_2 \\ x_3 \end{array} \right], \rm{~and~} b= \left[ \begin{array}{c} 4 \\ 5 \\ 9 \end{array} \right].\]

    Ilustramos la correspondencia entre matrices elementales y operaciones “elementales”
    en el sistema de ecuaciones lineales correspondientes a la ecuación matricial\(Ax = b\), de la siguiente manera.

    Sistema de Ecuaciones

    \[\left. \begin{array}{ccccccc} 2x_1 &+& 5x_2 &+ & 3x_3&=&5 \\ x_1&+ & 2x_2&+ & 3x_3&=&4 \\ x_1 &&& + & 8x_3&=&9 \end{array} \right.\]

    Ecuación Matricial correspondiente

    \[ Ax = b\]

    Para comenzar a resolver este sistema, uno podría querer multiplicar la primera ecuación a través de por\(1/2\) o intercambiar la primera ecuación con una de las otras ecuaciones. Desde una perspectiva computacional, es preferible realizar un intercambio ya que multiplicar por\(1/2\) introduciría innecesariamente fracciones. Así, elegimos intercambiar la primera y la segunda ecuación para obtener

    Sistema de Ecuaciones

    \[\left. \begin{array}{ccccccc} x_1&+ & 2x_2&+ & 3x_3&=&4 \\ 2x_1 &+& 5x_2 &+ & 3x_3&=&5\\ x_1 &&& + & 8x_3&=&9 \end{array} \right.\]

    Ecuación Matricial correspondiente

    \[ E_0Ax=E_0b, \rm{~where~} E_0= \left[ \begin{array}{ccc} 0 & 1 & 0 \\ 1 & 0 & 0 \\ 0 & 0 & 1 \end{array} \right].\]

    Otra razón para realizar el intercambio anterior es que ahora nos permite utilizar operaciones de “combinación de filas” más convenientes al eliminar la variable\(x_1\) de todas las ecuaciones menos una. En particular, podemos multiplicar la primera ecuación a través de por\(−2\) y agregarla a la segunda ecuación para obtener

    Sistema de Ecuaciones

    \[ \left. \begin{array}{ccccccc} x_1&+ & 2x_2&+ & 3x_3&=&4 \\ && x_2 &- & 3x_3&=&-3\\ x_1 &&& + & 8x_3&=&9 \end{array} \right. \]

    Ecuación Matricial correspondiente

    \[ E_1E_0Ax=E_1E_0b, \rm{~where~} E_1= \left[ \begin{array}{ccc} 1 & 0 & 0 \\ -2 & 1 & 0 \\ 0 & 0 & 1 \end{array} \right]. \]

    Del mismo modo, para eliminar la variable\(x_1\) de la tercera ecuación, a continuación podemos multiplicar la primera ecuación por\(−1\) y agregarla a la tercera ecuación para obtener

    Sistema de Ecuaciones

    \[ \left. \begin{array}{ccccccc} x_1&+ & 2x_2&+ & 3x_3&=&4 \\ && x_2 &- & 3x_3&=&-3\\ &&-2x_2& + & 5x_3&=&5 \end{array} \right. \]


    Ecuación Matricial correspondiente

    \[ E_2E_1E_0Ax=E_2E_1E_0b, \rm{~where~} E_2= \left[ \begin{array}{ccc} 1 & 0 & 0 \\ 0 & 1 & 0 \\ -1 & 0 & 1 \end{array} \right]. \]


    Ahora que la variable\(x_1\) solo aparece en la primera ecuación, podemos aislar de manera similar la variable\(x_2\) multiplicando la segunda ecuación por\(2\) y sumarla a la tercera ecuación para obtener

    Sistema de Ecuaciones

    \[ \left. \begin{array}{ccccccc} x_1&+ & 2x_2&+ & 3x_3&=&4 \\ && x_2 &- & 3x_3&=&-3\\ &&& & -x_3&=&-1 \end{array} \right. \]

    Ecuación Matricial correspondiente

    \[ E_3 \cdots E_0Ax= E_3 \cdots E_0b, \rm{~where~} E_3= \left[ \begin{array}{ccc} 1 & 0 & 0 \\ 0 & 1 & 0 \\ 0 & 2 & 1 \end{array} \right]. \]

    Finalmente, para completar el proceso de transformación de la matriz coeciente en REF, solo necesitamos reescalar la fila tres por\(−1\). Esto corresponde a multiplicar la tercera ecuación a través\(−1\) de por para obtener

    Sistema de Ecuaciones

    \[ \left. \begin{array}{ccccccc} x_1&+ & 2x_2&+ & 3x_3&=&4 \\ && x_2 &- & 3x_3&=&-3\\ &&& & x_3&=&1 \end{array} \right. \]
    Ecuación Matricial correspondiente

    \[E_4 \cdots E_0Ax= E_4 \cdots E_0b, \rm{~where~} E_4= \left[ \begin{array}{ccc} 1 & 0 & 0 \\ 0 & 1 & 0 \\ 0 & 0 & -1 \end{array} \right]. \]

    Ahora que la matriz coecient está en REF, ya podemos resolver para las variables\(x_1 , x_2 ,\) y\(x_3\) usando un proceso llamado back substitution. Es decir, debe quedar claro a partir de la tercera ecuación que\(x_3 = 1.\) Usando este valor y resolviendo para\(x_2\) en la segunda ecuación, entonces se deduce que

    \[ x_2 = -3 + 3x_3 = -3 + 3 = 0.\]

    Del mismo modo, al resolver la primera ecuación para\(x_1\), se deduce que

    \[x_1 = 4 - 2x_2 - 3x_3 = 4 - 3 = 1.\]

    Desde una perspectiva computacional, este proceso de retrosustitución se puede aplicar para resolver cualquier sistema de ecuaciones cuando la matriz coeciente de la ecuación matricial correspondiente está en REF. Sin embargo, desde una perspectiva algorítmica, a menudo es más útil continuar “reduciendo filas” la matriz coeciente para producir una matriz coeciente en RREF completa.

    Aquí, hay varios pasos naturales siguientes que ahora podríamos realizar para avanzar hacia RREF. Como hasta ahora hemos trabajado “de arriba hacia abajo, de izquierda a derecha”, optamos por trabajar ahora “de abajo hacia arriba, de derecha a izquierda”. En otras palabras, ahora multiplicamos la tercera ecuación a través de por\(3\) y luego la agregamos a la segunda ecuación para obtener

    Sistema de Ecuaciones

    \[ \left. \begin{array}{ccccccc} x_1&+ & 2x_2&+ & 3x_3&=&4 \\ && x_2 & & &=&0\\ &&& & x_3&=&1 \end{array} \right. \]

    Ecuación Matricial correspondiente

    \[ E_5 \cdots E_0Ax= E_5 \cdots E_0b, \rm{~where~} E_5= \left[ \begin{array}{ccc} 1 & 0 & 0 \\ 0 & 1 & 3 \\ 0 & 0 & 1 \end{array} \right]. \]


    A continuación, podemos multiplicar la tercera ecuación a través de por\(−3\) y agregarla a la primera ecuación para obtener

    Sistema de Ecuaciones

    \[ \left. \begin{array}{ccccccc} x_1&+ & 2x_2& & &=&1 \\ && x_2 & & &=&0\\ &&& & x_3&=&1 \end{array} \right. \]

    Ecuación Matricial correspondiente

    \[ E_6 \cdots E_0Ax= E_6 \cdots E_0b, \rm{~where~} E_6= \left[ \begin{array}{ccc} 1 & 0 & -3 \\ 0 & 1 & 0 \\ 0 & 0 & 1 \end{array} \right]. \]


    Finalmente, podemos multiplicar la segunda ecuación a través de por\(−2\) y agregarla a la primera ecuación para obtener

    Sistema de Ecuaciones

    \[ \left. \begin{array}{ccccccc} x_1& & & & &=&1 \\ && x_2 & & &=&0\\ &&& & x_3&=&1 \end{array} \right. \]

    Ecuación Matricial correspondiente

    \[ E_7 \cdots E_0Ax= E_7 \cdots E_0b, \rm{~where~} E_7= \left[ \begin{array}{ccc} 1 & -2 & 0 \\ 0 & 1 & 0 \\ 0 & 0 & 1 \end{array} \right]. \]

    Ahora debería quedar muy claro que obtuvimos una solución correcta al usar la sustitución inversa en el sistema lineal

    \[ E_4 \cdots E_0Ax= E_4 \cdots E_0b. \]

    Sin embargo, en muchas aplicaciones, no es suficiente simplemente encontrar una solución. En cambio, es importante describir cada solución. Como veremos en las secciones restantes de estas notas, esto requiere de la maquinaria de Álgebra Lineal. En particular, necesitaremos la teoría de espacios vectoriales y mapas lineales.

    Para cerrar esta sección, echamos un vistazo más de cerca a la siguiente expresión obtenida del análisis anterior:

    \[E_7 E_6 \cdots E_1 E_0 A = I_3 .\]

    Por la forma en que hemos definido las matrices elementales, debe quedar claro que cada una de las matrices\(E_0 , E_1 ,\ldots , E_7\) es invertible. Así, podemos usar el Teorema A.2.9 con el fin de “resolver” para\(A\):


    \[A = (E_7 E_6 \cdots E_1 E_0 )^{-1} I_3 = E_0^{-1} E_1^{-1} \cdots E_7^{-1} I_3 .\]

    En efecto, dado que la inversa de una matriz elemental se ve fácilmente como una matriz elemental, esto se ha factorizado\(A\) en el producto de ocho matrices elementales (es decir,\(E_0^{-1} , E_1^{-1} , \ldots , E_7^{-1}\)) y una matriz en RREF (es decir,\(I_3\)). Además, debido a que cada matriz elemental es invertible, podemos concluir que\(x\) resuelve\(Ax = b\) si y solo si\(x\) resuelve

    \[(E_7 E_6 \cdots E_1 E_0 A )x = (I_3)x = (E_7 E_6 \cdots E_1 E_0)b.\]

    En consecuencia, dado cualquier sistema lineal, se puede utilizar la eliminación gaussiana con el fin de reducir el problema a resolver un sistema lineal cuya matriz coincidente está en RREF.
    Del mismo modo, podemos concluir que la inversa de\(A\) es

    \[A^{-1} = E_7 E_6 \cdots E_1 E_0=\left[ \begin{array}{ccc} 13 & -5 & -3 \\ -40 & 16 & 9 \\ 5 & -2 & 1 \end{array} \right].\]

    Habiendo calculado este producto, uno podría esencialmente “reutilizar” gran parte del cálculo anterior para resolver la ecuación matricial\(Ax = b{'}\) para varios lados dierentes de la derecha\(b{'} \in \mathbb{F}^3\). El proceso de “resolución” de un sistema lineal es una práctica común en las matemáticas aplicadas.

    A.3.2 Resolver sistemas lineales homogéneos

    En esta sección, estudiamos las soluciones para una importante clase especial de sistemas lineales. Sin embargo, como veremos en la siguiente sección, resolver cualquier sistema lineal depende fundamentalmente de saber resolver estos llamados sistemas homogéneos.

    Como es habitual, usamos m,\(n \in \mathbb{Z}_+\) para denotar enteros positivos arbitrarios.

    Definición A.3.6. El sistema de ecuaciones lineales, Sistema (A.1.1), se denomina sistema homogéneo si el lado derecho de cada ecuación es cero. En otras palabras, un sistema homogéneo corresponde a una ecuación matricial de la forma

    \[Ax = 0,\]

    donde\(A \in \mathbb{F}^{m \times n}\) es una\(m \times n\) matriz y x es una\(n\) -tupla de incógnitas. También llamamos al conjunto

    \[N = \{v \in \mathbb{F}^n | Av = 0\}\]

    el espacio de solución para el sistema homogéneo correspondiente a\(Ax = 0.\)

    Al describir el espacio de solución para un sistema lineal homogéneo, hay tres casos importantes a tener en cuenta:

    Definición A.3.7. El sistema de ecuaciones lineales System (A.1.1) se llama

    1. sobredeterminado si\(m > n.\)
    2. cuadrado si\(m = n.\)
    3. indeterminado si\(m < n.\)

    En particular, podemos decir mucho sobre sistemas homogéneos indeterminados, los cuales
    señalamos como corolario del siguiente resultado más general.

    Teorema A.3.8. Dejar\(N\) ser el espacio de solución para el sistema lineal homogéneo correspondiente a la ecuación matricial\(Ax = 0,\) donde\(A \in \mathbb{F}^{m \times n} .\) Entonces
    1. el vector cero\(0 \in N\).
    2. \(N\)es un subespacio del espacio vectorial\(\mathbb{F}^n.\)

    Este es un teorema asombroso. Dado que\(N\) es un subespacio de\(\mathbb{F}^n\), sabemos que o bien\(N\) contendrá exactamente un elemento (es decir, el vector cero) o\(N\) contendrá indefinitamente muchos elementos.

    Corolario A.3.9. Cada sistema homogéneo de ecuaciones lineales es resuelto por el vector cero. Además, cada sistema homogéneo indeterminado tiene indefinitamente muchas soluciones.

    Llamamos al vector cero la solución trivial para un sistema lineal homogéneo. El hecho de que cada sistema lineal homogéneo tenga la solución trivial reduce así la resolución de dicho sistema a determinar si existen soluciones distintas a la solución trivial.

    Un método para determinar el espacio de solución de un sistema homogéneo es utilizar por primera vez la eliminación gaussiana (como se demuestra en el Ejemplo A.3.5) con el fin de factorizar la matriz coincidente del sistema. Entonces, debido a que el sistema lineal original es homogéneo, el sistema homogéneo correspondiente a la matriz RREF resultante tendrá las mismas soluciones que el sistema original. En otras palabras, si una matriz\(A\) dada satisface

    \[E_k E_{k-1} \cdots E_0 A = A_0 ,\]

    donde cada una\(E_i\) es una matriz elemental y\(A_0\) es una matriz RREF, entonces la ecuación matricial\(Ax = 0\) tiene exactamente el mismo conjunto de soluciones que\(A_0 x = 0\) desde\(E_0^{-1} E_1^{-1} \cdots E_k^{-1} 0 = 0.\)

    Ejemplo A.3.10. En los siguientes ejemplos, ilustramos el proceso de determinación del espacio de solución para un sistema lineal homogéneo que tiene matriz coeciente en RREF.

    1. Considere la ecuación matricial\(Ax = 0\), donde\(A\) está la matriz dada por

    \[ A= \left[ \begin{array}{ccc} 1 & 0 & 0 \\ 0 & 1 & 0 \\ 0 & 0 & 1 \\ 0 & 0 & 0 \end{array} \right].\]

    Esto corresponde a un sistema homogéneo sobredeterminado de ecuaciones lineales. Además, dado que no hay variables libres (como se define en el Ejemplo A.3.3), debe quedar claro que este sistema solo tiene la solución trivial. Así,\(N = \{0\}.\)

    2. Considere la ecuación matricial\(Ax = 0,\) donde\(A\) está la matriz dada por

    \[A= \left[ \begin{array}{ccc} 1 & 0 & 1 \\ 0 & 1 & 1 \\ 0 & 0 & 0 \\ 0 & 0 & 0 \end{array} \right].\]

    Esto corresponde a un sistema homogéneo sobredeterminado de ecuaciones lineales. A diferencia del ejemplo anterior, vemos que\(x_3\) es una variable libre para este sistema, por lo que esperaríamos que el espacio de solución contenga algo más que el vector cero. Como en el Ejemplo A.3.3, podemos resolver para las variables principales en términos de la variable libre con el fin de obtener

    \[ \left. \begin{array}{cccc} x_1 & = & -& x_3 \\ x_2 & = & -& x_3 \\ \end{array} \right\},\]

    De ello se deduce que, dado cualquier escalar\(\alpha \in \mathbb{F}\), cada vector de la forma

    \[ x=\left[ \begin{array}{c} x_1 \\ x_2 \\ x_3 \end{array} \right] = \left[ \begin{array}{c} -\alpha \\ -\alpha \\ \alpha \end{array} \right]=\alpha \left[ \begin{array}{c} -1 \\ -1 \\ 1 \end{array} \right] \]


    es una solución a\(Ax = 0.\) Por lo tanto,

    \[N = \{(x_1 , x_2 , x_3 ) \in \mathbb{F}^3 ~|~ x_1 = -x_3 , x_2 = -x_3\} = span ((-1, -1, 1)) .\]


    3. Considere la ecuación matricial\(Ax = 0,\) donde\(A\) está la matriz dada por

    \[ A= \left[ \begin{array}{ccc} 1 & 1 & 1 \\ 0 & 0 & 0 \\ 0 & 0 & 0 \end{array} \right]. \]


    Esto corresponde a un sistema homogéneo cuadrado de ecuaciones lineales con dos variables libres. Así, utilizando la misma técnica que n el ejemplo anterior, podemos resolver para la variable principal con el fin de obtener\(x_1 = -x_2 - x_3 .\) Se deduce que, dados los escalares de\(\alpha , \beta \in \mathbb{F},\) cada vector de la forma

    \[ x=\left[ \begin{array}{c} x_1 \\ x_2 \\ x_3 \end{array} \right] = \left[ \begin{array}{c} -\alpha - \beta \\ \alpha \\ \beta \end{array} \right]=\alpha \left[ \begin{array}{c} -1 \\ 1 \\ 0 \end{array} \right] + \beta \left[ \begin{array}{c} -1 \\ 0 \\ 1 \end{array} \right] \]


    es una solución a\(Ax = 0.\) Por lo tanto,

    \[N = (x_1 , x_2 , x_3 ) \in \mathbb{F}^3 ~|~ x_1 + x_2 + x_3 = 0 = span ((-1, 1, 0), (-1, 0, 1)).\]

    A.3.3 Solución de sistemas lineales no homogéneos

    En esta sección, se demuestra la relación entre sistemas lineales arbitrarios y sistemas lineales homogéneos. Específicamente, veremos que se necesita poco más trabajo para resolver un sistema lineal general que para resolver el sistema homogéneo asociado a él.
    Como de costumbre, usamos\(m, n \in \mathbb{Z}_+\) para denotar enteros positivos arbitrarios.

    Definición A.3.11. El sistema de ecuaciones lineales System (A.1.1) se denomina sistema no homogéneo si el lado derecho de al menos una ecuación no es cero. En otras palabras, un sistema no homogéneo corresponde a una ecuación matricial de la forma

    \[Ax = b,\]

    donde\(A \in \mathbb{F}^{m \times n}\) es una\(m \times n\) matriz,\(x\) es una\(n\) -tupla de incógnitas, y\(b \in \mathbb{F}^m\) es un vector que tiene al menos un componente distinto de cero. También llamamos al conjunto

    \[U = \{v \in \mathbb{F}^n ~|~ Av = b\}\]

    el conjunto de soluciones para el sistema lineal correspondiente a\(Ax = b.\)

    Como se ilustra en el Ejemplo A.3.3, el vector cero no puede ser una solución para un sistema no homogéneo. En consecuencia, el conjunto de soluciones\(U\) para un sistema lineal no homogéneo nunca será un subespacio de ningún espacio vectorial. En cambio, será una estructura algebraica relacionada como se describe en el siguiente teorema.

    Teorema A.3.12. \(U\)Sea el espacio de solución para el sistema lineal no homogéneo correspondiente a la ecuación matricial\(Ax = b,\) donde\(A \in \mathbb{F}^{m \times n}\) y\(b \in \mathbb{F}^m\) es un vector que tiene al menos un componente distinto de cero. Entonces, dado cualquier elemento\(u \in U,\) tenemos que

    \[U = u + N = \{u + n ~|~ n \in N\} ,\]

    donde\(N\) esta el espacio de solución para\(Ax = 0.\) En otras palabras, si\(B = (n^{(1)} , n^{(2)} , \ldots , n^{(k)} )\) es una lista de vectores que forman una base para\(N\), entonces cada elemento de\(U\) puede escribirse en la forma

    \[u + \alpha_1 n^{(1)} + \alpha_2 n^{(2)} + \ldots + \alpha_k n^{(k)}\]

    para una selección de escalares\(\alpha_1 , \alpha_2 , \ldots , \alpha_k \in \mathbb{F}.\)

    Como consecuencia de este teorema, podemos concluir que los sistemas lineales no homogéneos se comportan mucho como sistemas homogéneos. La principal diferencia es que los sistemas no homogéneos no son necesariamente solucionables. Esto, entonces, crea tres posibilidades: un sistema lineal no homogéneo no tendrá solución, una solución única, o infinamente muchas soluciones. Un caso especial importante es el siguiente.

    Corolario A.3.13. Cada sistema lineal inhomogéneo sobredeterminado será necesariamente irresoluble para alguna elección de valores para los lados de la derecha de las ecuaciones.

    El conjunto de soluciones\(U\) para un sistema lineal no homogéneo se llama un subespacio ane de\(\mathbb{F}n\) ya que es un subespacio genuino del\(\mathbb{F}^n\) que ha sido “oset” por un vector\(u \in \mathbb{F}n\). Cualquier conjunto que tenga esta estructura también podría llamarse un coconjunto (cuando se usa en el contexto de la Teoría de Grupos) o un colector lineal (cuando se usa en un contexto geométrico como una discusión de hiperplanos de
    intersección).

    Para encontrar realmente el conjunto de soluciones para un sistema lineal no homogéneo, nos basamos en el Teorema A.3.12. Dada una\(m \times n\) matriz\(A \in \mathbb{F}^{m \times n}\) y un vector distinto de cero\(b \in \mathbb{F}^m\), llamamos a\(Ax = 0\) la ecuación matricial homogénea asociada a la ecuación matricial no homogénea\(Ax = b.\) Entonces, según el Teorema A.3.12, se\(U\) puede encontrar definiendo primero el espacio de solución\(N\) para la ecuación asociada\(Ax = 0\) y luego encontrar cualquier solución llamada particular\(u \in \mathbb{F}^n\) para\(Ax = b.\)

    Al igual que con los sistemas homogéneos, se puede utilizar primero la eliminación gaussiana para factorizar\(A,\) y así restringimos los siguientes ejemplos al caso especial de matrices RREF.

    Ejemplo A.3.14. Los siguientes ejemplos utilizan las mismas matrices que en el Ejemplo A.3.10.

    1. Considere la ecuación matricial\(Ax = b,\) donde\(A\) está la matriz dada por

    \[ A= \left[ \begin{array}{ccc} 1 & 0 & 0 \\ 0 & 1 & 0 \\ 0 & 0 & 1 \\ 0 & 0 & 0 \end{array} \right] \]

    y\(b \in \mathbb{F}^4\) tiene al menos un componente distinto de cero. Entonces\(Ax = b\) corresponde a un sistema inhomogéneo sobredeterminado de ecuaciones lineales y no necesariamente será solucionable para todas las elecciones posibles de\(b.\)

    En particular, tenga en cuenta que la fila inferior\(A^{(4, \cdot)}\) de\(A\) corresponde a la ecuación

    \[0 = b4 ,\]

    del cual no\(Ax = b\) tiene solución a menos que el cuarto componente de\(b\) sea cero. Además, las filas restantes de\(A\) corresponden a las ecuaciones

    \[x_1 = b_1 , x_2 = b_2 , \rm{~and~} x_3 = b_3 .\]

    De ello se deduce que, dado cualquier vector\(b \in \mathbb{F}^n\) con cuarto componente cero,\(x = b\) es la única solución a\(Ax = b.\) En otras palabras,\(U = \{b\}.\)

    2. Considere la ecuación matricial\(Ax = b,\) donde\(A\) está la matriz dada por

    \[ A= \left[ \begin{array}{ccc} 1 & 0 & 1 \\ 0 & 1 & 1 \\ 0 & 0 & 0 \\ 0 & 0 & 0 \end{array} \right] \]

    y\(b \in \mathbb{F}4 .\) Esto corresponde a un sistema inhomogéneo sobredeterminado de ecuaciones lineales. Obsérvese, en particular, que las dos filas inferiores de la matriz corresponden a las ecuaciones\(0 = b_3\) y\(0 = b_4 ,\) de las cuales no\(Ax = b\) tiene solución a menos que el tercer y cuarto componente del vector\(b\) sean ambos cero. Además, se concluye a partir de las filas restantes de la matriz que\(x_3\) es una variable libre para este sistema y que

    \[ \left. \begin{array}{ccccc} x_1 & =&b_1 & -& x_3 \\ x_2 & = &b_2& -& x_3 \\ \end{array} \right\}. \]


    De ello se deduce que, dado cualquier escalar\(\alpha \in \mathbb{F},\) cada vector de la forma

    \[ x=\left[ \begin{array}{c} x_1 \\ x_2 \\ x_3 \end{array} \right] = \left[ \begin{array}{c} b_1 - \alpha \\ b_2-\alpha \\ \alpha \end{array} \right]= \left[ \begin{array}{c} b_1 \\ b_2 \\ 0 \end{array} \right] + \alpha \left[ \begin{array}{c} -1 \\ -1 \\ 1 \end{array} \right] = u+ \alpha n \]

    es una solución para\(Ax = b.\) recordar del Ejemplo A.3.10 que el espacio de solución para la ecuación matricial homogénea asociada\(Ax = 0\) es

    \[N = \{(x_1 , x_2 , x_3 ) \in \mathbb{F}^3 ~|~ x_1 = -x_3 , x_2 = -x_3\} = span ((-1, -1, 1)) .\]

    Así, en el lenguaje del Teorema A.3.12, tenemos que\(u\) es una solución particular para
    \(Ax = b\) y que\((n)\) es una base para\(N.\) Por lo tanto, la solución establecida para\(Ax = b\) es

    \[U = (b_1 , b_2 , 0) + N = \{(x_1 , x_2 , x_3 ) \in \mathbb{F}^3 ~|~ x_1 = b_1 - x_3 , x_2 = b_2 - x_3\} .\]

    3. Considere la ecuación matricial\(Ax = b,\) donde\(A\) está la matriz dada por

    \[ A= \left[ \begin{array}{ccc} 1 & 1 & 1 \\ 0 & 0 & 0 \\ 0 & 0 & 0 \\ 0 & 0 & 0 \end{array} \right] \]

    y\(b \in \mathbb{F}^4\). Esto corresponde a un sistema cuadrado no homogéneo de ecuaciones lineales con dos variables libres. Como anteriormente, este sistema no tiene soluciones a menos que\(b_2 = b_3 = 0,\) y, dados los escalares de\(\alpha , \beta \in \mathbb{F},\) cada vector de la forma

    \[ x=\left[ \begin{array}{c} x_1 \\ x_2 \\ x_3 \end{array} \right] = \left[ \begin{array}{c} b_1 - \alpha -\beta \\ \alpha \\ \beta \end{array} \right]= \left[ \begin{array}{c} b_1 \\ 0 \\ 0 \end{array} \right] + \alpha \left[ \begin{array}{c} -1 \\ 1 \\ 0 \end{array} \right] + \beta \left[ \begin{array}{c} -1 \\ 0 \\ 1 \end{array} \right] = u+ \alpha n^{(1)}+ \beta n^{(2)} \]

    es una solución para\(Ax = b.\) recordar del Ejemplo A.3.10, que el espacio de solución para la ecuación matricial homogénea asociada\(Ax = 0\) es

    \[N = \{(x_1 , x_2 , x_3 ) \in \mathbb{F}^3 ~|~ x_1 + x_2 + x_3 = 0\} = span ((-1, 1, 0), (-1, 0, 1)) .\]

    Así, en el lenguaje del Teorema A.3.12, tenemos que u es una solución particular para\(Ax = b\) y que\((n^{(1)} , n^{(2)} )\) es una base para\(N.\) Por lo tanto, la solución establecida para\(Ax = b\) es

    \[U = (b_1 , 0, 0) + N = \{(x_1 , x_2 , x_3 ) \in \mathbb{F}^3 ~|~ x_1 + x_2 + x_3 = b_1\} .\]

    A.3.4 Resolver sistemas lineales con factorización LU-U

    Dejar\(n \in \mathbb{Z}_+\) ser un entero positivo, y supongamos que\(A \in \mathbb{F}^{n \times n}\) es una matriz triangular superior y que\(b \in \mathbb{F}^n\) es un vector de columna. Entonces, para resolver la ecuación matricial\(Ax = b\), no hay necesidad de aplicar la eliminación gaussiana. En cambio, podemos explotar la triangularidad\(A\) de para obtener directamente una solución.

    Usando la notación en System (A.1.1), note que la última ecuación en el sistema lineal correspondiente a solo\(Ax = b\) puede involucrar al único desconocido\(x_n \), y así podemos obtener la solución

    \[x_n = \frac{b_n}{a_{nn}}\]

    siempre y cuando\(a_{nn} \neq 0.\) Si\(a_{nn} = 0,\) entonces debemos tener cuidado de distinguir entre los dos casos en los que\(b_n = 0\) o\(b_n \neq 0.\) Así, por razones que quedarán claras a continuación, asumimos que los elementos diagonales de\(A\) son todos distintos de cero. Bajo este supuesto, no hay ambigüedad en la sustitución de la solución por\(x_n\) la penúltima ecuación (también conocida como segundo-a-último). Dado que\(A\) es triangular superior, la penúltima ecuación involucra solo la única desconocida\(x_{n-1} ,\) y así obtenemos la solución

    \[ x_{n-1} = \frac{b_{n-1}-a_{n-1,n}x_n }{a_{n-1,n-1}}. \]

    Podemos entonces sustituir de manera similar las soluciones por\(x_n\) y\(x_{n−1}\) en la ecuación ante penúltima (también conocida como tercera a última) para resolver para\(x_{n−2}\), y así sucesivamente hasta que se encuentre una solución completa. En particular,

    \[ x_1 = \frac{b_1-\sum_{k=2}^na_{nk}x_{k} }{a_{1 1}}. \]

    Al igual que en el Ejemplo A.3.5, llamamos a este proceso de sustitución inversa. Dado un sistema lineal arbitrario, la retrosustitución esencialmente nos permite detener el procedimiento de eliminación gaussiana y obtener inmediatamente una solución para el sistema tan pronto como se haya obtenido una matriz triangular superior (posiblemente en REF o incluso RREF) de la matriz coeciente.

    Un procedimiento similar se puede aplicar cuando\(A\) es triangular inferior. Nuevamente usando la notación en System (A.1.1), la primera ecuación contiene solo\(x_1\), y así

    \[ x_1= \frac{b_1}{a_{1 1}}.\]

    De nuevo estamos asumiendo que las entradas diagonales de\(A\) son todas distintas de cero. Entonces, actuando de manera similar
    a la sustitución inversa, podemos sustituir la solución por\(x_1\) en la segunda ecuación
    para obtener

    \[ x_2= \frac{b_2-a_{2 1}x_1}{a_{2 2}}.\]

    Continuando con este proceso, hemos creado un procedimiento de sustitución hacia adelante. En particular,

    \[ x_n = \frac{b_n-\sum_{k=2}^na_{nk}x_{k} }{a_{n n}}. \]

    De manera más general, supongamos que\(A \in \mathbb{F}^{n \times n}\) se trata de una matriz cuadrada arbitraria para la que existe una matriz triangular inferior\(L \in \mathbb{F}^{n \times n}\) y una matriz triangular superior\(U \in \mathbb{F}^{n \times n}\) tal que\(A = LU.\) cuando existen tales matrices, llamamos\(A = LU\) una factorización Lu-factorización (a.k.a. LU- descomposición) de\(A\). El beneficio de tal factorización es que nos permite explotar la triangularidad de\(L\) y\(U\) al resolver sistemas lineales que tienen matriz coeciente\(A\).

    Para ver esto, supongamos que\(b \in \mathbb{F}^n\) es un vector de columna. (Como anteriormente, también asumimos que la ninguna de las entradas diagonales en cualquiera\(L\) o\(U\) es cero.) Además, set\(y = Ux\), ¿dónde\(x\) está la solución aún desconocida de\(Ax = b.\) Entonces, por sustitución,\(y\) debe satisfacer

    \[Ly = b,\]

    y así, dado que\(L\) es triangular inferior, podemos resolver de inmediato por\(y\) vía de sustitución hacia adelante. En otras palabras, estamos utilizando el asociativo de multiplicación matricial (cf. Teorema A.2.6) para concluir que

    \[(A)x = (LU)x = L(Ux) = L(y)\]

    Entonces, una vez que hayamos obtenido\(y \in \mathbb{F}^n\), podemos aplicar la sustitución inversa con el fin de resolver para\(x\) Para ver esto, supongamos que\(A = LU\) es una factorización LU para la matriz\(A \in \mathbb{F}^{n \times n}\) y en la ecuación matricial

    \[Ux = y.\]

    En general, solo se puede obtener una factorización LU para una matriz\(A \in \mathbb{F}^{n \times n}\) cuando existen matrices elementales de “combinación de filas”\(E_1 , E_2 , \ldots , E_k \in \mathbb{F}^{n \times n}\) y una matriz triangular superior\(U\) tal que

    \[E_k E_{k-1} \cdots E_1 A = U.\]

    Existen diversas generalizaciones de LU -factorización que permiten algo más que matrices elementales de “combinaciones de filas” en este producto, pero no las mencionamos aquí. En cambio, proporcionamos un ejemplo detallado que ilustra cómo obtener una factorización LU y luego
    cómo usar dicha factorización en la resolución de sistemas lineales.

    Ejemplo A.3.15. Considere la matriz\(A \in \mathbb{F}^{3 \times 3}\) dada por
    \[ A = \left[ \begin{array}{ccc} 2 & 3 & 4 \\ 4 & 5 & 10 \\ 4 & 8 & 2 \end{array} \right]. \]

    Utilizando las técnicas ilustradas en el Ejemplo A.3.5, tenemos el siguiente producto matricial:

    \[ \left[ \begin{array}{ccc} 1 & 0 & 0 \\ 0 & 1 & 0 \\ 0 & 2 & 1 \end{array} \right] \left[ \begin{array}{ccc} 1 & 0 & 0 \\ 0 & 1 & 0 \\ -2 & 0 & 1 \end{array} \right] \left[ \begin{array}{ccc} 1 & 0 & 0 \\ -2 & 1 & 0 \\ 0 & 0 & 1 \end{array} \right]\left[ \begin{array}{ccc} 2 & 3 & 4 \\ 4 & 5 & 10 \\ 4 & 8 & 2 \end{array} \right]= \left[ \begin{array}{ccc} 2 & 3 & 4 \\ 0 & -1 & 3 \\ 0 & 0 & -2 \end{array} \right]=U. \]

    En particular, se han encontrado tres matrices elementales de “combinación de filas”, que al multiplicarse por\(A\), producen una matriz triangular superior\(U.\)

    Ahora bien, para producir una matriz triangular inferior\(L\) tal que\(A = LU\), nos basamos en dos hechos acerca de las matrices triangulares inferiores. En primer lugar, cualquier matriz triangular inferior con diagonal completamente distinta de cero es invertible, y, segundo, el producto de matrices triangulares inferiores es siempre triangular inferior. (Cf. Teorema A.2.7.) Más específicamente, tenemos eso

    \[ \left[ \begin{array}{ccc} 2 & 3 & 4 \\ 4 & 5 & 10 \\ 4 & 8 & 2 \end{array} \right]=\left[ \begin{array}{ccc} 1 & 0 & 0 \\ -2 & 1 & 0 \\ 0 & 0 & 1 \end{array} \right]^{-1} \left[ \begin{array}{ccc} 1 & 0 & 0 \\ 0 & 1 & 0 \\ -2 & 0 & 1 \end{array} \right]^{-1} \left[ \begin{array}{ccc} 1 & 0 & 0 \\ 0 & 1 & 0 \\ 0 & 2 & 1 \end{array} \right]^{-1} \left[ \begin{array}{ccc} 2 & 3 & 4 \\ 0 & -1 & 3 \\ 0 & 0 & -2 \end{array} \right]. \]

    donde

    \[ \left[ \begin{array}{ccc} 1 & 0 & 0 \\ -2 & 1 & 0 \\ 0 & 0 & 1 \end{array} \right]^{-1} \left[ \begin{array}{ccc} 1 & 0 & 0 \\ 0 & 1 & 0 \\ -2 & 0 & 1 \end{array} \right]^{-1} \left[ \begin{array}{ccc} 1 & 0 & 0 \\ 0 & 1 & 0 \\ 0 & 2 & 1 \end{array} \right]^{-1} = \left[ \begin{array}{ccc} 1 & 0 & 0 \\ 2 & 1 & 0 \\ 0 & 0 & 1 \end{array} \right] \left[ \begin{array}{ccc} 1 & 0 & 0 \\ 0 & 1 & 0 \\ 2 & 0 & 1 \end{array} \right] \left[ \begin{array}{ccc} 1 & 0 & 0 \\ 0 & 1 & 0 \\ 0 & -2 & 1 \end{array} \right]= \left[ \begin{array}{ccc} 1 & 0 & 0 \\ 2 & 1 & 0 \\ 2 & -2 & 1 \end{array} \right].\]

    Llamamos a la matriz triangular inferior resultante\(L\) y notamos eso\(A = LU,\) como se desee.
    Ahora, define\(x, y,\) y\(b\) por

    \[x=\left[ \begin{array}{c} x_1 \\ x_2 \\ x_3 \end{array} \right], y= \left[ \begin{array}{c} y_1 \\ y_2 \\ y_3 \end{array} \right], \rm{~and~} b= \left[ \begin{array}{c} 6 \\ 16 \\ 2 \end{array} \right].\]

    Aplicando la sustitución hacia\(Ly = b,\) adelante para obtener la solución

    \[ \left. \begin{array}{ccccccccc} y_1& = &b_1&&&&&=&6 \\ y_2& =& b_2& - &2y_1&&&=&4 \\ y_3& = &b_3& -& 2y_1& +& 2y_2& =& -2\end{array} \right\}. \]

    Entonces, dada esta solución única\(y\) a\(Ly = b,\) podemos aplicar la sustitución hacia\(Ux = y\) atrás para obtener

    \[ \left. \begin{array}{ccccccccc} 2x_1& = &y_1&-&3x_2&-&4x_3&=&8 \\ -1x_2& =& y_2& &&-&2x_3&=&2 \\ 2x_3& = &y_3& & & & & =& -2\end{array} \right\}. \]


    De ello se deduce que la solución única a\(Ax = b\) es

    \[ \left. \begin{array}{ccccccccc} x_1& =&4 \\ x_2& =&-2 \\ x_3& = & 1 \end{array} \right\}. \]

    En resumen, hemos dado un algoritmo para resolver cualquier ecuación matricial\(Ax = b\) en la que\(A = LU,\) donde\(L\) está triangular inferior,\(U\) es triangular superior, y ambos\(L\) y no\(U\) tienen más que entradas distintas de cero a lo largo de sus diagonales.

    Observamos al cierre que los procedimientos simples de sustitución hacia atrás y hacia adelante también se pueden utilizar para computar las inversas de las matrices triangulares inferior y superior. Por ejemplo, la inversa\(U = (u_{ij} )\) de la matriz

    \[ U^{-1} = \left[ \begin{array}{ccc} 2 & 3 & 4 \\ 0 & -1 & 3 \\ 0 & 0 & -2 \end{array} \right] \]

    debe saciar

    \[ \left[ \begin{array}{ccc} 2u_{1 1}+ 3u_{2 1}+4u_{3 1}& 2u_{1 2}+ 3u_{2 2}+4u_{3 2} & 2u_{1 3}+ 3u_{2 3}+4u_{3 3} \\ -u_{2 1}+3u_{3 1} & -u_{2 2}+3u_{3 2} & -u_{2 3}+3u_{3 3} \\ -2u_{3 1} & -2u_{3 2} & -2u_{3 3} \end{array} \right]=U^{-1}U = I_{3}= \left[ \begin{array}{ccc} 1 & 0 & 0 \\ 0 & 1 & 0 \\ 0 & 0 & 1 \end{array} \right], \]

    del cual obtenemos el sistema lineal

    \[ \left. \begin{array}{ccccccccccc} 2u_{1 1}&&&+3u_{2 1}&&& +4u_{3 1}&&& =&1 \\ &2u_{1 2}&&&+3u_{2 2} &&& +4u_{3 2} &&=&0 \\ &&2u_{1 3}& &&+3u_{23}&&& +4u_{33} &= & 0 \\ &&&-u_{21}&&& +3u_{31}&&& =& 0 \\ &&&& -u_{22} &&&+3u_{32}&& = &1 \\ &&&&&-u_{23}&&& +3u_{33} &=& 0 \\ &&&&&&-2u_{31} &&&=& 0 \\ &&&&&&&-2u_{32}&& =& 0 \\ &&&&&&&&-2u_{33}& = &1\end{array} \right\}. \]

    en las nueve variables\(u_{11} , u_{12} , \ldots , u_{33} .\) Dado que este sistema lineal tiene matriz central triangular superior, podemos aplicar la sustitución inversa para resolver directamente las entradas en\(U.\)

    La única condición que impusimos a nuestras matrices triangulares anteriormente fue que todas las entradas diagonales fueran distintas de cero. Debe quedar claro para usted que esta restricción diagonal distinta de cero es una condición necesaria y satisfactoria para que una matriz triangular sea no singular. Además, una vez que se han obtenido las inversas de ambos\(L\) y\(U\) en una factorización LU, entonces podemos calcular inmediatamente la inversa para\(A = LU\) aplicando el Teorema A.2.9 (4):

    \[ A^{-1} = (LU)^{-1} = U^{-1} L^{-1}. \].

    Template:Shilling


    This page titled 12.3: Resolver sistemas lineales factorizando la matriz de coeficientes is shared under a not declared license and was authored, remixed, and/or curated by Isaiah Lankham, Bruno Nachtergaele, & Anne Schilling.