Saltar al contenido principal
LibreTexts Español

2.5: Independencia lineal

  • Page ID
    113041
  • \( \newcommand{\vecs}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} } \) \( \newcommand{\vecd}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash {#1}}} \)\(\newcommand{\id}{\mathrm{id}}\) \( \newcommand{\Span}{\mathrm{span}}\) \( \newcommand{\kernel}{\mathrm{null}\,}\) \( \newcommand{\range}{\mathrm{range}\,}\) \( \newcommand{\RealPart}{\mathrm{Re}}\) \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\) \( \newcommand{\Argument}{\mathrm{Arg}}\) \( \newcommand{\norm}[1]{\| #1 \|}\) \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\) \( \newcommand{\Span}{\mathrm{span}}\) \(\newcommand{\id}{\mathrm{id}}\) \( \newcommand{\Span}{\mathrm{span}}\) \( \newcommand{\kernel}{\mathrm{null}\,}\) \( \newcommand{\range}{\mathrm{range}\,}\) \( \newcommand{\RealPart}{\mathrm{Re}}\) \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\) \( \newcommand{\Argument}{\mathrm{Arg}}\) \( \newcommand{\norm}[1]{\| #1 \|}\) \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\) \( \newcommand{\Span}{\mathrm{span}}\)\(\newcommand{\AA}{\unicode[.8,0]{x212B}}\)

    Objetivos
    1. Comprender el concepto de independencia lineal.
    2. Aprender dos criterios para la independencia lineal.
    3. Comprender la relación entre independencia lineal y columnas pivotantes/variables libres.
    4. Receta: probar si un conjunto de vectores es linealmente independiente/encontrar una ecuación de dependencia lineal.
    5. Imagen: si un conjunto de vectores en\(\mathbb{R}^2\) o\(\mathbb{R}^3\) es linealmente independiente o no.
    6. Palabras de vocabulario: relación de dependencia lineal/ecuación de dependencia lineal.
    7. Palabras esenciales del vocabulario: linealmente independiente, linealmente dependiente.

    A veces el lapso de un conjunto de vectores es “menor” de lo que esperas del número de vectores, como en la imagen de abajo. Esto significa que (al menos) uno de los vectores es redundante: se puede eliminar sin afectar el span. En la presente sección formalizamos esta idea en la noción de independencia lineal.

    clipboard_e983164810dc9ce7939b1f8561d406f55.png

    Figura\(\PageIndex{1}\): Imágenes de conjuntos de vectores que son linealmente dependientes. Tenga en cuenta que en cada caso, un vector está en el lapso de los demás, por lo que no hace que el span sea más grande.

    La definición de independencia lineal

    Definición\(\PageIndex{1}\): Linearly Independent and Linearly Dependent

    Un conjunto de vectores\(\{v_1,v_2,\ldots,v_k\}\) es linealmente independiente si la ecuación vectorial

    \[ x_1v_1 + x_2v_2 + \cdots + x_kv_k = 0 \nonumber \]

    tiene sólo la solución trivial\(x_1=x_2=\cdots=x_k=0\). El conjunto\(\{v_1,v_2,\ldots,v_k\}\) es linealmente dependiente de lo contrario.

    En otras palabras,\(\{v_1,v_2,\ldots,v_k\}\) es linealmente dependiente si existen números\(x_1,x_2,\ldots,x_k\text{,}\) no todos iguales a cero, tal que

    \[ x_1v_1 + x_2v_2 + \cdots + x_kv_k = 0. \nonumber \]

    Esto se denomina relación de dependencia lineal o ecuación de dependencia lineal.

    Nota:\(\PageIndex{1}\)

    Tenga en cuenta que la dependencia lineal y la independencia lineal son nociones que se aplican a una colección de vectores. No tiene sentido decir cosas como “este vector depende linealmente de estos otros vectores”, o “esta matriz es linealmente independiente”.

    Ejemplo\(\PageIndex{1}\): Checking linear dependence

    Es el conjunto

    \[\left\{\left(\begin{array}{c}1\\1\\1\end{array}\right),\:\left(\begin{array}{c}1\\-1\\2\end{array}\right),\:\left(\begin{array}{c}3\\1\\4\end{array}\right)\right\}\nonumber\]

    linealmente independiente?

    Solución

    Equivalentemente, estamos preguntando si la ecuación vectorial homogénea

    \[x\left(\begin{array}{c}1\\1\\1\end{array}\right)+y\left(\begin{array}{c}1\\-1\\2\end{array}\right)+x\left(\begin{array}{c}3\\1\\4\end{array}\right)=\left(\begin{array}{c}0\\0\\0\end{array}\right)\nonumber\]

    tiene una solución no trivial. Esto lo resolvemos formando una matriz y una reducción de filas (no aumentamos debido a esta Observación 2.4.2 en la Sección 2.4):

    \[\left(\begin{array}{ccc}1&1&3 \\ 1&-1&1 \\ 1&2&4\end{array}\right) \quad\xrightarrow{\text{row reduce}}\quad \left(\begin{array}{ccc}1&0&2 \\ 0&1&1 \\ 0&0&0\end{array}\right)\nonumber\]

    Esto dice\(x = -2z\) y\(y = -z\). Entonces existen soluciones no triviales: por ejemplo, tomar\(z=1\) da esta ecuación de dependencia lineal:

    \[-2\left(\begin{array}{c}1\\1\\1\end{array}\right)-\left(\begin{array}{c}1\\-1\\2\end{array}\right)+\left(\begin{array}{c}3\\1\\4\end{array}\right)=\left(\begin{array}{c}0\\0\\0\end{array}\right).\nonumber\]

    clipboard_e3085588f24846f0815457370d946332d.png

    Figura\(\PageIndex{2}\): Mueva los controles deslizantes para resolver la ecuación vectorial homogénea en este ejemplo. ¿Ves por qué los vectores necesitan ser coplanarios para que exista una solución no trivial?
    Ejemplo\(\PageIndex{2}\): Checking linear independence

    Es el conjunto

    \[\left\{\left(\begin{array}{c}1\\1\\-2\end{array}\right),\:\left(\begin{array}{c}1\\-1\\2\end{array}\right),\:\left(\begin{array}{c}3\\1\\4\end{array}\right)\right\}\nonumber\]

    linealmente independiente?

    Solución

    Equivalentemente, estamos preguntando si la ecuación vectorial homogénea

    \[x\left(\begin{array}{c}1\\1\\-2\end{array}\right)+y\left(\begin{array}{c}1\\-1\\2\end{array}\right)+z\left(\begin{array}{z}3\\1\\4\end{array}\right)=\left(\begin{array}{c}0\\0\\0\end{array}\right)\nonumber\]

    tiene una solución no trivial. Esto lo resolvemos formando una matriz y una reducción de filas (no aumentamos debido a esta Observación 2.4.2 en la Sección 2.4):

    \[\left(\begin{array}{ccc}1&1&3 \\ 1&-1&1 \\ -2&2&4\end{array}\right) \quad\xrightarrow{\text{row reduce}}\quad \left(\begin{array}{ccc}1&0&0 \\ 0&1&0 \\ 0&0&1\end{array}\right)\nonumber\]

    Esto dice\(x = y = z = 0\text{,}\) i.e., la única solución es la solución trivial. Se concluye que el conjunto es linealmente independiente.

    clipboard_e377ac11e1662115e5907de078150dda8.png

    Figura\(\PageIndex{3}\): Mueva los deslizadores para resolver la ecuación vectorial homogénea en este ejemplo. ¿Ves por qué los vectores necesitarían ser coplanarios para que exista una solución no trivial?
    Ejemplo\(\PageIndex{3}\): Vector parametric form

    Una observación importante es que los vectores que provienen de la forma vectorial paramétrica de la solución de una ecuación matricial\(Ax=0\) son linealmente independientes. En el Ejemplo 2.4.4 vimos que el conjunto de soluciones de\(Ax=0\) for

    \[A=\left(\begin{array}{ccc}1&-1&2 \\ -2&2&-4\end{array}\right)?\nonumber\]

    es

    \[x=\left(\begin{array}{c}x_1 \\ x_2 \\ x_3\end{array}\right) =x_2\left(\begin{array}{c}1\\1\\0\end{array}\right)+x_3\left(\begin{array}{c}-2\\0\\1\end{array}\right).\nonumber\]

    Vamos a explicar por qué los vectores\((1,1,0)\) y\((-2,0,1)\) son linealmente independientes. Supongamos que

    \[\left(\begin{array}{c}0\\0\\0\end{array}\right) =x_2\left(\begin{array}{c}1\\1\\0\end{array}\right) +x_3\left(\begin{array}{c}-2\\0\\1\end{array}\right) =\left(\begin{array}{c} x_2 -2x_3 \\ x_2 \\ x_3\end{array}\right).\nonumber\]

    Comparando las coordenadas segunda y tercera, vemos eso\(x_2=x_3=0\). Este razonamiento funcionará en cualquier ejemplo, ya que las entradas correspondientes a las variables libres son todas iguales a 1 o 0, y solo son iguales a 1 en uno de los vectores. Esta observación forma parte de este teorema en la Sección 2.7, Teorema 2.7.2.

    Los ejemplos anteriores llevan a la siguiente receta.

    Receta: Comprobando la Independencia Lineal

    Un conjunto de vectores\(\{v_1,v_2,\ldots,v_k\}\) es linealmente independiente si y solo si la ecuación vectorial

    \[ x_1v_1 + x_2v_2 + \cdots + x_kv_k = 0 \nonumber \]

    tiene solo la solución trivial, si y solo si la ecuación matricial\(Ax=0\) tiene solo la solución trivial, donde\(A\) está la matriz con columnas\(v_1,v_2,\ldots,v_k\text{:}\)

    \[A=\left(\begin{array}{cccc}|&|&\quad &| \\ v_1 & v_2 &\cdots &v_k \\ |&|&\quad &|\end{array}\right).\nonumber\]

    Esto es cierto si y solo si\(A\) tiene una posición de pivote, Definición 1.2.5 en la Sección 1.2 en cada columna.

    Resolver la ecuatión matricial\(Ax=0\) verificará que las columnas\(v_1,v_2,\ldots,v_k\) son linealmente independientes, o producirá una relación de dependencia lineal sustituyendo cualquier valor distinto de cero por las variables libres.

    (Recordemos que\(Ax=0\) tiene una solución no trivial si y sólo si\(A\) tiene una columna sin pivote: ver esta Observación 2.4.1 en la Sección 2.4.)

    Supongamos que\(A\) tiene más columnas que filas. Entonces\(A\) no puede tener un pivote en cada columna (tiene como máximo un pivote por fila), por lo que sus columnas son automáticamente dependientes linealmente.

    Nota \(\PageIndex{2}\)

    Una matriz ancha (una matriz con más columnas que filas) tiene columnas linealmente dependientes.

    Por ejemplo, cuatro vectores en\(\mathbb{R}^3\) son automáticamente dependientes linealmente. Tenga en cuenta que una matriz alta puede tener o no columnas linealmente independientes.

    Hecho\(\PageIndex{1}\): Facts About Linear Independence
    1. Dos vectores son linealmente dependientes si y solo si son colineales, es decir, uno es un múltiplo escalar del otro.
    2. Cualquier conjunto que contenga el vector cero es linealmente dependiente.
    3. Si un subconjunto de\(\{v_1,v_2,\ldots,v_k\}\) es linealmente dependiente, entonces también\(\{v_1,v_2,\ldots,v_k\}\) es linealmente dependiente.
    Prueba
    1. Si\(v_1 = cv_2\) entonces\(v_1-cv_2=0\text{,}\) así\(\{v_1,v_2\}\) es linealmente dependiente. En la otra dirección, si\(x_1v_1+x_2v_2=0\) con\(x_1\neq0\) (digamos), entonces\(v_1 = -\frac{x_2}{x_1}v_2\).
    2. Es fácil producir una relación de dependencia lineal si un vector es el vector cero: por ejemplo, si\(v_1=0\) entonces
      \[ 1\cdot v_1 + 0\cdot v_2 + \cdots + 0\cdot v_k = 0. \nonumber \]
    3. Después de reordenar, podemos suponer que\(\{v_1,v_2,\ldots,v_r\}\) es linealmente dependiente, con\(r < p\). Esto significa que existe una ecuación de dependencia lineal\[ x_1v_1 + x_2v_2 + \cdots + x_rv_r = 0\text{,} \nonumber \] con al menos una de distinta de\(x_1,x_2,\ldots,x_r\) cero. Esta también es una ecuación de dependencia lineal entre\(\{v_1,v_2,\ldots,v_k\}\text{,}\) ya que podemos tomar los coeficientes de\(v_{r+1},\ldots,v_k\) a todos ser cero.

    Con respecto al primer hecho, tenga en cuenta que el vector cero es un múltiplo de cualquier vector, por lo que es colineal con cualquier otro vector. De ahí que los hechos 1 y 2 sean consistentes entre sí.

    Criterios de Independencia Lineal

    En esta subsección damos dos criterios para que un conjunto de vectores sea linealmente independiente. Tenga en cuenta, sin embargo, que la definición real de independencia lineal, Definición\(\PageIndex{1}\), está arriba.

    Teorema \(\PageIndex{1}\)

    Un conjunto de vectores\(\{v_1,v_2,\ldots,v_k\}\) es linealmente dependiente si y solo si uno de los vectores está en el lapso de los otros.

    Cualquier vector de este tipo puede ser eliminado sin afectar el lapso.

    Prueba

    Supongamos, por ejemplo, que\(v_3\) está en\(\text{Span}\{v_1,v_2,v_4\}\text{,}\) así que tenemos una ecuación como

    \[ v_3 = 2v_1 - \frac 12v_2 + 6v_4. \nonumber \]

    Podemos subactuar\(v_3\) desde ambos lados de la ecuación para obtener

    \[ 0 = 2v_1 - \frac 12v_2 - v_3 + 6v_4. \nonumber \]

    Se trata de una relación de dependencia lineal.

    En este caso, cualquier combinación lineal de ya\(v_1,v_2,v_3,v_4\) es una combinación lineal de\(v_1,v_2,v_4\text{:}\)

    \[\begin{aligned} x_1v_1 + x_2v_2 + x_3v_3 + x_4v_4 &= x_1v_1 + x_2v_2 + x_3\left(2v_1-\frac 12v_2 + 6v_4\right) + x_4v_4\\ &= (x_1+2x_3)v_1 + \left(x_2-\frac 12x_3\right)v_2 + (x_4+6)v_4. \end{aligned}\]

    Por lo tanto,\(\text{Span}\{v_1,v_2,v_3,v_4\}\) está contenida en\(\text{Span}\{v_1,v_2,v_4\}\). Cualquier combinación lineal de también\(v_1,v_2,v_4\) es una combinación lineal de\(v_1,v_2,v_3,v_4\) (con el\(v_3\) coeficiente -igual a cero), por lo que también\(\text{Span}\{v_1,v_2,v_4\}\) está contenida en\(\text{Span}\{v_1,v_2,v_3,v_4\}\text{,}\) y por lo tanto son iguales.

    En la otra dirección, si tenemos una relación de dependencia lineal como

    \[ 0 = 2v_1 - \frac 12v_2 + v_3 - 6v_4, \nonumber \]

    entonces podemos mover cualquier término distinto de cero al lado izquierdo de la ecuación y dividirlo por su coeficiente:

    \[ v_1 = \frac 12\left(\frac 12v_2 - v_3 + 6v_4\right). \nonumber \]

    Esto demuestra que\(v_1\) está en\(\text{Span}\{v_2,v_3,v_4\}\).

    Dejamos al lector generalizar esta prueba para cualquier conjunto de vectores.

    Nota\(\PageIndex{3}\)

    En un conjunto linealmente dependiente no\(\{v_1,v_2,\ldots,v_k\}\text{,}\) es generalmente cierto que cualquier vector\(v_j\) esté en el lapso de los demás, sólo que al menos uno de ellos lo esté.

    Por ejemplo, el conjunto\(\bigl\{{1\choose 0},\,{2\choose 0},\,{0\choose 1}\bigr\}\) es linealmente dependiente, pero no\({0\choose 1}\) está en el lapso de los otros dos vectores. Vea también esta Figura\(\PageIndex{14}\) a continuación.

    El Teorema\(\PageIndex{1}\) anterior precisa en qué sentido un conjunto de vectores linealmente dependientes es redundante.

    Teorema\(\PageIndex{2}\): Increasing Span Criterion

    Un conjunto de vectores\(\{v_1,v_2,\ldots,v_k\}\) es linealmente independiente si y solo si, para cada uno\(j\text{,}\) el vector no\(v_j\) está en\(\text{Span}\{v_1,v_2,\ldots,v_{j-1}\}\).

    Prueba

    Es equivalente a mostrar que\(\{v_1,v_2,\ldots,v_k\}\) es linealmente dependiente si y sólo si\(v_j\) está en\(\text{Span}\{v_1,v_2,\ldots,v_{j-1}\}\) para algunos\(j\). La implicación “si” es una consecuencia inmediata del Teorema anterior\(\PageIndex{1}\). Supongamos entonces que\(\{v_1,v_2,\ldots,v_k\}\) es linealmente dependiente. Esto quiere decir\(v_j\) que algunos están en el lapso de los otros. Elija el más grande de este tipo\(j\). Afirmamos que esto\(v_j\) está en\(\text{Span}\{v_1,v_2,\ldots,v_{j-1}\}\). Si no, entonces

    \[ v_j = x_1v_1 + x_2v_2 + \cdots + x_{j-1}v_{j-1} + x_{j+1}v_{j+1} + \cdots + x_kv_k \nonumber \]

    con no todos\(x_{j+1},\ldots,x_k\) iguales a cero. Supongamos que por simplicidad eso\(x_k\neq 0\). Entonces podemos reorganizar:

    \[ v_k = -\frac 1{x_k}\bigl( x_1v_1 + x_2v_2 + \cdots + x_{j-1}v_{j-1} - v_j + x_{j+1}v_{j+1} + \cdots + x_{p-1}v_{p-1} \bigr). \nonumber \]

    Esto dice que\(v_k\) está en el lapso de\(\{v_1,v_2,\ldots,v_{p-1}\}\text{,}\) lo cual contradice nuestra suposición de que\(v_j\) es el último vector en el lapso de los demás.

    Podemos reformularlo de la siguiente manera:

    Nota\(\PageIndex{4}\)

    Si haces un conjunto de vectores agregando un vector a la vez, y si el lapso se hizo más grande cada vez que agregaste un vector, entonces tu conjunto es linealmente independiente.

    Imágenes de Linear Independence

    Un conjunto que contiene un vector\(\{v\}\) es linealmente independiente cuando\(v\neq 0\text{,}\) ya\(xv = 0\) implica\(x=0\).

    clipboard_e63890d009191c7095787304a657fb2e6.png

    Figura\(\PageIndex{4}\)

    Un conjunto de dos vectores no colineales\(\{v,w\}\) es linealmente independiente:

    • Tampoco está en el lapso del otro, por lo que podemos aplicar el primer criterio, el Teorema\(\PageIndex{1}\).
    • El span se hizo más grande cuando agregamos\(w\text{,}\) así podemos aplicar el criterio de span creciente, Teorema\(\PageIndex{2}\).

    clipboard_e86914c759da79eec627ffc96d524e7ee.png

    Figura\(\PageIndex{5}\)

    El conjunto de tres vectores\(\{v,w,u\}\) a continuación es linealmente dependiente:

    • \(u\)está en\(\text{Span}\{v,w\}\text{,}\) lo que podemos aplicar el primer criterio, Teorema\(\PageIndex{1}\).
    • El lapso no aumentó cuando agregamos\(u\text{,}\) por lo que podemos aplicar el criterio de span creciente, Teorema\(\PageIndex{2}\).

    En la imagen de abajo, tenga en cuenta que\(v\)\(w\) está en\(\text{Span}\{u,w\}\text{,}\) y está en\(\text{Span}\{u,v\}\text{,}\) para que podamos eliminar cualquiera de los tres vectores sin reducir el span.

    clipboard_ecfcee67f120e0b88ff771ca0c41a416c.png

    Figura\(\PageIndex{6}\)

    Dos vectores colineales son siempre linealmente dependientes:

    • \(w\)está en\(\text{Span}\{v\}\text{,}\) lo que podemos aplicar el primer criterio, Teorema\(\PageIndex{1}\).
    • El lapso no aumentó cuando agregamos\(w\text{,}\) por lo que podemos aplicar el criterio de span creciente, Teorema\(\PageIndex{2}\).

    clipboard_e5384f427cd9950249127c35faa3b1e26.png

    Figura\(\PageIndex{7}\)

    Estos tres vectores\(\{v,w,u\}\) son linealmente dependientes: en efecto, ya\(\{v,w\}\) es linealmente dependiente, por lo que podemos usar el tercer Hecho\(\PageIndex{1}\).

    clipboard_ef976f7b119abf3b375dacb3a05e9adf1.png

    Figura\(\PageIndex{8}\)

    Ejemplo\(\PageIndex{4}\): Interactive: Linear independence of two vectors in \(\mathbb{R}^2\)

    clipboard_ed924e46c18748f2dd5216ce7766a98ce.png

    Figura\(\PageIndex{9}\): Move the vector heads and the demo will tell you if they are linearly independent and show you their span.
    Example \(\PageIndex{5}\): Interactive: Linear dependence of three vectors in \(\mathbb{R}^2\)

    clipboard_e82ab35f48567771c0cc1e297d88cf91b.png

    Figura\(\PageIndex{10}\): Mueve las cabezas vectoriales y la demo te dirá que son linealmente dependientes y te mostrará su lapso.

    Los dos vectores\(\{v,w\}\) siguientes son linealmente independientes porque no son colineales.

    clipboard_e055c6fcfbb197fbf5c2082cadd21e12a.png

    Figura\(\PageIndex{11}\)

    Los tres vectores\(\{v,w,u\}\) a continuación son linealmente independientes: el span se hizo más grande cuando agregamos\(w\text{,}\) luego nuevamente cuando agregamos\(u\text{,}\) para que podamos aplicar el criterio de span creciente, Teorema\(\PageIndex{2}\).

    clipboard_eeb7ea3785d2abbebcdce514479fe35f8.png

    Figura\(\PageIndex{12}\)

    Los tres vectores coplanarios\(\{v,w,u\}\) a continuación son linealmente dependientes:

    • \(u\)está en\(\text{Span}\{v,w\}\text{,}\) lo que podemos aplicar el primer criterio, Teorema\(\PageIndex{1}\).
    • El lapso no aumentó cuando agregamos\(u\text{,}\) por lo que podemos aplicar el criterio de span creciente, Teorema\(\PageIndex{2}\).

    clipboard_e1e565cf0afcfecfde0559e5235c621ac.png

    Figura\(\PageIndex{13}\)

    Obsérvese que tres vectores son linealmente dependientes si y sólo si son coplanares. En efecto,\(\{v,w,u\}\) es linealmente dependiente si y sólo si un vector está en el lapso de los otros dos, que es un plano (o una línea) (o\(\{0\}\)).

    Los cuatro vectores\(\{v,w,u,x\}\) a continuación son linealmente dependientes: son las columnas de una matriz ancha, ver Nota\(\PageIndex{2}\). Tenga en cuenta sin embargo que no\(u\) está contenido en\(\text{Span}\{v,w,x\}\). Ver esta advertencia, Nota\(\PageIndex{3}\).

    clipboard_e75437f2ab2c039d7c4886bdec5e2650e.png

    Figura\(\PageIndex{14}\): Los vectores\(\{v,w,u,x\}\) son linealmente dependientes, pero\(u\) no están contenidos en\(\text{Span}\{v,w,x\}\).
    Ejemplo\(\PageIndex{6}\): Interactive: Linear independence of two vectors in \(\mathbb{R}^3\)

    clipboard_e10cd8efc73025353bab8a54ec51c4c83.png

    Figura\(\PageIndex{15}\): Move the vector heads and the demo will tell you if they are linearly independent and show you their span.
    Example \(\PageIndex{7}\): Interactive: Linear independence of three vectors in \(\mathbb{R}^3\)

    clipboard_eebdeccfc15d71ca3f822c15f0213f1a1.png

    Figura\(\PageIndex{16}\): Mueve las cabezas vectoriales y la demo te dirá si son linealmente independientes y te mostrará su lapso.

    Dependencia Lineal y Variables Libres

    A la luz de esta importante nota, Receta: Comprobando Independencia Lineal, y este criterio, Teorema\(\PageIndex{1}\), es natural preguntar qué columnas de una matriz son redundantes, es decir, cuáles podemos eliminar sin afectar el lapso de columna.

    Teorema \(\PageIndex{3}\)

    Dejar\(v_1,v_2,\ldots,v_k\) ser vectores en\(\mathbb{R}^n\text{,}\) y considerar la matriz

    \[A=\left(\begin{array}{cccc}|&|&\quad &| \\ v_1 &v_2 &\cdots &v_k \\ |&|&\quad &|\end{array}\right).\nonumber\]

    Entonces podemos eliminar las columnas de\(A\) sin pivotes (las columnas correspondientes a las variables libres), sin cambiar\(\text{Span}\{v_1,v_2,\ldots,v_k\}\).

    Las columnas pivotantes son linealmente independientes, por lo que no podemos eliminar más columnas sin cambiar el span.

    Prueba

    Si la matriz está en forma de escalón de fila reducida:

    \[A=\left(\begin{array}{cccc}1&0&2&0 \\ 0&1&3&0 \\ 0&0&0&1\end{array}\right)\nonumber\]

    entonces la columna sin pivote está visiblemente en el tramo de las columnas pivotes:

    \[\left(\begin{array}{c}2\\3\\0\end{array}\right)=2\left(\begin{array}{c}1\\0\\0\end{array}\right)+3\left(\begin{array}{c}0\\1\\0\end{array}\right)+0\left(\begin{array}{c}0\\0\\1\end{array}\right),\nonumber\]

    y las columnas pivotes son linealmente independientes:

    \[\left(\begin{array}{c}0\\0\\0\end{array}\right) =x_1\left(\begin{array}{c}1\\0\\0\end{array}\right)+x_2\left(\begin{array}{c}0\\1\\0\end{array}\right)+x_4\left(\begin{array}{c}0\\0\\1\end{array}\right)=\left(\begin{array}{c}x_1 \\x_2 \\ x_4\end{array}\right)\implies x_1 =x_2 =x_4 =0.\nonumber\]

    Si la matriz no está en forma de escalón de fila reducida, entonces remaremos reducir:

    \[A=\left(\begin{array}{cccc}1&7&23&3 \\ 2&4&16&0 \\ -1&-2&-8&4\end{array}\right) \quad\xrightarrow{\text{RREF}}\quad \left(\begin{array}{cccc}1&0&2&0 \\ 0&1&3&0 \\ 0&0&0&1\end{array}\right).\nonumber\]

    Las siguientes dos ecuaciones vectoriales tienen el mismo conjunto de soluciones, ya que provienen de matrices equivalentes a filas:

    \[\begin{aligned} x_1\left(\begin{array}{c}1\\2\\-1\end{array}\right)+x_2\left(\begin{array}{c}7\\4\\-2\end{array}\right)+x_3\left(\begin{array}{c}23\\16\\-8\end{array}\right)+x_4\left(\begin{array}{c}3\\0\\4\end{array}\right)&=0 \\ x_1\left(\begin{array}{c}1\\0\\0\end{array}\right)+x_2\left(\begin{array}{c}0\\1\\0\end{array}\right)+x_3\left(\begin{array}{c}2\\3\\0\end{array}\right)+x_4\left(\begin{array}{c}0\\0\\1\end{array}\right)&=0\end{aligned}\]

    Concluimos que

    \[\left(\begin{array}{c}23\\16\\-8\end{array}\right)=2\left(\begin{array}{c}1\\2\\-1\end{array}\right)+3\left(\begin{array}{c}7\\4\\-2\end{array}\right)+0\left(\begin{array}{c}3\\0\\4\end{array}\right)\nonumber\]

    y que

    \[x_1\left(\begin{array}{c}1\\2\\-1\end{array}\right)+x_2\left(\begin{array}{c}7\\4\\-2\end{array}\right)+x_4\left(\begin{array}{c}3\\0\\4\end{array}\right)=0\nonumber\]

    tiene sólo la solución trivial.

    Tenga en cuenta que es necesario remar reducir\(A\) para encontrar cuáles son sus columnas pivotantes, Definición 1.2.5 en la Sección 1.2. Sin embargo, el lapso de las columnas de la matriz de fila reducida generalmente no es igual al lapso de las columnas de\(A\text{:}\) uno debe usar las columnas pivotantes de la matriz original. Véase teorema en la Sección 2.7, Teorema 2.7.2 para una reafirmación del teorema anterior.

    Ejemplo\(\PageIndex{8}\)

    La matriz

    \[A=\left(\begin{array}{cccc}1&2&0&-1 \\ -2&-3&4&5 \\ 2&4&0&-2\end{array}\right)\nonumber\]

    tiene forma de escalón de fila reducida

    \[\left(\begin{array}{cccc}1&0&-8&-7 \\ 0&1&4&3 \\ 0&0&0&0\end{array}\right).\nonumber\]

    Por lo tanto, las dos primeras columnas de\(A\) son las columnas pivotantes, por lo que podemos eliminar las otras sin cambiar el span:

    \[\text{Span}\left\{\left(\begin{array}{c}1\\-2\\2\end{array}\right),\:\left(\begin{array}{c}2\\-3\\4\end{array}\right)\right\}=\text{Span}\left\{\left(\begin{array}{c}1\\-2\\2\end{array}\right),\:\left(\begin{array}{c}2\\-3\\4\end{array}\right),\:\left(\begin{array}{c}0\\4\\0\end{array}\right),\:\left(\begin{array}{c}-1\\5\\-2\end{array}\right)\right\}.\nonumber\]

    Además, las dos primeras columnas son linealmente independientes.

    Nota \(\PageIndex{5}\): Pivot Columns and Dimension

    Dejar\(d\) ser el número de columnas pivotes en la matriz

    \[A=\left(\begin{array}{cccc}|&|&\quad &| \\ v_1 &v_2 &\cdots &v_k \\ |&|&\quad &| \end{array}\right).\nonumber\]

    • Si\(d=1\) entonces\(\text{Span}\{v_1,v_2,\ldots,v_k\}\) es una línea.
    • Si\(d=2\) entonces\(\text{Span}\{v_1,v_2,\ldots,v_k\}\) es un avión.
    • Si\(d=3\) entonces\(\text{Span}\{v_1,v_2,\ldots,v_k\}\) es un espacio de 3.
    • etcétera.

    El número\(d\) se llama la dimensión. Discutimos esta noción en esta nota importante en la Sección 2.4, Nota 2.4.4 y esta nota importante en la Sección 2.4, Nota 2.4.5. Definiremos este concepto rigurosamente en la Sección 2.7.


    This page titled 2.5: Independencia lineal is shared under a GNU Free Documentation License 1.3 license and was authored, remixed, and/or curated by Dan Margalit & Joseph Rabinoff via source content that was edited to the style and standards of the LibreTexts platform; a detailed edit history is available upon request.