Saltar al contenido principal
LibreTexts Español

5.2: Independencia lineal

  • Page ID
    114896
  • \( \newcommand{\vecs}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} } \) \( \newcommand{\vecd}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash {#1}}} \)\(\newcommand{\id}{\mathrm{id}}\) \( \newcommand{\Span}{\mathrm{span}}\) \( \newcommand{\kernel}{\mathrm{null}\,}\) \( \newcommand{\range}{\mathrm{range}\,}\) \( \newcommand{\RealPart}{\mathrm{Re}}\) \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\) \( \newcommand{\Argument}{\mathrm{Arg}}\) \( \newcommand{\norm}[1]{\| #1 \|}\) \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\) \( \newcommand{\Span}{\mathrm{span}}\) \(\newcommand{\id}{\mathrm{id}}\) \( \newcommand{\Span}{\mathrm{span}}\) \( \newcommand{\kernel}{\mathrm{null}\,}\) \( \newcommand{\range}{\mathrm{range}\,}\) \( \newcommand{\RealPart}{\mathrm{Re}}\) \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\) \( \newcommand{\Argument}{\mathrm{Arg}}\) \( \newcommand{\norm}[1]{\| #1 \|}\) \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\) \( \newcommand{\Span}{\mathrm{span}}\)\(\newcommand{\AA}{\unicode[.8,0]{x212B}}\)

    {{Template.dropdown {ruta:” /álgebra/linear_álgebra "}}}

    Ahora vamos a definir la noción de independencia lineal de una lista de vectores. Este concepto será sumamente importante en las secciones que siguen, y sobre todo cuando introduzcamos bases y la dimensión de un espacio vectorial.

    Definición 5.2.1: Vectores linealmente independientes

    Una lista de vectores\((v_1,\ldots,v_m)\) se llama linealmente independiente si la única solución\(a_1,\ldots,a_m\in\mathbb{F}\) para la ecuación

    \[ a_1 v_1 + \cdots + a_m v_m = 0 \]

    es\(a_1=\cdots = a_m=0\). En otras palabras, el vector cero solo puede escribirse trivialmente como una combinación lineal de\((v_1,\ldots,v_m)\).

    Definición 5.2.2: Vectores linealmente dependientes

    Una lista de vectores\((v_1,\ldots,v_m)\) se llama linealmente dependiente si no es linealmente independiente. Es decir,\((v_1,\ldots,v_m)\) es lineal dependiente si existe\(a_1,\ldots,a_m\in \mathbb{F}\), no todo cero, tal que

    \[ a_1 v_1 + \cdots + a_m v_m = 0.\]

    Ejemplo\(\PageIndex{1}\):

    Los vectores\((e_1,\ldots,e_m)\) del Ejemplo 5.1.4 son linealmente independientes. Para ver esto, tenga en cuenta que la única solución a la ecuación vectorial

    \[ 0 = a_1 e_1 + \cdots + a_m e_m = (a_1,\ldots,a_m) \]

    es\(a_1=\cdots=a_m=0\). Alternativamente, podemos reinterpretar esta ecuación vectorial como el sistema lineal homogéneo

    \[ \left. \begin{array}{cccccc} a_{1} & & ~ & ~ & = & 0 \\ ~ & a_{2} & ~ & ~ & = & 0 \\ ~ & ~ & \ddots & ~ & \vdots & \vdots \\ ~ & ~ & ~ & a_{m} & = & 0 \end{array} \right\}, \]

    que claramente sólo tiene la solución trivial. (Véase la Sección A.3.2 para conocer las definiciones correspondientes.)

    Ejemplo\(\PageIndex{2}\):

    Los vectores\(v_1=(1,1,1),v_2=(0,1,-1)\), y\(v_3=(1,2,0)\) son linealmente dependientes. Para ver esto, necesitamos considerar la ecuación vectorial

    \[ \begin{eqnarray} a_1 v_1 + a_2 v_2 + a_3 v_3 & = & a_1 (1,1,1) + a_2 (0,1,-1) + a_3 (1,2,0)\\ & = & (a_1+a_3,a_1+a_2+2a_3,a_1-a_2) = (0,0,0). \end{eqnarray} \]

    Resolviendo para\(a_1,a_2\)\(a_3\), y, vemos, por ejemplo, que\((a_1,a_2,a_3) = (1,1,-1)\) es una solución distinta de cero. Alternativamente, podemos reinterpretar esta ecuación vectorial como el sistema lineal homogéneo

    \[ \left. \begin{array}{ccccccc} a_{1} & ~ & ~ & + & a_{3} & = & 0 \\ a_{1} & + & a_{2} & + & 2a_{3} & = & 0 \\ a_{1} & - & a_{2} & ~ & ~ & = & 0 \end{array} \right\}. \]

    Utilizando las técnicas de la Sección A.3, vemos que resolver este sistema lineal equivale a resolver el siguiente sistema lineal:

    \[ \left. \begin{array}{ccccccc} a_{1} & ~ & ~ & + & a_{3} & = & 0 \\ ~ & ~ & a_{2} & + & a_{3} & = & 0 \end{array} \right\}. \]

    Tenga en cuenta que este nuevo sistema lineal claramente tiene infinitamente muchas soluciones. En particular, el conjunto de todas las soluciones viene dado por

    \[ N = \{ (a_1,a_2,a_3) \in \mathbb{F}^{n} \ | \ a_{1} = a_{2} = -a_{3} \} = \Span((1,1,-1)). \]

    Ejemplo\(\PageIndex{3}\):

    Los vectores\((1,z,\ldots,z^m)\) en el espacio vectorial\(\mathbb{F}_m[z]\) son linealmente independientes. Requerimos que

    \[ a_0 1 + a_1 z +\cdots+ a_m z^m = 0 \]

    significa que el polinomio de la izquierda debe ser cero para todos\(z\in \mathbb{F}\). Esto sólo es posible para\(a_0=a_1=\cdots=a_m=0\).

    Una consecuencia importante de la noción de independencia lineal es el hecho de que cualquier vector en el lapso de una lista dada de vectores linealmente independientes puede escribirse de manera única como una combinación lineal.

    Lema 5.2.6

    La lista de vectores\((v_1,\ldots,v_m)\) es linealmente independiente si y solo si cada uno\(v\in\Span(v_1,\ldots,v_m)\) puede escribirse de manera única como una combinación lineal de\((v_1,\ldots,v_m)\).

    Prueba

    \(( "\Longrightarrow" )\)Supongamos que\((v_1,\ldots,v_m)\) es una lista linealmente independiente de vectores.

    Supongamos que hay dos formas de escribir\(v\in\Span(v_1,\ldots,v_m)\) como una combinación lineal del\(v_i\):

    \[ v=a_1v_1 + \cdots a_m v_m,\\ v=a^{'}_1v_1 + \cdots a^{'}_m v_m. \]

    Restar las dos ecuaciones rinde\(0=(a_1-a_1')v_1 + \cdots + (a_m-a_m')v_m\).

    Dado que\((v_1,\ldots,v_m)\) es linealmente independiente, la única solución a esta ecuación es\(a_1-a_1'=0,\ldots,a_m-a_m'=0\), o equivalentemente\(a_1=a_1',\ldots,a_m=a_m'\).

    \(( "\Longleftarrow" )\)Ahora supongamos que, para cada\(v \in \Span(v_1,\ldots,v_m)\), hay únicos de\(a_1,\ldots,a_m \in \mathbb{F}\) tal manera que

    \[ v = a_1 v_1 + \cdots + a_m v_m. \]

    Esto implica, en particular, que la única forma en que el vector cero\(v=0\) puede escribirse como una combinación lineal de\(v_1,\ldots,v_m\) es con\(a_1=\cdots=a_m=0\). Esto demuestra que\((v_1,\ldots,v_m)\) son linealmente independientes.

    \(\square\)

    Es claro que si\((v_1,\ldots,v_m)\) es una lista de vectores linealmente independientes, entonces la lista también\((v_1,\ldots,v_{m-1})\) es linealmente independiente.

    Para el siguiente lema, introducimos la siguiente notación: Si queremos soltar un vector\(v_j\) de una lista dada\((v_1,\ldots,v_m)\) de vectores, entonces indicamos el vector caído por un sombrero. Es decir, escribimos

    \[ (v_1,\ldots,\hat{v}_j,\ldots,v_m) = (v_1,\ldots,v_{j - 1}, v_{j + 1},\ldots,v_m). \]

    Lema 5.2.7: Lema de dependencia lineal

    Si\((v_1,\ldots,v_m)\) es linealmente dependiente y\(v_1\neq 0\), entonces existe un índice\(j\in \{2,\ldots,m\}\) tal que se mantienen las dos condiciones siguientes.

    1. \(v_j\in \Span(v_1,\ldots, v_{j-1})\).
    2. Si\(v_j\) se retira de\((v_1,\ldots,v_m)\), entonces\(\Span(v_1,\ldots,\hat{v}_j,\ldots,v_m) = \Span(v_1,\ldots,v_m)\).

    Prueba

    Ya que\((v_1,\ldots,v_m)\) es linealmente dependiente\(a_1,\ldots,a_m\in \mathbb{F}\) no existen todos cero tal que\(a_1v_1+\cdots+ a_mv_m =0\). Ya que por suposición\(v_1\neq 0\), no todos\(a_2,\ldots,a_m\) pueden ser cero. Dejemos\(j\in\{2,\ldots,m\}\) ser más grandes de tal manera que\(a_j\neq 0\). Entonces tenemos

    \[ v_j = -\frac{a_1}{a_j} v_1-\cdots - \frac{a_{j-1}}{a_j} v_{j-1}, \label{5.2.1} \]

    lo que implica Parte~1.

    Vamos\(v\in\Span(v_1,\ldots,v_m)\). Esto significa, por definición, que existen escalares\(b_1,\ldots,b_m\in\mathbb{F}\) tales que

    \[ v = b_1 v_1 + \cdots + b_m v_m. \]

    El vector\(v_j\) que determinamos en la Parte 1 puede ser reemplazado por la Ecuación\ ref {5.2.1}) de manera que\(v\) se escribe como una combinación lineal de\((v_1,\ldots,\hat{v}_j,\ldots,v_m)\). De ahí,\(\Span(v_1,\ldots,\hat{v}_j,\ldots,v_m) = \Span(v_1,\ldots,v_m)\).

    \(\square\)

    Ejemplo\(\PageIndex{4}\):

    La lista\((v_1,v_2,v_3)=((1,1),(1,2),(1,0))\) de vectores abarca\(\mathbb{R}^2\).

    Para ver esto, toma cualquier vector\(v=(x,y)\in \mathbb{R}^2\). Queremos mostrar que se\(v\) puede escribir como una combinación lineal de\((1,1),(1,2),(1,0)\), es decir, que existen escalares\(a_{1}, a_{2}, a_{3} \in \mathbb{F}\) tales que

    \[ v = a_1 (1,1) + a_2 (1,2) + a_3 (1,0),\]

    o equivalentemente que

    \[ (x,y) = (a_1+a_2+a_3,a_1+2a_2). \]

    Claramente\(a_1=y\)\(a_2=0\),, y\(a_3=x-y\) formar una solución para cualquier elección de\(x, y\in \mathbb{R}\), y así\(\mathbb{R}^2=\Span((1,1),(1,2),(1,0))\). Sin embargo, tenga en cuenta que

    \[ 2 (1,1) - (1,2) - (1,0) = (0,0), \label{5.2.2} \]

    lo que demuestra que la lista\(((1,1),(1,2),(1,0))\) es linealmente dependiente.

    La dependencia lineal

    Lema 5.2.7 establece así que uno de los vectores se puede eliminar\(((1,1),(1,2),(1,0))\) y que la lista resultante de vectores seguirá abarcando\(\mathbb{R}^2\). En efecto, por Ecuación\ ref {5.2.2},

    \[ v_3 = (1,0) = 2(1,1)-(1,2) = 2v_1-v_2, \]

    y así\(\Span((1,1),(1,2),(1,0))=\Span((1,1),(1,2)).\)

    El siguiente resultado muestra que las listas linealmente independientes de vectores que abarcan un espacio vectorial finito-dimensional son los conjuntos de expansión más pequeños posibles.

    Teorema 5.2.9

    Dejar\(V\) ser un espacio vectorial finito-dimensional. Supongamos que\((v_1,\ldots,v_m)\) es una lista linealmente independiente de vectores que abarca\(V\), y deja\((w_1,\ldots,w_n)\) ser cualquier lista que abarque\(V\). Entonces\(m\le n\).

    Prueba

    La prueba utiliza el siguiente procedimiento iterativo: comenzar con una lista arbitraria de vectores\(\mathcal{S}_0=(w_1,\ldots,w_n)\) tales que\(V = \Span(\mathcal{S}_0)\). En el\(k^{\text{th}}\) paso del procedimiento, construimos una nueva lista\(\mathcal{S}_k\) reemplazando algún vector\(w_{j_k}\) por el vector\(v_k\) tal que\(\mathcal{S}_k\) aún se extiende\(V\). Repitiendo esto para todos\(v_k\) entonces produce una nueva lista\(\mathcal{S}_m\) de longitud\(n\) que contiene cada uno de\(v_1,\ldots,v_m\), lo que luego lo demuestra\(m\le n\). Discutamos ahora cada paso en este procedimiento en detalle.

    Paso 1. Dado que\((w_1,\ldots,w_n)\) abarca\(V\), agregar un nuevo vector a la lista hace que la nueva lista sea linealmente dependiente. De ahí\((v_1,w_1,\ldots,w_n)\) que sea linealmente dependiente. Por Lema 5.2.7, existe un índice\(j_1\) tal que

    \[ w_{j_1} \in \Span(v_1,w_1,\ldots, w_{j_1-1}).\]

    De ahí\(\mathcal{S}_1=(v_1,w_1,\ldots,\hat{w}_{j_1},\ldots,w_n)\) vanos\(V\). En este paso, agregamos el vector\(v_1\) y eliminamos el vector\(w_{j_1}\) de\(\mathcal{S}_0\).

    Paso\(k\). Supongamos que ya agregamos\(v_1,\ldots,v_{k-1}\) a nuestra lista de expansión y eliminamos los vectores\(w_{j_1},\ldots,w_{j_{k-1}}\). Es imposible que hayamos llegado a la situación en la que todos los vectores\(w_1,\ldots, w_n\) han sido eliminados de la lista de expansión en este paso si\(k\leq m\) porque entonces tendríamos\(V=\Span(v_1,\ldots, v_{k-1})\) lo que permitiría\(v_k\) expresarse como una combinación lineal de\(v_1,\ldots,v_{k-1}\) (en contradicción con el asunción de independencia lineal de\(v_1,\ldots,v_n\)).

    Ahora, llame a la lista alcanzada en este paso\(\mathcal{S}_{k-1}\), y anote eso\(V = \Span(\mathcal{S}_{k-1})\). Agregue el vector\(v_k\) a\(\mathcal{S}_{k-1}\). Por los mismos argumentos que antes, junto al vector extra\(v_k\) a la lista de expansión\(\mathcal{S}_{k-1}\) produce una lista de vectores linealmente dependientes. De ahí que por Lemma 5.2.7, exista un índice\(j_k\) tal que\(\mathcal{S}_{k-1}\) con\(v_k\) agregado y\(w_{j_k}\) eliminado aún se extiende\(V\). El hecho de que\((v_1,\ldots,v_k)\) sea linealmente independiente asegura que el vector eliminado se encuentre de hecho entre los\(w_j\). Llama a la nueva lista\(\mathcal{S}_k\), y anota eso\(V = \Span(\mathcal{S}_{k})\).

    La lista final\(\mathcal{S}_m\) es\(\mathcal{S}_0\) pero con cada\(v_1,\ldots,v_m\) agregado y cada uno\(w_{j_1},\ldots, w_{j_m}\) eliminado. Además, tenga en cuenta que\(\mathcal{S}_{m}\) tiene longitud\(n\) y aún abarca\(V\). De ello se deduce que\(m\le n\).

    \(\square\)

    Template:Shilling


    This page titled 5.2: Independencia lineal is shared under a not declared license and was authored, remixed, and/or curated by Isaiah Lankham, Bruno Nachtergaele, & Anne Schilling.