Saltar al contenido principal
LibreTexts Español

9.1: Espacios vectoriales, asignaciones lineales y convexidad

  • Page ID
    111608
  • \( \newcommand{\vecs}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} } \) \( \newcommand{\vecd}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash {#1}}} \)\(\newcommand{\id}{\mathrm{id}}\) \( \newcommand{\Span}{\mathrm{span}}\) \( \newcommand{\kernel}{\mathrm{null}\,}\) \( \newcommand{\range}{\mathrm{range}\,}\) \( \newcommand{\RealPart}{\mathrm{Re}}\) \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\) \( \newcommand{\Argument}{\mathrm{Arg}}\) \( \newcommand{\norm}[1]{\| #1 \|}\) \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\) \( \newcommand{\Span}{\mathrm{span}}\) \(\newcommand{\id}{\mathrm{id}}\) \( \newcommand{\Span}{\mathrm{span}}\) \( \newcommand{\kernel}{\mathrm{null}\,}\) \( \newcommand{\range}{\mathrm{range}\,}\) \( \newcommand{\RealPart}{\mathrm{Re}}\) \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\) \( \newcommand{\Argument}{\mathrm{Arg}}\) \( \newcommand{\norm}[1]{\| #1 \|}\) \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\) \( \newcommand{\Span}{\mathrm{span}}\)\(\newcommand{\AA}{\unicode[.8,0]{x212B}}\)

    El espacio euclidiano ya\({\mathbb{R}}^n\) ha hecho una aparición en el capítulo del espacio métrico. En este capítulo, extenderemos el cálculo diferencial que creamos para una variable a varias variables. La idea clave en el cálculo diferencial es aproximar funciones por líneas y funciones lineales. En varias variables debemos introducir un poco de álgebra lineal antes de poder seguir adelante. Así que comencemos con espacios vectoriales y funciones lineales sobre espacios vectoriales. Si bien es común usar\(\vec{x}\) o el negrita\(\mathbf{x}\) para elementos de\({\mathbb{R}}^n\), especialmente en las ciencias aplicadas, usamos simplemente llano\(x\), que es común en las matemáticas. Eso\(x \in {\mathbb{R}}^n\) es un vector, lo que significa que\(x = (x^1,x^2,\ldots,x^n)\) es una\(n\) -tupla de números reales. Utilizamos índices superiores para identificar componentes, dejándonos el índice inferior para secuencias de vectores. Por ejemplo, podemos tener vectores\(x_1\) y\(x_2\) en\({\mathbb{R}}^n\) y luego\(x_1 = (x_1^1,x_1^2,\ldots,x_1^n)\) y\(x_2 = (x_2^1,x_2^2,\ldots,x_2^n)\). Es común escribir vectores como vectores de columna, es decir,\(n \times 1\) matrices:

    \[x = (x^1,x^2,\ldots,x^n) = \mbox{ \scriptsize $\begin{bmatrix} x^1 \\ x^2 \\ \vdots \\ x^n \end{bmatrix}$ }.\]

    Lo haremos cuando sea conveniente. Llamamos escalares de números reales para distinguirlos de los vectores. \(X\)Sea un conjunto junto con operaciones de suma,\(+ \colon X \times X \to X\), y multiplicación,\(\cdot \colon {\mathbb{R}}\times X \to X\), (escribimos\(ax\) en lugar de\(a \cdot x\)). \(X\)se denomina espacio vectorial (o espacio vectorial real) si se cumplen las siguientes condiciones: (La suma es asociativa) Si\(u, v, w \in X\), entonces\(u+(v+w) = (u+v)+w\). (La adición es conmutativa) Si\(u, v \in X\), entonces\(u+v = v+u\). (Identidad aditiva) Hay\(0 \in X\) tal que\(v+0=v\) para todos\(v \in X\). (Aditivo inverso) Para cada\(v \in X\), hay un\(-v \in X\), tal que\(v+(-v)=0\). (Derecho distributivo) Si\(a \in {\mathbb{R}}\),\(u,v \in X\), entonces\(a(u+v) = au+av\). (Derecho distributivo) Si\(a,b \in {\mathbb{R}}\),\(v \in X\), entonces\((a+b)v = av+bv\). (La multiplicación es asociativa) Si\(a,b \in {\mathbb{R}}\),\(v \in X\), entonces\((ab)v = a(bv)\). (Identidad multiplicativa)\(1v = v\) para todos\(v \in X\). Los elementos de un espacio vectorial suelen llamarse vectores, aunque no sean elementos de\({\mathbb{R}}^n\) (vectores en el sentido “tradicional”). Un ejemplo de espacio vectorial es\({\mathbb{R}}^n\), donde la suma y la multiplicación por una constante se hace componentwise: si\(\alpha \in {\mathbb{R}}\) y\(x,y \in {\mathbb{R}}^n\), entonces\[\begin{aligned} & x+y := (x^1,x^2,\ldots,x^n) + (y^1,y^2,\ldots,y^n) = (x^1+y^1,x^2+y^2,\ldots,x^n+y^n) , \\ & \alpha x := \alpha (x^1,x^2,\ldots,x^n) = (\alpha x^1, \alpha x^2,\ldots, \alpha x^n) .\end{aligned}\] En este libro tratamos principalmente con espacios vectoriales que pueden considerarse como subconjuntos de\({\mathbb{R}}^n\), pero hay otros espacios vectoriales que son útiles en análisis. Por ejemplo, el espacio\(C([0,1],{\mathbb{R}})\) de funciones continuas en el intervalo\([0,1]\) es un espacio vectorial. Un ejemplo trivial de un espacio vectorial (el más pequeño de hecho) es justo\(X = \{ 0 \}\). Las operaciones se definen de la manera obvia. Siempre se necesita un vector cero para existir, así que todos los espacios vectoriales son conjuntos no vacíos. También es posible usar otros campos que no sean\({\mathbb{R}}\) de la definición (por ejemplo, es común usar los números complejos\({\mathbb{C}}\)), pero sigamos con los números reales1. Una función\(f \colon X \to Y\), cuando no\(Y\)\({\mathbb{R}}\) es a menudo se llama mapeo o mapa en lugar de función. Combinaciones lineales y dimensión Si tenemos vectores\(x_1, \ldots, x_k \in {\mathbb{R}}^n\) y escalares\(a^1, \ldots, a^k \in {\mathbb{R}}\), entonces\[a^1 x_1 + a^2 x_2 + \cdots + a^k x_k\] se llama una combinación lineal de los vectores\(x_1, \ldots, x_k\). Si\(Y \subset {\mathbb{R}}^n\) es un conjunto entonces el lapso de\(Y\), o en notación\(\operatorname{span}(Y)\), es el conjunto de todas las combinaciones lineales de algún número finito de elementos de\(Y\). También decimos\(Y\) vanos\(\operatorname{span}(Y)\). Vamos\(Y := \{ (1,1) \} \subset {\mathbb{R}}^2\). Entonces

    \[\operatorname{span}(Y) = \{ (x,x) \in {\mathbb{R}}^2 : x \in {\mathbb{R}}\} .\]

    Es decir,\(\operatorname{span}(Y)\) es la línea que atraviesa el origen y el punto\((1,1)\). [ejemplo:vecspr2span] Vamos\(Y := \{ (1,1), (0,1) \} \subset {\mathbb{R}}^2\). Entonces

    \[\operatorname{span}(Y) = {\mathbb{R}}^2 ,\]

    como cualquier punto se\((x,y) \in {\mathbb{R}}^2\) puede escribir como una combinación lineal\[(x,y) = x (1,1) + (y-x) (0,1) .\] Una suma de dos combinaciones lineales es nuevamente una combinación lineal, y un múltiplo escalar de una combinación lineal es una combinación lineal, lo que demuestra la siguiente proposición. Dejar\(X\) ser un espacio vectorial. Para cualquiera\(Y \subset X\), el conjunto\(\operatorname{span}(Y)\) es un espacio vectorial en sí mismo. Si ya\(Y\) es un espacio vectorial entonces\(\operatorname{span}(Y) = Y\). Un conjunto de vectores\(\{ x_1, x_2, \ldots, x_k \}\) es linealmente independiente, si la única solución para

    \[a^1 x_1 + a^2 x_2 + \cdots + a^k x_k = 0\]

    es la solución trivial\(a^1 = a^2 = \cdots = a^k = 0\). Un conjunto que no es linealmente independiente, es linealmente dependiente. Un conjunto linealmente independiente\(B\) de vectores tal que\(\operatorname{span}(B) = X\) se llama una base de\(X\). Por ejemplo, el conjunto\(Y\) de los dos vectores en es una base de\({\mathbb{R}}^2\). Si un espacio vectorial\(X\) contiene un conjunto linealmente independiente de\(d\) vectores, pero ningún conjunto linealmente independiente de\(d+1\) vectores entonces decimos la dimensión o\(\dim \, X := d\). Si por todo\(d \in {\mathbb{N}}\) el espacio vectorial\(X\) contiene un conjunto de vectores\(d\) linealmente independientes, decimos que\(X\) es infinito dimensional y escribir\(\dim \, X := \infty\). Claramente para el espacio vectorial trivial,\(\dim \, \{ 0 \} = 0\). Veremos en un momento que cualquier espacio vectorial que sea un subconjunto de\({\mathbb{R}}^n\) tiene una dimensión finita, y esa dimensión es menor o igual a\(n\). Si un conjunto es linealmente dependiente, entonces uno de los vectores es una combinación lineal de los otros. En otras palabras, si\(a^j \not= 0\), entonces podemos resolver para\(x_j\)

    \[x_j = \frac{a^1}{a^j} x_1 + \cdots + \frac{a^{j-1}}{a^j} x_{j-1} + \frac{a^{j+1}}{a^j} x_{j+1} + \cdots + \frac{a^k}{a^k} x_k .\]

    Claramente entonces el vector\(x_j\) tiene al menos dos representaciones diferentes como combinaciones lineales de\(\{ x_1,x_2,\ldots,x_k \}\). Si\(B = \{ x_1, x_2, \ldots, x_k \}\) es una base de un espacio vectorial\(X\), entonces cada punto\(y \in X\) tiene una representación única de la forma\[y = \sum_{j=1}^k \alpha^j x_j\] para algunos números\(\alpha^1, \alpha^2, \ldots, \alpha^k\). Cada\(y \in X\) es una combinación lineal de elementos de\(B\) ya que\(X\) es el lapso de\(B\). Por singularidad supongamos\[y = \sum_{j=1}^k \alpha^j x_j = \sum_{j=1}^k \beta^j x_j ,\] entonces\[\sum_{j=1}^k (\alpha^j-\beta^j) x_j = 0 .\] Por independencia lineal de la base\(\alpha^j = \beta^j\) para todos\(j\). Porque\({\mathbb{R}}^n\) definimos\[e_1 := (1,0,0,\ldots,0) , \quad e_2 := (0,1,0,\ldots,0) , \quad \ldots, \quad e_n := (0,0,0,\ldots,1) ,\] y llamamos a esto la base estándar de\({\mathbb{R}}^n\). Usamos las mismas letras\(e_j\) para cualquiera\({\mathbb{R}}^n\), y en qué espacio\({\mathbb{R}}^n\) estamos trabajando se entiende desde el contexto. Un cálculo directo muestra que\(\{ e_1, e_2, \ldots, e_n \}\) es realmente una base de\({\mathbb{R}}^n\); es fácil demostrar que abarca\({\mathbb{R}}^n\) y es linealmente independiente. De hecho,

    \[x = (x^1,x^2,\ldots,x^n) = \sum_{j=1}^n x^j e_j .\]

    Dejar\(X\) ser un espacio vectorial. Si\(X\) está abarcado por\(d\) vectores, entonces\(\dim \, X \leq d\). \(\dim \, X = d\)si y sólo si\(X\) tiene una base de\(d\) vectores (y así cada base tiene\(d\) vectores). En particular,\(\dim \, {\mathbb{R}}^n = n\). Si\(Y \subset X\) es un espacio vectorial y\(\dim \, X = d\), entonces\(\dim \, Y \leq d\). Si\(\dim \, X = d\) y un conjunto\(T\) de\(d\) vectores abarca\(X\), entonces\(T\) es linealmente independiente. Si\(\dim \, X = d\) y un conjunto\(T\) de\(m\) vectores es linealmente independiente, entonces hay un conjunto\(S\) de\(d-m\) vectores tal que\(T \cup S\) es una base de\(X\). Empecemos con (i). Supongamos\(S = \{ x_1 , x_2, \ldots, x_d \}\) abarca\(X\), y\(T = \{ y_1, y_2, \ldots, y_m \}\) es un conjunto de vectores linealmente independientes de\(X\). Eso queremos demostrarlo\(m \leq d\). Escribe\[y_1 = \sum_{k=1}^d \alpha_1^k x_k ,\] lo que podemos hacer como\(S\) vanos\(X\). Uno de los\(\alpha_1^k\) es distinto de cero (de lo contrario\(y_1\) sería cero), así que supongamos sin pérdida de generalidad que esto es\(\alpha_1^1\). Entonces podemos resolver\[x_1 = \frac{1}{\alpha_1^1} y_1 - \sum_{k=2}^d \frac{\alpha_1^k}{\alpha_1^1} x_k .\] En particular\(\{ y_1 , x_2, \ldots, x_d \}\) lapso\(X\), ya que se\(x_1\) puede obtener de\(\{ y_1 , x_2, \ldots, x_d \}\). Siguiente,\[y_2 = \alpha_2^1 y_1 + \sum_{k=2}^d \alpha_2^k x_k .\] Como\(T\) es linealmente independiente, debemos tener que tener que uno de los\(\alpha_2^k\) for\(k \geq 2\) debe ser distinto de cero. Sin pérdida de generalidad supongamos\(\alpha_2^2 \not= 0\). Proceder a resolver para\[x_2 = \frac{1}{\alpha_2^2} y_2 - \frac{\alpha_2^1}{\alpha_2^2} y_1 - \sum_{k=3}^d \frac{\alpha_2^k}{\alpha_2^2} x_k .\] En particular\(\{ y_1 , y_2, x_3, \ldots, x_d \}\) vanos\(X\). El lector astuto pensará en álgebra lineal y notará que estamos reduciendo filas una matriz. Continuamos con este procedimiento. Si\(m < d\), entonces ya terminamos. Entonces supongamos\(m \geq d\). Después de\(d\) los pasos obtenemos esos\(\{ y_1 , y_2, \ldots, y_d \}\) vanos\(X\). Cualquier otro vector\(v\) en\(X\) es una combinación lineal de\(\{ y_1 , y_2, \ldots, y_d \}\), y por lo tanto no puede estar en,\(T\) ya\(T\) que es linealmente independiente. Entonces\(m = d\). Veamos (ii). Primero notamos que si tenemos un conjunto\(T\) de vectores\(k\) linealmente independientes que no abarcan\(X\), entonces siempre podemos elegir un vector\(v \in X \setminus \operatorname{span}(T)\). El conjunto\(T \cup \{ v \}\) es linealmente independiente (ejercicio). Si\(\dim \, X = d\), entonces debe existir algún conjunto linealmente independiente de\(d\) vectores\(T\), y éste debe abarcar\(X\), de lo contrario podríamos elegir un conjunto mayor de vectores linealmente independientes. Entonces tenemos una base de\(d\) vectores. Por otro lado si tenemos una base de\(d\) vectores, es linealmente independiente y abarca\(X\). Por (i) sabemos que no hay un conjunto de vectores\(d+1\) linealmente independientes, por lo que la dimensión debe ser\(d\). Para (iii) aviso que\(\{ e_1, e_2, \ldots, e_n \}\) sea base de\({\mathbb{R}}^n\). Para ver (iv), supongamos que\(Y\) es un espacio vectorial y\(Y \subset X\), donde\(\dim \, X = d\). Como\(X\) no puede contener vectores\(d+1\) linealmente independientes, tampoco puede\(Y\). Para (v) supongamos que\(T\) es un conjunto de\(m\) vectores que es linealmente dependiente y abarca\(X\). Entonces uno de los vectores es una combinación lineal de los otros. Por lo tanto si lo\(T\) eliminamos obtenemos un conjunto de\(m-1\) vectores que aún abarcan\(X\) y por lo tanto\(\dim \, X \leq m-1\). Para (vi) supongamos que\(T = \{ x_1, \ldots, x_m \}\) es un conjunto linealmente independiente. Seguimos el procedimiento anterior en la prueba de (ii) para seguir agregando vectores mientras mantenemos el conjunto linealmente independiente. Como es la dimensión\(d\) podemos agregar un vector exactamente\(d-m\) veces. Mapeos lineales Un mapeo\(A \colon X \to Y\) de espacios vectoriales\(X\) y\(Y\) es lineal (o una transformación lineal) si para cada\(a \in {\mathbb{R}}\) y\(x,y \in X\) tenemos\[A(a x) = a A(x) \qquad A(x+y) = A(x)+A(y) .\] Normalmente escribimos\(Ax\) en lugar de\(A(x)\) si\(A\) es lineal. Si\(A\) es uno a uno un onto entonces decimos que\(A\) es invertible y denotamos el inverso por\(A^{-1}\). Si\(A \colon X \to X\) es lineal entonces decimos que\(A\) es un operador lineal encendido\(X\). Escribimos\(L(X,Y)\) para el conjunto de todas las transformaciones lineales de\(X\) a\(Y\), y solo\(L(X)\) para el conjunto de operadores lineales en\(X\). Si\(a,b \in {\mathbb{R}}\) y\(A, B \in L(X,Y)\), definir la transformación\(aA+bB\)\[(aA+bB)(x) = aAx+bBx .\] If\(A \in L(Y,Z)\) y\(B \in L(X,Y)\), definir la transformación\(AB\) como\[ABx := A(Bx) .\] Finalmente denotar por\(I \in L(X)\) la identidad: el operador lineal tal que\(Ix = x\) para todos\(x\). No es difícil de ver eso\(aA+bB \in L(X,Y)\), y eso\(AB \in L(X,Z)\). En particular,\(L(X,Y)\) es un espacio vectorial. Es obvio que si\(A\) es lineal entonces\(A0 = 0\). Si\(A \colon X \to Y\) es invertible, entonces\(A^{-1}\) es lineal. Dejar\(a \in {\mathbb{R}}\) y\(y \in Y\). Como\(A\) está en, entonces hay un\(x\) tal que\(y = Ax\), y además ya que también es uno a uno\(A^{-1}(Az) = z\) para todos\(z \in X\). Entonces

    \[A^{-1}(ay) = A^{-1}(aAx) = A^{-1}\bigl(A(ax)\bigr) = ax = aA^{-1}(y).\]

    Del mismo modo dejar\(y_1,y_2 \in Y\),\(Ax_1 = y_1\) y\(x_1, x_2 \in X\) tal que y\(Ax_2 = y_2\), entonces\[A^{-1}(y_1+y_2) = A^{-1}(Ax_1+Ax_2) = A^{-1}\bigl(A(x_1+x_2)\bigr) = x_1+x_2 = A^{-1}(y_1) + A^{-1}(y_2). \qedhere\] Si\(A \colon X \to Y\) es lineal entonces está completamente determinado por sus valores sobre una base de\(X\). Además, si\(B\) es una base, entonces cualquier función\(\tilde{A} \colon B \to Y\) se extiende a una función lineal en\(X\). Para espacios dimensionales infinitos, la prueba es esencialmente la misma, pero un poco más complicada de escribir, así que sigamos con muchas dimensiones finitamente. Dejamos el caso dimensional infinito al lector. Seamos\(\{ x_1, x_2, \ldots, x_n \}\) una base y supongamos\(A(x_j) = y_j\). Entonces cada uno\(x \in X\) tiene una representación única\[x = \sum_{j=1}^n b^j x_j\] para algunos números\(b^1,b^2,\ldots,b^n\). Entonces por linealidad\[Ax = A\sum_{j=1}^n b^j x_j = \sum_{j=1}^n b^j Ax_j = \sum_{j=1}^n b^j y_j .\] El “además” sigue definiendo la extensión\(Ax = \sum_{j=1}^n b^j y_j\), y señalando que esto está bien definido por la singularidad de la representación de\(x\). Si\(X\) es un espacio vectorial dimensional finito y\(A \colon X \to X\) es lineal, entonces\(A\) es uno a uno si y solo si está en. Dejemos\(\{ x_1,x_2,\ldots,x_n \}\) ser una base para\(X\). Supongamos que\(A\) es uno a uno. Ahora supongamos

    \[\sum_{j=1}^n c^j Ax_j = A\sum_{j=1}^n c^j x_j = 0 .\]

    Al igual que lo\(A\) es uno a uno, el único vector que se toma a 0 es el mismo 0. De ahí,\[0 = \sum_{j=1}^n c^j x_j\] y así\(c^j = 0\) para todos\(j\). Por lo tanto,\(\{ Ax_1, Ax_2, \ldots, Ax_n \}\) es linealmente independiente. Por una proposición anterior y el hecho de que la dimensión es\(n\), tenemos ese\(\{ Ax_1, Ax_2, \ldots, Ax_n \}\) lapso\(X\). Como cualquier punto se\(x \in X\) puede escribir como\[x = \sum_{j=1}^n a^j Ax_j = A\sum_{j=1}^n a^j x_j ,\] así\(A\) es sobre. Ahora supongamos que\(A\) está en. Como lo\(A\) determina la acción sobre la base vemos que cada elemento de\(X\) tiene que estar en el lapso de\(\{ Ax_1, \ldots, Ax_n \}\). Supongamos\[A\sum_{j=1}^n c^j x_j = \sum_{j=1}^n c^j Ax_j = 0 .\] Por la misma proposición que\(\{ Ax_1, Ax_2, \ldots, Ax_n \}\) span\(X\), el conjunto es independiente, y por lo tanto\(c^j = 0\) para todos\(j\). Esto quiere decir que\(A\) es uno a uno. Si\(Ax = Ay\), entonces\(A(x-y) = 0\) y así\(x=y\). Convexidad Un subconjunto\(U\) de un espacio vectorial es convexo si siempre\(x,y \in U\), el segmento de línea de\(x\) a\(y\) se encuentra en\(U\). Es decir, si la combinación convexa\((1-t)x+ty\) está en\(U\) para todos\(t \in [0,1]\). Ver. Tenga en cuenta que en\({\mathbb{R}}\), cada intervalo conectado es convexo. En\({\mathbb{R}}^2\) (o dimensiones superiores) hay muchos conjuntos conectados no convexos. Por ejemplo el conjunto no\({\mathbb{R}}^2 \setminus \{0\}\) es convexo sino que está conectado. Para ver esto simplemente toma cualquiera\(x \in {\mathbb{R}}^2 \setminus \{0\}\) y deja\(y:=-x\). Entonces\((\nicefrac{1}{2})x + (\nicefrac{1}{2})y = 0\), que no está en el set. Por otro lado, la pelota\(B(x,r) \subset {\mathbb{R}}^n\) (usando la métrica estándar on\({\mathbb{R}}^n\)) siempre es convexa por la desigualdad triangular. Demostrar que en\({\mathbb{R}}^n\) cualquier bola\(B(x,r)\) para\(x \in {\mathbb{R}}^n\) y\(r > 0\) es convexa. Cualquier subespacio\(V\) de un espacio vectorial\(X\) es convexo. Un ejemplo algo más complicado lo da el siguiente. Dejar\(C([0,1],{\mathbb{R}})\) ser el espacio vectorial de funciones continuas de valor real en\({\mathbb{R}}\). \(X \subset C([0,1],{\mathbb{R}})\)Sea el conjunto de esos\(f\) tales

    \[\int_0^1 f(x)~dx \leq 1 \qquad \text{and} \qquad f(x) \geq 0 \text{ for all $x \in [0,1]$} .\]

    Entonces\(X\) es convexo. Toma\(t \in [0,1]\) y toma nota que si\(f,g \in X\) entonces\(t f(x) + (1-t) g(x) \geq 0\) para todos\(x\). Además\[\int_0^1 \bigl(tf(x) + (1-t)g(x)\bigr) ~dx = t \int_0^1 f(x) ~dx + (1-t)\int_0^1 g(x) ~dx \leq 1 .\] Tenga en cuenta que no\(X\) es un subespacio de\(C([0,1],{\mathbb{R}})\). La intersección de dos conjuntos cerrados es convexa. De hecho, Si\(\{ C_\lambda \}_{\lambda \in I}\) es una colección arbitraria de conjuntos convexos, entonces

    \[C := \bigcap_{\lambda \in I} C_\lambda\]

    es convexo. La prueba es fácil. Si\(x, y \in C\), entonces\(x,y \in C_\lambda\) para todos\(\lambda \in I\), y de ahí si\(t \in [0,1]\), entonces\(tx + (1-t)y \in C_\lambda\) para todos\(\lambda \in I\). Por lo tanto\(tx + (1-t)y \in C\) y\(C\) es convexa. Dejar\(T \colon V \to W\) ser un mapeo lineal entre dos espacios vectoriales y dejar\(C \subset V\) ser un conjunto convexo. Entonces\(T(C)\) es convexo. Toma dos puntos cualquiera\(p,q \in T(C)\). Entonces escoge\(x,y \in C\) tal que\(T(x) = p\) y\(T(y)=q\). Como\(C\) es convexo entonces para todo lo que\(t \in [0,1]\) tenemos\(tx+(1-t)y \in C\), así\[T\bigl(tx+(1-t)y\bigr) = tT(x)+(1-t)T(y) = tp+(1-t)q\] está adentro\(T(C)\). Para la completitud, déjenos Una construcción muy útil es el casco convexo. Dado cualquier conjunto\(S \subset V\) de un espacio vectorial, definir el casco convexo de\(S\), por

    \[\operatorname{co}(S) := \bigcap \{ C \subset V : S \subset C, \text{ and $C$ is convex} \} .\]

    Es decir, el casco convexo es el conjunto convexo más pequeño que contiene\(S\). Tenga en cuenta que por una proposición anterior, la intersección de conjuntos convexos es convexa y por lo tanto, el casco convexo es convexo. El casco convexo de 0 y 1 in\({\mathbb{R}}\) es\([0,1]\). Prueba: Cualquier conjunto convexo que contenga 0 y 1 debe contener\([0,1]\). El conjunto\([0,1]\) es convexo, por lo tanto debe ser el casco convexo. Ejercicios Verificar que\({\mathbb{R}}^n\) sea un espacio vectorial. Dejar\(X\) ser un espacio vectorial. Demostrar que un conjunto finito de vectores\(\{ x_1,\ldots,x_n \} \subset X\) es linealmente independiente si y solo si por cada Es\(j=1,2,\ldots,n\)\[\operatorname{span}( \{ x_1,\ldots,x_{j-1},x_{j+1},\ldots,x_n \}) \subsetneq \operatorname{span}( \{ x_1,\ldots,x_n \}) .\] decir, el lapso del conjunto con un vector eliminado es estrictamente menor. Demostrar que\(C([0,1],{\mathbb{R}})\) es un espacio vectorial dimensional infinito donde las operaciones se definen de la manera obvia:\(s=f+g\) y\(m=fg\) se definen como\(s(x) := f(x)+g(x)\) y\(m(x) := f(x)g(x)\). Pista: para la dimensión, piense en funciones que solo son distintas de cero en el intervalo\((\nicefrac{1}{n+1},\nicefrac{1}{n})\). Dejar\(k \colon [0,1]^2 \to {\mathbb{R}}\) ser continuo. Mostrar que\(L \colon C([0,1],{\mathbb{R}}) \to C([0,1],{\mathbb{R}})\) definido por\[Lf(y) := \int_0^1 k(x,y)f(x)~dx\] es un operador lineal. Es decir, mostrar que\(L\) está bien definido (que\(Lf\) es continuo), y eso\(L\) es lineal.


    9.1: Espacios vectoriales, asignaciones lineales y convexidad is shared under a not declared license and was authored, remixed, and/or curated by LibreTexts.