6.6: La matriz de un mapa lineal
- Page ID
- 115100
{{Template.dropdown {ruta:” /álgebra/linear_álgebra "}}}
Ahora veremos que cada mapa lineal\(T \in \mathcal{L}(V, W) \), con\(V \) y espacios vectoriales\(W \) finito-dimensionales, puede ser codificado por una matriz, y, viceversa, cada matriz define dicho mapa lineal.
Dejar\(V \) y\(W \) ser espacios vectoriales finito-dimensionales, y dejar\(T:V\to W \) ser un mapa lineal. Supongamos que\((v_1,\ldots,v_n) \) es una base de\(V \) y que\((w_1,\ldots,w_m) \) es una base para\(W \). Hemos visto en el Teorema 6.1.3 que\(T \) se determina de manera única especificando los vectores\(Tv_1,\ldots, Tv_n\in W \). Dado que\((w_1,\ldots,w_m) \) es una base de\(W \), existen escalares únicos\(a_{ij}\in\mathbb{F} \) tales que
\ begin {ecuación}\ label {eq:tv}
tv_j = a_ {1j} w_1 +\ cdots + a_ {mj} w_m\ quad\ text {for\(1\le j\le n \).} \ tag {6.6.1}
\ end {ecuación}
Podemos organizar estos escalares en una\(m\times n \) matriz de la siguiente manera:
\ begin {equation*}
M (T) =\ begin {bmatrix}
a_ {11} &\ ldots & a_ {1n}\\
\ vdots &&\ vdots\\
a_ {m1 } &\ ldots & a_ {mn}
\ end {bmatrix}.
\ end {equation*}
A menudo, esto también se escribe como\(A=(a_{ij})_{1\le i\le m,1\le j\le n} \). Al igual que en la Sección A.1.1, el conjunto de todas\(m\times n \) las matrices con entradas adentro\(\mathbb{F} \) se denota por\(\mathbb{F}^{m\times n} \).
Observación 6.6.1. Es importante recordar que\(M(T) \) no sólo depende del mapa lineal\(T \) sino también de la elección de la base\((v_1,\ldots,v_n) \) para\(V \) y la elección de la base\((w_1,\ldots,w_m) \) para\(W \). La\(j^{\text{th}} \) columna de\(M(T) \) contiene los coeficientes del vector\(j^{\text{th}} \) base\(v_j \) cuando se expande en términos de la base\((w_1,\ldots,w_m) \), como en la Ecuación 6.6.1.
Ejemplo 6.6.2. Dejado\(T:\mathbb{R}^2\to \mathbb{R}^2 \) ser el mapa lineal dado por\(T(x,y)=(ax+by,cx+dy) \) para algunos\(a,b,c,d\in\mathbb{R} \). Entonces, con respecto a la base canónica de\(\mathbb{R}^2 \) dada por\(((1,0),(0,1)) \), la matriz correspondiente es
\ begin {equation*}
M (T) =\ begin {bmatrix} a&b\\ c&d\ end {bmatrix}
\ end {equation*}
ya que\(T(1,0) = (a,c) \) da la primera columna y\(T(0,1)=(b,d) \) da la segunda columna.
De manera más general, supongamos que\(V=\mathbb{F}^n \) y\(W=\mathbb{F}^m \), y denotan la base estándar para\(V \) por\((e_1,\ldots,e_n) \) y la base estándar para\(W \) por\((f_1,\ldots,f_m) \). Aquí,\(e_i \) (resp. \(f_i\)) es la\(n\) -tupla (resp. \(m\)-tuple) con uno en posición\(i \) y ceros en todas partes. Entonces la matriz\(M(T)=(a_{ij}) \) viene dada por
\ begin {ecuación*}
a_ {ij} = (te_j) _i,
\ end {ecuación*}
donde\((Te_j)_i \) denota el\(i^{\text{th}} \) componente del vector\(Te_j \).
Ejemplo 6.6.3. Dejado\(T:\mathbb{R}^2\to\mathbb{R}^3 \) ser el mapa lineal definido por\(T(x,y)=(y,x+2y,x+y) \). Entonces, con respecto a la base estándar, tenemos\(T(1,0)=(0,1,1) \) y\(T(0,1)=(1,2,1) \) así que
\ begin {ecuation*}
M (T) =\ begin {bmatrix} 0&1\\ 1& 2\\ 1&1\ end {bmatrix}.
\ end {ecuation*}
Sin embargo, si alternativamente tomamos las bases\(((1,2),(0,1)) \) para\(\mathbb{R}^2 \) y
\(((1,0,0),(0,1,0),(0,0,1)) \) para\(\mathbb{R}^3 \),\(T(0,1)=(1,2,1) \) entonces\(T(1,2)=(2,5,3) \) y para que
\ begin {equation*}
M (T) =\ begin {bmatrix} 2&1\\ 5&2\\ 3&1\ end {bmatrix} .
\ end {ecuación*}
Ejemplo 6.6.4. Dejado\(S:\mathbb{R}^2\to \mathbb{R}^2 \) ser el mapa lineal\(S(x,y)=(y,x) \). Con respecto a la base\(((1,2),(0,1)) \) para\(\mathbb{R}^2 \), tenemos
\ start {ecuación*}
S (1,2) = (2,1) = 2 (1,2) -3 (0,1)\ quad\ text {y}\ quad
S (0,1) = (1,0) = 1 (1,2) -2 (0,1),
\ end {ecuación*}
y así
\[ M(S) = \begin{bmatrix} 2&1\\- 3& -2 \end{bmatrix}. \]
Dados los espacios vectoriales\(V \)\(n \) y\(W \) de dimensiones y\(m \), respectivamente, y dada una elección fija de bases, se observa que existe una correspondencia uno a uno entre mapas lineales en\(\mathcal{L}(V,W)\) y matrices en\(\mathbb{F}^{m\times n} \). Si comenzamos con el mapa lineal\(T \), entonces la matriz\(M(T)=A=(a_{ij})\) se define a través de la Ecuación 6.6.1. Por el contrario, dada la matriz\(A=(a_{ij})\in \mathbb{F}^{m\times n} \), podemos definir un mapa lineal\(T:V\to W \) estableciendo
\[ Tv_j = \sum_{i=1}^m a_{ij} w_i. \]
Recordemos que el conjunto de mapas lineales\(\mathcal{L}(V,W) \) es un espacio vectorial. Como tenemos una correspondencia uno a uno entre mapas lineales y matrices, también podemos convertir el conjunto de matrices\(\mathbb{F}^{m\times n} \) en un espacio vectorial. Dadas dos matrices\(A=(a_{ij}) \)\(\mathbb{F}^{m\times n} \) y\(B=(b_{ij}) \) en y dado un escalar\(\alpha\in \mathbb{F} \), definimos la suma de matriz y la multiplicación escalar por componentes:
\ begin {ecuación*}
\ begin {split}
A+B &= (a_ {ij} +b_ {ij}),\\
\ alpha A &= (\ alpha a_ {ij}).
\ end {split}
\ end {ecuación*}
A continuación, mostramos que la composición de mapas lineales impone un producto a las matrices, también llamado multiplicación matricial. Supongamos que\(U,V,W \) son espacios vectoriales sobre\(\mathbb{F} \) bases\((u_1,\ldots,u_p) \),\((v_1,\ldots,v_n) \) y\((w_1,\ldots,w_m) \), respectivamente. Dejar\(S:U\to V \) y\(T:V\to W \) ser mapas lineales. Entonces el producto es un mapa lineal\(T\circ S:U\to W \).
Cada mapa lineal tiene su matriz correspondiente\(M(T)=A, M(S)=B \) y\(M(TS)=C \). La cuestión es si\(C \) está determinado por\(A \) y\(B \). Tenemos, para cada uno\(j\in \{1,2,\ldots p\} \), que
\ begin {ecuación*}
\ begin {split}
(T\ circ S) u_j &= T (b_ {1j} v_1 +\ cdots + b_ {nj} v_n) = b_ {1j} Tv_1 +\ cdots + b_ {nj} tv_n\\
&=\ sum_ {k=1} ^n b_ {kj} tv_k
=\ suma_ {k=1} ^n b_ {kj}\ bigl (\ suma_ {i=1} ^m a_ {ik} w_i\ bigr)\\
&=\ suma_ {i=1} ^m\ bigl (\ suma_ {k=1} ^n a_ {ik} b_ {kj}\ bigr) w_i.
\ end {split}
\ end {ecuación*}
De ahí que la matriz\(C=(c_{ij}) \) viene dada por
\ begin {ecuación}\ label {eq:c}
c_ {ij} =\ sum_ {k=1} ^n a_ {ik} b_ {kj}. \ tag {6.6.2}
\ fin {ecuación}
La ecuación 6.6.2 se puede utilizar para definir la\(m\times p \) matriz\(C\) como el producto de una\(m\times n \) matriz\(A\) y una\(n\times p \) matriz\(B \), es decir,
\ begin {ecuación}
C = AB. \ tag {6.6.3}
\ fin {ecuación}
Nuestra derivación implica que la correspondencia entre mapas lineales y matrices respeta la estructura del producto.
Proposición 6.6.5. Dejar\(S:U\to V \) y\(T:V\to W \) ser mapas lineales. Entonces
\[ M(TS) = M(T)M(S).\]
Ejemplo 6.6.6. Con notación como en los Ejemplos 6.6.3 y 6.6.4, deberías poder verificar que
\ begin {ecuation*}
M (TS) = M (T) M (S) =\ begin {bmatrix} 2&1\\ 5&2\\ 3&1\ end {bmatrix}
\ begin {bmatrix} 2&1\\ - 3& -2\ end {bmatrix}
=\ begin {bmatrix} 1&0\\ 4&1\\ 3&1\ end {bmatrix}.
\ end {ecuación*}
Dado un vector\(v\in V \), también podemos asociar una matriz de\(M(v) \) la\(v \) siguiente manera. Dejemos\((v_1,\ldots,v_n) \) ser una base de\(V \). Luego hay escalares únicos de\(b_1,\ldots,b_n\) tal manera que
\[ v= b_1 v_1 + \cdots b_n v_n. \]
La matriz de entonces\(v \) se define como la\(n\times 1 \) matriz
\[ M(v) = \begin{bmatrix} b_1 \\ \vdots \\ b_n \end{bmatrix}. \]
Ejemplo 6.6.7 La matriz de un vector\(x=(x_1,\ldots,x_n) \in \mathbb{F}^n \) en la base estándar\((e_1,\ldots,e_n)\) es el vector de columna o\(n \times 1 \) matriz
\ begin {equation*}
M (x) =\ begin {bmatrix} x_1\\\ vdots\\ x_n\ end {bmatrix}
\ end {equation*}
since\(x=(x_1,\ldots,x_n) = x_1 e_1 + \cdots + x_n e_n \).
El siguiente resultado muestra cómo\(v\in V \) encajan entre sí la noción de una matriz de un mapa lineal\(T:V\to W \) y la matriz de un vector.
Proposición 6.6.8. Let\(T:V\to W \) Ser un mapa lineal. Entonces, por cada\(v\in V \),
\ comienzan {ecuación*}
M (Tv) = M (T) M (v).
\ end {ecuación*}
Comprobante.
Seamos\((v_1,\ldots,v_n) \) una base de\(V \) y\((w_1,\ldots,w_m) \) ser una base para\(W \). Supongamos que, respecto a estas bases, la matriz de\(T \) es\(M(T)=(a_{ij})_{1\le i\le m, 1\le j\le n} \). Esto significa que, para todos\(j\in \{1,2,\ldots,n\} \),
\[ \begin{equation*}
Tv_j = \sum_{k=1}^m a_{kj} w_k.
\end{equation*} \]
El vector se\(v\in V \) puede escribir de forma única como una combinación lineal de los vectores base como
\[ v = b_1 v_1 + \cdots + b_n v_n. \]
Por lo tanto,
\ begin {ecuation*}
\ begin {split}
Tv &= b_1 T v_1 +\ cdots + b_n T v_n\\
&= b_1\ suma_ {k=1} ^m a_ {k1} w_k +\ cdots + b_n\ sum_ {k=1} ^m a_ {kn} w_k\\
&=\ sum_ {k=1} ^m (a_ {k1} b_1 +\ cdots + a_ {kn} b_n) w_k.
\ final {dividir}
\ fin {ecuación*}
Esto demuestra que\(M(Tv) \) es la\(m\times 1 \) matriz
\ begin {ecuación*}
M (Tv) =\ begin {bmatrix} a_ {11} b_1 +\ cdots + a_ {1n} b_n\\\ vdots\\
a_ {m1} b_1 +\ cdots + a_ {mn} b_n\ end {bmatrix}.
\ end {ecuación*}
No es difícil verificar, usando la fórmula para la multiplicación matricial, eso\(M(T)M(v)\) da el mismo resultado.
Ejemplo 6.6.9. Tome el mapa lineal\(S \) del Ejemplo 6.6.4 con base\(((1,2),(0,1)) \) de\(\mathbb{R}^2 \). Para determinar la acción sobre el vector\(v=(1,4)\in \mathbb{R}^2 \), tenga en cuenta que\(v=(1,4)=1(1,2)+2(0,1) \). De ahí,
\ begin {ecuación*}
M (Sv) = M (S) M (v) =\ begin {bmatrix} 2&1\\ -3&-2\ end {bmatrix}
\ begin {bmatrix} 1\\ 2\ end {bmatrix}
=\ begin {bmatrix} 4\\ -7\ end {bmatrix}.
\ end {ecuación*}
Esto significa que
\[ Sv= 4(1,2)-7(0,1)=(4,1), \]
lo que en verdad es cierto.