Saltar al contenido principal
LibreTexts Español

6.2: Complementos ortogonales y tranposición matricial

  • Page ID
    115723
  • \( \newcommand{\vecs}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} } \) \( \newcommand{\vecd}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash {#1}}} \)\(\newcommand{\id}{\mathrm{id}}\) \( \newcommand{\Span}{\mathrm{span}}\) \( \newcommand{\kernel}{\mathrm{null}\,}\) \( \newcommand{\range}{\mathrm{range}\,}\) \( \newcommand{\RealPart}{\mathrm{Re}}\) \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\) \( \newcommand{\Argument}{\mathrm{Arg}}\) \( \newcommand{\norm}[1]{\| #1 \|}\) \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\) \( \newcommand{\Span}{\mathrm{span}}\) \(\newcommand{\id}{\mathrm{id}}\) \( \newcommand{\Span}{\mathrm{span}}\) \( \newcommand{\kernel}{\mathrm{null}\,}\) \( \newcommand{\range}{\mathrm{range}\,}\) \( \newcommand{\RealPart}{\mathrm{Re}}\) \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\) \( \newcommand{\Argument}{\mathrm{Arg}}\) \( \newcommand{\norm}[1]{\| #1 \|}\) \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\) \( \newcommand{\Span}{\mathrm{span}}\)\(\newcommand{\AA}{\unicode[.8,0]{x212B}}\)

    Ahora hemos visto cómo el producto punto nos permite determinar el ángulo entre dos vectores y, más específicamente, cuando dos vectores son ortogonales. Avanzando, exploraremos cómo la condición de ortogonalidad simplifica muchas tareas comunes, como expresar un vector como una combinación lineal de un conjunto dado de vectores.

    Esta sección introduce la noción de complemento ortogonal, el conjunto de vectores cada uno de los cuales es ortogonal a un subespacio prescrito. También encontraremos una manera de describir productos de punto usando productos matriciales, lo que nos permite estudiar la ortogonalidad utilizando muchas de las herramientas para entender los sistemas lineales que desarrollamos anteriormente.

    Vista previa Actividad 6.2.1.

    1. Esboce el vector\(\mathbf v=\twovec{-1}2\) en la Figura 6.2.1 y un vector que sea ortogonal al mismo.
    Figura 6.2.1. Esbozar el vector\(\mathbf v\) y un vector ortogonal a él.
  • Si un vector\(\mathbf x\) es ortogonal a\(\mathbf v\text{,}\) lo que sabemos sobre el producto punto\(\mathbf v\cdot\mathbf x\text{?}\)
  • Si escribimos\(\mathbf x=\twovec xy\text{,}\) usa el producto punto para escribir una ecuación para los vectores ortogonales a\(\mathbf v\) en términos de\(x\) y\(y\text{.}\)
  • Utilice esta ecuación para esbozar el conjunto de todos los vectores ortogonales a\(\mathbf v\) la Figura 6.2.1.
  • \ (\ mathbb R^p\)” href=” /sec-subspaces.html “>Sección 3.5 introdujo el espacio de columna\(\col(A)\) y el espacio nulo\(\nul(A)\) de una matriz\(A\text{.}\) Supongamos que\(A\) es una matriz y\(\mathbf x\) es un vector satisfactorio\(A\mathbf x=\zerovec\text{.}\)\(\mathbf x\) Pertenece a\(\nul(A)\) o\(\col(A)\text{?}\)
  • Supongamos que la ecuación\(A\mathbf x=\mathbf b\) es consistente. \(\mathbf b\)Pertenece a\(\nul(A)\) o\(\col(A)\text{?}\)
  • Complementos ortogonales

    La actividad de vista previa nos presentó un vector\(\mathbf v\) y nos condujo a través del proceso de describir todos los vectores ortogonales a\(\mathbf v\text{.}\) Notar que el conjunto de múltiplos escalares de\(\mathbf v\) describe una línea\(L\text{,}\) un subespacio unidimensional de Luego\(\mathbb R^2\text{.}\) describimos una segunda línea que consiste de todos los vectores ortogonales a\(\mathbf v\text{.}\) Observe que cada vector en esta línea es ortogonal a cada vector en la línea\(L\text{.}\) Llamamos a esta nueva línea el complemento ortogonal de\(L\) y la denotamos por\(L^\perp\text{.}\) Las líneas\(L\) y\(L^\perp\) se ilustran a la izquierda de Figura 6.2.2.

    Figura 6.2.2. A la izquierda hay una línea\(L\) y su complemento ortogonal A\(L^\perp\text{.}\) la derecha hay un plano\(W\) y su complemento ortogonal\(W^\perp\text{.}\)

    La siguiente definición sitúa este ejemplo en un contexto más general.

    Definición 6.2.3

    Dado un subespacio\(W\)\(\mathbb R^m\text{,}\) del complemento ortogonal de\(W\) es el conjunto de vectores en\(\mathbb R^m\) cada uno de los cuales es ortogonal a cada vector en\(W\text{.}\) Denotamos el complemento ortogonal por\(W^\perp\text{.}\)

    Un ejemplo típico aparece a la derecha de la Figura 6.2.2. Aquí vemos un plano de\(W\text{,}\) un subespacio bidimensional\(\mathbb R^3\text{,}\) y su complemento ortogonal\(W^\perp\text{,}\) que es una línea en\(\mathbb R^3\text{.}\)

    Como veremos pronto, el complemento ortogonal de un subespacio\(W\) es en sí mismo un subespacio de\(\mathbb R^m\text{.}\)

    Actividad 6.2.2.

    Supongamos que\(\mathbf w_1=\threevec10{-2}\) y\(\mathbf w_2=\threevec11{-1}\) formar\(W\text{,}\) una base para un subespacio bidimensional de\(\mathbb R^3\text{.}\) Encontraremos una descripción del complemento ortogonal\(W^\perp\text{.}\)

    1. Supongamos que el vector\(\mathbf x\) es ortogonal a\(\mathbf w_1\text{.}\) Si escribimos\(\mathbf x=\threevec{x_1}{x_2}{x_3}\text{,}\) usamos el hecho de que\(\mathbf w_1\cdot\mathbf x = 0\) para escribir una ecuación lineal para\(x_1\text{,}\)\(x_2\text{,}\) y\(x_3\text{.}\)
    2. Supongamos que también\(\mathbf x\) es ortogonal a\(\mathbf w_2\text{.}\) De la misma manera, escribir una ecuación lineal para\(x_1\text{,}\)\(x_2\text{,}\) y\(x_3\) que surge del hecho de que\(\mathbf w_2\cdot\mathbf x = 0\text{.}\)
    3. Si\(\mathbf x\) es ortogonal a ambas\(\mathbf w_1\) y\(\mathbf w_2\text{,}\) estas dos ecuaciones nos dan un sistema lineal\(B\mathbf x=\zerovec\) para alguna matriz\(B\text{.}\) Identificar la matriz\(B\) y escribir una descripción paramétrica del espacio de solución a la ecuación\(B\mathbf x = \zerovec\text{.}\)
    4. Desde\(\mathbf w_1\) y\(\mathbf w_2\) formar una base para el subespacio bidimensional\(W\text{,}\) cualquier vector\(\mathbf w\) en\(W\) puede escribirse como una combinación lineal
      \ begin {ecuación*}\ mathbf w = c_1\ mathbf w_1 + c_2\ mathbf w_2\ texto {.} \ end {ecuación*}

      Si\(\mathbf x\) es ortogonal a ambos\(\mathbf w_1\) y\(\mathbf w_2\text{,}\) usa la propiedad distributiva de los productos de punto para explicar por qué\(\mathbf x\) es ortogonal a\(\mathbf w\text{.}\)

    5. Dar una base para el complemento ortogonal\(W^\perp\) y establecer la dimensión\(\dim W^\perp\text{.}\)
    6. Describir\((W^\perp)^\perp\text{,}\) el complemento ortogonal de\(W^\perp\text{.}\)
    Ejemplo 6.2.4

    Si\(L\) es la línea definida por\(\mathbf v=\threevec1{-2}3\) en\(\mathbb R^3\text{,}\) describiremos el complemento ortogonal\(L^\perp\text{,}\) el conjunto de vectores ortogonales a\(L\text{.}\)

    Si\(\mathbf x\) es ortogonal a\(L\text{,}\) ella debe ser ortogonal a\(\mathbf v\) lo que tenemos

    \ begin {ecuación*}\ mathbf v\ cdot\ mathbf x = x_1-2x_2+3x_3 = 0\ texto {.} \ end {ecuación*}

    Podemos describir las soluciones a esta ecuación paramétricamente como

    \ begin {ecuación*}\ mathbf x=\ tresevec {x_1} {x_2} {x_3} =\ tresevec {2x_2-3x_3} {x_2} {x_3} = x_2\ tresevec210+x_3\ tresevec {-3} 01\ text {.} \ end {ecuación*}

    Por lo tanto, el complemento ortogonal\(L^\perp\) es un plano, un subespacio bidimensional de\(\mathbb R^3\text{,}\) abarcado por los vectores\(\threevec210\) y\(\threevec{-3}01\text{.}\)

    Ejemplo 6.2.5

    Supongamos que\(W\) es el subespacio\(2\) -dimensional de\(\mathbb R^5\) con base

    \ begin {ecuación*}\ mathbf w_1=\ fivevec {-1} {-2} 23 {-4},\ hspace {24pt}\ mathbf w_2=\ fivevec24202\ text {.} \ end {ecuación*}

    Daremos una descripción del complemento ortogonal\(W^\perp\text{.}\)

    Si\(\mathbf x\) está en\(W^\perp\text{,}\) sabemos que\(\mathbf x\) es ortogonal a ambos\(\mathbf w_1\) y\(\mathbf w_2\text{.}\) Por lo tanto,

    \ begin {align*}\ mathbf w_1\ cdot\ mathbf x & {} = {} -x_1-2x_2+2x_3+3x_4-4x_5 & {} = {} 0\\ mathbf w_2\ cdot\ mathbf x & {} = {} 2x_1+4x_2+2x_3+0x_4+2x_4+2x_5 & {} = {} = 0\ end {alinear*}

    En otras palabras,\(B\mathbf x=\zerovec\) donde

    \ begin {ecuation*} B =\ begin {bmatrix} -1 & -2 & 2 & 3 & -4\\ 2 & 4 & 2 & 0 & 2 & 0 & 2\ end {bmatrix}\ sim\ begin {bmatrix} 1 & 2 & 0 & -1 & 2\ 0 & 0 & 1 & 1 & -1\ end {bmatrix}\ text {.} \ end {ecuación*}

    Las soluciones pueden describirse paramétricamente como

    \ begin {ecuación*}\ mathbf x=\ fivevec {x_1} {x_2} {x_3} {x_4} {x_5} =x_2\ fivevec {-2} 1000 + x_4\ fivevec10 {-1} 10 + x_5\ fivevec {-2} 0101\ texto {.} \ end {ecuación*}

    La propiedad distributiva de los productos de punto implica que cualquier vector que sea ortogonal a ambos\(\mathbf w_1\) y también\(\mathbf w_2\) sea ortogonal a cualquier combinación lineal de\(\mathbf w_1\) y\(\mathbf w_2\) desde

    \ begin {ecuación*} (c_1\ mathbf w_1 + c_2\ mathbf w_2)\ cdot\ mathbf x = c_1\ mathbf w_1\ cdot\ mathbf x + c_2\ mathbf w_2\ cdot\ mathbf x = 0\ text {.} \ end {ecuación*}

    Por lo tanto,\(W^\perp\) es un subespacio\(3\) -dimensional de\(\mathbb R^5\) con base

    \ begin {ecuación*}\ mathbf v_1=\ fivevec {-2} 1000,\ hspace {24pt}\ mathbf v_2=\ fivevec10 {-1} 10,\ hspace {24pt}\ mathbf v_3=\ fivevec {-2} 0101\ text {.} \ end {ecuación*}

    Uno puede verificar fácilmente que los vectores\(\mathbf v_1\text{,}\)\(\mathbf v_2\text{,}\) y\(\mathbf v_3\) son ortogonales a ambos\(\mathbf w_1\) y\(\mathbf w_2\text{.}\)

    La transposición matricial

    La actividad anterior y los ejemplos muestran cómo podemos describir el complemento ortogonal de un subespacio como el conjunto de soluciones de un sistema lineal particular. Haremos esta conexión más explícita definiendo una nueva operación matricial llamada transposición.

    Definición 6.2.6

    La transposición de la\(m\times n\) matriz\(A\) es la\(n\times m\) matriz\(A^T\) cuyas filas son las columnas de\(A\text{.}\)

    Ejemplo 6.2.7

    Si\(A=\begin{bmatrix} 4 & -3 & 0 & 5 \\ -1 & 2 & 1 & 3 \\ \end{bmatrix} \text{,}\) entonces\(A^T=\begin{bmatrix} 4 & -1 \\ -3 & 2 \\ 0 & 1 \\ 5 & 3 \\ \end{bmatrix}\)

    Actividad 6.2.3.

    Esta actividad ilustra cómo multiplicar un vector por\(A^T\) se relaciona con la computación de productos punto con las columnas de\(A\text{.}\) Desarrollarás una mejor comprensión de esta relación si computas los productos de punto y los productos de matriz en esta actividad sin usar tecnología.

    1. Si\(B = \begin{bmatrix} 3 & 4 \\ -1 & 2 \\ 0 & -2 \\ \end{bmatrix} \text{,}\) escribe la matriz\(B^T\text{.}\)
    2. Supongamos que
      \ begin {ecuación*}\ mathbf v_1=\ tresvec20 {-2},\ hspace {24pt}\ mathbf v_2=\ tresvec112,\ hspace {24pt}\ mathbf w=\ threevec {-2} 23\ text {.} \ end {ecuación*}

      Encuentra los productos punto\(\mathbf v_1\cdot\mathbf w\) y\(\mathbf v_2\cdot\mathbf w\text{.}\)

    3. Ahora escribe la matriz\(A = \begin{bmatrix} \mathbf v_1 & \mathbf v_2 \end{bmatrix}\) y su transposición\(A^T\text{.}\) Encuentra el producto\(A^T\mathbf w\) y describe cómo este producto calcula tanto los productos\(\mathbf v_1\cdot\mathbf w\) punto como\(\mathbf v_2\cdot\mathbf w\text{.}\)
    4. Supongamos que\(\mathbf x\) es un vector que es ortogonal a ambos\(\mathbf v_1\) y\(\mathbf v_2\text{.}\) qué dice esto sobre los productos punto\(\mathbf v_1\cdot\mathbf x\) y\(\mathbf v_2\cdot\mathbf x\text{?}\) Qué dice esto sobre el producto\(A^T\mathbf x\text{?}\)
    5. Utilice la matriz\(A^T\) para dar una descripción paramétrica de todos los vectores\(\mathbf x\) que son ortogonales a\(\mathbf v_1\) y\(\mathbf v_2\text{.}\)
    6. Recuerde que\(\nul(A^T)\text{,}\) el espacio nulo de\(A^T\text{,}\) es el conjunto de solución de la ecuación\(A^T\mathbf x=\zerovec\text{.}\) Si\(\mathbf x\) es un vector en\(\nul(A^T)\text{,}\) explicar por qué\(\mathbf x\) debe ser ortogonal a ambos\(\mathbf v_1\) y\(\mathbf v_2\text{.}\)
    7. Recuerda que\(\col(A)\text{,}\) el espacio de columna de\(A\text{,}\) es el conjunto de combinaciones lineales de las columnas de\(A\text{.}\) Por lo tanto, cualquier vector en\(\col(A)\) puede escribirse como\(c_1\mathbf v_1+c_2\mathbf v_2\text{.}\) Si\(\mathbf x\) es un vector en\(\nul(A^T)\text{,}\) explicar por qué\(\mathbf x\) es ortogonal a cada vector en\(\col(A)\text{.}\)

    La actividad anterior demuestra una importante conexión entre la transposición matricial y los productos punto. Más específicamente, los componentes del producto\(A^T\mathbf x\) son simplemente los productos punteados de las columnas de\(A\) con\(\mathbf x\text{.}\) Vamos a poner esta observación para usar con bastante frecuencia así que vamos a registrarlo como una proposición.

    Proposición 6.2.8.

    Si\(A\) es la matriz cuyas columnas son\(\mathbf v_1,\mathbf v_2,\ldots,\mathbf v_n\text{,}\) entonces

    \ begin {ecuación*} A^T\ mathbf x =\ begin {bmatrix}\ mathbf v_1\ cdot\ mathbf x\\ mathbf v_2\ cdot\ mathbf x\\ vdots\\\ mathbf v_n\ cdot\ mathbf x\\ end {bmatrix}\ end {ecuación*}
    Ejemplo 6.2.9

    Supongamos que\(W\) es un subespacio de\(\mathbb R^4\) tener bases

    \ begin {ecuación*}\ mathbf w_1=\ fourvec1021,\ hspace {24pt}\ mathbf w_2=\ fourvec2134\ text {,}\ end {ecuación*}

    y queremos describir el complemento ortogonal\(W^\perp\text{.}\)

    Si\(A\) es la matriz\(A = \begin{bmatrix}\mathbf w_1 & \mathbf w_2\end{bmatrix}\) y\(\mathbf x\) está en\(W^\perp\text{,}\) tenemos

    \ begin {ecuación*} A^T\ mathbf x =\ twovec {\ mathbf w_1\ cdot\ mathbf x} {\ mathbf w_2\ cdot\ mathbf x} =\ twovec00\ text {.} \ end {ecuación*}

    Describir vectores\(\mathbf x\) que son ortogonales a ambos\(\mathbf w_1\) y, por lo tanto,\(\mathbf w_2\) es equivalente a la tarea más familiar de describir el conjunto de soluciones.\(A^T\mathbf x = \zerovec\text{.}\) Para ello, encontramos la forma de escalón de fila reducida de\(A^T\) y escribimos el conjunto de soluciones paramétricamente como

    \ begin {ecuación*}\ mathbf x = x_3\ fourvec {-2} {1} 10 + x_4\ fourvec {-1} {-2} 01\ text {.} \ end {ecuación*}

    Una vez más, la propiedad distributiva de los productos punto nos dice que dicho vector también es ortogonal a cualquier combinación lineal de\(\mathbf w_1\) y\(\mathbf w_2\) así este conjunto de soluciones es, de hecho, el complemento ortogonal\(W^\perp\text{.}\) De hecho, vemos que los vectores

    \ begin {ecuación*}\ mathbf v_1=\ fourvec {-2} 110,\ hspace {24pt}\ mathbf v_2=\ fourvec {-1} {-2} 01\ end {ecuación*}

    forman una base para la\(W^\perp\text{,}\) cual es un subespacio bidimensional de\(\mathbb R^4\text{.}\)

    Para colocar este ejemplo en un contexto un poco más general, tenga en cuenta que\(\mathbf w_1\) y\(\mathbf w_2\text{,}\) las columnas de\(A\text{,}\) forman una base de\(W\text{.}\) Dado que\(\col(A)\text{,}\) el espacio de columna de\(A\) es el subespacio de combinaciones lineales de las columnas de\(A\text{,}\) tenemos\(W=\col(A)\text{.}\)

    Este ejemplo también muestra que el complemento ortogonal\(W^\perp = \col(A)^\perp\) es descrito por el conjunto de soluciones de\(A^T\mathbf x = \zerovec\text{.}\) Este conjunto de soluciones es lo que hemos denominado\(\nul(A^T)\text{,}\) el espacio nulo de\(A^T\text{.}\) De esta manera, vemos la siguiente proposición, que se ilustra en la Figura 6.2.11.

    Proposición 6.2.10.

    Para cualquier matriz\(A\text{,}\) el complemento ortogonal de\(\col(A)\) es\(\nul(A^T)\text{;}\) decir,

    \ begin {ecuación*}\ col (A) ^\ perp =\ nul (A^T)\ texto {.} \ end {ecuación*}
    Figura 6.2.11. El complemento ortogonal del espacio de columna de\(A\) es el espacio nulo de\(A^T\text{.}\)

    Propiedades de la transposición matricial

    La transposición es una operación algebraica simple realizada sobre una matriz. La siguiente actividad explora algunas de sus propiedades.

    Actividad 6.2.4.

    En Sage, la transposición de una matriz A viene dada por A.T. Definir las matrices

    \ begin {ecuation*} A =\ begin {bmatrix} 1 & 0 & -3\\ 2 & -2 & 1\\\ end {bmatrix},\ hspace {6pt} B =\ begin {bmatrix} 3 & -4 & 1\\ 0 & 1 & 2\\ end {bmatrix},\ hspace {6pt} C=\ begin {bmatrix} 1 & 0 & -3\ 2 & -2 & 1\\ 3 & 2 & 0\\\ end {bmatrix}\ texto {.} \ end {ecuación*}
    1. Evaluar\((A+B)^T\) y ¿\(A^T+B^T\text{.}\)Qué nota de la relación entre estas dos matrices?
    2. ¿Qué pasa si transpones una matriz dos veces; es decir, qué es\((A^T)^T\text{?}\)
    3. Find\(\det(C)\) y ¿\(\det(C^T)\text{.}\)Qué notas sobre la relación entre estos determinantes?
      1. Encuentra el producto\(AC\) y su transposición\((AC)^T\text{.}\)
      2. ¿Es posible computar el producto\(A^TC^T\text{?}\) Explique por qué o por qué no.
      3. Encuentra el producto\(C^TA^T\) y\((AC)^T\text{.}\) compárelo con ¿Qué notas sobre la relación entre estas dos matrices?
    4. Cuál es la transposición de la matriz de identidad\(I\text{?}\)
    5. Si una matriz cuadrada\(D\) es invertible, explica por qué puedes garantizar que\(D^T\) es invertible y por qué\((D^T)^{-1} = (D^{-1})^T\text{.}\)

    A pesar de que estamos viendo algunos ejemplos específicos, esta actividad demuestra las siguientes propiedades generales del tranpose, las cuales pueden verificarse con un poco de esfuerzo.

    Propiedades de la transposición.

    Aquí hay algunas propiedades de la transposición matricial, expresadas en términos de matrices generales\(A\text{,}\)\(B\text{,}\) y\(C\text{.}\) asumimos que\(C\) es una matriz cuadrada.

    • Si\(A+B\) se define, entonces\((A+B)^T = A^T+B^T\text{.}\)
    • \((sA)^T = sA^T\text{.}\)
    • \((A^T)^T = A\text{.}\)
    • \(\det(C) = \det(C^T)\text{.}\)
    • Si\(AB\) se define, entonces\((AB)^T = B^TA^T\text{.}\) Observe que se invierte el orden de la multiplicación.
    • \((C^T)^{-1} = (C^{-1})^T\text{.}\)

    Hay una propiedad final que deseamos registrar aunque esperaremos hasta la Sección 7.4 para explicar por qué es cierto.

    Proposición 6.2.12.
    Para cualquier matriz\(A\text{,}\) tenemos
    \ begin {ecuación*}\ rango (A) =\ rango (A^T)\ texto {.} \ end {ecuación*}

    Esta proposición es importante porque implica una relación entre las dimensiones de un subespacio y su complemento ortogonal. Por ejemplo, si\(A\) es una\(m\times n\) matriz, vimos en\ (\ mathbb R^p\)” href=” /sec-subspaces.html “>Sección 3.5 eso\(\dim\col(A) = \rank(A)\) y\(\dim\nul(A) = n-\rank(A)\text{.}\)

    Ahora supongamos que\(W\) es un subespacio\(n\) -dimensional de\(\mathbb R^m\) con base\(\mathbf w_1,\mathbf w_2,\ldots,\mathbf w_n\text{.}\) Si formamos la\(m\times n\) matriz\(A=\begin{bmatrix}\mathbf w_1 & \mathbf w_2 & \ldots & \mathbf w_n\end{bmatrix}\text{,}\)\(\col(A) = W\) entonces para que

    \ begin {ecuación*}\ rango (A) =\ dim\ col (A) =\ dim W = n\ texto {.} \ end {ecuación*}

    La transposición\(A^T\) es una\(n\times m\) matriz que tiene\(\rank(A^T) = \rank(A)= n\text{.}\) Desde\(W^\perp = \nul(A^T)\text{,}\) que tenemos

    \ begin {ecuación*}\ dim W^\ perp =\ dim\ nul (A^T) = m -\ rango (A^T) = m-n = m-\ dim W\ texto {.} \ end {ecuación*}

    Esto explica la siguiente proposición.

    Proposición 6.2.13.

    Si\(W\) es un subespacio de\(\mathbb R^m\text{,}\) entonces

    \ begin {ecuación*}\ dim W +\ dim W^\ perp = m\ texto {.} \ end {ecuación*}
    Ejemplo 6.2.14

    En el Ejemplo 6.2.4, construimos el complemento ortogonal de una línea en\(\mathbb R^3\text{.}\) La dimensión del complemento ortogonal debería ser\(3 - 1 = 2\text{,}\) lo que explica por qué encontramos que el complemento ortogonal era un plano.

    Ejemplo 6.2.15

    En el Ejemplo 6.2.5, observamos\(W\text{,}\) un subespacio\(2\) -dimensional de\(\mathbb R^5\) y encontramos que su complemento\(W^\perp\) ortogonal era un subespacio\(5-2=3\) -dimensional de\(\mathbb R^5\text{.}\)

    Actividad 6.2.5.

    1. Supongamos que\(W\) es un subespacio\(5\) -dimensional de\(\mathbb R^9\) y que\(A\) es una matriz cuyas columnas forman una base para\(W\text{;}\) eso es,\(\col(A) = W\text{.}\)
      1. ¿Cuáles son las dimensiones de\(A\text{?}\)
      2. ¿Cuál es el rango de\(A\text{?}\)
      3. ¿Cuáles son las dimensiones de\(A^T\text{?}\)
      4. ¿Cuál es el rango de\(A^T\text{?}\)
      5. ¿Qué es\(\dim\nul(A^T)\text{?}\)
      6. ¿Qué es\(\dim W^\perp\text{?}\)
      7. ¿Cómo son las dimensiones de\(W\) y\(W^\perp\) relacionadas?
    2. Supongamos que\(W\) es un subespacio de\(\mathbb R^4\) tener bases
      \ begin {ecuación*}\ mathbf w_1 =\ fourvec102 {-1},\ hspace {24pt}\ mathbf w_2 =\ fourvec {-1} 2 {-6} 3. \ end {ecuación*}
      1. Encuentra las dimensiones\(\dim W\) y\(\dim W^\perp\text{.}\)
      2. Encontrar una base para\(W^\perp\text{.}\) Puede ser útil saber que el comando Sage a.right_kernel () produce una base para\(\nul(A)\text{.}\)
      3. Verifica que cada uno de los vectores base para los que encontraste\(W^\perp\) sean ortogonales a los vectores base para\(W\text{.}\)

    Resumen

    Esta sección introdujo el tranpose matricial, su conexión con productos punteados y su uso en la descripción del complemento ortogonal de un subespacio.

    • Las columnas de la matriz\(A\) son las filas de la transposición matricial\(A^T\text{.}\)
    • Los componentes del producto\(A^T\mathbf x\) son los productos punteados de\(\mathbf x\) con las columnas de\(A\text{.}\)
    • El complemento ortogonal del espacio de columna\(A\) es igual al espacio nulo de es\(A^T\text{;}\) decir,\(\col(A)^\perp = \nul(A^T)\text{.}\)
    • Si\(W\) es un subespacio de\(\mathbb R^p\text{,}\) entonces
      \ comenzar {ecuación*}\ dim W +\ dim W^\ perp = p.\ final {ecuación*}

    Ejercicios 6.2.5Ejercicios

    1

    Supongamos que\(W\) es un subespacio de\(\mathbb R^4\) con base

    \ begin {ecuación*}\ mathbf w_1=\ fourvec {-2} 22 {-4},\ hspace {24pt}\ mathbf w_2=\ fourvec {-2} 35 {-5}. \ end {ecuación*}
    1. ¿Cuáles son las dimensiones\(\dim W\) y\(\dim W^\perp\text{?}\)
    2. Encuentre una base para\(W^\perp\text{.}\)
    3. Verificar que cada uno de los vectores base para\(W^\perp\) son ortogonales a\(\mathbf w_1\) y\(\mathbf w_2\text{.}\)
    2

    Considerar la matriz\(A = \begin{bmatrix} -1 & -2 & -2 \\ 1 & 3 & 4 \\ 2 & 1 & -2 \end{bmatrix}\text{.}\)

    1. Encontrar\(\rank(A)\) y una base para\(\col(A)\text{.}\)
    2. Determinar la dimensión de\(\col(A)^\perp\) y encontrar una base para ello.
    3

    Supongamos que\(W\) es el subespacio de\(\mathbb R^4\) definido como el conjunto de solución de la ecuación

    \ begin {ecuación*} x_1 - 3x_2 + 5x_3 - 2x_4 = 0. \ end {ecuación*}
    1. ¿Cuáles son las dimensiones\(\dim W\) y\(\dim W^\perp\text{?}\)
    2. Encuentre una base para\(W\text{.}\)
    3. Encuentre una base para\(W^\perp\text{.}\)
    4. En general, ¿cómo se puede encontrar fácilmente una base para\(W^\perp\) cuando\(W\) se define por
      \ begin {ecuación*} Ax_1+Bx_2+Cx_3+Dx_4 = 0? \ end {ecuación*}
    4

    Determina si las siguientes afirmaciones son verdaderas o falsas y explica tu razonamiento.

    1. Si\(A=\begin{bmatrix} 2 & 1 \\ 1 & 1 \\ -3 & 1 \end{bmatrix}\text{,}\) entonces\(\mathbf x=\threevec{4}{-5}1\) está en\(\col(A)^\perp\text{.}\)
    2. Si\(A\) es una\(2\times3\) matriz y\(B\) es una\(3\times4\) matriz, entonces\((AB)^T = A^TB^T\) es una\(4\times2\) matriz.
    3. Si las columnas de\(A\) son\(\mathbf v_1\text{,}\)\(\mathbf v_2\text{,}\) y\(\mathbf v_3\) y\(A^T\mathbf x = \threevec{2}01\text{,}\) entonces\(\mathbf x\) es ortogonal a\(\mathbf v_2\text{.}\)
    4. Si\(A\) es una\(4\times 4\) matriz con\(\rank(A) = 3\text{,}\) entonces\(\col(A)^\perp\) es una línea en\(\mathbb R^4\text{.}\)
    5. Si\(A\) es una\(5\times 7\) matriz con\(\rank(A) = 5\text{,}\) entonces\(\rank(A^T) = 7\text{.}\)
    5

    Aplicar propiedades de operaciones matriciales para simplificar las siguientes expresiones.

    1. \(\displaystyle A^T(BA^T)^{-1} \)
    2. \(\displaystyle (A+B)^T(A+B) \)
    3. \(\displaystyle [A(A+B)^T]^T \)
    4. \(\displaystyle (A + 2I)^T \)
    6

    Una matriz simétrica\(A\) es aquella para la cual\(A=A^T\text{.}\)

    1. Explique por qué una matriz simétrica debe ser cuadrada.
    2. Si\(A\) y\(B\) son matrices generales y\(D\) es una matriz diagonal cuadrada, ¿cuál de las siguientes matrices puede garantizar que son simétricas?
      1. \(\displaystyle D\)
      2. \(\displaystyle BAB^{-1} \)
      3. \(AA^T\text{.}\)
      4. \(\displaystyle BDB^T\)
    7

    Si\(A\) es una matriz cuadrada, recuerde que el polinomio característico de\(A\) es\(\det(A-\lambda I)\) y que las raíces del polinomio característico son los valores propios de\(A\text{.}\)

    1. Explicar por qué\(A\) y\(A^T\) tener el mismo polinomio característico.
    2. Explicar por qué\(A\) y\(A^T\) tener el mismo conjunto de valores propios.
    3. Supongamos que\(A\) es diagonalizable con diagonalización\(A=PDP^{-1}\text{.}\) Explica por qué\(A^T\) es diagonalizable y encuentra una diagonalización.
    8

    Este ejercicio introduce una versión del teorema de Pitágoras que usaremos más adelante.

    1. Supongamos que\(\mathbf v\) y\(\mathbf w\) son ortogonales entre sí. Usa el producto punto para explicar por qué
      \ begin {ecuación*}\ len {\ mathbf v+\ mathbf w} ^2 =\ len {\ mathbf v} ^2 +\ len {\ mathbf w} ^2. \ end {ecuación*}
    2. Supongamos que\(W\) es un subespacio de\(\mathbb R^m\) y que\(\zvec\) es un vector en\(\mathbb R^m\) el que
      \ begin {ecuación*}\ zvec =\ mathbf x +\ yvec,\ end {ecuación*}

      dónde\(\mathbf x\) está\(W\) y\(\yvec\) está en\(W^\perp\text{.}\) Explicar por qué

      \ begin {ecuación*}\ len {\ zvec} ^2 =\ len {\ mathbf x} ^2 +\ len {\ yvec} ^2,\ end {ecuación*}

      que es una expresión del teorema de Pitágoras.

    9

    En el siguiente capítulo, las matrices simétricas —es decir, las matrices para las cuales\(A=A^T\) — juegan un papel importante. Resulta que los vectores propios de una matriz simétrica que están asociados a diferentes valores propios son ortogonales. Vamos a explicar este hecho en este ejercicio.

    1. Viendo un vector como una matriz que tiene una columna, podemos escribir\(\mathbf x\cdot\yvec = \mathbf x^T\yvec\text{.}\) Si\(A\) es una matriz, explique por qué\(\mathbf x\cdot (A\yvec) = (A^T\mathbf x) \cdot \yvec\text{.}\)
    2. Hemos visto que la matriz\(A=\begin{bmatrix} 1 & 2 \\ 2 & 1 \end{bmatrix}\) tiene vectores propios\(\mathbf v_1=\twovec11\text{,}\) con autovalor asociado\(\lambda_1=3\text{,}\) y\(\mathbf v_2 = \twovec{1}{-1}\text{,}\) con autovalor asociado\(\lambda_2 = -1\text{.}\) Verificar que\(A\) es simétrico y eso\(\mathbf v_1\) y\(\mathbf v_2\) son ortogonales.
    3. Supongamos que\(A\) es una matriz simétrica general y que\(\mathbf v_1\) es un vector propio asociado al autovalor\(\lambda_1\) y que\(\mathbf v_2\) es un autovector asociado a un autovalor diferente\(\lambda_2\text{.}\) Comenzando con\(\mathbf v_1\cdot (A\mathbf v_2)\text{,}\) aplicar la identidad desde la primera parte de este ejercicio para explicar por qué\(\mathbf v_1\) y\(\mathbf v_2\) son ortogonales.
    10

    Dada una\(m\times n\) matriz\(A\text{,}\) el espacio de fila de\(A\) es el espacio de columna de es\(A^T\text{;}\) decir,\(\row(A) = \col(A^T)\text{.}\)

    1. Supongamos que\(A\) es una\(7\times 15\) matriz. Por lo que\(p\) es\(\row(A)\) un subespacio de\(\mathbb R^p\text{?}\)
    2. ¿Cómo puede ayudarnos la Proposición 6.2.10 a describir\(\row(A)^\perp\text{?}\)
    3. Supongamos que\(A = \begin{bmatrix} -1 & -2 & 2 & 1 \\ 2 & 4 & -1 & 5 \\ 1 & 2 & 0 & 3 \end{bmatrix}\text{.}\) Encuentra bases para\(\row(A)\) y\(\row(A)^\perp\text{.}\)

    This page titled 6.2: Complementos ortogonales y tranposición matricial is shared under a CC BY 4.0 license and was authored, remixed, and/or curated by David Austin via source content that was edited to the style and standards of the LibreTexts platform; a detailed edit history is available upon request.