Saltar al contenido principal
LibreTexts Español

6.4: Encontrar bases ortogonales

  • Page ID
    115718
  • \( \newcommand{\vecs}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} } \) \( \newcommand{\vecd}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash {#1}}} \)\(\newcommand{\id}{\mathrm{id}}\) \( \newcommand{\Span}{\mathrm{span}}\) \( \newcommand{\kernel}{\mathrm{null}\,}\) \( \newcommand{\range}{\mathrm{range}\,}\) \( \newcommand{\RealPart}{\mathrm{Re}}\) \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\) \( \newcommand{\Argument}{\mathrm{Arg}}\) \( \newcommand{\norm}[1]{\| #1 \|}\) \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\) \( \newcommand{\Span}{\mathrm{span}}\) \(\newcommand{\id}{\mathrm{id}}\) \( \newcommand{\Span}{\mathrm{span}}\) \( \newcommand{\kernel}{\mathrm{null}\,}\) \( \newcommand{\range}{\mathrm{range}\,}\) \( \newcommand{\RealPart}{\mathrm{Re}}\) \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\) \( \newcommand{\Argument}{\mathrm{Arg}}\) \( \newcommand{\norm}[1]{\| #1 \|}\) \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\) \( \newcommand{\Span}{\mathrm{span}}\)\(\newcommand{\AA}{\unicode[.8,0]{x212B}}\)

    Saltar al contenido principal

    Sección 6.4 Encontrar bases ortogonales

    La última sección demostró el valor de trabajar con conjuntos ortogonales, y especialmente ortonormales. Si tenemos una base ortogonal\(\mathbf w_1,\mathbf w_2,\ldots,\mathbf w_n\) para un subespacio\(W\text{,}\) la Fórmula de Proyección 6.3.15 nos dice que la proyección ortogonal de un vector\(\mathbf b\) sobre\(W\) es

    \ begin {ecuación*} \ bhat = \ frac {\ mathbf b\ cdot\ mathbf w_1} {\ mathbf w_1\ cdot\ mathbf w_1} ~\ mathbf w_1 + \ frac {\ mathbf b\ cdot\ mathbf w_2} {\ mathbf w_2\ cdot\ mathbf w_2} ~\ mathbf w_2 + \ ldots + \ frac {\ mathbf b\ cdot\ mathbf w_n} {\ mathbf w_n\ cdot\ mathbf w_n} ~\ mathbf w_n\ text {.} \ end {ecuación*}

    Una base ortonormal\(\mathbf u_1,\mathbf u_2,\ldots,\mathbf u_n\) es aún más conveniente: después de formar la matriz\ (Q=\ begin {bmatrix}\ mathbf u_1 &\ mathbf u_2 &\ ldots & \ mathbf u_n \ end {bmatrix}\ text {,}\) tenemos\(\bhat = QQ^T\mathbf b\text{.}\)

    En los ejemplos que hemos visto hasta ahora, sin embargo, nos dieron bases ortogonales. Lo que necesitamos ahora es una forma de formar bases ortogonales. En esta sección, exploraremos un algoritmo que comienza con una base para un subespacio y crea una base ortogonal. Una vez que tenemos una base ortogonal, podemos escalar cada uno de los vectores apropiadamente para producir una base ortonormal.

    Vista previa Actividad 6.4.1.

    Supongamos que tenemos una base para\(\mathbb R^2\) constar de los vectores

    \ begin {ecuación*} \ mathbf v_1=\ twovec11,\ hspace {24pt} \ mathbf v_1=\ twovec02 \ end {ecuación*}

    como se muestra en la Figura 6.4.1. Observe que esta base no es ortogonal.

    Figura 6.4.1. Una base para\(\mathbb R^2\text{.}\)
    1. Encuentra el vector\(\vhat_2\) que es la proyección ortogonal de\(\mathbf v_2\) sobre la línea definida por\(\mathbf v_1\text{.}\)
    2. Explicar por qué\(\mathbf v_2 - \vhat_2\) es ortogonal a\(\mathbf v_1\text{.}\)
    3. Definir los nuevos vectores\(\mathbf w_1=\mathbf v_1\)\(\mathbf w_2=\mathbf v_2-\vhat_2\) y esbozarlos en la Figura 6.4.2. Explicar por qué\(\mathbf w_1\) y\(\mathbf w_2\) definir una base ortogonal para\(\mathbb R^2\text{.}\)
    Figura 6.4.2. Esbozar la nueva base\(\mathbf w_1\) y\(\mathbf w_2\text{.}\)
  • Escribe el vector\(\mathbf b=\twovec8{-10}\) como una combinación lineal de\(\mathbf w_1\) y\(\mathbf w_2\text{.}\)
  • Escalar los vectores\(\mathbf w_1\) y\(\mathbf w_2\) producir una base ortonormal\(\mathbf u_1\) y\(\mathbf u_2\) para\(\mathbb R^2\text{.}\)
  • Subsección 6.4.1 Ortogonalización Gram-Schmidt

    La actividad de vista previa ilustra la idea principal detrás de un algoritmo, conocido como ortogonalización Gram-Schmidt, que comienza con una base para algún subespacio\(\mathbb R^m\) y produce una base ortogonal u ortonormal. El algoritmo se basa en nuestra construcción de la proyección ortogonal. Recuerde que formamos la proyección ortogonal\(\bhat\) de\(\mathbf b\) sobre un subespacio\(W\) requiriendo que\(\mathbf b-\bhat\) sea ortogonal a\(W\) como se muestra en la Figura 6.4.3.

    Figura 6.4.3. Si\(\bhat\) es la proyección ortogonal de\(\mathbf b\) sobre\(W\text{,}\) entonces\(\mathbf b-\bhat\) es ortogonal a\(W\text{.}\)

    Esta observación guía nuestra construcción de una base ortogonal para que nos permita crear un vector que es ortogonal a un subespacio dado. Veamos cómo funciona el algoritmo Gram-Schmidt.

    Actividad 6.4.2.

    Supongamos que\(W\) es un subespacio tridimensional de\(\mathbb R^4\) con base:

    \ begin {ecuación*} \ mathbf v_1 =\ fourvec1111,\ hspace {24pt} \ mathbf v_2 =\ fourvec1322,\ hspace {24pt} \ mathbf v_3 =\ fourvec1 {-3} {-3} {-3}\ text {.} \ end {ecuación*}

    Podemos ver que esta base no es ortogonal al señalar que\(\mathbf v_1\cdot\mathbf v_2 = 8\text{.}\) Nuestro objetivo es crear una base ortogonal\(\mathbf w_1\text{,}\)\(\mathbf w_2\text{,}\) y\(\mathbf w_3\) para\(W\text{.}\)

    Para comenzar, lo declaramos\(\mathbf w_1=\mathbf v_1\text{,}\) y llamamos a\(W_1\) la línea definida por\(\mathbf w_1\text{.}\)

    1. Encuentra el vector\(\vhat_2\) que es la proyección ortogonal de\(\mathbf v_2\) sobre\(W_1\text{,}\) la línea definida por\(\mathbf w_1\text{.}\)
    2. Formar el vector\(\mathbf w_2 = \mathbf v_2-\vhat_2\) y verificar que es ortogonal a\(\mathbf w_1\text{.}\)
    3. Explica por qué\ (\ laspan {\ mathbf w_1,\ mathbf w_2} = \ laspan {\ mathbf v_1,\ mathbf v_2}\) mostrando que cualquier combinación lineal de\(\mathbf v_1\) y\(\mathbf v_2\) puede escribirse como una combinación lineal de\(\mathbf w_1\)\(\mathbf w_2\) y y viceversa.

    4. Los vectores\(\mathbf w_1\) y\(\mathbf w_2\) son una base ortogonal para un subespacio bidimensional\(W_2\) de\(\mathbb R^4\text{.}\) Encuentra el vector\(\vhat_3\) que es la proyección ortogonal de\(\mathbf v_3\) sobre\(W_2\text{.}\)
    5. Verificar que\(\mathbf w_3 = \mathbf v_3-\vhat_3\) sea ortogonal a ambos\(\mathbf w_1\) y\(\mathbf w_2\text{.}\)
    6. Explicar por qué\(\mathbf w_1\text{,}\)\(\mathbf w_2\text{,}\) y\(\mathbf w_3\) formar una base ortogonal para\(W\text{.}\)
    7. Ahora encuentra una base ortonormal para\(W\text{.}\)

    Como ilustra esta actividad, la ortogonalización de Gram-Schmidt comienza con una base\(\mathbf v_1\mathbf v_2,\ldots,\mathbf v_n\) para un subespacio\(W\) de\(\mathbb R^m\) y crea una base ortogonal para\(W\text{.}\) Vamos a trabajar a través de un segundo ejemplo.

    Ejemplo 6.4.4.

    Empecemos con la base

    \ begin {ecuación*} \ mathbf v_1=\ threevec {2} {-1} 2,\ hspace {24pt} \ mathbf v_2=\ threevec {-3} {3} 0,\ hspace {24pt} \ mathbf v_3=\ threevec {-2} 71\ text {,} \ end {ecuación*}

    que es una base para\(\mathbb R^3\text{.}\)

    Para comenzar, simplemente configuraremos\(\mathbf w_1=\mathbf v_1=\threevec{2}{-1}2\text{.}\) Construimos\(\mathbf w_2\) a partir de\(\mathbf v_2\) restando su proyección ortogonal a\(W_1\text{,}\) la línea definida por\(\mathbf w_1\text{.}\) This gives

    \ begin {ecuación*} \ mathbf w_2 =\ mathbf v_2 - \ frac {\ mathbf v_2\ cdot\ mathbf w_1} {\ mathbf w_1} {\ mathbf w_1}\ mathbf w_1 = \ mathbf v_2 +\ mathbf w_1 =\ threevec {-1} 22\ text {.} \ end {ecuación*}

    Observe que encontramos\(\mathbf v_2 = -\mathbf w_1 + \mathbf w_2\text{.}\) Por lo tanto, podemos reescribir cualquier combinación lineal de\(\mathbf v_1\) y\(\mathbf v_2\) como

    \ begin {ecuación*} c_1\ mathbf v_1 + c_2\ mathbf v_2 = c_1\ mathbf w_1 + c_2 (-\ mathbf w_1+\ mathbf w_2) = (c_1-c_2)\ mathbf w_1 + c_2\ mathbf w_2\ text {,} \ end {ecuación*}

    una combinación lineal de\(\mathbf w_1\) y\(\mathbf w_2\text{.}\) Esto nos dice que

    \ begin {ecuación*} W_2 =\ laspan {\ mathbf w_1,\ mathbf w_2} = \ laspan {\ mathbf v_1,\ mathbf v_2}\ text {.} \ end {ecuación*}

    En otras palabras,\(\mathbf w_1\) y\(\mathbf w_2\) es una base para el mismo subapce bidimensional que\(\mathbf v_1\) y\(\mathbf v_2\text{.}\)

    Finalmente, nos formamos\(\mathbf w_3\) a partir\(\mathbf v_3\) restando su proyección ortogonal a\(W_2\text{:}\)

    \ begin {ecuación*} \ mathbf w_3 =\ mathbf v_3 - \ frac {\ mathbf v_3\ cdot\ mathbf w_1} {\ mathbf w_1} {\ mathbf w_1}\ mathbf w_1 - \ frac {\ mathbf v_3\ cdot\ mathbf w_2} {\ mathbf w_2\ cdot\ mathbf w_2}\ mathbf w_1 =\ mathbf v_3 +\ mathbf w_1 - 2\ mathbf w_2 =\ threevec22 {-1}\ text {.} \ end {ecuación*}

    Ahora podemos comprobar que

    \ begin {ecuación*} \ mathbf w_1=\ tresevec2 {-1} 2,\ hspace {24pt} \ mathbf w_2=\ threevec {-1} 22,\ hspace {24pt} \ mathbf w_3=\ threevec22 {-1},\ hspace {24pt} \ end {ecuación*}

    es un conjunto ortogonal. Además, encontramos que, como antes,\ (\ laspan {\ mathbf w_1,\ mathbf w_2,\ mathbf w_3} =\ laspan {\ mathbf v_1,\ mathbf v_2,\ mathbf v_3}\) por lo que hemos encontrado una nueva base ortogonal para\(\mathbb R^3\text{.}\)

    Para crear una base ortonormal, formamos vectores unitarios paralelos a cada uno de los vectores en la base ortogonal:

    \ begin {ecuación*} \ mathbf u_1 =\ threevec {2/3} {-1/3} {2/3},\ hspace {24pt} \ mathbf u_2 =\ threevec {-1/3} {2/3} {2/3},\ hspace {24pt} \ mathbf u_3 =\ threevec {2/3} {2/3} {-1/3}\ texto {.} \ end {ecuación*}

    De manera más general, si tenemos una base\(\mathbf v_1,\mathbf v_2,\ldots,\mathbf v_n\) para un subespacio\(W\)\(\mathbb R^m\text{,}\) del algoritmo Gram-Schmidt crea una base ortogonal para\(W\) de la siguiente manera:

    \ begin {alinear*} \ mathbf w_1 & =\ mathbf v_1\ \ mathbf w_2 & =\ mathbf v_2 - \ frac {\ mathbf v_2\ cdot\ mathbf w_1} {\ mathbf w_1\ cdot\ mathbf w_1}\ mathbf w_1\ \ mathbf w_3 & =\ mathbf v_3 - \ frac {\ mathbf v_3\ cdot\ mathbf w_1} {\ mathbf w_1\ cdot\ mathbf w_1}\ mathbf w_1 - \ frac {\ mathbf v_3\ cdot\ mathbf w_2} {\ mathbf w_2\ cdot\ mathbf w_2}\ mathbf w_2\\ &\ vdots \\\ mathbf w_n & =\ mathbf v_n - \ frac {\ mathbf v_n\ cdot\ mathbf w_1} {\ mathbf w_1}\ mathbf w_1 - \ frac {\ mathbf v_n\ cdot\ mathbf w_2} {\ mathbf w_2\ cdot\ mathbf w_2}\ mathbf w_2 - \ ldots - \ frac {\ mathbf v_n\ cdot\ mathbf w_ {n-1}} {\ mathbf w_ {n-1}\ cdot\ mathbf w_ {n-1}}\ mathbf w_ {n-1} \ texto {.} \ end {alinear*}

    A partir de aquí, podemos formar una base ortonormal construyendo un vector unitario paralelo a cada vector en la base ortogonal:\(\mathbf u_j = 1/\len{\mathbf w_j}~\mathbf w_j\text{.}\)

    Actividad 6.4.3.

    Sage puede automatizar estos cálculos por nosotros. Antes de comenzar, sin embargo, será útil entender cómo podemos combinar las cosas usando una lista en Python. Por ejemplo, si los vectores v1, v2 y v3 forman una base para un subespacio, podemos agruparlos usando corchetes: [v1, v2, v3]. Además, podríamos asignar esto a una variable, como basis = [v1, v2, v3].

    Evaluando la siguiente celda se cargará en algunos comandos especiales.

    • Existe un comando para aplicar la fórmula de proyección: proyección (b, base) devuelve la proyección ortogonal de b sobre el subespacio abarcado por base, que es una lista de vectores.
    • La unidad de comando (w) devuelve un vector unitario paralelo a w.
    • Dada una colección de vectores, digamos, v1 y v2, podemos formar la matriz cuyas columnas son v1 y v2 usando matrix ([v1, v2]) .T. Cuando se le da una lista de vectores, Sage construye una matriz cuyas filas son los vectores dados. Por ello, necesitamos aplicar el tranpose.

    Consideremos ahora\(W\text{,}\) el subespacio de\(\mathbb R^5\) tener bases

    \ begin {ecuación*} \ mathbf v_1 =\ fivevec {14} {-6} {8} 2 {-6},\ hspace {24pt} \ mathbf v_2 =\ fivevec {5} {-3} {4} 3 {-7},\ hspace {24pt} \ mathbf v_3 =\ fivevec {2} 30 {-2} 1. \ end {ecuación*}
    1. Aplicar el algoritmo Gram-Schmidt para encontrar una base ortogonal\(\mathbf w_1\text{,}\)\(\mathbf w_2\text{,}\) y\(\mathbf w_3\) para\(W\text{.}\)
    2. Encuentra\(\bhat\text{,}\) la proyección ortogonal de\ (\ mathbf b = \ fivevec {-5} {11} 0 {-1} 5\) en\(W\text{.}\)

    3. Explique por qué sabemos que\(\bhat\) es una combinación lineal de los vectores originales\(\mathbf v_1\text{,}\)\(\mathbf v_2\text{,}\)\(\mathbf v_3\) y luego encontramos pesos para que
      \ begin {ecuación*} \ bhat = c_1\ mathbf v_1 + c_2\ mathbf v_2 + c_3\ mathbf v_3. \ end {ecuación*}
    4. Encontrar una base ortonormal\(\mathbf u_1\text{,}\)\(\mathbf u_2\text{,}\) para\(\mathbf u_3\) for\(W\) y formar la matriz\(Q\) cuyas columnas son estos vectores.
    5. Encuentra el producto\(Q^TQ\) y explica el resultado.
    6. Encuentra la matriz en la\(P\) que proyecta los vectores ortogonalmente\(W\) y verifica que\(P\mathbf b\) da\(\bhat\text{,}\) la proyección ortogonal que encontraste anteriormente.

    Subsección 6.4.2\(QR\) factorizations

    Ahora que hemos visto cómo el algoritmo Gram-Schmidt forma una base ortonormal para un subespacio dado, exploraremos cómo el algoritmo conduce a una importante factorización matricial conocida como la\(QR\) factorización.

    Actividad 6.4.4.

    Supongamos que\(A\) es la\(4\times3\) matriz cuyas columnas son

    \ begin {ecuación*} \ mathbf v_1 =\ fourvec1111,\ hspace {24pt} \ mathbf v_2 =\ fourvec1322,\ hspace {24pt} \ mathbf v_3 =\ fourvec1 {-3} {-3} {-3}\ text {.} \ end {ecuación*}

    Estos vectores forman una base para\(W\text{,}\) el subespacio del\(\mathbb R^4\) que encontramos en la Actividad 6.4.2. Ya que estos vectores son las columnas de\(A\text{,}\) tenemos\(\col(A) = W\text{.}\)

    1. Cuando implementamos Gram-Schmidt, encontramos por primera vez una base ortogonal\(\mathbf w_1\text{,}\)\(\mathbf w_2\text{,}\) y\(\mathbf w_3\) usando
      \ begin {ecuación*} \ begin {alineado} \ mathbf w_1 & =\ mathbf v_1\ \ mathbf w_2 & =\ mathbf v_2 - \ frac {\ mathbf v_2\ cdot\ mathbf w_1} {\ mathbf w_1\ cdot\ mathbf w_1}\ mathbf w_1\ \ mathbf w_3 & = mathbf v_3 - \ frac {\ mathbf v_3\ cdot\ mathbf w_1} {\ mathbf w_1\ cdot\ mathbf w_2}\ mathbf w_1 - \ frac {\ mathbf v_3\ cdot\ mathbf w_2} {\ mathbf w_2\ cdot\ mathbf w_2}\ mathbf w_2\ text {.} \\ \ final {alineado} \ final {ecuación*}

      Utilice estas expresiones para escribir\(\mathbf v_1\text{,}\)\(\mathbf v_1\text{,}\) y\(\mathbf v_3\) como combinaciones lineales de\(\mathbf w_1\text{,}\)\(\mathbf w_2\text{,}\) y\(\mathbf w_3\text{.}\)

    2. A continuación normalizamos la base ortogonal\(\mathbf w_1\text{,}\)\(\mathbf w_2\text{,}\) y\(\mathbf w_3\) para obtener una base ortonormal\(\mathbf u_1\text{,}\)\(\mathbf u_2\text{,}\) y\(\mathbf u_3\text{.}\)

      Escribe los vectores\(\mathbf w_i\) como múltiplos escalares de\(\mathbf u_i\text{.}\) Luego usa estas expresiones para escribir\(\mathbf v_1\text{,}\)\(\mathbf v_1\text{,}\) y\(\mathbf v_3\) como combinaciones lineales de\(\mathbf u_1\text{,}\)\(\mathbf u_2\text{,}\) y\(\mathbf u_3\text{.}\)

    3. Supongamos que\ (Q = \ left [\ begin {array} {ccc} \ mathbf u_1 &\ mathbf u_2 &\ mathbf u_3 \ end {array} \ right]\ text {.}\) Usa el resultado de la parte anterior para encontrar un vector de\(\rvec_1\) manera que\(Q\rvec_1 = \mathbf v_1\text{.}\)

    4. Entonces encuentra vectores\(\rvec_2\) y\(\rvec_3\) tal que\(Q\rvec_2 = \mathbf v_2\) y\ (Q\ rvec_3 = \ mathbf v_3\ text {.}\)

    5. Construye la matriz\ (R = \ left [ \ begin {array} {ccc} \ rvec_1 &\ rvec_2 &\ rvec_3 \ end {array} \ right]\ text {.}\) Recordando que\ (A = \ left [ \ begin {array} {ccc} \ mathbf v_1 &\ mathbf v_2 &\ mathbf v_3 \ end {array} \ right]\ text {,}\) explicar por qué\(A = QR\text{.}\)

    6. ¿Qué tiene de especial la forma de\(R\text{?}\)
    7. Supongamos que\(A\) es una\(10\times 6\) matriz cuyas columnas son linealmente independientes. Esto significa que las columnas de\(A\) forman una base para\(W=\col(A)\text{,}\) un subespacio 6-dimensional de\(\mathbb R^{10}\text{.}\) Supongamos que aplicamos la ortogonalización Gram-Schmidt para crear una base ortonormal cuyos vectores forman las columnas de\(Q\) y que escribimos\(A=QR\text{.}\) Cuáles son las dimensiones de\(Q\) y cuáles son las dimensiones de\(R\text{?}\)

    Cuando las columnas de una matriz\(A\) son linealmente independientes, forman una base para que\(\col(A)\) podamos realizar el algoritmo Gram-Schmidt. La actividad anterior muestra cómo esto lleva a una factorización de\(A\) como producto de una matriz\(Q\) cuyas columnas son una base ortonormal para\(\col(A)\) y una matriz triangular superior\(R\text{.}\)

    Proposición 6.4.5. \(QR\) factorization. Si\(A\) es una\(m\times n\) matriz cuyas columnas son linealmente independientes, podemos escribir\(A=QR\) donde\(Q\) es una\(m\times n\) matriz cuyas columnas forman una base ortonormal para\(\col(A)\) y\(R\) es una matriz triangular\(n\times n\) superior.
    Ejemplo 6.4.6.

    Consideraremos la matriz\ (A=\ begin {bmatrix} 2 & -3 & -2\\ -1 & 3 & 7\\ 2 & 0 & 1\\ \ end {bmatrix}\) cuyas columnas, que denotaremos\(\mathbf v_1\text{,}\)\(\mathbf v_2\text{,}\) y\(\mathbf v_3\text{,}\) son la base de\(\mathbb R^3\) eso que consideramos en el Ejemplo 6.4.4. Allí encontramos una base ortogonal\(\mathbf w_1\text{,}\)\(\mathbf w_2\text{,}\) y\(\mathbf w_3\) que satisfizo

    \ begin {align*} \ mathbf v_1 & {} = {}\ mathbf w_1\\ \ mathbf v_2 & {} = {} -\ mathbf w_1 +\ mathbf w_2\\ \ mathbf v_3 & {} = {} -\ mathbf w_1 + 2\ mathbf w_2 +\ mathbf w _3\ texto {.} \ end {alinear*}

    En cuanto a la base ortonormal resultante\(\mathbf u_1\text{,}\)\(\mathbf u_2\text{,}\) y\(\mathbf u_3\text{,}\) tuvimos

    \ begin {ecuación*} \ mathbf w_1 = 3\ mathbf u_1,\ hspace {24pt} \ mathbf w_2 = 3\ mathbf u_2,\ hspace {24pt} \ mathbf w_3 = 3\ mathbf u_3 \ end {ecuación*}

    para que

    \ begin {align*} \ mathbf v_1 & {} = {} 3\ mathbf u_1\\ \ mathbf v_2 & {} = {} -3\ mathbf u_1 + 3\ mathbf u_2\ \ mathbf v_3 & {} = {} -3\ mathbf u_1 + 6\ mathbf u_2 + 3\ mathbf u _3\ texto {.} \ end {alinear*}

    Por lo tanto, si\ (Q=\ begin {bmatrix}\ mathbf u_1 &\ mathbf u_2 & \ mathbf u_3\ end {bmatrix}\ text {,}\) tenemos la\(QR\) factorización

    \ begin {ecuación*} A = Q\ begin {bmatrix} 3 & -3 & -3\\ 0 & 3 & 6\\ 0 & 0 & 3\\ \ end {bmatrix} =QR\ text {.} \ end {ecuación*}
    Actividad 6.4.5.

    Como antes, nos gustaría utilizar Sage para automatizar el proceso de búsqueda y uso de la\(QR\) factorización de una matriz\(A\text{.}\) Evaluando la siguiente celda proporciona un comando QR (A) que devuelve la factorización, que puede ser almacenada usando, por ejemplo, Q, R = QR (A).

    Supongamos que\(A\) es la siguiente matriz cuyas columnas son linealmente independientes.

    \ begin {ecuación*} A = \ begin {bmatrix} 1 & 0 & 0 & -3\\ 0 & 2 & -1\\ 1 & 0 & 1\\ 1 & 3 & 5\\ \ end {bmatrix}. \ end {ecuación*}
    1. Si\(A=QR\text{,}\) cuáles son las dimensiones de\(Q\) y\(R\text{?}\) Qué tiene de especial la forma de\(R\text{?}\)
    2. Encuentra la\(QR\) factorización usando Q, R = QR (A) y verifica que\(R\) tiene la forma predicha y que\(A=QR\text{.}\)

    3. Encuentra la matriz\(P\) que proyecta ortogonalmente vectores en\(\col(A)\text{.}\)
    4. Encuentra\(\bhat\text{,}\) la proyección ortogonal de\(\mathbf b=\fourvec4{-17}{-14}{22}\) onto\(\col(A)\text{.}\)
    5. Explicar por qué la ecuación\(A\mathbf x=\bhat\) debe ser consistente y luego encontrar\(\mathbf x\text{.}\)

    De hecho, Sage proporciona su propia versión de la\(QR\) factorización que es un poco diferente a la forma en que hemos desarrollado la factorización aquí. Por ello, hemos proporcionado nuestra propia versión de la factorización.

    Subsección 6.4.3 Resumen

    Esta sección exploró el algoritmo de ortogonalización de Gram-Schmidt y cómo conduce a la factorización matricial\(A=QR\) cuando las columnas de\(A\) son linealmente independientes.

    • Comenzando con una base\ (\ mathbf v_1, \ mathbf v_2,\ ldots,\ mathbf v_n\) para un subespacio\(W\) de\(\mathbb R^m\text{,}\) los vectores

      \ begin {alinear*} \ mathbf w_1 & =\ mathbf v_1\ \ mathbf w_2 & =\ mathbf v_2 - \ frac {\ mathbf v_2\ cdot\ mathbf w_1} {\ mathbf w_1\ cdot\ mathbf w_1}\ mathbf w_1\ \ mathbf w_3 & =\ mathbf v_3 - \ frac {\ mathbf v_3\ cdot\ mathbf w_1} {\ mathbf w_1\ cdot\ mathbf w_1}\ mathbf w_1 - \ frac {\ mathbf v_3\ cdot\ mathbf w_2} {\ mathbf w_2\ cdot\ mathbf w_2}\ mathbf w_2\\ &\ vdots \\\ mathbf w_n & =\ mathbf v_n - \ frac {\ mathbf v_n\ cdot\ mathbf w_1} {\ mathbf w_1}\ mathbf w_1 - \ frac {\ mathbf v_n\ cdot\ mathbf w_2} {\ mathbf w_2\ cdot\ mathbf w_2}\ mathbf w_2 - \ ldots - \ frac {\ mathbf v_n\ cdot\ mathbf w_ {n-1}} {\ mathbf w_ {n-1}\ cdot\ mathbf w_ {n-1}}\ mathbf w_ {n-1} \ end {align*}

      formar una base ortogonal para\(W\text{.}\)

    • Podemos escalar cada vector\(\mathbf w_i\) apropiadamente para obtener una base ortonormal\(\mathbf u_1,\mathbf u_2,\ldots,\mathbf u_n\text{.}\)
    • Expresar el algoritmo Gram-Schmidt en forma de matriz muestra que, si las columnas de\(A\) son linealmente independientes, entonces podemos escribir\(A=QR\text{,}\) donde las columnas de\(Q\) forman una base ortonormal para\(\col(A)\) y\(R\) es triangular superior.

    Ejercicios 6.4.4 Ejercicios

    1.

    Supongamos que un subespacio\(W\) de\(\mathbb R^3\) tiene una base formada por

    \ begin {ecuación*} \ mathbf v_1=\ tresvec111,\ hspace {24pt} \ mathbf v_2=\ tresevec1 {-2} {-2}. \ end {ecuación*}
    1. Encuentre una base ortogonal para\(W\text{.}\)
    2. Encuentre una base ortonormal para\(W\text{.}\)
    3. Encuentra la matriz\(P\) que proyecta vectores ortogonalmente en\(W\text{.}\)
    4. Encuentra la proyección ortogonal de\(\threevec34{-2}\) onto\(W\text{.}\)
    2.

    Encuentra la\(QR\) factorización de\ (A=\ begin {bmatrix} 4 & 7\\ -2 & 4\\ 4 & 4 \ end {bmatrix} \ text {.}\)

    3.

    Considerar la base de\(\mathbb R^3\) dada por los vectores

    \ begin {ecuación*} \ mathbf v_1=\ tresevec2 {-2} 2,\ hspace {24pt} \ mathbf v_2=\ threevec {-1} {-3} 1,\ hspace {24pt} \ mathbf v_3=\ threevec {2} 0 {-5}. \ end {ecuación*}

    1. Aplicar el algoritmo de ortogonalización Gram-Schmit para encontrar una base ortonormal\(\mathbf u_1\text{,}\)\(\mathbf u_2\text{,}\)\(\mathbf u_3\) para\(\mathbb R^3\text{.}\)
    2. Si\(A\) es el\(3\times3\) cuyas columnas son\(\mathbf v_1\text{,}\)\(\mathbf v_2\text{,}\) y\(\mathbf v_3\text{,}\) encontrar la\(QR\) factorización de\(A\text{.}\)
    3. Supongamos que queremos resolver la ecuación\(A\mathbf x=\mathbf b = \threevec{-9}17\text{,}\) que podemos reescribir como\(QR\mathbf x = \mathbf b\text{.}\)
      1. Si establecemos\(\yvec=R\mathbf x\text{,}\) explicar por qué la ecuación\(Q\yvec=\mathbf b\) es computacionalmente fácil de resolver.
      2. Explique por qué la ecuación\(R\mathbf x=\yvec\) es computacionalmente fácil de resolver.
      3. Encuentre la solución\(\mathbf x\text{.}\)
    4.

    Considerar los vectores

    \ begin {ecuación*} \ mathbf v_1=\ fivevec1 {-1} {-1} 11,\ hspace {24pt} \ mathbf v_2=\ fivevec2 {1} {4} {-4} 2,\ hspace {24pt} \ mathbf v_3=\ cinco5 {-4} {-3} 71 \ end {ecuación*}

    y el subespacio\(W\) de\(\mathbb R^5\) que abarcan.

    1. Encuentre una base ortonormal para\(W\text{.}\)
    2. Encuentra la\(5\times5\) matriz que proyecta vectores ortogonalmente en\(W\text{.}\)
    3. Encuentra\(\bhat\text{,}\) la proyección ortogonal de\(\mathbf b=\fivevec{-8}3{-12}8{-4}\) onto\(W\text{.}\)
    4. Expresar\(\bhat\) como una combinación lineal de\(\mathbf v_1\text{,}\)\(\mathbf v_2\text{,}\) y\(\mathbf v_3\text{.}\)
    5.

    Considere el conjunto de vectores

    \ begin {ecuación*} \ mathbf v_1=\ tresvec211,\ hspace {24pt} \ mathbf v_2=\ tresvec122,\ hspace {24pt} \ mathbf v_3=\ tresvec300. \ end {ecuación*}
    1. ¿Qué sucede cuando aplicamos el algoritmo de ortogonalización Gram-Schmit?
    2. ¿Por qué el algoritmo no produce una base ortogonal para\(\mathbb R^3\text{?}\)
    6.

    Supongamos que\(A\) es una matriz con columnas linealmente independientes y teniendo la factorización\(A=QR\text{.}\) Determina si las siguientes afirmaciones son verdaderas o falsas y explica tu pensamiento.

    1. De ello se deduce que\(R=Q^TA\text{.}\)
    2. La matriz\(R\) es invertible.
    3. El producto\(Q^TQ\) proyecta vectores ortogonalmente en\(\col(A)\text{.}\)
    4. Las columnas de\(Q\) son una base ortogonal para\(\col(A)\text{.}\)
    5. El complemento ortogonal\ (\ col (A) ^\ perp = \ nul (Q^T)\ text {.}\)

    7.

    Supongamos que tenemos la\(QR\) factorización\(A=QR\text{,}\) donde\(A\) es una\(7\times 4\) matriz.

    1. Cuáles son las dimensiones del producto\(QQ^T\text{?}\) Explique el significado de este producto.
    2. Cuáles son las dimensiones del producto\(Q^TQ\text{?}\) Explique el significado de este producto.
    3. Cuáles son las dimensiones de la matriz\(R\text{?}\)
    4. Si\(R\) es una matriz diagonal, ¿qué se puede decir de las columnas de\(A\text{?}\)
    8.

    Supongamos que tenemos la\(QR\) factorización\(A=QR\) donde están las columnas de\(A\) son\(\avec_1,\avec_2,\ldots,\avec_n\) y las columnas de\(R\)\(\rvec_1,\rvec_2,\ldots,\rvec_n\text{.}\)

    1. ¿Cómo se\(A^TA\) puede expresar el producto matriz en términos de productos dot?
    2. ¿Cómo se\(R^TR\) puede expresar el producto matriz en términos de productos dot?
    3. Explicar por qué\(A^TA=R^TR\text{.}\)
    4. Explica por qué el producto punto\ (\ avec_i\ cdot\ avec_j = \ rvec_i\ cdot\ rvec_j\ text {.}\)


    This page titled 6.4: Encontrar bases ortogonales is shared under a CC BY 4.0 license and was authored, remixed, and/or curated by David Austin via source content that was edited to the style and standards of the LibreTexts platform; a detailed edit history is available upon request.