Saltar al contenido principal
LibreTexts Español

34.2: Descomposiciones

  • Page ID
    115602
  • \( \newcommand{\vecs}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} } \) \( \newcommand{\vecd}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash {#1}}} \)\(\newcommand{\id}{\mathrm{id}}\) \( \newcommand{\Span}{\mathrm{span}}\) \( \newcommand{\kernel}{\mathrm{null}\,}\) \( \newcommand{\range}{\mathrm{range}\,}\) \( \newcommand{\RealPart}{\mathrm{Re}}\) \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\) \( \newcommand{\Argument}{\mathrm{Arg}}\) \( \newcommand{\norm}[1]{\| #1 \|}\) \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\) \( \newcommand{\Span}{\mathrm{span}}\) \(\newcommand{\id}{\mathrm{id}}\) \( \newcommand{\Span}{\mathrm{span}}\) \( \newcommand{\kernel}{\mathrm{null}\,}\) \( \newcommand{\range}{\mathrm{range}\,}\) \( \newcommand{\RealPart}{\mathrm{Re}}\) \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\) \( \newcommand{\Argument}{\mathrm{Arg}}\) \( \newcommand{\norm}[1]{\| #1 \|}\) \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\) \( \newcommand{\Span}{\mathrm{span}}\)\(\newcommand{\AA}{\unicode[.8,0]{x212B}}\)

    Diagonalización como rotación
    Puede visualizar una diagonalización de matriz como una rotación de su eje para alinearlos con los vectores propios de la matriz. (Dominio público; Jacopo Bertolotti vía Wikipedia)

    En álgebra lineal numérica, factorizamos matrices para facilitar cálculos eficientes y/o precisos (también son útiles en pruebas). Hay muchas posibles descomposiciones matriciales. Algunos, por ejemplo, la descomposición propiamente dicha, requieren que la matriz sea cuadrada, mientras que otros, por ejemplo, la\(QR\) factorización, existen para matrices arbitrarias. Entre todas las posibles descomposiciones (también llamadas factorizaciones), algunos ejemplos comunes incluyen:

    • Factorización QR a partir de la ortogonización Gram-Schmidt:
      • \(A = QR\)
      • \(Q\)tiene columnas ortonormales y\(R\) es una matriz triangular superior
      • Si hay cero filas en\(R\), podemos reducir el número de columnas en\(Q\)
      • Existe para matrices arbitrarias
    • Descomposición de LU/LDU por eliminación de Gauss:
      • \(A=LU\)o\(A=LDU\)
      • \(L\)es triangular inferior,\(U\) triangular superior y\(D\) diagonal
      • Existe para todas las matrices cuadradas
      • Está relacionado con la eliminación gaussiana
    • Descomposición Cholesky:
      • \(A=R^{T}R \quad (=LDL^{T})\)
      • \(R\)es triangular superior
      • La factorización de\(A\) into\(R^{T}R\) requiere\(A\) ser simétrica y positivo-definida. Este último simplemente requiere\(x^{T}Ax>0\) para cada uno\(x \in \mathbb{R}^n\). Tenga en cuenta que siempre\(x^{T}Ax\) es un valor escalar (por ejemplo, tenga en cuenta que\(x^TA = y^T\) para algún vector\(y\in\mathbb{R}^n\), y\(y^Tx\) es el producto punto entre\(x\) y\(y\) y, por lo tanto, un escalar real).
    • Descomposición de Schur:
      • \(A = UTU^{T}\)
      • \(U\)es ortogonal y\(T\) es superior triangular
      • Existe para cada matriz cuadrada y dice que cada matriz,\(A\), es unitariamente equivalente a una matriz triangular superior,\(T\) (es decir, existe una base ortonómica con respecto a la cual\(A\) es triangulares superiores)
      • Valores propios en diagonal de\(T\)
    • Descomposición del Valor Singular:
      • \(A = U\Sigma V^{T}\)
      • \(U\)es ortogonal,\(V\) ortogonal y\(\Sigma\) diagonal
      • Existe para matrices arbitrarias
    • Descomposición del valor propio:
      • \(A = X\Lambda X^{-1}\)
      • \(X\)es invertible y\(\Lambda\) es diagonal
      • Existe para matrices cuadradas con columnas linealmente independientes (por ejemplo, rango completo)
      • También llamado el eigendecomposition

    This page titled 34.2: Descomposiciones is shared under a CC BY-NC 4.0 license and was authored, remixed, and/or curated by Dirk Colbry via source content that was edited to the style and standards of the LibreTexts platform; a detailed edit history is available upon request.