Saltar al contenido principal
LibreTexts Español

16.3: Matrices especiales

  • Page ID
    87837
  • \( \newcommand{\vecs}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} } \)

    \( \newcommand{\vecd}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash {#1}}} \)

    \( \newcommand{\id}{\mathrm{id}}\) \( \newcommand{\Span}{\mathrm{span}}\)

    ( \newcommand{\kernel}{\mathrm{null}\,}\) \( \newcommand{\range}{\mathrm{range}\,}\)

    \( \newcommand{\RealPart}{\mathrm{Re}}\) \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\)

    \( \newcommand{\Argument}{\mathrm{Arg}}\) \( \newcommand{\norm}[1]{\| #1 \|}\)

    \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\)

    \( \newcommand{\Span}{\mathrm{span}}\)

    \( \newcommand{\id}{\mathrm{id}}\)

    \( \newcommand{\Span}{\mathrm{span}}\)

    \( \newcommand{\kernel}{\mathrm{null}\,}\)

    \( \newcommand{\range}{\mathrm{range}\,}\)

    \( \newcommand{\RealPart}{\mathrm{Re}}\)

    \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\)

    \( \newcommand{\Argument}{\mathrm{Arg}}\)

    \( \newcommand{\norm}[1]{\| #1 \|}\)

    \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\)

    \( \newcommand{\Span}{\mathrm{span}}\) \( \newcommand{\AA}{\unicode[.8,0]{x212B}}\)

    \( \newcommand{\vectorA}[1]{\vec{#1}}      % arrow\)

    \( \newcommand{\vectorAt}[1]{\vec{\text{#1}}}      % arrow\)

    \( \newcommand{\vectorB}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} } \)

    \( \newcommand{\vectorC}[1]{\textbf{#1}} \)

    \( \newcommand{\vectorD}[1]{\overrightarrow{#1}} \)

    \( \newcommand{\vectorDt}[1]{\overrightarrow{\text{#1}}} \)

    \( \newcommand{\vectE}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash{\mathbf {#1}}}} \)

    \( \newcommand{\vecs}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} } \)

    \( \newcommand{\vecd}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash {#1}}} \)

    Introduzcamos ahora algunas matrices especiales que encontraremos frecuentemente en métodos numéricos.

    Matrices diagonales

    Se dice que una matriz cuadrada\(A\) es diagonal si las entradas fuera de la diagonal son cero, i.e.\[A_{i j}=0, \quad i \neq j .\]

    Ejemplo 16.3.1 Matrices diagonales

    Ejemplos de matriz diagonal son\[A=\left(\begin{array}{ll} 1 & 0 \\ 0 & 3 \end{array}\right), \quad B=\left(\begin{array}{ccc} 2 & 0 & 0 \\ 0 & 1 & 0 \\ 0 & 0 & 7 \end{array}\right), \quad \text { and } \quad C=(4) \text {. }\] La matriz de identidad es un caso especial de una matriz diagonal con todas las entradas en la diagonal iguales a 1. Cualquier\(1 \times 1\) matriz es trivialmente diagonal ya que no tiene ninguna entrada fuera de diagonal.

    Matrices simétricas

    \(A\)Se dice que una matriz cuadrada es simétrica si las entradas fuera de la diagonal son simétricas alrededor de la diagonal, es decir,\[A_{i j}=A_{j i}, \quad i=1, \ldots, m, \quad j=1, \ldots, m .\] La declaración equivalente\(A\) es que no se cambia por la operación de transposición, es decir\[A^{\mathrm{T}}=A .\] Observamos que la matriz de identidad es un caso especial de matriz simétrica. Veamos algunos ejemplos más.

    Ejemplo 16.3.2 Matrices simétricas

    Ejemplos de matrices simétricas son\[A=\left(\begin{array}{cc} 1 & -2 \\ -2 & 3 \end{array}\right), \quad B=\left(\begin{array}{ccc} 2 & \pi & 3 \\ \pi & 1 & -1 \\ 3 & -1 & 7 \end{array}\right), \quad \text { and } \quad C=(4)\] Tenga en cuenta que cualquier escalar, o una\(1 \times 1\) matriz, es trivialmente simétrica y sin cambios bajo transposición.

    Matrices definidas positivas simétricas

    \(A\)Se dice que una matriz\(m \times m\) cuadrada es simétrica positiva definida (SPD) si es simétrica y además satisface\[v^{\mathrm{T}} A v>0, \quad \forall v \in \mathbb{R}^{m}(v \neq 0) .\] Antes de discutir sus propiedades, demos un ejemplo de una matriz SPD.

    Ejemplo 16.3.3 Matrices definidas positivas simétricas

    Un ejemplo de una matriz definida positiva simétrica es\[A=\left(\begin{array}{cc} 2 & -1 \\ -1 & 2 \end{array}\right) \text {. }\] Podemos confirmar que\(A\) es simétrica por inspección. Para comprobar si\(A\) es positivo definido, consideremos la forma cuadrática\[\begin{aligned} q(v) & \equiv v^{\mathrm{T}} A v=\sum_{i=1}^{2} v_{i}\left(\sum_{j=1}^{2} A_{i j} v_{j}\right)=\sum_{i=1}^{2} \sum_{j=1}^{2} A_{i j} v_{i} v_{j} \\ &=A_{11} v_{1}^{2}+A_{12} v_{1} v_{2}+A_{21} v_{2} v_{1}+A_{22} v_{2}^{2} \\ &=A_{11} v_{1}^{2}+2 A_{12} v_{1} v_{2}+A_{22} v_{2}^{2} \end{aligned}\] donde la última igualdad se desprende de la condición de simetría\(A_{12}=A_{21}\). Sustituyendo las entradas de\(A\),\[q(v)=v^{\mathrm{T}} A v=2 v_{1}^{2}-2 v_{1} v_{2}+2 v_{2}^{2}=2\left[\left(v_{1}-\frac{1}{2} v_{2}\right)^{2}-\frac{1}{4} v_{2}^{2}+v_{2}^{2}\right]=2\left[\left(v_{1}-\frac{1}{2} v_{2}\right)^{2}+\frac{3}{4} v_{2}^{2}\right]\] Porque\(q(v)\) es una suma de dos términos positivos (cada uno al cuadrado), es no negativo. Es igual a cero solo si\[v_{1}-\frac{1}{2} v_{2}=0 \quad \text { and } \quad \frac{3}{4} v_{2}^{2}=0 .\] La segunda condición requiere\(v_{2}=0\), y la primera condición con\(v_{2}=0\) requiere\(v_{1}=0\). Así, tenemos\[q(v)=v^{\mathrm{T}} A v>0, \quad \forall v \in \mathbb{R}^{2},\] y\(v^{\mathrm{T}} A v=0\) si\(v=0\). Así\(A\) es simétrico positivo definido.

    Las matrices definidas positivas simétricas se encuentran en muchas áreas de la ingeniería y la ciencia. Surgen naturalmente en la solución numérica de, por ejemplo, la ecuación de calor, la ecuación de onda y las ecuaciones de elasticidad lineal. Una propiedad importante de las matrices definidas positivas simétricas es que siempre son invertibles:\(A^{-1}\) siempre existe. Así, si\(A\) es una matriz SPD, entonces, para cualquiera\(b\), siempre hay una única\(x\) tal que\[A x=b .\] en una unidad posterior, discutiremos técnicas para solución de sistemas lineales, como el anterior. Por ahora, solo notamos que existen técnicas particularmente eficientes para resolver el sistema cuando la matriz es simétrica positiva definida.

    Matrices Triangulares

    Las matrices triangulares son matrices cuadradas cuyas entradas son todas ceros ya sea por debajo o por encima de la diagonal. Se dice que una matriz\(m \times m\) cuadrada es triangular superior si todas las entradas por debajo de la diagonal son cero, es decir\[A_{i j}=0, \quad i>j .\] Una matriz cuadrada se dice que es triangular inferior si todas las entradas por encima de la diagonal son cero, es decir\[A_{i j}=0, \quad j>i .\] Veremos más adelante que un sistema lineal,\(A x=b\), en el que \(A\)es una matriz triangular es particularmente fácil de resolver. Además, se garantiza que el sistema lineal tiene una solución única siempre que todas las entradas diagonales sean distintas de cero.

    Ejemplo 16.3.4 Matrices triangulares

    Ejemplos de matrices triangulares superiores son\[A=\left(\begin{array}{cc} 1 & -2 \\ 0 & 3 \end{array}\right) \quad \text { and } \quad B=\left(\begin{array}{ccc} 1 & 0 & 2 \\ 0 & 4 & 1 \\ 0 & 0 & -3 \end{array}\right)\] Ejemplos de matrices triangulares inferiores son\[C=\left(\begin{array}{cc} 1 & 0 \\ -7 & 6 \end{array}\right) \quad \text { and } \quad D=\left(\begin{array}{ccc} 2 & 0 & 0 \\ 7 & -5 & 0 \\ 3 & 1 & 4 \end{array}\right)\]

    Comenzar material avanzado

    Matrices ortogonales

    Se dice que una matriz\(m \times m\) cuadrada\(Q\) es ortogonal si sus columnas forman un conjunto ortonormal. Es decir, si denotamos la\(j\) -ésima columna de\(Q\) by\(q_{j}\), tenemos\[Q=\left(\begin{array}{llll} q_{1} & q_{2} & \cdots & q_{m} \end{array}\right),\] donde las matrices\[q_{i}^{\mathrm{T}} q_{j}=\left\{\begin{array}{ll} 1, & i=j \\ 0, & i \neq j \end{array} .\right.\] ortogonales tienen una propiedad especial\[Q^{\mathrm{T}} Q=I .\] Esta relación se deriva directamente del hecho de que las columnas de\(Q\) forman un conjunto ortonormal. Recordemos que la\(i j\) entrada de\(Q^{\mathrm{T}} Q\) es el producto interno de la\(i\) -ésima fila de\(Q^{\mathrm{T}}\) (que es la\(i\) -ésima columna de\(Q)\) y la\(j\) -ésima columna de \(Q\). Así,\[\left(Q^{\mathrm{T}} Q\right)_{i j}=q_{i}^{\mathrm{T}} q_{j}=\left\{\begin{array}{ll} 1, & i=j \\ 0, & i \neq j \end{array},\right.\] que es la definición de la matriz de identidad. Las matrices ortogonales también satisfacen\[Q Q^{\mathrm{T}}=I,\] lo que de hecho es un milagro menor.

    Ejemplo 16.3.5 Matrices ortogonales

    Ejemplos de matrices ortogonales son\[Q=\left(\begin{array}{cc} 2 / \sqrt{5} & -1 / \sqrt{5} \\ 1 / \sqrt{5} & 2 / \sqrt{5} \end{array}\right) \text { and } I=\left(\begin{array}{cc} 1 & 0 \\ 0 & 1 \end{array}\right)\] Podemos verificar fácilmente que las columnas de la matriz\(Q\) son ortogonales entre sí y cada una es de longitud unitaria. Así,\(Q\) es una matriz ortogonal. También podemos confirmarlo directamente\(Q^{\mathrm{T}} Q=Q Q^{\mathrm{T}}=I\). Del mismo modo, la matriz de identidad es trivialmente ortogonal.

    Discutamos algunas propiedades importantes de las matrices ortogonales. Primero, la acción por una matriz ortogonal preserva la norma 2 de un vector, es decir\[\|Q x\|_{2}=\|x\|_{2}, \quad \forall x \in \mathbb{R}^{m} .\] Esto se desprende directamente de la definición de 2-norma y el hecho de que\(Q^{\mathrm{T}} Q=I\), es decir,\[\|Q x\|_{2}^{2}=(Q x)^{\mathrm{T}}(Q x)=x^{\mathrm{T}} Q^{\mathrm{T}} Q x=x^{\mathrm{T}} I x=x^{\mathrm{T}} x=\|x\|_{2}^{2} .\] Segundo, las matrices ortogonales son siempre invertibles. De hecho, resolver un sistema lineal definido por una matriz ortogonal es trivial porque\[Q x=b \quad \Rightarrow \quad Q^{\mathrm{T}} Q x=Q^{\mathrm{T}} b \quad \Rightarrow \quad x=Q^{\mathrm{T}} b .\] al considerar los espacios lineales, observamos que una base proporciona una descripción única de los vectores\(V\) en términos de los coeficientes. Como columnas de\(Q\) forma un conjunto ortonormal de\(m m\) -vectores, se puede considerar como una base de\(\mathbb{R}^{m}\). Al resolver\(Q x=b\), estamos encontrando la representación de\(b\) en coeficientes de\(\left\{q_{1}, \ldots, q_{m}\right\}\). Así, la operación por\(Q^{\mathrm{T}}\) (o\(Q\)) representa una simple transformación de coordenadas. Solidifiquemos esta idea mostrando que una matriz de rotación en\(\mathbb{R}^{2}\) es una matriz ortogonal.

    Ejemplo 16.3.6 Matriz de rotación

    La rotación de un vector equivale a representar el vector en un sistema de coordenadas giradas. Una matriz de rotación que gira un vector en\(\mathbb{R}^{2}\) por ángulo\(\theta\) es\[R(\theta)=\left(\begin{array}{cc} \cos (\theta) & -\sin (\theta) \\ \sin (\theta) & \cos (\theta) \end{array}\right) .\] Verifiquemos que la matriz de rotación es ortogonal para cualquiera\(\theta\). Las dos columnas son ortogonales porque\[r_{1}^{\mathrm{T}} r_{2}=\left(\begin{array}{cc} \cos (\theta) & \sin (\theta) \end{array}\right)\left(\begin{array}{c} -\sin (\theta) \\ \cos (\theta) \end{array}\right)=-\cos (\theta) \sin (\theta)+\sin (\theta) \cos (\theta)=0, \quad \forall \theta .\] Cada columna es de longitud unitaria porque\[\begin{aligned} &\left\|r_{1}\right\|_{2}^{2}=(\cos (\theta))^{2}+(\sin (\theta))^{2}=1 \\ &\left\|r_{2}\right\|_{2}^{2}=(-\sin (\theta))^{2}+(\cos (\theta))^{2}=1, \quad \forall \theta . \end{aligned}\] Así, las columnas de la matriz de rotación son ortonormales, y la matriz es ortogonal. Este resultado verifica que la acción de la matriz ortogonal representa una transformación de coordenadas en\(\mathbb{R}^{2}\). La interpretación de una matriz ortogonal como una transformación de coordenadas se extiende fácilmente a espacios de dimensiones superiores.

    Matrices Ortonormales

    Definamos matrices ortonormales para que sean\(m \times n\) matrices cuyas columnas forman un conjunto ortonormal, es decir,\[Q=\left(\begin{array}{llll} q_{1} & q_{2} & \cdots & q_{n} \end{array}\right),\] con\[q_{i}^{\mathrm{T}} q_{j}= \begin{cases}1, & i=j \\ 0, & i \neq j .\end{cases}\] Note que, a diferencia de una matriz ortogonal, no requerimos que la matriz sea cuadrada. Al igual que las matrices ortogonales, tenemos\[Q^{\mathrm{T}} Q=I,\] donde\(I\) es una\(n \times n\) matriz. La prueba es idéntica a la de la matriz ortogonal. Sin embargo,\(Q Q^{\mathrm{T}}\) no arroja una matriz de identidad,\[Q Q^{\mathrm{T}} \neq I\] a menos que por supuesto\(m=n\).

    Ejemplo 16.3.7 Matrices ortonormales

    Un ejemplo de una matriz ortonormal es\[Q=\left(\begin{array}{cc} 1 / \sqrt{6} & -2 / \sqrt{5} \\ 2 / \sqrt{6} & 1 / \sqrt{5} \\ 1 / \sqrt{6} & 0 \end{array}\right)\] Podemos verificar eso\(Q^{\mathrm{T}} Q=I\) porque\[Q^{\mathrm{T}} Q=\left(\begin{array}{ccc} 1 / \sqrt{6} & 2 / \sqrt{6} & 1 / \sqrt{6} \\ -2 / \sqrt{5} & 1 / \sqrt{5} & 0 \end{array}\right)\left(\begin{array}{cc} 1 / \sqrt{6} & -2 / \sqrt{5} \\ 2 / \sqrt{6} & 1 / \sqrt{5} \\ 1 / \sqrt{6} & 0 \end{array}\right)=\left(\begin{array}{cc} 1 & 0 \\ 0 & 1 \end{array}\right)\] Sin embargo,\(Q Q^{\mathrm{T}} \neq I\) porque\[Q Q^{\mathrm{T}}=\left(\begin{array}{cc} 1 / \sqrt{6} & -2 / \sqrt{5} \\ 2 / \sqrt{6} & 1 / \sqrt{5} \\ 1 / \sqrt{6} & 0 \end{array}\right)\left(\begin{array}{ccc} 1 / \sqrt{6} & 2 / \sqrt{6} & 1 / \sqrt{6} \\ -2 / \sqrt{5} & 1 / \sqrt{5} & 0 \end{array}\right)=\left(\begin{array}{ccc} 29 / 30 & -1 / 15 & 1 / 6 \\ -1 / 15 & 13 / 15 & 1 / 3 \\ 1 / 6 & 1 / 3 & 1 / 6 \end{array}\right)\]

    Material Avanzado


    This page titled 16.3: Matrices especiales is shared under a CC BY-NC-SA 4.0 license and was authored, remixed, and/or curated by Masayuki Yano, James Douglass Penn, George Konidaris, & Anthony T Patera (MIT OpenCourseWare) via source content that was edited to the style and standards of the LibreTexts platform; a detailed edit history is available upon request.