5.3: Matrices simétricas y hermitianas
- Page ID
- 119029
Cuando una matriz real\(A\) es igual a su transposición\(A^{T}=A\),, decimos que la matriz es simétrica. Cuando una matriz compleja\(A\) es igual a su transposición conjugada\(\mathrm{A}^{+}=\mathrm{A}\),, decimos que la matriz es hermitiana.
Una de las razones por las que las matrices simétricas y hermitianas son importantes es porque sus valores propios son reales y sus vectores propios son ortogonales. Dejar\(\lambda_{i}\) y\(\lambda_{j}\) ser valores propios\(x_{i}\) y y\(x_{j}\) vectores propios de la matriz posiblemente compleja A.
\[\mathrm{A} x_{i}=\lambda_{i} x_{i}, \quad \mathrm{~A} x_{j}=\lambda_{j} x_{j} . \nonumber \]
Multiplicando la primera ecuación de la izquierda por\(x_{j}^{\dagger}\), y tomando la transposición conjugada de la segunda ecuación y multiplicando a la derecha por\(x_{i}\), obtenemos
\[x_{j}^{\dagger} \mathrm{A} x_{i}=\lambda_{i} x_{j}^{\dagger} x_{i}, \quad x_{j}^{\dagger} \mathrm{A}^{\dagger} x_{i}=\bar{\lambda}_{j} x_{j}^{\dagger} x_{i} . \nonumber \]
Si\(A\) es hermitiano, entonces\(A^{+}=A\), y restando la segunda ecuación de los primeros rendimientos
\[\left(\lambda_{i}-\bar{\lambda}_{j}\right) x_{j}^{\dagger} x_{i}=0 \nonumber \]
Si\(i=j\), entonces desde entonces\(x_{i}^{\dagger} x_{i}>0\), tenemos\(\bar{\lambda}_{i}=\lambda_{i}\): todos los valores propios son reales. Si\(i \neq j\) y\(\lambda_{i} \neq \lambda_{j}\), entonces\(x_{j}^{\dagger} x_{i}=0\): los vectores propios con valores propios distintos son ortogonales. Por lo general, los vectores propios se hacen ortonormales, y la diagonalización hace uso de matrices unitarias ortogonales reales o complejas.
Ejemplo: Diagonalizar la matriz simétrica
\[\mathrm{A}=\left(\begin{array}{ll} a & b \\ b & a \end{array}\right) \nonumber \]
La ecuación característica de\(\mathrm{A}\) viene dada por
\[(a-\lambda)^{2}=b^{2}, \nonumber \]
con valores propios reales\(\lambda_{1}=a+b\) y\(\lambda_{2}=a-b\). El vector propio con valor propio\(\lambda_{1}\) satisface\(-x_{1}+x_{2}=0\), y el vector propio con autovalor\(\lambda_{2}\) satisface\(x_{1}+x_{2}=0\). Normalizando los vectores propios, tenemos
\[\lambda_{1}=a+b, \mathrm{X}_{1}=\frac{1}{\sqrt{2}}\left(\begin{array}{l} 1 \\ 1 \end{array}\right) ; \quad \lambda_{2}=a-b, \mathrm{X}_{2}=\frac{1}{\sqrt{2}}\left(\begin{array}{r} 1 \\ -1 \end{array}\right) \nonumber \]
Evidentemente, los vectores propios son ortonormales. La diagonalización usando\(\mathrm{A}=\mathrm{Q} \Lambda \mathrm{Q}^{-1}\) viene dada por
\[\left(\begin{array}{ll} a & b \\ b & a \end{array}\right)=\frac{1}{\sqrt{2}}\left(\begin{array}{rr} 1 & 1 \\ 1 & -1 \end{array}\right)\left(\begin{array}{cc} a+b & 0 \\ 0 & a-b \end{array}\right) \frac{1}{\sqrt{2}}\left(\begin{array}{rr} 1 & 1 \\ 1 & -1 \end{array}\right), \nonumber \]
que puede verificarse directamente por multiplicación matricial. La matriz\(Q\) es una matriz ortogonal simétrica para que\(Q^{-1}=Q\).