Saltar al contenido principal
LibreTexts Español

6.1: Datos básicos sobre problemas de autovalor

  • Page ID
    125063
  • \( \newcommand{\vecs}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} } \)

    \( \newcommand{\vecd}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash {#1}}} \)

    \( \newcommand{\id}{\mathrm{id}}\) \( \newcommand{\Span}{\mathrm{span}}\)

    ( \newcommand{\kernel}{\mathrm{null}\,}\) \( \newcommand{\range}{\mathrm{range}\,}\)

    \( \newcommand{\RealPart}{\mathrm{Re}}\) \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\)

    \( \newcommand{\Argument}{\mathrm{Arg}}\) \( \newcommand{\norm}[1]{\| #1 \|}\)

    \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\)

    \( \newcommand{\Span}{\mathrm{span}}\)

    \( \newcommand{\id}{\mathrm{id}}\)

    \( \newcommand{\Span}{\mathrm{span}}\)

    \( \newcommand{\kernel}{\mathrm{null}\,}\)

    \( \newcommand{\range}{\mathrm{range}\,}\)

    \( \newcommand{\RealPart}{\mathrm{Re}}\)

    \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\)

    \( \newcommand{\Argument}{\mathrm{Arg}}\)

    \( \newcommand{\norm}[1]{\| #1 \|}\)

    \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\)

    \( \newcommand{\Span}{\mathrm{span}}\) \( \newcommand{\AA}{\unicode[.8,0]{x212B}}\)

    \( \newcommand{\vectorA}[1]{\vec{#1}}      % arrow\)

    \( \newcommand{\vectorAt}[1]{\vec{\text{#1}}}      % arrow\)

    \( \newcommand{\vectorB}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} } \)

    \( \newcommand{\vectorC}[1]{\textbf{#1}} \)

    \( \newcommand{\vectorD}[1]{\overrightarrow{#1}} \)

    \( \newcommand{\vectorDt}[1]{\overrightarrow{\text{#1}}} \)

    \( \newcommand{\vectE}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash{\mathbf {#1}}}} \)

    \( \newcommand{\vecs}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} } \)

    \( \newcommand{\vecd}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash {#1}}} \)

    Incluso si una matriz\(\mathbf{A}\) es real, sus vectores propios y valores propios pueden ser complejos. Por ejemplo,

    \[\begin{bmatrix}1&1\\-1&1\end{bmatrix} \begin{bmatrix}1\\i\end{bmatrix} = (1+i) \begin{bmatrix}1\\i\end{bmatrix}.\]

    Los vectores propios no están definidos de manera única. Dado un vector propio\(\vec{x}\), cualquier múltiplo complejo distinto de cero de ese vector es también un vector propio de la misma matriz, con el mismo valor propio. Podemos reducir esta ambigüedad normalizando vectores propios a una longitud unitaria fija:

    \[\sum_{n=0}^{N-1} |x_n|^2 = 1.\]

    Obsérvese, sin embargo, que incluso después de la normalización, todavía existe una ambigüedad inherente en la fase compleja general. Multiplicar un autovector normalizado por cualquier factor de fase\(e^{i\phi}\) da otro autovector normalizado con el mismo valor propio.

    6.1.1 Diagonalización Matriz

    La mayoría de las matrices son diagonalizables, lo que significa que sus vectores propios abarcan el espacio complejo\(N\) -dimensional (donde\(N\) está el tamaño de la matriz). Las matrices que no son diagonalizables se denominan defectuosas. Muchas clases de matrices que son relevantes para la física (como las matrices hermitianas) son siempre diagonalizables; es decir, nunca defectuosas.

    El motivo del término “diagonalizable” es el siguiente. Una\(N\times N\) matriz diagonalizable\(\mathbf{A}\) tiene vectores propios que abarcan el espacio\(N\) -dimensional, lo que significa que podemos elegir vectores propios\(N\) linealmente independientes\(\{\vec{x}_0, \vec{x}_1, \cdots \vec{x}_{N-1}\}\),, con valores propios\(\{\lambda_0, \lambda_1, \cdots \lambda_{N-1}\}\). Nos referimos a un conjunto de\(N\) valores propios como los “valores propios de\(\mathbf{A}\)”. Si agrupamos los vectores propios en una\(N\times N\) matriz

    \[\mathbf{Q} = [\vec{x}_0, \vec{x}_1, \cdots \vec{x}_{N-1}],\]

    entonces, dado que los vectores propios son linealmente independientes,\(\mathbf{Q}\) se garantiza que sean invertibles. Usando la ecuación de valor propio, podemos mostrar que

    \[\mathbf{Q}^{-1} \,\mathbf{A} \, \mathbf{Q} = \begin{bmatrix}\lambda_0 & 0& \cdots & 0 \\ 0 & \lambda_1 & \cdots & 0 \\ \vdots& \vdots & \ddots & \vdots \\ 0&0&\cdots&\lambda_{N-1}\end{bmatrix}.\]

    En otras palabras, existe una transformación de similitud que se\(\mathbf{A}\) convierte en una matriz diagonal. Los\(N\) números a lo largo de la diagonal son precisamente los valores propios de\(\mathbf{A}\).

    6.1.2 El polinomio característico

    Una de las consecuencias más importantes de la diagonalizabilidad es que el determinante de una matriz diagonalizable\(\mathbf{A}\) es el producto de sus valores propios:

    \[\det(\mathrm{A}) = \prod_{n=0}^{N-1} \lambda_n\]

    Esto se puede probar tomando el determinante de la ecuación de transformación de similitud, y usando (i) la propiedad del determinante que\(\det(\mathbf{U}\mathbf{V}) = \det(\mathbf{U})\det(\mathbf{V})\), y (ii) el hecho de que el determinante de una matriz diagonal es el producto de los elementos a lo largo de la diagonal.

    En particular, el determinante de\(\mathbf{A}\) es cero si uno de sus valores propios es cero. Este hecho se puede aplicar adicionalmente a la siguiente reorganización de la ecuación del valor propio:

    \[\Big(\mathbf{A} - \lambda\mathbf{I}\Big) \, \vec{x} = 0,\]

    donde\(\mathbf{I}\) está la matriz\(N\times N\) de identidad. Esto dice que la matriz\(\mathbf{A}-\lambda\mathbf{I}\) tiene un valor propio de cero, lo que significa que para cualquier valor propio\(\lambda\),

    \[\det\left(\mathbf{A} - \lambda\mathbf{I}\right) = 0.\]

    El lado izquierdo de la ecuación anterior es un polinomio en la variable\(\lambda\), de grado\(N\). A esto se le llama el polinomio característico de la matriz\(\mathbf{A}\). Sus raíces son valores propios de\(\mathbf{A}\), y viceversa.

    Para\(2\times 2\) las matrices, la forma estándar de calcular los valores propios es encontrar las raíces del polinomio característico. Sin embargo, este no es un método confiable para encontrar los valores propios de matrices más grandes. Existe un resultado bien conocido e importante en las matemáticas, conocido como teorema de imposibilidad de Abel, que establece que los polinomios de grado\(5\) y superior no tienen solución algebraica general. (En comparación, los polinomios de grado 2 tienen una solución algebraica general, que es la fórmula cuadrática familiar, y existen fórmulas similares para los polinomios de grado 3 y grado 4). Una matriz de tamaño\(N \ge 5\) tiene un polinomio característico de grado\(N \ge 5\), y el teorema de imposibilidad de Abel nos dice que no podemos calcular las raíces de ese polinomio característico por aritmética ordinaria.

    De hecho, el teorema de imposibilidad de Abel lleva a una conclusión aún más fuerte: no existe un método algebraico general para encontrar los valores propios de una matriz de tamaño\(N \ge 5\), ya sea usando el polinomio característico o cualquier otro método. Supongamos que teníamos tal método para encontrar los valores propios de una matriz. Entonces, para cualquier ecuación polinómica de grado\(N \ge 5\), de la forma

    \[a_0 + a_1 \lambda + \cdots + a_{N-1} \lambda^{N-1} + \lambda^N = 0,\]

    podemos construir una\(N\times N\) “matriz compañera” de la forma

    \[\mathbf{A} = \begin{bmatrix}0 & 1 & 0 & \cdots & 0 \\ 0 & 0 & 1& \cdots & 0 \\ \vdots&\vdots&\ddots&\ddots& \vdots \\ 0&0&0&\ddots&1\\-a_0& -a_1& -a_2 & \cdots & -a_{N-1} \end{bmatrix}.\]

    Como puedes comprobar por ti mismo, cada raíz\(\lambda\) del polinomio es también un valor propio de la matriz acompañante, con el correspondiente vector propio

    \[\vec{x} = \begin{bmatrix}1\\\lambda\\ \vdots \\ \lambda^{N-1}\end{bmatrix}.\]

    De ahí que si existe un método algebraico general para encontrar los valores propios de una matriz grande, eso nos permitiría encontrar ecuaciones polinómicas resueltas de alto grado. El teorema de la imposibilidad de Abel nos dice que no puede existir tal método de solución.

    Esto puede parecer un problema terrible, pero de hecho hay una forma de solucionarlo, como veremos en breve.

    6.1.3 Matrices Hermitianas

    Una matriz hermitiana\(\mathbf{H}\) es una matriz que tiene la propiedad

    \[\mathbf{H}^\dagger = \mathbf{H},\]

    donde\(\mathbf{H}^\dagger\) denota el “conjugado hermitiano”, que es transposición de matriz acompañada de conjugación compleja:

    \[\mathbf{H}^\dagger \equiv \left(\mathbf{H}^T\right)^*, \quad \mathrm{i.e.}\;\;\left(H^\dagger\right)_{ij} = H_{ji}^*.\]

    Las matrices hermitianas tienen la propiedad agradable de que todos sus valores propios son reales. Esto se puede probar fácilmente usando notación de índice:

    \[\begin{align}\sum_j H_{ij} x_j = \lambda x_i \;\;&\Rightarrow\;\; \sum_j x_j^* H_{ji} = \lambda^* x_i^*\\ &\Rightarrow \sum_{ij} x^*_i H_{ij} x_j = \lambda \sum_i |x_i|^2 = \lambda^* \sum_j |x_j|^2 \\ &\Rightarrow \lambda = \lambda^*.\end{align}\]

    En la mecánica cuántica, las matrices hermitianas juegan un papel especial: representan operadores de medición, y sus valores propios (que están restringidos a los números reales) son el conjunto de posibles resultados de medición.


    This page titled 6.1: Datos básicos sobre problemas de autovalor is shared under a CC BY-SA 4.0 license and was authored, remixed, and/or curated by Y. D. Chong via source content that was edited to the style and standards of the LibreTexts platform; a detailed edit history is available upon request.