2.2: Álgebra lineal
( \newcommand{\kernel}{\mathrm{null}\,}\)
Introducción
Hemos visto que en la mecánica cuántica, el estado de un electrón en algún potencial viene dado por una función de ondaψ(→x,t), y las variables físicas son representadas por operadores en esta función de onda, como el impulso en la dirección xpx=−iℏ∂/∂x. La ecuación de onda de Schrödinger es una ecuación lineal, lo que significa que siψ1 yψ2 son soluciones, entonces así esc1ψ1+c2ψ2, dondec1,c2 están los números complejos arbitrarios.
Esta linealidad de los conjuntos de posibles soluciones es cierta generalmente en la mecánica cuántica, al igual que la representación de las variables físicas por parte de los operadores sobre las funciones de onda. La estructura matemática que esto describe, el conjunto lineal de estados posibles y conjuntos de operadores en esos estados, es de hecho un álgebra lineal de operadores que actúan sobre un espacio vectorial. A partir de ahora, este es el lenguaje que usaremos la mayor parte del tiempo. Para aclarar, daremos algunas definiciones.
¿Qué es un Espacio Vectorial?
El espacio vectorial prototípico es, por supuesto, el conjunto de vectores reales en el espacio tridimensional ordinario, estos vectores pueden ser representados por tríos de números reales que(v1,v2,v3) miden los componentes en las direcciones x, y y z respectivamente.
Las propiedades básicas de estos vectores son:
- cualquier vector multiplicado por un número es otro vector en el espacio,a(v1,v2,v3)=(av1,av2,av3);
- la suma de dos vectores es otro vector en el espacio, que se da simplemente sumando los componentes correspondientes:(v1+w1,v2+w2,v3+w3).
Estas dos propiedades juntas se denominan “cierre”: sumar vectores y multiplicarlos por números no puede sacarte del espacio.
- Una propiedad adicional es que hay un vector nulo único(0,0,0) y cada vector tiene una inversa aditiva(−v1,−v2,−v3) que sumada al vector original da el vector nulo.
Los matemáticos han generalizado la definición de un espacio vectorial: un espacio vectorial general tiene las propiedades que hemos enumerado anteriormente para vectores reales tridimensionales, pero las operaciones de suma y multiplicación por un número se generalizan a operaciones más abstractas entre entidades más generales. Sin embargo, los operadores están restringidos a ser conmutativos y asociativos.
Observe que la lista de propiedades necesarias para un espacio vectorial general no incluye que los vectores tengan una magnitud, eso sería un requisito adicional, dando lo que se llama un espacio vectorial normado. Más sobre eso más tarde.
Para pasar del espacio vectorial tridimensional familiar a los espacios vectoriales relevantes para la mecánica cuántica, primero los números reales (componentes del vector y posibles factores multiplicadores) deben generalizarse a números complejos, y segundo el vector de tres componentes va a un vector de n componentes. El consiguiente espacio complejo n-dimensional es suficiente para describir la mecánica cuántica del momento angular, un tema importante. Pero para describir la función de onda de una partícula en una caja se requiere un espacio dimensional infinito, una dimensión para cada componente de Fourier, y para describir la función de onda para una partícula en una línea infinita requiere el conjunto de todas las funciones diferenciables continuas normalizables en esa línea. Afortunadamente, todas estas generalizaciones son conjuntos finitos o infinitos de números complejos, por lo que los requisitos de espacio vectorial de conmutatividad y asociatividad de los matemáticos siempre se satisfacen trivialmente.
Usamos la notación de Dirac para los vectores,|1⟩,|2⟩ y los llamamos “kets”, entonces, en su idioma, si|1⟩,|2⟩ pertenecen al espacio, también lo hacec1|1⟩+c2|2⟩ para constantes complejas arbitrariasc1,c2. Dado que nuestros vectores están formados por números complejos, multiplicar cualquier vector por cero da el vector nulo, y la inversa aditiva se da invirtiendo los signos de todos los números en el vector.
Claramente, el conjunto de soluciones de la ecuación de Schrödinger para un electrón en un potencial satisface los requisitos para un espacio vectorial:ψ(→x,t) es solo un número complejo en cada punto del espacio, por lo que solo los números complejos están involucrados en la formaciónc1ψ1+c2ψ2, y la conmutatividad, asociatividad, etc., siguen a la vez.
Dimensionalidad del espacio vectorial
Los vectores|1⟩,|2⟩,|3⟩ son linealmente independientes sic1|1⟩+c2|2⟩+c3|3⟩=0
implicac1=c2=c3=0
Un espacio vectorial es n-dimensional si el número máximo de vectores linealmente independientes en el espacio es n.
A ese espacio se le suele llamarVn(C), oVn(R) si solo se utilizan números reales.
Ahora, los espacios vectoriales con dimensión finita n son claramente insuficientes para describir funciones de una variable continua x. Pero bien vale la pena revisarlas aquí: como hemos mencionado, están bien para describir el momento angular cuantificado, y sirven como una introducción natural a los espacios infinito-dimensionales necesarios para describir las funciones de onda espaciales.
Un conjunto de n vectores linealmente independientes en el espacio n -dimensional es una base; cualquier vector puede escribirse de una manera única como una suma sobre una base:|V⟩=∑vi|i⟩
Se puede comprobar la singularidad tomando la diferencia entre dos sumas supuestamente distintas: será una relación lineal entre vectores independientes, una contradicción.
Dado que todos los vectores en el espacio pueden escribirse como sumas lineales sobre los elementos de la base, la suma de múltiplos de dos vectores cualesquiera tiene la forma:a|V⟩+b|W⟩=∑(avi+bwi)|i⟩
Espacios interiores de productos
Los espacios vectoriales de relevancia en la mecánica cuántica también tienen una operación que asocia un número con un par de vectores, una generalización del producto puntual de dos vectores tridimensionales ordinarios,→a,→b=∑aibi
Siguiendo Dirac, escribimos el producto interno de dos vectores ket|V⟩,|W⟩ como⟨W|V⟩. Dirac se refiere a esta⟨|⟩ forma como un “soporte” compuesto por un “sujetador” y un “ket”. Esto significa que cada vector ket|V⟩ tiene un sujetador asociado⟨V|. Para el caso de un vector n-dimensional real,|V⟩,⟨V| son idénticos, pero requerimos para el caso más general que⟨W|V⟩=⟨V|W⟩∗
donde∗ denota conjugado complejo. Esto implica que para un ket(v1,...,vn) el sujetador será(v∗1,...,v∗n). (En realidad, los sostenes suelen escribirse como filas, kets como columnas, de manera que el producto interno sigue las reglas estándar para la multiplicación matricial). Evidentemente para el vector complejo n-dimensional⟨V|V⟩ es real y positivo excepto para el vector nulo:
⟨V|V⟩=n∑1|vi|2
Para los espacios internos de producto más generales considerados posteriormente requerimos⟨V|V⟩ ser positivos, excepto para el vector nulo. (Estos requisitos sí restringen las clases de espacios vectoriales que estamos considerando, sin métrica de Lorentz, por ejemplo, pero todos están satisfechos por los espacios relevantes para la mecánica cuántica no relativista).
La norma de|V⟩ se define entonces por|V|=√⟨V|V⟩
Si|V⟩ es miembro deVn(C), así esa|V⟩, para cualquier número complejoa.
Requerimos que la operación interna del producto se conmute con multiplicación por un número, así
⟨W|(a|V⟩)=a⟨W|V⟩
El complejo conjugado del lado derecho esa∗⟨V|W⟩. Para mayor consistencia, el sujetador correspondiente al keta|V⟩ debe ser,⟨V|a∗ en todo caso obvio a partir de la definición del sujetador en n dimensiones complejas dadas anteriormente.
De ello se deduce que si|V⟩=∑vi|i⟩,|W⟩=∑wi|i⟩,then⟨V|W⟩=∑v∗iwj⟨i|j⟩
Construyendo una base ortonormal: el proceso Gram-Schmidt
Para tener algo que se asemeje mejor al producto punto estándar de tres vectores ordinarios⟨i|j⟩=δij, necesitamos, es decir, necesitamos construir una base ortonormal en el espacio. Hay un procedimiento sencillo para hacer esto llamado proceso Gram-Schmidt. Comenzamos con un conjunto linealmente independiente de vectores base,|1⟩,|2⟩,|3⟩,....
Primero normalizamos dividiéndolo|1⟩ por su norma. Llame al vector normalizado|I⟩. Ahora|2⟩ no puede ser paralelo a|I⟩, porque la base original era de vectores linealmente independientes, pero|2⟩ en general tiene un componente distinto de cero paralelo a|I⟩, igual a|I⟩⟨I|2⟩, ya que|I⟩ se normaliza. Por lo tanto, el vector|2⟩−|I⟩⟨I|2⟩ es perpendicular a|I⟩, como se verifica fácilmente. También es fácil calcular la norma de este vector, y dividirlo por él para obtener|II⟩, el segundo miembro de la base ortonormal. A continuación, tomamos|3⟩ y restamos sus componentes en las direcciones|I⟩ y|II⟩, normalizamos el resto, y así sucesivamente.
En un espacio n-dimensional, habiendo construido una base ortonormal con miembros|i⟩, cualquier vector|V⟩ puede escribirse como vector de columna,|V⟩=∑vi|i⟩=(v1v2..vn),where|1⟩=(10..0)andsoon.
El sujetador correspondiente es⟨V|=∑v∗i⟨i|, que escribimos como un vector de fila con los elementos complejos conjugados,⟨V|=(v∗1,v∗2,...v∗n). Esta operación, pasando de columnas a filas y tomando el conjugado complejo, se llama tomar el adjunto, y también se puede aplicar a matrices, como veremos en breve.
La razón para representar el sujetador como una fila es que el producto interno de dos vectores se da entonces por la multiplicación de matriz estándar:⟨V|W⟩=(v∗1,v∗2,...,v∗n)(w1..wn)
(Por supuesto, esto sólo funciona con una base ortonormal).
La desigualdad de Schwartz
La desigualdad de Schwartz es la generalización a cualquier espacio interno del producto del resultado|→a,→b|2≤|→a|2|→b|2 (ocos2θ≤1) para vectores tridimensionales ordinarios. El signo de igualdad en ese resultado sólo se mantiene cuando los vectores son paralelos. Para generalizar a dimensiones superiores, uno podría simplemente notar que dos vectores están en un subespacio bidimensional, pero una manera iluminadora de entender la desigualdad es escribir el vector→a como una suma de dos componentes, uno paralelo→b y otro perpendicular a→b. El componente paralelo a→b es justo→b(→a⋅→b)/|→b|2, por lo que el componente perpendicular a→b es el vector→a⊥=→a−→b(→a⋅→b)/|→b|2. Sustituyendo esta expresión en→a⊥⋅→a⊥≥0, sigue la desigualdad.
Este mismo punto se puede hacer en un espacio general de producto interno: si|V⟩,|W⟩ son dos vectores, entonces|Z⟩=|V⟩−|W⟩⟨W|V⟩|W|2
es el componente de|V⟩ perpendicular a|W⟩, ya que se comprueba fácilmente tomando su producto interno con|W⟩.
Entonces⟨Z|Z⟩≥0givesimmediately|⟨V|W⟩|2≤|V|2|W|2
Operadores Lineales
Un operador lineal A toma cualquier vector en un espacio vectorial lineal a un vector en ese espacio,A|V⟩=|V′⟩ y satisfaceA(c1|V1⟩+c2|V2⟩)=c1A|V1⟩+c2A|V2⟩
conc1, constantes complejasc2 arbitrarias.
El operador de identidadI es (¡obviamente!) definido por:I|V⟩=|V⟩forall|V⟩
Para un espacio vectorial n-dimensional con una base ortonormal|1⟩,...,|n⟩, dado que cualquier vector en el espacio se puede expresar como una suma|V⟩=∑vi|i⟩, el operador lineal está completamente determinado por su acción sobre los vectores base, esto es todo lo que necesitamos saber. Es fácil encontrar una expresión para el operador de identidad en términos de sostenes y kets.
Tomando el producto interno de ambos lados de la ecuación|V⟩=∑vi|i⟩ con el sujetador⟨i| da⟨i|V⟩=vi, así|V⟩=∑vi|i⟩=∑|i⟩⟨i|V⟩
Dado que esto es cierto para cualquier vector en el espacio, se deduce que el operador de identidad es justoI=n∑1|i⟩⟨i|
Este es un resultado importante: reaparecerá en muchos disfraces.
Para analizar la acción de un operador lineal generalA, solo necesitamos saber cómo actúa sobre cada vector base. Empezando conA|1⟩, esto debe ser alguna suma sobre los vectores base, y como son ortonormales, el componente en la|i⟩ dirección debe ser justo⟨i|A|1⟩.
Es decir,A|1⟩=n∑1|i⟩⟨i|A|1⟩=n∑1Ai1|i⟩,writing⟨i|A|1⟩=Ai1
Entonces si el operador lineal A que actúa sobre|V⟩=∑vi|i⟩ da|V′⟩=∑v′i|i⟩, es decirA|V⟩=|V′⟩, la linealidad nos dice que∑v′i|i⟩=|V′⟩=A|V⟩=∑vjA|j⟩=∑i,jvj|i⟩⟨i|A|j⟩=∑i,jvjAij|i⟩
donde en el cuarto paso acabamos de insertar el operador de identidad.
Dado que|i⟩ los s son todos ortogonales, el coeficiente de un particular|i⟩ en el lado izquierdo de la ecuación debe ser idéntico al coeficiente de la misma|i⟩ en el lado derecho. Es decir,v′i=Aijvj.
Por lo tanto, el operadorA es simplemente equivalente a la multiplicación matricial:
(v′1v′2..v′n)=(⟨1|A|1⟩⟨1|A|2⟩..⟨1|A|n⟩⟨2|A|1⟩⟨2|A|2⟩.............⟨n|A|1⟩⟨n|A|2⟩..⟨n|A|n⟩)(v1v2..vn)
Evidentemente, entonces, aplicar dos operadores lineales uno tras otro equivale a la multiplicación matricial sucesiva y, por lo tanto, ya que las matrices en general no conmutan, ni los operadores lineales. (Por supuesto, si esperamos representar variables cuánticas como operadores lineales en un espacio vectorial, esto tiene que ser cierto: ¡el operador de impulsop=−iℏd/dx ciertamente no viaja con x!)
Operadores de Proyección
Es importante señalar que un operador lineal aplicado sucesivamente a los miembros de una base ortonormal podría dar un nuevo conjunto de vectores que ya no abarcan todo el espacio. Para dar un ejemplo, el operador lineal|1⟩⟨1| aplicado a cualquier vector en el espacio selecciona el componente del vector en la|1⟩ dirección. Se llama operador de proyección. El operador(|1⟩⟨1|+|2⟩⟨2|) proyecta un vector en sus componentes en el subespacio abarcado por los vectores|1⟩ y|2⟩, y así sucesivamente-si extendemos la suma para que sea sobre toda la base, recuperamos el operador de identidad.
Ejercicio: demostrar que la representación matricial del operador de proyección(|1⟩⟨1|+|2⟩⟨2|) tiene todos los elementos cero excepto los dos primeros elementos diagonales, que son iguales a uno.
No puede haber operador inverso a un operador de proyección no trivial, ya que se pierde la información sobre los componentes del vector perpendiculares al subespacio proyectado.
El operador adjunto y las matrices hermitianas
Como hemos comentado, si un ket|V⟩ en el espacio n-dimensional se escribe como un vector de columna con componentesn (complejos), el sujetador correspondiente es un vector de fila que tiene como elementos los conjugados complejos de los elementos ket. ⟨W|V⟩=⟨V|W⟩∗luego se sigue automáticamente de las reglas de multiplicación matricial estándar, y al multiplicar|V⟩ por un número complejoa para obtenera|V⟩ (es decir, que cada elemento en la columna de números se multiplica pora) el sujetador correspondiente va a⟨V|a∗=a∗⟨V|.
Pero supongamos que en vez de multiplicar un ket por un número, operamos sobre él con un operador lineal. ¿Qué genera la transformación paralela entre los sostenes? Es decir, siA|V⟩=|V′⟩, ¿⟨V|a qué operador envía el sostén⟨V′|? Debe ser un operador lineal, porqueA es lineal, es decir, si bajoA|V1⟩→|V′1⟩,|V2⟩→|V′2⟩ y|V3⟩=|V1⟩+|V2⟩, entoncesA|V3⟩ se requiere bajo para llegar a|V′3⟩=|V′1⟩+|V′2⟩. En consecuencia, bajo la transformación paralela del sujetador debemos tener⟨V1|→⟨V′1|,⟨V2|→⟨V′2| y⟨V3|→⟨V′3|, —la transformación del sujetador es necesariamente también lineal. Recordando que el sujetador es un vector de fila de n elementos, la transformación lineal más general que lo envía a otro sujetador es unan×n matriz que opera sobre el sujetador desde la derecha.
Este operador de sujetador se llama el adjunto deA, escritoA†. Es decir, el ketA|V⟩ tiene sujetador correspondiente⟨V|A†. En base ortonormal, utilizando la notación⟨Ai| para denotar el sostén⟨i|A† correspondiente al ketA|i⟩=|Ai⟩, digamos,(A†)ij=⟨i|A†|j⟩=⟨Ai|j⟩=⟨j|Ai⟩∗=A∗ji
Entonces el operador adjunto es el conjugado complejo de transposición.
Importante: para un producto de dos operadores (¡demuéstralo!) ,(AB)†=B†A†
Un operador igual a su colindanteA=A† se llama Hermitiano. Como veremos en la próxima conferencia, los operadores hermitianos son de importancia central en la mecánica cuántica. Un operador igual a menos su adjunto,A=−A†, es anti hermitiano (a veces denominado sesgo hermitiano). Estos dos tipos de operadores son esencialmente generalizaciones de número real e imaginario: cualquier operador puede expresarse como una suma de un operador hermitiano y un operador anti hermitiano,A=12(A+A†)+12(A−A†)
La definición de adjunto se extiende naturalmente a vectores y números: la unión de un ket es el sujetador correspondiente, la unión de un número es su complejo conjugado. Esto es útil a tener en cuenta a la hora de tomar el conjunto de un operador que puede estar parcialmente construido de vectores y números, tales como operadores de tipo proyección. La unión de un producto de matrices, vectores y números es el producto de las uniones en orden inverso. (Por supuesto, para los números el orden no importa.)
Operadores Unitarios
Un operador es unitario siU†U=1. Esto implica primero queU operar sobre cualquier vector da un vector que tenga la misma norma, ya que la nueva norma⟨V|U†U|V⟩=⟨V|V⟩. Además, se conservan los productos internos,⟨W|U†U|V⟩=⟨W|V⟩. Por lo tanto, bajo una transformación unitaria la base ortonormal original en el espacio debe ir a otra base ortonormal.
Por el contrario, cualquier transformación que tome una base ortonormal en otra es una transformación unitaria. Para ver esto, supongamos que una transformación linealA envía los miembros de la base ortonormal(|1⟩1,|2⟩1,...,|n⟩1) al conjunto ortonormal diferente(|1⟩2,|2⟩2,...,|n⟩2)A|1⟩1=|1⟩2, así, etc. entonces el vector|V⟩=∑vi|i⟩1 irá a|V′⟩=A|V⟩=∑vi|i⟩2, teniendo la misma norma,⟨V′|V′⟩=⟨V|V⟩=∑|vi|2. Un elemento matricial⟨W′|V′⟩=⟨W|V⟩=∑w∗ivi, pero también⟨W′|V′⟩=⟨W|A†A|V⟩. Es decir,⟨W|V⟩=⟨W|A†A|V⟩ para kets arbitrarios|V⟩,|W⟩. Esto sólo es posible siA†A=1, asíA es unitario.
Una operación unitaria equivale a una rotación (posiblemente combinada con una reflexión) en el espacio. EvidentementeU†U=1, ya que, lo contiguoU† gira la base hacia atrás, es la operación inversa, y asíUU†=1 también, es decir,U yU† conmutar.
Determinantes
Revisamos en esta sección el determinante de una matriz, una función estrechamente relacionada con las propiedades del operador de la matriz.
Empecemos con2×2 matrices:A=(a11a12a21a22)
El determinante de esta matriz se define por:detA=|A|=a11a22−a12a21
Escribiendo las dos filas de la matriz como vectores:→aR1=(a11,a12)→aR2=(a21,a22)
(Rdenota fila),detA=→aR1×→aR2 es solo el área (con signo apropiado) del paralelogramo que tiene los dos vectores de fila como lados adyacentes:
Esto es cero si los dos vectores son paralelos (linealmente dependientes) y no se cambia agregando ningún múltiplo de→aR2 to→aR2 (porque el nuevo paralelogramo tiene la misma base y la misma altura que el original; verifique esto dibujando).
Pasemos al caso más interesante de3×3 las matrices:A=(a11a12a13a21a22a23a31a32a33)
El determinante deA se define comodetA=εijka1ia2ja3k
dondeεijk=0 si dos cualesquiera son iguales, +1 ifijk=123,231or312 (es decir, una permutación par de 123) y —1 siijk es una permutación impar de 123. Los sufijos repetidos, por supuesto, implican aquí una suma.
Escribiendo esto explícitamente,detA=a11a22a33+a21a32a13+a31a12a23−a11a32a23−a21a12a33−a31a22a13
Al igual que en dos dimensiones, vale la pena mirar esta expresión en términos de vectores que representan las filas de la matriz→aR1=(a11,a12,a13)→aR2=(a21,a22,a23)→aR3=(a31,a32,a33)
por loA=(→aR1→aR2→aR3),andweseethatdetA=(→aR1×→aR2)⋅→aR3
Este es el volumen del paralelepípedo formado por los tres vectores siendo lados adyacentes (reuniéndose en una esquina, el origen).
Este volumen paralelepípedo, por supuesto, será cero si los tres vectores se encuentran en un plano, y no se cambia si se agrega un múltiplo de uno de los vectores a otro de los vectores. Es decir, el determinante de una matriz no se cambia si se agrega un múltiplo de una fila a otra fila. Esto se debe a que el determinante es lineal en los elementos de una sola fila,det(→aR1+λ→aR2→aR2→aR3)=det(→aR1→aR2→aR3)+λdet(→aR2→aR2→aR2)
y el último término es cero porque dos filas son idénticas, por lo que el producto de triple vector desaparece.
Una forma más general de afirmar esto, aplicable a determinantes mayores, es que para un determinante con dos filas idénticas, la simetría de las dos filas, junto con la antisimetría deεijk, asegura que los términos en la suma todos cancelen en pares.
Dado que el determinante no se altera agregando algún múltiplo de una fila a otra, si las filas son linealmente dependientes, una fila podría hacerse idéntica a cero agregando los múltiplos correctos de las otras filas. Dado que cada término en la expresión para el determinante tiene un elemento de cada fila, el determinante sería entonces idénticamente cero. Para el caso tridimensional, la dependencia lineal de las filas significa que los vectores correspondientes se encuentran en un plano, y el paralelepípedo es plano.
El argumento algebraico generaliza fácilmente an×n determinantes: son idénticamente cero si las filas son linealmente dependientes.
La generalización de3×3 an×n determinantes es quedetA=εijka1ia2ja3k se convierte en:
detA=εijk...pa1ia2ja3k...anp
dondeijk...p se suma sobre todas las permutaciones de132...n, y elε símbolo es cero si dos de sus sufijos son iguales, +1 para una permutación par y - 1 para una permutación impar. (Nota: cualquier permutación puede escribirse como producto de swaps de vecinos. Tal representación en general no es única, pero para una permutación dada, todas esas representaciones tendrán un número impar de elementos o un número par.)
Un teorema importante es que para un producto de dos matricesA,B el determinante del producto es el producto de los determinantes,detAB=detA×detB. Esto se puede verificar por fuerza bruta para2×2 matrices, y una prueba en el caso general se puede encontrar en cualquier libro sobre física matemática (por ejemplo, Byron y Fuller).
También se puede probar que si las filas son linealmente independientes, el determinante no puede ser cero.
(Aquí hay una prueba: tomar unan×n matriz con los vectores den fila linealmente independientes. Consideremos ahora los componentes de esos vectores en el subespacion – 1 dimensional perpendiculares a(1, 0, ... ,0). Estosn vectores, cada uno con solon – 1 componentes, deben ser linealmente dependientes, ya que hay más de ellos que la dimensión del espacio. Entonces podemos tomar alguna combinación de las filas debajo de la primera fila y restarla de la primera fila para dejar la primera fila(a, 0, 0, ... ,0), y a no puede ser cero ya que tenemos una matriz con filasn linealmente independientes. Entonces podemos restar múltiplos de esta primera fila de las otras filas para obtener un determinante que tenga ceros en la primera columna debajo de la primera fila. Ahora mira eln – 1 porn – 1 determinante para ser multiplicado pora.
Sus filas deben ser linealmente independientes ya que las de la matriz original lo fueron. Ahora proceda por inducción.)
Para volver a tres dimensiones, queda claro a partir de la forma de \det A= a_{11}a_{22}a_{33}+a_{21}a_{32}a_{13}+a_{31}a_{12}a_{23}-a_{11}a_{32}a_{23}-a_{21}a_{12}a_{33}-a_{31}a_{22}a_{13} \tag{2.2.30}
que igualmente podríamos haber tomado las columnasA como tres vectores,A=(\vec a_1^C, \vec a_2^C, \vec a_3^C) en una notación obvia,\det A=(\vec a_1^C \times \vec a_2^C)\cdot \vec a_3^C, y la dependencia lineal entre las columnas también asegurará la fuga del determinante, así que, de hecho, la dependencia lineal de las columnas asegura lineal dependencia de las filas.
Esto, también, generaliza an\times n: en la definición de determinante\det A=\varepsilon_{ijk...p}a_{1i}a_{2j}a_{3k}...a_{np}, el sufijo de fila es fijo y el sufijo de columna repasa todas las permutaciones permisibles, con el signo apropiado, pero los mismos términos se generarían teniendo los sufijos de columna mantenidos en orden numérico y permitiendo que el sufijo de fila se someta a las permutaciones.
Un Alado: Vectores Recíprocos De
Quizás valga la pena mencionar cómo se puede entender la inversa de un operador3\times 3 matricial en términos de vectores. Para un conjunto de vectores linealmente independientes(\vec a_1, \vec a_2, \vec a_3), se(\vec b_1, \vec b_2, \vec b_3) puede definir un conjunto recíproco mediante \vec b_1 =\frac{\vec a_2\times \vec a_3}{\vec a_1\times \vec a_2 \cdot \vec a_3} \tag{2.2.35}
y las definiciones cíclicas obvias para los otros dos vectores recíprocos. Vemos de inmediato que\vec a_i\cdot \vec b_j =\delta_{ij} \tag{2.2.36}
de lo que se deduce que la matriz inversa a A=\begin{pmatrix} \vec a_1^R\\ \vec a_2^R \\ \vec a_3^R \end{pmatrix} \; is \; B=\begin{pmatrix}\vec b_1^C& \vec b_2^C& \vec b_3^C\end{pmatrix} \tag{2.2.37}
(Estos vectores recíprocos son importantes en la cristalografía de rayos x, por ejemplo. Si una red cristalina tiene ciertos átomos en posicionesn_1\vec a_1 +n_2\vec a_2+n_3\vec a_3, donden_1, n_2, n_3 están los números enteros, los vectores recíprocos son el conjunto de normales a posibles planos de los átomos, y estos planos de átomos son los elementos importantes en la dispersión difractiva de rayos x.)
Eigenkets y Eigenvalues
Si un operadorA que opera en un ket|V\rangle da un múltiplo del mismo ket, A|V\rangle =\lambda|V\rangle \tag{2.2.38}
entonces|V\rangle se dice que es un eigenket (o, con la misma frecuencia, eigenvector, o eigenstate!) deA con valor propio\lambda.
Los valores propios y propios son de importancia central en la mecánica cuántica: las variables dinámicas son operadores, una medición física de una variable dinámica produce un valor propio del operador y obliga al sistema a un eigenket.
En esta sección, mostraremos cómo encontrar los valores propios y los propios correspondientes para un operadorA. Usaremos la notaciónA|a_i\rangle =a_i|a_i\rangle para el conjunto de eigenkets|a_i\rangle con valores propios correspondientesa_i. (Obviamente, en la ecuación de autovalor aquí el sufijo noi se suma.)
El primer paso para resolverA|V\rangle =\lambda|V\rangle es encontrar los valores propios permitidosa_i.
Escribiendo la ecuación en forma de matriz: \begin{pmatrix} A_{11}-\lambda & A_{12} &.&.& A_{1n} \\ A_{21} & A_{22}-\lambda &.&.&. \\ .&.&.&.&. \\ .&.&.&.&. \\ A_{n1} &.&.&.& A_{nn}-\lambda \end{pmatrix} \begin{pmatrix} v_1 \\ v_2 \\ .\\ .\\ v_n \end{pmatrix} =0 \tag{2.2.39}
¡Esta ecuación en realidad nos está diciendo que las columnas de la matrizA-\lambda I son linealmente dependientes! Para ver esto, escribe la matriz como un vector de fila cada elemento del cual es una de sus columnas, y la ecuación se convierte en (\vec M_1^C,\vec M_2^C,...,\vec M_n^C) \begin{pmatrix} v_1\\ .\\ .\\ .\\ v_n \end{pmatrix}=0 \tag{2.2.40}
que es decir v_1\vec M_1^C+v_2\vec M_2^C+...+v_n\vec M_n^C=0 \tag{2.2.41}
las columnas de la matriz son de hecho un conjunto linealmente dependiente.
Sabemos que significa que el determinante de la matrizA-\lambda I es cero, \begin{vmatrix} A_{11}-\lambda & A_{12} &.&.& A_{1n} \\ A_{21} & A_{22}-\lambda &.&.&. \\ .&.&.&.&. \\ .&.&.&.&. \\ A_{n1} &.&.&.& A_{nn}-\lambda \end{vmatrix}=0 \tag{2.2.42}
Evaluar el determinante usando\det A=\varepsilon_{ijk...p}a_{1i}a_{2j}a_{3k}....a_{np} da un polinomio den^{th} orden en\lambda algunas veces llamado polinomio característico. Cualquier polinomio puede escribirse en términos de sus raíces: C(\lambda-a_1)(\lambda-a_2)....(\lambda-a_n)=0 \tag{2.2.43}
donde losa_i's, las raíces del polinomio, yC es una constante global, que a partir de la inspección del determinante podemos ver que es(-1)^n. (Es el coeficiente de\lambda^n.) Las raíces polinomiales (que aún no conocemos) son de hecho los valores propios. Por ejemplo, poner\lambda=a_1 en la matriz\det (A-a_1I)=0, lo que significa que(A-a_1I)|V\rangle=0 tiene una solución no trivial|V\rangle, y este es nuestro autovector|a_1\rangle.
Observe que el término diagonal en el determinante(A_{11}-\lambda)(A_{22}-\lambda)....(A_{nn}-\lambda) genera los dos órdenes principales en el polinomio(-1)^n(\lambda^{n}-(A_{11}+...+A_{nn})\lambda^{n-1}), (y algunos términos de orden inferior también). Equiparando el coeficiente de\lambda^{n-1} aquí con el de(-1)^n(\lambda-a_1)(\lambda-a_2)....(\lambda-a_n), \sum_{i=1}^n a_i=\sum_{i=1}^n A_{ii}= Tr A \tag{2.2.44}
Poniendo\lambda=0 tanto las representaciones determinantales como las polinomiales (es decir, equiparando los términos\lambda -independientes), \prod_{i=1}^n a_i=\det A \tag{2.2.45}
Entonces podemos encontrar tanto la suma como el producto de los valores propios directamente del determinante, y para una2\times 2 matriz esto es suficiente para resolver el problema.
Para cualquier cosa más grande, el método es resolver la ecuación polinómica\det (A-\lambda I)=0 para encontrar el conjunto de valores propios, luego usarlos para calcular los vectores propios correspondientes. Esto se hace uno a la vez.
Etiquetando el primer valor propio encontrado comoa_1, la ecuación correspondiente para los componentesv_i v i del autovector|a_1\rangle es \begin{pmatrix} A_{11}-a_1 & A_{12} &.&.& A_{1n} \\ A_{21} & A_{22}-a_1 &.&.&. \\ .&.&.&.&. \\ .&.&.&.&. \\ A_{n1} &.&.&.& A_{nn}-a_1 \end{pmatrix} \begin{pmatrix} v_1 \\ v_2 \\ .\\ .\\ v_n \end{pmatrix} =0 \tag{2.2.46}
Esto parecen ecuaciones para losn númerosv_i, pero no lo es: recuerde que las filas son linealmente dependientes, así que solo hay ecuacionesn–1 independientes. Sin embargo, eso es suficiente para determinar
las relaciones de los componentes del vectorv_1,...,v_n, luego finalmente se normaliza el vector propio. El proceso se repite entonces para cada eignevalue. (Se necesita un cuidado extra si el polinomio tiene raíces coincidentes; discutiremos ese caso más adelante).
Valores propios y estados propios de matrices hermitianas
Para una matriz hermitiana, es fácil establecer que los valores propios son siempre reales. (Nota: Un postulado básico de la Mecánica Cuántica, discutido en la siguiente conferencia, es que los observables físicos están representados por operadores hermitianos.) Tomando (en esta sección)A como hermitiano,A=A^{\dagger}, y etiquetando los eigenkets por el valor propio, es decir, A|a_1\rangle=a_1|a_1\rangle \tag{2.2.47}
el producto interior con el sujetador\langle a_1| da\langle a_1|A|a_1\rangle=a_1\langle a_1|a_1\rangle. Pero el producto interno de la ecuación colindante (recordandoA=A^{\dagger}) \langle a_1|A=a_1^*\langle a_1| \tag{2.2.48}
con|a_1\rangle da\langle a_1|A|a_1\rangle=a_1^*\langle a_1|a_1\rangle, entoncesa_1=a_1^*, y todos los valores propios deben ser reales.
Ciertamente no tienen que ser todos diferentes —por ejemplo, la matriz unitariaI es hermitiana, y todos sus valores propios son, por supuesto, 1. Pero primero consideremos el caso donde todos son diferentes.
Es fácil demostrar que los eigenkets que pertenecen a diferentes valores propios son ortogonales.
Si \begin{matrix} A|a_1\rangle=a_1|a_1\rangle \\ A|a_2\rangle=a_2|a_2\rangle \end{matrix} \tag{2.2.49}
tomar el adjunto de la primera ecuación y luego el producto interno con|a_2\rangle, y compararlo con el producto interno de la segunda ecuación con\langle a_1|: \langle a_1|A|a_2\rangle=a_1\langle a_1|a_2\rangle=a_2\langle a_1|a_2\rangle \tag{2.2.50}
así\langle a_1|a_2\rangle=0 que a menos que los valores propios sean iguales. (Si son iguales, se les denomina valores propios degenerados).
Primero consideremos el caso no degenerado:A tiene todos los valores propios distintos. Los eigenkets deA, apropiadamente normalizados, forman una base ortonormal en el espacio.
Escribir |a_1\rangle=\begin{pmatrix} v_{11}\\ v_{21}\\ \vdots\\ v_{n1}\end{pmatrix},\; and\, consider\, the\, matrix\; V=\begin{pmatrix} v_{11}&v_{12}&\dots&v_{1n} \\ v_{21}&v_{22}&\dots&v_{2n}\\ \vdots&\vdots&\ddots&\vdots \\ v_{n1}&v_{n2}&\dots&v_{nn} \end{pmatrix}=\begin{pmatrix}|a_1\rangle & |a_2\rangle & \dots & |a_n\rangle \end{pmatrix} \tag{2.2.51}
Ahora AV=A\begin{pmatrix}|a_1\rangle & |a_2\rangle & \dots & |a_n\rangle \end{pmatrix}=\begin{pmatrix}a_1|a_1\rangle & a_2|a_2\rangle & \dots & a_n|a_n\rangle \end{pmatrix} \tag{2.2.52}
por lo V^{\dagger}AV=\begin{pmatrix} \langle a_1|\\ \langle a_2|\\ \vdots\\ \langle a_n|\end{pmatrix}\begin{pmatrix}a_1|a_1\rangle & a_2|a_2\rangle & \dots & a_n|a_n\rangle \end{pmatrix}=\begin{pmatrix} a_1&0&\dots&0 \\ 0&a_2&\dots&0\\ \vdots&\vdots&\ddots&\vdots \\ 0&0&\dots&a_n \end{pmatrix} \tag{2.2.53}
Obsérvese también que, obviamente,V es unitario: V^{\dagger}V=\begin{pmatrix} \langle a_1|\\ \langle a_2|\\ \vdots\\ \langle a_n|\end{pmatrix}\begin{pmatrix}|a_1\rangle & |a_2\rangle & \dots & |a_n\rangle \end{pmatrix}=\begin{pmatrix} 1&0&\dots&0 \\ 0&1&\dots&0\\ \vdots&\vdots&\ddots&\vdots \\ 0&0&\dots&1\end{pmatrix} \tag{2.2.54}
Hemos establecido, entonces, que para una matriz hermitiana con valores propios distintos (caso no degenerado), la matriz unitariaV que tiene columnas idénticas a los eigenkets normalizados deA diagonalizaA, es decir,V^{\dagger}AV es diagonal. Además, sus elementos (diagonales) son iguales a los valores propios correspondientes deA.
Otra forma de decir esto es que la matriz unitariaV es la transformación de la base ortonormal original en este espacio a la base formada por los propios mercados normalizados deA.
Prueba de que los vectores propios de una matriz hermitiana abarcan el espacio
Pasaremos ahora al caso general: ¿y si algunos de los valores propios deA son los mismos? En este caso, cualquier combinación lineal de ellos también es un vector propio con el mismo valor propio. Suponiendo que formen una base en el subespacio, el procedimiento de Gram Schmidt puede ser utilizado para hacerlo ortonormal, y así parte de una base ortonormal de todo el espacio.
Sin embargo, en realidad no hemos establecido que los vectores propios sí forman una base en un subespacio degenerado. ¿Podría ser que (para tomar el caso más simple) los dos vectores propios para el valor propio único resultan ser paralelos? Este es en realidad el caso de algunas2\times2 matrices—por ejemplo,\begin{pmatrix}1&1\\0&1\end{pmatrix}, necesitamos demostrar que no es cierto para las matrices hermitianas, y tampoco lo son las declaraciones análogas para los subespacios degenerados de dimensiones superiores.
Se da una clara presentación en Byron y Fuller, sección 4.7. Lo seguimos aquí. El procedimiento es por inducción del2\times2 caso. La matriz2\times2 hermitiana general tiene la forma \begin{pmatrix}a&b\\b^*&c\end{pmatrix} \tag{2.2.55}
dondea,c son reales. Es fácil comprobar que si los valores propios son degenerados, esta matriz se convierte en un múltiplo real de la identidad, y así trivialmente tiene dos autovectores ortonormales. Como ya sabemos que si los valores propios de2\times2 una matriz hermitiana son distintos se puede diagonalizar por la transformación unitaria formada a partir de sus vectores propios ortonormales, hemos establecido que cualquier matriz2\times2 hermitiana puede ser así diagonalizada.
Para llevar a cabo el proceso de inducción, ahora asumimos que cualquier matriz(n-1)\times(n-1) hermitiana puede ser diagonalizada por una transformación unitaria. Tenemos que demostrar que esto significa que también es cierto paran\times n una matriz hermitianaA. (Recordemos que una transformación unitaria toma una base ortonormal completa a otra. Si diagonaliza una matriz hermitiana, la nueva base es necesariamente el conjunto de vectores propios ortonormalizados. Por lo tanto, si la matriz puede ser diagonalizada, los vectores propios abarcan el espacio n-dimensional).
Elija un valor propioa_1 deA, con vector propio normalizado|a_1\rangle=(v_{11},v_{21},....,v_{n1})^T. (PonemosT para transponer, para salvar la torpeza de llenar la página con algunos vectores de columna.) Construimos un operador unitarioV haciendo de ésta la primera columna, luego rellenando conn-1 otros vectores normalizados para construir, con|a_1\rangle, una base ortonormal n-dimensional.
Ahora, ya queA|a_1\rangle=a_1|a_1\rangle, la primera columna de la matriz soloAV seráa_1|a_1\rangle, y las filas de la matrizV^{\dagger}=V^{-1} serán\langle a_1| seguidas por vectoresn-1 normalizados ortogonales a la misma, por lo que la primera columna de la matrizV^{\dagger}AV será a_1seguido de ceros. Es fácil comprobar queV^{\dagger}AV es hermitiano, ya queA es, por lo que su primera fila también es cero más allá del primer término diagonal.
Esto establece que paran\times n una matriz hermitiana existe una transformación unitaria para ponerla en la forma: V^{\dagger}AV=\begin{pmatrix} a_1 &0&.&.&0\\ 0& M_{22}&.&.&M_{2n} \\ 0&.&.&.&. \\ 0&.&.&.&. \\ 0 &M_{n2}&.&.& M_{nn} \end{pmatrix} \tag{2.2.56}
Pero ahora podemos realizar una segunda transformación unitaria en el(n-1)\times(n-1) subespacio ortogonal a|a_1\rangle (esto por supuesto deja|a_1\rangle invariante), para completar la diagonalización completa, es decir, la existencia de la(n-1)\times(n-1) diagonalización, más el argumento anterior, garantiza la existencia de lan\times n diagonalización: la inducción es completa.
Diagonalización de una Matriz Hermitiana
Como se discutió anteriormente, una matriz hermitiana es diagonal en la base ortonormal de su conjunto de vectores propios:|a_1\rangle,|a_2\rangle,...,|a_n\rangle, ya que \langle a_i|A|a_j\rangle=\langle a_i|a_j|a_j\rangle=a_j\langle a_i|a_j\rangle=a_j\delta_{ij} \tag{2.2.57}
Si se nos dan los elementos matriciales deA en alguna otra base ortonormal, para diagonalizarla necesitamos rotar desde la base ortonormal inicial a una compuesta por los propios mercados deA.
Denotando la base ortonormal inicial en la moda estándar |1\rangle=\begin{pmatrix} 1\\0\\0\\ \vdots\\0\end{pmatrix}, \; |2\rangle=\begin{pmatrix} 0\\1\\0\\ \vdots\\0\end{pmatrix}, \; |i\rangle=\begin{pmatrix} 0\\ \vdots\\ 1\\ \vdots\\0\end{pmatrix}... \; (1\, in\, i^{th}\, place\, down), \; |n\rangle=\begin{pmatrix} 0\\0\\0\\ \vdots\\1\end{pmatrix} \tag{2.2.58}
los elementos de la matriz sonA_{ij}=\langle i|A|j\rangle.
Una transformación de una base ortonormal a otra es una transformación unitaria, como se discutió anteriormente, por lo que la escribimos |V\rangle \to |V'\rangle=U|V\rangle \tag{2.2.59}
Bajo esta transformación, el elemento matriz \langle W|A|V\rangle \to \langle W'|A|V'\rangle=\langle W|U^{\dagger}AU|V\rangle \tag{2.2.60}
Así podemos encontrar la matriz de transformación apropiadaU requiriendo queU^{\dagger}AU sea diagonal con respecto al conjunto original de vectores base. (Transformar al operador de esta manera, dejando solo el espacio vectorial, equivale a rotar el espacio vectorial y dejar solo al operador. Por supuesto, en un sistema con más de un operador, se tendría que aplicar la misma transformación a todos los operadores).
De hecho, tal como discutimos para el caso no degenerado (valores propios distintos), la matriz unitariaU que necesitamos está compuesta solo por los propios mercados normalizados del operadorA, U=(|a_1\rangle,|a_2\rangle,...,|a_n\rangle) \tag{2.2.61}
Y se deduce como antes que (U^{\dagger}AU)_{ij}=\langle a_i|a_j|a_j\rangle=\delta_{ij}a_j, \; a\, diagonal\, matrix. \tag{2.2.62}
(Los sufijos repetidos aquí, por supuesto, no se suman.)
Si algunos de los valores propios son los mismos, el procedimiento de Gram Schmidt puede ser necesario para generar un conjunto ortogonal, como se mencionó anteriormente.
Funciones de Matrices
El mismo operador unitarioU que diagonaliza una matrizA hermitiana también diagonalizaráA^2, porque U^{-1}A^2U=U^{-1}AAU=U^{-1}AUU^{-1}AU \tag{2.2.63}
por lo U^{\dagger}A^2U=\begin{pmatrix} a_1^2&0&0&.&0 \\ 0&a_2^2&0&.&0\\ 0&0&a_3^2&.&0 \\ .&.&.&.&. \\ 0&.&.&.&a_n^2\end{pmatrix} \tag{2.2.64}
Evidentemente, este mismo proceso funciona para cualquier potencia deA, y formalmente para cualquier función deA expresable como una serie de potencias, pero por supuesto las propiedades de convergencia deben ser consideradas, y esto se vuelve más complicado al pasar de matrices finitas a operadores en espacios infinitos.
Matrices Hermitianas de Desplazamiento
De lo anterior, el conjunto de potencias de una matriz hermitiana todos conmutan entre sí, y tienen un conjunto común de vectores propios (pero no los mismos valores propios, obviamente). De hecho, no es difícil demostrar que dos matrices hermitianas cualesquiera que se desplazan entre sí tienen el mismo conjunto de vectores propios (después de posibles reordenamientos de Gram Schmidt en subespacios degenerados).
Si dos matricesn\times n hermitianasA,B conmutan, es decirAB=BA,, yA tiene un conjunto no degenerado de vectores propiosA|a_i\rangle=a_i|a_i\rangleAB|a_i\rangle=BA|a_i\rangle=Ba_i|a_i\rangle=a_iB|a_i\rangle, entonces, es decir,B|a_i\rangle es un vector propio deA con autovalora_i. Dado que noA es degenerado,B|a_i\rangle debe ser algún múltiplo de|a_i\rangle, y concluimos queA,B tienen el mismo conjunto de vectores propios.
Ahora supongamos queA es degenerado, y considera que elm\times m subespacioS_{a_i} abarcado por los vectores propios|a_i,1\rangle,\; |a_i,2\rangle,... deA tener valor propioa_i. Aplicando el argumento del párrafo anterior, tambiénB|a_i,1\rangle,\; B|a_i,2\rangle,... debe estar en este subespacio. Por lo tanto, si transformamosB con la misma transformación unitaria que diagonalizóA, noB será en general diagonal en el subespacioS_{a_i}, sino que será lo que se denomina diagonal de bloque, en que siB opera sobre algún vector enS_{a_i} él da un vector enS_{a_i}.
Bse pueden escribir como dos bloques diagonales: unom\times m, uno(n-m)\times (n-m), con ceros fuera de estos bloques diagonales, por ejemplo, param=2,\; n=5: \begin{pmatrix} b_{11}&b_{12}&0&0&0 \\ b_{21}&b_{22}&0&0&0 \\ 0&0&b_{33}&b_{34}&b_{35} \\ 0&0&b_{43}&b_{44}&b_{45} \\ 0&0&b_{53}&b_{54}&b_{55} \end{pmatrix} \tag{2.2.65}
Y, de hecho, si solo hay un valor propio degenerado ese segundo bloque solo tendrá términos distintos de cero en la diagonal: \begin{pmatrix} b_{11}&b_{12}&0&0&0 \\ b_{21}&b_{22}&0&0&0 \\ 0&0&b_3&0&0 \\ 0&0&0&b_4&0 \\ 0&0&0&0&b_5 \end{pmatrix} \tag{2.2.65}
Bpor lo tanto opera en dos subespacios, uno m-dimensional, uno (n - m) -dimensional, independientemente —un vector enteramente en un subespacio permanece allí.
Esto significa que podemos completar la diagonalización deB con un operador unitario que solo opera en elm\times m bloqueS_{a_i}. Tal operador también afectará a los vectores propios deA, pero eso no importa, porque todos los vectores en este subespacio son vectores propios deA con el mismo valor propio, por lo que en lo que a esto respecta, podemos elegir cualquier base ortonormal que nos guste —los vectores base seguiránA ser vectores propios.
Esto establece que cualquiera de dos matrices hermitianas de desplazamiento pueden ser diagonalizadas al mismo tiempo. Obviamente, esto nunca puede ser cierto de las matrices que no se desplazan, ya que todas las matrices diagonales conmutan.
Diagonalización de una Matriz Unitaria
Cualquier matriz unitaria puede ser diagonalizada por una transformación unitaria. Para ver esto, recordemos que cualquier matrizM puede escribirse como una suma de una matriz hermitiana y una matriz anti hermitiana, M=\frac{M+M^{\dagger}}{2}+\frac{M-M^{\dagger}}{2}=A+iB \tag{2.2.66}
donde ambosA,\; B son hermitianos. Este es el análogo matricial de escribir un número complejo arbitrario como suma de partes reales e imaginarias.
Si seA,\; B conmutan, se pueden diagonalizar simultáneamente (ver la sección anterior), y por lo tanto seM pueden diagonalizar. Ahora bien, si una matriz unitaria se expresa en esta formaU=A+iB conA,\; B Hermitian, se desprende fácilmente deUU^{\dagger}=U^{\dagger}U=1 eseA,\; B viaje, por lo que cualquier matriz unitariaU puede ser diagonalizada por una transformación unitaria. De manera más general, si una matrizM conmuta con suM^{\dagger} colindante, puede ser diagonalizada.
(Nota: no es posible diagonalizar aM menos que ambosA,\; B estén diagonalizados simultáneamente. Esto se deduce deU^{\dagger}AU,\; U^{\dagger}iBU ser hermitiano y antihermitiano para cualquier operador unitarioU, por lo que sus elementos fuera de diagonal no pueden cancelarse entre sí, todos deben ser cero si M ha sido diagonalizado porU, en cuyo caso las dos matrices transformadasU^{\dagger}AU,\; U^{\dagger}iBU son diagonales, por lo tanto, conmutar, y también lo hacen las matrices originalesA,\; B.)
Vale la pena mirar un ejemplo específico, una simple rotación de una base ortonormal a otra en tres dimensiones. Obviamente, el eje a través del origen alrededor del cual se gira la base es un vector propio de la transformación. Está menos claro cuáles podrían ser los otros dos vectores propios, o, de manera equivalente, ¿cuáles son los vectores propios correspondientes a una rotación bidimensional de base en un plano? La manera de averiguarlo es anotar la matriz y diagonalizarla.
La matriz U(\theta)=\begin{pmatrix} \cos \theta &\sin \theta\\ -\sin \theta &\cos \theta\end{pmatrix} \tag{2.2.67}
Obsérvese que el determinante es igual a la unidad. Los valores propios se dan resolviendo \begin{vmatrix} \cos \theta -\lambda &\sin \theta\\ -\sin \theta &\cos \theta -\lambda\end{vmatrix}=0\; to\, give\; \lambda=e^{\pm i\theta} \tag{2.2.68}
Los vectores propios correspondientes satisfacen
\begin{pmatrix} \cos \theta &\sin \theta\\ -\sin \theta &\cos \theta\end{pmatrix}\dbinom{u_1^{\pm}}{u_2^{\pm}}=e^{\pm i\theta}\dbinom{u_1^{\pm}}{u_2^{\pm}} \tag{2.2.69}
Los vectores propios, normalizados, son: \dbinom{u_1^{\pm}}{u_2^{\pm}}=\frac{1}{\sqrt{2}}\dbinom{1}{\pm i} \tag{2.2.70}
Obsérvese que, a diferencia de una matriz hermitiana, los valores propios de una matriz unitaria no tienen que ser reales. De hecho, deU^{\dagger}U=1, intercalado entre el sujetador y ket de un vector propio, vemos que cualquier valor propio de una matriz unitaria debe tener módulo unitario, es un número complejo en el círculo unitario. En retrospectiva, deberíamos habernos dado cuenta de que un valor propio de una rotación bidimensional tenía que sere^{i\theta}, el producto de dos rotaciones bidimensionales se le da estar sumando los ángulos de rotación, y una rotación a través de los\pi cambios de todos los signos, así lo tiene el valor propio-1. Tenga en cuenta que el propio vector en sí es independiente del ángulo de rotación: todas las rotaciones se desplazan, por lo que deben tener vectores propios comunes. Los operadores de rotación sucesivos aplicados al vector propio más agregan sus ángulos, cuando se aplican al vector propio menos, se restan todos los ángulos.
Colaborador
Michael Fowler (Beams Professor, Department of Physics, University of Virginia)