Saltar al contenido principal
LibreTexts Español

3.7: Valores propios múltiples

  • Page ID
    115410
  • \( \newcommand{\vecs}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} } \) \( \newcommand{\vecd}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash {#1}}} \)\(\newcommand{\id}{\mathrm{id}}\) \( \newcommand{\Span}{\mathrm{span}}\) \( \newcommand{\kernel}{\mathrm{null}\,}\) \( \newcommand{\range}{\mathrm{range}\,}\) \( \newcommand{\RealPart}{\mathrm{Re}}\) \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\) \( \newcommand{\Argument}{\mathrm{Arg}}\) \( \newcommand{\norm}[1]{\| #1 \|}\) \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\) \( \newcommand{\Span}{\mathrm{span}}\) \(\newcommand{\id}{\mathrm{id}}\) \( \newcommand{\Span}{\mathrm{span}}\) \( \newcommand{\kernel}{\mathrm{null}\,}\) \( \newcommand{\range}{\mathrm{range}\,}\) \( \newcommand{\RealPart}{\mathrm{Re}}\) \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\) \( \newcommand{\Argument}{\mathrm{Arg}}\) \( \newcommand{\norm}[1]{\| #1 \|}\) \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\) \( \newcommand{\Span}{\mathrm{span}}\)\(\newcommand{\AA}{\unicode[.8,0]{x212B}}\)

    Muy bien puede suceder que una matriz tenga algunos valores propios “repetidos”. Es decir, la ecuación característica\(\det(A-\lambda I)=0\) puede tener raíces repetidas. Como hemos dicho antes, en realidad es poco probable que esto suceda para una matriz aleatoria. Si tomamos una pequeña perturbación de\(A\) (cambiamos las entradas de\(A\) ligeramente), entonces obtendremos una matriz con valores propios distintos. Como cualquier sistema que querremos resolver en la práctica es una aproximación a la realidad de todos modos, no es indispensable saber cómo resolver estos casos de esquina. Por otro lado, estos casos sí surgen en las aplicaciones de vez en cuando. Además, si tenemos valores propios distintos pero muy cercanos, el comportamiento es similar al de los valores propios repetidos, y así comprender ese caso nos dará una idea de lo que está sucediendo.

    Multiplicidad geométrica

    Toma la matriz diagonal

    \[ A = \begin{bmatrix}3&0\\0&3 \end{bmatrix} \nonumber \]

    \(A\)tiene un valor propio\(3\) de multiplicidad\(2\). Llamamos a la multiplicidad del valor propio en la ecuación característica la multiplicidad algebraica. En este caso, también existen vectores propios\(2\) linealmente independientes,\(\begin{bmatrix}1\\0 \end{bmatrix}\) y\(\begin{bmatrix} 0\\1 \end{bmatrix}\) correspondiendo a la multiplicidad\(3\). This means that the so-called geométrica de autovalor de este autovalor también es\(2\).

    En todos los teoremas donde requeríamos que una matriz tuviera valores propios\(n\) distintos, solo necesitábamos tener vectores propios\(n\) linealmente independientes. Por ejemplo,\(\vec{x} = A \vec{x} \) tiene la solución general

    \[\vec{x} = c_1 \begin{bmatrix} 1\\0 \end{bmatrix} e^{3t} + c_2 \begin{bmatrix} 0\\1 \end{bmatrix} e^{3t}. \nonumber \]

    Replanteemos el teorema sobre los valores propios reales. En el siguiente teorema vamos a repetir valores propios de acuerdo a la multiplicidad (algebraica). Entonces para la matriz anterior\(A\), diríamos que tiene valores propios\(3\) y\(3\).

    Teorema\(\PageIndex{1}\)

    Tomar\( \vec{x} = P \vec{x} \). Supongamos que la matriz P es\(n\times n \), tiene n valores propios reales (no necesariamente distintos),\( \lambda_1, \cdots, \lambda_n \)and there are\(n\) linealmente independientes correspondientes autovectores\(\vec{v_1}, \cdots, \vec{v_n} \). Entonces la solución general para\(\vec{x}'=P\vec{x}\) can be written as:

    \[\vec{x}=c_1\vec{v_1}e^{\lambda_1 t} + c_2 \vec{v_2}e^{\lambda_2 t} + \cdot + c_n \vec{v_n}e^{\lambda_n t} \nonumber \]

    La multiplicidad geométrica de un valor propio de la multiplicidad algebraica n es igual al número de vectores propios linealmente independientes correspondientes. La multiplicidad geométrica es siempre menor o igual que la multiplicidad algebraica. Hemos manejado el caso cuando estas dos multiplicidades son iguales. Si la multiplicidad geométrica es igual a la multiplicidad algebraica, entonces decimos que el valor propio está completo.

    Es decir, la hipótesis del teorema podría afirmarse diciendo que si todos los valores propios de\(P\) son completos, entonces hay vectores propios\(n\) linealmente independientes y así tenemos la solución general dada.

    Si la multiplicidad geométrica de un valor propio es\(2\) o mayor, entonces el conjunto de vectores propios linealmente independientes no es único hasta múltiplos como lo era antes. Por ejemplo, para la matriz diagonal también\(A = \begin{bmatrix} 3&0 \\ 0&3 \end{bmatrix} \) podríamos elegir vectores propios\(\begin{bmatrix} 1\\1 \end{bmatrix} \) and \( \begin{bmatrix} 1\\-1 \end{bmatrix} \), o de hecho cualquier par de dos vectores linealmente independientes. El número de autovectores linealmente independientes correspondientes a\(\lambda\) is the number of free variables we obtain when solving \(A\vec{v} = \lambda \vec{v} \). Seleccionamos valores específicos para esas variables libres para obtener vectores propios. Si elige diferentes valores, puede obtener diferentes vectores propios.

    Valores propios defectuosos

    Si una\(n \times n\) matriz tiene menos de n vectores propios linealmente independientes, se dice que es deficiente. Entonces hay al menos un valor propio con una multiplicidad algebraica que es mayor que su multiplicidad geométrica. Llamamos a este valor propio defectuoso y a la diferencia entre las dos multiplicidades que llamamos defecto.

    Ejemplo\(\PageIndex{1}\)

    La matriz

    \[ \begin{bmatrix} 3&1\\0&3 \end{bmatrix} \nonumber \]

    tiene un valor propio 3 de multiplicidad algebraica 2. Tratemos de computar vectores propios.

    \[ \begin{bmatrix} 0&1\\0&0 \end{bmatrix} \begin{bmatrix} v_1\\v_2 \end{bmatrix} = \vec{0} \nonumber \]

    Solución

    Debemos tener eso\( v_2 = 0 \). De ahí que cualquier vector propio sea de la forma\(\begin{bmatrix} v_1\\ 0 \end{bmatrix} \). Cualquiera de estos dos vectores son linealmente dependientes, y por lo tanto la multiplicidad geométrica del valor propio es 1. Por lo tanto, el defecto es 1, y ya no podemos aplicar el método del valor propio directamente a un sistema de ODEs con dicha matriz de coeficientes.

    A grandes rasgos, la observación clave\(\lambda\) es que si es un valor propio\(A\) de multiplicidad algebraica\(m\), entonces podemos encontrar ciertos vectores\(m\) linealmente independientes que resuelven\((A-\lambda I)^{k}\vec{v}=\vec{0}\) para diversas potencias\(k\). Llamaremos a estos vectores propios generalizados.

    Sigamos con el ejemplo\( A = \begin{bmatrix} 3&1\\ 0&3 \end{bmatrix} \) y la ecuación\(\vec{x} = A \vec{x} \). Tenemos un valor propio\(\lambda =3\) de multiplicidad (algebraica) 2 y defecto 1. Hemos encontrado un vector propio\(\vec{v_1} = \begin{bmatrix} 1\\ 0 \end{bmatrix} \). Tenemos la solución

    \[\vec{x_1} = \vec{v} e^{3t} =\left[\begin{array}{c}{1}\\{0}\end{array}\right]e^{3t} \nonumber \]

    Ahora estamos atascados, no obtenemos otras soluciones de vectores propios estándar. Pero necesitamos dos soluciones linealmente independientes para encontrar la solución general de la ecuación.

    En este caso, intentemos (en el espíritu de las raíces repetidas de la ecuación característica para una sola ecuación) otra solución de la forma

    \[ \vec{x_2} = ( \vec{v_2} + \vec{v_1} t ) e^{3t} \nonumber \]

    Diferenciamos para obtener

    \[{\vec{x}_2}' = \vec{v}_1 e^{3t} + 3 ( \vec{v}_2 + \vec{v}_1 t )\, e^{3t} = ( 3 \vec{v}_2 + \vec{v}_1 )\, e^{3t} + 3 \vec{v}_1 t e^{3t} . \nonumber \]

    Como estamos asumiendo que\(\vec{x}_2\) es una solución,\({\vec{x}_2}'\) debemos igualar\(A \vec{x}_2\). Así que vamos a calcular\(A \vec{x}_2\):

    \[A \vec{x}_2 = A ( \vec{v}_2 + \vec{v}_1 t )\, e^{3t} = A \vec{v}_2 e^{3t} + A \vec{v}_1 t e^{3t} . \nonumber \]

    Al mirar los coeficientes de\(e^{3t}\) y\(t e^{3t}\) vemos\(3 \vec{v}_2 + \vec{v}_1 = A \vec{v}_2\) y\(3 \vec{v}_1 = A \vec{v}_1\). Esto significa que

    \[(A-3I)\vec{v}_2 = \vec{v}_1, \qquad \text{and} \qquad (A-3I)\vec{v}_1 = \vec{0}. \nonumber \]

    Por lo tanto,\(\vec{x}_2\) es una solución si estas dos ecuaciones están satisfechas. La segunda ecuación se satisface si\(\vec{v}_1\) es un vector propio, y encontramos el vector propio arriba, así que vamos\(\vec{v}_1 = \left[ \begin{smallmatrix} 1 \\ 0 \end{smallmatrix} \right]\). Entonces, si podemos encontrar una\(\vec{v}_2\) que resuelva\((A-3I)\vec{v}_2 = \vec{v}_1\), entonces ya terminamos. Esto es solo un montón de ecuaciones lineales para resolver y ya somos muy buenos en eso. Vamos a resolver\((A-3I)\vec{v}_2 = \vec{v}_1\). Escribir

    \[\begin{bmatrix} 0 & 1 \\ 0 & 0 \end{bmatrix} \begin{bmatrix} a \\ b \end{bmatrix} = \begin{bmatrix} 1 \\ 0 \end{bmatrix} . \nonumber \]

    Por inspección vemos que dejar\(a=0\) (\(a\)podría ser cualquier cosa de hecho) y\(b=1\) hace el trabajo. De ahí que podamos tomar\(\vec{v}_2 = \left[ \begin{smallmatrix} 0 \\ 1 \end{smallmatrix} \right]\). Nuestra solución general\({\vec{x}}' = A\vec{x}\) es

    \[\vec{x} = c_1 \begin{bmatrix} 1 \\ 0 \end{bmatrix} e^{3t} + c_2 \left( \begin{bmatrix} 0 \\ 1 \end{bmatrix} + \begin{bmatrix} 1 \\ 0 \end{bmatrix} t \right) \, e^{3t} = \begin{bmatrix} c_1 e^{3t}+c_2 te^{3t} \\ c_2 e^{3t} \end{bmatrix} . \nonumber \]

    Comprobemos que realmente tenemos la solución. Primero\(x_1' = c_1 3 e^{3t}+c_2 e^{3t} + 3 c_2 te^{3t} = 3 x_1 + x_2\). Bueno. Ahora\(x_2' = 3 c_2 e^{3t} = 3x_2\). Bueno.

    Obsérvese que el sistema\( \vec{x}' = A \vec{x} \) tiene una solución más sencilla ya que\(A\) es una denominada matriz triangular superior, es decir, cada entrada por debajo de la diagonal es cero. En particular, la ecuación para\( x_2 \) no depende de\(x_1\). Eso sí, no todas las matrices defectuosas son triangulares.

    Ejercicio 3.7.1

    Resuelve\( \vec{x}' = \begin{bmatrix} 3&1\\ 0&3 \end{bmatrix} \vec{x} \) resolviendo primero para\(x_2\) y luego para de\( x_1 \) forma independiente. Comprueba que tienes la misma solución que la que hicimos anteriormente.

    Describamos el algoritmo general. Supongamos que\(\lambda \) es un valor propio de multiplicidad\(2\), defecto\(1\). Primero encuentra un vector propio\(\vec{v_1} \) de\( \lambda\). Luego, encuentra un vector\( \vec{v_2} \) tal que

    \[ (A - \lambda I) \vec{v_2} = \vec{v_1} \nonumber \]

    Esto nos da dos soluciones linealmente independientes

    \[\begin{align}\begin{aligned} \vec{x_1} &= \vec{v_1} e^{\lambda t} \\ \vec{x_2} &= (\vec{v_2} + \vec{v_1} t )e^{\lambda t }\end{aligned}\end{align} \nonumber \]

    Ejemplo\(\PageIndex{2}\)

    Considerar el sistema\[\vec{x}' = \begin{bmatrix} 2 & -5 & 0 \\ 0 & 2 & 0 \\ -1 & 4 & 1 \end{bmatrix} \vec{x} . \nonumber \] Calcular los valores propios,

    Solución

    \[0 = \det(A-\lambda I) = \det\left( \begin{bmatrix} 2-\lambda & -5 & 0 \\ 0 & 2-\lambda & 0 \\ -1 & 4 & 1-\lambda \end{bmatrix} \right) = (2-\lambda)^2(1-\lambda) . \nonumber \]Los valores propios son 1 y 2, donde 2 tiene multiplicidad 2. Dejamos al lector encontrar que\(\left[ \begin{smallmatrix} 0 \\ 0 \\ 1 \end{smallmatrix} \right]\) es un vector propio para el autovalor\(\lambda = 1\).

    Centrémonos en\(\lambda = 2\). Calculamos vectores propios:\[\vec{0} = (A - 2 I) \vec{v} = \begin{bmatrix} 0 & -5 & 0 \\ 0 & 0 & 0 \\ -1 & 4 & -1 \end{bmatrix} \begin{bmatrix} v_1 \\ v_2 \\ v_3 \end{bmatrix} . \nonumber \] La primera ecuación dice eso\(v_2 = 0\), entonces la última ecuación es\(-v_1 -v_3 = 0\). Dejemos\(v_3\) ser la variable libre para encontrar eso\(v_1 = -v_3\). Tal vez\(v_3 = -1\) dejar de encontrar un vector propio\(\left[ \begin{smallmatrix} 1 \\ 0 \\ -1 \end{smallmatrix} \right]\). El problema es que\(v_3\) la configuración a cualquier otra cosa solo obtiene múltiplos de este vector y así tenemos un defecto de 1. Seamos\(\vec{v}_1\) el vector propio y busquemos un vector propio generalizado\(\vec{v}_2\):\[(A - 2 I) \vec{v}_2 = \vec{v}_1 , \nonumber \] o\[\begin{bmatrix} 0 & -5 & 0 \\ 0 & 0 & 0 \\ -1 & 4 & -1 \end{bmatrix} \begin{bmatrix} a \\ b \\ c \end{bmatrix} = \begin{bmatrix} 1 \\ 0 \\ -1 \end{bmatrix} , \nonumber \] donde usamos\(a\),\(b\),\(c\) como componentes de\(\vec{v}_2\) por simplicidad. \(-5b = 1\)Así lo dice la primera ecuación\(b = \frac{-1}{5}\). La segunda ecuación no dice nada. La última ecuación es\(-a + 4b - c = -1\), o\(a + \frac{4}{5} + c = 1\), o\(a + c = \frac{1}{5}\). Dejamos\(c\) ser la variable libre y elegimos\(c=0\). Nos encontramos\(\vec{v}_2 = \left[ \begin{smallmatrix} \frac{1}{5} \\ \frac{-1}{5} \\ 0 \end{smallmatrix} \right]\).

    Por lo tanto, la solución general es,\[\vec{x} = c_1 \begin{bmatrix} 0 \\ 0 \\ 1 \end{bmatrix} e^t + c_2 \begin{bmatrix} 1 \\ 0 \\ -1 \end{bmatrix} e^{2t} + c_3 \left( \begin{bmatrix} \frac{1}{5} \\ \frac{-1}{5} \\ 0 \end{bmatrix} + \begin{bmatrix} 1 \\ 0 \\ -1 \end{bmatrix} t \right) e^{2t} . \nonumber \]

    Esta maquinaria también puede generalizarse a mayores multiplicidades y mayores defectos. No repasaremos este método en detalle, sino que solo hagamos un bosquejo de las ideas. Supongamos que\(A\) tiene un valor propio\( \lambda \) de multiplicidad\(m\). Encontramos vectores tales que

    \[ (A - \lambda I ) ^k \vec(v) = \vec(0),\quad\text{but}\quad (A - \lambda I )^{k-1} \vec{v} \neq \vec{0} \nonumber \]

    Tales vectores se denominan vectores propios generalizados (entonces\(\vec{v_{1}}=(A-\lambda I)^{k-1}\vec{v}\) is an eigenvector). Por cada vector propio\(\vec{v}_{1} \) encontramos una cadena de vectores propios generalizados\( \vec{v}_{2} \) a través de\(vec{v}_{k} \) tales que:

    \[\begin{align}\begin{aligned} (A - \lambda I) \vec{v_1} &= \vec{0}, \\ (A - \lambda I)\vec{v_2} &= \vec{v_1}, \\ &\vdots \\ (A - \lambda I )\vec{v_k} &= \vec{v_{k-1}}. \end{aligned}\end{align} \nonumber \]

    Realmente una vez que encuentras el\(\vec{v}_k\) tal que\({(A - \lambda I)}^k \vec{v}_k = \vec{0}\) pero\({(A - \lambda I)}^{k-1} \vec{v}_k \not= \vec{0}\), encuentras toda la cadena ya que puedes computar el resto\(\vec{v}_{k-1} = (A - \lambda I) \vec{v}_k\),\(\vec{v}_{k-2} = (A - \lambda I) \vec{v}_{k-1}\),, etc. formamos las soluciones linealmente independientes

    \[\begin{align}\begin{aligned} \vec{x_1} &= \vec{v_1} e^{\lambda t} \\ \vec{x_2} &= ( \vec{v_2} + \vec{v_1} t) e^{\lambda t } \\ & \vdots \\ \vec{x_k} &= \left( \vec{v_k}+ \vec{v}_{k-1} t + \vec{v}_{k-2} \frac{t^2}{2} + \cdots + \vec{v}_{2} \frac{t^{k-2}}{(k-2)!} + \vec{v}_{1}\frac{t^{k-1}}{(k-1)!} ) e^{\lambda t} \right) \end{aligned}\end{align} \nonumber \]

    Recordemos que\(k! = 1 \cdot 2 \cdot 3 \cdots (k-1) \cdot k\) es lo factorial. Si tienes un valor propio de multiplicidad geométrica\(\ell\), tendrás que encontrar\(\ell\) tales cadenas (algunas de ellas podrían ser cortas: solo la ecuación de vector propio único). Vamos hasta formar soluciones\(m\) linealmente independientes donde\(m\) está la multiplicidad algebraica. No sabemos muy bien qué vectores propios específicos van con qué cadena, así que empieza por encontrar\(\vec{v}_k\) primero para la cadena más larga posible e ir de ahí.

    Por ejemplo, si\(\lambda\) es un valor propio de\(A\) de multiplicidad algebraica\(3\) y defecto\(2\), entonces resolver Es\[(A - \lambda I) \vec{v}_1 = \vec{0} , \qquad (A - \lambda I) \vec{v}_2 = \vec{v}_1 , \qquad (A - \lambda I) \vec{v}_3 = \vec{v}_2 . \nonumber \] decir, encontrar\(\vec{v}_3\) tal que\({(A - \lambda I)}^3 \vec{v}_3 = \vec{0}\), pero\({(A - \lambda I)}^2 \vec{v}_3 \not= \vec{0}\). Entonces estás hecho como\(\vec{v}_2 = (A - \lambda I) \vec{v}_3\) y\(\vec{v}_1 = (A - \lambda I) \vec{v}_2\). Las 3 soluciones linealmente independientes son\[\vec{x}_1 = \vec{v}_1 e^{\lambda t} , \qquad \vec{x}_2 = ( \vec{v}_2 + \vec{v}_1 t ) \, e^{\lambda t} , \qquad \vec{x}_3 = \left( \vec{v}_3 + \vec{v}_2 t + \vec{v}_{1} \frac{t^2}{2} \right) \, e^{\lambda t} . \nonumber \]

    Si por otro lado\(A\) tiene un valor propio\(\lambda\) de multiplicidad algebraica\(3\) y defecto\(1\), entonces resuelve\[(A - \lambda I) \vec{v}_1 = \vec{0} , \qquad (A - \lambda I) \vec{v}_2 = \vec{0} , \qquad (A - \lambda I) \vec{v}_3 = \vec{v}_2 . \nonumber \] Aquí\(\vec{v}_1\) y\(\vec{v}_2\) son verdaderos vectores propios honestos, y\(\vec{v}_3\) es un vector propio generalizado. Entonces hay dos cadenas. Para resolver, primero encuentra un\(\vec{v}_3\) tal que\({(A - \lambda I)}^2 \vec{v}_3 = \vec{0}\), pero\((A - \lambda I) \vec{v}_3 \not= \vec{0}\). Entonces\(\vec{v}_2 = (A - \lambda I) \vec{v}_3\) va a ser un autovector. Entonces resuelve para un vector propio\(\vec{v}_1\) que es linealmente independiente de\(\vec{v}_2\). Obtienes 3 soluciones linealmente independientes\[\vec{x}_1 = \vec{v}_1 e^{\lambda t} , \qquad \vec{x}_2 = \vec{v}_2 e^{\lambda t} , \qquad \vec{x}_3 = ( \vec{v}_3 + \vec{v}_2 t ) \, e^{\lambda t} . \nonumber \]


    This page titled 3.7: Valores propios múltiples is shared under a CC BY-SA 4.0 license and was authored, remixed, and/or curated by Jiří Lebl via source content that was edited to the style and standards of the LibreTexts platform; a detailed edit history is available upon request.