Saltar al contenido principal
LibreTexts Español

3.4: Método Eigenvalue

  • Page ID
    115431
  • \( \newcommand{\vecs}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} } \) \( \newcommand{\vecd}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash {#1}}} \)\(\newcommand{\id}{\mathrm{id}}\) \( \newcommand{\Span}{\mathrm{span}}\) \( \newcommand{\kernel}{\mathrm{null}\,}\) \( \newcommand{\range}{\mathrm{range}\,}\) \( \newcommand{\RealPart}{\mathrm{Re}}\) \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\) \( \newcommand{\Argument}{\mathrm{Arg}}\) \( \newcommand{\norm}[1]{\| #1 \|}\) \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\) \( \newcommand{\Span}{\mathrm{span}}\) \(\newcommand{\id}{\mathrm{id}}\) \( \newcommand{\Span}{\mathrm{span}}\) \( \newcommand{\kernel}{\mathrm{null}\,}\) \( \newcommand{\range}{\mathrm{range}\,}\) \( \newcommand{\RealPart}{\mathrm{Re}}\) \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\) \( \newcommand{\Argument}{\mathrm{Arg}}\) \( \newcommand{\norm}[1]{\| #1 \|}\) \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\) \( \newcommand{\Span}{\mathrm{span}}\)\(\newcommand{\AA}{\unicode[.8,0]{x212B}}\)

    En esta sección aprenderemos a resolver sistemas lineales homogéneos de coeficientes constantes de ODEs mediante el método de autovalor. Supongamos que tenemos tal sistema

    \[ \vec{x}' = P \vec{x}, \nonumber \]

    donde\(P\) es una matriz cuadrada constante. Deseamos adaptar el método para la ecuación de coeficiente constante único probando la función\( e^{\lambda t} \). Sin embargo,\( \vec{x}\) es un vector. Entonces lo intentamos\(\vec{x}=\vec{v}e^{\lambda t}\), donde\(\vec{v}\) es un vector constante arbitrario. Enchufamos esto\( \vec{x}\) en la ecuación para obtener

    \[\underbrace{\lambda \vec{v} e^{\lambda t}}_{{\vec{x}}'} = \underbrace{P\vec{v} e^{\lambda t}}_{P\vec{x}} . \nonumber \]

    Dividimos por\( e^{\lambda t}\) y notamos que estamos buscando un escalar\( \lambda\) y un vector\(\vec{x}\) que satisfagan la ecuación

    \[ \lambda \vec{v}= P \vec{v}. \nonumber \]

    Para resolver esta ecuación necesitamos un poco más de álgebra lineal, que ahora revisamos.

    Valores propios y vectores propios de una matriz

    Dejar\( A\) ser una matriz cuadrada constante. Supongamos que hay un escalar\(\lambda\) y un vector distinto de cero\(\vec{v}\) tal que

    \[A \vec{v}= \lambda \vec{v}. \nonumber \]

    Entonces llamamos\( \lambda\) un valor propio de\(A\) y\(\vec{x}\) se dice que es un vector propio correspondiente.

    Ejemplo\(\PageIndex{1}\)

    La matriz\( \left[ \begin{array}{cc} 2 & 1 \\ 0 & 1 \end{array} \right]\) tiene un valor propio de\( \lambda = 2\) con un vector propio correspondiente\(\left[ \begin{array}{c} 1 \\ 0 \end{array} \right]\)

    porque

    \[ \left[ \begin{array}{cc} 2 & 1 \\ 0 & 1 \end{array} \right] \left[ \begin{array}{c} 1 \\ 0 \end{array} \right]= \left[ \begin{array}{c} 2 \\ 0 \end{array} \right]= 2\left[ \begin{array}{c} 1 \\ 0 \end{array} \right]. \nonumber \]

    Veamos cómo calcular los valores propios para cualquier matriz. Reescribimos la ecuación para un valor propio como

    \[ (A - \lambda I)\vec{v}= \vec{0}.\nonumber \]

    Notamos que esta ecuación tiene una solución distinta de cero\(\vec{v}\) sólo si no\(A - \lambda I\) es invertible. Si fuera invertible, podríamos escribir lo\((A - \lambda I)^{-1}(A - \lambda I)\vec{v}= (A - \lambda I)^{-1}\vec{0},\) que implica\(\vec{v}= \vec{0}.\) Por lo tanto,\(A\) tiene el valor propio\(\lambda\) si y solo si\(\lambda\) resuelve la ecuación

    \[ det(A - \lambda I)=0.\nonumber \]

    En consecuencia, podremos encontrar un valor propio de\(A\) sin encontrar un vector propio correspondiente. Un vector propio tendrá que ser encontrado posteriormente, una vez que\(\lambda\) se conozca.

    Ejemplo\(\PageIndex{2}\)

    Encuentra todos los valores propios de \( \left[ \begin{array}{ccc} 2 & 1 & 1 \\ 1 & 2 & 0 \\ 0 & 0 & 2 \end{array} \right]\).

    Solución

    Escribimos

    \[\begin{align}\begin{aligned} det \left( \left[ \begin{array}{ccc} 2 & 1 & 1 \\ 1 & 2 & 0 \\ 0 & 0 & 2 \end{array} \right] - \lambda \left[ \begin{array}{ccc} 1 & 0 & 0 \\ 0 & 1 & 0 \\ 0 & 0 & 1 \end{array} \right]\right)&= det \left( \left[ \begin{array}{ccc} 2- \lambda & 1 & 1 \\ 1 & 2- \lambda & 0 \\ 0 & 0 & 2- \lambda \end{array} \right] \right) \\ &= (2- \lambda)((2- \lambda)^2-1)=-(\lambda-1)(\lambda-2)(\lambda-3).\end{aligned}\end{align} \nonumber \]

    Entonces los valores propios son\(\lambda=1,\lambda=2,\) y\(\lambda=3\).

    Tenga en cuenta que para una\(n \times n\) matriz, el polinomio que obtenemos por computación\(det(A-\lambda I)\) será de grado\(n\), y de ahí que en general tendremos\(n\) valores propios. Algunos pueden repetirse, algunos pueden ser complejos.

    Para encontrar un vector propio correspondiente a un valor propio\(\lambda\), escribimos

    \[ (A - \lambda I)\vec{v}= \vec{0},\nonumber \]

    y resolver para un vector no trivial (distinto de cero)\( \vec{v}\). Si\(\lambda\) es un valor propio, habrá al menos una variable libre, y así para cada valor propio distinto\(\lambda\), siempre podemos encontrar un vector propio

    Ejemplo\(\PageIndex{3}\)

    Encuentra un vector propio\( \left[ \begin{array}{ccc} 2 & 1 & 1 \\ 1 & 2 & 0 \\ 0 & 0 & 2 \end{array} \right]\) correspondiente al valor propio\(\lambda = 3\).

    Solución

    Escribimos

    \[ (A - \lambda I)\vec{v}=\left( \left[ \begin{array}{ccc} 2 & 1 & 1 \\ 1 & 2 & 0 \\ 0 & 0 & 2 \end{array} \right] - 3 \left[ \begin{array}{ccc} 1 & 0 & 0 \\ 0 & 1 & 0 \\ 0 & 0 & 1 \end{array} \right]\right)\left[ \begin{array}{c} v_1 \\ v_2 \\ v_3 \end{array} \right]=\left[ \begin{array}{ccc} -1 & 0 & 0 \\ 1 & -1 & 0 \\ 0 & 0 & -1 \end{array} \right]\left[ \begin{array}{c} v_1 \\ v_2 \\ v_3 \end{array} \right] = \vec{0}.\nonumber \]

    Es fácil resolver este sistema de ecuaciones lineales. Anotamos la matriz aumentada

    \[\left[ \begin{array}{ccc|c} -1 & 0 & 0 &0\\ 1 & -1 & 0 &0\\ 0 & 0 & -1 &0 \\ \end{array} \right],\nonumber \]

    y realizar operaciones de fila (ejercicio: ¿cuáles?) hasta que obtengamos:

    \[\left[ \begin{array}{ccc|c} 1 & -1 & 0 &0\\ 0 & 0 & 1 &0\\ 0 & 0 & 0 &0 \\ \end{array} \right].\nonumber \]

    Las entradas de\(\vec{v}\) tienen que satisfacer las ecuaciones\(v_1-v_2=0, v_3=0\) y\(v_2\) es una variable libre. Podemos escoger\(v_2\) para ser arbitrarios (pero distintos de cero), let\(v_1=v_2,\) y por supuesto\(v_3=0.\) Por ejemplo, si elegimos\(v_2=1,\) entonces\( \vec{v} =\left[ \begin{array}{c} 1 \\ 1 \\ 0 \end{array} \right].\) verifiquemos que\(\vec{v}\) realmente es un vector propio correspondiente a\(\lambda= 3\):

    \[\left[ \begin{array}{ccc} 2 & 1 & 1 \\ 1 & 2 & 0 \\ 0 & 0 & 2 \end{array} \right]\left[ \begin{array}{c} 1 \\ 1 \\ 0 \end{array} \right]=\left[ \begin{array}{c} 3 \\ 3 \\ 0 \end{array} \right]=3\left[ \begin{array}{c} 1 \\ 1 \\ 0 \end{array} \right].\nonumber \]

    ¡Yay! Funcionó.

    Ejercicio\(\PageIndex{1}\): (easy)

    ¿Los vectores propios son únicos? ¿Se puede encontrar un vector propio diferente para\(\lambda =3\) en el ejemplo anterior? ¿Cómo se relacionan los dos vectores propios?

    Ejercicio\(\PageIndex{2}\)

    Tenga en cuenta que cuando la matriz es no\(2\times 2\) necesita anotar la matriz aumentada y realizar operaciones de fila al calcular vectores propios (si ha calculado los valores propios correctamente). ¿Puedes ver por qué? Pruébalo para la matriz\(v_{2}\).

    3.4.2Método de valor propio con valores propios reales distintos

    Tenemos el sistema de ecuaciones

    \[ \vec{x}'=P\vec{x}. \nonumber \]

    Encontramos los valores propios\(\lambda_1, \lambda_2, \ldots , \lambda_n\) de la matriz\(P\), and corresponding eigenvectors \(\vec{x}_1, \vec{x}_2, \ldots , \vec{x}_n.\) Ahora notamos que las funciones\(\vec{v}_1e^{\lambda_1t},\vec{v}_2e^{\lambda_2t}, \ldots , \vec{v}_ne^{\lambda_nt}\) son soluciones del sistema de ecuaciones y de ahí\(\vec{x}=c_1 \vec{v}_1e^{\lambda_1t}+ c_2 \vec{v}_2e^{\lambda_2t} + \cdots + c_n \vec{v}_ne^{\lambda_nt}\) es una solución.

    Teorema\(\PageIndex{1}\)

    Tomar\(\vec{x}'=P\vec{x}\). Si\(P\) es una matriz\(n \times n\) constante que tiene valores propios reales\(n\) distintos\(\lambda_1,\lambda_2, \ldots, \lambda_n,\) , entonces existen vectores propios correspondientes\(n\) linealmente independientes\(\vec{v}_1,\vec{v}_2, \ldots, \vec{v}_n,\) y el general solución a\(\vec{x}'=P\vec{x}\) se puede escribir como

    \[ \vec{x}=c_1 \vec{v}_1e^{\lambda_1t}+ c_2 \vec{v}_2e^{\lambda_2t} + \cdots + c_n \vec{v}_ne^{\lambda_nt}. \nonumber \]

    La solución matriz fundamental correspondiente es Es\[X(t)= [\vec{v}_1e^{\lambda_1t}~~~ \vec{v}_2e^{\lambda_2t} ~~~ \cdots ~~~ \vec{v}_ne^{\lambda_nt}]. \nonumber \] decir,\(X(t)\) es la matriz cuya\(j^{\rm{th}}\) columna es\(\vec{v}_je^{\lambda_jt}\).

    Ejemplo\(\PageIndex{4}\)

    Considerar el sistema

    \[ \vec{x}'=\left[ \begin{array}{ccc} 2 & 1 & 1 \\ 1 & 2 & 0 \\ 0 & 0 & 2 \end{array} \right] \vec{x}. \nonumber \]

    Encuentra la solución general.

    Solución

    Anteriormente, encontramos que los valores propios son\(1, 2, 3.\) Encontramos el vector propio\( \left[ \begin{array}{c} 1 \\ 1 \\ 0 \end{array} \right] \) para el autovalor 3. De manera similar encontramos el vector propio\( \left[ \begin{array}{c} 1 \\ -1 \\ 0 \end{array} \right]\) para el valor propio 1, y\( \left[ \begin{array}{c} 0 \\ 1 \\ -1 \end{array} \right]\) para el valor propio 2 (ejercicio: check). De ahí que nuestra solución general sea

    \[ \vec{x}=c_1 \left[ \begin{array}{c} 1 \\ -1 \\ 0 \end{array} \right]e^t+c_2 \left[ \begin{array}{c} 0 \\ 1 \\ -1 \end{array} \right]e^{2t} + c_3 \left[ \begin{array}{c} 1 \\ 1 \\ 0 \end{array} \right]e^{3t} = \left[ \begin{array}{c} c_1e^t + c_3e^{3t} \\ -c_1e^t+c_2e^{2t}+c_3e^{3t} \\ -c_2e^{2t} \end{array} \right]. \nonumber \]

    En términos de una solución de matriz fundamental

    \[ \vec{x}=X(t) \vec{c}=\left[ \begin{array}{ccc} e^t & 0 & e^{3t} \\ -e^t & e^{2t} & e^{3t} \\ 0 & -e^{2t} & 0 \end{array} \right] \left[ \begin{array}{c} c_1 \\ c_2 \\ c_3 \end{array} \right].\nonumber \]

    Ejercicio\(\PageIndex{3}\)

    Comprueba que esto\(\vec{x}\) realmente resuelve el sistema.

    Nota: Si escribimos una ecuación de\(n^{\rm{th}}\) orden de coeficiente constante lineal homogénea como un sistema de primer orden (como hicimos en la Sección 3.1), entonces la ecuación de valor propio

    \[ det(P - \lambda I) =0 \nonumber \]

    es esencialmente la misma que la ecuación característica que obtuvimos en la Sección 2.2 y la Sección 2.3.

    Valores propios complejos

    Una matriz muy bien podría tener valores propios complejos incluso si todas las entradas son reales. Por ejemplo, supongamos que tenemos el sistema

    \[\vec{x}'= \left[ \begin{array}{cc} 1 & 1 \\ -1 & 1 \end{array} \right] \vec{x}. \nonumber \]

    Vamos a calcular los valores propios de la matriz\(P=\left[ \begin{array}{cc} 1 & 1 \\ -1 & 1 \end{array} \right].\)

    \[det(P - \lambda I) =det \left( \left[ \begin{array}{cc} 1- \lambda & 1 \\ -1 & 1- \lambda \end{array} \right] \right)=(1-\lambda)^2 + 1=\lambda^2-2\lambda+2= 0. \nonumber \]

    Por lo tanto,\( \lambda = 1 \pm i.\) los vectores propios correspondientes también son complejos. Primera toma\( \lambda = 1 - i,\)

    \[\begin{align}\begin{aligned} (P-(1-i)I)\vec{v}&=\vec{0}, \\ \left[ \begin{array}{cc} i & 1 \\ -1 & i \end{array} \right] \vec{v}&=\vec{0}.\end{aligned}\end{align} \nonumber \]

    Las ecuaciones\(iv_1+v_2=0\) y\(-v_1+iv_2=0\) son múltiplos entre sí. Por lo que sólo tenemos que considerar uno de ellos. Después de recoger\(v_2=1\), por ejemplo, tenemos un vector propio\(\vec{v}=\left[ \begin{array}{c}i\\1 \end{array} \right]\). De manera similar encontramos que\(\left[ \begin{array}{c}-i\\1 \end{array} \right]\) es un vector propio correspondiente al valor propio\(1+i\).

    Podríamos escribir la solución como

    \[ \vec{x}=c_1\left[ \begin{array}{c} i \\ 1 \end{array} \right]e^{(1-i)t}+c_2\left[ \begin{array}{c} -i \\ 1 \end{array} \right]e^{(1+i)t}= \left[ \begin{array}{c} c_1ie^{(1-i)t}-c_2ie^{(1+i)t} \\ c_1e^{(1-i)t}+c_2e^{(1+i)t} \end{array} \right]. \nonumber \]

    Entonces necesitaríamos buscar valores complejos\(c_1\) y\(c_2\) resolver cualquier condición inicial. Quizás no esté del todo claro que obtengamos una solución real. Podríamos usar la fórmula de Euler y hacer toda la canción y bailar que hicimos antes, pero no lo haremos. Primero haremos algo un poco más inteligente.

    Afirmamos que no tuvimos que buscar un segundo vector propio (ni el segundo autovalor). Todos los valores propios complejos vienen en pares (porque la matriz\(P\) es real).

    Primero una pequeña nota al margen. La parte real de un número complejo se\(z\) puede calcular como\(\frac{z+\bar{z}}{2}\), donde la barra de arriba\( z\) significa\( \overline{a+ib}=a-ib\). Esta operación se llama el conjugado complejo. Si\(a\) es un número real, entonces\(\bar{a}=a\). Del mismo modo podemos barbar vectores completos o matrices tomando el conjugado complejo de cada entrada. Si una matriz\(P\) es real, entonces\(\bar{P}=P\). Tomamos nota de eso\(\overline{P \vec{x}}=\bar{P} \bar{\vec{x}}=P \bar{\vec{x}}.\). También el complejo conjugado de sigue\(0\) siendo\(0\), por lo tanto,

    \[\vec{0}=\overline{\vec{0}}= \overline{(P- \lambda I) \vec{v }} = (P- \bar{\lambda} I) \bar{\vec{v }}. \nonumber \]

    Entonces, si\(\vec{v}\) es un autovector correspondiente al valor propio\(\lambda=a+ib\), entonces\(\bar{\vec{v}}\) es un autovector correspondiente al autovalor\(\bar{\lambda}=a-ib\).

    Supongamos que\(a+ib\) es un valor propio complejo de\(P\), y\(\vec{v}\) es un autovector correspondiente. Entonces

    \[ \vec{x}_1=\vec{v}e^{(a+ib)t} \nonumber \]

    es una solución (compleja valorada) de\(\vec{x}'=P\vec{x}\). La fórmula de Euler lo demuestra\(\overline{e^{a+ib}}=e^{a-ib}\), y así

    \[ \vec{x}_2=\overline{\vec{x_1}}=\bar{\vec{v}}e^{(a+ib)t} \nonumber \]

    también es una solución. Como\(\vec{x_{1}}\) y\(\vec{x_{2}}\) son soluciones, la función

    \[ \vec{x}_3 = {\rm{Re~}} \vec{x}_1= {\rm{Re~}} \vec{v}e^{(a+ib)t}=\frac{\vec{x}_1+\overline{\vec{x_1}}}{2}=\frac{\vec{x}_1+\vec{x_2}}{2}=\frac{1}{2}\vec{x_{1}}+\frac{1}{2}\vec{x_{2}} \nonumber \]

    también es una solución. ¡Y\(\vec{x}_3\) es de valor real! Del mismo modo como\( {\rm{Im~}}z= \frac{z-\bar{z}}{2i}\) es la parte imaginaria, encontramos que

    \[ \vec{x}_4= {\rm{Im~}} \vec{x}_1= \frac{\vec{x}_1-\overline{\vec{x_1}}}{2i}=\frac{\vec{x}_1-\vec{x_2}}{2i} \nonumber \]

    es también una solución de valor real. Resulta que\(\vec{x}_3\) y\(\vec{x}_4\) son linealmente independientes. Utilizaremos la fórmula de Euler para separar la parte real e imaginaria.

    Volviendo a nuestro problema,

    \[\vec{x}_1 = \begin{bmatrix} i \\ 1 \end{bmatrix} e^{(1-i)t} = \begin{bmatrix} i \\ 1 \end{bmatrix} \left( e^t \cos t - i e^t \sin t \right) = \begin{bmatrix} i e^t \cos t + e^t \sin t \\ e^t \cos t - i e^t \sin t \end{bmatrix} = \begin{bmatrix} e^t \sin t \\ e^t \cos t \end{bmatrix} + i \begin{bmatrix} e^t \cos t \\ - e^t \sin t \end{bmatrix} . \nonumber \]

    Entonces

    \[ {\rm{Re~}} \vec{x}_1= \left[ \begin{array}{c} e^t \sin t \\ e^t\cos t \end{array} \right], \quad\text{and}\quad {\rm{Im~}} \vec{x}_1= \left[ \begin{array}{c} e^t \cos t \\ -e^t\sin t \end{array} \right], \nonumber \]

    son las dos soluciones linealmente independientes de valor real que buscamos.

    Ejercicio\(\PageIndex{4}\)

    Comprueba que estas realmente son soluciones.

    La solución general es

    \[ \vec{x}=c_1 \left[ \begin{array}{c} e^t \sin t \\ e^t\cos t \end{array} \right] + c_2 \left[ \begin{array}{c} e^t \cos t \\ -e^t\sin t \end{array} \right]= \left[ \begin{array}{c} c_1 e^t \sin t +c_2 e^t \cos t \\ c_1 e^t \cos t -c_2 e^t \sin t \end{array} \right].\nonumber \]

    Esta solución es de valor real para real\(c_1\) y\(c_2\). En este punto, resolveríamos para cualquier condición inicial que pudiéramos tener que encontrar\(c_{1}\) y\(c_{2}\).

    Resumamos la discusión como teorema.

    Teorema\(\PageIndex{2}\)

    L et\(P\) ser una matriz constante de valor real. Si\(P\) tiene un valor propio complejo\(a+ib\) y un vector propio correspondiente\(\vec{v}\), entonces\(P\) también tiene un valor propio complejo\(a-ib\) con un vector propio correspondiente \(\bar{\vec{v}}\). Además,\(\vec{x}' = P \vec{x}\) cuenta con dos soluciones linealmente independientes de valor real

    \[ \vec{x}_1= {\rm{Re~}} \vec{v} e^{(a+ib)t}, ~~~~ {\it{and}} ~~~~ \vec{x}_2= {\rm{Im~}} \vec{v} e^{(a+ib)t}. \nonumber \]

    Por cada par de valores propios complejos\(a+ib\) y\(a-ib\), obtenemos dos soluciones linealmente independientes de valor real. Luego pasamos al siguiente valor propio, que es un valor propio real u otro par complejo de valores propios. Si tenemos valores propios\(n\) distintos (reales o complejos), entonces terminamos con soluciones\(n\) linealmente independientes. Si tuviéramos solo dos ecuaciones\((n=2)\) como en el ejemplo anterior, entonces una vez que encontramos dos soluciones estamos terminadas, y nuestra solución general es

    \[\vec{x}=c_{1}\vec{x}_{1}+c_{2}\vec{x}_{2}=c_{1}\left(\text{Re }\vec{v}e^{(a+ib)t}\right) +c_{2}\left(\text{Im }\vec{v}e^{(a+ib)t}\right). \nonumber \]

    Ahora podemos encontrar una solución general de valor real para cualquier sistema homogéneo donde la matriz tenga valores propios distintos. Cuando hemos repetido valores propios, las cosas se complican un poco más y veremos esa situación en la Sección 3.7.


    This page titled 3.4: Método Eigenvalue is shared under a CC BY-SA 4.0 license and was authored, remixed, and/or curated by Jiří Lebl via source content that was edited to the style and standards of the LibreTexts platform; a detailed edit history is available upon request.