Saltar al contenido principal
LibreTexts Español

4.2: Propiedades de los valores propios y vectores propios

  • Page ID
    116300
  • \( \newcommand{\vecs}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} } \) \( \newcommand{\vecd}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash {#1}}} \)\(\newcommand{\id}{\mathrm{id}}\) \( \newcommand{\Span}{\mathrm{span}}\) \( \newcommand{\kernel}{\mathrm{null}\,}\) \( \newcommand{\range}{\mathrm{range}\,}\) \( \newcommand{\RealPart}{\mathrm{Re}}\) \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\) \( \newcommand{\Argument}{\mathrm{Arg}}\) \( \newcommand{\norm}[1]{\| #1 \|}\) \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\) \( \newcommand{\Span}{\mathrm{span}}\) \(\newcommand{\id}{\mathrm{id}}\) \( \newcommand{\Span}{\mathrm{span}}\) \( \newcommand{\kernel}{\mathrm{null}\,}\) \( \newcommand{\range}{\mathrm{range}\,}\) \( \newcommand{\RealPart}{\mathrm{Re}}\) \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\) \( \newcommand{\Argument}{\mathrm{Arg}}\) \( \newcommand{\norm}[1]{\| #1 \|}\) \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\) \( \newcommand{\Span}{\mathrm{span}}\)\(\newcommand{\AA}{\unicode[.8,0]{x212B}}\)

    Objetivos de aprendizaje
    • T/F:\(A\) y\(A^{T}\) tienen los mismos vectores propios.
    • T/F:\(A\) y\(A^{−1}\) tienen los mismos valores propios.
    • T/F: Marie Ennemond Camille Jordan era un tipo.
    • T/F: Las matrices con rastro de\(0\) son importantes, aunque no hemos visto por qué.
    • T/F: Una matriz\(A\) es invertible solo si\(1\) es un valor propio de\(A\).

    En esta sección exploraremos cómo los valores propios y los vectores propios de una matriz se relacionan con otras propiedades de esa matriz. Esta sección es esencialmente una confusión de datos interesantes sobre los valores propios; el objetivo aquí no es memorizar diversos hechos sobre álgebra matricial, sino asombrarse nuevamente por las muchas conexiones entre conceptos matemáticos.

    Comenzaremos nuestras investigaciones con un ejemplo que dará una base para otros descubrimientos.

    Ejemplo\(\PageIndex{1}\)

    Vamos\(A=\left[\begin{array}{ccc}{1}&{2}&{3}\\{0}&{4}&{5}\\{0}&{0}&{6}\end{array}\right].\) Encuentra los valores propios de\(A\).

    Solución

    Para encontrar los valores propios, calculamos\(\text{det}(A-\lambda I)\):

    \[\begin{align}\begin{aligned}\text{det}(A-\lambda I)&=\left|\begin{array}{ccc}{1-\lambda}&{2}&{3}\\{0}&{4-\lambda}&{5}\\{0}&{0}&{6-\lambda}\end{array}\right| \\ &=(1-\lambda)(4-\lambda)(6-\lambda)\end{aligned}\end{align} \nonumber \]

    Dado que nuestra matriz es triangular, el determinante es fácil de calcular; es solo el producto de los elementos diagonales. Por lo tanto, encontramos (y factorizamos) nuestro polinomio característico muy fácilmente, y vemos que tenemos valores propios de\(\lambda = 1, 4\), y\(6\).

    Este ejemplo demuestra un hecho maravilloso para nosotros: los valores propios de una matriz triangular son simplemente las entradas en la diagonal. Encontrar los vectores propios correspondientes todavía requiere algo de trabajo, pero encontrar los valores propios es fácil.

    Con ese hecho en el fondo de nuestras mentes, pasemos al siguiente ejemplo donde nos encontraremos con algunos datos más interesantes sobre los valores propios y los vectores propios.

    Ejemplo\(\PageIndex{2}\)

    Let\(A=\left[\begin{array}{cc}{-3}&{15}\\{3}&{9}\end{array}\right]\) y let\(B=\left[\begin{array}{ccc}{-7}&{-2}&{10}\\{-3}&{2}&{3}\\{-6}&{-2}&{9}\end{array}\right]\) (como se usa en los Ejemplos 4.1.3 y 4.1.5 respectivamente). Encuentra lo siguiente:

    1. valores propios y vectores propios de\(A\) y\(B\)
    2. valores propios y vectores propios de\(A^{-1}\) y\(B^{-1}\)
    3. valores propios y vectores propios de\(A^{T}\) y\(B^{T}\)
    4. El rastro de\(A\) y\(B\)
    5. El determinante de\(A\) y\(B\)

    Solución

    Responderemos a cada uno por turno.

    1. Ya sabemos la respuesta a estos porque hicimos este trabajo en ejemplos anteriores. Por lo tanto, solo enumeramos las respuestas.
      For\(A\), tenemos valores propios\(\lambda = -6\) y\(12\), con vectores propios
      \[\vec{x}=x_{2}\left[\begin{array}{c}{-5}\\{1}\end{array}\right]\text{ and }x_{2}\left[\begin{array}{c}{1}\\{1}\end{array}\right],\text{ respectively.} \nonumber \]
      For\(B\), tenemos valores propios\(\lambda = -1,\ 2,\) y\(3\) con vectores propios
      \[\vec{x}=x_{3}\left[\begin{array}{c}{3}\\{1}\\{2}\end{array}\right],\: x_{3}\left[\begin{array}{c}{2}\\{1}\\{2}\end{array}\right]\text{ and }x_{3}\left[\begin{array}{c}{1}\\{0}\\{1}\end{array}\right],\text{ respectively}. \nonumber \]
    2. Primero calculamos las inversas de\(A\) y\(B\). Ellos son:
      \[A^{-1}=\left[\begin{array}{cc}{-1/8}&{5/24}\\{1/24}&{1/24}\end{array}\right]\quad\text{and}\quad B^{-1}=\left[\begin{array}{ccc}{-4}&{1/3}&{13/3}\\{-3/2}&{1/2}&{3/2}\\{-3}&{1/3}&{10/3}\end{array}\right]. \nonumber \]
      Encontrar los valores propios y los vectores propios de estas matrices no es terriblemente difícil, pero tampoco es “fácil”. Por lo tanto, omitimos mostrar los pasos intermedios y vamos directo a las conclusiones.
      For\(A^{-1}\), tenemos valores propios\(\lambda = -1/6\) y\(1/12\), con vectores propios
      \[\vec{x}=x_{2}\left[\begin{array}{c}{-5}\\{1}\end{array}\right]\text{ and }x_{2}\left[\begin{array}{c}{1}\\{1}\end{array}\right],\text{ respectively.} \nonumber \]
      For\(B^{-1}\), tenemos valores propios\(\lambda = -1\),\(1/2\) y\(1/3\) con vectores propios
      \[\vec{x}=x_{3}\left[\begin{array}{c}{3}\\{1}\\{2}\end{array}\right],\: x_{3}\left[\begin{array}{c}{2}\\{1}\\{2}\end{array}\right]\text{ and }x_{3}\left[\begin{array}{c}{1}\\{0}\\{1}\end{array}\right],\text{ respectively.} \nonumber \]
    3. Por supuesto, computar la transposición de\(A\) y\(B\) es fácil; computar sus valores propios y vectores propios requiere más trabajo. Nuevamente, omitimos los pasos intermedios.
      For\(A^{T}\), tenemos valores propios\(\lambda = -6\) y\(12\) con vectores propios
      \[\vec{x}=x_{2}\left[\begin{array}{c}{-1}\\{1}\end{array}\right]\text{ and }x_{2}\left[\begin{array}{c}{5}\\{1}\end{array}\right],\text{ respectively.} \nonumber \]
      For\(B^{T}\), tenemos valores propios\(\lambda = -1,\ 2\) y\(3\) con vectores propios
      \[\vec{x}=x_{3}\left[\begin{array}{c}{-1}\\{0}\\{1}\end{array}\right],\: x_{3}\left[\begin{array}{c}{-1}\\{1}\\{1}\end{array}\right]\text{ and }x_{3}\left[\begin{array}{c}{0}\\{-2}\\{1}\end{array}\right],\text{ respectively.} \nonumber \]
    4. El rastro de\(A\) es\(6\); el rastro de\(B\) es\(4\).
    5. El determinante de\(A\) es\(-72\); el determinante de\(B\) es\(-6\).

    Ahora que hemos completado el “trabajo gruñido”, analicemos los resultados del ejemplo anterior. Estamos buscando cualquier patrón o relación que podamos encontrar.

    Los valores propios y vectores propios de\(A\) y\(A^{-1}\).

    En nuestro ejemplo, encontramos que los valores propios de\(A\) son\(-6\) y\(12\); los valores propios de\(A^{-1}\) son\(-1/6\) y\(1/12\). Además, los valores propios de\(B\) son\(-1\),\(2\) y\(3\), mientras que los valores propios de\(B^{-1}\) son\(-1\),\(1/2\) y\(1/3\). Aquí hay una relación obvia; parece que si\(\lambda\) es un valor propio de\(A\), entonces\(1/\lambda\) será un valor propio de\(A^{-1}\). También podemos señalar que los vectores propios correspondientes coincidieron, también.

    ¿Por qué es este el caso? Considera una matriz invertible\(A\) con valor propio\(\lambda\) y vector propio\(\vec{x}\). Entonces, por definición, lo sabemos\(A\vec{x}=\lambda\vec{x}\). Ahora multiplica ambos lados por\(A^{-1}\):

    \[\begin{align}\begin{aligned} A\vec{x}&=\lambda\vec{x} \\ A^{-1}A\vec{x}&=A^{-1}\lambda\vec{x} \\ \vec{x}&=\lambda A^{-1}\vec{x} \\ \frac{1}{\lambda}\vec{x}&=A^{-1}\vec{x}\end{aligned}\end{align} \nonumber \]

    Acabamos de demostrar eso\(A^{-1}\vec{x}=1/\lambda\vec{x}\); esto, por definición, muestra que\(\vec{x}\) es un vector propio de\(A^{-1}\) con autovalor\(1/\lambda\). Esto explica el resultado que vimos anteriormente.

    Los valores propios y vectores propios de\(A\) y\(A^{T}\).

    Nuestro ejemplo demostró eso\(A\) y\(A^{T}\) tenía los mismos valores propios pero diferentes (pero de alguna manera similares) vectores propios; también lo demostró\(B\) y\(B^{T}\) tenía los mismos valores propios pero vectores propios no relacionados. ¿Por qué es esto?

    Podemos responder a la pregunta del valor propio con relativa facilidad; se desprende de las propiedades del determinante y de la transposición. Recordemos los siguientes dos hechos:

    1. \((A+B)^{T}=A^{T}+B^{T}\)(Teorema 3.1.1) y
    2. \(\text{det}(A)=\text{det}(A^{T})\)(Teorema 3.4.3).

    Encontramos los valores propios de una matriz calculando el polinomio característico; es decir, encontramos\(\text{det}(A-\lambda I)\). ¿Cuál es el polinomio característico de\(A^{T}\)? Considerar:

    \[\begin{align}\begin{aligned}\text{det}(A^{T}-\lambda I)&=\text{det}(A^{T}-\lambda I^{T}) &\text{since }I=I^{T} \\ &=\text{det}((A-\lambda I)^{T}) &\text{Theorem 3.1.1} \\ &=\text{det}(A-\lambda I) &\text{Theorem 3.4.3}\end{aligned}\end{align} \nonumber \]

    Entonces vemos que el polinomio característico de\(A^{T}\) es el mismo que para\(A\). Por lo tanto, tienen los mismos valores propios.

    ¿Y sus respectivos vectores propios? ¿Hay alguna relación? La respuesta simple es “No”. \(^{1}\)

    Los valores propios y vectores propios de\(A\) y The Trace.

    Tenga en cuenta que los valores propios de\(A\) son\(-6\) y\(12\), y el rastro es\(6\); los valores propios de\(B\) son\(-1\),\(2\) y\(3\), y el rastro de\(B\) es\(4\). ¿Notamos alguna relación?

    ¡Parece que la suma de los valores propios es el rastro! ¿Por qué es este el caso?

    La respuesta a esto está un poco fuera del alcance de este texto; podemos justificar parte de este hecho, y otra parte simplemente declararemos como verdadera sin justificación.

    Primero, recordemos del Teorema 3.2.1 que\(\text{tr}(AB)=\text{tr}(BA)\). En segundo lugar, declaramos sin justificación que dada una matriz cuadrada\(A\), podemos encontrar una matriz cuadrada\(P\) tal que\(P^{-1}AP\) es una matriz triangular superior con los valores propios de\(A\) en la diagonal. \(^{2}\)Así\(\text{tr}(P^{-1}AP)\) es la suma de los valores propios; también, usando nuestro Teorema 3.2.1, lo sabemos\(\text{tr}(P^{-1}AP)=\text{tr}(P^{-1}PA)=\text{tr}(A)\). Así, el rastro de\(A\) es la suma de los valores propios.

    Los valores propios y vectores propios de\(A\) y El Determinante.

    Nuevamente, los valores propios de\(A\) son\(-6\) y\(12\), y el determinante de\(A\) es\(-72\). Los valores propios de\(B\) son\(-1\),\(2\) y\(3\); el determinante de\(B\) es\(-6\). Parece que el producto de los valores propios es el determinante.

    Esto es cierto, lo defendemos con nuestro argumento desde arriba. Sabemos que el determinante de una matriz triangular es el producto de los elementos diagonales. Por lo tanto, dada una matriz\(A\), podemos encontrar\(P\) tal que\(P^{-1}AP\) es triangular superior con los valores propios de\(A\) en la diagonal. Así\(\text{det}(P^{-1}AP)\) es el producto de los valores propios. Usando el Teorema 3.4.3, lo sabemos\(\text{det}(P^{-1}AP)=\text{det}(P^{-1}PA)=\text{det}(A)\). Así, el determinante de\(A\) es el producto de los valores propios.

    Resumimos los resultados de nuestro ejemplo con el siguiente teorema.

    Teorema\(\PageIndex{1}\)

    Propiedades de los Eigenvalues y Eigenvectors

    Dejar\(A\) ser una matriz\(n\times n\) invertible. Lo siguiente es cierto:

    1. Si\(A\) es triangular, entonces los elementos diagonales de\(A\) son los valores propios de\(A\).
    2. Si\(\lambda\) es un valor propio de\(A\) con vector propio\(\vec{x}\), entonces\(\frac{1}{\lambda}\) es un valor propio de\(A^{−1}\) con vector propio\(\vec{x}\).
    3. Si\(\lambda\) es un valor propio de\(A\) entonces\(\lambda\) es un valor propio de\(A^{T}\).
    4. La suma de los valores propios de\(A\) es igual a\(\text{tr}(A)\), la traza de\(A\).
    5. El producto de los valores propios de\(A\) es el igual a\(\text{det}(A)\), el determinante de\(A\).

    Hay un concepto más sobre los valores propios y los vectores propios que exploraremos. Lo hacemos en el contexto de un ejemplo.

    Ejemplo\(\PageIndex{3}\)

    Encuentra los valores propios y los vectores propios de la matriz\(A=\left[\begin{array}{cc}{1}&{2}\\{1}&{2}\end{array}\right]\).

    Solución

    Para encontrar los valores propios, calculamos\(\text{det}(A-\lambda I)\):

    \[\begin{align}\begin{aligned}\text{det}(A-\lambda I)&=\left|\begin{array}{cc}{1-\lambda}&{2}\\{1}&{2-\lambda}\end{array}\right| \\ &=(1-\lambda)(2-\lambda)-2 \\ &=\lambda^{2}-3\lambda \\ &=\lambda (\lambda -3)\end{aligned}\end{align} \nonumber \]

    Nuestros valores propios son, por lo tanto\(\lambda = 0, 3\).

    Para\(\lambda = 0\), encontramos los vectores propios:

    \[\left[\begin{array}{ccc}{1}&{2}&{0}\\{1}&{2}&{0}\end{array}\right]\quad\vec{\text{rref}}\quad\left[\begin{array}{ccc}{1}&{2}&{0}\\{0}&{0}&{0}\end{array}\right] \nonumber \]

    Esto demuestra que\(x_1 = -2x_2\), y así nuestros vectores propios\(\vec{x}\) son

    \[\vec{x}=x_{2}\left[\begin{array}{c}{-2}\\{1}\end{array}\right]. \nonumber \]

    Para\(\lambda = 3\), encontramos los vectores propios:

    \[\left[\begin{array}{ccc}{-2}&{2}&{0}\\{1}&{-1}&{0}\end{array}\right]\quad\vec{\text{rref}}\quad\left[\begin{array}{ccc}{1}&{-1}&{0}\\{0}&{0}&{0}\end{array}\right] \nonumber \]

    Esto demuestra que\(x_1 = x_2\), y así nuestros vectores propios\(\vec{x}\) son

    \[\vec{x}=x_{2}\left[\begin{array}{c}{1}\\{1}\end{array}\right]. \nonumber \]

    Una cosa interesante del ejemplo anterior es que vemos que\(0\) es un valor propio de\(A\); no nos hemos encontrado oficialmente con esto antes. ¿Significa esto algo significativo? \(^{3}\)

    Piense en lo que\(0\) significa un valor propio de: existe un vector distinto de cero\(\vec{x}\) donde\(A\vec{x}=0\vec{x}=\vec{0}\). Es decir, tenemos una solución no trivial para\(A\vec{x}=\vec{0}\). Sabemos que esto sólo sucede cuando no\(A\) es invertible.

    Entonces si\(A\) es invertible, no hay solución no trivial para\(A\vec{x}=\vec{0}\), y por lo tanto no\(0\) es un valor propio de\(A\). Si no\(A\) es invertible, entonces hay una solución no trivial a\(A\vec{x}=\vec{0}\), y por lo tanto\(0\) es un valor propio de\(A\). Esto nos lleva a nuestra adición final al Teorema de la Matriz Invertible.

    Teorema\(\PageIndex{2}\)

    Teorema de Matriz Invertible

    \(A\)Déjese ser una\(n\times n\) matriz. Las siguientes declaraciones son equivalentes.

    1. \(A\)es invertible.
    2. \(A\)no tiene un valor propio de\(0\).

    Esta sección trata sobre las propiedades de los valores propios y los vectores propios. Por supuesto, no hemos investigado todas las numerosas propiedades de los valores propios y vectores propios; acabamos de encuestar algunos de los conceptos más comunes (y más importantes). Aquí hay cuatro ejemplos rápidos de las muchas cosas que aún existen por explorar.

    En primer lugar, recordar la matriz

    \[A=\left[\begin{array}{cc}{1}&{4}\\{2}&{3}\end{array}\right] \nonumber \]

    que usamos en el Ejemplo 4.1.1. Su polinomio característico es\(p(\lambda)=\lambda^2-4\lambda-5\). Calcular\(p(A)\); es decir, computar\(A^2-4A-5I\). Deberías conseguir algo “interesante”, y deberías preguntarte “¿esto siempre funciona?” \(^{4}\)

    Segundo, en todos nuestros ejemplos, hemos considerado matrices donde los valores propios “aparecieron solo una vez”. Como sabemos que los valores propios de una matriz triangular aparecen en la diagonal, sabemos que los valores propios de

    \[A=\left[\begin{array}{cc}{1}&{1}\\{0}&{1}\end{array}\right] \nonumber \]

    son “1 y 1”; es decir, el\(\lambda = 1\) aparece dos veces. ¿Qué significa eso cuando consideramos los vectores propios de\(\lambda = 1\)? Compara el resultado de esto con la matriz

    \[A=\left[\begin{array}{cc}{1}&{0}\\{0}&{1}\end{array}\right], \nonumber \]

    que también tiene la\(\lambda =1\) comparecencia en dos ocasiones. \(^{5}\)

    Tercero, considerar la matriz

    \[A=\left[\begin{array}{cc}{0}&{-1}\\{1}&{0}\end{array}\right]. \nonumber \]

    ¿Cuáles son los valores propios? \(^{6}\)Rápidamente calculamos el polinomio característico a ser\(p(\lambda) = \lambda^2 + 1\). Por lo tanto los valores propios son\(\pm \sqrt{-1} = \pm i\). ¿Qué significa esto?

    Finalmente, hemos encontrado los valores propios de las matrices al encontrar las raíces del polinomio característico. Hemos limitado nuestros ejemplos a polinomios cuadráticos y cúbicos; uno esperaría que para matrices de mayor tamaño se utilizara una computadora para factorizar los polinomios característicos. Sin embargo, en general, no es así como se encuentran los valores propios. Factorizar polinomios de orden alto es demasiado poco confiable, incluso con una computadora; los errores de redondeo pueden causar resultados impredecibles. También, para incluso calcular el polinomio característico, se necesita calcular el determinante, que también es costoso (como se discutió en el capítulo anterior).

    Entonces, ¿cómo se encuentran los valores propios? Existen procesos iterativos que pueden transformar progresivamente una matriz\(A\) en otra matriz que es casi una matriz triangular superior (las entradas por debajo de la diagonal son casi cero) donde las entradas en la diagonal son los valores propios. Cuantas más iteraciones se realice, mejor será la aproximación.

    ¡Estos métodos son tan rápidos y confiables que algunos programas informáticos convierten los problemas de búsqueda de raíz polinómica en problemas de valor propio!

    La mayoría de los libros de texto sobre Álgebra Lineal proporcionarán orientación sobre la exploración de los temas anteriores y darán más información sobre lo que está sucediendo. Hemos mencionado todas las propiedades de autovalor y autovector en esta sección por las mismas razones que dimos en la sección anterior. Primero, conocer estas propiedades nos ayuda a resolver numerosos problemas del mundo real, y segundo, es fascinante ver cuán rica y profunda es la teoría de las matrices.

    Notas al pie

    [1] Hemos definido un para ser un vector de columna. Algunos matemáticos prefieren usar vectores de fila en su lugar; en ese caso, se parece a la ecuación típica de autovalor/vector propio\(\vec{x}A=\lambda\vec{x}\). Resulta que hacer las cosas de esta manera te dará los mismos valores propios que nuestro método. Y lo que es más, toma la transposición de la ecuación anterior: obtienes\((\vec{x}A)^{T}=(\lambda\vec{x})^{T}\) cuál es también\(A^{T}\vec{x}^{T}=\lambda\vec{x}^{T}\). La transposición de un vector de fila es un vector de columna, por lo que esta ecuación es en realidad del tipo al que estamos acostumbrados, y podemos decir que\(\vec{x}^{T}\) es un vector propio de\(A^{T}\).

    En resumen, lo que encontramos es que los vectores propios de\(A^{T}\) son los vectores propios de “fila” de\(A\), y viceversa.

    [2] ¿Quién en el mundo piensa en estas cosas? Parece que la respuesta es Marie Ennemond Camille Jordan, quien a pesar de tener al menos dos nombres de chicas, era un chico.

    [3] Dado que\(0\) es un número “especial”, podríamos pensar que sí — después de todo, encontramos que tener un determinante de\(0\) es importante. Por otra parte, una matriz con un rastro de\(0\) no es tan importante. (Bueno, por lo que hemos visto; en realidad lo es). Entonces, tener un valor propio de\(0\) puede o no ser significativo, pero nos iría bien si reconociéramos la posibilidad de significación y decidiéramos investigar más a fondo.

    [4] Sí.

    [5] Para dirigir más estudios, ayuda saber que los matemáticos se refieren a esto como la duplicidad de un valor propio. En cada uno de estos dos ejemplos, tiene el\(\lambda=1\) con duplicidad de\(2\).

    [6] Tenga cuidado; esta matriz no es triangular.


    This page titled 4.2: Propiedades de los valores propios y vectores propios is shared under a CC BY-NC 3.0 license and was authored, remixed, and/or curated by Gregory Hartman et al. via source content that was edited to the style and standards of the LibreTexts platform; a detailed edit history is available upon request.