Saltar al contenido principal
LibreTexts Español

3.2: Matrices

  • Page ID
    124856
  • \( \newcommand{\vecs}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} } \)

    \( \newcommand{\vecd}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash {#1}}} \)

    \( \newcommand{\id}{\mathrm{id}}\) \( \newcommand{\Span}{\mathrm{span}}\)

    ( \newcommand{\kernel}{\mathrm{null}\,}\) \( \newcommand{\range}{\mathrm{range}\,}\)

    \( \newcommand{\RealPart}{\mathrm{Re}}\) \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\)

    \( \newcommand{\Argument}{\mathrm{Arg}}\) \( \newcommand{\norm}[1]{\| #1 \|}\)

    \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\)

    \( \newcommand{\Span}{\mathrm{span}}\)

    \( \newcommand{\id}{\mathrm{id}}\)

    \( \newcommand{\Span}{\mathrm{span}}\)

    \( \newcommand{\kernel}{\mathrm{null}\,}\)

    \( \newcommand{\range}{\mathrm{range}\,}\)

    \( \newcommand{\RealPart}{\mathrm{Re}}\)

    \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\)

    \( \newcommand{\Argument}{\mathrm{Arg}}\)

    \( \newcommand{\norm}[1]{\| #1 \|}\)

    \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\)

    \( \newcommand{\Span}{\mathrm{span}}\) \( \newcommand{\AA}{\unicode[.8,0]{x212B}}\)

    \( \newcommand{\vectorA}[1]{\vec{#1}}      % arrow\)

    \( \newcommand{\vectorAt}[1]{\vec{\text{#1}}}      % arrow\)

    \( \newcommand{\vectorB}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} } \)

    \( \newcommand{\vectorC}[1]{\textbf{#1}} \)

    \( \newcommand{\vectorD}[1]{\overrightarrow{#1}} \)

    \( \newcommand{\vectorDt}[1]{\overrightarrow{\text{#1}}} \)

    \( \newcommand{\vectE}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash{\mathbf {#1}}}} \)

    \( \newcommand{\vecs}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} } \)

    \( \newcommand{\vecd}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash {#1}}} \)

    Es muy útil reescribir la ecuación (3.14) en una notación matricial. Debido a la linealidad de las ecuaciones de movimiento para el movimiento armónico, será muy útil tener a la mano las herramientas de álgebra lineal para nuestro estudio de los fenómenos de onda. Si no has estudiado álgebra lineal (o no entendiste mucho) en los cursos de matemáticas, NO ENTRES EN PÁNICO. Comenzaremos desde cero describiendo las propiedades de las matrices y la multiplicación de matrices. Lo importante a tener en cuenta es que las matrices no son nada muy profundas ni mágicas. Son solo dispositivos de contabilidad diseñados para hacerte la vida más fácil cuando lidias con más de una ecuación a la vez.

    Una matriz es una matriz rectangular de números. Una\(N \times M\) matriz tiene\(N\) filas y\(M\) columnas. Las matrices se pueden sumar y restar simplemente sumando y restando cada uno de los componentes. La diferencia viene en la multiplicación. Es muy conveniente definir una ley de multiplicación que defina el producto de una\(N \times M\) matriz a la izquierda con una\(M \times L\) matriz a la derecha (¡el orden es importante!) para ser una\(N \times L\) matriz de la siguiente manera:

    Llame a la\(N \times M\) matriz\(A\) y deje\(A_{jk}\) ser el número en la fila\(j\) th y\(k\) th columna para\(1 \leq j \leq N\) y\(1 \leq k \leq M\). Estos componentes individuales de la matriz se denominan elementos de matriz. En términos de sus elementos de matriz, la matriz\(A\) se ve como:\ [A=\ left (\ begin {array} {cccc}
    A_ {11} & A_ {12} &\ cdots & A_ {1 M}\\
    A_ {21} & A_ {22} &\ cdots & A_ {2 M}\\
    \ vdots &\ vdots &\ vdots &\ vdots\
    A_ _ {N 1} & A_ {N 2} &\ cdots & A_ {N M}
    \ end {array}\ derecha).\]

    Llamar a la\(M \times L\) matriz\(B\) con elementos de matriz\(B_{kl}\) para\(1 \leq k \leq M\) y\(1 \leq l \leq L\):\ [B=\ left (\ begin {array} {cccc}
    B_ {11} & B_ {12} &\ cdots & B_ {1 L}\\
    B_ {21} & B_ {22} &\ cdots & B_ {2 L}\\
    \ vdots &\ vdots &\ ddots &\ vdots\\
    B_ {M 1} & B_ {M 2} &\ cdots & B_ {M L}
    \ end {array}\ derecha).\]

    Llamar a la\(N \times L\) matriz\(C\) con elementos de matriz\(C_{jl}\) para\(1 \leq j \leq N\) y\(1 \leq l \leq L\). \ [C=\ left (\ begin {array} {cccc}
    C_ {11} & C_ {12} &\ cdots & C_ {1 L}\\
    C_ {21} & C_ {22} &\ cdots & C_ {2 L}\\\ vdots &
    \ vdots &\ ddots &\ vdots\\ vdots\\
    C_ {N 1} & C_ {N 2} &\ cdots & C_ {N L}
    \ end {matriz }\ derecho).\]

    Entonces la matriz\(C\) se define como la matriz del producto\(A B\) si\[C_{j l}=\sum_{k=1}^{M} A_{j k} \cdot B_{k l} .\]

    La ecuación (3.23) es la declaración algebraica de la regla de “fila-columna”. Para calcular el elemento\(j \ell\) matriz de la matriz producto\(AB\), tome la fila\(j\) th de la matriz\(A\) y la\(\ell\) ésima columna de la matriz\(B\) y forme su punto-producto (correspondiente a la suma sobre\(k\) en (3.23)). Esta regla se ilustra a continuación:\ [\ left (\ begin {array} {ccccc}
    A_ {11} &\ cdots & A_ {1 k} &\ cdots &\ cdots & A_ {1 M}
    \\\ vdots &\ ddots &\ ddots &\ ddots &\ vdots
    \\ hline A_ {j 1} &\ cdots & A_ {j k} &\ cdots & A_ {j M}\\
    \ hline\ vdots &\ ddots &\ vdots &\ ddots &\ vdots\
    \ vdots\\ Lambda_ {N 1} &\ cdots &\ cdots &\ cdots &\ Lambda_ {N M}
    \ end {array}\ derecha)\ left (\ begin {array} {cc|c|cc}
    B_ {11} &\ cdots & B_ {1\ ell} &\ cdots & amp; B_ {1 L}\\\ vdots &
    \ ddots &\ vdots &\ ddots &\ vdots\\ vdots\\
    B_ {k 1} &\ cdots & B_ {k\ ell} &\ cdots & B_ {k L}\\\ vdots &\ ddots &\ ddots &\ ddots &
    \ vdots\\ b_ {M 1} &\ cdots &\ cdots &\ vdots &\ vdots\\
    b_ {M 1} &\ cdots &\ cdots B_ {M\ ell} & ;\ cdots & B_ {M L}
    \ end {array}\ derecha)\]

    \ [=\ left (\ begin {array} {ccccc}
    C_ {11} &\ cdots & C_ {1\ ell} &\ cdots & C_ {1 L}
    \\\ vdots &\ ddots &\ ddots &\ ddots &\ vdots &\ vdots\\
    C_ {j 1} &\ cdots &\ cdots & C_ {j L}\\
    \ vdots &\ ddots &\ vdots &\ ddots &\ vdots\\
    C_ {N 1} &\ cdots & C_ {N\ ell} &\ cdots & C_ {N L}
    \ end {array}\ derecha).\]

    Por ejemplo,\ [\ left (\ begin {array} {cc}
    2 & 3\\
    0 & 1\\
    2 & -1
    \ end {array}\ right)\ cdot\ left (\ begin {array} {lll}
    1 & 0 & 2\\
    0 & 1 & 3
    \ end {array}\ right) =\ left (\ begin {array} {ccc}
    2 & 3 & 13\\
    0 & 1 & 3\\
    2 & -1 & 1
    \ end {array}\ right).\]

    Es fácil comprobar que el producto matriz definido de esta manera es asociativo,\((AB)C = A(BC)\). Sin embargo, en general, no es conmutativa,\(A B \neq B A\). De hecho, si las matrices no son cuadradas, ¡el producto en el orden opuesto puede que ni siquiera tenga sentido! El producto matriz\(AB\) solo tiene sentido si el número de columnas de\(A\) es el mismo que el número de filas de\(B\). ¡Cuidado!

    Excepto por el hecho de que no es conmutativa, la multiplicación matricial se comporta de manera muy parecida a la multiplicación ordinaria. Por ejemplo, hay matrices de “identidad”. La matriz de\(N \times N\) identidad, llamada\(I\), tiene ceros en todas partes excepto por 1's abajo de la diagonal. Por ejemplo, la matriz de\(3 \times 3\) identidad es\ [I=\ left (\ begin {array} {lll}
    1 & 0 & 0\\
    0 & 1 & 0\\
    0 & 0 & 1
    \ end {array}\ right).\]

    La matriz de\(N \times N\) identidad satisface\ [\ begin {array}
    I A=A I=A\ text {para cualquier} N\ times N\ text {matrix} A\\
    I B=B\ text {para cualquier} N\ times M\ text {matrix} B\ text {;}\
    C I=C\ text {para cualquier} M\ times N\ text {matrix} C\ text {.}
    \ end {array}\]

    Nos ocuparemos principalmente de las matrices “cuadradas” (es decir\(N \times N\)).

    Las matrices nos permiten tratar muchas ecuaciones lineales al mismo tiempo.

    Un vector de columna\(N\) dimensional puede considerarse como una\(N \times 1\) matriz. Llamaremos a este objeto un “\(N\)-vector”. No debe confundirse con un vector de coordenadas en el espacio tridimensional. Asimismo, podemos pensar en un vector de fila\(N\) dimensional como una matriz\(1 \times N\) 0. La multiplicación matricial también puede describir el producto de una matriz con un vector para dar un vector. El caso particularmente importante que necesitaremos para analizar fenómenos de onda involucra matrices cuadradas. Considere una\(N \times N\) matriz\(A\) multiplicando un\(N\) -vector,\(X\), para dar otro\(N\) -vector,\(F\). La matriz cuadrada\(A\) tiene elementos de\(N^{2}\) matriz,\(A_{jk}\) para\(j\) y\(k = 1\) para\(N\). Los vectores\(X\) y\(F\) cada uno tienen elementos de\(N\) matriz, solo sus componentes\(X_{j}\) y\(F_{j}\) para\(j = 1\) a\(N\). Luego la ecuación matricial:\[A X-F\]

    en realidad significa\(N\) ecuaciones:\[\sum_{k=1}^{N} A_{j k} \cdot X_{k}=F_{j}\]

    \(j=1\)para\(N\). En otras palabras, estas son ecuaciones lineales\(N\) simultáneas para los\(N\)\(X_{j}\) 's. todos ustedes saben, a partir de sus estudios de álgebra cómo resolver para los\(X_{j}\)'s en términos de los\(F_{j}\)\(A_{jk}\)'s y los's pero es muy útil hacerlo en notación matricial. A veces, podemos encontrar el “inverso” de la matriz\(A\),\(A^{-1}\), que tiene la propiedad\[A A^{-1}=A^{-1} A=I ,\]

    donde\(I\) está la matriz de identidad discutida en (3.26) y (3.27). Si podemos encontrar tal matriz, entonces las ecuaciones lineales\(N\) simultáneas, (3.29), tienen una solución única que podemos escribir en una forma muy compacta. Multiplique ambos lados de (3.29) por\(A^{-1}\). En el lado izquierdo, podemos usar (3.30) y (3.27) para deshacernos del\(A^{-1}A\\) y escribir la solución de la siguiente manera:\[X=A^{-1} F .\]

    Inversa y Determinante

    Podemos computar\(A^{-1}\) en términos del “determinante” de\(A\). El determinante de la matriz\(A\) es una suma de productos de los elementos de la matriz de\(A\) con las siguientes propiedades:

    • Hay\(N!\) términos en la suma;
    • Cada término en la suma es un producto de\(N\) diferentes elementos de la matriz;
    • En cada producto, cada número de fila y cada número de columna aparece exactamente una vez;
    • Cada producto de este tipo se puede obtener del producto de los elementos diagonales\(A_{11} A_{22} \cdots A_{N N}\),, mediante una secuencia de intercambios de las etiquetas de columna. Por ejemplo,\(A_{12} A_{21} A_{33} \cdots A_{N N}\) implica un intercambio mientras que\(A_{12} A_{23} A_{31} A_{44} \cdots A_{N N}\) requiere dos.
    • El coeficiente de un producto en el determinante es +1 si implica un número par de intercambios y −1 si implica un número impar de intercambios.

    Así, el determinante de una\(2 \times 2\) matriz,\(A\) es\[\operatorname{det} A=A_{11} A_{22}-A_{12} A_{21} .\]

    El determinante de una\(3 \times 3\) matriz,\(A\) es\ [\ begin {recopilada}
    \ operatorname {det} A=A_ {11} A_ {22} A_ {33} +A_ {12} A_ {23} A_ {31} +A_ {13} A_ {21} A_ {32}\\
    -A_ {11} A_ {23} A_ {32} -A_ {13} -A_ {13} -A_ {13}} A_ {22} A_ {31} -A_ {12} A_ {21} A_ {33}.
    \ end {reunido}\]

    A menos que seas muy desafortunado, nunca tendrás que computar el determinante de una matriz mayor que a\(3 \times 3\) mano. Si eres tan desafortunado, lo mejor es usar un procedimiento inductivo que lo construya a partir de los determinantes de submatrices más pequeñas. Discutiremos este procedimiento a continuación.

    Si\(\operatorname{det} A=0\), la matriz no tiene inversa. No es “invertible”. En este caso, las ecuaciones lineales simultáneas no tienen solución alguna, o un número infinito de soluciones. Si\(\operatorname{det} A \neq 0\), la matriz inversa existe y es dada únicamente por\[A^{-1}=\frac{\tilde{A}}{\operatorname{det} A}\]

    donde\(\tilde{A}\) es la matriz de cofactores definida por sus elementos de matriz de la siguiente manera:\[(\AA)_{j k}=\operatorname{det} A(j k)\]

    con\ [\ begin {alineado}
    &A (j k) _ {l m} =1\ texto {si} m=j\ texto {y} l=k\\
    &A (j k) _ {l m} =0\ texto {si} m=j\ texto {y} l\ neq k\\
    &A (j k) _ {l m} =0\ texto {si} m\ neq j\ texto {y} l=k\\
    &A (j k) _ {l m} =A_ {l m}\ texto {si} m\ neq j \ texto {y} l\ neq k
    \ fin {alineado}\]

    En otras palabras,\(A(jk)\) se obtiene de la matriz\(A\) reemplazando el elemento\(kj\) matriz por 1 y todos los demás elementos de la matriz en fila\(k\) o columna\(j\) por 0. Así si\ [A=\ left (\ begin {array} {cc|ccc} A_ {11} &\ cdots &
    A_ {1 j} &\ cdots &\ cdots & A_ {1 N}\\\ vdots &\ ddots &
    \ ddots &\ ddots &\ vdots\\ hline A_ {k 1} &\ cdots & A_ {k} &
    \ cdots &\ cdots &\ cdots &\ cdots &\ cdots &\ cdots &\ cdots &\ cdots &\ A_ {k N}
    \\\ hline\ vdots & amp;\ ddots &\ vdots &\ ddots &\ vdots\\
    A_ {N 1} &\ cdots & A_ {N j} &\ cdots & A_ {N N}
    \ end {array}\ derecha),\]

    \ [A (j k) =\ left (\ begin {array} {cc|ccc}
    A_ {11} &\ cdots &\ cdots &\ cdots & A_ {1 N}\
    \\ vdots &\ ddots &\ ddots &\ vdots &\ vdots\
    \ hline 0 &\ cdots &\ cdots &\ cdots & 0\
    \ hline\ vdots &\ ddots &\ vdots & amp;\ ddots &\ vdots\\
    A_ {N 1} &\ cdots & 0 &\ cdots & A_ {N N}
    \ end {array}\ right).\]

    Tenga en cuenta el intercambio furtivo de\(j \leftrightarrow k\) en esta definición, en comparación con (3.23).

    Por ejemplo si\ [A=\ left (\ begin {array} {ll}
    4 & 3\\
    5 & 2
    \ end {array}\ right)\]

    entonces\ [\ begin {aligned}
    &A (11) =\ left (\ begin {array} {ll}
    1 & 0\\
    0 & 2
    \ end {array}\ right) & A (12) =\ left (\ begin {array} {ll}
    0 & 3\\
    1 & 0
    \ end {array}\ right)\\
    &A (21) =\ left (\ begin {array} {ll}
    0 & 1\\
    5 & 0
    \ end {array}\ right) & A (22) =\ left (\ begin {array} {ll}
    4 & 0\\
    0 & 1
    \ end {array}\ right).
    \ end {alineado}\]

    Así,\ [\ bar {A} =\ left (\ begin {array} {cc}
    2 & -3\\
    -5 & 4
    \ end {array}\ right)\]

    y desde\(\operatorname{det} A=4 \cdot 2-5 \cdot 3=-7\),\ [A^ {-1} =\ left (\ begin {array} {cc}
    -2/7 & 3/7\\
    5/7 & -4/7/7
    \ end {array}\ right).\]

    \(A^{-1}\)satisface\(A A^{-1}=A^{-1} A=I\) donde\(I\) esta la matriz de identidad:\ [I=\ left (\ begin {array} {ll}
    1 & 0\\
    0 & 1
    \ end {array}\ right).\]

    En cuanto a las submatrices,\(A(jk)\), podemos definir el determinante inductivamente, como se prometió anteriormente. De hecho, la razón por la que (3.30) funciona es que el determinante puede escribirse como\[\operatorname{det} A=\sum_{k=1}^{N} A_{1 k} \operatorname{det} A(k 1) .\]

    En realidad esto es cierto para cualquier fila, no sólo\(j = 1\). La relación, (3.30) se puede reescribir como\ [\ sum_ {k=1} ^ {N} A_ {j k}\ nombreoperador {det} A\ left (k j^ {\ prime}\ derecha) =\ izquierda\ {\ begin {array} {c}
    \ nombreoperador {det} A\ text {for} j=j^ {\ prime}\\
    0\ text {for} j\ neq j^ {\ prime}
    \ end {array}\ derecho.\]

    Los determinantes de las submatrices,\(\operatorname{det} A(k \mathrm{l})\), en (3.43) pueden, a su vez, ser calculados por el mismo procedimiento. El resultado es una definición del determinante que se refiere a sí mismo. Sin embargo, eventualmente, el proceso termina porque las matrices siguen haciéndose más pequeñas y el determinante siempre se puede computar de esta manera. El único problema con este procedimiento es que resulta muy tedioso para una matriz grande. Para una\(n \times n\) matriz, terminas computando\(n!\) términos y sumarlos. Para los grandes\(n\), esto no es práctico. Una de las características agradables de las técnicas que discutiremos en los próximos capítulos es que podremos evitar tales cálculos.

    Más datos útiles sobre Matrices

    Supongamos que\(A\) y\(B\) son\(N \times N\) matrices y\(v\) es un\(N\) -vector.

    1. Si conoces las inversas de\(A\) y\(B\), puedes encontrar la inversa del producto,\(AB\), multiplicando las inversas en el orden inverso:\[(A B)^{-1}=B^{-1} A^{-1} .\]
    2. El determinante del producto,\(AB\), es el producto de los determinantes:\[\operatorname{det}(A B)=\operatorname{det} A \operatorname{det} B ,\]
      así si\(\operatorname{det}(A B)-0\), entonces cualquiera\(A\) o\(B\) tiene determinante de fuga.
    3. Una matriz que multiplica un vector distinto de cero puede dar cero solo si el determinante de la matriz desaparece:\[A v=0 \Rightarrow \operatorname{det} A=0 \text { or } v=0\]
      Esta es la afirmación, en lenguaje matricial, de que las ecuaciones lineales\(N\) homogéneas en\(N\) incógnitas pueden tener una solución no trivial\(v \neq 0\),, solo si el determinante de los coeficientes se desvanece.
    4. Del mismo modo\(\operatorname{det} A=0\), si, existe un vector distinto de cero,\(v\), que es aniquilado por\(A\):\[\operatorname{det} A=0 \Rightarrow \exists v \neq 0 \text { such that } A v=0 .\]
      Esta es la afirmación, en lenguaje matricial, de que las ecuaciones lineales\(N\) homogéneas en\(N\) incógnitas realmente tienen una solución no trivial, \(v \neq 0\), si el determinante de los coeficientes desaparece.
    5. La transposición de una\(N \times M\) matriz\(A\), denotada por\(A^{T}\), es la\(M \times N\) matriz obtenida reflejando la matriz alrededor de una línea diagonal a través de la esquina superior izquierda. Así, si\ [A=\ left (\ begin {array} {cccc}
      A_ {11} & A_ {12} &\ cdots & A_ {1 M}\\
      A_ {21} & A_ {22} &\ cdots & A_ {2 M}
      \\\ vdots &\ vdots &\ ddots &
      \ vdots\\ vdots &\ vdots &\ vdots\\
      A_ {N 1} & A_ {N 2} &\ cdots & A_ {N M}
      \ end {array}\ derecha)\]
      luego\ [A^ {T} =\ izquierda (\ begin {array} {ccccc}
      A_ {11} & A_ {21} &\ cdots &\ cdots &\ cdots & A_ {N 1}\\
      A_ {12} y A_ {22} &\ cdots &\ cdots & A_ {N 2}\\
      \ vdots &\ vdots &\ ddots &\ ddots &\ vdots\\ vdots\\
      A_ {1 M} & A_ {2 M} &\ cdots &\ cdots & A_ {N M}
      \ end {array}\ right).\]
      Tenga en cuenta que si\(N \neq M\), la forma de la matriz se cambia por transposición. Solo para matrices cuadradas la transposición te devuelve una matriz del mismo tipo. Una matriz cuadrada que es igual a su transposición se denomina matriz “simétrica”.

    Ecuaciones de valor propio

    Haremos un uso extensivo del concepto de una “ecuación de valor propio”. Para una\(N \times N\) matriz,\(R\), la ecuación de valor propio tiene la forma:\[R c=h c,\]

    donde\(c\) es un\(N\) vector distinto de cero, 1 y\(h\) es un número. La idea es encontrar tanto el número\(h\), que se llama el valor propio, como el vector\(c\), que se llama el vector propio. Este es el problema que discutimos en el capítulo 1 en (1.78) en relación con la invarianza de la traducción del tiempo, pero ahora escrito en forma de matriz.

    Un par de ejemplos pueden estar en orden. Supongamos que\(R\) es una matriz diagonal, como\ [R=\ left (\ begin {array} {ll}
    2 & 0\\
    0 & 1
    \ end {array}\ right).\]

    Entonces los valores propios son solo los elementos diagonales, 2 y 1, y los vectores propios son vectores en las direcciones de coordenadas,\ [R\ left (\ begin {array} {l}
    1\\
    0
    \ end {array}\ right) =2\ left (\ begin {array} {l}
    1\\
    0
    \ end {array}\ derecha),\ quad R\ izquierda (\ begin {array} {l}
    0\\
    1
    \ end {array}\ right) =1\ left (\ begin {array} {l}
    0\\
    1
    \ end {array}\ right).\]

    Un ejemplo menos obvio es\ [R=\ left (\ begin {array} {ll}
    2 & 1\\
    1 & 2
    \ end {array}\ right).\]

    Esta vez los valores propios son 3 y 1, y los vectores propios son como se muestra a continuación:\ [R\ left (\ begin {array} {l}
    1\\
    1
    \ end {array}\ right) =3\ left (\ begin {array} {l}

    1\
    \ end {array}\ right),\ quad R\ left (\ begin {array} {c}
    1\\
    -1
    \ end {array}\ right) =1\ left (\ begin {array} {c}
    1\\
    -1
    \ end {array}\ right).\]

    Puede parecer extraño que en la ecuación de valor propio, tanto el valor propio como el autovector sean incógnitas. La razón por la que funciona es que para la mayoría de los valores de\(h\), la ecuación, (3.51), no tiene solución. Para ver esto, escribimos (3.51) como un conjunto de ecuaciones lineales homogéneas para los componentes del autovector,\(c\),\[(R-h I) c=0 .\]

    El conjunto de ecuaciones, (3.56), tiene soluciones distintas de cero para\(c\) sólo si el determinante de la matriz de coeficientes\(R-h I\),, desaparece. Pero esto va a pasar sólo por\(N\) valores de\(h\), porque la condición\[\operatorname{det}(R-h I)=0\]

    es una ecuación de orden\(N\) th para\(h\). Para cada uno\(h\) que resuelva (3.57), podemos encontrar una solución para\(c\). 2 A continuación daremos algunos ejemplos de este procedimiento.

    Ecuación Matriz de Movimiento

    Es muy útil reescribir la ecuación del movimiento, (3.14), en una notación matricial. Define un vector de columna\(X\),, cuya fila\(j\) th (desde arriba) es la coordenada\(x_{j}\):\ [X=\ left (\ begin {array} {c}
    x_ {1}\\
    x_ {2}\
    \\ vdots\\
    x_ {n}
    \ end {array}\ right).\]

    Definir la “\(K\)matriz”, una\(n \times n\) matriz que tiene el coeficiente\(K_{jk}\) en su\(j\) fila y la columna\(k\) th:\ [K=\ left (\ begin {array} {cccc}
    K_ {11} & K_ {12} &\ cdots & K_ {1 n}\\
    K_ {21} & K_ {22} &\ cdots & K_ {2 n}\\
    \ vdots &\ vdots &\ ddots &\ vdots\\ vdots\\
    K_ {n 1} & K_ {n 2} &\ cdots & K_ {n n}
    \ end {array}\ derecha).\]

    \(K_{jk}\)se dice que es el “elemento\(jk\) matriz” de la\(K\) matriz. Debido a la ecuación (3.19), la matriz\(K\) es simétrica,\(K = K^{T}\).

    Define la matriz diagonal\(M\) con\(m_{j}\) en la\(j\) fila y la columna\(j\) th y ceros en otra parte\ [M=\ left (\ begin {array} {cccc}
    m_ {1} & 0 &\ cdots & 0\\
    0 & m_ {2} &\ cdots & 0\\\ vdots &
    \ vdots &\ ddots &\ ddots & amp;\ vdots\\
    0 & 0 &\ cdots & m_ {n}
    \ end {array}\ derecha).\]

    \(M\)se llama la “matriz de masas”.

    Usando estas definiciones, podemos reescribir (3.14) en notación matricial de la siguiente manera:\[M \frac{d^{2} X}{d t^{2}}=-K X .\]

    Aquí no está pasando nada muy elegante. Acabamos de usar la notación matricial para deshacernos del signo de suma (3.14). La suma ahora está implícita en la multiplicación matricial en (3.61). Esto es útil porque ahora podemos usar las propiedades de matrices y multiplicación de matrices discutidas anteriormente para manipular (3.61). Por ejemplo, podemos simplificar (3.61) un poco multiplicando a la izquierda por\(M^{-1}\) para obtener\[\frac{d^{2} X}{d t^{2}}=-M^{-1} K X .\]

    _____________________
    1\(c = 0\) no cuenta, porque la ecuación se satisface trivialmente para cualquiera\(h\). Nos interesan únicamente las soluciones no triviales.
    2 La situación es un poco más complicada cuando las soluciones para\(h\) son degeneradas. Esto lo discutimos en (3.117) a continuación.


    This page titled 3.2: Matrices is shared under a CC BY-NC-SA 4.0 license and was authored, remixed, and/or curated by Howard Georgi via source content that was edited to the style and standards of the LibreTexts platform; a detailed edit history is available upon request.