Saltar al contenido principal
LibreTexts Español

24.6: Tensores 101

  • Page ID
    130622
  • \( \newcommand{\vecs}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} } \)

    \( \newcommand{\vecd}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash {#1}}} \)

    \( \newcommand{\id}{\mathrm{id}}\) \( \newcommand{\Span}{\mathrm{span}}\)

    ( \newcommand{\kernel}{\mathrm{null}\,}\) \( \newcommand{\range}{\mathrm{range}\,}\)

    \( \newcommand{\RealPart}{\mathrm{Re}}\) \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\)

    \( \newcommand{\Argument}{\mathrm{Arg}}\) \( \newcommand{\norm}[1]{\| #1 \|}\)

    \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\)

    \( \newcommand{\Span}{\mathrm{span}}\)

    \( \newcommand{\id}{\mathrm{id}}\)

    \( \newcommand{\Span}{\mathrm{span}}\)

    \( \newcommand{\kernel}{\mathrm{null}\,}\)

    \( \newcommand{\range}{\mathrm{range}\,}\)

    \( \newcommand{\RealPart}{\mathrm{Re}}\)

    \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\)

    \( \newcommand{\Argument}{\mathrm{Arg}}\)

    \( \newcommand{\norm}[1]{\| #1 \|}\)

    \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\)

    \( \newcommand{\Span}{\mathrm{span}}\) \( \newcommand{\AA}{\unicode[.8,0]{x212B}}\)

    \( \newcommand{\vectorA}[1]{\vec{#1}}      % arrow\)

    \( \newcommand{\vectorAt}[1]{\vec{\text{#1}}}      % arrow\)

    \( \newcommand{\vectorB}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} } \)

    \( \newcommand{\vectorC}[1]{\textbf{#1}} \)

    \( \newcommand{\vectorD}[1]{\overrightarrow{#1}} \)

    \( \newcommand{\vectorDt}[1]{\overrightarrow{\text{#1}}} \)

    \( \newcommand{\vectE}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash{\mathbf {#1}}}} \)

    \( \newcommand{\vecs}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} } \)

    \( \newcommand{\vecd}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash {#1}}} \)

    Vemos que el “tensor de inercia” definido anteriormente como

    \ begin {ecuación}
    I_ {i k} =\ suma_ {n} m_ {n}\ izquierda (x_ {n l} ^ {2}\ delta_ {i k} -x_ {n i} x_ {n k}\ derecha)
    \ final {ecuación}

    es una matriz\(3×3\) bidimensional de términos, llamados componentes, cada uno de los cuales está compuesto (para este tensor particular) de productos de componentes vectoriales.

    Obviamente, si hubiéramos elegido un conjunto diferente de ejes cartesianos del mismo origen\(O\) los componentes vectoriales serían diferentes: sabemos cómo se transforma un vector bajo tal cambio de ejes,\((x, y, z) \rightarrow\left(x^{\prime}, y^{\prime}, z^{\prime}\right) \text { where }\)

    \ begin {ecuación}
    \ left (\ begin {array} {l}
    x^ {\ prime}\\
    y^ {\ prime}\\
    z^ {\ prime}
    \ end {array}\ right) =\ left (\ begin {array} {ccc}
    \ cos\ theta &\ sin\ theta & 0\
    -\ sin\ theta &\ cos\ theta & 0\\
    0 & 0 & 1
    \ end {array}\ right)\ left (\ begin {array} {l}
    x\\
    y\
    z
    \ end {array}\ right)
    \ end {equation}

    Esto se puede escribir de manera más sucinta como

    \ begin {ecuación}
    x_ {i} ^ {\ prime} =R_ {i j} x_ {j},\ texto {o}\ mathbf {x} ^ {\ prime} =\ mathbf {R}\ mathbf {x}
    \ end {ecuación}

    la fuente en negrita que indica un vector o matriz.

    De hecho, una transformación de cualquier conjunto de ejes cartesianos a cualquier otro conjunto que tenga el mismo origen es una rotación alrededor de algún eje. Esto se puede ver fácilmente girando primero para que el\(x^{\prime}\) eje coincida con el eje x, luego girando alrededor de ese eje. (Por supuesto, ambos conjuntos de ejes deben tener la misma mano.) Discutiremos estas transformaciones de rotación con más detalle más adelante, por ahora solo mencionaremos que la inversa de una rotación viene dada por la matriz de transposición (verifique el ejemplo anterior),

    \ begin {ecuación}
    \ mathbf {R} ^ {\ mathbf {T}} =\ mathbf {R} ^ {-1},\ quad\ texto {o}\ quad R_ {j i} =R_ {i j} ^ {-1}
    \ end {ecuación}

    así que si el vector de columna

    \ begin {ecuación}
    x_ {i} ^ {\ prime} =R_ {i j} x_ {j},\ texto {o}\ mathbf {x} ^ {\ prime} =\ mathbf {R}\ mathbf {x}
    \ end {ecuación}

    el vector de fila

    \ begin {ecuación}
    \ mathbf {x} ^ {\ prime\ mathbf {T}} =\ mathbf {x} ^ {\ mathrm {T}}\ mathbf {R} ^ {\ mathbf {T}} =\ mathbf {x} ^ {\ mathbf {T}}\ mathbf {R} ^ {-\ mathbf {1}}
    \ end {ecuación}

    a.k.a.\(x_{i}^{\prime}=R_{i j} x_{j}=x_{j} R_{j i}^{T}=x_{j} R_{j i}^{-1}\), y la longitud del vector no cambia:

    \(x_{i}^{\prime} x_{i}^{\prime}=\mathbf{x}^{\prime \mathrm{T}} \mathbf{x}^{\prime}=\mathbf{x}^{\mathrm{T}} \mathbf{R}^{\mathrm{T}} \mathbf{R} \mathbf{x}=\mathbf{x}^{\mathrm{T}} \mathbf{R}^{-1} \mathbf{R} \mathbf{x}=\mathbf{x}^{\mathrm{T}} \mathbf{x}=x_{i} x_{i}\)

    Podría valer la pena deletrear explícitamente aquí que la transposición de una matriz cuadrada (y casi todas nuestras matrices son cuadradas) se encuentra simplemente intercambiando las filas y columnas, o intercambiando de manera equivalente elementos que son los reflejos entre sí en la diagonal principal, pero la transposición de un vector, escrito como , tiene los mismos elementos que una fila, y el producto de vectores sigue las reglas estándar para la multiplicación matricial:

    \ begin {ecuación}
    (A B) _ {i j} =A_ {i k} B_ {k j}
    \ final {ecuación}

    con el sufijo ficticio\(k\) sumado.

    Por lo tanto,

    \ begin {ecuación}
    \ left (\ begin {array} {l}
    a_ {1}\\
    a_ {2}\\
    a_ {3}
    \ end {array}\ right) ^ {T} =\ left (\ begin {array} {lll}
    a_ {1} & a_ {2} & a_ {3}
    \ end {array}\ right)
    \ end {ecuación}

    y

    \ begin {ecuación}
    \ mathbf {a} ^ {\ mathbf {T}}\ mathbf {a} =\ left (\ begin {array} {lll}
    a_ {1} & a_ {2} & a_ {3}
    \ end {array}\ derecha)\ left (\ begin {array} {l}
    a_ {1}\
    a_ {2}\\
    a_ {3}
    \ end {array}\ right) =a_ {1} ^ {2} +a_ {2} ^ {2 } +a_ {3} ^ {2}
    \ final {ecuación}

    pero

    \ begin {ecuación}
    \ mathbf {a}\ mathbf {a} ^ {\ mathbf {T}} =\ left (\ begin {array} {l}
    a_ {1}\
    a_ {2}\\
    a_ {3}
    \ end {array}\ derecha)\ left (\ begin {array} {lll}
    a_ {1} & a_ {2} & a_ {3}
    \ end {array}\ right) =\ left (\ begin {array } {ccc}
    a_ {1} ^ {2} y a_ {1} a_ {2} y a_ {1} a_ {3}\
    a_ {1} a_ {2} a_ {2} y a_ {2} a_ {3} a_ {3}\ a_ {1}
    a_ {3} a_ {3} y a_ {2} a_ {3} y a_ {3} ^ {2}
    \ end {array}\ derecha)
    \ end {ecuación}

    Esto quizás te recuerde a los vectores espaciales Hilbert en mecánica cuántica: el vector transpuesto anterior es análogo al sujetador, siendo el vector de columna inicial el ket. Una diferencia con la mecánica cuántica es que todos nuestros vectores aquí son reales, si ese no fuera el caso sería natural agregar conjugación compleja a la transposición, para dar\(\mathbf{a}^{*} \mathbf{a}=\left|a_{1}\right|^{2}+\left|a_{2}\right|^{2}+\left|a_{3}\right|^{2}\), la longitud al cuadrado del vector.

    La diferencia que se muestra arriba\(\mathbf{a}^{\mathbf{T}} \mathbf{a} \text { and } \mathbf{a} \mathbf{a}^{\mathbf{T}}\) es exactamente paralela a la diferencia entre\(\langle a \mid a\rangle \text { and }|a\rangle\langle a|\) en mecánica cuántica: el primero es un número, la norma del vector, el segundo es un operador, una proyección al estado\(|a\rangle\)


    This page titled 24.6: Tensores 101 is shared under a not declared license and was authored, remixed, and/or curated by Michael Fowler.