Saltar al contenido principal
LibreTexts Español

11.1: El caso que varía en el tiempo

  • Page ID
    85681
  • \( \newcommand{\vecs}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} } \) \( \newcommand{\vecd}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash {#1}}} \)\(\newcommand{\id}{\mathrm{id}}\) \( \newcommand{\Span}{\mathrm{span}}\) \( \newcommand{\kernel}{\mathrm{null}\,}\) \( \newcommand{\range}{\mathrm{range}\,}\) \( \newcommand{\RealPart}{\mathrm{Re}}\) \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\) \( \newcommand{\Argument}{\mathrm{Arg}}\) \( \newcommand{\norm}[1]{\| #1 \|}\) \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\) \( \newcommand{\Span}{\mathrm{span}}\) \(\newcommand{\id}{\mathrm{id}}\) \( \newcommand{\Span}{\mathrm{span}}\) \( \newcommand{\kernel}{\mathrm{null}\,}\) \( \newcommand{\range}{\mathrm{range}\,}\) \( \newcommand{\RealPart}{\mathrm{Re}}\) \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\) \( \newcommand{\Argument}{\mathrm{Arg}}\) \( \newcommand{\norm}[1]{\| #1 \|}\) \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\) \( \newcommand{\Span}{\mathrm{span}}\)\(\newcommand{\AA}{\unicode[.8,0]{x212B}}\)

    Considere la descripción del espacio-estado lineal de tiempo continuo de\(n\) orden th-order

    \ [\ comenzar {alineado}
    \ punto {x} (t) &=A (t) x (t) +B (t) u (t)\\
    y (t) &=C (t) x (t) +D (t) u (t)
    \ final {alineado}\\ etiqueta {11.1}\]

    Siempre asumiremos que las matrices de coeficientes en el modelo anterior se comportan suficientemente bien para que exista una solución única al modelo de espacio de estado para cualquier condición inicial especificada\(x(t_{0})\) y cualquier entrada integrable\(u(t)\). Por ejemplo, si estas matrices de coeficientes son continuas por tramos, con un número finito de discontinuidades en cualquier intervalo finito, entonces se mantienen las propiedades de existencia y singularidad deseadas.

    Podemos describir la solución de (11.1) en términos de una función matricial\(\psi(t, \tau)\) que tiene las siguientes dos propiedades:

    \ [\ comenzar {alineado}
    \ punto {\ Phi} (t,\ tau) &=A (t)\ Phi (t,\ tau)\ (11.2)\\
    \ Phi (\ tau,\ tau) &=I\\ (11.3)
    \ end {alineado}\ nonumber\]

    Esta función de matriz se conoce como la matriz de transición de estado, y bajo nuestro supuesto sobre la naturaleza de la\(A(t)\) misma resulta que la matriz de transición de estado existe y es única.

    Vamos a demostrar que, dado\(x(t_{0})\) y\(u(t)\),

    \[x(t)=\Phi\left(t, t_{0}\right) x\left(t_{0}\right)+\int_{t_{0}}^{t} \Phi(t, \tau) B(\tau) u(\tau) d \tau \ \tag{11.4}\]

    Observe nuevamente que, como en el caso DT, los términos correspondientes a las respuestas de entrada cero y estado cero son evidentes en (11.4). Para verificar (11.4), lo diferenciamos con respecto a\(t\):

    \[\dot{x}(t)=\dot{\Phi}\left(t, t_{0}\right) x\left(t_{0}\right)+\int_{t_{0}}^{t} \dot{\Phi}(t, \tau) B(\tau) u(\tau) d \tau+\Phi(t, t) B(t) u(t) \ \tag{11.5}\]

    Usando (11.2) y (11.3),

    \[\dot{x}(t)=A(t) \Phi\left(t, t_{0}\right) x\left(t_{0}\right)+\int_{t_{0}}^{t} A(t) \Phi(t, \tau) B(\tau) u(\tau) d \tau+B(t) u(t) \ \tag{11.6}\]

    Ahora, ya que la integral se toma con respecto a\(\tau\), se\(A(t)\) puede factorizar:

    \ [\ comenzar {alineado}
    \ punto {x} (t) &=A (t)\ izquierda [\ Phi\ izquierda (t, t_ {0}\ derecha) x\ izquierda (t_ {0}\ derecha) +\ int_ {t_ {0}} ^ {t}\ Phi (t,\ tau) B (\ tau) u (\ tau) d\ tau\ derecha] +B (t) u (t)\ (11.7)\\
    &=A (t) x (t) +B (t) u (t)\\\ (11.8)
    \ final {alineado}\ nonumber\]

    por lo que la expresión en (11.4) efectivamente satisface la ecuación de evolución del estado. Para verificar que también coincide con la condición inicial especificada, tenga en cuenta que

    \[x\left(t_{0}\right)=\Phi\left(t_{0}, t_{0}\right) x\left(t_{0}\right)=x\left(t_{0}\right) \ \tag{11.9}\]

    Ahora hemos demostrado que la función matricial\(\psi(t, \tau)\) satisfaciendo (11.2) y (11.3) da la solución a la ecuación del sistema de tiempo continuo (11.1).

    Ejercicio

    \(\psi(t, \tau)\)Demostrar que debe ser no singular. (Pista: Invoque nuestra afirmación sobre la singularidad de las soluciones.)

    Responder

    La pregunta que queda es cómo encontrar la matriz de transición de estado. Para un sistema lineal general variable en el tiempo, no hay expresión analítica que se\(\psi(t, \tau)\) exprese analíticamente en función de\(A(t)\). En cambio, estamos esencialmente limitados a la solución numérica de la ecuación (11.2) con la condición límite (11.3). Esta ecuación puede resolverse una columna a la vez, de la siguiente manera. Calculamos numéricamente las respectivas soluciones xi (t) de la ecuación homogénea

    \[\dot{x}(t)=A(t) x(t) \ \tag{11.10}\]

    para cada una de las n condiciones iniciales siguientes:

    \ [x^ {1}\ left (t_ {0}\ right) =\ left [\ begin {array} {c}
    1\\
    0\
    0\\
    0\\ 0
    \\ vdots\
    \
    0\ end {array}\ derecha],\ quad x^ {2}\ izquierda (t_ {0}\ derecha) =\ left [\ begin {array} {c}
    0\
    1\\
    0\\
    0\
    \ vdots\\
    0
    \ end {array}\ derecha],\ quad\ ldots,\ quad x^ {n}\ izquierda (t_ {0}\ derecha) =\ izquierda [\ begin {array} {c}

    0\\
    0\ 0\
    \ vdots\\
    1
    \ end {array}\ derecha]\ nonumber\]

    Entonces

    \ [\ Phi\ izquierda (t, t_ {0}\ derecha) =\ izquierda [\ begin {array} {lll}
    x^ {1} (t) &\ ldots & x^ {n} (t)
    \ end {array}\ derecha]\ tag {11.11}\]

    En resumen, conociendo\(n\) soluciones del sistema homogéneo para condiciones iniciales\(n\) independientes, somos capaces de construir la solución general de este sistema lineal variable en el tiempo. La razón subyacente de esta construcción es que las soluciones de un sistema lineal pueden superponerse, y nuestro sistema es de orden\(n\).

    Ejemplo 11.1 Un caso especial

    Considere el siguiente sistema variable en el tiempo

    \ [\ frac {d} {d t}\ left [\ begin {array} {l}
    x_ {1} (t)\\
    x_ {2} (t)
    \ end {array}\ right] =\ left [\ begin {array} {cc}
    \ alpha (t) &\ beta (t)\
    -\ beta (t) &\ alpha (t)
    \ end {array}\ right]\ left [\ begin {array} {l}
    x_ {1} (t)\\
    x_ {2} (t)
    \ end {array}\ derecha]\ nonumber\]

    donde\(\alpha(t)\) y\(\beta(t)\) son funciones continuas de\(t\). Resulta que la estructura especial de la matriz\(A(t)\) aquí permite una solución analítica. Específicamente, verificar que la matriz de transición de estado del sistema sea

    \ [\ Phi\ izquierda (t, t_ {0}\ derecha) =\ izquierda [\ begin {array} {cc}
    \ exp\ izquierda (\ int_ {t_ {0}} ^ {t}\ alfa (\ tau) d\ tau\ derecha)\ cos\ izquierda (\ int_ {t_ {0}} ^ {t}\ beta (\ tau) d\ tau\ derecha) & exp\\ izquierda (\ int_ {t_ {0}} ^ {t}\ alfa (\ tau) d\ tau\ derecha)\ sin\ izquierda (\ int_ {t_ {0}} ^ {t}\ beta (\ tau) d\ tau\ derecha)\\
    -\ exp \ izquierda (\ int_ {t_ {0}} ^ {t}\ alfa (\ tau) d\ tau\ derecha)\ sin\ izquierda (\ int_ {t_ {0}} ^ {t}\ beta (\ tau) d\ tau\ derecha) &\ exp\ izquierda (\ int_ {t_ {0}} ^ {t}\ alfa (\ tau) d\ tau\ derecha)\ cos\ left (\ int_ {t_ {0}} ^ {t}\ beta (\ tau) d\ tau\ derecha)
    \ end {array}\ derecha]\ nonumber\]

    El secreto para resolver el sistema anterior -o equivalentemente, para obtener su matriz de transición de estado- es transformarlo en coordenadas polares a través de las definiciones

    \ [\ begin {alineado}
    r^ {2} (t) &=\ izquierda (x_ {1}\ derecha) ^ {2} (t) +\ izquierda (x_ {2}\ derecha) ^ {2} (t)\
    \ theta (t) &=\ tan ^ {-1}\ izquierda (\ frac {x_ {2}} {x_ {1}}\ derecha)
    \ fin {alineado}\ nonumber\]

    Te dejamos deducir ahora que

    \ [\ begin {alineado}
    \ frac {d} {d t} r^ {2} &=2\ alfa r^ {2}\
    \ frac {d} {d} {d t}\ theta &=-\ beta
    \ end {alineado}\ nonumber\]

    La solución de este sistema de ecuaciones viene dada entonces por

    \[r^{2}(t)=\exp \left(2 \int_{t_{0}}^{t} \alpha(\tau) d \tau\right) r^{2}\left(t_{0}\right)\nonumber\]

    y

    \[\theta(t)=\theta\left(t_{0}\right)-\int_{t_{0}}^{t} \beta(\tau) d \tau\nonumber\]

    Otras propiedades de la Matriz de Transición Estatal

    La primera propiedad que presentamos involucra la composición de la matriz de transición de estado evaluada en diferentes intervalos. Supongamos que en un momento arbitrario\(t_{0}\) el vector de estado es\(x(t_{0}) = x_{0}\),\(x_{0}\) siendo un vector arbitrario. En ausencia de una entrada el vector de estado en el momento\(t\) viene dado por\(x(t)=\Phi\left(t, t_{0}\right) x_{0}\). En cualquier otro momento\(t_{1}\), el vector de estado viene dado por\(x(t_{1})=\Phi\left(t_{1}, t_{0}\right) x_{0}\). También podemos escribir

    \ [\ begin {alineado}
    x (t) &=\ Phi\ izquierda (t, t_ {1}\ derecha) x\ izquierda (t_ {1}\ derecha) =\ Phi\ izquierda (t, t_ {1}\ derecha)\ Phi\ izquierda (t_ {1}, t_ {0}\ derecha) x_ {0}\ &=\ Phi\ izquierda (t, t_ {0}\ derecha) x_ {0}\
    &=\ Phi\ izquierda (t, t_ {0}\ derecha 0}\ derecha) x_ {0}
    \ end {alineado}\ nonumber\]

    Dado que\(x_{0}\) es arbitrario, se deduce que

    \[\Phi\left(t, t_{1}\right) \Phi\left(t_{1}, t_{0}\right)=\Phi\left(t, t_{0}\right) \nonumber\]

    para cualquier\(t_{0}\) y\(t_{1}\). (Obsérvese que dado que la matriz de transición de estado en CT siempre es invertible, no hay restricción que se\(t_{1}\) encuentre entre\(t_{0}\) y\(t\) - a diferencia del caso DT, donde la matriz de transición de estado puede no ser invertible).

    Otra propiedad de interés (pero aquella cuya derivación puede omitirse de manera segura en una primera lectura) involucra el determinante de la matriz de transición de estado. Ahora vamos a demostrar que

    \[\operatorname{det}\left(\Phi\left(t, t_{0}\right)\right)=\exp \left(\int_{t_{0}}^{t} \operatorname{trace}[A(\tau)] d \tau\right) \ \tag{11.12}\]

    resultado conocido como la fórmula Jacobi-Liouville. Antes de derivar esta importante fórmula, necesitamos el siguiente hecho de la teoría matricial. Para una\(n \times n\) matriz\(M\) y un parámetro real\(\epsilon\), tenemos

    \[\operatorname{det}(I+\epsilon M)=1+\epsilon \operatorname{trace}(M)+O\left(\epsilon^{2}\right)\nonumber\]

    donde\(O\left(\epsilon^{2}\right)\) denota los términos de orden mayores o iguales a\(\epsilon^{2}\). Para verificar este hecho, deja\(U\) ser una transformación de similitud que trae\(M\) a una matriz triangular superior\(T\), así\(M = U^{-1}T U\). Tal siempre se\(U\) puede encontrar, de muchas maneras. (Una forma, para una matriz diagonalizable, es escoger\(U\) para ser la matriz modal de\(M\), en cuyo caso\(T\) es realmente diagonal; hay una extensión natural de este enfoque en el caso no diagonalizable.) Entonces los valores propios {\(\lambda_{i}\)} de\(M\) y\(T\) son idénticos, porque las transformaciones de similitud no cambian los valores propios, y estos números son precisamente los elementos diagonales de\(T\). De ahí

    \ [\ begin {aligned}
    \ operatorname {det} (I+\ epsilon M) &=\ nombreoperador {det} (I+\ epsilon T)\\
    &=\ Pi_ {i=1} ^ {n}\ left (1+\ épsilon\ lambda_ {i}\ derecha)\\
    &=1+\ epsilon\ nombreoperador {traza} (M +) O\ izquierda (\ épsilon^ {2}\ derecha)
    \ final {alineado}\ nonumber\]

    Volviendo a la prueba de (11.12), primero observar que

    \ [\ begin {alineado}
    \ Phi\ izquierda (t+\ épsilon, t_ {0}\ derecha) &=\ Phi\ izquierda (t, t_ {0}\ derecha) +\ épsilon\ frac {d} {d t}\ Phi\ izquierda (t, t_ {0}\ derecha) +O\ izquierda (\ épsilon^ {2}\ derecha)\
    &=\ Phi\ izquierda (t, t_ {0}\ derecha) +\ épsilon A (t)\ Phi\ izquierda (t, t_ {0}\ derecha) +O\ izquierda (\ épsilon^ {2}\ derecha)
    \ end { alineado}\ nonumber\]

    La derivada del determinante de\(\psi(t, t_{0})\) viene dada por

    \ [\ begin {aligned}
    \ frac {d} {d t}\ operatorname {det}\ left [\ phi\ left (t, t_ {0}\ right)\ right] &=\ lim _ {\ epsilon\ rightarrow 0}\ frac {1} {\ epsilon}\ left (\ operatorname {det}\ left [\ phi\ left (t+\ épsilon, t_ {0}\ derecha)\ derecha] -\ nombreoperador {det}\ izquierda [\ Phi\ izquierda (t, t_ {0}\ derecha)\ derecha]\ derecha)\\
    & amp; =\ lim _ {\ épsilon\ fila derecha 0}\ frac {1} {\ épsilon}\ left (\ nombreoperador {det}\ left [\ Phi\ left (t, t_ {0}\ right) +\ epsilon A (t)\ Phi\ left (t, t_ {0}\ right)\ right] -\ operatorname {det} left\ [\ Phi\ izquierda (t, t_ {0}\ derecha)\ derecha]\ derecha)\\
    &=\ nombreoperador {det}\ izquierda (\ Phi\ izquierda (t, t_ {0}\ derecha)\ derecha)\ lim _ {\ épsilon\ fila derecha 0}\ frac {1} {\ epsilon} (\ nombreoperador {det} [I+\ épsilon A (t)] -1)\\
    &=\ nombreoperador {traza} [A (t)]\ nombreoperador {det}\ left [\ phi\ left (t, t_ {0}\ right)\ right]
    \ end {alineado}\ nonumber\]

    Al integrar la ecuación anterior se obtiene el resultado deseado, (11.12).


    This page titled 11.1: El caso que varía en el tiempo is shared under a CC BY-NC-SA 4.0 license and was authored, remixed, and/or curated by Mohammed Dahleh, Munther A. Dahleh, and George Verghese (MIT OpenCourseWare) via source content that was edited to the style and standards of the LibreTexts platform; a detailed edit history is available upon request.