14.1: Funciones cuadráticas de Lyapunov para sistemas LTI
- Page ID
- 85861
\( \newcommand{\vecs}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} } \)
\( \newcommand{\vecd}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash {#1}}} \)
\( \newcommand{\id}{\mathrm{id}}\) \( \newcommand{\Span}{\mathrm{span}}\)
( \newcommand{\kernel}{\mathrm{null}\,}\) \( \newcommand{\range}{\mathrm{range}\,}\)
\( \newcommand{\RealPart}{\mathrm{Re}}\) \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\)
\( \newcommand{\Argument}{\mathrm{Arg}}\) \( \newcommand{\norm}[1]{\| #1 \|}\)
\( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\)
\( \newcommand{\Span}{\mathrm{span}}\)
\( \newcommand{\id}{\mathrm{id}}\)
\( \newcommand{\Span}{\mathrm{span}}\)
\( \newcommand{\kernel}{\mathrm{null}\,}\)
\( \newcommand{\range}{\mathrm{range}\,}\)
\( \newcommand{\RealPart}{\mathrm{Re}}\)
\( \newcommand{\ImaginaryPart}{\mathrm{Im}}\)
\( \newcommand{\Argument}{\mathrm{Arg}}\)
\( \newcommand{\norm}[1]{\| #1 \|}\)
\( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\)
\( \newcommand{\Span}{\mathrm{span}}\) \( \newcommand{\AA}{\unicode[.8,0]{x212B}}\)
\( \newcommand{\vectorA}[1]{\vec{#1}} % arrow\)
\( \newcommand{\vectorAt}[1]{\vec{\text{#1}}} % arrow\)
\( \newcommand{\vectorB}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} } \)
\( \newcommand{\vectorC}[1]{\textbf{#1}} \)
\( \newcommand{\vectorD}[1]{\overrightarrow{#1}} \)
\( \newcommand{\vectorDt}[1]{\overrightarrow{\text{#1}}} \)
\( \newcommand{\vectE}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash{\mathbf {#1}}}} \)
\( \newcommand{\vecs}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} } \)
\( \newcommand{\vecd}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash {#1}}} \)
\(\newcommand{\avec}{\mathbf a}\) \(\newcommand{\bvec}{\mathbf b}\) \(\newcommand{\cvec}{\mathbf c}\) \(\newcommand{\dvec}{\mathbf d}\) \(\newcommand{\dtil}{\widetilde{\mathbf d}}\) \(\newcommand{\evec}{\mathbf e}\) \(\newcommand{\fvec}{\mathbf f}\) \(\newcommand{\nvec}{\mathbf n}\) \(\newcommand{\pvec}{\mathbf p}\) \(\newcommand{\qvec}{\mathbf q}\) \(\newcommand{\svec}{\mathbf s}\) \(\newcommand{\tvec}{\mathbf t}\) \(\newcommand{\uvec}{\mathbf u}\) \(\newcommand{\vvec}{\mathbf v}\) \(\newcommand{\wvec}{\mathbf w}\) \(\newcommand{\xvec}{\mathbf x}\) \(\newcommand{\yvec}{\mathbf y}\) \(\newcommand{\zvec}{\mathbf z}\) \(\newcommand{\rvec}{\mathbf r}\) \(\newcommand{\mvec}{\mathbf m}\) \(\newcommand{\zerovec}{\mathbf 0}\) \(\newcommand{\onevec}{\mathbf 1}\) \(\newcommand{\real}{\mathbb R}\) \(\newcommand{\twovec}[2]{\left[\begin{array}{r}#1 \\ #2 \end{array}\right]}\) \(\newcommand{\ctwovec}[2]{\left[\begin{array}{c}#1 \\ #2 \end{array}\right]}\) \(\newcommand{\threevec}[3]{\left[\begin{array}{r}#1 \\ #2 \\ #3 \end{array}\right]}\) \(\newcommand{\cthreevec}[3]{\left[\begin{array}{c}#1 \\ #2 \\ #3 \end{array}\right]}\) \(\newcommand{\fourvec}[4]{\left[\begin{array}{r}#1 \\ #2 \\ #3 \\ #4 \end{array}\right]}\) \(\newcommand{\cfourvec}[4]{\left[\begin{array}{c}#1 \\ #2 \\ #3 \\ #4 \end{array}\right]}\) \(\newcommand{\fivevec}[5]{\left[\begin{array}{r}#1 \\ #2 \\ #3 \\ #4 \\ #5 \\ \end{array}\right]}\) \(\newcommand{\cfivevec}[5]{\left[\begin{array}{c}#1 \\ #2 \\ #3 \\ #4 \\ #5 \\ \end{array}\right]}\) \(\newcommand{\mattwo}[4]{\left[\begin{array}{rr}#1 \amp #2 \\ #3 \amp #4 \\ \end{array}\right]}\) \(\newcommand{\laspan}[1]{\text{Span}\{#1\}}\) \(\newcommand{\bcal}{\cal B}\) \(\newcommand{\ccal}{\cal C}\) \(\newcommand{\scal}{\cal S}\) \(\newcommand{\wcal}{\cal W}\) \(\newcommand{\ecal}{\cal E}\) \(\newcommand{\coords}[2]{\left\{#1\right\}_{#2}}\) \(\newcommand{\gray}[1]{\color{gray}{#1}}\) \(\newcommand{\lgray}[1]{\color{lightgray}{#1}}\) \(\newcommand{\rank}{\operatorname{rank}}\) \(\newcommand{\row}{\text{Row}}\) \(\newcommand{\col}{\text{Col}}\) \(\renewcommand{\row}{\text{Row}}\) \(\newcommand{\nul}{\text{Nul}}\) \(\newcommand{\var}{\text{Var}}\) \(\newcommand{\corr}{\text{corr}}\) \(\newcommand{\len}[1]{\left|#1\right|}\) \(\newcommand{\bbar}{\overline{\bvec}}\) \(\newcommand{\bhat}{\widehat{\bvec}}\) \(\newcommand{\bperp}{\bvec^\perp}\) \(\newcommand{\xhat}{\widehat{\xvec}}\) \(\newcommand{\vhat}{\widehat{\vvec}}\) \(\newcommand{\uhat}{\widehat{\uvec}}\) \(\newcommand{\what}{\widehat{\wvec}}\) \(\newcommand{\Sighat}{\widehat{\Sigma}}\) \(\newcommand{\lt}{<}\) \(\newcommand{\gt}{>}\) \(\newcommand{\amp}{&}\) \(\definecolor{fillinmathshade}{gray}{0.9}\)Considere el sistema de tiempo continuo
\[\dot{x}(t)=A x(t). \ \tag{14.1}\]
Ya hemos establecido que el sistema (14.1) es asintóticamente estable si y sólo si todos los valores propios de\(A\) están en el medio plano abierto izquierdo. En esta sección mostraremos que este resultado se puede inferir de la teoría de Lyapunov. Además, se demostrará que las funciones cuadráticas de Lyapunov bastan. Una consecuencia de esto es que la estabilidad puede ser evaluada por métodos que pueden ser computacionalmente más simples que el análisis propio. Más importante aún, las funciones cuadráticas de Lyapunov y las matemáticas asociadas aparecen en una variedad de otros problemas, por lo que vale la pena dominarlas en el contexto de la evaluación de la estabilidad.
Positivo cuadrático - Funciones definidas
Considera la función
\[V(x)=x^{T} P x, \quad x \in \mathbb{R}^{n}\nonumber\]
donde\(P\) es una matriz simétrica. Esta es la forma general de una función cuadrática en\(\mathbb{R}^{n}\). Es suficiente considerar matrices simétricas; si no\(P\) es simétrica, podemos definir\(P_{1}=\frac{1}{2}\left(P+P^{T}\right)\). De ello se deduce inmediatamente que\(x^{T} P x=x^{T} P_{1} x\) (verificar, utilizando el hecho de que\(x^{T} P x\) es un escalar).
Proposición 14.1
V (x) es una función definida positiva si y solo si todos los valores propios de\(P\) son positivos
- Prueba
-
Dado que\(P\) es simétrico, puede ser diagonalizado por una matriz ortogonal, es decir,
\[ P = U^{T}DU \text{ with} U^{T}U =I \text{ and} D \text{ diagonal}\nonumber\]
Entonces, si\(y = Ux\)
\[V(x)=x^{T} U^{T} D U x=y^{T} D y=\sum_{i} \lambda_{i}\left|y_{i}\right|^{2}\nonumber\]
Por lo tanto,
\[V(x)>0 \quad \forall x \neq 0 \Leftrightarrow \lambda_{i}>0, \forall i\nonumber\]
Definición 14.1
Una matriz\(P\) que satisface
\[x^{T} P x>0 \quad \forall x \neq 0 \ \tag{14.2}\]
se llama definitiva positiva. Cuando\(P\) es simétrico (que suele ser el caso de interés, por la razón mencionada anteriormente), denotaremos su definición positiva por\(P > 0\). Si\(x^{T} P x \geq 0 \forall x \neq 0\), entonces\(P\) es positivo semidefinido, lo que denotamos en el caso simétrico por\(P \geq 0\).
Para una matriz definida positiva simétrica, se deduce que
\[\lambda_{\min }(P)\|x\|^{2} \leq V(x) \leq \lambda_{\max }(P)\|x\|^{2}\nonumber\]
Esta desigualdad se deriva directamente de la prueba de la Proposición 14.1.
También es evidente a partir de la discusión anterior que coinciden los valores singulares y los valores propios de cualquier matriz definida positiva.
Ejercicio
Demostrar que\(P > 0\) si y solo si\(P = G^{T} G\) donde\(G\) es no singular. La matriz\(G\) se llama raíz cuadrada de\(P\) y se denota por\(P^{\frac{1}{2}}\). Mostrar que\(H\) es otra raíz cuadrada de\(P\) si y sólo si\(G = WH\) para alguna matriz ortogonal\(W\). ¿Puedes ver cómo construir una raíz cuadrada simétrica? (Puede resultarle útil comenzar con la descomposición propia\(P = U^{T} DU\), donde\(U\) es ortogonal y\(D\) es diagonal).
Funciones cuadráticas de Lyapunov para sistemas CT LTI
Considerar definir un candidato a función Lyapunov de la forma
\[V(x)=x^{T} P x, \quad P>0, \ \tag{14.3}\]
para el sistema (14.1). Entonces
\ [\ comenzar {alineado}
\ punto {V} (x) &=\ punto {x} ^ {T} P x+x^ {T} P\ punto {x}\\
&=x^ {T} A^ {T} P x+x^ {T} P A x\\
&=x^ {T}\ izquierda (A^ {T} P+P A\ derecha) x\
&=-x^ {T} Q x
\ final {alineado}\ nonumber\]
donde hemos introducido la notación\(Q=-\left(A^{T} P+P A\right)\); nota que\(Q\) es simétrica. Ahora invocando los resultados de estabilidad de Lyapunov de la Conferencia 5, vemos que\(V\) es una función Lyapunov si\(Q \geq 0\), en cuyo caso el punto de equilibrio en el origen del sistema (14.1) es estable I.s.l. Si\(Q > 0\), entonces el punto de equilibrio en el origen es globalmente asintóticamente estable . En este último caso, el origen debe ser el único punto de equilibrio del sistema, por lo que normalmente decimos que el sistema (más que solo el punto de equilibrio) es asintóticamente estable.
Las relaciones anteriores muestran que para encontrar una función cuadrática de Lyapunov para el sistema (14.1), podemos escoger\(Q > 0\) y luego tratar de resolver la ecuación
\[A^{T} P+P A=-Q \ \tag{14.4}\]
para\(P\). Esta ecuación se conoce como una ecuación de Lyapunov, y es un sistema lineal de ecuaciones en las entradas de\(P\). Si tiene una solución, entonces tiene una solución simétrica (¡muéstrale esto!) , por lo que solo consideramos soluciones simétricas. Si tiene una solución definitiva positiva\(P > 0\), entonces evidentemente tenemos una función Lyapunov\(x^{T} P x\) que nos permitirá probar la estabilidad asintótica del sistema (14.1). Lo interesante de los sistemas LTI es que lo contrario también sostiene: Si el sistema es asintóticamente estable, entonces la ecuación de Lyapunov (14.4) tiene una solución definitiva positiva\(P > 0\) (que, como mostraremos, es única). Este resultado es declarado y probado en el siguiente teorema.
Teorema 14.1
Dado el sistema dinámico (14.1) y cualquiera\(Q > 0\), existe una solución definitiva positiva\(P\) de la ecuación de Lyapunov
\[A^{T} P+P A=-Q\nonumber\]
si y solo si todos los valores propios de\(A\) están en el medio plano abierto izquierdo (OLHP). La solución\(P\) en este caso es única.
- Prueba
-
Si\(P > 0\) es una solución de (14.4), entonces\(V (x) = x^{T} P x\) es una función Lyapunov de sistema (14.1) con\(\dot{V} (x) < 0\) para cualquiera\(x \neq 0\). De ahí que el sistema (14.1) sea (globalmente) asintóticamente estable y así los valores propios de\(A\) están en el OLHP.
Para probar lo contrario, supongamos que\(A\) tiene todos los valores propios en el OLHP, y\(Q > 0\) se da. Definir la matriz simétrica\(P\) mediante
\[P=\int_{0}^{\infty} e^{t A^{T}} Q e^{t A} d t. \ \tag{14.5}\]
Esta integral está bien definida porque el integrando se desintegra exponencialmente al origen, ya que los valores propios de\(A\) están en el OLHP. Ahora
\ [\ begin {alineado}
A^ {T} P+P A &=\ int_ {0} ^ {\ infty} A^ {T} e^ {t A^ {T}} Q e^ {t A} d t+\ int_ {0} ^ {\ infty} e^ {t A^ {T}} Q e^ {t A} A d t\
&=\ int_ {0} ^ {\ infty}\ frac {d} {d t}\ izquierda [e^ {t A^ {T}} Q e^ {t A}\ derecha] d t\\
&=-Q
\ final {alineado\ nonumber\]así\(P\) satisface la ecuación de Lyapunov.
Para probar que\(P\) es positivo definitivo, tenga en cuenta que
\ [\ begin {alineado}
x^ {T} P x &=\ int_ {0} ^ {\ infty} x^ {T} e^ {t A^ {T}} Q e^ {t A} x d t\\
&=\ int_ {0} ^ {\ infty}\ left\ |Q^ {\ frac {1} {2}} e^ {t A} x\ derecha\ |^ {2} d t\ geq 0
\ end {alineado}\ nonumber\]y
\[x^{T} P x=0 \Rightarrow Q^{\frac{1}{2}} e^{t A} x=0 \Rightarrow x=0\nonumber\]
donde\(Q^{\frac{1}{2}}\) denota una raíz cuadrada de\(Q\). De ahí\(P\) que sea positivo definido.
Para probar que lo\(P\) definido en (14.5) es la solución única para (14.4) cuando\(A\) tiene todos los valores propios en el OLHP, supongamos que P2 es otra solución. Entonces
\ [\ begin {alineado}
P_ {2} &=-\ int_ {0} ^ {\ infty}\ frac {d} {d} {d t}\ left [e^ {t A^ {T}} P_ {2} e^ {t A}\ derecha] d t\ quad (\ text {verificar esta identidad})\\
&=-\ int_ {0} ^ {\ infty} e^ {t A^ {T}}\ izquierda (A^ {T} P_ {2} +P_ {2} A\ derecha) e^ {t A} d t\\
&=\ int_ {0} ^ {\ infty} e^ { t A^ {T}} Q e^ {t A} d t=P
\ final {alineado}\ nonumber\]Esto completa la prueba del teorema.
Se conocen diversas generalizaciones de este teorema.
Funciones cuadráticas de Lyapunov para sistemas DT LTI
Considerar el sistema
\[x(t+1)=A x(t)=f(x(t)) \ \tag{14.6}\]
Si
\[V(x)=x^{T} P x, \nonumber\]
entonces
\[\dot{V}(x) \triangleq V(f(x))-V(x)=x^{T} A^{T} P A x-x^{T} P x. \nonumber\]
Esta la ecuación resultante de Lyapunov para estudiar es
\[A^{T} P A-P=-Q. \ \tag{14.7}\]
El siguiente teorema es análogo a lo que probamos en el caso CT, y dejamos su prueba como ejercicio.
Teorema 14.2
Dado el sistema dinámico (14.6) y cualquiera\(Q > 0\), existe una solución definitiva positiva\(P\) de la ecuación de Lyapunov
\[A^{T} P A+P=-Q\nonumber\]
si y solo si todos los valores propios de\(A\) tienen una magnitud menor que 1 (es decir, están en el disco de unidad abierta). La solución\(P\) en este caso es única.
Ejemplo 14.1 Inclusión diferencial
En muchas situaciones, la evolución de un sistema dinámico puede ser incierta. Una forma de modelar esta incertidumbre es mediante la inclusión diferencial (diferencia) que se puede describir de la siguiente manera:
\[\dot{x}(t) \subset\{A x(t) \mid A \subset \mathcal{A}\}\nonumber\]
donde\(A\) es un conjunto de matrices. Consideremos el caso donde\(A\) hay un conjunto finito de matrices y sus combinaciones convexas:
\[\mathcal{A}=\left\{A=\sum_{i=1}^{m} \alpha_{i} A_{i} \mid \sum_{i=1}^{m} \alpha_{i}=1\right\}\nonumber\]
Una forma de garantizar la estabilidad de este sistema es encontrar una función Lyapunov para todos los sistemas definidos por\(\mathcal{A}\). Si buscamos una función cuadrática de Lyapunov, entonces basta con encontrar una\(P\) que satisfaga:
\[A_{i}^{T} P+P A_{i}<-Q, \quad i=1,2, \ldots m\nonumber\]
para algunos definitivos positivos\(Q\). Entonces\(V (x) = x^{T} P x\) satisface\(\dot{V}(x)<-x^{T} Q x\) (verifica) mostrando que el sistema es asintóticamente estable.
Ejemplo 14.2 Conjunto de norma acotada
En este problema, nos interesa estudiar la estabilidad de los sistemas lineales invariantes en el tiempo de la forma\(\dot{x}(t)=(A+\Delta) x(t)\) donde\(\Delta\) se encuentra una verdadera perturbación matricial con norma acotada. En particular, nos interesa calcular un buen límite sobre el tamaño de la menor perturbación que desestabilizará una matriz estable\(A\).
Este problema se puede lanzar como un problema de inclusión diferente como en el ejemplo anterior con
\[\mathcal{A}=\{A+\Delta\|\| \Delta \| \leq \gamma, \Delta \text { is a real matrix }\}\nonumber\]
Dado que\(A\) es estable, podemos calcular una función cuadrática de Lyapunov con una matriz\(P\) satisfactoria\(A^{T} P + P A < -Q\) y\(Q\) es definitiva positiva. Aplicando la misma función Lyapunov al sistema perturbado obtenemos:
\[\dot{V}(x)=x^{T}\left(A^{T} P+P A+\Delta^{T} P+P \Delta\right) x\nonumber\]
Es evidente que todas las perturbaciones satisfactorias
\[\Delta^{T} P+P \Delta<Q\nonumber\]
dará como resultado un sistema estable. Esto se puede garantizar si
\[2 \sigma_{\max }(P) \sigma_{\max }(\Delta)<\sigma_{\min }\tag{Q}\]
Esto proporciona un límite a la perturbación aunque es potencialmente conservadora.
Ejemplo 14.3 Perturbación acotada
Colocar la perturbación del ejemplo anterior en términos de inclusión diferencial introduce un grado de conservadurismo en el sentido de que las\(\Delta\) tomas de valor pueden cambiar en función del tiempo. Considera el sistema:
\[\dot{x}(t)=(A+\Delta) x\tag{t}\]
donde\(A\) es una matriz estable fija conocida y\(\Delta\) es una matriz de perturbación real fija desconocida. El margen de tabilidad de este sistema se define como
\[\gamma(A)=\min _{\Delta \in \mathbb{R}^{n \times n}}\{\|\Delta\| \mid A+\Delta \text { is unstable }\}\nonumber\]
Deseamos computar un buen límite inferior en\(\gamma(A)\). El ejemplo anterior daba uno de esos atados.
En primer lugar, es fácil argumentar que la solución\(\Delta_{0}\) minimizadora del problema anterior da como resultado\(A + \Delta_{0}\) tener valores propios en el eje imaginario (ya sea en el origen, o en dos ubicaciones conjugadas complejas). Esto es consecuencia del hecho de que los valores propios de\(A + p\Delta_{0}\) se moverán continuamente en el plano complejo ya que el parámetro\(p\) varía de 0 a 1. La intersección con el eje imaginario ocurrirá en\(p = 1\); si no, se puede encontrar una perturbación de menor tamaño.
Podemos obtener un límite inferior\(gamma\) al dejar caer la condición que\(\Delta\) es una matriz real, y permitiendo matrices complejas (¿está claro por qué esto da un límite inferior?). Podemos mostrar:
\[\min _{\Delta \in \mathbf{C}^{n \times n}}\{\|\Delta\| \mid A+\Delta \text { is unstable }\}=\min _{\omega \in \mathbb{R}} \sigma_{\min }(A-j \omega I)\nonumber\]
Para verificar esto, observe que si la solución minimizadora tiene un valor propio en el eje imaginario, entonces\(j \omega_{0} I-A-\Delta_{0}\) debe ser singular mientras sepamos que no lo\(j \omega_{0} A\) es. La menor perturbación posible que logra esto tiene tamaño\(\sigma_{\min }\left(A-j \omega_{0} I\right)\). Luego podemos elegir\(\omega_{0}\) que le dé el tamaño más pequeño posible. En los ejercicios, mejoramos aún más esta encuadernación.