Saltar al contenido principal
LibreTexts Español

14.3: Análisis de Estabilidad Lineal de Modelos de Campo Continuos

  • Page ID
    115932
  • \( \newcommand{\vecs}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} } \)

    \( \newcommand{\vecd}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash {#1}}} \)

    \( \newcommand{\id}{\mathrm{id}}\) \( \newcommand{\Span}{\mathrm{span}}\)

    ( \newcommand{\kernel}{\mathrm{null}\,}\) \( \newcommand{\range}{\mathrm{range}\,}\)

    \( \newcommand{\RealPart}{\mathrm{Re}}\) \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\)

    \( \newcommand{\Argument}{\mathrm{Arg}}\) \( \newcommand{\norm}[1]{\| #1 \|}\)

    \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\)

    \( \newcommand{\Span}{\mathrm{span}}\)

    \( \newcommand{\id}{\mathrm{id}}\)

    \( \newcommand{\Span}{\mathrm{span}}\)

    \( \newcommand{\kernel}{\mathrm{null}\,}\)

    \( \newcommand{\range}{\mathrm{range}\,}\)

    \( \newcommand{\RealPart}{\mathrm{Re}}\)

    \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\)

    \( \newcommand{\Argument}{\mathrm{Arg}}\)

    \( \newcommand{\norm}[1]{\| #1 \|}\)

    \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\)

    \( \newcommand{\Span}{\mathrm{span}}\) \( \newcommand{\AA}{\unicode[.8,0]{x212B}}\)

    \( \newcommand{\vectorA}[1]{\vec{#1}}      % arrow\)

    \( \newcommand{\vectorAt}[1]{\vec{\text{#1}}}      % arrow\)

    \( \newcommand{\vectorB}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} } \)

    \( \newcommand{\vectorC}[1]{\textbf{#1}} \)

    \( \newcommand{\vectorD}[1]{\overrightarrow{#1}} \)

    \( \newcommand{\vectorDt}[1]{\overrightarrow{\text{#1}}} \)

    \( \newcommand{\vectE}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash{\mathbf {#1}}}} \)

    \( \newcommand{\vecs}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} } \)

    \( \newcommand{\vecd}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash {#1}}} \)

    \(\newcommand{\avec}{\mathbf a}\) \(\newcommand{\bvec}{\mathbf b}\) \(\newcommand{\cvec}{\mathbf c}\) \(\newcommand{\dvec}{\mathbf d}\) \(\newcommand{\dtil}{\widetilde{\mathbf d}}\) \(\newcommand{\evec}{\mathbf e}\) \(\newcommand{\fvec}{\mathbf f}\) \(\newcommand{\nvec}{\mathbf n}\) \(\newcommand{\pvec}{\mathbf p}\) \(\newcommand{\qvec}{\mathbf q}\) \(\newcommand{\svec}{\mathbf s}\) \(\newcommand{\tvec}{\mathbf t}\) \(\newcommand{\uvec}{\mathbf u}\) \(\newcommand{\vvec}{\mathbf v}\) \(\newcommand{\wvec}{\mathbf w}\) \(\newcommand{\xvec}{\mathbf x}\) \(\newcommand{\yvec}{\mathbf y}\) \(\newcommand{\zvec}{\mathbf z}\) \(\newcommand{\rvec}{\mathbf r}\) \(\newcommand{\mvec}{\mathbf m}\) \(\newcommand{\zerovec}{\mathbf 0}\) \(\newcommand{\onevec}{\mathbf 1}\) \(\newcommand{\real}{\mathbb R}\) \(\newcommand{\twovec}[2]{\left[\begin{array}{r}#1 \\ #2 \end{array}\right]}\) \(\newcommand{\ctwovec}[2]{\left[\begin{array}{c}#1 \\ #2 \end{array}\right]}\) \(\newcommand{\threevec}[3]{\left[\begin{array}{r}#1 \\ #2 \\ #3 \end{array}\right]}\) \(\newcommand{\cthreevec}[3]{\left[\begin{array}{c}#1 \\ #2 \\ #3 \end{array}\right]}\) \(\newcommand{\fourvec}[4]{\left[\begin{array}{r}#1 \\ #2 \\ #3 \\ #4 \end{array}\right]}\) \(\newcommand{\cfourvec}[4]{\left[\begin{array}{c}#1 \\ #2 \\ #3 \\ #4 \end{array}\right]}\) \(\newcommand{\fivevec}[5]{\left[\begin{array}{r}#1 \\ #2 \\ #3 \\ #4 \\ #5 \\ \end{array}\right]}\) \(\newcommand{\cfivevec}[5]{\left[\begin{array}{c}#1 \\ #2 \\ #3 \\ #4 \\ #5 \\ \end{array}\right]}\) \(\newcommand{\mattwo}[4]{\left[\begin{array}{rr}#1 \amp #2 \\ #3 \amp #4 \\ \end{array}\right]}\) \(\newcommand{\laspan}[1]{\text{Span}\{#1\}}\) \(\newcommand{\bcal}{\cal B}\) \(\newcommand{\ccal}{\cal C}\) \(\newcommand{\scal}{\cal S}\) \(\newcommand{\wcal}{\cal W}\) \(\newcommand{\ecal}{\cal E}\) \(\newcommand{\coords}[2]{\left\{#1\right\}_{#2}}\) \(\newcommand{\gray}[1]{\color{gray}{#1}}\) \(\newcommand{\lgray}[1]{\color{lightgray}{#1}}\) \(\newcommand{\rank}{\operatorname{rank}}\) \(\newcommand{\row}{\text{Row}}\) \(\newcommand{\col}{\text{Col}}\) \(\renewcommand{\row}{\text{Row}}\) \(\newcommand{\nul}{\text{Nul}}\) \(\newcommand{\var}{\text{Var}}\) \(\newcommand{\corr}{\text{corr}}\) \(\newcommand{\len}[1]{\left|#1\right|}\) \(\newcommand{\bbar}{\overline{\bvec}}\) \(\newcommand{\bhat}{\widehat{\bvec}}\) \(\newcommand{\bperp}{\bvec^\perp}\) \(\newcommand{\xhat}{\widehat{\xvec}}\) \(\newcommand{\vhat}{\widehat{\vvec}}\) \(\newcommand{\uhat}{\widehat{\uvec}}\) \(\newcommand{\what}{\widehat{\wvec}}\) \(\newcommand{\Sighat}{\widehat{\Sigma}}\) \(\newcommand{\lt}{<}\) \(\newcommand{\gt}{>}\) \(\newcommand{\amp}{&}\) \(\definecolor{fillinmathshade}{gray}{0.9}\)

    Podemos aplicar el análisis de estabilidad lineal a modelos de campo continuos. Esto nos permite obtener analíticamente las condiciones para las cuales un estado de equilibrio homogéneo de un sistema espacial pierde su estabilidad y con ello el sistema forma espontáneamente patrones espaciales no homogéneos. Obsérvese nuevamente que el estado de equilibrio homogéneo discutido aquí ya no es un solo punto, sino que es una línea recta (o un plano plano) que cubre todo el dominio espacial.

    Considerar la dinámica de un modelo de campo continuo no lineal

    \[\frac{\partial{f}}{\partial{t}} =F \left(f, \frac{\partial{f}}{\partial{x}}, \frac{\partial^{2}f}{\partial{x^{2}}}, \dots \right)\label{(14.35)} \]

    alrededor de su estado de equilibrio homogéneo\(f_{eq}\), que satisface

    \[0=F(f_{eq}, 0, \dots). \label{(14.36)} \]

    El enfoque básico del análisis de estabilidad lineal es exactamente el mismo que antes. A saber, representaremos el estado del sistema como una suma del estado de equilibrio y una pequeña perturbación, y luego determinaremos si esta pequeña perturbación añadida al equilibrio crecerá o se encogerá con el tiempo. Usando\(∆f\) para representar la pequeña perturbación, aplicamos el siguiente reemplazo

    \[f(x, t) \Rightarrow f_{eq} +\nabla{f}(x, t) \label{(14.37)} \]

    a Ecuación\ ref {(14.35)}, para obtener el siguiente nuevo modelo de campo continuo:

    \[\frac{\partial{f_{eq}} +\nabla{f}}{\partial{t}} =F(F_{eq}+\nabla{f}, \frac{\partial{(f_{eq})+\nabla{f} }}{\partial{x}},\frac{\partial^{2}(f_{eq} +\nabla{f})}{\partial{x^{2}}}, \cdots \label{(14.38)}) \]

    \[\dfrac{\partial{\nabla{f}}}{\partial{t}} =F(f_{eq}+\nabla{f}, \dfrac{\partial{\nabla{f}}}{\partial{x}}, \dfrac{\partial^{2}\nabla{f}}{\partial{x^{2}}}, \dots) \label{(14.39)} \]

    Ahora, mira la ecuación anterior. La diferencia clave entre esta ecuación y los ejemplos anteriores de los modelos no espaciales (e.g., Ecuación (7.5.4)) es que el lado derecho de la Ecuación\ ref {(14.39)} contiene derivadas espaciales. Sin ellos,\(F\) sería solo una función escalar o vectorial no lineal de\(f\), por lo que podríamos usar su matriz jacobiana para obtener una aproximación lineal de la misma. ¡Pero no podemos hacerlo por esos\(∂\)! Necesitamos algo diferente para eliminar esas molestias.

    De hecho, antes vimos una situación similar. Cuando discutimos cómo obtener soluciones analíticas para sistemas dinámicos lineales, las molestias fueron las matrices que existían en las ecuaciones. “Destruimos” esas matrices mediante el uso de sus vectores propios, es decir, vectores que pueden convertir la matriz en un valor propio escalar cuando se aplica a ella. ¿Podemos hacer algo similar para destruir esos molestos derivados espaciales?

    La respuesta es, sí podemos. Si bien el obstáculo que queremos eliminar ya no es una matriz simple sino un operador diferencial lineal, aún podemos usar el mismo enfoque. En lugar de usar vectores propios, usaremos las llamadas funciones propias. Una función propia de un operador lineal L es una función que satisface

    \[Lf =\lambda{f}, \label{(14.40)} \]

    donde\(λ\) (de nuevo) se llama un valor propio que corresponde a la función propia\(f\). ¡Mira la similitud entre la definición anterior y la definición de vectores propios (Ecuación 5.6.5)!

    Esta similitud no es ninguna sorpresa, porque, después de todo, los operadores lineales y las funciones propias son generalizaciones directas de matrices y vectores propios. Se pueden obtener incrementando las dimensiones de matrices/vectores (= número de filas/columnas) hasta el infinito. La Figura 14.3.1 da una ilustración visual de cómo estos conceptos matemáticos se relacionan entre sí, donde se muestra como ejemplo la derivada espacial de segundo orden de una función espacial\(f(x)\) en un espacio\([0,1]\) 1-D.

    Cuando el espacio se discretiza en\(n\) compartimentos, la función también\(f(x)\) se define en una cuadrícula espacial discreta compuesta de\(n\) celdas, y el cálculo de su derivada espacial de segundo orden (o, para ser más precisos, su equivalente discreto) se puede lograr sumando sus dos más cercanos los valores de los vecinos y luego restando el valor propio de la celda dos veces, como se muestra en la Ecuación (13.5.11). Esta operación se puede representar como una matriz con tres líneas diagonales de elementos distintos de cero (Figura 14.3.1, izquierda y centro). Debido a que es una matriz cuadrada, podemos calcular sus valores propios y vectores propios. Y si el número de compartimentos n va al infinito, eventualmente nos movemos al reino de los modelos de campo continuos, donde lo que solía ser una matriz ahora está representado por un operador lineal (\(∂2/∂x2\), es decir,\(∇^2\) en el espacio 1-D), mientras que el autovector ahora está hecho de infinitamente muchos números, lo que le da derecho a un nuevo nombre, “función propia”.

    De hecho, esta es solo una instancia de cómo los conceptos matemáticos para matrices y vectores pueden generalizarse a operadores lineales y funciones en un dominio continuo. Casi todos los conceptos desarrollados en álgebra lineal se pueden extender a la perfección operadores lineales continuos y funciones, pero no entraremos en detalles sobre esto en este libro de texto.

    La mayoría de los operadores lineales que vemos en los modelos de campo continuo basados en PDE son los operadores diferenciales de segundo orden (y a veces de primer orden). Así que aquí están sus funciones propias (que no son más que soluciones generales de ecuaciones diferenciales lineales simples):

    Figura\(\PageIndex{1}\): Relación entre matrices/vectores propios y operadores/funciones propias lineales.
    • \(\text{For } L=\dfrac{\partial}{\partial{x}}\):\[f(x) =Ce^{\lambda{x}}\label{(14.41)} \]
    • \(\text{For } L =\dfrac{\partial^{2}}{\partial{x^{2}}}\):\[f(x) =C_{1}e^{\sqrt{\lambda}x} +C_{2}e^{-\sqrt{\lambda}x} \label{(14.42)} \]

    Aquí,\(λ\) está el valor propio y\(C\),\(C_1\), y\(C_2\) son las constantes de integración. Puede confirmar que estas funciones propias satisfacen la Ecuación\ ref {(14.40)} aplicándola\(L\) a ella. Entonces, si usamos tal función propia de la derivada espacial que queda en la Ecuación\ ref {(14.39)} como una pequeña perturbación\(∆f\), la ecuación podría llegar a ser muy simple y susceptible de análisis matemático.

    Sin embargo, hay un problema potencial. Las funciones propias dadas anteriormente son todas funciones exponenciales de\(x\). Esto significa que, pues\(x\) con grandes magnitudes, ¡estas funciones propias podrían explotar literalmente exponencialmente! Esta definitivamente no es una buena propiedad para una perturbación que se supone que es “pequeña”. ¿Qué debemos hacer? Hay al menos dos soluciones para este problema. Una manera es limitar el alcance del análisis a un dominio finito de\(x\) (y\(λ\), también) para que la función propia permanezca finita sin explosión. La otra forma es investigar más a fondo esas funciones propias para ver si pueden tomar una forma que no muestre divergencia exponencial. ¿Es posible?

    Para la Ecuación\ ref {(14.41)}, un puramente imaginario\(λ\) podría hacer\(f(x)\) no divergente para\(x →±∞\), pero luego\(f(x)\) en sí mismo también mostraría valores complejos. Esto no sería adecuado como candidato de perturbaciones para ser agregado a estados del sistema de valor real. Pero para la Ecuación\ ref {(14.42)}, existen tales funciones propias que no explotan exponencialmente y, sin embargo, siguen siendo reales. Pruebe\(λ < 0\) (es decir, √\(λ = ai\)) con conjugados complejos\(C_1\) y\(C_2\) (es decir\(C_1 = c + bi\),,\(C_2 = c−bi\)), y obtendrá

    \[ \begin{align} f(x) &=(c+bi)e^{iax} +(c-bi)e^{-iax} \label{(14.43)} \\[4pt] &=c(e^{iax} +e^{-iax}) +bi(e^{iax} -e^{iax})\label{(14.44)} \\[4pt] &=c(\cos{ax} +i{\sin{ax}}+\cos{(-ax)} +i\sin({-ax})) +bi(\cos{ax}+i\sin{ax}-\cos(-ax) -i\sin(-ax))\label{(14.45)} \\[4pt] &=2c\cos{ax}-2b\sin{ax}\label{(14.46)} \\[4pt] &=A(\sin{\phi})\cos{ax}-\cos{\phi}\sin{ax} \label{(14.47)} \\[4pt] &=A\sin(\phi-ax), \label{(14.48)} \end{align} \]

    dónde\(φ = \arctan{(c/b)}\) y\(A = 2c/\sin{φ} = 2b/\cos{φ}\). ¡Esto es solo una onda sinusoidal normal de valor real que permanecerá dentro del rango\([−A,A]\) para cualquier\(x\)! Definitivamente podemos usar tales perturbaciones en forma de onda sinusoidal para ∆f para eliminar las derivadas espaciales de segundo orden.

    Ahora que tenemos un conjunto básico de herramientas para nuestro análisis, debemos hacer el mismo truco que antes: Representar la condición inicial del sistema como una combinación lineal de eigen- (vector o función), y luego estudiar la dinámica de cada componente eigen- (vector o función) por separado. Las ondas sinusoidales derivadas anteriormente son particularmente adecuadas para este propósito, ya que, como algunos de ustedes sabrán, las ondas con diferentes frecuencias (\(a\)en lo anterior) son independientes entre sí, por lo que constituyen un conjunto perfecto de bases para representar cualquier condición inicial.

    Tengamos un recorrido por un ejemplo particular para ver cómo funciona todo el proceso de análisis de estabilidad lineal en un modelo de campo continuo. Considera nuestro modelo favorito de Keller-Segel:

    \[\dfrac{\partial{a}}{\partial{t}} =\mu\nabla^{2}a -\chi\nabla \cdot(a\nabla{c}) \label{(14.49)} \]

    \[\dfrac{\partial{c}}{\partial{t}} =D\nabla^{2}c +fa-kc \label{(14.50)} \]

    Lo primero que tenemos que hacer es encontrar el estado de equilibrio homogéneo del modelo que estudiaremos. Como habrás hecho esto en el Ejercicio 14.3, cualquiera\(a_{eq}\) y\(c_{eq}\) que satisfaga

    \[fa_{eq} =kc_{eq} \label{(14.51)} \]

    puede ser un estado de equilibrio homogéneo de este modelo. Aquí denotamos el estado de equilibrio como

    \[(a_{eq}, c_{eq}) =(a_{eq}, \dfrac{f}{k}a_{eq}). \label{(14.52)} \]

    Luego introducimos pequeñas perturbaciones en este estado de equilibrio homogéneo, de la siguiente manera:

    \[\binom{a(x,t)}{c(x,t)} \Rightarrow \binom{a_{eq}}{\frac{f}{k}a_{eq}} +\binom{\Delta{a(x,t)}}{\Delta{x(x,t)}}. \label{(14.53)} \]

    Aquí, asumimos que el espacio es solo unidimensional por simplicidad (por lo tanto, no\(y\) hay arriba). Al aplicar estos reemplazos variables al modelo Keller-Segel, obtenemos

    \[ \begin{align} \dfrac{\partial{\Delta{a}}}{\partial{t}} &=\mu \dfrac{\partial^{2}}{\partial{x^{2}}} (a_{eq} +\Delta{a}) -\chi\dfrac{\partial}{\partial{x}}( (a_{eq}+\Delta{a}) +\dfrac{\partial}{\partial{x}} (\dfrac{f}{x}a_{eq} + \Delta{c} )) \label{14.54} \\[4pt] &= \mu\dfrac{\partial^{2} \Delta{a}}{\partial{x^{2}}} -\chi\dfrac{\partial}{\partial{x}} (a_{eq} \dfrac{\partial{\Delta{c}}}{\partial{x}} +\Delta{a} \dfrac{\partial{\Delta{c}}}{\partial{x}}) \label{(14.55)} \\[4pt] &=\mu\dfrac{\partial^{2}\Delta{a}}{\partial{x^{2}}} -\chi{a_{eq}}\dfrac{\partial^{2} \Delta{c}}{\partial{x^{2}}} -\chi\dfrac{\partial}{\partial{x}} (\Delta{a} \dfrac{\partial{\Delta{c}}}{\partial{x}}) \label{(15.56)} \\[4pt] &=\mu \dfrac{\partial^{2}\Delta{a}}{\partial{x^{2}}} -\chi{a_{eq}} \dfrac{\partial^{2} \Delta{c}}{\partial{x^{2}}} -\chi\dfrac{\partial{\Delta{a}}}{\partial{x}}\dfrac{\partial{\Delta{c}}}{\partial{x}} -\chi\Delta{a}\dfrac{\partial^{2}\Delta{c}}{\partial{x^{2}}}, \label{(14.57)} \\[4pt] \dfrac{\partial \Delta{c}}{\partial{t}} &=D \dfrac{\partial^{2}}{\partial{x^{2}}}(\dfrac{f}{k}a_{eq} +\Delta{c} ) +f(a_{eq} +\Delta{a}) -k(\frac{f}{k}a_{eq}+\Delta{c}) \label{(14.58)} \\[4pt] &=D\dfrac{\partial^{2} \Delta{c}}{\partial{x^{2}}} + f\Delta{a} -k\Delta{c}. \label{(14.59)} \end{align} \]

    En las ecuaciones anteriores, permanecen tanto las derivadas espaciales de segundo orden como las de primer orden. No podemos encontrar una función propia que elimine ambas simultáneamente, así que adoptemos ondas sinusoidales, es decir, la función propia para las derivadas espaciales de segundo orden que aparecen con mayor frecuencia en las ecuaciones anteriores, y veamos cómo responde a ella el producto de dos derivadas espaciales de primer orden en la Ecuación\ ref {(14.57)}. Por lo tanto, asumiremos

    \[ \binom{\Delta{a}(x,t)}{\Delta{c(x,t)}} =\sin{(\omega{x})+ \phi} +\binom{\Delta{a(t)}}{\Delta{c(t)}}, \label{(14.60)} \]

    donde\(ω\) y\(φ\) son parámetros que determinan la frecuencia espacial y el desplazamiento de fase de la perturbación, respectivamente. \(ω/2π\)dará una frecuencia espacial (= cuántas ondas hay por unidad de longitud), que se denomina número de onda en física. El desplazamiento de fase realmente\(φ\) no hace ninguna diferencia en este análisis, pero lo incluimos de todos modos por el bien de la generalidad. Obsérvese que, al adoptar una forma particular de la perturbación anterior, hemos desacoplado la estructura espacial y la dinámica temporal en la Ecuación\ ref {(14.60)} 1. Ahora las únicas variables dinámicas son\(∆a(t)\) y\(∆c(t)\), que son las amplitudes de la perturbación en forma de onda sinusoidal añadida al estado de equilibrio homogéneo.

    Al enchufar la Ecuación\ ref {(14.60)} en Eqs. \ ref {(14.57)} y\ ref {(14.59)}, obtenemos lo siguiente:

    \[\sin{(\omega{x} +\phi)} \frac{\partial{\Delta{a}}}{\partial{t}} = -\mu{\omega^{2}}{\sin{(\omega{x} +\phi)}} \Delta{a}+\chi{a_{eq}}\omega^{2}\sin{(\omega{x} +\phi)}\Delta{x} -\chi{\omega^{2}}\cos^{2}{(\omega{x} +\phi)}\Delta{a}\Delta{c} +\chi{\omega^{2}}\sin{(\omega{x}+\phi)}\Delta{a}\Delta{c} \label{(14.61)} \]
    \[sin{(\omega{x}+\phi)} \dfrac{\partial{\Delta{c}}}{\partial{t}} =-D\omega^{2} \sin{(\omega{x} +\phi)} \Delta{c} +f\sin{(\omega{x} +\phi)} \Delta{a} -k\sin{(\omega{x} +\phi)} \Delta{c} \label{(14.62)} \]

    Aquí, vemos el producto de dos amplitudes (\(∆a∆c\)) en los dos últimos términos de la Ecuación\ ref {(14.61)}, que es “infinitamente más pequeña que infinitamente pequeña”, por lo que podemos ignorarlos con seguridad para linealizar las ecuaciones. Tenga en cuenta que uno de ellos es en realidad el remanente del producto de las dos derivadas espaciales de primer orden que no teníamos idea de cómo tratar. ¡Deberíamos estar contentos de verlo salir del escenario!

    Después de ignorar esos términos, cada término en las ecuaciones contiene por igual\(\sin{(ωx+ φ)}\), por lo que podemos dividir las ecuaciones completas por\ (\ sin {(ωx + φ)} para obtener las siguientes ecuaciones diferenciales ordinarias lineales:

    \[\dfrac{d\Delta{a}}{\partial{t}} =-\mu\omega^{2} +\chi{a_{eq}} \omega^{2} \Delta{c} \label{(14.63)} \]

    \[\dfrac{d\Delta{c}}{\partial{t}} =-D\omega^{2} \Delta{c} +f\Delta{a} -k\Delta{c} \label{(14.64)} \]

    O bien, usando una notación de álgebra lineal:
    \[\dfrac{d}{dt} \binom{\Delta{a}}{\Delta{c}} =\begin{pmatrix} -\mu\omega^{2} && \chi{a_{eq}} \omega^{2} \\ f && -D\omega^{2} -k \end{pmatrix} \binom{\Delta{a}}{\Delta{c}} \label{(14.65)} \]

    Finalmente podemos convertir la dinámica espacial del modelo original de Keller-Segel (solo alrededor de su estado de equilibrio homogéneo) en un sistema dinámico lineal muy simple y no espacial. Lo que hemos hecho es constreñir la forma de las pequeñas perturbaciones (es decir, desviaciones del estado de equilibrio homogéneo) a una cierta función propia para eliminar los efectos espaciales, y luego ignorar cualquier término de orden superior para linealizar la dinámica. Cada punto en este nuevo espacio de\((∆a,∆c)\) fase todavía representa una cierta configuración espacial del modelo original, como se ilustra en la Fig. 14.3.2. Estudiar la estabilidad del origen nos\((∆a,∆c) = (0,0)\) dice si el modelo de Keller-Segel puede permanecer homogéneo o si experimenta una formación espontánea de patrones.

    Figura\(\PageIndex{2}\): Ilustración visual de cómo interpretar cada punto en el espacio de\((∆a,∆c)\) fases. Cada llamada muestra el estado real del sistema que corresponde a cada punto en el espacio de fase.

    Lo único que tenemos que hacer es calcular los valores propios de la matriz en la Ecuación\ ref {(14.65)} y verificar los signos de sus partes reales. Esto puede ser engorroso, pero vamos a hacerlo. Aquí está el proceso de cálculo, donde\(λ\) está el valor propio de la matriz:

    \[ \begin{align} \begin{vmatrix} -\mu\omega^{2} -\lambda && \chi{a_{eq}} \omega^{2} \\ f && -D\omega^{2}-k-\lambda \end{vmatrix} &=0 \label{(14.66)} \\[4pt] (-\mu\omega^{2} -\lambda) (-D\omega^{2} -k-\lambda) -\chi{a_{eq}} \omega^{2}f &= 0 \label{(14.67)}\\[4pt] \lambda^{2} + (\mu{\omega^{2}} +D\omega^{2} +k)\lambda + \mu\omega^{2} (D\omega^{2} +k ) -\chi{a_{eq}} \omega^{2} f &=0 \label{14.68} \end{align} \]

    \[\lambda =\dfrac{1}{2}(-(\mu\omega^{2} +D\omega^{2} +k) \pm \sqrt{(\mu{\omega^{2}} +D\omega^{2} +k)^{2} -4(\mu{\omega}(D{\omega^{2}} +k) -\chi{a_{eq} \omega^{2} f}) }) \label{(14.69)} \]

    Ahora bien, la cuestión es si la parte real de cualquiera de los valores propios podría ser positiva. Dado que todos los parámetros son no negativos en este modelo, el término antes de “\(±\)” no puede ser positivo por sí mismo. Esto quiere decir que el interior del radical debe ser positivo y suficientemente grande para que la parte real del autovalor sea positiva. Por lo tanto, la condición para que surja una parte real positiva es la siguiente:

    \[(\mu\omega^{2} +D\omega^{2} +k) < \sqrt{(\mu{\omega^{2}} +D{\omega^{2}} +k)^{2} -4(\mu\omega^{2}(D\omega^{2} +k) -\chi{a_{eq} \omega^{2} f})} \label{(14.70)} \]

    Si este es el caso, el primer valor propio (con el operador “\(+\)” entre paréntesis) es real y positivo, lo que indica que el estado de equilibrio homogéneo es inestable. Simplifiquemos la desigualdad anterior para obtener un resultado más legible por humanos:

    \[(\mu\omega^{2} +D\omega^{2} +k)^{2} < (\mu\omega^{2} +D{\omega^{2}} +k)^{2} -4(\mu\omega^{2} 9D\omega^{2} +k) -\chi{a_{eq}\omega^{2}}f) \label{(14.71)} \]

    \[0< -4(\mu\omega^{2}(D\omega^{2})+k -\chi{a_{eq}}\omega^{2}f) \label{(14.72)} \]

    \[\chi{a_{eq}} \omega^{2}f > \mu\omega(D\omega^{2} +k) \label{(14.73)} \]

    \[\chi{a_{eq}}f > \mu(D\omega^{2} +k) \label{(14.74)} \]

    Por fin, hemos obtenido una elegante desigualdad que une todos los parámetros del modelo en una expresión matemática muy concisa. Si esta desigualdad es cierta, el estado de equilibrio homogéneo del modelo de Keller-Segel es inestable, por lo que se espera que el sistema muestre una formación espontánea de patrones. Uno de los beneficios de este tipo de análisis matemático es que podemos aprender mucho sobre el efecto de cada parámetro del modelo en la formación de patrones de una sola vez. A partir de la desigualdad\ ref {(14.74)}, por ejemplo, podemos hacer las siguientes predicciones sobre el proceso de agregación de las células de moho de limo (y también de las personas, si consideramos esto un modelo de interacción población-economía):

    • \(χ\)\(a_eq\), y\(f\) en el lado izquierdo indican que la agregación de células (o la concentración de población en las principales ciudades) es más probable que ocurra si

    — la quimiotaxis de las células (o “moneytaxis” de las personas) es más fuerte (\(χ\)),

    — hay más células (o personas) en el sistema (\(a_eq\)), y/o

    — las células (o personas) producen moléculas de AMPc (o valores económicos) a un ritmo más rápido (\(f\)).

    • \(µ\)\(D\), y\(k\) en el lado derecho indican que es más probable que se suprima la agregación de células (o la concentración de población en las principales ciudades) si

    — las células y las moléculas de AMPc (o personas y valores económicos) se difunden más rápido (\(µ\)y\(D\)), y/o

    — las moléculas de cAMP (o valores económicos) se desintegran más rápidamente (\(k\)).

    Es bastante intrigante que un modelo matemático tan abstracto pueda proporcionar una visión tan detallada del problema de la urbanización (desplazamiento de la población y la economía de las zonas rurales a las urbanas), uno de los problemas socioeconómicos críticos que enfrenta nuestra sociedad moderna en la actualidad. ¿No es así?

    Además, resolver la desigualdad\ ref {(14.74)} en términos de nos\(ω^2\) da la condición crítica entre la homogeneización y la agregación:

    \[\dfrac{\chi{a_{eq}} f- \mu{k}}{\mu{D}} >\omega^{2} \label{(14.75)} \]

    Tenga en cuenta que\(ω\) puede ser cualquier número real pero\(ω^2\) tiene que ser no negativo, por lo que la agregación ocurre si y solo si

    \[\chi{a_{eq}}f > \mu{k}. \label{(14.76)} \]
    Y si lo hace, las frecuencias espaciales de perturbaciones que van a crecer estarán dadas por

    \[\dfrac{\omega}{2\pi} < \frac{1}{2\pi} \sqrt{\dfrac{\chi{a_{eq}}f -\mu{k}}{\mu{D}}}. \label{(14.77)} \]

    La longitud de onda es la inversa de la frecuencia espacial, por lo que podemos estimar la longitud de las perturbaciones crecientes de la siguiente manera:

    \[l =\dfrac{2\pi}{\omega} > 2\pi\sqrt{\dfrac{\mu{D}}{\chi{a_{eq}}f- \mu{k}}} =l_{c} \label{14.78} \]

    Este resultado significa que las perturbaciones espaciales cuyas escalas de longitud espacial\(l_c\) son mayores que van a crecer y hacerse visibles, mientras que las perturbaciones con escalas de longitud menores que las\(l_c\) van a disminuir y desaparecer. Esta escala crítica de longitud nos dice la distancia característica entre puntos agregados (o ciudades) que se forman espontáneamente al inicio del proceso.

    Podemos confirmar estos resultados analíticos con simulaciones numéricas. La Figura 14.6.3 muestra los resultados de simulación con\(µ = 10^−4\)\(D = 10^−4\)\(f = 1\),,\(k = 1\), y\(a_eq = 1\), mientras que\(χ\) se varía como parámetro de control. Con estos valores de parámetros, la desigualdad\ ref {(14.76)} predice que el valor crítico\(χ\) por encima del cual ocurre la agregación será

    \[\chi_{c} -\dfrac{\mu{k}}{a_{eq}f} =10^{-4}. \label{(14.79)} \]

    lo cual se confirma perfectamente en los resultados de la simulación.

    Fig. 14.4.PNG
    Figura\(\PageIndex{3}\): Resultados de simulación numérica del modelo de Keller-Segel con\(µ = 10^−4\)\(D = 10^−4\),\( f = 1\),\(k = 1\), y\(a_{eq} = 1\). Las densidades celulares se trazan en escala de grises (más oscuro = mayor). El valor de\(χ\) se da debajo de cada resultado.

    Esto concluye una visita guiada por el análisis de estabilidad lineal de modelos de campo continuos. Puede haber parecido bastante complicado, pero las ideas clave son simples y casi idénticas a las del análisis de estabilidad lineal de modelos no espaciales. Aquí hay un resumen del procedimiento:
    Análisis de estabilidad lineal de modelos de campo continuo

    1. Encuentra un estado de equilibrio homogéneo del sistema que te interesa.
    2. Representar el estado del sistema como una suma del estado de equilibrio homogéneo y una pequeña función de perturbación.
    3. Representar la pequeña función de perturbación como producto de una amplitud dinámica y una forma estática de la perturbación, que se elige para ser una función propia del operador lineal espacial que permanece en la ecuación (muy probablemente solo ondas sinusoidales para\(∇^2\)).

    4. Elimine el operador lineal espacial e ignore términos de orden superior de pequeñas perturbaciones para simplificar la ecuación en una forma lineal no espacial.
    5. Calcular los valores propios de la matriz de coeficientes resultante.
    6. Si la parte real del valor propio dominante es:

    • Mayor que 0⇒ El estado de equilibrio homogéneo es inestable.

    • Menos de 0⇒ El estado de equilibrio homogéneo es estable

    . • Igual a 0 ⇒ El estado de equilibrio homogéneo puede ser neutro (Lyapunov estable).


    7. Además, si hay complejos valores propios conjugados involucrados, las dinámicas oscilatorias están sucediendo alrededor del estado de equilibrio homogéneo.

    Finalmente, también debemos señalar que este análisis de estabilidad lineal basado en función propia de modelos de campo continuo funciona solo si la dinámica espacial está representada por un operador diferencial lineal local (e.g.\(∂f/∂x\), Laplaciano, etc.). Desafortunadamente, el mismo enfoque no sería capaz de manejar operadores globales o no lineales, que a menudo surgen en modelos matemáticos de fenómenos del mundo real. Pero esto está más allá del alcance de este libro de texto.

    Ejercicio\(\PageIndex{5}\)

    Agregar términos para crecimiento poblacional y decaimiento a la primera ecuación del modelo de Keller-Segel. Obtener un estado de equilibrio homogéneo del modelo revisado y luego realizar un análisis de estabilidad lineal. Averiguar la condición para la cual se produce la formación espontánea de patrones. Interpretar el resultado y discutir sus implicaciones.

    1 En términos matemáticos, este es un ejemplo de separación de variables —descomponiendo las ecuaciones originales en un conjunto de componentes más simples cada uno de los cuales tiene menos variables independientes que las originales. Las PDEs para las que es posible la separación de variables se denominan PDEs separables. Nuestras ecuaciones originales del modelo Keller-Segel no son PDEs separables, pero estamos tratando de separar variables de todos modos enfocándonos en la dinámica alrededor del estado de equilibrio homogéneo del modelo y usando aproximación lineal.


    This page titled 14.3: Análisis de Estabilidad Lineal de Modelos de Campo Continuos is shared under a CC BY-NC-SA 3.0 license and was authored, remixed, and/or curated by Hiroki Sayama (OpenSUNY) via source content that was edited to the style and standards of the LibreTexts platform.