Saltar al contenido principal
LibreTexts Español

5.5: Deriva Genética Aleatoria

  • Page ID
    117623
  • \( \newcommand{\vecs}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} } \) \( \newcommand{\vecd}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash {#1}}} \)\(\newcommand{\id}{\mathrm{id}}\) \( \newcommand{\Span}{\mathrm{span}}\) \( \newcommand{\kernel}{\mathrm{null}\,}\) \( \newcommand{\range}{\mathrm{range}\,}\) \( \newcommand{\RealPart}{\mathrm{Re}}\) \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\) \( \newcommand{\Argument}{\mathrm{Arg}}\) \( \newcommand{\norm}[1]{\| #1 \|}\) \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\) \( \newcommand{\Span}{\mathrm{span}}\) \(\newcommand{\id}{\mathrm{id}}\) \( \newcommand{\Span}{\mathrm{span}}\) \( \newcommand{\kernel}{\mathrm{null}\,}\) \( \newcommand{\range}{\mathrm{range}\,}\) \( \newcommand{\RealPart}{\mathrm{Re}}\) \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\) \( \newcommand{\Argument}{\mathrm{Arg}}\) \( \newcommand{\norm}[1]{\| #1 \|}\) \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\) \( \newcommand{\Span}{\mathrm{span}}\)\(\newcommand{\AA}{\unicode[.8,0]{x212B}}\)

    Hasta ahora, nuestros modelos genéticos simplificados han asumido una población infinita, descuidando los efectos estocásticos. Aquí, consideramos una población finita: los efectos estocásticos resultantes sobre las frecuencias alélicas se denominan deriva genética aleatoria. El modelo genético más simple que incorpora deriva genética aleatoria asume una población de\(N\) individuos de tamaño fijo y modela la evolución de un locus genético haploide dialélico.

    Existen dos modelos genéticos ampliamente utilizados para poblaciones finitas: el modelo WrightFisher y el modelo Moran. El modelo Wright-Fisher es más similar a nuestro modelo de generación discreta de población infinita. En el modelo Wright-Fisher, los individuos\(N\) adultos liberan una gran cantidad de gametos en un acervo genético, y la siguiente generación se forma a partir de gametos\(N\) aleatorios elegidos independientemente del acervo genético. El modelo Moran adopta un enfoque diferente. En el modelo Moran, un solo paso de evolución consiste en un individuo aleatorio en la población que se reproduce, y otro individuo aleatorio muriendo, manteniéndose la población siempre en el tamaño constante\(N\). Debido a que dos eventos aleatorios ocurren cada generación en el modelo Moran, y eventos\(N\) aleatorios ocurren cada generación en el modelo Wright-Fisher, un total de pasos de\(N / 2\) evolución en el modelo Moran es comparable, pero no exactamente idéntico, a una sola generación discreta en el Modelo Wright-Fisher. Se ha demostrado, sin embargo, que los dos modelos se vuelven idénticos en el límite de grandes\(N\). Para nuestros propósitos, el modelo Moran es matemáticamente más manejable y lo adoptamos aquí.

    Desarrollamos nuestro modelo de manera análoga al modelo estocástico de crecimiento poblacional derivado en\(\S 3.1\). Dejamos\(n\) denotar el número de\(A\) -alelos en la población, y\(N-n\) el número de\(a\) -alelos. Con\(n=0,1,2, \ldots, N\) una variable aleatoria discreta, la función de masa de probabilidad\(p_{n}(g)\) denota la probabilidad de tener\(n A\) -alelos en el paso de evolución\(g .\) Con\(n\) alelos A en una población de tamaño \(N\), la probabilidad de que un individuo se esté reproduciendo\(A\) o muriendo viene dada por\(s_{n}=n / N\); la probabilidad correspondiente para\(a\) es\(1-s_{n}\). Hay tres formas de obtener una población de\(n A\) -alelos en el paso de evolución\(g+1\). Primero, hubo\(n A\) -alelos en el paso de evolución\(g\), y el individuo que se reproducía portaba el mismo alelo que el individuo moribundo. Segundo, hubo\(n-1\) -alelos en el paso de la evolución\(g\), y el individuo que se reproduce tiene\(A\) y el individuo que muere tiene\(a\). Y tercero, había\(n+1 A\) -alelos en el paso de la evolución\(g\), y el individuo que se reproduce tiene\(a\) y el individuo moribundo tiene\(A\). Multiplicar las probabilidades y sumar los tres casos da como resultado

    \[\begin{align} \nonumber p_{n}(g+1)=\left(s_{n}^{2}+\left(1-s_{n}\right)^{2}\right) p_{n}(g)+s_{n-1}\left(1-s_{n-1}\right) p_{n-1}(g) & \\[4pt] &+s_{n+1}\left(1-s_{n+1}\right) p_{n+1}(g) \end{align} \nonumber \]

    Tenga en cuenta que esta ecuación es válida para\(0<n<N\), y que las ecuaciones en los límites, que representan las probabilidades de que uno de los alelos sea fijo, son

    \[\begin{align} p_{0}(g+1) &=p_{0}(g)+s_{1}\left(1-s_{1}\right) p_{1}(g) \\[4pt] p_{N}(g+1) &=p_{N}(g)+s_{N-1}\left(1-s_{N-1}\right) p_{N-1}(g) \end{align} \nonumber \]

    Los límites se llaman absorbentes y la probabilidad de fijación de un alelo aumenta monótonamente con cada nacimiento y muerte. Una vez que la probabilidad de fijación de un alelo es la unidad, no hay más cambios en las frecuencias alélicas.

    Ilustramos la solución de\((5.5.1)\) - (5.5.3) en la Fig. \(5.3\)para una población pequeña de tamaño\(N=20\), y donde se conoce con precisión el número de\(A\) -alelos en la generación fundadora, ya sea con (a)\(p_{10}(0)=1\), o; (b)\(p_{13}(0)=1\). Trazamos la densidad de masa de probabilidad del número de\(A\) -alelos cada\(N\) evolución escalonada, hasta\(7 N\) escalones, correspondientes a aproximadamente catorce generaciones discretas de evolución en el modelo Wright-Fisher. Observe cómo la distribución de probabilidad se difunde lejos de su valor inicial, y cómo las probabilidades eventualmente se concentran en los límites, con ambos\(p_{0}\) y\(p_{20}\) monótonamente crecientes. De hecho, después de un gran número de generaciones,\(p_{0}\) se acerca a la frecuencia inicial del\(a\) -alelo y\(p_{20}\) se acerca a la frecuencia inicial del\(A\) -alelo (no se muestra en las figuras).

    imagen
    Figura 5.3:\(p_{n}\) versus\(n\) con\(N=20\). Los pasos de evolución trazados corresponden a\(g=\)\(0, N, 2 N, \ldots, 7 N\). a) El número inicial de\(A\) individuos es\(n=10\). (b) El número inicial de\(A\) individuos es\(n=13\). y señalar que\(S(x)=x .\) Del mismo modo, tenemos\(s_{n+1}=S(x+\Delta x)\) y\(s_{n-1}=S(x-\Delta x)\), donde\(\Delta x=1 / N .\) Entonces, con\(\Delta t=2 / N,(5.5.4)\) se transforma en<\ p>

    \[\begin{align} \nonumber P(x, t&+\Delta t)-P(x, t)=S(x+\Delta x)(1-S(x+\Delta x)) P(x+\Delta x, t) \\[4pt] &-2 S(x)(1-S(x)) P(x, t)+S(x-\Delta x)(1-S(x-\Delta x)) P(x-\Delta x, t) \end{align} \nonumber \]

    Para simplificar aún más, utilizamos la conocida aproximación de diferencia central a la segunda derivada de una función\(f(x)\),

    \[f^{\prime \prime}(x)=\frac{f(x+\Delta x)-2 f(x)+f(x-\Delta x)}{\Delta x^{2}}+\mathrm{O}\left(\Delta x^{2}\right) \nonumber \]

    y reconocer que el lado derecho de (5.5.7) es el numerador de una segunda derivada. Con\(\Delta x=\Delta t / 2=1 / N \rightarrow 0\), y\(S(x)=x\), derivamos al orden inicial en\(1 / N\) la ecuación diferencial parcial

    \[\frac{\partial P(x, t)}{\partial t}=\frac{1}{2} \frac{\partial^{2}}{\partial x^{2}}(V(x) P(x, t)) \nonumber \]

    con

    \[V(x)=\frac{x(1-x)}{N} \nonumber \]

    Para interpretar el significado de la función\(V(x)\) utilizaremos el siguiente resultado de la teoría de probabilidad. Para ensayos\(n\) independientes, cada uno con probabilidad de éxito\(p\) y probabilidad de fracaso\(1-p\), el número de éxitos, denotado por\(X\), es una variable aleatoria binomial con parámetros\((n, p)\). Los resultados bien conocidos son\(E[X]=n p\) y\(\operatorname{Var}[X]=n p(1-p)\), dónde\(E[\ldots]\) está el valor esperado, y\(\operatorname{Var}[\ldots]\) es la varianza.

    Ahora, el número de\(A\) -alelos elegidos al formar la siguiente generación de Wright-Fisher es una variable aleatoria binomial\(n^{\prime}\) con parámetros\((N, n / N)\). Por lo tanto,\(E\left[n^{\prime}\right]=n\) y\(\operatorname{Var}\left[n^{\prime}\right]=n(1-n / N)\). Con\(x^{\prime}=n^{\prime} / N\) y\(x=n / N\), tenemos\(E\left[x^{\prime}\right]=x\), y\(\operatorname{Var}\left[x^{\prime}\right]=x(1-x) / N\). Por lo tanto, la función\(V(x)\) puede interpretarse como la varianza de\(x\) más de una sola generación de Wright-Fisher.

    Aunque (5.5.9) y (5.5.10) dependen explícitamente del tamaño de la población\(N\), el tamaño de la población puede eliminarse mediante un simple cambio de variables. Si dejamos

    \[\tau=t / N \text {, } \nonumber \]

    entonces la ecuación diferencial (5.5.9) se transforma en

    \[\frac{\partial P(x, \tau)}{\partial \tau}=\frac{1}{2} \frac{\partial^{2}}{\partial x^{2}}(x(1-x) P(x, \tau)) \nonumber \]

    independiente de\(N\). El cambio de variables dado por (5.5.11) simplemente establece que una duplicación del tamaño de la población alargará la escala de tiempo de evolución en un factor correspondiente de dos. Recuerda que aquí ya estamos trabajando bajo el supuesto de que los tamaños de población son grandes.

    La ecuación (5.5.12) es una ecuación similar a la difusión para la función de distribución de probabilidad\(P(x, \tau)\). Una aproximación de difusión para estudiar la deriva genética fue introducida por primera vez en la genética de poblaciones por sus fundadores Fisher y Wright., y luego fue ampliamente desarrollado en el\(1950^{\prime}\) s por el biólogo japonés Motoo Kimura. Aquí, nuestro análisis de esta ecuación se basa en un artículo más reciente de McKane y Waxman (2007), quienes mostraron cómo construir la solución analítica de (5.5.12) en los límites de\(x\). Porque\(0<x<1\), es sugerente a partir de las soluciones numéricas mostradas en la Fig. \(5.3\)de la que la distribución de probabilidad podría independizarse asintóticamente\(x\). En consecuencia, buscamos una solución asintótica\((5.5.12)\) a los valores interiores de\(x\) satisfacción\(P(x, \tau)=P(\tau)\). La ecuación (5.5.12) se convierte en

    \[\begin{aligned} \frac{d P(\tau)}{d \tau} &=\frac{1}{2}(x(1-x))^{\prime \prime} P(\tau) \\[4pt] &=-P(\tau) \end{aligned} \nonumber \]

    con solución asintótica

    \[P(\tau)=c e^{-\tau} \nonumber \]

    y observamos que la probabilidad total sobre los valores interiores de\(x\) decae exponencialmente.

    Para entender cómo se comporta la solución en los límites de\(x\), requerimos condiciones de límite para\(P(x, \tau)\). De hecho, debido a que\(P(x, \tau)\) es singular en los límites de\(x\), las condiciones de límite apropiadas no se pueden obtener directamente de las ecuaciones de diferencia dadas por (5.5.2 y 5.5.3). Más bien, las condiciones de contorno se obtienen más fácilmente refundiendo primero (5.5.12) en forma de una ecuación de continuidad.

    Dejamos\(j(x, \tau)\) denotar la llamada corriente de probabilidad. En una pequeña región de tamaño\(\Delta x\) que se encuentra en el intervalo\((x, x+\Delta x)\), la tasa de tiempo de cambio de la probabilidad\(P(x, \tau) \Delta x\) se debe al flujo de probabilidad dentro y fuera de esta región. Con una adecuada definición de la corriente de probabilidad, tenemos en general

    \[\frac{\partial}{\partial \tau}(P(x, \tau) \Delta x)=j(x, t)-j(x+\Delta x) \nonumber \]

    o como\(\Delta x \rightarrow 0\),

    \[\frac{\partial P(x, \tau)}{\partial \tau}+\frac{\partial j(x, \tau)}{\partial x}=0 \nonumber \]

    que es la forma habitual de una ecuación de continuidad. La identificación de (5.5.15) con (5.5.12) muestra que la corriente de probabilidad de nuestro problema viene dada por

    \[j(x, \tau)=-\frac{1}{2} \frac{\partial}{\partial x}(x(1-x) P(x, \tau)) . \nonumber \]

    Ahora bien, ya que la probabilidad total es la unidad; es decir,

    \[\int_{0}^{1} P(x, \tau) d x=1 \nonumber \]

    probabilidad no puede fluir dentro o fuera de los límites de\(x\), y por lo tanto debemos tener

    \[j(0, \tau)=0, \quad j(1, \tau)=0, \nonumber \]

    que son las condiciones de límite apropiadas para (5.5.12).

    Podemos buscar soluciones estacionarias de (5.5.12). El uso de la ecuación de continuidad (5.5.15) junto con las condiciones límite (5.5.18) muestra que la solución estacionaria tiene corriente de probabilidad cero; es decir,\(j(x)=0\). Integración de\(j(x)\) usar (5.5.16) resultados en

    \[x(1-x) P(x)=c_{1} \nonumber \]

    donde\(c_{1}\) es una constante de integración. La solución fácilmente aparente es\(P(x)=\)\(c_{1} /[x(1-x)]\), pero también hay dos soluciones menos obvias. Se permite que las funciones de distribución de probabilidad contengan soluciones singulares correspondientes a las funciones delta de Dirac, y aquí consideramos la posibilidad de que existan funciones delta de Dirac en los límites. Al notar que tanto\(x \delta(x)=0\) y\((1-x) \delta(1-x)=0\), podemos ver que la solución general para\(P(x)\) puede escribirse como

    \[P(x)=\frac{c_{1}}{x(1-x)}+c_{2} \delta(x)+c_{3} \delta(1-x) . \nonumber \]

    \(P(x)\)Requeriendo satisfacer (5.5.17) resulta en\(c_{1}=0\) y\(c_{2}+c_{3}=1\). Para determinar la constante libre restante, podemos calcular la frecuencia media del\(A\) -alelo en la población. A partir de la ecuación de continuidad\((5.5.15)\), tenemos

    \[\begin{aligned} \frac{\partial}{\partial \tau} \int_{0}^{1} x P(x, \tau) d x &=-\int_{0}^{1} x \frac{\partial j(x, \tau)}{\partial x} d x \\[4pt] &=\int_{0}^{1} j(x, \tau) d x \\[4pt] &=0 \end{aligned} \nonumber \]

    donde la primera integral en el lado derecho se realizó por partes usando las condiciones límite dadas por (5.5.18), y la segunda integral se realizó usando (5.5.16) y la fuga de\(x(1-x) P(x)\) en los límites. La frecuencia media del\(A\) alelo es, por lo tanto, una constante, como cabría esperar para una deriva genética aleatoria no direccional, y podemos suponer que su valor inicial es\(p\). Por lo tanto, obtenemos para nuestra solución estacionaria

    \[P(x)=(1-p) \delta(x)+p \delta(1-x) \nonumber \]

    La probabilidad eventual de fijar el\(A\) alelo es, por lo tanto, simplemente igual a su frecuencia inicial. Por ejemplo, supongamos que dentro de una población de\(N\) individuos homogéneos para\(a\), se produce una sola mutación neutra de manera que un individuo ahora porta el\(A\) -alelo. ¿Cuál es la probabilidad de que el\(A\) -alelo eventualmente se arregle? Nuestro resultado arrojaría la probabilidad\(1 / N\), que es la frecuencia inicial del\(A\) alelo. Intuitivamente, después de que haya pasado un número suficiente de generaciones, todos los individuos vivos deben ser descendientes de un solo individuo ancestral que vive en el momento en que ocurrió la única mutación. La probabilidad de que ese solo individuo portara el\(A\) -alelo es justa\(1 / N\).

    Observamos además que Kimura fue el primero en encontrar una solución analítica de la ecuación de difusión (5.5.12). Un método de solución usando transformadas de Fourier se puede encontrar en el apéndice de McKane y Waxman (2007). Además de hacer uso de las funciones delta de Dirac, estos autores requieren funciones de paso Heaviside, funciones de Bessel, funciones esféricas de Bessel, funciones hipergeométricas, polinomios de Legendre y polinomios de Gegenbauer. La solución resultante es de la forma

    \[P(x, \tau)=\Pi_{0}(\tau) \delta(x)+\Pi_{1}(\tau) \delta(1-x)+f(x, \tau) \nonumber \]

    Si el número de\(A\) -alelos se conoce en el instante inicial, y la frecuencia es\(p\), entonces

    \[P(x, 0)=\delta(x-p) \nonumber \]

    y\(\Pi_{0}(0)=\Pi_{1}(0)=0 ; f(x, 0)=\delta(x-p)\). Como\(\tau \rightarrow \infty\), tenemos\(f(x, \tau) \rightarrow 0\);\(\Pi_{0}(\tau) \rightarrow 1-p\) y\(\Pi_{1}(\tau) \rightarrow p\)

    Podemos demostrar fácilmente al menos una solución exacta de la forma (5.5.22). Para una distribución inicial de probabilidad uniforme dada por

    \[P(x, 0)=1, \nonumber \]

    la distribución de probabilidad en los puntos interiores se mantiene uniforme y viene dada por\((5.5.13)\) con\(c=1\). Si asumimos la forma de solución dada por (5.5.22) junto con el requisito de probabilidad unitaria dado por (5.5.17), podemos obtener el resultado exacto

    \[P(x, \tau)=\frac{1}{2}\left(1-e^{-\tau}\right)(\delta(x)+\delta(1-x))+e^{-\tau} \nonumber \]


    This page titled 5.5: Deriva Genética Aleatoria is shared under a CC BY 3.0 license and was authored, remixed, and/or curated by Jeffrey R. Chasnov via source content that was edited to the style and standards of the LibreTexts platform; a detailed edit history is available upon request.