Saltar al contenido principal
LibreTexts Español

21.3: Visión general de la tarea de aprendizaje PGM

  • Page ID
    54984
  • \( \newcommand{\vecs}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} } \) \( \newcommand{\vecd}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash {#1}}} \)\(\newcommand{\id}{\mathrm{id}}\) \( \newcommand{\Span}{\mathrm{span}}\) \( \newcommand{\kernel}{\mathrm{null}\,}\) \( \newcommand{\range}{\mathrm{range}\,}\) \( \newcommand{\RealPart}{\mathrm{Re}}\) \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\) \( \newcommand{\Argument}{\mathrm{Arg}}\) \( \newcommand{\norm}[1]{\| #1 \|}\) \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\) \( \newcommand{\Span}{\mathrm{span}}\) \(\newcommand{\id}{\mathrm{id}}\) \( \newcommand{\Span}{\mathrm{span}}\) \( \newcommand{\kernel}{\mathrm{null}\,}\) \( \newcommand{\range}{\mathrm{range}\,}\) \( \newcommand{\RealPart}{\mathrm{Re}}\) \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\) \( \newcommand{\Argument}{\mathrm{Arg}}\) \( \newcommand{\norm}[1]{\| #1 \|}\) \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\) \( \newcommand{\Span}{\mathrm{span}}\)\(\newcommand{\AA}{\unicode[.8,0]{x212B}}\)

    Tenemos que aprender parámetros a partir de los datos que tenemos. Una vez que tenemos un conjunto de parámetros, tenemos que usar parametrizaciones para aprender estructura. Nos enfocaremos en enfoques basados en puntaje para la construcción de redes, definiendo una puntuación para ser optimizada como métrica para la construcción de redes.

    Aprendizaje de parámetros para redes bayesianas

    Máxima verosimilitud Elige parámetros para maximizar la probabilidad de los datos disponibles dado el modelo.

    En máxima verosimilitud, calcule la verosimilitud de los datos como puntuaciones de cada variable aleatoria dados los padres y tenga en cuenta que las puntuaciones se Dependiendo de la elección de un modelo, las puntuaciones se maximizarán de diferentes maneras. Para la distribución gaussiana es posible simplemente calcular parámetros optimizando la puntuación. Para elecciones de modelos más complicadas puede ser necesario hacer descenso de gradiente.

    Estimación de parámetros bayesianos Se trata a\(theta\) sí misma como una variable aleatoria y elige los parámetros maximizando la probabilidad posterior. Estos métodos requieren una estructura fija y buscan elegir parámetros internos maximizando la puntuación.

    Aprendizaje de la estructura

    Podemos calcular mejor las parametrizaciones de conjeturas de redes estructuradas. ¿Cómo encontramos las estructuras por sí mismas?

    El aprendizaje de la estructura procede comparando la probabilidad de parametrizaciones de ML a través de diferentes estructuras gráficas y con el fin de buscar aquellas estructuras que obtengan una puntuación óptima de ML.

    Un marco bayesiano puede incorporar probabilidades previas sobre las estructuras gráficas si se le da alguna razón para creer a priori que algunas estructuras son más probables que otras.

    Para realizar la búsqueda en el aprendizaje de estructuras, inevitablemente tendremos que usar un enfoque codicioso porque el espacio de estructuras es demasiado grande para enumerarlo. Dichos métodos procederán mediante una búsqueda incremental análoga a la optimización de descenso de gradiente para encontrar parametrizaciones ML.

    Se considera y evalúa un conjunto de gráficas de acuerdo con la puntuación ML. Dado que el optima local puede existir, es bueno sembrar búsquedas gráficas desde múltiples puntos de partida.

    Además de ser incapaces de capturar dependencias cíclicas como se mencionó anteriormente, las redes bayesianas tienen ciertas otras limitaciones.

    Enlaces indirectos Dado que las redes bayesianas simplemente miran las dependencias estadísticas entre nodos, es fácil que se les engañe para que pongan bordes donde de hecho solo están presentes las relaciones indirectas.

    Interacciones descuidadas Especialmente cuando las puntuaciones estructurales se optimizan localmente, es posible que se pierdan por completo interacciones biológicas significativas. Los genes coexpresados pueden no compartir reguladores adecuados.

    Los métodos bayesianos de velocidad lenta discutidos hasta ahora son demasiado lentos para trabajar eficazmente los datos del genoma completo.

    Excluyendo Enlaces Indirectos

    ¿Cómo eliminar los enlaces indirectos? Los enfoques teóricos de la información se pueden utilizar para eliminar enlaces extraños mediante la poda de estructuras de red para eliminar información redundante. Se describen dos métodos.

    ARACNE Por cada triplete de bordes, se calcula una puntuación de información mutua y el algoritmo ARACNE excluye los bordes con la menor información sujeta a ciertos umbrales por encima de los cuales se mantienen los bordes mínimos.

    MRNET Maximiza la dependencia entre reguladores y objetivos al tiempo que minimiza la cantidad de información redundante compartida entre reguladores al eliminar bordes correspondientes a reguladores con baja varianza.

    Como alternativa, es posible simplemente mirar motivos reguladores y eliminar bordes de regulación no predichos por motivos comunes.

    Programas Regulatorios de Aprendizaje para Módulos

    ¿Cómo corregir omisiones para genes corregulados? Al aprender parámetros para modelos reguladores en lugar de genes individuales, es posible explotar la tendencia de los genes coexpresados a regularse de manera similar. Similar al método de usar motivos regulatorios para podar bordes redundantes, al modelar módulos a la vez, reducimos los recuentos de borde de red al tiempo que aumentamos el volumen de datos para trabajar.

    Con extensiones, también es posible modelar dependencias cíclicas. Las redes de módulos permiten la revisitación de agrupamiento donde los genes se reasignan a clústeres en función de qué tan bien son pronosticados por un programa regulatorio para un módulo.

    Sin embargo, los módulos no pueden acomodar la membresía del módulo para compartir genes. Dividir y conquistar para acelerar el aprendizaje

    ¿Cómo acelerar el aprendizaje? El Dr. Roy ha desarrollado un método para dividir el gran problema de aprendizaje en tareas más pequeñas utilizando una técnica de dividir y conquistar para gráficos no dirigidos. Al comenzar con clústeres es posible inferir redes reguladoras para grupos individuales y luego cruzar bordes, reasignar genes e iterar.

    Conclusiones en la Inferencia de Red

    Las redes regulatorias son importantes pero difíciles de construir en general. Al explotar la modularidad, a menudo es posible encontrar estructuras confiables para gráficas y subgrafías. 5

    Muchas extensiones están en el horizonte para las redes regulatorias. Estos incluyen inferir bordes causales a partir de correlaciones de expresión, aprender a compartir genes entre clústeres y otros.


    4 Las redes bayesianas se parametrizan\(\theta\) según nuestra elección específica de modelo de red. Con diferentes opciones de variables aleatorias, tendremos diferentes opciones para parametrizaciones,\(\theta\) y por lo tanto diferentes tareas de aprendizaje:

    Las variables aleatorias discretas sugieren simples\(\theta\) correspondientes a elecciones de parámetros para una distribución multinomial.

    Las variables aleatorias continuas pueden modelarse con\(\theta\) correspondientes a medias y covarianzas de gaussianos u otra distribución continua.

    5 El Dr. Roy señala que hay muchos algoritmos disponibles para ejecutar inferencia de red de módulos con diversas distribuciones. Hay disponibles paquetes de redes neuronales y paquetes bayesianos entre otros.


    This page titled 21.3: Visión general de la tarea de aprendizaje PGM is shared under a CC BY-NC-SA 4.0 license and was authored, remixed, and/or curated by Manolis Kellis et al. (MIT OpenCourseWare) via source content that was edited to the style and standards of the LibreTexts platform; a detailed edit history is available upon request.