Saltar al contenido principal
LibreTexts Español

16.1: Introducción

  • Page ID
    54912
  • \( \newcommand{\vecs}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} } \) \( \newcommand{\vecd}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash {#1}}} \)\(\newcommand{\id}{\mathrm{id}}\) \( \newcommand{\Span}{\mathrm{span}}\) \( \newcommand{\kernel}{\mathrm{null}\,}\) \( \newcommand{\range}{\mathrm{range}\,}\) \( \newcommand{\RealPart}{\mathrm{Re}}\) \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\) \( \newcommand{\Argument}{\mathrm{Arg}}\) \( \newcommand{\norm}[1]{\| #1 \|}\) \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\) \( \newcommand{\Span}{\mathrm{span}}\) \(\newcommand{\id}{\mathrm{id}}\) \( \newcommand{\Span}{\mathrm{span}}\) \( \newcommand{\kernel}{\mathrm{null}\,}\) \( \newcommand{\range}{\mathrm{range}\,}\) \( \newcommand{\RealPart}{\mathrm{Re}}\) \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\) \( \newcommand{\Argument}{\mathrm{Arg}}\) \( \newcommand{\norm}[1]{\| #1 \|}\) \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\) \( \newcommand{\Span}{\mathrm{span}}\)\(\newcommand{\AA}{\unicode[.8,0]{x212B}}\)

    En el capítulo anterior analizamos el clustering, que proporciona una herramienta para analizar datos sin ningún conocimiento previo de la estructura subyacente. Como mencionamos antes, este es un ejemplo de aprendizaje “no supervisado”. Este capítulo trata sobre el aprendizaje supervisado, en el que podemos utilizar datos preclasificados para construir un modelo mediante el cual clasificar más puntos de datos. De esta manera, utilizaremos la estructura existente y conocida para desarrollar reglas para identificar y agrupar más información.

    Hay dos formas de hacer clasificación. Las dos formas son análogas a las dos formas en las que realizamos el descubrimiento de motivos: HMM, que es un modelo generativo que nos permite describir realmente la probabilidad de que una designación particular sea válida, y CRF, que es un método discriminativo que permite distinguir entre objetos en un contexto. Existe una dicotomía entre enfoques generativos y discriminativos. Utilizaremos un enfoque bayesiano para clasificar proteínas mitocondriales, y SVM para clasificar muestras tumorales.

    En esta conferencia veremos dos nuevos algoritmos: un clasificador generativo, Nave Bayes, y un clasificador discriminativo, Máquinas de vectores de soporte (SVM). Discutiremos las aplicaciones biológicas de cada uno de estos modelos, específicamente en el uso de clasificadores Nave Bayes para predecir proteínas mitocondriales en todo el genoma y el uso de SVM para la clasificación del cáncer basado en el monitoreo de la expresión génica por microarrays de ADN. También se discutirán las características sobresalientes de ambas técnicas y las advertencias del uso de cada técnica.

    Al igual que con la agrupación, la clasificación (y más generalmente el aprendizaje supervisado) surgió de los esfuerzos en Inteligencia Artificial y Machine Learning. Además, gran parte de la infraestructura motivadora para la clasificación ya había sido desarrollada por teóricos de la probabilidad antes de la llegada de la IA o la ML.


    This page titled 16.1: Introducción is shared under a CC BY-NC-SA 4.0 license and was authored, remixed, and/or curated by Manolis Kellis et al. (MIT OpenCourseWare) via source content that was edited to the style and standards of the LibreTexts platform; a detailed edit history is available upon request.