Saltar al contenido principal
LibreTexts Español

7.1: Introducción

  • Page ID
    54312
  • \( \newcommand{\vecs}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} } \) \( \newcommand{\vecd}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash {#1}}} \)\(\newcommand{\id}{\mathrm{id}}\) \( \newcommand{\Span}{\mathrm{span}}\) \( \newcommand{\kernel}{\mathrm{null}\,}\) \( \newcommand{\range}{\mathrm{range}\,}\) \( \newcommand{\RealPart}{\mathrm{Re}}\) \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\) \( \newcommand{\Argument}{\mathrm{Arg}}\) \( \newcommand{\norm}[1]{\| #1 \|}\) \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\) \( \newcommand{\Span}{\mathrm{span}}\) \(\newcommand{\id}{\mathrm{id}}\) \( \newcommand{\Span}{\mathrm{span}}\) \( \newcommand{\kernel}{\mathrm{null}\,}\) \( \newcommand{\range}{\mathrm{range}\,}\) \( \newcommand{\RealPart}{\mathrm{Re}}\) \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\) \( \newcommand{\Argument}{\mathrm{Arg}}\) \( \newcommand{\norm}[1]{\| #1 \|}\) \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\) \( \newcommand{\Span}{\mathrm{span}}\)\(\newcommand{\AA}{\unicode[.8,0]{x212B}}\)

    En esta conferencia definiremos Cadenas de Markov y HMM, aportando una serie de ejemplos motivadores. En la segunda mitad de esta conferencia, discutiremos la puntuación y la decodificación. Aprenderemos a calcular la probabilidad de la combinación de una combinación particular de observaciones y estados. Presentaremos el Algoritmo Forward, un método para calcular la probabilidad de una secuencia dada de observaciones, permitiendo todas las secuencias de estados. Finalmente, discutiremos el problema de determinar el camino más probable de los estados correspondientes a las observaciones dadas, objetivo que se logra mediante el algoritmo de Viterbi.

    En la segunda conferencia sobre HMM, continuaremos nuestra discusión sobre la decodificación explorando la decodificación posterior, lo que nos permite calcular el estado más probable en cada punto de la secuencia. Luego exploraremos cómo aprender un modelo oculto de Markov. Cubrimos tanto el aprendizaje supervisado como no supervisado, explicando cómo usar cada uno para aprender los parámetros del modelo. En el aprendizaje supervisado, tenemos datos de entrenamiento disponibles que etiquetan secuencias con modelos particulares. En el aprendizaje no supervisado, no tenemos etiquetas por lo que debemos buscar particionar los datos en categorías discretas basadas en similitudes probabilísticas descubiertas. En nuestra discusión sobre el aprendizaje no supervisado introduciremos el algoritmo general y ampliamente aplicable de Maximización de Expectativas (EM).


    This page titled 7.1: Introducción is shared under a CC BY-NC-SA 4.0 license and was authored, remixed, and/or curated by Manolis Kellis et al. (MIT OpenCourseWare) via source content that was edited to the style and standards of the LibreTexts platform; a detailed edit history is available upon request.