Loading [MathJax]/jax/output/HTML-CSS/jax.js
Saltar al contenido principal
Library homepage
 

Text Color

Text Size

 

Margin Size

 

Font Type

Enable Dyslexic Font
LibreTexts Español

Buscar

  • Filtrar resultados
  • Ubicación
  • Clasificación
    • Tipo de artículo
    • Author
    • Show TOC
    • Cover Page
    • License
    • Transcluded
      • Autonumber Section Headings
      • License Version
    • Incluir datos adjuntos
    Buscando en
    Acerca de 4 resultados
    • https://espanol.libretexts.org/Matematicas/Algebra_lineal/%C3%81lgebra_Matricial_con_Aplicaciones_Computacionales_(Colbry)/19%3A_10_Asignaci%C3%B3n_Pre-Clase_-_Autovectores_y_Autovalores/19.3%3A_Introducci%C3%B3n_a_los_modelos_de_Markov
      Un diagrama que representa un proceso de Markov de dos estados, con los estados etiquetados E y A. Cada número representa la probabilidad de que el proceso de Markov cambie de un estado a otro, con la...Un diagrama que representa un proceso de Markov de dos estados, con los estados etiquetados E y A. Cada número representa la probabilidad de que el proceso de Markov cambie de un estado a otro, con la dirección indicada por la flecha. Por ejemplo, si el proceso de Markov está en el estado A, entonces la probabilidad de que cambie al estado E es 0.4, mientras que la probabilidad de que permanezca en el estado A es 0.6.
    • https://espanol.libretexts.org/Estadisticas/Teoria_de_Probabilidad/Libro%3A_Probabilidad_Introductoria_(Grinstead_y_Snell)/11%3A_Cadenas_Markov
      La teoría moderna de la probabilidad estudia procesos de azar para los cuales el conocimiento de resultados previos influye en las predicciones para experimentos futuros. En principio, cuando observam...La teoría moderna de la probabilidad estudia procesos de azar para los cuales el conocimiento de resultados previos influye en las predicciones para experimentos futuros. En principio, cuando observamos una secuencia de experimentos de azar, todos los resultados pasados podrían influir en nuestras predicciones para el siguiente experimento. En un proceso de Markov, el resultado de un experimento determinado puede afectar el resultado del siguiente experimento. Este tipo de proceso se llama caden
    • https://espanol.libretexts.org/Biologia/Biologia_Computacional/Libro%3A_Biolog%C3%ADa_Computacional_-_Genomas%2C_Redes_y_Evoluci%C3%B3n_(Kellis_et_al.)/07%3A_Modelos_ocultos_de_Markov_I/7.03%3A_Cadenas_de_Markov_y_HMMS_-_Del_ejemplo_a_la_formalizaci%C3%B3n
      La visión clave detrás es que los estados ocultos del mundo (por ejemplo, estación o sistema de tormentas) determinan las probabilidades de emisión mientras que las transiciones de estado están gobern...La visión clave detrás es que los estados ocultos del mundo (por ejemplo, estación o sistema de tormentas) determinan las probabilidades de emisión mientras que las transiciones de estado están gobernadas por una cadena de Markov. P(xL)también se puede calcular a partir de las probabilidades de transición: Si multiplicamos las probabilidades de estado iniciales en el tiempo t = 0 por la matriz de transición A, obtenemos las probabilidades de los estados en el tiempo t = 1.
    • https://espanol.libretexts.org/Matematicas/Matematicas_Aplicadas/Matematicas_Finitas_Aplicadas_(Sekhon_y_Bloom)/10%3A_Cadenas_de_Markov/10.01%3A_Introducci%C3%B3n_a_las_cadenas_de_Markov
      Ahora estudiaremos los procesos estocásticos, experimentos en los que los resultados de los eventos dependen de los resultados previos; los procesos estocásticos involucran resultados aleatorios que p...Ahora estudiaremos los procesos estocásticos, experimentos en los que los resultados de los eventos dependen de los resultados previos; los procesos estocásticos involucran resultados aleatorios que pueden ser descritos por probabilidades. Tal proceso o experimento se llama una cadena de Markov o proceso de Markov. El proceso fue estudiado por primera vez por un matemático ruso llamado Andrei A. Markov a principios del siglo XX.

    Support Center

    How can we help?