Buscar
- Filtrar resultados
- Ubicación
- Clasificación
- Incluir datos adjuntos
- https://espanol.libretexts.org/Matematicas/Algebra_lineal/%C3%81lgebra_Matricial_con_Aplicaciones_Computacionales_(Colbry)/19%3A_10_Asignaci%C3%B3n_Pre-Clase_-_Autovectores_y_Autovalores/19.3%3A_Introducci%C3%B3n_a_los_modelos_de_MarkovUn diagrama que representa un proceso de Markov de dos estados, con los estados etiquetados E y A. Cada número representa la probabilidad de que el proceso de Markov cambie de un estado a otro, con la...Un diagrama que representa un proceso de Markov de dos estados, con los estados etiquetados E y A. Cada número representa la probabilidad de que el proceso de Markov cambie de un estado a otro, con la dirección indicada por la flecha. Por ejemplo, si el proceso de Markov está en el estado A, entonces la probabilidad de que cambie al estado E es 0.4, mientras que la probabilidad de que permanezca en el estado A es 0.6.
- https://espanol.libretexts.org/Estadisticas/Teoria_de_Probabilidad/Libro%3A_Probabilidad_Introductoria_(Grinstead_y_Snell)/11%3A_Cadenas_MarkovLa teoría moderna de la probabilidad estudia procesos de azar para los cuales el conocimiento de resultados previos influye en las predicciones para experimentos futuros. En principio, cuando observam...La teoría moderna de la probabilidad estudia procesos de azar para los cuales el conocimiento de resultados previos influye en las predicciones para experimentos futuros. En principio, cuando observamos una secuencia de experimentos de azar, todos los resultados pasados podrían influir en nuestras predicciones para el siguiente experimento. En un proceso de Markov, el resultado de un experimento determinado puede afectar el resultado del siguiente experimento. Este tipo de proceso se llama caden
- https://espanol.libretexts.org/Biologia/Biologia_Computacional/Libro%3A_Biolog%C3%ADa_Computacional_-_Genomas%2C_Redes_y_Evoluci%C3%B3n_(Kellis_et_al.)/07%3A_Modelos_ocultos_de_Markov_I/7.03%3A_Cadenas_de_Markov_y_HMMS_-_Del_ejemplo_a_la_formalizaci%C3%B3nLa visión clave detrás es que los estados ocultos del mundo (por ejemplo, estación o sistema de tormentas) determinan las probabilidades de emisión mientras que las transiciones de estado están gobern...La visión clave detrás es que los estados ocultos del mundo (por ejemplo, estación o sistema de tormentas) determinan las probabilidades de emisión mientras que las transiciones de estado están gobernadas por una cadena de Markov. P(xL)también se puede calcular a partir de las probabilidades de transición: Si multiplicamos las probabilidades de estado iniciales en el tiempo t = 0 por la matriz de transición A, obtenemos las probabilidades de los estados en el tiempo t = 1.
- https://espanol.libretexts.org/Matematicas/Matematicas_Aplicadas/Matematicas_Finitas_Aplicadas_(Sekhon_y_Bloom)/10%3A_Cadenas_de_Markov/10.01%3A_Introducci%C3%B3n_a_las_cadenas_de_MarkovAhora estudiaremos los procesos estocásticos, experimentos en los que los resultados de los eventos dependen de los resultados previos; los procesos estocásticos involucran resultados aleatorios que p...Ahora estudiaremos los procesos estocásticos, experimentos en los que los resultados de los eventos dependen de los resultados previos; los procesos estocásticos involucran resultados aleatorios que pueden ser descritos por probabilidades. Tal proceso o experimento se llama una cadena de Markov o proceso de Markov. El proceso fue estudiado por primera vez por un matemático ruso llamado Andrei A. Markov a principios del siglo XX.