10.2: Aplicaciones de las Cadenas Markov
- Page ID
- 113838
\( \newcommand{\vecs}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} } \)
\( \newcommand{\vecd}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash {#1}}} \)
\( \newcommand{\id}{\mathrm{id}}\) \( \newcommand{\Span}{\mathrm{span}}\)
( \newcommand{\kernel}{\mathrm{null}\,}\) \( \newcommand{\range}{\mathrm{range}\,}\)
\( \newcommand{\RealPart}{\mathrm{Re}}\) \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\)
\( \newcommand{\Argument}{\mathrm{Arg}}\) \( \newcommand{\norm}[1]{\| #1 \|}\)
\( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\)
\( \newcommand{\Span}{\mathrm{span}}\)
\( \newcommand{\id}{\mathrm{id}}\)
\( \newcommand{\Span}{\mathrm{span}}\)
\( \newcommand{\kernel}{\mathrm{null}\,}\)
\( \newcommand{\range}{\mathrm{range}\,}\)
\( \newcommand{\RealPart}{\mathrm{Re}}\)
\( \newcommand{\ImaginaryPart}{\mathrm{Im}}\)
\( \newcommand{\Argument}{\mathrm{Arg}}\)
\( \newcommand{\norm}[1]{\| #1 \|}\)
\( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\)
\( \newcommand{\Span}{\mathrm{span}}\) \( \newcommand{\AA}{\unicode[.8,0]{x212B}}\)
\( \newcommand{\vectorA}[1]{\vec{#1}} % arrow\)
\( \newcommand{\vectorAt}[1]{\vec{\text{#1}}} % arrow\)
\( \newcommand{\vectorB}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} } \)
\( \newcommand{\vectorC}[1]{\textbf{#1}} \)
\( \newcommand{\vectorD}[1]{\overrightarrow{#1}} \)
\( \newcommand{\vectorDt}[1]{\overrightarrow{\text{#1}}} \)
\( \newcommand{\vectE}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash{\mathbf {#1}}}} \)
\( \newcommand{\vecs}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} } \)
\( \newcommand{\vecd}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash {#1}}} \)
\(\newcommand{\avec}{\mathbf a}\) \(\newcommand{\bvec}{\mathbf b}\) \(\newcommand{\cvec}{\mathbf c}\) \(\newcommand{\dvec}{\mathbf d}\) \(\newcommand{\dtil}{\widetilde{\mathbf d}}\) \(\newcommand{\evec}{\mathbf e}\) \(\newcommand{\fvec}{\mathbf f}\) \(\newcommand{\nvec}{\mathbf n}\) \(\newcommand{\pvec}{\mathbf p}\) \(\newcommand{\qvec}{\mathbf q}\) \(\newcommand{\svec}{\mathbf s}\) \(\newcommand{\tvec}{\mathbf t}\) \(\newcommand{\uvec}{\mathbf u}\) \(\newcommand{\vvec}{\mathbf v}\) \(\newcommand{\wvec}{\mathbf w}\) \(\newcommand{\xvec}{\mathbf x}\) \(\newcommand{\yvec}{\mathbf y}\) \(\newcommand{\zvec}{\mathbf z}\) \(\newcommand{\rvec}{\mathbf r}\) \(\newcommand{\mvec}{\mathbf m}\) \(\newcommand{\zerovec}{\mathbf 0}\) \(\newcommand{\onevec}{\mathbf 1}\) \(\newcommand{\real}{\mathbb R}\) \(\newcommand{\twovec}[2]{\left[\begin{array}{r}#1 \\ #2 \end{array}\right]}\) \(\newcommand{\ctwovec}[2]{\left[\begin{array}{c}#1 \\ #2 \end{array}\right]}\) \(\newcommand{\threevec}[3]{\left[\begin{array}{r}#1 \\ #2 \\ #3 \end{array}\right]}\) \(\newcommand{\cthreevec}[3]{\left[\begin{array}{c}#1 \\ #2 \\ #3 \end{array}\right]}\) \(\newcommand{\fourvec}[4]{\left[\begin{array}{r}#1 \\ #2 \\ #3 \\ #4 \end{array}\right]}\) \(\newcommand{\cfourvec}[4]{\left[\begin{array}{c}#1 \\ #2 \\ #3 \\ #4 \end{array}\right]}\) \(\newcommand{\fivevec}[5]{\left[\begin{array}{r}#1 \\ #2 \\ #3 \\ #4 \\ #5 \\ \end{array}\right]}\) \(\newcommand{\cfivevec}[5]{\left[\begin{array}{c}#1 \\ #2 \\ #3 \\ #4 \\ #5 \\ \end{array}\right]}\) \(\newcommand{\mattwo}[4]{\left[\begin{array}{rr}#1 \amp #2 \\ #3 \amp #4 \\ \end{array}\right]}\) \(\newcommand{\laspan}[1]{\text{Span}\{#1\}}\) \(\newcommand{\bcal}{\cal B}\) \(\newcommand{\ccal}{\cal C}\) \(\newcommand{\scal}{\cal S}\) \(\newcommand{\wcal}{\cal W}\) \(\newcommand{\ecal}{\cal E}\) \(\newcommand{\coords}[2]{\left\{#1\right\}_{#2}}\) \(\newcommand{\gray}[1]{\color{gray}{#1}}\) \(\newcommand{\lgray}[1]{\color{lightgray}{#1}}\) \(\newcommand{\rank}{\operatorname{rank}}\) \(\newcommand{\row}{\text{Row}}\) \(\newcommand{\col}{\text{Col}}\) \(\renewcommand{\row}{\text{Row}}\) \(\newcommand{\nul}{\text{Nul}}\) \(\newcommand{\var}{\text{Var}}\) \(\newcommand{\corr}{\text{corr}}\) \(\newcommand{\len}[1]{\left|#1\right|}\) \(\newcommand{\bbar}{\overline{\bvec}}\) \(\newcommand{\bhat}{\widehat{\bvec}}\) \(\newcommand{\bperp}{\bvec^\perp}\) \(\newcommand{\xhat}{\widehat{\xvec}}\) \(\newcommand{\vhat}{\widehat{\vvec}}\) \(\newcommand{\uhat}{\widehat{\uvec}}\) \(\newcommand{\what}{\widehat{\wvec}}\) \(\newcommand{\Sighat}{\widehat{\Sigma}}\) \(\newcommand{\lt}{<}\) \(\newcommand{\gt}{>}\) \(\newcommand{\amp}{&}\) \(\definecolor{fillinmathshade}{gray}{0.9}\)En esta sección examinarás algunas formas en las que los modelos de las Cadenas de Markov se utilizan en los negocios, las finanzas, la salud pública y otros campos de aplicación.
En el apartado anterior, examinamos varias aplicaciones de las cadenas de Markov. Antes de continuar con nuestras investigaciones de las matemáticas de las cadenas de Markov en las siguientes secciones, nos tomamos el tiempo en esta sección para examinar cómo se utilizan las cadenas de Markov en aplicaciones del mundo real.
En nuestro ejemplo de programa de bicicletas compartidas, modelamos la distribución de las ubicaciones de las bicicletas en las estaciones de bicicletas compartidas usando una cadena Markov. Se han propuesto cadenas de Markov para modelar ubicaciones de autos distribuidos entre múltiples ubicaciones de alquiler de autos para una compañía de alquiler de autos, y ubicaciones de autos en programas de autos compartidos. Los modelos de cadenas de Markov analizan los horarios de entrega de paquetes cuando los paquetes se transportan entre varias ubicaciones intermedias de transporte y almacenamiento en su camino a su destino final. En estas situaciones, las cadenas de Markov suelen ser una parte de modelos matemáticos más grandes que utilizan una combinación de otras técnicas, como la optimización para maximizar las ganancias o ingresos o minimizar los costos usando programación lineal.
En nuestro ejemplo de televisión por cable, modelamos market share en un simple ejemplo de dos proveedores de televisión por cable. Las cadenas de Markov se pueden utilizar de manera similar en estudios de investigación de mercado para muchos tipos de productos y servicios, para modelar la lealtad de marca y las transiciones de marca como lo hicimos en el modelo de televisión por cable. En el campo de las finanzas, las cadenas de Markov pueden modelar el retorno de la inversión y el riesgo para diversos tipos de inversiones.
Las cadenas de Markov pueden modelar las probabilidades de reclamos de seguros, como seguros de vida e invalidez, y para pensiones y anualidades. Por ejemplo, para el seguro por discapacidad, un modelo muy simplificado podría incluir estados de salud, discapacitados temporalmente, discapacitados permanentes, recuperados y fallecidos; refinamientos adicionales podrían distinguir entre los asegurados discapacitados que aún se encuentran en el período de espera antes de cobrar beneficios y reclamos activamente cobrando beneficios.
Las cadenas de Markov se han utilizado en los campos de la salud pública y la medicina. Los modelos de las cadenas de Markov de VIH y SIDA incluyen estados para modelar la transmisión del VIH, la progresión al SIDA y la supervivencia (vivir con VIH o SIDA) versus la muerte por SIDA. La comparación de modelos de la cadena de Markov de transmisión del VIH y progresión del SIDA para diversos grupos de riesgo y etnias puede guiar a las organizaciones de salud pública en el desarrollo de estrategias para reducir el riesgo y gestionar la atención a estos diversos grupos de personas En general, modelar la transmisión de diversas enfermedades infecciosas con cadenas de Markov puede ayudar en la determinación de respuestas adecuadas de salud pública para monitorear y frenar o detener la transmisión de estas enfermedades y determinar las formas más eficientes de abordar el tratamiento de la enfermedad.
Las cadenas de Markov tienen muchas aplicaciones para la salud además de modelar la propagación y progresión de enfermedades infecciosas. Al analizar los tratamientos de infertilidad, las cadenas de Markov pueden modelar la probabilidad de un embarazo exitoso como resultado de una secuencia de tratamientos de infertilidad. Otra aplicación médica es el análisis del riesgo médico, como el papel del riesgo en la condición del paciente después de la cirugía; el modelo de la cadena de Markov cuantifica las probabilidades de que los pacientes progresen entre diversos estados de salud.
Las cadenas de Markov se utilizan en el ranking de sitios web en las búsquedas web. Las cadenas de Markov modelan las probabilidades de vincularse a una lista de sitios de otros sitios de esa lista; un enlace representa una transición. Se analiza la cadena de Markov para determinar si hay una distribución en estado estacionario, o equilibrio, después de muchas transiciones. Una vez identificado el equilibrio, las páginas con las probabilidades en la distribución de equilibrio determinan el ranking de las páginas web. Esta es una descripción muy simplificada de cómo Google utiliza las cadenas y matrices de Markov para determinar “Page rankings” como parte de sus algoritmos de búsqueda.
Por supuesto, un uso en el mundo real de tal modelo por parte de Google implicaría inmensas matrices con miles de filas y columnas. El tamaño de tales matrices requiere algunas modificaciones y el uso de técnicas más sofisticadas que las que estudiamos para las cadenas de Markov en este curso. Sin embargo, los métodos que estudiamos forman la base subyacente de este concepto. Es interesante señalar que el término Ranking de páginas no hace referencia al hecho de que las páginas web están clasificadas, sino que lleva el nombre del fundador de Google, Larry Page, quien fue fundamental en el desarrollo de esta aplicación de las cadenas de Markov en el área de búsqueda de páginas web y rankings.
Las cadenas de Markov también se utilizan en el análisis de calidad de las transmisiones de telefonía celular y otras comunicaciones. Las matrices de transición modelan las probabilidades de que ciertos tipos de señales se transmitan en secuencia. Ciertas secuencias de señales son más comunes y esperadas, teniendo mayores probabilidades; por otro lado, otras secuencias de señales son raras y tienen bajas probabilidades de ocurrencia. Si ciertas secuencias de señales que es poco probable que ocurran realmente ocurren, eso podría ser una indicación de errores en las transmisiones; las cadenas de Markov ayudan a identificar las secuencias que representan probables errores de transmisión.