Modelos Ocultos de Markov: Componentes, Propiedades y Aplicaciones

Clasificado en Matemáticas

Escrito el en español con un tamaño de 4,87 KB

Componentes y Propiedades de los Modelos Ocultos de Markov

1. Componentes de un Modelo Oculto de Markov

Un Modelo Oculto de Markov (MOM) se define por los siguientes componentes:

  • Variables de estado oculto (Xt): Un conjunto de estados ocultos {s1, s2, ..., sn}.
  • Variables de observación (Et): Un conjunto de posibles observaciones {v1, v2, ..., vm}.
  • Matriz de transición (A): Probabilidades de transición entre estados, donde aij = P(Xt+1 = sj | Xt = si). Estas probabilidades son constantes para todo t > 0.
  • Matriz de observaciones (B): Probabilidades de emisión de observaciones, donde bij = P(Et = vj | Xt = si). Estas probabilidades son constantes para todo t > 0.
  • Distribución inicial de estados (π): Probabilidades iniciales de los estados P(X1 = si). No se menciona explícitamente en el texto original, pero es un componente estándar de los MOM.

2. Propiedades Asumidas

  • Propiedad de Markov: La probabilidad del estado futuro depende únicamente del estado presente, no de los estados anteriores: P(Xt+1 | Y, Xt) = P(Xt+1 | Xt).
  • Independencia de las observaciones: La probabilidad de una observación depende únicamente del estado actual, no de otras observaciones o estados: P(Et | Y, Xt) = P(Et | Xt).

Cálculo de Probabilidades en Modelos Ocultos de Markov

3. Probabilidad de una Secuencia de Estados Ocultos

La probabilidad de una secuencia de estados q1, q2, ..., qt se calcula como:

P(X1 = q1, X2 = q2, ..., Xt = qt) = P(X1 = q1) * P(X2 = q2 | X1 = q1) * ... * P(Xt = qt | Xt-1 = qt-1)

Aplicando la propiedad de Markov:

P(X1 = q1, X2 = q2, ..., Xt = qt) = πq1 * aq1q2 * ... * aqt-1qt

Donde πq1 es la probabilidad inicial del estado q1 y aij son las probabilidades de la matriz de transición.

4. Probabilidad Conjunta de Estados Ocultos y Observaciones

La probabilidad conjunta de una secuencia de estados (q1, q2, ..., qt) y una secuencia de observaciones (o1, o2, ..., ot) se calcula como:

P(o1, o2, ..., ot, q1, q2, ..., qt) = P(o1 | q1) * P(o2 | q2) * ... * P(ot | qt) * P(q1) * P(q2 | q1) * ... * P(qt | qt-1)

Usando las matrices de transición (A) y observación (B), y la distribución inicial (π):

P(o1, o2, ..., ot, q1, q2, ..., qt) = πq1 * bq1o1 * aq1q2 * bq2o2 * ... * aqt-1qt * bqtot

5. Probabilidad de una Secuencia de Observaciones

Para calcular la probabilidad de una secuencia de observaciones (o1, o2, ..., ot), se utiliza el algoritmo de avance:

  • Inicialización: α1(si) = P(X1 = si, o1) = P(o1 | X1 = si) * P(X1 = si) = πsi * bsio1
  • Recursión: αk(sj) = P(Xk = sj, o1, ..., ok) = bsjok * Σi (αk-1(si) * aij)
  • Resultado final: P(o1, o2, ..., ot) = Σj αt(sj)

Algoritmos de Avance y Viterbi

6. Problemas y Soluciones

Cuando las secuencias de observaciones son largas, las probabilidades en los algoritmos de avance (αk(sj)) y Viterbi (Vk(sj)) tienden a cero. Se soluciona de la siguiente manera:

  • Algoritmo de Avance: Se normalizan los valores αk(sj) en cada paso: αk(sj) / Σj αk(sj).
  • Algoritmo de Viterbi: Se utilizan logaritmos de las probabilidades. En lugar de multiplicar, se suman logaritmos.

7. Algoritmo de Viterbi (log-modificado)

El algoritmo de Viterbi encuentra la secuencia de estados más probable dado una secuencia de observaciones. La versión log-modificada previene problemas numéricos con probabilidades muy pequeñas.


  // Inicialización:
  V1(sj) = log(bsjo1) + log(πj)
  pr1(sj) = 0  // o cualquier valor inicial

  // Recursión:
  Para k = 2 hasta t:
      Para cada estado sj:
          Vk(sj) = log(bsjok) + max[log(aij) + Vk-1(si)]  (para todo i)
          prk(sj) = argmax[log(aij) + Vk-1(si)] (para todo i)

  // Terminación:
  qt = argmax[Vt(si)] (para todo i)

  // Reconstrucción de la secuencia:
  Para k = t-1 hasta 1:
      qk = prk+1(qk+1)

Aplicaciones de los Modelos Ocultos de Markov

8. Utilidades

Los Modelos Ocultos de Markov tienen diversas aplicaciones, incluyendo:

  • Segmentación: Clasificación de secuencias de nucleótidos según características biológicas.
  • Alineación múltiple: Comparación de secuencias usando modelos probabilísticos.
  • Predicción de la funcionalidad de proteínas: Análisis de proteínas y sus funciones.
  • Localización de genes: Identificación de genes en células eucariotas.
  • Decodificación: Encontrar la secuencia de estados más probable (algoritmo de Viterbi).

Entradas relacionadas: