Fundamentos de Cadenas de Markov y Modelos de Colas: Terminología Esencial

Clasificado en Otras materias

Escrito el en español con un tamaño de 3,59 KB

Glosario de Conceptos en Procesos Estocásticos y Teoría de Colas

Conceptos Clave de la Teoría de Colas

Tasa Óptima de Servicio
Tasa de servicio que minimiza los costos totales del sistema (costos de espera más costos de servicio).
Teoría de Colas
Conjunto de modelos matemáticos útiles para describir sistemas en los cuales se producen esperas.

Fundamentos de Procesos Estocásticos

Proceso Estocástico
Es un proceso que tiene un conjunto de variables aleatorias (VA) que dependen de un parámetro o argumento, este es el tiempo $t$ ($X_t$).
Proceso de Nacimiento y Muerte
Es un proceso (sin memoria) que cambia de estado de manera instantánea, aumentando (nacimiento) o disminuyendo (muerte) en una unidad a la vez la cantidad de entidades en el sistema.
Estado Estacionario (o Estado Estable)
[Definición no proporcionada en el documento original.]
Espacio de Estados Finito (Estado Finito)
La cantidad de estados posibles para el proceso estocástico debe ser finita.

Terminología Esencial de Cadenas de Markov

Propiedades y Tasas

Propiedad Markoviana
Propiedad que indica que las probabilidades de transición futuras dependen solo del estado actual (o del último estado conocido), y no de los estados pasados.
Tasa de Transición
Tasa de ocurrencia de los eventos que permiten pasar de un estado $i$ a un estado $j$.
Probabilidad de Transición Estacionaria
Es la probabilidad de pasar de un estado a otro, en una cantidad de etapas o pasos en el tiempo, que no depende del instante en el cual se está.
Tasas Estacionales
Cuando las tasas (o probabilidades) de transición de un estado a otro dependen solo de los estados y del tiempo.
Cadena de Markov de Tiempo Continuo
[Definición no proporcionada en el documento original.]

Clasificación de Estados y Clases

Clase
Conjunto de estados que se comunican entre sí (todos deben comunicarse).
Accesibilidad (entre estados)
Un estado $j$ es accesible desde un estado $i$ si existe un tiempo $n$ tal que la probabilidad de ir desde $i$ a $j$ en $n$ etapas es estrictamente mayor que 0.
Estado Recurrente
Un estado es recurrente si no es un estado transitorio.
Clase Recurrente
Una clase es recurrente si no hay otra clase accesible desde ella.
Clase Transitoria (Clase Transiente)
Una clase es transitoria si permite el acceso a otra clase.
Estado Absorbente
Cada estado absorbente en una cadena de Markov constituye una clase por sí solo. Un estado es absorbente si la probabilidad de ir a sí mismo es 1.
Periodo de un Estado
Un estado $i$ tiene periodo $k$ si $k$ es el máximo común divisor (MCD) de las longitudes de todas las trayectorias que llevan de $i$ a $i$.
Estado Aperiódico
Un estado es aperiódico si un estado recurrente no tiene un periodo $k > 1$.

Cadenas Especiales

Cadena Ergódica
Es una cadena ergódica si todos los estados de una cadena de Markov son recurrentes, aperiódicos y se comunican entre sí.

Entradas relacionadas: