Conceptos Esenciales de Probabilidad: Variables Aleatorias y Modelos de Distribución

Clasificado en Matemáticas

Escrito el en español con un tamaño de 14,25 KB

Conceptos Fundamentales de la Probabilidad

Aleatoriedad: Imposibilidad de predecir.

Existe una forma de describir el comportamiento de la población en estudio gracias a la Distribución de Probabilidades, que distribuye probabilidades entre los valores y describe el comportamiento esperado de la variable.

La Variable Aleatoria cuantifica los resultados posibles de un experimento aleatorio.

Experimento Aleatorio

Cualquier ensayo o prueba que pueda repetirse un gran número de veces en condiciones homogéneas, presentando en cada prueba un resultado bien definido imposible de predecir, se denomina: Experimento Aleatorio.

Se enfatiza el término experimento aleatorio y no simplemente experimento, para destacar que interviene el azar. En un experimento determinístico, cada vez que se repite se obtiene el mismo resultado.

Ejemplos de Experimentos Aleatorios:

  • Lanzar una moneda.
  • Tirar un dado.
  • Extraer al azar una carta de un mazo.
  • Hacer girar la rueda de una ruleta.

En todos los casos hay varios resultados posibles, y no es factible saber de antemano cuál de ellos va a ocurrir.

Espacio Muestral y Sucesos

Cualquiera de los resultados posibles de un experimento aleatorio se llama Punto Muestral o Suceso Elemental.

El conjunto formado por todos los resultados posibles de un experimento aleatorio constituye el Espacio Muestral de dicho experimento.

El subconjunto formado por uno o más resultados posibles de un experimento aleatorio se conoce como Suceso o Evento Aleatorio.

Para definir los espacios muestrales se utiliza el Diagrama de Árbol.

Sucesos Aleatorios Mutuamente Excluyentes

Los sucesos aleatorios que no tienen puntos muestrales en común se llaman Sucesos Mutuamente Excluyentes y no pueden ocurrir al mismo tiempo. La presencia de uno excluye automáticamente la presencia del otro.

Definición y Tipos de Probabilidad

La Probabilidad es la posibilidad de que ocurra un evento específico. Es una proporción o fracción cuyo valor se encuentra entre 0 y 1.

Se observa que un evento que no tiene posibilidad de ocurrir (suceso imposible) tiene probabilidad 0, mientras que un suceso que ocurrirá con seguridad (suceso seguro) tiene probabilidad 1.

  1. Probabilidad Clásica o a Priori

    Es la que se obtiene por un procedimiento deductivo sin hacer el experimento. Se basa en el conocimiento previo, porque la lógica se considera suficiente para dar todas las respuestas.

    P(A) = n/n

    La objeción lógica fundamental que se hace a la definición clásica se refiere al concepto de igualmente posibles, ya que resulta difícil determinar fuera del campo de los juegos de azar cuándo se puede considerar que los resultados son igualmente posibles. Para resolver estas dificultades se buscó la forma empírica de definir la probabilidad.

  2. Probabilidad Empírica o a Posteriori

    Se basa en datos observados. La probabilidad empírica se toma como la frecuencia relativa de ocurrencia de un suceso cuando el número de observaciones es grande.

  3. Probabilidad Subjetiva

    Las dos anteriores se calculan en forma objetiva, ya sea mediante un conocimiento previo o a partir de datos reales. Esta se basa en una combinación de la experiencia de una persona, su opinión personal y el análisis de una situación específica. En general, representan las corazonadas y presentimientos que tienen muchos, los cuales varían con el tiempo de una persona a otra.

Cálculo de Probabilidades Compuestas

Regla de la Suma

Para referirse a la unión de dos sucesos se utiliza la notación (A o B) o (A ∪ B).

La unión de A y B es un suceso que contiene a todos los puntos muestrales que pertenecen a A o B, o a ambos.

La intersección de dos sucesos (A y B) o (A ∧ B) contiene puntos muestrales que pertenecen simultáneamente a A y B.

  • Sucesos mutuamente excluyentes ocurren si no tienen puntos muestrales en común: P(A ∧ B) = 0.
  • Si A y B pueden presentarse simultáneamente (sucesos no excluyentes): P(A o B) = P(A) + P(B) – P(AB).
  • Si A y B no pueden presentarse simultáneamente (sucesos mutuamente excluyentes): P(A o B) = P(A) + P(B).

Regla de la Suma para Tres Sucesos:

P(A o B o C) = P(A) + P(B) + P(C) – P(AB) – P(AC) – P(BC) + P(ABC)

Si son mutuamente excluyentes: P(A o B o C) = P(A) + P(B) + P(C)

Si A es un suceso aleatorio y Ä el suceso contrario, A y Ä son mutuamente excluyentes. Resulta: P(A) + P(Ä) = 1. De donde P(A) = 1 – P(Ä).

Probabilidad Condicional

Supongamos que un suceso A tiene probabilidad P(A). Si obtenemos una nueva información y vemos que ha ocurrido un suceso relacionado representado por B, quisiéramos aprovechar esta información para calcular una nueva probabilidad del suceso A. Esta nueva probabilidad se denomina Probabilidad Condicional y se escribe P(A/B).

P(A/B): La probabilidad del suceso A tal que B ya ha ocurrido.

P(A/B) = P(A ∧ B) / P(B) → P(A ∧ B) = P(A/B) × P(B)

P(B/A) = P(A ∧ B) / P(A) → P(A ∧ B) = P(B/A) × P(A)

Con P(B) y P(A) distinto de 0.

Regla de la Multiplicación

Sirve para calcular la probabilidad de la intersección de dos sucesos.

Los sucesos son compuestos o conjuntos si ocurren al mismo tiempo, y pueden ser:

  • Independientes: Si la aparición de uno no afecta la aparición del otro.
  • Dependientes: Si la ocurrencia de uno de ellos afecta la probabilidad del otro.

Si son dependientes: P(AB) es lo mismo que P(A ∧ B) = P(A/B) × P(B) = P(B/A) × P(A)

Si son independientes: P(A/B) = P(A) y P(B/A) = P(B) → P(AB) = P(A) × P(B)

Teorema de Bayes

Permite encontrar probabilidades condicionales. Su objetivo fundamental es encontrar la probabilidad de una causa específica cuando se observa un efecto particular.

Suponiendo que hay “n” causas posibles de A mutuamente excluyentes que podrían determinar el evento B (efecto). Entonces, ocurrido B, la probabilidad de que haya sido generado por la causa de A es:

P(Ai/B) = P(Ai ∧ B) / P(B) = P(Ai) × P(B/Ai) / ∑ P(Ai) × P(B/Ai)

Modelos y Variables Aleatorias

Un Modelo es la representación simplificada del comportamiento de algunos fenómenos aleatorios. Es una expresión matemática que representa algún fenómeno aleatorio en particular. Para una variable aleatoria, esta expresión se conoce como Distribución de Probabilidad.

Las distribuciones de probabilidad se clasifican según el tipo de variable:

  • Variable Aleatoria Discreta – Función de Probabilidad P(x):
    • Distribución Binomial Puntual (Bernoulli)
    • Distribución Binomial
    • Distribución Hipergeométrica
    • Distribución de Poisson
  • Variable Aleatoria Continua – Función de Densidad de Probabilidad f(x):
    • Distribución Normal
    • Distribución Chi-Cuadrado (χ²)
    • Distribución F de Snedecor
    • Distribución T de Student

Definición de Variable Aleatoria

Los experimentos aleatorios dan como resultado sucesos elementales. Una variable aleatoria se define al asignar un valor numérico a cada suceso elemental de un experimento aleatorio.

Variable Aleatoria Discreta

Es el conjunto de valores posibles que puede asumir en un conjunto finito o infinito numerable.

Una distribución de probabilidad es la enumeración de todos los valores posibles que puede asumir una variable aleatoria junto con sus probabilidades.

Esperanza o Promedio: E(x) = µ = ∑ xi · P(xi)

Varianza o Dispersión: V(x) = σ² = E(x²) – [E(x)]²

Desviación Estándar: σ = √σ²

Distribuciones Discretas Clave

Distribución de Bernoulli o Binomial Puntual (n = 1)

El resultado de un experimento aleatorio en una repetición aislada es uno de dos sucesos mutuamente excluyentes.

La probabilidad asociada a cada uno de ellos es:

P(A) = p y P(Ä) = 1 – p = q. Donde p + q = 1. (A=1, Ä=0)

La función de probabilidad de la variable aleatoria discreta X es:

P(X=x) = px · q1-x, donde x = 0; 1.

E(x) = p (Momento natural de orden 1)

V(x) = p · q (Momento centrado de orden 2)

σ(x) = √(p · q)

Distribución Binomial

A partir de las experiencias en las que ocurre uno de los resultados posibles (A y Ä), y ante “n” repeticiones, se define el número de veces que ocurre el resultado A en las “n” repeticiones.

Condiciones para la Distribución Binomial:

  1. A y Ä son éxito y fracaso.
  2. La probabilidad permanece constante: p (P = P(A)).
  3. Las repeticiones son independientes.

Para “n” pruebas, la probabilidad de que ocurra x veces un suceso A con probabilidad p es:

P(x) = · px · (1-p)n-x

E(x) = n · p

V(x) = n · p · (1-p) = n · p · q

σ(x) = √σ²

Donde 0 ≤ x ≤ n.

Condiciones de función de probabilidad:

  1. P(x) ≥ 0
  2. ∑ P(x) = (p+q)n = 1 (Condición de cierre)

Características de la Distribución Binomial:

  • Si p = q = ½ (Distribución simétrica).
  • Si p < ½ (Distribución asimétrica a la derecha).
  • Si p > ½ (Distribución asimétrica a la izquierda).

La distribución binomial se utiliza en el esquema dicotómico bajo las siguientes condiciones:

  1. Población finita y extracciones con reposición (conocemos el tamaño).
  2. Población infinita y extracciones con o sin reposición (es tan grande que se toman como independientes).
  3. Población finita de tamaño grande y extracciones sin reposición.

Distribución Límite: Cuando “n” tiende a ∞ y p es cercano a ½, la distribución binomial tiende a la Distribución Normal (n > 30).

Distribución Hipergeométrica

Son “n” repeticiones sin reposición, donde x veces se da el suceso A y (n-x) el suceso Ä.

Distribución de Poisson

Se dice que existe un Proceso de Poisson si podemos observar sucesos discretos en un intervalo continuo, de tal manera que si se reduce lo suficiente el intervalo:

  • La probabilidad de observar exactamente un éxito en el intervalo es constante.
  • La probabilidad de observar más de un éxito en un intervalo es 0.
  • La probabilidad de observar un éxito en cualquier intervalo es estadísticamente independiente de la de cualquier otro intervalo.

Donde P(X=x) = probabilidad de x éxitos dado el valor de λ.

λ = esperanza del número de éxitos.

x = es el número de éxitos por unidad. Varía de 0 a infinito.

e = constante matemática ≈ 2.71828.

Variable Aleatoria Continua

Los valores son representados por intervalos en el eje real X y a cada uno de esos intervalos se le puede asignar una probabilidad.

Es continua cuando el rango o recorrido de la misma es un conjunto infinito no numerable.

La representación gráfica se realiza a través de un Histograma con su correspondiente polígono de frecuencia relativa. En probabilidad continua no se puede representar el valor con bastones en un punto, mientras que con las discretas sí podíamos.

La integral definida representa un área.

Función de Densidad = f(x)

f(x) ≥ 0

∫ f(x) dx = 1 (Condición de cierre)

P(c ≤ x ≤ d) = ∫ f(x) dx

Distribución Normal

La distribución normal es fundamental porque:

  • Se aproxima a las distribuciones de frecuencia observadas de muchas medidas.
  • Se puede usar para aproximar las probabilidades binomiales, de Poisson, etc., cuando sus parámetros alcanzan determinados valores.
  • La distribución normal es una buena aproximación de las distribuciones de una variable suma de otras variables aleatorias independientes.

La función de densidad normal es simétrica con respecto a su promedio (µ), acampanada y está determinada por su promedio y su desviación estándar (σ). Encierra un área = 1. El punto en que cambia la curvatura se llama Punto de Inflexión.

La distancia de la media a la proyección del punto de inflexión sobre el eje horizontal es una desviación estándar.

Mientras los valores se encuentren más alejados del promedio, la probabilidad de encontrar esos valores es decreciente.

La probabilidad de que una variable aleatoria tenga un valor entre dos puntos cualesquiera es igual al área bajo la curva entre esos dos puntos.

  • Si la desviación estándar es muy pequeña, indica que los valores se encuentran en torno del valor medio y el promedio es muy significativo.
  • Si la desviación estándar es muy grande, indica que los valores están muy dispersos y el promedio no es significativo.

Al cambiar la media µ mientras se mantiene la desviación estándar σ, se corre la distribución a la izquierda o a la derecha sin alterar la forma. Mientras que al cambiar el valor de σ conservando el mismo valor de la media µ, la curva cambia su forma haciéndose más o menos achatada según sea el valor de σ.

Regla Empírica (Intervalos de Confianza)

  • [µ - σ; µ + σ] (Que contiene el 68% de las observaciones)
  • [µ - 2σ; µ + 2σ] (Que contiene el 95% de las observaciones)
  • [µ - 3σ; µ + 3σ] (Que contiene el 99% de las observaciones)

N(0; 1) = Promedio 0 y Desviación Estándar 1.

La Distribución Normal Estándar es aquella cuya variable aleatoria Z siempre tiene µ = 0 y σ = 1.

Los sucesos son equivalentes y se buscan en la tabla.

Entradas relacionadas: