Formulario Esencial de Estadística: Fórmulas y Conceptos Clave

Clasificado en Matemáticas

Escrito el en español con un tamaño de 6,83 KB

Coeficientes y Fórmulas Estadísticas Fundamentales

Coeficiente de Correlación de Spearman (R_s)

Mide la fuerza y dirección de la asociación entre dos variables ordinales.

R_s = 1 - (6 * Σd_i²) / (n * (n² - 1))

Coeficiente de Contingencia (C)

Mide la asociación entre dos variables categóricas.

C = √(X² / (X² + n))

Frecuencias Observadas y Esperadas

  • Frecuencias Observadas (O_ij): O_ij = n_ij
  • Frecuencias Esperadas (E_ij): E_ij = (n_i. * n_.j) / n

Coeficiente de Determinación (R²)

Indica la proporción de la varianza de la variable dependiente que es predecible a partir de la variable o variables independientes.

R² = S_xy² / (S_x² * S_y²)

Coeficiente de Variación (CV)

Es una medida de dispersión relativa. Es útil para comparar la dispersión entre conjuntos de datos con diferentes medias. Cuanto más próximo a 0, más homogéneos son los datos.

CV = (S / |x̄|) * 100

Teoría de la Probabilidad

  • P(A) = P(A ∩ B) + P(A ∩ B')
  • P(A - B) = P(A) - P(A ∩ B)
  • Probabilidad Condicional: P(A|B) = P(A ∩ B) / P(B)
  • P(A'|B) = 1 - P(A|B)
  • P(A|B') = P(A ∩ B') / P(B')
  • Regla de la Multiplicación: P(A ∩ B) = P(A) * P(B|A) = P(B) * P(A|B)
  • P(A ∩ B ∩ C) = P(A) * P(B|A) * P(C|A ∩ B)
  • Teorema de Bayes (ejemplo): P(A|B') = (P(B'|A) * P(A)) / P(B')

Sucesos Independientes

  • P(B|A) = P(B)
  • P(A|B) = P(A)
  • P(A ∩ B) = P(A) * P(B)

Distribuciones de Probabilidad Discretas

Distribución Binomial: X ~ Bi(n, p)

Número de éxitos en n ensayos de Bernoulli independientes y con la misma probabilidad de éxito p.

  • Función de Probabilidad: P(X=k) = C(n, k) * p^k * (1-p)^(n-k)
  • Esperanza: E(X) = np
  • Varianza: Var(X) = np(1-p)

Distribución Geométrica: X ~ Ge(p)

Número de prueba en la que ocurre el primer éxito en ensayos de Bernoulli.

  • Función de Probabilidad: P(X=k) = (1-p)^(k-1) * p
  • Esperanza: E(X) = 1/p
  • Varianza: Var(X) = (1-p) / p²

Distribución Binomial Negativa: X ~ BN(r, p)

Número de pruebas necesarias para obtener r éxitos en ensayos de Bernoulli.

  • Función de Probabilidad: P(X=k) = C(k-1, r-1) * p^r * (1-p)^(k-r)
  • Esperanza: E(X) = r/p
  • Varianza: Var(X) = (r * (1-p)) / p²

Distribución Hipergeométrica: X ~ H(N, M, n)

Número de éxitos (k) en n extracciones sin reemplazamiento de una población de tamaño N con M individuos con la característica de interés.

  • Función de Probabilidad: P(X=k) = [C(M, k) * C(N-M, n-k)] / C(N, n)
  • Esperanza: E(X) = n * (M/N)
  • Varianza: Var(X) = n * (M/N) * (1 - M/N) * ((N-n)/(N-1))

Distribuciones de Probabilidad Continuas

Distribución Normal: X ~ N(μ, σ)

  • Función de Densidad: f(x) = (1 / (σ * √(2π))) * e^(-1/2 * ((x - μ) / σ)²)
  • Propiedades: Media = Moda = Mediana = μ.
  • Varianza: Var(X) = σ².
  • Tipificación: Para calcular probabilidades, se debe tipificar y consultar la tabla de la distribución normal estándar: Z = (X - μ) / σ, donde Z ~ N(0, 1).

Aproximaciones entre Distribuciones

  • Aproximación de t-Student a Normal: Cuando los grados de libertad (n) son muy elevados, la distribución t-Student se aproxima a una distribución Normal.
  • Aproximación de Binomial a Normal: B(n, p) ≈ N(np, √(np(1-p))) si n es grande y np(1-p) > 5.
  • Aproximación de Poisson a Normal: P(λ) ≈ N(λ, √λ) si λ > 10.

Intervalos de Confianza (IC)

Para una población

IC para la media (μ) con varianza (σ²) conocida

IC(μ) = [x̄ ± z_(1-α/2) * (σ / √n)]

Tamaño muestral: n = (σ² / E²) * z²_(1-α/2)

IC para la media (μ) con varianza (σ²) desconocida

IC(μ) = [x̄ ± t_(n-1, 1-α/2) * (S_c / √n)]

El cálculo del tamaño muestral (n) es similar, sustituyendo z por t. S_c es la cuasidesviación típica muestral.

IC para la varianza (σ²)

IC(σ²) = [((n-1) * S_c²) / χ²_(n-1, 1-α/2), ((n-1) * S_c²) / χ²_(n-1, α/2)]

IC para la proporción (p)

IC(p) = [p̂ ± z_(1-α/2) * √(p̂(1-p̂) / n)]

Para dos poblaciones

IC para la diferencia de medias (μ₁ - μ₂) con varianzas conocidas

IC(μ₁ - μ₂) = [(x̄₁ - x̄₂) ± z_(1-α/2) * √(σ₁²/n₁ + σ₂²/n₂)]

IC para la diferencia de medias (μ₁ - μ₂) con varianzas desconocidas pero iguales

IC(μ₁ - μ₂) = [(x̄₁ - x̄₂) ± t_(n₁+n₂-2, 1-α/2) * S_p * √(1/n₁ + 1/n₂)]

Varianza ponderada (S_p): S_p = √(((n₁-1)S_{c1}² + (n₂-1)S_{c2}²) / (n₁ + n₂ - 2))

IC para la diferencia de medias (μ₁ - μ₂) con varianzas desconocidas y distintas (Aproximación de Welch)

IC(μ₁ - μ₂) = [(x̄₁ - x̄₂) ± t_(g, 1-α/2) * √(S_{c1}²/n₁ + S_{c2}²/n₂)]

Grados de libertad (g): g = (S_{c1}²/n₁ + S_{c2}²/n₂)² / [((S_{c1}²/n₁)² / (n₁-1)) + ((S_{c2}²/n₂)² / (n₂-1))]

IC para el cociente de varianzas (σ₁²/σ₂²)

IC(σ₁²/σ₂²) = [(S_{c1}²/S_{c2}²) * (1 / F_(n₁-1, n₂-1, 1-α/2)), (S_{c1}²/S_{c2}²) * F_(n₂-1, n₁-1, 1-α/2)]

IC para la diferencia de medias (μ_d) en poblaciones dependientes (datos pareados)

IC(μ_d) = [d̄ ± t_(n-1, 1-α/2) * (S_{cd} / √n)]

IC para la diferencia de proporciones (p₁ - p₂)

IC(p₁ - p₂) = [(p̂₁ - p̂₂) ± z_(1-α/2) * √(p̂₁(1-p̂₁)/n₁ + p̂₂(1-p̂₂)/n₂)]

Entradas relacionadas: