Formulario Esencial de Estadística: Fórmulas y Conceptos Clave
Clasificado en Matemáticas
Escrito el en español con un tamaño de 6,83 KB
Coeficientes y Fórmulas Estadísticas Fundamentales
Coeficiente de Correlación de Spearman (R_s)
Mide la fuerza y dirección de la asociación entre dos variables ordinales.
R_s = 1 - (6 * Σd_i²) / (n * (n² - 1))
Coeficiente de Contingencia (C)
Mide la asociación entre dos variables categóricas.
C = √(X² / (X² + n))
Frecuencias Observadas y Esperadas
- Frecuencias Observadas (O_ij):
O_ij = n_ij
- Frecuencias Esperadas (E_ij):
E_ij = (n_i. * n_.j) / n
Coeficiente de Determinación (R²)
Indica la proporción de la varianza de la variable dependiente que es predecible a partir de la variable o variables independientes.
R² = S_xy² / (S_x² * S_y²)
Coeficiente de Variación (CV)
Es una medida de dispersión relativa. Es útil para comparar la dispersión entre conjuntos de datos con diferentes medias. Cuanto más próximo a 0, más homogéneos son los datos.
CV = (S / |x̄|) * 100
Teoría de la Probabilidad
P(A) = P(A ∩ B) + P(A ∩ B')
P(A - B) = P(A) - P(A ∩ B)
- Probabilidad Condicional:
P(A|B) = P(A ∩ B) / P(B)
P(A'|B) = 1 - P(A|B)
P(A|B') = P(A ∩ B') / P(B')
- Regla de la Multiplicación:
P(A ∩ B) = P(A) * P(B|A) = P(B) * P(A|B)
P(A ∩ B ∩ C) = P(A) * P(B|A) * P(C|A ∩ B)
- Teorema de Bayes (ejemplo):
P(A|B') = (P(B'|A) * P(A)) / P(B')
Sucesos Independientes
P(B|A) = P(B)
P(A|B) = P(A)
P(A ∩ B) = P(A) * P(B)
Distribuciones de Probabilidad Discretas
Distribución Binomial: X ~ Bi(n, p)
Número de éxitos en n ensayos de Bernoulli independientes y con la misma probabilidad de éxito p.
- Función de Probabilidad:
P(X=k) = C(n, k) * p^k * (1-p)^(n-k)
- Esperanza:
E(X) = np
- Varianza:
Var(X) = np(1-p)
Distribución Geométrica: X ~ Ge(p)
Número de prueba en la que ocurre el primer éxito en ensayos de Bernoulli.
- Función de Probabilidad:
P(X=k) = (1-p)^(k-1) * p
- Esperanza:
E(X) = 1/p
- Varianza:
Var(X) = (1-p) / p²
Distribución Binomial Negativa: X ~ BN(r, p)
Número de pruebas necesarias para obtener r éxitos en ensayos de Bernoulli.
- Función de Probabilidad:
P(X=k) = C(k-1, r-1) * p^r * (1-p)^(k-r)
- Esperanza:
E(X) = r/p
- Varianza:
Var(X) = (r * (1-p)) / p²
Distribución Hipergeométrica: X ~ H(N, M, n)
Número de éxitos (k) en n extracciones sin reemplazamiento de una población de tamaño N con M individuos con la característica de interés.
- Función de Probabilidad:
P(X=k) = [C(M, k) * C(N-M, n-k)] / C(N, n)
- Esperanza:
E(X) = n * (M/N)
- Varianza:
Var(X) = n * (M/N) * (1 - M/N) * ((N-n)/(N-1))
Distribuciones de Probabilidad Continuas
Distribución Normal: X ~ N(μ, σ)
- Función de Densidad:
f(x) = (1 / (σ * √(2π))) * e^(-1/2 * ((x - μ) / σ)²)
- Propiedades: Media = Moda = Mediana = μ.
- Varianza:
Var(X) = σ²
. - Tipificación: Para calcular probabilidades, se debe tipificar y consultar la tabla de la distribución normal estándar:
Z = (X - μ) / σ
, dondeZ ~ N(0, 1)
.
Aproximaciones entre Distribuciones
- Aproximación de t-Student a Normal: Cuando los grados de libertad (n) son muy elevados, la distribución t-Student se aproxima a una distribución Normal.
- Aproximación de Binomial a Normal:
B(n, p) ≈ N(np, √(np(1-p)))
si n es grande ynp(1-p) > 5
. - Aproximación de Poisson a Normal:
P(λ) ≈ N(λ, √λ)
siλ > 10
.
Intervalos de Confianza (IC)
Para una población
IC para la media (μ) con varianza (σ²) conocida
IC(μ) = [x̄ ± z_(1-α/2) * (σ / √n)]
Tamaño muestral: n = (σ² / E²) * z²_(1-α/2)
IC para la media (μ) con varianza (σ²) desconocida
IC(μ) = [x̄ ± t_(n-1, 1-α/2) * (S_c / √n)]
El cálculo del tamaño muestral (n) es similar, sustituyendo z por t. S_c es la cuasidesviación típica muestral.
IC para la varianza (σ²)
IC(σ²) = [((n-1) * S_c²) / χ²_(n-1, 1-α/2), ((n-1) * S_c²) / χ²_(n-1, α/2)]
IC para la proporción (p)
IC(p) = [p̂ ± z_(1-α/2) * √(p̂(1-p̂) / n)]
Para dos poblaciones
IC para la diferencia de medias (μ₁ - μ₂) con varianzas conocidas
IC(μ₁ - μ₂) = [(x̄₁ - x̄₂) ± z_(1-α/2) * √(σ₁²/n₁ + σ₂²/n₂)]
IC para la diferencia de medias (μ₁ - μ₂) con varianzas desconocidas pero iguales
IC(μ₁ - μ₂) = [(x̄₁ - x̄₂) ± t_(n₁+n₂-2, 1-α/2) * S_p * √(1/n₁ + 1/n₂)]
Varianza ponderada (S_p): S_p = √(((n₁-1)S_{c1}² + (n₂-1)S_{c2}²) / (n₁ + n₂ - 2))
IC para la diferencia de medias (μ₁ - μ₂) con varianzas desconocidas y distintas (Aproximación de Welch)
IC(μ₁ - μ₂) = [(x̄₁ - x̄₂) ± t_(g, 1-α/2) * √(S_{c1}²/n₁ + S_{c2}²/n₂)]
Grados de libertad (g): g = (S_{c1}²/n₁ + S_{c2}²/n₂)² / [((S_{c1}²/n₁)² / (n₁-1)) + ((S_{c2}²/n₂)² / (n₂-1))]
IC para el cociente de varianzas (σ₁²/σ₂²)
IC(σ₁²/σ₂²) = [(S_{c1}²/S_{c2}²) * (1 / F_(n₁-1, n₂-1, 1-α/2)), (S_{c1}²/S_{c2}²) * F_(n₂-1, n₁-1, 1-α/2)]
IC para la diferencia de medias (μ_d) en poblaciones dependientes (datos pareados)
IC(μ_d) = [d̄ ± t_(n-1, 1-α/2) * (S_{cd} / √n)]
IC para la diferencia de proporciones (p₁ - p₂)
IC(p₁ - p₂) = [(p̂₁ - p̂₂) ± z_(1-α/2) * √(p̂₁(1-p̂₁)/n₁ + p̂₂(1-p̂₂)/n₂)]