Estadística Descriptiva e Inferencial: Conceptos y Fórmulas Clave
Clasificado en Matemáticas
Escrito el en español con un tamaño de 6,75 KB
Conceptos Básicos de Estadística Descriptiva
Medidas de Tendencia Central y Dispersión
Me (Mediana): Valor central de un conjunto de datos ordenados. En una representación gráfica, divide el área en dos partes iguales.
Mo (Moda): Valor que más se repite en un conjunto de datos.
Curtosis: Mide el apuntalamiento de una distribución. Una curtosis de 3 indica una distribución normal; mayor que 3 indica una distribución más apuntalada (leptocúrtica).
Asimetría (Skewness): Mide la simetría de una distribución. Un valor de 0 indica simetría; un valor positivo indica asimetría hacia la izquierda (cola más larga a la izquierda).
Representaciones Gráficas según el Tipo de Escala
Escala Nominal
- Modalidad
- Frecuencia Absoluta (ni): Número de individuos en cada modalidad.
- Frecuencia Relativa (fi): Proporción de individuos en cada modalidad (fi = ni / N, donde N es el total de individuos).
Escala Ordinal
- Modalidad (xi)
- Frecuencia Absoluta (ni)
- Frecuencia Absoluta Acumulada (Ni): Suma de las frecuencias absolutas hasta una modalidad dada (Ni = n1 + ... + ni).
- Frecuencia Relativa (fi)
- Frecuencia Relativa Acumulada (Fi): Suma de las frecuencias relativas hasta una modalidad dada (Fi = Ni / N).
Fórmulas Básicas
- ni = Número de individuos
- fi = ni / N
- Ni = n1 + ... + ni
- Fi = Ni / N
Tablas para Variables Agrupadas en Intervalos
- Clases (ai-1 - ai): Intervalos de valores.
- Marca de Clase (mi): Punto medio del intervalo (mi = (ai-1 + ai) / 2).
- Frecuencia Absoluta (ni): Si los datos están agrupados en intervalos, se calcula como la diferencia entre los límites del intervalo.
- Frecuencia Absoluta Acumulada (Ni)
- Frecuencia Relativa Acumulada (Fi)
Tipificación y Transformaciones Lineales
Tipificación
Una variable tipificada (Z) tiene media 0 y desviación típica 1 (Z = 0, s(z) = 1).
z = (x - X) / S(x)
Donde:
- x: Valor original.
- X: Media de la variable original.
- S(x): Desviación típica de la variable original.
Para calcular la amplitud de cada intervalo en una variable tipificada, se resta la mediana tipificada (Me/S(x)) de los límites del intervalo tipificados (ej: 3 - Me/S(x)).
Transformaciones Lineales
Si y = aX + b, entonces:
- s²(y) = a²s²(x)
- s(y) = |a|s(x)
- Me(y) = aMe(x) + b
- Mo(y) = aMo(x) + b
Distribuciones de Probabilidad
Distribución Normal
Si tenemos dos variables aleatorias normales, X1(μ1, σ1) y X2(μ2, σ2), entonces la suma o diferencia de estas variables también sigue una distribución normal:
(X1 ± X2) ~ N((μ1 ± μ2), √(σ1² + σ2²))
Si tenemos 'n' variables aleatorias independientes e idénticamente distribuidas (i.i.d.) xi, cada una con distribución normal N(μ, σ), entonces la suma de estas variables sigue una distribución normal:
Σ xi ~ N(n·μ, σ√n)
Corrección por Continuidad
Al aproximar una distribución discreta a una continua, se aplica una corrección por continuidad:
- ≤ : +0.5
- < : -0.5
- ≥ : -0.5
- > : +0.5
Distribución de Bernoulli
Describe la probabilidad de éxito (1) o fracaso (0) en un solo ensayo.
Distribución Binomial
X = Número de éxitos en n ensayos independientes de Bernoulli.
Ejemplos:
- Número de artículos defectuosos en una muestra de n artículos.
- Número de clientes que adquieren un producto entre los n que entraron en un establecimiento.
- Número de siniestros entre los suscriptores de una póliza de seguro de vida.
P(X=k) = (n! / (k! * (n-k)!)) * p^k * (1-p)^(n-k)
Ejemplo de cálculo de probabilidad acumulada: P(X ≥ 5) = 1 - P(X ≤ 4)
Distribución Geométrica
X = Número de ensayos hasta obtener el primer éxito.
Y = Número de ensayos desde el i-ésimo éxito hasta el primer éxito.
Z = Número de ensayos que transcurren desde el éxito 1 hasta el n+1.
Ejemplos:
- Número de ensayos antes de obtener el primer éxito.
- Número de artículos revisados antes de encontrar uno defectuoso.
- Número de declaraciones correctas antes de encontrar una fraudulenta.
- Número de clientes que se informan de un producto antes de que uno lo compre.
Propiedad de pérdida de memoria.
Distribución de Pascal
X = Número de ensayos hasta obtener el r-ésimo éxito.
Y = Número de ensayos realizados desde el éxito número 'i' hasta el r-ésimo éxito.
Z = Número de ensayos que transcurren desde el éxito número 'i' hasta el número 'i+r'.
P(X=k) = (k-1Cr-1) * pr * (1-p)(k-r), para k = r, r+1, ...
Donde k-1Cr-1 es el coeficiente binomial, también escrito como (k-1 /r-1).
Distribución de Poisson
Describe el número de eventos que ocurren a una velocidad constante (λ) en un intervalo de tiempo o espacio.
X = Número de sucesos ocurridos en un intervalo de tiempo o longitud.
Ejemplos:
- Número de llamadas telefónicas recibidas en una hora.
- Número de mensajes de correo electrónico recibidos en una hora.
Distribución Exponencial
X = Tiempo transcurrido hasta que aparece el primer suceso (tiene la propiedad de falta de memoria).
∫x∞ f(x) dx
Y = Tiempo de espera desde el instante t0 hasta el próximo suceso. Y ~ Exp(λ)
Z = Tiempo de espera entre el suceso número 'i' y el suceso número 'i+1'. Z ~ Exp(λ)
Distribución Gamma
X = Tiempo de espera hasta que aparece el r-ésimo suceso.
Y = Tiempo de espera desde el instante t0 hasta el r-ésimo suceso.
Z = Tiempo de espera entre el suceso número 'i' y el suceso número 'i+r'.
Y y Z ~ Γ(r, λ)