Variable aleatoria

Clasificado en Matemáticas

Escrito el en español con un tamaño de 27,88 KB

Variables aleatorias discretas

 

Distribución uniforme

La distribución uniforme es la que corresponde a una variable que toma todos sus valores, x1, x2... , xk, con igual probabilidad; el espacio muestral debe ser finito.

Si la variable tiene k posibles valores, su función de probabilidad sería:

estadi81.gif

donde k es el parámetro de la distribución (un parámetro es un valor que sirve para determinar la función de probabilidad o densidad de una variable aleatoria)

La media y la varianza de la variable uniforme se calculan por las expresiones:

estadi82.gif

             El histograma de la función toma el aspecto de un rectángulo, por ello, a la distribución uniforme se le suele llamar distribución rectangular.

estadi3.jpg

 

INICIO.JPG

Distribución binomial

             La distribución binomial es típica de las variables que proceden de un experimento que cumple las siguientes condiciones:

1)El experimento está compuesto de n pruebas iguales, siendo n un número natural fijo.

2)Cada prueba resulta en un suceso que cumple las propiedades de la variable binómica o de Bernouilli, es decir, sólo existen dos posibles resultados, mutuamente excluyentes, que se denominan generalmente como éxito y fracaso.

3)La probabilidad del ‚éxito (o del fracaso) es constante en todas las pruebas. P(éxito) = p ; P(fracaso) = 1 - p = q

4)Las pruebas son estadísticamente independientes,

             En estas condiciones, la variable aleatoria X que cuenta el número de ‚éxitos en las n pruebas se llama variable binomial. Evidentemente, el espacio muestral estar compuesto por los números enteros del 0 al n. Se suele decir que una variable binómica cuenta objetos de un tipo determinado en un muestreo de n elementos con reemplazamiento.

      La función de probabilidad de la variable binomial se representa como b(x,n,p) siendo n el número de pruebas y p la probabilidad del ‚éxito. n y p son los parámetros de la distribución.

estadi83.gif

            La manera más fácil de calcular de valor de números combinatorios, como los incluidos en la expresión anterior, es utilizando el triángulo de Tartaglia

tartaglia.jpg

bignomial.GIF

        La media y la varianza de la variable binomial se calculan como:

Media = μ = n p

Varianza = σ2 = n p q

        Gráficamente el aspecto de la distribución depende de que sea o no simétrica Por ejemplo, el caso en que n = 4:

estadi5.jpg

estadi6.jpg

 

INICIO.JPG

Distribución multinomial

La distribución multinomial es esencialmente igual a la binomial con la única diferencia de que cada prueba tiene más de dos posibles resultados mutuamente excluyentes.

Si tenemos K resultados posibles (Ei , i = 1, ... , K) con probabilidades fijas (pi , i = 1, ... , K), la variable que expresa el número de resultados de cada tipo obtenidos en n pruebas independientes tiene distribución multinomial.

tabla01.jpg

             La probabilidad de obtener x1 resultados E1, x2 resultados E2, etc. se representa como:

estadi86.gif

             Los parámetros de la distribución son p1,..., pK y n.

 

INICIO.JPG

Distribución hipergeométrica

             Una variable tiene distribución hipergeométrica si procede de un experimento que cumple las siguientes condiciones:

1)Se toma una muestra de tamaño n, sin reemplazamiento, de un conjunto finito de N objetos.

2)K de los N objetos se pueden clasificar como ‚éxitos y N - K como fracasos.

            X cuenta el número de ‚éxitos obtenidos en la muestra. El espacio muestral es el conjunto de los números enteros de 0 a n, ó de 0 a K si K <>

En este caso, la probabilidad del ‚éxito en pruebas sucesivas no es constante pues depende del resultado de las pruebas anteriores. Por tanto, las pruebas no son independientes entre sí.

La función de probabilidad de la variable hipergeométrica es:

estadi87.gif

Los parámetros de la distribución son n, N y K.

Los valores de la media y la varianza se calculan según las ecuaciones:

            estadi88.gif

Si n es pequeño, con relación a N (n < n),="" la="" probabilidad="" de="" un="" ‚éxito="" variar="" muy="" poco="" de="" una="" prueba="" a="" otra,="" así="" pues,="" la="" variable,="" en="" este="" caso,="" es="" esencialmente="" binomial;="" en="" esta="" situación,="" n="" suele="" ser="" muy="" grande="" y="" los="" números="" combinatorios="" se="" vuelven="" prácticamente="" inmanejables,="" así="" pues,="" la="" probabilidades="" se="" calculan="" más="" cómodamente="" aproximando="" por="" las="" ecuaciones="" de="" una="" binomial="" con="" p="K">

 La media de la variable aproximada (μ = n p = n (K / N)) es la misma que la de la variable antes de la aproximación; sin embargo, la varianza de la variable binomial es ligeramente superior a la de la hipergeométrica.

estadi89.gif

el factor por el que difieren ser siempre menor que 1 y tan próximo a 1 como cierto sea que n <>

     El aspecto de la distribución es bastante similar al de la binomial. Como ejemplo, mostramos los casos análogos a los de las binomiales del apartado anterior (p inicial = 0,25 y  n = 4)

estadi13.jpg

estadi14.jpg

 

INICIO.JPG

Distribución multihipergeométrica

             Este variable se define igual que la hipergeométrica con la única diferencia de que se supone que el conjunto de objetos sobre el que se muestrea se divide en R grupos de A1, A2,..., AR objetos y la variable describe el número de objetos de cada tipo que se han obtenido (x1, x2,..., xR)

estadi90.gif

Esta situación es análoga a la planteada en el caso de la distribución multinomial. La función de probabilidad es:

estadi91.gif

 

INICIO.JPG

Distribución de poisson

             Una variable de tipo poisson cuenta ‚éxitos (es decir, objetos de un tipo determinado) que ocurren en una región del espacio o del tiempo.

 El experimento que la genera debe cumplir las siguientes condiciones:

  1. El número de éxitos que ocurren en cada región del tiempo o del espacio es independiente de lo que ocurra en cualquier otro tiempo o espacio disjunto del anterior.

  2. La probabilidad de un ‚éxito en un tiempo o espacio pequeño es proporcional al tamaño de este y no depende de lo que ocurra fuera de él.

  3. La probabilidad de encontrar uno o más ‚éxitos en una región del tiempo o del espacio tiende a cero a medida que se reducen las dimensiones de la región en estudio.

        Como consecuencia de estas condiciones, las variables Poisson típicas son variables en las que se cuentan sucesos raros.

        La función de probabilidad de una variable Poisson es:

estadi92.gif

El parámetro de la distribución es λ que es igual a la media y a la varianza de la variable.

estadi93.gif

Esta característica puede servirnos para identificar a una variable Poisson en casos en que se presenten serias dificultades para verificar los postulados de definición.

La distribución de Poisson se puede considerar como el límite al que tiende la distribución binomial cuando n tiende a estadi94.gif y p tiende a 0, siendo np constante (y menor que 7); en esta situación sería difícil calcular probabilidades en una variable binomial y, por tanto, se utiliza una aproximación a través de una variable Poisson con media l = n p.

La varianza de la variable aproximada es ligeramente superior a la de la variable binomial.

estadi126.gif

poisson.JPG

Las variables Poisson cumplen la propiedad de que la suma de variables Poisson independientes es otra Poisson con media igual a la suma las medias.

     El aspecto de la distribución depende muchísimo de la magnitud de la media. Como ejemplo, mostramos tres casos con λ = 0,5 (arriba a la izquierda), λ = 1,5 (arriba a la derecha) y λ = 5 (abajo) Obsérvese que la asimetría de la distribución disminuye al crecer λ y que, en paralelo, la gráfica empieza a tener un aspecto acampanado.

estadi21.jpg

estadi22.jpg

estadi23.jpg

 

INICIO.JPG

Variables aleatorias continuas

 

Distribución normal o de Gauss

             La distribución normal fue definida por De Moivre en 1733 y es la distribución de mayor importancia en el campo de la estadística.

Una variable es normal cuando se ajusta a la ley de los grandes números, es decir, cuando sus valores son el resultado de medir reiteradamente una magnitud sobre la que influyen infinitas causas de efecto infinitesimal.

Las variables normales tienen una función de densidad con forma de campana a la que se llama campana de Gauss.

Su función de densidad es la siguiente:

estadi96.gif

Los parámetros de la distribución son la media y la desviación típica, μ y σ, respectivamente. Como consecuencia, en una variable normal, media y desviación típica no deben estar correlacionadas en ningún caso (como desgraciadamente ocurre en la inmensa mayoría de las variables aleatorias reales que se asemejan a la normal.

La curva normal cumple las siguientes propiedades:

1)El máximo de la curva coincide con la media.

2)Es perfectamente simétrica respecto a la media (g1 = 0).

3)La curva tiene dos puntos de inflexión situados a una desviación típica de la media. Es convexa entre ambos puntos de inflexión y cóncava en ambas colas.

normal%20GaussFunction.jpg

4)Sus colas son asintóticas al eje X.

estadi29.jpg

             Para calcular probabilidades en intervalos de valores de la variable, habría que integrar la función de densidad entre los extremos del intervalo. por desgracia (o por suerte), la función de densidad normal no tiene primitiva, es decir, no se puede integrar. Por ello la única solución es referirse a tablas de la función de distribución de la variable (calculadas por integración numérica) Estas tablas tendrían que ser de triple entrada (μ, σ, valor) y el asunto tendría una complejidad enorme.

Afortunadamente, cualquier que sea la variable normal, X, se puede establecer una correspondencia de sus valores con los de otra variable con distribución normal, media 0 y varianza 1, a la que se llama variable normal tipificada o Z. La equivalencia entre ambas variables se obtiene mediante la ecuación:

            estadi101.gif

La función de distribución de la variable normal tipificada está tabulada y, simplemente, consultando en las tablas se pueden calcular probabilidades en cualquier intervalo que nos interese.

             De forma análoga a lo pasaba con las variables Poisson, la suma de variables normales independientes es otra normal.

estadi31.jpg

estadi32.jpg

Histograma de una normal idealizada

Histograma de una muestra de una variable normal

 normal%20extasiada.jpg

 

INICIO.JPG

Distribución Gamma (Γ)

             La distribución gamma se define a partir de la función gamma, cuya ecuación es:

estadi102.gif

La función de densidad de la distribución gamma es:

estadi103.gif

α y β son los parámetros de la distribución.

La media y la varianza de la variable gamma son:

estadi104.gif

estadi36.jpg

 

INICIO.JPG

Distribución exponencial

             Es un caso particular de la distribución gamma cuando α = 1. Su función de densidad es:

estadi105.gif

Su parámetro es β.

La media y la varianza de la distribución exponencial son:

            estadi106.gif

 

INICIO.JPG

Distribución Chi-cuadrado (c2)

             Es otro caso particular de la distribución gamma para el caso β = 2 y α = n / 2, siendo n un número natural. 

Su función de densidad es:

estadi109.gif

El parámetro de la distribución c2 es n y su media y su varianza son, respectivamente:

            estadi111.gif

Otra forma de definir la distribución c2 es la siguiente: Supongamos que tenemos n variables aleatorias normales independientes, X1,..., Xn, con media μi y varianza estadi112.gif(i = 1 ... n), la variable definida como

estadi113.gif

tiene distribución c2 con n grados de libertad y se le denomina c2n.

estadi115.gif

Variables chi-cuadrado con valores de estadi110.gif progresivamente

mayores son cada vez menos asimétricas.

INICIO.JPG

Distribución T de Student

             Supongamos dos variables aleatorias independientes, una normal tipificada, Z , y otra con distribución c2 con n grados de libertad, la variable definida según la ecuación:

estadi116.gif

tiene distribución t con n grados de libertad.

La función de densidad de la distribución t es:

estadi117.gif

El parámetro de la distribución t es n, su número de grados de libertad.

Esta distribución es simétrica respecto al eje Y y sus colas se aproximan asintóticamente al eje X. Es similar a la distribución Z salvo que es platicúrtica y, por tanto, más aplanada.

Cuando n tiende a infinito, t tiende asintóticamente a Z y se pueden considerar prácticamente iguales para valores de n mayores o iguales que 30..

estadi119.gif

Variables T con valores de n progresivamente mayores

son cada vez menos platicúrticas

estadi52.jpg

Comparación entre la variable T y la normal tipificado.

 INICIO.JPG

Distribución F de Snedecor

             Sean U y V dos variables aleatorias independientes con distribución c2 con n1 y n2 grados de libertad, respectivamente. La variable definida según la ecuación:

estadi120.gif

tiene distribución F con n1, n2 grados de libertad.

La función de densidad de la distribución F es:

estadi121.gif

Los parámetros de la variable F son sus grados de libertad n1 y n2.

Las distribuciones F tienen una propiedad que se utiliza en la construcción de tablas que es la siguiente:

            Llamemos  fa,n1,n2 al valor de una distribución F con n1 y n2 grados de libertad que cumple la condición, P(F > fa,n1,n2) = α; llamemos f1-a,n1,n2 al valor de una distribución F con n1 y n2 grados de libertad que cumple la condición, P(F > f1-a,n1,n2) = 1- α. Ambos valores están relacionados de modo que uno es el inverso del otro.

estadi124.gif

estadi125.gif

Variables F con distintos valores de estadi110.gif1,estadi110.gif2

Entradas relacionadas: