Teoremas

Clasificado en Matemáticas

Escrito el en español con un tamaño de 5,02 KB

Teorema de Birnbaum El principio de verosimilitud es equivalente a los principios de suficiencia y condicionalidad.Dem:dados dos puntos x e y en dos experimentos E1, E2 tales que L1(θ|x) = c(x, y)L2(θ|y), sobre el experimento mixto E* construido a partir de E1 y E2 mediante el principio de condicionalidad, se define el estadistico T(j, xj) = (1, x) si j = 1 y x1 = x; (1,x) si j = 2 y x2 = y; (j,xj) en el resto. El estadistico T es suficiente ya que f((1,x)|T = (1,x)) = (1 + c(x,y))-1, f((2,y)|T = (1,x)) = c(x,y)/(1 + c(x,y)), f((j, xj)|T = (j, xj)) = 1 y f((j,xj)|T = (j,xj)) = 0 esto es, no depende del parametro. Siendo f la distribucion condicionada por el estadistico se tiene: f((1,x)|T = (1,x)) = [1 + c(x,y)[-1. Si se aplica el principio de suficiencia, ha de ser Ev(E*, (1,x)) = Ev(E1,x); Ev(E*, (2,y)) = Ev(E2,y) con lo que se obtiene el principio de verosimilitud. Para el principio de condicionalidad. Sea E* el emperimento mixto de E1 y E2. Como L(θ|j,xj) = f*(j,xj|θ) = ½fj(xj|θ) = ½Lj(θ|xj), se tiene que L(θ|j,xj) = ½Lj(θ|xj) y por el principio de verosimilitud Ev(E*, (j,xj)) = Ev(Ej,xj). Por ultimo, para demostrar que se cumple el principio de suficiencia consideramos un experimento E y dos puntos muestrales tales que T(x) = T(y), siendo T un estadistico suficiente. Por el teorema de factorizacion se tiene: f(y|θ) = h(y)gθ(T(y)) = h(y)gθ(T(x)) = (h(y)/h(x))f(x|θ). Es decir, L(θ|y) = c(x,y)L(θ|x) con c(x,y) = h(y)/h(x). Por el principio de verosimilitud Ev(E,x) = Ev(E,y) y por tanto se cumple el principio de suficiencia.

Teorema de factorizacion: T es suficiente si y solo si f(x1,...,xn/θ) = h(x1,...,xn)gθ(T(x1,...,xn)) h >=0 g >=0. Dem: →/ f(x1,...,xn/θ) = f(T(x1,...,xn) = t/θ)

f((x1,...,xn)/T(x1,...,xn) = t) .←/ f(x1,...,xn/T = t, θ) =  f(x1,...,xn, T = t/θ) / f(T = t/θ) = f(x1,...,xn/θ) /∫f(x1,...,xn/θ)dx1,...,dxn

Teorema de Rao-Blackwell: sean Ch y un estimador T ε Ch, EθT = h(θ). Si S(x1,...,xn) es un estadistico suficiente para h(θ), entonces Eθ[T/S=s[ es un estimador centrado para h(θ) tal que Vθ[Eθ(T/S=s)[ <=>=>θ[T[, y se tiene la igualdad si y solo si E[T/S=s[ = T

Teorema de Lehman-schefe: E[T/S=s[ es un estimador optimo para h(θ)

Teorema de Neyman-Pearson: Para contrastar H0 : θ=θ0 ; H1: θ=θ1 el test de RC* = {f(x/θ1) >= kf(x/θ0)} es optimo entre los que cumplen que P[RC/θ0} <= α,="" en="" el="" sentido="" de="" que="">=>1}>= P{RC/θ1} si se puede determinar k dado α con P{RC*/θ0} = α. Ademas si existe test optimo, tiene que ser de la forma: RC' = {(x1,...,xn)/f(x1,...,xn1)>= k f(x1,...,xn0)} con k saliendo de que P{RC'/θ0}=α 

Teorema de Fisher: sea x1,...,xn una m.a.s de una poblacion normal con media μ y varianza σ². Entonces a) Xmedia y Sn2 son independientes. b) (nSn2/σ²) = χn-12 (S2n = 1/n ∑(xi - xmedia

Estadistico suficiente: Sea X una v.a con valores en el espacio estadistico (χ,βχ, Fθ) θ ε Θ c Rk. Un estadistico T se dice suficiente para la familia parametrica Fθ={Fθ/ θ ε Θ c Rk} sii la distribucion de x1,...,xn condicionada por T=t es independiente de θ.

Estadistico completo: un estadistico T se dice completo cuando T(x1,...,xn)=t

 

Entradas relacionadas: