Page 137 - EI2019.pdf
P. 137
2.4 Insesgamiento 129
1
ˆ
c) θ “ pX ` 2X ` 3X q.
3
3
2
1
6
ˆ 1
d) θ “ pX p1q ` X p2q ` X p3q q.
4
3
‚
La situaci´on mostrada en el ejemplo anterior plantea ahora el problema de
determinar cu´ando un estimador insesgado es mejor que otro estimador in-
sesgado. Regresaremos a este problema m´as adelante. Por ahora seguiremos
estudiando cuestiones relativas al insesgamiento. El siguiente es un ejemplo
menos evidente e importante de insesgamiento.
Ejemplo 2.23 Consideremos dada una muestra aleatoria de tama˜no n de
la distribuci´on Npµ, θq, en donde la varianza θ ą 0esdesconociday esel
par´ametro que nos interesa estimar. Podemos suponer que el par´ametro µ
es conocido aunque esta hip´otesis no es relevante en el siguiente an´alisis.
Recordemos que la varianza muestral es una estad´ıstica definida como sigue
n
1 ÿ
2 ¯ 2
S “ pX ´ Xq .
i
n ´ 1
i“1
2
Comprobaremos que S es un estimador insesgado para θ. Esta es la raz´on
por la que aparece el t´ermino n ´ 1comodenominador enladefinici´on de
varianza muestral, y no n,como uno inicialmentesupondr´ıa. Tenemos que
n
1 ÿ
2 ¯ 2
EpS q“ Ep pX ´ Xq q
i
n ´ 1
i“1
n
1 ÿ
¯
¯
2
2
“ EpX q´ 2EpX Xq` EpX q. (2.4)
i
i
n ´ 1
i“1
Se puede comprobar que
#
µ 2 si i ‰ j,
EpX X q“
i
j
θ ` µ 2 si i “ j.
Substituyendo estas expresiones en (2.4) y simplificando se comprueba que
2
2
EpS q“ θ.Esdecir, S es un estimador insesgado para θ. ‚