4.1 Estimación de la media poblacional
Concepto clave 3.1
Estimadores y estimaciones
Los estimadores son funciones extraídas de una muestra de datos que parten de una población desconocida. Las estimaciones son valores numéricos calculados por estimadores basados en los datos de la muestra. Los estimadores son variables aleatorias porque son funciones de datos aleatorios. Las estimaciones son números no aleatorios.
Piense en alguna variable económica, por ejemplo, los ingresos por hora de los graduados universitarios, denotados por YY. Suponga que se está interesado en μYμY la media de YY. Para calcular exactamente μYμY se tendrían que entrevistar a todos los graduados que trabajan en el sistema económico. Simplemente no se puede hacer esto debido a limitaciones de tiempo y costos. Sin embargo, se puede extraer una muestra aleatoria de nn i.i.d. observaciones Y1,…,YnY1,…,Yn y estimar μYμY usando uno de los estimadores más simples en el sentido del Concepto Clave 3.1 que uno pueda imaginar, es decir,
¯Y=1nn∑i=1Yi,¯¯¯¯Y=1nn∑i=1Yi,
la media muestral de YY. Por otra parte, se podría usar un estimador aún más simple para μY: la primera observación de la muestra, Y1. ¿Es Y1 un buen estimador? Por ahora, asuma que
Y∼χ212
lo cual no es demasiado irracional ya que los ingresos por hora no son negativos y se espera que muchas ganancias por hora estén en un rango de 5€ a 15€. Además, es común que las distribuciones de ingresos estén sesgadas hacia la derecha, una propiedad de la distribución χ212.
# graficar la distribución chi_12^2
curve(dchisq(x, df=12),
from = 0,
to = 40,
ylab = "Densidad",
xlab = "Ganancias por hora en euros")
Ahora se extraerá una muestra de n=100 observaciones y se tomará la primera observación Y1 como una estimación de μY
# sembrar la semilla para la reproducibilidad
set.seed(1)
# muestra de la distribución chi_12^2, usar solo la primera observación
<- rchisq(n = 100, df = 12)
rsamp 1]
rsamp[#> [1] 8.257893
El estimado de 8.26 no está muy lejos de μY=12 pero es algo intuitivo que se podría hacer algo mejor: el estimador Y1 descarta mucha información y su varianza es la varianza de la población:
Var(Y1)=Var(Y)=2⋅12=24
Esto nos lleva a la siguiente pregunta: ¿Qué es un estimador bueno de un parámetro desconocido en primer lugar? Esta cuestión se aborda en los Conceptos clave 3.2 y 3.3.
Concepto clave 3.2
Sesgo, consistencia y eficiencia
Las características deseables de un estimador incluyen insesgabilidad, consistencia y eficiencia.
Insesgabilidad:
Si la media de la distribución muestral de algún estimador ˆμY para la media poblacional μY es igual a μY,
E(ˆμY)=μY,
el estimador es imparcial para μY. El sesgo de ˆμY entonces es 0:
E(ˆμY)−μY=0
Consistencia:
Se quiere que la incertidumbre del estimador μY disminuya a medida que aumenta el número de observaciones en la muestra. Más precisamente, se quiere que la probabilidad de que la estimación ˆμY caiga dentro de un pequeño intervalo alrededor del valor real μY se acerque cada vez más a 1 a medida que n crece. Se escribe esto como
ˆμYp→μY.
Varianza y eficiencia:
Se quiere que el estimador sea eficiente. Suponga que se tienen dos estimadores, ˆμY y ∼μY para un tamaño de muestra dado n se sigue que
E(ˆμY)=E(∼μY)=μY
pero
Var(ˆμY)<Var(∼μY).
Entonces se prefiere usar ˆμY, ya que tiene una variación menor que ∼μY, lo que significa que ˆμY es más eficiente en el uso de la información proporcionada por las observaciones en la muestra.