109
6. INFERENCIA ESTADISTICA PARA MEDIAS Y VARIANZAS
6.1 Introducción.
La inferencia estadística es una parte de la Estadística que comprende los métodos y
procedimientos adecuados para deducir características de una
a partir de muestras
población
aleatorias, en forma científicamente válidas, cuyo fin
respecto a
es obtener conclusiones
ésta, sujetas a una
mediante la asignación de una
duda razonable
medida objetiva.
La inferencia comprende dos aspectos. la estimación de parámetros y el contraste de
hipótesis estadísticas.
6.2 Estimación de parámetros.
Un parámetro, como se recordará, representa un valor poblacional y por lo tanto es una
constante. El valor de un parámetro se obtiene a través de un censo, lo que es posible de
hacer cuando las poblaciones son finitas, pero en el caso de la inferencia el tipo de
poblaciones que se estudian se consideran que son infinitas. En consecuencia la única vía de
conseguir una
del parámetro es a través de muestras. Para que una muestra tenga
imagen
validez estadística ésta debe ser aleatoria y simple, en los términos definidos en la unidad
Distribuciones Muestrales. Una muestra aleatoria simple (m.a.s) permite obtener un estimador
del parámetro de interés, esto es, un valor muestral o
que estará "cercano" en
estadígrafo
alguna medida al valor del parámetro.
Estimación puntual.
Se llama
de un parámetro a un estadígrafo que cumple con lo anterior.
estimador puntual
Sin embargo proporciona una imagen algo imprecisa del parámetro, puesto que una vez
calculado el valor del estimador a partir de las observaciones muestrales, sólo se puede confiar
en que éste esté "cercano" al del parámetro. Por ejemplo, si para estimar el peso promedio de
una población de hombres adultos, una muestra aleatoria simple entrega una media X igual a
q
66,3 kg, la imagen que se puede asociar es que el verdadero peso promedio de las personas
estará "alrededor" de ese valor ¿ cuán cercano?, imposible establecerlo.
Pueden existir muchos estimadores para un mismo parámetro, por lo tanto hay que
establecer ciertos criterios que permita elegir de entre ellos al que sea el
, en el sentido
mejor
de que tenga la mayor capacidad de entregar un valor cercano al de él.
Algunas propiedades que caracterizan a un buen estimador del parámetro se explican a
)
)
s
continuación.
, que consiste en que
, lo que significa que e l valor "promedio" del
Insesgamiento
IÐ Ñ œs
) )
estimador se distribuye alrededor del valor del parámetro .
)
, que consiste en tener la menor varianza entre los estimadores
Eficiencia o precisión
insesgados de , es decir, que de todos los estimadores que cumplan la propiedad anterior
)
)
s
se debe preferir aquel cuya distribución tenga la menor variabilidad . De esta manera se
asegura una alta probabilidad de que el valor de estará más cercano al de .
)
)
s
, es decir, que en la medida que el tamaño de la muestra crezca el valor de
Consistencia
)
s
estará cada vez más próximo al del parámetro . Esta es una propiedad asintótica.
)
1...,99,100,101,102,103,104,105,106,107,108 110,111,112,113,114,115,116,117,118,119,...197