Estimación de parámetros. Estimación de una proporción

Hemos visto unos cuantos ejemplos de contrastes de hipótesis, con la idea concreta de confrontar la validez de un modelo. El algunos de estos casos las características del modelo se han deducido de los mismos datos: hemos hecho una inferencia.

Ahora se presentarán desde un punto de vista intuitivo los aspectos más importantes de esta tarea inferencial. antes de empezar conviene comentar la terminología que se ha utilizado.

Contenido complementario

Ejemplo

  • Parámetro: es una característica numérica de la población. Es un número fijo, pero habitualmente no conocíamos el valor.
  • Estadístico: es una característica numérica de la muestra. El valor de un estadístico se puede calcular cuando hayamos tomado una muestra y hayamos medido sobre sus unidades el valor de la variable que nos interesa.
  • Estimador: es cualquier estadístico que calculamos con la finalidad de estimar el valor de un parámetro.

Conviene mencionar algunos conceptos importantes que ayudan en la decisión de cuál es el mejor estimador:

  • Sesgo de un estimador. Se dice que un estimador no tiene sesgo si la media de la distribución que da la variabilidad muestral coincide con el verdadero valor del parámetro que queremos estimar. Si, en cambio, la media de los valores que daría el estimador, si hicieramos todas las muestras posibles, se aleja del verdadero valor del parámetro, se dice que el estimador está sesgado.

Exemple


La media de una muestra es un estimador sin sesgo de la media de la población.

La desviación estándar (denominada a veces no corregida, es decir, calculada dividiendo por N) de una muestra es un estimador sesgado de la desviación estándar de la población.

Si retomamos el ejemplo del sorteo, el estimador "máximo de la muestra" está sesgado. Si realizamos muchas muestras y calculamos la media de los números máximos obtenidos en cada nuestra, seguro que obtendremos un valor menor que el número más alto que hay en el bombo.

  • Precisión de un estimador. Se dice que un estimador es más preciso cuanto más pequeña sea la variancia de la distribución muestral del estadístico, que debe servir para estimar el parámetro que interesa. Como norma general, la precisión de un mismo estimador aumenta a medida que aumenta la medida de la muestra considerada.

Ver diapositiva

Entre varios estimadores, la consideración de la existencia o no de sesgo y la comparación de la precisión será lo que nos hará decidir por uno o por otro.

Podemos preguntarnos lo siguiente: ¿cuál debemos considerar que es "el mejor" estimador?

Para dar una respuesta intuitiva a esta pregunta nos pueden ayudar las simulaciones, y entre dos estimadores que podamos observar que no tengan sesgo, siempre escogeremos el más preciso.

Entre dos estimadores de la misma precisión, siempre elegiremos el que no tenga sesgo antes que uno que lo tenga. Algunas veces, no obstante, se opta por un estimador "un poco" sesgado, pero muy preciso, antes que otro sin sesgo pero poco preciso.

Una vez decidido cuál es "el mejor" estimador, ¿cómo "anunciaremos" el resultado de nuestra estimación?

Se dice que el valor del estadístico diseñado para la estimación de un parámetro da una estimación puntual de este parámetro. Pero, puesto que ya estamos un poco familiarizados con la tarea estadística, nos damos cuenta de que esta estimación debe ir acompañada de la información del márgen de error (o grado de variabilidad) que puede tener. Y así es, en efecto.

  • Error estándar de un estimador. La desviación estándar de la distribución que da una variabilidad muestral del estadístico correspondiente. Cuanto más preciso sea un estimador, más pequeño será el error estándar. Cualquier estimación puntual de un parámetro debe ir siempre acompañada del error estándar de este estimador.

El mejor estimador de la desviación estándar de una población es el valor que resulta de calcular la desviación estándar corregida (dividiendo por N – 1), que es el número que nos da Estadística | Estadística básica | Estadística descriptiva con el nombre de desviación estándar (o la calculadora estadística con la tecla adecuado). Si se decidiese utilizar la desviación estándar "no corregida" (es decir, dividiendo por N) se obtendría un estimador con sesgo.

La manera más ususal de calcular la estimación de un parámetro es la de dar un intervalo (denominado intervalo de confianza) al que es plausible (con el nivel de confianza con el que se quiera trabajar) que pertenezca el verdadero valor del parámetro que se quiere estimar.


Más adelante definiremos este concepto de manera más precisa.

Arriba