Si a partir de las observaciones de una muestra se calcula un solo valor como estimación de un parámetro de la población desconocido, el procedimientose denomina estimación puntual.
Por ejemplo queremos estimar la nota media de los alumnos de bachiller en la asignatura de matemáticas que notaremos. Sea X la variable aleatoria que indica la nota obtenida por cada estudiante. Tomamos una muestra de tamaño n y denotamos la nota media de la muestra. Si al tomar una muestra de 100 estudiantes obtenemos que la media es 6´2, este número lo tomaríamos como estimativo de. Decimos que 6´2 es una estimación puntual de.Para indicar que T es un estimador del parámetro escribimos =T . Con esto queremos decir que empleamos la expresión dada mediante T para obtener valores próximos al valor del parámetro.Es muy probable que haya error cuando un parámetro es estimado. Es cierto que si el número de observaciones al azar se hace suficientemente grande, éstas proporcionarían un valor que casi sería semejante al parámetro; pero a menudo hay limitaciones de tiempo y de recursos y se tendrá que trabajar con unas cuántas observaciones. Para poder utilizar la información que se tenga de la mejor forma posible, se necesita identificar las estadísticas que sean “buenos” estimadores. Hay cuatro criterios que se suelen aplicar para determinar si una estadística es un buen estimador: Insesgamiento, eficiencia,consistencia y suficiencia
En general, el error probable en cualquier medición es la mitad de la división mas pequeña del instrumento de medida de modo que la presicion de la medición depende de la presicion con que esta graduado el instrumento. Es importante tener en cuenta que la presicion se refiere al tamaño de la división mas pequeña de la escala; no tiene nada que ver con la exactitud (corrección) Cuando trabajamos con variables aleatorias que representan un error cometido (por ejemplo en un proceso de medición), solemos caracterizar la dispersión de dicho error mediante una estimación de la varianza o, más comúnmente, de la desviación típica.Cuando la variable aleatoria es bidimensional, una imagen más intuitiva de su dispersión la podemos obtener calculando el círculo que, centrado en el punto de error cero, encierra el 50% de nuestras mediciones. Un ejemplo típico es el de un arquero disparando sus flechas contra una diana. Aunque éste siempre apunta al centro de la diana, la falta de pericia, el cansancio o las condiciones atmosféricas hacen que la flechas se distribuyan por toda la diana, no sólo en el centro. Podemos dar una medida de cuán bueno es el arquero si damos la desviación típica de los puntos de impacto en dos ejes perpendiculares (el horizontal y el vertical, por ejemplo). No obstante nos resultaría más gráfico si se nos informara del radio del círculo que, con centro en el centro de la diana, contiene el 50% de los impactos. Si este círculo es pequeño es porque las flechas están muy agrupadas en torno al oro de la diana y podemos afirmar por ende que el arquero es bueno.En un estudio de investigación, el error de tipo I también denominado error de tipo alfa (α) (mal llamado, porque α es en realidad la probabilidad de que ocurra este error), es el error que se comete cuando el investigador rechaza la hipótesis nula (Ho) siendo ésta verdadera en la población. Es equivalente a encontrar un resultado falso positivo, porque el investigador llega a la conclusión de que existe una diferencia entre las hipótesis cuando en realidad no existe. Se relaciona con el nivel de significancia estadística.Representación de los valores posibles de la probabilidad de un error tipo II. En el ejemplo de un test de significancia estadística para el parámetro μ. El error tipo II depende del parámetro μ. Mientras más cerca se encuentre este del valor supuesto bajo la hipótesis nula, mayor es la probabilidad de ocurrencia del error tipo II. Debido a que el verdadero valor de μ es desconocido
En una población cuya distribución es conocida pero desconocemos algún parámetro, podemos estimar dicho parámetro a partir de una muestra representativa.
Un estimador es un valor que puede calcularse a partir de los datos muestrales y que proporciona información sobre el valor del parámetro. Por ejemplo la media muestral es un estimador de la media poblacional, la proporción observada en la muestra es un estimador de la proporción en la población.
Una estimación es puntual cuando se obtiene un sólo valor para el parámetro. Los estimadores más probables en este caso son los estadísticos obtenidos en la muestra, aunque es necesario cuantificar el riesgo que se asume al considerarlos. Recordemos que la distribución muestral indica la distribución de los valores que tomará el estimador al seleccionar distintas muestras de la población. Las dos medidas fundamentales de esta distribución son la media que indica el valor promedio del estimador y la desviación típica, también denominada error típico de estimación, que indica la desviación promedio que podemos esperar entre el estimador y el valor del parámetro.
Más útil es la estimación por intervalos en la que calculamos dos valores entre los que se encontrará el parámetro, con un nivel de confianza fijado de antemano.
En estadistica, se llama intervalo de confianza a un par de números entre los cuales se estima que estará cierto valor desconocido con una determinada probabilidad de acierto. Formalmente, estos números determinan un intervalo, que se calcula a partir de datos de una muestra, y el valor desconocido es un parametro poblacional. La probabilidad de éxito en la estimación se representa con 1 - α y se denomina nivel de confianza. En estas circunstancias, α es el llamado error aleatorio o nivel de significación, esto es, una medida de las posibilidades de fallar en la estimación mediante tal intervalo.