estimación de parámetros

4
UNIVERSIDAD TÉCNICA DE MACHALA UNIDAD ACADÉMICA DE INGENIERÍA CIVIL CARRERA DE INGENIERÍA CIVIL ESTADÍSTICA INFERENCIAL El campo de la inferencia de la estadística se compone de los métodos que se utilizan para tomar decisiones o sacar conclusiones acerca de una población. Estos métodos emplean información contenida en una muestra de la población para sacar conclusiones. La inferencia estadística puede dividirse en dos áreas principales: estimación de parámetros y prueba de hipótesis. ESTIMACIÓN DE PARÁMETROS Población: El conjunto completo de individuos, objetos u observaciones de interés. Muestra: Un subconjunto de la población. Estadístico Las variables aleatorias (X 1 , X 2 ,..., X n ) son una muestra aleatoria de tamaño n si: Las X i son variables aleatorias independientes. Cada X i tiene la misma distribución de probabilidad Estadístico: cualquier función de las observaciones de una muestra aleatoria. Estimación Puntual: Una estimación puntual de un parámetro poblacional θ es un valor numérico particular de un estadístico . El estadístico es denominado estimador puntual.

Upload: edwin-vas

Post on 14-Apr-2017

268 views

Category:

Education


0 download

TRANSCRIPT

Page 1: Estimación de parámetros

UNIVERSIDAD TÉCNICA DE MACHALAUNIDAD ACADÉMICA DE INGENIERÍA CIVIL

CARRERA DE INGENIERÍA CIVIL

ESTADÍSTICA INFERENCIALEl campo de la inferencia de la estadística se compone de los métodos que se utilizan para tomar decisiones o sacar conclusiones acerca de una población. Estos métodos emplean información contenida en una muestra de la población para sacar conclusiones. La inferencia estadística puede dividirse en dos áreas principales: estimación de parámetros y prueba de hipótesis.

ESTIMACIÓN DE PARÁMETROS

Población: El conjunto completo de individuos, objetos u observaciones de interés.

Muestra: Un subconjunto de la población.EstadísticoLas variables aleatorias (X1, X2,..., Xn) son una muestra aleatoria de tamaño n si:

Las Xi son variables aleatorias independientes. Cada Xi tiene la misma distribución de probabilidad

Estadístico: cualquier función de las observaciones de una muestra aleatoria.

Estimación Puntual: Una estimación puntual de un parámetro poblacional θ es un valor numérico particular de un estadístico . El estadístico es denominado estimador puntual.

PROPIEDADES DE UN ESTIMADOR PUNTUAL DE UN PARÁMETRO Θ.

Page 2: Estimación de parámetros

1. Estimador insesgado:El estimador puntual es un estimador insesgado del parámetro θ si:

E( ) = θSi el estimador no es insesgado, entonces, a la diferencia E ( ) – θ se le llama sesgo del estimador

2. Varianza de un estimador puntualSi se consideran todos los estimadores insesgados de θ al que tiene la varianza menor se le llama el estimador insesgado de mínima varianza (MVUE).

Si X1, X2,..., Xn es una muestra aleatoria de tamaño n de una distribución normal con media μ y varianza σ2, entonces la media muestral es el MVUE para la μ.

La media muestral y una simple observación de la muestra son estimadores insesgados de μ. La varianza de:

Media muestral es σ2/n.Una simple observación es σ2

Puesto σ2 / n < σ2, se selecciona la media muestral.

3. Error estándar

El error estándar de un estimador es su desviación estándar, dada por :

El error estándar estimado de es

4. Error cuadrado medio

El error cuadrado medio de un estimador del parámetro θ se define como

MSE ( ) = E( − θ)2 = V( ) + sesgo2

El MSE es un criterio importante para comparar dos estimadores de un mismo parámetro.

Entonces, la eficiencia relativa de 2 con respecto a 1 se define como:

MSE( 1) / MSE( 2)

Si esta eficiencia relativa es menor que uno, se concluiría que 1 es un estimador más

eficiente de θ que 2, en el sentido que tiene un error cuadrado medio menor.

MÉTODO DE MÁXIMA VEROSIMILITUD

Page 3: Estimación de parámetros

Uno de los mejores métodos para obtener un estimador puntual de un parámetro es el método de máxima verosimilitud. Como su nombre lo indica, el estimador será el valor del parámetro que maximiza la función de verosimilitud.DefiniciónDefinición:Suponga que X es una variable aleatoria con distribución de probabilidad f (x; θ); donde θ es un solo parámetro desconocido.Sean X1, X2,..., Xn los valores observados en una muestra aleatoria de tamaño n. Entonces la función de verosimilitud de la muestra es:

L(θ) = f(x1; θ) f(x2; θ)...f (xn; θ)

El estimador de máxima verosimilitud de θ es el valor de θ que maximiza la función de verosimilitud L(θ).

Objetivo:Obtener un estimador puntual de un parámetro θ.

Procedimiento:Encontrar la función de máxima Verosimilitud

L(θ) = f (x1; θ) f (x2; θ)...f (xn; θ)

Expresar la función ln (L(θ))Derivar la función ln (L(θ)), e igualar a 0.

dln(L(θ))dθ

=0

DISTRIBUCIÓN DE MUESTREOLa distribución de probabilidad de un estadístico se llama distribución de muestreo.

TEOREMA DE LÍMITE CENTRALLa distribución de probabilidad de un estadístico se llama distribución de muestreo.

Definición:Si X1, X2,..., Xn es una muestra aleatoria de tamaño n tomada de una población (sea finita o infinita) con media μ y varianza σ2, y si es la media muestral, entonces la forma límite de la distribución de

Z=−μX

−¿

σ /√n¿

Cuando n →∞, es la distribución normal estándar.