presentación sobre funciones generadoras de momentos explicación

78

Upload: diegofrade

Post on 04-Jan-2016

14 views

Category:

Documents


2 download

DESCRIPTION

Presentación sobre estadística y funciones generadoras de momentos. Nivel universitario. Masa de probabilidad. Materia estadística II.

TRANSCRIPT

Page 1: Presentación sobre funciones generadoras de momentos explicación

Estadística II

Miguel Angel Méndez

ITESM

1 de febrero de 2015

Miguel Angel Méndez Estadística II 1/36

Page 2: Presentación sobre funciones generadoras de momentos explicación

Función de masa de probabilidad conjunta discreta

La fmp, p(x), de una sola v.a. X especi�ca cuánta masa de

probabilidad esta colocada en cada valor posible de X . La función

de masa de probabilidad conjunta de dos v.a.'s discretas X y Ydescribe cuánta masa de probabilidad se coloca en cada posible par

de valores (x , y)

De�nición.

Sean X y Y dos v.a.'s discretas. la función de masa de probabilidad

conjunta p(x , y) se de�ne para cada par (x , y) como

p(x , y) = P(X = x ,Y = y)

donde

1 p(x , y) ≥ 0

2∑

x

∑y p(x , y) = 1

Si A ⊂ R2 entonces P[(X ,Y ) ∈ A] =∑∑

(x ,y)∈A p(x , y)

Miguel Angel Méndez Estadística II 2/36

Page 3: Presentación sobre funciones generadoras de momentos explicación

Función de masa de probabilidad conjunta discreta

La fmp, p(x), de una sola v.a. X especi�ca cuánta masa de

probabilidad esta colocada en cada valor posible de X . La función

de masa de probabilidad conjunta de dos v.a.'s discretas X y Ydescribe cuánta masa de probabilidad se coloca en cada posible par

de valores (x , y)

De�nición.

Sean X y Y dos v.a.'s discretas. la función de masa de probabilidad

conjunta p(x , y) se de�ne para cada par (x , y) como

p(x , y) = P(X = x ,Y = y)

donde

1 p(x , y) ≥ 0

2∑

x

∑y p(x , y) = 1

Si A ⊂ R2 entonces P[(X ,Y ) ∈ A] =∑∑

(x ,y)∈A p(x , y)

Miguel Angel Méndez Estadística II 2/36

Page 4: Presentación sobre funciones generadoras de momentos explicación

Función de masa de probabilidad conjunta discreta

La fmp, p(x), de una sola v.a. X especi�ca cuánta masa de

probabilidad esta colocada en cada valor posible de X . La función

de masa de probabilidad conjunta de dos v.a.'s discretas X y Ydescribe cuánta masa de probabilidad se coloca en cada posible par

de valores (x , y)

De�nición.

Sean X y Y dos v.a.'s discretas. la función de masa de probabilidad

conjunta p(x , y) se de�ne para cada par (x , y) como

p(x , y) = P(X = x ,Y = y)

donde

1 p(x , y) ≥ 0

2∑

x

∑y p(x , y) = 1

Si A ⊂ R2 entonces P[(X ,Y ) ∈ A] =∑∑

(x ,y)∈A p(x , y)

Miguel Angel Méndez Estadística II 2/36

Page 5: Presentación sobre funciones generadoras de momentos explicación

Ejemplo.

Si las v.a.'s X y Y tienen la siguiente función de masa de

probabilidad, entonces

Tabla: Distribución de probabilidad conjunta

HHHHHHx

y0 100 200

100 .20 .10 .20

250 .05 .15 .30

p(100, 100) = P(X = 100 yY = 100) = .10P(Y ≥ 100) =p(100, 100) + p(250, 100) + p(100, 200) + p(250, 200) = 0.75

Miguel Angel Méndez Estadística II 3/36

Page 6: Presentación sobre funciones generadoras de momentos explicación

Función de masa de probabilidad marginal

Una vez que conocemos la función de masa de probabilidad

conjunta de las dos v.a.'s X y Y es posible obtener la distribución

de una sola de estas varaibles.

De�nición.

La función de masa de probabilidad marginal de X , denotada

por pX (x), esta dada por

pX (x) =∑y

p(x , y) ∀x

De manera similar, la función de masa de probabilidad

marginal de Y es

pY (y) =∑x

p(x , y) ∀y .

Miguel Angel Méndez Estadística II 4/36

Page 7: Presentación sobre funciones generadoras de momentos explicación

Función de masa de probabilidad marginal

Una vez que conocemos la función de masa de probabilidad

conjunta de las dos v.a.'s X y Y es posible obtener la distribución

de una sola de estas varaibles.

De�nición.

La función de masa de probabilidad marginal de X , denotada

por pX (x), esta dada por

pX (x) =∑y

p(x , y) ∀x

De manera similar, la función de masa de probabilidad

marginal de Y es

pY (y) =∑x

p(x , y) ∀y .

Miguel Angel Méndez Estadística II 4/36

Page 8: Presentación sobre funciones generadoras de momentos explicación

Función de masa de probabilidad marginal

Una vez que conocemos la función de masa de probabilidad

conjunta de las dos v.a.'s X y Y es posible obtener la distribución

de una sola de estas varaibles.

De�nición.

La función de masa de probabilidad marginal de X , denotada

por pX (x), esta dada por

pX (x) =∑y

p(x , y) ∀x

De manera similar, la función de masa de probabilidad

marginal de Y es

pY (y) =∑x

p(x , y) ∀y .

Miguel Angel Méndez Estadística II 4/36

Page 9: Presentación sobre funciones generadoras de momentos explicación

Del ejemplo anterior

Tabla: Distribución de probabilidad conjunta y marginal

HHHH

HHxy

0 100 200 pX (x)

100 .20 .10 .20 .50

250 .05 .15 .30 0.50

pY (y) .25 .25 .50 1

Ahora veamos la función de densidad conjunta para v.a.'s continuas

X y Y :

Miguel Angel Méndez Estadística II 5/36

Page 10: Presentación sobre funciones generadoras de momentos explicación

Del ejemplo anterior

Tabla: Distribución de probabilidad conjunta y marginal

HHHH

HHxy

0 100 200 pX (x)

100 .20 .10 .20 .50

250 .05 .15 .30 0.50

pY (y) .25 .25 .50 1

Ahora veamos la función de densidad conjunta para v.a.'s continuas

X y Y :

Miguel Angel Méndez Estadística II 5/36

Page 11: Presentación sobre funciones generadoras de momentos explicación

Función de densidad de probabilidad conjunta

De�nición.

Sean X y Y v.a.'s continuas. Un función de densidad de

probabilidad conjunta para estas dos v.a.'s es una función

satisfaciendo:

1 f (x , y) ≥ 0

2∫∞−∞

∫∞−∞ f (x , y)dxdy = 1

Entonces para cualquier conjunto A en R2

P[(X ,Y ) ∈ A] =

∫∫Af (x , y)dxdy

En particular, si A es un rectángulo bidimensional

{(x , y) : a ≤ x ≤ b, c ≤ y ≤ d}, entonces

P[(X ,Y ) ∈ A] = P(a ≤ X ≤ b, c ≤ Y ≤ d) =

∫ b

a

∫ d

cf (x , y)dydx

Miguel Angel Méndez Estadística II 6/36

Page 12: Presentación sobre funciones generadoras de momentos explicación

Función de densidad de probabilidad conjunta

De�nición.

Sean X y Y v.a.'s continuas. Un función de densidad de

probabilidad conjunta para estas dos v.a.'s es una función

satisfaciendo:

1 f (x , y) ≥ 0

2∫∞−∞

∫∞−∞ f (x , y)dxdy = 1

Entonces para cualquier conjunto A en R2

P[(X ,Y ) ∈ A] =

∫∫Af (x , y)dxdy

En particular, si A es un rectángulo bidimensional

{(x , y) : a ≤ x ≤ b, c ≤ y ≤ d}, entonces

P[(X ,Y ) ∈ A] = P(a ≤ X ≤ b, c ≤ Y ≤ d) =

∫ b

a

∫ d

cf (x , y)dydx

Miguel Angel Méndez Estadística II 6/36

Page 13: Presentación sobre funciones generadoras de momentos explicación

Función de densidad de probabilidad conjunta

De�nición.

Sean X y Y v.a.'s continuas. Un función de densidad de

probabilidad conjunta para estas dos v.a.'s es una función

satisfaciendo:

1 f (x , y) ≥ 0

2∫∞−∞

∫∞−∞ f (x , y)dxdy = 1

Entonces para cualquier conjunto A en R2

P[(X ,Y ) ∈ A] =

∫∫Af (x , y)dxdy

En particular, si A es un rectángulo bidimensional

{(x , y) : a ≤ x ≤ b, c ≤ y ≤ d}, entonces

P[(X ,Y ) ∈ A] = P(a ≤ X ≤ b, c ≤ Y ≤ d) =

∫ b

a

∫ d

cf (x , y)dydx

Miguel Angel Méndez Estadística II 6/36

Page 14: Presentación sobre funciones generadoras de momentos explicación

Ejemplo.

Un banco dispone tanto de una ventanilla para automovilistas como deuna vantanilla normal. En un día seleccionado al azar, sea X = laproporción de tiempo que la ventanilla para automovilistas está en uso yY = la proporción de tiempo que la ventanilla normal está en uso.Entonces el conjunto de valores posibles de (X ,Y ) es el rectánguloD = {(x , y) : 0 ≤ x ≤ 1, 0 ≤ y ≤ 1}. Suponga que la densidad deprobabilidad conjunta de (X ,Y ) está dada por

f (x , y) =

{6

5(x + y2) 0 ≤ x ≤ 1, 0 ≤ y ≤ 1,

0 o.c .

1 Veri�car que f (x , y) es una función de densidad de probabilidadlegítima

2 Calcular la probabilidad que ninguna ventanilla esté ocupada más deun cuarto del tiempo, i.e. P(0 ≤ X ≤ 1

4, 0 ≤ Y ≤ 1

4)

Miguel Angel Méndez Estadística II 7/36

Page 15: Presentación sobre funciones generadoras de momentos explicación

Función de densidad de probabilidad marginal

De�nición.

Las funciones de densidad de probabilidad marginal de X y Y ,

denotadas por fX (x) y fY (y), están dadas por

fX (x) =

∫ ∞−∞

f (x , y)dy ∀ −∞ < x <∞

fY (y) =

∫ ∞−∞

f (x , y)dx ∀ −∞ < y <∞

Ejemplo.

Del ejemplo anterior calcule las funciones de densidad marginal.

¾Cuál es el signi�cado de estas marginales?.

Miguel Angel Méndez Estadística II 8/36

Page 16: Presentación sobre funciones generadoras de momentos explicación

Función de densidad de probabilidad marginal

De�nición.

Las funciones de densidad de probabilidad marginal de X y Y ,

denotadas por fX (x) y fY (y), están dadas por

fX (x) =

∫ ∞−∞

f (x , y)dy ∀ −∞ < x <∞

fY (y) =

∫ ∞−∞

f (x , y)dx ∀ −∞ < y <∞

Ejemplo.

Del ejemplo anterior calcule las funciones de densidad marginal.

¾Cuál es el signi�cado de estas marginales?.

Miguel Angel Méndez Estadística II 8/36

Page 17: Presentación sobre funciones generadoras de momentos explicación

Ejemplo.

Sean X y Y v.a.'s con función de densidad conjunta

f (x , y) =

{24xy 0 ≤ x ≤ 1, 0 ≤ y ≤ 1, x + y ≤ 1

0 o.c .

1 Determine si f (x , y) es una función de densidad de

probabilidad.

2 Sea A = {(x , y) : 0 ≤ x ≤ 1, 0 ≤ y ≤ 1, x + y ≤ .5}.Encuentre P[(X ,Y ) ∈ A]

3 Encuentre fX (x)

Miguel Angel Méndez Estadística II 9/36

Page 18: Presentación sobre funciones generadoras de momentos explicación

variables aleatorias independientes

En ocasiones el valor observado de una de las dos variables X y Yda información sobre el valor de la otra variable, i.e. existe

dependencia entre las dos variables. Veamos cuando no se da el

caso:

De�nición.

Se dice que dos v.a.'s X y Y son independientes si por cada par

de valores x y y

p(x , y) = pX (x) · pY (y) cuando X y Y son discretas

o

f (x , y) = fX (x) · fY (y) cuando X y Y son continuas

Si lo anterior no se satisface con todos los pares (x , y), entonces se

dice que X y Y son dependientes.

Miguel Angel Méndez Estadística II 9/36

Page 19: Presentación sobre funciones generadoras de momentos explicación

variables aleatorias independientes

En ocasiones el valor observado de una de las dos variables X y Yda información sobre el valor de la otra variable, i.e. existe

dependencia entre las dos variables. Veamos cuando no se da el

caso:

De�nición.

Se dice que dos v.a.'s X y Y son independientes si por cada par

de valores x y y

p(x , y) = pX (x) · pY (y) cuando X y Y son discretas

o

f (x , y) = fX (x) · fY (y) cuando X y Y son continuas

Si lo anterior no se satisface con todos los pares (x , y), entonces se

dice que X y Y son dependientes.

Miguel Angel Méndez Estadística II 9/36

Page 20: Presentación sobre funciones generadoras de momentos explicación

Ejemplo.

Sean X y Y v.a.'s con función de densidad conjunta dada por

Tabla: Distribución de probabilidad conjunta y marginal

HHHH

HHxy

0 100 200 pX (x)

100 .20 .10 .20 .50

250 .05 .15 .30 .50

pY (y) .25 .25 .50 1

¾Son X y Y independientes?

Solución:

p(100, 100) = .10 6= (.5)(.25) = pX (100) · pY (100)

de modo que X y Y no son independientes

Miguel Angel Méndez Estadística II 10/36

Page 21: Presentación sobre funciones generadoras de momentos explicación

Ejemplo.

Sean X y Y v.a.'s con función de densidad conjunta dada por

Tabla: Distribución de probabilidad conjunta y marginal

HHHH

HHxy

0 100 200 pX (x)

100 .20 .10 .20 .50

250 .05 .15 .30 .50

pY (y) .25 .25 .50 1

¾Son X y Y independientes?

Solución:

p(100, 100) = .10 6= (.5)(.25) = pX (100) · pY (100)

de modo que X y Y no son independientes

Miguel Angel Méndez Estadística II 10/36

Page 22: Presentación sobre funciones generadoras de momentos explicación

Observación.

Se puede demostrar que X y Y son independientes si

f (x , y) = g(x)h(y)

y la región de densidad positiva (el dominio de f ) debe ser un

rectángulo con sus lados paralelos a los ejes coordenados.

También si X y Y son v.a.'s independientes, se deduce que:

P(a ≤ X ≤ b, c ≤ Y ≤ d) = P(a ≤ X ≤ b) · P(c ≤ Y ≤ d)

Miguel Angel Méndez Estadística II 11/36

Page 23: Presentación sobre funciones generadoras de momentos explicación

Observación.

Se puede demostrar que X y Y son independientes si

f (x , y) = g(x)h(y)

y la región de densidad positiva (el dominio de f ) debe ser un

rectángulo con sus lados paralelos a los ejes coordenados.

También si X y Y son v.a.'s independientes, se deduce que:

P(a ≤ X ≤ b, c ≤ Y ≤ d) = P(a ≤ X ≤ b) · P(c ≤ Y ≤ d)

Miguel Angel Méndez Estadística II 11/36

Page 24: Presentación sobre funciones generadoras de momentos explicación

Distribución exponencial

Una v.a. X tiene distribución exponencial cuando su función de

densidad es

f (x ;λ) =

{λe−λx , x ≥ 0

0 o.c .

µ = 1/λ σ2 = 1/λ2

y

F (x , λ) =

{0 x < 0

1− e−λx x ≥ 0

Miguel Angel Méndez Estadística II 12/36

Page 25: Presentación sobre funciones generadoras de momentos explicación

Distribución exponencial

Una v.a. X tiene distribución exponencial cuando su función de

densidad es

f (x ;λ) =

{λe−λx , x ≥ 0

0 o.c .

µ = 1/λ σ2 = 1/λ2

y

F (x , λ) =

{0 x < 0

1− e−λx x ≥ 0

Miguel Angel Méndez Estadística II 12/36

Page 26: Presentación sobre funciones generadoras de momentos explicación

Distribución exponencial

Una v.a. X tiene distribución exponencial cuando su función de

densidad es

f (x ;λ) =

{λe−λx , x ≥ 0

0 o.c .

µ = 1/λ σ2 = 1/λ2

y

F (x , λ) =

{0 x < 0

1− e−λx x ≥ 0

Miguel Angel Méndez Estadística II 12/36

Page 27: Presentación sobre funciones generadoras de momentos explicación

La independencia de dos variables aleatorias es más útil cuando la

descripción del experimento en estudio sugiere que X y Y no tienen

ningún efecto entre ellas. Entonces, una vez que las funciones masa

de probabilidad y de densidad de probabilidad marginales han sido

especi�cadas, la función masa de probabilidad conjunta o la función

de densidad de probabilidad conjunta es simplemente el producto

de dos funciones marginales.

Ejemplo.

Suponga que las duraciones de dos componentes son

independientes entre sí y que la distribución exponencial de la

primera duración es X1 con parámetro λ1 = 1/1000, mientras que

la distribución exponencial de la segunda es X2 con parámetro

λ2 = 1/200. Determine

1 La función de densidad conjunta

2 La probabilidad de que ambas duraciones sean de por lo menos

1500 horas. (0.0639)

Miguel Angel Méndez Estadística II 13/36

Page 28: Presentación sobre funciones generadoras de momentos explicación

La independencia de dos variables aleatorias es más útil cuando la

descripción del experimento en estudio sugiere que X y Y no tienen

ningún efecto entre ellas. Entonces, una vez que las funciones masa

de probabilidad y de densidad de probabilidad marginales han sido

especi�cadas, la función masa de probabilidad conjunta o la función

de densidad de probabilidad conjunta es simplemente el producto

de dos funciones marginales.

Ejemplo.

Suponga que las duraciones de dos componentes son

independientes entre sí y que la distribución exponencial de la

primera duración es X1 con parámetro λ1 = 1/1000, mientras que

la distribución exponencial de la segunda es X2 con parámetro

λ2 = 1/200. Determine

1 La función de densidad conjunta

2 La probabilidad de que ambas duraciones sean de por lo menos

1500 horas.

(0.0639)

Miguel Angel Méndez Estadística II 13/36

Page 29: Presentación sobre funciones generadoras de momentos explicación

La independencia de dos variables aleatorias es más útil cuando la

descripción del experimento en estudio sugiere que X y Y no tienen

ningún efecto entre ellas. Entonces, una vez que las funciones masa

de probabilidad y de densidad de probabilidad marginales han sido

especi�cadas, la función masa de probabilidad conjunta o la función

de densidad de probabilidad conjunta es simplemente el producto

de dos funciones marginales.

Ejemplo.

Suponga que las duraciones de dos componentes son

independientes entre sí y que la distribución exponencial de la

primera duración es X1 con parámetro λ1 = 1/1000, mientras que

la distribución exponencial de la segunda es X2 con parámetro

λ2 = 1/200. Determine

1 La función de densidad conjunta

2 La probabilidad de que ambas duraciones sean de por lo menos

1500 horas. (0.0639)

Miguel Angel Méndez Estadística II 13/36

Page 30: Presentación sobre funciones generadoras de momentos explicación

Más de dos variables aleatorias

De�nición.

Si X1,X2, . . . ,Xn son v.a.'s discretas, la función masa de

probabilidad conjunta es la función

p(x1, x2, . . . , xn) = P(X1 = x1,X2 = x2, . . . ,Xn = xn)

Si las variables son continuas, la función de densidad de

probabilidad conjunta de X1,X2, . . . ,Xn es la función

f (x1, x2, . . . , xn) de modo que para n intervalos cualesquiera

[a1, b1], . . . , [an, bn],

P(a1 ≤ X1 ≤ b1, . . . , an ≤ Xn ≤ bn)

=

∫ b1

a1

. . .

∫ bn

an

f (x1, . . . , xn)dxn . . . dxx1

Miguel Angel Méndez Estadística II 14/36

Page 31: Presentación sobre funciones generadoras de momentos explicación

Más de dos variables aleatorias

De�nición.

Si X1,X2, . . . ,Xn son v.a.'s discretas, la función masa de

probabilidad conjunta es la función

p(x1, x2, . . . , xn) = P(X1 = x1,X2 = x2, . . . ,Xn = xn)

Si las variables son continuas, la función de densidad de

probabilidad conjunta de X1,X2, . . . ,Xn es la función

f (x1, x2, . . . , xn) de modo que para n intervalos cualesquiera

[a1, b1], . . . , [an, bn],

P(a1 ≤ X1 ≤ b1, . . . , an ≤ Xn ≤ bn)

=

∫ b1

a1

. . .

∫ bn

an

f (x1, . . . , xn)dxn . . . dxx1

Miguel Angel Méndez Estadística II 14/36

Page 32: Presentación sobre funciones generadoras de momentos explicación

Distribución multinomial

Un experimento es multinomial si se tienen:

n ensayos idénticos e independientes,

cada ensayo se tienen uno de r posibles resultados,

la probabilidad de cada resultado es pi con i = 1, 2, . . . , r .

Las variables aleatorias de interés son Xi =el número de ensayos quedan el resultado i (i = 1, . . . , r),

La función de masa de probabilidad conjunta de X1, . . . ,Xn es:

p(x1, . . . , xr ) =

{n!

x1!···xn!px11· · · pxrr xi = 0, 1, . . . ; x1 + . . .+ xr = n

0 o.c .

El caso r = 2 da la distribución binomial, con X1 = número de éxitos yX2 = n − X1 = número de fallas.

Ejemplo.

Un dado es lanzado 9 veces. Determine la probabilidad que el 1 aparezca3 veces, el 2 y 3 dos veces, 4 y 5 una vez y el 6 no aparezca.

9!3!2!2!1!1! (

1

6)3( 1

6)2( 1

6)2( 1

6)1( 1

6)1( 1

6)0 = 9!

3!2!2! (1

6)9

Miguel Angel Méndez Estadística II 15/36

Page 33: Presentación sobre funciones generadoras de momentos explicación

Distribución multinomial

Un experimento es multinomial si se tienen:

n ensayos idénticos e independientes,

cada ensayo se tienen uno de r posibles resultados,

la probabilidad de cada resultado es pi con i = 1, 2, . . . , r .

Las variables aleatorias de interés son Xi =el número de ensayos quedan el resultado i (i = 1, . . . , r),

La función de masa de probabilidad conjunta de X1, . . . ,Xn es:

p(x1, . . . , xr ) =

{n!

x1!···xn!px11· · · pxrr xi = 0, 1, . . . ; x1 + . . .+ xr = n

0 o.c .

El caso r = 2 da la distribución binomial, con X1 = número de éxitos yX2 = n − X1 = número de fallas.

Ejemplo.

Un dado es lanzado 9 veces. Determine la probabilidad que el 1 aparezca3 veces, el 2 y 3 dos veces, 4 y 5 una vez y el 6 no aparezca.

9!3!2!2!1!1! (

1

6)3( 1

6)2( 1

6)2( 1

6)1( 1

6)1( 1

6)0 = 9!

3!2!2! (1

6)9

Miguel Angel Méndez Estadística II 15/36

Page 34: Presentación sobre funciones generadoras de momentos explicación

Distribución multinomial

Un experimento es multinomial si se tienen:

n ensayos idénticos e independientes,

cada ensayo se tienen uno de r posibles resultados,

la probabilidad de cada resultado es pi con i = 1, 2, . . . , r .

Las variables aleatorias de interés son Xi =el número de ensayos quedan el resultado i (i = 1, . . . , r),

La función de masa de probabilidad conjunta de X1, . . . ,Xn es:

p(x1, . . . , xr ) =

{n!

x1!···xn!px11· · · pxrr xi = 0, 1, . . . ; x1 + . . .+ xr = n

0 o.c .

El caso r = 2 da la distribución binomial, con X1 = número de éxitos yX2 = n − X1 = número de fallas.

Ejemplo.

Un dado es lanzado 9 veces. Determine la probabilidad que el 1 aparezca3 veces, el 2 y 3 dos veces, 4 y 5 una vez y el 6 no aparezca.

9!3!2!2!1!1! (

1

6)3( 1

6)2( 1

6)2( 1

6)1( 1

6)1( 1

6)0 = 9!

3!2!2! (1

6)9

Miguel Angel Méndez Estadística II 15/36

Page 35: Presentación sobre funciones generadoras de momentos explicación

Distribución multinomial

Un experimento es multinomial si se tienen:

n ensayos idénticos e independientes,

cada ensayo se tienen uno de r posibles resultados,

la probabilidad de cada resultado es pi con i = 1, 2, . . . , r .

Las variables aleatorias de interés son Xi =el número de ensayos quedan el resultado i (i = 1, . . . , r),

La función de masa de probabilidad conjunta de X1, . . . ,Xn es:

p(x1, . . . , xr ) =

{n!

x1!···xn!px11· · · pxrr xi = 0, 1, . . . ; x1 + . . .+ xr = n

0 o.c .

El caso r = 2 da la distribución binomial, con X1 = número de éxitos yX2 = n − X1 = número de fallas.

Ejemplo.

Un dado es lanzado 9 veces. Determine la probabilidad que el 1 aparezca3 veces, el 2 y 3 dos veces, 4 y 5 una vez y el 6 no aparezca.

9!3!2!2!1!1! (

1

6)3( 1

6)2( 1

6)2( 1

6)1( 1

6)1( 1

6)0 = 9!

3!2!2! (1

6)9

Miguel Angel Méndez Estadística II 15/36

Page 36: Presentación sobre funciones generadoras de momentos explicación

Ejemplo.

Cuando se utiliza cierto método para recolectar un volumen �jo de

muestras de roca en una región, existen cuatro tipos de roca. Sean

X1,X2 y X3 la proporción por volumen de los tipos de roca 1, 2 y 3

en una muestra aleatoriamente seleccionada (la proporción de la

roca 4 es 1− X1 − X2 − X3 de modo que una v.a. X4 sería

redundante). Si la función de masa de probabilidad conjunta de

X1,X2,X3 es

f (x1, x2, x3) =

{kx1x2(1− x3) 0 ≤ x1, x2, x3 ≤ 1, x1 + x2 + x3 ≤ 1

0 0.c .

1 Determine el valor de k

2 Calcule la probabilidad de que las rocas 1 y 2 integren más del

50% de la muestra

solución: k = 144 y p = 0.6066

Miguel Angel Méndez Estadística II 16/36

Page 37: Presentación sobre funciones generadoras de momentos explicación

Independencia de mas de dos v.a.'s

De�nición.

Se dice que las v.a.'s X1,X2, . . . ,Xn son independientes si para

cada par, cada terna, y así sucesivamente, la función de masa de

probabilidad conjunta o función de densidad de probabilidad

conjunta es igual al producto de funciones de masa de probabilidad

conjuntas o funciones de densidad de probabilidad conjunta para

pares, ternas y así sucesivamente.

Miguel Angel Méndez Estadística II 17/36

Page 38: Presentación sobre funciones generadoras de momentos explicación

Distribuciones condicionales

De�nición.

Sean X y Y v.a.'s continuas con fdpc f (x , y) y fdp marginal fX (x).Entonces para toda x de X con el cual fX (x) > 0, la función

condicional de densidad de probabilidad condicional de Y dado que

X = x es

fY |X (y |x) =f (x , y)

fX (x)−∞ < y <∞

Si X y Y son v.a.'s discretas se reemplazan las funciones de

densidad por funciones de masa de probabilidad.

Miguel Angel Méndez Estadística II 18/36

Page 39: Presentación sobre funciones generadoras de momentos explicación

Ejemplo.

Un banco dispone tanto de una ventanilla para automovilistas como deuna vantanilla normal. En un día seleccionado al azar, sea X = laproporción de tiempo que la ventanilla para automovilistas está en uso yY = la proporción de tiempo que la ventanilla normal está en uso.Entonces el conjunto de valores posibles de (X ,Y ) es el rectánguloD = {(x , y) : 0 ≤ x ≤ 1, 0 ≤ y ≤ 1}. Suponga que la densidad deprobabilidad conjunta de (X ,Y ) está dada por

f (x , y) =

{6

5(x + y2) 0 ≤ x ≤ 1, 0 ≤ y ≤ 1,

0 o.c .

De este ejemplo hemos calculado fX (x) =6

5x + 2

5

1 Calcule la densidad de probabilidad de Y dado que X = 0.8.

2 Determine la probabilidad que la ventanillla esté ocupada cuandomucho la mitad del tiempo dado que X = 0.8.

Miguel Angel Méndez Estadística II 19/36

Page 40: Presentación sobre funciones generadoras de momentos explicación

De�nición:

Sean X y Y v.a.'s conjuntamente distribuidas con función masa de

probabilidad p(x , y) o función de densidad de probabilidad f (x , y)ya sea que las variables sean discretas o continuas. Entonces el

valor esperado de una función h(X ,Y ) denotada E [h(X ,Y )] oµh(X ,Y ) está dada por

E [h(X ,Y )] =

{ ∑x

∑y h(x , y) · p(x , y) si X y Y son discretas∫∞

−∞∫∞−∞ h(x , y) · f (x , y)dxdy si X y Y son continuas

Miguel Angel Méndez Estadística II 20/36

Page 41: Presentación sobre funciones generadoras de momentos explicación

Ejemplo.

Considere que Y1 y Y2 tienen una densidad conjunta dada por

f (y1, y2) =

{2y1, 0 ≤ y1 ≤ 1, 0 ≤ y2 ≤ 1,0, o.c .

Encuentre E (Y1Y2).

Solución:

E (Y1Y2) =

∫1

0

∫1

0

y1y2(2y1)dy1dy2 =1

3

Miguel Angel Méndez Estadística II 21/36

Page 42: Presentación sobre funciones generadoras de momentos explicación

Ejemplo.

Considere que Y1 y Y2 tienen una densidad conjunta dada por

f (y1, y2) =

{2y1, 0 ≤ y1 ≤ 1, 0 ≤ y2 ≤ 1,0, o.c .

Encuentre E (Y1Y2).

Solución:

E (Y1Y2) =

∫1

0

∫1

0

y1y2(2y1)dy1dy2 =1

3

Miguel Angel Méndez Estadística II 21/36

Page 43: Presentación sobre funciones generadoras de momentos explicación

Observemos lo siguiente:

E (Y1) =

∫ ∞−∞

∫ ∞−∞

y1f (y1, y2)dy2dy1

=

∫ ∞−∞

y1

∫ ∞−∞

f (y1, y2)dy2dy1 =

∫ ∞−∞

y1f1(y1)dy1

Ejemplo.

Sean Y1 y Y2 v.a.'s con función de densidad

f (y1, y2) =

{2y1, 0 ≤ y1 ≤ 1, 0 ≤ y2 ≤ 1,0 o.c .

Encuentre V (Y1).

Solución: Veri�que primero que E (Y k1) = 2

k+2 y luego

V (Y1) = E (Y 21)− E 2(Y1) = 1/2− (2/3)2 = 1/18.

Miguel Angel Méndez Estadística II 22/36

Page 44: Presentación sobre funciones generadoras de momentos explicación

Observemos lo siguiente:

E (Y1) =

∫ ∞−∞

∫ ∞−∞

y1f (y1, y2)dy2dy1

=

∫ ∞−∞

y1

∫ ∞−∞

f (y1, y2)dy2dy1 =

∫ ∞−∞

y1f1(y1)dy1

Ejemplo.

Sean Y1 y Y2 v.a.'s con función de densidad

f (y1, y2) =

{2y1, 0 ≤ y1 ≤ 1, 0 ≤ y2 ≤ 1,0 o.c .

Encuentre V (Y1).

Solución: Veri�que primero que E (Y k1) = 2

k+2 y luego

V (Y1) = E (Y 21)− E 2(Y1) = 1/2− (2/3)2 = 1/18.

Miguel Angel Méndez Estadística II 22/36

Page 45: Presentación sobre funciones generadoras de momentos explicación

Observemos lo siguiente:

E (Y1) =

∫ ∞−∞

∫ ∞−∞

y1f (y1, y2)dy2dy1

=

∫ ∞−∞

y1

∫ ∞−∞

f (y1, y2)dy2dy1 =

∫ ∞−∞

y1f1(y1)dy1

Ejemplo.

Sean Y1 y Y2 v.a.'s con función de densidad

f (y1, y2) =

{2y1, 0 ≤ y1 ≤ 1, 0 ≤ y2 ≤ 1,0 o.c .

Encuentre V (Y1).

Solución: Veri�que primero que E (Y k1) = 2

k+2 y luego

V (Y1) = E (Y 21)− E 2(Y1) = 1/2− (2/3)2 = 1/18.

Miguel Angel Méndez Estadística II 22/36

Page 46: Presentación sobre funciones generadoras de momentos explicación

Teorema.

Sean c una constante y g(x , y), g1(x , y), g2(x , y) funciones de

Y1,Y2 v.a's. Entonces

1 E (c) = c

2 E [cg(Y1,Y2)] = cE [g(Y1,Y2)]

3 E [g1(Y1,Y2) + g2(Y1,Y2)] = E [g1(Y1,Y2)] + E [g2(Y1,Y2)]

Miguel Angel Méndez Estadística II 23/36

Page 47: Presentación sobre funciones generadoras de momentos explicación

Teorema.

Sean Y1 y Y2 v.a.'s independientes y sean g(Y1) y h(Y2) funciones

sólo de Y1 y Y2 respectivamente. Entonces

E [g(Y1)h(Y2)] = E [g(Y1)]E [h(Y2)]

siempre que existan los valores esperados.

Demostración.

Usar la hipótesis de independencia: f (y1, y2) = fY1(y1)fY2(y2)

Ejemplo.

Suponga que Z ∼ N(0, 1), Y1 ∼ χ2(ν1) y Y2 ∼ χ2(ν2). Además

suponga que Z ,Y1 y Y2 son independientes.

1 De�na W = Z/√Y1. Encuentre E (W ) y V (W ). ¾Que

suposiciones se necesitan acerca del valor de ν1?.

2 De�na U = Y1/Y2. Encuentre E (U) y V (U). ¾Que

suposiciones acerca de ν1 y ν2 se necesitan?.Miguel Angel Méndez Estadística II 24/36

Page 48: Presentación sobre funciones generadoras de momentos explicación

La covarianza

La covarianza es una medida del grado de variación de dos variables

aleatorias respecto a sus respectivas medias. El dato es necesario

para determinar si existe dependencia entre ambas variables y para

estimar el coe�ciente de correlación lineal.

De�nición.

Si Y1 y Y2 son v.a.'s con medias µ1 y µ2, respectivamente, la

covarianza de Y1 y Y2 es

Cov(Y1,Y2) = E [(Y1 − µ1)(Y2 − µ2)]

Una manera alterna para calcular la covarianza:

Teorema.

Si Y1 y Y2 son v.a.'s con medias µ1 y µ2 respectivamente, entonces

Cov(Y1,Y2) = E (Y1Y2)− E (Y1)E (Y2)

Miguel Angel Méndez Estadística II 25/36

Page 49: Presentación sobre funciones generadoras de momentos explicación

La covarianza

La covarianza es una medida del grado de variación de dos variables

aleatorias respecto a sus respectivas medias. El dato es necesario

para determinar si existe dependencia entre ambas variables y para

estimar el coe�ciente de correlación lineal.

De�nición.

Si Y1 y Y2 son v.a.'s con medias µ1 y µ2, respectivamente, la

covarianza de Y1 y Y2 es

Cov(Y1,Y2) = E [(Y1 − µ1)(Y2 − µ2)]

Una manera alterna para calcular la covarianza:

Teorema.

Si Y1 y Y2 son v.a.'s con medias µ1 y µ2 respectivamente, entonces

Cov(Y1,Y2) = E (Y1Y2)− E (Y1)E (Y2)

Miguel Angel Méndez Estadística II 25/36

Page 50: Presentación sobre funciones generadoras de momentos explicación

La covarianza

La covarianza es una medida del grado de variación de dos variables

aleatorias respecto a sus respectivas medias. El dato es necesario

para determinar si existe dependencia entre ambas variables y para

estimar el coe�ciente de correlación lineal.

De�nición.

Si Y1 y Y2 son v.a.'s con medias µ1 y µ2, respectivamente, la

covarianza de Y1 y Y2 es

Cov(Y1,Y2) = E [(Y1 − µ1)(Y2 − µ2)]

Una manera alterna para calcular la covarianza:

Teorema.

Si Y1 y Y2 son v.a.'s con medias µ1 y µ2 respectivamente, entonces

Cov(Y1,Y2) = E (Y1Y2)− E (Y1)E (Y2)

Miguel Angel Méndez Estadística II 25/36

Page 51: Presentación sobre funciones generadoras de momentos explicación

Algunas observaciones con respecto de la covarianza:

Entre mayor sea el valor absoluto de la covarianza mayor será

la dependencia lineal entre Y1 y Y2.

Los valores positivos indican que Y1 aumenta cuando Y2

aumenta y los valores negativos indican que Y1 disminuye

cuando Y2 aumenta

Un valor de cero indica que las variables son no

correlacionadas y que no hay dependencia lineal entre Y1 y Y2.

Miguel Angel Méndez Estadística II 26/36

Page 52: Presentación sobre funciones generadoras de momentos explicación

Ejemplo.

Una cia. de nueces comercializa latas de nueces combinadas quecontienen almendras, nueces acajú y cacahuates. Suponga que el pesoneto de cada lata es exactamente de 1lb, pero la contribución al peso decada tipo de nuez es aleatoria. Como los tres pesos suman 1, un modelode probabilidad conjunta de dos cualquiera da toda la informaciónnecesaria sobre el peso del tercer tipo. Sea X el peso de las almendras enuna lata seleccionada y Y el peso de las nueces de acajú. Entonces laregión de densidad positiva es D = {(x , y) : 0 ≤ x , y ≤ 1, x + y ≤ 1} y lafunción de densidad de probabilidad conjunta de (X ,Y )

f (x , y) =

{24xy 0 ≤ x , y ≤ 1, x + y ≤ 10 o.c .

Encontrar la covarianza de X e Y

solución: Cov(X ,Y ) = 2

15− 2

5

2

5= − 2

75

Miguel Angel Méndez Estadística II 27/36

Page 53: Presentación sobre funciones generadoras de momentos explicación

Ejemplo.

Una cia. de nueces comercializa latas de nueces combinadas quecontienen almendras, nueces acajú y cacahuates. Suponga que el pesoneto de cada lata es exactamente de 1lb, pero la contribución al peso decada tipo de nuez es aleatoria. Como los tres pesos suman 1, un modelode probabilidad conjunta de dos cualquiera da toda la informaciónnecesaria sobre el peso del tercer tipo. Sea X el peso de las almendras enuna lata seleccionada y Y el peso de las nueces de acajú. Entonces laregión de densidad positiva es D = {(x , y) : 0 ≤ x , y ≤ 1, x + y ≤ 1} y lafunción de densidad de probabilidad conjunta de (X ,Y )

f (x , y) =

{24xy 0 ≤ x , y ≤ 1, x + y ≤ 10 o.c .

Encontrar la covarianza de X e Ysolución: Cov(X ,Y ) = 2

15− 2

5

2

5= − 2

75

Miguel Angel Méndez Estadística II 27/36

Page 54: Presentación sobre funciones generadoras de momentos explicación

Una di�cultad de utilizar la covarianza como medida absoluta de

variación es el que su valor depende de la escala de medición, i.e. es

difícil determinar si una covarianza particular es grande o

pequeña.

El problema se resuelve si estandarizamos su valor y

usamos el coe�ciente de correlación ρ:

De�nición.

El coe�ciente de correlación de X y Y , denotado por

Corr(X ,Y ), ρX ,Y o simplemente ρ, esta de�nido por

ρX ,Y =Cov(X ,Y )

σX · σY

Miguel Angel Méndez Estadística II 28/36

Page 55: Presentación sobre funciones generadoras de momentos explicación

Una di�cultad de utilizar la covarianza como medida absoluta de

variación es el que su valor depende de la escala de medición, i.e. es

difícil determinar si una covarianza particular es grande o

pequeña.El problema se resuelve si estandarizamos su valor y

usamos el coe�ciente de correlación ρ:

De�nición.

El coe�ciente de correlación de X y Y , denotado por

Corr(X ,Y ), ρX ,Y o simplemente ρ, esta de�nido por

ρX ,Y =Cov(X ,Y )

σX · σY

Miguel Angel Méndez Estadística II 28/36

Page 56: Presentación sobre funciones generadoras de momentos explicación

Una di�cultad de utilizar la covarianza como medida absoluta de

variación es el que su valor depende de la escala de medición, i.e. es

difícil determinar si una covarianza particular es grande o

pequeña.El problema se resuelve si estandarizamos su valor y

usamos el coe�ciente de correlación ρ:

De�nición.

El coe�ciente de correlación de X y Y , denotado por

Corr(X ,Y ), ρX ,Y o simplemente ρ, esta de�nido por

ρX ,Y =Cov(X ,Y )

σX · σY

Miguel Angel Méndez Estadística II 28/36

Page 57: Presentación sobre funciones generadoras de momentos explicación

La siguiente proposición muestra que ρ remedia el defecto de la

covarianza y también suguiere cómo reconocer la existencia de una

fuerte relación lineal.

Proposición.

1 Si a y c son ambas positivas o negativas,

Corr(aX + b, cY + d) = Corr(X ,Y )

2 Para dos v.a.'s cualesquiera X y Y ,

−1 ≤ Corr(X ,Y ) ≤ 1

Demostración:(2) : Demuestre que [E (XY )]2 ≤ E (X 2)E (Y 2)(sugerencia: E [(tX − Y )2] ≥ 0)

Miguel Angel Méndez Estadística II 29/36

Page 58: Presentación sobre funciones generadoras de momentos explicación

La siguiente proposición muestra que ρ remedia el defecto de la

covarianza y también suguiere cómo reconocer la existencia de una

fuerte relación lineal.

Proposición.

1 Si a y c son ambas positivas o negativas,

Corr(aX + b, cY + d) = Corr(X ,Y )

2 Para dos v.a.'s cualesquiera X y Y ,

−1 ≤ Corr(X ,Y ) ≤ 1

Demostración:(2) : Demuestre que [E (XY )]2 ≤ E (X 2)E (Y 2)(sugerencia: E [(tX − Y )2] ≥ 0)

Miguel Angel Méndez Estadística II 29/36

Page 59: Presentación sobre funciones generadoras de momentos explicación

Proposición.

1 Si X y Y son independientes, entonces ρ = 0, pero ρ = 0 no

implica independencia.

2 ρ = 1 o ρ = −1 si y sólo si Y = aX + b con algunos números

a y b con a 6= 0.

Demostración: (2) para el regreso utilizar la v.a.

U =X − E (X )

σX− Y − E (Y )

σY

Miguel Angel Méndez Estadística II 30/36

Page 60: Presentación sobre funciones generadoras de momentos explicación

Estimación puntual

El proposito de la estadística es usar la información de una

muestra para hacer inferencias acerca de la población de la

cual se toma la muestra.

Debido a que las poblaciones están caracterizadas por medidas

descriptivas numéricas llamadas parámetros, el objetivo de

muchas investigaciones estadísticas es calcular el valor de uno

o más parámetros relevantes.

Parámetros importantes relevantes son la media poblacional, la

varianza y la deviación estándar.

Al parámetro de interés le llamaremos párametro objetivo en el

experimento.

La información de la muestra se puede utilizar para calcular el

valor de una estimación puntual, una estimación de intervalo o

ambas. En cualquier caso, la estimación real se logra con el

uso de un estimador del parámetro objetivo.

Miguel Angel Méndez Estadística II 31/36

Page 61: Presentación sobre funciones generadoras de momentos explicación

Estimación puntual

El proposito de la estadística es usar la información de una

muestra para hacer inferencias acerca de la población de la

cual se toma la muestra.

Debido a que las poblaciones están caracterizadas por medidas

descriptivas numéricas llamadas parámetros, el objetivo de

muchas investigaciones estadísticas es calcular el valor de uno

o más parámetros relevantes.

Parámetros importantes relevantes son la media poblacional, la

varianza y la deviación estándar.

Al parámetro de interés le llamaremos párametro objetivo en el

experimento.

La información de la muestra se puede utilizar para calcular el

valor de una estimación puntual, una estimación de intervalo o

ambas. En cualquier caso, la estimación real se logra con el

uso de un estimador del parámetro objetivo.

Miguel Angel Méndez Estadística II 31/36

Page 62: Presentación sobre funciones generadoras de momentos explicación

Estimación puntual

El proposito de la estadística es usar la información de una

muestra para hacer inferencias acerca de la población de la

cual se toma la muestra.

Debido a que las poblaciones están caracterizadas por medidas

descriptivas numéricas llamadas parámetros, el objetivo de

muchas investigaciones estadísticas es calcular el valor de uno

o más parámetros relevantes.

Parámetros importantes relevantes son la media poblacional, la

varianza y la deviación estándar.

Al parámetro de interés le llamaremos párametro objetivo en el

experimento.

La información de la muestra se puede utilizar para calcular el

valor de una estimación puntual, una estimación de intervalo o

ambas. En cualquier caso, la estimación real se logra con el

uso de un estimador del parámetro objetivo.

Miguel Angel Méndez Estadística II 31/36

Page 63: Presentación sobre funciones generadoras de momentos explicación

Estimación puntual

El proposito de la estadística es usar la información de una

muestra para hacer inferencias acerca de la población de la

cual se toma la muestra.

Debido a que las poblaciones están caracterizadas por medidas

descriptivas numéricas llamadas parámetros, el objetivo de

muchas investigaciones estadísticas es calcular el valor de uno

o más parámetros relevantes.

Parámetros importantes relevantes son la media poblacional, la

varianza y la deviación estándar.

Al parámetro de interés le llamaremos párametro objetivo en el

experimento.

La información de la muestra se puede utilizar para calcular el

valor de una estimación puntual, una estimación de intervalo o

ambas. En cualquier caso, la estimación real se logra con el

uso de un estimador del parámetro objetivo.

Miguel Angel Méndez Estadística II 31/36

Page 64: Presentación sobre funciones generadoras de momentos explicación

Estimación puntual

El proposito de la estadística es usar la información de una

muestra para hacer inferencias acerca de la población de la

cual se toma la muestra.

Debido a que las poblaciones están caracterizadas por medidas

descriptivas numéricas llamadas parámetros, el objetivo de

muchas investigaciones estadísticas es calcular el valor de uno

o más parámetros relevantes.

Parámetros importantes relevantes son la media poblacional, la

varianza y la deviación estándar.

Al parámetro de interés le llamaremos párametro objetivo en el

experimento.

La información de la muestra se puede utilizar para calcular el

valor de una estimación puntual, una estimación de intervalo o

ambas. En cualquier caso, la estimación real se logra con el

uso de un estimador del parámetro objetivo.

Miguel Angel Méndez Estadística II 31/36

Page 65: Presentación sobre funciones generadoras de momentos explicación

De�nición.

Un estimador es una regla ( fórmula) que indica cómo calcular el valorde una estimación con base en las mediciones contenidas es una muestra.

Ejemplo.

Por ejemplo, la media muestral

Y =1

n

n∑i=1

Yi

es un posible estimador puntual de la media poblacional µ

Miguel Angel Méndez Estadística II 32/36

Page 66: Presentación sobre funciones generadoras de momentos explicación

De�nición.

Un estimador es una regla ( fórmula) que indica cómo calcular el valorde una estimación con base en las mediciones contenidas es una muestra.

Ejemplo.

Por ejemplo, la media muestral

Y =1

n

n∑i=1

Yi

es un posible estimador puntual de la media poblacional µ

Miguel Angel Méndez Estadística II 32/36

Page 67: Presentación sobre funciones generadoras de momentos explicación

De�nición.

Un estimador es una regla ( fórmula) que indica cómo calcular el valorde una estimación con base en las mediciones contenidas es una muestra.

Ejemplo.

Por ejemplo, la media muestral

Y =1

n

n∑i=1

Yi

es un posible estimador puntual de la media poblacional µ

Miguel Angel Méndez Estadística II 32/36

Page 68: Presentación sobre funciones generadoras de momentos explicación

Como las estimaciones son números, evaluamos la bondad delestimador puntual al construir una distribución de frecuencias

de los valores de las estimaciones obtenidas en muestreo

repetido y observar como se agrupa esta distribución

alrededor del parámetro objetivo.

Si deseamos especi�car una estimación puntual para un parámetropoblacional θ, el estimador de θ estará indicado por el simbolo θ̂

Quisieramos que el valor esperado de la distribución de estimacionesfuera igual al parámetro estimado; esto es, E (θ̂) = θ. Se dice que losestimadores puntuales que satisfacen esta propiedad son insesgados.

Miguel Angel Méndez Estadística II 33/36

Page 69: Presentación sobre funciones generadoras de momentos explicación

Como las estimaciones son números, evaluamos la bondad delestimador puntual al construir una distribución de frecuencias

de los valores de las estimaciones obtenidas en muestreo

repetido y observar como se agrupa esta distribución

alrededor del parámetro objetivo.

Si deseamos especi�car una estimación puntual para un parámetropoblacional θ, el estimador de θ estará indicado por el simbolo θ̂

Quisieramos que el valor esperado de la distribución de estimacionesfuera igual al parámetro estimado; esto es, E (θ̂) = θ. Se dice que losestimadores puntuales que satisfacen esta propiedad son insesgados.

Miguel Angel Méndez Estadística II 33/36

Page 70: Presentación sobre funciones generadoras de momentos explicación

Como las estimaciones son números, evaluamos la bondad delestimador puntual al construir una distribución de frecuencias

de los valores de las estimaciones obtenidas en muestreo

repetido y observar como se agrupa esta distribución

alrededor del parámetro objetivo.

Si deseamos especi�car una estimación puntual para un parámetropoblacional θ, el estimador de θ estará indicado por el simbolo θ̂

Quisieramos que el valor esperado de la distribución de estimacionesfuera igual al parámetro estimado; esto es, E (θ̂) = θ. Se dice que losestimadores puntuales que satisfacen esta propiedad son insesgados.

Miguel Angel Méndez Estadística II 33/36

Page 71: Presentación sobre funciones generadoras de momentos explicación

De�nición.

Si θ̂ es un estimador puntual de un parámetro θ, entonces θ̂ es un

estimador insesgado si E (θ̂) = θ. Si E (θ̂) 6= θ, se dice que θ̂ está

sesgado

De�nición.

El sesgo de un estimador puntual θ̂ está dado por B(θ̂) = E (θ̂)− θ.

Miguel Angel Méndez Estadística II 34/36

Page 72: Presentación sobre funciones generadoras de momentos explicación

De�nición.

Si θ̂ es un estimador puntual de un parámetro θ, entonces θ̂ es un

estimador insesgado si E (θ̂) = θ. Si E (θ̂) 6= θ, se dice que θ̂ está

sesgado

De�nición.

El sesgo de un estimador puntual θ̂ está dado por B(θ̂) = E (θ̂)− θ.

Miguel Angel Méndez Estadística II 34/36

Page 73: Presentación sobre funciones generadoras de momentos explicación

De�nición.

Si θ̂ es un estimador puntual de un parámetro θ, entonces θ̂ es un

estimador insesgado si E (θ̂) = θ. Si E (θ̂) 6= θ, se dice que θ̂ está

sesgado

De�nición.

El sesgo de un estimador puntual θ̂ está dado por B(θ̂) = E (θ̂)− θ.

Miguel Angel Méndez Estadística II 34/36

Page 74: Presentación sobre funciones generadoras de momentos explicación

La �gura siguiente muestra dos posibles distribuciones

muestrales para los estimadores puntuales insesgados para un

parámetro objetivo θ.Preferiríamos un estimador con una distribución del tipo (b)porque una varianza pequeña garantiza que, en un muestreo

repetido, una fracción mas alta de valores de θ̂2 estará �cerca�

de θ.Por consiguiente, además de preferir un estimador insesgado,

necesitamos que la varianza de la distribución del estimador

sea lo mas pequeña posible.

Miguel Angel Méndez Estadística II 35/36

Page 75: Presentación sobre funciones generadoras de momentos explicación

Mas que usar el sesgo y la varianza de un estimador puntual para

caracterizar su bondad, podemos emplear E [(θ̂ − θ)2], el promedio

del cuadrado de la distancia entre el estimador y su parámetro

objetivo.

De�nición.

El error cuadrático medio de un estimador puntual θ̂ es

MSE (θ̂) = E [(θ̂ − θ)2].

El error cuadrático medio de un estimador θ̂, MSE (θ̂), es unafunción de su varianza y su sesgo. Si B(θ̂) representa el sesgo del

estimador θ̂, se puede demostrar que

MSE (θ̂) = V (θ̂)− [B(θ̂)]2.

Tarea: Wackerly, 8.1, 8.2, 8.3, 8.6 y 8.7.

Miguel Angel Méndez Estadística II 36/36

Page 76: Presentación sobre funciones generadoras de momentos explicación

Mas que usar el sesgo y la varianza de un estimador puntual para

caracterizar su bondad, podemos emplear E [(θ̂ − θ)2], el promedio

del cuadrado de la distancia entre el estimador y su parámetro

objetivo.

De�nición.

El error cuadrático medio de un estimador puntual θ̂ es

MSE (θ̂) = E [(θ̂ − θ)2].

El error cuadrático medio de un estimador θ̂, MSE (θ̂), es unafunción de su varianza y su sesgo. Si B(θ̂) representa el sesgo del

estimador θ̂, se puede demostrar que

MSE (θ̂) = V (θ̂)− [B(θ̂)]2.

Tarea: Wackerly, 8.1, 8.2, 8.3, 8.6 y 8.7.

Miguel Angel Méndez Estadística II 36/36

Page 77: Presentación sobre funciones generadoras de momentos explicación

Mas que usar el sesgo y la varianza de un estimador puntual para

caracterizar su bondad, podemos emplear E [(θ̂ − θ)2], el promedio

del cuadrado de la distancia entre el estimador y su parámetro

objetivo.

De�nición.

El error cuadrático medio de un estimador puntual θ̂ es

MSE (θ̂) = E [(θ̂ − θ)2].

El error cuadrático medio de un estimador θ̂, MSE (θ̂), es unafunción de su varianza y su sesgo. Si B(θ̂) representa el sesgo del

estimador θ̂, se puede demostrar que

MSE (θ̂) = V (θ̂)− [B(θ̂)]2.

Tarea: Wackerly, 8.1, 8.2, 8.3, 8.6 y 8.7.

Miguel Angel Méndez Estadística II 36/36

Page 78: Presentación sobre funciones generadoras de momentos explicación

Mas que usar el sesgo y la varianza de un estimador puntual para

caracterizar su bondad, podemos emplear E [(θ̂ − θ)2], el promedio

del cuadrado de la distancia entre el estimador y su parámetro

objetivo.

De�nición.

El error cuadrático medio de un estimador puntual θ̂ es

MSE (θ̂) = E [(θ̂ − θ)2].

El error cuadrático medio de un estimador θ̂, MSE (θ̂), es unafunción de su varianza y su sesgo. Si B(θ̂) representa el sesgo del

estimador θ̂, se puede demostrar que

MSE (θ̂) = V (θ̂)− [B(θ̂)]2.

Tarea: Wackerly, 8.1, 8.2, 8.3, 8.6 y 8.7.

Miguel Angel Méndez Estadística II 36/36