estadistica

12
X Y f (x, y; λ)= λ 2 e y , 0 x y, λ > 0 0 X Y f (x, y)= 1 σxσy 1-ρ 2 exp - 1 2(1-ρ 2 ) h (x-μx) 2 σ 2 x (y-μy) 2 σ 2 y - 2ρ(x-μx)(y-μy) σxσy i -∞ x < -∞ y < σ x > 0y > 0 -1 <ρ< 1 f X (x)= ´ -∞ f (x, y) dy = ´ -∞ 1 σxσy 1-ρ 2 exp - 1 2(1-ρ 2 )σ 2 y σ 2 x h (x-μx) 2 σ 2 x (y-μy) 2 σ 2 y - 2ρ(x-μx)(y-μy) σxσy i d = ´ -∞ 1 σxσy 1-ρ 2 exp - 1 2(1-ρ 2 )σ 2 y σ 2 x h (x - μ x ) 2 σ 2 y (y - μ y ) 2 σ 2 x - 2ρ (x - μ x )(y - μ y ) σ x σ y i dy - 1 2(1-ρ 2 )σ 2 y σ 2 x h (x - μ x ) 2 σ 2 y (y - μ y ) 2 σ 2 x - 2ρ (x - μ x )(y - μ y ) σ x σ y i = - 1 2(1-ρ 2 )σ 2 y σ 2 x h (x - μ x ) 2 σ 2 y ( 1 - ρ 2 ) (y - μ y ) 2 σ 2 x +(x - μ x ) 2 σ 2 y ρ 2 - 2ρ (x - μ x )(y - μ y ) σ x σ y i = - 1 2(1-ρ 2 )σ 2 y σ 2 x h (x - μ x ) 2 σ 2 y ( 1 - ρ 2 ) (y - μ y ) 2 σ 2 x - 2ρ (x - μ x )(y - μ y ) σ x σ y +(x - μ x ) 2 σ 2 y ρ 2 i = - 1 2(1-ρ 2 )σ 2 y σ 2 x h (x - μ x ) 2 σ 2 y ( 1 - ρ 2 ) [(x - μ x ) σ y ρ - (y - μ y ) σ x ] 2 i = - (x-μx) 2 σ 2 y ( 1 - ρ 2 ) 2(1-ρ 2 )σ 2 y σ 2 x - [(x-μx)σyρ-(y-μy)σx] 2 2(1-ρ 2 )σ 2 y σ 2 x f x (x)= 1 σxσy 1-ρ 2 ´ -∞ exp n - (x-μx) 2 2σ 2 x - [(x-μx)σyρ-(y-μy)σx] 2 2(1-ρ 2 )σ 2 y σ 2 x o dy = 1 σxσy 1-ρ 2 ´ -∞ exp n - (x-μx) 2 2σ 2 x o exp n - [(x-μx)σyρ-(y-μy)σx] 2 2(1-ρ 2 )σ 2 y σ 2 x o dy = 1 σxσy 1-ρ 2 exp n - (x-μx) 2 2σ 2 x o ´ -∞ exp n - [(x-μx)σyρ-(y-μy)σx] 2 2(1-ρ 2 )σ 2 y σ 2 x o dy = 1 σxσy 1-ρ 2 exp n - (x-μx) 2 2σ 2 x o ´ -∞ exp - σ 2 x [(y-μy)-(x-μx) σy σx ρ] 2 2(1-ρ 2 )σ 2 y σ 2 x dy = 1 σxσy 1-ρ 2 exp n - (x-μx) 2 2σ 2 x o ´ -∞ exp - [(y-μy)-(x-μx) σy σx ρ] 2 2(1-ρ 2 )σ 2 y dy

Upload: marco-mendez

Post on 23-Nov-2014

81 views

Category:

Documents


6 download

TRANSCRIPT

Page 1: Estadistica

ESTADÍSTICA

MARCO ANTONIO MENDEZ PALMA

24 de enero de 2011

1. Ejercicio 1. Sean X y Y variables aleatorias con densidad conjunta de

f(x, y; λ) =

2e=ly, 0 ≤ x ≤ y, λ > 00 en otras parte

. Encontrar y describir las dis-

tribuciones marginales de X y Y . Gra�car la densidad conjunta y lasdensidades marginales.

2. Ejercicio 2. Demuestre que las densidades marginales de la distribuciónnormal bivariada son normales. Determine la media y la desviación estan-dar en cada caso.

Sea la densidad normal bivariada dada por

f (x, y) = 1

2Πσxσy√

1−ρ2exp

(− 1

2(1−ρ2)

[(x−µx)2

σ2x

+(y−µy)2

σ2y− 2ρ(x−µx)(y−µy)

σxσy

])donde −∞ < µx <∞ , −∞ < µy <∞ σx > 0, σy > 0, −1 < ρ < 1

fX (x) =´∞−∞ f (x, y) dy =

´∞−∞

1

2Πσxσy√

1−ρ2exp

(− 1

2(1−ρ2)σ2yσ

2x

[(x−µx)2

σ2x

+(y−µy)2

σ2y− 2ρ(x−µx)(y−µy)

σxσy

])dy

=´∞−∞

1

2Πσxσy√

1−ρ2exp

(− 1

2(1−ρ2)σ2yσ

2x

[(x− µx)

2σ2y+ (y − µy)

2σ2x − 2ρ (x− µx) (y − µy)σxσy

])dy

manipularemos el exponente− 12(1−ρ2)σ2

yσ2x

[(x− µx)

2σ2y+ (y − µy)

2σ2x − 2ρ (x− µx) (y − µy)σxσy

]completamos cuadrados

= − 12(1−ρ2)σ2

yσ2x

[(x− µx)

2σ2y

(1− ρ2

)+ (y − µy)

2σ2x + (x− µx)

2σ2yρ

2 − 2ρ (x− µx) (y − µy)σxσy

]= − 1

2(1−ρ2)σ2yσ

2x

[(x− µx)

2σ2y

(1− ρ2

)+(

(y − µy)2σ2x − 2ρ (x− µx) (y − µy)σxσy + (x− µx)

2σ2yρ

2)]

= − 12(1−ρ2)σ2

yσ2x

[(x− µx)

2σ2y

(1− ρ2

)+ [(x− µx)σyρ− (y − µy)σx]

2]

= −(x−µx)2σ2

y

(1− ρ2

)2(1−ρ2)σ2

yσ2x

− [(x−µx)σyρ−(y−µy)σx]2

2(1−ρ2)σ2yσ

2x

reemplazamos en la integral

obteniendo,

fx (x) = 1

2Πσxσy√

1−ρ2´∞−∞ exp

{− (x−µx)2

2σ2x− [(x−µx)σyρ−(y−µy)σx]2

2(1−ρ2)σ2yσ

2x

}dy

= 1

2Πσxσy√

1−ρ2´∞−∞ exp

{− (x−µx)2

2σ2x

}exp

{− [(x−µx)σyρ−(y−µy)σx]2

2(1−ρ2)σ2yσ

2x

}dy

= 1

2Πσxσy√

1−ρ2exp

{− (x−µx)2

2σ2x

} ´∞−∞ exp

{− [(x−µx)σyρ−(y−µy)σx]2

2(1−ρ2)σ2yσ

2x

}dy

= 1

2Πσxσy√

1−ρ2exp

{− (x−µx)2

2σ2x

} ´∞−∞ exp

{−σ

2x[(y−µy)−(x−µx)

σyσxρ]

2

2(1−ρ2)σ2yσ

2x

}dy

= 1

2Πσxσy√

1−ρ2exp

{− (x−µx)2

2σ2x

} ´∞−∞ exp

{− [(y−µy)−(x−µx)

σyσxρ]

2

2(1−ρ2)σ2y

}dy

1

Page 2: Estadistica

= 1√2πσ2

x

√2π(1−ρ2)σ2

y

exp{− (x−µx)2

2σ2x

} ´∞−∞

1√2π(1−ρ2)σ2

y

exp

{− [(y−µy)−(x−µx)

σyσxρ]

2

2(1−ρ2)σ2y

}dy

= 1√2πσ2

x

exp{− (x−µx)2

2σ2x

} ´∞−∞

1√2π(1−ρ2)σ2

y

exp

{− [y−(µy+(x−µx)

σyσxρ)]

2

2(1−ρ2)σ2y

}dy

al ver la integral se puede ver que esta es una densidad normal con media

µy + (x− µx)σyσxρ y varianza

(1− ρ2

)σ2y por tanto

´∞−∞

1√2π(1−ρ2)σ2

y

exp

{− [y−(µy+(x−µx)

σyσxρ)]

2

2(1−ρ2)σ2y

}dy = 1 por tanto

fX (x) = 1√2πσ2

x

exp{− (x−µx)2

2σ2x

}∼= N

(µx, σ

2x

)si trabajamos de igual ma-

nera fy (y) tendremos

fY (y) = 1√2πσ2

y

exp{− (y−µy)2

2σ2y

}∼= N

(µy, σ

2y

)3. Ejercicio 3. Demostrar que en el caso de la distribución normal bivariada

la independencia se da si y solo si ρ = 0

Si ρ = 0 tenemos f (x, y) = 12Πσxσy

exp(− 1

2

[(x−µx)2

σ2x

+(y−µy)2

σ2y

])donde

−∞ < µx < ∞,−∞ < µy < ∞σx > 0, σy > 0 de aqui f (x, y) =1√

2Πσ2x

exp(− 1

2

[(x−µx)2

σ2x

])1√

2Πσ2y

exp(− 1

2

[(y−µy)2

σ2y

])= fx (x) fy (y) re-

ciprocamente si ρ 6= 0 tenemos que

f (x, y) = 1

2Πσxσy√

1−ρ2exp

{− (x−µx)2

2σ2x− [(x−µx)σyρ−(y−µy)σx]2

2(1−ρ2)σ2yσ

2x

}= 1√

2πσ2x

exp{− (x−µx)2

2σ2x

}1√

2π(1−ρ2)σ2y

exp

{− [y−(µy+(x−µx)

σyσxρ)]

2

2(1−ρ2)σ2y

}= fx (x) gy (y)

pero g (y) no es normal(uy, σ

2y

)esto muestra que no hay independencia

para ρ 6= 0.

4. Ejercicio 4. Con referencia a la densidad del Ejercicio 1 encontrar fX|Y yfY |X . Dar una descripción de la densidad en cada caso.

fX|Y

5. Ejercicio 5. Sea f(x, y) normal bivariada encontrar fX|Y . Describir estadensidad.

Ejemplo 2. Vamos a considerar a continuación el método de re-

chazo para generar observaciones de una v.a. Supongamos que

f es una densidad diferente de cero en el intervalo [a, b] y 0 fuera

de este intervalo. Sea M(x) una función tal que M(x) ≥ f(x) y

sea m (x) = M(x)´ baM(x)dx

una densidad. La idea es escoger M tal que

la generación de observaciones de m sea fácil. Si [a, b] es �nito se

puede tomar m como la distribución uniforme en [a.b]. Los pasosdel algoritmo son los siguientes:

Paso 1: Generar T con densidad m

2

Page 3: Estadistica

6. Ejercicio 6. Demostrar en el ejemplo anterior que X tiene densidad f .

7. Ejercicio 7. Sean X,Y tienen son normales estandar (0, 1) independientesy sean R,Θ v.a. de�nidas por la transformación X = RcosΘ, Y = RsinΘ.Encontrar las distribuciones conjunta y marginales de R,Θ.

Parte I

Ejercicios Adicionales

1. Sean X y Y v.a. N(0, 1). De�nimos una nueva v.a. Z de la siguientemaneras

Z =

{X si XYmayor a cero−X si XYmenor a cero

a) Demuestre que Z tiene una distribución normal

b) Demuestre que la distribución conjunta de Z y Y no es normal bi-variada. Este ejercicio demuestra que se puede tener distribucionesnormales marginales y sin embargo la distribución conjunta no es ne-cesariamente marginal. (Sugerencia : Demuestre que las dos variablestienen el mismo signo)

2. Supongamos queX1 ∼ N(0, 1) y X2 ∼ N(0, 1) son independientes. De�ni-mos dos v.a. R y Θ de tal manera que x1 = rcos(θ), x2 = rsin(θ) parar ≥ 0 y 0 ≤ θ < 2π. Encontrar la distribución de R y Θ

3. Sea X una variable aleatoria continua con f.d.a. Fx . Demostrar que Y =F (X) tiene distribución U(0, 1). De igual manera si Y ∼ U(0, 1) entoncesX ∼ F−1(Y ) tiene distribución F

4. Supongamos que U1 ∼ U(0, 1) y U2 ∼ U(0, 1) son v.a. independientes.

Si x1 = cos(2πU1)√=2ln(U2) , x2 = sin(2πU1)

√=2ln(U2) demostrar que

X1 y X2 son variables normales (0, 1) independientes

Sea el jacobiano dado por

J =

∣∣∣∣∣∣−2Πsin (2ΠU1)

√−2ln (U2) − cos(2ΠU1)

U2

√−2ln(U2)

2Πcos (2ΠU1)√−2ln (U2) − sin(2ΠU1)

U2

√−2ln(U2)

∣∣∣∣∣∣J−1 =

∣∣∣ 2Πsin2(2ΠU1)U2

+ 2Πcos2(2ΠU1)U2

∣∣∣−1

=(

2ΠU2

)−1

como x21 + x2

2 = −2ln (U2) tenemos que U2 = exp(−x

21+x2

2

2

)con lo cual

f (U1, U2) = f (x1, x2)∣∣J−1

∣∣ =(

2ΠU2

)−1= 1

2Πexp(−x

21+x2

2

2

)= 1√

2Πexp

(−x

21

2

)1√2Πexp

(−x

22

2

)= fx2

(x1) fx2(x2) lo cual muestra que

son independientes y estas son normales N (0, 1).

3

Page 4: Estadistica

Hacer los siguientes ejercicios de[CST ]

1. 2.67*. (Mukhopadhyay 2000, p. 197): Suppose that X1 and X2 have ajoint pdf given by f(x1, x2) = 3(x1 +x2)I(0 < x1 < 1)I(0 < x2 < 1)I(0 <x1 +x2 < 1). Consider the transformation Y1 = X1 +X2 and Y2 = X1=X2

.

a) Find the Jacobian J for the transformation.

b) Find the support Y of Y1 and Y2 .

c) Find the joint density fY 1,Y 2(y1, y2).

d) Find the marginal pdf fY 1(y1).

e) Find the marginal pdf fY 2(y2).

f ) Hint for d) and : IA1(y)IA2(y)IA3(y) = I⋂3

1Aj

(y) = IY (y) where Y

is a triangle.

2. 2.74*. Suppose that the joint probability mass function f(y1, y2) of Y1 andY2 is given in the following table.

y2

f (y1, y2) 0 1 20 0.38 0.14 0.24

y1

1 0.17 0.02 0.05

a) Find the marginal probability function fY2(y2) for Y2 .

b) Find the conditional probability function f(y1|y2) of Y1 given Y2 = 2.

3. 2.76. Suppose that X1 and X2 are independent with X1 ∼ N(0, 1) andX2 ∼ N(0, 4) so V ar(X2) = 4. Consider the transformation Y1 = X1 +X2

and Y2 = X1=X2 .

a) Find the Jacobian J for the transformation.

b) Find the joint pdf f(y1, y2) of Y1 and Y2 .

c) Are Y1 and Y2 independent? Explain brie�y.

Hint: can you factor the joint pdf so that f(y1, y2) = g(y1)h(y2) forevery real y1 and y2 ?

4

Page 5: Estadistica

Parte II

Ejercicios Adicionales

1. Se lanza una moneda balanceada n veces y se cuenta el numero de carasN y se lanza la moneda N veces mas. Encuentre el valor esperado del totalde lanzamientos.

2. Sea (X,Y ) un punto seleccionado al azar del semi-c�rculo X2 + Y1 ≤ 1donde Y ≥ 0.

a) Si observamos X encontrar E[Y |X]. Esta es la mejor prediccion deX dado Y en el sentido de m�nimos cuadrados

b) Si observamos Y encontrar E[X|Y ]. Esta es la mejor prediccion deX dado Y en el sentido de m�nimos cuadrados

3. Demuestre que si X y Y son independientes entonces E[X|Y ] = E[Y ]

4. Supongamos que la Y |X = x ∼ N(x, x2) y que la distribucion marginalde X es uniforme en el intervalo (0, 1).

a) Encontrar E[Y ], V [Y ]y Cov(X,Y )

b) Demostrar que Y |X y X son independientes.

Parte III

DISTRIBUCION DE UNAFUNCION DE UNA VARIABLEALEATORIA

1. Ejercicio 1. Sea X ∼ N(0, 1) y sea Y = X2 , encontrar fY (y)

2. Ejercicio 2. Demostrar el Teorema 4

5

Page 6: Estadistica

Ejerccicios Adicionales

1. 2.8.

a) LetfY (y) be the pdf of Y . If W = μ+ Y where =∞ < μ <∞, showthat the pdf of W is fW (w) = fY (w=μ) .

b) Let fY (y) be the pdf of Y . If W = σvY where σv > 0, show that thepdf ofW is fW (w) = (1/σv)fY (w/σv) .

c) Let fY (y) be the pdf of Y . If W = μ+ σvY where =∞ < μ <∞ andσv > 0, show that the pdf of W is fW (w) = (1/σv)fY ((w=μ)/σv).

2. 2.9.

a) If Y is lognormal LN(μ,σv2), show that W = log(Y ) is a normalN(μ,σv2) random variable.

b) If Y is a normal N(μ,σv2) random variable, show that W = eY is alognormal LN(μ,σv2) random variable.

3. 2.10.

a) If Y is uniform (0, 1), Show that W = =log(Y ) is exponential (1).

b) If Y is exponential (1), show that W = exp(=Y ) is uniform (0, 1).

4. 2.11. If Y ∼ N(μ,σv2), �nd the pdf of W =(Y=msv

)2

.

5. 2.14.

a) Suppose that Y has a Pareto(σv, λ) distribution with pdf f(y) =1lsv

1l

y1+1/l where y ≥ σv, σv > 0, and λ > 0. Show that W = log(Y ) ∼EXP (θ = log(σv), λ).

b) If Y as an EXP (θ = log(σv), λ) distribution, show that W = eY hasa Pareto(σv, λ) distribution.

6. 2.17.

a) If Y is truncated extreme value TEV (λ) then the pdf of Y is f(y) =1lexp(y= eY −1

l) where y > 0, and λ > 0. Show that W = eY=1 is an

exponential (λ) random variable.

b) If Y is an exponential(λ) random variable, show thatW = log(Y +1)is a truncated extreme value TEV (λ) random variable.

c) If Y has an inverse exponential distribution, Y ∼ IEXP (θ), showthat W = 1/Y ∼ EXP (1/θ).

6

Page 7: Estadistica

d) If Y has an inverse Weibull distribution, Y ∼ IW (φ, λ), show that1/Y ∼W (φ, λ), the Weibull distribution with parameters φ, λ).

e) If Y has a log-gamma distribution, Y ∼ LG(ν, λ), show that W =eY ∼ gamma(ν, λ).

f ) If Y has a two parameter power distribution, Y ∼ power(τ, λ), showthat W = =log(Y ) ∼ EXP (=log(τ), λ).

7. 2.20.

a) If Y is Weibull W (φ, λ), show that W = Y f is an exponential (λ)random variable.

b) If Y is an exponential(λ) random variable, show that W = Y 1/f isa Weibull W (φ, λ) random variable.

Parte IV

ESPERANZA MATEMATICA

1. Ejercicio 1. Diremos que X tiene una distribución de Cauchy si su fdp está

dada por f(x) = 1p

(1

1+x2

), =∞ < x <∞ Demostrar que E[X] no existe

La esperanza existe si la integral´∞−∞ |x| f(x)dx =

´∞−∞

1p

(|x|

1+x2

)dx exis-

te.´∞−∞ |x| f(x)dx =

´∞−∞

1p

(|x|

1+x2

)dx =

´ 0

−∞1p

(−x

1+x2

)dx+´∞

01p

(x

1+x2

)dx

=´ 0

−∞1p

(−x

1+x2

)dx +

´∞0

1p

(x

1+x2

)dx si u = 1 + x2 tenemos du = 2xdx

remplazando tenemos´ 1

∞12p

(−1u

)du +

´∞1

12p

(1u

)du = 1

p

´∞1

1udu = ln(u)

Π

∣∣∣∞1→ ∞ cuando u →

∞ de esta manera, se prueba que E [X] no existe.

2. Ejercicio 2. Considerar la función h(b) = E[(X=b)2]. Demostrar que μ =E[X] minimiza h(b) .

Sea h (b) = E[(X − b)2

]=´∞−∞ (X − b)2

f (x) dx derivando tenemos

h′ (b) =´∞−∞−2 (X − b) f (x) dx de aqui tenemos

h′ (b) =´∞−∞−2 (X − b) f (x) dx = 0⇒

´∞−∞−2 (x− b) f (x) dx =

´∞−∞−2xf (x) dx+´∞

−∞ 2bf (x) dx = 0

⇔ −2E (X) + 2E (b) = 0⇒ 2E (X) = 2E (b)

⇒ E (X) = E (b)

de aqui se pude ver que E (X) minimiza h (b) .

7

Page 8: Estadistica

3. Ejercicio 3. La mediana de una v.a X es el valor m tal que P (X ≤m) ≥ 1/2) y P (X ≥ m) ≤ 1/2. En el caso de una distribución con-tinua se tiene que

´m−∞ f(x)dx =

´∞mf(x)dx = 1/2 Demostrar que si

h(b) = E[|X=b|]entonces m minimiza h(b)

Sea h (b) = E [|X − b|] =´∞−∞ |x− b| f (x) dx = −

´ b−∞ (x− b) f (x) dx +´∞

b(x− b) f (x) dx

−´ b−∞ xf (x) dx+b

´ b−∞ f (x) dx+

´∞bxf (x) dx−b

´∞bf (x) dx = −

´ b−∞ xf (x) dx+

b´ b−∞ f (x) dx+

´∞bxf (x) dx− b

(1−´ b−∞ f (x) dx

)derivando tenemos

h′ (b) = −bf (b)+´ b−∞ f (x) dx+bf (b)−bf (b)−

(1−´ b−∞ f (x) dx

)+bf (b)

=´ b−∞ f (x) dx− 1 +

´ b−∞ f (x) dx = −1 + 2

´ b−∞ f (x) dx

si h′ (b) = 0 tenemos −1 + 2´ b−∞ f (x) dx = 0 ⇒

´ b−∞ f (x) dx = 1

2 =P (X ≤ m)

de aqui se puede observar que m minimiza h (b) .

4. Ejercicio 4. Consideremos las siguientes dos densidades

f1(x) = 1√2Πx

e=(logx)2

2 , 0 ≤ x <∞

f2(x) = f1(x)[1 + sin(2πlogx)], 0 ≤ x <∞

Supongamos que X1 ∼ f1 demuestre que E[Xr1 ] = e

r2

2 para r = 0, 1, ....Vemos que f1 tienen todos sus momentos.

Sea X2 ∼ f2 entonces E [X2] = E [X1] +´∞

0xrf1(x)sin(2πlogx)dx. Uti-

lizando la transformación y = logx=r demuestre que la ultima integralpuede transformarse en la integral de una función impar sobre R por loque la integral es igual a 0. Tenemos entonces que a pesar de que X1 y X2

tienen los mismos momentos tienen diferentes densidades.

Por un lado tenemos que f1(x) = 1√2Πx

e=(logx)2

2 , 0 ≤ x < ∞ si tomamos

y = log(x)− r tenemos que x = e=y+r con lo cual la esperanza esta dadapor

E [Xr1 ] =

´ +∞0

xre=(logx)2

2√2Πx

dx =´ +∞−∞

xre=(logx)2

2√2Πx

dx =´ +∞−∞

(ey+r)re=

(y+r)2

2√

2Πey+rey+rdx

=´ +∞−∞

eyr+r2e=

(y+r)2

2√2Π

dx = 1√2Π

´ +∞−∞ eyr+r

2

e=(y+r)2

2 dx = 1√2Π

´ +∞−∞ e=

y2−r22 dx

= er2

2√2Π

´ +∞−∞ e=

y2

2 dx = er2

2√2Π

√2Π = e

r2

2 de esto concluimos que E[Xr1 ] =

er2

2 para r = 0, 1, .....

Para probar que la integral es cero, tenemos que si hacemos la sustitucionen´∞

0xrf1(x)sin(2πlogx)dx. tenemos que´∞

0xrf1(x)sin(2πlogx)dx =

´∞−∞ eyr+r

2

f1(ey+r)sin(2π (y + r))ey+rdy

=´∞−∞ eyr+r

2 e=(y+r)2

2√2Πey+r

sin(2π (y + r))ey+rdy =´∞−∞ eyr+r

2 e=(y+r)2

2√2Π

sin(2π (y + r))dy

8

Page 9: Estadistica

= 1√2Π

´∞−∞ e=

y2−r22 sin(2π (y + r))dy = 0 ya que g (y) = e=

y2−r22 sin(2π (y + r))

es una funcion impar en efecto, tenemos que f (−x) = −f (x) al sersin(2π (y + r)) = sin(2πy) y sin(−y) = −sin(y).

5. Ejercicio 5. Sea Xn ∼ Binomial(n, p) una secuencia de v.a. Supongamosque np = λ donde λ es �jo. Demuestre que Xn converge en distribucion aY ∼ Poisson(λ).

Sugerencia: recuerde que si lımn�∞an = a entonces lımn�∞(1 + an

n

)n=

ea

Supongamos que Xn sigue una binomial de parametros (n, p)y de�nimosan = np entonces

f (Xn) =(nk

)pkqn−k = n!

(n−k)!k!pkqn−k

= n(n−1)···(n−k+1)k! pkqn−k = n(n−1)···(n−k+1)

k! pk (1− p)n−k

= n(n−1)···(n−k+1)k!

(ann

)k (1− an

n

)n−k=

nk(1− 1n )(1− 2

n )···(1− k−1n )

k!

(ann

)k (1− ann )n

(1− ann )k

=nk(1− 1

n )(1− 2n )···(1− k−1

n )k!

aknnk

(1− ann )n

(1− ann )k → ak

k! e−a

= λk

k! e−λ esto prueba que

Xn converge en distribucion a Y ∼ Poisson(λ).

Resolver los siguientes ejercicios delCapitulo 4 de [MSDA] (ver hojaadicional) : 9, 13, 16, 17, 18, 27, 79.

1. 9 This is a simpli�ed inventory problem. Suppose that it costs c dollarsto stock an item and that the item sells for s dollars. Suppose that thenumber of items that will be asked for by customers is a random variablewith the frequency function p(k). Find a rule for the number of itemsthat should be stocked in order to maximize the expected income. {Hint:Consider the di�erence of successive terms.)

2. 13 If X is a nonnegative continuous random variable, show that

E(X) =´∞

0[1− F (x)]dx

Apply this result to �nd the mean of the exponential distribution.

3. 16 Suppose that E(X) = μ and V ar(X) = σv2. Let Ζ = (X − μ)/σv. Showthat E(Z) = 0 andV ar(Z) = l.

4. 17 Find (a) the expectation and (b) the variance of the kth−order statisticof a sample of n independent random variables uniform on [0, 1]. Thedensity function is given in Example C in Section 3.7.

5. 18 If U1, ..., Un are independent uniform random variables, �nd E(U(n) − U(1)

).

9

Page 10: Estadistica

6. 27 If n men throw their hats into a pile and each man takes a hat atrandom, what is the expected number of matches? (Hint: Express thenumber as a sum.)

7. 79 Find the mgf of a geometric random variable, and use it to �nd themean and the variance.

Resolver los siguientes ejercicios desu texto [CST]:

1.3

1. 1.3*. For the Gamma(ν, λ) distribution,

a) �nd E Y .

b) Find Var Y .

c) Find the mgf m(t).

1.4,

1. 1.4*. For the Normal(μ, σv 2) (or Gaussian) distribution,

a) �nd the mgf m(t). (Hint: complete the square to get a Gaussiankernel.)

b) Use the mgf to �nd E Y .

c) Use the mgf to �nd Var Y .

1.7,

10

Page 11: Estadistica

1. 1.7*. See Mukhopadhyay (2000, p. 39). Recall integrals by u-substitution:

I =´ baf(g(x))g′(x)dx =

´ g(b)g(a)

f(u)du =´ dcf(u)du =

F (u)|dc = F (d)=F (c) = F (u)|g(b)g(a) = F (g(x))|ba = F (g(b))=F (g(a))

where F ′(x) = f(x), u = g(x), du = g′(x)dx, d = g(b), and c = g(a)

This problem uses the Gamma function and u-substitution to show thatthe normal density integrates to 1 (usually shown with polar coordinates).When you perform the u-substitution, make sure you say what u = g(x),du = g′(x)dx, d = g(b), and c = g(a) are.

� a) Let f(x) be the pdf of a N(μ,σv2) random variable. Perform u-substitution on I =

´∞−∞ f (x) dx with u = (x=μ)/σv.

� b) Break the result into two parts,

I = 1√2Π

´ 0

−∞ e=u2/2du+ 1√

´∞0e=u

2/2dv

Then perform u-substitution on the �rst integral with v = =u.

� c) Since the two integrals are now equal,

I = 2√2Π

´∞0e=v

2/2dv = 2√2Π

´∞0e=v

2/2 1vvdv

Perform u-substitution with w = v2/2.

� d) Using the Gamma function, show that I = Γ(1/2)/√π = 1.

1.15,

1. 1.15. Let A and B be positive integers. A hypergeometric random variableX = W1 +W2 + · · ·+Wn where the random variables Wi are iden ticallydistributed random variables with P (Wi = 1) = A/(A+ B) and P (Wi =0) = B/(A+B).

a) Find E(W1).

b) Find E(X).

1.19,

1. 1.19. Suppose that the random variable W = eX where X ∼ N(μ,σv2).Find E(W r) = E[(eX)r] by recognizing the relationship of E[(eX)r] withthe moment generating function of a normal(μ,σv2) random variable.

11

Page 12: Estadistica

2. 2.1*. Let X1, ..., Xn be independent Poisson(λi). Let W =∑ni=1Xi. Find

the mgf of W and �nd the distribution of W .

3. 2.2*. Let X1, ..., Xn be iid Bernoulli(ρ). Let W =∑ni=1Xi. Find the mgf

of W and �nd the distribution of W .

4. 2.3*. Let X1, ..., Xn be iid exponential(λ). Let W =∑ni=1Xi. �nd the

mgf of Wand �nd the distribution of W .

5. 2.4*. Let X1, ..., Xn be independent N(μi,σv2i ). LetW =

∑ni=1 (ai + biXi) .

where ai and bi are �xed constants. Find the mgf of W and �nd thedistribution of W .

6. 2.5*. Let X1, ..., Xn be iid negative binomial(1, ρ). Let W =∑ni=1Xi.

Find the mgf of W and �nd the distribution of W .

7. 2.6*. Let X1, ..., Xn be independent gamma(νi, λ). Let W =∑ni=1Xi. .

Find the mgf of W and �nd the distribution of W .

8. 2.7*. Let X1, ..., Xn be independent χ2pi . Let W =

∑ni=1Xi. Find mgf of

W and �nd the distribution of W .

9. 2.8.

a) Let fY (y) be the pdf of Y . If W = μ+ Y where =∞ < μ <∞, showthat the pdf of W is fW (w) = fY (w=μ) .

b) Let fY (y) be the pdf of Y . If W = σvY where σv > 0, show that thepdf of W is fW (w) = (1/σv)fY (w/σv).

c) Let fY (y) be the pdf of Y . If W = μ+ σvY where =∞ < μ <∞ andσv > 0, show that the pdf of W is fW (w) = (1/σv)fY ((w=μ)/σv).

12