estadística i tema 4: probabilidad y modelos probabilísticos

Post on 06-Jan-2017

245 Views

Category:

Documents

7 Downloads

Preview:

Click to see full reader

TRANSCRIPT

Estadıstica ITema 4: Probabilidad y modelos probabilısticos

Tema 4. Probabilidad y modelos probabilısticos

Contenidos

I Probabilidad:

I Experimentos aleatorios, espacio muestral, sucesos elementales ycompuestos.

I Propiedades de la probabilidad. Probabilidad condicionada.

I Variables aleatorias y sus caracterısticas.

I Modelos de probabilidad discretos: Ensayos de Bernoulli ydistribuciones relacionadas.

I Modelos de probabilidad continuos: Distribucion uniforme ydistribucion normal.

I Introduccion a la distribucion normal bivariante.

Conceptos basicos

I Experimento aleatorio: proceso de observar un fenomeno cuyosresultados son inciertos.

I Espacio muestral: es el conjunto de todos los posibles resultados deun experimento aleatorio. Se denota por

Ω = e1, e2, . . . , en, . . .

donde cada uno de sus elementos se denomina suceso elemental.Estos son siempre disjuntos dos a dos.

I Suceso: un subconjunto del espacio muestral, es decir, un conjuntode sucesos elementales

A = e1, e3

Ejemplos:

I Resultado al lanzar una moneda.

I Precio de la accion x al cierre de sesion el proximo lunes.

Sucesos: conceptos basicos

Interseccion de sucesos: Si A y B son dos sucesos del espacio muestral Ω,entonces la interseccion, A ∩ B, es el conjunto de todos los sucesos de Ωque estan en A y en B.

Representacion en diagramas de Euler-Venn:

Sucesos: conceptos basicos

A y B son sucesos incompatibles si no tienen ningun suceso elemental encomun i.e., el conjunto A ∩ B es vacıo

Sucesos: conceptos basicos

Union de sucesos: Si A y B son dos sucesos de un espacio muestral Ω,entonces la union, A ∪ B, es el conjunto de todos los sucesos de Ω quepertenecen a cualquiera de los dos, A o B.

Sucesos: conceptos basicos

Sucesos triviales:

I Suceso seguro Ω: conjunto = espacio muestral

I Suceso imposible ∅: conjunto = conjunto vacıo

Complementario o suceso contrarioEl complementario de un suceso A es el conjunto de todos los sucesoselementales de Ω que no estan en A.

Ejemplo: lanzamiento de un dado

Consideremos el experimento aleatorio “resultado observado al lanzar undado”:

I suceso elemental: el 1, el 2, el 3, el 4, el 5, el 6

I espacio muestral: Ω = 1, 2, 3, 4, 5, 6I suceso: A = 2, 4, 6 B = 4, 5, 6

El suceso A es “sale un numero par”.El suceso B es “sale un numero mayor que tres”.

Ejemplo: lanzamiento de un dado

Ω = 1, 2, 3, 4, 5, 6 A = 2, 4, 6 B = 4, 5, 6

I Complementario:

A = 1, 3, 5 B = 1, 2, 3

I Interseccion:

A ∩ B = 4, 6 A ∩ B = 1, 3 = A ∪ B

I Union:

A ∪ B = 2, 4, 5, 6 A ∪ B = 1, 2, 3, 5 = A ∩ B

A ∪ A = 1, 2, 3, 4, 5, 6 = Ω

I Sucesos incompatibles:A ∩ A = ∅

I Notar que:

A ∩ B ⊂ A A ∩ B ⊂ B

A ⊂ A ∪ B B ⊂ A ∪ B

Probabilidad

Probabilidad clasica (regla de Laplace)Considera un experimento para el que todos los sucesos elementales sonequiprobables. Si tenemos k sucesos elementales,

P(A) =1

k× tamano de A

De esta manera, la probabilidad es una aplicacion que asigna a cadasuceso A un valor numerico P (A) ∈ [0, 1].

Propiedades de la probabilidad

I 0 ≤ P(A) ≤ 1.

I Sea A = e1, e2, . . . , en, entonces P(A) =∑n

i=1 P(ei ).

I P(Ω) = 1 y P(∅) = 0.

I Complementario: P(A) = 1− P(A).

I Union: P(A ∪ B) = P(A) + P(B)− P(A ∩ B).

I Si A y B son incompatibles (A ∩ B = ∅), entoncesP(A ∪ B) = P(A) + P(B).

Ejemplo: lanzamiento de un dado

I Probabilidad de un suceso elemental: P(ei ) = 16 , donde ei = i , para

i = 1, . . . , 6.

I Probabilidad de que salga par: A = 2, 4, 6, luego

P(A) = P(”2”) + P(”4”) + P(”6”) =1

6+

1

6+

1

6=

1

2

I Probabilidad de que salga mayor que 3: B = 4, 5, 6, luego

P(B) = P(”4”) + P(”5”) + P(”6”) =1

6+

1

6+

1

6=

1

2

I Probabilidad de que salga impar

P(A) = 1− P(A) = 1− 1

2=

1

2

Ejemplo: lanzamiento de un dado

I Probabilidad de que salga par (A =“par”) o mayor que tres(B =“mayor que 3”)

P(A ∪ B) = P(A) + P(B)− P(A ∩ B)

Como A ∩ B = 4, 6, entonces P(A ∩ B) = 26 = 1

3

P(A ∪ B) =1

2+

1

2− 1

3=

4

6=

2

3

I Probabilidad de que salga par o igual a uno.Los sucesos A = 2, 4, 6 y C = 1 son incompatibles (A ∩ C = ∅)por tanto

P(A ∪ C ) = P(A) + P(C ) =1

2+

1

6=

4

6=

2

3

Ejemplo: probabilidad condicional

I Jugamos a la ruleta y apostamos a los numeros 3, 13 y 22. ¿Cual esla probabilidad de ganar?

I El espacio muestral es Ω = 0, 1, 2, . . . , 36 por lo que el numero desucesos elementales es 37. Definimos el suceso A = ”nuestraapuesta” = 3, 13, 22 que contiene tres sucesos elementales.

I Por lo tanto, la probabilidad de ganar es P (A) = 337 .

I Justo antes de empezar la partida, nos dicen que la ruletaesta trucada de manera que siempre sale un numero impar. ¿Cual esahora nuestra probabilidad de ganar? ¿Es la misma que antes?

Probabilidad condicional

Probabilidad condicionalSean dos sucesos A y B tal que P(B) > 0, la probabilidad condicionadade A dado B es:

P(A|B) =P(A ∩ B)

P(B)

Ley de la multiplicacionSi P(B) > 0, se tiene que

P(A ∩ B) = P(A|B)P(B)

IndependenciaSe dice que dos sucesos A y B son independientes si

P(A ∩ B) = P(A)P(B).

Ademas, si P(B) > 0, P(A|B) = P(A) y si P(A) > 0, P(B|A) = P(B).

OBS: No confundir sucesos independientes con sucesos incompatibles.

Ejemplo: Probabilidad condicional

I Definimos el suceso B =“Siempre sale impar”= 1, 3, 5, . . . , 35,que contiene 18 sucesos elementales.

I Entonces, puesto que A ∩ B = 3, 13, la probabilidad condicionadanos queda:

P (A|B) =P (A ∩ B)

P (B)=

2371837

=2

18=

1

9

I Notar que cuando nos dicen que la ruleta esta trucada, el espaciomuestral deja de ser el inicial, pues nunca puede aparecer un numeropar, y se transforma en Ω∗ = B = 1, 3, 5, . . . , 35. La probabilidadde A en Ω∗ es ahora 1

9 .

I Puesto que P(A) 6= P (A ∩ B), los sucesos A y B no sonindependientes.

Ejemplos

De una baraja espanola, saco dos cartas sin reposicion. Probabilidad deque:

I la primera carta sea copa: P(A) = 1040 .

I la segunda sea copa, sabiendo que la primera lo fue: P(B|A) = 939 .

I las dos cartas sean copas: P(A ∩ B) = P(B|A)P(A) = 939

1040 .

Tiro dos dados. Probabilidad de que:

I en el primer dado salga un uno: P(C ) = 16 .

I en el segundo dado salga un uno, sabiendo que en el primerosalio uno: P(D|C ) = P(D) = 1

6 .

I en el primer dado salga un uno, si en el segundo salio uno:P(C |D) = P(C ) = 1

6 .

I en los dos dados salga uno: P(C ∩ D) = P(D)P(C ) = 1616 (sucesos

independientes)

Ley de la probabilidad totalUn conjunto de sucesos B1,B2, . . . ,Bk son mutuamente excluyentes si

Bi ∩ Bj = ∅, ∀i 6= j .

Si ademas de eso cumplen

Ω = B1 ∪ B2 ∪ . . . ∪ Bk ,

se dice que forman una particion del espacio muestral.

Ejemplo

I En la baraja espanola, los siguientes conjuntos de sucesos definenparticiones del espacio muestral:

I Ω = oros, copas, espadas, bastos .

I Ω = ases, treses, sotas, caballos, reyes, resto de cartas .

Ley de probabilidad total

Dada una particion del espacio muestral, B1,B2, . . . ,Bk , y dado unsuceso A, se tiene que

P(A) = P(A ∩ B1) + P(A ∩ B2) + . . .+ P(A ∩ Bk) =

= P(A|B1)P(B1) + P(A|B2)P(B2) + . . .+ P(A|Bk)P(Bk).

Ejemplo: probabilidad total

I En una baraja espanola (48 cartas), calcular la probabilidad de sacarun as, utilizando la ley de la probabilidad total.

I Los cuatro palos de la baraja espanola establecen la particion delespacio muestral dada por Ω = oros, copas, espadas, bastos, porlo que:

P (Ω) = P (oros) + P (copas) + P (espadas) + P (bastos) =

=1

4+

1

4+

1

4+

1

4

I Si definimos el suceso A =“as”, entonces:

P (A) = P (A|oros)P (oros) + P (A|copas)P (copas) +

P (A|espadas)P (espadas) + P (A|bastos)P (bastos) =

=1

12

12

48+

1

12

12

48+

1

12

12

48+

1

12

12

48=

4

48=

1

12

I Ahora si la carta extraıda es un as, ¿cual es la probabilidad que seael as de copas? Necesitamos invertir las condiciones.

Inversion de las condiciones: Teorema de Bayes

Para dos sucesos A y B se tiene que

P(A|B) =P(A ∩ B)

P(B)=

P(B|A)P(A)

P(B)

Este Teorema se aplica en situaciones en las que la probabilidad P(B|A)es conocida.

Ejemplo: (continuacion del anterior) si la carta extraıda es un as, ¿cuales la probabilidad que sea el as de copas?

P(copas|A) =P(A|copas)P(copas)

P(A)=

112

14

112

=1

4

Ejemplo

I Un gato quiere pescar un pez en una pecera que contiene tres pecesamarillos y dos negros con rayas blancas. Suponiendo que pesque unpez, ¿cual es la probabilidad de que sea un pez rayado?Si R =“rayado”, entonces:

P (R) =2

5

I Suponiendo que pesque dos peces, ¿cual es la probabilidad de quepesque uno rayado y uno amarillo?Si R1 =“el primero es rayado”, R2 =“el segundo es rayado”, A1 =“elprimero es amarillo” y A2 =“el segundo es amarillo”, entonces:

P (R1 ∩ A2) + P (A1 ∩ R2) = P (A2|R1)P (R1) + P (R2|A1)P (A1) =

=3

4

2

5+

2

4

3

5=

6

20+

6

20=

12

20=

3

5

Ejemplo

I Suponiendo que pesque dos peces y sabiendo que el segundo erarayado, ¿cual es la probabilidad de que el primero no lo fuera?

P (A1|R2) =P (R2|A1)P (A1)

P (R2)=

P (R2|A1)P (A1)

P (R2|A1)P (A1) + P (R2|R1)P (R1)=

=2435

2435 + 1

425

=620

620 + 2

20

=6

8=

3

4

Variables aleatorias

I Sea Ω el espacio muestral asociado a cierto experimento aleatorio.

I Se denomina variable aleatoria (v.a.) a una funcion X : Ω −→ R, talque a cada elemento ei ∈ Ω le asigna un valor numericoX (ei ) = xi ∈ R.

I Intuitivamente, una variable aleatoria es una medida o cantidad quevarıa en funcion del resultado concreto ei que se observa al realizarel experimento aleatorio.

I La v.a. se denota con letras mayusculas, mientras que las letrasminusculas indican el valor concreto que toma la v.a. cuando seevalua en un punto muestral.

I OBS: Las variables estadısticas que hemos visto en los temas 1, 2 y3 son el resultado de evaluar las v.a. correspondientes en muestrasde individuos.

Variables aleatorias

V.a. discretaSi X toma valores sobre un conjunto S ⊆ R finito o infinito numerable,se dice que X es una variable aleatoria discreta.

V.a. continuaSi X toma valores sobre un conjunto S ⊆ R infinito no numerable (porejemplo, en un intervalo o en una union de intervalos de R), se dice queX es una variable aleatoria continua.

Ejemplos

I X =“Resultado al tirar un dado” es una variable discreta dondeS = 1, 2, 3, 4, 5, 6.

I Y =“Numero de coches que pasan por un cierto peaje en unasemana” es una variable discreta donde S = 0, 1, 2, . . . = N ∪ 0 esinfinito numerable.

I Z = “altura de un alumno elegido al azar” es una variable continuadonde S = [0,+∞).

Variables aleatorias discretas

Funcion de probabilidadSea X una variable aleatoria discreta con posibles valores x1, x2, . . .. Sellama funcion de probabilidad o funcion de masa, al conjunto deprobabilidades con las que X toma cada uno de sus valores, es decir,pi = P[X = xi ], para i = 1, 2, . . . .

EjemploX = resultado de lanzar un dado. La funcion de probabilidad es

x 1 2 3 4 5 6P[X = x ] 1

616

16

16

16

16

En este caso, S = 1, 2, 3, 4, 5, 6 y p1 = . . . = p6 = 16 .

Variables aleatorias discretas

Funcion de probabilidad. Propiedades

Sea X una variable aleatoria discreta que toma valores en el conjuntoS = x1, x2 . . . con probabilidades p1 = P(X = x1), p2 = P(X = x2),. . .

I 0 ≤ P[X = xi ] ≤ 1.

I∑i

P[X = xi ] = 1.

I P[X ≤ x ] =∑i,xi≤x

P[X = xi ].

I P[X > x ] = 1− P[X ≤ x ].

EjemploI Un juego consiste en ensartar 3 aros, uno a uno, en una pica.

Participar cuesta 3 euros. Los premios son 4 euros por un acierto, 6euros por dos aciertos y 30 euros por tres aciertos. Suponemos quela probabilidad de ensartar un aro es de 0.1 en cada tiro, y que lostiros son independientes.

I Definimos la v.a. X como la ganancia en el juego. El espaciomuestral esta dado por:

Ω = (f , f , f ) , (a, f , f ) , (f , a, f ) , (f , f , a) ,

(a, a, f ) , (a, f , a) , (f , a, a) , (a, a, a)

donde a denota acierto y f denota fallo. Por lo tanto, X solo admitecuatro posibles resultados con las siguientes probabilidades:

P (X = −3) = 0,93 = 0,729

P (X = 1) = 3× 0,1× 0,92 = 0,243

P (X = 3) = 3× 0,12 × 0,9 = 0,027

P (X = 27) = 0,13 = 0,001

Ejemplo

I ¿Cual es la probabilidad de ganar 3 o mas euros, descontando los 3euros por participar?

P (X ≥ 3) = P (X = 3) + P (X = 27) = 0,027 + 0,001 = 0,028

I ¿Cual es la probabilidad de no perder dinero?

P (X ≥ 0) = P (X = 1) + P (X = 3) + P (X = 27) =

= 0,243 + 0,027 + 0,001 = 0,271

o lo que es lo mismo:

P (X ≥ 0) = 1− P (X < 0) = 1− P (X = −3) = 1− 0,729 = 0,271

Variables aleatorias discretas

Funcion de distribucionLa funcion de distribucion o funcion de probabilidad acumulada de unavariable aleatoria X es una aplicacion F : R→ [0, 1], que a cada valorx ∈ R le asigna la probabilidad:

F (x) = P[X ≤ x ] =∑

xi∈S,xi≤x

P (X = xi )

OBS: Esta definida para todo x ∈ R y no solo para los valores de X .

I 0 ≤ F (x) ≤ 1 para todo x ∈ R.

I F (y) = 0 para todo y < mın S . Por tanto, F (−∞) = 0.

I F (y) = 1 para todo y > max S . Por tanto, F (∞) = 1.

I Si x1 ≤ x2, entonces F (x1) ≤ F (x2), es decir, F (x) es nodecreciente.

I Para todo a, b ∈ R,P (a < X ≤ b) = P (X ≤ b)− P (X ≤ a) = F (b)− F (a).

Ejemplo

I La funcion de probabilidad de la variable X en el ejemplo del juegoes la siguiente:

P (X = x) =

0,729 x = −30,243 x = 10,027 x = 30,001 x = 27

I La funcion de distribucion de la variable X en el ejemplo del juego esla siguiente:

F (x) = P (X ≤ x) =

0 x < −3

0,729 −3 ≤ x < 10,729 + 0,243 = 0,972 1 ≤ x < 3

0,729 + 0,243 + 0,027 = 0,999 3 ≤ x < 270,729 + 0,243 + 0,027 + 0,001 = 1 27 ≤ x

I Notar que esta funcion presenta discontinuidades de salto en lospuntos del conjunto S . El salto es de magnitud P (X = x), paratodo x ∈ S .

Esperanza de una variable aleatoria discreta

Sea X una v.a. discreta que toma valores en S = x1, x2, . . . conprobabilidades p1 = P (X = x1) , p2 = P (X = x2) , . . . Entonces, laesperanza de X esta dada por:

E [X ] =∑x∈S

xP (X = x) =∑i

xiP (X = xi ) =∑i

xipi

Se verifican las siguientes propiedades:

I Si a, b ∈ R, entonces:

E [a + bX ] = a + bE [X ]

I Sea g una funcion real. Entonces:

E [g (X )] =∑x∈S

g (x)P (X = x)

Ejemplo

La esperanza de la variable aleatoria X del ejemplo del juego es lasiguiente:

E [X ] =∑x∈S

xP (X = x) =

= −3× P (X = −3) + 1× P (X = 1) + 3× P (X = 3) + 27× P (X = 27) =

= −3× 0,729 + 1× 0,243 + 3× 0,027 + 27× 0,001 = −1,836

Por lo tanto, la ganancia esperada es de −1,836 euros.

Varianza de una variable aleatoria discreta

La varianza de la v.a. discreta X esta dada por:

V [X ] = E[(X − E [X ])2

]=∑x∈S

(x − E [X ])2 P (X = x) =

=∑i

(xi − E [X ])2 P (X = xi ) =∑i

(xi − E [X ])2 pi

Se verifican las siguientes propiedades:

I La varianza se puede escribir tambien como:

V [X ] = E[X 2]− E [X ]2

I V [X ] ≥ 0 y Var [X ] = 0 si, y solo si, X es una constante.

I Si a, b ∈ R, entonces:

V [a + bX ] = b2V [X ]

La raız cuadrada de la varianza se denomina desviacion tıpica y se denotapor S [X ] =

√V [X ].

Ejemplo

La varianza de la variable aleatoria X del ejemplo del juego es lasiguiente:

V [X ] = E[X 2]− E [X ]2 = 7,776− (−1,836)2 = 4,405

donde:

E[X 2]

= (−3)2× 0,729 + 12× 0,243 + 32× 0,027 + 272× 0,001 = 7,776

La desviacion tıpica es por tanto S [X ] =√

4,405 = 2,0988.

Ejemplo

Consideramos la v.a. discreta X = numero de caras al tirar una monedados veces. La funcion de probabilidad de X es:

x 0 1 2P[X = x ] 1

412

14

Por un lado, su esperanza viene dada por:

E [X ] = 0× 1

4+ 1× 1

2+ 2× 1

4= 1

mientras que su varianza es:

Var [X ] = E [X 2]− E [X ]2 =3

2− 12 =

1

2

donde:

E [X 2] = 02 × 1

4+ 12 × 1

2+ 22 × 1

4=

3

2

Desigualdad de Chebyschev

Este resultado es util para estimar una probabilidad cuando se desconocela distribucion de probabilidad de una v.a. discreta X .Si X es una v.a. con esperanza y varianza finitas, entonces para todok ≥ 1:

P (|X − E [X ]| ≥ k) ≤ V (X )

k2

o, equivalentemente,

P (|X − E [X ]| < k) ≥ 1− V (X )

k2

OBS: La cota que proporciona la desigualdad de Chebyschev esdemasiado gruesa y solo debe utilizarse cuando no se disponga de ladistribucion de X .

Desigualdad de Chebyschev

Veamos como aplicar la desigualdad de Chebyschev con la variablealeatoria del ejemplo del juego. Tenemos que E [X ] = −1,836 y queV [X ] = 4,405. Entonces:

P (|X + 1,836| ≥ 3) ≤ 4,405

9= 0,4894

Por otro lado, tenemos que:

P (|X + 1,836| ≥ 3) = P (X + 1,836 ≥ 3) + P (X + 1,836 ≤ −3) =

= P (X ≥ 1,164) + P (X ≤ −4,836) =

= P (X = 3) + P (X = 27) = 0,027 + 0,001 = 0,028

que demuestra que la cota de Chebyschev puede ser muy gruesa.

Ejemplo de repaso

I Sea X , la variable aleatoria que representa el numero de caras menosel numero de cruces en 3 tiradas de una moneda trucada de maneraque es dos veces mas probable que salga cara que cruz.

I Indicamos por “c”=cara y “+”=cruz.

I El espacio muestral es:

Ω =

e1 = c , c , c , e2 = +, c , c , e3 = c ,+, c , e4 = c , c ,+ ,

e5 = +,+, c , e6 = +, c ,+ , e7 = c ,+,+ , e8 = +,+,+

Ejemplo de repaso

I El conjunto S donde toma valores es S = −3,−1, 1, 3 ya que:

X (e1) = 3− 0 = 3

X (e2) = X (e3) = X (e4) = 2− 1 = 1

X (e5) = X (e6) = X (e7) = 1− 2 = −1

X (e8) = 0− 3 = −3

I La funcion de probabilidad viene dada por:

P (X = x) =

P (X = −3) =

(13

)3= 1

27

P (X = −1) = 3×(13

)2 × 23 = 2

9

P (X = 1) = 3× 13 ×

(23

)2= 4

9

P (X = 3) =(23

)3= 8

27

Ejemplo de repaso

I Supongamos que participamos en el siguiente juego para el que hayque pagar de inicio 6 euros. Si al lanzar 3 veces la moneda anterioraparece 1 cruz, ganamos 4 euros, si aparecen 2 cruces ganamos 6euros y si aparecen 3 cruces ganamos 30 euros. ¿Cual es la gananciaesperada?

I Sea Y la variable ganancia en el juego. Entonces:

I Si no obtenemos ninguna cruz, tenemos que X = 3, por lo queY = −6 con probabilidad P (Y = −6) = P (X = 3) = 8

27.

I Si obtenemos una cruz, tenemos que X = 1, por lo que Y = −2 conprobabilidad P (Y = −2) = P (X = 1) = 4

9.

I Si obtenemos dos cruces, tenemos que X = −1, por lo que Y = 0con probabilidad P (Y = 0) = P (X = −1) = 2

9.

I Si obtenemos tres cruces, tenemos que X = −3, por lo que Y = 24con probabilidad P (Y = 24) = P (X = −3) = 1

27.

I Por lo tanto, Y toma valores en el conjunto S = −6,−2, 0, 24. Laganancia esperada es:

E [Y ] = −6× 8

27− 2× 4

9+ 0× 2

9+ 24× 1

27= −1,78 euros

Modelo Bernoulli

DescripcionPartimos de un experimento aleatorio con solo dos posibles resultados,que calificamos de exito/fracaso.Definimos la variable aleatoria:

X =

1 si exito0 si fracaso

Sea p la probabilidad de exito. Entonces, 1− p es la probabilidad defracaso.

El experimento se llama ensayo de Bernoulli y la variable aleatoria se diceque sigue una distribucion Bernoulli de parametro p.

Se escribe X ∼ Ber(p).

Modelo Bernoulli

EjemploTirar una moneda al aire

X =

1 sale cara0 si sale cruz

Es un ensayo Bernoulli, y X sigue una distribucion Bernoulli deparametro 1/2.

EjemploUna lınea aerea estima que los pasajeros que compran un billete para unvuelo tienen una probabilidad igual a 0,05 de no presentarse al embarquede dicho vuelo.Definamos

Y =

1 si el pasajero se presenta0 si no lo hace

Y sigue una distribucion Bernoulli con parametro 0,95.

Modelo Bernoulli

Funcion de Probabilidad:

P[X = 0] = 1− p P[X = 1] = p

Funcion de distribucion:

F (x) =

0 si x < 0

1− p si 0 ≤ x < 11 si x ≥ 1

Propiedades

I E [X ] = p × 1 + (1− p)× 0 = p

I E [X 2] = p × 12 + (1− p)× 02 = p

I V [X ] = E [X 2]− E [X ]2 = p − p2 = p(1− p)

I S [X ] =√p(1− p)

Modelo Binomial

DescripcionUn ensayo Bernoulli de parametro p se repite n veces de maneraindependiente. La variable numero de exitos obtenidos, sigue unadistribucion Binomial (de parametros n y p).

DefinicionUna variable X sigue una distribucion binomial con parametros n y p si

P[X = x ] =

(nx

)px(1− p)n−x

para x = 0, 1, . . . , n donde(nx

)=

n!

x!(n − x)!

Se escribe X ∼ B(n, p).

Modelo Binomial

EjemploLa lınea aerea del ejemplo anterior ha vendido 80 billetes para un vuelo.La probabilidad de que un pasajero no se presente al embarque es de0, 05. Definimos X = numero de pasajeros que se presentan. Entonces(suponiendo independencia)

X ∼ B(80, 0,95)

I La probablidad de que los 80 pasajeros se presenten

P[X = 80] =

(8080

)0,9580 × (1− 0,95)80−80 = 0,0165

I La probabilidad de que al menos un pasajero no se presente:

P[X < 80] = 1− P[X = 80] = 1− 0,0165 = 0,9835

Modelo Binomial

Propiedades

I E [X ] = np

I Var [X ] = np(1− p)

I S [X ] =√np(1− p)

Variables aleatorias continuas

Funcion de distribucionPara X v.a. continua, la funcion de distribucion es la funcionF (x) = P[X ≤ x ],∀x ∈ R

Igual que en el caso discreto, la funcion F (x) da las probabilidadesacumuladas hasta el punto x ∈ R, pero ahora se trata de una funcioncontinua y no de tipo escalon.

Variables aleatorias continuas

Propiedades

I 0 ≤ F (x) ≤ 1, para todo x ∈ RI F (−∞) = 0.

I F (∞) = 1.

I Si x1 ≤ x2, entonces F (x1) ≤ F (x2), es decir, F (x) es no decreciente.

I Para todo x1, x2 ∈ R, P(x1 ≤ X ≤ x2) = F (x2)− F (x1).

I F (x) es continua.

La funcion de probabilidad no tiene sentido en variables aleatoriascontinuas, porque P(X = x) = 0. Para sustituir la funcion deprobabilidad, en variables aleatorias continuas usaremos la funcion dedensidad.

Variables aleatorias continuas

Funcion de densidadPara una variable aleatoria continua X con funcion de distribucion F (x),la funcion de densidad de X es:

f (x) =dF (x)

dx= F ′(x)

Propiedades

I f (x) ≥ 0 ∀x ∈ R

I P(a ≤ X ≤ b) =∫ b

af (x)dx ∀a, b ∈ R

I F (x) = P(X ≤ x) =∫ x

−∞ f (u)du

I∫∞−∞ f (x)dx = 1

Variables aleatorias continuas

EjemploUna variable aleatoria X tiene funcion de densidad

f (x) =

12x2(1− x) si 0 < x < 1

0 si no

Entonces:

P(X ≤ 0,5) =

∫ 0,5

−∞f (u)du =

∫ 0,5

0

12u2(1− u)du = 0,3125

P(0,2 ≤ X ≤ 0,5) =

∫ 0,5

0,2

f (u)du =

∫ 0,5

0,2

12u2(1− u)du = 0,2853

F (x) = P(X ≤ x) =

∫ x

−∞f (u)du =

0 si x ≤ 0

12(

x3

3 −x4

4

)si 0 < x ≤ 1

1 si x > 1

Esperanza de una variable aleatoria continua

Sea X una v.a. continua que toma valores en S ⊆ R, con funcion dedensidad f (x) . Entonces, la esperanza de X esta dada por:

E [X ] =

∫S

xf (x) dx

Se verifican las siguientes propiedades:

I Si a, b ∈ R, entonces:

E [a + bX ] = a + bE [X ]

I Sea g una funcion real. Entonces:

E [g (X )] =

∫S

g (x) f (x) dx

Ejemplo

La esperanza de la variable aleatoria X del ejemplo anterior es lasiguiente:

E [X ] =

∫Rx · f (x)dx =

∫ 1

0

x · 12x2(1− x)dx =

=

∫ 1

0

(12(x3 − x4)

)dx = 12

(1

4x4 − 1

5x5) ∣∣1

0 = 12

(1

4− 1

5

)=

3

5

Varianza de una variable aleatoria continua

La varianza de la v.a. continua X esta dada por:

V [X ] = E[(X − E [X ])2

]=

∫S

(x − E [X ])2 f (x)dx =

=

∫S

x2f (x)dx − E [X ]2 = E[X 2]− E [X ]2

Se verifican las siguientes propiedades:

I V [X ] ≥ 0 y Var [X ] = 0 si, y solo si, X es una constante.

I Si a, b ∈ R, entonces:

V [a + bX ] = b2V [X ]

La raız cuadrada de la varianza se denomina desviacion tıpica y se denotapor S [X ] =

√V [X ].

Ejemplo

La varianza de la variable aleatoria X del ejemplo anterior es la siguiente:

Var [X ] = E[X 2]− E [X ]2 =

2

5−(

3

5

)2

=2

5− 9

25=

1

25

donde:

E[X 2]

=

∫Rx2f (x)dx =

∫ 1

0

12x4(1− x)dx =12

5x5|x=1

x=0 −12

6x6|x=1

x=0 =

=12

5− 2 =

2

5

La desviacion tıpica es por tanto S [X ] =√

125 = 1

5 .

Distribucion uniforme

DescripcionLa distribucion uniforme es aquella en la que todos los intervalos de iguallongitud en su rango son igualmente probables. Es decir, que la funcionde densidad es constante para todos los valores posibles de la variable.

DefinicionSe dice que una variable X sigue una distribucion uniforme en el intervalo(a, b) (sus parametros son a y b) si

f (x) =

1

b−a si a < x ≤ b

0 si no

Se escribe X ∼ U(a, b).

Distribucion uniforme

Propiedades

I Esperanza: E [X ] = a+b2

I Varianza: V [X ] = (b−a)212

I Desviacion tıpica:S [X ] = b−a√

12

Funcion de densidad

Ejemplo: distribucion uniforme en (3,5)

Una variable aleatoria X que sigue una distribucion uniforme en elintervalo (3, 5) tiene funcion de densidad

f (x) =

12 si 3 < x < 50 si no

Calculamos algunas probabilidades:

P(X ≤ 0,5) =∫ 0,5

−∞ f (u)du = 0

P(X ≤ 4) =∫ 4

−∞ f (u)du =∫ 4

312du = 1

2u|43 = 1

2

P(3,5 ≤ X ≤ 4,5) =∫ 4,5

3,5f (u)du =

∫ 4,5

3,512du = 1

2

Ejemplo: distribucion uniforme en (3,5)

Funcion de distribucion

F (x) = P(X ≤ x) =

∫ x

−∞f (u)du = . . .

I Si x ≤ 3 entonces F (x) = P(X ≤ x) = 0.

I Si 3 < x ≤ 5 entonces F (x) = P(X ≤ x) =∫ x

312du = u

2 |x3 = x−3

2 .

I Si 5 < x entonces F (x) = P(X ≤ x) =∫ 5

312du = u

4 |53 = 5−3

2 = 1.

Es decir, que:

F (x) =

0 si x ≤ 3

x−32 si 3 < x ≤ 51 si x > 5

Ejemplo: distribucion uniforme en (3,5)

Esperanza

E [X ] =∫R x · f (x)dx =

∫ 5

3x · 12dx = x2

4

∣∣∣53

= 52−324 = 4

Varianza

Var [X ] =∫R x2 · f (x)dx − E [X ]2

=∫ 5

3x2

2 dx − 42 = x3

6

∣∣∣53− 16 = 0,33

Distribucion normal

DescripcionLa distribucion normal es un modelo teorico que aproxima bien muchassituaciones reales. La inferencia estadıstica se fundamenta basicamenteen la distribucion normal y en distribuciones que se derivan de ella.

DefinicionSe dice que una variable X sigue una distribucion normal o Gausiana conparametros µ y σ, y se denota por X ∼ N (µ, σ), si

f (x) =1

σ√

2πexp

− 1

2σ2(x − µ)2

PropiedadesE [X ] = µ V [X ] = σ2

Si X ∼ N (µ, σ), f (x) es simetrica respecto de µ.

Distribucion normal

Funcion de densidad para 3 valores distintos de µ y σ

Distribucion normal

PropiedadSi X ∼ N (µ, σ),

I P(µ− σ < X < µ+ σ) ≈ 0,683

I P(µ− 2σ < X < µ+ 2σ) ≈ 0,955

I P(µ− 3σ < X < µ+ 3σ) ≈ 0,997

Desigualdad de ChebyshevLa desigualdad de Chebyschev tambien se puede aplicar en el caso devariables continuas. En particular, si X es Gaussiana de media µ ydesviacion tıpica σ, tenemos que:

P (µ− k < X < µ+ k) = P (|X − µ| < k) ≥ 1− σ2

k2

de donde, si k = cσ, tenemos que P (µ− cσ < X < µ+ cσ) ≥ 1− 1c2 .

Distribucion normal

Transformacion linealSi X ∼ N (µ, σ), entonces:

Y = aX + b ∼ N (aµ+ b, |a|σ)

EstandarizacionSi X ∼ N (µ, σ), considero

Z =X − µσ

∼ N (0, 1)

Se llama distribucion normal estandar. Es una distribucion simetrica ycentrada en 0. Ademas, esta tabulada por lo que no tenemos que haceruso de integrales para obtener probabilidades.

Tablas de la N (0, 1)N (0, 1)N (0, 1)

Distribucion normal: Ejemplo

Sea Z ∼ N(0, 1). Calculemos algunas probabilidades:

I Pr(Z < 1,5) = 0,9332. tabla

I Pr(Z > −1,5) = Pr(Z < 1,5) = 0,9332. ¿por que?

I Pr(Z < −1,5) = Pr(Z > 1,5) = 1− Pr(Z < 1,5) = 1− 0,9332 =0,0668. ¿por que no ≤?

I Pr(−1,5 < Z < 1,5) = Pr(Z < 1,5)− Pr(Z < −1,5) =0,9332− 0,0668 = 0,8664.

Distribucion normal: Ejemplo

Sea X ∼ N(µ = 2, σ = 3). Queremos calcular Pr(X < 4) yPr(−1 < X < 3,5):

I En primer lugar, tipificamos la variable original como sigue:

Pr(X < 4) = P

(X − 2

3<

4− 2

3

)= Pr

(Z < 0,666

)≈ 0,7454,

donde Z ∼ N(0, 1).

I A continuacion, buscamos :

Pr(−1 < X < 3,5) = Pr(−1− 2 < X − 2 < 3,5− 2)

= P

(−1− 2

3<

X − 2

3<

3,5− 2

3

)= Pr(−1 < Z < 0,5) =

= Pr(Z < 0,5)− Pr(Z < −1) = 0,6915− 0,1587 = 0,5328.

donde Z ∼ N(0, 1).

Distribucion normal: otro ejemplo

Es difıcil etiquetar la carne empaquetada con su peso correcto debido alos efectos de perdida de lıquido (definido como porcentaje del pesooriginal de la carne). Supongamos que la perdida de lıquido en unpaquete de pechuga de pollo se distribuye como normal con media 4 % ydesviacion tıpica 1 %.

Sea X la perdida de lıquido de un paquete de pechuga de pollo elegido alazar.

I ¿Cual es la probabilidad de que 3 % < X < 5 %?

I ¿Cual es el valor de x para que un 90 % de paquetes tengan perdidasde lıquido menores que x?

I En una muestra de 4 paquetes, hallar la probabilidad de que todostengan perdidas de peso de entre 3 y 5 %.

Sexauer, B. (1980) Drained-Weight Labelling for Meat and Poultry: An

Economic Analysis of a Regulatory Proposal, Journal of Consumer Affairs, 14,

307-325.

Distribucion normal: otro ejemplo

Pr(3 < X < 5) = Pr

(3− 4

1<

X − 4

1<

5− 4

1

)= Pr(−1 < Z < 1)

= Pr(Z < 1)− Pr(Z < −1) = 0,8413− 0,1587 = 0,6827

Queremos Pr(X < x) = 0,9. Entonces

Pr

(X − 4

1<

x − 4

1

)= Pr(Z < x − 4) = 0,9

Mirando las tablas, tenemos x − 4 ≈ 1,28 que implica que un 90 % de laspaquetes tienen perdidas de menores que x = 5,28 %.

Para un paquete p = Pr(3 < X < 5) = 0,6827. Sea Y el numero depaquetes en la muestra de 4 paquetes que tienen perdidas de entre 3 % y5 %. Luego Y ∼ B(4, 0,6827).

Pr(Y = 4) =

(4

4

)0,68274(1− 0,6827)0 = 0,2172.

Distribucion normal: otro ejemplo

Si la muestra fuera de 5 paquetes, ¿cual seria la probabilidad que por lomenos una tuviera perdidas de entre el 3 % y 5 %? Tenemos que n = 5 yp = 0,6827. Por lo tanto, Y ∼ B(5, 0,6827). Entonces,

Pr(Y ≥ 1) = 1− Pr(Y < 1) = 1− Pr(Y = 0) =

= 1−(

5

0

)0,68270(1− 0,6827)5−0 = 1− (1− 0,6827)5 = 0,9968.

Teorema central del lımite

El siguiente teorema nos habla de la distribucion de la media de unconjunto de muchas v.a. independientes e igualmente distribuidas:

X =1

n

n∑i=1

Xi

y nos dice que si n es grande, la distribucion de la media de v.a.independientes e identicamente distribuidas es normal, sea cual sea ladistribucion de las v.a. De aquı el papel “central” que juega ladistribucion normal.

TeoremaSean X1,X2, . . . ,Xn v.a. independientes, e identicamente distribuidas conmedia µ y desviacion tıpica σ (ambas finitas). Si n es suficientementegrande, se tiene que

X − µσ/√n∼ N (0, 1)

Aproximaciones

BinomialSi X ∼ B(n, p) con n suficientemente grande (o bien n ≥ 30 y0,1 ≤ p ≤ 0,9 o bien np ≥ 5 y n (1− p) ≥ 5), entonces:

X − np√np(1− p)

∼ N (0, 1)

TCL y aproximaciones: Ejemplo

I Sea X ∼ B(100, 1/3). Bucamos el valor de Pr(X < 40), si bien elcalculo exacto es muy largo ya que necesitamos un gran numero deoperaciones.

I Utilizando el TCL tenemos que X ∼ B(100, 1/3) ≈ N (33,3, 4,714) ,ya que:

E [X ] = 100× 1

3= 33.3

V [X ] = 100× 1

3× 2

3= 22.2

S [X ] =√

22.2 = 4,714

I Por lo tanto,

Pr(X < 40) = P

(X − 33.3

4,714<

40− 33.3

4,714

)≈ P (Z < 1,414) donde Z ∼ N(0, 1)

≈ 0,921.

Funcion de distribucion conjunta de dos variables

I La funcion de distribucion conjunta de dos variables aleatoriascontinuas X e Y es una aplicacion F : R2 → [0, 1], tal que a cadavalor (x , y) ∈ R2 le asigna la probabilidad:

F (x , y) = P(X ≤ x ,Y ≤ y) =

∫ x

−∞

∫ y

−∞f (x , y) dydx ,

donde f (x , y) es la funcion de densidad conjunta de la variablealeatoria (X ,Y ).

I La funcion de densidad conjunta, f (x , y), verifica tres propiedades:

1. f (x , y) ≥ 0, para cualquier par (x , y) ∈ R2.

2. P(a ≤ X ≤ b, c ≤ Y ≤ d) =∫ b

a

∫ d

cf (x , y) dydx .

3.∫∞−∞

∫∞−∞ f (x , y) dydx = 1.

Distribuciones marginales y condicionadasI Las funciones de densidad marginales de las variables aleatorias

continuas X e Y estan dadas por:

fX (x) =

∫ ∞−∞

f (x , y) dy y fY (y) =

∫ ∞−∞

f (x , y) dx

respectivamente.

I Las variables aleatorias continuas X e Y se dice que sonindependientes si y solo si:

f (x , y) = fX (x) fY (y)

siendo fX y fY las funciones de densidad marginales de X y de Y ,respectivamente.

I La funcion de densidad condicional de la variable continua Y , dadoel valor X = x0 de la variable aleatoria X , esta dada por:

fY |X (y |X = x0) =f (x0, y)

fX (x0)

Esperanza y covarianza

I La esperanza de la variable aleatoria (X ,Y ) es el vector formado porlas esperanzas de las distribuciones marginales de X e Y :

E

[(XY

)]=

(E [X ]E [Y ]

)I La covarianza entre dos variables aleatorias X e Y se define como:

cov [X ,Y ] = E [(X − E [X ]) (Y − E [Y ])]

y permite medir como cambian X e Y de forma conjunta.

I Si valores grandes de X se corresponden con valores grandes de Y , ylo mismo ocurre con los valores pequenos, cov [X ,Y ] sera positiva.Si valores grandes de X se corresponden con valores pequenos de Y ,y viceversa, cov [X ,Y ] sera negativa.

I Notar que la covarianza depende crucialmente de las unidades demedida de las variables X e Y lo que hace difıcil su interpretacion.

Coeficiente de correlacion

I El coeficiente de correlacion entre dos variables aleatorias X e Y sedefine como:

corr [X ,Y ] =cov [X ,Y ]√V [X ]V [Y ]

donde cov [X ,Y ] es la covarianza entre X e Y y V [X ] y V [Y ] sonlas varianzas de X e Y , respectivamente.

I Notar que −1 ≤ corr [X ,Y ] ≤ 1 independientemente de las unidadesde medida de X e Y .

I corr [X ,Y ] solamente mide relaciones lineales.

I Un valor de corr [X ,Y ] proximo a 1 indica una alta relacion linealpositiva entre X e Y . Un valor de corr [X ,Y ] proximo a −1 indicauna alta relacion lineal negativa entre X e Y . Por ultimo, un valor decorr [X ,Y ] proximo a 0 indica una relacion lineal debil entre X e Y .

Matriz de covarianzas

I La matriz de covarianza de una variable aleatoria (X ,Y ) es unamatriz de tamano 2× 2 dada por:

C [X ,Y ] =

(V [X ] cov [X ,Y ]

cov [X ,Y ] V [Y ]

)es decir, C [X ,Y ] contiene las varianzas de X e Y en la diagonalprincipal y la covarianza entre X e Y fuera de la diagonal principal.

La distribucion Gaussiana bivariante

I Se dice que una variable (X ,Y ) sigue una distribucion normal oGaussiana bivariante con parametros µ = (µX , µY )′ y matriz decovarianzas:

Σ =

(σ2X σXY

σXY σ2Y

)y se denota por (X ,Y ) ∼ N2 (µ,Σ) si tiene funcion de densidad:

f (x , y) =1

2π |Σ|1/2exp

(−1

2(X − µX ,Y − µY )

(σ2X σXY

σXY σ2Y

)−1(X − µX

Y − µY

))

I Notar que µX = E [X ], µY = E [Y ], σ2X = V [X ], σ2

Y = V [Y ] yσXY = cov [X ,Y ].

La distribucion Gaussiana bivariante

I La varianza generalizada es el valor de:

|Σ| = σ2Xσ

2Y − σ2

XY = σ2Xσ

2Y

(1− corr [X ,Y ]2

)y mide la dispersion global de la variable bivariante (X ,Y ). Notarcomo la varianza generalizada disminuye si corr [X ,Y ] tiende a ±1 yaumenta si corr [X ,Y ] tiende a 0.

I Por ultimo, la matriz Σ−1 se puede escribir como:

Σ−1 =1

σ2Xσ

2Y − σ2

XY

(σ2Y −σXY

−σXY σ2X

)

Densidad Gaussiana bivariante µ = (0, 0)′, σ2X = σ2

Y = 1 yσXY = 0, 0,9 y −0,9, respectivamente

x1

−4

−2

0

2

4

x2

−4

−2

0

2

40.05

0.10

0.15

x1

−4

−2

0

2

4

x2

−4

−2

0

2

4

0.0

0.1

0.2

0.3

x1

−4

−2

0

2

4

x2

−4

−2

0

2

4

0.0

0.1

0.2

0.3

Esperanza y varianza condicionalI Si (X ,Y ) sigue una distribucion Gaussiana bivariante con

parametros µ = (µX , µY )′ y matriz de covarianzas

Σ =

(σ2X σXY

σXY σ2Y

)entonces:

I X ∼ N(µX , σ

2X

)e Y ∼ N

(µY , σ

2Y

), respectivamente.

I X e Y son independientes si y solo si σXY = 0.I Y |X = x0 sigue una distribucion Gaussiana univariante de

parametros:

µY |X = µY +σXY

σ2X

(x0 − µX )

σ2Y |X = σ2

Y −σ2XY

σ2X

I X |Y = y0 sigue una distribucion Gaussiana univariante deparametros:

µX |Y = µX +σXY

σ2Y

(y0 − µY )

σ2X |Y = σ2

X −σ2XY

σ2Y

EjemploI Sea (X ,Y ) una variable aleatoria que sigue una distribucion

Gaussiana bivariante con parametros µ = (2, 1)′ y matriz decovarianzas:

Σ =

(5 33 10

)I Entonces, podemos afirmar que:

I Las distribuciones marginales de X e Y son X ∼ N (2, 5) eY ∼ N (1, 10), respectivamente.

I X e Y no son independientes ya que σXY 6= 0.I Y |X = 6 sigue una distribucion Gaussiana univariante de parametros:

µY |X = 1 +3

5(6− 2) = 3,4

σ2Y |X = 10− 32

5= 8,2

I X |Y = 3 sigue una distribucion Gaussiana univariante de parametros:

µX |Y = 2 +3

10(3− 1) = 2,6

σ2X |Y = 5− 32

10= 4,1

top related