estadística i tema 4: probabilidad y modelos probabilísticos

85
Estad´ ıstica I Tema 4: Probabilidad y modelos probabil´ ısticos

Upload: donhu

Post on 06-Jan-2017

245 views

Category:

Documents


7 download

TRANSCRIPT

Page 1: Estadística I Tema 4: Probabilidad y modelos probabilísticos

Estadıstica ITema 4: Probabilidad y modelos probabilısticos

Page 2: Estadística I Tema 4: Probabilidad y modelos probabilísticos

Tema 4. Probabilidad y modelos probabilısticos

Contenidos

I Probabilidad:

I Experimentos aleatorios, espacio muestral, sucesos elementales ycompuestos.

I Propiedades de la probabilidad. Probabilidad condicionada.

I Variables aleatorias y sus caracterısticas.

I Modelos de probabilidad discretos: Ensayos de Bernoulli ydistribuciones relacionadas.

I Modelos de probabilidad continuos: Distribucion uniforme ydistribucion normal.

I Introduccion a la distribucion normal bivariante.

Page 3: Estadística I Tema 4: Probabilidad y modelos probabilísticos

Conceptos basicos

I Experimento aleatorio: proceso de observar un fenomeno cuyosresultados son inciertos.

I Espacio muestral: es el conjunto de todos los posibles resultados deun experimento aleatorio. Se denota por

Ω = e1, e2, . . . , en, . . .

donde cada uno de sus elementos se denomina suceso elemental.Estos son siempre disjuntos dos a dos.

I Suceso: un subconjunto del espacio muestral, es decir, un conjuntode sucesos elementales

A = e1, e3

Ejemplos:

I Resultado al lanzar una moneda.

I Precio de la accion x al cierre de sesion el proximo lunes.

Page 4: Estadística I Tema 4: Probabilidad y modelos probabilísticos

Sucesos: conceptos basicos

Interseccion de sucesos: Si A y B son dos sucesos del espacio muestral Ω,entonces la interseccion, A ∩ B, es el conjunto de todos los sucesos de Ωque estan en A y en B.

Representacion en diagramas de Euler-Venn:

Page 5: Estadística I Tema 4: Probabilidad y modelos probabilísticos

Sucesos: conceptos basicos

A y B son sucesos incompatibles si no tienen ningun suceso elemental encomun i.e., el conjunto A ∩ B es vacıo

Page 6: Estadística I Tema 4: Probabilidad y modelos probabilísticos

Sucesos: conceptos basicos

Union de sucesos: Si A y B son dos sucesos de un espacio muestral Ω,entonces la union, A ∪ B, es el conjunto de todos los sucesos de Ω quepertenecen a cualquiera de los dos, A o B.

Page 7: Estadística I Tema 4: Probabilidad y modelos probabilísticos

Sucesos: conceptos basicos

Sucesos triviales:

I Suceso seguro Ω: conjunto = espacio muestral

I Suceso imposible ∅: conjunto = conjunto vacıo

Complementario o suceso contrarioEl complementario de un suceso A es el conjunto de todos los sucesoselementales de Ω que no estan en A.

Page 8: Estadística I Tema 4: Probabilidad y modelos probabilísticos

Ejemplo: lanzamiento de un dado

Consideremos el experimento aleatorio “resultado observado al lanzar undado”:

I suceso elemental: el 1, el 2, el 3, el 4, el 5, el 6

I espacio muestral: Ω = 1, 2, 3, 4, 5, 6I suceso: A = 2, 4, 6 B = 4, 5, 6

El suceso A es “sale un numero par”.El suceso B es “sale un numero mayor que tres”.

Page 9: Estadística I Tema 4: Probabilidad y modelos probabilísticos

Ejemplo: lanzamiento de un dado

Ω = 1, 2, 3, 4, 5, 6 A = 2, 4, 6 B = 4, 5, 6

I Complementario:

A = 1, 3, 5 B = 1, 2, 3

I Interseccion:

A ∩ B = 4, 6 A ∩ B = 1, 3 = A ∪ B

I Union:

A ∪ B = 2, 4, 5, 6 A ∪ B = 1, 2, 3, 5 = A ∩ B

A ∪ A = 1, 2, 3, 4, 5, 6 = Ω

I Sucesos incompatibles:A ∩ A = ∅

I Notar que:

A ∩ B ⊂ A A ∩ B ⊂ B

A ⊂ A ∪ B B ⊂ A ∪ B

Page 10: Estadística I Tema 4: Probabilidad y modelos probabilísticos

Probabilidad

Probabilidad clasica (regla de Laplace)Considera un experimento para el que todos los sucesos elementales sonequiprobables. Si tenemos k sucesos elementales,

P(A) =1

k× tamano de A

De esta manera, la probabilidad es una aplicacion que asigna a cadasuceso A un valor numerico P (A) ∈ [0, 1].

Page 11: Estadística I Tema 4: Probabilidad y modelos probabilísticos

Propiedades de la probabilidad

I 0 ≤ P(A) ≤ 1.

I Sea A = e1, e2, . . . , en, entonces P(A) =∑n

i=1 P(ei ).

I P(Ω) = 1 y P(∅) = 0.

I Complementario: P(A) = 1− P(A).

I Union: P(A ∪ B) = P(A) + P(B)− P(A ∩ B).

I Si A y B son incompatibles (A ∩ B = ∅), entoncesP(A ∪ B) = P(A) + P(B).

Page 12: Estadística I Tema 4: Probabilidad y modelos probabilísticos

Ejemplo: lanzamiento de un dado

I Probabilidad de un suceso elemental: P(ei ) = 16 , donde ei = i , para

i = 1, . . . , 6.

I Probabilidad de que salga par: A = 2, 4, 6, luego

P(A) = P(”2”) + P(”4”) + P(”6”) =1

6+

1

6+

1

6=

1

2

I Probabilidad de que salga mayor que 3: B = 4, 5, 6, luego

P(B) = P(”4”) + P(”5”) + P(”6”) =1

6+

1

6+

1

6=

1

2

I Probabilidad de que salga impar

P(A) = 1− P(A) = 1− 1

2=

1

2

Page 13: Estadística I Tema 4: Probabilidad y modelos probabilísticos

Ejemplo: lanzamiento de un dado

I Probabilidad de que salga par (A =“par”) o mayor que tres(B =“mayor que 3”)

P(A ∪ B) = P(A) + P(B)− P(A ∩ B)

Como A ∩ B = 4, 6, entonces P(A ∩ B) = 26 = 1

3

P(A ∪ B) =1

2+

1

2− 1

3=

4

6=

2

3

I Probabilidad de que salga par o igual a uno.Los sucesos A = 2, 4, 6 y C = 1 son incompatibles (A ∩ C = ∅)por tanto

P(A ∪ C ) = P(A) + P(C ) =1

2+

1

6=

4

6=

2

3

Page 14: Estadística I Tema 4: Probabilidad y modelos probabilísticos

Ejemplo: probabilidad condicional

I Jugamos a la ruleta y apostamos a los numeros 3, 13 y 22. ¿Cual esla probabilidad de ganar?

I El espacio muestral es Ω = 0, 1, 2, . . . , 36 por lo que el numero desucesos elementales es 37. Definimos el suceso A = ”nuestraapuesta” = 3, 13, 22 que contiene tres sucesos elementales.

I Por lo tanto, la probabilidad de ganar es P (A) = 337 .

I Justo antes de empezar la partida, nos dicen que la ruletaesta trucada de manera que siempre sale un numero impar. ¿Cual esahora nuestra probabilidad de ganar? ¿Es la misma que antes?

Page 15: Estadística I Tema 4: Probabilidad y modelos probabilísticos

Probabilidad condicional

Probabilidad condicionalSean dos sucesos A y B tal que P(B) > 0, la probabilidad condicionadade A dado B es:

P(A|B) =P(A ∩ B)

P(B)

Ley de la multiplicacionSi P(B) > 0, se tiene que

P(A ∩ B) = P(A|B)P(B)

IndependenciaSe dice que dos sucesos A y B son independientes si

P(A ∩ B) = P(A)P(B).

Ademas, si P(B) > 0, P(A|B) = P(A) y si P(A) > 0, P(B|A) = P(B).

OBS: No confundir sucesos independientes con sucesos incompatibles.

Page 16: Estadística I Tema 4: Probabilidad y modelos probabilísticos

Ejemplo: Probabilidad condicional

I Definimos el suceso B =“Siempre sale impar”= 1, 3, 5, . . . , 35,que contiene 18 sucesos elementales.

I Entonces, puesto que A ∩ B = 3, 13, la probabilidad condicionadanos queda:

P (A|B) =P (A ∩ B)

P (B)=

2371837

=2

18=

1

9

I Notar que cuando nos dicen que la ruleta esta trucada, el espaciomuestral deja de ser el inicial, pues nunca puede aparecer un numeropar, y se transforma en Ω∗ = B = 1, 3, 5, . . . , 35. La probabilidadde A en Ω∗ es ahora 1

9 .

I Puesto que P(A) 6= P (A ∩ B), los sucesos A y B no sonindependientes.

Page 17: Estadística I Tema 4: Probabilidad y modelos probabilísticos

Ejemplos

De una baraja espanola, saco dos cartas sin reposicion. Probabilidad deque:

I la primera carta sea copa: P(A) = 1040 .

I la segunda sea copa, sabiendo que la primera lo fue: P(B|A) = 939 .

I las dos cartas sean copas: P(A ∩ B) = P(B|A)P(A) = 939

1040 .

Tiro dos dados. Probabilidad de que:

I en el primer dado salga un uno: P(C ) = 16 .

I en el segundo dado salga un uno, sabiendo que en el primerosalio uno: P(D|C ) = P(D) = 1

6 .

I en el primer dado salga un uno, si en el segundo salio uno:P(C |D) = P(C ) = 1

6 .

I en los dos dados salga uno: P(C ∩ D) = P(D)P(C ) = 1616 (sucesos

independientes)

Page 18: Estadística I Tema 4: Probabilidad y modelos probabilísticos

Ley de la probabilidad totalUn conjunto de sucesos B1,B2, . . . ,Bk son mutuamente excluyentes si

Bi ∩ Bj = ∅, ∀i 6= j .

Si ademas de eso cumplen

Ω = B1 ∪ B2 ∪ . . . ∪ Bk ,

se dice que forman una particion del espacio muestral.

Page 19: Estadística I Tema 4: Probabilidad y modelos probabilísticos

Ejemplo

I En la baraja espanola, los siguientes conjuntos de sucesos definenparticiones del espacio muestral:

I Ω = oros, copas, espadas, bastos .

I Ω = ases, treses, sotas, caballos, reyes, resto de cartas .

Page 20: Estadística I Tema 4: Probabilidad y modelos probabilísticos

Ley de probabilidad total

Dada una particion del espacio muestral, B1,B2, . . . ,Bk , y dado unsuceso A, se tiene que

P(A) = P(A ∩ B1) + P(A ∩ B2) + . . .+ P(A ∩ Bk) =

= P(A|B1)P(B1) + P(A|B2)P(B2) + . . .+ P(A|Bk)P(Bk).

Page 21: Estadística I Tema 4: Probabilidad y modelos probabilísticos

Ejemplo: probabilidad total

I En una baraja espanola (48 cartas), calcular la probabilidad de sacarun as, utilizando la ley de la probabilidad total.

I Los cuatro palos de la baraja espanola establecen la particion delespacio muestral dada por Ω = oros, copas, espadas, bastos, porlo que:

P (Ω) = P (oros) + P (copas) + P (espadas) + P (bastos) =

=1

4+

1

4+

1

4+

1

4

I Si definimos el suceso A =“as”, entonces:

P (A) = P (A|oros)P (oros) + P (A|copas)P (copas) +

P (A|espadas)P (espadas) + P (A|bastos)P (bastos) =

=1

12

12

48+

1

12

12

48+

1

12

12

48+

1

12

12

48=

4

48=

1

12

I Ahora si la carta extraıda es un as, ¿cual es la probabilidad que seael as de copas? Necesitamos invertir las condiciones.

Page 22: Estadística I Tema 4: Probabilidad y modelos probabilísticos

Inversion de las condiciones: Teorema de Bayes

Para dos sucesos A y B se tiene que

P(A|B) =P(A ∩ B)

P(B)=

P(B|A)P(A)

P(B)

Este Teorema se aplica en situaciones en las que la probabilidad P(B|A)es conocida.

Ejemplo: (continuacion del anterior) si la carta extraıda es un as, ¿cuales la probabilidad que sea el as de copas?

P(copas|A) =P(A|copas)P(copas)

P(A)=

112

14

112

=1

4

Page 23: Estadística I Tema 4: Probabilidad y modelos probabilísticos

Ejemplo

I Un gato quiere pescar un pez en una pecera que contiene tres pecesamarillos y dos negros con rayas blancas. Suponiendo que pesque unpez, ¿cual es la probabilidad de que sea un pez rayado?Si R =“rayado”, entonces:

P (R) =2

5

I Suponiendo que pesque dos peces, ¿cual es la probabilidad de quepesque uno rayado y uno amarillo?Si R1 =“el primero es rayado”, R2 =“el segundo es rayado”, A1 =“elprimero es amarillo” y A2 =“el segundo es amarillo”, entonces:

P (R1 ∩ A2) + P (A1 ∩ R2) = P (A2|R1)P (R1) + P (R2|A1)P (A1) =

=3

4

2

5+

2

4

3

5=

6

20+

6

20=

12

20=

3

5

Page 24: Estadística I Tema 4: Probabilidad y modelos probabilísticos

Ejemplo

I Suponiendo que pesque dos peces y sabiendo que el segundo erarayado, ¿cual es la probabilidad de que el primero no lo fuera?

P (A1|R2) =P (R2|A1)P (A1)

P (R2)=

P (R2|A1)P (A1)

P (R2|A1)P (A1) + P (R2|R1)P (R1)=

=2435

2435 + 1

425

=620

620 + 2

20

=6

8=

3

4

Page 25: Estadística I Tema 4: Probabilidad y modelos probabilísticos

Variables aleatorias

I Sea Ω el espacio muestral asociado a cierto experimento aleatorio.

I Se denomina variable aleatoria (v.a.) a una funcion X : Ω −→ R, talque a cada elemento ei ∈ Ω le asigna un valor numericoX (ei ) = xi ∈ R.

I Intuitivamente, una variable aleatoria es una medida o cantidad quevarıa en funcion del resultado concreto ei que se observa al realizarel experimento aleatorio.

I La v.a. se denota con letras mayusculas, mientras que las letrasminusculas indican el valor concreto que toma la v.a. cuando seevalua en un punto muestral.

I OBS: Las variables estadısticas que hemos visto en los temas 1, 2 y3 son el resultado de evaluar las v.a. correspondientes en muestrasde individuos.

Page 26: Estadística I Tema 4: Probabilidad y modelos probabilísticos

Variables aleatorias

V.a. discretaSi X toma valores sobre un conjunto S ⊆ R finito o infinito numerable,se dice que X es una variable aleatoria discreta.

V.a. continuaSi X toma valores sobre un conjunto S ⊆ R infinito no numerable (porejemplo, en un intervalo o en una union de intervalos de R), se dice queX es una variable aleatoria continua.

Ejemplos

I X =“Resultado al tirar un dado” es una variable discreta dondeS = 1, 2, 3, 4, 5, 6.

I Y =“Numero de coches que pasan por un cierto peaje en unasemana” es una variable discreta donde S = 0, 1, 2, . . . = N ∪ 0 esinfinito numerable.

I Z = “altura de un alumno elegido al azar” es una variable continuadonde S = [0,+∞).

Page 27: Estadística I Tema 4: Probabilidad y modelos probabilísticos

Variables aleatorias discretas

Funcion de probabilidadSea X una variable aleatoria discreta con posibles valores x1, x2, . . .. Sellama funcion de probabilidad o funcion de masa, al conjunto deprobabilidades con las que X toma cada uno de sus valores, es decir,pi = P[X = xi ], para i = 1, 2, . . . .

EjemploX = resultado de lanzar un dado. La funcion de probabilidad es

x 1 2 3 4 5 6P[X = x ] 1

616

16

16

16

16

En este caso, S = 1, 2, 3, 4, 5, 6 y p1 = . . . = p6 = 16 .

Page 28: Estadística I Tema 4: Probabilidad y modelos probabilísticos

Variables aleatorias discretas

Funcion de probabilidad. Propiedades

Sea X una variable aleatoria discreta que toma valores en el conjuntoS = x1, x2 . . . con probabilidades p1 = P(X = x1), p2 = P(X = x2),. . .

I 0 ≤ P[X = xi ] ≤ 1.

I∑i

P[X = xi ] = 1.

I P[X ≤ x ] =∑i,xi≤x

P[X = xi ].

I P[X > x ] = 1− P[X ≤ x ].

Page 29: Estadística I Tema 4: Probabilidad y modelos probabilísticos

EjemploI Un juego consiste en ensartar 3 aros, uno a uno, en una pica.

Participar cuesta 3 euros. Los premios son 4 euros por un acierto, 6euros por dos aciertos y 30 euros por tres aciertos. Suponemos quela probabilidad de ensartar un aro es de 0.1 en cada tiro, y que lostiros son independientes.

I Definimos la v.a. X como la ganancia en el juego. El espaciomuestral esta dado por:

Ω = (f , f , f ) , (a, f , f ) , (f , a, f ) , (f , f , a) ,

(a, a, f ) , (a, f , a) , (f , a, a) , (a, a, a)

donde a denota acierto y f denota fallo. Por lo tanto, X solo admitecuatro posibles resultados con las siguientes probabilidades:

P (X = −3) = 0,93 = 0,729

P (X = 1) = 3× 0,1× 0,92 = 0,243

P (X = 3) = 3× 0,12 × 0,9 = 0,027

P (X = 27) = 0,13 = 0,001

Page 30: Estadística I Tema 4: Probabilidad y modelos probabilísticos

Ejemplo

I ¿Cual es la probabilidad de ganar 3 o mas euros, descontando los 3euros por participar?

P (X ≥ 3) = P (X = 3) + P (X = 27) = 0,027 + 0,001 = 0,028

I ¿Cual es la probabilidad de no perder dinero?

P (X ≥ 0) = P (X = 1) + P (X = 3) + P (X = 27) =

= 0,243 + 0,027 + 0,001 = 0,271

o lo que es lo mismo:

P (X ≥ 0) = 1− P (X < 0) = 1− P (X = −3) = 1− 0,729 = 0,271

Page 31: Estadística I Tema 4: Probabilidad y modelos probabilísticos

Variables aleatorias discretas

Funcion de distribucionLa funcion de distribucion o funcion de probabilidad acumulada de unavariable aleatoria X es una aplicacion F : R→ [0, 1], que a cada valorx ∈ R le asigna la probabilidad:

F (x) = P[X ≤ x ] =∑

xi∈S,xi≤x

P (X = xi )

OBS: Esta definida para todo x ∈ R y no solo para los valores de X .

I 0 ≤ F (x) ≤ 1 para todo x ∈ R.

I F (y) = 0 para todo y < mın S . Por tanto, F (−∞) = 0.

I F (y) = 1 para todo y > max S . Por tanto, F (∞) = 1.

I Si x1 ≤ x2, entonces F (x1) ≤ F (x2), es decir, F (x) es nodecreciente.

I Para todo a, b ∈ R,P (a < X ≤ b) = P (X ≤ b)− P (X ≤ a) = F (b)− F (a).

Page 32: Estadística I Tema 4: Probabilidad y modelos probabilísticos

Ejemplo

I La funcion de probabilidad de la variable X en el ejemplo del juegoes la siguiente:

P (X = x) =

0,729 x = −30,243 x = 10,027 x = 30,001 x = 27

I La funcion de distribucion de la variable X en el ejemplo del juego esla siguiente:

F (x) = P (X ≤ x) =

0 x < −3

0,729 −3 ≤ x < 10,729 + 0,243 = 0,972 1 ≤ x < 3

0,729 + 0,243 + 0,027 = 0,999 3 ≤ x < 270,729 + 0,243 + 0,027 + 0,001 = 1 27 ≤ x

I Notar que esta funcion presenta discontinuidades de salto en lospuntos del conjunto S . El salto es de magnitud P (X = x), paratodo x ∈ S .

Page 33: Estadística I Tema 4: Probabilidad y modelos probabilísticos

Esperanza de una variable aleatoria discreta

Sea X una v.a. discreta que toma valores en S = x1, x2, . . . conprobabilidades p1 = P (X = x1) , p2 = P (X = x2) , . . . Entonces, laesperanza de X esta dada por:

E [X ] =∑x∈S

xP (X = x) =∑i

xiP (X = xi ) =∑i

xipi

Se verifican las siguientes propiedades:

I Si a, b ∈ R, entonces:

E [a + bX ] = a + bE [X ]

I Sea g una funcion real. Entonces:

E [g (X )] =∑x∈S

g (x)P (X = x)

Page 34: Estadística I Tema 4: Probabilidad y modelos probabilísticos

Ejemplo

La esperanza de la variable aleatoria X del ejemplo del juego es lasiguiente:

E [X ] =∑x∈S

xP (X = x) =

= −3× P (X = −3) + 1× P (X = 1) + 3× P (X = 3) + 27× P (X = 27) =

= −3× 0,729 + 1× 0,243 + 3× 0,027 + 27× 0,001 = −1,836

Por lo tanto, la ganancia esperada es de −1,836 euros.

Page 35: Estadística I Tema 4: Probabilidad y modelos probabilísticos

Varianza de una variable aleatoria discreta

La varianza de la v.a. discreta X esta dada por:

V [X ] = E[(X − E [X ])2

]=∑x∈S

(x − E [X ])2 P (X = x) =

=∑i

(xi − E [X ])2 P (X = xi ) =∑i

(xi − E [X ])2 pi

Se verifican las siguientes propiedades:

I La varianza se puede escribir tambien como:

V [X ] = E[X 2]− E [X ]2

I V [X ] ≥ 0 y Var [X ] = 0 si, y solo si, X es una constante.

I Si a, b ∈ R, entonces:

V [a + bX ] = b2V [X ]

La raız cuadrada de la varianza se denomina desviacion tıpica y se denotapor S [X ] =

√V [X ].

Page 36: Estadística I Tema 4: Probabilidad y modelos probabilísticos

Ejemplo

La varianza de la variable aleatoria X del ejemplo del juego es lasiguiente:

V [X ] = E[X 2]− E [X ]2 = 7,776− (−1,836)2 = 4,405

donde:

E[X 2]

= (−3)2× 0,729 + 12× 0,243 + 32× 0,027 + 272× 0,001 = 7,776

La desviacion tıpica es por tanto S [X ] =√

4,405 = 2,0988.

Page 37: Estadística I Tema 4: Probabilidad y modelos probabilísticos

Ejemplo

Consideramos la v.a. discreta X = numero de caras al tirar una monedados veces. La funcion de probabilidad de X es:

x 0 1 2P[X = x ] 1

412

14

Por un lado, su esperanza viene dada por:

E [X ] = 0× 1

4+ 1× 1

2+ 2× 1

4= 1

mientras que su varianza es:

Var [X ] = E [X 2]− E [X ]2 =3

2− 12 =

1

2

donde:

E [X 2] = 02 × 1

4+ 12 × 1

2+ 22 × 1

4=

3

2

Page 38: Estadística I Tema 4: Probabilidad y modelos probabilísticos

Desigualdad de Chebyschev

Este resultado es util para estimar una probabilidad cuando se desconocela distribucion de probabilidad de una v.a. discreta X .Si X es una v.a. con esperanza y varianza finitas, entonces para todok ≥ 1:

P (|X − E [X ]| ≥ k) ≤ V (X )

k2

o, equivalentemente,

P (|X − E [X ]| < k) ≥ 1− V (X )

k2

OBS: La cota que proporciona la desigualdad de Chebyschev esdemasiado gruesa y solo debe utilizarse cuando no se disponga de ladistribucion de X .

Page 39: Estadística I Tema 4: Probabilidad y modelos probabilísticos

Desigualdad de Chebyschev

Veamos como aplicar la desigualdad de Chebyschev con la variablealeatoria del ejemplo del juego. Tenemos que E [X ] = −1,836 y queV [X ] = 4,405. Entonces:

P (|X + 1,836| ≥ 3) ≤ 4,405

9= 0,4894

Por otro lado, tenemos que:

P (|X + 1,836| ≥ 3) = P (X + 1,836 ≥ 3) + P (X + 1,836 ≤ −3) =

= P (X ≥ 1,164) + P (X ≤ −4,836) =

= P (X = 3) + P (X = 27) = 0,027 + 0,001 = 0,028

que demuestra que la cota de Chebyschev puede ser muy gruesa.

Page 40: Estadística I Tema 4: Probabilidad y modelos probabilísticos

Ejemplo de repaso

I Sea X , la variable aleatoria que representa el numero de caras menosel numero de cruces en 3 tiradas de una moneda trucada de maneraque es dos veces mas probable que salga cara que cruz.

I Indicamos por “c”=cara y “+”=cruz.

I El espacio muestral es:

Ω =

e1 = c , c , c , e2 = +, c , c , e3 = c ,+, c , e4 = c , c ,+ ,

e5 = +,+, c , e6 = +, c ,+ , e7 = c ,+,+ , e8 = +,+,+

Page 41: Estadística I Tema 4: Probabilidad y modelos probabilísticos

Ejemplo de repaso

I El conjunto S donde toma valores es S = −3,−1, 1, 3 ya que:

X (e1) = 3− 0 = 3

X (e2) = X (e3) = X (e4) = 2− 1 = 1

X (e5) = X (e6) = X (e7) = 1− 2 = −1

X (e8) = 0− 3 = −3

I La funcion de probabilidad viene dada por:

P (X = x) =

P (X = −3) =

(13

)3= 1

27

P (X = −1) = 3×(13

)2 × 23 = 2

9

P (X = 1) = 3× 13 ×

(23

)2= 4

9

P (X = 3) =(23

)3= 8

27

Page 42: Estadística I Tema 4: Probabilidad y modelos probabilísticos

Ejemplo de repaso

I Supongamos que participamos en el siguiente juego para el que hayque pagar de inicio 6 euros. Si al lanzar 3 veces la moneda anterioraparece 1 cruz, ganamos 4 euros, si aparecen 2 cruces ganamos 6euros y si aparecen 3 cruces ganamos 30 euros. ¿Cual es la gananciaesperada?

I Sea Y la variable ganancia en el juego. Entonces:

I Si no obtenemos ninguna cruz, tenemos que X = 3, por lo queY = −6 con probabilidad P (Y = −6) = P (X = 3) = 8

27.

I Si obtenemos una cruz, tenemos que X = 1, por lo que Y = −2 conprobabilidad P (Y = −2) = P (X = 1) = 4

9.

I Si obtenemos dos cruces, tenemos que X = −1, por lo que Y = 0con probabilidad P (Y = 0) = P (X = −1) = 2

9.

I Si obtenemos tres cruces, tenemos que X = −3, por lo que Y = 24con probabilidad P (Y = 24) = P (X = −3) = 1

27.

I Por lo tanto, Y toma valores en el conjunto S = −6,−2, 0, 24. Laganancia esperada es:

E [Y ] = −6× 8

27− 2× 4

9+ 0× 2

9+ 24× 1

27= −1,78 euros

Page 43: Estadística I Tema 4: Probabilidad y modelos probabilísticos

Modelo Bernoulli

DescripcionPartimos de un experimento aleatorio con solo dos posibles resultados,que calificamos de exito/fracaso.Definimos la variable aleatoria:

X =

1 si exito0 si fracaso

Sea p la probabilidad de exito. Entonces, 1− p es la probabilidad defracaso.

El experimento se llama ensayo de Bernoulli y la variable aleatoria se diceque sigue una distribucion Bernoulli de parametro p.

Se escribe X ∼ Ber(p).

Page 44: Estadística I Tema 4: Probabilidad y modelos probabilísticos

Modelo Bernoulli

EjemploTirar una moneda al aire

X =

1 sale cara0 si sale cruz

Es un ensayo Bernoulli, y X sigue una distribucion Bernoulli deparametro 1/2.

EjemploUna lınea aerea estima que los pasajeros que compran un billete para unvuelo tienen una probabilidad igual a 0,05 de no presentarse al embarquede dicho vuelo.Definamos

Y =

1 si el pasajero se presenta0 si no lo hace

Y sigue una distribucion Bernoulli con parametro 0,95.

Page 45: Estadística I Tema 4: Probabilidad y modelos probabilísticos

Modelo Bernoulli

Funcion de Probabilidad:

P[X = 0] = 1− p P[X = 1] = p

Funcion de distribucion:

F (x) =

0 si x < 0

1− p si 0 ≤ x < 11 si x ≥ 1

Propiedades

I E [X ] = p × 1 + (1− p)× 0 = p

I E [X 2] = p × 12 + (1− p)× 02 = p

I V [X ] = E [X 2]− E [X ]2 = p − p2 = p(1− p)

I S [X ] =√p(1− p)

Page 46: Estadística I Tema 4: Probabilidad y modelos probabilísticos

Modelo Binomial

DescripcionUn ensayo Bernoulli de parametro p se repite n veces de maneraindependiente. La variable numero de exitos obtenidos, sigue unadistribucion Binomial (de parametros n y p).

DefinicionUna variable X sigue una distribucion binomial con parametros n y p si

P[X = x ] =

(nx

)px(1− p)n−x

para x = 0, 1, . . . , n donde(nx

)=

n!

x!(n − x)!

Se escribe X ∼ B(n, p).

Page 47: Estadística I Tema 4: Probabilidad y modelos probabilísticos

Modelo Binomial

EjemploLa lınea aerea del ejemplo anterior ha vendido 80 billetes para un vuelo.La probabilidad de que un pasajero no se presente al embarque es de0, 05. Definimos X = numero de pasajeros que se presentan. Entonces(suponiendo independencia)

X ∼ B(80, 0,95)

I La probablidad de que los 80 pasajeros se presenten

P[X = 80] =

(8080

)0,9580 × (1− 0,95)80−80 = 0,0165

I La probabilidad de que al menos un pasajero no se presente:

P[X < 80] = 1− P[X = 80] = 1− 0,0165 = 0,9835

Page 48: Estadística I Tema 4: Probabilidad y modelos probabilísticos

Modelo Binomial

Propiedades

I E [X ] = np

I Var [X ] = np(1− p)

I S [X ] =√np(1− p)

Page 49: Estadística I Tema 4: Probabilidad y modelos probabilísticos

Variables aleatorias continuas

Funcion de distribucionPara X v.a. continua, la funcion de distribucion es la funcionF (x) = P[X ≤ x ],∀x ∈ R

Igual que en el caso discreto, la funcion F (x) da las probabilidadesacumuladas hasta el punto x ∈ R, pero ahora se trata de una funcioncontinua y no de tipo escalon.

Page 50: Estadística I Tema 4: Probabilidad y modelos probabilísticos

Variables aleatorias continuas

Propiedades

I 0 ≤ F (x) ≤ 1, para todo x ∈ RI F (−∞) = 0.

I F (∞) = 1.

I Si x1 ≤ x2, entonces F (x1) ≤ F (x2), es decir, F (x) es no decreciente.

I Para todo x1, x2 ∈ R, P(x1 ≤ X ≤ x2) = F (x2)− F (x1).

I F (x) es continua.

La funcion de probabilidad no tiene sentido en variables aleatoriascontinuas, porque P(X = x) = 0. Para sustituir la funcion deprobabilidad, en variables aleatorias continuas usaremos la funcion dedensidad.

Page 51: Estadística I Tema 4: Probabilidad y modelos probabilísticos

Variables aleatorias continuas

Funcion de densidadPara una variable aleatoria continua X con funcion de distribucion F (x),la funcion de densidad de X es:

f (x) =dF (x)

dx= F ′(x)

Propiedades

I f (x) ≥ 0 ∀x ∈ R

I P(a ≤ X ≤ b) =∫ b

af (x)dx ∀a, b ∈ R

I F (x) = P(X ≤ x) =∫ x

−∞ f (u)du

I∫∞−∞ f (x)dx = 1

Page 52: Estadística I Tema 4: Probabilidad y modelos probabilísticos

Variables aleatorias continuas

EjemploUna variable aleatoria X tiene funcion de densidad

f (x) =

12x2(1− x) si 0 < x < 1

0 si no

Entonces:

P(X ≤ 0,5) =

∫ 0,5

−∞f (u)du =

∫ 0,5

0

12u2(1− u)du = 0,3125

P(0,2 ≤ X ≤ 0,5) =

∫ 0,5

0,2

f (u)du =

∫ 0,5

0,2

12u2(1− u)du = 0,2853

F (x) = P(X ≤ x) =

∫ x

−∞f (u)du =

0 si x ≤ 0

12(

x3

3 −x4

4

)si 0 < x ≤ 1

1 si x > 1

Page 53: Estadística I Tema 4: Probabilidad y modelos probabilísticos

Esperanza de una variable aleatoria continua

Sea X una v.a. continua que toma valores en S ⊆ R, con funcion dedensidad f (x) . Entonces, la esperanza de X esta dada por:

E [X ] =

∫S

xf (x) dx

Se verifican las siguientes propiedades:

I Si a, b ∈ R, entonces:

E [a + bX ] = a + bE [X ]

I Sea g una funcion real. Entonces:

E [g (X )] =

∫S

g (x) f (x) dx

Page 54: Estadística I Tema 4: Probabilidad y modelos probabilísticos

Ejemplo

La esperanza de la variable aleatoria X del ejemplo anterior es lasiguiente:

E [X ] =

∫Rx · f (x)dx =

∫ 1

0

x · 12x2(1− x)dx =

=

∫ 1

0

(12(x3 − x4)

)dx = 12

(1

4x4 − 1

5x5) ∣∣1

0 = 12

(1

4− 1

5

)=

3

5

Page 55: Estadística I Tema 4: Probabilidad y modelos probabilísticos

Varianza de una variable aleatoria continua

La varianza de la v.a. continua X esta dada por:

V [X ] = E[(X − E [X ])2

]=

∫S

(x − E [X ])2 f (x)dx =

=

∫S

x2f (x)dx − E [X ]2 = E[X 2]− E [X ]2

Se verifican las siguientes propiedades:

I V [X ] ≥ 0 y Var [X ] = 0 si, y solo si, X es una constante.

I Si a, b ∈ R, entonces:

V [a + bX ] = b2V [X ]

La raız cuadrada de la varianza se denomina desviacion tıpica y se denotapor S [X ] =

√V [X ].

Page 56: Estadística I Tema 4: Probabilidad y modelos probabilísticos

Ejemplo

La varianza de la variable aleatoria X del ejemplo anterior es la siguiente:

Var [X ] = E[X 2]− E [X ]2 =

2

5−(

3

5

)2

=2

5− 9

25=

1

25

donde:

E[X 2]

=

∫Rx2f (x)dx =

∫ 1

0

12x4(1− x)dx =12

5x5|x=1

x=0 −12

6x6|x=1

x=0 =

=12

5− 2 =

2

5

La desviacion tıpica es por tanto S [X ] =√

125 = 1

5 .

Page 57: Estadística I Tema 4: Probabilidad y modelos probabilísticos

Distribucion uniforme

DescripcionLa distribucion uniforme es aquella en la que todos los intervalos de iguallongitud en su rango son igualmente probables. Es decir, que la funcionde densidad es constante para todos los valores posibles de la variable.

DefinicionSe dice que una variable X sigue una distribucion uniforme en el intervalo(a, b) (sus parametros son a y b) si

f (x) =

1

b−a si a < x ≤ b

0 si no

Se escribe X ∼ U(a, b).

Page 58: Estadística I Tema 4: Probabilidad y modelos probabilísticos

Distribucion uniforme

Propiedades

I Esperanza: E [X ] = a+b2

I Varianza: V [X ] = (b−a)212

I Desviacion tıpica:S [X ] = b−a√

12

Funcion de densidad

Page 59: Estadística I Tema 4: Probabilidad y modelos probabilísticos

Ejemplo: distribucion uniforme en (3,5)

Una variable aleatoria X que sigue una distribucion uniforme en elintervalo (3, 5) tiene funcion de densidad

f (x) =

12 si 3 < x < 50 si no

Calculamos algunas probabilidades:

P(X ≤ 0,5) =∫ 0,5

−∞ f (u)du = 0

P(X ≤ 4) =∫ 4

−∞ f (u)du =∫ 4

312du = 1

2u|43 = 1

2

P(3,5 ≤ X ≤ 4,5) =∫ 4,5

3,5f (u)du =

∫ 4,5

3,512du = 1

2

Page 60: Estadística I Tema 4: Probabilidad y modelos probabilísticos

Ejemplo: distribucion uniforme en (3,5)

Funcion de distribucion

F (x) = P(X ≤ x) =

∫ x

−∞f (u)du = . . .

I Si x ≤ 3 entonces F (x) = P(X ≤ x) = 0.

I Si 3 < x ≤ 5 entonces F (x) = P(X ≤ x) =∫ x

312du = u

2 |x3 = x−3

2 .

I Si 5 < x entonces F (x) = P(X ≤ x) =∫ 5

312du = u

4 |53 = 5−3

2 = 1.

Es decir, que:

F (x) =

0 si x ≤ 3

x−32 si 3 < x ≤ 51 si x > 5

Page 61: Estadística I Tema 4: Probabilidad y modelos probabilísticos

Ejemplo: distribucion uniforme en (3,5)

Esperanza

E [X ] =∫R x · f (x)dx =

∫ 5

3x · 12dx = x2

4

∣∣∣53

= 52−324 = 4

Varianza

Var [X ] =∫R x2 · f (x)dx − E [X ]2

=∫ 5

3x2

2 dx − 42 = x3

6

∣∣∣53− 16 = 0,33

Page 62: Estadística I Tema 4: Probabilidad y modelos probabilísticos

Distribucion normal

DescripcionLa distribucion normal es un modelo teorico que aproxima bien muchassituaciones reales. La inferencia estadıstica se fundamenta basicamenteen la distribucion normal y en distribuciones que se derivan de ella.

DefinicionSe dice que una variable X sigue una distribucion normal o Gausiana conparametros µ y σ, y se denota por X ∼ N (µ, σ), si

f (x) =1

σ√

2πexp

− 1

2σ2(x − µ)2

PropiedadesE [X ] = µ V [X ] = σ2

Si X ∼ N (µ, σ), f (x) es simetrica respecto de µ.

Page 63: Estadística I Tema 4: Probabilidad y modelos probabilísticos

Distribucion normal

Funcion de densidad para 3 valores distintos de µ y σ

Page 64: Estadística I Tema 4: Probabilidad y modelos probabilísticos

Distribucion normal

PropiedadSi X ∼ N (µ, σ),

I P(µ− σ < X < µ+ σ) ≈ 0,683

I P(µ− 2σ < X < µ+ 2σ) ≈ 0,955

I P(µ− 3σ < X < µ+ 3σ) ≈ 0,997

Desigualdad de ChebyshevLa desigualdad de Chebyschev tambien se puede aplicar en el caso devariables continuas. En particular, si X es Gaussiana de media µ ydesviacion tıpica σ, tenemos que:

P (µ− k < X < µ+ k) = P (|X − µ| < k) ≥ 1− σ2

k2

de donde, si k = cσ, tenemos que P (µ− cσ < X < µ+ cσ) ≥ 1− 1c2 .

Page 65: Estadística I Tema 4: Probabilidad y modelos probabilísticos

Distribucion normal

Transformacion linealSi X ∼ N (µ, σ), entonces:

Y = aX + b ∼ N (aµ+ b, |a|σ)

EstandarizacionSi X ∼ N (µ, σ), considero

Z =X − µσ

∼ N (0, 1)

Se llama distribucion normal estandar. Es una distribucion simetrica ycentrada en 0. Ademas, esta tabulada por lo que no tenemos que haceruso de integrales para obtener probabilidades.

Page 66: Estadística I Tema 4: Probabilidad y modelos probabilísticos

Tablas de la N (0, 1)N (0, 1)N (0, 1)

Page 67: Estadística I Tema 4: Probabilidad y modelos probabilísticos
Page 68: Estadística I Tema 4: Probabilidad y modelos probabilísticos

Distribucion normal: Ejemplo

Sea Z ∼ N(0, 1). Calculemos algunas probabilidades:

I Pr(Z < 1,5) = 0,9332. tabla

I Pr(Z > −1,5) = Pr(Z < 1,5) = 0,9332. ¿por que?

I Pr(Z < −1,5) = Pr(Z > 1,5) = 1− Pr(Z < 1,5) = 1− 0,9332 =0,0668. ¿por que no ≤?

I Pr(−1,5 < Z < 1,5) = Pr(Z < 1,5)− Pr(Z < −1,5) =0,9332− 0,0668 = 0,8664.

Page 69: Estadística I Tema 4: Probabilidad y modelos probabilísticos

Distribucion normal: Ejemplo

Sea X ∼ N(µ = 2, σ = 3). Queremos calcular Pr(X < 4) yPr(−1 < X < 3,5):

I En primer lugar, tipificamos la variable original como sigue:

Pr(X < 4) = P

(X − 2

3<

4− 2

3

)= Pr

(Z < 0,666

)≈ 0,7454,

donde Z ∼ N(0, 1).

I A continuacion, buscamos :

Pr(−1 < X < 3,5) = Pr(−1− 2 < X − 2 < 3,5− 2)

= P

(−1− 2

3<

X − 2

3<

3,5− 2

3

)= Pr(−1 < Z < 0,5) =

= Pr(Z < 0,5)− Pr(Z < −1) = 0,6915− 0,1587 = 0,5328.

donde Z ∼ N(0, 1).

Page 70: Estadística I Tema 4: Probabilidad y modelos probabilísticos

Distribucion normal: otro ejemplo

Es difıcil etiquetar la carne empaquetada con su peso correcto debido alos efectos de perdida de lıquido (definido como porcentaje del pesooriginal de la carne). Supongamos que la perdida de lıquido en unpaquete de pechuga de pollo se distribuye como normal con media 4 % ydesviacion tıpica 1 %.

Sea X la perdida de lıquido de un paquete de pechuga de pollo elegido alazar.

I ¿Cual es la probabilidad de que 3 % < X < 5 %?

I ¿Cual es el valor de x para que un 90 % de paquetes tengan perdidasde lıquido menores que x?

I En una muestra de 4 paquetes, hallar la probabilidad de que todostengan perdidas de peso de entre 3 y 5 %.

Sexauer, B. (1980) Drained-Weight Labelling for Meat and Poultry: An

Economic Analysis of a Regulatory Proposal, Journal of Consumer Affairs, 14,

307-325.

Page 71: Estadística I Tema 4: Probabilidad y modelos probabilísticos

Distribucion normal: otro ejemplo

Pr(3 < X < 5) = Pr

(3− 4

1<

X − 4

1<

5− 4

1

)= Pr(−1 < Z < 1)

= Pr(Z < 1)− Pr(Z < −1) = 0,8413− 0,1587 = 0,6827

Queremos Pr(X < x) = 0,9. Entonces

Pr

(X − 4

1<

x − 4

1

)= Pr(Z < x − 4) = 0,9

Mirando las tablas, tenemos x − 4 ≈ 1,28 que implica que un 90 % de laspaquetes tienen perdidas de menores que x = 5,28 %.

Para un paquete p = Pr(3 < X < 5) = 0,6827. Sea Y el numero depaquetes en la muestra de 4 paquetes que tienen perdidas de entre 3 % y5 %. Luego Y ∼ B(4, 0,6827).

Pr(Y = 4) =

(4

4

)0,68274(1− 0,6827)0 = 0,2172.

Page 72: Estadística I Tema 4: Probabilidad y modelos probabilísticos

Distribucion normal: otro ejemplo

Si la muestra fuera de 5 paquetes, ¿cual seria la probabilidad que por lomenos una tuviera perdidas de entre el 3 % y 5 %? Tenemos que n = 5 yp = 0,6827. Por lo tanto, Y ∼ B(5, 0,6827). Entonces,

Pr(Y ≥ 1) = 1− Pr(Y < 1) = 1− Pr(Y = 0) =

= 1−(

5

0

)0,68270(1− 0,6827)5−0 = 1− (1− 0,6827)5 = 0,9968.

Page 73: Estadística I Tema 4: Probabilidad y modelos probabilísticos

Teorema central del lımite

El siguiente teorema nos habla de la distribucion de la media de unconjunto de muchas v.a. independientes e igualmente distribuidas:

X =1

n

n∑i=1

Xi

y nos dice que si n es grande, la distribucion de la media de v.a.independientes e identicamente distribuidas es normal, sea cual sea ladistribucion de las v.a. De aquı el papel “central” que juega ladistribucion normal.

TeoremaSean X1,X2, . . . ,Xn v.a. independientes, e identicamente distribuidas conmedia µ y desviacion tıpica σ (ambas finitas). Si n es suficientementegrande, se tiene que

X − µσ/√n∼ N (0, 1)

Page 74: Estadística I Tema 4: Probabilidad y modelos probabilísticos

Aproximaciones

BinomialSi X ∼ B(n, p) con n suficientemente grande (o bien n ≥ 30 y0,1 ≤ p ≤ 0,9 o bien np ≥ 5 y n (1− p) ≥ 5), entonces:

X − np√np(1− p)

∼ N (0, 1)

Page 75: Estadística I Tema 4: Probabilidad y modelos probabilísticos

TCL y aproximaciones: Ejemplo

I Sea X ∼ B(100, 1/3). Bucamos el valor de Pr(X < 40), si bien elcalculo exacto es muy largo ya que necesitamos un gran numero deoperaciones.

I Utilizando el TCL tenemos que X ∼ B(100, 1/3) ≈ N (33,3, 4,714) ,ya que:

E [X ] = 100× 1

3= 33.3

V [X ] = 100× 1

3× 2

3= 22.2

S [X ] =√

22.2 = 4,714

I Por lo tanto,

Pr(X < 40) = P

(X − 33.3

4,714<

40− 33.3

4,714

)≈ P (Z < 1,414) donde Z ∼ N(0, 1)

≈ 0,921.

Page 76: Estadística I Tema 4: Probabilidad y modelos probabilísticos

Funcion de distribucion conjunta de dos variables

I La funcion de distribucion conjunta de dos variables aleatoriascontinuas X e Y es una aplicacion F : R2 → [0, 1], tal que a cadavalor (x , y) ∈ R2 le asigna la probabilidad:

F (x , y) = P(X ≤ x ,Y ≤ y) =

∫ x

−∞

∫ y

−∞f (x , y) dydx ,

donde f (x , y) es la funcion de densidad conjunta de la variablealeatoria (X ,Y ).

I La funcion de densidad conjunta, f (x , y), verifica tres propiedades:

1. f (x , y) ≥ 0, para cualquier par (x , y) ∈ R2.

2. P(a ≤ X ≤ b, c ≤ Y ≤ d) =∫ b

a

∫ d

cf (x , y) dydx .

3.∫∞−∞

∫∞−∞ f (x , y) dydx = 1.

Page 77: Estadística I Tema 4: Probabilidad y modelos probabilísticos

Distribuciones marginales y condicionadasI Las funciones de densidad marginales de las variables aleatorias

continuas X e Y estan dadas por:

fX (x) =

∫ ∞−∞

f (x , y) dy y fY (y) =

∫ ∞−∞

f (x , y) dx

respectivamente.

I Las variables aleatorias continuas X e Y se dice que sonindependientes si y solo si:

f (x , y) = fX (x) fY (y)

siendo fX y fY las funciones de densidad marginales de X y de Y ,respectivamente.

I La funcion de densidad condicional de la variable continua Y , dadoel valor X = x0 de la variable aleatoria X , esta dada por:

fY |X (y |X = x0) =f (x0, y)

fX (x0)

Page 78: Estadística I Tema 4: Probabilidad y modelos probabilísticos

Esperanza y covarianza

I La esperanza de la variable aleatoria (X ,Y ) es el vector formado porlas esperanzas de las distribuciones marginales de X e Y :

E

[(XY

)]=

(E [X ]E [Y ]

)I La covarianza entre dos variables aleatorias X e Y se define como:

cov [X ,Y ] = E [(X − E [X ]) (Y − E [Y ])]

y permite medir como cambian X e Y de forma conjunta.

I Si valores grandes de X se corresponden con valores grandes de Y , ylo mismo ocurre con los valores pequenos, cov [X ,Y ] sera positiva.Si valores grandes de X se corresponden con valores pequenos de Y ,y viceversa, cov [X ,Y ] sera negativa.

I Notar que la covarianza depende crucialmente de las unidades demedida de las variables X e Y lo que hace difıcil su interpretacion.

Page 79: Estadística I Tema 4: Probabilidad y modelos probabilísticos

Coeficiente de correlacion

I El coeficiente de correlacion entre dos variables aleatorias X e Y sedefine como:

corr [X ,Y ] =cov [X ,Y ]√V [X ]V [Y ]

donde cov [X ,Y ] es la covarianza entre X e Y y V [X ] y V [Y ] sonlas varianzas de X e Y , respectivamente.

I Notar que −1 ≤ corr [X ,Y ] ≤ 1 independientemente de las unidadesde medida de X e Y .

I corr [X ,Y ] solamente mide relaciones lineales.

I Un valor de corr [X ,Y ] proximo a 1 indica una alta relacion linealpositiva entre X e Y . Un valor de corr [X ,Y ] proximo a −1 indicauna alta relacion lineal negativa entre X e Y . Por ultimo, un valor decorr [X ,Y ] proximo a 0 indica una relacion lineal debil entre X e Y .

Page 80: Estadística I Tema 4: Probabilidad y modelos probabilísticos

Matriz de covarianzas

I La matriz de covarianza de una variable aleatoria (X ,Y ) es unamatriz de tamano 2× 2 dada por:

C [X ,Y ] =

(V [X ] cov [X ,Y ]

cov [X ,Y ] V [Y ]

)es decir, C [X ,Y ] contiene las varianzas de X e Y en la diagonalprincipal y la covarianza entre X e Y fuera de la diagonal principal.

Page 81: Estadística I Tema 4: Probabilidad y modelos probabilísticos

La distribucion Gaussiana bivariante

I Se dice que una variable (X ,Y ) sigue una distribucion normal oGaussiana bivariante con parametros µ = (µX , µY )′ y matriz decovarianzas:

Σ =

(σ2X σXY

σXY σ2Y

)y se denota por (X ,Y ) ∼ N2 (µ,Σ) si tiene funcion de densidad:

f (x , y) =1

2π |Σ|1/2exp

(−1

2(X − µX ,Y − µY )

(σ2X σXY

σXY σ2Y

)−1(X − µX

Y − µY

))

I Notar que µX = E [X ], µY = E [Y ], σ2X = V [X ], σ2

Y = V [Y ] yσXY = cov [X ,Y ].

Page 82: Estadística I Tema 4: Probabilidad y modelos probabilísticos

La distribucion Gaussiana bivariante

I La varianza generalizada es el valor de:

|Σ| = σ2Xσ

2Y − σ2

XY = σ2Xσ

2Y

(1− corr [X ,Y ]2

)y mide la dispersion global de la variable bivariante (X ,Y ). Notarcomo la varianza generalizada disminuye si corr [X ,Y ] tiende a ±1 yaumenta si corr [X ,Y ] tiende a 0.

I Por ultimo, la matriz Σ−1 se puede escribir como:

Σ−1 =1

σ2Xσ

2Y − σ2

XY

(σ2Y −σXY

−σXY σ2X

)

Page 83: Estadística I Tema 4: Probabilidad y modelos probabilísticos

Densidad Gaussiana bivariante µ = (0, 0)′, σ2X = σ2

Y = 1 yσXY = 0, 0,9 y −0,9, respectivamente

x1

−4

−2

0

2

4

x2

−4

−2

0

2

40.05

0.10

0.15

x1

−4

−2

0

2

4

x2

−4

−2

0

2

4

0.0

0.1

0.2

0.3

x1

−4

−2

0

2

4

x2

−4

−2

0

2

4

0.0

0.1

0.2

0.3

Page 84: Estadística I Tema 4: Probabilidad y modelos probabilísticos

Esperanza y varianza condicionalI Si (X ,Y ) sigue una distribucion Gaussiana bivariante con

parametros µ = (µX , µY )′ y matriz de covarianzas

Σ =

(σ2X σXY

σXY σ2Y

)entonces:

I X ∼ N(µX , σ

2X

)e Y ∼ N

(µY , σ

2Y

), respectivamente.

I X e Y son independientes si y solo si σXY = 0.I Y |X = x0 sigue una distribucion Gaussiana univariante de

parametros:

µY |X = µY +σXY

σ2X

(x0 − µX )

σ2Y |X = σ2

Y −σ2XY

σ2X

I X |Y = y0 sigue una distribucion Gaussiana univariante deparametros:

µX |Y = µX +σXY

σ2Y

(y0 − µY )

σ2X |Y = σ2

X −σ2XY

σ2Y

Page 85: Estadística I Tema 4: Probabilidad y modelos probabilísticos

EjemploI Sea (X ,Y ) una variable aleatoria que sigue una distribucion

Gaussiana bivariante con parametros µ = (2, 1)′ y matriz decovarianzas:

Σ =

(5 33 10

)I Entonces, podemos afirmar que:

I Las distribuciones marginales de X e Y son X ∼ N (2, 5) eY ∼ N (1, 10), respectivamente.

I X e Y no son independientes ya que σXY 6= 0.I Y |X = 6 sigue una distribucion Gaussiana univariante de parametros:

µY |X = 1 +3

5(6− 2) = 3,4

σ2Y |X = 10− 32

5= 8,2

I X |Y = 3 sigue una distribucion Gaussiana univariante de parametros:

µX |Y = 2 +3

10(3− 1) = 2,6

σ2X |Y = 5− 32

10= 4,1