tp probabilidad

40
8/3/2019 TP Probabilidad http://slidepdf.com/reader/full/tp-probabilidad 1/40 1 Instituto Politecnico Superior Jose San Martin Materia: Probabilidad y Estadistica Profesor: Alejandro Rodriguez Costello

Upload: bruno-sanfilippo

Post on 07-Apr-2018

224 views

Category:

Documents


2 download

TRANSCRIPT

Page 1: TP Probabilidad

8/3/2019 TP Probabilidad

http://slidepdf.com/reader/full/tp-probabilidad 1/40

1

Instituto Politecnico Superior Jose San Martin

Materia: Probabilidad y Estadistica

Profesor: Alejandro Rodriguez Costello

Page 2: TP Probabilidad

8/3/2019 TP Probabilidad

http://slidepdf.com/reader/full/tp-probabilidad 2/40

2

Page 3: TP Probabilidad

8/3/2019 TP Probabilidad

http://slidepdf.com/reader/full/tp-probabilidad 3/40

Capıtulo 1

Probabilidad

1.1. Experimento Aleatorio(E)

Def: es aquel que proporciona diferentes resultados aun cuando se repita siempre de lamisma manera

Ejemplo:E 1 se tira un dado y se observa el nro que sale en su cara superiorE 2 se fabrica un lampara, luego se prueba su duracion poniendla en un portalamparas y se cuenta eltiempo hasta que se queme.

1.2. Espacio muestral, SL o S(Sample Space)

Def: es el conjunto de todos los posibles resultados de un experimento aleatorio.

Ejemplo:

S 1 = {1,2,3,...,6} numerable, finito o discreto

S 2 = {t ∈+0 } no numerable o continuo

1.3. Sucesos o eventos

Def: Un suceso A, respecto de un espacio muestral S asociado a un experimento aleatorioE, es un subconjunto de S. Notamos A  ⊆ S .

Ejemplo:

3

Page 4: TP Probabilidad

8/3/2019 TP Probabilidad

http://slidepdf.com/reader/full/tp-probabilidad 4/40

4 CAP   ITULO 1. PROBABILIDAD 

A1: ocurre un nro par =⇒ A1={2,4,6}

A2: la lampara se quema en menos de 3hs =⇒

A2={t/ 0≤

t < 3 }

1.4. Algebra de sucesos(Operaciones entre conjuntos)

Sean A y B dos sucesos )respecto del mismo espacio muestral S) entonces:

1. el suceso A ∪ B es el que ocurre ⇐⇒ AoB ocurren (o ambos)

2. el suceso A ∩ B es el que ocurre ⇐⇒ AyB ocurren

3. A es el suceso que ocurre ⇐⇒ A no ocurre

Sea A1,...,An cualquier sucesion finita de sucesos entonces

4.n

i=1 Ai (union i-esima) es el suceso que ocurre ⇐⇒ al menos uno de los sucesos Ai ocurre

5. ni=1 Ai (interseccion i-esima) es el suceso que ocurre

⇐⇒todos los sucesos Ai ocurren

6. bajo ciertas condiciones, cualquier coleccion infinita numerable de sucesos expanden las propiedadesd y e

7. sea S el espacio muestral asociado a E entonces SxS es el espacio muestral asociado a las dosrepeticiones de E

8. el punto anterior se puede generalizar para n repeticiones

1.5. Sucesos mutuamente excluyentes(disjuntos o incompatibles)

Dos sucesos A,B son mutuamente excluyentes si no pueden ocurrir juntos. Notamos

A ∩ B = 0

Ejemplo:

Sean A,B y C sucesos respecto S 2 definidas como:

Page 5: TP Probabilidad

8/3/2019 TP Probabilidad

http://slidepdf.com/reader/full/tp-probabilidad 5/40

1.6. FRECUENCIA RELATIVA  5

 A={t/t < 100} B={t/50}≤ t ≤ 200} C={t/t > 150}

 A y B son mutuamente excluyentes A ∩ B = 0, B ∩ C  = 0

1.6. Frecuencia Relativa

Def: sea n ∈ N , numero de veces que realizamos un experimento E y un suceso su-alquiera A. Si notamos n(A) como el numero de ocurrencias de A en las n repeticiones de E entonces:

f A = n(A)n

Propiedades:

1. 0 ≤ f A ≤ 1

2. f A = 1 ⇐⇒ A ocurre en las n repeticiones

3. f A = 0 ⇐⇒ A no ocurre en las n repeticiones

4. si A y B, 2 sucesos mutuamente excluyentes y si f A∪B = f A + f B

Ejemplo:

Se realiza 20 veces el experimento E 1 y arroja los siguientes resultados:

resultados 3 6 2 1 4 6 3 4 2 5 2 5 1 6n(A)/n 0/1 1/2 2/3 2/4 3/5 4/6 4/7 5/8 6/9 6/10 7/11 7/12 7/13 8/14

5.lım

n → α f A = P (A), converge probabilisticamente hablando

1.7. Probabilidad Clasica (Laplace)

Def: sea S un espacio muestral discreto y finito donde S={s1, s2, . . . , sn}llamamos sucesoelemental a cualquier elemento de S

Def: si todos los sucesos elementales son igualmente probables entonces P (si) = 1n , i =

1, . . . , n

Def: si A ⊆ S y P (si) = 1n , i = 1, . . . , n entonces P (A) = #A

#S = casosfavorablescasosposibles

Page 6: TP Probabilidad

8/3/2019 TP Probabilidad

http://slidepdf.com/reader/full/tp-probabilidad 6/40

6 CAP   ITULO 1. PROBABILIDAD 

Ejemplo:

P (A1) = #2,4,6@

#1,2,3,4,5,6@= 3

6

= 1

2

1.8. Axiomatica de probabilidad (Kolmogorov)

Def: sea E un experimento aleatorio y S un espacio muestral asociado a E, a cada suceso A asociamos un numero real P(A) llamado probabilidad del suceso A que satisface:

1. P (A)

≥0

2. P (S ) = 1

3. P (A ∪ B) = P (A) + P (B) cuando A ∩ B = 0

Ejemplo:

E 3 se arroja 2 veces una moneda y nos fijamos en cada tirada si sale cara(c) o cruz(x)

S 3 = {cc, cx, xc, xx} = {c,x}x{cxX}

A3 sale una cara P (A3) = 24

= 12

A3 = {cx, xc}

E 4 se arroja dos veces una moneda y nos fijamos cuantas veces sale cara

S 4 = {0,1,2}

P ({0}) = P ({2}) = 14

A4 : sale una cara = {1} = 12

= P({1})

Teoremas:

T 1 : Para cualquier suceso A, P (A) = 1 − P (A)

Page 7: TP Probabilidad

8/3/2019 TP Probabilidad

http://slidepdf.com/reader/full/tp-probabilidad 7/40

1.9. REGLA DE ADICION  7

Demostracion:

S = A ∪

A, como A ∩

A = 0 por el axioma 3 P(5) = P(A) + P (A), por el axioma 2 1 =P(A) + P (A) =⇒ P (A) = 1 - P(A)

T 2 : P (0) = 0

Demostracion:

0 = S P (0) = P (S ) = 1 − P (S ) = 0

T 3 : si A ⊆ B entonces P(A) ≤ P(B)

Demostracion:

B = A ∪ (B - A) por ser disjunto P(B) = P(A) + P(B - A)P(B) - P(A) = P(B - A) ≥ 0 =⇒ P(B - A) = P(B) - P(A)

T 4 : si A ⊆ B entonces P(B - A) = P(B) - P(A) para cualquier suceso A, 0 ⊆ P(A) ⊆ 1

Demostracion:

 A ⊆ S P(A) ≤ P(S) = 1

1.9. Regla de Adicion

Para cualquier suceso A y B, P (A ∪ B) = P (A) + P (B) − P (A ∩ B)

Teorema:

P (A∪ B ∪ C ) = P (A) + P (B) + P (C ) −P (A∩ B) −P (A∩C )−P (B ∩ C ) + P (A∩ B ∩C )

1.10. Probabilidad Condicional

Def: Sean los sucesos A y B, donde P(B) ¿0, se define como probabilidad condicional delsuceso A dado el suceso B:

Page 8: TP Probabilidad

8/3/2019 TP Probabilidad

http://slidepdf.com/reader/full/tp-probabilidad 8/40

Page 9: TP Probabilidad

8/3/2019 TP Probabilidad

http://slidepdf.com/reader/full/tp-probabilidad 9/40

1.12. TEOREMA DE PROBABILIDAD TOTAL  9

P (A ∩ B) = P (A)P (B/A) = 20100

.1999

= 19495

1.12. Teorema de probabilidad total

Def: decimos que B1 . . . Bn representa una particion del espacio muestral S si se cumplen:

1. Bi ∩ Bj = 0, ∀i = j

2.

n

i − 1 Bi = S 

3. P (Bi) > 0∀i

Ejemplo:

E 1B1 = {1,2}B2 = {3,4,5}B3 = {6}

B1, B2, B3esunaparticion

B1 = {1,2}B2={4,5,6}

B1, B2, B3 no es una particion

Idea:

Ai = A ∩ S  = A ∩ (B ∪ B) = (A ∩ B) ∪ (A ∩ B)disjuntsP (A) = P (A ∩ B) + P (A ∩ B) = P (A/B)P (B) + P (A/B)P (B)

Teorema:

Sea B1 . . . Bn una particion de S entonces

P(A) =

ni = 1 P (A/Bi)P (Bi)

Ejemplo:

Page 10: TP Probabilidad

8/3/2019 TP Probabilidad

http://slidepdf.com/reader/full/tp-probabilidad 10/40

10 CAP   ITULO 1. PROBABILIDAD 

Supongamos que tenemos dos cajas, una con 3 bolas de color rojo y 7 de color negro y laotra 6 rojas y 6 negras. Si se elije una caja al zar y despues se saca una bola ¿Cual es la probabilidadque sea de color rojo?

S  = {(C 1, R), ((C 1, N ), (C 2, R), (C 2, N )}

B1 = {(C 1, R), ((C 1, N )}B2 = {(C 2, R), ((C 2, N )}

P (R) = P (R/C 1)P (C 1) + P (R/C 2)P (C 2) = 36

· 12

+ 612

· 12

= 23

Ejemplo:

Suponga una poblacion humana de igual numero de hombres y mujeres, 4% de los hom-bres son daltonicos y el 1% de las mujeres. Una persona es elejida al azar ¿Cual es la probabilidad deque sea daltonico?

M: ”la persona es mujer”H: ”la persona es hombre”D: ”la persona es daltonica”

P (D) = P (D/M )P (M ) + P (D/H )P (H ) = 1100

· 12

+ 4100

· 12

1.13. Independencia

Def: dos sucesos A y B son independientes si P (A ∩ B) = P (A)P (B)

Propiedades:

P (A ∩ B) = P (A)P (B), P (B) > 0 =⇒ P (A/B) = P (A)P (A ∩ B) = P (A)P (B), P (B) > 0 =⇒ P (B/A) = P (B)

Nota: estas propiedades permiten una interpretacion sensilla de la independencia ya que

la probabilidad del suceso A es la misma cuando sabemos que ha ocurrido B o no sabemos nada.Nota: en la mayoria de los casos de aplicacion simplemente supondremos que dos sucesos son inde-pendientes basado en justificaciones intuitivas.

Ejemplo: reposicion P (A ∪ B) = 1125

defectuosos

La independencia tiene consecuencias sobre la regla de multiplicacion

P (

ni = 1 Ai) =

ni = 1 (Ai) generalizando a n sucesos

Page 11: TP Probabilidad

8/3/2019 TP Probabilidad

http://slidepdf.com/reader/full/tp-probabilidad 11/40

1.14. TEOREMA DE BAYES  11

Def: una coleccion de sucesos A1 . . . An es independiente ssi y solo si cualquier subcon- junto A1, A2 . . . Aik

P (

k j = 1 Aij) =

k j = 1 (Aik)

Nota: para verificar n sucesos hay que analizar 2n − n − 1 igualdades

Ejemplo:

E 1 B={2,4,6} .es par” A={2,3} P (A) = 2

6= 1

3

P (A ∩ B) = 16

= P (A)P (B) = 13

· 12

P (A/B) = 13 = P (A)

P (B) = 36

= 12

1.14. Teorema de Bayes

Sea B1 . . . Bn una particion de S y un suceso A/P(A)¿0

P(Bj/A) =P (A/Bj)P (Bj)n

i=1P (A/Bi)P (Bi)

Colorario:

Para el caso S  = B ∪ B

P (B/A) = P (A/B)P (B)

P (A/B)P (B)+P (A/B)P (B)

Ejemplo:

En una fabrica hay dos maquinas. A y B. La maquina A realiza el 60% de la producciontotal y la maquina B el 40%. De su produccion la maquina A produce 3% de material defectuoso ¿Cuales la probabilidad de que este material defectuoso provenga de la maquina B?

 A = ”la maquina A produce el material escojido”B = ”la maquina A produce el material escojido”D = .el material escojido es defectuoso”

Page 12: TP Probabilidad

8/3/2019 TP Probabilidad

http://slidepdf.com/reader/full/tp-probabilidad 12/40

12 CAP   ITULO 1. PROBABILIDAD 

P (B/D) = P (D/B)P (B)P (D/A)P (A)+P (D/B)P (B)

=5

10040100

3100

60100+

5100

40100

= 1019

Ejemplo:

En un laboratorio se descubrio una prueba para detectar cierta enfermedad y sobrela eficacia de dicha prueba se conoce lo siguiente: si se denota xE el suceso de que un pacientetenga la enfermedad y por N el suceso de que la prueba resulte negativa, entonces se sabe que

P (N /E ) = 0, 95P (N/E ) = 0, 96yP (E ) = 0, 01Con esta informacion uno podria pensar que es muy bueno, sin embargo calcularemos las probabili-dades P (E/N )yP (E/N ) usando el teorema de byes:

P (E/N ) = P (N/E)P (E)P (N/E)P (E)+P (N/E)P (E)+P (N/E)P (E)

= 0,05·0,010,95·0,01+0,04·0,99 = 0, 193

si la prueba es positiva no es muy confiable

Page 13: TP Probabilidad

8/3/2019 TP Probabilidad

http://slidepdf.com/reader/full/tp-probabilidad 13/40

Capıtulo 2

 Variables aleatorias discretas

2.1. Variable aleatoria

Def: una variable aleatoria es una funcion que asigna un numero real a cada resultadoen S de E.Nota: usamos mayusculas para las variables aleatorias y minusculas para el valor posible de la variablealeatoria.

Ejemplo: El numero de lineas externas ocupadas en una central telefonica con 40 lineasexternas es una variable aleatoria que tiene valores 0,...,48

Ejemplo: La distancia que recorre al disparar un proyectil es una variable aleatoria con valores en el intervalo (a,b).

2.2. Variable aleatoria discreta

Def: es una variable aleatorio numerable.

2.3. Distribuciones y funciones de probabilidad

Def: un evento formado por todos los resultados para los que X = x se nota como {X = x}

 y la probabilidad del mismo P(X = x).

Ejemplo: Sea X la variable aleatoria n◦ de caras que sale cuando arrojamos 2 veces unamoneda.

x 0 1 2P(X=x) 0.25 0.5 0.25

13

Page 14: TP Probabilidad

8/3/2019 TP Probabilidad

http://slidepdf.com/reader/full/tp-probabilidad 14/40

14 CAP   ITULO 2. VARIABLES ALEATORIAS DISCRETAS 

Def: la distribucion de probabilidad es una descripcion del conjunto de posibles valoresde X (rango de X) asociado a su probabilidad correspondiente.

Nota: Puede ser tabulada, grafica o analitica.

Def: la fucion f X(x) = P(X=x) que va Dom(X) −→ [0,1] recib el nombre de funcion deprobabilidad.

Nota: el subindice X de f indica la variable aleatoria de interes cuando no haya am-biguedad lo suprimimos.

1.

f (x) =

P (X  = x) si x = x1, x2, . . .

0 para otro caso

2. f X(x) ≥ 0∀ x

3.

x f X(x) = 1

Ejemplo:En una loteria se han emitido 100 billetes. Se sorteo un premio $100 pesos y 10 premios de $1.

Hallar la ley de distribucion de la variable aleatoria X, y el valor del premio posible para el poseedorde un billete de loteria.

x 0 1 50P(X=x) 0.89 0.1 0.01

Ejemplo:Sea f(x) = [2!/x!(2-x)!](0,8x)(0,22−x) = 0, 1, 2. Verificar que es una funcion de probabilidad. Grafi-carla. Calcular P(X ≥ 2) y P(X = 0).f(0)=0.04, f(1)=0.32, f(2)=0.64f(0)+f(1)+f(2)=1P(X ≥ 2) = P(X = 2) = 0.64P(X ¡1) = P(X = 0) = 0.04

2.4. Funcion de distribucion acumulada(funcion de dstribucion)

Def: la funcion de distribucion acumulada de una variable aleatoria X, denotada porF X(x) es

Page 15: TP Probabilidad

8/3/2019 TP Probabilidad

http://slidepdf.com/reader/full/tp-probabilidad 15/40

2.5. CARACTERISTICAS NUMERICAS (CARACTERIZAR)  15

F X(x) = P (X  ≤ x)

Nota: geometricamente esta desigualdad se puede interpretar asi: F X(x) es la probabil-

idad de que una variable aleatoria tome el valor representado sobre el eje numerico por un puntoubicado a la izquierda del punto x.

Corolario:

P (a < X  ≤ b) = F X(b) − F X(a)

Propiedades:

1. F X(x) = P (X  ≤ x) =

xi ≤ x f X(xi)

2. 0 ≤ F X ≤ 1

3. si x ≤ yentoncesF x ≤ F y

Ejemplo:Graficar la funcion de distribucion del ejemplo anterior y calcular P (X 

≤1,5)yP (0 < X 

≤4)

P(X ≤ 1.5) = F X(1,5) = 0,36P(0 ¡X ≤ 4) = F X(4) − F X(0) = 1 − 0,04 = 0,96

2.5. Caracteristicas numericas (caracterizar)

2.5.1. Esperanza matematica E(X) (valor esperado, media)

Def: µX = E(X) =x x ∗ f X(x)

Ejemplo:Moneda E(X) = 0 * 0.25 + 1 * 0.5 + 2 * 0.25 = 1 caraLoteria E(X) = 0 * 0.89 + 1 * 0.1 + 50 * 0.01 = 0.6 pesos

Nota: µ coincide dimencionalmente ocn la variable aleatoria.

Ejemplo:Hallar la E(X) siendo X el n◦ de apariciones del suceso A en una prueba si P(A) = p.

Page 16: TP Probabilidad

8/3/2019 TP Probabilidad

http://slidepdf.com/reader/full/tp-probabilidad 16/40

16 CAP   ITULO 2. VARIABLES ALEATORIAS DISCRETAS 

x 0 1P(X=x) 1-p p

E(X)=p

Sentido probabilistico E(X)

Se hacen n pruebas en las cuales X ha formado m1 veces el valor x1, . . . , mk veces el valor

xk, m1 + . . . + mk = n entonces la media aritmetica X  dado por m1∗x1+...+mk∗xkn

cuando aumentamosel n◦ de pruebas tiende a E(X).

lımn → ∞ X  = E (X )

Nota: es facil de probar si recordamoslım

n

→ ∞f xi = f x(xi)coni = 1 . . . k

Propiedades de E(X)

1. E(c) = c

2. E(cX) = cE(X)Sean X e Y dos variables aleatorias independientes

3. E(XY) = E(X)E(Y)

Colorario: E(XYZ) = E(X)E(Y)E(Z) extensino del punto 3

4. E(X+Y) = E(X)+E(Y)Colorario: E(X+Y+Z) = E(X)+E(Y)+E(Z) extensino del punto 4

Ejemplo:Se efectuan 3 disparos con probabilidades de hacer blanco p1 = 0,4, p2 = 0,3, p3 = 0,6. Hallar E(X)del n◦ total de impactos.E(X) = E (X 1) + E (X 2) + E (X 3) = 0.4 + 0.3 + 0.6 = 1.3 inpactos.

Ejemplo:Hallar la E(X) de la suma del n◦ de puntos que pueden aparecer al tirar 2 dados.E(X) = E (X 1) + E (X 2) = 7

2+ 7

2= 7.

Ejemplo:Hallar la E(X) del n◦ de aparicoines de un suceso A en n experimentos independientes con probabili-dad p.E(X) = E (X 1) + . . . + E (X n) = n ∗ p

Ejemplo:La probabilidad de hacer blanco de un canon es 0.6. Hallar la E(X) del n◦ de impactos en 10 disparos.

Page 17: TP Probabilidad

8/3/2019 TP Probabilidad

http://slidepdf.com/reader/full/tp-probabilidad 17/40

2.5. CARACTERISTICAS NUMERICAS (CARACTERIZAR)  17

E(X) = 10 * 0.6 = 6 inpactos.

2.5.2. Desviacion

Def: se llama desviacion a la diferencia entre X y E(X).Nota: la desviacion es una variable aleatoria.Supongamos que X toma valores x1, . . . , xnconp1, . . . , pn entonces la desviacion X - E(X) toma valoresx1 − E (X ), . . . , xn − E (X )conconp1, . . . , pn.

Teorema:La esperanza matematica de la desviacion es cero =⇒ E(X - E(X)) = 0

2.5.3. Varianza V(X)(dispersion)

Def: σ2x = V (X ) = E ([X − E (X )]2)

Ejemplo:Hallar V(X) dada la siguiente distribucion:

x 1 2 5f X(x) 0.3 0.5 0.2

  X-E(X) -1.3 -0.3 2.7

[X - E(X)]2 1.69 0.09 7.29

E(X) = 1 * 0.3 + 2 * 0.5 + 5 * 0.2 = 2.3 V(X) = 1.69 * 0.3 + 0.04 * 0.5 + 7.29 * 0.2 = 2.01

Teorema: ”Formula Equivalente” V(X) = E (X 2) − (E (X ))2

Usando el ejemplo anterior:

x 1 2 5x2 1 4 25

f X(x) 0.3 0.5 0.2

(E (X ))2 = 5.24E(X) = 1 * 0.3 + 4 * 0.5 + 25 * 0.2 = 7.3

 V(X)= 7.3 - 5.29 = 2.01

Nota: Comparando las caracteristicas numericas de las siguientes variables aleatoria X e Y 

Page 18: TP Probabilidad

8/3/2019 TP Probabilidad

http://slidepdf.com/reader/full/tp-probabilidad 18/40

18 CAP   ITULO 2. VARIABLES ALEATORIAS DISCRETAS 

x −1 1 2 3P(X = x) 0.48 0.01 0.09 0.42

E(X) = 0.97 V(X) = 2.73

y −1 1 2 3P(Y = y) 0.19 0.51 0.25 0.05 E(Y) = 0.97 V(Y) = 1.21

Propiedades de V(X)

1. V(c) = 0

2. V(cX) = c2 * V(X)Sean X e Y dos variables aleotorias independientes

3. V(X+Y) = V(X) + V(Y)

Colorario: V(c+X) = V(X)Nota: si la variable aleatoria se desplaza en el eje no hay diferencias en la varianza.

4. V(X - Y) = V(X) + V(Y)

Ejemplo:Hallar la V(X) del no de apariciones de un suceso A en n experimentos independientes con probabili-dad p de ocurrir.V (X ) = V (X 1) + V (X 2) + . . . + V (X n)V (X 1) = E (X 21 )

−(E (X ))2 = p

− p2 = p(1

− p)

Ejemplo:En el ejemplo del canon calcular V(X).

 V(X) = 10 * 0.6 * 0.4 = 2.4 impactos.

Nota: se muestra facilmente que ka V(X) tiene dimension igual al cuadrado de la dimen-sion de X.

2.5.4. Desviacion estandar σx(Desviacion cuadratica media o tipica)

Def: σx = 

V (X ), misma dimensionalidad

Ejemplo:σx =

√2,4 = 1.55 inpactos

Propiedad:σ(x1 + . . . + xn) =

 σ2(x1) + . . . + σ2(xn)

Page 19: TP Probabilidad

8/3/2019 TP Probabilidad

http://slidepdf.com/reader/full/tp-probabilidad 19/40

2.6. DISTRIBUCION DISCRETA UNIFORME  19

2.5.5. Momentos (Generalizacion)

Def: llamamos n-enesimo momento de X, cuando existe, al numero E (X n) para cualquier

 valor natural de n.

E (X n) =

x xnf (x)

Nota: el primer momento de X es la esperanza.

Def: llamamos n-enesimo momento central de X, cuando existe, al numero E [(X − µ)n]donde µ = E (X ).

E [(X − µ)n] =

x (X − µ)nf (x)

Nota: el segundo momento central de X es la varianza.Nota: momentos de 3er orden se llama simetria y el de 4to se llama curtosis.Nota: la varianza tambien puede verse como un momento de 2do orden con respecto a la mediaV (X ) = E (X 2) − µ2, µ = E (X ).

2.6. Distribucion discreta uniforme

Def: una variable aleatoria X es una variable aleatoria discreta uniforme si cada uno delos n valores que estan en el rango de esta x1, . . . , xn tienen la misma probabilidad.

f (xi) = 1n , µ = x1+xn

2 , σ2 = (xn−x1+1)2−1

12

Ejemplo: X: nro de puntos que se obtiene al tirar un dado f(x) = 1

6x=1 . . . 6

µ = 1+62

= 3,5 puntos σ = 

(6−1+1)2−112

= 1.71 puntos

2.7. Formula de Bernoulli

Def: un ensayo de Bernoulli es un experimento aleatorio que tiene solo dos resultadosposibles, ocurrir o no ocurri. La probabilidad de ocurrir de senota con p.

Nota: la de no ocurrir, como es un suceso complementario, es 1-p y se denota con q.

Nota: No es dificil demostrar que X ocurrencia en un ensayo de Bernoulli tiene µ = p,σ2 = pq

Page 20: TP Probabilidad

8/3/2019 TP Probabilidad

http://slidepdf.com/reader/full/tp-probabilidad 20/40

20 CAP   ITULO 2. VARIABLES ALEATORIAS DISCRETAS 

Supongamos que se realizan n ensayos de Bernoulli independientes en los cuales A puedeo no ocurrir. Por lo tanto la probabilidad p es la misma en todos ellos.La probabilidad de un suceso compuesto consistente en que en n pruebas A ocurre k veces y no ocurra

n-k veces por la regla del producto es pk

qn−

k

Estos sucesos compuestos pueden ser tantos como las convinaciones posibles de n elementos tomados

de a k  (n

k). Dado que estos sucesos compuestos se excluyen mutuamente, la probabilidad de que A ocurra k veces en n pruebas P n(k) es la suma de todos los sucesos compuestos posibles.

P n(k) = (n

k) pkqn−k

Ejemplo:La posibilidad de recibir 1 bit transmitido por un canal digital serie en forma erronea es 0.1. Los en-sayos de transmisoin son independientes. Sea X = numer de bits erroneos en ls proximos 4 bits queseran transmitidos. Describase S y el valor x en cada resultado. Calculese P(X=2).

s xCCCC 0CCCE 1CCEC 1CCEE 2

s xCECC 1CECE 2CEEC 2CEEE 3

s xECCC 1ECCE 2ECEC 2ECEE 3

s xEECC 2EECE 3EEEC 3EEEE 4

Suceso X = 2

{EECC, ECEC, ECCE, CEEC, CECE, CCEE}

P(EECC) = P(E)P(E)P(C)P(C) = (0.1)2(0,9)2 = 0,0081P (X  = 2) = 6 ∗ 0,0081 = 0,0486

6 = (42)

P 4(2) = (42)(0,1)2(0,9)2 = 0,0486

Nota: si recordamos el binomio de newton

( p + q)n =

nk = 0 (

n

k) pkqn−k = 1q=1-p

Page 21: TP Probabilidad

8/3/2019 TP Probabilidad

http://slidepdf.com/reader/full/tp-probabilidad 21/40

2.8. DISTRIBUCION BINOMIAL  21

f (x) = (nx) pxqk−x con x=0, . . ., n, es una funcion de probabilidad

2.8. Distribucion Binomial

Def: un experimento de n ensayos repetidos recibe el nombre ”binomial”si los mismosson:

1. independientes

2. ensayos de Bernoulli

3. p permanece constante

Def: la variable aleatoria X = no de ensayos ocurridos en un experimento binomial tienedistribucion binomial de parametros n y p, con funcion de probabilidad

f (x; n, p) = (nx) pxqn−xconx = 0, . . . , n

µ = np,σ2 = npq

Nota: X ∈ B(n,p)

Ejemplo:Una moneda se arroja dos veces. Sea X = no de caras, graficar la funcion de probabilidad.

x 0 1 2

f(x) 1/4 1/2 1/4

 X ∈ B(2,1/2) µ = 1 cara σ = 0.5 caras P 2(0) = (20)1

0

212

2= 1

4

P 2(1) = (21)1

1

211

2= 1

2

P 2(2) = (22)1

0

212

0= 1

4

Nota: los ensayos de Bernoulli encuadran una familia de distribuciones de interes.

2.9. Distribucion Geometrica

Def: en una serie de ensayos de Bernoulli independientes con probabilidad p de ocurrir(exito), si la variable aleatoria denota el no de ensayos hasta la primer ocurrencia entonces X es una

 variable aleatoria geometrica de parametros p y 

Page 22: TP Probabilidad

8/3/2019 TP Probabilidad

http://slidepdf.com/reader/full/tp-probabilidad 22/40

22 CAP   ITULO 2. VARIABLES ALEATORIAS DISCRETAS 

f (x) = (1 − p)x−1 pconx = 1, 2, . . .µ = 1/p,σ2 = (1 − p)/p2

Ejemplo: usand el mismo E de la linea de transmision digital y sea ahora X = n o de bitstransmitidos hasta que se producen el primer error. Calcular P(X=5)P(X=5)=P(CCCCE)= 0,94 ∗ 0,1 = 0.066

¿Cual es el numero esperado de bits transmitidos correctamente hasta que se produce elprimer error?¿la desviacion standar?

µ = 1 p = 10bits, σ = 9,49

Nota: ausencia de memoria (independencia), ejemplo, P (X  = 106

|X > 100) = P (X  =

6)Nota: esta distribucion se puede generalizar a r ocurrencias.

2.10. Distribucion Binomial Negativa

Def: en una serie de ensayos de Bernoulli con p cte si la variable aleatoria X denota elno de ensayos hasta que se produzca la r ocurrencia entonces X es una viariable aleatoria binomialnegativa con parametros p y r = 1, 2,. . . y 

f (x) = (x−1

r − 1)(1 − p)x−r pr con x = r, r+1,. . .µ = r/p,σ = r(1 − p)/p2

Nota: el resultado µ y σ2 puede obtenerse mediante X = X 1 + . . . + X r (debido al efectoausencia de memoria) donde X i es una variable aleatria geometrica de parametro p.

Nota: X ∈ B(x - 1, p) P(Y = r -1)=(x−1

r − 1)(1 − p)x−r ↔  pr−1

P(X = x) = P(Y = r - 1)p = (x−1

r − 1) pr

Ejemplo:Un sitio web es mantenido por un ISP mediante 3 servidores. Solo uno se utiliza a la vez y los otrosdos estan de backups para activarse en caso de falla. La probabilidad de falla ante una solicitud deservicio del servidor activo es 0.0005 (asumimos que loos otros servidores son identicos). Si cada so-licitud represneta un ensayo independiente, ¿cual es el valor medio de solicitudes hasta que fallen los3?¿cual es la probabilidad de que los 3 fallen dentro de los primeras 5 solicitudes?

 X = no de solicitudes hasta que los 3 servidores fallen.

Sean X 1, X 2yX 3 = no de solicitudes antes del fallo del servidor 1,2 y 3 respectivamente.X 1

Page 23: TP Probabilidad

8/3/2019 TP Probabilidad

http://slidepdf.com/reader/full/tp-probabilidad 23/40

2.11. APROXIMACION A LA BINOMIAL POR POISSON  23

X  = X 1 + X 2 + X 3  y como los backups no estan afectados por las solicitudes de las anteriores (solic-itudes independientes y otras con p)

 X es binomial negativa de parametro p=0.00005 con r = 3, µ = 3/0.00005 = 6000 solicitudes

P(X ≤ 5) = P(X = 3) + P(X = 4) + P(X = 5) = 1.249 * 10−9

2.11. Aproximacion a la Binomial por Poisson

Def: la funcion ϕ(x) se llama funcion aproximada asintoticamente a la f(x) silım

x → ∞f (x)ϕ(x)

= 1

En casos donde n es grande y p pequeno se puede satisfacer la formula de Bernoulli conla formula asintotica de Poisson.

 Admitimos np = λ constante. Esto significa que el promedio de ocurrencias del suceso en diferentesseries de experimentos (distintos n) permanece invariable.

P n(k) = n!k!(n−k)! p

k(1 − p)n−k = n(n−1)(n−2)...(n−(k−1))(n−k)!k!(n−k)!

( λn

)k(1 − λn

)n−k

lımn → ∞ P n(k) =

λk

k!lım

n → ∞[n(n−1)...(n−(k−1))

n∗n∗... (1 − λn )n(1 − λ

n )−k]

= λk

k!

lımx → ∞ 1(1 − 1

n ) . . . (1 − k−1n )(1 − λ

n )n = λ∗e−λk!

≈ P n(k)

Ejemplo:

Una fabrica envio al deposito 5000 piezas de buena calidad. La probabilidad de que cuan-do se transporta una pieza se obtiene es 0.0002. Hallar la probabilidad de que lleguen al deposito 3piezas inservibles.

 X: no de piezas inservibles X ∈ B(5000,0.0002)

λ = 1, P(X = 3)≈ 13e−1

3!= 1

6e= 0.0613 (la quinta sifra difiere en 1)

2.12. Distribucion de Poisson

Def: dado un intervalo de numeros reales, donde el conteo de ocurrencias es aleatorio,si este puede subdividirse en subintervalos suficientemente pequenos tales que:

1. La probabilidad de mas de una ocurrencia en el subintervalo es 0.

2. La probabilidad es la misma para todos los subintervalos y proporcional a la longitud de los

Page 24: TP Probabilidad

8/3/2019 TP Probabilidad

http://slidepdf.com/reader/full/tp-probabilidad 24/40

24 CAP   ITULO 2. VARIABLES ALEATORIAS DISCRETAS 

mismos.

3. El conteo de ocurrencias en cada subintervalo es independiente de los demas, entonces este tipode E recibe el nombre de proceso de Poisson.

Ejemplos:

Llamadas a una central telefonica.

 Arribo a un centro medico de urgencias.

Llegadas de aviones al aeropuerto.

Paquetes transmitidos por un canal de comunicacion.

Fallas de elementos.

Nota: al proceso de Poisson se lo llama flujo simple o elemental.

Def: la variable aleatoria X = no de ocurrencias en un intervalo de un proceso de Poissontiene una distribucion de Poisson con parametros λ ¿0 (no promedio de ocurrencias en el intervalo) y 

f(x)= e−λλx

x!con x = 0, 1, . . .

µ = λ, σ2 = λ

Nota: la dimensionalidad de λ y X son vitales para la correcta resolucion , si X  ∈ P(λ)representa el no de ocurrencias en un intervalo, entonces λ debe ser el promedio en un intervalo deigual longitud.

Nota: historicamente los procesos de Poisson se los asocia con el tiempo sin embargo estono es necesario.

Ejemplo:

Sea un alambre con una media de 2.3 fallas por milimetro y cuyo no de fallas esta dadopor un proceso de Poisson. ¿Cual es la probabilidad de tener 2 fallas en 1mm?¿10 fallas en 5mm?Determinar la probabilidad de tener al menos 1 falla en dos mm.

1mm → 2.3 f/mm, 5mm → λ = 2,3f/mm → 5mm = 11.5 fallas

Page 25: TP Probabilidad

8/3/2019 TP Probabilidad

http://slidepdf.com/reader/full/tp-probabilidad 25/40

Page 26: TP Probabilidad

8/3/2019 TP Probabilidad

http://slidepdf.com/reader/full/tp-probabilidad 26/40

26 CAP   ITULO 2. VARIABLES ALEATORIAS DISCRETAS 

Nota: generalizacion de alguno de los problemas de conteo vistos donde hay una clasifi-cacion binaria.

Nota: [(N-n)/(N-1)] es lo que se llama factor de correccion de poblacion finita. El mismosugiere que frente a N muy grande respecto de n, la binomial es una buena aproximacoin (el motivode esto es que aunque p no permanece constante, varia muy poco).

Ejemplo (ejercicio 5 practica 1):

 X = n◦ de bolas negras, X ∈ H(27,12,2)

P(X=2) = 22117

= 0.1880

Ejemplo:

Se tiene un listado de 1000 clientes, 700 han comprado al menos 1 de los productos en venta en los ultimos 3 meses. Para evaluar el diseno de un nuevo producto se elijen 50 clientes al azxar¿Cual es la probabilidad de que mas de 45 clientes de la muestra hayan adquirido algun producto enlos ultimos 3 meses?

 A: ”1er cliente seleccionado hizo una compra en los ultimos 3 meses” A: ”2do cliente seleccionado hizo una compra en los ultimos 3 meses”

P(A)= 700/1000 = 0.7 ≈ P(B/A) = 699/999 = 0.6997

 X = n◦ de clientes en la muestra que han comprado en los ultimos 3 meses

 X ∈ H(1000,700,50), p = k/N = 0.7, n = 50H(1000,700,50) ≈ B(50,0.7)

P(X ¿45) =

50x = 46 (

50x ) ∗ 0,7x ∗ 0,350−x = 0,00017

La probabilidad calculada por la distribucion hipergeometrica es 0.000166

2.14. Ley de los Grandes Numeros

2.14.1. Teorema de Chebyshev(Ley Debil)

Def: sea una distribucion de probabilidad con µ y σ, la probabilidad de obtener un valorque se desvie de µ en al menos k es a lo que sumo 1/k2

P (|X 

−µ| ≥

kσ)≤

1/k2

Page 27: TP Probabilidad

8/3/2019 TP Probabilidad

http://slidepdf.com/reader/full/tp-probabilidad 27/40

2.14. LEY DE LOS GRANDES NUMEROS  27

Nota: P (|X − µ| < kσ) ≥ 1/k2

Ejemplo:

Sea X: n◦ de clientes que visitan la sala de exivicoin de automoviles los sabados a lamanana, con µ = 18 y  σ = 2,5 ¿Con que probabilidad podemos afirmar que habra entre 8 y 28clientes?

k = 28−182,5

= 18−82,5

= 4, P (8 < X < 28) ≥ 1 − 1/42 = 15/16

2.14.2. Teorema de Bernoulli(Ley Fuerte)

Def: sea X 1, . . . , X  n una secuencia de variables aleatorias independientes, identicamentesdistribuidas con µ acotado, la probabilidad de que la media aritmetica converga a µ es tan cercana a1 como X quiera siempre que n sea lo suficientemente grande.

P (lım

n → ∞ X n = µ) = 1

Nota: es una aplicacion de teorema de Chebyshev para experimentos binomiales para nmuy grande.Nota: esto justifica la nocion de convergencia de la frecuencia relativa.

Ejemplo:Demuestre que para 40000 lanzamientos de una moneda balanceada la probabilidad de que la pro-porcoin de caras caiga entre 0.475 y 0.525 es al menos 0.99

µ = 40000 * 1/2 = 20000, σ = 

40000 ∗ 4/2 ∗ 1/2 = 100, 1 − 1/k2 = 0,99 → k=10 porChebyshev sabemos P(20000 - 10 * 100 z X ¡20000+10 * 100) ≥ 0.99 entre 19000/40000 = 0.475 y 21000/40000= 0.525 es 0.99

Page 28: TP Probabilidad

8/3/2019 TP Probabilidad

http://slidepdf.com/reader/full/tp-probabilidad 28/40

28 CAP   ITULO 2. VARIABLES ALEATORIAS DISCRETAS 

Page 29: TP Probabilidad

8/3/2019 TP Probabilidad

http://slidepdf.com/reader/full/tp-probabilidad 29/40

Capıtulo 3

 Variables aleatorias continuas

3.1. Definicion

Si el rango de una variable aleatoria X contiene un intervalo de numeros reales (acotadoo no), entonces X es una variable aleatoria continua.

Nota: se llama variable aleatoria continua a aquella cuya funcion de distribucion de prob-abilidad es continuamente diferenciable.

Ejemplo:

Sea F(X) una funcion de ditribucino de probabilidad dado por:

F (x) =

0 si x ≤ −1

14

x + 14

si −1 < x ≤ 3

1 si x > 3

Hallar la probabilidad de que como resultado de la prueba, X tome un valor acotado enel intervalo (0,2] y ademas grafique F(x).

P(0 ≤  X ≤ 2) = F(2) - F(0) = ( 12

+ 14

) - 14

= 12

Nota: si los valores posibles de una variable aleatoria continua se encuentran en todo eleje x, entonces:

lımx → −α F(x)=0 y 

lımx → α F(x)=1

29

Page 30: TP Probabilidad

8/3/2019 TP Probabilidad

http://slidepdf.com/reader/full/tp-probabilidad 30/40

30 CAP   ITULO 3. VARIABLES ALEATORIAS CONTINUAS 

3.2. Funcion densidad de probabilidad

Def: Se llama funcion densidad a la derivada primera de la funcion de distribucion deuna variable aleatoria continua:

f(x) = F ’(x)

Propiedades:

1. f(x) ≥ 0

2. − ααf (x) dx = 1

3. P (a ≤ X  ≤ b) = ba

f (x) dx

Corolarios:

1. P (a ≤ X  ≤ b) = P (a < X  ≤ b) = P (a ≤ X < b)

2. la probabilidad de que una variable aleatoria continua tome un valor determinado es cero

3.3. Independencia Geometrica

Nota: si f(x) es par entonces P (−a < x < a) = P (|x| < a) = 2 a0

f (x) dx

Ejemplo:

Dada la funcion densidad f(x), hallar la probabilidad de que debido a la prueba, X tome

un valor perteneciente a (0.5;1)

f (x) =

0 si x ≤ 0

2x si 0 < x ≤ 1

0 si x > 1

P (0,5 < x < 1) = 0

,512xdx x2

10,5 = 1 - 0.25 = 0.75

Page 31: TP Probabilidad

8/3/2019 TP Probabilidad

http://slidepdf.com/reader/full/tp-probabilidad 31/40

3.3. INDEPENDENCIA GEOMETRICA  31

Ejemplo:

Sea X una variable aleatoria continua con rango en todo

cuya funcion densidad estadada por f(x) = a

e−x+ex. Hallar la constante a.

 − αα f(x) dx = 1 → a

 − αα dx

e−x+ex

 − αα dx

e−x+ex=

lımb → −α

 0b

dxe−x+ex+

lım

c→−α c

0

dxe−x+ex =

lımb → −α π

4− (arctan eb)+

lımc → −α arctan ec − π

4= π

4+ π

4= π

2

→ a

π

2 = 1, a =

π

2

Nota: P(X ≤ x) = F(x) = − αx f(u) dx

Ejemplo:

Dada la funcion densidad hallar la funcion distribucion y graficar

f (x) =

0 si x ≤ a

1b−a

si a < x ≤ b

0 si x > b

Si x ≤ a f(x) = 0 → F(x) = 0Si a < x ≤ b f(x) = 1

b−a

F(x) = − α

x

f (u)du = − α

a

0du + xa

dxb−a =

x−

ab−a

Si x > b F(x) = − αa 0 du +

 ba

dub−a +

 xb

0 du = b−ab−a = 1

f (x) =

0 si x ≤ a

x−ab−a

si a < x ≤ b

1 si x > b

Page 32: TP Probabilidad

8/3/2019 TP Probabilidad

http://slidepdf.com/reader/full/tp-probabilidad 32/40

32 CAP   ITULO 3. VARIABLES ALEATORIAS CONTINUAS 

3.4. Distribucion Uniforme Continua

Def: se llama distribucion uniforme si en el intervalo al que pertenecen todos los posibles valores de la variable aleatoria continua la funcion densidad tiene un valor constante.

f (x) =

1b−a si x ∈ (a, b)

0 en otro caso

Nota: ba

cdx =1 → c = 1 ba

dx= 1

b−a

µ = a+b2

, σ2 = (b−a)2

12

Nota: en el ejemplo anterior calculamos F(x), µ y σ, la distribucion uniforme continua.

Ejemplo:

La escala de un instrumento esta graduada en ciertas unidades. El error al redondearhasta una division entera proxima se puede considerar como variable aleatoria continua X que puedetomar, con densidad constante de probabilidad, cualquier valor entre 2 distribuciones enteras ocn-tiguas. Determine f(x) si una division marca 3.15 y la contigua 3.20. Cual es la probabilidad de que elerror este entre 3.153 y 3.158.

f (x) =

20 si x ∈ (3,15, 3,20)

0 en otro caso

 X ∈ (3.15,3.20)P(3.153 ¡x ¡3.158) = F(3.158) - F(3.153) = 0.16 - 0.06 = 0.1

3.5. Caracteristicas Numericas

Sea X una variable aleatoria continua entonces

µ = − αα xf(x)dx ; σ2 =

 − αα(x − µ)2 - f(x) dx =

 − ααx2f(x)dx - µ2; σ =

√σ2

Ejemplo:

Halla µ y σ2 de v.a.c. X dada por la funcion densidad del ejemplo anterior.

Page 33: TP Probabilidad

8/3/2019 TP Probabilidad

http://slidepdf.com/reader/full/tp-probabilidad 33/40

3.6. DISTRIBUCION NORMAL  33

µ = ba

xb−a dx = 1

b−a [| ba] = b2−a2

2(b−a)= b+a

2

σ2

= ba

x2

b−a dx - (b+a

2)2

=1

b−a [x3

3 |b

a] -

(b+a)2

4 = b3

- a3

3(b−a) -

(b+a)2

4 = b3

- 3b2

a + 3ba2

- a312(b−a)

= (b−a)2

12

3.6. Distribucion Normal

Def: decimos que la v.a.c. X itene una distribucion normal si su funcion de distribucion

de probabilidad estas dada por f(x) = 1√ 2πσ2

e−(x−µ)2

2σ2 , en donde µ ∈  y σ ¿0 son dos parametros. E(X) = µ, V(X) = σ2

Nota: XN(µ,σ)

Nota: a la cantidad 6σ suele denominarse ancho de una distribucion normal.

En particular si µ=0 y  σ2 = 1 decimos que la v.a.c. X tiene una distribucion normal es-tandar, XN(0,1). En este caso

f(x) = e−x2

2√ 2π

P (µ − σ < X < µ + σ) = 0.6827P (µ − 2σ < X < µ + 2σ) = 0.9545P (µ − 3σ < X < µ + 3σ) = 0.9973

P: sea X una v.a.c con distribucion normal de parametros µ,σ. Entonces:

Z  = X−µσ

tiene una distribucion normal estandar.

Nota: a esta operacion se la conoce como estandarizacion.

Para todo X  ∈ , notaremos como φ(x) = P (Z  ≤ x), funcion de distribucion de una variable aleatoria normal estandar.

φ(x) = − αx e−

u2

2√ 2π

dx

Nota: estas probabilidades estan tabuladas, a partir de 0 hasta 3.99

Ejemplo:

Page 34: TP Probabilidad

8/3/2019 TP Probabilidad

http://slidepdf.com/reader/full/tp-probabilidad 34/40

34 CAP   ITULO 3. VARIABLES ALEATORIAS CONTINUAS 

Calcular P (Z  ≤ 2,78)ir a la tabla . . ., se obtiene 0.9973

Uso de φ(x) y tablas.

Sea k ∈ entonces

P(X ≤ x) = P ( X−µσ ≤ x−µ

σ ) = P (Z  ≤ z)

donde ZN(0,1) y z = x−µσ

, es el valor obtenido a traves de la estandarizacion de X.

Ejemplo:

La estatura de 600 soldados se distribuye normalmente de media 1.68m y distribuciontipica de 8cms¿Cuantos miden entre 1.66m 1.7m?

 X: estatura de los soldados X N(1.68,8)

P (1,66 ≤ X  ≤ 170) = P ( 166−1688

≤ X−1688

≤ 170−1688

) =P (−0,25 ≤ z ≤ 0,25) = P (z ≤ 0,25) − P (z ≤ −0,25) = P (z ≤ 0,25) − P (z ≥ 0,25) = 2P (z ≥ 0,25) − 1= 0.1974

 Y: n◦ de soldados que miden entre 1.66m y 1.7m en una poblacoin de 600 soldados.

 YB(600;0.1974) µY =600*0.1974 = 118.44 ≈ 118 soldados

Nota: es importante entender el problema para tomar la aproximacion correcta, en estecaso solo la fraccion entera 118.

Nota: tambien puede pensarse a 19.74% como la fraccion de la poblacoin que cumple conlas medidas solicitadas, opr lo tanto el 19.74% de 600 soldados es 118 soldados.

Nota: tambien puede pensarse a 19.74% como la fraccion de las poblacion, que cumplecon las medidas solicitadas, por lo tanto el 19.74% de 600 soldados es 118 soldados.

3.7. Teorema Central del Limite

Sea X 1, . . . , X  n una sucesoin v.a independientes e identicamente donde S n = X 1 + . . . +X n, distribucoines con media µ y varianza finita σ2, entonces la funcion distribucion de la v.a. Z n =Sn−nµ√ 

nσtiende a la distribucion normal estandar cuando n es suficientemente grande.

Page 35: TP Probabilidad

8/3/2019 TP Probabilidad

http://slidepdf.com/reader/full/tp-probabilidad 35/40

3.8. CONSECUENCIAS DEL TCL  35

lımn → α F Zn(x) = φ(x)

Nota: este resultado fue generalizado por Liapunov 

3.8. Consecuencias del TCL

Sea X la v.a. con distribucion definida como S n =

ni = 1 X n donde xi representa unexper-

imento de Bernoulli µxi y σ2

xi para todo i=1 . . . n entonces por el TCL Z n = Sn−np√ n√  pq

= X−µσx

tiende a

la distribucion normal estandar, cuando n es suficientemente grande.

 XB(n,p) → N (np,√

npq)

Nota: nuevamente abra que adoptar un criterio practico para la aproximacoin. Una bue-na aproximacoin es np ¿S y nq ¿S y exelente si np ¿10 y nq ¿10. Esto tiene que ver con cuestiones desimetria.

Nota: debido a que estamos pasando de una distribucio discreta a una continua se ob-tienen meojres resultados aplicando un facvtor de coneccion por continuidad.

Ejemplo:

En un canal de comunicacion digital, el numero de bits que se reciben de manera erroneaes 10−5  y se transmiten 16 millones de bits ¿Cual es la probabilidad de que se presenten mas de 150erroneos?

 X: nro de errores, P(X ¿150) = 1-P (X  ≤ 150) = 1 -

150x = 0 (

16000000x )(10−5)x(1−10−5)16000000

3.9. Otras aproximaciones

Si X es una v.a. de Poisson con µ = λ y  σ2 = λ entonces Z = X−λ√ λ

es de manera aproxi-

mada una variable aleatoria normal estandar.

Nota: λ = np, λ ¿S buena aprox λ ¿10 exc. aprox.

Ejemplo:

Page 36: TP Probabilidad

8/3/2019 TP Probabilidad

http://slidepdf.com/reader/full/tp-probabilidad 36/40

36 CAP   ITULO 3. VARIABLES ALEATORIAS CONTINUAS 

El numero de particulas de asbesto en un centimetro cuadrado de polvo tiene una dis-tribucion Poisson con media 1000. Si se actualiza un centimetro cuadrado de polvo ¿Cual es la prob-abilidad de encontrar menos de 950 particulas de asbesto?

 X: nro de particulas P (X  ≤ 950) =

950x = 0 e−1000x1000

x!≈ P (Z  ≤ 950−1000√ 

1000)

= P (Z ≤ −1,58) = 1 - φ(1.58) = 0.057

Distribucion hipergeometrica ≈ Distribucion binomial ≈ Distribucion normal

3.10. Distribucion Exponencial

Def: sea la v.a. X distancia entre ocurrencias sucesivas de un proceso de Poisson con me-dia λ ¿0, entonces X tiene una distribucion Exponencial de parametros λ cuya funcion densidad deprobabilidad es

f (x) =

λ ∗ e−λ∗x si x > 0

0 en otro caso

µ = 1λ , σ2 = 1

λ2

Notamos XExp(λ)

Nota: sea N una v.a. n◦ de ocurrencias en un intervalo de un proceso de Poisson y  λ n◦

promedio de ocurrencias por unidad de dicho intervalo

P (X > x) = P (N  = 0) = e−λ∗x(λ∗x)00!

= e−λ∗x

F(x) = P (X  ≤ x) = 1 − e−λ∗x, x ≥ 0, derivando obtenemos f(x).

Nota: hay que tener cuidado con la dimensionalidad (Poisson).

Ejemplo:

En una red de computadoras, el acceso de los usuairos al sistema puede modelarse comoun proceso Poisson con media de 25 accesos por hora ¿Cual es la probabilidad de que no haya accesosen un intervalo de 6 minutos?

 X: tiempo en hs desde el inicio del intervalo hasta que se presente el primer acceso.

6 min = 0.1 hs, P(X ¿0.1) = 0

,1α5e−25xdx = −e−25x| α0,1= e−2,5 = 0,082

Page 37: TP Probabilidad

8/3/2019 TP Probabilidad

http://slidepdf.com/reader/full/tp-probabilidad 37/40

3.11. CARENCIA DE MEMORIA  37

Nota: se obtiene la misma respuesta si se expresa λ como 0.417 accesos por minuto y se calcula la probabilidad de que erl tiempo transcurrido hasta el siguiente acceso sea mayor que 6minutos.

Nota: una v.a. exponencial puede considerarse como el analogo continuo de una v.a. ge-ometrica.

3.11. Carencia de Memoria

Sea X una v.a. exponencial P (X < t1 + t2|X > t1) = P (X < t2)

Ejemplo:

Sea X tiempo entre detecciones de una particula por un contador Geiger con distribucionexponencial y media de 1.4 min. Determine la probabilidad de detectar una particula durante el lapso30 segundos que transcurre desde que se enciende el contador. Ahora, suponga que se enciende elcontador y transcurren 3 min sin detectar alguna particula ¿Cual es la probabilidad de detectar unaparticula en los 30 segundos siguientes?

P (X < 0,5) = 1 − e−1,4(0,5) = 0,5, P (Xz 3,5|x > 3) = P (3 < x < 3,5)/P (X > 3) =0,0075/0,015 = 0,5P (3 < x < 3,5) = F (3,5)

−F (3) = 1

−e−1,4(3,5)

−[1

−e−1,4(3)] = 0,0075

P (X > 3) = e−1,4(3) = 0,015

3.12. Distribucion Erlang

Def: la v.a. X igual al intervalo en que se presentan r fallas en un proceso de Poisson conmedia λ ¿0, tiene una distribucion Erlang de parametros r,λ con funcion densidad de probabilidad

f (x) =

∗x)r−1

(r−1)! λ ∗ e−λ

∗x

si x > 0, r = 1, 2, . . .

0 si x < 0

 y µ = rλ , σ2 = r

x2. Notamos XEr(r,λ)

Nota: la distribucion Erlang es una generalizacion de la exponencial, si XEr(1,λ) = XExp(λ)

Nota: una v.a. Erlang puede considerarse como el analogo continuo sw una v.a. binomialnegativa. Por analogia con lanota anterior y la informacion del capitulo anterior puede entenderse las

Page 38: TP Probabilidad

8/3/2019 TP Probabilidad

http://slidepdf.com/reader/full/tp-probabilidad 38/40

38 CAP   ITULO 3. VARIABLES ALEATORIAS CONTINUAS 

expresiones para µ y σ2.

Nota: igual que se aclaro para la distribucion exponencial debera prestarse atencion alproblema de la dimensionalidad.

Ejemplo:

Las fallas en las unidades de procesamiento central de los sistemas de computo, a menudose modelan como procesos de Poisson. Lo comun es que las fallas de naturaleza mas aleatoria del grannumero de circuitos semiconductores que forman las unidades. Supongase que las unidades que fallanse representan de inmediato y qur el numero promedio de fallas por la hora es 0.0001. Sea X tiempoque transcurre hasta que se presentan 4 fallas en un sistema. Calculese la probabilidad de que X seamayor que 40 mil hs.

P (X > 40000) = 4

0000α λ4x3e−λ∗x

3!dx = 0.4334, r=4,λ = 0,0001

El calculo anterior no es trivial. Alternativamente el problema se puede reformular. Sea X: nro de fallas antes de las 40000hs

E(X) = 40000hs*0.0001 fallas/hs = 4 fallas NP(4), P (X > 40000) = P(N ≤ 3) =3

k = 0 e−444

k! = 0,4334

3.13. Otras distribuciones de importancia

3.13.1. Distribucion Gama

Def: la v.a.c. X tiene distribucion gama con parametros r > 0 y  λ > 0 y notamos

X gama(r, λ) si su funcion densidad de probabilidad es f(x)= (λ∗x)r−1

η(r)λ ∗ e−λ∗x si X > 0, µ = r

x,

σ2 = rx2

donde η(r) es la funcion gama definida como

η(n) = α0

tn−1e−t dx

 y cumple:η(n − 1) = nη(n)η(n + 1) = n! si n enteroη(2) = η(1) = 1

Nota: la distribucion gama es una generalizacion de la distribucion Erlang X gama(r, λ),

Page 39: TP Probabilidad

8/3/2019 TP Probabilidad

http://slidepdf.com/reader/full/tp-probabilidad 39/40

Page 40: TP Probabilidad

8/3/2019 TP Probabilidad

http://slidepdf.com/reader/full/tp-probabilidad 40/40

40 CAP   ITULO 3. VARIABLES ALEATORIAS CONTINUAS 

Notamos X W (δ, β )

µ = δη(1 + 1

β

), σ2 = δ2η(1 + 2

β

) - δ2[η(1 + 2

β

)]2

Nota: si X W ( 12

, 1) → X Exp(λ)

Nota: si X W (δ, β ), F (x) = 1 − e−(xδ )

β

Ejemplo:

El tiempo de falla en horas de un cojinete esta modelado satisfactoriamente por una v.a.Weibull con β =1/2 y  δ=5000 horas. Calculese el tiempo promedio de falla y la probabilidad de queel cojinete dure al menos 6000 horas.

µ = 5000η(1+1/0.5) = 5000η(3) = 5000*2! = 10000 horas

P (X > 6000) = 1 − F (6000) = e−(6000/5000)1/2

= 0.3344

Nota: Tasa de fallos decreciente → β < 1: sugiere la presencia de mortalidad infantil,significa que los items defectuosos fallaran temprano y que la tasa disminuye con el tiempo.Tasa de fallos constante → β  = 1: sugiere que los items fallan por la presencia de eventos aleatoriossolamente.Tasa de fallos creciente → β > 1: sugiere la presencia de desgaste, las piezas fallaran mas facilmentea medida que pasa el tiempo.