tabla de contenidos 1. nociones elementales de ... · 1.2.2 conceptos bÁsicos de anÁlisis...

118
TABLA DE CONTENIDOS 1. NOCIONES ELEMENTALES DE PROBABILIDAD 1.1 NOCIONES SOBRE CONJUNTOS 1.1.1 DEFINICIÓN DE CONJUNTO. 1.1.2 NOTACIÓN. 1.1.3 EJEMPLOS. 1.1.4 CONJUNTO UNIVERSAL Y CONJUNTO VACÍO. 1.1.5 OPERACIONES ENTRE CONJUNTOS 1.1.6 EJEMPLO 1.1.7 ALGUNAS DEFINICIONES O LEYES DE INTERÉS 1.2 MODELOS PROBABILÍSTICOS 1.2.1 CARACTERÍSTICAS DE LOS FENÓMENOS ALEATORIOS 1.2.2 CONCEPTOS BÁSICOS DE ANÁLISIS COMBINATORIO 1.2.3 CONCEPTO DE PROBABILIDAD 1.2.4 TEORÍA AXIOMÁTICA DE LA PROBABILISDAD 1.2.5 TEOREMAS FUNDAMENTALES DEDUCIBLES DE LA TEORÍA AXIOMÁTICA DE LA PROBABILIDAD 1.2.6 TEORÍA CLÁSICA DE LA PROBABILIDAD 1.2.7 TEORÍA FRECUENCIAL O A POSTERIORI 1.2.8 PROBABILIDAD MARGINAL 1.2.9 PROBABILIDAD CONDICIONAL 1.2.10 TEOREMA DE BAYES 1.2.11 PROBLEMAS 2. VARIABLES ALEATORIAS 2.1 VARIABLE ALEATORIA DISCRETA 2.2 FUNCIONES DE DOS O MÁS VARIABLES DISCRETAS 2.3 FUNCIÓN DE DENSIDAD MARGINAL PARA VARIABLES DISCRETAS 2.4 FUNCIÓN DE DENSIDAD CONDICIONAL 2.5 VARIABLE ALEATORIA CONTINUA

Upload: others

Post on 12-Mar-2020

5 views

Category:

Documents


0 download

TRANSCRIPT

Page 1: TABLA DE CONTENIDOS 1. NOCIONES ELEMENTALES DE ... · 1.2.2 conceptos bÁsicos de anÁlisis combinatorio 1.2.3 concepto de probabilidad 1.2.4 teorÍa axiomÁtica de la probabilisdad

TABLA DE CONTENIDOS

1. NOCIONES ELEMENTALES DE PROBABILIDAD 1.1 NOCIONES SOBRE CONJUNTOS 1.1.1 DEFINICIÓN DE CONJUNTO. 1.1.2 NOTACIÓN. 1.1.3 EJEMPLOS. 1.1.4 CONJUNTO UNIVERSAL Y CONJUNTO VACÍO. 1.1.5 OPERACIONES ENTRE CONJUNTOS 1.1.6 EJEMPLO 1.1.7 ALGUNAS DEFINICIONES O LEYES DE INTERÉS 1.2 MODELOS PROBABILÍSTICOS 1.2.1 CARACTERÍSTICAS DE LOS FENÓMENOS ALEATORIOS 1.2.2 CONCEPTOS BÁSICOS DE ANÁLISIS COMBINATORIO 1.2.3 CONCEPTO DE PROBABILIDAD 1.2.4 TEORÍA AXIOMÁTICA DE LA PROBABILISDAD 1.2.5 TEOREMAS FUNDAMENTALES DEDUCIBLES DE LA TEORÍA AXIOMÁTICA DE LA PROBABILIDAD 1.2.6 TEORÍA CLÁSICA DE LA PROBABILIDAD 1.2.7 TEORÍA FRECUENCIAL O A POSTERIORI 1.2.8 PROBABILIDAD MARGINAL 1.2.9 PROBABILIDAD CONDICIONAL 1.2.10 TEOREMA DE BAYES 1.2.11 PROBLEMAS 2. VARIABLES ALEATORIAS 2.1 VARIABLE ALEATORIA DISCRETA 2.2 FUNCIONES DE DOS O MÁS VARIABLES DISCRETAS 2.3 FUNCIÓN DE DENSIDAD MARGINAL PARA VARIABLES DISCRETAS 2.4 FUNCIÓN DE DENSIDAD CONDICIONAL 2.5 VARIABLE ALEATORIA CONTINUA

Page 2: TABLA DE CONTENIDOS 1. NOCIONES ELEMENTALES DE ... · 1.2.2 conceptos bÁsicos de anÁlisis combinatorio 1.2.3 concepto de probabilidad 1.2.4 teorÍa axiomÁtica de la probabilisdad

2.6 FUNCIÓN DE DENSIDAD PARA VARIABLE CONTINUA PLURIDIMENSIONAL 2.7 ESPERANZA MATEMÁTICA 2.8 MOMENTOS CON RESPECTO AL ORIGEN 2.9 MOMENTOS DE ORDEN RESPECTO A UNA CONSTANTE 2.10 MOMENTOS DE ORDEN CON RESPECTO A LA MEDIA 2.11 VARIANZA DE UNA FUNCIÓN DE PROBABILIDAD 2.12 FUNCIÓN GENERATRIZ DE MOMENTOS 2.12.1 PROPIEDADES DE LA FUNCIÓN GENERATRIZ DE MOMENTOS 2.12.2 TEOREMA 2.13 FUNCIÓN CARACTERÍSTICA 2.14 EJERCICIOS 3. DISTRIBUCIONES PROBABILÍSTICAS 3.1 PRINCIPALES DISTRIBUCIONES DE PROBABILIDAD PARA VARIABLE DISCRETA 3.1.1 DISTRIBUCIÓN BINOMIAL 3.1.2 DISTRIBUCIÓN HIPERGEOMÉTRICA 3.1.3 DISTRIBUCIÓN DE POISSON 3.2 PRINCIPALES DISTRIBUCIONES CONTINUAS 3.2.1 DISTRIBUCIÓN UNIFORME O RECTANGULAR 3.2.2 DISTRIBUCIÓN NORMAL (0, 1 ) : n(0, 1) 3.2.3 DISTRIBUCIÓN NORMAL CON MEDIA m y VARIANZA s2: h(m,s2) 3.2.4 DISTRIBUCIÓN JI DOS CON UN GRADO DE LIBERTAD: X 2 (1) 3.2.5 DISTRIBUCIÓN JI DOS CON n GRADO DE LIBERTAD X 2 (n) 3.2.6 DISTRIBUCIÓN t DE ESTUDENT 3.2.7 DISTRIBUCION F DE SNEDECOR 3.2.8 TEOREMA CENTRAL DEL LÍMITE 3.2.9 TEOREMA DE MOIVRE 3.2.10 EJERCICIOS BIBLIOGRAFIA

Page 3: TABLA DE CONTENIDOS 1. NOCIONES ELEMENTALES DE ... · 1.2.2 conceptos bÁsicos de anÁlisis combinatorio 1.2.3 concepto de probabilidad 1.2.4 teorÍa axiomÁtica de la probabilisdad

1 NOCIONES ELEMENTALES DE PROBABILIDAD

1.1 NOCIONES SOBRE CONJUNTOS

1.1.1 DEFINICIÓN DE CONJUNTO. Un conjunto no es más que una

colección de objetos, elementos o miembros.

1.1.2 NOTACIÓN. Por convencionalismo se tiene, mientras no se diga lo

contrario, los conjuntos, los denotaremos con letras mayúsculas y los

elementos con letras minúsculas.

1.1.3 EJEMPLOS. 1.1.3.1 Sea A un conjunto compuesto por los elementos: a, b, c y d. Es decir,

{ }a, b, c, dA = , donde podemos asegurar que a “pertenece a” A y se escribe

( ) ( ) etc. A; d c, b, A; b a, A; d A; c A; b A; a ∈∈∈∈∈∈

1.1.3.2 Cuando un elemento o un grupo de elementos “no pertenece a” un

conjunto, lo denotamos así: .∉ Remitiéndonos al ejemplo 1.1.3.1 tenemos que la

pareja ( ) A. h, k ∉

1.1.3.3 Dados los conjuntos A y B los cuales tienen como elementos : 1, 3, 5, 7, 9

y 1, 7, 9; respectivamente, entonces decimos que el conjunto B “es subconjunto

de” A.

1.1.4 CONJUNTO UNIVERSAL Y CONJUNTO VACÍO. En muchos casos

restringimos la teoría de conjuntos en términos de subconjuntos, ya que

los relacionamos con respecto a otro conjunto o espacio que los

contiene, esto es, conjunto Universal y lo denotamos con la letra U.

Cuando un conjunto no tiene elementos, se denomina conjunto vacío y lo

representamos con la letra φ , (FI).

Page 4: TABLA DE CONTENIDOS 1. NOCIONES ELEMENTALES DE ... · 1.2.2 conceptos bÁsicos de anÁlisis combinatorio 1.2.3 concepto de probabilidad 1.2.4 teorÍa axiomÁtica de la probabilisdad

1.1.4.1 Ejemplo de conjunto vacío:

El conjunto de todos los números reales X tales que X2 = -1, es decir,

{ } φ - X / X == 12 , ya que no existen cuadrados de números reales que sean

iguales a –1.

1.1.4.2 Ejemplo de conjunto Universal:

Si lanzamos un dado, el conjunto de todos los posibles resultados es el universo o

Espacio Universal: { }654321 , , , , ,

1.1.5 OPERACIONES ENTRE CONJUNTOS

1.1.5.1 UNIÓN. Se define como el conjunto de todos los elementos, que

pertenecen a A o a B, o tanto a A como a B, (siendo A y B

previamente definidos).

A “Unión” B, esto es ( ) BA ∪ .

1.1.5.2 INTERSECCIÓN. Es el conjunto de elementos que pertenecen

simultáneamente a A y a B, (A y B previamente definidos), y se

escribe A ∩ B.

Cuando A ∩ B = φ , decimos que A y B son conjuntos disjuntos o “Distintos”.

1.1.5.3 DIFERENCIA. Son todos los elementos que de A que no pertenecen

a B, esto es, A – B.

Page 5: TABLA DE CONTENIDOS 1. NOCIONES ELEMENTALES DE ... · 1.2.2 conceptos bÁsicos de anÁlisis combinatorio 1.2.3 concepto de probabilidad 1.2.4 teorÍa axiomÁtica de la probabilisdad

1.1.5.4 COMPLEMENTO. Si B C A, entonces, A – B se denomina el

complemento de B relativo a A y se escribe: A.B o AB o AB C´ . Si A

= U, nos referimos a U – B, sencillamente como el complemento de

B: . o BB o B C´ El complemento de ( ) BA ∪ se escribe

( ) ( ) ( )C.´ B A o B A o B A ∪∪∪

1.1.6 Ejemplo:

{ }{ }{ }

{ }a,uD, , , C

, u, , o, , i, , e, a, B , , , , , , , , , A

====

864297531

9876543210

Hallar: A. C D; A - B; B; B A ´∪∪

Entonces:

{ } { }{ }

{ } { }97531086420

9876543210975319876543210

, , , , , A CA imo C y por últ, , , , B Ahora, A - B. D Luego, B

B. que, D claramente D, vemos B o, u, a, e, i,, , , , , , , , , B A

, u, , o, , i, , e, a, , , , , , , , , , B A

´´ ===

=∪⊂∪

=∪∪=∪

1.1.7 ALGUNAS DEFINICIONES O LEYES DE INTERÉS

1.1.7.1 Sean A, B, C, tres conjuntos cualesquiera, tal que si

C. A C B y BA ⊂⇒⊂⊂

1.1.7.2 A: B B A ∪=∪ Ley conmutativa de la unión.

1.1.7.3 ( ) ( ) C: B A C BA CB A ∪∪=∪∪=∪∪ Ley asociativa de la

unión

1.1.7.4 A ∩ B: Ley conmutativa de la intersección = B ∩ A

1.1.7.5 ( ) ( ) C: B A C BA CB A ∩∩=∩∩=∩∩ Ley asociativa de la

intersección.

1.1.7.6 ( ) ( ) ( ) CA BA CB A ∩∪∩=∪∩

Page 6: TABLA DE CONTENIDOS 1. NOCIONES ELEMENTALES DE ... · 1.2.2 conceptos bÁsicos de anÁlisis combinatorio 1.2.3 concepto de probabilidad 1.2.4 teorÍa axiomÁtica de la probabilisdad

1.1.7.7 ( ) ( ) ( ) CA BA CB A ∪∩∪=∩∪

1.1.7.8 ´ B A A - B ∩=

1.1.7.9 ´´´´ A o B B A B Si A ⊂⊃⇒⊂

1.1.7.10 φφ A y A φA =∩=∪

1.1.7.11 A U A U y U A =∩=∪

1.1.7.12 ( ) : B A BA ´´´ ∩=∪ Se conoce como la primera Ley de Morgan

1.1.7.13 ( ) : B A BA ´´´ ∪=∩ Segunda Ley de Morgan

1.1.7.14 Para cualquier par de conjuntos A y B ( ) ( ). BA BA A ´∩∪∩=⇒

1.2 CÁLCULO DE PROBABILIDADES

El cálculo de probabilidades es la teoría matemática que sirve de modelo, para la

descripción y análisis de los fenómenos estadísticos o aleatorios.

Por fenómenos o experimentos aleatorios, entendemos que son aquellos cuyos

resultados están establecidos pero no se pueden predecir con exactitud A priori1, o

sea que en situaciones idénticas pueden presentar resultados diferentes; además

los fenómenos pueden ocurrir repetidamente en forma indefinida.

1.2.1 CARACTERÍSTICAS DE LOS FENÓMENOS ALEATORIOS 1.2.1.1 Multiplicidad de la ocurrencia

1.2.1.2 Variabilidad, ya que pueden presentar resultados distintos en cada

experimento.

1.2.1.3 Aleatoriedad, porque no pueden predecir

1.2.1.4 Ley del Azar, si una cierta experiencia se repite n veces y anotamos el

número n(A) de veces que ocurre una característica determinada, se

1 Palabra del latín que significa “que viene antes”, o sea, antes de la prueba.

Page 7: TABLA DE CONTENIDOS 1. NOCIONES ELEMENTALES DE ... · 1.2.2 conceptos bÁsicos de anÁlisis combinatorio 1.2.3 concepto de probabilidad 1.2.4 teorÍa axiomÁtica de la probabilisdad

observa la frecuencia n

n(A) , tiende a estabilizarse, esto es, se aproxima

a un valor fijo. Haremos énfasis en la última característica o propiedad

de los fenómenos aleatorios, conocida también como “Estabilidad de las

frecuencias” o “Principio de la regularidad estadística”.

Todo fenómeno exige la evidencia de alguna regularidad, el cálculo de

probabilidades se basa en la regularidad estadística que caracteriza a los

fenómenos aleatorios.

Los fenómenos aleatorios se caracterizan por la imposibilidad de predecir

resultados individuales, sin embargo, si consideramos un número de pruebas

repetidas o simultáneas, la situación cambia, y a pesar de la irregularidad de los

resultados individuales o aislados, los resultados promedios o globales muestran

una sorprendente regularidad.

Para explicar este principio de la regularidad, tomemos un ejemplo clásico citado

por numerosos autores de temas estadísticos: “Supongamos el lanzamiento de

una moneda perfecta, donde representamos por n el número de lanzamientos de

la moneda y sea, A: El resultado consistente en caer cara, entonces n(A) será la

frecuencia absoluta o número de veces de caer cara dentro del experimento, luego

la frecuencia relativa será n

n(A) h(a) = . La experiencia indica que para grandes

valores de n, esta frecuencia relativa tiende a estabilizarse alrededor de un valor

más o menos constante. Si observamos la figura No. 1, vemos claramente que la

frecuencia h(A) fluctúa ampliamente para pequeños valores de n, pero al aumentar

n, las oscilaciones se hacen cada vez menos intensas y para grandes valores de

n el gráfico parece indicar la tendencia de h(A) a alcanzar un valor límite o ideal,

muy próximo a 0.5. Ver figura No. 1.

Page 8: TABLA DE CONTENIDOS 1. NOCIONES ELEMENTALES DE ... · 1.2.2 conceptos bÁsicos de anÁlisis combinatorio 1.2.3 concepto de probabilidad 1.2.4 teorÍa axiomÁtica de la probabilisdad

Figura No. 1

1.2.2 CONCEPTOS BÁSICOS DE ANÁLISIS COMBINATORIO

Fundamentalmente el análisis combinatorio se ocupa tanto de los diversos modos

de ordenar los elementos de un conjunto, como del estudio de las agrupaciones

que se pueden formar con dichos elementos, así pues, por análisis combinatorio

podemos afirmar que es la parte de la matemática en que se estudian las

agrupaciones que pueden formarse con elementos dados, (objetos. Números, ...),

teniendo en cuenta el número de elementos que entran en cada grupo y el orden

en que están colocados, prescindiendo del valor numérico de los elementos, si lo

tuvieren.

En el análisis combinatorio podemos considerar: Las variaciones, permutaciones,

combinaciones y el principio fundamental de cuenta.

1.2.2.1 VARIACIONES2. Se denomina variación, de los elementos de un

conjunto, una disposición ordenada de los mismos. Si hay n elementos en el

conjunto, el número de variaciones dependerá del número de objetos m que se

deseen tomar y ordenar.

2 Algunos autores las llaman ordenaciones, otros las consideran como un caso especial de las permutaciones.

Page 9: TABLA DE CONTENIDOS 1. NOCIONES ELEMENTALES DE ... · 1.2.2 conceptos bÁsicos de anÁlisis combinatorio 1.2.3 concepto de probabilidad 1.2.4 teorÍa axiomÁtica de la probabilisdad

Las variaciones de n elementos tomados en grupo de “m en m” se denotan por:

mVnó ó nVm ó Vn:mV nm . Antes de definir el número de variaciones, aclaremos

la noción de factorial de un número, primero que todo dicho número debe definirse

como el elemento de los números enteros positivos sin incluir el cero, así pues, el

factorial de n y se escribe n! Se define como: n! = n(n-1) (n-2) ... x3x2x1 y decimos

que 0! = 1, por definición.

Luego el número de variaciones está dado por la expresión:

(n-m)!n! V n

m = donde n representa el total de elementos del conjunto y m: el

número de elementos que desean ordenar.

1.2.2.2 EJERCICIO. Hay 15 candidatos para ocupar los cargos de presidente,

vicepresidente, secretario, tesorero, fiscal, de una asociación gremial.

De cuántas maneras diferentes se pueden ocupar estos cargos?

Tenemos que el primer cargo, o sea, el cargo del presidente puede ser ocupado

por cualquiera de los 15 candidatos, es decir, hay 15 maneras diferentes de

ocupar dicho cargo. Ahora, una vez ocupado el cargo de presidente, nos

quedan14 candidatos disponibles para ocupar el segundo cargo, digamos el de

vicepresidente, una vez ocupado dicho cargo, el siguiente se puede ocupar de 13

maneras y así sucesivamente; tal como lo indicamos a continuación:

,Fiscal x Tesorero x Secretario x enteVicepresid x esidente1112131415

Pr luego, el número

total de maneras diferentes para integrarse dicha junta es: 15 x 14 x 13 x 12 x 11 =

360.360 . n = 15: número de candidatos, m = 5: Personas a ocupar los cargos.

36036010

101112131415515

15155 .

!! xxxx

)!-(! V ===

Page 10: TABLA DE CONTENIDOS 1. NOCIONES ELEMENTALES DE ... · 1.2.2 conceptos bÁsicos de anÁlisis combinatorio 1.2.3 concepto de probabilidad 1.2.4 teorÍa axiomÁtica de la probabilisdad

1.2.2.3 VARIACIONES CON REPETICIÓN

Si suponemos que cada uno de los m elementos, puede figurar cualquier número

de veces en una misma variación, obtenemos las variaciones con repetición, cuyo

número lo podemos calcular auxiliándonos con la fórmula:

nmnm V R =

Así en el caso del ejercicio 1.2.2.2, el presidente una vez nombrado, participa en la

elección de vicepresidente y a su vez éste en la del presidente, tesorero,

secretario y fiscal a así sucesivamente; es decir:

37575915

1515151515

5155 . ) ( V R

F x T x S x Vp x P

==

1.2.2.4 PERMUTACIONES. Las variaciones, de orden m de n elementos

cuando m es igual a n, decimos entonces que son permutaciones. El

número de permutaciones diferentes está dado por la expresión:

n! Pnm = .

Ahora, en el caso que entre los n elementos, existan h iguales entre sí; ( h < n), el

número de permutaciones está dado por la expresión: h!n! Ph

n =

Pero puede presentarse el caso en que dentro de los n haya más de una clase de

elementos iguales entre sí, es decir, existan h1, iguales entre sí, h2 iguales entre sí,

…………., h t iguales entre sí; entonces el número de permutaciones está dado

por la expresión:

Page 11: TABLA DE CONTENIDOS 1. NOCIONES ELEMENTALES DE ... · 1.2.2 conceptos bÁsicos de anÁlisis combinatorio 1.2.3 concepto de probabilidad 1.2.4 teorÍa axiomÁtica de la probabilisdad

n h ... h h : donde ,!h ... !h !h

n! t21t21

h,.........h,hP t21n

=+++=

Cuando los elementos no se suponen ubicados en una línea recta, sino en un

circulo, se dice que la permutación es circular, esto es, no hay primero ni último

elemento; lo que implica tener que “fijarse” uno, como punto de referencia. El

número de permutaciones circulares está dado por: c P n = PCn = (n – 1)!.

A manera de ejemplos ilustremos un poco los conceptos de permutaciones ya

dados:

- El número de permutaciones diferentes que se pueden formar con la

palabra SACO es: P4 = 4! ; en dicha palabra no se encuentran letras

iguales.

- Veamos ahora con la palabra CHALECO, en este caso hay dos elementos

iguales entre sí, luego el número de permutaciones está dado por:

5202272

7 . !! P == .

- Dadas las siguientes letras: T, S, S, V, V, T, T, S; cuántas permutaciones

diferentes podemos hallar?

Observamos que para n = 8 elementos hay h1 = “número de tes” = 3; h2 =

número de eses = 3 y h3 = número de uves = 2; entonces el número de

permutaciones estará dado por: 560233

82338

!! ! ! P ,, ==

- Si tenemos 5 estudiantes sentados alrededor de una mesa redonda, de

cuántas maneras de pueden permutar?

En este caso de distribución circular de los elementos, debemos primero que todo,

fijar un elemento de referencia; así, llamemos los estudiantes con las letras A, B,

Page 12: TABLA DE CONTENIDOS 1. NOCIONES ELEMENTALES DE ... · 1.2.2 conceptos bÁsicos de anÁlisis combinatorio 1.2.3 concepto de probabilidad 1.2.4 teorÍa axiomÁtica de la probabilisdad

C, D, E; si fijamos el estudiante C, solamente quedan para intercambiarse los

estudiantes A, B, D, E; si fijamos el estudiante A, pueden intercambiarse B, C, D,

E y así sucesivamente. Observamos pues que de los 5 estudiantes sólo quedan 4

para permutarse. Luego el número de permutaciones está dado por:

2445

! PC == .

1.2.2.5 COMBINACIONES

Las combinaciones de orden m de n objetos: a1, a2, ...... an; son los grupos de m

objetos que se pueden formar entre los n, de modo que dos cualesquiera difieran

en algún objeto.

A diferencia de las variaciones, en las combinaciones, no importa el orden de

sucesión de los elementos.

El número de combinaciones está dado por la fórmula:

( ) n m !m! (n - m)

n! nm Cn

m ≤≤∴== 1

Un ejemplo ilustrativo para la anterior definición puede ser: Cuántas ternas

diferentes podemos extraer de las letras A, E, I, O, U?

En este caso consideramos que la terna (A, E, I) = (E, A, I) = (E, I, A) = (I, E, A)

= (I, A, E) = (A, I, E), ya que no nos interesa el orden de colocación de los

elementos dentro de la terna, solo nos interesan todas aquellas ternas que difieran

al menos en un elemento.

Luego el número de ternas diferentes está dado por:

1023

553

!! ! C ==

Page 13: TABLA DE CONTENIDOS 1. NOCIONES ELEMENTALES DE ... · 1.2.2 conceptos bÁsicos de anÁlisis combinatorio 1.2.3 concepto de probabilidad 1.2.4 teorÍa axiomÁtica de la probabilisdad

1.2.2.6 PRINCIPIO FUNDAMENTAL DE CUENTA

Si ; - α, - - - - , α, ααn321

son n acciones distintas que se pueden realizar de

n, - - - γ, γγ

21 maneras respectivamente, entonces el número total de maneras

como se pueden efectuar n

- α, - - - - , α, αα321

en sucesión, viene dado por:

n - - - γ γ γ γ ×××

321: Maneras.

Ahora, si el número de maneras como se pueden efectuar cada una de las

iα Acciones, (i = 1, ......, n), es idéntico, es decir; nγ - - - γ γ γ ====

321;

entonces el número total de maneras estará dado por:

n γγ - - - γ γ γ =××××

En general, en todo experimento, si hay n pruebas, cada una de las cuales pueden

dar γ resultados independientes, el total de resultados diferentes será hγ . Así por

ejemplo: Al lanzar un dado una vez, el número de resultados posibles es 6, o sea,

6 6 11 ==γ .

Si lanzamos el dado dos veces, 366 222 γ hay n ==⇒= resultados

posibles; si se lanza el dado tres veces, 3 63 γ n =⇒= 3 resultados

posibles.

1.2.3 CONCEPTO DE PROBABILIDAD

Podemos decir entonces, basados en la experiencia que podemos asociar la

frecuencia h(A) con un número p(A), para cada suceso A dentro del experimento,

de tal manera que p(A) = h(A) cuando ∞→n ; diremos entonces que p(A), es la

_____ n veces ____

Page 14: TABLA DE CONTENIDOS 1. NOCIONES ELEMENTALES DE ... · 1.2.2 conceptos bÁsicos de anÁlisis combinatorio 1.2.3 concepto de probabilidad 1.2.4 teorÍa axiomÁtica de la probabilisdad

probabilidad del suceso A. La probabilidad de un suceso suele llamarse también

frecuencia teórica o verdadera.

El objeto de la teoría de probabilidades es proporcionar un modelo matemático

adecuado a la descripción e interpretación de los experimentos aleatorios.

Veamos ahora, las definiciones de algunos de los elementos sobre los cuales se

asienta la teoría de probabilidades.

1.2.3.1 ESPACIO MUESTRAL

Es el conjunto o totalidad de resultados posibles dentro de un experimento

aleatorio; lo llamaremos S.

El espacio muestral S puede ser discreto y continuo. Es discreto cuando

contiene un número finito de puntos o un número infinito numerable3 de puntos.

Así por ejemplo, en el lanzamiento de un dado, una vez, el espacio muestral S es

= {1, 2, 3, 4, 5, 6}, que es un espacio con número finito de puntos. Ahora si el

experimento consiste en lanzar una moneda legal, hasta que aparezca el primer

sello, el espacio muestral es: S = {1, 2, 3, ...... }; Ya que el resultado deseado

puede ocurrir en la primera, segunda, tercera, . . . , tirada.

El espacio muestral S es continuo si contiene un número infinito no numerable de

puntos. Así por ejemplo, un experimento aleatorio consiste en observar la

resistencia a la tensión de ciertas vigas, bajo las mismas condiciones; el resultado

puede ser cualquier número positivo por consiguiente el espacio muestral es

continuo.

3 Se llama “numerable” el conjunto infinito cuyos elementos se pueden numerar, es decir, poner en concordancia con cada elemento un número entero de modo que a distintos elementos les correspondan números diferentes. Un conjunto infinito cuyos elementos no se pueden llevar a la correspondencia biunívoca con los números enteros se llama “No numerable”.

Page 15: TABLA DE CONTENIDOS 1. NOCIONES ELEMENTALES DE ... · 1.2.2 conceptos bÁsicos de anÁlisis combinatorio 1.2.3 concepto de probabilidad 1.2.4 teorÍa axiomÁtica de la probabilisdad

1.2.3.2 SUCESO

Es el conjunto de resultados favorables o deseados en un experimento dado. Por

ejemplo, un experimento aleatorio, consiste en lanzar dos dados y una moneda.

Uno de los sucesos puede ser; A = suma de puntos menor que 4 para los dados y

sello para la moneda, luego, A = {(1, 1, s); (1, 2, s); (2, 1, s)} como puede verse, el

suceso A no es más que un subconjunto del espacio muestral S.

Muchos autores suelen llamar los sucesos aleatorios como eventos. Cuando los

elementos de un suceso coinciden con los elementos del espacio muestral

decimos que es “suceso seguro”; cuando los sucesos están formados por un solo

punto del espacio muestral se denominan “sucesos elementales”; y cuando el

conjunto de posibles resultados es el vacío decimos que el suceso de llama

“suceso imposible”.

1.2.4 TEORÍA AXIOMÁTICA DE LA PROBABILIDAD

Partiendo de las características observadas en simples experiencias, podemos

construir un modelo abstracto que nos traduzca y generalice, para aplicarlas en

situaciones más complicadas. Es decir, establecemos en forma axiomática el

cálculo de probabilidades.

Llamaremos P (A) a la probabilidad del suceso A en el experimento aleatorio,

dentro del espacio muestral S. P(A) es una función de conjunto que satisface los

tres axiomas siguientes:

1201

. P(S) S r suceso A cualqeuie Para . P(A)

=∈≥

Page 16: TABLA DE CONTENIDOS 1. NOCIONES ELEMENTALES DE ... · 1.2.2 conceptos bÁsicos de anÁlisis combinatorio 1.2.3 concepto de probabilidad 1.2.4 teorÍa axiomÁtica de la probabilisdad

............... 3212132 A,A ,A si,)P(A )P(A .........) UUAUA P(A, 3. ++= es una

sucesión de sucesos mutuamente excluyentes o incompatibles, es decir, si

j i para φAA ji ≠=∩ .

1.2.5 TEOREMAS FUNDAMENTALES DEDUCIBLES DE LA TEORÍA AXIOMÁTICA DE LA PROBABILIDAD

1.2.5.1 Si P(A) es la probabilidad de un suceso A, la probabilidad del suceso

contrario a A es igual a UNO menos la probabilidad de A, es decir,

- P(A) ) P(A 1=

Demostración:

Si φ A S y A AA '´ =∩=∪ , o sea, son mutuamente excluyentes,

P (S),) A P(A ' =∪⇒ por axioma tercero. ∴

) P(A P(A) ) AP (A '' +=∪ y por segundo axioma tenemos que

11 ) ' P(A P(A) ) 'AP(A. P(S) =+=∪= ∴ .

Luego: P(A’) = 1 – P(A).

1.2.5.2 La probabilidad de un suceso lógicamente imposible es cero; o sea,

0) P(φ = .

Demostración:

P(S') P(φ S' φ =⇒= ) y por el teorema 1.2.5.1, sabemos que:

011)11 - P(φ P(S') ) pero P(S - P(S), P(S') ===⇒==

Luego: . P (φ 0) =

1.2.5.3 P(A) 10 ≤≤ Cualquiera que sea el suceso A

Demostración:

0 P (A) ≥ por axioma primero

Page 17: TABLA DE CONTENIDOS 1. NOCIONES ELEMENTALES DE ... · 1.2.2 conceptos bÁsicos de anÁlisis combinatorio 1.2.3 concepto de probabilidad 1.2.4 teorÍa axiomÁtica de la probabilisdad

Luego debemos probar que , P(A) 1≤ por teorema 1.2.1, vemos que P(A) = 1 – P

(A’); pero 0 P (A') ≥ , por axioma primero . P(A) luego P(A) 101 ≤≤≤⇒

1.2.5.3 Si ) P(A) P(A A A 2121 ≤⇒⊂

Demostración:

Si [ ] 221121 A A A A A A ' =∩∪⇒⊂

Tal como se puede apreciar en el siguiente diagrama:

2c1 AA ∩

[ ]( )[ ] como ),P(A )A P(A )P(A )(A P A A A P

φ A A A

22'1122

'11

2'11

=∩+⇒=∩∪

=∩∩∴

, ) A y P(A ) P(A ' 00 211 ≥∩≥

Luego podemos concluir que:

). P(A) P(A 21 ≤

1.2.5.4 Para cualquier par de sucesos A1 y A2 se tiene que

) A ) - P(A P(A) P(A) A P(A 212121 ∩+=∪ .

Page 18: TABLA DE CONTENIDOS 1. NOCIONES ELEMENTALES DE ... · 1.2.2 conceptos bÁsicos de anÁlisis combinatorio 1.2.3 concepto de probabilidad 1.2.4 teorÍa axiomÁtica de la probabilisdad

Demostración:

Ayudémonos a través del siguiente gráfico:

Observando el diagrama, podemos ver claramente que:

( ) ( )( ) ( ) ( ) ( ) A A P A A P A A P A A P

:teconsiguien por ,A AA A )A (A A A'1221

'2121

'1221

'2 12 1

∩+∩+∩=∪

∩∪∩∪∩=∪

Ahora; de modo similar vemos que: ) A (A) A (A A '21211 ∩∪∩= y que

),A P(A - )P(A )A P(A

)A P(A )A P(A )P(A φ )A (A )A (A

211'21

'21211

'2121

∩=∩

∩+∩=⇒=∩∩∩

Por otra parte; φ) A (A) A ) y (A A (A) A (A A '' =∩∩∩∩∪∩= 122112212

) A) - P(A P (A) A P (A) A P (A) A P (A) P (A ''2121212212 =∩⇒∩+∩=⇒

Ahora, remplazando: (2) y (3) en (1) se tienen que.

) P(A) P(A) A P(A A A), SI A ) - P(A P(A) P(A) A P(A

2121

21212121

+=∪⇒=∩∩+=∪ φ

1.2.6 TEORÍA CLÁSICA DE LA PROBABILIDAD4

En ciertos problemas, con espacio muestral discreto y número finito de puntos,

(los juegos de azar por ejemplo), es realista suponer que la probabilidad asignada

4 También se conoce como teoría A priori de la probabilidad o regla de Laplace

1

2

3

Page 19: TABLA DE CONTENIDOS 1. NOCIONES ELEMENTALES DE ... · 1.2.2 conceptos bÁsicos de anÁlisis combinatorio 1.2.3 concepto de probabilidad 1.2.4 teorÍa axiomÁtica de la probabilisdad

a cada punto del espacio muestral es n1 . Podemos entonces de esta manera

hallar la probabilidad P(A) para un subconjunto A del espacio muestral, con n(A)

puntos, cada uno con probabilidad n1 :

nn(A)

n - - - -

n

n P(A) =+++=

111

Se puede comprobar que para un espacio muestral discreto con n puntos, la

función P es función de probabilidad si cumple con los axiomas anotados

anteriormente:

Probabilidad para cada punto = 01 n

Probabilidad para un subconjunto SA ∈

Es n n

n(A) P (A) ∴≥= 0 es el total de puntos en S.

Así por ejemplo, sea el experimento lanzar un dado una vez.

El espacio muestral S = {1, 2, 3, 4, 5, 6} donde cada punto, (o resultado), de S

tiene igual oportunidad, es decir, P(1) = P(2) = P(3) = ...... = P(6) = 61

Ahora, definamos el suceso A = número obtenido menor que 3 ⇒

{ } { }213 , A X / X A =⇒<=

Luego, n(A) = número de veces favorables al suceso A = 2, n(A): frecuencia de A, y

n es el total de resultados posibles del experimento ⇒ n = 6.

31

62

nn(A) P (A) ===

____n(A) veces ____

Page 20: TABLA DE CONTENIDOS 1. NOCIONES ELEMENTALES DE ... · 1.2.2 conceptos bÁsicos de anÁlisis combinatorio 1.2.3 concepto de probabilidad 1.2.4 teorÍa axiomÁtica de la probabilisdad

1.2.7 TEORÍA FRECUENCIAL O A POSTERIORI

Es aquella que consiste en encontrar el valor de probabilidad, después de

repetirse el experimento un número considerable de veces. Por ejemplo; la

probabilidad que tiene un jugador “A” de ganar cierto juego es P(A) = 3/5 y la

probabilidad de perderlo es P(A’) = 2/5; estas probabilidades son a posteriori,

puesto que se conocieron después de “observar” el juego de “A” repetidas veces.

Tanto la teoría clásica como la frecuencial presentan serias dificultades, la primera

en cuanto a la “Ambigüedad”, de que parte siempre de espacios muestrales finitos

y resultados equiprobables, pero cuando los resultados posibles generan un

espacio muestral discreto infinito, como por ejemplo al hallar la probabilidad de

que un número natural sea impar, dicha teoría nos deja en nada; mientras que, la

segunda teoría presenta el inconveniente en cuanto a “Repetirse el experimento

un número considerable de veces”; de ahí la importancia que toma la teoría

axiomática de la probabilidad, evitándonos los tropiezos o limitaciones de las

teorías clásica y frecuencial.

1.2.8 PROBABILIDAD MARGINAL

Supongamos que el espacio muestral S, discreto formado por un número n finito

de puntos, cada uno con igual probabilidad n1 .

Ahora, hagamos una partición del espacio muestral S en m1 subconjuntos

mutuamente excluyentes: A1, A2,A3,......, Am1

Hagamos otra partición de S en m2 subconjuntos mutuamente excluyentes, así.

B1, B2,B3,......, Bm2

Entonces los n puntos de S pueden clasificarse de la siguiente manera, utilizando

la tabla de doble entrada:

Page 21: TABLA DE CONTENIDOS 1. NOCIONES ELEMENTALES DE ... · 1.2.2 conceptos bÁsicos de anÁlisis combinatorio 1.2.3 concepto de probabilidad 1.2.4 teorÍa axiomÁtica de la probabilisdad

B1 B2 B3 . . . Bj . . . Bm2

A1 n11 n12 n13 . . . n1j . . . n1m2

A2 n21 n22 n23 . . . n2j . . . n2m2

A3 n31 n32 n33 . . . n3j . . . n3m2

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

Ai ni1 ni2 ni3 . . . nij . . . nim2

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

Am1 nm11 nm12 nm13 . . . nm1j . . . nm1m2

La tabla indica, por ejemplo, que: el resultado n12 tiene a la vez el atributo A1 y el

atributo B2; n11: número de veces en que ocurren simultáneamente los atributos A1

y B1 respectivamente; y en general nij, es el número de veces en que ocurren

simultáneamente los atributos Ai y Bj. Luego la probabilidad de que sucedan Ai y Bj

simultáneamente será:

( )n

n , BAP ij

ji =

Pero si nos interesa solamente obtener la probabilidad del suceso Ai, sin

interesarnos la clasificación B, tendremos:

( )

( ) ( )∑∑==

==

++++=

m2

1 j ji

m2

1 j i

2i3i2i1i

B AP n

n AP

n n - - - n n n

AP

ij

im

O bien, si nos interesa únicamente hallar la probabilidad del suceso Bj, estará

dada por:

Page 22: TABLA DE CONTENIDOS 1. NOCIONES ELEMENTALES DE ... · 1.2.2 conceptos bÁsicos de anÁlisis combinatorio 1.2.3 concepto de probabilidad 1.2.4 teorÍa axiomÁtica de la probabilisdad

( ) ( )∑∑==

==m1

1 iji

m1

1 ij B AP

nn

BP ij

Donde P(Ai) y P(Bj) reciben el nombre de “probabilidad marginal” de A y B

respectivamente.

Aquí escogemos únicamente dos criterios de clasificación A y B; pero es obvio que

la idea de probabilidad marginal, se pueda generalizar a más de dos criterios de

clasificación.

1.2.9 PROBABILIDAD CONDICIONAL

Vamos a definir un tipo especial de probabilidades, que se denominan

probabilidades condicionales o relativas.

La probabilidad del suceso “A” condicionada por el suceso “B”, o probabilidad de

“A” habiendo ocurrido B, es por definición:

( ) ( )( ) inal de B mobabilidad

enteimultáneam ocurran s que A y Bobabilidad BP

BA P BAPargPr

Pr=

∩=

Aunque esta idea es completamente general; podemos describir esta probabilidad

condicional utilizando el caso particular de espacio muestral discreto con número

finito de puntos, e igual probabilidad para cada punto. Utilizando la partición del

espacio muestral y la tabla de doble entrada que formamos para escribir la

probabilidad marginal, tenemos.

Imaginémonos que se examina el resultado de un experimento aleatorio para un

atributo pero no para el otro. Deseamos hallar la probabilidad de que el otro

atributo tenga un valor determinado.

Page 23: TABLA DE CONTENIDOS 1. NOCIONES ELEMENTALES DE ... · 1.2.2 conceptos bÁsicos de anÁlisis combinatorio 1.2.3 concepto de probabilidad 1.2.4 teorÍa axiomÁtica de la probabilisdad

Supongamos que una vez realizado el experimento se observa que tiene el

atributo B3, deseamos hallar la probabilidad de que tenga además el atributo A2.

El total de resultados de B3 es: ∑=

=++++1

133222313

m

i ii n n . . . n n n y de estos los

resultados favorables a A2 son: n23, de esta manera, la probabilidad de A2 cuando

se sabe que ha ocurrido B3 es:

( )∑

=

= 1

13

2332 m

iin

n BAP

Si dividimos el numerador y el denominador de la expresión por n, se tiene:

( ) ( ) ( )( )3

32321

1

3

23

32 BPBAP

BA P

nn

nn

BAP m

i

i=⇒=

∑=

En general:

( ) ( )( ) ;BP

B AP BA P

j

ji ji

∩= es decir,

La probabilidad de Ai dado Bj, es igual a la probabilidad de que ocurran Ai y Bj

simultáneamente sobre la probabilidad marginal de Bj.

También se tiene que:

( ) ( )( )i

ji ij AP

B AP AB P

∩=

Page 24: TABLA DE CONTENIDOS 1. NOCIONES ELEMENTALES DE ... · 1.2.2 conceptos bÁsicos de anÁlisis combinatorio 1.2.3 concepto de probabilidad 1.2.4 teorÍa axiomÁtica de la probabilisdad

Ahora, utilizando el criterio de probabilidad condicional, podemos definir el carácter

de dependencia e independencia de sucesos.

Si A y B son sucesos dependientes,

( ) ( )

( ) ( )AB P P(A) P(A,B) P(A)

P(AB) ABP

BA P P(B) P(A,B) P(B)

P(AB) BAP

.

.

=∴=

=∴=

La ocurrencia de A afecta la ocurrencia de B o viceversa, ya que φ. B A ≠∩

Si A y B son sucesos independientes

P(A/B) = P(A) : El suceso A, no depende de la ocurrencia de B.

P(B/A) = P(B) : El suceso B, no depende de la ocurrencia de A.

Para sucesos independientes se tiene que: P(AB) = P(A) P(B).

1.2.10 TEOREMA DE BAYES

Consideremos el caso de n sucesos

A1, A2, . . . . . . , An; mutuamente excluyentes, de tal manera que:

φ A . . . . . A A . . . . . A A A nji =∩∩∩∩∩ 321

Y sea un conjunto H definido de tal manera que:

( ) ( ) ( ) H A . . . H A H A H n ∩∪∪∩∪∩= 21

( ) ( )[ ] j i con φ H A H A ji ≠=∩∩∩∴

( ) ( ) ( ) H A P . . . H A P H A PP(H) n ∩++∩+∩= 21

Page 25: TABLA DE CONTENIDOS 1. NOCIONES ELEMENTALES DE ... · 1.2.2 conceptos bÁsicos de anÁlisis combinatorio 1.2.3 concepto de probabilidad 1.2.4 teorÍa axiomÁtica de la probabilisdad

Si deseamos encontrar, por ejemplo,

P(A1/H) se tiene:

( ) ( )( )

( )( ) ( ) ( )HA P . . . HA P HAP

HAP HPHAP HAP

n+++==

21

111

Pero si no conocemos: P(A1H); P(A2H) ...... P(AnH) y conocemos P(H/A1); P(H/A2);

…… P(H/An) ⇒ podemos expresar de la siguiente manera:

P(A1H) = P(A1) P(H/A1)

P(A2H) = P(A2) P(H/A2)

. . .

. . .

. . .

P(AnH) = P(An) P(H/An)

Entonces:

( ) ( )( ) ( ) ( )nn AH) P P(A . . . AH) P P(A AH) PP(A

AH) PP(A HAP

+++=

2211

111

Dicha expresión es la que conocemos como “Teorema de Bayes”.

1.2.11.1 PROBLEMAS

Page 26: TABLA DE CONTENIDOS 1. NOCIONES ELEMENTALES DE ... · 1.2.2 conceptos bÁsicos de anÁlisis combinatorio 1.2.3 concepto de probabilidad 1.2.4 teorÍa axiomÁtica de la probabilisdad

Un joyero posee tres cofres para guardar joyas: en uno guarda los artículos de

oro, en otro los de plata y en el tercero el cobre. Tiene 30 artículos de oro, los

cuales son 10 relojes y 20 anillos; 40 artículos de plata: 10 anillos y 30 relojes; y

10 artículos de cobre, así: 5 anillos y 5 relojes.

Si el joyero elige un cofre al azar y extrae un artículo, también al azar, que resulta

ser un anillo. Cuál es la probabilidad de que sea de oro?

Solución:

Sea: O: Representa artículos de oro

C: Representa artículos de cobre

P: Representa artículos de plata

A: Representa los anillo

R: Representa los relojes

Lo que el problema nos pregunta, es lo siguiente:

P(Sea de oro/ (dado que)Resultó anillo?)= P(O/A) = ?

Como el joyero escoge las urnas o cofres al azar y como son 3, cada uno tiene

igual oportunidad de ser seleccionado, es decir, P(O) = P(C) =P(P) = 1/3.

Además el problema nos proporciona la siguiente información, así:

( ) ( )

( ) ( )

( ) ( )43

4030

41

4010

21

105

31

3010

21

105

32

3020

PR ; P PAP

CR ; P ORP

CA ; P OAP

====

====

====

Entonces, por el teorema de Bayes:

Page 27: TABLA DE CONTENIDOS 1. NOCIONES ELEMENTALES DE ... · 1.2.2 conceptos bÁsicos de anÁlisis combinatorio 1.2.3 concepto de probabilidad 1.2.4 teorÍa axiomÁtica de la probabilisdad

( ) ( ) ( )( ) ( ) ( ) ( ) ( ) ( )

( ) ( ) ( )( ) ( ) ( ) ( ) ( ) ( )

( )178

4131213132313231

AOP

AOP

PA PP P CA PC P OA POPOA P OP AOP

.

.

=

++=

++=

1.2.11.2 Una caja con 1.000 tornillos contiene:

50 con defecto de tipo A

32 con defecto del tipo B

18 con defecto del tipo C

7 con defecto del tipo A y del tipo B

5 con defecto del tipo A y del tipo C

4 con defecto del tipo B y del tipo C

2 con defecto del tipo A, del tipo B y del tipo C

Si extrae un tornillo al azar, calcular:

1. La probabilidad de que el tornillo tenga un defecto del tipo A o del tipo b o

de ambos.

Solución: Como se puede ver los sucesos son compatibles, es decir:

φC B; A C ; A B A ≠∩∩≠∩≠∩ φφ

Lo que se nos pregunta no es más que la probabilidad de la unión de los sucesos

A y B:

( ) ( )

( )403

10007

100032

100050 - BA P

BA P(B) - P P(A) BA P

=+=∪

∩+=∪

2. Hallar la probabilidad de que, tenga al menos uno de los 3 tipos de

defectos. Solución: Que tenga al menos uno implica que se presente uno

solo o 2 o los 3 defectos; luego nos piden hallar:

Page 28: TABLA DE CONTENIDOS 1. NOCIONES ELEMENTALES DE ... · 1.2.2 conceptos bÁsicos de anÁlisis combinatorio 1.2.3 concepto de probabilidad 1.2.4 teorÍa axiomÁtica de la probabilisdad

( )

( )

( )50043

10002

10004

10005

10007

100018

100032

100050

CBAP

- - CBAP

P(ABC)) - P(BC) AB) - P(AC P(C) - P( P(B) P(A) CBAP

=∪∪

+−++=∪∪

+++=∪∪

3. Hallar la probabilidad de que el tornillo esté libre de los tres defectos.

Solución: Sea D el suceso de tener al menos uno de los tres defectos; O sea

C;B AD ∪∪= entonces D’, será el suceso no tener defectos de ningún tipo.

( )500457

50043111 - P(D') CBA - P - P(D) P(D') ==∴∪∪==

1.2.11.3 Sean A y B dos sucesos tales que φ B A ≠∩ Probar que:

[ ] B)2P(A - P(B) P(A) )A'(B )B'(AP ∩+=∩∪∩

PRUEBA: Ayudémonos a través del siguiente diagrama de Venn:

( )

( ) ( )[ ] ( ) ( )A'BP B'AP A'BB'AP )A' (B B) (A B' A

∩+∩=∩∪∩=∩∩∩∩∩∴ ϕ

â

y ( ) ( ) ( )[ ] ( ) ( ) ( )A'B P BA P B'A P A'BBAB'AP ∩+∩+∩=∩∪∩∪∩ ã

Pero ( ) ( ) ( ) )( BA A'B BA B'A ∪=∩∪∩∪∩ ä

Page 29: TABLA DE CONTENIDOS 1. NOCIONES ELEMENTALES DE ... · 1.2.2 conceptos bÁsicos de anÁlisis combinatorio 1.2.3 concepto de probabilidad 1.2.4 teorÍa axiomÁtica de la probabilisdad

Luego igualando ã y ä, tenemos:

( )

( ) ( )( ) P(AB) P(B) - P(A) BA'AB'P)AB) - P(AB P(B) - P( P(A) P(BA') P(AB')

P(BA') P(AB) P(AB') B) A P(B) - P( P(A) BAP

2+=∪+=+

++=∩+=∪

1.2.11.4 En un naipe de 40 cartas se hace una extracción de 5 cartas y resultan

2 espadas. Cuál es la probabilidad de que una de ellas sea el as? Cuál

es la probabilidad de que una sea el as y la otra el rey?

SOLUCIÓN:

Sea A el suceso “extraer dos espadas en una muestra de 5 cartas”. Sea el suceso

B, “extraer el as de espadas en la muestra de 5 cartas”.

Luego, la probabilidad que nos piden es: P(B/A)

( )P(A)

P(AB) AB P =∴

El suceso (AB) es entonces, extraer 2 espadas y una de ellas es el as de espadas,

en la muestra de 5 cartas; luego:

( ) ( ) ( )( )

P(AB) 40

5

303

91

11= .

( ) 11 : En las 10 cartas espadas, hay 1 as y ese es el que tomamos.

( ) 91 : Una vez considerado el as de espadas, la segunda carta de espadas, la

podemos tomar de las 9 restantes.

( ) 303 : Las otras 3 cartas que hacen parte de la muestra de 5, las tomamos

lógicamente de las 30 restantes, y

Page 30: TABLA DE CONTENIDOS 1. NOCIONES ELEMENTALES DE ... · 1.2.2 conceptos bÁsicos de anÁlisis combinatorio 1.2.3 concepto de probabilidad 1.2.4 teorÍa axiomÁtica de la probabilisdad

( ) 405 : Es el número total, de posibles muestras de tamaño 5, que podemos

extraer de la población de 40 cartas.

Analizando en forma análoga, tenemos:

( ) ( )( )40

5

303

102

P(A) =

Luego:

( ) ( ) ( )

( ) ( )( )( ) 5

1102

91

303

102

303

91

11

P(B/A) ===

Para responder la segunda parte del ejercicio; definamos el suceso “A” de idéntica

forma como en el caso anterior y definamos que “B” sea el suceso “Extraer as de

espadas y rey de espadas en una muestra de 5 cartas”, tenemos:

El suceso B)(A ∩ : “Extraer dos espadas, una el rey y otra el AS” en una muestra

de 5 cartas. Pero vemos que B)(A ∩ = B.

Luego:

( ) ( ) ( ) ( )( ) ( ) ( )

( ) 451

102

1

405

303

102

405

303

11

11

P(B/A)

P(B/A)

P(A)P(B)

P(A)B)P(A P(B/A)

==

=

=∩

=

Page 31: TABLA DE CONTENIDOS 1. NOCIONES ELEMENTALES DE ... · 1.2.2 conceptos bÁsicos de anÁlisis combinatorio 1.2.3 concepto de probabilidad 1.2.4 teorÍa axiomÁtica de la probabilisdad

1.2.11.5 Se han adquirido 3.000 botellas de vino a $8 cada una; 2.000 a $9 cada

una y 1.000 a $10 cada una. Se extrae una botella al azar y se vende a

$9,50. Cuál es la probabilidad de ganar; $1,50? 0,50?; de perder $0,50?

SOLUCIÓN:

Para ganar $1,50 es necesario extraer una botella de $8. Sea “A” el suceso que

indique tal extracción.

Luego, 21

00060003 ..

nn(A) P(A) ===

Para ganar $0,50 es necesario extraer una botella de $9; llamemos “B” a este

suceso, tenemos:

31

00060002 ..

nn(B) P(B) ===

Ahora, para perder $0,50, es necesario extraer una botella de $10; llamemos “C”,

este suceso; luego

61

00060001 ..

nn(C) P(C) ===

1.2.11.6 Se tienen 3 libros de matemáticas, 4 de física y 6 de química. Si se

colocan en un estante al azar: Cuál es la probabilidad de que los de

química queden todos juntos?

SOLUCIÓN

Sea “A” el suceso que representa “Libros de química siempre juntos”; luego.

lesasos posibTotal de c

sucesorables al Casos favo n

n(A) P(A) ==

! n 13=∴ , ya que hay un total de 13 libros para permutar; y el número de

permutaciones favorables al suceso “A”, n(A) = 8! 6! = P8 x P6 puesto que se

consideran 3 diferentes libros de matemáticas, 4 de física y 1 (un)solo bloque de

química, o sea, 8 elementos, (3M + 4F + 1Q), que puede ocupar cualquier lugar;

Page 32: TABLA DE CONTENIDOS 1. NOCIONES ELEMENTALES DE ... · 1.2.2 conceptos bÁsicos de anÁlisis combinatorio 1.2.3 concepto de probabilidad 1.2.4 teorÍa axiomÁtica de la probabilisdad

además los 6 libros de química pueden cambiar de lugar entre ellos, sin dejar de

permanecer unidos; luego tenemos:

4292

1368 !!! P(A) ==

Cuál es la probabilidad de que en cada extremo quede un libro de física y en el

centro un libro de química?

Sea “A” el suceso “un libro de física en cada extremo y un libro de química en el

centro”

n

n(A) P(A) =

Uno de los extremos se puede ocupar de 4 maneras, el otro de 3 maneras y la

posición central de 6 maneras, quedan 10 libros para los 10 restantes puestos,

que se pueden llenar de 10! = P10 maneras.

Luego; n(A) = 4 x 3 x 6 x 10! y n = 13!

1436

1310634

!! x x x P(A) ==∴

1.2.11.7 Un empleado que trabaja en cierta factoría debe elegir dos caminos

para llegar a su casa, uno de ellos es a través de un túnel y el otro a

través de un puente. La ruta a elegir se hace al azar, siendo 1/3 la

probabilidad que tiene de elegir el túnel y 2/3 la de escoger el puente. Si

elige el túnel llega a su casa a las 6 p.m., el 75% de las veces, mientras

que si escoge el puente llega a las 6 p.m., el 70% de las veces.

Cierto día llega a casa a las 6 p.m. y al preguntarle su esposa qué camino eligió él

responde, que el puente. Cuál es la probabilidad de que haya respondido la

verdad?

Sea “A” el suceso de elegir el túnel ⇒ P(A) = 1/3

Sea “B” el suceso de elegir el puente ⇒ P(B) = 2/3

Sea “C” el suceso de llegar a la casa a las 6 p.m.

Page 33: TABLA DE CONTENIDOS 1. NOCIONES ELEMENTALES DE ... · 1.2.2 conceptos bÁsicos de anÁlisis combinatorio 1.2.3 concepto de probabilidad 1.2.4 teorÍa axiomÁtica de la probabilisdad

La probabilidad pedida es, entonces: P(B/C)

Además, el problema nos da la siguiente información:

( ) ( )( ) ( ) ( ) ( ) 650

750317003270032

700750

, , ,

, P(B/C)

/A) P(A) P(CB) P(B) P(C/B)P(B) P(C/

P(C)C)P(B P(B/C)

, ; P(C/B) , P(C/A)

=+

=⇒

+=

∩=⇒

==

1.2.11.8 Se extraen naipes con reemplazamiento5 de una baraja de 40 cartas,

(Naipe español), hasta que aparezca el primer as. Cuál es la

probabilidad de que el número de extracciones hubiese sido 5?

SOLUCIÓN:

Para que la quinta extracción se obtenga el primer as, en las cuatro extracciones

anteriores, no debe aparecer ningún as; por consiguiente, la probabilidad es:

0,066 404

4036 P(o) .

4

=⎟⎠⎞

⎜⎝⎛

⎟⎠⎞

⎜⎝⎛=

= P(No aparezca en la primera extracción) x P(No aparezca en la segunda)

x ...... x P(No aparezca en la cuarta) x P(Aparezca en la quinta extracción).

Si las extracciones fueran sin reemplazamiento, tendríamos:

0730364

3733

3834

3935

4036 , x x x x P(o) ==

5 Quiere decir que todo elemento que fue extraído una vez observado, regresa a su población de origen, y vuelve a tener oportunidades de salir, en este caso de muestreo la población permanece constante.

Page 34: TABLA DE CONTENIDOS 1. NOCIONES ELEMENTALES DE ... · 1.2.2 conceptos bÁsicos de anÁlisis combinatorio 1.2.3 concepto de probabilidad 1.2.4 teorÍa axiomÁtica de la probabilisdad

1.2.11.9 Una urna contiene 25 piezas, de las cuales 10 son defectuosas. Se

toman dos piezas al azar, de la urna. Cuál es la probabilidad de que

ambas piezas sean buenas? Qué ambas sean defectuosas? Que una

sea buena y la otra defectuosa?

SOLUCIÓN:

Empecemos por responder la primera pregunta así:

Sea “A1”, suceso “Pieza seleccionada es buena, en la primera extracción”. Sea “A2”

suceso “Pieza seleccionada es buena, en la segunda extracción”.

Luego, la probabilidad se reduce a:

207

2414

2515 )/AP(A )P(A )AP(A .12121 ===∩

También podemos responder esta pregunta, haciendo uso del análisis

combinatorio; así:

Sea H: El suceso extraer dos piezas buenas n

n(H) P(H) =⇒

152 C n(H) =∴ : De la población de piezas buenas tomamos las 2 y los casos

posibles o muestras posibles de tamaño 2 de toda la población está dado por: 252 C n =

( )( ) 20

72232521315

252

152 ===⇒

!! !!! !

P(H)

Page 35: TABLA DE CONTENIDOS 1. NOCIONES ELEMENTALES DE ... · 1.2.2 conceptos bÁsicos de anÁlisis combinatorio 1.2.3 concepto de probabilidad 1.2.4 teorÍa axiomÁtica de la probabilisdad

Ahora, entremos a resolver la segunda pregunta formulada en el problema; y

seguidamente la última:

Sea “G”: Las 2 piezas resultan ser defectuosas”

Sea “R” el suceso “Una resulta ser buena y la otra defectuosa”

Sea “H”, las dos piezas seleccionada son buenas”

∴ Podemos afirmar que: SR GH =∪∪

φR G H =∩∩∴

Luego, P(S)R) GP(H =∪∪

1 = P(H) + P(S) + P(R)

Ya sabemos que P(H) = 7/20

Entonces hallemos P(G) y P(R)

( )( ) 20

3252

102

n

n(G) P(G) === y

nn(R) P(R) = ; Aquí debemos considerar que la primera sea mala y la segunda

buena es la primera consideración;

y la segunda consideración, que la primera sea buena y la segunda sea mala;

así:

21

2410 x

2515

2415 x

2510 P(R) =+=

VERIFICACIÓN: P(R) P(S) P(H) ++=1

212032071 / / / ++=

ero!, Verdad 11 =

1.2.11.10 Los dígitos 0, 1, 2, ---, 9 se acomodan en un orden aleatorio.

Page 36: TABLA DE CONTENIDOS 1. NOCIONES ELEMENTALES DE ... · 1.2.2 conceptos bÁsicos de anÁlisis combinatorio 1.2.3 concepto de probabilidad 1.2.4 teorÍa axiomÁtica de la probabilisdad

Encuentre la probabilidad de que los dígitos 3 y 4 sean vecinos.

SOLUCIÓN:

Ilustremos el problema de la siguiente forma:

3 4 x x x x x x x x Sea el suceso de A

x 3 4 x x x x x x x “Los dígitos 3 y 4 sean vecinos”

x x x x x x x x 3 4 Luego:

4 3 x x x x x x x x n

n(A) P(A) =

x 4 3 x x x x x x x

.

. 18 2! V n(A) 91 =×=∴

. 90 n V102

==

x x x x x x x x 4 3

Luego, 51

9018 P(A) ==

O también.

51

102

91

1019

91

1019344343 x x ) y P() y P(nos) sean veci y P( ==+=+=

1.2.11.11 Se lanza una moneda "Honesta" 15 veces y se registra su resultado l

cabo de cada tirada. Determínese la probabilidad de que ocurra "al meno na cara",

al final e los 15 lanzamientos.

SOLUCIÓN: Sea "A" el suceso obtener al menos una cara \ sabemos que el número de

resultados posibles de un experimento aleatorio está dado por: Kn \ K es el número

del evento simple, en este caso, los resultados de lanzar una moneda una vez son

Page 37: TABLA DE CONTENIDOS 1. NOCIONES ELEMENTALES DE ... · 1.2.2 conceptos bÁsicos de anÁlisis combinatorio 1.2.3 concepto de probabilidad 1.2.4 teorÍa axiomÁtica de la probabilisdad

2: cara o sello y "n" representa el número de veces en que se repite el evento

simple n=15.

Ahora

Como cada ocurrencia de evento simple tiene la misma probabilidad de ocurrir y

sus resultados son independientes, es decir,

O sea:

Lo que significa que prácticamente tenemos la seguridad de observar por lo

menos una cara.

1.2.11.12 Una urna contiene "n" bolas azules y "m" bolas rojas. Si de la urna tomamos una muestra aleatoria de "K" bolas ¿Cuál es la probabilidad de que al sacar una bola sea Azul?

SOLUCIÓN:

n+m = Total de Bolas

K = Total de bolas en la extracción

Page 38: TABLA DE CONTENIDOS 1. NOCIONES ELEMENTALES DE ... · 1.2.2 conceptos bÁsicos de anÁlisis combinatorio 1.2.3 concepto de probabilidad 1.2.4 teorÍa axiomÁtica de la probabilisdad

la bola azul la mantenemos "fija" en en el lugar (k+1)

se obtienen 1mnKV −+ casos favorables para cada bola azul, luego los casos

favorables para todas las bolas azules está dado por 1mnKVn −+× y los casos

posibles están dados por: mn1KV +

+

⇒ La probabilidad pedida = ( )mn

nVVnP mnK

1mnK

+=

×=• +

−+

.

1.2.11.13 Del ejercicio anterior [1.2.11.12], al extraer la muestra aleatoria de K

bolas; nos preguntamos:

1.2.11.13.1 ¿Cuál es la probabilidad de que sean "P" azules donde el muestreo se

hace "Con remplazamiento"? 6

SOLUCIÓN:

Un suceso de la forma R......RRRA........AAA

vecesPKvecesP ⎯⎯⎯⎯⎯ →⎯⎯⎯⎯⎯ →⎯ −

Donde la probabilidad de

ese suceso, está dada por: PKP

mnn

mnn −

⎟⎠⎞

⎜⎝⎛

+⎟⎠⎞

⎜⎝⎛

+, pero para la ocurrencia de

todos los posibles sucesos, esta dado por ( )PKP

mnn

mnn

PKP

⎟⎠⎞

⎜⎝⎛

+⎟⎠⎞

⎜⎝⎛

+=•

1.2.11.13.2 ¿Cuál es la probabilidad de que sean "P" azules donde el muestreo

se hace "Sin remplazamiento"? 7

SOLUCIÓN: En este caso el valor de probabilidad varia de una extracción a otra; así:

Para una ocurrencia posible, ⇒ la probabilidad será:

6 Con remplazamiento" ; Se hace la extracción y regresa a la población. 7 "Sin remplazamiento" ; Se hace la extracción y no regresa a la población.

Page 39: TABLA DE CONTENIDOS 1. NOCIONES ELEMENTALES DE ... · 1.2.2 conceptos bÁsicos de anÁlisis combinatorio 1.2.3 concepto de probabilidad 1.2.4 teorÍa axiomÁtica de la probabilisdad

( )( ) ( )

( )( )

( )( )( )

( )

( )( )

( )n

mnpn

Kmn

!m!n!mn

!pKm)!pn(!Kmn

!Kmn!mn

!pKm!m

)!pn(!n

1Kmn1pKm...

1pmn1m

pmnm

1pmn1pn...

1mn1n

mnn

+−

−+

=+

+−−−+

=

−++

−−⋅

=−−+−−−

⋅⋅+−+

−⋅

−+⋅

−−+−−

⋅⋅−+

−⋅

+

Ahora teniendo en cuenta todas las ocurrencias posibles

( )

nmnpn

Kmn

PK

P+−

−+

⋅⎟⎟⎠

⎞⎜⎜⎝

⎛=•⇒

1.2.11.14 ¿Cuál es el número mínimo de veces que es preciso lanzar dos dados

para que la probabilidad de sacar un seis doble sea mayor que la de no sacarlo?

SOLUCIÓN: La probabilidad de obtener el resultado (6,6) = 1/6 * 1/6 = 1/36

La probabilidad de no obtener un (6,6)= 1- 1/36 = 35/36 ∴ si se lanza el dado "n"

veces, la probabilidad de que no salga un seis doble es : (35/36)n luego la

probabilidad de que salga al menos una vez será 1-(35/36)n , de donde,

n > log2 /(log36- log35)

1.2.11.15 Un mecanismo eléctrico que contiene, cuatro interruptores, solo

funciona cuando todos ellos estan cerrados. El funcionamiento de los interruptores

es independiente en cada uno de ellos, tanto en lo que se refiere al cierre o la

apertura, y para cada uno de ellos, la probabilidad de que no funcione es 0,1.

¿Cuál es la probabilidad de que no funcione el mecanismo en conjunto?

SOLUCIÓN:

Sea " " el suceso que nos indica que el mecanismo "Falle"

Sea " " el suceso que nos indica que el mecanismo "No Falle"

Page 40: TABLA DE CONTENIDOS 1. NOCIONES ELEMENTALES DE ... · 1.2.2 conceptos bÁsicos de anÁlisis combinatorio 1.2.3 concepto de probabilidad 1.2.4 teorÍa axiomÁtica de la probabilisdad

Sea : Los sucesos que indican que el interruptor J esté cerrado . \ J= 1,2,3,4.

Sea : Los sucesos complementarios, es decir que el interruptor J esté abierto.

∴ J= 1,2,3,4

y así calcularíamos para los interruptores J= 2,3,4

⇒ El mecanismo funciona si y solo si: S1 ∩ S2 ∩ S3 ∩ S4

Es decir que funcione el interruptor 1 "Y" el interruptor 2 "Y" el interruptor 3 "Y" el

interruptor 4; Luego

P(Mecanismo funcione) = = P(S1 ∩ S2 ∩ S3 ∩ S4 )

Como los SJ son independientes

= P(S1) P(S2 ) P(S3) P(S4 ) = 0.9 * 0.9 * 0.9 * 0.9 = (0.9)4 = 0.6561

Entonces

P(F) = 1 - 0.6561 = 0.3439

⇒ También se puede resolver el problema definiendo a :

El mecanismo no funciona siempre que uno de los interruptores este abierto.

Page 41: TABLA DE CONTENIDOS 1. NOCIONES ELEMENTALES DE ... · 1.2.2 conceptos bÁsicos de anÁlisis combinatorio 1.2.3 concepto de probabilidad 1.2.4 teorÍa axiomÁtica de la probabilisdad

2. VARIABLES ALEATORIAS

Tomemos un espacio muestral S, con función de probabilidad P(A) definida para

un suceso A; si “X” es una función de valores reales definida en S, (o sea que

cada punto del espacio muestral se le hace corresponder un punto del eje X), se

dice que X es una variable aleatoria unidimensional. En general, si cada punto de

S, se hace corresponder con un punto, (X1, X2, --- Xn) del espacio n-dimensional, se

tiene una variable aleatoria pluridimensional. Por ejemplo: Sea el experimento

aleatorio lanzar una moneda dos veces. El espacio muestral S = {(c,s); (s,c); (c,c);

(s,s)} consta de 4 puntos. Sea “X” la variable aleatoria que nos representa el

número de sellos. Dicha variable puede tomar los siguientes 4 valores,

correspondientes a los 4 puntos de S: 1, 1, 0, 2.

Estando la función de probabilidad completamente definida para el espacio

muestral S, como n

n(A) P(A) = ; podemos escribir, por ejemplo:

410 ) P(x == , para designar la probabilidad de que el número de sellos sea cero;

211 ) P(x == : Probabilidad de obtener un sello y

412 ) P(x == : Probabilidad de obtener dos sellos.

Veamos otra forma, de tratar el experimento anterior, así:

Sea “X” la variable aleatoria que representa el número de sellos y sea “Y” la

variable aleatoria que representa el número de caras.

La variable aleatoria bidimensional transformará los puntos de S en puntos del

plano X Y.

Luego a: (c,c) corresponde x = 2, y = 0, o sea, (2,0)

(c,s) corresponde x = 1, y = 1, o sea, (1, 1)

(s,c) corresponde x = 1, y = 1, o sea, (1, 1)

(s,s) corresponde x = 0, y = 2, o sea, (0, 2)

Page 42: TABLA DE CONTENIDOS 1. NOCIONES ELEMENTALES DE ... · 1.2.2 conceptos bÁsicos de anÁlisis combinatorio 1.2.3 concepto de probabilidad 1.2.4 teorÍa axiomÁtica de la probabilisdad

Entonces, ( )[ ] [ ] ecesivament y así su ), ( ; P , P2111

4102 ==

2.1 VARIABLE ALEATORIA DISCRETA En general, es aquella variable aleatoria con un número finito o infinito numerable

de puntos. En el caso de que la variable sea unidimensional, con valores posibles

X1, X2, ......, Xn; y con probabilidades:

f(x1), f(x2), f(x3), ...... - f(xn) , para cada uno de dichos valores, el conjunto cuyos

elementos son los pares ordenados, ((x, f(x)), es llamado función de densidad, o

función de cuantía o función de probabilidad de la variable aleatoria X.

Para cualquier subconjunto “A” de los puntos X1, X2, ......, Xn; tenemos entonces

que:

∑∈

=AX

f(x) P(A)

∴ P(A) representa la suma de f(x) para aquellos valores de X que pertenecen

a A; luego P(A) es llamada FUNCIÓN DE DISTRIBUCIÓN para el suceso A.

- Veamos el siguiente ejemplo:

Supongamos que un experimento aleatorio consiste en lanzar dos dados y

registrar el número posible de puntos. Cada resultado puede asociarse con el

valor de una variable aleatoria X; por lo tanto, “X” toma los valores: 2, 3, 4, 5, 6, 7,

8, 9, 10, 11, 12.

Calculemos ahora f(x), o sea, la probabilidad de que aparezcan “X” puntos.

Page 43: TABLA DE CONTENIDOS 1. NOCIONES ELEMENTALES DE ... · 1.2.2 conceptos bÁsicos de anÁlisis combinatorio 1.2.3 concepto de probabilidad 1.2.4 teorÍa axiomÁtica de la probabilisdad

Sabemos que el espacio muestral consta de 36 puntos, (1,1), (1,2), . . ., (1,6);

(2,1). (2,2) . . ., (2,6); (3,1), (3,2), . . ., (3,6); (4,1). (4,2) . . ., (4,6); (5,1), (5,2), . . .,

(5,6); (6,1). (6,2) . . ., (6,6).

El número de casos en que pueden caer X puntos es: X – 1 : para X = 2, 3, 4, 5, 6, 7 y 13 – X : para X = 8, 9, 10, 11, 12

Luego 76543236

1 , , , , , X n

n(x) X- f(x) =∴==

1211109836

13 , , , , para X - X f(x) ==

), ,. . . . ., ( para X f(x) 12320 ∉=

Puesto que:

0112

8

7

2 3613

361 ) y f(x

XX

- XX - ≥=+ ∑∑

==

Para todo X, definido del experimento tratado.

Una vez conocida f(x) podemos hallar las diversas funciones de distribución

relativas a X. Denominemos [ ] xx P(x) Fx ≤= como función de distribución

acumulativa de la variable aleatoria X, así:

[ ] ∑≤

=≤=xX

x f(x) xx P(x) F

Por ejemplo:

menos puntos o r de obteneobabilidad ) F() P(x 4Pr44 ==≤

61

36144

4

2 x - )( F) P(x

xX ===≤ ∑

=

inclusive y ido entre e comprend un puntaj de otenerobabilidad ) xP( 86Pr86 =≤≤

Page 44: TABLA DE CONTENIDOS 1. NOCIONES ELEMENTALES DE ... · 1.2.2 conceptos bÁsicos de anÁlisis combinatorio 1.2.3 concepto de probabilidad 1.2.4 teorÍa axiomÁtica de la probabilisdad

836

1336

187686

7

6

, x - X x -

) P(x ) x P()xP(

x

=+=

=+≤≤=≤≤

∑=

Las condiciones que debe cumplir f(x) para ser función de densidad de una

variable aleatoria discreta unidimensional, son:

1. Si el dominio de la función es X1, X2, . . . Xn x f(x) ∀≥⇒ 0

2. ∑ = 1f(xi)

Hallemos también, (Remitiéndonos al ejercicio anterior), la probabilidad

condicional de que el número de puntos sea menor que 3, cuando se sabe que

dicho número es menor que 8.

Sea “A” el suceso “Número de puntos menor que 3”

Sea “B” el suceso “Número de puntos menor que 8”

Deseamos hallar:

P(B)B)P(A P(A/B) ∩

=

El suceso A = {X / x = 2}

El suceso B = {X / x = 2, 3, 4, 5, 6, 7}

Luego el suceso ( ) { }2==∩ xX BA

3612

361 B) P(A ; x x - B) P(A =∩⇒==∩

Por otra parte, 3621

3617

2 x - P(B)

x== ∑

=

Page 45: TABLA DE CONTENIDOS 1. NOCIONES ELEMENTALES DE ... · 1.2.2 conceptos bÁsicos de anÁlisis combinatorio 1.2.3 concepto de probabilidad 1.2.4 teorÍa axiomÁtica de la probabilisdad

Concluimos entonces que, P(A/B) = P(X < 3 / X < 8)

211

2136

361 x ==

2.2 FUNCIONES DE DOS O MAS VARIABLES DISCRETAS

En general, las funciones de densidad de variable discreta pluridimensional, tiene

las mismas propiedades de las funciones similares de una variable. Podemos

decir entonces que una función f(x1, x2, ...... , xn) es una función de densidad de “n”

variables reales si y solo sí:

1. ( ) 021 ., x, . . . . , xxf n ≥

2. ( )∑∑∑ =nx

nxx

x, . . . .,, xxf. . . 12121

Las funciones de densidad conjunta o de dos variables aleatorias discretas, se

representan entonces de esta misma manera.

- Tomemos como ejemplo, el lanzamiento de dos dados.

Sea “X” la variable aleatoria de tipo discreto, que nos representa el número de

puntos del dado α y “Y” la variable aleatoria discreta que nos representa el

número de puntos del dado β

X = 1, 2, 3, 4, 5, 6

Y = 1, 2, 3, 4, 5, 6

361 f(x, y) =∴ : Probabilidad de obtener “X” puntos en el dado α y “Y”

puntos en el dado β .

Probemos que f(x, y) si es función de probabilidad:

1. y f(x, y) f(x, y) 0361

>⇒=

Page 46: TABLA DE CONTENIDOS 1. NOCIONES ELEMENTALES DE ... · 1.2.2 conceptos bÁsicos de anÁlisis combinatorio 1.2.3 concepto de probabilidad 1.2.4 teorÍa axiomÁtica de la probabilisdad

2. ∑∑==

=6

1

6

11

361

yy

Luego f(x, y) si es función de probabilidad.

Q Veamos ahora otro ejemplo:

Una urna contiene 6 bolas blancas, 5 bolas negras y 4 bolas azules. Si se extraen

4 bolas, hallar la función de densidad conjunta del número de bolas negras y

azules.

SOLUCIÓN:

Sea “X” la variable aleatoria que representa el número de bolas azules en la

muestra. Sea “Y” la variable aleatoria que representa el número de bolas negras

en la muestra.

El recorrido conjunto de las variables X e Y y su función de Probabilidad

Conjunta está dado por :

( ) ( ) ( )( )15

4

64

5440

y) - (xyx

f(x, y)

Y X

+=

≤+≤

De igual manera podemos hallar la función de distribución correspondiente a una

situación deseada, así por ejemplo,

Hallemos, ), f() , f() , f() , f() , f() , f(

) , Y P(X ) , F(120211011000

1212+++++=

≤≤=

∑∑==

=∴2

0

1

012

xyf(x, y) ) , F(

Page 47: TABLA DE CONTENIDOS 1. NOCIONES ELEMENTALES DE ... · 1.2.2 conceptos bÁsicos de anÁlisis combinatorio 1.2.3 concepto de probabilidad 1.2.4 teorÍa axiomÁtica de la probabilisdad

2.3 FUNCIÓN DE DENSIDAD MARGINAL PARA VARIABLES DISCRETAS

Al hablar de función de densidad conjunta podemos definir la función de densidad

marginal de X o de Y.

Llamemos entonces f1(x) la función de densidad marginal para X y f2(y) la función

de densidad marginal para Y.

En el caso del ejemplo de las bolas negras y azules, tenemos:

( ) ( ) ( )( )15

4

64

54

y) - (xyx

f(x, y) +=

Para: X = 1, 2, ---- 4

Y = 1, 2, ---- 5

( ) ( ) ( )( )∑

=

=

+=

+++++==

∉∉=

∴-x

y

-x

y

y) - (xyx

(x) f

-x) f(x, - - - - ) f(x, ) f(x, ) f(x, ) f(x, f(x,y) (x) f

), ---, , ( Y ), ---, , (si X f(x, y)

4

01

4

01

154

64

54

43210

5214210

Observamos que la función de densidad marginal de X, la calculamos utilizando el

recorrido de la otra variable, con el fin de que la conjunta nos quede en términos

de una sola variable.

Ahora:

∑=

=-y

xf(x, y) (y) f

4

02

Page 48: TABLA DE CONTENIDOS 1. NOCIONES ELEMENTALES DE ... · 1.2.2 conceptos bÁsicos de anÁlisis combinatorio 1.2.3 concepto de probabilidad 1.2.4 teorÍa axiomÁtica de la probabilisdad

2.4 FUNCIÓN DE DENSIDAD CONDICIONAL

Si tenemos una función de densidad de variable discreta pluridimensional en

general, podemos hallar la función de densidad condicional que deseemos; para el

caso de función de densidad conjunta f(x, y), se tendrán dos funciones de

densidad condicional, así:

(x)fy)f(x, P(y/x) H(xy) 2.

(y)fy) f(x, P(x/y) G(xy) 1.

1

2

==

==

Si nos remitimos de nuevo al ejemplo de la distribución de las bolas negras y

azules; tenemos:

( ) ( ) ( )( ) ( ) ( )

( )( )

( )1546

44

64

4

154

64

45

154

64

54

4

0

4

0

y)(x x

y)(x x

g(x,y)

y)(x x y

y)(x x x g(x,y)

y

x

y

x

⎟⎠⎞⎜

⎝⎛

+−⎟⎟⎠

⎞⎜⎜⎝

⎟⎠⎞⎜

⎝⎛

+−=

⎟⎠⎞⎜

⎝⎛

+−⎟⎟⎠

⎞⎜⎜⎝

⎟⎠⎞⎜

⎝⎛

+−=

=

=

Page 49: TABLA DE CONTENIDOS 1. NOCIONES ELEMENTALES DE ... · 1.2.2 conceptos bÁsicos de anÁlisis combinatorio 1.2.3 concepto de probabilidad 1.2.4 teorÍa axiomÁtica de la probabilisdad

2.5 VARIABLE ALEATORIA CONTINUA

Es la que puede tomar cualquier valor dentro del intervalo que se considere; es

decir, es aquella que toma un número infinito de valores.

El concepto de función de densidad f(x), difiere en este caso al de variable

discreta, ya que, aquí no es lógico hallar la probabilidad en un punto sino en un

intervalo. Ya habíamos visto que (x) F x) P(X x=≤ para ∞<<∞− X diremos

que Fx(x) es la función de distribución, (acumulativa), para la variable continua;

podemos desde luego hallar la probabilidad en cualquier intervalo; encontremos:

)( bXaP ≤<

Sea A el suceso : { }aXX ≤/

Sea B el suceso : { }bXX ≤/

Sea C el suceso : { }bXaX ≤</

∴ Los sucesos A y C son mutuamente excluyentes, ya que φ=∩ CA ; luego

)()()( CPAPCAP +=∪ ; Además

)()()()()()()()()(

)()()(

aFbFbXaPaXPbXPbXaPbXaPaXPbXP

CPAPBPBCA

xx −=≤<≤−≤=≤<≤<+≤=≤

+=⇒=∪

∴∴

Ahora siendo F continua en X = b

Se puede probar que P(x=b)=0, esto implica que para variables continuas, se

tienen que:

)()()()()()( aFbFbXaPbXaPbXaPbXaP xx −=≤≤=<≤=<<=≤<

Partiendo de la función de distribución podemos obtener la función de densidad,

así:

Page 50: TABLA DE CONTENIDOS 1. NOCIONES ELEMENTALES DE ... · 1.2.2 conceptos bÁsicos de anÁlisis combinatorio 1.2.3 concepto de probabilidad 1.2.4 teorÍa axiomÁtica de la probabilisdad

)()()( xFxxFxxXxP xx −∆+=∆+≤≤

Dividiendo por x∆ :

xxFxxF

xxxXxP xx

∆−∆+

=∆

∆+≤≤ )()()(

Pasando al límite cuando 0→∆x

0→∆x

Lim )()(.)( xfxF

dxd

xxxXxP xx ==

∆∆+≤≤

O sea, que la primera derivada de la función de distribución es la función de

densidad, (En el caso, claro está, de variables aleatorias continuas). O también

vale afirmar que:

∫∞−

=≤=x

x duufXxPxF )()()(

Para un intervalo )bXa ≤≤ se tiene que

∫=≤≤b

a

dxxfbXaP )()(

Las propiedades que debe cumplir fx(x)

Para que sea función de densidad de variable aleatoria, son:

1. Dominio de fx(x), tal que X es real

2. ( )∞∞−∈∀≥ ,0)( xxf x

3. ∫∞

∞−

= 1)( dxxf x

Veamos el siguiente ejemplo ilustrativo, a la situación que acabamos que ver:

La variable aleatoria X tiene como función de densidad:

Page 51: TABLA DE CONTENIDOS 1. NOCIONES ELEMENTALES DE ... · 1.2.2 conceptos bÁsicos de anÁlisis combinatorio 1.2.3 concepto de probabilidad 1.2.4 teorÍa axiomÁtica de la probabilisdad

)1,0(0)(102)(

∉=<<=

XSixfXSixxf

x

x

Hallar:

(0,1)x 0(x)F (0,1)x X(x)F Luego

XX2udu(x)F

f(u)du0du(x)F

f(u)dux)P(X(x)F 3.

1632xdx1/2)XP(1/4 2.

)21(F41)21P(X

2xdx0dxf(x)dx)21P(X 1.

x

2x

2x

02

x

0x

x

0

0

x

x

x

1/2

1/4

x

0 21

0

21

]

∉∴=∈∴=

===

+=

=≤=

==<<

==<

+==<

∫∫

∫ ∫∫

∞−

∞−

∞−∞−

2.6 FUNCIÓN DE DENSIDAD PARA VARIABLE CONTINUA PLURIDIMENSIONAL

En el caso de variable continua pluridimensional, la función de densidad

∫∫∫∞

∞−

∞−

∞−

=

=∀≥

1...dxdx)dx...xxf(x....... 3.

Real:XReal;...;:X Real;:X 2.n1,2,....,i ;X 0)x,...,x,f(x 1.

serdebe )x,...,x,f(x

n21n21

n21

in21

n21

Page 52: TABLA DE CONTENIDOS 1. NOCIONES ELEMENTALES DE ... · 1.2.2 conceptos bÁsicos de anÁlisis combinatorio 1.2.3 concepto de probabilidad 1.2.4 teorÍa axiomÁtica de la probabilisdad

2.7 ESPERANZA MATEMÁTICA

La esperanza matemática, valor esperado o media de la variable aleatoria X se

define como:

∑=

=n

1iii )f(xxE(x) para variable discreta con dominio, X1, X2 . . ., Xn y función de

densidad f(xi).

Para variable continua la esperanza matemática se define como:

∫∞

∞−

= dxxXfxE x )()( ; siendo f(x) la función de densidad.

En estructura, E(x) es similar a al media aritmética común, X , obtenida de los

valores X1, X2, . . . ., Xn ; que observamos en una muestra, con frecuencias relativas

h1, h2, . . . , hn respectivamente , así : ;nnh h XX i

i

n

1iii =∴= ∑

=

en donde si el

tamaño de la muestra n es muy grande )f(xh ii ≈⇒ (según lo que se afirmó en

la teoría frecuencial de la probabilidad).

TEÓRICAMENTE E(x) significa el valor central de la distribución de probabilidad.

La esperanza matemática tiene las siguientes propiedades principales:

1. E(x) al igual que la media, es un número que depende de todos los valores

de la serie y de sus respectivas probabilidades, ya que todos ellos entran

en su cálculo.

2. Si YeX son variables aleatorias, entonces :

E (X + Y) = E(X) + E(Y)

3. Si “A” es una constante y X una variable, ⇒ E(Ax) = A E(x)

4. Se X e Y son variables aleatorias independientes ⇒ E(X.Y) = E(X) E(Y)

Page 53: TABLA DE CONTENIDOS 1. NOCIONES ELEMENTALES DE ... · 1.2.2 conceptos bÁsicos de anÁlisis combinatorio 1.2.3 concepto de probabilidad 1.2.4 teorÍa axiomÁtica de la probabilisdad

5. Si X1, X2, ......., Xe son variables aleatorias

)(....)()().....( 2121 ee XEXEXEXXXE +++=+++⇒

6. Si X1, X2, ......., Xt son variables aleatorias independientes

)(*....*)()().....( 2121 tt XEXEXEXXXE =+++

7. La esperanza matemática es un valor que oscila en el intervalo (Mínimo Xi;

máximo Xi), en donde, tiende a situarse en el centro, para así considerarse

representativa de los valores de la serie de datos.

8. Si “X” es variable aleatoria y “a” una constante, ⇒

axEaxE +=+ )()(

9. X variable aleatoria y , “a” y “b” constantes, ⇒ bxaEbaxE +=+ )()(

2.8 MOMENTOS CON RESPECTO AL ORIGEN

Los momentos con respecto al origen de una variable aleatoria X, son los valores

esperados de γX .

Para variables aleatorias de tipo discreto.

X1, X2, ...., Xn se define el momento de orden γ con respecto al origen, como:

∑=

=n

i

xifxiXE1

)()()( γγ

En variables continuas, es:

∫∞

∞−

= dxxfXXE )()( γγ

2.9 Momentos de orden γ respecto a una constante - En variables discretas;

constante una es a, )f(x . a)(x)a)E((xn

1ii

γi

γ ∴−=− ∑=

- Para variables continuas, se tiene:

Page 54: TABLA DE CONTENIDOS 1. NOCIONES ELEMENTALES DE ... · 1.2.2 conceptos bÁsicos de anÁlisis combinatorio 1.2.3 concepto de probabilidad 1.2.4 teorÍa axiomÁtica de la probabilisdad

∫∞

∞−

−=− dxxfaxaxE )()())(( γγ

2.10 Momentos de orden respecto a la media )(xE=µ

Llamaremos, pues, de ahora en adelante, la media de la distribución de la variable

o media poblacional con la letra griega µ. Luego el momento de orden γ respecto a µ , en variables discretas, es:

∑=

−=−n

1ii

γi

γ ).f(xµ)(x)µ)E((x

En variables continuas, es:

∫∞

∞−

−=− dxxfxxE )(.)())(( γγ µµ

El momento de orden uno o primer momento, con respecto a µ es igual a cero , o

sea : ( )[ ] 0)()(;0 =−=−=−=− µµµµµ xExExE que ya .

2.11 Varianza de una función de probabilidad Si X es una variable aleatoria discreta, donde X = x1, x2, ...., xn con media µ=)(xE ;

la Varianza de X, a la cual llamaremos Var(x), se define como el momento de

orden dos, con respecto a µ ; es decir,

∑=

−=

−==n

1ii

2i

22x

)f(xµ)(x

)µ)E((xVar(x) σ

Ahora, en el caso de variable continua, se tiene que:

∫∞

∞−

−= dxxfxxVAR )()()( 2µ

Además, podemos probar que

Page 55: TABLA DE CONTENIDOS 1. NOCIONES ELEMENTALES DE ... · 1.2.2 conceptos bÁsicos de anÁlisis combinatorio 1.2.3 concepto de probabilidad 1.2.4 teorÍa axiomÁtica de la probabilisdad

τ 2)(x

xVar = 22)( µ−= xE para variables aleatorias discretas o continuas.

Veamos por ejemplo, si X es una variable aleatoria continua, con función de

densidad f(x):

∫ ∫∫

∫∞

∞−

∞−

∞−

∞−

+−=

−=⇒

dxxfdxxdXdxxfXxVAR

dxxfxxVAR

)()(2)()(

)(.)()(

22

2

µµ

µ

Pero ∫∞

∞−

= )()( 22 xEdxxfX

22.2)(2)(2)(2 µµµµµµ −=−=−=−=−∴ ∫∫∞

∞−

∞−

xEdxxfXdxxfX :

Luego:

22

222

)()(2)()(µ

µµ

−=

+−=

xExVARxExVAR

2.12 FUNCIÓN GENERATRIZ DE MOMENTOS

Se llamará función generatriz de momentos (f.g.m.), a la expresión:

Mx(t) = E (etx), cuando este valor esperado existe para –b < t < b; donde b es

número real positivo.

Para el caso de variables discretas se tiene que:

exista )()(.)()(

xfxfeeEtM txtx

x

== ∑

Y para variables continuas, así:

∫∞

∞−

== dxxfeeEtM txtxx ).(.)()(

2.12.1 PROPIEDADES DE LA FUNCIÓN GENERATRIZ DE MOMENTOS

Page 56: TABLA DE CONTENIDOS 1. NOCIONES ELEMENTALES DE ... · 1.2.2 conceptos bÁsicos de anÁlisis combinatorio 1.2.3 concepto de probabilidad 1.2.4 teorÍa axiomÁtica de la probabilisdad

La importancia de la función generadora de momentos, radica en el hecho de que

ella es única y determina completamente la distribución de una variable aleatoria,

esto es, si dos variables aleatorias tienen una misma función Generatriz de

momentos, deben tener igual distribución.

La demostración de esta propiedad omitida en estos apuntes, se basa en la

unidad que existe entre la f.g.m. y la función de distribución.

La existencia de la función generatriz de momentos para –b<t<b, donde b es

número positivo, garantiza la existencia de las derivadas de cualquier orden en

t=0.

2.12.2 TEOREMA: Sea X una variable aleatoria con función generatriz de

momentos Mx(t). Sea y=a . x+b, entonces My(t) = ebtMx (at)

Demostración:

( ) [ ] ( ) ( ) ( )eeeeeee taxtbtbtaxtbaxtbaxtyty EEEEEtM ..)( .)( ===== ++

)(.)( taMtM xtb

y e=

2.12.2 TEOREMA. Sean X, Y, variables aleatorias independientes y Z=X+Y, con

funciones generatrices de momentos, Mx(t), My(t) y Mz(t) respectivamente,

entonces:

Mz(t) = Mx(t) My(t)

DEMOSTRACIÓN:

[ ]( )( )

)().(.

)()(

tMtME

E

EtM

yx

tytx

yxt

tzz

eee

e

=

=

=

=+

Page 57: TABLA DE CONTENIDOS 1. NOCIONES ELEMENTALES DE ... · 1.2.2 conceptos bÁsicos de anÁlisis combinatorio 1.2.3 concepto de probabilidad 1.2.4 teorÍa axiomÁtica de la probabilisdad
Page 58: TABLA DE CONTENIDOS 1. NOCIONES ELEMENTALES DE ... · 1.2.2 conceptos bÁsicos de anÁlisis combinatorio 1.2.3 concepto de probabilidad 1.2.4 teorÍa axiomÁtica de la probabilisdad

El teorema anterior, se puede generalizar a n variables aleatorias independientes,

xi, con función generatriz de momentos:

(t)M(t)M

entonces ,X ZSi (t)M

xi

n

1iz

n

1iixi

=

=

=

=

2.13 FUNCIÓN CARACTERÍSTICA

Esta función siempre existe y se encuentra definida en el campo de los números

complejos. Cumple las propiedades de la f.g.m. Sólo que se definen en un marco

mucho más amplio como el de los números complejos.

Se define como:

( )e xi

xE θθϕ =)(

En caso de variable aleatoria discreta, se tiene que:

( ) ∑∀

==x

xxixi

xxfE ee )(.)( θθθϕ

Y en caso continuo, así:

( ) ∫∞

∞−

== dxxfE xxixi

x ee )(.)( θθθϕ

2.14 EJERCICIOS

2.14.1 Supóngase que un número se selecciona al azar entre los enteros del 1 al

20.

Sea X el número de sus divisores.

Construir la función de densidad de X.

Cuál es la probabilidad de que haya 4 o más divisores al extraer un entero al azar.

Page 59: TABLA DE CONTENIDOS 1. NOCIONES ELEMENTALES DE ... · 1.2.2 conceptos bÁsicos de anÁlisis combinatorio 1.2.3 concepto de probabilidad 1.2.4 teorÍa axiomÁtica de la probabilisdad

SOLUCIÓN:

Hagamos el siguiente análisis; para detectar el número de divisores del 1 al 20,

así:

1 2 3 4 5 6 7 8 9 10 11 12 12 14 15 16 17 18 19 20

1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1

Divisores

2 3 2 5 2 7 2 3 2 11 2 13 2 3 2 17 2 19 2

4 3 4 9 5 3 7 5 4 3 4

6 8 10 4 14 15 8 6 5

6 16 9 10

12 18 20

:X∴ Variable aleatoria que representa el número de divisores en los

números del 1 al 20.

X 1 2 3 4 5 6

f (x) 1/20 8/20 2/20 5/20 1/20 3/20

La probabilidad de que haya 4 o más divisores, es:

209

20315)6()5()4()4( =

++=++=≥ xxx fffxP

2.14.2 Se lanza un dado hasta que aparezca seis. Hallar la función de densidad

del número de tiradas.

SOLUCIÓN

Sea X la variable aleatoria que nos representa el número de tiradas.

Page 60: TABLA DE CONTENIDOS 1. NOCIONES ELEMENTALES DE ... · 1.2.2 conceptos bÁsicos de anÁlisis combinatorio 1.2.3 concepto de probabilidad 1.2.4 teorÍa axiomÁtica de la probabilisdad

Luego, puede ocurrir que aparezca, seis, en la primera tirada

61)1()1( === xfxP

Que aparezca al cabo de la segunda tirada, eso implica, que necesariamente en la

primera tirada ocurrieran los resultados: 1, 2, 3, 4 o 5 únicamente y en la segunda

aparecer el 6.

61.

65)2()2( === xfxP

61

65

65

61

65

61

65

65)3()3( .

2321

xxxxfxPaaa

x ⇒⎟⎠⎞

⎜⎝⎛

⎟⎠⎞

⎜⎝⎛====

⎟⎠⎞

⎜⎝⎛

⎟⎠⎞

⎜⎝⎛===

⇒⎟⎠⎞

⎜⎝⎛

⎟⎠⎞

⎜⎝⎛====

61

65)(

61

65

65

65

61

65

61

65

65

65)4()4(

.

.

1

34321

x

x

aaaa

x

xfx)P(x

xxxxxxfxP

. . .

. . .

. . .

2.14.3 De un lote de 10 televisores hay 4 defectuosos; se extrae una muestra de 3

sin reemplazamiento. Hallar la función de densidad del número de

defectuosos en la muestra.

Sea X la variable aleatoria que representa el número de defectuosos en la

muestra.

posiblesCasosfavorablesCasosxfxXP x

=== )()(

Los casos favorables pueden ocurrir de:

( )63

4 xx −⎟⎠⎞⎜

⎝⎛ y los casos posibles son 10

3 ⎟⎠⎞⎜

⎝⎛ o sea, el número total de muestras

posibles de tamaño 3.

Page 61: TABLA DE CONTENIDOS 1. NOCIONES ELEMENTALES DE ... · 1.2.2 conceptos bÁsicos de anÁlisis combinatorio 1.2.3 concepto de probabilidad 1.2.4 teorÍa axiomÁtica de la probabilisdad

( )( )( )

{ }32100)(

.3,2,1,0:103

63.4

)(

, , , para x xf

Xxxxf

x

x

∉=

∴−=

2.14.4 Dada la siguiente función de densidad:

X 0 1 2 3 4 5 6 7

f (x) 0 c 2c 2c 3c c2 2c2 7c2+c

Encontrar C y hallar )5( ≥xP

SOLUCIÓN:

Sabemos que para que fx(x) sea función de densidad es necesario que se cumpla

que:

0)(1)(7

0

≥=∑=

xfYxf xx

x

Partiendo de ∑ = ;1)(xf x tenemos:

c + 2c + 2c + 3c + c2 + 7c2 + c = 1

10c2 + 9c –1 = 0

1

20/220

11920

121920

40819

−=

=⇒±−

=

+−=

++−=∴

c

cc

c

ó

Pero como 10/10)( =⇒≥ cQuexf x

Page 62: TABLA DE CONTENIDOS 1. NOCIONES ELEMENTALES DE ... · 1.2.2 conceptos bÁsicos de anÁlisis combinatorio 1.2.3 concepto de probabilidad 1.2.4 teorÍa axiomÁtica de la probabilisdad

Luego la tabla de probabilidades, queda:

X 0 1 2 3 4 5 6 7

f (x) 0 1/10 2/10 2/10 3/10 1/100 2/100 17/100

Ahora, 51

10020

1001721

)7()6()5()5(

==++

=

++=≥

xxx fffxP

También se puede resolver esta pregunta, utilizando el complemento; ya que

sabemos que la probabilidad en todo el espacio o recorrido de la variable es 1,

tenemos:

{ }

51

102

1081

10322101

)4()3()2()1()0(1

)(1

)4(1)4(1)5(1)5(

4

0

==−=

⎭⎬⎫

⎩⎨⎧ ++++

−=

++++−=

−=

−=≤−=<−=≥

∑=

xxxxx

x

x

fffff

xf

FxPxPxP

2.14.5 Una variable X tiene su gráfico de distribución, (Área), en forma de triángulo

rectángulo de base 5, para X entre, 2 y 7. La pendiente de la hipotenusa es

positiva. Dibujar el gráfico y hallar )4( ≤xP y )5( >xP .

Page 63: TABLA DE CONTENIDOS 1. NOCIONES ELEMENTALES DE ... · 1.2.2 conceptos bÁsicos de anÁlisis combinatorio 1.2.3 concepto de probabilidad 1.2.4 teorÍa axiomÁtica de la probabilisdad

Debemos encontrar la altura h del triángulo, partiendo de que el área, (Espacio

muestral), debe ser igual a la unidad, así:

521

251

2: =∴=⇒= hxhbxhÁrea

Ahora para hallar ⇒≤ )4(xP no es más que el valor del área del triángulo

pequeño; para ello es necesario averiguar h; por triángulos semejantes se tiene

que:

254

225/42)4(,

254'

54'5

25

'5/2

25

'

=∗

=≤

=⇒=

=∴=

xPLuego

hh

hhh

En este ejercicio, bien lo podemos trabajar, como veníamos haciendo o bien,

hallando la función, (ecuación), que actúa en dicho campo, (espacio).

Para ello utilizamos la ecuación de la línea recta que pasa por dos puntos, es

decir, la ecuación de la recta que pasa por los puntos:

)/ , () y , ()yxyyx

52702()( 2211 , ,

)( 112

121 xx

xxYYYY −

−−

=−

254

252

)2(27

05/20

−=

−−

−=−

xY

xY

Page 64: TABLA DE CONTENIDOS 1. NOCIONES ELEMENTALES DE ... · 1.2.2 conceptos bÁsicos de anÁlisis combinatorio 1.2.3 concepto de probabilidad 1.2.4 teorÍa axiomÁtica de la probabilisdad

Luego: [ ]7,2254

252)( ∈−= Xxxf x

2516

254

252)5(

)7,2(0)(

5

si 7

=

⎟⎠⎞

⎜⎝⎛ −=>

∉=

∫ dxxxP

Xxf x

O también; )5(1 ≤−= xP

2516

254

2521

5

2

=

⎟⎠⎞

⎜⎝⎛ −−= ∫ dxx

2.14.6 Si fx(x) = 4K (x3-1) para 101 << x , es una función que determina el tiempo

de ocurrencia de un experimento. Hallar el valor de K, para el cual f(x) es función

de probabilidad. Para que f(x) sea función de densidad de variable aleatoria

continua, es necesario:

1. Dominio de X, sea real

∫∞

=

∀≥

-

1)(.3

0)(.2

dxxf

xxf

Según las 2 primera condiciones, implica que el valor de K debe ser positivo para

que ⇒≥ 0)(xf

99631K

1X4x4K

10dx1)dx4K(x0dxf(x)dx

4

10

1 10

31

=⇒

=⎥⎦

⎤⎢⎣

⎡−=

=+−+= ∫ ∫∫∫∞

∞−

∞−

Page 65: TABLA DE CONTENIDOS 1. NOCIONES ELEMENTALES DE ... · 1.2.2 conceptos bÁsicos de anÁlisis combinatorio 1.2.3 concepto de probabilidad 1.2.4 teorÍa axiomÁtica de la probabilisdad

3. DISTRIBUCIONES PROBABILÍSTICAS

3.1 Principales distribuciones de probabilidad para variable discreta.

3.1.1 Distribución Binomial

Este modelo de probabilidad de refiere en general, a aquellos experimentos que

consisten en un número de pruebas independientes, en la cual se llamará “p” la

probabilidad de éxito de cada prueba y “q=1-p”, la probabilidad de fracaso.

Para que un experimento se pueda calificar como Binomial8 debe presentar las 4

propiedades siguientes:

1. Debe haber un número finito de pruebas.

2. Cada prueba debe tener como resultado un “éxito” o un “fracaso”.

3. Todas las pruebas deben tener idénticas probabilidades de “éxito”.

4. Debe haber independencia entre cada una de las pruebas.

Veamos ahora una serie de ejemplos en donde se cumple y en donde no se

cumple, cada una de las propiedades anteriores.

1. Se lanza una moneda 5 veces; n=5

Luego se cumple la primera propiedad.

- Se lanza una moneda hasta que aparezca cara. No hay un número finito de

pruebas, luego aquí no se cumple la primera propiedad.

2. Al tirar una moneda aparecerá siempre cara o sello cada una con

probabilidad 1/2 ; una de ellas se puede considerar “Éxito” según el caso y

la otra “Fracaso”. Cumple la segunda propiedad.

8 Es decir, su experimentación se da a través del muestreo con reemplazamiento o en el muestreo sin Reemplazamiento que provenga de Poblaciones muy grandes y tamaños de muestra relativamente grandes.

Page 66: TABLA DE CONTENIDOS 1. NOCIONES ELEMENTALES DE ... · 1.2.2 conceptos bÁsicos de anÁlisis combinatorio 1.2.3 concepto de probabilidad 1.2.4 teorÍa axiomÁtica de la probabilisdad

- Supongamos que en una jaula haya 3 ratones: Uno blanco, uno gris y otro

negro. Si se considera “Éxito” extraer ratón blanco y “Fracaso” extraer ratón

gris; qué se podrá decir entonces si la extracción fuera ratón negro?

Luego en este caso no se cumple la segunda propiedad.

3. Al extraer una carta con reemplazamiento 4 veces de una baraja ordinaria,

la probabilidad de extraer un as es:

101

404

= y permanece constante.

Cumple la tercera propiedad.

Si la extracción se hace sin reemplazamiento, la probabilidad de éxito varía de

una prueba a otra; luego no se cumple la tercera propiedad.

4. Citando la situación anterior, se puede adaptar aquí, ya que al hacer

extracciones con reemplazamiento los sucesos son independientes y si se

hacen sin reemplazamiento serían dependientes.

Q Ahora, para analizar completamente la distribución Binomial y sus características, empecemos por definir la distribución de Bernoulli:

Un ensayo de Bernoulli, es aquel experimento en el cual solo hay dos resultados

que nos interesan: El suceso A y el suceso A’. Así por ejemplo,

- Al lanzar 1 moneda ⇒ A: caer cara ⇒ A’ = caer sello

- Al lanzar 1 dado ⇒ A: número obtenido es par ⇒ A’ : número obtenido es

impar.

- Al elegir una persona al azar, en una ciudad C ⇒ A : la persona elegida

nació en C ⇒ A’ : la persona elegida no nació en C.

Luego tenemos que SAAAA =∪=∩ '...' φ

A un ensayo de Bernoulli, le hacemos corresponder una variable aleatoria

X, así:

⎩⎨⎧

=':0

:1AsucesoelpresentaseSiAsucesoelpresentaseSi

X

Page 67: TABLA DE CONTENIDOS 1. NOCIONES ELEMENTALES DE ... · 1.2.2 conceptos bÁsicos de anÁlisis combinatorio 1.2.3 concepto de probabilidad 1.2.4 teorÍa axiomÁtica de la probabilisdad

Entonces la P(x=1)= p: Probabilidad de éxito y

P(x=0)= q: Probabilidad de fracaso

Sea X la variable aleatoria que se distribuye como un ensayo de Bernoulli,

donde su función de densidad fx(x), está dada por :

{ }1,00)(1,0;.)()( 1

∉===== −

xparaxfxqpxXPxf

x

xxx

Podemos decir también que un Ensayo de Bernoulli se conoce con el

nombre de Binomial con parámetros (1, p) y podemos escribir b(1, p).

3.1.1.1 CARACTERÍSTICAS DE LA BINOMIAL (1, p ) ; b(1, p)9

1. ESPERANZA. Sea x~ b(1, p) 10

pxEpp

qpX

xfXxE

x

xx

xx

==⇒=+=

=

=⇒

=

=

µ)(0

..

)(.)(

1

0

1

1

0

2. VARIANZA. ( )( )222x xE)x(E)x(Var −==σ

pq

p)p(1pp :Luego

p(1)f(1).f1(0).f0

.f(x)X)E(x

σσ

2x

22x

xx2

x2

1

0x

22

=∴

−=−=

==+=

=∴ ∑=

3. FUNCIÓN GENERATRIZ DE MOMENTOS Por definición es:

9 Notación abreviada 10 ~ : Interpretémoslo como, “se distribuye”

Page 68: TABLA DE CONTENIDOS 1. NOCIONES ELEMENTALES DE ... · 1.2.2 conceptos bÁsicos de anÁlisis combinatorio 1.2.3 concepto de probabilidad 1.2.4 teorÍa axiomÁtica de la probabilisdad

eee

ee

tx

xt

xt

xx

txtxx

pqtM

ff

xfEtM

+=

+=

== ∑=

)(

)1(..

)(.)()(

0

1

0.

4. FUNCIÓN CARACTERÍSTICA

( ) ( )( )

( ) eee

ee

iX

xi

xi

xx

xixiX

pq

ff

xfE

θ

θθ

θθ

θ

θ

ϕ

ϕ

+=

+=

== ∑=

)1(.)0(.

)(.

0.

1

0

3.1.1.2 DISTRIBUCIÓN BINOMIAL (n, p) : b(n, p)11

No es más que n ensayos de Bernoulli con una misma probabilidad de éxito

p.

Sean X1, X2, X3, ...... , Xn; Variables aleatorias independientes, todas

binomiales (1, p); es decir:

( )( )

( ) nnn

222

111

x1xnxn

x1x2x2

x1x1x1

qp)(xfp1,b~X

......

.....

qp)(xfp1,b~X

qp)(xfp1,b~X

⋅=⇒

⋅=⇒

⋅=⇒

La variable aleatoria,

X = X1+ X2+ X3+...... + Xn, se dice que se distribuye Binomial (n, p) : b(n, p)

Por ejemplo, sean Xi, (i=1, 2, …, 5), binomiales (1, p)

11 Notación abreviada

Page 69: TABLA DE CONTENIDOS 1. NOCIONES ELEMENTALES DE ... · 1.2.2 conceptos bÁsicos de anÁlisis combinatorio 1.2.3 concepto de probabilidad 1.2.4 teorÍa axiomÁtica de la probabilisdad

X = X1+ X2+ X3+ X4+ X5, es una Binomial (5, p); donde X representa el número total

de éxitos, en 5 ensayos de Bernoulli.

- Veamos otro ejemplo ilustrativo; sea el experimento aleatorio lanzar una

moneda 10 veces, entonces definimos:

Sea : X1 : número de caras en el primer lanzamiento.

X2 : número de caras en el segundo lanzamiento.

. .

. .

. .

X10 : número de caras en el décimo lanzamiento.

Luego: X = X1+X2 + --- + X10

X∴ : Representa el número de caras que pueden ocurrir en los 10

lanzamientos.

Los posibles valores de X = {0, 1, 2, ......, 10}

Y p = 0.5 (Probabilidad de caer cara)

⇒ X ~ b (10, 0.5)

3.1.1.3 CARACTERÍSTICAS DE LA b(n, p)

1. ESPERANZA Sea X = X1+X2+ ...... + Xn

∴ Cada Xi ~ b(1,p) ⇒

E(X) = E(x1+x2+ --- +xn)

= E(x1)+ E(x2)+ --- +E(xn)

= p+ p + ...+p

Luego :

µ== pnXE .)( : Media de la distribución b(n, p)

n veces

Page 70: TABLA DE CONTENIDOS 1. NOCIONES ELEMENTALES DE ... · 1.2.2 conceptos bÁsicos de anÁlisis combinatorio 1.2.3 concepto de probabilidad 1.2.4 teorÍa axiomÁtica de la probabilisdad

2. VARIANZA. Sea X ~ b(n, p) ∴

X = X1+X2+ ...... + Xn ∴ Cada Xi ~ b(1, p) ; luego:

Var(X) = Var(X1+X2+ --- +Xn)

= Var(X1) + Var(X2)+ --- + Var(Xn)

= pq + pq + ... + pq

Var(x) = npq = σ 2x

3. FUNCIÓN GENERATRIZ DE MOMENTOS: (t)M X

nXXXX +−−−++=∴ 21 y cada Xi ~ b (1, p)

( )[ ][ ]( ) ( ) ( )

( ) ( ) ( )( )

( )ntx

nt

ttt

xxx

txtxtx

txtxtx

xxxt

txx

ee

eee

eeeeee

ee

pqtM

pq

pqpqpq

tMtMtMEEE

E

E

EtM

n

n

n

n

+=

+=

+++=

=

=

=

=

=⇒

++

)(

...

)()...().(....

....

)(

2

21

21

21

1

)...(

4. FUNCIÓN CARACTERÍSTICA: Sea X ~ b(n, p)

( ) ( )nixi

x ee pqE θθθϕ +==)(

n veces

Page 71: TABLA DE CONTENIDOS 1. NOCIONES ELEMENTALES DE ... · 1.2.2 conceptos bÁsicos de anÁlisis combinatorio 1.2.3 concepto de probabilidad 1.2.4 teorÍa axiomÁtica de la probabilisdad

La hallamos en forma similar a Mx(t), o también basta con hacer t = iθ en Mx(t)

para así obtener )(θϕ x.

5. Hallemos, el valor de la función de probabilidad, (Modelo), de la distribución

Binomial (n, p). Encontremos fx(x) por medio de la función característica ,

así:

Sabemos que, ( ) )()(0

xfE x

n

x

xixi

x ee ∑=

== θθθϕ

Además, ( )ni

x epq θθϕ +=)(

Luego, ( )[ ] ∑=

=+n

xx

xini xfpq ee0

)(θθ

Resaltemos que, ( ) ( )∑=

− ⋅=+n

x

xxnn banxba

0, fórmula del binomio de Newton, que

asociaremos de la forma siguiente :

( ) ( ) ( )( ) ( )∑

=

=

⋅⋅=+

⋅=+

n

x

xxnxini

xn

x

ixnni

pqnxpq

pqnxpq

ee

ee

0

0

θθ

θθ

∴ =

( ) ∑∑==

− ⋅=⋅⇒n

xx

xixxnxi xfpqnx ee

0)(θθ

n

0x

Luego para cada ⇒X

parte otra en Para

con

Xxf

nXqpnxxf

x

xnxx

0)(

,...,2,1,0:)(

=

⋅⎟⎠⎞⎜

⎝⎛= −

1

2

1 2

Page 72: TABLA DE CONTENIDOS 1. NOCIONES ELEMENTALES DE ... · 1.2.2 conceptos bÁsicos de anÁlisis combinatorio 1.2.3 concepto de probabilidad 1.2.4 teorÍa axiomÁtica de la probabilisdad

Probemos que fx(x) es función de probabilidad: Es obvio que fx(x) ≥ 0.

Ahora resta, saber si ( )∑=

− =⋅n

x

xnx qpnx

0

1

( ) ( )nn

x

xnx pqqpnx +=⋅∴ ∑

=

0

: Por binomio de newton

1)1( == n

3.1.1.4 PROBLEMA

Si la probabilidad de acertar en un blanco es 1/5 y se hacen 10 disparos en forma

independiente. Cuál es la probabilidad de acertar por lo menos 2 veces.

Encuéntrese también, la probabilidad de acertar en el blanco al menos 2 veces, si

suponemos que se acertó por lo menos 1 vez?

SOLUCIÓN

p=1/5 : Probabilidad de acertar en el blanco o probabilidad de éxito.

q=4/5 : Probabilidad de no acertar o sea probabilidad de fracaso.

n=10: El experimento es claramente Binomial.

X∴ ~b (10, 1/5)

X : Variable aleatoria que representa el número de veces de dar en el blanco,

X = 0, 1, 2, ---, 10

Sea A suceso: “Acertar por lo menos 2 veces” ⇒

A’ : “Acertar a lo sumo una vez”

Page 73: TABLA DE CONTENIDOS 1. NOCIONES ELEMENTALES DE ... · 1.2.2 conceptos bÁsicos de anÁlisis combinatorio 1.2.3 concepto de probabilidad 1.2.4 teorÍa axiomÁtica de la probabilisdad

( )( ) ( ) ( )( ) ( )0.36

(1)f(0)f 1)P(X0)P(X)P(A'

91100xx

45

1 5

101

45

15

100

=

+=

+==+==⇒

Luego la probabilidad pedida es:

P(A) = 1 – P(A’) = 1 - 0.36

P(A) = 0.64

Contestemos ahora la segunda pregunta, para ello definamos:

Sea B : Suceso de acertar por lo menos 1 vez

B’ : Suceso de fallar exactamente 10 veces

{ }10...,,3,2,1/ ==∴ XXB

B’ = {X / X = 0}

Sabemos pues que X ~ b(10, 1/5)

X ~ fx(x) = ( )( ) ( ) 00,1,2,...1:X; x10x 4

515

10x

Luego, P(B) )1(1)1( <−=≥= xPxP

10

541)0(1

)'(1)0(1

⎟⎠⎞

⎜⎝⎛−=−=

−==−=

xf

BPxP

P(B) = 1 – 0.10 = 0.90

P(B) = 0.90

Page 74: TABLA DE CONTENIDOS 1. NOCIONES ELEMENTALES DE ... · 1.2.2 conceptos bÁsicos de anÁlisis combinatorio 1.2.3 concepto de probabilidad 1.2.4 teorÍa axiomÁtica de la probabilisdad

Nos piden hallar, la probabilidad de acertar por lo menos 2 veces, (o sea P(A)),

dado que se acertó por lo menos 1 vez, (P(B)); es decir, ⇒∩

=)(

)()/(BP

BAPBAP

71.090.064.0

)()()/( ===

BPAPBAP

3.1.2 DISTRIBUCIÓN HIPERGEOMÉTRICA

La distribución Hipergeométrica considera el caso en el cual una población finita

se divide en dos grupos, uno de los cuales se considera “éxitos” y el otro

“Fracasos”.

Por consiguiente si se toma sin reemplazamiento una muestra de “n” elementos y

se desea hallar la probabilidad de obtener “X” éxitos, tenemos:

N = Tamaño de la población

Np = Número de éxitos en la población

Nq = Número de fracasos en la población

NNqNp =+∴

X = Variable aleatoria que nos representa el número de éxitos en la muestra

n = Tamaño de la muestra

n – x = Número de fracasos en la muestra, utilizando las definiciones dadas,

podemos hallar la función de densidad para una variable aleatoria X que se

distribuya Hipergeométricamente, así:

fx(x) = P(X=x); donde el suceso, (X=x), (o sea, suceso de éxitos en la muestra), se

puede dar de:

Page 75: TABLA DE CONTENIDOS 1. NOCIONES ELEMENTALES DE ... · 1.2.2 conceptos bÁsicos de anÁlisis combinatorio 1.2.3 concepto de probabilidad 1.2.4 teorÍa axiomÁtica de la probabilisdad

NpxNqn-x

Npx ≤∴⎟

⎠⎞⎜

⎝⎛⎟

⎠⎞⎜

⎝⎛

Ahora el número total de muestras posibles de tamaño n que podemos extraer de

la población de N elementos es: ( )Nn

Luego, ( )Nn

Nqxn

Npx

xf x

⎟⎠⎞⎜

⎝⎛

−⋅⎟⎠⎞⎜

⎝⎛

=

)(

Para X = 0, 1, . . . , n sí Npnx ≤≤

ó NpnóNpxSíNpX >≤= ...,,1,0

3.1.2.1 CARACTERÍSTICAS DE LA DISTRIBUCIÓN HIPERGEOMÉTRICA

1. ESPERANZA: E(X): Para deducirla podemos emplear el mismo criterio

que utilizamos en la distribución Binomial (n, p), en donde, consideremos la

variable hipergeométrica X como una suma de n variables: X= X1+X2+ ... +

Xn;

Pero, aquí hay que tener presente que cada Xi es dependiente, pero, ya que, la

propiedad aditiva de la esperanza no nos exige el carácter de independencia o

dependencia, no tenemos problema aplicarla aquí.

Entonces, E(X) = E(x1+x2+ ... + xn)

E(X) = E(x1) + E(x2) + ... + E(xn)

PNNpXiECada ==∴ )( : Proporción de éxito en la población,

NNp

NNp

NNpxE +++= ...)(

nPNNpnXE =⋅=)(

n veces

Page 76: TABLA DE CONTENIDOS 1. NOCIONES ELEMENTALES DE ... · 1.2.2 conceptos bÁsicos de anÁlisis combinatorio 1.2.3 concepto de probabilidad 1.2.4 teorÍa axiomÁtica de la probabilisdad

2. VARIANZA: Var(x)=σ 2x : En este caso, ya no podemos deducir la Varianza

en forma similar a como lo hicimos en la Binomial (n, p), ya que ella no es

aditiva para variables dependientes, pero sin necesidad de entrar aquí en

exposiciones de rigurosidad matemática, simplemente, podemos afirmar

que la Varianza de esta distribución, es:

QPnN

nNxVar

NNq

NNpn

NnNxVar

⋅⋅⋅−−

=

⎟⎠⎞

⎜⎝⎛

⎟⎠⎞

⎜⎝⎛⋅×⎟

⎠⎞

⎜⎝⎛

−−

=

1)(

1)(

∴ Q : Proporción de fracasos en la población, y 1−

−N

nN ; se denomina

factor de corrección, para el muestreo sin reemplazamiento.

En caso de que la población finita N sea muy grande, )( ∞→N ,

Entonces 11

→−−

NnN

3.1.2.2 PROBLEMA

Se quiere comprar un lote de 25 lámparas. Se eligen 5 de ellas al azar y se

examinan de modo que si menos de 2 fallan, el lote es aceptado, de lo contrario

será rechazado. Cuál es la probabilidad de que el lote sea rechazado si contiene

un total de 4 lámparas defectuosas?

SOLUCIÓN :

Sea X : Variable aleatoria que representa el número de lámparas defectuosas en

la muestra.

Page 77: TABLA DE CONTENIDOS 1. NOCIONES ELEMENTALES DE ... · 1.2.2 conceptos bÁsicos de anÁlisis combinatorio 1.2.3 concepto de probabilidad 1.2.4 teorÍa axiomÁtica de la probabilisdad

El experimento que se realiza aquí es sin reemplazamiento en una población finita,

en donde hay dos clases excluyentes de lámparas, unas defectuosas, (que

llamamos éxitos), y otras no defectuosas, ( que llamamos fracasos).

Entonces, N = 25 : Total lámparas en la población

Nq = 21 : Total lámparas no defectuosas en la población

Np = 4 : Total lámparas defectuosas en la población

n = 5 : Tamaño de la muestra aleatoria sin reemplazamiento.

Ahora, X : Puede tomar los valores;

X = 0, 1, 2, 3, y 4 NpnNpX >∧≤⇒

∴X ~ Hipergeométricamente; con:

( )( )4,3,2,1:,

21 5

4)( 25

5

XxxxfC

x ∴−=

La probabilidad de que el lote sea rechazado, es por lo tanto;

)2( ≥XP = 1 – P(X<2)

= )1(1 ≤− XP

= 1 – Fx(1)

= 1 – {fx(0) + fx(1)} = 0.17

3.1.2.3 APROXIMACIÓN DE LA DISTRIBUCIÓN HIPERGEOMÉTRICA A LA DISTRIBUCION BINOMIAL

De manera intuitiva se puede observar, que para N y Np grande y n relativamente

pequeño respecto a N, la distribución Hipergeométrica se aproxima a la Binomial

Page 78: TABLA DE CONTENIDOS 1. NOCIONES ELEMENTALES DE ... · 1.2.2 conceptos bÁsicos de anÁlisis combinatorio 1.2.3 concepto de probabilidad 1.2.4 teorÍa axiomÁtica de la probabilisdad

(n, p); porque en este caso, la muestra sin reemplazamiento tiene efecto

despreciable sobre la proporción P de éxitos de la población, ⎟⎠⎞

⎜⎝⎛ =

NNpP . Ilustremos

esta situación mediante el ejemplo siguiente:

Supongamos que una urna contiene 106 bolas rojas y 108 bolas blancas.

Seleccionemos al azar, una muestra de 5 bolas, la probabilidad de que haya 3

bolas rojas en la muestra, la da la fórmula:

: ( ) ( )( )86

86

10103

103

103)3(

+

⋅=

-5 xf X: 0, 1, 2, 3, 4, 5.

NpnX

NpX<≤∴

<∴

Ahora, si la extracción se hace con reemplazamiento, se habrán repetido 5

pruebas independientes, con probabilidad constante 86

6

101010

+=P , de éxito, para

cada prueba.

En este caso, la probabilidad de extraer 3 bolas rojas, lo obtenemos de la fórmula

Binomial:

( ) 23 )1(53)3( ppf x −=

( )2

86

63

86

6

1010101

1010105

3 ⎟⎟⎠

⎞⎜⎜⎝

⎛+

−⎟⎟⎠

⎞⎜⎜⎝

⎛+

=

Resolviendo y podemos ver que ≈

Page 79: TABLA DE CONTENIDOS 1. NOCIONES ELEMENTALES DE ... · 1.2.2 conceptos bÁsicos de anÁlisis combinatorio 1.2.3 concepto de probabilidad 1.2.4 teorÍa axiomÁtica de la probabilisdad

3.1.3 DISTRIBUCIÓN DE POISSON

Esta distribución es aplicable a muchos procesos que indican demandas de

servicio, tales como, el número de máquinas en una gran planta, que se paran

durante cualquier día; el número de personas que atiende un cajero de banco en

media hora; el número de llamadas telefónicas recibidas en una central durante 15

minutos; el número de autos que son atendidos en una estación de gasolina

durante 10 minutos; el número de unidades de un artículo determinado vendido

durante un día.

También es aplicable el modelo de Poisson a fenómenos que no implican tiempo,

tales como, el número de errores tipográficos por página; el número de conexiones

soldadas defectuosamente en un ensamble eléctrico; el número de cuerpos

extraños, (como piedritas o burbujitas), incrustados en una botellas de vidrio, etc.

Dados los ejemplos de aplicación anteriores, los resultados posibles son 0, 1, 2,

3,. . . . y así sucesivamente; es así, que no puede haber ninguna llamada

telefónica durante un período de 5 minutos o puede haber una, y así

sucesivamente, lo que implica, que la variable de Poisson puede tomar valores

desde cero hasta infinito.

Para el análisis de esta distribución utilizaremos el siguiente ejemplo:

Supongamos que una compañía de teléfonos recibe en un tiempo T un número R

de llamadas.

Sea t una fracción observada del tiempo T. Cuál es la probabilidad de que se

produzcan X llamadas en t?

Supongamos que T es mucho más grande que t ; como también suponemos

que las llamadas están distribuidas con probabilidad uniforme en todo el tiempo,

luego se deduce que la probabilidad de que haya X llamadas en t es:

Page 80: TABLA DE CONTENIDOS 1. NOCIONES ELEMENTALES DE ... · 1.2.2 conceptos bÁsicos de anÁlisis combinatorio 1.2.3 concepto de probabilidad 1.2.4 teorÍa axiomÁtica de la probabilisdad

( ) ⇒−

⎟⎠⎞

⎜⎝⎛ −⎟

⎠⎞

⎜⎝⎛ xR

Ttx

TtR

X 1

Y partiendo de aquí, obtenemos la distribución de Poisson, haciendo que R y T

sean lo más grandes, ),( ∞→∞→ TyR para que la densidad o probabilidad

de llamadas TR permanezca constante.

Ahora escribamos el producto , en la forma:

XRX

X Tt

TtR

RXXRR −

⎟⎠⎞

⎜⎝⎛ −⎟

⎠⎞

⎜⎝⎛ ⋅

−1

!)!(! ; (Multiplicamos y dividimos por RX, con el fin de

simplificar las expresiones factoriales).

X

XRX

RXXRTt

TtRXRxRRRRR

!)!(

1)!())1()...(3)(2()1(

⎟⎠⎞

⎜⎝⎛ −⎟

⎠⎞

⎜⎝⎛ ⋅

−⋅−−−−⋅−∴

Vemos que entre R y (R-(x-1)), hay exactamente X productos, los cuales podemos

dividir respectivamente por cada uno de los X productos que hay en RX , luego:

!

1)1(1312111

XTt

TtR

Rx

RRRRR XRX −

⎟⎠⎞

⎜⎝⎛ −⎟

⎠⎞

⎜⎝⎛ ⋅

⎟⎠⎞

⎜⎝⎛ −

−⋅⋅⋅⎟⎠⎞

⎜⎝⎛ −⎟

⎠⎞

⎜⎝⎛ −⎟

⎠⎞

⎜⎝⎛ −

Si llamamos TRd

Ttp == y ; entonces:

Page 81: TABLA DE CONTENIDOS 1. NOCIONES ELEMENTALES DE ... · 1.2.2 conceptos bÁsicos de anÁlisis combinatorio 1.2.3 concepto de probabilidad 1.2.4 teorÍa axiomÁtica de la probabilisdad

( ) ( )

!

1112111

XRtddt

Rx

RR

XRX

⎟⎠⎞

⎜⎝⎛ −⋅⋅⎟

⎠⎞

⎜⎝⎛ −

−⋅⋅⋅⎟⎠⎞

⎜⎝⎛ −⎟

⎠⎞

⎜⎝⎛ −

( ) ( ) ( )!!

1112111

Xdt

XRtddt

Rx

RR e tdX

XRX

LimR

⋅=

⎟⎠⎞

⎜⎝⎛ −⋅⋅⎟

⎠⎞

⎜⎝⎛ −

−⋅⋅⋅⎟⎠⎞

⎜⎝⎛ −⎟

⎠⎞

⎜⎝⎛ −

∞→ ;

Podemos generalizar entonces, y decir, que una variable aleatoria X se

distribuye según Poisson, si la función de densidad está dada por:

....2,1,0:;!

)( xX

xf eX

x µµ −⋅

=

Donde td=µ , en el ejemplo, es cualquier número positivo y llamaremos en

general, N a la población, (que en nuestro ejemplo es R). Luego; .Np=µ

3.1.3.1 CARACTERÍSTICAS DE LA DISTRIBUCIÓN DE POISSON

1. ESPERANZA: E(x)

∑∑∞

=

−∞

=

⋅=

⋅=

10 )!1(!)(

X

X

X

X

XX

XxE ee µµ µµ

Haciendo Y = x-1, tenemos:

∑∑∞

=

=

−∞

=

+−

⋅⋅=

⋅⋅=

⋅=

0

00

1

!)(

!!)(

Y

Y

Y

Y

Y

Y

YxE

YYxE

e

ee

µ

µµµ

µ

µµ

µ

Page 82: TABLA DE CONTENIDOS 1. NOCIONES ELEMENTALES DE ... · 1.2.2 conceptos bÁsicos de anÁlisis combinatorio 1.2.3 concepto de probabilidad 1.2.4 teorÍa axiomÁtica de la probabilisdad

∴ La expresión ∑∞

=0 !Y

Y

, es la expansión en series de Maclaurín de eµ ,

luego;

óndistribuciladeMediaxE

xE ee :)(

)(

µµµ µµ

=

=⋅⋅= −

2. VARIANZA: Var(x)=σ 2X

Var(x) = E(x2) – (E(x))2

µµµ

2

0

2

!)( −

⋅⋅= ∑

=

x

x

X

xxVar e

∑∑

=

=

−∞

=

⋅⋅=

⋅⋅=

⋅⋅=∴

1

0

2

0

22

)!1(

)!1(!)(

x

x

x

x

x

x

x

x

xx

x

Xx

xE

e

ee

µ

µµ

µ

µµ

Haciendo Y = x-1 ⇒ X=y+1 ; luego

( ) ( )∑∑

=

−∞

=

+− ⋅⋅+=

⋅+=

00

1

2

!

1

!

1)(

Y

y

Y

y

Y

y

Y

yxE ee µµµ µµ

Page 83: TABLA DE CONTENIDOS 1. NOCIONES ELEMENTALES DE ... · 1.2.2 conceptos bÁsicos de anÁlisis combinatorio 1.2.3 concepto de probabilidad 1.2.4 teorÍa axiomÁtica de la probabilisdad

∑∑

∑∑

=

−∞

=

=

−∞

=

+=

+=

00

00

!!

!!

y

y

y

y

y

y

y

y

YY

Y

YY

Y

ee

ee

µµµ

µµµµ

µµ

µµ

µ

⎟⎟⎟

⎜⎜⎜

⎛=

⋅∴+= ∑

=

01

!)(

y

y

YYE e µµ

µµ

Pero µ=)(YE

µµ +=⇒ 22 )(XE ; entonces:

µ

µµµµ

=

=−+=

)(

)( 22

xVar

xVar

Nótese que en esta distribución la media y la varianza son iguales.

3. FUNCIÓN GENERATRIZ DE MOMENTOS MX(t)

( )

∑∑

=

=

−∞

=

⎟⎠⎞⎜

⎝⎛

=∴

⋅=⋅==

0

00

!)(

!)()(

x

xt

X

x

x

tx

xx

txtxX

XtM

XxfEtM

ee

eeee

µ

µ

µ

µ

Page 84: TABLA DE CONTENIDOS 1. NOCIONES ELEMENTALES DE ... · 1.2.2 conceptos bÁsicos de anÁlisis combinatorio 1.2.3 concepto de probabilidad 1.2.4 teorÍa axiomÁtica de la probabilisdad

eee

eeee

tete

tt

t

)1

...!3!2

1

32

−=⋅=

⎪⎪⎭

⎪⎪⎬

⎪⎪⎩

⎪⎪⎨

+⎟⎠⎞⎜

⎝⎛

+⎟⎠⎞⎜

⎝⎛

++⋅=

( µµµ

µµµ

µ

ete

X tM )1()( −= µ

Q Empleando la función generatriz de momentos, podemos hallar también la

media y la varianza, de la distribución de Poisson, así:

⇒⋅=∴== − )(' )0(' )( )1(ee

tettMtMxE XXµµ

[ ][ ]

{ } 2

)1()1(

1)0(''

)(''

)0(')0(''

)()()(,

)0(')(

2

22

µµµµ

µµ

µ

µµ

+=+==

⎪⎭

⎪⎬⎫

⎪⎩

⎪⎨⎧

=∴

=−==

−=

===⇒

⋅⋅⋅ −− +

tM

tM

tMtM

xEXExVarAhora

tMxE

X

X

XX

X

eeeee ttt

ett

e

Luego;

µµµµ =−+= 22)(XVar

Page 85: TABLA DE CONTENIDOS 1. NOCIONES ELEMENTALES DE ... · 1.2.2 conceptos bÁsicos de anÁlisis combinatorio 1.2.3 concepto de probabilidad 1.2.4 teorÍa axiomÁtica de la probabilisdad

3.1.3.2 APROXIMACIÓN DE LA DISTRIBUCIÓN DE POISSON A LA DISTRIBUCION BINOMIAL(n,p)

Con el fin de comprobar de que la distribución de Poisson es una buena

aproximación a la binomial, cuando n (tamaño de la muestra), es muy grande y

p , (probabilidad de éxitos), muy pequeña; veamos el siguiente teorema, que dice

: “Si la probabilidad p de éxito en una sola prueba, tiende a cero, (p 0) ,

mientras que el número de pruebas n tiende a infinito, ( )∞→n , de una forma tal

que la media np=µ permanezca constante, la distribución binomial se

aproximará a la distribución de Poisson con media µ

PRUEBA:

Escribamos la fórmula de la distribución binomial (n, p), de la forma siguiente:

xnx

x qpxnx

xnxnnnnxf −⋅−

−+−−−=

)!(!)!)(1)...(2)(1()(

( ) xnxx pp

xxnnnnxf −−⋅

+−−−= 1

!)1)...(2)(1()(

Multipliquemos el numerador y el denominador por nx

( )

:Luego ,

1)(!

)1)...(2)(1()(

np

pnpxn

xnnnnxf xnxxx

µ=∴

−⋅⋅

+−−−= −

xnx

x nnn

nxnxnxnxxnnnnxf

⎟⎠⎞

⎜⎝⎛ −⋅⎟

⎠⎞

⎜⎝⎛+−−−

=µµ 1

!........)1)...(2)(1()(

_____ x productos _____

_____ X veces _____

Page 86: TABLA DE CONTENIDOS 1. NOCIONES ELEMENTALES DE ... · 1.2.2 conceptos bÁsicos de anÁlisis combinatorio 1.2.3 concepto de probabilidad 1.2.4 teorÍa axiomÁtica de la probabilisdad

( )( )n

x

xx p1x!µ

p1n

1x1...n11

n11

(x)f −⋅−

⎟⎠⎞

⎜⎝⎛ −

−⎟⎠⎞

⎜⎝⎛ −⎟

⎠⎞

⎜⎝⎛ −

=

Ahora, expresemos (1 – p)n en la forma:

( ) ( ) ( )µ−

−−

⎥⎦⎤

⎢⎣⎡ −=⎥⎦

⎤⎢⎣⎡ −=− p

np

pn ppp

11111

Además, según la definición del número e, ⇒

( ) eZLimz

Z =+→ 101

Por lo tanto, haciendo Z = - p ⇒

( )[ ]

( )1

1

11...2111:

101

=−

⎟⎠⎞

⎜⎝⎛ −

−⎟⎠⎞

⎜⎝⎛ −⎟

⎠⎞

⎜⎝⎛ −

∞→

=−→−−−

x

p

pn

xnnLim

nAdemás

pLimp e

µµ

Porque npnp =∞→→ µ cuando y ,0 es constante, luego la expresión

queda:

,...2,1,0:;!

)( XX

xf ex

x µµ −⋅

=

Page 87: TABLA DE CONTENIDOS 1. NOCIONES ELEMENTALES DE ... · 1.2.2 conceptos bÁsicos de anÁlisis combinatorio 1.2.3 concepto de probabilidad 1.2.4 teorÍa axiomÁtica de la probabilisdad

3.1.3.3 EJERCICIOS 1. Un cuadro de teléfonos atiende un promedio de 600 llamadas durante una

hora de aglomeración. El cuadro puede hacer un máximo de 20 conexiones

por minuto. Estímese la probabilidad de que el cuadro quede rebasado en

un minuto dado.

SOLUCIÓN

El cuadro atiende un promedio de llamadas por minuto, igual a:

minutoporllamadas

horaminutoshorallamadas

10

/ 60/ 600

=

=

µ

µ

Sea X la variable aleatoria que representa el número de llamadas; entonces, la

probabilidad de que el cuadro quede rebasado en un minuto dado es:

)( 99841.01

!10

1

)20(1)20(20

0

10

tablas

X

XPXP

X

Xe

−=

⋅−=

≤−=>

∑=

= 0.00159; es decir, que prácticamente el número de llamadas por minuto,

no sobrepasan la capacidad máxima del cuadro telefónico.

2. Una compañía de seguros, halla que el 0.005% de la población, fallece

cada año en cierto tipo de accidente. Cuál es la probabilidad de que la

compañía tenga que pagar a más de 3 de sus 10.000 asegurados, contra

tales accidentes, en un año dado?

Page 88: TABLA DE CONTENIDOS 1. NOCIONES ELEMENTALES DE ... · 1.2.2 conceptos bÁsicos de anÁlisis combinatorio 1.2.3 concepto de probabilidad 1.2.4 teorÍa axiomÁtica de la probabilisdad

Sea p : Probabilidad de fallecer una persona en un año 00005.0 =∴ p

Sea X : Variable aleatoria que representa el número de personas que fallecen

en un año dado.

n = 10.000 número de asegurados o tamaño de la muestra.

Este problema posee la característica de ser Binomial

X ~ b(10.000, 0.00005)

( )( ) ( ) xxx xxf −=⇒ 000.1099995.000005.0000.10

)(

Cosa que por aquí resultaría muy laborioso, pero basta observar que p es muy

pequeño, ),0( →p y n es muy grande, );( ∞→n luego podemos resolver el

problema aproximándolo a la distribución de Poisson; ∴

5.0 00005.0000.10

=⋅=⇒⋅= µµ pn

X~Poisson con ⇒= 5.0µ

( )!

5.0)(

5.0

Xxf e

X

x

=

Luego, se pregunta:

en tablas) hallado(Valor 0017509982501

0.5 5.0 5.0),3(1)3(1)3(

..-

FXPXP x

==

===−=≤−=>

µµµ

Quiere decir, que el riesgo que tiene la compañía aseguradora es casi nulo, o

prácticamente ninguno.

Page 89: TABLA DE CONTENIDOS 1. NOCIONES ELEMENTALES DE ... · 1.2.2 conceptos bÁsicos de anÁlisis combinatorio 1.2.3 concepto de probabilidad 1.2.4 teorÍa axiomÁtica de la probabilisdad

3.2 PRINCIPALES DISTRIBUCIONES CONTINUAS

3.2.1 DISTRIBUCIÓN UNIFORME O RECTANGULAR

Esta distribución surge, por ejemplo, en el estudio del redondeo de errores cuando

las observaciones se registran con cierta precisión. Así por ejemplo, si las

observaciones sobre la temperatura diaria se registran redondeadas al grado más

próximo, podrá suponerse que la diferencia en grados entre la temperatura real y

la registrada es un número que oscila entre –0.5 y 0.5 y que el error se distribuye

uniformemente a lo largo de este intervalo.

- Deduzcamos la función de densidad de esta distribución:

Sean a y b dos números reales, tales que a<b.

La variable aleatoria X se distribuye uniformemente en (a,b) si:

),( todoPara 0)(),( todoPara )(

baXxfbaXKxf

x

x

∉=∈=

Determinemos, ahora el valor de K ⇒ como ⇒∈∀= ),( )( baXKxf x

1 1)(b

a

=⇒= ∫∫ Kdxdxxfb

a

abKabK

−==−

1 1)( ; luego, la función de densidad de la distribución

uniforme es:

bxaab

xf x <<−

= para 1)(

Page 90: TABLA DE CONTENIDOS 1. NOCIONES ELEMENTALES DE ... · 1.2.2 conceptos bÁsicos de anÁlisis combinatorio 1.2.3 concepto de probabilidad 1.2.4 teorÍa axiomÁtica de la probabilisdad

3.2.1.1 CARACTERÍSTICAS DE LA DISTRIBUCIÓN UNIFORME

1. FUNCIÓN GENERATRIZ DE MOMENTOS: Mx(t)

( )

( )[ ]eee

e

ee

atbtb

a

txx

b

b

a

txa

x

xtxtx

x

abtdx

abtM

dxdxab

dxtM

dxxfEtM

−−

=−

=

+⋅⎟⎠⎞

⎜⎝⎛

−+=

⋅==

∫∫∫

∞−

∞−

)(11)(

010)(

)()(

)()(

abttM ee

atbt

x −−

=

2. ESPERANZA: E(X)

]

( ) ( )

2)( Luego

2)(2

)(2)(21)(

1010)()(

222

baXE

baab

abab

ababX

abXE

dxXab

dxdxab

XdxdxxfXXE

ba

b

ab

b

a

a

x

+=

+=

−+⋅−

=

−−

=⋅−

=

⋅−

=⋅+⎟⎠⎞

⎜⎝⎛

−+=⋅⋅= ∫∫∫∫∫

∞−

∞−

3. VARIANZA: Var(x) = σ 2X

Page 91: TABLA DE CONTENIDOS 1. NOCIONES ELEMENTALES DE ... · 1.2.2 conceptos bÁsicos de anÁlisis combinatorio 1.2.3 concepto de probabilidad 1.2.4 teorÍa axiomÁtica de la probabilisdad

[ ]

]

( )( )

3)(

3)(3

)(3)(31)(

1010)()(

)()()(

222

2222

3332

222222

22

aabbXE

aabbab

aabbab

ababX

abXE

dxXab

dxXdxab

XdxXdxxfXXE

XExExVar

ba

b

ab

b

a

a

x

++=⇒

++=

−++−

=

−−

=−

=∴

−=⋅⋅+⎟

⎠⎞

⎜⎝⎛

−+⋅=⋅=∴

−=

∫∫∫∫∫∞

∞−

∞−

Luego,

( )

( )

( )12

)(

12122)(

12363444)(

43)(

2

222

2222

222

baxVar

bababaxVar

babababaxVar

baaabbxVar

−=

−=

+−=

−−−++=

+−

++=

4. FUNCIÓN DE DISTRIBUCIÓN ACUMULATIVA FX(x) ∴ X~U(a, b)

⇒ Por definición FX(x) = )( xXP ≤

Page 92: TABLA DE CONTENIDOS 1. NOCIONES ELEMENTALES DE ... · 1.2.2 conceptos bÁsicos de anÁlisis combinatorio 1.2.3 concepto de probabilidad 1.2.4 teorÍa axiomÁtica de la probabilisdad

⎪⎩

⎪⎨

<

<=∴

bx

axxFx

si 1

si 0)(

]abaxu

ab1

duab

1du0

f(u)dux)P(X(x)F

xa

x

a

a

x

x

−−

=⋅−

=

⋅−

+⋅=

==≤=

∫∫

∞−

∞−

),( Para 0)(

Para )(

baXxF

bxaabaxxF

x

x

∉=

<<−−

=

3.2.1.2 EJEMPLO

Una empresa tiene una curva de costos dada por la función C=1.000+2x; siendo X

el número de artículos. En el mercado vende cada unidad a $5. La demanda de

artículos es uniforme entre 25.000 y 30.000 unidades. Cuál es el beneficio

esperado?

SOLUCIÓN:

X: Variable aleatoria que nos representa la demanda de los artículos

Page 93: TABLA DE CONTENIDOS 1. NOCIONES ELEMENTALES DE ... · 1.2.2 conceptos bÁsicos de anÁlisis combinatorio 1.2.3 concepto de probabilidad 1.2.4 teorÍa axiomÁtica de la probabilisdad

X∴ ~ );000.30 ;000.25(U 12

Sea B: El beneficio o utilidad, donde la función de utilidad la establecemos de la

forma, ventas totales, menos, costos totales, así:

B = 5X – (1.000 + 2.X)

000.13 −=∴ XB

Luego, el beneficio esperado es:

500.81)(

10002

000.30000.253)(

1000)(3)10003()(

=

−⎟⎠⎞

⎜⎝⎛ +

=

−=−=

BE

BE

xEXEBE

3.2.2 DISTRIBUCIÓN NORMAL (0, 1 ) : n(0, 1)

Una variable aleatoria Z, se dice que tiene una distribución normal (0, 1), si su

función de densidad, está dada por:

∞<<∞−⋅= − xxf e Xz

21)(

221

π

12 Léase, X “se distribuye uniforme” en el intervalo ...)

Page 94: TABLA DE CONTENIDOS 1. NOCIONES ELEMENTALES DE ... · 1.2.2 conceptos bÁsicos de anÁlisis combinatorio 1.2.3 concepto de probabilidad 1.2.4 teorÍa axiomÁtica de la probabilisdad

El siguiente tipo de integrales que mencionaremos, son fundamentales para el

desarrollo y pruebas de distribuciones continuas, como la normal, chi_cuadrado, T

de student, entre otras , ellas son:

ppaxp

adxX e )(

0

1 γ=⋅⋅∫

∞−− : Euleriana de primer orden

ppaxp

adxX e 2

)(

0

122 γ

=⋅⋅∫∞

−− : Euleriana de segundo orden

( ) ( ) ( ) ( ) ( )( )

( ) )definición(Por 21

1

0 22111

)(

)(

πγ

γ

γγγ

=

∈∀−=

>−−⋅−=−−=∴+

y

Zpp

pppppp

p

p

Probemos ahora sí, si ,21)(

2)21(e Xz xf −=

πes función de densidad:

1. Obvio que ( )∞∞−∈∀> , 0)( Xxf z

2. dxdxxf e X∫∫∞

∞−

−∞

∞−

⇒=2)21(

211)(π

( )

21 y, 21012

12

2

212

2122

22

21

0

2)21(

==⇒=−∴

=⋅

=

⎟⎠⎞

⎜⎝⎛

×=⋅= ∫∞

app

dxe X

ππγ

ππ

Luego, fz(x) si es función de densidad.

3.2.2.1 CARACTERÍSTICAS DE LA NORMAL (0, 1) : n(0 , 1 )

1. FUNCIÓN GENERATRIZ DE MOMENTOS: Mz(t)

Page 95: TABLA DE CONTENIDOS 1. NOCIONES ELEMENTALES DE ... · 1.2.2 conceptos bÁsicos de anÁlisis combinatorio 1.2.3 concepto de probabilidad 1.2.4 teorÍa axiomÁtica de la probabilisdad

Operemos el exponente, de la siguiente forma:

La integral es una Euleriana de Segundo Orden

es la f.g.m.13 de z ~ n(0,1)

Empleando la técnica de la función de distribución acumulativa Fx(x) hallemos la

función de densidad Fx(x) para C ~ h ( m , s2) 14

[ ] [ ]

( )

( ) ⇒=′∴

−=∴

==⎟⎠⎞

⎜⎝⎛ −

⎥⎦⎤

⎢⎣⎡ −

≤+=≤+=≤=

−−

∞−∫

DensidaddeFunciónfσ

µx

de2π1F

σµxF

σµxzPxµzσPxXPxF

z

21

σµx

xz

x

2

z

z

zzz

Por teorema del cálculo integral sabemos que:

13 f.g.m.: léase como función generatriz de momentos

Page 96: TABLA DE CONTENIDOS 1. NOCIONES ELEMENTALES DE ... · 1.2.2 conceptos bÁsicos de anÁlisis combinatorio 1.2.3 concepto de probabilidad 1.2.4 teorÍa axiomÁtica de la probabilisdad

( ) ( )

( )

( )∞<<∞−∞<<∞−

⋅⋅

=

⇒⋅=′

′⋅=

⎥⎥⎥⎥⎥

⎢⎢⎢⎢⎢

⎟⎠⎞

⎜⎝⎛ −

−−

∞−∫

µσ

σ

x;

;1

luego,

2

σµx

21

x

21

x

21

σµx

e2π

1xf

e2π1xF

xµfdX

de2π1

d

2

2

z

z

zz

3.2.2.2 CARACTERÍSTICAS PRINCIPALES 1. Función generatriz de momentos MX(t)

( ) [ ] ( )[ ] [ ]( )[ ] ( )

( )tMeee

tσMeeEe

eeEeEeEtM

xσt

21tµσt

21

ztµzσttµ

tµzσtµzσttxx

222

==⋅=

⋅=⋅=

⋅===

+

+

2. Función característica ϕ z( θ )

( ) [ ]( )

( ) ( )0,1ηZeθ

eeθ

luegof.g.m.laeniθthaciendoeEθ

2

222

θ21

z

θ21θi

21

z

zθiz

∼∴=

==

==

ϕ

ϕ

ϕ

3. Esperanza: [ ]ΖΕ

[ ]ΖΕ = 2

21

´ .)(´)0(´t

zz ettt =Μ∴=Μ

∴ [ ]ΖΕ = 00)0(´2)0(

21

===Μ et xz

[ ]ΖΕ = 0 : media de la distribución )1,0(η

4. varianza : VAR (Z) = 2zσ

14 Léase C se distribuye normal m , s2

Page 97: TABLA DE CONTENIDOS 1. NOCIONES ELEMENTALES DE ... · 1.2.2 conceptos bÁsicos de anÁlisis combinatorio 1.2.3 concepto de probabilidad 1.2.4 teorÍa axiomÁtica de la probabilisdad

[ ] [ ] ( )[ ] ( ) ( ){ }

[ ] ( )[ ] 101ΖVAR

10tMZEete(t)Μ

0tM0tMZEZEΖVAR

z2t

21

2(t)21

z

2zz

22

22

=−=⇒==′′=∴+=′′∴

=′−=′′=−=

3.2.3 DISTRIBUCION NORMAL CON MEDIA µ y VARIANZA 2σ : η ( ), 2σµ Sabemos que Ζ , variable aleatoria que se distribuye )1,0(η Decimos que la v.a12 Χ se distribuye ),( 2σµη , si 0>∴+Ζ=Χ σµσ para ∞<<∞− µ y ∞<<∞− X 2. Función Característica : )(θϕ x

Hacemos t= iθ en 22

21i

xx e)()t(θσµθ

θϕ−

=Μ a 3. Media de la distribución

22t21t2

x e)t()t(´σµ

σµ+

+=Μ

[ ] µ==Μ=Ε )0(´ tx xa 4 Varianza de la distribución : 2)( xXVAR σ= ∴ [ ] [ ]2)(

22 )0(´)0(´´)()()( =Μ−=Μ=Ε−Ε= ttxxXVAR xx 2222 t

21t22t

21t

.2

x e)t(e)t(´´σµσµ

σµσ++

++=Μ∴

22)0(´´ µσ +==Μ txa ; luego :

2222)( xxXVAR σµµσ =−+= 12 léase variable aleatoria

Page 98: TABLA DE CONTENIDOS 1. NOCIONES ELEMENTALES DE ... · 1.2.2 conceptos bÁsicos de anÁlisis combinatorio 1.2.3 concepto de probabilidad 1.2.4 teorÍa axiomÁtica de la probabilisdad

5. Forma de la curva de la distribución normal. Curva normal

Las figuras muestran varias curvas de distribución normal con diferentes valores de σ e idénticos valores de µ .

Page 99: TABLA DE CONTENIDOS 1. NOCIONES ELEMENTALES DE ... · 1.2.2 conceptos bÁsicos de anÁlisis combinatorio 1.2.3 concepto de probabilidad 1.2.4 teorÍa axiomÁtica de la probabilisdad

Al cambiar µ con σ constante, la forma de la curva no cambia, se correrá únicamente hacia la izquierda o hacia la derecha.

Sobre la curva de la distribución normal ( ),( 2σµ podemos afirmar: 1. Es simétrica respecto a la línea x = µ 2. Tiene un punto de máxima en x = µ 3. Tiene como asíntota horizontal al eje x 4. Presenta dos puntos de inflexión, en: x= σµ − y σµ + 5. La media, la moda y la mediana coinciden 6. El área comprendida entre dos puntos de inflexión, σµ − y σµ + ; es aproximadamente el 68 % en el área total. 7. El área comprendida entre σµ 2− y σµ 2+ es aproximadamente el 95.4% del área total y el área comprendida entre σµ 3− y σµ 3+ es aproximadamente el 99.7 % del área total. 3.2.4 Distribución JI dos con un grado de libertad : 2

)1(X

Sea X una v.a normal(0,1). Consideremos la variable 2Χ=Y . Encontremos su función de densidad sea )(xFy la función de distribución de Y, (∴obviamente los valores de Χ deben ser positivos),a

)(xFy = [ ] [ ] [ ]xxxxXxyP ≤≤−Ρ=≤Ρ=≤ 2

= ∫−

−x

x

de µπ

µ..

21 )(

21 2

∴ la función de densidad de Y será

)x(yf = [ ]⎥⎥⎦

⎢⎢⎣

⎡= ∫ −

−x

xy dexd

dxFxd

d µπ

µ.

21

)()(

)()(

21 2

Page 100: TABLA DE CONTENIDOS 1. NOCIONES ELEMENTALES DE ... · 1.2.2 conceptos bÁsicos de anÁlisis combinatorio 1.2.3 concepto de probabilidad 1.2.4 teorÍa axiomÁtica de la probabilisdad

dxxde

dxxde

xx )(.21)(.

21 22 )(

21)(

21 −

−−−−

ππ

∴ )x(yf = x

ex 21

21

..21 −−

π, x > 0 ; es la función densidad de la distribución JI – DOS ,

con un grado de libertad. Esta variable se simboliza por )1(2Χ :

3.2.4.1 Función Generatriz de momentos de la )1(

2Χ :

[ ] [ ]tytxXy eet =Ε=Μ=Μ ϖ2

2 )1()(a

= dxeXextx ..

21. 2

121

0

−−∞

∫ π

= dxeXxtx..

21.

)21(21

21

0

−−−∞

∫ π

∴ la integral anterior es una Eureliana de primera especie, se tiene que;

21

211 =⇒−=− pp y ),21(

21 ta −= luego

21

21

21 )21(

2.)21(

2.

)221(

)21(

.21)(

)1(2

−−=

=−

Γ=Μ t

tttx

π

ππ

∴ 21

)21()()1(

2

−−=Μ tt

x es la f. g. m de la )1(

3.2.4.2 Función característica de la )1(

2Χ : )()1(

2 θϕ x

Haciendo t = θi en )()1(

2 tx

Μ obtenemos la función característica así

⎥⎦⎤

⎢⎣⎡Ε=−=

−)1(

2

)1(2

xi21

x e)i21()( θθθϕ

3.2.5 Distribución JI DOS, con n grados de libertad )(

2nΧ

consideramos ahora las variables aleatorias : 1X , 2X nX ...... Xn Todas las normales (0 , 1) e independientes

Page 101: TABLA DE CONTENIDOS 1. NOCIONES ELEMENTALES DE ... · 1.2.2 conceptos bÁsicos de anÁlisis combinatorio 1.2.3 concepto de probabilidad 1.2.4 teorÍa axiomÁtica de la probabilisdad

Deduzcamos su función característica:

[ ])(2

)(2 )( n

n

xix e θθϕ Ε= a

definamos primero a n

2Χ = nX..........XX 22

21

2 ++= esta nueva variable es la de JI – DOS con n grados de libertad13 como cada ;,......2,1 nJX j =∴ es una )1(

2X , entonces la )(2

nX es la suma de n )1(2X

independientes. Luego:

[ ]⎥⎦⎤

⎢⎣⎡Ε⎥⎦

⎤⎢⎣⎡Ε⎥⎦

⎤⎢⎣⎡Ε=

Ε= ++

n2

12

12

n2

22

12

)n(2

xixixi

)x..........x,x(ix

e(......)e.e

e)(

θθθ

θθϕ

por ser independiente

pero cada n ,........ 1,2, = J )2i-(1 = 21-

∴⎥⎦⎤

⎢⎣⎡Ε θθ 2

Jxie

a )()(

2 θϕnx = (1-2iθ ) 2

n−

, ahora, retomando la función característica, encontramos la función de densidad de la )(

2nX

sea )(

)(2 xf

nx la función de densidad de la )(

2nX .

Por definición de función característica se cumple que:

)()(

2 θϕnx =(1-2iθ ) 2

n−

,= ⎥⎦⎤

⎢⎣⎡Ε )(

2nxie θ = ∫

0

. )(.)(

2 xdfenx

xiσ (A)

por otra parte sabemos que:

pap

apde )(.. .

0

1 Γ=∂∂ ∂−

∞−∫

13 Los grados de libertad de g l , es el numero de variables aleatorias independientes.

Page 102: TABLA DE CONTENIDOS 1. NOCIONES ELEMENTALES DE ... · 1.2.2 conceptos bÁsicos de anÁlisis combinatorio 1.2.3 concepto de probabilidad 1.2.4 teorÍa axiomÁtica de la probabilisdad

=pa1

pa

0

1p

a(p).d.e

(p)1 Γ

−∞

−∫ zz z

En la integral anterior hagamos: θia 21−= y 2np =

zz z .d.e)

2nΓ(

1

i) θ 2(1

1 σ) 2i(1

0

12n

2n

−−∞ −

∫=

a

Apliquemos cambio de variable, así:

Sea aaa zzz d21d

2xx2z ===

dx.e.e

2

χ.)

2nΓ(2

1θ)i21 xθi2x

0 12n

12n

2n

−∞

−−

∫=−(

dxeenxi

xnθχ ...

)2

(2

1 2

0

12

−∞

∫Γ

= (B)

dxxfenx

xi )(.)(

2

0∫∞

= σ (A)

comparando (A) y (B), para cada x se tiene que

dx.e.e.χ

)2nΓ(2

1(x)dx.fe x θ i2x

0

12n

2nx

0

θx i(n)

2

−∞ −∞

∫∫ =

como existe una relación biunívoca entre la función característica y la función densidad . a

(x)dxf(n)

2x = 2x1

2n

2n .eχ

)2nΓ(2

1 −−; 0>x

Page 103: TABLA DE CONTENIDOS 1. NOCIONES ELEMENTALES DE ... · 1.2.2 conceptos bÁsicos de anÁlisis combinatorio 1.2.3 concepto de probabilidad 1.2.4 teorÍa axiomÁtica de la probabilisdad

La distribución de la )(

2nχ esta dada por:

)()(

2 xfnx = µµ

µ

den

n

n2

0

12

2

..)

2(2

1 −∞

∫Γ

3.2.5.1 Momentos de la )(

2nχ :

ya vimos que la f. g. m de la )(

2nχ es:

)()(

2 tnxΜ = 2)21(

n

t−

− a

)()(

2 tnxΜ =

12

12 )21()21)(2(

2−−−−

−=−−−nn

tntn

)()(

2 tnx

Μ = 2

22

2 )21)(2()21)(12

(2−−−−

−+=−+nn

tnntnn

∴ )0(

)(2 =Μ t

nx = 1=∝n : es el momento de orden 1 con respecto Al origen ∴ µ=∝1 ∴ )0(

)(2 =Μ t

nx= 2)2( =∝+= nn es el momento de orden 2 con respecto al origen

)( 22 χΕ=∝

luego la varianza de la )(

2nχ es:

nnnnn 2)2()( 22

122

)(2 =−+=∝−=∝χν

nn 2)(

22 =χνa vemos así que en la variable aleatoria )(

2nχ , la media de µ coincide con el

numero de grados de libertad y la varianza es dos veces este numero. DISTRIBUCION t DE ESTUDENT

Page 104: TABLA DE CONTENIDOS 1. NOCIONES ELEMENTALES DE ... · 1.2.2 conceptos bÁsicos de anÁlisis combinatorio 1.2.3 concepto de probabilidad 1.2.4 teorÍa axiomÁtica de la probabilisdad

Sean: X , 1X , 2X 3X ...... Xn variables aleatorias independiente todas las normales ),0( ν ; se define la variable aleatoria t con n. g. l , Así:

)n2

22

12

(n)

.......xx(xn1

Χt++

=

encontremos la función de densidad de la )(nt , pero antes, definamos la variable , Υ así :

ΥΧt).......xx(x

n1Y (n)(n)

2(2)

2(1)

2 =⇒++=

como ),0( νµηΧ ; su función de densidad es:

2

2.

21

21)( ν

πν

x

x exf−

=

La variable aleatoria Υ , se puede expresar de la siguiente forma

x...............σ

x(nσΥ 2

(n)2

2(3)

2

2(2)

2

2(1)

22++++=

Pero como cada ix es normal σ)(0, ; entonces σxi , entonces es normal (0,1) a

⎥⎦

⎤⎢⎣

⎡++ 2

(n)2

2(3)

2

2(2)

2

2(1)

2

σx...............

σx,

σx,

σx

, )(2

nηχ ; luego;

2(n)

2x

nσY ⋅=

∴ [ ]⎥⎥⎦

⎢⎢⎣

⎡≤=≤= yχ

nσΡyΥΡ(y)F (n)

22

Y

⎥⎦⎤

⎢⎣⎡ ≤Ρ=⎥

⎤⎢⎣

⎡≤Ρ= 2

2)n(22

)n(2

2yny

n σχχσ

Page 105: TABLA DE CONTENIDOS 1. NOCIONES ELEMENTALES DE ... · 1.2.2 conceptos bÁsicos de anÁlisis combinatorio 1.2.3 concepto de probabilidad 1.2.4 teorÍa axiomÁtica de la probabilisdad

)yσn(F 22χ (n)

2

sabemos que dµeµ

)2nΓ(2

1F2

2

(n)2

yσn

02µ1

2n

2nχ ∫

−−⋅

a dµeµ

)2nΓ(2

1(y)F2

2 yσn

02µ1

2n

.2nY ∫

−−⋅⋅=

La función de densidad de Υ será, por tanto:

dµ.eµdyd

)2nΓ(2

1(y)F´(y)f 2µ1

2n

y2n

0.2nYY

2 −−

∫==

yneynn

ynn

n .2..).()

2(2

12

.21

122

2.2

22

νντ

ν−−

=

1ny

2σn

2

2n

Y ye.)

2nΓ(σ

)2n2(

(y)f2

2 −−

=

Ahora la función de densidad conjunta ( ),( ΥΧ , está dada por )().().(, yfxfyxf yxyx =

1n

n

y2σ

n2n

σx

21

yx, y.)

2nΓ(σ

.e)2n2(

.e2πσ

1(x.y)f

22

2

2

−=

2

22

21

1.. νxny

n eyK+

−−= ; ∞<<∞<<∞− yx 0;

Page 106: TABLA DE CONTENIDOS 1. NOCIONES ELEMENTALES DE ... · 1.2.2 conceptos bÁsicos de anÁlisis combinatorio 1.2.3 concepto de probabilidad 1.2.4 teorÍa axiomÁtica de la probabilisdad

)2nΓ(2πσ

)2n2(

K1n

2n

+=∴

Llamemos )()( zF nt a la función de distribución de la v.a t

[ ] ∫∫=⎥⎦

⎤⎢⎣

⎡≤Ρ=≤Ρ= dxdyyxfZ

yxZtzF

ennt ),()( )()(

la región C es aquel recinto de la distribución conjunta en donde Zyx

≤ ; (o sea,

donde x ≤ yz ) ∴ ∞<<∞− z veamos la gráfica

∫+

−−=

yzxny

ntn eyKzF

.

0

.21

1 2

22

.)( νa

Hagamos el siguiente cambio en las variables:

v10µv

vy

µy

vx

µx

Jvy

vµx==

∂∂

∂∂

∂∂

∂∂

=⇒⎭⎬⎫

=⋅=

;vv =⇒ ya que v = y ; y ≥ o

Page 107: TABLA DE CONTENIDOS 1. NOCIONES ELEMENTALES DE ... · 1.2.2 conceptos bÁsicos de anÁlisis combinatorio 1.2.3 concepto de probabilidad 1.2.4 teorÍa axiomÁtica de la probabilisdad

dvvdudxdy .=⇒ ∴ Los limites son: Para V, igual que para Y:(0,∞)

Para µ = vx con v fijo, x −∞→⇒−∞→ µ

∴ x = z.y ⎪⎩

⎪⎨⎧

=

=⇒

zvyz.µ

.V.dµV.d.eVK(z)F0

σµ.VnV.

21

z 1nt(n)

2

22

∫ ∫∞

+−

∞−−=

.dµdV.eVKz v

σµn.

21

0n

22

2

⎭⎬⎫

⎩⎨⎧

= ∫ ∫∞−

⋅+

−∞

La integral “entre llaves” es una eureliana de segundo orden, donde : 2p-1 =n

2

2

2σµna

21nΡ +

=∧+

=⇒

∫∫ ∞− +

∞ ⋅+

++

+

=⇒z

21n2

2

20

µn.21

n

)nµ(1

dµ.)

2σµn2(

)2

1nΓ(.dv.eV

22

2

∫ ∞− +

+

+

=z

nnt

n

dunn

n

zF2

12)(

)1()2

(

)2

1()(

µτπ

τ

Esta función de distribución de la “t” con n, lgn. . Su función de densidad, será entonces:

Page 108: TABLA DE CONTENIDOS 1. NOCIONES ELEMENTALES DE ... · 1.2.2 conceptos bÁsicos de anÁlisis combinatorio 1.2.3 concepto de probabilidad 1.2.4 teorÍa axiomÁtica de la probabilisdad

∞<<;−∞

+

+

= + x

nxnn

n

xf nnt2

12)(

)1(

1.)

2(

)2

1()(

τπ

τ

3.2.7 DISTRIBUCCION F DE SNEDECOR: Sean nm yyy .,.........21..,.........2,1 ,;χχχ ; (m+n) variables aleatorias independientes normales (0,ν ); se define la variable aleatoria F de snedecor con (m,n) l,g como:

ΥΧ

=⇒+++

+++= F

yyyn

mFn

m

)..............(1

)..............(1

222

2

222

21

1

χχχ

)..............(1)..............(1 222

2222

21 1 nm yyy

nm+++∧+++=Χ∴ χχχ

Para determinar la función de densidad F, encontremos antes las distribuciones de Χ e Υ . a Función de distribución de Χ

sea: Χ = ⎥⎦⎤

⎢⎣⎡ ++ 221

2

)((...........)(νν

ν mxxm

Como cada ),0(1 νηµx ; los ν

ix )1,0(ηµ

2

)(

2

1 mmχν

=Χa ∴

[ ] ).()()(

22

)(2

)(

2

xmFxmxm

xxFmxmmx νν

χχν=⎥⎦

⎤⎢⎣⎡ ≤Ρ=⎥

⎤⎢⎣

⎡≤Ρ=≤ΧΡ=a

= ∫−−xm m

m duem

2

0211

2

2

..)

2(2

1 νµ

µτ

Page 109: TABLA DE CONTENIDOS 1. NOCIONES ELEMENTALES DE ... · 1.2.2 conceptos bÁsicos de anÁlisis combinatorio 1.2.3 concepto de probabilidad 1.2.4 teorÍa axiomÁtica de la probabilisdad

2

xσm

21

12m

22mxx σ

m..ex)σm.(

)2mΓ(2

1(x)F´(x)f 2−−==⇒

x2σm

12m

m

2m

x2.e.χ

)2mΓ(σ

)2m(

(x)f−−

=⇒ Para 0 < x < ∞

en forma similar obtenemos a ∴)(yf y

.y2σ

n1

2n

n

2n

y2.e.y

)2nΓ(σ

)2n(

(y)f−−

= ; para 0 < y < ∞

por la independencia entre x , y ; su densidad conjunta es:

)().(),( yfxff yxyx = para 0 < x, y < ∞

( )ny)(mx2σ

11

2n1

2m

y)(x,2.eyK.Xf

+−−−=⇒

)2

().2

(

)2

.()2

(

.

22

nm

nm

Knm

nm

ττν +=∴

ahora la función de distribución F es:

[ ] ∫ ∫=⎥⎦⎤

⎢⎣⎡ ≤

ΥΧ

Ρ=≤Ρ=RF dxdyyxfzzFzF ),()()(

∴ R es la región en donde yz≤Χ ; como especificamos en la siguiente gráfica:

Page 110: TABLA DE CONTENIDOS 1. NOCIONES ELEMENTALES DE ... · 1.2.2 conceptos bÁsicos de anÁlisis combinatorio 1.2.3 concepto de probabilidad 1.2.4 teorÍa axiomÁtica de la probabilisdad

dydyeyKzFnymxnm

Z zy

F

)(2

11

21

2

0 0)(2..)(

+−−−

∫ ∫= σχ

hacemos las variables, así

vyvx

== .µ

⎭⎬⎫ J⇒ =

1,0

µv= v VVj ==a

Vdudvdxdy =a

Encontremos los limites: Para V, son los mismos para ),0( ∞∈⇒ Vy

Para µ =; µ = Vx , para 00 =→= µx

Para zzyx =→= µ

µµµ

ν VdVdeVVKzFnVVmnm

Z

F

)(2

11

21

2

0 0)(2..).()(

+−−−∞

∫ ∫=

= µµ νµ

deVKVnmnm

z m

⎥⎥

⎢⎢

⎡ +−−

+∞−

∫∫.

21

2

00

12 2.

la integral entre llaves es una Euleriana de primer orden, así

2.1

211 nmamP +

=∧−+

=−µ

Page 111: TABLA DE CONTENIDOS 1. NOCIONES ELEMENTALES DE ... · 1.2.2 conceptos bÁsicos de anÁlisis combinatorio 1.2.3 concepto de probabilidad 1.2.4 teorÍa axiomÁtica de la probabilisdad

Luego: =+

+

=⎭⎬⎫

⎩⎨⎧

+2

2 )2

(

2)(

nmnm

nm

νµ

τ

22)(

).)(2

(2nm

nmnm

nmnm +−+

+

++

=⎭⎬⎫

⎩⎨⎧

µτν

Entonces la función de distribución de la F de snedecor es:

dµµ)

2n()Γ

2mΓ(

)2

nmΓ(.σ.2.2)2n.()

2m(

(z)Fz

0

n)1(mµ2mµm2

n2m

2n

2m

F

2nm

∫+

−+−

+ +

=

Simplificando la constante y derivado la integral con respecto a z, y cambiando z por x, la función de densidad de la F con (m , n) l,g , será en definitiva:

yn)(mxχ)

2n)ΓΓ

2mΓ(

)2

nmΓ(.nm(x)f 2

2m12m

2n

2m +

−−+

+

= x > 0

Volvamos a la definición de la aV , ),( nmF :

m)F(n,X

m1

yn1

F1

yn1

xm1

n)F(m, m

1

2i

n

1

2i

n)(m,n

1

2i

m

1

2i

==⇒=∴

Esto significa que el inverso de una F con (m, n) l,g es una F con (n, m) l,g . En el manejo de tablas es muy útil esta propiedad, ya que:

[ ] ⎥⎦⎤

⎢⎣⎡ ≥Ρ=

⎥⎥⎦

⎢⎢⎣

⎡≥Ρ=Ρ ≤ x

fxf

xf mnnm

nm111

),(),(

),(

3.2.8 TEOREMA CENTRAL DEL LIMITE (De Lindeberg y levy) sea { } { }.......,, 321 xxxxi = una sucesión de variables aleatorias independeintes e

igualmente distribuidas con medias µ y varianzas 2σ finitas. A partir de esta sucesión podemos definir otra así

Page 112: TABLA DE CONTENIDOS 1. NOCIONES ELEMENTALES DE ... · 1.2.2 conceptos bÁsicos de anÁlisis combinatorio 1.2.3 concepto de probabilidad 1.2.4 teorÍa axiomÁtica de la probabilisdad

{ }⎪⎭

⎪⎬⎫

⎪⎩

⎪⎨⎧ −

=ns

nnn σ

)Ε(SSy con nn xxxS +++= ................21

entonces la suceción { }ny converge en distribución a una variable aleatoria Z normal (0,1) Esta forma es aplicable en aquellos casos en los cuales debamos encontrar probabilidaes relativas a la suma de n variables aleatorias con n grande a sí nn xxxS +++= ................21 y las ix so independientes e igualmente distribuidas , (n grande), entonces:

nS aproxima η {E ( nS ); snσ } 3.2.9 TEOREMA DE MOIVRE : Sea { } { }.................,, .321 nn xxxxx = una sucesión de ..av independientes binomiales

(n,p); entonces la sucesión, { }⎪⎭

⎪⎬⎫

⎪⎩

⎪⎨⎧ −

=qpnpny n

n ...χ , converge en distribucion a una

variable aleatoria µηz ( 0,1). Este teorema, es un caso partucular del T.C.L14 En efecto, nnn BBB ..........21 ++=∀ χa con cada Bin b (1 , p) ∴ las ib son independientes entre si

nxn σn.p.q);Ε(xnp ==⇒

nx

nn(n) σ

)E(xxy −⇒

las )(ny cumplen con las hipótesis del T.L.C al igual que en el teorema de moivre es aplicable para binomiales (n, p , con “n” grande: Si X η b (n,p) con n grande a 14 Léase T.C.L. como teorema central de limite.

Page 113: TABLA DE CONTENIDOS 1. NOCIONES ELEMENTALES DE ... · 1.2.2 conceptos bÁsicos de anÁlisis combinatorio 1.2.3 concepto de probabilidad 1.2.4 teorÍa axiomÁtica de la probabilisdad

nS aproxima η (n.p; qpn .. ) 3.2.10 Ejercicios Ilustremos las aplicaciones de estos teoremas, con algunos ejemplos: 1. Sea x la media de una muestra aleatoria tamaño n= 100 de la distribución 2

50χ encontrar, en forma aproximada el valor de P(49 < x < 51).

Solucion : x = )1 ..........(1nxx

n+ cada ix N 2

50χ e independientes

1001 ..........( xx +a ),( νµη ; por T.L.C

donde µ = 100E ( ix ) = 100 x 50 = 5000 ∴ 10021 x..........xx +++ ∼ η (5000,100)

)100100;

1005000(µxa

)1,50(µxa

)5149( <<Ρ xa = =−

<<−

Ρ )1

50511

5049( Z

)1()1(6826.0)11( −−==<<−Ρ ηηza

2. sea Υ una variable aleatoria binomial )

31;72( =

encontrar un valor aproximado de )2822( ≤Υ≤Ρ

Page 114: TABLA DE CONTENIDOS 1. NOCIONES ELEMENTALES DE ... · 1.2.2 conceptos bÁsicos de anÁlisis combinatorio 1.2.3 concepto de probabilidad 1.2.4 teorÍa axiomÁtica de la probabilisdad

solución pn.2431.72)( ===ΥΕ

16n.p.q3224.σ 2

y ===

)4,24(η∧Υa ; Por teorema de Moivre

)2822( ≤Υ≤Ρa = )5.285.21( ≤Υ≤Ρ , usando corrección para variable de V.A

discreta

)4

245.284

245.21( −<<

−Ρ= Z = )125.1625.0( <<−Ρ z = 0.6042.

3. sea )21,100(b∧Υ encuentre P(y = 50)

solución: E(y) =10021 = 50 ∴ 25

21502 ==ν

)5;50(η∧Υa ; por teorema de moivre

)5.505.49()50( <<Ρ==Ρ yya usando la correción para V.A .D

=−

<<−

Ρ= )5

505.505

505.49( Z

)1,0()1.0(0796.0)1.01.0( −−==<<−Ρ= ηηZ

4. La venta diaria de ua fábrica de cierto articulo, tiene una distribución uniforme

entre 20 y 40 artículos . Que probabilidad tiene la fábrica de vender más de 6370 artículos en 182 días.

Solución sea Χ la venta total en los 182 días

18221 x..........xxΧ +++=⇒ ; donde ix es la venta en el día i- ésimo.

ix∴ ∼ uniforme (20, 40)

;1201

)( abf x −

==∴ para X∈ (20,40)

30)( =ixEa

Page 115: TABLA DE CONTENIDOS 1. NOCIONES ELEMENTALES DE ... · 1.2.2 conceptos bÁsicos de anÁlisis combinatorio 1.2.3 concepto de probabilidad 1.2.4 teorÍa axiomÁtica de la probabilisdad

∫ ==⎥⎦

⎤==∴

40

20

40

20

322

i 32800

6056000

60xdxx

201)Ε(x

3100(30)

32800σ 22

x1=−=∴

5460182.30)Ε(x182.Ε(x) i ===⇒

318200

3100182.182.σσ 2

x2x i

===⇒

Χ⇒ ∼ η (5460; 3

18200 ) ; luego

=−

>Ρ=>Ρ )

318200

54606370()6370( Zx

P(Z > 11.8 ) = 0 Es casi imposible que la venta en 182 dias supere los 6370 articulos 5. una persona acostumbra participar en un juego en las cuales sus probabilidades

de ganar y perder son iguales. Siempre que gana una partida recibe $ 5 y siempre

que pierde paga # 5. Un día se dirige al sitio de juego con la intension de jugar 400

partidas. ¿Que cantidad de dinero debe llevar si quiere tener al menos una

probabilidad de 0.95, de hacer frente a sus posibles perdidas?

Solución Sea iΧ la V.A que indica la perdida en la partida i - ésima?

40021 ........ xxx +++=Χa es la perdida total en las 400 partidas

21)5( ==Ρ ix ∧

21)5( =−=Ρ ix

252

5021)5(

215)( 222 ==−+=Ε ixa

Page 116: TABLA DE CONTENIDOS 1. NOCIONES ELEMENTALES DE ... · 1.2.2 conceptos bÁsicos de anÁlisis combinatorio 1.2.3 concepto de probabilidad 1.2.4 teorÍa axiomÁtica de la probabilisdad

22

xi 525025σ ==−=⇒ luego, 0)(400)( ==Ε ixEx 10.000400.5400σσ 22

xi2x ===

Χ⇒ ∼η (0;100) ; por T.C.L

Sea K las cantidad que debe llevar, de modo que a95.0)( =≤Ρ kx

95.0)100

( =≤Ρkx

50.164645.1100

== kkaa

a debe llevar $ 164.50 6. Demuestre que si n21 x,........,x,x son V.A independiente e igualmente distribuidas xxfx 2)( = para 10 ≤≤ x ; entonces:

);2(........., 221 kFexxx

nkn

n =⎥⎥⎦

⎢⎢⎣

⎡≤+Ρ

+− con )(xf

funcion de distribucion η (0,1). Suponga n grande. Solucion:

[ ] ⎥⎦⎤

⎢⎣⎡ +−≤++=

⎥⎥⎦

⎢⎢⎣

⎡≤

+−nk

2n.........Ρe........xxΡ

n21 nxnxnxnk

2n

n1 lll

sea

n21 nxnxnx1 .........Χ lll ++= las variables

inxl son igualmente distribuidas e independientes:

∫ −==Ε1

0 212.)( xdxxxL nin l ; resolviendo por parte

Page 117: TABLA DE CONTENIDOS 1. NOCIONES ELEMENTALES DE ... · 1.2.2 conceptos bÁsicos de anÁlisis combinatorio 1.2.3 concepto de probabilidad 1.2.4 teorÍa axiomÁtica de la probabilisdad

∴ ∫ ==1

02

n2

in 21.2xdxx)()xΕ(L l

41

41

42)

21(

21σ 22

xi=−=−−=⇒ l

luego: 2

)21()( nnx −=−=Ε

4nσ 2

x = ; luego x η∼ (-2

;2

nn )

)

2

22()2

(n

nnkn

ZnknX++−

≤Ρ=+−≤Ρa

= )2()2( kFkZ =≤Ρ . qdq..l .

Page 118: TABLA DE CONTENIDOS 1. NOCIONES ELEMENTALES DE ... · 1.2.2 conceptos bÁsicos de anÁlisis combinatorio 1.2.3 concepto de probabilidad 1.2.4 teorÍa axiomÁtica de la probabilisdad

BIBLIOGRAFIA

BERENSON , Mark y LEVINE David. 1987 “ Estadística para Administración y

Economía”.Interamericana.

BLANCO, Castañeda Liliana. 2004. "Probabilidad". Unibiblos. Universidad

Nacional de Colombia.

FELLER , William.1985. “ Introducción a la Teoría de Probabilidades y sus

Aplicaciones”. Limusa. Méjico,

KENETT, Ron; SHELEMYAHU, Zacks. 2000. ”Estadística Industrial

Moderna”.International Thomson Editores.Méjico.

LOPES, Paulo Alfonso.1999 ”Probabilidad y Estadística”. Prentice-Hall. Bogotá

MASON ,Robert y LIND , Douglas.1995. “ Estadística para Administración y

Economía”. Alfaomega , Méjico

MENDENHALL, William; SINCICH, Ferry.1997 .”Probabilidad y Estadística para

Ingeniería y Ciencias”.Prentice-Hall Hispanoamericana.Méjico.

MOOD , Alexander y GRAYBILL , Franklin. 1980. “ Introducción a la Teoría de la

Estadística”. Aguilar. Madrid

MUÑOZ, Quevedo José María, 2002. "Introducción a la teoría de Conjuntos".

Cuarta Edición. Panamericana, formas e impresos S.A.

P. L. MEYER. 1992. “ Probabilidad y Aplicaciones Estadísticas”.Adisson Wesley

Iberoamericana.

SCHEAFFER, Richard L. ; McCLAVE, James T. 1993 “Probabilidad y Estadística

para Ingeniería”.Grupo Editorial Iberoamericana.Méjico.

WALPOLE , R.E. y MEYER , R.H. 1990. “ Probabilidad y Estadística para

Ingenieros”.Interamericana. Méjico,

YA LUN CHOU. “ Análisis Estadístico”. Interamericana. Méjico,1985.