probabilidades

46
7/17/2019 Probabilidades http://slidepdf.com/reader/full/probabilidades-569139165cb4b 1/46 Índice 1. Introducción 3 1.1. Antecedentes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3 1.1.1. Girolamo Cardano y Niccolo Tartaglia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4 1.1.2. Galileo Galilei . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5 1.1.3. Blaise Pascal y Pierre Defermat . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5 1.1.4. Primeras definiciones de probabilidad . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6 1.2. Enfoques de probabilidad . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7 2. Repaso de teoría de conjuntos 7 2.1. Operaciones con conjuntos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8 2.2. Propiedades . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8 2.3. Ejercicios propuestos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9 3. Nociones de probabilidad 10 4. Espacios muestrales finitos 11 4.1. Problemas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11 4.2. Técnicas de conteo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12 4.2.1. Principios de conteo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12 4.2.2. Permutaciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12 4.2.3. Pruebas ordenadas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13 4.2.4. Combinaciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13 4.2.5. Permutaciones cuando no todos los objetos son diferentes . . . . . . . . . . . . . . . . . . . 13 4.2.6. Ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14 4.2.7. Problemas propuestos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14 5. Probabilidad condicional 15 5.1. Propiedades de la probabilidad condicional . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16 5.2. Eventos independientes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17 5.3. Ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17 5.4. Ejercicios propuestos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19 6. Variables aleatorias 19 6.1. Problemas propuestos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21 6.2. Valor esperado . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21 6.2.1. Propiedades del valor esperado . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22 6.3. Varianza . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22 6.3.1. Propiedades de la Varianza . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22 6.4. Desigualdad de Tchebyshev . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22 6.5. Ley de los grandes números . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22 6.6. Función generadora de momentos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23 6.7. Ejercicios propuestos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24 7. Importantes funciones de distribución discreta 25 7.1. Ejercicios propuestos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27 8. Importantes funciones de distribución continua 28 8.1. Ejercicios propuestos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31 1

Upload: haydee-parra-morales

Post on 09-Jan-2016

38 views

Category:

Documents


0 download

DESCRIPTION

Ejercicios

TRANSCRIPT

Page 1: Probabilidades

7/17/2019 Probabilidades

http://slidepdf.com/reader/full/probabilidades-569139165cb4b 1/46

Índice

1. Introducción 31.1. Antecedentes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3

1.1.1. Girolamo Cardano y Niccolo Tartaglia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41.1.2. Galileo Galilei . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51.1.3. Blaise Pascal y Pierre Defermat . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51.1.4. Primeras definiciones de probabilidad . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6

1.2. Enfoques de probabilidad . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7

2. Repaso de teoría de conjuntos 72.1. Operaciones con conjuntos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 82.2. Propiedades . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 82.3. Ejercicios propuestos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9

3. Nociones de probabilidad 10

4. Espacios muestrales finitos 114.1. Problemas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 114.2. Técnicas de conteo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12

4.2.1. Principios de conteo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 124.2.2. Permutaciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 124.2.3. Pruebas ordenadas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 134.2.4. Combinaciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 134.2.5. Permutaciones cuando no todos los objetos son diferentes . . . . . . . . . . . . . . . . . . . 134.2.6. Ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 144.2.7. Problemas propuestos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14

5. Probabilidad condicional 155.1. Propiedades de la probabilidad condicional . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 165.2. Eventos independientes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 175.3. Ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 175.4. Ejercicios propuestos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19

6. Variables aleatorias 196.1. Problemas propuestos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 216.2. Valor esperado . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21

6.2.1. Propiedades del valor esperado . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 226.3. Varianza . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22

6.3.1. Propiedades de la Varianza . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 226.4. Desigualdad de Tchebyshev . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 226.5. Ley de los grandes números . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 226.6. Función generadora de momentos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23

6.7. Ejercicios propuestos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 247. Importantes funciones de distribución discreta 25

7.1. Ejercicios propuestos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27

8. Importantes funciones de distribución continua 288.1. Ejercicios propuestos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31

1

Page 2: Probabilidades

7/17/2019 Probabilidades

http://slidepdf.com/reader/full/probabilidades-569139165cb4b 2/46

9. Variables aleatorias bidimensionales 329.1. Distribuciones condicionales e independientes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 359.2. Ejercicios propuestos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 369.3. Valor esperado . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37

9.4. Esperanza condicional . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 379.5. Momentos y función generadora de momentos conjunta . . . . . . . . . . . . . . . . . . . . . . . . . 389.6. Ejercicios propuestos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 409.7. Sumas de variables aleatorias . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40

10. Distribución de funciones de variables aleatorias 4210.1. Método de la función de distribución acumulativa . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4210.2. Ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4310.3. Ejercicios propuestos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4410.4. Técnica de la función generadora de momentos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4510.5. Ejercicios propuestos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45

2

Page 3: Probabilidades

7/17/2019 Probabilidades

http://slidepdf.com/reader/full/probabilidades-569139165cb4b 3/46

Curso de Probabilidad básica

Manuel García Minjares *

10 de noviembre de 2009

1. Introducción

Posiblemente a lo largo de su desempeño profesional se ha topado con situaciones donde sea importante aplicarun modelo matemático que intente explicar dicho fenómeno. Es deseable que este modelo proporcione la mayor infor-mación de la forma más simple, por lo que es frecuente permitir la omisión de ciertos detalles, los cuales, en la medidaque su nivel de influencia no sea importante en el resultado, el modelo garantizará su éxito.

A los modelos que estipulan las condiciones que deben observarse para la ocurrencia de un resultado se les deno-mina emphdeterminísticos. Por ejemplo, la velocidad que debe desarrollar un atleta para recorrer 100 metros planos en9 segundos puede determinarse a través de la relación:

V elocidad = distancia

tiempo

Sin embargo, existen fenómenos donde un modelo determinístico no resulta ser el adecuado para su estudio, ya quese observan resultados distintos a pesar de existir las mismas condiciones. A los modelos que intentan determinar losposibles resultados de un experimento dadas ciertas condiciones se les denomina no determinísticos o probabilísticos.Un ejemplo de este tipo de situaciones podría ser la reacción de ciertos pacientes hacia cierta droga. En otras palabras,en este tipo de fenómenos, más que buscar un resultado se pretende encontrar una distribución de resultados.

Los tópicos a abordar a lo largo de este módulo permitirán que se familiarice con modelos probabilísticos básicos,los cuales le permitirán explicar situaciones que pudieran presentarse tanto en su vida cotidiana como profesional.Antes de seguir adelante es necesario detenerse un poco acerca de los enfoques en que se maneja la teoría de probabi-lidades.

1.1. Antecedentes

Definition 1.1. La probabilidad es la parte de las matemáticas que trata de manejar con números la incertidumbre.

La probabilidad matemática tiene sus orígenes en los juegos de azar, principalmente los juegos con dados y cartas,muy populares desde tiempos antiguos. Los primeros estudios científicos sobre fenómenos aleatorios se centraban endos problemas:

*Consultor y académico de la UNAM.

3

Page 4: Probabilidades

7/17/2019 Probabilidades

http://slidepdf.com/reader/full/probabilidades-569139165cb4b 4/46

1. Contabilizar el número de posibles resultados de lanzar un dado varias veces.

2. Distribuir las ganancias entre jugadores cuando el juego se interrumpía antes de finalizar, conocido como elpro-blema del reparto de apuestas.

Una respuesta al primer problema se puede encontrar en el poema De Vetula, de Richard de Fournival (1200 1250),donde afirma correctamente que si se lanzan tres dados hay 216 combinaciones posibles y calcula correctamente losdiferentes valores para la suma de los tres dados. Aunque ahora puede parecer una cuestión trivial, en aquella época nolo era, y otros autores erraron al intentar resolverla, generalmente porque no tenían en cuenta las posibles permutacio-nes de una misma combinación.

El segundo problema fue abordado por Luca Pacioli (14451517), quien en 1487 propuso estos dos similares pro-blemas particulares: un juego en el que el premio es de 22 ducados que consiste en alcanzar 60 puntos se interrumpecuando un equipo lleva 50 puntos y el otro 30; y tres arqueros que compiten por un premio de 6 ducados lanzan flechashasta que uno de ellos haga 6 dianas, siendo interrumpidos cuando el primero de ellos lleva 4 dianas, el segundo 3 yel tercero 2. ¿Cómo deben repartirse los premios entre los contendientes? Pacioli propuso que el premio debería serrepartido en función de las victorias obtenidas anteriormente: así, el premio del primer problema se dividía en (60)(5)

8

ducados para el primer equipo y en

(60)(3)

8 para el segundo; para el problema de los arqueros, el premio se dividía enla proporción 49 , 39 y 2

9 . Como más tarde se pondría de manifiesto, esta solución es incorrecta.

1.1.1. Girolamo Cardano y Niccolo Tartaglia

La primera obra importante relacionada con el cálculo de probabilidades en juegos de azar fue el Libro de los Juegos

de Azar , de Girolamo Cardano (15011576), escrito en 1565, aunque no publicado hasta 1663. Cardano era un jugadorempedernido y su obra es más bien un manual para jugadores; contiene descripciones de juegos y las precauciones atomar para que los rivales no hagan trampas, y sólo una pequeña parte está dedicada al estudio del azar: problemastales como calcular todos los resultados posibles al lanzar dos o tres dados y las frecuencias con que aparecían, hallarla probabilidad de que al lanzar un dado una serie de veces salga un determinado número al menos una vez, o calcularlas frecuencias de los valores de la suma de las caras de una tirada de dos dados.

En la resolución de estos problemas, Cardano trabajó con los conceptos de la definición clásica de la probabilidad,aunque no los definió. En concreto,Cardano introdujo la idea de asignar una probabilidad p entre 0 y 1 a un suceso cuyoresultado se desconoce, considerando el número total de resultados y el número de resultados favorables, y esbozó deuna forma rudimentaria lo que ahora se conoce como la ley de los grandes números, al afirmar que si la probabilidad deun suceso es p, después de un número n grande de repeticiones lo más razonable es apostar a que ocurrirá alrededor denp veces. Sin embargo, Cardano no alcanzó a reconocer la importancia teórica de estos conceptos, ya que considerabaestas relaciones como meramente aritméticas, más que como una medida de la posibilidad de ocurrencia de una sucesoaleatorio. Cardano se había ocupado previamente del problema del reparto de apuestas. En 1539 escribió que la solu-ciónde Pacioli era incorrecta porque al considerar tan sólo el número de juegos ganados por cada equipo, no contabacuántos juegos debían ganar para hacerse con el premio; como solución propuso que si n es el número de juegos totalesy a y b los juegos ganados por cada equipo, el premio debía repartirse de la siguiente manera:

(1 + 2 + +(n− b)) : (1 + 2 + (n − a))

Esta solución es, en general, incorrecta y sólo da resultados válidos en casos particulares.

El problema del reparto de apuestas también fue abordado por Niccolo Tartaglia (14991557), quien en 1556 pu-blicó un libro sobre aritmética en el que criticaba la solución dada por Pacioli (Si un bando ha ganado 10 puntos y el

4

Page 5: Probabilidades

7/17/2019 Probabilidades

http://slidepdf.com/reader/full/probabilidades-569139165cb4b 5/46

otro ninguno, entonces todo elpremio sería para el primer jugador, pero esto no tiene ningún sentido) y dio su propiasolución: si un equipo ha ganado a puntos y el otro b, se juega a n puntos y el premio total es P, las ganancias deberíanrepartirse de la forma:

P

2 ± P

(a− b)

n

siendo la cantidad mayor para el equipo que tenga más victorias. Sin embargo, Tartaglia fue consciente de que susolución no era la correcta y le dio un carácter más jurisdiccional que matemático.

1.1.2. Galileo Galilei

Galileo Galilei (15641642) también se dedicó a resolver problemas sobre dados. Su obra Sobre la Puntuaciónen

Tiradas de Dados calculaba el número de resultados posibles tirando tres dados. A pesar de que ya se sabía desdemucho tiempo antes que hay 216 posibilidades diferentes, Galileo fue el primero que llegó a esta conclusión a través

del simple cálculo 216 = 63. Luego atacaba el problema de calcular de cuántas maneras diferentes se puede lograrcada una de las puntuaciones entre 3 y 18. Para hacer esto, Galileo numeró los dados primero, segundo, tercero y fueconsiderando cada una de las combinaciones de los tres dados que sumaban una determinada cantidad, pero sólo entre3 y 10. Galileo encontró que sólo hay una manera de obtener tres puntuaciones iguales, tres maneras de obtener dospuntuaciones iguales y otra diferente, y seis maneras de obtener tres puntuaciones diferentes. Su conclusión fue quees preferible apostar por el 10 antes que por el 9 porque el 10 se puede obtener de 27 maneras por 25 del 9. El restode posibilidades se obtenían sin cálculos, directamente por simetría: 18 igual que 3, 17 igual que 4, etc. A pesar de lasimplicidad del problema, Galileo reconoció que quedó exhausto. Sin embargo, la principal contribución de Galileo ala teoría de la probabilidad fue la creación de la teoría de la medida de errores. Según Galileo, los errores de medidason inevitables y los clasificó en dos tipos:

Los errores sistemáticos debidos a los métodos y las herramientas de medida.

Los errores aleatorios, que varían impredeciblementede una medida a otra.

Esta clasificación sigue en vigor actualmente.

Galileo fue muy cuidadoso al analizar las propiedades de los errores aleatorios y estableció que son más frecuenteslos errores pequeños que los grandes; que los errores por defecto son tan frecuentes como los errores por exceso; y quela mayoría de las mediciones se agrupan alrededor del verdadero valor. Con estas ideas, Galileo no sólo contribuyó aldesarrollo de la teoría de la probabilidad, sino que pusol as bases para el nacimiento de la estadística.

1.1.3. Blaise Pascal y Pierre Defermat

El desarrollo de la teoría de la probabilidad experimentó un gran avance en Francia a mediados del siglo XVIIcon la correspondencia que mantuvieron Blaise Pascal (16231662) y Pierre de Fermat (1601 − 1665) durante 1654,Blas Pascal, hacía un viaje en compañía de un jugador más o menos profesional: el caballero de Méré. Éste le propusoentonces un problema que a Pascal le interesó bastante, y sin que ninguno de los dos lo supiera, era esencialmente elmismo problema que había interesado tanto a Pacioli, Cardano y Tartaglia un siglo antes.

Ésta es una versión del problema: Dos jugadores, Antonio y Bernardo, ponen sobre la mesa 10,000 monedas cada

uno. Un árbitro va a tirar un dado varias veces seguidas. Cada uno de los jugadores va a elegir un número entre el 1

y el 6. Antonio elige el 5 y Bernardo el 3. Se llevará las 20,000 monedas aquél cuyo número salga primero tres veces.

5

Page 6: Probabilidades

7/17/2019 Probabilidades

http://slidepdf.com/reader/full/probabilidades-569139165cb4b 6/46

Resulta que después de unas cuantas tiradas el 5 ha salido dos veces y el 3 sólo ha salido una vez. En este momento

Bernardo recibe un mensaje por el que debe abandonar necesariamente la partida. ¿Cómo repartir de modo justo y

equitativo las 20,000 monedas?

Pascal y Fermat resolvieron correctamente el problema por medios diferentes pero equivalentes,aunque el desco-nocimiento de la teoría general les hizo pensar que no lo eran. El acierto de ambos consistió en darse cuenta de que elreparto de las apuestas debe hacerse en función de la probabilidad de ganar que tuviese cada jugador en el momentode interrumpirse el juego. Para hallar la solución correcta se valieron de una riguroso metodología desconocida hastaentonces; sin embargo, Pascal falló en su intento de extender el procedimiento al caso en que hubiera tres omás juga-dores. Once años más tarde, en 1665, Pascal publicaba su Tratado sobre el Triángulo Aritmético, la más importantecontribución realizada hasta entonces en el campo de la combinatoria. El libro comienza con la construcción de loquese dio en llamar el triángulo de Pascal, aunque era conocido desde hacía más de 500 años en diversas partes delmundo.

1.1.4. Primeras definiciones de probabilidad

Sólo cuando los fenómenos aleatorios dejaron de enfocarse como casos particulares y se intentó ver los conceptosgenerales que había detrás de ellos, las nociones de probabilidad mejoraron en su definición. El primero en dar ladefinición clásica de probabilidad fue Jakob Bernoulli (16541705) en su obra El Arte de Predecir publicada póstuma-mente en 1713, muy influenciado por los trabajos de Graunt y Petty, que habían demostrado las ventajas de incluir ensus tablas no sólo los números absolutos, sino también las proporciones respecto del total. Más adelante, el matemáticofrancés exiliado en Inglaterra Abraham De Moivre (16671754) aceptó la definición dada por Bernoulli y la reformulóen términos modernos: una fracción en la que el numerador es igual al número de apariciones del suceso y el de-

nominador es igual al número total de casos en los que es suceso pueda o no pueda ocurrir. Tal fracción expresa la

probabilidad de que ocurra el suceso.

La definición clásica de la probabilidad, en su forma actual, está basada en el concepto de equiprobabilidad delos resultados, basado a su vez en la simetría. Se supone que un experimento se puede descomponer en n sucesosequiprobables y mutuamente excluyentes E 1, . . . , E n, llamados sucesos elementales. Así, la probabilidad de un suce-

so aleatorio A es un número dentro del intervalo [0,1] que expresa el cociente entre los m sucesos elementales quecomponen A y el número total n de posibles sucesos elementales.

El principal escollo que encuentra esta interpretación de la probabilidad es la dificultad de descomponer un su-ceso en sucesos elementales equiprobables; siendo fácil para problemas sencillos, como los de cartas, dados o urnas,pero casi imposible para problemas más complejos. Basándose en los trabajos de Graunt y Petty, Bernoulli resolvióincluso la cuestión de cómo hallar la probabilidad de ocurrencia de un suceso aun siendo imposible contar los casosfavorables: Aquí hay otro camino disponible para alcanzar el resultado deseado. Lo que no se puede hallar a priori se

puede obtener a posteriori, es decir, mediante la observación múltiple de los resultados de pruebas similares De estamanera, Bernoulli introdujo el concepto de probabilidad frecuentista o estadística que asigna como probabilidad deun suceso el resultado que se obtendría si el proceso se repitiera en condiciones similares un número grande de veces.Sin embargo, estas condiciones son demasiado vagas para servir como base para una definición científica rigurosa. Enprimer lugar, se menciona un número grande de veces, pero no se da ninguna indicación sobre cuál es ese número lo

suficientemente grande; no se describe con precisión qué se entiende por condiciones similares ni tampoco se espe-cifica cuál es la máxima desviación admitida respecto del resultado teórico; además, sigue habiendo sucesos que nopueden plantearse suponiendo la posibilidad de repetirlos muchas veces. Precisamente, fueron la necesidad de precisarqué se entiende por un número grande de repeticiones del experimento y la tolerancia del resultado obtenido respec-to del teórico, lo que llevaron a Jakob Bernoulli a idear, en su forma más intuitiva y básica la Ley de los grandes números

6

Page 7: Probabilidades

7/17/2019 Probabilidades

http://slidepdf.com/reader/full/probabilidades-569139165cb4b 7/46

1.2. Enfoques de probabilidad

Como se mencionó durante la sección anterior, la teoría de probabilidades estuvo en sus inicios asociada a los juegos de azar, lo cual provocó el desarrollo de la definición clásica de probabilidad.

Definition 1.2 (Definición clásica). Si un experimento aleatorio tiene n resultados mutuamente excluyentes y con lamisma posibilidad de ocurrir y si nA de estos resultados tienen un atributo A, entonces la probabilidad de A es lafracción nA

n .

Las probabilidades determinadas por la definición clásica se le denominan probabilidades a priori.

Es importante mencionar que la aplicación de esta definición se encuentra condicionada en principio a contar conun número de posibilidades que puedan ser enumeradas, sean mutuamente excluyentes y tengan la misma posibilidadde ocurrencia, lo cual en muchas ocasiones no se presenta.

La alternativa de solución es por medio del enfoque frecuentista el cual consiste en asignar la probabilidad a pos-

teriori después de observar n experimentos, lo cual a medida que n aumenta, la fracción nAn

se acerca al valor de laprobabilidad de A.

2. Repaso de teoría de conjuntos

Con el fin de discutir los conceptos básicos del modelo probabilística a desarrollar, será conveniente tener presentesalgunas ideas y conceptos de la teoría de conjuntos. Este tema sin duda es muy amplio y se ha escrito mucho acerca deél. Sin embargo, solamente recordaremos algunas nociones básicas.

El término conjunto juega un papel fundamental en el desarrollo de las matemáticas modernas; además de propor-cionar las bases para comprender con mayor claridad algunos aspectos de la teoría de la probabilidad. Su origen sedebe al matemático alemán George Cantor (1845 - 1918).

Definition 2.1. Un conjunto es una colección de objetos con características bien definidas que lo hacen pertenecer aél.

Para que exista un conjunto debe observarse lo siguiente:

La colección de elementos debe estar bien definida.

Ningún elemento del conjunto se debe contar más de una vez, generalmente, estos elementos deben ser diferen-tes, si uno de ellos se repite se contará sólo una vez.

A los conjuntos se les representa con letras mayúsculasA,B,C, . . . y a los elementos con letras minúsculasa,b, c, . . .

Un conjunto puede expresarse de las siguientes formas:

Anotando los elementos del conjunto. Por ejemplo A = a, e, i, o, u

Por medio de una regla que deben cumplir sus elementos. Por ejemplo A = x | x es una vocal

Definition 2.2 (Conjunto Universal). El conjunto universal es la colección de TODOS los objetos a considerar. Habi-tualmente se expresa con la letra Ω

7

Page 8: Probabilidades

7/17/2019 Probabilidades

http://slidepdf.com/reader/full/probabilidades-569139165cb4b 8/46

Definition 2.3 (Subconjunto). Se dice que A es un subconjunto de B si todo elemento de A es también un elementodel conjunto B.

Lo anterior se expresa como A ⊂ B o B ⊃ A y se lee como A está contenido enB o B contiene a A

Definition 2.4 (Conjuntos equivalentes). Dos conjuntos A y B son equivalentes si A ⊂ B y B ⊂ A, lo anterior seexpresará como A = B

Definition 2.5 (Conjunto vacío). Si un conjunto A no contiene puntos se le denominará conjunto vacío y se denotarácomo ∅.

Definition 2.6 (Complemento). El complemento de un conjunto A respecto a Ω, son todos los elementos que están enΩ pero no en A. Se denotará como A’

Definition 2.7 (Cardinalidad). La cardinalidad de un conjunto A es el número de elementos que contiene. Se denotarácomo # A

2.1. Operaciones con conjuntos

Definition 2.8 (Unión). Sean A y B dos conjuntos de Ω, se define la unión de A y B como la colección de puntos queestán en A ó que están en B ó en ambos. Se denota como A ∪B.

Definition 2.9 (Intersección). Sean A y B dos conjuntos de Ω, se define la intersección de A y B como la colección depuntos que están en A y que están en B. Se denota como A ∩B.

Definition 2.10 (Diferencia de conjuntos). Sean A y B dos conjuntos de Ω, se define la diferencia de A con B como lacolección de puntos que están en A y que no están en B. Se denota como (A−B).

Definition 2.11 (Producto cartesiano). Sean A con #A = nA y B con #B = nB , dos conjuntos de Ω, se define el producto cartesiano de A con B como la colección de (nA)(nB) pares de puntos (a,b) donde a ∈ A y b ∈ B. Sedenota como A×B.

2.2. PropiedadesTheorem 2.1 (Ley conmutativa). A ∪B = B ∪A y A ∩B = B ∩A.

Theorem 2.2 (Ley asociativa). A ∪ (B ∪C) = (A ∪B) ∪C y A ∩ (B ∩C) = (A ∩B) ∩CTheorem 2.3 (Ley distributiva). A ∩ (B ∪C) = (A ∩B) ∪ (A ∩C) y A ∪ (B ∩C) = (A ∪B) ∩ (A ∪C)

Theorem 2.4. (A) = A.

Theorem 2.5. A ∩ Ω = A; A ∪ Ω = Ω; A ∩ ∅ = ∅; A ∪ ∅ = A

Theorem 2.6. A ∩A = ∅; A ∪A = Ω; A ∩A = A; A ∪A = A

Theorem 2.7 (Leyes de De Morgan). (A ∪B) = A ∩B; (A ∩B) = A

∪B

Theorem 2.8. A−B = A ∩B

Definition 2.12 (Conjuntos mutuamente excluyentes). Sean A y B dos conjuntos de Ω, se dice que A y B son disjuntos

o mutuamente excluyentes si A∩B = ∅. Los conjuntosA1,A2, . . . son mutuamente excluyentes si Ai∩A j = ∅ parai = j

Theorem 2.9. A = (A ∩B) ∪ (A ∩B) ; (A ∩B) ∩ (A ∩B) = ∅Theorem 2.10. Si A ⊂ B , entoncesA ∩B = A , y (A ∪B) = B

8

Page 9: Probabilidades

7/17/2019 Probabilidades

http://slidepdf.com/reader/full/probabilidades-569139165cb4b 9/46

2.3. Ejercicios propuestos

1. ¿Cuáles de las siguientes relaciones son verdaderas?

a) (A ∪ B) ∩ (A ∪ C ) = A ∪ (B ∩ C )b) (A ∪ B) = (A ∩ B) ∪ B

c) (A ∩ B) = (A ∪ B)

d ) (A ∪ B) ∩ C = A ∩ B ∩ C

2. Utilice diagramas de Venn para establecer las siguientes relaciones:

a) A ⊂ B y B ∈ C implican que A ⊂ C

b) A ⊂ B implica que A = A ∩ B

c) A ⊂ B implica B ⊂ A

d ) A ⊂ B implica que (A ∪ C ) ∈ (B ∪ C )

3. En una encuesta de 1,000 personas, 600 leen por lo menos el periódico Reforma y 370 leen por lo menos el Excelsior . Además 150 leen los 2 periódicos.

a) ¿Cual es el N° de personas que leen por lo menos uno de los 2 periódicos?

b) ¿Cuántos leen un solo periódico?

c) ¿Cuántos no leen ningún periódico?

d ) Interpretar resultados.

4. En una encuesta sobre 3 sabores de refrescos se entrevistaron a 2400 personas con los siguientes resultados:

1257 toman refrescos de cola (no exclusivamente).

996 toman refrescos de toronja (no exclusivamente).

939 toman refrescos de naranja (no exclusivamente).

204 toman refrescos de toronja y naranja (por lo menos).

375 toman refrescos de naranja y cola (por lo menos).

282 toman refrescos de toronja y cola (por lo menos).

45 toman refrescos de los 3 sabores.

a) ¿Cuántas personas toman refrescos de sabor cola?

b) ¿Cuántas personas toman exclusivamente 2 tipos de sabores?c) ¿Cuántas personas toman un solo tipo de refresco?

d ) ¿Cuántas personas no toman refrescos?

e) Interpretar resultados.

5. En una investigación referente a los hábitos de fumar se realizó una encuesta con la siguiente información reca-bada:

9

Page 10: Probabilidades

7/17/2019 Probabilidades

http://slidepdf.com/reader/full/probabilidades-569139165cb4b 10/46

55% fuman cigarros Marlboro (no exclusivamente).

50% fuman cigarros Raleigh (no exclusivamente).

40% fuman cigarros Delicados (no exclusivamente).

10% fuman las 3 marcas de cigarros.20% fuman las 2 1as. pero no la 3ª.

18% no fuman las 2 1as. pero si la 3ª.

7% no fuman ninguna de las marcas mencionadas o no fuman.

Utilizando la distribución en regiones procesar y determinar:

a) El porcentaje de personas que fuman por lo menos 2 marcas de cigarros.

b) El porcentaje de personas que fuman exactamente 2 marcas de cigarros.

c) El porcentaje de personas que fuman exactamente una marca de cigarros.

d ) Interpretar resultados.

6. Una empresa maquiladora tuvo una alta rotación de personal en los últimos 3 años. En el 1er. año tenía 500empleados. En el 2° año renunciaron 120 empleados pero se contrataron a 320 nuevos empleados. En el 3er. año,de ésta última cifra, sólo se quedaron un 75%, pero se recuperaron 50 empleados que estaban en la empresa enel 1er. año, y se reclutaron a 210 nuevos empleados para llegar a un total de 800 empleados que tiene la empresaen la actualidad.

a) Utilizando el álgebra de conjuntos, enunciar cada uno de los datos establecidos.

b) Determinar el N° de empleados que conforman la planta base de la organización.

c) Determinar el N° de empleados definitivamente perdidos en este proceso.

d ) Determinar el N° de empleados que estuvieron en la empresa más los que están laborando actualmente.

e) Interpretar los resultados.

3. Nociones de probabilidad

Definition 3.1 (Espacio muestral). El espacio muestral denotado por Ω, es la colección de todos los posibles resultadosde un experimento.

Definition 3.2 (Evento). Un evento es un subconjunto del espacio muestral.

Definition 3.3. Sea Ω un espacio muestral asociado a cierto experimento. A cada suceso A asignamos un número realP(A) el cual es la probabilidad de que ocurra A. Este número cumple con las siguientes propiedades:

0 ≤ P(A) ≤ 1

P (Ω) = 1

Si A y B son dos eventos mutuamente excluyentes, entoncesP(A ∪B) = P(A) + P(B)

Theorem 3.1. P(∅) = 0

Theorem 3.2. P(A) = 1 −P(A)

10

Page 11: Probabilidades

7/17/2019 Probabilidades

http://slidepdf.com/reader/full/probabilidades-569139165cb4b 11/46

Theorem 3.3. P(A ∪B) = P(A) + P(A) −P(A ∩B)

Theorem 3.4. Si A ⊂ B , entonces P(A) ≤ P(B)

Theorem 3.5. P(A) = P(A ∩B) + P(A ∩B); P(A−B) = P(A ∩B) = P(A) −P(A ∩B)

Theorem 3.6 (Desigualdad de Boole).

P (A1 ∪ A2 ∪ · · · ∪An) ≤ P (A1) + P (A2) + · · · + P (An)

4. Espacios muestrales finitos

Para cierta clase de problemas el espacio muestral contiene un número finito de elementos, adicionalmente para fa-cilitar su manejo se asume que todos los elementos tienen la misma posibilidad de ser seleccionados. Dado lo anterior,este tipo de conjuntos tienen las siguientes características:

P (ω1) = P (ω2) = · · · = P (ωN )

P(A) = nAn

4.1. Problemas

1. Sean A, B y C tres sucesos asociados con un experimento. Exprese las siguientes proposiciones verbales ennotación de conjuntos

a) Al menos uno de los sucesos ocurre

b) Exactamente uno de los sucesos ocurre

c) Exactamente dos de los sucesos ocurren

d ) No ocurren más de dos sucesos simultáneamente

2. Considerénse cuatro objetos a, b, c y d. Supóngase que el orden en el cual se anotan esos objetos representa elresultado de un experimento. Sean A y B los sucesos definidos como sigue:

A = a está en el primer lugarB = b está en el segundo lugar

a) Anote todos los elementos del espacio muestral

b) Anote todos los elementos de los sucesos (A ∩ B) y (A ∪ B)

3. En una habitación 10 personas cuentan con insignias numeradas del 1 al 10. Se eligen tres personas al azar y seles pide que dejen la habitación inmediatamente y se anotan el número de las insignias.

a) ¿Cuál es la probabilidad de que el número menor de las insignias sea 5?b) ¿Cuál es la probabilidad de que el número mayor de las insignias sea 5?

4. Un cargamento de 1500 lavadoras contiene 400 defectuosas y 1100 no defectuosas. Se eligen al azar 200 lava-doras sin sustitución y se clasifican.

a) ¿Cuál es la probabilidad de que se encuentren exactamente 90 artículos defectuosos?

b) ¿Cuál es la probabilidad de que se encuentren al menos dos artículos defectuosos?

11

Page 12: Probabilidades

7/17/2019 Probabilidades

http://slidepdf.com/reader/full/probabilidades-569139165cb4b 12/46

4.2. Técnicas de conteo

Como resultado de estos problemas, usted seguramente pudo percatarse lo complejo que pudiera ser enumerar to-dos los resultados posibles de un experimento, ya que es factible estar enfrentando un número finito muy grande deposibilidades.

Dado que el cálculo de probabilidades implica realizar el conteo de los elementos de los conjuntos asociados conexperimentos, en esta sección daremos un repaso a las técnicas empleadas para realizar esta tarea de una forma másrápida.

4.2.1. Principios de conteo

Para llevar a cabo conteos no se debe olvidar lo siguente:

Definition 4.1 (Principio de multiplicación). Si la ejecución de un proceso consta de n partes en donde la primerapuede realizarse de n1 maneras, la segunda de n2, . . . , y la última denn, entonces, el total de maneras en que puede

ejecutarse el proceso es de:

n1 · n2 · · ·nn

Definition 4.2 (Principio de adición). Sean n procedimientos y el i-ésimo procedimiento se puede hacer en ni mane-ras, i=1,. . . ,n; entonces el número de maneras como podemos hacer el procedimiento 1 o el procedimiento 2 o . . . o elprocedimiento n es :

n1 + n2 + · · · + nn

Asumiendo que los procedimientos no se pueden realizar conjuntamente.

4.2.2. Permutaciones

Definition 4.3 (Factorial de un número). Paracualquier entero positivo n, definimos n! como el factorial de n el cual es:

n! = n · (n− 1) · (n − 2) · · · 1 (4.1)

Definition 4.4 (Permutaciones). El ordenamiento de n objetos recibe el nombre de permutación.

Definition 4.5. En n objetos, el ordenamiento de r elementos, donde r ≤ n recibe el nombre de permutación de n en

r , y se denota como P (n, r).

Theorem 4.1.P (n, r) = n · (n− 1) · (n − 2) · · · (n− r + 1) =

n!

(n − r)! (4.2)

Una extensión natural a este resultado es el siguiente: las permutaciones de n objetos tomados todos a la vez son n! .

12

Page 13: Probabilidades

7/17/2019 Probabilidades

http://slidepdf.com/reader/full/probabilidades-569139165cb4b 13/46

4.2.3. Pruebas ordenadas

Muchos resultados de probabilidad y estadística tienen como sustento la manera en que se eligen los elementos yasea con sustitución o sin sustitución.

Definition 4.6 (Pruebas con sustitución). . Son pruebas donde en cada ensayo, el número de elementos n se mantiene.

De esta forma si se eligen al azar r elementos, r ≤ n, entonces en cada intento hay n resultados posibles por lo queel número de maneras de obtener una muestra de tamaño r bajo este esquema es nr .

Definition 4.7 (Pruebas sin sustitución). . Son pruebas donde en cada ensayo, el número de elementos va disminuyendoen la medida en que se han extraído elementos

De esta forma si se eligen al azar r elementos de n, donde r ≤ n, en el primer intento habrá n resultados posiblesen el segundo (n− 1), en el tercero (n− 2) . . . y en el r-ésimo (n− r + 1), por lo que el número de maneras de obteneruna muestra de tamaño r bajo este esquema es P (n, r) = n!

(n−r)!

4.2.4. Combinaciones

Definition 4.8 (Combinaciones). Se denomina combinación de n elementos en r al número de maneras en que sepueden elegir r elementos de n, r ≤ n sin importar el orden en que aparecen. Se denota como

nr

.

Theorem 4.2. n

r

=

P (n, r)

r! =

n!

r!(n− r)! (4.3)

Theorem 4.3.

n

r=

n

n

−r

(4.4)

Theorem 4.4. n

r

=

n− 1

r − 1

+

n− 1

r

(4.5)

4.2.5. Permutaciones cuando no todos los objetos son diferentes

Hasta el momento implicitamente se ha asumido que los elementos que conforman el conjunto son en cierta formadistinguibles, sin embargo esto no siempre ocurre, por lo que se desprende el siguiente resultado.

Theorem 4.5. Sea el conjunto A compuesto de n elementos y sean n1 , n2 ,. . . , nr enteros positivos con n1 + n2 +

· · ·+nr = n. Entonces existen

n!

n1! · n2! · · ·nr! (4.6)

particiones ordenadas diferentes de A de la forma (A1,A2, . . . ,Ar)donde A1 consta de n1 elementos,A2 de n2 ,

. . . , y Ar consta de nr .

13

Page 14: Probabilidades

7/17/2019 Probabilidades

http://slidepdf.com/reader/full/probabilidades-569139165cb4b 14/46

4.2.6. Ejemplos

1. ¿De cuántas maneras pueden sentarse 10 personas en un banco si hay 4 sitios disponibles?

Demostración. Nótese que importa el orden en que se sienten las personas, ya que los cuatro sitios son diferentes,y que una persona no puede ocupar más de un sitio a la vez. Por lo tanto, hay 10!/6! = 5040 maneras.

2. Cuatro libros de matemáticas, seis de física y dos de química han de ser colocados en un librero ¿Cuántascolocaciones distintas admiten si. . .

los libros de cada materia han de estar juntos?

Sólo los de matemáticas tienen que estar juntos?

Demostración. Supongamos que los libros de cada materia también son diferentes(de distintos autores).

1. Consideremos cada conjunto de libros de una misma materia como una unidad. Entonces, hay 3! = 6 orde-

naciones posibles de las materias. Además hay que considerar también las 4! = 24 permutaciones de los librosde matemáticas, así como las 6! = 720 y las 2! = 2 de los de física y química, respectivamente. Se concluye así que hay 3! · 4! · 6! · 2! = 207360 colocaciones distintas.

2. Consideremos los cuatro libros de matemáticas como una unidad. Se tendría entonces una unidad correspon-diente a matemáticas, 6 unidades diferentes de física y dos unidades diferentes de química. Por lo tanto, existen9! = 362880 maneras de ordenar estas 9 unidades, y por cada una de ellas hay 4! ordenaciones posibles de los 4libros de matemáticas, por lo que en total hay 9! · 4! = 8709120 formas de colocar los libros.

Supongamos ahora que los libros de cada materia son idénticos.

1. Consideremos cada conjunto de libros de una misma materia como una unidad. Nótese que entonces se tendría

un total de 3 unidades, que pueden ordenarse de 3! = 6 formas distintas. 2. En este caso tendremos una únicaunidad de matemáticas, además de 6 de física y 2 de química, que consideraremos diferentes para este cálculoinicial. Se tiene entonces un total de 9! = 362880 ordenaciones posibles y, puesto que los libros de cada materiason indistinguibles, nótese que deben tenerse en cuenta las 6! · 2! = 1440 formas de colocar los libros de físicay matemáticas. Por lo tanto, hay un total de 9!

6!·2! = 252 ordenaciones.

4.2.7. Problemas propuestos

1. Se tienen los siguientes dígitos 2,3,5,6,7 y 9 y considerando que no se permiten repeticiones:

a) ¿Cuántos números de tres dígitos se pueden formar?

b) ¿Cuántos de éstos son menores a 400?

c) ¿Cuántos son pares?

d ) ¿Cuántos son impares?

e) ¿Cuántos son múltiplos de 5?

2. ¿De cuántas maneras se puede acomodar una reunión de 7 personas . . .

a) en una fila de 7 sillas?

14

Page 15: Probabilidades

7/17/2019 Probabilidades

http://slidepdf.com/reader/full/probabilidades-569139165cb4b 15/46

b) alrededor de una mesa redonda?

3. En una reunión asisten 3 niños y 2 niñas

a) ¿De cuántas maneras los 3 niños y 2 niñas pueden sentarse en una fila?b) ¿De cuántas maneras pueden sentarse si los niños se sientan juntos y las niñas también?

c) ¿De cuántas maneras pueden sentarse en fila si las niñas se sientan juntas?

4. ¿De cuántas maneras puede elegirse un comité, de 3 hombres y dos mujeres de un grupo de 7 hombres y 5mujeres?

5. Una delegación de cuatro empleados del área se seleccionan todos los años para asistir al congreso anual de lacompañía

a) ¿De cuántas maneras puede escogerse la delegación si hay 12 elegibles?

b) ¿De cuántas maneras si dos de los elegibles no asisten al mismo tiempo?c) ¿De cuántas maneras si dos de los elegibles son casados y sólo asistirán si van ambos?

6. Un estudiante tiene que contestar 8 de 10 preguntas de un examen.

a) ¿Cuántas maneras de elegir tiene?

b) ¿Cuántas maneras si las tres primeras preguntas son obligatorias?

c) ¿Cuántas, si tiene que contestar 4 de las 5 primeras preguntas?

5. Probabilidad condicional

Dados dos eventos A y B queremos definir la probabilidad condicional del evento A dado que el evento B ha ocu-rrido.

Definition 5.1 (Probabilidad condicional). . Sean A y B dos eventos del espacio muestral Ω, la probabilidad condi-cional del evento A dado B, denotado por P [A|B], se define como:

P [A|B] = P [A ∩ B]

P [B] ; dondeP [B] > 0 (5.1)

Observación: Una fórmula que es evidente de la definición es:

P [A ∩ B] = P [A|B] · P [B] = P [B|A] · P [A]; P [A], P [B] > 0 (5.2)

Esta fórmula relaciona P [A|B] a P [B|A] en términos de la probabilidad no condicional P [A] y P [B].

15

Page 16: Probabilidades

7/17/2019 Probabilidades

http://slidepdf.com/reader/full/probabilidades-569139165cb4b 16/46

5.1. Propiedades de la probabilidad condicional

Se enuncian a continuación las propiedades de la probabilidad condicional:

Theorem 5.1. P [∅|B] = 0 (5.3)

Theorem 5.2. Si A1 , . . . ,An son eventos mutuamente excluyentes, entonces

P [n

i=1

Ai|B] =n

i=1

P [Ai|B] (5.4)

Theorem 5.3. Sea A un evento, entonces

P [A|B] = 1 − P [A|B] (5.5)

Theorem 5.4. Si A1 y A2 son dos eventos del espacio muestral, entonces

P [A1|B] = P [A1 ∩ A2|B] + P [A1 ∩ A2|B] (5.6)

Theorem 5.5. Para dos eventos cualquiera A1 y A2

P [A1 ∪ A2|B] = P [A1|B] + P [A2|B] − P [A1 ∩ A2|B] (5.7)

Theorem 5.6. Si A1 ⊂ A2 entonces

P [A1|B] ≤ P [A2|B] (5.8)

Theorem 5.7.

P [

ni=1

Ai|B] ≤n

i=1

P [Ai|B] (5.9)

Theorem 5.8 (Teorema de probabilidad total). Sean B1, B2, . . . , Bn una colección de eventos mutuamente excluyen-

tes que cumplen con Ω =n

j=i Bj y además P [Bj ] > 0 para j=1,.. . , n; entonces:

P [A] =n

i=1

P [A|Bj] · P [Bj ] (5.10)

Del anterior teorema se extiende el siguiente resultado:

P [A] = P [A|B]P [B] + P [A|B]P [B] (5.11)

Observación: Este teorema aún es válido si n=∞

Theorem 5.9 (Fórmula de Bayes). Sean B1, B2, . . . , Bn una colección de eventos mutuamente excluyentes satisfa-

ciendo Ω =n

j=i Bj y P [Bj ] > 0 para j=1,. . . , n; entonces para cualquier evento A , para el cual P [A] > 0

P [Bk|A] = P [A|Bk] · P [Bk]n

j=1 P [A|Bj ] · P [Bj ] (5.12)

16

Page 17: Probabilidades

7/17/2019 Probabilidades

http://slidepdf.com/reader/full/probabilidades-569139165cb4b 17/46

Del anterior teorema se extiende el siguiente resultado:

Para dos eventos A y B que satisfagan P [A] > 0 y 0 < P [B] < 1

P [B|A] = P [A|B] · P [B]

P [A|B] · P [B] + P [A|B] · P [B] (5.13)

Observación: La fórmula de Bayes es válida aún si n=∞

Theorem 5.10 ( Regla de la multiplicación). Sean A1, . . . , An eventos para los cuales P [A1∩ . . . An−1] > 0 , entonces

P [

ni=1

Ai] = P [A1]P [A2|A1]P [A3|A1 ∩ A2] · · ·P [An|n−1i=1

Ai] (5.14)

5.2. Eventos independientes

Definition 5.2 ( Eventos independientes). Los eventos A y B son independientes si y solo si cualquiera de las siguientescondiciones se satisface:

P [A ∩ B] = P [A] · P [B]

P [A|B] = P [A] si P [B] > 0

P [A|B] = P [B] si P [A] > 0

Theorem 5.11. Si A y B son dos eventos independientes, entonces A y B son independientes, A y B son indepen-

dientes y A y B son independientes.

Definition 5.3. Los eventos A1, . . . , An se definen como independientes si y solo si

P [Ai ∩ Aj ] = P [Ai] · P [Aj ] ; para i= j

P [Ai ∩ Aj ∩Ak] = P [Ai] · P [Aj ] · P [Ak] ; para i = j, j = k, i = k...P[n

i=1 Ai] =n

i=1 P [Ai]

5.3. Ejemplos

1. Dilema del concurso televisivo. En un concurso de televisión se le ofrece al concursante la posibilidad de elegir

una entre 3 puertas (A , B, C ) para quedarse lo que hay tras ella. El presentador le informa de que sólo una deellas tiene un buen regalo, mientras que las otras dos están vacías. El concursante opta por una y tras decirlo, elpresentador (que conoce exactamente dónde está el regalo) le abre una de las otras dos puertas no elegidas porel concursante donde no está el regalo. Luego le ofrece al concursante la opción de cambiar su decisión inicialeligiendo la otra puerta aún no abierta. ¿Qué debe hacer el concursante? Es decir, ¿debe el concursante aceptarla nueva posibilidad cambiando la puerta que eligió originalmente, o no?

17

Page 18: Probabilidades

7/17/2019 Probabilidades

http://slidepdf.com/reader/full/probabilidades-569139165cb4b 18/46

Demostración. En el momento original donde el concursante debe tomar su primera decisión, es evidente quela probabilidad de que escoja la puerta tras la que se oculta el regalo es igual a 1

3 . Supuesto que opta por una, seencuentra con que el presentador le ofrece una nueva información: le reduce las tres posibilidades iniciales a dos.Esto cambia por tanto las probabilidades, ya que la puerta abierta por el presentador pasa a tener probabilidad

0, mientras que las otras dos se reparten el

1

3 que esa puerta pierde. Pero, ¿de qué manera? Desde luego, noequitativamente, puesto que la puerta elegida por el concursante sigue teniendo probabilidad 13 y la otra que no

abrió el presentador pasa a tener probabilidad 23 . Por tanto, el concursante sí debería cambiar su elección original,

ya que con ello duplica la probabilidad de obtener el regalo. Obviamente, este consejo se basa únicamente enconsideraciones matemáticas y no tiene presente de ninguna forma la afición o aversión al riesgo del concursante.

2. Un banco ha comprobado que la probabilidad de que un cliente con fondos extienda un cheque con fecha equi-vocada es de 0.001. En cambio, todo cliente sin fondos pone una fecha errónea en sus cheques. El 90% de losclientes del banco tienen fondos. Se recibe hoy en caja un cheque con fecha equivocada. ¿Qué probabilidad hayde que sea de un cliente sin fondos?

Demostración. Representemos un suceso elemental como ω = (ω1, ω2) ; donde ω1 representa si el cliente tieneo no fondos (ω1 ∈ con, sin) y ω2 representa si el cheque tiene o no fecha equivocada (ω2 ∈ corr, equiv). Elespacio Ω no es equiprobable y tiene 4 elementos. Los datos que se dan son:

P (ω2 = equiv|ω1 = con) = 0,001P (ω2 = corr|ω1 = con) = 0,999P (ω2 = equiv|ω1 = sin) = 1P (ω2 = corr|ω1 = sin) = 0P (ω1 = con) = 0,9P (ω1 = sin) = 0,1

La probabilidad pedida es:

P (ω1 = sin|ω2 = equiv) = P (ω1=sin∩ω2=equiv)P (ω2=equiv)

= P (ω2=equiv|ω1=sin)·P (ω1=sin)P (ω2=equiv|w1=sin)·P (ω1=sin)+P (ω2=equiv|ω1=con)·P (ω1=con)

= 1·0,11·0,1+0,001·0,9

= 0,99108

3. Un ropero contiene n pares de zapatos. Si se escogen al azar 2r zapatos (con 2r < n) ¿Cuál es la probabilidadde que .. .

a) ...no haya ning´un par completo?

b) . . . haya exactamente un par completo?

c) . . . haya exactamente dos pares completos?

Demostración. Representemos cada zapato mediante un par (y, z), donde y representa el n´umero del par (esdecir, y ∈ 1, 2 . . . n) y z representa el pie (es decir,z ∈ D, I ).

18

Page 19: Probabilidades

7/17/2019 Probabilidades

http://slidepdf.com/reader/full/probabilidades-569139165cb4b 19/46

Entonces, un espacio muestral es:

Ω = (y, z)|y = 1, 2 . . . n; z = D, I

Así #Ω =2n2r

Definimos el suceso A = No hay ning´un par completo:

Entonces P (A) = (n2r)·22r

(2n2r)

(Si 2r >n, entonces P (A) = 0).

Definimos el suceso B = Hay exactamente un par completo:

luego, P (B) = (n1)·(n−1

2r−2)·22r−2

(2n2r)

Definimos el suceso C = Hay exactamente dos pares completos:

P (C ) = (n2)·(n−2

2r−4)·22r−4

(2n

2r)

5.4. Ejercicios propuestos

1. Las máquinas A, B y C fabrican 25, 35 y 40 por ciento de la producción total, respectivamente. De lo queproducen, 5, 4 y 2 por ciento, respectivamente es mercancia defectuosa. Se elige una mercancía al azar y seobserva que es defectuoso ¿Cuál es la probabilidad de que provenga de cada una de las máquinas?

2. Sean A y B dos sucesos asociados con un experimento. Supóngase que P (A) = 0,4, mientras que P (A ∪ B) =0,7. Sea P (B) = p

a) ¿Para que elección de p A y B son mutuamente excluyentes?

b) ¿Para que elección de p A y B son independientes?

3. Cada vez que se hace un experimento la ocurrencia de un suceso particular A es igual a 0.2. El experimento serepite, independientemente, hasta que A ocurre. Calcule la probabilidad de que sea necesario realizar un cuartoexperimento.

4. Un conjunto electrónico consta de dos subsitemas digamos A y B. A partir de una serie de pruebas previas,se presuponen las siguientes probabilidades: P(A falle) = 0.20, P(B sólo falle)= 0.15 y P(A y B fallen) = 0.15.Calcular

a) P(A falle | B haya fallado)

b) P(A falle solamente)

6. Variables aleatorias

En gran número de experimentos aleatorios es necesario para su tratamiento cuantificar los resultados de modo quese asigne un número real a cada uno de los resultados posibles. De este modo se establece una relación funcional entreelementos del espacio muestral asociado al experimento y números reales.

19

Page 20: Probabilidades

7/17/2019 Probabilidades

http://slidepdf.com/reader/full/probabilidades-569139165cb4b 20/46

Definition 6.1. Una variable aleatoria X es una función real definida en el espacio muestral asociado a un experimentoaleatorio, es decir:

X : Ω → Definition 6.2. El rango de una variable aleatoriaRX es el conjunto de valores que puede tomarX. En otras palabras:

RX = x ∈ |ω ∈ Ω : X (ω) = xDefinition 6.3 (Tipos de variables aleatorias). . En base al tipo de valores de X , las variables aleatorias se clasifican en:

Variables aleatorias discretas. Estas variables se caracterizan por tomar un número finito o infinito numerablede valores.

Variables aleatorias continuas. Pueden tomar un número infinito de valores

Variables mixtas. Pueden tomar valores discretos y contínuos

Definition 6.4 (Función de distribución acumulada de probabilidad ). . La función de distribución acumulada de pro-babilidad de X , F (x), asigna a cada evento definido sobre X una probabilidad dada por la siguiente expresión:

F (x) = P (X ≤ x)

La función de distribución F (x) tiene las siguientes propiedades:

F (x) es continua

F (x) es crecienteF (x) toma valores entre 0 y 1

lımx→−∞ F (x) = 0

lımx→+∞ F (x) = 1

Definition 6.5 (Función discreta de densidad ). . Si X es una variable discreta con valores x1, x2, . . . , xn, . . . , enton-ces la función denotada por f (x) y definida por:

f (x) =

P (X = xj) Si x = xj , j=1,2, .. . ,n, .. .

0 Si x

= xj

es la función de densidad discreta de X .

Una función de densidad discreta cumple con lo siguiente:

f (xj) > 0 para j = 1, 2, . . .

20

Page 21: Probabilidades

7/17/2019 Probabilidades

http://slidepdf.com/reader/full/probabilidades-569139165cb4b 21/46

f (x) = 0 para x = xj ; j = 1, 2, . . .xj

f (xj) = 1

Definition 6.6 (Función continua de densidad ). . Si X es una variable continua, la función f (x) en F (x) = x

−∞

f (u)du

se le llama función de densidad continua.Una función de densidad continua cumple con las siguientes propiedades:

f (x) ≥ 0 ∀x +∞−∞ f (x)dx = 1

6.1. Problemas propuestos

1. Sea f (x) = 6x(1− x), 0 ≤ x ≤ 1

a) Verificar que es una función de densidad y graficarla

b) Obtener una expresión para la función de acumulación de X y graficarlac) Determinar un número b tal que P (X < b) = 2P (X > b)

d ) Calcular P (X ≤ 12|13

< X < 23)

2. Se conoce que en una moneda sale águila tres veces más a menudo que sol. Esta moneda se lanza tres veces. SeaX el número de águilas que aparecen. Establecer la distribución de probabilidades de X así como su función dedistribución acumulada. Graficar ambas.

3. La variable X tiene como función de densidad f (x) = 3x2 ; −1 ≤ x ≤ 0. Si b es un número que satisface−1 < b < 0, calcular P (X > b|X < b

2)

4. ¿Las siguientes funciones pueden considerarse como de densidad?

f 1(x) = e−x; x > 0

f 2(x) = e−2x; x > 0

(θ + 1)f 1(x) − θf 2(x); 0 < θ < 1

6.2. Valor esperado

Definition 6.7. Sea X una variable aleatoria discreta con valores posibles x1, x2, . . . , xn, . . . Sea p(xi) = P (X = xi),i = 1, 2, . . . , n , . . . El valor esperado de X denotado por E (X ), se define como:

E (X ) = ∞i=1

xi p(xi) (6.1)

Definition 6.8. Sea X una variable aleatoria continua con función de densidad f . El valor esperado de X denotadopor E (X ), se define como:

E (X ) =

+∞−∞

xf (x)dx (6.2)

21

Page 22: Probabilidades

7/17/2019 Probabilidades

http://slidepdf.com/reader/full/probabilidades-569139165cb4b 22/46

6.2.1. Propiedades del valor esperado

Si X = C en donde C es una constante, entonces E (X ) = C

Si C es una constante y X una variable aleatoria. Entonces E (CX ) = C E (X )

Sean X 1, X 2, . . . , X n variables aleatorias. Entonces E (

ni=1 X i) =

ni=1 E (X i)

6.3. Varianza

Definition 6.9. Sea X una variable aleatoria. Se define la varianza de X , denotada por V (X ) o σ2 como:

V (X ) = E (X −E (X ))2 (6.3)

Definition 6.10. La desviación estándar denotada por σ es la raíz cuadrada positiva de V (X )

Theorem 6.1.V (X ) = E (X 2)

−(E (X ))2 (6.4)

6.3.1. Propiedades de la Varianza

Si C es una constante, V (X + C ) = V (X )

Si C es una constante, V (CX ) = C 2V (X )

Sean X 1, . . . , X n variables aleatorias independientes. Entonces V (n

i=1 X i) =n

i=1 V (X i)

Si X tiene varianza finita entonces para cualquier número real α, V (X ) = E [(X −α)2] − [E (X ) − α]2.

6.4. Desigualdad de Tchebyshev

Hay una desigualdad muy conocida que servirá como medio para comprender como la varianza mide la variabili-

dad respecto al valor esperado de una variable aleatoria.

Si conocemos la distribución de una variable aleatoria X podemos calcular su valor esperado y varianza en casode que exista. Sin embargo, conociendo estos parámetros no es posible reconstruir la distribución de X. Sin embargose puede dar una cota muy útil para tales probabilidades. Este resultado esta contenido en lo que se conoce como ladesigualdad de Tchebyshev.

Theorem 6.2 ( Desigualdad de Tchebyshev). . Sea X una variable aleatoria con E (X ) = µ y sea c un número real

cualquiera. Entonces, si E (X − c)2 es finita y es cualquier número positivo, tenemos

P [

|X

−c

| ≥]

≤ E (X − c)2

2

(6.5)

6.5. Ley de los grandes números

Un resultado de gran importancia en la teoría de probabilidades es la Ley de los grandes números, que en esenciadice que a medida que se disponga de mayor información acerca de algún suceso, las posibilidades de conocerlorealmente son muy altas. A continuación se plasma de una forma más formal.

22

Page 23: Probabilidades

7/17/2019 Probabilidades

http://slidepdf.com/reader/full/probabilidades-569139165cb4b 23/46

Theorem 6.3 (Ley de los grandes números). . Sea f (·) una función de densidad con media µ y varianza finita σ2 , y

sea X n la media de una muestra aleatoria de tamaño n de f (·). Sean y δ cualquier número que satisfagan > 0 y

0 < δ < 1. Si n es cual quier entero mayor que σ2

2δ entonces:

P (− < X n − µ < ) ≥ 1 − δ (6.6)

6.6. Función generadora de momentos

Definition 6.11 ( Momentos). . If X es una variable aleatoria, el résimo momento de X , usualmente denotado por µ

r

se define como:

µ

r = E (X r) (6.7)

Si el valor esperado existe.

Definition 6.12 ( Momentos centrales). . Si X es una variable aleatoria, el r-ésimo momento central de X con respecto

a a se define como E ((X − a)r). Si a = E(X), se tiene el r-ésimo momento central de X con respecto a E (X ), el cualse denota como µr , esto es:

µr = E ((X −E (X ))r) (6.8)

Definition 6.13 (Función generadora de momentos). . Sea X una variable aleatoria con función de densidad f . Se de-fine como función generadora de momentos al valor esperado de etX si existe, para cualquier valor t en algún intervalo−h < t < h; h>0. Esta función se denota como m(t),de esta manera:

m(t) = E (etX) =x

etXf (x) (6.9)

Si X es discreta y

m(t) = E (etX) =

+∞−∞

etXf (x)dx (6.10)

Si X es continua.

Es importante destacar que a partir de esta función es posible obtener el r-ésimo momento de una variable aleatoriapor medio de la r-ésima derivada de m(t) valuada en cero. Esto es:

mr(0) = E (X r) (6.11)

23

Page 24: Probabilidades

7/17/2019 Probabilidades

http://slidepdf.com/reader/full/probabilidades-569139165cb4b 24/46

6.7. Ejercicios propuestos

1. Supóngase que la demanda D, por semana, de cierto producto es una variable aleatoria con determinada dis-tribución de probabilidades, P (D = k) = p(k) , k = 0, 1, 2, . . . Supóngase que el costo del fabricante es deC 1 dólares por artículo, mientras que él vende el artículo a C 2 dólares. Cualquier artículo que no se venda al

término de la semana debe almacenarse con un costo de C 3 dólares por artículo. Si el fabricante decide producirN artículos al comienzo de la semana

a) ¿Cuál es su utilidad esperada por semana?

b) ¿Para qué valor de N es máxima la utilidad esperada?

2. La probabilidad que una propiedad no sufra daños en el siguiente período es 0.75. La función de densidad deuna pérdida es la siguiente:

f (x) = 0,25(0,01e−0,01x) · I (0,∞)(x)

Calcule la pérdida esperada.

3. La pérdida de cierto bien puede ser modelada con la siguiente función de densidad:

f (x) = 1

100 · I (0,100)(x)

Calcular el valor esperado y la varianza

4. En un seguro temporal a un año, una compañía de seguros acuerda pagar 1´000,000 de pesos a un asegurado sifallece durante la vigencia y no pagar nada si llega a sobrevivir.

a) Defina una función de densidad que describa esta situación

b) Calcule su valor esperado y su varianza

5. Suponiendo que X tiene como función de densidad:

f (x) = 2x · I [0,1](x)

a) Determine la función generadora de momentos de X .

b) Usando la función generadora de momentos calcule E (X ) y V (X ) y verifique su respuesta.

6. La media aritmética de la aportación quincenal de los empleados de cierta empresa para formar una caja de aho-rro es de 504.33 pesos y la desviación estándar de 32.47 pesos. ¿Cuál es la probabilidad de que una aportaciónse aleje en más de 1.5 desviaciones?

7. Supóngase que se desconoce la media de cierta población pero se sabe que la varianza es 1. ¿Qué tan grandedebería ser una muestra para garantizar que la media muestral no diferirá en más de 0.5 unidades de la mediapoblacional ...

24

Page 25: Probabilidades

7/17/2019 Probabilidades

http://slidepdf.com/reader/full/probabilidades-569139165cb4b 25/46

a) . . . con al menos una probabilidad de 0.95 ?

b) . . . con al menos una probabilidad de 0.99 ?

c) Sea X el resultado del lanzamiento de un dado regular

1) Encontrar la función generadora de momentos de X .2) Con la función generadora de momentos calcular E (X ) y V (X ).

7. Importantes funciones de distribución discreta

En esta sección se mencionarán algunas funciones de distribución discreta.

Definition 7.1 (Uniforme discreta). . Una variable discreta con la siguiente función de distribución:

f (x) = f (x; N ) = 1N

Si x = 1, 2, . . . , N

0 En otro caso (7.1)

Se dice que tiene una distribución discreta uniforme.

Theorem 7.1. Si X es una variable aleatoria con distribución discreta uniforme:

E (X ) = N + 1

2

V (X ) = N 2 − 1

12

m(t) =

N

j=1

ejt 1

N

(7.2)

Definition 7.2 ( Bernoulli). .Una variable discreta con la siguiente función de distribución:

f (x) = f (x; p) =

px(1 − p)1−x Si x = 0 ó x = 1

0 En otro caso (7.3)

Se dice que tiene una distribución Bernoulli.

Observación: En esta distribución 0 < p < 1 y se acostumbra denotar por q a la expresión 1 − p.

Theorem 7.2. Si X es una variable aleatoria con distribución Bernoulli:

E (X ) = p

V (X ) = pq

m(t) = pet + q

(7.4)

25

Page 26: Probabilidades

7/17/2019 Probabilidades

http://slidepdf.com/reader/full/probabilidades-569139165cb4b 26/46

Definition 7.3 ( Binomial). .Una variable discreta con la siguiente función de distribución:

f (x) = f (x; n, p) =

nx

px(1− p)n−x Si x = 0, 1, . . . , n

0 En otro caso (7.5)

Se dice que tiene una distribución Binomial.

Theorem 7.3. Si X es una variable aleatoria con distribución Binomial:

E (X ) = np

V (X ) = npq

m(t) = ( pet + q )n(7.6)

Definition 7.4 (Poisson). .Una variable discreta con la siguiente función de distribución:

f (x; λ) =

λxe−λ

x! Si x = 0, 1, . . .

0 En otro caso (7.7)

Donde λ > 0. Se dice que tiene una distribución Poisson.

Theorem 7.4. Si X es una variable aleatoria con distribución Poisson:

E (X ) = λ

V (X ) = λ

m(t) = eλ(et−1)

(7.8)

Definition 7.5 ( Binomial negativa). .Una variable discreta con la siguiente función de distribución:

f (x) = f (x; r, p) =

r+x−1

x

pr(1 − p)x Si x = 0, 1, . . .

0 En otro caso (7.9)

Se dice que tiene una distribución Binomial Negativa.

Theorem 7.5. Si X es una variable aleatoria con distribución Binomial Negativa:

E (X ) =

rq

p

V (X ) = rq

p2

m(t) = ( p

1 − qet)r

(7.10)

26

Page 27: Probabilidades

7/17/2019 Probabilidades

http://slidepdf.com/reader/full/probabilidades-569139165cb4b 27/46

Definition 7.6 (Geométrica). .Una variable discreta con la siguiente función de distribución:

f (x) = f (x; p) =

p(1− p)x Si x = 0, 1, . . .

0 En otro caso (7.11)

Se dice que tiene una distribución Geométrica o de Pascal.

Theorem 7.6. Si X es una variable aleatoria con distribución Geométrica:

E (X ) = q

p

V (X ) = q

p2

m(t) = p

1 − qet

(7.12)

Definition 7.7 ( Hipergeométrica). .Una variable discreta con la siguiente función de distribución:

f (x; M, K, n) =

(Kx)(M −Kn−x )

(M n )

Si x = 0, 1, . . . , n

0 En otro caso(7.13)

Se dice que tiene una distribución Hipergeométrica.

Theorem 7.7. Si X es una variable aleatoria con distribución Hipergeométrica:

E (X ) = nK

M V (X ) = n · K

M · M −K

M · M − n

M − 1

(7.14)

7.1. Ejercicios propuestos

a) Una compañía de seguros ha descubierto que sólo alrededor de 0.1 por ciento de la población tiene ciertotipo de accidente cada año. Si aleatoriamente fueran asegurados 10,000 personas ¿Cuál sería la probabili-dad de que no más de 5 individuos tuviera este tipo de accidente de este tipo durante la siguiente vigenciade un año?

b) Supóngase que la probabilidad de que una póliza emitida en cierta impresora tenga defectos de impresiónes de 0.2. Si se seleccionan 10 pólizas al azar, ¿Cuál es la probabilidad de encontrar más de una con defec-tos de impresión? Utilice las distribuciones binomial y de Poisson y compare sus resultados.

c) Suponga que un libro de 585 páginas cuenta con 43 errores tipográficos. Si esos errores están distribuidosaleatoriamente en el libro ¿Cuál es la probabilidad de que 10 páginas seleccionadas al azar, estén libres deerrores?

27

Page 28: Probabilidades

7/17/2019 Probabilidades

http://slidepdf.com/reader/full/probabilidades-569139165cb4b 28/46

d ) La probabilidad de un lanzamiento exitoso es igual a 0.8. Supóngase que se hacen ensayos de lanzamientoshasta haberse observado tres exitosos.

1) ¿Cuál es la probabilidad que sean necesarios 6 intentos?

2) ¿Cuál es la probabilidad de que sean necesarios menos de 6 intentos?e) Dada la situación del problema anterior, supóngase que los ensayos se realizan hasta que han ocurrido 3

lanzamientos consecutivos exitosos.

1) ¿Cuál es la probabilidad que sean necesarios 6 intentos?2) ¿Cuál es la probabilidad de que sean necesarios menos de 6 intentos?

f ) Supóngase que el 5% de los agentes de seguros cuentan con una preparación mayor a preparatoria termi-nada. Se seleccionan al azar 150 agentes y se valida su escolaridad. ¿Cuál es la probabilidad de que más de10 tengan una escolaridad superior a preparatoria?

g) Supóngase que X tiene una distribución binomial con parámetros n y p. ¿Para que valor de p se maximizala varianza de X asumiendo n fija?

8. Importantes funciones de distribución continua

Definition 8.1 (Uniforme). . Una variable continua X con la siguiente función de densidad:

f (x; a, b) = 1

b − a · I [a,b](x) (8.1)

donde −∞ < a < b < ∞. Se dice que tiene una distribución uniforme en el intervalo [a,b].

Theorem 8.1. Si X es una variable aleatoria con distribución uniforme en el intervalo [a,b] entonces:

E (X ) = a + b

2

V (X ) = (b − a)2

12

m(t) = ebt − eat

(b − a)t

(8.2)

Definition 8.2 ( Exponencial). .Una variable continua X con la siguiente función de densidad:

f (x; λ) = λ · e−λx · I [0,∞)(x) (8.3)

donde λ > 0. Se dice que tiene una distribución exponencial.Theorem 8.2. Si X es una variable aleatoria con distribución exponencial entonces:

E (X ) = 1

λ

V (X ) = 1

λ2

m(t) = λ

λ− t para t < λ

(8.4)

28

Page 29: Probabilidades

7/17/2019 Probabilidades

http://slidepdf.com/reader/full/probabilidades-569139165cb4b 29/46

Definition 8.3 (Gamma). .Una variable continua X con la siguiente función de densidad:

f (x; r, λ) = λΓ(r)

· (λx)r−1 · e−λx · I [0,∞)(x) (8.5)

donde r > 0 y λ > 0. Se dice que tiene una distribución Gamma.

Theorem 8.3. Si X es una variable aleatoria con distribución Gamma entonces:

E (X ) = r

λ

V (X ) = r

λ2

m(t) = ( λ

λ− t)r para t < λ

(8.6)

Definition 8.4 ( Normal). .Una variable continua X con la siguiente función de densidad:

f (x; µ, σ) = 1√

2πσ· e

−(x−µ)2

2σ2 · I (−∞,∞)(x) (8.7)

donde −∞ < µ < ∞ y σ > 0. Se dice que tiene una distribución Normal.

Theorem 8.4. Si X es una variable aleatoria con distribución Normal entonces:

E (X ) = µ

V (X ) = σ2

m(t) = eµt+σ2t2

2

(8.8)

Definition 8.5 ( Beta). .Una variable continua X con la siguiente función de densidad:

f (x; a, b) = 1

B(a, b) · xa−1 · (1− x)b−1 · I (0,1)(x) (8.9)

donde −∞ < µ < ∞ y σ > 0. Se dice que tiene una distribución Beta.

Theorem 8.5. Si X es una variable aleatoria con distribución Beta entonces:

E (X ) = a

a + b

V (X ) = ab

(a + b + 1) · (a + b)2

(8.10)

Definition 8.6 (Cauchy). .Una variable continua X con la siguiente función de densidad:

f (x; α, β ) = 1

πβ (1 + ( (x−α)β

)2)(8.11)

donde −∞ < α < ∞ y β > 0. Se dice que tiene una distribución Cauchy.

29

Page 30: Probabilidades

7/17/2019 Probabilidades

http://slidepdf.com/reader/full/probabilidades-569139165cb4b 30/46

Es importante resaltar que para esta función no existe valor esperado ni varianza.

Definition 8.7 ( Lognormal). .Una variable continua X con la siguiente función de densidad:

f (x; µ, σ

2

) =

1

x√ 2πσ · exp(−(ln(x)

−µ)2

2σ2 ) · I (0,∞)(x) (8.12)

donde −∞ < µ < ∞ y σ > 0. Se dice que tiene una distribución Lognormal.

Theorem 8.6. Si X es una variable aleatoria con distribución Lognormal entonces:

E (X ) = exp(µ + σ2

2 )

V (X ) = exp(2µ + 2σ2) − exp(2µ + σ2)

(8.13)

Definition 8.8 ( Laplace). .Una variable continua X con la siguiente función de densidad:

f (x; α, β ) = 12β · exp(−|x− α|

β ) (8.14)

donde −∞ < α < ∞ y β > 0. Se dice que tiene una distribución Laplace.

Theorem 8.7. Si X es una variable aleatoria con distribución Laplace entonces:

E (X ) = α

V (X ) = 2 · β (8.15)

Definition 8.9 (Weibull). .Una variable continua X con la siguiente función de densidad:

f (x; a, b) = abxb−1e−axb · I (0,∞)(x) (8.16)

donde a > 0 y b > 0. Se dice que tiene una distribución Weibull.

Theorem 8.8. Si X es una variable aleatoria con distribución Weibull entonces:

E (X ) = a−1b Γ(1 + b−1)

V (X ) = a−2b [Γ(1 + 2b−1) − Γ2(1 + b−1)]

m(t) = a−tb Γ(1 +

t

b)

(8.17)

Definition 8.10 ( Logística). .Una variable continua X con la siguiente función de acumulación:

F (x; α, β ) = (1 + exp(−(x − α)

β ))−1 (8.18)

donde −∞ < α < ∞ y β > 0. Se dice que tiene una distribución Logística.

30

Page 31: Probabilidades

7/17/2019 Probabilidades

http://slidepdf.com/reader/full/probabilidades-569139165cb4b 31/46

Theorem 8.9. Si X es una variable aleatoria con distribución Logística entonces:

E (X ) = α

V (X ) = β 2π2

3m(t) = eαtπβt csc(πβt)

(8.19)

Definition 8.11 (Pareto). .Una variable continua X con la siguiente función de densidad:

f (x; x0, θ) = θxθ

0

xθ+1 · I (0,∞)(x) (8.20)

donde x0 > 0 y θ > 0. Se dice que tiene una distribución Pareto.

Theorem 8.10. Si X es una variable aleatoria con distribución Pareto entonces:

E (X ) = θx0θ + 1

Para θ > 1

V (X ) = θx2

0

(θ − 1)2(θ − 2)Para θ > 2

(8.21)

Definition 8.12 (Gumbel). .Una variable continua X con la siguiente función de acumulación:

F (x; α, β ) = exp(−e−(x−α)

β ) (8.22)

donde −∞ < α < ∞ y β > 0. Se dice que tiene una distribución Gumbel.

Theorem 8.11. Si X es una variable aleatoria con distribución Gumbel entonces:

E (X ) = α + βγ donde γ ≈ 0,577216

V (X ) = π2β 2

6

m(t) = eαt · Γ · (1− βt) para t < 1

β

(8.23)

8.1. Ejercicios propuestos

a) Si X se distribuye uniformemente sobre (1,2), encuentre z tal que P (X > z + µX) = 1

4)

b) Si X se distribuye como una Normal con media 2 y varianza 1. Encontrar P (|X − 2| < 1)

c) La función de densidad del tiempo transcurrido entre el arribo de dos clientes es la siguiente:

f (ti) = 4e−4ti

Donde ti > 0. Exprese la función de densidad para el tiempo del décimo arribo.

31

Page 32: Probabilidades

7/17/2019 Probabilidades

http://slidepdf.com/reader/full/probabilidades-569139165cb4b 32/46

d ) La función de densidad del tiempo de vida de un cierto componente está dado por:

f (t) = ke−kt

Donde t > 0.

Un aparato contiene tres componentes de este tipo y la falla de uno puede asumirse como independientedel resto. Encuentre la probabilidad que:

1) Ninguno haya fallado en t0 horas.2) Exactamente uno falle en las primeras t0 horas, otro en las segundas t0 horas y el tercero después de

más de 2t0 horas.

e) El departamento de compras utiliza la siguiente regla para decidir si aceptar o no un lote de 100,000pequeñas partes enviadas semanalmente: Se selecciona una muestra de 400 piezas de cada lote recibido. Sial menos el 3% de las piezas de la muestra están defectuosas se rechaza el lote. ¿Cuál es la probabilidad derechazar un lote que actualmente cuenta con el 2% de las piezas defectuosas?

9. Variables aleatorias bidimensionales

Hasta este momento solamente nos hemos concentrado en variables unidimensionales, es decir, el resultado deun experimento se registraba en un sólo número x. Sin embargo, en muchos casos es de interés observar dos omás características numéricas al mismo tiempo. Por ejemplo, la edad y el peso de una persona como determinan-tes en la aparición de cierta enfermedad, o la edad y el tiempo de experiencia manejando un vehículo en relacióna la posibilidad de ocurrir un accidente de tránsito, por citar sólo algunos ejemplos.

Definition 9.1. Sea un experimento asociado a un espacio muestral Ω. Sean X = X (ω) e Y = Y (ω) dosfunciones que asignan un número real a cada uno de los resultados ω

∈Ω. Se denomina a (X, Y ) como variable

aleatoria bidimensional o vector aleatorio.

Esta definición puede extenderse para X 1, X 2, . . . , X n variables que asignan un número real a cada resulta-do ω ∈ Ω de manera que (X 1, X 2, . . . , X n) es una variable aleatoria n-dimensional o vector aleatorio n-dimensional.

Definition 9.2. Se dice que (X, Y ) es una variable aleatoria bidimensional discreta si los valores posibles de(X, Y ) son finitos o infinitos numerables. Es decir, los valores posibles de (X, Y ) se pueden representar como(xi, yj), donde i = 1, 2, . . . , n , . . . y j = 1, 2, . . . , m , . . .

Definition 9.3. Se dice que (X, Y ) es una variable aleatoria bidimensional continua si (X, Y ) puede tomartodos los valores de un conjunto no numerable del plano euclidiano.

Definition 9.4. Sea (X, Y ) una variable discreta bidimensional. Con cada resultado posible (xi, yj) asociamosun número p(xi, yj) que representa P (X = xi, Y = yj) y que satisface las siguientes condiciones:

p(xi, yj) ≥ 0 ∀(x, y)∞j=1

∞i=1 p(xi, yj) = 1

La función p definida para todo (xi, yj) en el recorrido de (X, Y ) se llama función de probabilidad de (X, Y ).

32

Page 33: Probabilidades

7/17/2019 Probabilidades

http://slidepdf.com/reader/full/probabilidades-569139165cb4b 33/46

Definition 9.5. Sea (X, Y ) una variable aleatoria continua que toma todos los valores en una región R del planoeuclidiano. La función de densidad de probabilidades conjuntas f es una función que satisface las siguientescondiciones:

f (x, y) ≥ 0 ∀(x,y) ∈ R R

f (x, y) = 1

Definition 9.6. Sea (X, Y ) una variable aleatoria bidimensional. La función de distribución acumulativa F dela variable aleatoria (X, Y ) se define como:

F (x, y) = P (X ≤ x, Y ≤ y) (9.1)

La función de distribución acumulativa tiene las siguientes propiedades:

F (−∞, y) = lımx→−∞ F (x, y) = 0 ∀yF (x,−∞) = lımy→−∞ F (x, y) = 0 ∀x

lımx,y→∞ F (x, y) = 1

Si x1 < x2 y y1 < y2, entonces:

P (x1 < X ≤ x2; y1 < Y ≤ y2) = F (x2, y2) − F (x2, y1)− F (x1, y2) + F (x1, y1) ≥ 0

lım0<h→0 F (x + h, y) = lım0<h→0 F (x, y + h) = F (x, y)

Theorem 9.1. Si F es una función de distribución acumulada de una variable bidimensional con función de

densidad conjunta f , entonces:

∂ 2F (x, y)

∂x∂y = f (x, y) (9.2)

dondequiera que F sea diferenciable.

Definition 9.7. Si F (x, y) es la función de distribución acumulada conjunta de X e Y , entonces F (x) y F (y)son las funciones de distribución acumulada marginales

Es importante hacer notar que el conocimiento de la función de acumulación conjunta de (X, Y ) implica el co-nocimiento de las distribuciones marginales.

F (x) = F (x,∞) (9.3)

y

33

Page 34: Probabilidades

7/17/2019 Probabilidades

http://slidepdf.com/reader/full/probabilidades-569139165cb4b 34/46

F (y) = F (∞, y) (9.4)

Theorem 9.2.F (x) + F (y) − 1 ≤ F (x, y) ≤

F (x)F (y) ∀x, y (9.5)

Definition 9.8. Si X e Y son variables aleatorias conjuntamente discretas, entonces f (x) y f (y) se les denomina funciones de densidad marginales discretas.

Con cada variable bidimensional (X, Y ), asociamos dos variables aleatorias unidimensionales, llamadas X e Y respectivamente. En algún momento podría ser de interés conocer la distribución de X o Y .

Para el caso discreto, puesto que X = xi debe ocurrir con varios valores de Y, tenemos que:

P (X = xi) = P (X = xi, Y = y1X = xi, Y = y2 . . . ) =∞j=1

p(xi, yj) (9.6)

La cual es la función marginal de X , mientras que la función marginal de Y es:

P (Y = yj) =

∞i=1

p(xi, yj) (9.7)

Definition 9.9. Si X e Y son variables aleatorias conjuntamente continuas, entonces f (x) y f (y) se les denomina funciones de densidad marginales continuas.

Las función de densidad de X es:

f (x) =

∞−∞

f (x, y)dy (9.8)

Mientras que la de Y es:

f (y) =

∞−∞

f (x, y)dx (9.9)

Al igual que las funciones de acumulación, el conocimiento de la distribución conjunta nos permite encontrarlas distribuciones marginales, pero no al revés.

34

Page 35: Probabilidades

7/17/2019 Probabilidades

http://slidepdf.com/reader/full/probabilidades-569139165cb4b 35/46

9.1. Distribuciones condicionales e independientes

Definition 9.10 (Función de densidad condicional discreta). Sean X e Y variables discretas conjuntas confunción de densidad f(x,y). Se define como función de densidad condicional discreta de Y dado X = x a losiguiente:

f (y|x) = f (x, y)

f (x) f (x) > 0 (9.10)

Similarmente:

f (x|y) = f (x, y)

f (y) f (y) > 0 (9.11)

Definition 9.11 (Función de distribución acumulada condicional discreta). Sean X e Y variables discretas con- juntas . Se define como función de acumulación condicional discreta de Y dado X = x a lo siguiente:

F (y|x) = P (Y ≤ y|X = x) f (x) > 0 (9.12)

Similarmente:

F (x|y) = P (X ≤ x|Y = y) f (y) > 0 (9.13)

No hay que perder de vista que:

F (y|x) =

j:yj≤y

f (yj |x) (9.14)

Definition 9.12 (Función de densidad condicional continua). Sean X e Y variables continuas conjuntas confunción de densidad f(x,y). Se define como función de densidad condicional continua de Y dado X = x a losiguiente:

f (y|x) = f (x, y)

f (x) f (x) > 0 (9.15)

Similarmente:

35

Page 36: Probabilidades

7/17/2019 Probabilidades

http://slidepdf.com/reader/full/probabilidades-569139165cb4b 36/46

f (x|y) = f (x, y)

f (y) f (y) > 0 (9.16)

Definition 9.13 (Función de distribución acumulada condicional continua). Sean X e Y variables conjuntascontinuas . Se define como función de acumulación condicional continua de Y dado X = x a lo siguiente:

F (y|x) =

y−∞

f (z|x)dz f (x) > 0 (9.17)

Similarmente:

F (y|x) =

x−∞

f (z|y)dz f (y) > 0 (9.18)

Definition 9.14. Dos variables X e Y que forman un vector aleatorio son independientes si:

Su distribución de acumulación conjunta es el producto de sus distribuciones de acumulación marginales

Su distribución de densidad conjunta es el producto de sus distribuciones de densidad marginales

Definition 9.15.

9.2. Ejercicios propuestos

a) Suponga que una variable aleatoria bidimensional (X,Y) se distribuye de manera uniforme en la regiónlimitada por las curvas y = x y y = x2

1) Encuentre la función de densidad conjunta de (X, Y )

2) Encuentre la función marginal de X

3) Encuentre la función marginal de Y

4) Grafique las funciones marginales

b) Suponga que una variable bidimensional (X, Y ) tiene la siguiente función de densidad:

f (x, y) = x2 + xy

3 0 ≤ x ≤ 1 0 ≤ y ≤ 2

1) Verifique que es una función de densidad

2) Sea B=X + Y < 1. Calcule la probabilidad de B3) Calcule P (Y < 12 |X < 1

2)

c) Suponga que la función de densidad conjunta de X e Y es:

f (x, y) = 3

16(4− 2x− y) x > 0 y > 0 2x + y < 4

36

Page 37: Probabilidades

7/17/2019 Probabilidades

http://slidepdf.com/reader/full/probabilidades-569139165cb4b 37/46

1) Determine la función de densidad condicional de Y dado X.

2) Calcule P(Y ≥ 2|X = 0,5)

9.3. Valor esperado

Definition 9.16 (Valor esperado). Sea (X 1, . . . , X k) una variable aleatoria k-dimensional con función de den-sidad f (x1, . . . , xk). El valor esperado de una función g(x1, . . . , xk) se define como:

E (g(X 1, . . . , X k)) =

g(x1, . . . , xk) · f (x1, . . . , xk) (9.19)

Si la variable aleatoria (X 1, . . . , X k) es discreta, siendo la suma sobre todos los valores posibles de (X 1, . . . , X k)y:

E (g(X 1, . . . , X k)) =

∞−∞

· · · ∞−∞

g(x1, . . . , xk) · f (x1, . . . , xk)dx1 . . . dxk (9.20)

Si la variable aleatoria (X 1, . . . , X k) es continua.

9.4. Esperanza condicional

Definition 9.17. Sean (X, Y ) una variable aleatoria bidimensional y g(x, y) una función de dos variables. Laesperanza condicional de g(X, Y ) dado X = x denotado por E (g(X, Y )|X = x) se define como:

E (g(X, Y )|X = x) =

∞−∞

g(x, y)f (y|x)dy (9.21)

Si la variable (X, Y ) es conjuntamente continua. Y:

E (g(X, Y )|X = x) =

g(x, yj)f (yj |x) (9.22)

Si la variable (X, Y ) es conjuntamente discreta, donde la suma es sobre todos los posibles valores de Y.

Theorem 9.3. Sea (X, Y ) una variable aleatoria bidimensional, entonces:

E (g(Y )) = E (E (g(Y )|X )) (9.23)

37

Page 38: Probabilidades

7/17/2019 Probabilidades

http://slidepdf.com/reader/full/probabilidades-569139165cb4b 38/46

En particular:

E (Y ) = E (E (Y |X )) (9.24)

Definition 9.18 (Varianza condicional). La varianza de Y dado X = x se define como:

V (Y |X = x) = E (Y 2 |X = x) − (E (Y |X = x))2 (9.25)

Theorem 9.4.V (Y ) = E (V (Y |X )) + V (E (Y |X )) (9.26)

Theorem 9.5. Sea (X, Y ) una variable aleatoria bidimensional y g1 y g2 funciones de una variable, entonces:

E (g1(Y ) + g2(Y )|X = x) = E (g1(Y )|X = x) + E (g2(Y )|X = x) (9.27)

E (g1(Y ) · g2(X )|X = x) = g2(x)E (g1(Y )|X = x) (9.28)

Theorem 9.6. Si X e Y son independientes y g1 , g2 son dos funciones de un sólo argumento, entonces:

E (g1(X ) · g2(Y )) = E (g1(X )) · E (g2(Y )) (9.29)

9.5. Momentos y función generadora de momentos conjunta

Definition 9.19 ( Momentos conjuntos). Los momentos conjuntos de X 1, X 2, . . . , X k se define como:

E (X r11 X r22 · · ·X rkk ) (9.30)

donde las ri ’s son cero o cualquier entero positivo.

Los momentos conjuntos alrededor de las medias se define como:

38

Page 39: Probabilidades

7/17/2019 Probabilidades

http://slidepdf.com/reader/full/probabilidades-569139165cb4b 39/46

E ((X 1 − µX1)r1 · · · (X k −µXk)rk) (9.31)

Definition 9.20 (Función generadora de momentos conjunta). La función generadora de momentos conjunta de(X 1, . . . , X k) se define como:

m(t1, . . . , tk) = E (expk

j=1

tjX j) (9.32)

Si el valor esperado existe.

Theorem 9.7. Dos variables aleatorias conjuntamente distribuidas X e Y son independientes si y sólo si:

m(t1, t2) = m(t1) · m(t2) (9.33)

Definition 9.21. Sean X e Y cualesquiera dos variables aleatorias definidas en el mismo espacio. Se define lacovarianza de X e Y como:

cov(X, Y ) = σX,Y = E ((X −E (X ))(Y − E (Y ))) (9.34)

De esta definición se deduce el siguiente resultado:

cov(X, Y ) = σX,Y = E (X ·Y ) − E (X ) · E (Y ) (9.35)

Definition 9.22. Se define el coeficiente de correlación de las variables X e Y como:

ρX,Y = σX,Y

σX · σY (9.36)

Theorem 9.8. Si X e Y son independientes entonces cov(X, Y ) = 0.

Definition 9.23. Las variables X e Y se dice que no son correlacionadas si y sólo si Cox(X, Y ) = 0

Observación: cov(X,Y)=0 no siempre implica que X e Y sean independientes

39

Page 40: Probabilidades

7/17/2019 Probabilidades

http://slidepdf.com/reader/full/probabilidades-569139165cb4b 40/46

9.6. Ejercicios propuestos

a) Dada la siguiente función de densidad conjunta:

18

(6 − x− y) 0 < x < 2 2 < x < 4

1) Encontrar E(Y|X=x)2) Encontrar V(Y|X=x)3) Mostrar que E(Y) = E(E(Y|X))

b) Supóngase que X tiene una distribución uniforme en el intervalo (−2, 2) y que Y = X 6. ¿Las variables seencontrarán correlacionadas?

9.7. Sumas de variables aleatorias

En muchas situaciones resulta de interés conocer el comportamiento de la suma de variables aleatorias. A conti-nuación se mostrará una serie de resultados que será importante tener presente.

Theorem 9.9. Para variables aleatorias X 1, . . . , X n

E (

ni=1

X i) =

ni=1

E (X i) (9.37)

y

V ar(

ni=1

X i) =

ni=1

V ar(X i) + 2

i<j

Cov(X i, X j) (9.38)

Theorem 9.10. Si X 1, . . . , X n son variables no correlacionadas entonces:

V ar(n

i=1

X i) =n

i=1

V ar(X i) (9.39)

Theorem 9.11. Sean X 1, . . . , X n y Y 1, . . . , Y m , dos conjuntos de variables aleatorias y sean a1, . . . , an y

b1, . . . , bm dos conjuntos de constantes, entonces:

Cov(n

i=1

aiX i,mj=1

bjY j) =n

i=1

mj=1

aibjCov(X i, Y j) (9.40)

40

Page 41: Probabilidades

7/17/2019 Probabilidades

http://slidepdf.com/reader/full/probabilidades-569139165cb4b 41/46

Theorem 9.12. Si X 1, . . . , X n es un conjunto de variables aleatorias y a1, . . . , an es un conjunto de constantes,

entonces:

V ar(n

i=1

aiX i) =n

i=1

a2i V ar(X i) +

i=j

aiajCov(X i, X j) (9.41)

Theorem 9.13. Si X 1, . . . , X n es un conjunto de variables aleatorias independientes e identicamente distribui-

das con media µX y varianza σ2X y si

X n =

ni=1 X i

n

Entonces:

E (X n) = µX (9.42)

y

V ar(X n) = σ2

X

n (9.43)

Theorem 9.14. Sean X e Y dos variables aleatorias para las cuales V ar(X ·Y ) existe. Entonces:

E (XY ) = µX · µY + Cov(X, Y ) (9.44)

Además:

V ar(XY ) = µ2Y V ar(X ) + µ2

XV ar(Y ) + 2µXµY Cov(X, Y )

−(Cov(X, Y ))2 + E ((X

−µX)2(Y

−µY )

2) +

2µY E ((X −µX)2(Y − µY )) + 2µXE ((X −µX)(Y − µY )2)

Theorem 9.15. Si X e Y son variables aleatorias independientes entonces:

E (XY ) = µX · µY (9.45)

41

Page 42: Probabilidades

7/17/2019 Probabilidades

http://slidepdf.com/reader/full/probabilidades-569139165cb4b 42/46

y

V ar(XY ) = µ2Y V ar(X ) + µ2

XV ar(Y ) + V ar(X )V ar(Y ) (9.46)

Theorem 9.16.

E (X

Y ) ≈ µX

µY

− C ov(X, Y )

µ2Y

+ µX

µ3Y

V ar(Y ) (9.47)

y

V ar(X

Y ) ≈ (

µX

µY

)2 · (V ar(X )

µ2X

+ V ar(Y )

µ2Y

− 2Cov(X, Y )

µXµY

) (9.48)

10. Distribución de funciones de variables aleatorias

En ocasiones dado que se t iene conocimiento de un conjunto X 1, . . . , X n de variables aleatorias, se desea obte-

ner la distribución conjunta de Y 1, . . . , Y n donde Y i = gi(X 1, . . . , X n). Para lograr este objetivo las siguientes

técnicas son de utilidad:

Método de la función de distribución acumulativa

Método de la función generadora de momentos

Método de transformación

A continuación se describirá brevemente cada una de las técnicas:

10.1. Método de la función de distribución acumulativa

Dado un conjunto de variables aleatoriasX 1, . . . , X n se busca determinar la distribución conjunta deY 1, . . . , Y kdonde Y i = gi(X 1, . . . , X n) i = 1, . . . , k obteniendo la función acumulativa de Y 1, . . . , Y k.

Esto es:

F Y 1,...,Y k(y1, . . . , yk) = P (Y 1 ≤ y1, . . . , Y k ≤ yk)

Dado que el evento Y 1 ≤ y1, . . . , Y k ≤ yk es equivalente a g1(X 1, . . . , X n) ≤ y1, . . . , gk(X 1, . . . , X n) ≤yk tenemos que:

F Y 1,...,Y k(y1, . . . , yk) = P (g1(X 1, . . . , X n) ≤ y1, . . . , gk(X 1, . . . , X n) ≤ yk)

42

Page 43: Probabilidades

7/17/2019 Probabilidades

http://slidepdf.com/reader/full/probabilidades-569139165cb4b 43/46

10.2. Ejemplos

Sea X una variable aleatoria con distribución Normal con media 0 y varianza 1. Además sea Y = X 2. ¿Cómo

se distribuye Y?

Solución:

F Y (y) = P (Y ≤ y)

= P(X 2 ≤ y)

= P(-√

y ≤ X ≤ √ y)

= 2 √ y

01√ 2π

e−x2

2 dx

= 2 y0

1√ 2π

12√ u

e−u2

2 du

= y0 ( 1

2)12 · u

12−1

Γ( 12 ) · e

−u2

2 du

La cual es una distribución Gamma con parámetros r y λ = 12

Sean X 1, . . . , X n variables aleatorias. Sea Y = max(X 1, . . . , X n. ¿Cuál es la distribución del máximo?

Solución:

Se desea encontrar P (Y ≤ y). Si el máximo de X 1, . . . , X n es menor igual a y entonces debe ser cierto queX 1 ≤ y , . . . , X n ≤ y. Así:

F Y (y) = P (Y ≤ y) = P (X 1 ≤ y, X 2 ≤ y , . . . , X n ≤ y)

Si además X 1, . . . , X n fueran independientes entonces:

F Y (y) =

ni=1

P (X i ≤ y) =

ni=1

F Xi(y)

Y finalmente si X 1, . . . , X n tuvieran la misma distribución:

F Y (y) = (F X(y))n

43

Page 44: Probabilidades

7/17/2019 Probabilidades

http://slidepdf.com/reader/full/probabilidades-569139165cb4b 44/46

y

f Y (y) = n(F X(y))n−1f X(y)

Sean X 1, . . . , X n variables aleatorias. Sea Y = min(X 1, . . . , X n. ¿Cuál es la distribución del mínimo?

Solución:

De manera análoga que el anterior ejemplo queremos encontrar P (Y ≤ y) = 1 − P (Y > y). Si el mínimo deX 1, . . . , X n es mayor a y entonces debe ser cierto que X 1 > y, . . . , X n > y. Así:

F Y (y) = P (Y ≤ y) = 1 − P (X 1 > y, X 2 > y, . . . , X n > y)

Si además X 1, . . . , X n fueran independientes entonces:

F Y (y) = 1 −n

i=1

P (X i > y) = 1 −n

i=1

(1 − F Xi(y))

Y finalmente si X 1, . . . , X n tuvieran la misma distribución:

F Y (y) = 1 − (1− F X(y))n

y

f Y (y) = n(1 − F X(y))n−1f X(y)

10.3. Ejercicios propuestos

a) Las variables X 1, . . . , X n representan el ingreso de n contribuyentes seleccionados aleatoriamente. Asu-miendo independencia y la siguiente función de densidad:

44

Page 45: Probabilidades

7/17/2019 Probabilidades

http://slidepdf.com/reader/full/probabilidades-569139165cb4b 45/46

θxθ0

xθ+1 x > x0

Encuentre la función de densidad del mínimo de los ingresos, asumiendo θ = 100 y x0 =4000.

b) Sea Y el número de cierto tipo de accidente al tiempo t. Asumiendo una distribución Poisson con parámetro β ·t, dondeβ > 0 es la intensidad de frecuencia de siniestros. ¿Cuál sería la distribución del tiempo del primer accidente? ¿Cuálsería la distribución del tiempo del k-ésimo accidente?

10.4. Técnica de la función generadora de momentos

Dado un conjunto de variables aleatorias X 1, . . . , X n se busca determinar la distribución conjunta de Y 1, . . . , Y kdonde Y i = gi(X 1, . . . , X n) i = 1, . . . , k por medio de la función generadora de momentos:

mY 1,...,Y k(t1, . . . , tk) = E (exp(

ki=1

tiY i)

Theorem 10.1. Si X 1, . . . , X n son variables aleatorias independientes e identicamente distribuidas y si Y =ni=1 X i ; entonces:

mY (t) =n

i=1

mXi(t) (10.1)

10.5. Ejercicios propuestos

a) Sean X 1, . . . , X n son variables aleatorias independientes e identicamente distribuidas. Encuentre la fun-ción de densidad de Y =

ni=1 X i cuando:

1) X i tiene una distribución Bernoulli

2) X i tiene una distribución Poisson3) X i tiene una distribución Exponencial

b) Un sistema funciona mientras se encuentre con vida al menos uno de sus tres componentes. Cuando los trescomponentes funcionan el tiempo de vida de cada uno tiene una distribución exponencial con parámetro λ

3

.Cuando falla alguno, la distribución de cada uno de los restantes es exponencial con parámetro λ

2 . Cuandosólo queda uno su distribución es una exponencial con parámetro λ¿Cuál es la distribución del tiempo de vida del sistema?

c) El monto de pérdidas acumuladas en cierto período de una cuenta tiene la siguiente forma:

45

Page 46: Probabilidades

7/17/2019 Probabilidades

http://slidepdf.com/reader/full/probabilidades-569139165cb4b 46/46

S N =

N i=1

X i

Donde X i es el monto del siniestro i-ésimo y N es una variable aleatoria que representa el número de si-niestros ocurridos. Asumiendo independencia entre N y las X’s

1) Determine el valor esperado y la varianza de S N

2) Suponiendo para N una distribución geométrica con parámetro p y para X una distribución exponen-cial con parámetro λ determine como se distribuye S N

11. Bibliografía

Mood, Graybill, Boes. Introduction to the theory of statistics. McGraw-Hill.

Meyer,Paul L. Introductory Probability and statistical applications. Addison-Wesley.

Morris H. DeGroot. Probability and Statistics. Addison-Wesley.