Índice - educontinua.fciencias.unam.mxeducontinua.fciencias.unam.mx/nuevapres/cursos/... · es...

46
Índice 1. Introducción 3 1.1. Antecedentes ............................................... 3 1.1.1. Girolamo Cardano y Niccolo Tartaglia .............................. 4 1.1.2. Galileo Galilei .......................................... 5 1.1.3. Blaise Pascal y Pierre Defermat ................................. 5 1.1.4. Primeras definiciones de probabilidad .............................. 6 1.2. Enfoques de probabilidad ......................................... 7 2. Repaso de teoría de conjuntos 7 2.1. Operaciones con conjuntos ........................................ 8 2.2. Propiedades ................................................ 8 2.3. Ejercicios propuestos ........................................... 9 3. Nociones de probabilidad 10 4. Espacios muestrales finitos 11 4.1. Problemas ................................................. 11 4.2. Técnicas de conteo ............................................ 12 4.2.1. Principios de conteo ....................................... 12 4.2.2. Permutaciones .......................................... 12 4.2.3. Pruebas ordenadas ........................................ 13 4.2.4. Combinaciones .......................................... 13 4.2.5. Permutaciones cuando no todos los objetos son diferentes ................... 13 4.2.6. Ejemplos ............................................. 14 4.2.7. Problemas propuestos ...................................... 14 5. Probabilidad condicional 15 5.1. Propiedades de la probabilidad condicional ............................... 16 5.2. Eventos independientes .......................................... 17 5.3. Ejemplos ................................................. 17 5.4. Ejercicios propuestos ........................................... 19 6. Variables aleatorias 19 6.1. Problemas propuestos ........................................... 21 6.2. Valor esperado .............................................. 21 6.2.1. Propiedades del valor esperado .................................. 22 6.3. Varianza .................................................. 22 6.3.1. Propiedades de la Varianza .................................... 22 6.4. Desigualdad de Tchebyshev ....................................... 22 6.5. Ley de los grandes números ....................................... 22 6.6. Función generadora de momentos .................................... 23 6.7. Ejercicios propuestos ........................................... 24 7. Importantes funciones de distribución discreta 25 7.1. Ejercicios propuestos ........................................... 27 8. Importantes funciones de distribución continua 28 8.1. Ejercicios propuestos ........................................... 31 1

Upload: ngobao

Post on 04-Oct-2018

216 views

Category:

Documents


0 download

TRANSCRIPT

Índice1. Introducción 3

1.1. Antecedentes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31.1.1. Girolamo Cardano y Niccolo Tartaglia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41.1.2. Galileo Galilei . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51.1.3. Blaise Pascal y Pierre Defermat . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51.1.4. Primeras definiciones de probabilidad . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6

1.2. Enfoques de probabilidad . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7

2. Repaso de teoría de conjuntos 72.1. Operaciones con conjuntos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 82.2. Propiedades . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 82.3. Ejercicios propuestos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9

3. Nociones de probabilidad 10

4. Espacios muestrales finitos 114.1. Problemas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 114.2. Técnicas de conteo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12

4.2.1. Principios de conteo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 124.2.2. Permutaciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 124.2.3. Pruebas ordenadas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 134.2.4. Combinaciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 134.2.5. Permutaciones cuando no todos los objetos son diferentes . . . . . . . . . . . . . . . . . . . 134.2.6. Ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 144.2.7. Problemas propuestos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14

5. Probabilidad condicional 155.1. Propiedades de la probabilidad condicional . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 165.2. Eventos independientes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 175.3. Ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 175.4. Ejercicios propuestos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19

6. Variables aleatorias 196.1. Problemas propuestos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 216.2. Valor esperado . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21

6.2.1. Propiedades del valor esperado . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 226.3. Varianza . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22

6.3.1. Propiedades de la Varianza . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 226.4. Desigualdad de Tchebyshev . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 226.5. Ley de los grandes números . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 226.6. Función generadora de momentos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 236.7. Ejercicios propuestos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24

7. Importantes funciones de distribución discreta 257.1. Ejercicios propuestos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27

8. Importantes funciones de distribución continua 288.1. Ejercicios propuestos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31

1

9. Variables aleatorias bidimensionales 329.1. Distribuciones condicionales e independientes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 359.2. Ejercicios propuestos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 369.3. Valor esperado . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 379.4. Esperanza condicional . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 379.5. Momentos y función generadora de momentos conjunta . . . . . . . . . . . . . . . . . . . . . . . . . 389.6. Ejercicios propuestos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 409.7. Sumas de variables aleatorias . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40

10. Distribución de funciones de variables aleatorias 4210.1. Método de la función de distribución acumulativa . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4210.2. Ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4310.3. Ejercicios propuestos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4410.4. Técnica de la función generadora de momentos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4510.5. Ejercicios propuestos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45

2

Curso de Probabilidad básica

Manuel García Minjares *

10 de noviembre de 2009

1. IntroducciónPosiblemente a lo largo de su desempeño profesional se ha topado con situaciones donde sea importante aplicar

un modelo matemático que intente explicar dicho fenómeno. Es deseable que este modelo proporcione la mayor infor-mación de la forma más simple, por lo que es frecuente permitir la omisión de ciertos detalles, los cuales, en la medidaque su nivel de influencia no sea importante en el resultado, el modelo garantizará su éxito.

A los modelos que estipulan las condiciones que deben observarse para la ocurrencia de un resultado se les deno-mina emphdeterminísticos. Por ejemplo, la velocidad que debe desarrollar un atleta para recorrer 100 metros planos en9 segundos puede determinarse a través de la relación:

V elocidad =distancia

tiempo

Sin embargo, existen fenómenos donde un modelo determinístico no resulta ser el adecuado para su estudio, ya quese observan resultados distintos a pesar de existir las mismas condiciones. A los modelos que intentan determinar losposibles resultados de un experimento dadas ciertas condiciones se les denomina no determinísticos o probabilísticos.Un ejemplo de este tipo de situaciones podría ser la reacción de ciertos pacientes hacia cierta droga. En otras palabras,en este tipo de fenómenos, más que buscar un resultado se pretende encontrar una distribución de resultados.

Los tópicos a abordar a lo largo de este módulo permitirán que se familiarice con modelos probabilísticos básicos,los cuales le permitirán explicar situaciones que pudieran presentarse tanto en su vida cotidiana como profesional.Antes de seguir adelante es necesario detenerse un poco acerca de los enfoques en que se maneja la teoría de probabi-lidades.

1.1. AntecedentesDefinition 1.1. La probabilidad es la parte de las matemáticas que trata de manejar con números la incertidumbre.

La probabilidad matemática tiene sus orígenes en los juegos de azar, principalmente los juegos con dados y cartas,muy populares desde tiempos antiguos. Los primeros estudios científicos sobre fenómenos aleatorios se centraban endos problemas:

*Consultor y académico de la UNAM.

3

1. Contabilizar el número de posibles resultados de lanzar un dado varias veces.

2. Distribuir las ganancias entre jugadores cuando el juego se interrumpía antes de finalizar, conocido como elpro-blema del reparto de apuestas.

Una respuesta al primer problema se puede encontrar en el poema De Vetula, de Richard de Fournival (1200 1250),donde afirma correctamente que si se lanzan tres dados hay 216 combinaciones posibles y calcula correctamente losdiferentes valores para la suma de los tres dados. Aunque ahora puede parecer una cuestión trivial, en aquella época nolo era, y otros autores erraron al intentar resolverla, generalmente porque no tenían en cuenta las posibles permutacio-nes de una misma combinación.

El segundo problema fue abordado por Luca Pacioli (14451517), quien en 1487 propuso estos dos similares pro-blemas particulares: un juego en el que el premio es de 22 ducados que consiste en alcanzar 60 puntos se interrumpecuando un equipo lleva 50 puntos y el otro 30; y tres arqueros que compiten por un premio de 6 ducados lanzan flechashasta que uno de ellos haga 6 dianas, siendo interrumpidos cuando el primero de ellos lleva 4 dianas, el segundo 3 yel tercero 2. ¿Cómo deben repartirse los premios entre los contendientes? Pacioli propuso que el premio debería serrepartido en función de las victorias obtenidas anteriormente: así, el premio del primer problema se dividía en (60)(5)

8

ducados para el primer equipo y en (60)(3)8 para el segundo; para el problema de los arqueros, el premio se dividía en

la proporción 49 , 3

9 y 29 . Como más tarde se pondría de manifiesto, esta solución es incorrecta.

1.1.1. Girolamo Cardano y Niccolo Tartaglia

La primera obra importante relacionada con el cálculo de probabilidades en juegos de azar fue el Libro de los Juegosde Azar, de Girolamo Cardano (15011576), escrito en 1565, aunque no publicado hasta 1663. Cardano era un jugadorempedernido y su obra es más bien un manual para jugadores; contiene descripciones de juegos y las precauciones atomar para que los rivales no hagan trampas, y sólo una pequeña parte está dedicada al estudio del azar: problemastales como calcular todos los resultados posibles al lanzar dos o tres dados y las frecuencias con que aparecían, hallarla probabilidad de que al lanzar un dado una serie de veces salga un determinado número al menos una vez, o calcularlas frecuencias de los valores de la suma de las caras de una tirada de dos dados.

En la resolución de estos problemas, Cardano trabajó con los conceptos de la definición clásica de la probabilidad,aunque no los definió. En concreto,Cardano introdujo la idea de asignar una probabilidad p entre 0 y 1 a un suceso cuyoresultado se desconoce, considerando el número total de resultados y el número de resultados favorables, y esbozó deuna forma rudimentaria lo que ahora se conoce como la ley de los grandes números, al afirmar que si la probabilidad deun suceso es p, después de un número n grande de repeticiones lo más razonable es apostar a que ocurrirá alrededor denp veces. Sin embargo, Cardano no alcanzó a reconocer la importancia teórica de estos conceptos, ya que considerabaestas relaciones como meramente aritméticas, más que como una medida de la posibilidad de ocurrencia de una sucesoaleatorio. Cardano se había ocupado previamente del problema del reparto de apuestas. En 1539 escribió que la solu-ciónde Pacioli era incorrecta porque al considerar tan sólo el número de juegos ganados por cada equipo, no contabacuántos juegos debían ganar para hacerse con el premio; como solución propuso que si n es el número de juegos totalesy a y b los juegos ganados por cada equipo, el premio debía repartirse de la siguiente manera:

(1 + 2 + +(n− b)) : (1 + 2 + (n− a))

Esta solución es, en general, incorrecta y sólo da resultados válidos en casos particulares.

El problema del reparto de apuestas también fue abordado por Niccolo Tartaglia (14991557), quien en 1556 pu-blicó un libro sobre aritmética en el que criticaba la solución dada por Pacioli (Si un bando ha ganado 10 puntos y el

4

otro ninguno, entonces todo elpremio sería para el primer jugador, pero esto no tiene ningún sentido) y dio su propiasolución: si un equipo ha ganado a puntos y el otro b, se juega a n puntos y el premio total es P, las ganancias deberíanrepartirse de la forma:

P

2± P (a− b)

n

siendo la cantidad mayor para el equipo que tenga más victorias. Sin embargo, Tartaglia fue consciente de que susolución no era la correcta y le dio un carácter más jurisdiccional que matemático.

1.1.2. Galileo Galilei

Galileo Galilei (15641642) también se dedicó a resolver problemas sobre dados. Su obra Sobre la PuntuaciónenTiradas de Dados calculaba el número de resultados posibles tirando tres dados. A pesar de que ya se sabía desdemucho tiempo antes que hay 216 posibilidades diferentes, Galileo fue el primero que llegó a esta conclusión a travésdel simple cálculo 216 = 63. Luego atacaba el problema de calcular de cuántas maneras diferentes se puede lograrcada una de las puntuaciones entre 3 y 18. Para hacer esto, Galileo numeró los dados primero, segundo, tercero y fueconsiderando cada una de las combinaciones de los tres dados que sumaban una determinada cantidad, pero sólo entre3 y 10. Galileo encontró que sólo hay una manera de obtener tres puntuaciones iguales, tres maneras de obtener dospuntuaciones iguales y otra diferente, y seis maneras de obtener tres puntuaciones diferentes. Su conclusión fue quees preferible apostar por el 10 antes que por el 9 porque el 10 se puede obtener de 27 maneras por 25 del 9. El restode posibilidades se obtenían sin cálculos, directamente por simetría: 18 igual que 3, 17 igual que 4, etc. A pesar de lasimplicidad del problema, Galileo reconoció que quedó exhausto. Sin embargo, la principal contribución de Galileo ala teoría de la probabilidad fue la creación de la teoría de la medida de errores. Según Galileo, los errores de medidason inevitables y los clasificó en dos tipos:

Los errores sistemáticos debidos a los métodos y las herramientas de medida.

Los errores aleatorios, que varían impredeciblementede una medida a otra.

Esta clasificación sigue en vigor actualmente.

Galileo fue muy cuidadoso al analizar las propiedades de los errores aleatorios y estableció que son más frecuenteslos errores pequeños que los grandes; que los errores por defecto son tan frecuentes como los errores por exceso; y quela mayoría de las mediciones se agrupan alrededor del verdadero valor. Con estas ideas, Galileo no sólo contribuyó aldesarrollo de la teoría de la probabilidad, sino que pusol as bases para el nacimiento de la estadística.

1.1.3. Blaise Pascal y Pierre Defermat

El desarrollo de la teoría de la probabilidad experimentó un gran avance en Francia a mediados del siglo XVIIcon la correspondencia que mantuvieron Blaise Pascal (16231662) y Pierre de Fermat (1601 − 1665) durante 1654,Blas Pascal, hacía un viaje en compañía de un jugador más o menos profesional: el caballero de Méré. Éste le propusoentonces un problema que a Pascal le interesó bastante, y sin que ninguno de los dos lo supiera, era esencialmente elmismo problema que había interesado tanto a Pacioli, Cardano y Tartaglia un siglo antes.

Ésta es una versión del problema: Dos jugadores, Antonio y Bernardo, ponen sobre la mesa 10,000 monedas cadauno. Un árbitro va a tirar un dado varias veces seguidas. Cada uno de los jugadores va a elegir un número entre el 1y el 6. Antonio elige el 5 y Bernardo el 3. Se llevará las 20,000 monedas aquél cuyo número salga primero tres veces.

5

Resulta que después de unas cuantas tiradas el 5 ha salido dos veces y el 3 sólo ha salido una vez. En este momentoBernardo recibe un mensaje por el que debe abandonar necesariamente la partida. ¿Cómo repartir de modo justo yequitativo las 20,000 monedas?

Pascal y Fermat resolvieron correctamente el problema por medios diferentes pero equivalentes,aunque el desco-nocimiento de la teoría general les hizo pensar que no lo eran. El acierto de ambos consistió en darse cuenta de que elreparto de las apuestas debe hacerse en función de la probabilidad de ganar que tuviese cada jugador en el momentode interrumpirse el juego. Para hallar la solución correcta se valieron de una riguroso metodología desconocida hastaentonces; sin embargo, Pascal falló en su intento de extender el procedimiento al caso en que hubiera tres omás juga-dores. Once años más tarde, en 1665, Pascal publicaba su Tratado sobre el Triángulo Aritmético, la más importantecontribución realizada hasta entonces en el campo de la combinatoria. El libro comienza con la construcción de loquese dio en llamar el triángulo de Pascal, aunque era conocido desde hacía más de 500 años en diversas partes delmundo.

1.1.4. Primeras definiciones de probabilidad

Sólo cuando los fenómenos aleatorios dejaron de enfocarse como casos particulares y se intentó ver los conceptosgenerales que había detrás de ellos, las nociones de probabilidad mejoraron en su definición. El primero en dar ladefinición clásica de probabilidad fue Jakob Bernoulli (16541705) en su obra El Arte de Predecir publicada póstuma-mente en 1713, muy influenciado por los trabajos de Graunt y Petty, que habían demostrado las ventajas de incluir ensus tablas no sólo los números absolutos, sino también las proporciones respecto del total. Más adelante, el matemáticofrancés exiliado en Inglaterra Abraham De Moivre (16671754) aceptó la definición dada por Bernoulli y la reformulóen términos modernos: una fracción en la que el numerador es igual al número de apariciones del suceso y el de-nominador es igual al número total de casos en los que es suceso pueda o no pueda ocurrir. Tal fracción expresa laprobabilidad de que ocurra el suceso.

La definición clásica de la probabilidad, en su forma actual, está basada en el concepto de equiprobabilidad delos resultados, basado a su vez en la simetría. Se supone que un experimento se puede descomponer en n sucesosequiprobables y mutuamente excluyentes E1, . . . , En, llamados sucesos elementales. Así, la probabilidad de un suce-so aleatorio A es un número dentro del intervalo [0,1] que expresa el cociente entre los m sucesos elementales quecomponen A y el número total n de posibles sucesos elementales.

El principal escollo que encuentra esta interpretación de la probabilidad es la dificultad de descomponer un su-ceso en sucesos elementales equiprobables; siendo fácil para problemas sencillos, como los de cartas, dados o urnas,pero casi imposible para problemas más complejos. Basándose en los trabajos de Graunt y Petty, Bernoulli resolvióincluso la cuestión de cómo hallar la probabilidad de ocurrencia de un suceso aun siendo imposible contar los casosfavorables: Aquí hay otro camino disponible para alcanzar el resultado deseado. Lo que no se puede hallar a priori sepuede obtener a posteriori, es decir, mediante la observación múltiple de los resultados de pruebas similares De estamanera, Bernoulli introdujo el concepto de probabilidad frecuentista o estadística que asigna como probabilidad deun suceso el resultado que se obtendría si el proceso se repitiera en condiciones similares un número grande de veces.Sin embargo, estas condiciones son demasiado vagas para servir como base para una definición científica rigurosa. Enprimer lugar, se menciona un número grande de veces, pero no se da ninguna indicación sobre cuál es ese número losuficientemente grande; no se describe con precisión qué se entiende por condiciones similares ni tampoco se espe-cifica cuál es la máxima desviación admitida respecto del resultado teórico; además, sigue habiendo sucesos que nopueden plantearse suponiendo la posibilidad de repetirlos muchas veces. Precisamente, fueron la necesidad de precisarqué se entiende por un número grande de repeticiones del experimento y la tolerancia del resultado obtenido respec-to del teórico, lo que llevaron a Jakob Bernoulli a idear, en su forma más intuitiva y básica la Ley de los grandes números

6

1.2. Enfoques de probabilidadComo se mencionó durante la sección anterior, la teoría de probabilidades estuvo en sus inicios asociada a los

juegos de azar, lo cual provocó el desarrollo de la definición clásica de probabilidad.

Definition 1.2 (Definición clásica). Si un experimento aleatorio tiene n resultados mutuamente excluyentes y con lamisma posibilidad de ocurrir y si nA de estos resultados tienen un atributo A, entonces la probabilidad de A es lafracción nA

n .

Las probabilidades determinadas por la definición clásica se le denominan probabilidades a priori.

Es importante mencionar que la aplicación de esta definición se encuentra condicionada en principio a contar conun número de posibilidades que puedan ser enumeradas, sean mutuamente excluyentes y tengan la misma posibilidadde ocurrencia, lo cual en muchas ocasiones no se presenta.

La alternativa de solución es por medio del enfoque frecuentista el cual consiste en asignar la probabilidad a pos-teriori después de observar n experimentos, lo cual a medida que n aumenta, la fracción nA

n se acerca al valor de laprobabilidad de A.

2. Repaso de teoría de conjuntosCon el fin de discutir los conceptos básicos del modelo probabilística a desarrollar, será conveniente tener presentes

algunas ideas y conceptos de la teoría de conjuntos. Este tema sin duda es muy amplio y se ha escrito mucho acerca deél. Sin embargo, solamente recordaremos algunas nociones básicas.

El término conjunto juega un papel fundamental en el desarrollo de las matemáticas modernas; además de propor-cionar las bases para comprender con mayor claridad algunos aspectos de la teoría de la probabilidad. Su origen sedebe al matemático alemán George Cantor (1845 - 1918).

Definition 2.1. Un conjunto es una colección de objetos con características bien definidas que lo hacen pertenecer aél.

Para que exista un conjunto debe observarse lo siguiente:

La colección de elementos debe estar bien definida.

Ningún elemento del conjunto se debe contar más de una vez, generalmente, estos elementos deben ser diferen-tes, si uno de ellos se repite se contará sólo una vez.

A los conjuntos se les representa con letras mayúsculas A,B,C, . . . y a los elementos con letras minúsculas a,b, c, . . .

Un conjunto puede expresarse de las siguientes formas:

Anotando los elementos del conjunto. Por ejemplo A = a, e, i, o, u

Por medio de una regla que deben cumplir sus elementos. Por ejemplo A = x | x es una vocal

Definition 2.2 (Conjunto Universal). El conjunto universal es la colección de TODOS los objetos a considerar. Habi-tualmente se expresa con la letra Ω

7

Definition 2.3 (Subconjunto). Se dice que A es un subconjunto de B si todo elemento de A es también un elementodel conjunto B.

Lo anterior se expresa como A ⊂ B o B ⊃ A y se lee como A está contenido en B o B contiene a A

Definition 2.4 (Conjuntos equivalentes). Dos conjuntos A y B son equivalentes si A ⊂ B y B ⊂ A, lo anterior seexpresará como A = B

Definition 2.5 (Conjunto vacío). Si un conjunto A no contiene puntos se le denominará conjunto vacío y se denotarácomo ∅.

Definition 2.6 (Complemento). El complemento de un conjunto A respecto a Ω, son todos los elementos que están enΩ pero no en A. Se denotará como A’

Definition 2.7 (Cardinalidad). La cardinalidad de un conjunto A es el número de elementos que contiene. Se denotarácomo # A

2.1. Operaciones con conjuntosDefinition 2.8 (Unión). Sean A y B dos conjuntos de Ω, se define la unión de A y B como la colección de puntos queestán en A ó que están en B ó en ambos. Se denota como A ∪B.

Definition 2.9 (Intersección). Sean A y B dos conjuntos de Ω, se define la intersección de A y B como la colección depuntos que están en A y que están en B. Se denota como A ∩B.

Definition 2.10 (Diferencia de conjuntos). Sean A y B dos conjuntos de Ω, se define la diferencia de A con B como lacolección de puntos que están en A y que no están en B. Se denota como (A−B).

Definition 2.11 (Producto cartesiano). Sean A con #A = nA y B con #B = nB , dos conjuntos de Ω, se define elproducto cartesiano de A con B como la colección de (nA)(nB) pares de puntos (a,b) donde a ∈ A y b ∈ B. Sedenota como A×B.

2.2. PropiedadesTheorem 2.1 (Ley conmutativa). A ∪B = B ∪A y A ∩B = B ∩A.

Theorem 2.2 (Ley asociativa). A ∪ (B ∪C) = (A ∪B) ∪C y A ∩ (B ∩C) = (A ∩B) ∩C

Theorem 2.3 (Ley distributiva). A ∩ (B ∪C) = (A ∩B) ∪ (A ∩C) y A ∪ (B ∩C) = (A ∪B) ∩ (A ∪C)

Theorem 2.4. (A′)′ = A.

Theorem 2.5. A ∩ Ω = A; A ∪ Ω = Ω; A ∩ ∅ = ∅; A ∪ ∅ = A

Theorem 2.6. A ∩A′ = ∅; A ∪A′ = Ω; A ∩A = A; A ∪A = A

Theorem 2.7 (Leyes de De Morgan). (A ∪B)′ = A′ ∩B′; (A ∩B)′ = A′ ∪B′

Theorem 2.8. A−B = A ∩B′

Definition 2.12 (Conjuntos mutuamente excluyentes). Sean A y B dos conjuntos de Ω, se dice que A y B son disjuntoso mutuamente excluyentes si A∩B = ∅. Los conjuntos A1,A2, . . . son mutuamente excluyentes si Ai ∩Aj = ∅ parai 6= j

Theorem 2.9. A = (A ∩B) ∪ (A ∩B′) ; (A ∩B) ∩ (A ∩B′) = ∅

Theorem 2.10. Si A ⊂ B, entonces A ∩B = A, y (A ∪B) = B

8

2.3. Ejercicios propuestos1. ¿Cuáles de las siguientes relaciones son verdaderas?

a) (A ∪B) ∩ (A ∪ C) = A ∪ (B ∩ C)

b) (A ∪B) = (A ∩B′) ∪Bc) (A′ ∩B) = (A ∪B)

d) (A ∪B)′ ∩ C = A′ ∩B′ ∩ C ′

2. Utilice diagramas de Venn para establecer las siguientes relaciones:

a) A ⊂ B y B ∈ C implican que A ⊂ Cb) A ⊂ B implica que A = A ∩Bc) A ⊂ B implica B′ ⊂ A′

d) A ⊂ B implica que (A ∪ C) ∈ (B ∪ C)

3. En una encuesta de 1,000 personas, 600 leen por lo menos el periódico Reforma y 370 leen por lo menos elExcelsior. Además 150 leen los 2 periódicos.

a) ¿Cual es el N° de personas que leen por lo menos uno de los 2 periódicos?

b) ¿Cuántos leen un solo periódico?

c) ¿Cuántos no leen ningún periódico?

d) Interpretar resultados.

4. En una encuesta sobre 3 sabores de refrescos se entrevistaron a 2400 personas con los siguientes resultados:

1257 toman refrescos de cola (no exclusivamente).

996 toman refrescos de toronja (no exclusivamente).

939 toman refrescos de naranja (no exclusivamente).

204 toman refrescos de toronja y naranja (por lo menos).

375 toman refrescos de naranja y cola (por lo menos).

282 toman refrescos de toronja y cola (por lo menos).

45 toman refrescos de los 3 sabores.

a) ¿Cuántas personas toman refrescos de sabor cola?

b) ¿Cuántas personas toman exclusivamente 2 tipos de sabores?

c) ¿Cuántas personas toman un solo tipo de refresco?

d) ¿Cuántas personas no toman refrescos?

e) Interpretar resultados.

5. En una investigación referente a los hábitos de fumar se realizó una encuesta con la siguiente información reca-bada:

9

55% fuman cigarros Marlboro (no exclusivamente).

50% fuman cigarros Raleigh (no exclusivamente).

40% fuman cigarros Delicados (no exclusivamente).

10% fuman las 3 marcas de cigarros.

20% fuman las 2 1as. pero no la 3ª.

18% no fuman las 2 1as. pero si la 3ª.

7% no fuman ninguna de las marcas mencionadas o no fuman.

Utilizando la distribución en regiones procesar y determinar:

a) El porcentaje de personas que fuman por lo menos 2 marcas de cigarros.

b) El porcentaje de personas que fuman exactamente 2 marcas de cigarros.

c) El porcentaje de personas que fuman exactamente una marca de cigarros.

d) Interpretar resultados.

6. Una empresa maquiladora tuvo una alta rotación de personal en los últimos 3 años. En el 1er. año tenía 500empleados. En el 2° año renunciaron 120 empleados pero se contrataron a 320 nuevos empleados. En el 3er. año,de ésta última cifra, sólo se quedaron un 75%, pero se recuperaron 50 empleados que estaban en la empresa enel 1er. año, y se reclutaron a 210 nuevos empleados para llegar a un total de 800 empleados que tiene la empresaen la actualidad.

a) Utilizando el álgebra de conjuntos, enunciar cada uno de los datos establecidos.

b) Determinar el N° de empleados que conforman la planta base de la organización.

c) Determinar el N° de empleados definitivamente perdidos en este proceso.

d) Determinar el N° de empleados que estuvieron en la empresa más los que están laborando actualmente.

e) Interpretar los resultados.

3. Nociones de probabilidadDefinition 3.1 (Espacio muestral). El espacio muestral denotado por Ω, es la colección de todos los posibles resultadosde un experimento.

Definition 3.2 (Evento). Un evento es un subconjunto del espacio muestral.

Definition 3.3. Sea Ω un espacio muestral asociado a cierto experimento. A cada suceso A asignamos un número realP(A) el cual es la probabilidad de que ocurra A. Este número cumple con las siguientes propiedades:

0 ≤ P(A) ≤ 1

P (Ω) = 1

Si A y B son dos eventos mutuamente excluyentes, entonces P(A ∪B) = P(A) + P(B)

Theorem 3.1. P(∅) = 0

Theorem 3.2. P(A) = 1−P(A′)

10

Theorem 3.3. P(A ∪B) = P(A) + P(A)−P(A ∩B)

Theorem 3.4. Si A ⊂ B, entonces P(A) ≤ P(B)

Theorem 3.5. P(A) = P(A ∩B) + P(A ∩B′); P(A−B) = P(A ∩B′) = P(A)−P(A ∩B)

Theorem 3.6 (Desigualdad de Boole).

P (A1 ∪A2 ∪ · · · ∪An) ≤ P (A1) + P (A2) + · · ·+ P (An)

4. Espacios muestrales finitosPara cierta clase de problemas el espacio muestral contiene un número finito de elementos, adicionalmente para fa-

cilitar su manejo se asume que todos los elementos tienen la misma posibilidad de ser seleccionados. Dado lo anterior,este tipo de conjuntos tienen las siguientes características:

P (ω1) = P (ω2) = · · · = P (ωN )

P(A) = nAn

4.1. Problemas1. Sean A, B y C tres sucesos asociados con un experimento. Exprese las siguientes proposiciones verbales en

notación de conjuntos

a) Al menos uno de los sucesos ocurreb) Exactamente uno de los sucesos ocurrec) Exactamente dos de los sucesos ocurrend) No ocurren más de dos sucesos simultáneamente

2. Considerénse cuatro objetos a, b, c y d. Supóngase que el orden en el cual se anotan esos objetos representa elresultado de un experimento. Sean A y B los sucesos definidos como sigue:

A = a está en el primer lugarB = b está en el segundo lugar

a) Anote todos los elementos del espacio muestralb) Anote todos los elementos de los sucesos (A ∩B) y (A ∪B)

3. En una habitación 10 personas cuentan con insignias numeradas del 1 al 10. Se eligen tres personas al azar y seles pide que dejen la habitación inmediatamente y se anotan el número de las insignias.

a) ¿Cuál es la probabilidad de que el número menor de las insignias sea 5?b) ¿Cuál es la probabilidad de que el número mayor de las insignias sea 5?

4. Un cargamento de 1500 lavadoras contiene 400 defectuosas y 1100 no defectuosas. Se eligen al azar 200 lava-doras sin sustitución y se clasifican.

a) ¿Cuál es la probabilidad de que se encuentren exactamente 90 artículos defectuosos?b) ¿Cuál es la probabilidad de que se encuentren al menos dos artículos defectuosos?

11

4.2. Técnicas de conteoComo resultado de estos problemas, usted seguramente pudo percatarse lo complejo que pudiera ser enumerar to-

dos los resultados posibles de un experimento, ya que es factible estar enfrentando un número finito muy grande deposibilidades.

Dado que el cálculo de probabilidades implica realizar el conteo de los elementos de los conjuntos asociados conexperimentos, en esta sección daremos un repaso a las técnicas empleadas para realizar esta tarea de una forma másrápida.

4.2.1. Principios de conteo

Para llevar a cabo conteos no se debe olvidar lo siguente:

Definition 4.1 (Principio de multiplicación). Si la ejecución de un proceso consta de n partes en donde la primerapuede realizarse de n1 maneras, la segunda de n2, . . . , y la última de nn, entonces, el total de maneras en que puedeejecutarse el proceso es de:

n1 · n2 · · ·nn

Definition 4.2 (Principio de adición). Sean n procedimientos y el i-ésimo procedimiento se puede hacer en ni mane-ras, i=1,. . . ,n; entonces el número de maneras como podemos hacer el procedimiento 1 o el procedimiento 2 o . . . o elprocedimiento n es :

n1 + n2 + · · ·+ nn

Asumiendo que los procedimientos no se pueden realizar conjuntamente.

4.2.2. Permutaciones

Definition 4.3 (Factorial de un número). Para cualquier entero positivo n, definimos n! como el factorial de n el cual es:

n! = n · (n− 1) · (n− 2) · · · 1 (4.1)

Definition 4.4 (Permutaciones). El ordenamiento de n objetos recibe el nombre de permutación.

Definition 4.5. En n objetos, el ordenamiento de r elementos, donde r ≤ n recibe el nombre de permutación de n enr, y se denota como P (n, r).

Theorem 4.1.P (n, r) = n · (n− 1) · (n− 2) · · · (n− r + 1) =

n!(n− r)!

(4.2)

Una extensión natural a este resultado es el siguiente: las permutaciones de n objetos tomados todos a la vez son n! .

12

4.2.3. Pruebas ordenadas

Muchos resultados de probabilidad y estadística tienen como sustento la manera en que se eligen los elementos yasea con sustitución o sin sustitución.

Definition 4.6 (Pruebas con sustitución). . Son pruebas donde en cada ensayo, el número de elementos n se mantiene.

De esta forma si se eligen al azar r elementos, r ≤ n, entonces en cada intento hay n resultados posibles por lo queel número de maneras de obtener una muestra de tamaño r bajo este esquema es nr.

Definition 4.7 (Pruebas sin sustitución). . Son pruebas donde en cada ensayo, el número de elementos va disminuyendoen la medida en que se han extraído elementos

De esta forma si se eligen al azar r elementos de n, donde r ≤ n, en el primer intento habrá n resultados posiblesen el segundo (n− 1), en el tercero (n− 2) . . . y en el r-ésimo (n− r+ 1), por lo que el número de maneras de obteneruna muestra de tamaño r bajo este esquema es P (n, r) = n!

(n−r)!

4.2.4. Combinaciones

Definition 4.8 (Combinaciones). Se denomina combinación de n elementos en r al número de maneras en que sepueden elegir r elementos de n, r ≤ n sin importar el orden en que aparecen. Se denota como

(nr

).

Theorem 4.2. (n

r

)=P (n, r)r!

=n!

r!(n− r)!(4.3)

Theorem 4.3. (n

r

)=(

n

n− r

)(4.4)

Theorem 4.4. (n

r

)=(n− 1r − 1

)+(n− 1r

)(4.5)

4.2.5. Permutaciones cuando no todos los objetos son diferentes

Hasta el momento implicitamente se ha asumido que los elementos que conforman el conjunto son en cierta formadistinguibles, sin embargo esto no siempre ocurre, por lo que se desprende el siguiente resultado.

Theorem 4.5. Sea el conjunto A compuesto de n elementos y sean n1, n2,. . . , nr enteros positivos con n1 + n2 +· · ·+nr = n. Entonces existen

n!n1! · n2! · · ·nr!

(4.6)

particiones ordenadas diferentes de A de la forma (A1,A2, . . . ,Ar)dondeA1 consta de n1 elementos, A2 de n2,. . . , y Ar consta de nr.

13

4.2.6. Ejemplos

1. ¿De cuántas maneras pueden sentarse 10 personas en un banco si hay 4 sitios disponibles?

Demostración. Nótese que importa el orden en que se sienten las personas, ya que los cuatro sitios son diferentes,y que una persona no puede ocupar más de un sitio a la vez. Por lo tanto, hay 10!/6! = 5040 maneras.

2. Cuatro libros de matemáticas, seis de física y dos de química han de ser colocados en un librero ¿Cuántascolocaciones distintas admiten si. . .

los libros de cada materia han de estar juntos?

Sólo los de matemáticas tienen que estar juntos?

Demostración. Supongamos que los libros de cada materia también son diferentes(de distintos autores).

1. Consideremos cada conjunto de libros de una misma materia como una unidad. Entonces, hay 3! = 6 orde-naciones posibles de las materias. Además hay que considerar también las 4! = 24 permutaciones de los librosde matemáticas, así como las 6! = 720 y las 2! = 2 de los de física y química, respectivamente. Se concluye asíque hay 3! · 4! · 6! · 2! = 207360 colocaciones distintas.

2. Consideremos los cuatro libros de matemáticas como una unidad. Se tendría entonces una unidad correspon-diente a matemáticas, 6 unidades diferentes de física y dos unidades diferentes de química. Por lo tanto, existen9! = 362880 maneras de ordenar estas 9 unidades, y por cada una de ellas hay 4! ordenaciones posibles de los 4libros de matemáticas, por lo que en total hay 9! · 4! = 8709120 formas de colocar los libros.

Supongamos ahora que los libros de cada materia son idénticos.

1. Consideremos cada conjunto de libros de una misma materia como una unidad. Nótese que entonces se tendríaun total de 3 unidades, que pueden ordenarse de 3! = 6 formas distintas. 2. En este caso tendremos una únicaunidad de matemáticas, además de 6 de física y 2 de química, que consideraremos diferentes para este cálculoinicial. Se tiene entonces un total de 9! = 362880 ordenaciones posibles y, puesto que los libros de cada materiason indistinguibles, nótese que deben tenerse en cuenta las 6! · 2! = 1440 formas de colocar los libros de físicay matemáticas. Por lo tanto, hay un total de 9!

6!·2! = 252 ordenaciones.

4.2.7. Problemas propuestos

1. Se tienen los siguientes dígitos 2,3,5,6,7 y 9 y considerando que no se permiten repeticiones:

a) ¿Cuántos números de tres dígitos se pueden formar?

b) ¿Cuántos de éstos son menores a 400?

c) ¿Cuántos son pares?

d) ¿Cuántos son impares?

e) ¿Cuántos son múltiplos de 5?

2. ¿De cuántas maneras se puede acomodar una reunión de 7 personas . . .

a) en una fila de 7 sillas?

14

b) alrededor de una mesa redonda?

3. En una reunión asisten 3 niños y 2 niñas

a) ¿De cuántas maneras los 3 niños y 2 niñas pueden sentarse en una fila?

b) ¿De cuántas maneras pueden sentarse si los niños se sientan juntos y las niñas también?

c) ¿De cuántas maneras pueden sentarse en fila si las niñas se sientan juntas?

4. ¿De cuántas maneras puede elegirse un comité, de 3 hombres y dos mujeres de un grupo de 7 hombres y 5mujeres?

5. Una delegación de cuatro empleados del área se seleccionan todos los años para asistir al congreso anual de lacompañía

a) ¿De cuántas maneras puede escogerse la delegación si hay 12 elegibles?

b) ¿De cuántas maneras si dos de los elegibles no asisten al mismo tiempo?

c) ¿De cuántas maneras si dos de los elegibles son casados y sólo asistirán si van ambos?

6. Un estudiante tiene que contestar 8 de 10 preguntas de un examen.

a) ¿Cuántas maneras de elegir tiene?

b) ¿Cuántas maneras si las tres primeras preguntas son obligatorias?

c) ¿Cuántas, si tiene que contestar 4 de las 5 primeras preguntas?

5. Probabilidad condicionalDados dos eventos A y B queremos definir la probabilidad condicional del evento A dado que el evento B ha ocu-

rrido.

Definition 5.1 (Probabilidad condicional). . Sean A y B dos eventos del espacio muestral Ω, la probabilidad condi-cional del evento A dado B, denotado por P [A|B], se define como:

P [A|B] =P [A ∩B]P [B]

; dondeP [B] > 0 (5.1)

Observación: Una fórmula que es evidente de la definición es:

P [A ∩B] = P [A|B] · P [B] = P [B|A] · P [A];P [A], P [B] > 0 (5.2)

Esta fórmula relaciona P [A|B] a P [B|A] en términos de la probabilidad no condicional P [A] y P [B].

15

5.1. Propiedades de la probabilidad condicionalSe enuncian a continuación las propiedades de la probabilidad condicional:

Theorem 5.1.P [∅|B] = 0 (5.3)

Theorem 5.2. Si A1, . . . ,An son eventos mutuamente excluyentes, entonces

P [n⋃i=1

Ai|B] =n∑i=1

P [Ai|B] (5.4)

Theorem 5.3. Sea A un evento, entonces

P [A′|B] = 1− P [A|B] (5.5)

Theorem 5.4. Si A1 y A2 son dos eventos del espacio muestral, entonces

P [A1|B] = P [A1 ∩A2|B] + P [A1 ∩A′2|B] (5.6)

Theorem 5.5. Para dos eventos cualquiera A1 y A2

P [A1 ∪A2|B] = P [A1|B] + P [A2|B]− P [A1 ∩A2|B] (5.7)

Theorem 5.6. Si A1 ⊂A2 entonces

P [A1|B] ≤ P [A2|B] (5.8)

Theorem 5.7.

P [n⋃i=1

Ai|B] ≤n∑i=1

P [Ai|B] (5.9)

Theorem 5.8 (Teorema de probabilidad total). Sean B1, B2, . . . , Bn una colección de eventos mutuamente excluyen-tes que cumplen con Ω =

∑nj=iBj y además P [Bj ] > 0 para j=1,. . . , n; entonces:

P [A] =n∑i=1

P [A|Bj ] · P [Bj ] (5.10)

Del anterior teorema se extiende el siguiente resultado:

P [A] = P [A|B]P [B] + P [A|B′]P [B′] (5.11)

Observación: Este teorema aún es válido si n=∞

Theorem 5.9 (Fórmula de Bayes). Sean B1, B2, . . . , Bn una colección de eventos mutuamente excluyentes satisfa-ciendo Ω =

⋃nj=iBj y P [Bj ] > 0 para j=1,. . . , n; entonces para cualquier evento A , para el cual P [A] > 0

P [Bk|A] =P [A|Bk] · P [Bk]∑nj=1 P [A|Bj ] · P [Bj ]

(5.12)

16

Del anterior teorema se extiende el siguiente resultado:

Para dos eventos A y B que satisfagan P [A] > 0 y 0 < P [B] < 1

P [B|A] =P [A|B] · P [B]

P [A|B] · P [B] + P [A|B′] · P [B′](5.13)

Observación: La fórmula de Bayes es válida aún si n=∞

Theorem 5.10 (Regla de la multiplicación). SeanA1, . . . , An eventos para los cuales P [A1∩ . . . An−1] > 0, entonces

P [n⋂i=1

Ai] = P [A1]P [A2|A1]P [A3|A1 ∩A2] · · ·P [An|n−1⋂i=1

Ai] (5.14)

5.2. Eventos independientesDefinition 5.2 (Eventos independientes). Los eventos A y B son independientes si y solo si cualquiera de las siguientescondiciones se satisface:

P [A ∩B] = P [A] · P [B]

P [A|B] = P [A] si P [B] > 0

P [A|B] = P [B] si P [A] > 0

Theorem 5.11. Si A y B son dos eventos independientes, entonces A y B′ son independientes, A′ y B son indepen-dientes y A′ y B′ son independientes.

Definition 5.3. Los eventos A1, . . . , An se definen como independientes si y solo si

P [Ai ∩Aj ] = P [Ai] · P [Aj ] ; para i6= j

P [Ai ∩Aj ∩Ak] = P [Ai] · P [Aj ] · P [Ak] ; para i 6= j, j 6= k, i 6= k...P[⋂ni=1Ai] =

∏ni=1 P [Ai]

5.3. Ejemplos1. Dilema del concurso televisivo. En un concurso de televisión se le ofrece al concursante la posibilidad de elegir

una entre 3 puertas (A,B,C) para quedarse lo que hay tras ella. El presentador le informa de que sólo una deellas tiene un buen regalo, mientras que las otras dos están vacías. El concursante opta por una y tras decirlo, elpresentador (que conoce exactamente dónde está el regalo) le abre una de las otras dos puertas no elegidas porel concursante donde no está el regalo. Luego le ofrece al concursante la opción de cambiar su decisión inicialeligiendo la otra puerta aún no abierta. ¿Qué debe hacer el concursante? Es decir, ¿debe el concursante aceptarla nueva posibilidad cambiando la puerta que eligió originalmente, o no?

17

Demostración. En el momento original donde el concursante debe tomar su primera decisión, es evidente quela probabilidad de que escoja la puerta tras la que se oculta el regalo es igual a 1

3 . Supuesto que opta por una, seencuentra con que el presentador le ofrece una nueva información: le reduce las tres posibilidades iniciales a dos.Esto cambia por tanto las probabilidades, ya que la puerta abierta por el presentador pasa a tener probabilidad0, mientras que las otras dos se reparten el 1

3 que esa puerta pierde. Pero, ¿de qué manera? Desde luego, noequitativamente, puesto que la puerta elegida por el concursante sigue teniendo probabilidad 1

3 y la otra que noabrió el presentador pasa a tener probabilidad 2

3 . Por tanto, el concursante sí debería cambiar su elección original,ya que con ello duplica la probabilidad de obtener el regalo. Obviamente, este consejo se basa únicamente enconsideraciones matemáticas y no tiene presente de ninguna forma la afición o aversión al riesgo del concursante.

2. Un banco ha comprobado que la probabilidad de que un cliente con fondos extienda un cheque con fecha equi-vocada es de 0.001. En cambio, todo cliente sin fondos pone una fecha errónea en sus cheques. El 90% de losclientes del banco tienen fondos. Se recibe hoy en caja un cheque con fecha equivocada. ¿Qué probabilidad hayde que sea de un cliente sin fondos?

Demostración. Representemos un suceso elemental como ω = (ω1, ω2) ; donde ω1 representa si el cliente tieneo no fondos (ω1 ∈ con, sin) y ω2 representa si el cheque tiene o no fecha equivocada (ω2 ∈ corr, equiv). Elespacio Ω no es equiprobable y tiene 4 elementos. Los datos que se dan son:

P (ω2 = equiv|ω1 = con) = 0,001P (ω2 = corr|ω1 = con) = 0,999P (ω2 = equiv|ω1 = sin) = 1P (ω2 = corr|ω1 = sin) = 0P (ω1 = con) = 0,9P (ω1 = sin) = 0,1

La probabilidad pedida es:

P (ω1 = sin|ω2 = equiv) = P (ω1=sin∩ω2=equiv)P (ω2=equiv)

= P (ω2=equiv|ω1=sin)·P (ω1=sin)P (ω2=equiv|w1=sin)·P (ω1=sin)+P (ω2=equiv|ω1=con)·P (ω1=con)

= 1·0,11·0,1+0,001·0,9

= 0,99108

3. Un ropero contiene n pares de zapatos. Si se escogen al azar 2r zapatos (con 2r < n) ¿Cuál es la probabilidadde que . . .

a) . . . no haya ning´un par completo?

b) . . . haya exactamente un par completo?

c) . . . haya exactamente dos pares completos?

Demostración. Representemos cada zapato mediante un par (y, z), donde y representa el n´umero del par (esdecir, y ∈ 1, 2 . . . n) y z representa el pie (es decir,z ∈ D, I).

18

Entonces, un espacio muestral es:

Ω = (y, z)|y = 1, 2 . . . n; z = D, I

Así #Ω =(

2n2r

)Definimos el suceso A = No hay ning´un par completo:

Entonces P (A) = (n2r)·22r

(2n2r)

(Si 2r >n, entonces P (A) = 0).

Definimos el suceso B = Hay exactamente un par completo:

luego, P (B) = (n1)·(n−12r−2)·22r−2

(2n2r)

Definimos el suceso C = Hay exactamente dos pares completos:

P (C) = (n2)·(n−22r−4)·22r−4

(2n2r)

5.4. Ejercicios propuestos1. Las máquinas A, B y C fabrican 25, 35 y 40 por ciento de la producción total, respectivamente. De lo que

producen, 5, 4 y 2 por ciento, respectivamente es mercancia defectuosa. Se elige una mercancía al azar y seobserva que es defectuoso ¿Cuál es la probabilidad de que provenga de cada una de las máquinas?

2. Sean A y B dos sucesos asociados con un experimento. Supóngase que P (A) = 0,4, mientras que P (A ∪B) =0,7. Sea P (B) = p

a) ¿Para que elección de p A y B son mutuamente excluyentes?

b) ¿Para que elección de p A y B son independientes?

3. Cada vez que se hace un experimento la ocurrencia de un suceso particular A es igual a 0.2. El experimento serepite, independientemente, hasta que A ocurre. Calcule la probabilidad de que sea necesario realizar un cuartoexperimento.

4. Un conjunto electrónico consta de dos subsitemas digamos A y B. A partir de una serie de pruebas previas,se presuponen las siguientes probabilidades: P(A falle) = 0.20, P(B sólo falle)= 0.15 y P(A y B fallen) = 0.15.Calcular

a) P(A falle | B haya fallado)

b) P(A falle solamente)

6. Variables aleatoriasEn gran número de experimentos aleatorios es necesario para su tratamiento cuantificar los resultados de modo que

se asigne un número real a cada uno de los resultados posibles. De este modo se establece una relación funcional entreelementos del espacio muestral asociado al experimento y números reales.

19

Definition 6.1. Una variable aleatoria X es una función real definida en el espacio muestral asociado a un experimentoaleatorio, es decir:

X : Ω→ <

Definition 6.2. El rango de una variable aleatoria RX es el conjunto de valores que puede tomar X. En otras palabras:

RX = x ∈ <|ω ∈ Ω: X(ω) = x

Definition 6.3 (Tipos de variables aleatorias). . En base al tipo de valores deX , las variables aleatorias se clasifican en:

Variables aleatorias discretas. Estas variables se caracterizan por tomar un número finito o infinito numerablede valores.

Variables aleatorias continuas. Pueden tomar un número infinito de valores

Variables mixtas. Pueden tomar valores discretos y contínuos

Definition 6.4 (Función de distribución acumulada de probabilidad). . La función de distribución acumulada de pro-babilidad de X , F (x), asigna a cada evento definido sobre X una probabilidad dada por la siguiente expresión:

F (x) = P (X ≤ x)

La función de distribución F (x) tiene las siguientes propiedades:

F (x) es continua

F (x) es creciente

F (x) toma valores entre 0 y 1

lımx→−∞ F (x) = 0

lımx→+∞ F (x) = 1

Definition 6.5 (Función discreta de densidad). . Si X es una variable discreta con valores x1, x2, . . . , xn, . . . , enton-ces la función denotada por f(x) y definida por:

f(x) =

P (X = xj) Si x = xj , j=1,2, . . . ,n, . . .0 Si x 6= xj

es la función de densidad discreta de X .

Una función de densidad discreta cumple con lo siguiente:

f(xj) > 0 para j = 1, 2, . . .

20

f(x) = 0 para x 6= xj ; j = 1, 2, . . .∑xjf(xj) = 1

Definition 6.6 (Función continua de densidad). . SiX es una variable continua, la función f(x) enF (x) =∫ x−∞ f(u)du

se le llama función de densidad continua.

Una función de densidad continua cumple con las siguientes propiedades:

f(x) ≥ 0 ∀x∫ +∞−∞ f(x)dx = 1

6.1. Problemas propuestos1. Sea f(x) = 6x(1− x), 0 ≤ x ≤ 1

a) Verificar que es una función de densidad y graficarlab) Obtener una expresión para la función de acumulación de X y graficarlac) Determinar un número b tal que P (X < b) = 2P (X > b)d) Calcular P (X ≤ 1

2 |13 < X < 2

3 )

2. Se conoce que en una moneda sale águila tres veces más a menudo que sol. Esta moneda se lanza tres veces. SeaX el número de águilas que aparecen. Establecer la distribución de probabilidades de X así como su función dedistribución acumulada. Graficar ambas.

3. La variable X tiene como función de densidad f(x) = 3x2 ; −1 ≤ x ≤ 0. Si b es un número que satisface−1 < b < 0, calcular P (X > b|X < b

2 )

4. ¿Las siguientes funciones pueden considerarse como de densidad?

f1(x) = e−x; x > 0f2(x) = e−2x; x > 0(θ + 1)f1(x)− θf2(x); 0 < θ < 1

6.2. Valor esperadoDefinition 6.7. SeaX una variable aleatoria discreta con valores posibles x1, x2, . . . , xn, . . . Sea p(xi) = P (X = xi),i = 1, 2, . . . , n, . . . El valor esperado de X denotado por E(X), se define como:

E(X) =∞∑i=1

xip(xi) (6.1)

Definition 6.8. Sea X una variable aleatoria continua con función de densidad f . El valor esperado de X denotadopor E(X), se define como:

E(X) =∫ +∞

−∞xf(x)dx (6.2)

21

6.2.1. Propiedades del valor esperado

Si X = C en donde C es una constante, entonces E(X) = C

Si C es una constante y X una variable aleatoria. Entonces E(CX) = CE(X)

Sean X1, X2, . . . , Xn variables aleatorias. Entonces E(∑ni=1Xi) =

∑ni=1E(Xi)

6.3. VarianzaDefinition 6.9. Sea X una variable aleatoria. Se define la varianza de X , denotada por V (X) o σ2 como:

V (X) = E(X − E(X))2 (6.3)

Definition 6.10. La desviación estándar denotada por σ es la raíz cuadrada positiva de V (X)

Theorem 6.1.V (X) = E(X2)− (E(X))2 (6.4)

6.3.1. Propiedades de la Varianza

Si C es una constante, V (X + C) = V (X)

Si C es una constante, V (CX) = C2V (X)

Sean X1, . . . , Xn variables aleatorias independientes. Entonces V (∑ni=1Xi) =

∑ni=1 V (Xi)

Si X tiene varianza finita entonces para cualquier número real α, V (X) = E[(X − α)2]− [E(X)− α]2.

6.4. Desigualdad de TchebyshevHay una desigualdad muy conocida que servirá como medio para comprender como la varianza mide la variabili-

dad respecto al valor esperado de una variable aleatoria.

Si conocemos la distribución de una variable aleatoria X podemos calcular su valor esperado y varianza en casode que exista. Sin embargo, conociendo estos parámetros no es posible reconstruir la distribución de X. Sin embargose puede dar una cota muy útil para tales probabilidades. Este resultado esta contenido en lo que se conoce como ladesigualdad de Tchebyshev.

Theorem 6.2 (Desigualdad de Tchebyshev). . Sea X una variable aleatoria con E(X) = µ y sea c un número realcualquiera. Entonces, si E(X − c)2 es finita y ε es cualquier número positivo, tenemos

P [|X − c| ≥ ε] ≤ E(X − c)2

ε2(6.5)

6.5. Ley de los grandes númerosUn resultado de gran importancia en la teoría de probabilidades es la Ley de los grandes números, que en esencia

dice que a medida que se disponga de mayor información acerca de algún suceso, las posibilidades de conocerlorealmente son muy altas. A continuación se plasma de una forma más formal.

22

Theorem 6.3 (Ley de los grandes números). . Sea f(·) una función de densidad con media µ y varianza finita σ2, ysea Xn la media de una muestra aleatoria de tamaño n de f(·). Sean ε y δ cualquier número que satisfagan ε > 0 y0 < δ < 1. Si n es cual quier entero mayor que σ2

ε2δ entonces:

P (−ε < Xn − µ < ε) ≥ 1− δ (6.6)

6.6. Función generadora de momentosDefinition 6.11 (Momentos). . If X es una variable aleatoria, el résimo momento de X , usualmente denotado por µ

r

se define como:

µ′

r = E(Xr) (6.7)

Si el valor esperado existe.

Definition 6.12 (Momentos centrales). . Si X es una variable aleatoria, el r-ésimo momento central de X con respectoa a se define como E((X − a)r). Si a = E(X), se tiene el r-ésimo momento central de X con respecto a E(X), el cualse denota como µr, esto es:

µr = E((X − E(X))r) (6.8)

Definition 6.13 (Función generadora de momentos). . Sea X una variable aleatoria con función de densidad f . Se de-fine como función generadora de momentos al valor esperado de etX si existe, para cualquier valor t en algún intervalo−h < t < h; h>0. Esta función se denota como m(t),de esta manera:

m(t) = E(etX) =∑x

etXf(x) (6.9)

Si X es discreta y

m(t) = E(etX) =∫ +∞

−∞etXf(x)dx (6.10)

Si X es continua.

Es importante destacar que a partir de esta función es posible obtener el r-ésimo momento de una variable aleatoriapor medio de la r-ésima derivada de m(t) valuada en cero. Esto es:

mr(0) = E(Xr) (6.11)

23

6.7. Ejercicios propuestos1. Supóngase que la demanda D, por semana, de cierto producto es una variable aleatoria con determinada dis-

tribución de probabilidades, P (D = k) = p(k) , k = 0, 1, 2, . . . Supóngase que el costo del fabricante es deC1 dólares por artículo, mientras que él vende el artículo a C2 dólares. Cualquier artículo que no se venda altérmino de la semana debe almacenarse con un costo de C3 dólares por artículo. Si el fabricante decide producirN artículos al comienzo de la semana

a) ¿Cuál es su utilidad esperada por semana?

b) ¿Para qué valor de N es máxima la utilidad esperada?

2. La probabilidad que una propiedad no sufra daños en el siguiente período es 0.75. La función de densidad deuna pérdida es la siguiente:

f(x) = 0,25(0,01e−0,01x) · I(0,∞)(x)

Calcule la pérdida esperada.

3. La pérdida de cierto bien puede ser modelada con la siguiente función de densidad:

f(x) =1

100· I(0,100)(x)

Calcular el valor esperado y la varianza

4. En un seguro temporal a un año, una compañía de seguros acuerda pagar 1´000,000 de pesos a un asegurado sifallece durante la vigencia y no pagar nada si llega a sobrevivir.

a) Defina una función de densidad que describa esta situación

b) Calcule su valor esperado y su varianza

5. Suponiendo que X tiene como función de densidad:

f(x) = 2x · I[0,1](x)

a) Determine la función generadora de momentos de X .

b) Usando la función generadora de momentos calcule E(X) y V (X) y verifique su respuesta.

6. La media aritmética de la aportación quincenal de los empleados de cierta empresa para formar una caja de aho-rro es de 504.33 pesos y la desviación estándar de 32.47 pesos. ¿Cuál es la probabilidad de que una aportaciónse aleje en más de 1.5 desviaciones?

7. Supóngase que se desconoce la media de cierta población pero se sabe que la varianza es 1. ¿Qué tan grandedebería ser una muestra para garantizar que la media muestral no diferirá en más de 0.5 unidades de la mediapoblacional . . .

24

a) . . . con al menos una probabilidad de 0.95 ?

b) . . . con al menos una probabilidad de 0.99 ?

c) Sea X el resultado del lanzamiento de un dado regular

1) Encontrar la función generadora de momentos de X .2) Con la función generadora de momentos calcular E(X) y V (X).

7. Importantes funciones de distribución discreta

En esta sección se mencionarán algunas funciones de distribución discreta.

Definition 7.1 (Uniforme discreta). . Una variable discreta con la siguiente función de distribución:

f(x) = f(x;N) =

1N Si x = 1, 2, . . . , N0 En otro caso

(7.1)

Se dice que tiene una distribución discreta uniforme.

Theorem 7.1. Si X es una variable aleatoria con distribución discreta uniforme:

E(X) =N + 1

2

V (X) =N2 − 1

12

m(t) =N∑j=1

ejt1N

(7.2)

Definition 7.2 (Bernoulli). .Una variable discreta con la siguiente función de distribución:

f(x) = f(x; p) =

px(1− p)1−x Si x = 0 ó x = 10 En otro caso

(7.3)

Se dice que tiene una distribución Bernoulli.

Observación: En esta distribución 0 < p < 1 y se acostumbra denotar por q a la expresión 1− p.

Theorem 7.2. Si X es una variable aleatoria con distribución Bernoulli:

E(X) = p

V (X) = pq

m(t) = pet + q

(7.4)

25

Definition 7.3 (Binomial). .Una variable discreta con la siguiente función de distribución:

f(x) = f(x;n, p) =

(nx

)px(1− p)n−x Si x = 0, 1, . . . , n

0 En otro caso(7.5)

Se dice que tiene una distribución Binomial.

Theorem 7.3. Si X es una variable aleatoria con distribución Binomial:

E(X) = np

V (X) = npq

m(t) = (pet + q)n(7.6)

Definition 7.4 (Poisson). .Una variable discreta con la siguiente función de distribución:

f(x;λ) =

λxe−λ

x! Si x = 0, 1, . . .0 En otro caso

(7.7)

Donde λ > 0. Se dice que tiene una distribución Poisson.

Theorem 7.4. Si X es una variable aleatoria con distribución Poisson:

E(X) = λ

V (X) = λ

m(t) = eλ(et−1)

(7.8)

Definition 7.5 (Binomial negativa). .Una variable discreta con la siguiente función de distribución:

f(x) = f(x; r, p) =

(r+x−1x

)pr(1− p)x Si x = 0, 1, . . .

0 En otro caso(7.9)

Se dice que tiene una distribución Binomial Negativa.

Theorem 7.5. Si X es una variable aleatoria con distribución Binomial Negativa:

E(X) =rq

p

V (X) =rq

p2

m(t) = (p

1− qet)r

(7.10)

26

Definition 7.6 (Geométrica). .Una variable discreta con la siguiente función de distribución:

f(x) = f(x; p) =

p(1− p)x Si x = 0, 1, . . .0 En otro caso

(7.11)

Se dice que tiene una distribución Geométrica o de Pascal.

Theorem 7.6. Si X es una variable aleatoria con distribución Geométrica:

E(X) =q

p

V (X) =q

p2

m(t) =p

1− qet

(7.12)

Definition 7.7 (Hipergeométrica). .Una variable discreta con la siguiente función de distribución:

f(x;M,K, n) =

(Kx)(M−Kn−x )

(Mn ) Si x = 0, 1, . . . , n

0 En otro caso(7.13)

Se dice que tiene una distribución Hipergeométrica.

Theorem 7.7. Si X es una variable aleatoria con distribución Hipergeométrica:

E(X) = nK

M

V (X) = n · KM· M −K

M· M − nM − 1

(7.14)

7.1. Ejercicios propuestos

a) Una compañía de seguros ha descubierto que sólo alrededor de 0.1 por ciento de la población tiene ciertotipo de accidente cada año. Si aleatoriamente fueran asegurados 10,000 personas ¿Cuál sería la probabili-dad de que no más de 5 individuos tuviera este tipo de accidente de este tipo durante la siguiente vigenciade un año?

b) Supóngase que la probabilidad de que una póliza emitida en cierta impresora tenga defectos de impresiónes de 0.2. Si se seleccionan 10 pólizas al azar, ¿Cuál es la probabilidad de encontrar más de una con defec-tos de impresión? Utilice las distribuciones binomial y de Poisson y compare sus resultados.

c) Suponga que un libro de 585 páginas cuenta con 43 errores tipográficos. Si esos errores están distribuidosaleatoriamente en el libro ¿Cuál es la probabilidad de que 10 páginas seleccionadas al azar, estén libres deerrores?

27

d) La probabilidad de un lanzamiento exitoso es igual a 0.8. Supóngase que se hacen ensayos de lanzamientoshasta haberse observado tres exitosos.

1) ¿Cuál es la probabilidad que sean necesarios 6 intentos?2) ¿Cuál es la probabilidad de que sean necesarios menos de 6 intentos?

e) Dada la situación del problema anterior, supóngase que los ensayos se realizan hasta que han ocurrido 3lanzamientos consecutivos exitosos.

1) ¿Cuál es la probabilidad que sean necesarios 6 intentos?2) ¿Cuál es la probabilidad de que sean necesarios menos de 6 intentos?

f ) Supóngase que el 5% de los agentes de seguros cuentan con una preparación mayor a preparatoria termi-nada. Se seleccionan al azar 150 agentes y se valida su escolaridad. ¿Cuál es la probabilidad de que más de10 tengan una escolaridad superior a preparatoria?

g) Supóngase que X tiene una distribución binomial con parámetros n y p. ¿Para que valor de p se maximizala varianza de X asumiendo n fija?

8. Importantes funciones de distribución continua

Definition 8.1 (Uniforme). . Una variable continua X con la siguiente función de densidad:

f(x; a, b) =1

b− a· I[a,b](x) (8.1)

donde −∞ < a < b <∞. Se dice que tiene una distribución uniforme en el intervalo [a,b].

Theorem 8.1. Si X es una variable aleatoria con distribución uniforme en el intervalo [a,b] entonces:

E(X) =a+ b

2

V (X) =(b− a)2

12

m(t) =ebt − eat

(b− a)t

(8.2)

Definition 8.2 (Exponencial). .Una variable continua X con la siguiente función de densidad:

f(x;λ) = λ · e−λx · I[0,∞)(x) (8.3)

donde λ > 0. Se dice que tiene una distribución exponencial.

Theorem 8.2. Si X es una variable aleatoria con distribución exponencial entonces:

E(X) =1λ

V (X) =1λ2

m(t) =λ

λ− tpara t < λ

(8.4)

28

Definition 8.3 (Gamma). .Una variable continua X con la siguiente función de densidad:

f(x; r, λ) =λ

Γ(r)· (λx)r−1 · e−λx · I[0,∞)(x) (8.5)

donde r > 0 y λ > 0. Se dice que tiene una distribución Gamma.

Theorem 8.3. Si X es una variable aleatoria con distribución Gamma entonces:

E(X) =r

λ

V (X) =r

λ2

m(t) = (λ

λ− t)r para t < λ

(8.6)

Definition 8.4 (Normal). .Una variable continua X con la siguiente función de densidad:

f(x;µ, σ) =1√2πσ

· e−(x−µ)2

2σ2 · I(−∞,∞)(x) (8.7)

donde −∞ < µ <∞ y σ > 0. Se dice que tiene una distribución Normal.

Theorem 8.4. Si X es una variable aleatoria con distribución Normal entonces:

E(X) = µ

V (X) = σ2

m(t) = eµt+σ2t2

2

(8.8)

Definition 8.5 (Beta). .Una variable continua X con la siguiente función de densidad:

f(x; a, b) =1

B(a, b)· xa−1 · (1− x)b−1 · I(0,1)(x) (8.9)

donde −∞ < µ <∞ y σ > 0. Se dice que tiene una distribución Beta.

Theorem 8.5. Si X es una variable aleatoria con distribución Beta entonces:

E(X) =a

a+ b

V (X) =ab

(a+ b+ 1) · (a+ b)2

(8.10)

Definition 8.6 (Cauchy). .Una variable continua X con la siguiente función de densidad:

f(x;α, β) =1

πβ(1 + ( (x−α)β )2)

(8.11)

donde −∞ < α <∞ y β > 0. Se dice que tiene una distribución Cauchy.

29

Es importante resaltar que para esta función no existe valor esperado ni varianza.

Definition 8.7 (Lognormal). .Una variable continua X con la siguiente función de densidad:

f(x;µ, σ2) =1

x√

2πσ· exp(−(ln(x)− µ)2

2σ2) · I(0,∞)(x) (8.12)

donde −∞ < µ <∞ y σ > 0. Se dice que tiene una distribución Lognormal.

Theorem 8.6. Si X es una variable aleatoria con distribución Lognormal entonces:

E(X) = exp(µ+σ2

2)

V (X) = exp(2µ+ 2σ2)− exp(2µ+ σ2)(8.13)

Definition 8.8 (Laplace). .Una variable continua X con la siguiente función de densidad:

f(x;α, β) =1

2β· exp(−|x− α|

β) (8.14)

donde −∞ < α <∞ y β > 0. Se dice que tiene una distribución Laplace.

Theorem 8.7. Si X es una variable aleatoria con distribución Laplace entonces:

E(X) = α

V (X) = 2 · β(8.15)

Definition 8.9 (Weibull). .Una variable continua X con la siguiente función de densidad:

f(x; a, b) = abxb−1e−axb

· I(0,∞)(x) (8.16)

donde a > 0 y b > 0. Se dice que tiene una distribución Weibull.

Theorem 8.8. Si X es una variable aleatoria con distribución Weibull entonces:

E(X) = a−1b Γ(1 + b−1)

V (X) = a−2b [Γ(1 + 2b−1)− Γ2(1 + b−1)]

m(t) = a−tb Γ(1 +

t

b)

(8.17)

Definition 8.10 (Logística). .Una variable continua X con la siguiente función de acumulación:

F (x;α, β) = (1 + exp(−(x− α)

β))−1 (8.18)

donde −∞ < α <∞ y β > 0. Se dice que tiene una distribución Logística.

30

Theorem 8.9. Si X es una variable aleatoria con distribución Logística entonces:

E(X) = α

V (X) =β2π2

3m(t) = eαtπβt csc(πβt)

(8.19)

Definition 8.11 (Pareto). .Una variable continua X con la siguiente función de densidad:

f(x;x0, θ) =θxθ0xθ+1

· I(0,∞)(x) (8.20)

donde x0 > 0 y θ > 0. Se dice que tiene una distribución Pareto.

Theorem 8.10. Si X es una variable aleatoria con distribución Pareto entonces:

E(X) =θx0

θ + 1Para θ > 1

V (X) =θx2

0

(θ − 1)2(θ − 2)Para θ > 2

(8.21)

Definition 8.12 (Gumbel). .Una variable continua X con la siguiente función de acumulación:

F (x;α, β) = exp(−e−(x−α)

β ) (8.22)

donde −∞ < α <∞ y β > 0. Se dice que tiene una distribución Gumbel.

Theorem 8.11. Si X es una variable aleatoria con distribución Gumbel entonces:

E(X) = α+ βγdonde γ ≈ 0,577216

V (X) =π2β2

6

m(t) = eαt · Γ · (1− βt)para t <1β

(8.23)

8.1. Ejercicios propuestos

a) Si X se distribuye uniformemente sobre (1,2), encuentre z tal que P (X > z + µX) = 14 )

b) Si X se distribuye como una Normal con media 2 y varianza 1. Encontrar P (|X − 2| < 1)

c) La función de densidad del tiempo transcurrido entre el arribo de dos clientes es la siguiente:

f(ti) = 4e−4ti

Donde ti > 0. Exprese la función de densidad para el tiempo del décimo arribo.

31

d) La función de densidad del tiempo de vida de un cierto componente está dado por:

f(t) = ke−kt

Donde t > 0.

Un aparato contiene tres componentes de este tipo y la falla de uno puede asumirse como independientedel resto. Encuentre la probabilidad que:

1) Ninguno haya fallado en t0 horas.2) Exactamente uno falle en las primeras t0 horas, otro en las segundas t0 horas y el tercero después de

más de 2t0 horas.

e) El departamento de compras utiliza la siguiente regla para decidir si aceptar o no un lote de 100,000pequeñas partes enviadas semanalmente: Se selecciona una muestra de 400 piezas de cada lote recibido. Sial menos el 3% de las piezas de la muestra están defectuosas se rechaza el lote. ¿Cuál es la probabilidad derechazar un lote que actualmente cuenta con el 2% de las piezas defectuosas?

9. Variables aleatorias bidimensionales

Hasta este momento solamente nos hemos concentrado en variables unidimensionales, es decir, el resultado deun experimento se registraba en un sólo número x. Sin embargo, en muchos casos es de interés observar dos omás características numéricas al mismo tiempo. Por ejemplo, la edad y el peso de una persona como determinan-tes en la aparición de cierta enfermedad, o la edad y el tiempo de experiencia manejando un vehículo en relacióna la posibilidad de ocurrir un accidente de tránsito, por citar sólo algunos ejemplos.

Definition 9.1. Sea un experimento asociado a un espacio muestral Ω. Sean X = X(ω) e Y = Y (ω) dosfunciones que asignan un número real a cada uno de los resultados ω ∈ Ω. Se denomina a (X,Y ) como variablealeatoria bidimensional o vector aleatorio.

Esta definición puede extenderse para X1, X2, . . . , Xn variables que asignan un número real a cada resulta-do ω ∈ Ω de manera que (X1, X2, . . . , Xn) es una variable aleatoria n-dimensional o vector aleatorio n-dimensional.

Definition 9.2. Se dice que (X,Y ) es una variable aleatoria bidimensional discreta si los valores posibles de(X,Y ) son finitos o infinitos numerables. Es decir, los valores posibles de (X,Y ) se pueden representar como(xi, yj), donde i = 1, 2, . . . , n, . . . y j = 1, 2, . . . ,m, . . .

Definition 9.3. Se dice que (X,Y ) es una variable aleatoria bidimensional continua si (X,Y ) puede tomartodos los valores de un conjunto no numerable del plano euclidiano.

Definition 9.4. Sea (X,Y ) una variable discreta bidimensional. Con cada resultado posible (xi, yj) asociamosun número p(xi, yj) que representa P (X = xi, Y = yj) y que satisface las siguientes condiciones:

p(xi, yj) ≥ 0 ∀(x, y)∑∞j=1

∑∞i=1 p(xi, yj) = 1

La función p definida para todo (xi, yj) en el recorrido de (X,Y ) se llama función de probabilidad de (X,Y ).

32

Definition 9.5. Sea (X,Y ) una variable aleatoria continua que toma todos los valores en una región R del planoeuclidiano. La función de densidad de probabilidades conjuntas f es una función que satisface las siguientescondiciones:

f(x, y) ≥ 0 ∀(x,y) ∈ R∫ ∫Rf(x, y) = 1

Definition 9.6. Sea (X,Y ) una variable aleatoria bidimensional. La función de distribución acumulativa F dela variable aleatoria (X,Y ) se define como:

F (x, y) = P (X ≤ x, Y ≤ y) (9.1)

La función de distribución acumulativa tiene las siguientes propiedades:

F (−∞, y) = lımx→−∞ F (x, y) = 0 ∀yF (x,−∞) = lımy→−∞ F (x, y) = 0 ∀xlımx,y→∞ F (x, y) = 1

Si x1 < x2 y y1 < y2, entonces:

P (x1 < X ≤ x2; y1 < Y ≤ y2) = F (x2, y2)− F (x2, y1)− F (x1, y2) + F (x1, y1) ≥ 0

lım0<h→0 F (x+ h, y) = lım0<h→0 F (x, y + h) = F (x, y)

Theorem 9.1. Si F es una función de distribución acumulada de una variable bidimensional con función dedensidad conjunta f , entonces:

∂2F (x, y)∂x∂y

= f(x, y) (9.2)

dondequiera que F sea diferenciable.

Definition 9.7. Si F (x, y) es la función de distribución acumulada conjunta de X e Y , entonces F (x) y F (y)son las funciones de distribución acumulada marginales

Es importante hacer notar que el conocimiento de la función de acumulación conjunta de (X,Y ) implica el co-nocimiento de las distribuciones marginales.

F (x) = F (x,∞) (9.3)

y

33

F (y) = F (∞, y) (9.4)

Theorem 9.2.F (x) + F (y)− 1 ≤ F (x, y) ≤

√F (x)F (y) ∀x, y (9.5)

Definition 9.8. SiX e Y son variables aleatorias conjuntamente discretas, entonces f(x) y f(y) se les denominafunciones de densidad marginales discretas.

Con cada variable bidimensional (X,Y ), asociamos dos variables aleatorias unidimensionales, llamadas X e Yrespectivamente. En algún momento podría ser de interés conocer la distribución de X o Y .

Para el caso discreto, puesto que X = xi debe ocurrir con varios valores de Y, tenemos que:

P (X = xi) = P (X = xi, Y = y1X = xi, Y = y2 . . . ) =∞∑j=1

p(xi, yj) (9.6)

La cual es la función marginal de X , mientras que la función marginal de Y es:

P (Y = yj) =∞∑i=1

p(xi, yj) (9.7)

Definition 9.9. SiX e Y son variables aleatorias conjuntamente continuas, entonces f(x) y f(y) se les denominafunciones de densidad marginales continuas.

Las función de densidad de X es:

f(x) =∫ ∞−∞

f(x, y)dy (9.8)

Mientras que la de Y es:

f(y) =∫ ∞−∞

f(x, y)dx (9.9)

Al igual que las funciones de acumulación, el conocimiento de la distribución conjunta nos permite encontrarlas distribuciones marginales, pero no al revés.

34

9.1. Distribuciones condicionales e independientes

Definition 9.10 (Función de densidad condicional discreta). Sean X e Y variables discretas conjuntas confunción de densidad f(x,y). Se define como función de densidad condicional discreta de Y dado X = x a losiguiente:

f(y|x) =f(x, y)f(x)

f(x) > 0 (9.10)

Similarmente:

f(x|y) =f(x, y)f(y)

f(y) > 0 (9.11)

Definition 9.11 (Función de distribución acumulada condicional discreta). Sean X e Y variables discretas con-juntas . Se define como función de acumulación condicional discreta de Y dado X = x a lo siguiente:

F (y|x) = P (Y ≤ y|X = x) f(x) > 0 (9.12)

Similarmente:

F (x|y) = P (X ≤ x|Y = y) f(y) > 0 (9.13)

No hay que perder de vista que:

F (y|x) =∑j:yj≤y

f(yj |x) (9.14)

Definition 9.12 (Función de densidad condicional continua). Sean X e Y variables continuas conjuntas confunción de densidad f(x,y). Se define como función de densidad condicional continua de Y dado X = x a losiguiente:

f(y|x) =f(x, y)f(x)

f(x) > 0 (9.15)

Similarmente:

35

f(x|y) =f(x, y)f(y)

f(y) > 0 (9.16)

Definition 9.13 (Función de distribución acumulada condicional continua). Sean X e Y variables conjuntascontinuas . Se define como función de acumulación condicional continua de Y dado X = x a lo siguiente:

F (y|x) =∫ y

−∞f(z|x)dz f(x) > 0 (9.17)

Similarmente:

F (y|x) =∫ x

−∞f(z|y)dz f(y) > 0 (9.18)

Definition 9.14. Dos variables X e Y que forman un vector aleatorio son independientes si:

Su distribución de acumulación conjunta es el producto de sus distribuciones de acumulación marginalesSu distribución de densidad conjunta es el producto de sus distribuciones de densidad marginales

Definition 9.15.

9.2. Ejercicios propuestos

a) Suponga que una variable aleatoria bidimensional (X,Y) se distribuye de manera uniforme en la regiónlimitada por las curvas y = x y y = x2

1) Encuentre la función de densidad conjunta de (X,Y )2) Encuentre la función marginal de X3) Encuentre la función marginal de Y4) Grafique las funciones marginales

b) Suponga que una variable bidimensional (X,Y ) tiene la siguiente función de densidad:

f(x, y) = x2 +xy

30 ≤ x ≤ 1 0 ≤ y ≤ 2

1) Verifique que es una función de densidad2) Sea B=X + Y < 1. Calcule la probabilidad de B

3) Calcule P (Y < 12 |X < 1

2 )

c) Suponga que la función de densidad conjunta de X e Y es:

f(x, y) =316

(4− 2x− y) x > 0 y > 0 2x+ y < 4

36

1) Determine la función de densidad condicional de Y dado X.2) Calcule P(Y ≥ 2|X = 0,5)

9.3. Valor esperado

Definition 9.16 (Valor esperado). Sea (X1, . . . , Xk) una variable aleatoria k-dimensional con función de den-sidad f(x1, . . . , xk). El valor esperado de una función g(x1, . . . , xk) se define como:

E(g(X1, . . . , Xk)) =∑

g(x1, . . . , xk) · f(x1, . . . , xk) (9.19)

Si la variable aleatoria (X1, . . . , Xk) es discreta, siendo la suma sobre todos los valores posibles de (X1, . . . , Xk)y:

E(g(X1, . . . , Xk)) =∫ ∞−∞· · ·∫ ∞−∞

g(x1, . . . , xk) · f(x1, . . . , xk)dx1 . . . dxk (9.20)

Si la variable aleatoria (X1, . . . , Xk) es continua.

9.4. Esperanza condicional

Definition 9.17. Sean (X,Y ) una variable aleatoria bidimensional y g(x, y) una función de dos variables. Laesperanza condicional de g(X,Y ) dado X = x denotado por E(g(X,Y )|X = x) se define como:

E(g(X,Y )|X = x) =∫ ∞−∞

g(x, y)f(y|x)dy (9.21)

Si la variable (X,Y ) es conjuntamente continua. Y:

E(g(X,Y )|X = x) =∑

g(x, yj)f(yj |x) (9.22)

Si la variable (X,Y ) es conjuntamente discreta, donde la suma es sobre todos los posibles valores de Y.

Theorem 9.3. Sea (X,Y ) una variable aleatoria bidimensional, entonces:

E(g(Y )) = E(E(g(Y )|X)) (9.23)

37

En particular:

E(Y ) = E(E(Y |X)) (9.24)

Definition 9.18 (Varianza condicional). La varianza de Y dado X = x se define como:

V (Y |X = x) = E(Y 2|X = x)− (E(Y |X = x))2 (9.25)

Theorem 9.4.V (Y ) = E(V (Y |X)) + V (E(Y |X)) (9.26)

Theorem 9.5. Sea (X,Y ) una variable aleatoria bidimensional y g1 y g2 funciones de una variable, entonces:

E(g1(Y ) + g2(Y )|X = x) = E(g1(Y )|X = x) + E(g2(Y )|X = x) (9.27)

E(g1(Y ) · g2(X)|X = x) = g2(x)E(g1(Y )|X = x) (9.28)

Theorem 9.6. Si X e Y son independientes y g1, g2 son dos funciones de un sólo argumento, entonces:

E(g1(X) · g2(Y )) = E(g1(X)) · E(g2(Y )) (9.29)

9.5. Momentos y función generadora de momentos conjunta

Definition 9.19 (Momentos conjuntos). Los momentos conjuntos de X1, X2, . . . , Xk se define como:

E(Xr11 Xr2

2 · · ·Xrkk ) (9.30)

donde las ri ’s son cero o cualquier entero positivo.

Los momentos conjuntos alrededor de las medias se define como:

38

E((X1 − µX1)r1 · · · (Xk − µXk)rk) (9.31)

Definition 9.20 (Función generadora de momentos conjunta). La función generadora de momentos conjunta de(X1, . . . , Xk) se define como:

m(t1, . . . , tk) = E(expk∑j=1

tjXj) (9.32)

Si el valor esperado existe.

Theorem 9.7. Dos variables aleatorias conjuntamente distribuidas X e Y son independientes si y sólo si:

m(t1, t2) = m(t1) ·m(t2) (9.33)

Definition 9.21. Sean X e Y cualesquiera dos variables aleatorias definidas en el mismo espacio. Se define lacovarianza de X e Y como:

cov(X,Y ) = σX,Y = E((X − E(X))(Y − E(Y ))) (9.34)

De esta definición se deduce el siguiente resultado:

cov(X,Y ) = σX,Y = E(X · Y )− E(X) · E(Y ) (9.35)

Definition 9.22. Se define el coeficiente de correlación de las variables X e Y como:

ρX,Y =σX,YσX · σY

(9.36)

Theorem 9.8. Si X e Y son independientes entonces cov(X,Y ) = 0.

Definition 9.23. Las variables X e Y se dice que no son correlacionadas si y sólo si Cox(X,Y ) = 0

Observación: cov(X,Y)=0 no siempre implica que X e Y sean independientes

39

9.6. Ejercicios propuestos

a) Dada la siguiente función de densidad conjunta:

18

(6− x− y) 0 < x < 2 2 < x < 4

1) Encontrar E(Y|X=x)2) Encontrar V(Y|X=x)3) Mostrar que E(Y) = E(E(Y|X))

b) Supóngase que X tiene una distribución uniforme en el intervalo (−2, 2) y que Y = X6. ¿Las variables seencontrarán correlacionadas?

9.7. Sumas de variables aleatorias

En muchas situaciones resulta de interés conocer el comportamiento de la suma de variables aleatorias. A conti-nuación se mostrará una serie de resultados que será importante tener presente.

Theorem 9.9. Para variables aleatorias X1, . . . , Xn

E(n∑i=1

Xi) =n∑i=1

E(Xi) (9.37)

y

V ar(n∑i=1

Xi) =n∑i=1

V ar(Xi) + 2∑∑

i<j

Cov(Xi, Xj) (9.38)

Theorem 9.10. Si X1, . . . , Xn son variables no correlacionadas entonces:

V ar(n∑i=1

Xi) =n∑i=1

V ar(Xi) (9.39)

Theorem 9.11. Sean X1, . . . , Xn y Y1, . . . , Ym, dos conjuntos de variables aleatorias y sean a1, . . . , an yb1, . . . , bm dos conjuntos de constantes, entonces:

Cov(n∑i=1

aiXi,

m∑j=1

bjYj) =n∑i=1

m∑j=1

aibjCov(Xi, Yj) (9.40)

40

Theorem 9.12. SiX1, . . . , Xn es un conjunto de variables aleatorias y a1, . . . , an es un conjunto de constantes,entonces:

V ar(n∑i=1

aiXi) =n∑i=1

a2iV ar(Xi) +

∑∑i 6=j

aiajCov(Xi, Xj) (9.41)

Theorem 9.13. Si X1, . . . , Xn es un conjunto de variables aleatorias independientes e identicamente distribui-das con media µX y varianza σ2

X y si

Xn =∑ni=1Xi

n

Entonces:

E(Xn) = µX (9.42)

y

V ar(Xn) =σ2X

n(9.43)

Theorem 9.14. Sean X e Y dos variables aleatorias para las cuales V ar(X · Y ) existe. Entonces:

E(XY ) = µX · µY + Cov(X,Y ) (9.44)

Además:

V ar(XY ) = µ2Y V ar(X) +µ2

XV ar(Y ) + 2µXµY Cov(X,Y )− (Cov(X,Y ))2 +E((X−µX)2(Y −µY )2) +2µY E((X − µX)2(Y − µY )) + 2µXE((X − µX)(Y − µY )2)

Theorem 9.15. Si X e Y son variables aleatorias independientes entonces:

E(XY ) = µX · µY (9.45)

41

y

V ar(XY ) = µ2Y V ar(X) + µ2

XV ar(Y ) + V ar(X)V ar(Y ) (9.46)

Theorem 9.16.E(

X

Y) ≈ µX

µY− Cov(X,Y )

µ2Y

+µXµ3Y

V ar(Y ) (9.47)

y

V ar(X

Y) ≈ (

µXµY

)2 · (V ar(X)µ2X

+V ar(Y )µ2Y

− 2Cov(X,Y )µXµY

) (9.48)

10. Distribución de funciones de variables aleatorias

En ocasiones dado que se tiene conocimiento de un conjuntoX1, . . . , Xn de variables aleatorias, se desea obte-ner la distribución conjunta de Y1, . . . , Yn donde Yi = gi(X1, . . . , Xn). Para lograr este objetivo las siguientestécnicas son de utilidad:

Método de la función de distribución acumulativaMétodo de la función generadora de momentosMétodo de transformación

A continuación se describirá brevemente cada una de las técnicas:

10.1. Método de la función de distribución acumulativa

Dado un conjunto de variables aleatoriasX1, . . . , Xn se busca determinar la distribución conjunta de Y1, . . . , Ykdonde Yi = gi(X1, . . . , Xn) i = 1, . . . , k obteniendo la función acumulativa de Y1, . . . , Yk.

Esto es:

FY1,...,Yk(y1, . . . , yk) = P (Y1 ≤ y1, . . . , Yk ≤ yk)

Dado que el evento Y1 ≤ y1, . . . , Yk ≤ yk es equivalente a g1(X1, . . . , Xn) ≤ y1, . . . , gk(X1, . . . , Xn) ≤yk tenemos que:

FY1,...,Yk(y1, . . . , yk) = P (g1(X1, . . . , Xn) ≤ y1, . . . , gk(X1, . . . , Xn) ≤ yk)

42

10.2. Ejemplos

Sea X una variable aleatoria con distribución Normal con media 0 y varianza 1. Además sea Y = X2. ¿Cómose distribuye Y?

Solución:

FY (y) = P (Y ≤ y)

= P(X2 ≤ y)

= P(-√y ≤ X ≤ √y)

= 2∫√y

01√2πe−x2

2 dx

= 2∫ y

01√2π

12√ue−u2

2 du

=∫ y

0( 1

2 )12 · u

12−1

Γ( 12 )· e−u

22 du

La cual es una distribución Gamma con parámetros r y λ = 12

Sean X1, . . . , Xn variables aleatorias. Sea Y = max(X1, . . . , Xn. ¿Cuál es la distribución del máximo?

Solución:

Se desea encontrar P (Y ≤ y). Si el máximo de X1, . . . , Xn es menor igual a y entonces debe ser cierto queX1 ≤ y, . . . , Xn ≤ y. Así:

FY (y) = P (Y ≤ y) = P (X1 ≤ y,X2 ≤ y, . . . , Xn ≤ y)

Si además X1, . . . , Xn fueran independientes entonces:

FY (y) =n∏i=1

P (Xi ≤ y) =n∏i=1

FXi(y)

Y finalmente si X1, . . . , Xn tuvieran la misma distribución:

FY (y) = (FX(y))n

43

y

fY (y) = n(FX(y))n−1fX(y)

Sean X1, . . . , Xn variables aleatorias. Sea Y = min(X1, . . . , Xn. ¿Cuál es la distribución del mínimo?

Solución:

De manera análoga que el anterior ejemplo queremos encontrar P (Y ≤ y) = 1 − P (Y > y). Si el mínimo deX1, . . . , Xn es mayor a y entonces debe ser cierto que X1 > y, . . . ,Xn > y. Así:

FY (y) = P (Y ≤ y) = 1− P (X1 > y,X2 > y, . . . ,Xn > y)

Si además X1, . . . , Xn fueran independientes entonces:

FY (y) = 1−n∏i=1

P (Xi > y) = 1−n∏i=1

(1− FXi(y))

Y finalmente si X1, . . . , Xn tuvieran la misma distribución:

FY (y) = 1− (1− FX(y))n

y

fY (y) = n(1− FX(y))n−1fX(y)

10.3. Ejercicios propuestos

a) Las variables X1, . . . , Xn representan el ingreso de n contribuyentes seleccionados aleatoriamente. Asu-miendo independencia y la siguiente función de densidad:

44

θxθ0xθ+1

x > x0

Encuentre la función de densidad del mínimo de los ingresos, asumiendo θ = 100 y x0 =4000.

b) Sea Y el número de cierto tipo de accidente al tiempo t. Asumiendo una distribución Poisson con parámetro β ·t, dondeβ > 0 es la intensidad de frecuencia de siniestros. ¿Cuál sería la distribución del tiempo del primer accidente? ¿Cuálsería la distribución del tiempo del k-ésimo accidente?

10.4. Técnica de la función generadora de momentos

Dado un conjunto de variables aleatorias X1, . . . , Xn se busca determinar la distribución conjunta de Y1, . . . , Ykdonde Yi = gi(X1, . . . , Xn) i = 1, . . . , k por medio de la función generadora de momentos:

mY1,...,Yk(t1, . . . , tk) = E(exp(k∑i=1

tiYi)

Theorem 10.1. Si X1, . . . , Xn son variables aleatorias independientes e identicamente distribuidas y si Y =∑ni=1Xi ; entonces:

mY (t) =n∏i=1

mXi(t) (10.1)

10.5. Ejercicios propuestos

a) Sean X1, . . . , Xn son variables aleatorias independientes e identicamente distribuidas. Encuentre la fun-ción de densidad de Y =

∑ni=1Xi cuando:

1) Xi tiene una distribución Bernoulli2) Xi tiene una distribución Poisson3) Xi tiene una distribución Exponencial

b) Un sistema funciona mientras se encuentre con vida al menos uno de sus tres componentes. Cuando los trescomponentes funcionan el tiempo de vida de cada uno tiene una distribución exponencial con parámetro λ

3 .Cuando falla alguno, la distribución de cada uno de los restantes es exponencial con parámetro λ

2 . Cuandosólo queda uno su distribución es una exponencial con parámetro λ¿Cuál es la distribución del tiempo de vida del sistema?

c) El monto de pérdidas acumuladas en cierto período de una cuenta tiene la siguiente forma:

45

SN =N∑i=1

Xi

Donde Xi es el monto del siniestro i-ésimo y N es una variable aleatoria que representa el número de si-niestros ocurridos. Asumiendo independencia entre N y las X’s

1) Determine el valor esperado y la varianza de SN2) Suponiendo para N una distribución geométrica con parámetro p y para X una distribución exponen-

cial con parámetro λ determine como se distribuye SN

11. Bibliografía

Mood, Graybill, Boes. Introduction to the theory of statistics. McGraw-Hill.

Meyer,Paul L. Introductory Probability and statistical applications. Addison-Wesley.

Morris H. DeGroot. Probability and Statistics. Addison-Wesley.

46