ejercicios de final de probabilidades y estadistica resueltos...ejercicios de final de...

37
Ejercicios de Final de Probabilidades y Estadistica Resueltos Federico Yulita Verano, 2020 Esta materia la cursé el primer cuatrimestre del 2019 con Matthieu Jonckheere como docente de las clases teóricas y Pablo Groisman como JTP. Estas son las soluciones a las preguntas de final que da Matthieu, las pueden encontrar en la página de la materia. Si querés ver el resto de mis apuntes los podés encontrar en mi blog. Índice 1. Probabilidad. Definición y Enunciados 3 1.1. Ejercicio 1 ................................................... 3 1.2. Ejercicio 2 ................................................... 3 1.3. Ejercicio 3 ................................................... 4 1.4. Ejercicio 4 ................................................... 4 1.5. Ejercicio 5 ................................................... 4 2. Probabilidad Condicional e Independencia 5 2.1. Ejercicio 6 ................................................... 5 2.2. Ejercicio 7 ................................................... 5 2.3. Ejercicio 8 ................................................... 5 2.4. Ejercicio 9 ................................................... 6 2.5. Ejercicio 10 .................................................. 6 2.6. Ejercicio 11 .................................................. 7 2.7. Ejercicio 12 .................................................. 7 2.8. Ejercicio 13 .................................................. 7 2.9. Ejercicio 14 .................................................. 8 3. Variables Aleatorias 10 3.1. Ejercicio 15 .................................................. 10 3.2. Ejercicio 16 .................................................. 12 3.3. Ejercicio 17 .................................................. 12 3.4. Ejercicio 18 .................................................. 13 3.5. Ejercicio 19 .................................................. 13 3.6. Ejercicio 20 .................................................. 14 3.7. Ejercicio 21 .................................................. 15 3.8. Ejercicio 22 .................................................. 16 3.9. Ejercicio 23 .................................................. 17 3.10. Ejercicio 24 .................................................. 17 4. Convergencia en Distribución 19 4.1. Ejercicio 25 .................................................. 19 4.2. Ejercicio 26 .................................................. 20 4.3. Ejercicio 27 .................................................. 21 4.4. Ejercicio 28 .................................................. 21 1

Upload: others

Post on 13-Feb-2021

68 views

Category:

Documents


0 download

TRANSCRIPT

  • Ejercicios de Final de Probabilidades y Estadistica ResueltosFederico Yulita

    Verano, 2020

    Esta materia la cursé el primer cuatrimestre del 2019 con Matthieu Jonckheere como docente de las clasesteóricas y Pablo Groisman como JTP. Estas son las soluciones a las preguntas de final que da Matthieu, las puedenencontrar en la página de la materia. Si querés ver el resto de mis apuntes los podés encontrar en mi blog.

    Índice1. Probabilidad. Definición y Enunciados 3

    1.1. Ejercicio 1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31.2. Ejercicio 2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31.3. Ejercicio 3 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41.4. Ejercicio 4 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41.5. Ejercicio 5 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4

    2. Probabilidad Condicional e Independencia 52.1. Ejercicio 6 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52.2. Ejercicio 7 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52.3. Ejercicio 8 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52.4. Ejercicio 9 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 62.5. Ejercicio 10 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 62.6. Ejercicio 11 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 72.7. Ejercicio 12 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 72.8. Ejercicio 13 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 72.9. Ejercicio 14 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8

    3. Variables Aleatorias 103.1. Ejercicio 15 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 103.2. Ejercicio 16 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 123.3. Ejercicio 17 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 123.4. Ejercicio 18 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 133.5. Ejercicio 19 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 133.6. Ejercicio 20 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 143.7. Ejercicio 21 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 153.8. Ejercicio 22 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 163.9. Ejercicio 23 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 173.10. Ejercicio 24 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17

    4. Convergencia en Distribución 194.1. Ejercicio 25 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 194.2. Ejercicio 26 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 204.3. Ejercicio 27 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 214.4. Ejercicio 28 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21

    1

    http://cms.dm.uba.ar/academico/materias/1ercuat2019/probabilidades_y_estadistica_C/https://elrepositoriodefede.wordpress.com/

  • 5. Vectores Aleatorios 215.1. Ejercicio 29 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 215.2. Ejercicio 30 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 225.3. Ejercicio 31 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 235.4. Ejercicio 32 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 235.5. Ejercicio 33 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 245.6. Ejercicio 34 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 255.7. Ejercicio 35 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 265.8. Ejercicio 36 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 275.9. Ejercicio 37 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 275.10. Ejercicio 38 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 285.11. Ejercicio 39 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 285.12. Ejercicio 40 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 295.13. Ejercicio 41 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 305.14. Ejercicio 42 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 305.15. Ejercicio 43 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31

    6. Esperanza 326.1. Ejercicio 44 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 326.2. Ejercicio 45 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 326.3. Ejercicio 46 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 346.4. Ejercicio 47 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 346.5. Ejercicio 48 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 356.6. Ejercicio 49 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35

    7. Esperanza Condicional 35

    8. Generación de Variables Aleatorias 35

    9. Convergencia de Variables Aleatorias 35

    10.Funciones Generadora de Momentos FGM 35

    11.Ley de Grandes Números y Teorema Central del Límite 35

    12.Estimadores 36

    13.Intervalos de Confianza 36

    14.Test de Hipótesis 36

    15.Tests No Paramétricos 36

    2

  • 1. Probabilidad. Definición y Enunciados1.1. Ejercicio 1Ejercicio 1. Enuncie los axiomas de probabilidad. Demuestre a partir de los axiomas que P (Ac) = 1−P (A) y quesi B ⊆ A entonces P (A\B) = P (A)− P (B).

    Solución. Los axiomas de la probabilidad definen tres espacios: el Espacio Muestral S, el Espacio de EventosF y la Probabilidad P. En el espacio muestral existen todos los posibles resultados de un experimento de interés(tirar un dado, la nota de una materia, que Chernobyl explote, etc.). En el espacio de eventos existen los Eventos,que son subconjuntos del espacio de eventos (tirar un dado dos veces y sacar un 2 y un 3, sacarse un 6 en Proba,que Chernobyl explote 4 veces, etc.). Si S es un espacio numerable entonces F = P (S). La probabilidad, según lainterpretación frecuentista, define la probabilidad de la siguiente manera. Si consideramos un experimento que serepite N veces y ocurre cierto evento A n veces entonces:

    P (A) = ĺımN→∞

    n

    N

    Definición. P : F → [0, 1] /P (S) = 1. Sea {An} : Ai ∩Aj = ∅ ∀i, j ∈ N =⇒ P (∪∞i=1Ai) =∑∞i=1 P (Ai).

    Demostración. Entonces, consideremos dos eventos A y Ac. Ya que Ac es el complemento de A entonces A∩Ac = ∅.Por lo tanto, por la definición de probabilidad sabemos que:

    P (A) + P (Ac) = P (A ∪Ac)= P (S)= 1

    =⇒ P (Ac) = 1− P (A)

    Ahora consideremos dos eventos A y B, donde B ⊂ A. Sabemos de álgebra que A = (A\B) ∪ (A ∩B) y que(A\B) ∩ (A ∩B) = ∅. Entonces:

    P (A) = P ((A\B) ∪ (A ∩B))= P (A\B) + P (A ∩B)

    B ⊆ A→ = P (A\B) + P (B)

    =⇒ P (A\B) = P (A)− P (B)

    1.2. Ejercicio 2Ejercicio 2. Demuestre usando los axiomas de probabilidad que P (A ∪B) = P (A) + P (B)− P (A ∩B).

    Demostración. Consideremos dos eventos A y B cuya intersección no es necesariamente vacío. Entonces, conside-remos dos eventos A y C = B\A ∩B. Ahora, A ∩ C = ∅, A ∪ C = A ∪B y A ∩B ⊂ B. Entonces:

    P (A ∪B) = P (A ∪ C)= P (A) + P (B\A ∩B)= P (A) + P (B)− P (A ∩B)

    3

  • 1.3. Ejercicio 3Ejercicio 3. Demuestre usando los axiomas de probabilidad que P (∪∞i=1Ai) 6

    ∑∞i=1 P (Ai).

    Demostración. Este es muy simple, sabemos que:

    P (A ∪B) = P (A) + P (B)− P (A ∩B)6 P (A) + P (B)

    Entonces, es fácil generalizar a la intersección de muchos conjuntos y ver que:

    P (∪∞i=1Ai) 6∞∑i=1

    P (Ai)

    1.4. Ejercicio 4Ejercicio 4. Demuestre usando los axiomas de probabilidad que si An−1 ⊆ An y A = ∪∞n=1An, entonces P (A) =ĺımn→∞ P (An).Demostración. Consideremos la sucesión {Bi} ∈ S tal que Bi = Ai\Ai−1 ∀i ∈ N\ {1} y B1 = A1. Entonces,An = ∪ni=1Bi y Bi ∩Bj = ∅ ∀i 6= j. Además:

    A = ∪∞i=1Ai= ∪∞i=1Bi

    Entonces:

    P (A) = P (∪∞i=1Bi)

    =∞∑i=1

    P (Bi)

    = ĺımn→∞

    n∑i=1

    P (Bi)

    = ĺımn→∞

    P (∪ni=1Bi)

    = ĺımn→∞

    P (An)

    1.5. Ejercicio 5Ejercicio 5. Demuestre usando los axiomas de probabilidad que si An ⊆ An−1 y A = ∩∞n=1An, entonces P (A) =ĺımn→∞ P (An).Demostración. Consideremos la sucesión {Bi} ∈ S tal que Bi = Aci ∀i ∈ N y tomemos al evento A = ∩∞n=1An.Entonces, Ac = ∪∞n=1Bn. Entonces:

    P (Ac) = ĺımn→∞

    P (Bn)

    = ĺımn→∞

    P (Acn)

    = ĺımn→∞

    (1− P (An))

    = 1− ĺımn→∞

    P (An)

    = 1− P (A)

    4

  • =⇒ P (A) = ĺımn→∞

    P (An)

    2. Probabilidad Condicional e Independencia2.1. Ejercicio 6Ejercicio 6. En una muestra de 100 personas hay 13 personas enfermas y no vacunadas, 2 enfermas y vacunadas,75 sanas y vacunadas y 10 sanas y no vacunadas. Elegimos una persona al azar y vemos que está enferma. ¿Cuáles la probabilidad de que no se haya vacunado?

    Solución. Hagamos una tabla con la información:

    Vacunado No Vacunado SumaEnfermo 2 13 15Sano 75 10 85Suma 77 23 100

    Entonces, la probabilidad de que una persona enferma al azar esté vacunada es:

    P (V |E) = P (V ∩ E)P (E)

    =2

    10015100

    = 215

    2.2. Ejercicio 7Ejercicio 7. Una familia tiene dos hijos. Sabemos que el primer hijo es varón. ¿Cuál es la probabilidad de que elsegundo hijo sea también varón?

    Solución. Supongamos que la probabilidad de que un bebé recién nacido sea varón (mejor dicho “de sexo mascu-lino”) es 0.5. Asumamos también que el sexo de dos hermanos son eventos independientes. Entonces:

    P (V |V ) = P (V ∩ V )P (V )

    = 0.5 · 0.50.5= 0.5

    2.3. Ejercicio 8Ejercicio 8. Sabemos que una familia con dos hijos tiene por lo menos un hijo varón. ¿Cuál es la probabilidad quelos dos sean varones?

    Solución. Supongamos las mismas cosas que las del ejercicio anterior. Consideremos V como la variable aleatoriaque cuenta la cantidad de hijos varones de la familia. V ∈ {0, 1, 2}. El espacio de eventos es:

    5

  • F = {vv, vm,mv,mm}

    donde v representa un varón,m una mujer y el orden en el que se escriben denota el orden en que nacieron. Entonces,la distribución de V es:

    P (V = v) =

    0.25 v = 00.5 v = 10.25 v = 2

    Entonces:

    P (V = 2|V > 1) = P (V = 2 ∩ V > 1)P (V > 1)

    = P (V = 2)P (V = 1 ∪ V = 2)

    = 0.250.5 + 0.25

    = 13

    2.4. Ejercicio 9Ejercicio 9. Visitamos una familia con dos hijos. Tocamos el timbre y un chico varón abre la puerta. ¿Cuál es laprobabilidad que el otro chico sea varón?

    Solución. Consideremos las mismas cosas que las del ejercicio anterior. Ahora, el espacio de eventos es:

    F = {v∗v, vv∗, v∗m, vm∗,m∗v,mv∗,m∗m,mm∗}

    donde ahora el asterisco denota quién abrió la puerta. Como sabemos que la puerta la abrió un varón entonces nosrestringimos a trabajar en el subespacio:

    {v∗v, vv∗, v∗m,mv∗}

    Notemos que en 2 de los 4 posibles eventos el segundo hijo es varón. Entonces:

    P (V ) = 12

    2.5. Ejercicio 10Ejercicio 10. Demueste la regla de multiplicacion de las probabilidades condicionales:

    P (A1 . . . An) = P (A1)P (A2|A1)P (A3|A1A2) . . .P (An|A1 . . . An−1)

    Demostración. Esta demostración es más fácil de hacer desde la “otra dirección”. Notemos:

    n∏i=1

    P(Ai| ∩i−1j=1 Aj

    )=

    n∏i=1

    P(∩ij=1Aj

    )P(∩i−1j=1Aj

    )=���P (A1) ·(

    (((((P (A1 ∩A2)

    ���P (A1)· · · · ·

    P(∩nj=1Aj

    )���

    ���P(∩n−1j=1Aj

    )= P

    (∩nj=1Aj

    )

    6

  • 2.6. Ejercicio 11Ejercicio 11. Una urna tiene 4 bolas negras y 3 rojas. Sacamos tres bolas sin reposición. ¿Cuál es la probabilidadque la primera bola salga negra y la tercera salga roja?

    Solución.

    P (B1 = N ∩B3 = R) = P ((B1 = N ∩B2 = N ∩B3 = R) ∪ (B1 = N ∩B2 = R ∩B3 = R))= P (B1 = N ∩B2 = N ∩B3 = R) + P (B1 = N ∩B2 = R ∩B3 = R)

    = 47 ·36 ·

    35 +

    47 ·

    36 ·

    35

    = 1235

    2.7. Ejercicio 12Ejercicio 12. Enuncie y demuestre la fórmula de la probabilidad total y el Teorema de Bayes.

    Proposición. Fórmula de Probabilidad Total: Sea {Bi} una partición de S, i 6 N ⊆ N, y A ∈ S =⇒ P (A) =∑Ni=1 P (A|Bi)P (Bi).

    Demostración.

    P (A) = P (A ∩ S)= P

    (A ∩

    (∪Ni=1Bi

    ))= P

    (∪Ni=1 (A ∩Bi)

    )(A ∩Bi) ∩ (A ∩Bj) = ∅ → =

    N∑i=1

    P (A ∩Bi)

    =N∑i=1

    P (A|Bi)P (Bi)

    Proposición. Fórmula de Bayes: Sea {Bi} una partición de S, i 6 N ⊆ N, y A ∈ S =⇒ P (Bi|A) =P(A|Bi)P(Bi)∑Nj=1

    P(A|Bj)P(Bj).

    Demostración.

    P (Bi|A) =P (Bi ∩A)

    P (A)

    = P (A|Bi)P (Bi)P (A)

    Usando la fórmula de probabilidad total:

    P (Bi|A) =P (A|Bi)P (Bi)∑Nj=1 P (A|Bj)P (Bj)

    2.8. Ejercicio 13Ejercicio 13. Hay tres puertas cerradas y un premio detrás de una de las puertas. Elijo una puerta y el presentadorabre una de las otras dos que no tiene premio. Me da la opción de cambiar de puerta. ¿Conviene cambiar? Justifique.

    7

  • Demostración. Este problema se conoce como el Problema de Monty Hall por el famoso presentador de pro-gramas de televisión. Al principio uno elige una puerta al azar (o con algún motivo posiblemente vinculado a lasuperstición) y Monty Hall revela otra puerta que no contiene al premio. Hasta este punto las probabilidades dehaber elegido la puerta con el premio detrás es de 13 . Sin embargo, ya que una puerta fue revelada entonces quedasólo otra puerta además de la que uno eligió. Ya que las chances de que el premio esté detrás de la puerta elegidaes 13 , y cómo sabemos que el premio no está detrás de la puerta revelada, entonces hay una probabilidad de

    23 de

    que el premio esté detrás de la otra puerta. Por lo tanto, siempre conviene cambiar de puerta.Sin pérdida de generalidad consideremos que elegimos la puerta 1. Tomemos los eventos:{

    A : El presentador abre la puerta 3.Bi : El premio está detrás de la puerta i i ∈ {1, 2, 3}

    =⇒ P (Bi) =13 ∀i

    Notemos: P (A|B1) = 12P (A|B2) = 1P (A|B3) = 0

    Usando la fórmula de probabilidad total obtenemos que:

    P (A) =3∑i=1

    P (A|Bi)P (Bi)

    = 13

    (12 + 1 + 0

    )= 12

    Entonces:

    P (Bi|A) =P (A|Bi)P (Bi)

    P (A)

    = 23P (A|Bi)

    =⇒

    P (B1|A) = 12P (B2|A) = 23P (B3|A) = 0

    Notemos que la probabilidad de que el premio esté detrás de la puerta 2 es el doble que la probabilidad de que estédetrás de la puerta 1. Ya que elegimos la puerta 1, nos conviene cambiar.

    2.9. Ejercicio 14Ejercicio 14. Defina independencia para una familia {Ai} , i ∈ I, donde Ai son eventos e I es un conjunto deíndices. Dé un ejemplo de tres eventos independientes dos a dos pero no independientes.

    Definición. Sea {Ai} ∈ S, i ∈ I ⊆ N donde I es un conjunto de índices, llamamos al conjunto una Familia deEventos Independientes si P (∩i∈JAi) =

    ∏i∈J P (Ai) ∀J ⊆ I.

    8

  • Ejemplo. Consideremos que se tiran dos monedas y definamos tres eventos:A : La primera moneda sale cara.B : La segunda moneda sale cara.C : Ambas monedas salen igual (cara o cruz).

    El espacio de eventos es:

    F = {HH,HT, TH, TT}

    donde H denota cara, T denota cruz y el orden denota cómo salió la primera moneda y luego la segunda. Notemos:P (A) = 12P (B) = 12P (C) = 12

    P (A ∩B) = 14= 12 ·

    12

    = P (A)P (B)

    =⇒ P (A ∩B) = P (A)P (B)

    =⇒ A ⊥ B

    Consideremos X como el evento A o el evento B (cualquiera de los dos). Entonces:

    P (X ∩ C) = P (A ∩B)

    = 14= 12 ·

    12

    = P (X)P (C)

    =⇒ P (X ∩ C) = P (X)P (C)

    =⇒ X ⊥ C

    Entonces, demostramos que los eventos son independientes dos a dos. Es decir, mostramos que A ⊥ B, que A ⊥ Cy que B ⊥ C.

    Veamos cuáles son las probabilidades de que se cumplan los tres eventos:

    P (A ∩B ∩ C) = P ((A ∩B) ∩ C)= P (A ∩B|C)P (C)

    = 12 ·12

    = 14

    Sin embargo:

    9

  • P (A)P (B)P (C) = 12 ·12 ·

    12

    = 186= 14

    Entonces:

    P (A ∩B ∩ C) 6= P (A)P (B)P (C)

    Esto demuestra que aunque los eventos sean todos independientes entre sí no necesariamente forman una familiade eventos independientes.

    3. Variables Aleatorias3.1. Ejercicio 15Ejercicio 15. Defina la función de distribución acumulada de una variable aleatoria X y enuncie y demuestre suspropiedades.

    Definición. Llamamos a X : S → R una Variable Aleatoria. La llamamos Discreta si toma una numerablecantidad de valores y Continua si no.

    Definición. SeaX una variable aleatoria llamamos a F (x) = P (X 6 x) suDistribución Acumulada y llamamosf (x) = F ′ (x) su Distribución Puntual. En el caso de una distribución puntual f (x) = P (X = x).

    Proposición. Sea X una variable aleatoria y F su distribución acumulada entonces:

    1. F (x) 6 F (y) ∀x 6 y.

    2. ĺımx→x+0 F (x) = F (x0).

    3. ĺımx→−∞ F (x) = 0.

    4. ĺımx→∞ F (x) = 1.

    Demostración. (1)

    F (y) = P (X 6 y)= P (X 6 x+ (y − x))= P ((X 6 x) ∪ (x < X 6 y − x))

    (X 6 x) ∩ (x < X 6 (y − x)) = ∅ → = P (X 6 x) + P (x < X 6 y − x)︸ ︷︷ ︸>0

    > P (X 6 x)= F (x)

    =⇒ F (x) 6 F (y)

    10

  • Demostración. (2)Veamos que ∃δ > 0 / |x− x0| < δ =⇒ |F (x)− F (x0)| < �∀� > 0, x0 ∈ R:

    |F (x)− F (x0)| = |P (X 6 x)− P (X 6 x0)|x > x0 → = |P ((X 6 x0) ∪ (x0 < X 6 x))− P (X 6 x0)|

    (X 6 x0) ∩ (x0 < X 6 x) = ∅ → = |P (X 6 x0) + P (x0 < X 6 x)− P (X 6 x0)|= |P (x0 < X 6 x)|= P (x0 < X 6 x)

    Consideremos el límite por sucesión usando x = x0 + 1n . Notemos que esta sucesión es válida ya que x > x0 ∀n ∈ Ny ĺımn→∞ x = x0. Entonces: ∣∣∣∣F (x0 + 1n

    )− F (x0)

    ∣∣∣∣ = P(x0 < X 6 x0 + 1n)

    < �

    Entonces, ∃n0 ∈ N /P(x0 < X 6 x0 + 1n

    )< �∀n > n0. Entonces:

    δ = 1n0

    Demostración. (3)Consideremos una sucesión de eventos {An} ∈ S donde An = X 6 −n. Notemos que An ⊂ An−1 y que

    X /∈ R = ∩∞n=1An. Entonces:

    P (X /∈ R) = ĺımn→∞

    P (An)

    = ĺımn→∞

    P (X 6 −n)

    = ĺımn→∞

    F (−n)

    = ĺımn→−∞

    F (n)

    = 0

    =⇒ ĺımx→−∞

    F (x) = 0

    Demostración. (4)Consideremos una sucesión de eventos {An} ∈ S, n ∈ N, donde An = X 6 n. Notemos que An−1 ⊂ An y que

    X ∈ R = ∪∞n=1An. Entonces:

    P (X ∈ R) = ĺımn→∞

    P (An)

    = ĺımn→∞

    P (X 6 n)

    = ĺımn→∞

    F (n)

    = 1

    =⇒ ĺımx→∞

    F (x) = 1

    11

  • 3.2. Ejercicio 16Ejercicio 16. Demuestre que para una variable aleatoria X discreta, P (X = x) = F (x)− ĺımt→x− F (t).

    Demostración. Lo que esto esencialmente pide que demostremos es que, dada una variable aleatoria X, entonces:

    ĺımx→x−0

    F (x) = F (x0)− P (X = x0)

    Queremos ver que ∃δ > 0 / |x− x0| < δ =⇒ |F (x)− (F (x0)− P (X = x0))| < �∀� > 0, x0 ∈ R. Notemos:

    |F (x)− (F (x0)− P (X = x0))| = |P (X 6 x)− (P (X 6 x0)− P (X = x0))|x < x0 → = |P (X 6 x)− P ((X 6 x) ∪ (x < X 6 x0)) + P (X = x0)|

    (X 6 x) ∩ (x < X 6 x0) = ∅ → = |P (X 6 x)− (P (X 6 x) + P (x < X 6 x0)) + P (X = x0)|= |P (x < X 6 x0)− P (X = x0)|= P (x < X 6 x0)︸ ︷︷ ︸

    >0

    − P (X = x0)︸ ︷︷ ︸>0

    Consideremos el límite por sucesión usando x = x0 − 1n . Notemos que esta sucesión es válida ya que x < x0 ∀n ∈ Ny ĺımn→∞ x = x0. Entonces:

    ∣∣∣∣F (x0 − 1n)− (F (x0)− P (X = x0))

    ∣∣∣∣ = P(x0 − 1n < X 6 x0)− P (X = x0)

    < �

    Entonces, ∃n0 ∈ N /P(x0 − 1n < X 6 x0

    )− P (X = x0) < �∀n > n0. Entonces:

    δ = 1n0

    3.3. Ejercicio 17Ejercicio 17. Sea F : R → [0, 1] una función continua, estrictamente creciente y tal que ĺımx→∞ F (x) = 1 yĺımx→−∞ F (x) = 0. Demuestre que existe una variable aleatoria X que tiene a F como función de distribuciónacumulda.

    Demostración. Ya que F : R → [0, 1] es estrictamente creciente entonces es biyectiva. Por lo tanto, tiene inversaF−1. Consideremos una variable aleatoria uniforme U ∼ U [0, 1] y otra X = F−1 (U) con distribución acumuladaG. Notemos:

    G (x) = P (X 6 x)= P

    (F−1 (U) 6 x

    )= P (U 6 F (x))= U (F (x))

    La distribución acumulada de U es:

    U (x) = xEntonces:

    G (x) = F (x)Entonces, F es la distribución acumulada de X.

    12

  • 3.4. Ejercicio 18Ejercicio 18. Sean FX y FY las funciones de distribución acumulada de las variables discretas X e Y respectiva-mente, demuestre que P (X = x) = P (Y = x) ∀x ⇐⇒ FX = FY .

    Demostración. ( =⇒ )Tomemos fX = fY y mostremos que entonces FX = FY . Notemos:

    FX (x) = P (X 6 x)

    =x�

    −∞

    fX (x)dx

    =x�

    −∞

    fY (x)dx

    = P (Y 6 x)= FY (x)

    =⇒ FX = FY( ⇐= )Tomemos FX = FY y mostremos que fX = fY . Notemos:

    fX (x) = FX (x)− ĺımt→x−

    FX (t)

    = FY (x)− ĺımt→x−

    FY (t)

    = fY (x)

    =⇒ fX = fY

    3.5. Ejercicio 19Ejercicio 19. Demuestre que N (t) ∼ P (λt) , Yn ∼ Γ (n, λ) =⇒ P (N (t) > n) = P (Yn 6 t) ∀n ∈ Z0, t > 0.

    Demostración.

    P (N (t) > n) = 1− P (N (t) 6 n)

    = 1−n∑

    m=0

    (λt)m

    m! exp (−λt)

    =∞∑m=n

    (λt)m

    m! exp (−λt)

    Queremos ver que esto es la distribución acumulada de una variable aleatoria Yn ∼ Γ (n, λ). Entonces, derivemospor t y veamos si obtenemos la distribución puntual Γ (n, λ):

    13

  • ddtP (N (t) > n) =

    ∞∑m=n

    mλm

    m! tm−1 exp (−λt)−

    ∞∑m=n

    λm+1

    m! tm exp (−λt)

    =∞∑

    m=n−1

    λm+1

    m! tm exp (−λt)−

    ∞∑m=n

    λm+1

    m! tm exp (−λt)

    = λn

    (n− 1)! tn−1 exp (−λt)

    = λn

    Γ (n) tn−1 exp (−λt)

    = Γ (n, λ)

    =⇒ P (N (t) > n) = P (Yn 6 t)

    3.6. Ejercicio 20

    Ejercicio 20. Sea f (x) = 1√2πσ exp(− (x−µ)

    2

    2σ2

    )la densidad de la distribución normal N

    (µ, σ2

    ), demuestre que�∞

    −∞ f (x)dx = 1.

    Demostración. Como f es la distribución puntual de una variable aleatoria entonces:

    ∞�

    −∞

    f (x)dx = F (x)|∞−∞

    = 1− 0= 1

    Sin embargo, este ejercicio probablemente lo que espera es que haga la integración explícita. Entonces, resolva-mos:

    ∞�

    −∞

    1√2πσ

    exp(− (x− µ)

    2

    2σ2

    )dx = 1√

    2πσ

    ∞�

    −∞

    exp(− (x− µ)

    2

    2σ2

    )dx

    Tomemos:

    t = x− µσ

    =⇒ x = µ+ σt

    =⇒ dx = σdt

    =⇒∞�

    −∞

    1√2πσ

    exp(− (x− µ)

    2

    2σ2

    )dx = 1√

    ∞�

    −∞

    exp(− t

    2

    2

    )dt

    Notemos:

    14

  • ∞�−∞

    1√2πσ

    exp(− (x− µ)

    2

    2σ2

    )dx

    2 = 1√

    ∞�

    −∞

    exp(− t

    2

    2

    )dt

    2

    =

    1√2π

    ∞�

    −∞

    exp(− t

    2

    2

    )dt

    1√2π

    ∞�

    −∞

    exp(− t

    2

    2

    )dt

    =

    1√2π

    ∞�

    −∞

    exp(−x

    2

    2

    )dx

    1√2π

    ∞�

    −∞

    exp(−y

    2

    2

    )dy

    = 12π

    ∞�

    −∞

    ∞�

    −∞

    exp(−(x2 + y2

    )2

    )dydx

    = 12π

    ∞�

    0

    2π�

    0

    r exp(−r

    2

    2

    )dθdr

    =∞�

    0

    r exp(−r

    2

    2

    )dr

    =∞�

    0

    −d exp

    (− r

    2

    2

    )dr dr

    = − exp(−r

    2

    2

    )∣∣∣∣∞0

    = 1

    =⇒∞�

    −∞

    1√2πσ

    exp(− (x− µ)

    2

    2σ2

    )dx =

    √1

    = 1

    3.7. Ejercicio 21Ejercicio 21. Demuestre que X ∼ N

    (µ, σ2

    )⇐⇒ X−µσ ∼ N (0, 1).

    Demostración. ( =⇒ )Supongamos que X ∼ N(µ, σ2

    )y demostremos que X−µσ ∼ N (0, 1). Tomemos FX la

    distribución acumulada de X, FX−µσ

    la distribución acumulada de X−µσ , fX la distribución puntual de X y fX−µσla distribución puntual de X−µσ . Notemos:

    FX−µσ

    (x) = P(X − µσ

    6 x

    )= P (X 6 µ+ σx)= FX (µ+ σx)

    15

  • =⇒ fX−µσ

    (x) = ddxFX−µσ (x)

    = ddxFX (µ+ σx)

    = σfX (µ+ σx)

    = 1√2π

    exp(−x

    2

    2

    )

    =⇒ X − µσ

    ∼ N (0, 1)

    ( ⇐= )Supongamos que X−µσ ∼ N (0, 1) y demostremos que X ∼ N(µ, σ2

    ). Tomemos FX la distribución

    acumulada de X, FX−µσ

    la distribución acumulada de X−µσ , fX la distribución puntual de X y fX−µσ la distribuciónpuntual de X−µσ . Notemos:

    FX (x) = P (X 6 x)

    = P(X − µσ

    6x− µσ

    )= FX−µ

    σ

    (x− µσ

    )

    fX (x) =ddxFX (x)

    = ddxFX−µσ

    (x− µσ

    )= 1σfX−µ

    σ

    (x− µσ

    )= 1√

    2πσexp

    (− (x− µ)

    2

    2σ2

    )

    =⇒ X ∼ N(µ, σ2

    )

    3.8. Ejercicio 22Ejercicio 22. Demuestre que si X es una variable exponencial, entonces X no tiene memoria.

    Proposición. Sea X ∼ E (λ) =⇒ P (X > x+ k|X > k) = P (X > x+ k) ∀x, k > 0.

    16

  • Demostración.

    P (X > x+ k|X > k) = P (X > x+ k ∩X > k)P (X > k)

    = P (X > x+ k)P (X > k)

    =�∞x+k λ exp (−λt)dt�∞kλ exp (−λt)dt

    = exp (−λ (x+ k))exp (−λk)= exp (−λx)

    =∞�

    x

    λ exp (−λt)dt

    = P (X > x)

    =⇒ P (X > x+ k|X > k) = P (X > x+ k)

    3.9. Ejercicio 23Ejercicio 23. Sea X una variable aleatoria con densidadfX (x) tal que P (X ∈ (a, b)) = 1, sea g : (a, b) → Restrictamente creciente y sea Y = g (X), demuestre que para y ∈ {g (x) / x ∈ (a, b)}:

    fY (y) = fX(g−1 (y)

    ) ∣∣∣(g−1 (y))′ ∣∣∣Demostración. Ya que g : (a, b) → R y estrictamente creciente entonces g es biyectiva y tiene una inversa g−1.Entonces:

    P (Y 6 y) = P (g (X) 6 y)= P

    (X 6 g−1 (y)

    )= FX

    (g−1 (y)

    )

    =⇒ fY (y) =ddyP (Y 6 y)

    = ddyFX(g−1 (y)

    )= fX

    (g−1 (y)

    ) ∣∣∣(g−1 (y))′ ∣∣∣=⇒ fY (y) = fX

    (g−1 (y)

    ) ∣∣∣(g−1 (y))′ ∣∣∣

    3.10. Ejercicio 24Ejercicio 24. Sea U una variable uniforme en [0, 1]. Para u ∈ [0, 1] defina h (u) = máx {u, 1− u}. Calcule ladistribución acumulada de la variable X = h (U). Calcule E (X) y V (X).

    17

  • Solución. Notemos:

    X = h (U)= máx {U, 1− U}

    =⇒ X ∈[

    12 , 1]

    Demostremos que X ∼ U( 1

    2 , 1):

    P (X 6 x) = P (máx {U, 1− U} 6 x)

    = P((

    U 612 ∩ 1− U 6 x

    )∪(U >

    12 ∩ U 6 x

    ))= P

    ((1− x 6 U 6 12

    )∪(

    12 6 U 6 x

    ))(

    1− x 6 U 6 12

    )∩(

    12 6 U 6 x

    )= ∅ → = P

    (1− x 6 U 6 12

    )+ P

    (12 6 U 6 x

    )

    =

    12�

    1−x

    dt+x�

    12

    dt

    =x�

    1−x

    dt

    = 2x− 1

    =⇒ fX (x) =ddxP (X 6 x)

    = ddx (2x− 1)

    = 2

    = 11− 12

    =⇒ X ∼ U(

    12 , 1)

    Entonces:

    E (X) =1�

    12

    2xdx

    = 1− 14= 34

    18

  • E(X2)

    =1�

    12

    2x2dx

    = 23

    (1− 18

    )= 1424= 712

    V (X) = E(X2)− E2 (X)

    = 712 −(

    34

    )2= 712 −

    916

    = 28− 2748= 148

    4. Convergencia en Distribución4.1. Ejercicio 25Ejercicio 25. Sea Sn ∼ B

    (n, λn

    ), demuestre que ĺımn→∞ P (Sn = k) = λ

    k

    k! exp (−λ).

    Demostración.

    P (Sn = k) =(n

    k

    )(λ

    n

    )k (1− λ

    n

    )n−k= n!k! (n− k)!

    λk

    nk

    (1− λ

    n

    )n−k

    =⇒ ĺımn→∞

    P (Sn = k) = ĺımn→∞

    n!k! (n− k)!

    λk

    nn(n− k)n−k

    = λk

    k! ĺımn→∞n!

    nk (n− k)!

    (1− λ

    n

    )n−k

    = λk

    k! ĺımn→∞

    (n∏

    i=n−k+1

    i

    n

    )(1 + 1(

    −nλ))(nλ )(λkn −λ)

    (∗) = λk

    k! exp (−λ)

    (∗)Notemos:

    ĺımn→∞

    (n∏

    i=n−k+1

    i

    n

    )> ĺımn→∞

    (n∏

    i=n−k+1

    n− kn

    )= 1

    19

  • Además, como la expresión está acotada por 1 entonces:

    ĺımn→∞

    (n∏

    i=n−k+1

    i

    n

    )= 1

    4.2. Ejercicio 26Ejercicio 26. Sea Un ∼ U

    { 1n ,

    2n , . . . ,

    nn

    }, demuestre que Un converge en distribución a U ∼ U (0, 1).

    Demostración. Tomemos k ∈ N, k 6 n. Entonces, la distribución acumulada de cada Un es:

    FUn (k) = P (Un 6 k)

    =k∑i=1

    1n

    = kn

    Sabemos que:

    FU (x) = P (U 6 x)

    =x�

    0

    dt

    = x

    donde x ∈ [0, 1]. Queremos ver que:

    ĺımn→∞

    FUn (x) = FU (x)

    Tomemos k como el mayor número entero tal que kn 6 x. Entonces:

    0 6 x− kn6

    1n

    La primera parte de la desigualdad es trivial de comprobar. La segunda parte viene del hecho de que si la restafuera mayor que 1n entonces se debe tomar k + 1 en vez de k (ya que hay que tomar el mayor k) y así hasta que secumpla la desigualdad (espero que se entienda). Entonces:

    ĺımn→∞

    (x− k

    n

    )= 0

    por el Gran Teorema del Sánguche. Entonces:

    ĺımn→∞

    k

    n= x

    =⇒ ĺımn→∞

    FUn (x) = FU (x)

    Lo curioso de esta propiedad es el hecho de que la sucesión de variables aleatorias Un siempre toma valoresracionales (por definción) mientras que U puede tomar valores irracionales. Que increíble como funcionan los límites.

    20

  • 4.3. Ejercicio 27Ejercicio 27. Sea Yn ∼ G

    (λn

    ), calcule el límite en distribución de Ynn cuando n→∞.

    Solución. Tomemos k / nk ∈ N. Entonces:

    P(Ynn

    6 k

    )= P (Yn 6 nk)

    =nk∑m=1

    λ

    n

    (1− λ

    n

    )m−1= 1−

    (1− λ

    n

    )nk

    = 1−(

    1 + 1(−nλ))(−nλ )(−λk)

    =⇒ ĺımn→∞

    P(Ynn

    6 k

    )= 1− exp (−λk)

    = FYnn

    (k)

    =⇒ fYnn

    (x) = F′(x)

    = λ exp (−λx)

    =⇒ ĺımn→∞

    Ynn∼ E (λ)

    4.4. Ejercicio 28Ejercicio 28. Dé un ejemplo de una sucesión de variables aleatoriasXn que convergen en distribución a la constantec pero que FXn (c) no converge a 1.

    Solución. Tomemos una sucesión de variables aleatorias Xn = c + 1n . Notemos que como Xn > c entoncesP (Xn 6 c) = 0∀n ∈ N. Sin embargo, es claro que Xn converge a c.

    5. Vectores Aleatorios5.1. Ejercicio 29Ejercicio 29. Enuncie y demuestre las propiedades de la función acumulada de un vector aleatorio (X,Y ). ¿Quécondiciones debe satisfacer una funcion F : R2 → [0, 1] para que sea la función acumulada de un vector aleatorio?

    Definición. Sea X ∈ Rd un vector aleatorio entonces definimos su Distribución Puntual como f : Rd → R talque:

    P (x ∈ Ξ) =�

    Ξ

    f (x)dx

    Definición. Sea X ∈ Rd un vector aleatorio entonces definimos su Distribución Acumulada como F =P(∩dn=1Xi 6 xi

    ).

    21

  • La distribución acumulada de un vector debe cumplir que:

    F (x) =�

    Ξ

    f (t)dt

    donde Ξ ={

    t ∈ Rd / ti 6 xi ∀i ∈ [1, d]}. En otras palabras:

    f (x) = ∂∂x1

    ∂x2. . .

    ∂xdF (x)

    Las propiedades que debe cumplir la distribución acumulada son las mismas que para la variable aleatoria:

    1. F (x1, x2, . . . , xi, . . . , xd) 6 F (x1, x2, . . . , yi, . . . , xd) ∀xi 6 yi.

    2. ĺımx→x+0 F (x) = F (x0).

    3. ĺımx→−∞ F (x) = 0.

    4. ĺımx→∞ F (x) = 1.

    La demostración es análoga a la del Ejercicio 15 (3.1).

    5.2. Ejercicio 30Ejercicio 30. Sean X e Y variables aleatorias discretas, demuestre que son equivalentes: (1) X e Y son inde-pendientes. (2) Existen funciones g y h tales que pX,Y (x, y) = g (x)h (y). (3) Existen funciones G y H tales queFX,Y (x, y) = G (x)H (y).

    Demostración. (1 =⇒ 2)

    pX,Y (x, y) = P (X = x ∩ Y = y)X ⊥ Y → = P (X = x)P (Y = y)

    = pX (x) pY (y)= g (x)h (y)

    =⇒{g = pXh = pY

    (2 =⇒ 3)

    FX,Y (x, y) = P (X 6 x ∩ Y 6 y)

    =x∑n=0

    y∑m=0

    pX,Y (n,m)

    =x∑n=0

    y∑m=0

    g (n)h (m)

    =x∑n=0

    g (n)y∑

    m=0h (m)

    = G (x)H (y)

    (3 =⇒ 1)

    FX,Y (x, y) = G (x)H (y)

    22

  • =⇒ FX (x) = ĺımy→∞

    FX,Y (x, y)

    = G (x) ĺımy→∞

    H (y)︸ ︷︷ ︸= 1Cx , Cx∈R

    =⇒ G (x) = CxFX (x)

    Análogamente:

    H (y) = CyFY (y)

    =⇒ FX,Y (x, y) = G (x)H (y)= CxCyFX (x)FY (y)

    ĺım(x,y)→(∞,∞)

    FX,Y (x, y) = CxCy ĺım(x,y)→(∞,∞)

    FX (x)FY (y)

    = CxCy(

    ĺımx→∞

    FX (x))(

    ĺımy→∞

    FY (y))

    = CxCy= 1

    =⇒ FX,Y (x, y) = FX (x)FY (y)

    =⇒ X ⊥ Y

    5.3. Ejercicio 31Ejercicio 31. Suponga que las variables enteras X e Y satisfacen P (X = x ∩ Y = y) = Cax+y, x, y > 1, paraalguna constante C, donde a ∈ (0, 1). Demuestre que X e Y son independientes.

    Demostración. Tomemos Cx, Cy ∈ R /C = CxCy. Entonces:

    FX,Y (x, y) = Cax+y

    = CxaxCyay

    Tomemos G (x) = Cxax y H (y) = Cyay. Entonces:

    FX,Y (x, y) = G (x)H (y)

    Por la propiedad que resolvimos en el problema anterior entonces se deduce que X ⊥ Y .

    5.4. Ejercicio 32Ejercicio 32. Sea a ∈ (0, 1) y suponga que las variables continuas no negativasX e Y satisfacen P (X > x ∩ Y > y) =exp (−λ (x+ y)) para x, y ∈ R+. Calcule C y demuestre que son independientes y calcule sus marginales.

    Solución. Está mal planteado el problema, no se entiende el enunciado :(

    23

  • 5.5. Ejercicio 33Ejercicio 33. Sean X e Y variables aleatorias continuas, demuestre que son equivalentes: (1) X e Y son inde-pendientes. (2) Existen funciones g y h tales que fX,Y (x, y) = g (x)h (y). (3) Existen funciones G y H tales queFX,Y (x, y) = G (x)H (y).

    Demostración. (1 =⇒ 3)

    FX,Y (x, y) = P (X 6 x ∩ Y 6 y)X ⊥ Y → = P (X 6 x)P (Y 6 y)

    = FX (x)FY (y)= G (x)H (y)

    =⇒{G = FXH = FY

    (3 =⇒ 2)

    pX,Y (x, y) =∂

    ∂x

    ∂yFX,Y (x, y)

    = ∂∂x

    ∂y(G (x)H (y))

    = G′(x)H

    ′(y)

    = g (x)h (y)

    =⇒{g = G′

    h = H ′

    (2 =⇒ 1)

    fX,Y (x, y) = g (x)h (y)

    =⇒ fX (x) =∞�

    −∞

    fX,Y (x, y)dy

    = g (x)∞�

    −∞

    h (y)dy

    ︸ ︷︷ ︸= 1Cx , Cx∈R

    =⇒ g (x) = CxfX (x)

    Análogamente:

    h (y) = CyfY (y)

    =⇒ fX,Y (x, y) = g (x)h (y)= CxCyfX (x) fY (y)

    24

  • R2

    fX,Y (x, y)dxdy = CxCy�

    R2

    fX (x) fY (y)dxdy

    = CxCy

    ∞�−∞

    fX (x)dx

    ∞�−∞

    fY (y)dy

    = CxCy= 1

    =⇒ fX,Y (x, y) = fX (x) fY (y)

    =⇒ X ⊥ Y

    5.6. Ejercicio 34

    Ejercicio 34. Sea (X,Y ) un vector aleatorio con X,Y ∼ N (0, 1) independientes: fX,Y (x, y) = 12π exp(−x

    2+y22

    ).

    Calcule la distribución de X2 + Y 2 y de arctan(YX

    ).

    Solución. Tomemos:

    {R2 = X2 + Y 2

    Θ = arctan(YX

    )=⇒

    {X = R cos (Θ)Y = R sin (Θ)

    Notemos:

    FR2(r2)

    = P(R2 6 r2

    )= P

    (X2 + Y 2 6 r2

    )=

    Dr(0,0)

    fX,Y (x, y)dxdy

    =�

    Dr(0,0)

    12π exp

    (−x

    2 + y2

    2

    )dxdy

    =r�

    0

    2π�

    0

    r1

    2π exp(−r

    2

    2

    )dθdr

    =r�

    0

    r exp(−r

    2

    2

    )dr

    = − exp(−r

    2

    2

    )∣∣∣∣r0

    = 1− exp(−r

    2

    2

    )

    25

  • =⇒ fR2(r2)

    = ddr2FR2(r2)

    = ddr2

    (1− exp

    (−r

    2

    2

    ))= 12 exp

    (−r

    2

    2

    )

    =⇒ R2 ∼ E(

    12

    )

    FΘ (θ) = P (Θ 6 θ)

    = P(

    arctan(Y

    X

    )6 θ

    )= P

    (Y

    X6 tan (θ)

    )

    =∞�

    0

    θ�

    0

    r1

    2π exp(−r

    2

    2

    )dθdr

    = θ2π

    (− exp

    (−r

    2

    2

    ))∣∣∣∣∞0

    = θ2π

    =⇒ fΘ (θ) =ddθFΘ (θ)

    = ddθθ

    2π= 12π

    =⇒ Θ ∼ U (0, 2π)

    5.7. Ejercicio 35Ejercicio 35. Sean Xi variables aleatorias positivas e independientes con la misma esperanza finita, i ∈ [1, k] ⊆ Ny N ∈ [1, k] una variable aleatoria equiprobable e independiente de los Xi, calcule E

    (∏Ni=1Xi

    ).

    Solución. Tomemos µ = E (Xi) ∀i. Ya que la distribución de N es euiprobable entonces:

    26

  • E

    (N∏i=1

    Xi

    )=

    k∑i=1

    1kE

    i∏j=1

    Xj

    Xi ⊥ Xj ∀i 6= j → =

    1k

    k∑i=1

    i∏j=1

    E (Xj)

    = 1k

    k∑i=1

    i∏j=1

    µ

    = 1k

    k∑i=1

    µi

    = µk+1 − µ

    (µ− 1) k

    5.8. Ejercicio 36Ejercicio 36. Sean X,Y ∼ N (0, 1) independientes y sea R =

    √X2 + Y 2, calcule P (R 6 r) para R > 0.

    Solución. Este ejercicio se parece un montón al ejercicio 34 (5.6). En ese ejercicio hallamos que R2 ∼ E( 1

    2).

    Entonces:

    P (R 6 r) = P(R2 6 r2

    )= 1− exp

    (−r

    2

    2

    )

    5.9. Ejercicio 37Ejercicio 37. Sea (X,Y ) un vector aleatorio con densidad fX,Y , calcule la distribución de X + Y .

    Solución. Notemos:

    P (X + Y 6 t) = P (Y 6 t−X)

    =∞�

    −∞

    t−x�

    −∞

    fX,Y (x, y)dydx

    Tomemos un cambio de coordenadas y usemos: {u = xv = x+ y

    =⇒{x = uy = v − u

    Entonces, usamos dos funciones ϕ1 : R2 → R y ϕ2 : R2 → R:{ϕ1 (u, v) = uϕ2 (u, v) = v − u

    El Jacobiano de este cambio de coordenadas es:

    27

  • J =(

    ∇ϕ1∇ϕ2

    )=(

    ∂ϕ1∂u

    ∂ϕ1∂v

    ∂ϕ2∂u

    ∂ϕ2∂v

    )=(

    1 0−1 1

    )

    =⇒ det (J) = 1

    Entonces:

    FX,Y (t) =ϕ−11 (∞)�

    ϕ−11 (−∞)

    ϕ−12 (t−x)�

    ϕ−12 (−∞)

    fX,Y (ϕ1 (u, v) , ϕ2 (u, v)) |det (J)|dvdu

    =∞�

    −∞

    t�

    −∞

    fX,Y (u, v − u)dvdu

    Fubini→ =t�

    −∞

    ∞�−∞

    fX,Y (u, v − u)du

    ︸ ︷︷ ︸

    =fX+Y (v)

    dv

    =t�

    −∞

    fX+Y (v)dv

    =⇒ fX+Y (v) =∞�

    −∞

    fX,Y (u, v − u)du

    5.10. Ejercicio 38Ejercicio 38. Sean X e Y variables aleatorias continuas independientes con densidades marginales fX y fYrespectivamente, calcule la densidad de X + Y .

    Solución. Este ejercicio es una versión particular del ejercicio anterior. Sabemos que:

    fX+Y (v) =∞�

    −∞

    fX,Y (u, v − u)du

    Como las variables son independientes y conocemos sus distribuciones marginales entonces podemos usar quefX,Y (x, y) = fX (x) fY (y). Entonces:

    fX+Y (v) =∞�

    −∞

    fX (u) fY (v − u)du

    5.11. Ejercicio 39Ejercicio 39. Sean X e Y variables aleatorias independientes y g, h : R→ R, demuestre que g (X) ⊥ h (Y ).

    28

  • Demostración.

    P (g (X) ∈ A ∩ h (Y ) ∈ B) = P (X ∈ {u / g (u) ∈ A} ∩ Y ∈ {v / h (v) ∈ B})X ⊥ Y → = P (X ∈ {u / g (u) ∈ A})P (Y ∈ {v / h (v) ∈ B})

    = P (g (X) ∈ A)P (h (Y ) ∈ B)

    =⇒ g (X) ⊥ h (Y )

    5.12. Ejercicio 40Ejercicio 40. Alicia y José acordaron encontrarse a las 8 de la noche para ir al cine. Como no son puntuales,se puede suponer que los tiempos X e Y en que cada uno de ellos llega son variables aleatorias con distribuciónuniforme entre las 8 y las 9. Además, se supondrá que estos tiempos son independientes. Si ambos están dispuestosa esperar no más de 10 minutos al otro a partir del instante en que llegan, ¿cuál es la probabilidad de que no seencuentren?

    Solución. Tenemos que X,Y ∼ U (0, 60) i.i.d. (independientes e idénticamente distribuidas), donde el númerorepresenta en qué minuto entre las 8 y 9 PM llegan al cine. Ya que cada uno va a esperar 10 minutos como máximoentonces hay dos posibilidades para que se encuentren: Alicia llega primera y José llega después no más de 10minutos más tarde, o José llega primero y Alicia llega después no más de 10 minutos más tarde. Representemostoda esta información con una imagen:

    Centramos los posibles tiempos de la variable X y nos fijamos en los tiempos de la variable Y que nos interesan(los tiempos en donde se encuentran). Entonces, la probabilidad de que se encuentren es el área de la región azuldividido por el área total del cuadrado. Como nos interesa la probabilidad de que no se encuentres, entonces hallemosel área de la región externa a la región azul. Estos son dos triángulos rectángulos isósceles de lados 50. Entonces:

    29

  • P (No se encuentran) =(

    2 · 50 · 502

    )· 160 · 60

    =(

    5060

    )2= 2536

    5.13. Ejercicio 41Ejercicio 41. Sea X ∼ N

    (µ, σ2

    )y sean a, b ∈ R, a 6= 0, demostrar que aX + b ∼ N

    (aµ+ b, a2σ2

    ).

    Demostración.

    P (aX + b 6 t) = P(X 6

    t− ba

    )

    =

    t−ba�

    −∞

    1√2πσ

    exp(− (x− µ)

    2

    2σ2

    )dx

    x = u− ba→ =

    t�

    −∞

    1√2πaσ

    exp(−(u−ba − µ

    )22σ2

    )du

    =t�

    −∞

    1√2π (aσ)

    exp(− (u− (aµ+ b))

    2

    2 (aσ)2

    )du

    =⇒ aX + b ∼ N(aµ+ b, a2σ2

    )

    5.14. Ejercicio 42Ejercicio 42. Demostrar de dos maneras distintas que si X ∼ P (λ1) e Y ∼ P (λ2), X ⊥ Y =⇒ X + Y ∼P (λ1 + λ2).

    Demostración. (1)Sabemos del ejercicio 38 (5.10) que:

    fX+Y (v) =∞�

    −∞

    fX (u) fY (v − u)du

    Entonces, usemos esta fórmula en la forma discreta:

    fX+Y (m) =∞∑n=0

    (λn1n! exp (−λ1)

    )(λm−n2

    (m− n)! exp (−λ2))

    = exp (− (λ1 + λ2))∞∑n=0

    λn1n!

    λm−n2(m− n)!

    = exp (− (λ1 + λ2))1m!

    ∞∑n=0

    (m

    n

    )λn1λ

    m−n2

    = (λ1 + λ2)m

    m! exp (− (λ1 + λ2))

    30

  • =⇒ X + Y ∼ P (λ1 + λ2)

    Demostración. (2)Usemos la función generadora de momentos. Como X ⊥ Y entonces:

    MX+Y (t) = MX (t)MY (t)= exp (λ1 (exp (t)− 1)) exp (λ2 (exp (t)− 1))= exp ((λ1 + λ2) (exp (t)− 1))

    =⇒ X + Y ∼ P (λ1 + λ2)

    5.15. Ejercicio 43Ejercicio 43. Sea (X,Y ) un vector aleatorio con función de densidad conjunta fX,Y (x, y) = k

    (x2 + y2

    )1 {20 6 x 6 30 ∩ 20 6 y 6 30}.

    ¿Cuál es la probabilidad de que máx (X,Y ) 6 26?

    Solución.

    P (máx (X,Y ) 6 26) = P (Y 6 X 6 26 ∪X 6 Y 6 26)= P (Y 6 X 6 26) + P (X 6 Y 6 26)

    =26�

    20

    x�

    20

    k(x2 + y2

    )dydx+

    26�

    20

    y�

    20

    k(x2 + y2

    )dxdy

    = 2k26�

    20

    x�

    20

    (x2 + y2

    )dydx

    = 2k

    26�20

    x�

    20

    x2dydx+26�

    20

    x�

    20

    y2dydx

    = 2k

    26�20

    x2 (x− 20) dx+26�

    20

    (x3

    3 −203

    3

    )dx

    = 2k

    (264

    4 −204

    4 −20 · 263

    3 +204

    3 +264

    12 −204

    12 −26 · 203

    3 +204

    3

    )= 2k (1656)= 3312k

    Hallemos la constante de normalización k:

    31

  • k

    30�

    20

    30�

    20

    (x2 + y2

    )dxdy = k

    30�20

    30�

    20

    x2dxdy +30�

    20

    30�

    20

    y2dxdy

    = 20k

    30�20

    x2dx

    = 20k

    (303

    3 −203

    3

    )= 20k

    (19000

    3

    )= 3800003 k

    = 1

    =⇒ k = 3380000

    =⇒ P (máx (X,Y ) 6 26) ≈ 0.02

    6. Esperanza6.1. Ejercicio 44Ejercicio 44. Para un vector aleatorio discreto X y una función g demuestre que E (g (X)) =

    ∑x g (x)P (X = x).

    Demostración. Tomemos una variable aleatoria Y = g (X). Entonces, por definición de la esperanza:

    E (Y ) = E (g (X))

    =∑y

    yP (Y = y)

    =∑y

    ∑{x/g(x)=y}

    yP (X = x)

    =∑y

    ∑{x/g(x)=y}

    g (x)P (X = x)

    =∑x

    g (x)P (X = x)

    6.2. Ejercicio 45Ejercicio 45. Demuestre que si X > 0 entonces E (X) =

    �∞0 (1− FX (x))dx para el caso continuo y para el

    discreto.

    Demostración. (Caso Continuo) Por definición de la esperanza tenemos que:

    32

  • E (X) =∞�

    0

    x︸︷︷︸=u

    fX (x)dx︸ ︷︷ ︸=dv

    (∗) = (x (FX (x)− 1))|∞0︸ ︷︷ ︸=0

    −∞�

    0

    (FX (x)− 1)dx

    =∞�

    0

    (1− FX (x))dx

    (∗)Notemos:

    0 6 x (1− FX (x))

    = x

    ∞�0

    fX (t)dt−x�

    0

    fX (t)dt

    = x

    ∞�

    x

    fX (t)dt

    x > 0→ 6∞�

    x

    tfX (t)dt

    −→x→∞

    0

    =⇒ ĺımx→∞

    x (FX (x)− 1) = 0

    Demostración. (Caso Discreto) Tomemos los x posibles como xi donde xi > xj ∀i > j. Tomemos también x0 = 0.Por definición de la esperanza tenemos que:

    E (X) =∑x

    xpX (x)

    =∞∑i=1

    xipX (xi)

    =∞∑i=1

    xi (FX (xi)− FX (xi−1))

    =∞∑i=1

    (FX (xi)− FX (xi−1))i∑

    j=1(xj − xj−1)

    =∞∑j=1

    (xj − xj−1)∞∑i=j

    (FX (xi)− FX (xi−1))

    =∞∑j=1

    (xj − xj−1) (1− FX (xj−1))

    33

  • 6.3. Ejercicio 46Ejercicio 46. Demuestre que si X > 0 y E (X) = 0 entonces P (X = 0) = 1.

    Demostración. Supongamos que ∃x0, ε > 0 / fX (x) > 0 ∀x ∈ (x0 − ε, x0 + ε). Entonces:

    E (X) =∞�

    0

    xfX (x)dx

    >

    x0+ε�

    x0−ε

    xfX (x)dx

    > 0

    Pero E (X) = 0. Por lo tanto, no puede existir este entorno. Sin embargo, podría existir x0 > 0 / fX (x0) > 0. Estoes equivalente a considerar una distribución puntual pX (x) donde pX (x0) > 0. Entonces:

    E (X) = x0pX (x0)> 0

    Pero E (X) = x0. Entonces, tampoco puede existir este punto. La única opción posible es que pX (0) = 1. Entonces:

    P (X = 0) = 1

    6.4. Ejercicio 47

    Ejercicio 47. Demuestre que E (X) = argmin(E(

    (X − c)2))

    .

    Demostración. Lo que queremos hacer es hallar c tal que E(

    (X − c)2)sea mínimo. Notemos que como E

    (X2)no

    depende de c entonces mı́n(E(

    (X − c)2))

    = mı́n(E(

    (X − c)2)− E

    (X2))

    . Usemos la linealidad de la esperanza:

    E(

    (X − c)2)− E

    (X2)

    = E(

    (X − c)2 −X2)

    = E ((X − c−X) (X − c+X))= E

    (c2 − 2cX

    )= E

    (c2)− 2cE (X)

    = c2 − 2cE (X)

    ∂c

    (E(

    (X − c)2)− E

    (X2))

    = 2c− 2E (X)

    = 0

    =⇒ c = E (X)

    =⇒ E (X) = argmin(E(

    (X − c)2))

    34

  • 6.5. Ejercicio 48Ejercicio 48. Sea X ∼ P (λ) calcule E (X).

    Solución.

    E (X) =∞∑n=0

    nλn

    n!

    = exp (−λ)∞∑n=1

    λn

    (n− 1)!

    = λ exp (−λ)∞∑n=1

    λn−1

    (n− 1)!

    = λ exp (−λ)∞∑n=0

    λn

    n!

    = λ exp (−λ) (exp (λ))= λ

    6.6. Ejercicio 49Ejercicio 49. Sea X ∼ B (n, p) calcule E (X).

    Solución.

    E (X) =n∑

    m=1m

    (n

    m

    )pm (1− p)n−m

    =n∑

    m=1m

    n!m! (n−m)!p

    m (1− p)n−m

    =n∑

    m=1

    n!(m− 1)! (n−m)!p

    m (1− p)n−m

    = npn∑

    m=1

    (n− 1)!(m− 1)! (n− 1−m+ 1)!p

    m−1 (1− p)n−m

    = npn−1∑m=0

    (n− 1m

    )pm (1− p)n−1−m

    = np (p+ 1− p)n−1

    = np

    7. Esperanza Condicional

    8. Generación de Variables Aleatorias

    9. Convergencia de Variables Aleatorias

    10. Funciones Generadora de Momentos FGM

    11. Ley de Grandes Números y Teorema Central del Límite

    35

  • 12. Estimadores

    13. Intervalos de Confianza

    14. Test de Hipótesis

    15. Tests No Paramétricos

    36

  • Índice alfabéticoDistribución Acumulada, 10Distribución Puntual, 10

    Espacio de Eventos, 3Espacio Muestral, 3Evento, 3

    Fórmula de Bayes, 7Fórmula de Probabilidad Total, 7Familia de Eventos Independientes, 8

    Probabilidad, 3Problema de Monty Hall, 8

    37

    Probabilidad. Definición y EnunciadosEjercicio 1Ejercicio 2Ejercicio 3Ejercicio 4Ejercicio 5

    Probabilidad Condicional e IndependenciaEjercicio 6Ejercicio 7Ejercicio 8Ejercicio 9Ejercicio 10Ejercicio 11Ejercicio 12Ejercicio 13Ejercicio 14

    Variables AleatoriasEjercicio 15Ejercicio 16Ejercicio 17Ejercicio 18Ejercicio 19Ejercicio 20Ejercicio 21Ejercicio 22Ejercicio 23Ejercicio 24

    Convergencia en DistribuciónEjercicio 25Ejercicio 26Ejercicio 27Ejercicio 28

    Vectores AleatoriosEjercicio 29Ejercicio 30Ejercicio 31Ejercicio 32Ejercicio 33Ejercicio 34Ejercicio 35Ejercicio 36Ejercicio 37Ejercicio 38Ejercicio 39Ejercicio 40Ejercicio 41Ejercicio 42Ejercicio 43

    EsperanzaEjercicio 44Ejercicio 45Ejercicio 46Ejercicio 47Ejercicio 48Ejercicio 49

    Esperanza CondicionalGeneración de Variables AleatoriasConvergencia de Variables AleatoriasFunciones Generadora de Momentos FGMLey de Grandes Números y Teorema Central del LímiteEstimadoresIntervalos de ConfianzaTest de HipótesisTests No Paramétricos