estadística matemática

Upload: mg88mg

Post on 04-Nov-2015

57 views

Category:

Documents


1 download

DESCRIPTION

Estadística matemática

TRANSCRIPT

  • Mtodos Matemticos IEstadstica Matemtica

    J.A. Caballeroc Universidad de Crdoba 4 de junio de 2013

  • ndice general

    Contents i

    Preface 1

    1. Variables A. y sus Distribuciones 3

    1.1. Sobre la idea de Probabilidad . . . . . . . . . . . . . . . . . . . . . . 3

    1.1.1. Experimentos Aleatorios . . . . . . . . . . . . . . . . . . . . . 3

    1.1.2. Espacio Muestral . . . . . . . . . . . . . . . . . . . . . . . . . 4

    1.1.3. Idea de Probabilidad: Kolmogorov . . . . . . . . . . . . . . . . 5

    1.1.4. Idea Clsica de Probabilidad: Regla de Laplace . . . . . . . . 5

    1.1.5. Idea Emprica de Probabilidad: Von Mises . . . . . . . . . . . 6

    1.1.6. Propiedades de la Probabilidad . . . . . . . . . . . . . . . . . 7

    1.2. Probabilidad Condicionada . . . . . . . . . . . . . . . . . . . . . . . . 7

    1.3. Combinatoria . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11

    1.3.1. Variaciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11

    1.3.2. Variaciones con Repeticin . . . . . . . . . . . . . . . . . . . . 13

    1.3.3. Permutaciones . . . . . . . . . . . . . . . . . . . . . . . . . . . 14

    1.3.4. Combinaciones . . . . . . . . . . . . . . . . . . . . . . . . . . 15

    1.3.5. Combinatoria en R . . . . . . . . . . . . . . . . . . . . . . . . 16

    1.4. Concepto de Variable Aleatoria . . . . . . . . . . . . . . . . . . . . . 20

    1.5. Distribucin de Probabilidad de una V.A. . . . . . . . . . . . . . . . 21

    1.6. La Funcin de Distribucin de una V.A. . . . . . . . . . . . . . . . . 21

    1.7. Variables Aleatorias Discretas . . . . . . . . . . . . . . . . . . . . . . 22

    i

  • ii NDICE GENERAL

    1.8. Modelos de Variables Aleatorias Discretas . . . . . . . . . . . . . . . 23

    1.8.1. Uniforme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23

    1.8.2. Bernoulli . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23

    1.8.3. Binomial . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24

    1.8.4. Muestreo con-sin Reemplazamiento . . . . . . . . . . . . . . . 25

    1.8.5. Hipergeomtrica . . . . . . . . . . . . . . . . . . . . . . . . . . 25

    1.8.6. Poisson . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27

    1.8.7. Relacin entre los Modelos Discretos . . . . . . . . . . . . . . 28

    1.9. Variables Aleatorias Continuas . . . . . . . . . . . . . . . . . . . . . . 29

    1.10. El Concepto de V.A. Continua . . . . . . . . . . . . . . . . . . . . . . 29

    1.11. Modelos de V. A. Continuas . . . . . . . . . . . . . . . . . . . . . . . 32

    1.11.1. Uniforme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32

    1.11.2. Normal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32

    1.11.3. Gamma . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35

    1.11.4. Exponencial . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36

    1.11.5. Chi-Cuadrado . . . . . . . . . . . . . . . . . . . . . . . . . . . 36

    1.11.6. F-Snedecor . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37

    1.11.7. t-Student . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37

    1.12. Otras Distribuciones . . . . . . . . . . . . . . . . . . . . . . . . . . . 38

    1.12.1. Breit-Wigner . . . . . . . . . . . . . . . . . . . . . . . . . . . 38

    2. Muestreo y Estimacin 39

    2.1. Estimacin y Contrastes . . . . . . . . . . . . . . . . . . . . . . . . . 39

    2.2. Estimacin de Parmetros . . . . . . . . . . . . . . . . . . . . . . . . 39

    2.3. Mxima Verosimilitud . . . . . . . . . . . . . . . . . . . . . . . . . . 40

    2.3.1. Funcin de verosimilitud . . . . . . . . . . . . . . . . . . . . . 40

    2.3.2. El Principio de Mxima Verosimilitud . . . . . . . . . . . . . . 40

    2.3.3. Ecuacin de Verosimilitud . . . . . . . . . . . . . . . . . . . . 41

    2.3.4. Ecuacin Log-Verosimilitud . . . . . . . . . . . . . . . . . . . 41

    2.4. Propiedades deseables para un estimador . . . . . . . . . . . . . . . . 43

  • NDICE GENERAL iii

    2.4.1. Estimador insesgado . . . . . . . . . . . . . . . . . . . . . . . 44

    2.4.2. Estimador consistente . . . . . . . . . . . . . . . . . . . . . . 44

    2.4.3. Invarianza del E.M.V. bajo transformaciones unvocas . . . . . 44

    2.4.4. Invarianza Asinttica del E.M.V. . . . . . . . . . . . . . . . . 45

    2.5. Estimacin mediante Intervalos . . . . . . . . . . . . . . . . . . . . . 48

    2.5.1. Intervalos de Confianza para la Media . . . . . . . . . . . . . 49

    2.5.2. Reflexiones sobre el uso de I.C. . . . . . . . . . . . . . . . . . 52

    3. Test de Hiptesis 55

    3.1. Test de Hiptesis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55

    3.2. Test de Hiptesis Paramtricas . . . . . . . . . . . . . . . . . . . . . 56

    3.2.1. Tipos de Errores . . . . . . . . . . . . . . . . . . . . . . . . . 56

    3.3. El P-Value . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57

    3.4. Test para la Media . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59

    3.4.1. Test para una Media . . . . . . . . . . . . . . . . . . . . . . . 59

    3.4.2. Test para dos Medias . . . . . . . . . . . . . . . . . . . . . . . 60

    3.4.3. Test para ms de dos Medias . . . . . . . . . . . . . . . . . . 60

    4. Regresin 61

    4.1. Introduccin . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61

    4.2. Regresin Lineal Simple . . . . . . . . . . . . . . . . . . . . . . . . . 62

    4.2.1. Estimacin de los Coeficientes del modelo . . . . . . . . . . . 63

    4.2.2. Estimacin del Error Tpico de la Regresin . . . . . . . . . . 66

    4.3. Tests de Hiptesis para los Coeficientes del Modelo . . . . . . . . . . 68

    4.3.1. Tests sobre la Pendiente . . . . . . . . . . . . . . . . . . . . . 68

    4.3.2. Test sobre la Ordenada en el Origen . . . . . . . . . . . . . . 69

    4.4. I.C. para los Coeficientes de la Recta de Regresin . . . . . . . . . . . 71

    4.5. Intervalo para la respuesta media para un valor de x . . . . . . . . . . 71

    4.6. Intervalo para una prediccin . . . . . . . . . . . . . . . . . . . . . . 71

    4.7. Precauciones en el Uso de la Regresin . . . . . . . . . . . . . . . . . 73

  • iv NDICE GENERAL

    4.8. Verificaciones sobre el Modelo . . . . . . . . . . . . . . . . . . . . . . 73

    4.9. Anlisis de Residuos . . . . . . . . . . . . . . . . . . . . . . . . . . . 74

    4.10. Autocorrelacin . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 75

    4.11. El Coeficiente de Determinacin . . . . . . . . . . . . . . . . . . . . . 76

    4.12. El Coeficiente de Correlacin . . . . . . . . . . . . . . . . . . . . . . . 76

    4.13. Datos Aislados . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 78

    4.14. Diagnostico de la Regresion . . . . . . . . . . . . . . . . . . . . . . . 78

    4.15. Transformaciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 79

    4.16. Demostraciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 80

    Bibliography 81

  • ndice de figuras

    1.1. La variacin (Ana, Paco, Luis) interpretada como una aplicacin biyectiva 12

    1.2. La repeticin (Ana, Ana, Ana) interpretada como una aplicacin . . . . . 14

    1.3. La permutacin {Ana, Luis, Paco, Pepe} interpretada como una aplicacin biyectiva 15

    1.4. La funcin de densiadad de la Normal Estandard . . . . . . . . . . . . . . . . . . . . . . 33

    2.1. 100 I.C. para la media de una va Normal con sigma=1 . . . . . . . . . . . . . . . . . . . . 53

    v

  • vi NDICE DE FIGURAS

  • ndice de cuadros

    vii

  • viii NDICE DE CUADROS

  • Prlogo

    Este libro pretende ser una ayuda para los alumnos de primero de Fsicas dela Facultad de Ciencias de la Universidad de Crdoba. En concreto para hacerlesmas fcil seguir la parte, denominada Probabilidad y Estadstica, de la asignaturade Mtodos Matemticos I.

    1

  • 2 NDICE DE CUADROS

  • Captulo 1

    Variables A. y sus Distribuciones

    Captulo donde veremos contenidos necesarios para entender el resto de la materia.

    1.1. Sobre la idea de Probabilidad

    Esta parte de la asignatura est dedicada a la estadstica matemtica, unconcepto o idea bsica para el estudio de ella es el de Probabilidad. Existen diversasaproximaciones al concepto de probabilidad, en este prrafo veremos alguna de ellas.

    1.1.1. Experimentos Aleatorios

    Un experimento o un fenmeno se dice aleatorio si tiene las siguientes caracte-risticas: Se conocen todos los posibles resultados del experimento pero no se puedepredecir su resultado, adems se puede repetir bajo las mismas condiciones iniciales.En todo caso el experimento debe ser claramente explicitado, es decir su formulacinno puede dar lugar a ambiguedad. Un resultado concreto de una experiencia aleato-ria se denomina suceso. Cuando estudiamos una experimento aleatorio necesitamostrabajar con sus resultados, es decir con los sucesos. Si pudieramos trabajar, en lugarde con sucesos, con nmeros sera mas cmodo. Eso se consigue con el concepto devariable aleatoria, que modela los sucesos en el conjunto de los nmeros reales. Elconcepto de variable aleatoria sirve para modelizar los resultados de un experimentoaleatorio por medio de los nmeros reales.

    3

  • 4 CAPTULO 1. VARIABLES A. Y SUS DISTRIBUCIONES

    1.1.2. Espacio Muestral

    Dada una experiencia aleatoria la pareja (,A) se llama Espacio Muestral oEspacio Probabilizable. En donde es el conjunto de todos los resultados o sucesosposibles de la experiencia y A es un -campo1, de subconjuntos de ; por comodidadsiempre que se habla de espacio muestral se indica solo .

    El nmero de elementos que contiene puede ser numerable o infinito no-numerable, de acuerdo con ello se distinguen dos tipos de espacios muestrales, Dis-cretos si es numerable, y Continuos si es infinito no-numerable. En el casoDiscreto el -campo asociado es el generado por P ()

    Ejemplo 1.1.1 Se considera el siguiente experimento: arrojar dos dados tradicio-nales y anotar el resultado obtenido en cada una de las caras superiores. Determinarel espacio muestral. Destacar el subconjunto asociado a los sucesos A=No apareceningn 6, B=la suma de tantos es 7.

    Ejemplo 1.1.2 Se considera la experiencia aleatoria, durabilidad de un tubo fluo-rescente, nmero de horas funcionando ininterrumpdamente. Determinar el espaciomuestral asociado.

    Ejemplo 1.1.3 Se considera el experimento donde se controla la durabilidad, n-mero de horas funcionando ininterrumpdamente, de K tubos fluorescentes. El ex-perimento finaliza cuando se agota el ltimo de los tubos. Determinar el tipo deespacio muestral.

    Definicin 1.1.1 Algunos sucesos del espacio muestral reciben nombre especial:

    Suceso Seguro Es el que, tras de realizarse el experimento aleatorio, siempreocurre.

    Suceso Imposible Es el que, tras de realizarse el experimento aleatorio, nun-ca ocurre.

    Suceso Simple Es el que est formado por un subconjunto unitario de

    Suceso Compuesto Es el que est formado por varios simples.

    Sucesos Incompatibles o Disjuntos Son aquellos que no pueden ocurrira la vez.

    1Una clase no vaca A se dice que es un -campo o una -lgebra, si es cerrada para unionesnumerables, para complementarios y contiene al vaco.

  • 1.1. SOBRE LA IDEA DE PROBABILIDAD 5

    Sucesos Contrarios o Complementarios Dado un suceso cualquiera A, elsuceso contrario o complementario se nota A y es el que forzozamente ocurrecuando no ocurre A. De manera que un suceso y su contrario, adems de serincompatibles su unin constituyen un suceso seguro.

    1.1.3. Idea de Probabilidad: Kolmogorov

    Un espacio de probabilidad est formado por una terna (,A, P ) cuyos elemen-tos son el espacio muestral, es decir la pareja (,A), y P es una funcin especialque se denomina una Probabilidad y se define as,

    Una funcin de conjuntos, P : A R es una Probabilidad, si verifica losaxiomas de Kolmogorov:

    1. P () = 1

    2. A A es P (A) 0

    3. P (i=1Ai) =

    1=1

    P (Ai) si Ai Aj = i 6= j

    Ejemplo 1.1.4 Sea el experimento aleatorio lanzar un dado tradicional y anotarla puntuacin que aparece en la cara superior. Consideremos la f : P() R talque a cada subconjunto A le asigna f(A) = #(A)

    6. Comprobar que es una

    probabilidad.

    La forma de asignar la probabilidad del ejemplo anterior, es de uso clsico;particularmente en experimentos aleatorios basados en juegos de azar. Se puede for-malizar, bajo ciertas condiciones, constituyendo entonces la Regla de Laplace.

    1.1.4. Idea Clsica de Probabilidad: Regla de Laplace

    . En un espacio muestral finito y si todos los n-sucesos elementales son equi-probables, entonces P (A) = #(A)

    ndefine una probabilidad en el espacio muestral. La

    regla de Laplace expresa que la funcin de probabilidad en un suceso toma de valor elcociente entre el nmero de resultados favorables a su realizacin y el total de casosposibles, es decir la frecuencia relativa del suceso.

    La definicin de Laplace adolece de las siguientes dificultades: 1) Excluye a losnmeros irracionales, 2) Solo admite n finito y 3) Solo considera sucesos elementalesequiprobables.

  • 6 CAPTULO 1. VARIABLES A. Y SUS DISTRIBUCIONES

    1.1.5. Idea Emprica de Probabilidad: Von Mises

    Consideremos una experiencia aleatoria y sea S uno de sus posibles sucesoselementales. Si repetimos esa experiencia n veces en las mismas condiciones y ob-servamos que el suceso S ha ocurrido en h de ellas decimos que la Frecuencia delSuceso S es h.

    La frecuencia as definida verifica: 0 f(S) n , y para dos sucesos elemen-tales S1 y S2 la f(S1 S2) = f(S1) + f(S2).

    La Frecuencia Relativa del Suceso S se define como fr(S) = f(S)n . Es fcilprobar que las frecuencias relativas verifican las propiedades siguientes. Si B es unsuceso y B1, B2 son sucesos elementales , y E el espacio muestral: a) fr(B) 0 , b)fr(E) = 1 , c) fr(B1 B2) = fr(B1) + fr(B2). Observar el parecido con los axiomasde Kolmogorov.

    Empricamente puede aceptarse que, cuando el nmero de veces que se repite laexperiencia va aumentando, la frecuencia relativa de un suceso tiende a estabilizarse.Este hecho, se conoce con el nombre de Ley de Estabilidad o de Regularidadde las Frecuencias Relativas:

    Si el nmero n, de veces que una experiencia aleatoria se repite aumenta, la ra-zn entre el nmero de ocurrencias de un suceso concreto S y n tiende a estabilizarsehacia un valor P (S). Escribiremos

    fr(S) P (S) cuando n >> 1e interpretamos la anterior relacin en el sentido de que la diferencia P (S) fr(S)puede hacerse tan pequea como deseemos sin ms que aumentar n, es decir aumen-tar el nmero de repeticiones. Llamaremos a P (S) la Probabilidad del Suceso S.Esta probabilidad, al haberla definido as , cumple las propiedades de las frecuenciasrelativas y se llama, considerandola en todo el espacio muestral, Distribucin oLey de Probabilidad Emprica.

    Por similitud se denomina una Distribucin o Ley Terica de Probabi-lidad a la que se establece por medio de los axiomas de Kolmogorov.

    La forma en que se asignan probabilidades en la prctica, ha dado lugar adiferentes teorias, si estais interesados en el tema podeis consultar Savage[11]. Desdeluego no es nica, como muestra el siguiente ejercicio.

    Ejercicio 1.1.2 Sea el experimento lanzar un dado tradicional y anotar la puntua-cin que aparece en la cara superior. Definimos para cada suceso A, la funcin P (A)de la siguiente manera:

    P () = 0 , P ({1}) = r6

  • 1.2. PROBABILIDAD CONDICIONADA 7

    P ({2}) = (6r)6

    P ({3}) = P ({4}) = P ({5}) = P ({6}) = 0

    Siendo r [0, 6]. Verificar que es una probabilidad. (Por tanto se sigue que hay laposibilidad de definir infinitas probabilidades sobre un espacio muestral).

    Ejercicio 1.1.3 Sea f(x) = Kx3

    una funcin real de variable real definida en [1,).Se consideran los intervalos A R donde existe

    Af(x)dx y se define en ellos

    P (A) =Af(x)dx. Probar que P es una Probabilidad si y solamente si k = 2 .

    1.1.6. Propiedades de la Probabilidad

    A partir de los axiomas que debe verificar una Probabilidad se pueden deducirtoda una serie de propiedades. Veamos las bsicas:

    Propiedad 1.1.4 Si A,B A con A B, entonces P (A) P (B)

    En palabras, la anterior propiedad viene a decir que, si un suceso B es mayorque otro A, en el sentido de que al realizarse A se realiza B, entonces la probabilidadde B es mayor o igual que la de A.

    Propiedad 1.1.5 Si A,B A entonces P (AB) = P (A) + P (B) P (AB)Esta propiedad se conoce con el nombre de Regla de la Suma o Ley de la

    Suma. Expresa que la probabilidad de que ocurra uno de dos sucesos, es la suma desus probabilidades menos la probabilidad de que ocurran simultneamente.

    Propiedad 1.1.6 A A es P (A) = 1 P (A)En palabras, la probabilidad del suceso contrario A de A, es uno menos la

    probabildiad del suceso A.

    1.2. Probabilidad Condicionada

    Con frecuencia tener informacin acerca de un suceso puede afectar a las pro-babilidades de otro, por ejemplo cal es la probabilidad de que llueva maana si

  • 8 CAPTULO 1. VARIABLES A. Y SUS DISTRIBUCIONES

    hoy ha llovido?. La nocin de probabilidad condicionada, ayuda a saber si el conoci-miento de la ocurrencia de un determinado suceso puede afectar a las probabilidadesde otros.

    Supongamos que (,B,P) es un espacio de probabilidad y en l sean A,B dossucesos tal que P (B) > 0, definimos:

    Definicin 1.2.1 Se llama probabilidad condicionada del suceso A dado que ocu-rri el B, o probabildiad de A condicionada a B, al cociente P (AB)

    P (B)y se representa

    por P (A|B):P (A|B) = P (A B)

    P (B)

    En realidad la definicin proporciona una nueva funcin de probabilidad; induceun nuevo espacio de probabilidad como expresa el siguiente teorema.

    Teorema 1.2.2 Dado un suceso B de un espacio de probabilidad (,B,P) tal queP (B) > 0. La funcin P (|B) = P (B)

    P (B)es una probabilidad sobre el -algebra B,

    formada por los conjuntos de la forma A B, con A B.

    Si observais la frmula de la definicin de la probabilidad condicional, permiteexpresar la probabilidad de la ocurrencia simultnea de los sucesos A y B de la formaP (A B) = P (B) P (A|B). Es posible generalizar ese resultado:

    Teorema 1.2.3 (Regla de la Multiplicacin) Si A1, A2, A3, . . . es una sucesinnumerable de sucesos verificando P (A1) > 0, P (A1A2) > 0, P (A1A2A3) > 0, . . .entonces

    P (A1A2 An) = P (A1)P (A2|A1)P (A3|A1A2) P (An|A1A2 . . .An1)

    En ocasiones la ocurrencia de un suceso B no altera la probabilidad de que ocu-rra otro suceso A, es decir P (A|B) = P (A). Entonces se dice que A es independientede B.

    Definicin 1.2.4 (Independencia Estadstica) El suceso A es independientede B si P (A|B) = P (A).

    En el caso de que sea A independiente de B la frmula P (A B) = P (B) P (A|B) se convierte en P (AB) = P (B) P (A) resultado que se puede usar comouna definicin equivalente de independencia, o como propiedad:

  • 1.2. PROBABILIDAD CONDICIONADA 9

    Propiedad 1.2.5 Si A independiente de B P (A B) = P (A) P (B)

    Propiedad 1.2.6 Si A es independiente de B entonces B es independiente de A.

    Por lo que en lugar de decir que uno es independiente del otro se suele decirque ambos son independientes, o mutuamente independientes.

    La relacin binaria ser independiente es pues simtrica. Sin embargo no estransitiva. En los casos en que si se verifique los tres sucesos son independientes dosa dos. Lo que sugiere la siguiente definicin:

    Definicin 1.2.7 Un conjunto de sucesos Ai se dice que son independientes dos ados si lo son Ai, Aj i 6= j i, j = 1, 2, . . . , n

    No hay que confundir la anterior definicin con la de sucesos independientesen el caso de mas de dos, que se d ahora:

    Definicin 1.2.8 Un conjunto de sucesos Ai se dice que son mutuamente indepen-dientes si P (A1 A2 An) = P (A1) P (A2) P (An)

    El siguiente contraejemplo de Bernstein prueba que mutuamente independien-tes no es lo mismo que independientes dos a dos.

    Ejemplo 1.2.1 (Bernstein) Sea una experiencia aleatoria en la que consiste encuatro puntos (cuatro sucesos elementales) 1, 2, 3, 4 y asignemos P (i) = 14 .Sean los tres sucesos: A1 = {1, 2} , A2 = {1, 3} , A3 = {1, 4}. Mostrarque son independientes dos a dos, pero no son mutuamente independientes.

    Teorema 1.2.9 (Probabilidad Total) Sea {Ai}, i = 1, 2, . . . , n, . . . una coleccinfinita o infinita numerable de sucesos, tales que:

    i=i

    Ai = , Ai Aj = , P (Ai) > 0 i, j i 6= j

    para cualquier suceso B se cumple que:

    P (B) =i=1

    P (B|Ai) P (Ai)

  • 10 CAPTULO 1. VARIABLES A. Y SUS DISTRIBUCIONES

    Teorema 1.2.10 (Bayes) Sea {Ai}, i = 1, 2, . . . , n, . . . una coleccin numerablede sucesos, tales que:

    i=i

    Ai = , Ai Aj = , P (Ai) > 0 i, j i 6= j

    para cualquier suceso B se cumple que:

    P (Ai|B) = P (B|Ai)P (Ai)i=1 P (B|Ai)P (Ai)

    Vienen ahora una serie de ejercicios, de aplicacin de los axiomas y de laspropiedades que de ellos se deducen:

    Ejercicio 1.2.11 Se puede definir una probabilidad sobre un = ?

    Ejercicio 1.2.12 Se puede definir una probabilidad sobre un tal que para dossucesos A y B se cumple que: P (A) = 0,9 P (B) = 0,05 P (A B) = 0,3?

    Ejercicio 1.2.13 Sea = {a, b, c, d, e, f, g}. Es posible un espacio de probabilidad(,B(), P ) tal que:

    P ({b, d}) = 14

    P ({f}) = 14

    P ({g}) = 0

    Ejercicio 1.2.14 La compaia de Cervezas Alcazaba, envasa en botellas una cerve-za especial en cada una de sus cuatro factorias situadas en Crdoba, Granada, Sevillay Madrid. Las factorias primera y segunda producen, respectivamente, el 35 % y el25 % del total de la produccin; en tanto que la tercera y cuarta producen, cada una,y el 20 %. La experiencia nos dice que la primera de las factorias produce un 8 % deenvasados defectuosos, la segunda el 6 %, la tercera y cuarta el 5 %. Tomamos unabotella al azar, (a)Cal es la probabilidad de que sea defectuosa?, (b) Tomamos labotella y observamos que es defectuosa cal es la probabilidad de que proceda de lafactoria de Crdoba?.

    Ejercicio 1.2.15 Consideremos una prueba que se realiza en la sangre para de-tectar una cierta enfermedad. La prueba d positiva en el 97 % de las veces que laenfermadad est presente, y d un falso positivo en el 0,4 % de los casos. Suponga-mos que el 0,5 % de la poblacin actual tienen la enfermedad. Si se elige al azar auna persona, se le realiza la prueba y d positivo, cal es la probabilidad de queest enfermo?.

  • 1.3. COMBINATORIA 11

    1.3. Combinatoria

    Como hemos indicado anteriormente, el uso de la regla de Laplace para asignarprobabilidades, implica la necesidad de calcular el nmero de resultados favorablesa su realizacin as como el total de casos posible. Esa tarea a veces no es fcilsobretodo si el espacio muestral es grande. Para ayudarnos se puede recurrir a laCombinatoria. Hasta hace unos aos estaba incorporado al curriculum de los estudiosde enseanza media el estudio de la Combinatoria, o del Anlisis Combinatorio.Al menos sus nociones mas bsicas. Dado que ello ya no ocurre, en los siguientesprrafos nos ocuparemos de esas nociones bsicas.

    La Combinatoria o Anlisis Combinatorio se ocupa de como se agrupan y comose cuentan los elementos de un conjunto finito teniendo en cuenta que, los gruposque se pueden formar, pueden diferenciarse unos de otros, bien por el orden en queestn colocados los elementos, bien por el nmero de ellos o si pueden repetirse loselementos.

    Definicin 1.3.1 Cardinal de un Conjunto. Si un conjunto A tiene n elementosdiremos que su cardinal es n, lo que se simboliza de la siguiente forma card(A) = no tambin por #(A) = n .

    Definicin 1.3.2 Factorial de un Nmero. Dado un numero natural n, distintode cero, su factorial que simbolizaremos por n!,

    n! = n (n 1) (n 2) 3 2 1por convenio adoptamos que el factorial de cero es uno; es decir 0! = 1.

    1.3.1. Variaciones

    Definicin 1.3.3 Variaciones Dado un conjunto A con n elementos se llamanVariaciones, o Variaciones Ordinarias o Variaciones sin repeticin de esos n ele-mentos tomados de r en r, con r n, a cada una de las agrupaciones ordenadas quepodemos formar con r de ellos sin repetir ninguno. De manera que, una variacin sediferencia de otra, o por tener un elemento distinto o por tenerlo en orden diferente.

    Ejemplo 1.3.1 Dado el conjunto A = {3, 7, 12} las variaciones de sus elementos,tomados de 2 en 2, son {3, 7} {7, 3} {3, 12} {12, 3} {7, 12} {12, 7}Proposicin 1.3.4 El nmero de Variaciones de n elementos tomados de r en r,que simbolizaremos por Vn,r es

    Vn,r =n!

    (n r)! = n (n 1) (n 2) ... (n r + 1)

  • 12 CAPTULO 1. VARIABLES A. Y SUS DISTRIBUCIONES

    Ejemplo 1.3.2 Con los elementos del conjunto A = {x, y, z, t, i}, las variacionesde 3 de sus elementos que se pueden obtener es V5,3 = 5 4 3

    > prod(5:3)[1] 60

    Ejemplo 1.3.3 Si un conjunto A tiene #(A) = 32 las variaciones de sus elementos,tomados de 7 en 7 que se pueden obtener es V32,7 = 32 31 30 29 28 27 26

    > prod(32:26)[1] 16963914240

    Proposicin 1.3.5 Si A es un conjunto con n elementos y B otro con r, con r n.Entonces el nmero de aplicaciones inyectivas que se pueden establecer de B en Aes Vn,r

    Corolario 1.3.6 Dado un conjuto A con n elementos, cualquier variacin de suselementos tomados de r en r, puede ser interpretada como una aplicacin inyectivadel conjunto I = {1, 2, 3, ..., r} en A

    As dado el conjunto de alumnos A = {Paco, Luis, Ana, Pepe} la variacin(Ana, Paco, Luis) puedes ser interpretada

    Figura 1.1: La variacin (Ana, Paco, Luis) interpretada como una aplicacin biyectiva

  • 1.3. COMBINATORIA 13

    1.3.2. Variaciones con Repeticin

    Definicin 1.3.7 Variaciones con Repeticin Dado un conjunto A con n ele-mentos se llaman Variaciones con repeticin de esos n elementos tomados de r enr, con r n, a cada una de las agrupaciones ordenadas que podemos formar con rde ellos, repetidos o no. De manera que, una Variacin con repeticin se diferenciade otra, o por tener al menos un elemento distinto o por tenerlos en orden diferente.

    Ejemplo 1.3.4 Dado el conjunto A = {3, 7, 12} las variaciones con repeticin desus elementos, tomados de 2 en 2, son {3, 3}{3, 7}{3, 12}{7, 3}{7, 7}{7, 12}{12, 3}{12, 7}{12, 12}

    Proposicin 1.3.8 El nmero de Variaciones con repeticin de n elementos toma-dos de r en r, que simbolizaremos por V Rn,r V Rrn es V Rn,r = V Rrn = nr

    Ejemplo 1.3.5 Con los elementos del conjunto A = {x, y, z, t, i}, las variacionescon repeticin de 3 de sus elementos que se pueden obtener es V R5,3 = V R35 = 53

    > 5^3[1] 125

    Ejemplo 1.3.6 Si un conjunto A tiene #(A) = 32 las variaciones de sus elementos,tomados de 7 en 7 que se pueden obtener es V R32,7 = V R732 = 327

    > 32^7[1] 34359738368

    Proposicin 1.3.9 Si A es un conjunto con n elementos y B otro con m, conn m. Entonces el nmero de aplicaciones que se pueden establecer de A en B esV Rn,m = V R

    mn

    Corolario 1.3.10 Dado un conjuto A con n elementos, cualquier variacin de suselementos con repeticin de r, puede ser interpretada como una aplicacin del con-junto I = {1, 2, 3, ..., r} en A

    As dado el conjunto de alumnos A = {Paco, Luis, Ana, Pepe} la variacincon repeticin de 3 (Ana, Ana, Ana) puedes ser interpretada

  • 14 CAPTULO 1. VARIABLES A. Y SUS DISTRIBUCIONES

    Figura 1.2: La repeticin (Ana, Ana, Ana) interpretada como una aplicacin

    1.3.3. Permutaciones

    Definicin 1.3.11 Si tenemos un conjunto A, finito no vacio, cuyo cardinal escard(A) = #(A) = n , se llaman Permutaciones, o Permutaciones Ordinarias,o Permutaciones sin Repeticin de esos n elementos a las distintas agrupacionesordenadas que se pueden formar con todos ellos. Al total de ellas se simboliza conPn

    Proposicin 1.3.12 Si un conjunto A, finito no vacio, tiene card(A) = #(A) = nel total de sus permutaciones es Pn = n!

    Ejemplo 1.3.7 Si en un curso A hay #(A) = 20 alumnos, cada ordenacin detodos ellos constituye una permutacin de ellos. Por tanto pueden ser ordenados deP20 = 20! formas diferentes.

    > factorial(20)[1] 2.43290200818e+18

    Cuando los nmeros son grandes o pequeos R usa la notacin cientfica. Conel mandato print podemos aumentar, el nmero de dgitos.

    > print(factorial(20), 14)[1] 2432902008176640000

    El segundo argumento de print, controla la cantidad de dgitos significativos.Hay que tener en cuenta que R trabaja en doble precisin y solo dispone de 16 dgitossignificativos.

  • 1.3. COMBINATORIA 15

    Proposicin 1.3.13 Sean dos conjunto A y B tales que #(A) = #(B) = n enton-ces el nmero de aplicaciones biyectivas de A en B es Pn = n!

    Corolario 1.3.14 Cada forma de ordenar todos los elementos de un conjunto A,es decir cada permutacin de los elementos de A, puede ser interpretada como laimagen de una aplicacin biyectiva del conjunto {1, 2, 3, ..., n} en el conjunto A

    As dado el conjunto de alumnos A = {Paco, Luis, Ana, Pepe} la permutacin{ Ana, Luis, Paco, Pepe} puede ser interpretada

    Figura 1.3: La permutacin {Ana, Luis, Paco, Pepe} interpretada como una aplicacin biyectiva

    1.3.4. Combinaciones

    Definicin 1.3.15 Combinaciones. Si tenemos un conjunto A cuyo card(A) =#(A) = n se llaman Combinaciones, o Combinaciones Ordinarias, o Combinacionessin Repeticin de esos n elementos tomados de r en r a las distintas agrupacionesse pueden formar con r distintos elementos de A. El total de ellas se simboliza conCn,r o Crn o

    (nr

    )Corolario 1.3.16 De las definiciones de Combinacin y Variacin se puede dedu-cir:

    Dos combinaciones del conjunto A del mismo orden, se diferencian en, almenos, un elemento.

    La diferencia entre las combinaciones y las variaciones ordinarias radica en elhecho de que, las combinaciones, no tienen en cuenta el orden.

  • 16 CAPTULO 1. VARIABLES A. Y SUS DISTRIBUCIONES

    Proposicin 1.3.17 Dado un conjunto A, cuyo card(A) = #(A) = n, el nmerode Combinaciones de sus n elementos que se pueden formar tomados de r en r, conr n es

    Cn,r = Crn =

    (n

    r

    )=Vn,rr!

    =n (n 1) ... (n r + 1)

    n!

    Definicin 1.3.18 Nmero Combinatorio. Los nmeros obtenidos de la forma(nr

    )se denominan Nmeros Combinatorios o tambin Nmeros Binomiales.

    Proposicin 1.3.19 Los nmeros combinatorios o binomiales verifican las siguien-tes propiedades: a)

    (n1

    )= n , b)

    (nn

    )= 1

    Proposicin 1.3.20 Dado un conjunto A, cuyo card(A) = #(A) = n, el nmerode Combinaciones de sus n elementos que se pueden formar tomados de r en r esel nmero de subconjuntos de A, que con r elementos podemos formar.

    Definicin 1.3.21 Muestra sin Reemplazamiento. Dada una poblacin de ob-jetos o personas, una muestra de ella sin reemplazamiento de tamao r, es cualquiersubconjunto suyo que tenga r elementos. Por lo que, la anterior proposicin se puedeexpresar en trminos estadsticos de la siguiente forma:

    Proposicin 1.3.22 El nmero de muestras sin reemplazamiento de tamao r, quepodemos obtener de un conjunto con n elementos es Cn,r = Crn =

    (nr

    )= Vn,r

    n!

    1.3.5. Combinatoria en R

    Para calcular el nmero de Permutaciones, la funcin factorial directamentelo calcula.

    Por ejemplo si un conjunto A est formado por A={x, y, z, t, v } cuyo cardinales card(A)=5 , el nmero de permutaciones de los elementos de A es:

    > factorial(5)[1] 120

    Podemos hacerlo todo en R.

    > A factorial(length(A))[1] 120

  • 1.3. COMBINATORIA 17

    En la primera linea se ha introducido el conjunto A y sus elementos comosi fuera un vector de una dimensin y cuatro componentes. Cada componente delvector A o elemento del conjunto A, se introduce entrecomillado, para indicar quees alfanumrico.

    En la segunda linea la funcin factorial obtiene el nmero de permutacio-nes, tomando como argumento el resultado de la funcin length(A) que calcula elnmero de elementos que tiene A

    Para calcular el nmero de Combinaciones, la funcin choose directamentelo calcula.

    Para el anterior conjunto A formado por A={x, y, z, t, v } el nmero decombinaciones de los elementos de A tomados de 3 en 3 es:

    > A choose(length(A),3)[1] 10

    Si queremos conocer el valor de un nmero combinatorio, por ejemplo C17,8 =C817 =

    (178

    )> choose(17,8)[1] 24310

    Para calcular el nmero de Variaciones en R no hay una funcin directa, lascalculamos usando la relacin Cn,r = Crn =

    (nr

    )= Vn,r

    r!por lo que Vn,r = V rn = Cn,rr!

    Para el anterior conjunto A formado por A={x, y, z, t, v } el nmero devariaciones de los elementos de A tomados de 3 en 3 es V5,3 = V 35 = C5,33!

    > choose(5,3)*factorial(3)[1] 60

    En los prrafos anteriores hemos indicado como calcular el nmero de Permu-taciones, Combinaciones y el de Variaciones. A continuacin veremos como obte-nerlas. Para ello necesitamos instalar algn paquete adicional.

    Instalacin de Paquetes

    R es la versin GNU ( http://www.gnu.og ) de un lenguaje de programacin,orientado a objetos, denominado S. Se distribuye bajo licencia GNU GPL.

  • 18 CAPTULO 1. VARIABLES A. Y SUS DISTRIBUCIONES

    Cuando se instala R se instalan el Sistema Base y adems una serie de paque-tes adicionales, cuya cantidad puede variar de una versin a otra. En la actualidadla versin base no tiene la posibilidad de obtener las Combinaciones ni las Permu-taciones ni las Variaciones. Existen en CRAN un par de paquetes con los que sepueden obtener. Son los paquetes combinat y el paquete gtools. Si deseamos ver ellistado de paquetes disponibles consultar en http://cran.r-project.org/web/packages/

    En el mismo enlace anterior se puede consultar la documentacin sobre cadauno de los paquetes. Lo que obviamente hay que hacer para informarse de que funciny como trabaja es la que necesitamos.

    Ejemplo 1.3.8 Para el conjunto B formado por B={x,z,t} vamos a obtener laspermutaciones de los elementos de B que ya sabemos son un total de 3! = 3 2 1 = 6

    > install.packages("combinat")> library(combinat)> B permn(B)[[1]][1] "x" "z" "t"

    [[2]][1] "x" "t" "z"

    [[3]][1] "t" "x" "z"

    [[4]][1] "t" "z" "x"

    [[5]][1] "z" "t" "x"

    [[6]][1] "z" "x" "t"

    Observad que, adems de instalar el paquete install.packages(combinat")necesitamos cargarlo con el mandato library(combinat")

    Se nos ha creado el objeto permn(B) que es un vector de seis componentes.Si deseamos ver la tercera de ella, basta:

  • 1.3. COMBINATORIA 19

    > permn(B)[3][[1]][1] "t" "x" "z"

    Ejemplo 1.3.9 Para el conjunto H formado por H={m,j,17,k} vamos a obtener lascombinaciones de los elementos de H que ya sabemos son un total de C4,3 = C34 =(

    43

    )= V4,3

    3!= 4

    > combn(H,3)[,1] [,2] [,3] [,4]

    [1,] "m" "m" "m" "j"[2,] "j" "j" "17" "17"[3,] "17" "k" "k" "k"

    El mandato combn(H,3) crea una matriz. Por ello nos muestra una matrizde 3 filas y cuatro columnas. Las combinaciones aparecen como las columnas de esamatriz. Si deseamos tomar una de ellas, por ejemplo la tercera, basta:

    > combn(H,3)[,3][1] "m" "17" "k"

    Observad que no h asido necesario volver a cargar, puesto que ya lo estaba, el paquete.

    Ejercicio 1.3.23 Considera el conjunto formado por los alumnos de nuestra clase:

    Cuantos grupos de 4 podemos formar?

    De cuantas formas podemos elegir dos representantes de la clase?

    De cuatas formas podemos elegir un delegado y un subdelegado?

    Ejercicio 1.3.24 Si en una clase de 23 alumnos, 9 son mujeres. Si elegimos alazar dos alumnos Cual es la probabilidad de que ambos sean mujeres?

    Ejercicio 1.3.25 Si rellenamos una quiniela de futbol con un signo doble en unacolumna y otro triple en otra, que probabilidad tenemos de acertar un pleno?

    Ejercicio 1.3.26 Cuanto aumenta nuestra probabilidad de ganar un pleno de laprimitiva, si en lugar de jugar una sola apuesta, jugamos diez apuestas?

  • 20 CAPTULO 1. VARIABLES A. Y SUS DISTRIBUCIONES

    Ejercicio 1.3.27 Calcular la probabilidad de que un cupn de la ONCE termineen 3. Si ayer el cupn premiado, termin en 3, compara, hoy, un cupn terminadoen 3?

    Ejercicio 1.3.28 dados los nmeros 1, 2, 3, 4, 5, 6, calcular la suma de los nmerosformados con sus permutaciones.

    Ejercicio 1.3.29 En un rectngulo OBAC, su lado OB = n y el OC = p conn, P Z. Dividimos el rectngulo en n p lineas paralelas a los lados. Sea P unapoligonal quebrada que partiendo de O, termina en A. Probar que todas las posiblespoligonales P tienen la misma longitud y calcular el nmero de ellas que hay.

    1.4. Concepto de Variable Aleatoria

    Dado un experimento aleatorio con una ley de probabilidad P sobre su espaciomuestral , si a cada uno de los resultados simples es posible asignar un valornumrico que en general representaremos por X, diremos que X es una variablealeatoria sobre y que P es una Probabilidad para ella. Formalmente:

    Definicin.- Dado un espacio muestral (,A) consideremos la -algebra de los con-juntos de Borel sobre la recta real (R,B), decimos que una aplicacin X : Res una variable aleatoria si verifica que X1

    ((, x])A, x R. En palabras: la

    imagen inversa de cualquier intervalo de la forma (, x] es un suceso.Hagamos notar que el -campo de Borel sobre R, puede ser engendrado por

    otros, conjuntos adems de por los conjuntos de la forma {(, x] : x R}, por loque es mas general la siguiente definicin:

    X : R es una variable aleatoria si X1(B) A, B Ben palabras: la imagen inversa de cualquier boreliano es un suceso.

    Notacin. Puesto que X1((, x]) = { : X() (, x]} , X1((, x]) =

    { : X() x} , que se abrevia [X x]. Por analoga [X < x] = { :X() < x} y [X = x] = { : X() = x} .

    Ejemplo 7. Sea X la variable aleatoria nmero de caras obtenidas en dos lanzamien-tos de una moneda justa. Quien es ? Quien es A?. Describir X1((, x]).Ejemplo 8. Sea X la variable aleatoria "nmero de caras obtenidas en tres lanza-mientos de una moneda justa". Quien es ?, quien es A?. Describir X1(, x].Describir los sucesos: [X 24], [13 < X 24]

  • 1.5. DISTRIBUCIN DE PROBABILIDAD DE UNA V.A. 21

    1.5. Distribucin de Probabilidad de una V.A.

    Teorema. Sea (,A, P ) y una v.a. X : R definamos P X : B [0, 1] asP X(B) = P (X

    1(B)). Se verifica que: (R,B, P X) es un espacio de probabilidad.

    Demostracin,

    1. B B P X(B) = P (X1(B)) 02. P X(R) = P (X1(R)) = P () = 1

    3. Dada {iBi} ,BiBj 6= , i 6 j : P X(iBi) = P (X1(iBi)) = P (iX1(Bi)) =i P (X

    1(iBi))

    Definicin. Dado un espacio de probabilidad (,A, P ) y sobre su espacio muestraluna v.a. X, sta induce un nuevo espacio de probabilidad (R,B, P X) que se llamaEspacio de Probabilidad Inducido por la v.a. X

    1.6. La Funcin de Distribucin de una V.A.

    Sea un espacio de probabilidad (,A, P ) y su inducido (R,B, P X) por la varia-ble aleatoria X.

    Definicin. Se llama Funcin de Distribucin de la v.a. X a la FX : R [0, 1]definida:

    FX(x) = PX(, x] = P [X x] x R

    Ejemplo 9. Considerar la variable aleatoria del ejemplo 8 y dibujar la grfica de sufuncin de distribucin.

    Teorema.(Propiedades de la Funcin de Distribucin) Sea FX la f.d. de una v.a. X:

    1. Es No-Decreciente.

    2. Es contnua por la derecha.

    3. FX() = 0 , FX(+) = 14. FX(x) = FX(x) P (X = x)

  • 22 CAPTULO 1. VARIABLES A. Y SUS DISTRIBUCIONES

    5. El conjunto de discontinuidades de FX es numerable.

    De las propiedades anteriores solo intentar probar la primera. Si quereis ver lademostracin de las otras consultar, por ejemplo Loeve (pag. 176).

    Teorema. Sea F es una funcin F : R [0, 1] tal que verifica las (1) (2) y (3) delanterior teorema. Entonces (,A, P ) y una v.a. X tal que FX F .

    1.7. Variables Aleatorias Discretas

    Definicin. Una variable aleatoria X se llama Discreta si {xn} numerable ytal que P (X {xn}) = 1.

    Definicin. Se llama Soporte de la variable aleatoria X al conjunto numerable {xn}en donde P (X {xn}) = 1.

    Ejemplo 10. Sea la variable aleatoria lanzar un dado legal y anotar la puntuacinobtenida. Observar que es Discreta. Mostrar su soporte. Dibujar su funcin de dis-tribucin.

    Ejemplo 11. Un experimento trata de determinar la fiabilidad de un interruptorelctrico. Para ello se le coloca en una mquina que lo acciona hasta que falla y enese momento se anota el nmero de interrupciones que ha realizado correctamente.Identificar el soporte de la variable aleatoria de inters.

    Definicin. Se llama Funcin Masa de Probabilidad de una v.a. discreta X a la

    pX(x) =

    {P [X = x] si x Soporte0 en otro caso

    Propiedades. La funcin masa de probabilidad pX de una v.a. discreta X con soporteD verifica:

    1. pX(x) 0

    2.xnD

    pX(xn) = 1

  • 1.8. MODELOS DE VARIABLES ALEATORIAS DISCRETAS 23

    1.8. Modelos de Variables Aleatorias Discretas

    Vamos a ver algunos modelos de variables aleatorias discretas, aquellos queconsideramos mas usuales.

    1.8.1. Uniforme

    Una variable aleatoria discreta que toma sus valores en un conjunto finito D,se llama Uniforme y lo notaremos X U(D) si su f.m.p. es

    pX(x) =1

    #(D) , x D

    Probar, como ejercicio, que verifica las propiedades de una f.m.p.

    Ejemplo 12. Sea la v.a. X el nmero que aparece al lanzar un dado honesto. Deter-minar la funcin de probabilidad de X y dibujarla.

    1.8.2. Bernoulli

    Una variable aleatoria X se llama de Bernoulli de parmetro p, con p (0, 1),y lo notaremos X b(p) si su f.m.p. es

    pX(x) =

    {px(1 p)(1x), si x = 0, 1

    0, en otro caso

    Probar, como ejercicio, que verifica las propiedades de una f.m.p.; es claro quesu soporte es {0, 1} en donde toma, respectivamente, las probabilidades 1 p y p.En muchos contextos los valores 0 y 1 del soporte se asocian con sucesos "fracaso 2

    "xito", o al revs dependiendo de a cual de ellos deba asignarsele la probabilidad p.

    Ejemplo 13. El ciclo de un semforo es 15seg. verde, 5seg. mbar y 55seg. rojo.Supongamos que las condiciones de trfico son tales que la llegada al semforo esuna experiencia aleatoria, que es igualmente probable llegar en cualquier momentoal semforo, que es un "xito"si est en verde y "fracaso.en cualquiera de las otrasdos. Expresar la f.m.p. de la v.a. X nmero de xitos en un ensayo.

    Observacin. Una v.a. de Bernoulli con p = 12es una v.a. Uniforme.

  • 24 CAPTULO 1. VARIABLES A. Y SUS DISTRIBUCIONES

    1.8.3. Binomial

    Sean n Z+ y p [0, 1], diremos que una v.a. es una Binomial de parmetrosn y p, y lo notaremos X B(n, p) si su f.m.p. es

    pX(x) = P (X = x) =

    { (nx

    )px(1 p)nx, si x = 0, 1, . . . , n

    0, en otro caso

    Probar, como ejercicio, que verifica las propiedades de una f.m.p.

    Ejemplo 14. Volvamos al ejemplo del semforo y consideremos 25 llegadas, sin rela-cin entre ellas, describir la f.m.p. de la v.a. nmero de xitos en las 25 llegadas.

    Observacin. Una v.a. Binomial puede describirse como la repeticin de un nmerofinito de pruebas tipo Bernoulli, que son independientes, y con igual parmetro p.

    Ejemplo 15. Una empresa suministra los fusibles en paquetes de 10 unidades. Ele-gimos al azar uno de esos paquetes y anotamos el nmero de fusibles no aptos.Identificar la variable aleatoria y dar sus posibles valores.

    Ejemplo 16. Supongamos que una moneda est desequilibrada de tal forma que allanzarla es doblemente probable que salga cara a que salga cruz. Supongamos laexperiencia aleatoria lanzar esa moneda tres veces y anotamos el nmero de carasobtenidas. Determinar la funcin de probabilidad de la v.a. asociada a la experiencia.Calcular la probabilidad de que el nmero de caras obtenidas sea como mximo 2.

    Ejemplo 17. Un sistema consta de cinco componentes, al menos tres de ellos debenestar en buen estado para que el sistema funcione correctamente. Los componen-tes funcionan independientemente unos de los otros. Cada uno de ellos tiene unaprobabilidad p = e

    12 de funcionar correctamente al menos 500 dias. Calcular la

    probabilidad de que el sistema funcione correctamente al menos 500 dias.

    Ejemplo 18. Tenemos un cristal con dos tipos de impurezas, una de ellas absorbeun fotn sin liberar un electrn y la otra libera un electrn cuando absorbe un fotn.Hay el mismo nmero de impurezas de cada tipo, pero las zonas de absorcin de lasdel primer tipo es 99 veces mas grande que las del segundo tipo. Las dimensiones delcristal son las necesarias para absorber todos los fotones. Se lanzan sobre el cristal200 fotones, cal es la probabilidad de que al menos tres electrones sean liberados?.

    Ejemplo 19. Se sabe que un 5% de las particulas "lanzadas.atraviesan una zona decampo magntico, cuantas particulas debemos lanzar para que la probabilidad de

  • 1.8. MODELOS DE VARIABLES ALEATORIAS DISCRETAS 25

    que al menos queden 30 atrapadas sea al menos del 95% ?

    1.8.4. Muestreo con-sin Reemplazamiento

    Consideremos una poblacin de N objetos que estan numerados desde 1 hastaN . Seleccionamos al azar uno de tales objetos, anotamos su nmero y lo devolvemosa su poblacin. Un procedimiento de seleccin tal como ese, lo denominaremos unaprueba o ensayo simple de muestreo con reemplazamiento. Si este ensayo simple lorepetimos n veces obtenemos una muestra de tamao n con reemplazamiento.

    Nota. Si muestreamos en poblaciones finitas, interesndonos por un carcter dico-tmico de los individuos, la v.a. binomial surge cuando hay Muestreo con Reempla-zamiento.

    Ejemplo 20. En una caja que contiene 50 fusibles sabemos que 10 de ellos son no ap-tos. Si extraemos, con reemplazo, una muestra de 20 de ellos, calcular la probabilidadde que todos sean no aptos.

    1.8.5. Hipergeomtrica

    Sean N, n, a Z+ verificando 1 n N , 0 a N ; diremos que una v.a.es una Hipergeomtrica de parmetros N n y a, y lo notaremos X H(N, n, a) sisu f.m.p. es

    pX(x) = P (X = x) =

    {(ax)(

    Nanx)

    (Nn)si max(0, n (N a)) x mn(n, a)

    0 en otro caso

  • 26 CAPTULO 1. VARIABLES A. Y SUS DISTRIBUCIONES

    Cuando muestreamos sin reemplazamiento es frecuente que aparezca la distribucinhipergeomtrica. Supongamos el siguiente esquema: Sea una poblacin de tamao Nen la que hay a individuos que presentan un carcter y el resto, N a que no lopresentan; extraemos, sin reemplazo, una muestra de n individuos y nos preguntamosel nmero de ellos que presentan el carcter en estudio.

    Ejemplo 21. Supongamos que disponemos de 300 condensadores, de los que 100 pro-ceden de la factoria F. Si se eligen al azar 10 , cal es la probabilidad de que almenos tres de ellos procedan de la factoria F?.

    Verificar que la funcin que define la v.a. Hipergeomtrica, es una f.m.p. es algoms complejo que en los otros tipos de v.a. que hemos visto anteriormente.

    Las variables hipergeomtricas aparecen en dos contextos que nos parece adecuadomostraros. Uno de ellos en el Control de Calidad y otro en una tcnica especial paraestimar el tamao de una poblacin animal.

    Ejemplo 22. (Aceptacin de una muestra en un Control) Es frecuente que auna planta o fbrica lleguen cantidades grandes de un item en lotes. Para encontrar,la cantidad de esos item que en cada lote llegan defectuosos, podemos, obviamente,verificarlos todos. Lo que en muchas ocasiones no es posible por diversas razones,por ejemplo econmicas. Por ello el receptor de los item toma una muestra sinreemplazo de ellos, los verifica y si el nmero de ellos defectuosos no supera unacantidad preestablecida, acepta el lote. Supongamos que un lote tiene 200 item de losque el proveedor dice que no hay mas del 10% defectuosos, si el control consiste enmuestrear 10 de los item y aceptar el lote si no hay ms de 2 defectuosos cal esla probabilidad de aceptar el lote?.

    Ejemplo 18. Tenemos un cristal con dos tipos de impurezas, una de ellas absorbeun fotn sin liberar un electrn y la otra libera un electrn cuando absorbe un fotn.Hay el mismo nmero de impurezas de cada tipo, pero las zonas de absorcin de lasdel primer tipo es 99 veces mas grande que las del segundo tipo. Las dimensiones delcristal son las necesarias para absorber todos los fotones. Se lanzan sobre el cristal200 fotones, cal es la probabilidad de que al menos tres electrones sean liberados?.

    Ejemplo 23. (Capturo-Marco-Suelto-Capturo) Se trata de una tcnica para es-timar el tamao de una poblacin animal. Supongamos que deseamos conocer apro-ximadamente, estimar, la cantidad N de termitas que existen en un termitero. Ac-tuamos as: Capturamos a de ellas, las marcamos de alguna manera para despuesidentificarlas. Las soltamos y esperamos el tiempo necesario para que se mezclencon el resto de la poblacin. Pasado ese tiempo, capturamos n termitas en las quecontamos y hay x0 que estn marcadas, ese valor sirve para estimar N . Para ello

  • 1.8. MODELOS DE VARIABLES ALEATORIAS DISCRETAS 27

    basta observar que la v.a. X "nmero de marcadas que hay en la recaptura.es una

    X H(N, n, a) por lo que pX(x0) = P (X = x0) = (ax0

    )(Nanx0)(Nn)

    que, al ser N desco-

    nocido, es una funcin que depende de N .

    f(N) =

    (ax0

    )(Nanx0

    )(Nn

    )si obtenemos su mximo este se encuentra para N = a n

    x0por lo que ese valor es una

    estimacin del tamao de la poblacin.

    1.8.6. Poisson

    Diremos que una v.a. es una Poisson de parmetro y lo escribiremos X P() si su f.m.p. es

    pX(x) = P (X = x) =

    {e

    x

    x!, si x = 0, 1, 2, . . .

    0, en otro caso

    Veamos algunos casos tpicos que pueden ser modelados por una variable alea-toria de Poisson.

    Ejemplo 24. La compaia de software microSOL tiene un linea telefnica de ayudaal cliente para sus 100,000 clientes. Supongamos que por trmino medio los clientesque llaman durante una hora es 20. La v.a. X nmero de clientes que llaman duranteuna hora admite un modelo de Poisson.

    Ejemplo 25. Consideremos una fuente radiactiva: una masa de 12gr. de un materialradiactivo homogneo, emitiendo por trmino medio 10 partculas en un tiempo t. Lav.a. X nmero de partculas emitidas en ese periodo de tiempo t admite un modelode Poisson.

    Ejemplo 26. Supongamos que una impresora de alta velocidad comete errores alea-torios en la impresin, haciendo por trmino medio 2 errores por pgina. La v.a. Xnmero de errores por pgina admite un modelo de Poisson.

    Propiedad. (Frmula de recursin) Si P [X = k] es la probabilidad de Poisson conparmetro , de observar k sucesos, entonces, P [X = k + 1] =

    k+1P [X = k].

  • 28 CAPTULO 1. VARIABLES A. Y SUS DISTRIBUCIONES

    1.8.7. Relacin entre los Modelos Discretos

    Pretendemos mostrar que determinados modelos de variables aleatorias discre-tas que hemos visto, "tienden.en un sentido que precisaremos mas adelante a otrostal como esquematizamos,

    BernoulliBinomial Pretendemos indicar en esta relacin algo que ya hemos di-cho: que el modelo binomial se puede considerar como la repeticin, en determinadascondiciones, del modelo de Bernoulli.

    BinomialPoisson Si X B(n, p), entonces puede ser aproximadamente mo-delada por una variable aleatoria de Poisson Y P() con = n p.

    Teorema. Si X B(n, p), si se verifica que lmnp0

    np = > 0. Entonces, si es P la

    f.m.p. de X se cumple que,

    lmnp0

    P [X = x] = ex

    x!

    demostracin.- Desarrollar el lmite

    lmnp0

    P [X = x] = lmnp0

    (n

    x

    )px(1 p)nx

    En palabras vulgares el teorema afirma que las probabilidades de una X B(n, p) pueden ser calculadas aproximadamente por las probabilidades de otra v.a. dePoisson Y P() con = n p, cuando n sea grande y p pequeo. La aproximacines buena para n 30 y np 5.

    Ejemplo 27. La probabilidad de que un determinado componente electrnico sea de-fectuoso es de 0,001. Si una caja contiene 200 de tales componentes, cal es la

  • 1.9. VARIABLES ALEATORIAS CONTINUAS 29

    probabilidad de que al menos dos de ellos sean defectuosos?.

    HipergeomtricaBinomial Nos referimos aqu al hecho de que en determi-nadas condiciones los muetreos sin reemplazo y con reemplazo pueden ser conside-rados "similares"Para una hipergeomtrica

    pX(x) = P (X = x) =

    (ax

    )(Nnnx)(

    Nn

    )si desarrollamos esta expresin podremos observar que para valores de

    x

    a,

    n xN a,

    n

    N

    pequeos, por ejemplo del orden de 0,1 resulta la f.m.p. de la binomial.

    HipergeomtricaPoisson Aqu nos referimos a que en ocasiones puede darselas condiciones para poder realizar una doble aproximacin,

    Hipergeomtrica Binomial Poisson

    1.9. Variables Aleatorias Continuas

    Sin mucho esfuerzo podemos detectar experiencias aleatorias con cuyos resulta-dos no es posible definir una variable aleatoria discreta. Es decir una v.a. que tomavalores diferentes con probabilidades no nulas en un conjunto discreto de valores.Por ejemplo la duracin de una vlvula electrica, la radiacin solar diaria en unmes concreto, el tiempo de trabajo de una CPU en un da. Si con estas experienciasdefinimos una v.a. debera de tomar valores en un intervalo de nmeros reales. Esetipo de v.a. reciben el nombre de continuas y en este tema pretendemos ver algunasdistribuciones de probabilidad de v.a. de esa clase.

    1.10. El Concepto de V.A. Continua

    La definicin formal de v.a. continua se hace a partir de la Funcin de Dis-tribucin. Sea un espacio de probabilidad (,A, P ) y sobre l definida una v.a. X,consideremos su Funcin de Distribucin F , decimos,

  • 30 CAPTULO 1. VARIABLES A. Y SUS DISTRIBUCIONES

    Definicin. La variable aleatoria X se llama Continua si su Funcin de Distribu-cin F es absolutamente continua.Al ser la funcin absolutamente continua significaque es continua y posee derivada, salvo quizas un conjunto de medida nula. (Cual-quier intervalo finito contiene, como mximo, un numero finito de puntos donde noes derivable). Por ello tiene sentido escribir:

    dF (x)

    dx= f(x),f

    que se conoce con el nombre de Funcin de Densidad de la v.a. X. Por tantosi una variable aleatoria X es continua, entonces posee Funcin de Densidad. Elrecproco es cierto, aunque no hay unicidad.

    Propiedades de la Funcin de Densidad. Si f es la Funcin de Densidad de la v.a.continua X se verifica que,

    f(x) 0, x R f(x)dx = 1

    Demostracin. Ambas son prcticamente inmediatas. La primera se deduce deque F es monotona no decreciente. La segunda del teorema fundamental del clculointegral,

    F (x) = P [X x] =x

    f(t)dtpor lo que+

    f(t)dt = P [X +] = P [x ] = F (+).

    Observar la analoga de las anteriores propiedades con las propiedades de laf.m.p. de una v.a. Discreta.

    Teorema. Si f es una funcin definida sobre R que verifica,

    f(x) 0, x R f(x)dx = 1

    es la Funcin de Densidad de alguna v.a. Continua.

    Propiedad. Si f es la Funcin de Densidad de una v.a. continua X que toma valoresen D entonces es,

  • 1.10. EL CONCEPTO DE V.A. CONTINUA 31

    P (B) =

    B

    f(x)dx B D R

    En particular

    P (a X b) = P (a < X < b) = ba

    f(x)dx

    Demostracin. De nuevo el teorema fundamental del clculo integral y en particularla regla de Barrow. Como consecuencia P (X = b) =

    bbf(x)dx = 0 es decir P (X =

    x) = f(x) 6= 0 que era vlida para v.a. discretas ( que tienen a f como funcin masade probabilidad ) no lo es para v.a. que son continuas y tienen a f como funcinde densidad. Ello en principio puede prestarse a equvocos que no son tales si nosdetenemos a pensarlo.

    Ejemplo 28. Sea X una v.a. cuya funcin de distribucin es

    F (x) =

    0 si x < 0x si x [0, 1]1 si x > 1

    Dibujar su grfica y determinar su funcin de densidad.

    Ejemplo 29. Sea la funcin

    f(x) =

    {3x2 si 0 x 10 en otro caso

    Probar que es una funcin de densidad, encontrar la funcin de distribucin.

    Ejemplo 30.- Una variable aleatoria continua X tiene de funcin de densidad

    f(x) =

    {k exp3x si x > 00 si x 0

    Determinar el valor de k y calcular la P (0,5 X 1).

    Ejemplo 31. Una v.a. continua X tiene de funcin de densidad

    f(x) =

    {6x(1 x) si x (0, 1)0 si x 6 (0, 1)

  • 32 CAPTULO 1. VARIABLES A. Y SUS DISTRIBUCIONES

    Calcular la P (X < 14) y la P (X > 1

    2).

    Ejemplo 32. Supongamos que en una ciudad el consumo diario de agua (en millonesde litros) es una variable aleatoria cuya funcin de densidad es

    f(x) =

    {19x exp

    x3 si x > 0

    0 si x 0

    Cal es la probabilidad de que, en un da, el consumo de agua no exceda de 6millones de litros. Si la capacidad de reserva diaria de la ciudad es de 9 millones delitros, Cal es la probabilidad de que un da se agote la reserva?.

    1.11. Modelos de V. A. Continuas

    Vamos a ver algunos modelos de variables aleatorias continuas, aquellos queconsideramos mas usuales.

    1.11.1. Uniforme

    Este tipo modela la eleccin al azar de un punto sobre un segmento [a, b] demanera que subintervalos iguales posean igual probabilidad. Tambin modela el an-gulo de parada de una ruleta, de un dial, de una rueda bien equilibrada, tras de unlargo nmero de giros, tomando de segmento [0, 2pi]. Tambin modela los erroresde redondeo causados por ignorar todos los digitos n lugares mas all de la comadecimal, tomando de segmento [0, 10n]. Su funcin de densidad es:

    f(x) =1

    b a a < x < b

    1.11.2. Normal

    La familia de distribuciones normales es, sin dudar, la ms importante de todasen las aplicaciones prcticas y en la teora. Varias razones avalan esa afirmacin. Enbreve podemos significar que proporciona buenas aproximaciones a la distribucin demuchos fenmenos de azar en el mundo real y juega un papel clave en los mtodosestadsticos.

    Una v.a. X es Normal de parmetros y , lo que indicaremos X N (, )si tiene de funcin de densidad

  • 1.11. MODELOS DE V. A. CONTINUAS 33

    f(x) =1

    2pie

    12

    (x

    )2, < x

  • 34 CAPTULO 1. VARIABLES A. Y SUS DISTRIBUCIONES

    (z) =

    z

    (t)dt =

    z

    12piet2

    2 dt

    Notaciones.- Es usual notar una v.a. Normal tipificada por la letra Z, as comoreservar las letras y respectivamente, para la funcin de densidad y la funcinde distribucin de la normal tipificada. Puesto que la funcin de densidad de laN (0, 1) es simtrica respecto el eje de ordenadas es

    (z) = 1 (z) zello hace que muchas tablas y o calculadoras, solo proporcionen la "mitad"de

    los valores.

    Ejemplo 33. Supongamos que la v.a. X es una N (0, 1). Calcular: a) P (X < 1,25), b) P (X > 1,25) , c) P (1 < X < 2) , d) P (X < 1,25) , e) P (X > 0,90) , f)P (|X| < 0,9)Ejemplo 34. Supongamos que la v.a. Z es una N (0, 1) y que 0 < < 1. Calcular elvalor de c tal que P (|Z| < c) = 1 Ejemplo 35. Supongamos que la estatura de una persona elegida aleatoriamente deuna poblacin homognea de adultos sigue una ley normal de media 1,69 y desviacintpica 4, ambas en centimetros. Determinar:

    1. La probabilidad de que elegido al azar una persona de tal poblacin resultetener su estatura comprendida entre 1,60 y 1,78

    2. Los cuartiles de la distribucin de estaturas.

    Ejemplo 36. En una poblacin de 1000 animales se van a seleccionar a los 50 demayor peso. Si el peso P es una v.a. tal que P N (5,5, 1,6) , determinar a partirde que peso tenemos que seleccionar,

    Propiedad.

    Y1 N (1, 21) , Y2 N (2, 22) = a1 Y1+a2 Y2 N (a11+a22 , a2121 +a2222)

    La propiedad se puede extender a la suma de un nmero finito de v.a. normales.

    La propiedad tiene una aplicacin inmediata al caso de la suma y diferenciade dos v.a. normales.

  • 1.11. MODELOS DE V. A. CONTINUAS 35

    Ejemplo 37.- Supongamos que la estatura de un animal macho elegido aleatoriamen-te de una poblacin homognea de adultos sigue una ley normal de media 1,40 ydesviacin tpica 3 y supongamos que la estatura de un animal hembra elegido alea-toriamente de una poblacin homognea de adultos sigue una ley normal de media1,60 y desviacin tpica 4. Si elegimos al azar un macho y una hembra, encontrar laprobabilidad de cada uno de los siguientes sucesos: a) La estatura de la hembra essuperior a la del macho ; b) Sus estaturas difieren en menos de 3cm. ; c) La mediade la estaturas es superior a 1,80. Como consecuencia se puede extraer la siguiente,

    Propiedad. Si X1, X2, , Xn son v.a. i.i.d. normales con media y varianza 2entonces,

    X n

    N (0, 1)

    1.11.3. Gamma

    Esta v.a. puede modelar el tiempo de espera hasta observad la r-esima ocu-rrencia de un suceso cuando ocurren al azar con promedio por unidad de tiempo.

    Una v.a. continua X cuya funcin de densidad es

    f(x) =

    (r)(x)r1ex, x > 0

    La Funcin Gamma , es una funcin especial que se define

    (r) =

    0

    xr1exdx > 0

    Una interesante propiedad de la funcin gamma dice que

    (r + 1) = (r)

    Observa que la funcin de densidad de una v.a. depende de dos parmetros,los mismos que la funcin gamma, el parmetro r que se denomina de "forma"(shape)y el parmetro que se denomina de escala. Existen muchas situaciones prcticasen que la densidad de una v.a. puede ser aproximada por una gamma con parmetrosadecuados.

  • 36 CAPTULO 1. VARIABLES A. Y SUS DISTRIBUCIONES

    1.11.4. Exponencial

    Las v.a. exponencial puede modelar el tiempo de desintegracin de particulasradioactivas. Tambin puede modelar el tiempo de espera requerido para observar laprimera ocurrencia de un suceso de un tipo especificado, cuando los sucesos deese tipo ocurren al azar a un promedio por unidad de tiempo. Ejemplos de ellopuede ser el tiempo hasta que una pieza falla. Su funcin de densidad es

    f(x) = ex x > 0

    La distribucin exponencial es un caso particular de de la distribucin gamma.

    Ejemplo 38. En el supuesto de una placa homgenea de grosor h , 0 x h, que esbombardeada con un flujo de neutrones, la variable aleatoria X recorrido libre de unneutrn o recorrido entre un choque y otro puede ser modelada por una exponencialde densidad f(x) = ex. La constante se denomina seccin completa y escaracterstica de la materia.

    1.11.5. Chi-Cuadrado

    La distribucin Chi-Cuadrado es un caso particular de una v.a. Gamma (r =n2, = 1

    2). Puede definirse directamente as: Una v.a. sigue una distribucin Chi-

    Cuadrado con n grados de libertad, lo que escribiremos X 2(n) si su funcinde densidad es

    f(x) =1

    2n2 (n

    2)xn21e

    n2 para x > 0, n Z

    Interesantes propiedades relacionadas con ella y la normal son,

    Propiedad. Si Xi 2(ni) = S =Xi 2(

    ni)

    Propiedad. El cuadrado de una v.a. Normal tpica es una Chi-Cuadrado con 1 gradode libertad,

    Si X N (0, 1) = X2 2(1)

    Como consecuencia de las anteriores se obtiene la siguiente propiedad, quepuede usarse tambin para definir una v.a. 2 con n grados de libertad,

    Propiedad. Si {Xi}son i.i.d. y {Xi}ni=1 N (0, 1) = X12+X22+ +Xn2 2(n)

  • 1.11. MODELOS DE V. A. CONTINUAS 37

    Es decir: La suma de n v.a. i.i.d. normales tpicas es una v.a. Chi-Cuadradocon n grados de libertad

    1.11.6. F-Snedecor

    Esta variable aleatoria modela al cocienteUmVn

    de otras dos, U y V , que sonindependientes y con distribucin 2(m) y 2(n). Se usa mucho en el ANOVA. Esposible definirla directamente pero la forma ms usual es hacerlo es a partir de lapropiedad,

    Propiedad. Si X1 2(n) y X2 2(m) , la distribucin de la v.a. F =X1nX2m

    seconoce con el nombre de distribucin F de Snedecor con n grados de libertad en elnumerador y m grados de libertad en el denominador.

    Observa que F es una v.a. positiva como cociente de dos que lo son.

    1.11.7. t-Student

    En el caso de que una v.a. X N (, ) la distribucin de la v.a. Xn

    N (0, 1) , lo que podra ser utilizado para inferir sobre , si fuese conocida. Unasolucin lgica es sustituir por la desviacin tpica s de la muestra. En ese caso, ladistribucin de X

    n

    ya NO es N (0, 1). El problema de determinar la distribucin deesa v.a. fue resuelto por Willian Gosset en 1908, trabajador de una cervecera. Pormotivos laborales escondi sus trabajos bajo el seudnimo de Student. Por ellola distribucin de la v.a. X

    n

    se conoce con el nombre de t de Student. El mismoGosset encontr que el aspecto de la distribucin depende de n, parmero que seconoce con el nombre de grados de libertad. Es posible dar una definicin directaas,

    Una v.a. X sigue una distribucin t-Student con n grados de libertad y escri-biremos X t(n) si su funcin de densidad es

    f(x) =(n+1

    2)

    (n2)npi

    (1 +x2

    n)

    n+12 para x R, n Z+

    Las caracteristicas grficas (asintotas, extremos, inflexiones) de esa funcin dedensidad son iguales a las de la grfica de la densidad de la normal tpica. Incluso sutrazado es muy similar, tanto ms cuanto mayor sea n. Por lo que estas propiedadesgrficas son fciles de deducir para vosotros.

  • 38 CAPTULO 1. VARIABLES A. Y SUS DISTRIBUCIONES

    Propiedad. Una v.a. X t(n) es asintticamente una N (0, 1)Propiedad. Si Z N (0, 1) y X 2(n) entonces

    ZXn

    t(n)

    La siguiente propiedad indica que el cuadrado de una v.a. t-Student es una v.a.F-Snedecor.

    Propiedad. Si X t(n) entonces X2 F (1, n)

    1.12. Otras Distribuciones

    1.12.1. Breit-Wigner

    Se trata de una versin particular de la de Cauchy, y tiene especial importanciaen fsica nuclear. En mecnica cuntica, se prueba que un estado que decae expo-nencialmente con el tiempo, el ancho de energa del estado puede ser modeladopor una distribucin de densidad

    f(E) =1

    pi

    2

    (E E0)2 + (2 )2

    Ejemplo 39. Mediante un dibujo mostrar que la distribucin normal standard y laBreit-Wigner simple son de aspecto parecido.

    Ejemplo 40. Calcular la media de una distribucin de Breit-Wigner.

    Sugerencias para el Examen

    1. De las anteriores distribuciones, interesa es que sepais manejar la tablade cada distribucin. En concreto saber calcular probabilidades de succesosasociados a esas variables.

    2. Saber manipular la funcin de densidad y la de distribucin de variables alea-torias discretas y continuas.

    3. Los ejercicios que aparecen como ejemplos.

  • Captulo 2

    Muestreo y Estimacin

    2.1. Estimacin y Contrastes

    Entre los problemas que aborda la Inferencia, dos fundamentales son el deEstimacin de Parmetros y el del Contraste de Hiptesis. A partir de unos datosse pretende, con el primero, estimar uno o mas parmetros de una distribucin y,con el segundo, aceptar o n una hiptesis.

    2.2. Estimacin de Parmetros

    Supongamos que un experimento nos ha proporcionado unos datos y que, esta-mos seguros esos datos, pueden considerarse realizaciones de una variable aleatoriaX de la que conocemos la forma de la funcin de densidad f , pero desconocemos unparmetro que interviene en su formulacin. Y pretendemos estimarlo. Ejemplo [7],supongamos que tenemos ciertos datos de una distribucin angular, consistente enun conjunto de valores cos i para cada interacin entre particulas, en donde i es elangulo que, las particulas observadas, forman con una determinada direccin. Su-pongamos que es correcto suponer que la densidad de esa distribucin es de la formay = f(cos ) = N(1 + b

    acos2 ), donde N es una constante, (en ocasiones conocida

    por Constante de Normalizacin) de forma que la funcin f sea una funcin dedensidad, es decir que la

    f(cos ) d cos = 1. La estimacin de parmetros busca

    estimar los valores de a y b de acuerdo con los datos que poseemos.

    Formalmente el problema de la estimacin de parmetros consiste en: sea una

    39

  • 40 CAPTULO 2. MUESTREO Y ESTIMACIN

    variable aleatoria X, con funcin de densidad f(X; ), de la que conocemos su formapero desconocemos el parmetro . Es decir estamos considerando toda una familiade funciones de densidad

    {f(X; )| IRk} de candidatas para la variable

    aleatoria X y deseamos, mediante la eleccin de un valor para , concretar una deellas.

    Los principales mtodos de estimacin de parmetros son: a) Mxima Vero-similitud, b) Momentos, c) Mnimos Cuadrados. De ellos solo nos ocuparemos delprimero.

    2.3. Mxima Verosimilitud

    Este mtodo comienza por extraer una m.a.s. (X1, X2, X3, . . . , Xn). Con ellase forma la denominada funcin de densidad conjunta de la muestra:

    f(x1, x2, x3, . . . , xn; ) =ni=1

    f(xi, )

    2.3.1. Funcin de verosimilitud

    Observar que la funcin de densidad conjunta es, para una muestra concre-ta, solo funcin del parmetro , por lo que tiene sentido la siguiente definicin.Llamamos funcin de verosimilitud, a la funcin L del parmetro

    L() = f(x1, x2, x3, . . . , xn; ) =ni=1

    f(xi, )

    Insistimos: la funcin de verosimilitud es, para una muestra concreta, solo funcindel parmetro .

    2.3.2. El Principio de Mxima Verosimilitud

    Ideado por Gauss y desarrollado por Fisher, consiste en elegir para estimar. Siendo el valor que maximiza la funcin de mxima verosimilitud, es decir

    ni=1

    f(xi, ) >ni=1

    f(xi, ) ,

    En consecuencia tal extremo puede no existir y puede, caso de existir, no ser nico.

  • 2.3. MXIMA VEROSIMILITUD 41

    2.3.3. Ecuacin de Verosimilitud

    En general si L() es derivable, la obtencin de los mximos sigue el caminohabitual: igualar a cero la primera derivada, obtener las raices y verificar que, enellas, la derivada segunda es negativa.

    d L()d

    = 0 yd2

    d 2L() < 0 (1)

    La ltima ecuacin se llama Ecuacin de Verosmilitud. Pero es ms fcil, enlugar de resolver esa ecuacin de verosimilitud d L()

    d = 0, d

    d

    ni=1 f(xi, ) = 0,

    aplicando que la funcin logaritmo neperiano es montona, por lo que los mximosde L() y los de lnL() coinciden, entonces resolvemos , en lugar de la ecuacinantes citada, la que indicamos a continuacin

    d

    d ln

    ni=1

    f(xi, ) = 0 (2)

    2.3.4. Ecuacin Log-Verosimilitud

    La anterior ecuacin se llama Ecuacin de LogVerosimilitud y admiteestas expresiones:

    d

    d lnL() = 0 d

    d

    ni=1

    ln f(xi, ) = 0 (3)

    Ejemplo 2.3.1 Sea X b(p), su funcin masa de probabilidad es f(x, p) = px(1p)1x para x = 0, 1. Vamos a estimar el parmetro p (0, 1) por el mtodo de M.L.

    L(p)=L(X1, X2, . . . , Xn; p)=ni=1

    f(xi, p)=ni=1

    pxi(1 p)1xi =pni=1 xi (1 p)n

    ni=1 xi

    lnL(p) = (ni=1

    xi ln p+ (nni=1

    xi) ln(1 p) dd p

    lnL(p) = 0

    (

    xi)1

    p+ (n

    xi)

    1

    1 p(1) = 0(1 p)xi p(nxi)

    p(1 p) = 0

  • 42 CAPTULO 2. MUESTREO Y ESTIMACIN

    de donde p = X =Xin

    . Se debe verificar que es un mximo, sustituyendo su valoren la derivada segunda

    d2

    d p2lnL(p) = (1)p2(

    Xi) (n

    Xi)(1 p)2 =

    =(1)(1 p)2(Xi) (nXi)p2

    p2(1 p)2 < 0 , p (0, 1) , xi = 0, 1 i

    Ejemplo 2.3.2 Sea X P(). Su funcin masa de probabilidad es f(x, ) =P (X = x) = e

    xx!

    con x = 0, 1, 2, . . . y > 0 desconocido, que vamos a estimar porel mtodo de mxima verosimilitud.

    Dada la muestra (X1, X2, . . . , Xn) la funcin de verosimilitud es

    L() =ni=1

    f(xi, ) =ni=1

    exi

    xi!

    y el

    lnL() = n+ (ni=1

    Xi) ln ln(ni=1

    xi!)

    por lo qued

    d lnL() = n+

    ni=1 xi

    si igualamos a cero tenemos que =ni=1 xin

    , queda verificar que en efecto es unmximo.

    Ahora ilustramos el mtodo con ejemplos (ver p.e. [9] ) donde el parmetrodesconocido es un vector y en consecuencia hay que estimar sus componentes. Su-pongamos que tenemos n datos que procedentes de una distribucin normal, de laque desconocemos su media y varianza.

    Ejemplo 2.3.3 Deseamos estimar la media y la varianza suponiendo que los datossiguen una distribucin es Normal.

    Sea X N (, ). Es decir X N (~) con ~ = (, 2) IR2. La funcinde densidad es f(x, ~) = 1

    2pie 1

    2(x

    )2, dada una muestra {Xi}ni=1 la funcin de

    verosimilitud es L(~) =n

    i=11

    2pie 1

    2(xi

    )2 = 1

    (

    2pi)ne

    122

    (xi)2 luego lnL(~) =

    n ln(2pi) 122

    ni=1(xi )2

  • 2.4. PROPIEDADES DESEABLES PARA UN ESTIMADOR 43

    d

    d~lnL(~ ) = 0

    {dd

    lnL(~ ) = 0 122

    ni=1 2(xi )(1) = 0

    dd2

    lnL(~ ) = 0 n22

    +ni=1(xi)2

    24= 0

    Resolviendo obtenemos

    =

    ni=1 xin

    (2.1)

    2 =

    ni=1(xi )2

    n(2.2)

    queda por verificar que ~ = (, 2) es un mximo.

    En muchas ocasiones es difcil resolver la ecuacin de verosimilitud, en elsupuesto de que sta tenga solucin. Pero adems si se da el caso de tener variasraices esa ecuacin, puede ser tambin problemtico localizar la que corresponde aun mximo absoluto. A continuacin vemos un ejemplo en donde la ecuacin deverosimilitud necesita ser resuelta numricamente.

    Ejemplo 2.3.4 Estimacin del parmetro de una ley de Cauchy.

    Supongamos que una variable aleatoria, sigue una ley de Cauchy X C(),su funcin de densidad es f(x, ) = 1

    pi1

    1+(x)2 con < x < por lo que L() =ni=1

    1pi

    11+(xi)2 la ecuacin log-verosimilitud es lnL()=n ln pi

    ni=1 ln

    (1+(xi

    )2), la condicin de extremo d

    dlnL() = 0 nos proporciona 1

    [1+(xi)2]2(xi )(1) = 0 de donde resulta la ni=1 2(xi)1+(xi)2 = 0 ecuacin que en general noadmite solucin explcita, por lo que se resuelve mediante mtodos numricos apro-ximados, en la mayora de las ocasiones mtodos basados en el de Newton-Raphson,en donde hay que cuidar la eleccin de la estimacin inicial pues es la que har quelas sucesivas iteraciones vayan aproximandose a un mximo.

    2.4. Propiedades deseables para un estimador

    Para cada una de las muestras o datos considerados, un estimador proporcionaun valor. Genricamente por tanto podemos considerar una distribucin de valoresasociada al estimador.

  • 44 CAPTULO 2. MUESTREO Y ESTIMACIN

    2.4.1. Estimador insesgado

    Una propiedad deseable de un estimador es que el promedio de la distribucinde los valores que puede tomar coincida con el valor del parmetro que queremosaproximar. Dicho en palabras mas simples, si pudiramos repetir un nmero infinitode veces el estimador el valor medio de ellos debera de ser el verdadero valor delparmetro. Si ocurre eso, decimos que el estimador es insesgado. Formalmente paradefinirlo, se usa el concepto de esperanza matemtica, segn l, si es un estimadordel parametro , decimos que es si E[] = .

    Si no es insesgado, la diferencia E[] se llama Sesgo del estimador.

    2.4.2. Estimador consistente

    Adems de que un estimador sea insesgado, nos interesa que la dispersin delos valores que puede tomar sea la ms pequea posible, para que la precisin de laestimacin sea la mayor posible. Por consiguiente, una buena propiedad adicionalde un estimador insesgado es que su varianza tienda a cero si el nmero de observa-ciones n crece hacia infinito. En este caso, se dice que el estimador es consistente.

    Los estimadores y 2 de Mxima Verosimilitud obtenidos para el caso de unapoblacin N (, 2), son ambos consistentes. Pero solo es insesgado.

    El 2 no es insesgado, es decir no cumple E[2] = 2. En concreto verificaque E[2] = n1

    n2. Sin embargo si tomamos de estimador 2 =

    ni=1(XiX)2

    (n1) SI esun estimador insesgado de la varianza 2.

    Esa es la razn por la que, cuando se trabaja con muestras, procedentes depoblaciones normales se use la cuasivarianza y no la varianza de la muestra. Aunque,en el caso de que la muestra sea muy grande la diferencia es muy pequea. Ya quedividir por n 1 en lugar de por n ocasiona poca diferencia.

    Cuasivarianza: S2 =n

    i=1(Xi X)2n 1 Varianza: s

    2 =

    ni=1(Xi X)2

    n

    2.4.3. Invarianza del E.M.V. bajo transformaciones unvocas

    En algunos problemas es necesario estimar no un parmetro sino una funcinde l, en ese caso es til el siguiente Teorema de Zehna que establece la invarianzadel E.M.V. bajo transformaciones unvocas.

    Teorema.- Si es E.M.V. para , si = g() es una aplicacin, entonces = g()es E.M.V. de g()

  • 2.4. PROPIEDADES DESEABLES PARA UN ESTIMADOR 45

    Vamos a ilustrar el teorema anterior con uno de los ejemplos ms clsicos, el de ladistribucin de la variable aleatoria log-normal. Se dice que una variable aleatoriaX sigue una ley log-normal, si la variable aleatoria Y = lnX sigue una ley Normal.La media de la variable aleatoria log-normal es

    = E[X] =

    et1

    2pie

    (t)222 dt = e+

    2

    2

    puesto que para la v.a. Y el E.M.V. de es = Y y el de 2 es 2 =ni=1(YiY )2

    n

    tenemos que el E.M.V. de es = eY+ni=1(YiY )2

    2n , en virtud del teorema anterior.

    2.4.4. Invarianza Asinttica del E.M.V.

    El ejemplo de la N (, ), donde obtenamos un estimador insesgado y otrosesgado, muestra que, en el caso de muestras pequeas, hay que tener cuidado con losE.M.V. . La razn estriba en que el mtodo busca la Moda de una funcin muestral.En concreto la moda de la funcin de verosimilitud. Y en general la moda muestrales peor estimador que la media. Si embargo asintticamente el comportamiento esbueno. Es decir para muestras grandes los E.M.V. tienen buen comportamiento. Elloes de esperar ya que para muestras grandes la moda tiende a aproximarse a los otrosestimadores de la media, la media muestral y la mediana.

    Puede demostrarse que, en condiciones bastante generales, los E.M.V. sonasintticamente consistentes y eficientes. Para muestras grandes, es decir para va-lores de n grandes, tienen varianza asinttica minima.

    Ejemplo 2.4.1 Supongamos que tenemos una serie de n meddas x1, x2, . . . , xn deuna cantidad, cada una con una precisin i conocida pero distintas en general.Esta situacin es corriente cuando se toman medidas de una cantidad con distintosinstrumentos, en ese caso los errores difieren de unas a otras. Supongamos que cadamedda es la realizacin de una v.a. normal. Deseamos encontrar el E.M.V. de esacantidad.

    La funcin de densidad para cada medda es

    f(xi, ) =1

    i

    2pie 1

    2(xii

    )2

    la funcin de verosimilitud es

    L() =ni=1

    1

    i

    2pie 1

    2(xii )2

  • 46 CAPTULO 2. MUESTREO Y ESTIMACIN

    la funcin logverosimilitud es

    lnL() =ni=1

    ( 12

    ln 2pi 12

    ln2i 1

    2

    (xi )22i

    )su derivada primera igualada a cero es

    d

    dlnL() =

    ni=1

    xi 2i

    = 0 que tiene la solucin =

    ni=1

    xi2i

    ni=1

    12i

    Ejemplo 2.4.2 Para una poblacin que sigue una ley binomial con n = 5 y par-metro p desconocido. Es decir X 7 B(5, p). Imaginemos que tenemos un valorobservado de Xi = 4 queremos dibujar la funcin de verosimilitud, as como lalog-verosimilitud. A la vista de ella indicar cal sera el valor ms verosimil para p

    Ejemplo 2.4.3 De [9] Supongamos que hemos hecho una serie de n medidas dela misma cantidad X1, X2, . . . , Xn cada medida posee una varianza conocida 2i ,diferente para cada una de las medidas. Supongamos que las medidas se distribuyencon ley normal. Encontrar el E.M.V. de la cantidad y la varianza del estimador.

    Ejemplo 2.4.4 Generar 50 datos de una ley de Cauchy con parmetro de forma = 0 y de escala = 1. A partir de esos datos, y suponiendo que sabemos procedende una poblacin de Cauchy con parmetro desconocido y conocido = 1.Estimar mediante mxima verosmilitud el parmetro .

    Una v.a. se dice que sigue una ley de Cauchy estandard si su funcin de den-sidad es f(x) = 1

    pi1

    1+x2con soporte en toda la recta real IR.

    Una v.a. se dice que sigue una Ley de Cauchy con parmetro de forma y deescala si su funcin de densidad es f,(x) = 1f(

    x

    ) siendo f la densidad de laCauchy estandard.

    Para generar la muestra, es decir los 50 datos aleatorios procedentes de unaCauchy(0, 1)

    > n set.seed(73)> muestra

  • 2.4. PROPIEDADES DESEABLES PARA UN ESTIMADOR 47

    Ahora definimos la funcin de log-verosimilitud que es la que debemos maxi-mizar.

    > logverosimil mu.inicial resultado mu.hat mu.hat[1] -0.08885035

    Observar que el valor estimado = 0,0888503 es muy cercano al verdadero = 0

    Ejemplo 2.4.5 Generar 80 datos de una ley de Cauchy con parmetro de forma = 0 y de escala = 1. A partir de esos datos, y suponiendo que sabemos procedende una poblacin de Cauchy con parmetro desconocido y tambin desconocido.Estimar mediante mxima verosmilitud los dos parmetros.

    Se trata de retocar la funcin anterior para hacerla que dependa del vector ~ = (, )cuyas componentes son los parmetros que se quieren estimar.

    generamos la muestra

    > n set.seed(34)> muestra

  • 48 CAPTULO 2. MUESTREO Y ESTIMACIN

    > logverosimil theta.inicial resultado theta.hat theta.hat

    2.5. Estimacin mediante Intervalos

    Anteriormente hemos hablado acerca del problema de la estimacin puntual deun parmetro . Con ella se busca un estimador de manera que con l, y con lamuestra obtenida una vez realizado un experimento, tenemos una estimacin delparmetro desconocido .

    Ahora el problema a considerar sigue siendo el mismo: tenemos una v.a X confuncin de densidad f(X; ), de la que conocemos su forma pero desconocemos elparmetro y deseamos tener alguna idea de como es. La respuesta se d, ahora, deuna manera distinta. Solucionamos la estimacin del parmetro desde un enfoquedistinto, se trata de encontrar un cierto intervalo aleatorio I(X) =

    [T1(X), T2(X)

    ]de manera que I(X) cubra el verdadero valor del parmetro con una probabilidadfijada de antemano. Observar que hemos denotado el intervalo como una funcin dela variable aleatoria X, se hace para destacar que el intervalo es dependiente de lamuestra. Es un intervalo aleatorio.

    Definicin 2.5.1 (Intervalo Aleatorio) Sea una v.a X con funcin de densidadf(X; ) , IR, de la que conocemos su forma pero desconocemos el parmetro.

    Dada una muestra {X1, X2, . . . , Xn} de variables aleatorias independientes eigualmente distribuidas que X, un intervalo

    I(X) =[T1(X1, X2, . . . , Xn), T2(X1, X2, . . . , Xn)

    ]tal que I(X) y sus extremos dependiendo de la muestra pero no de se diceque es un Intervalo Aleatorio para .

  • 2.5. ESTIMACIN MEDIANTE INTERVALOS 49

    Definicin 2.5.2 (Intervalo de Confianza) Sea un nmero real tal que 0 < < 1, un intervalo aleatorio I(X), como el anteriormente definido, se denominaIntervalo de Confianza al nivel 1 si:

    P[T1(X1, X2, . . . , Xn) T2(X1, X2, . . . , Xn)

    ] 1 2.5.1. Intervalos de Confianza para la Media

    Vamos a ver solo una situacin muy concreta de las variadas que existen. Elcaso de estimacin por intervalos del parmetro media de una poblacin.

    I.C. para la Media de una poblacin Normal con varianza Conocida.

    Si sabemos que X 7 N (, 2) con 2 conocida, a partir de una muestra{X}ni=1 se tiene el siguiente I.C. a nivel 1 (es equivalente decir con probabilidad1 o tambin con error ):

    (2.3)(X z1

    2

    n, X + z1

    2

    n

    )en donde z1

    2es el cuantil 1

    2de la N (0, 1).

    Observar que el radio del intervalo es z12

    n

    Ejemplo 2.5.1 Vamos a usar un fichero de datos denominado airquality. Es undataframe que contiene 6 columnas y 154 filas. Cada columna es una muestra conmeddas de calidad del aire tomadas en New York en 1973. El fichero est dentrodel paquete base de R. De l extraemos la muestra denominada Ozone. Que contienemeddas o datos del nivel de Ozono. Vamos a suponer que esos datos proceden deuna v.a. Normal, de media desconocida y varianza conocida 2 = 1089. Queremoscalcular un I.C. para la media de esa v.a. con un error = 0,05, o tambin se puededecir con probabilidad 0,95

    > data() # lista los ficheros de datos en el paquete base> data(airquality) # carga el fichero de datos denominado airquality> airquality # vemos por pantalla el ficheros> # la primera linea contiene los nombres de los datos de cada columna> airquality$Ozone # carga datos de la columna denominada Ozone> # los datos codificados como NA son datos que no estan disponibles> mean(airquality$Ozone,na.rm=TRUE) # la media de los datos

  • 50 CAPTULO 2. MUESTREO Y ESTIMACIN

    > sigma alfa n # el mandtao length cuenta a los NA> # el mandato na.omit crea un vector sin los NA> n radio ExtSupIntervalo ExtInfIntervalo ExtInfIntervalo # para verlo> ExtSupIntervalo # para verlo

    En definitiva el I.C, calculado, con esos datos, es el (36,12403, 48,13459)que contiene a la media de la v.a. Normal, con una probabilidad del 0,95. Pero noaseguramos que la contenga. Nuestro resultado es en probabilidad.

    I.C. para la Media de una poblacin Normal con varianza Desconocida.

    El caso anterior es poco usual, ya que si se desconoce la media lo lgico es que sedesconozca tambin la varianza. En este caso sustituimos la (que es desconocida)por S la cuasidesviacin tpica de la muestra,

    Si sabemos que X 7 N (, 2) con 2 desconocida, a partir de una muestra{X}ni=1 es posible el siguiente I.C. a nivel 1 (es equivalente decir con probabilidad1 o tambin con error ) al:

    (2.4)(X t1

    2

    Sn, X + t1

    2

    Sn

    )en donde t1

    2es el cuantil 1

    2de la t[n 1].

    Observar que, ahora, el radio del intervalo es t12

    Sn

    Ejemplo 2.5.2 Sigamos con los datos del ejemplo anterior. Vamos a suponer queesos datos proceden de una v.a. Normal, de media desconocida y varianza desco-nocida. Queremos calcular un I.C. para la media de esa v.a. con un error = 0,07,o tambin se puede decir con probabilidad 0,93

    > data(airquality)

  • 2.5. ESTIMACIN MEDIANTE INTERVALOS 51

    > airquality$Ozone> n alfa radio ExtSupIntervalo ExtInfIntervalo ExtInfIntervalo[1] 36.52755> ExtSupIntervalo[1] 47.73107

    En definitiva el I.C, calculado, con esos datos, es el (36,52755, 47,73107)que contiene a la media de la v.a. Normal, con una probabilidad del 0,97. Pero noaseguramos que la contenga. Nuestro resultado es en probabilidad. Ahora el I.C.es mas preciso (mas chico) pero con menor probabilidad.

    I.C. para la Media de una poblacin con una Ley cualquiera y con varianzafinita.

    Este es el caso mas general, sabemos que X 7 L(, 2). Donde es descono-cido todo, la Ley L que sigue, la media que tiene y la varianza 2 que tiene. Enese caso, a partir de una muestra {X}ni=1 de tamao n 100 un I.C. aproximadoa nivel 1 (es equivalente decir con probabilidad 1 o tambin con error )para la media de la poblacin es:

    (2.5)(X z1

    2

    Sn, X + z1

    2

    Sn

    )en donde z1

    2es el cuantil 1

    2de la N (0, 1).

    Observar que, ahora, el radio del intervalo es z12

    Sn

    Avisos:

    En la anterior frmula S es la cuasidesviacin tpica de la muestra, pero dadoque n 100 es igual usar la desviacin tpica de la muestra.Tomar n 100 es un criterio de aproximacin. Algunos autores lo rebajan.Por ejemplo a n 60Si fuera la varianza de la poblacin conocida, en ese caso se toma ella en lugarde la de la muestra. Y puede reducirse el tamao de la muestra a n 30

  • 52 CAPTULO 2. MUESTREO Y ESTIMACIN

    Ejemplo 2.5.3 Sigamos con los datos del ejemplo anterior. Vamos a suponer queesos datos proceden de una v.a. con Ley Desconocida, de media desconocida yvarianza desconocida. Queremos calcular un I.C. para la media de esa v.a. con unerror = 0,04, o tambin se puede decir con probabilidad 0,96

    > data(airquality)> airquality$Ozone> n alfa radio ExtInfIntervalo ExtSupIntervalo ExtInfIntervalo[1] 35.83899> ExtSupIntervalo[1] 48.41963

    En definitiva el I.C, calculado es el (35,83899, 48,41963) que contiene a lamedia de la v.a. desconocida, con una probabilidad del 0,96. Pero no aseguramosque la contenga. Nuestro resultado es en probabilidad. Adems ahora el I.C. esaproximado. Expresamos: los datos pproporcionan un I.C que aproximadamentees (35,83899, 48,41963) con una probabilidad del 0,94 o error del 6% .

    2.5.2. Reflexiones sobre el uso de I.C.

    Interpretacin del I.C.

    La primera de la reflexiones a realizar es insistir en el caracter aleatorio de losI.C., se tratan de intervalos donde los extremos son variables aleatorias. El intervalopuede cubrir o no al parmetro, con cierta probabilidad que llamamos nivel de con-fianza. La interpreta