capÍtulo 6. variables aleatorias methods/apuntes...se llama variable aleatoria la cual acepta un...

22
CAPÍTULO 6. VARIABLES ALEATORIAS La teoría de probabilidades estudia los sucesos aleatorios, las variables aleatorias y los procesos aleatorios. Se llama variable aleatoria la cual acepta un valor que no puede predecirse con certeza antes de un experimento. Si X denota una variable de este tipo, X tomará generalmente valores diferentes escogidos al azar desde un espacio llamado muestral cada vez que se realice el experimento. 6.1 Clases de variables aleatorias Las variables aleatorias son variables que en el experimento pueden aceptar uno u otro valor el cual no es conocido a priori. Por ejemplo: un número de alumnos 3 Y que reciben la nota de 3 en la clase de 20 alumnos. Claro que el valor 3 Y en el experimento puede aceptar cualquier valor entero desde 0 hasta 20. Otro ejemplo de variable aleatoria es el tiempo T, entre las dos llegadas de un vehículo a la parada, que puede aceptar cualquier valor desde cero hasta infinito. La teoría de los sucesos aleatorios también se puede formular en términos de las variables aleatorias. Con este fin generalmente se introduce una variable característica "X" correspon- diente al suceso A que acepta el valor 1 cuando aparece el suceso A y el valor de 0 cuando este no aparece. En este caso en lugar del estudio del suceso aleatorio A puede estudiarse la variable aleatoria X que puede aceptar solamente dos valores 0 o 1. Las variables aleatorias se pueden dividir en dos grupos: variables continuas y variables discretas. La variable X se llama continua si esta puede aceptar todos los valores ubicados entre dos puntos sobre el eje real y discreta si los valores posibles de X sobre el eje real se pueden enumerar, es decir, solo los valores separados entre sí sobre el eje real. En otras palabras, podemos decir que si la variable X puede tomar cualquier valor entre dos valores dados se llama continua, si no es así, se denomina variable discreta. Son ejemplos de variables aleatorias continuas: las velocidades, las energías, las coordenadas de las moléculas en un gas, los errores cometidos en las mediciones de temperatura, presión, la temperatura del aire, el tiempo de solución de un problema, los intervalos entre dos llegadas, el tiempo de servicio, la altura del hombre, la concentración de los átomos radiactivos, los parámetros físicos de un medio no homogéneo, tales como: coeficientes de difusión, capacidad calorífica, conductividad eléctrica y calorífica, la temperatura T registrada cada media hora en un observatorio, etc. Son ejemplos de variables aleatorias discretas: el número de átomos que chocan contra la pared de un recipiente, el número de moléculas excitadas, el número de experimentos correctos, la nota del examen, el número de alumnos de la clase, el número de caras para seis lanzamientos de una moneda, el número de los dientes, la cantidad de dinero, el número de libros en un estante de una librería, la suma de los puntos obtenidos en un lanzamiento de un par de dados, etc. Una variable se denota por una letra mayúscula del alfabeto, por ejemplo, X, Y, Z, y por la letras minúsculas x, y, z los valores que pueden tomar estas variables dentro de un conjunto llamado dominio de la variable. Para las variables aleatorias no se puede decir a priori, qué valor acepta en el experimento, pero casi siempre se pueden caracterizar las posibilidades de aparición de los valores diferentes, es decir, se puede predecir que uno u otro valor aparezca con mayor probabilidad. Con este fin en la teoría de probabilidades se introducen la densidad de distribución y la función de distribución de las variables aleatorias. Con el propósito de aclarar algunos conceptos a continuación se citan algunas definiciones de los conceptos básicos referidos a sucesos aleatorios: 6.2 Variables aleatorias discretas Si X denota una variable de este tipo, cada vez que se realice el experimento, X podrá tomar valores diferentes. Se denota por ( ) PX a , la probabilidad del suceso correspondiente a que la variable X tome el valor dado a. De forma análoga, ( ) Pa X b , representa la probabilidad de que la variable X tome un valor perteneciente al intervalo a X b . Si nosotros pudiéramos calcular la probabilidad ( ) Pa X b para todos posibles valores a y b, tendríamos un conocimiento completo de las probabilidades con que la variable tiende a tomar valores en diferentes partes del dominio de la variabilidad. En aquellos casos en que esto se verifique, diremos, por consiguiente, que conocemos la distribución de probabilidad, o simplemente la distribución, de la variable X. Una variable aleatoria pertenecen al tipo discreto, si la masa total de la distribución está concentrada en ciertos puntos aislados, concibiendo con el eje X que es una barra infinitamente delgada, sobre la cual se halla distribuida una masa total igual a 1. Si 1 2 , , x x es una sucesión finita o infinita de los valores que puede aceptar la variable aleatoria X, y 1 2 , , p p son las correspondientes probabilidades de que X tome los valores 1 2 , , x x entonces la distribución de la variable aleatoria se define como: ( ) , 1, 2, PX x p (6.1) Puesto que en el resultado de un experimento la variable X aceptará uno de los posibles valores con la certeza debe cumplirse la siguiente identidad que se llama la condición de normalización: 1 p (6.2) donde la suma se extiende a todos posibles de la variable Xa. Consideremos dos ejemplos de las variables aleatorias discretas: Ejemplo 1. Variable característica de un suceso aleatorio. A cada suceso aleatorio A que no sucede con la probabilidad q y sucede con la probabilidad p (p + q =1) se puede poner en correspondencia una variable aleatoria X que se llama característica que adquiere el valor 0 ( 1 0 x ) en el primer caso, y el valor 1,

Upload: others

Post on 30-Jan-2021

6 views

Category:

Documents


0 download

TRANSCRIPT

  • CAPÍTULO 6. VARIABLES ALEATORIAS

    La teoría de probabilidades estudia los sucesos aleatorios, las variables aleatorias y los procesos aleatorios. Se llama variable aleatoria

    la cual acepta un valor que no puede predecirse con certeza antes de un experimento. Si X denota una variable de este tipo, X tomará

    generalmente valores diferentes escogidos al azar desde un espacio llamado muestral cada vez que se realice el experimento.

    6.1 Clases de variables aleatorias

    Las variables aleatorias son variables que en el experimento pueden aceptar uno u otro valor el cual no es conocido a priori. Por

    ejemplo: un número de alumnos 3Y que reciben la nota de 3 en la clase de 20 alumnos. Claro que el valor 3Y en el experimento puede

    aceptar cualquier valor entero desde 0 hasta 20. Otro ejemplo de variable aleatoria es el tiempo T, entre las dos llegadas de un

    vehículo a la parada, que puede aceptar cualquier valor desde cero hasta infinito. La teoría de los sucesos aleatorios también se puede

    formular en términos de las variables aleatorias. Con este fin generalmente se introduce una variable característica "X" correspon-

    diente al suceso A que acepta el valor 1 cuando aparece el suceso A y el valor de 0 cuando este no aparece. En este caso en lugar del

    estudio del suceso aleatorio A puede estudiarse la variable aleatoria X que puede aceptar solamente dos valores 0 o 1.

    Las variables aleatorias se pueden dividir en dos grupos: variables continuas y variables discretas. La variable X se llama continua si esta

    puede aceptar todos los valores ubicados entre dos puntos sobre el eje real y discreta si los valores posibles de X sobre el eje real se pueden

    enumerar, es decir, solo los valores separados entre sí sobre el eje real. En otras palabras, podemos decir que si la variable X puede

    tomar cualquier valor entre dos valores dados se llama continua, si no es así, se denomina variable discreta.

    Son ejemplos de variables aleatorias continuas: las velocidades, las energías, las coordenadas de las moléculas en un gas, los errores

    cometidos en las mediciones de temperatura, presión, la temperatura del aire, el tiempo de solución de un problema, los intervalos entre

    dos llegadas, el tiempo de servicio, la altura del hombre, la concentración de los átomos radiactivos, los parámetros físicos de un medio

    no homogéneo, tales como: coeficientes de difusión, capacidad calorífica, conductividad eléctrica y calorífica, la temperatura T registrada

    cada media hora en un observatorio, etc. Son ejemplos de variables aleatorias discretas: el número de átomos que chocan contra la pared

    de un recipiente, el número de moléculas excitadas, el número de experimentos correctos, la nota del examen, el número de alumnos de la

    clase, el número de caras para seis lanzamientos de una moneda, el número de los dientes, la cantidad de dinero, el número de libros

    en un estante de una librería, la suma de los puntos obtenidos en un lanzamiento de un par de dados, etc.

    Una variable se denota por una letra mayúscula del alfabeto, por ejemplo, X, Y, Z, y por la letras minúsculas x, y, z los valores que

    pueden tomar estas variables dentro de un conjunto llamado dominio de la variable. Para las variables aleatorias no se puede decir a

    priori, qué valor acepta en el experimento, pero casi siempre se pueden caracterizar las posibilidades de aparición de los valores

    diferentes, es decir, se puede predecir que uno u otro valor aparezca con mayor probabilidad. Con este fin en la teoría de

    probabilidades se introducen la densidad de distribución y la función de distribución de las variables aleatorias. Con el propósito de

    aclarar algunos conceptos a continuación se citan algunas definiciones de los conceptos básicos referidos a sucesos aleatorios:

    6.2 Variables aleatorias discretas

    Si X denota una variable de este tipo, cada vez que se realice el experimento, X podrá tomar valores diferentes. Se denota por

    ( )P X a , la probabilidad del suceso correspondiente a que la variable X tome el valor dado a. De forma análoga, ( )P a X b ,

    representa la probabilidad de que la variable X tome un valor perteneciente al intervalo a X b . Si nosotros pudiéramos calcular la

    probabilidad ( )P a X b para todos posibles valores a y b, tendríamos un conocimiento completo de las probabilidades con que la

    variable tiende a tomar valores en diferentes partes del dominio de la variabilidad. En aquellos casos en que esto se verifique,

    diremos, por consiguiente, que conocemos la distribución de probabilidad, o simplemente la distribución, de la variable X.

    Una variable aleatoria pertenecen al tipo discreto, si la masa total de la distribución está concentrada en ciertos puntos aislados,

    concibiendo con el eje X que es una barra infinitamente delgada, sobre la cual se halla distribuida una masa total igual a 1. Si

    1 2, ,x x es una sucesión finita o infinita de los valores que puede aceptar la variable aleatoria X, y 1 2, ,p p son las correspondientes

    probabilidades de que X tome los valores 1 2, ,x x entonces la distribución de la variable aleatoria se define como:

    ( ) , 1,2,P X x p (6.1)

    Puesto que en el resultado de un experimento la variable X aceptará uno de los posibles valores con la certeza debe cumplirse la

    siguiente identidad que se llama la condición de normalización:

    1p

    (6.2)

    donde la suma se extiende a todos posibles de la variable Xa.

    Consideremos dos ejemplos de las variables aleatorias discretas:

    Ejemplo 1. Variable característica de un suceso aleatorio. A cada suceso aleatorio A que no sucede con la probabilidad q y sucede con la probabilidad p (p + q =1) se puede poner en

    correspondencia una variable aleatoria X que se llama característica que adquiere el valor 0 ( 1 0x ) en el primer caso, y el valor 1,

  • 2 1x en el segundo, es decir 1 20 , 1q X x p X x . A esta variable le corresponde la distribución dada por la

    siguiente tabla:

    i xi pi 1 0 q

    2 1 p

    Ejemplo 2. Variable de Bernoulli

    Como otro ejemplo, consideremos la variable nY correspondiente al número de aparición del suceso A en n experimentos

    independientes. Esta variable puede aceptar cualquier número entero entre 0 y n (en total n+1 valores diferentes) con las

    probabilidades dadas por la fórmula de Bernoulli, es decir

    !; 0,1,2, ,

    ! !

    m m n m m n mn n

    nY m C p q p q m n

    m n m

    . A esta

    variable le corresponde la distribución dada por la siguiente tabla:

    i xi pi 1 0 0 0 0n n

    nC p q q

    2 1 1 1 1n nnC pq npq

    ……………… ……………… ………………..

    m+1 m

    !

    ! !

    m m n m m n mn

    nC p q p q

    m n m

    …………….. ………………. ………………

    n n-1 1 1 1n n nnC p q np q

    n+1 n n n n n nnC p q p

    6.3 Variables aleatorias continuas. Función y Densidad de Distribución.

    Consideremos una variable aleatoria X de tipo continua que puede aceptar cualquier valor dentro de un intervalo finito ,X a b . En

    el caso cuando a o b el intervalo puede considerarse como infinito. La variable X puede aceptar dentro del intervalo

    considerado diferentes valores con las probabilidades diferentes. Estas probabilidades se definen a través de dos características de la

    distribución, función de distribución y la densidad de distribución.

    Definición 1. La probabilidad de encontrar la variable X en un punto sobre eje X a la izquierda del punto x se llama la FUNCIÓN

    DE DISTRIBUCIÓN ( )F x

    ( ) ( )F x X x (6.3)

    6.4 Función y Densidad de Distribución para Variables discretas

    6.5 Características numéricas de variables aleatorias.

    6.6 Teorema de Moivre-Laplace.

    6.7 Teorema de Números Grandes y Teorema Central de Límites

  • Una variable aleatoria y su distribución de probabilidad se dice que pertenecen al tipo continuo si la masa total se distribuye

    continuamente con una densidad )(xf continua. La cantidad )(xf se denomina densidad de probabilidad o función de frecuencia

    de la distribución. La cantidad dxxf )( se denomina elemento de probabilidad de la distribución.

    La masa total de la distribución es igual a 1 y puede expresarse mediante:

    1)( dxxf (B.5.1)

    La función de frecuencia es la derivada de la función de distribución y viene dada por:

    )()( xfxF (B.5.2)

    La cantidad de masa de un intervalo arbitrario bXa , que corresponda a la probabilidad de que la variable X tome un valor perteneciente a este intervalo, es:

    b

    a

    dxxfaFbFbXaP )()()()( (B.5.3)

    Si hacemos a , se obtiene que:

    b

    dxxfbF )()( (B.5.4)

    Análogamente para a y b ,

    1)(

    dxxf (B.5.5)

    que significa que la masa total de la distribución es la unidad.

    En conclusión, podemos decir que cualquier función )(xf , que satisfaga las anteriores condiciones de continuidad, define una

    distribución de tipo continuo, siendo )(xf la función de frecuencia, siempre y cuando )(xf sea positiva para todo valor de x y

    satisfaga la ecuación (B.5.5)

    B.4.1 Distribuciones de probabilidad de variables aleatorias discretas

    Una parte muy importante de la teoría de probabilidades para el análisis estadístico es la que estudia las distribuciones de las variables

    aleatorias.

    La distribución de probabilidad, se refiere a la colección de valores de la variable aleatoria y a la distribución de probabilidades entre

    éstos. Sin embargo, hacer referencia a la distribución de probabilidad de X no sólo implica la existencia de la función de probabilidad,

    sino también la existencia de la función de distribución acumulativa de X.

    La función de distribución )(xF de la variable aleatoria X, puede expresarse mediante )()( xXPxF . Si a y b son dos

    números reales, tales que ba , los sucesos aX y bXa serán mutuamente excluyentes y su suma será el suceso bX . De la regla de adición se deduce que:

    )()()( bXaPaXPbXP (B.4.1.1)

    y de aquí:

  • )()()( aFbFbXaP . (B.4.1.2)

    Esto significa que si conocemos la función de distribución )(xF para todos los valores de x, la distribución de probabilidad de la

    variable quedará completamente determinada.

    Cualquier función de distribución )(xF es una función no decreciente de la variable real x, debido a que toda probabilidad es un

    número no negativo, por consiguiente )()( aFbF .

    Para variables que solamente toman valores finitos se tienen las siguientes relaciones:

    1)(lím)(

    xFFx

    (B.4.1.3)

    0)()(

    xFlimFx

    (B.4.1.4)

    Si en la ecuación (B.4.1.2) se mantiene fijo b y hacemos que a tienda a b, y efectuamos el proceso contrario, tendremos:

    )()0()( aXPaFaF (B.4.1.5)

    0)()0( aFaF (B.4.1.6)

    La relación (B.4.1.6) nos dice que cualquier función de distribución )(xF es continua a la derecha para todos los valores de x. En

    cambio la relación (B.4.1.5) indica que )(xF es discontinua a la izquierda en todo punto x = a, tal que 0)( aXP y que en tal

    punto )(xF tiene un salto de altura )( aXP . Inversamente, de la relación (B.4.1.5) se deduce que si )(xF es continua en cierto

    punto ax , entonces 0)( aXP

    Una representación que se utiliza frecuentemente consiste en concebir el eje X como una barra infinitamente delgada sobre la cual se

    halla distribuida una masa igual a 1, donde su densidad puede variar en diferentes partes de la barra. Si denotamos por )(xF la

    cantidad de masa situada a la izquierda del punto x , o en el mismo punto x , entonces la función )(xF tiene las mismas propiedades

    de la función de distribución. La cantidad de masa que pertenece a un intervalo arbitrario bXa será igual a )()( aFbF ,

    que corresponde a la probabilidad de que la variable tome un valor perteneciente a este intervalo. Cualquier función de distribución de

    probabilidad queda completamente caracterizada por medio de la función de distribución )(xF correspondiente. La gran cantidad de

    distribuciones de probabilidad pertenece a uno u otro de los dos tipos de distribuciones conocidas como discreta y continua.

    Una variable aleatoria y su distribución de probabilidad pertenecen al tipo discreto, sí aplicando la analogía anterior, la masa total de

    la distribución está concentrada en ciertos puntos aislados y si en un intervalo finito existe un número finito de puntos de masa.

    Sea ,, 21 xx una sucesión finita de puntos de masa, con sus correspondientes cantidades de masa ,, 21 pp . Entonces

    ,, 21 xx son los únicos valores posibles de la variable X , y la probabilidad de que X tome un valor dado x es igual a p .

    La masa total de la distribución viene dada por:

    1p , (B.4.1.7)

    en donde la suma debe extenderse a toda la sucesión finita o infinita de los puntos de masa.

    La función de distribución )(xF para una distribución de este tipo es:

    xx

    pxF

    )( (B.4.1.8)

    Un ejemplo de esta función de distribución es la función escalonada. En cada punto de masa x , la función de distribución presenta

    una discontinuidad, con un salto de altura p .

  • Figura B.4.1. Función de distribución discreta

    La figura (B.4.2) muestra el diagrama de probabilidad de la distribución mostrada en la

    fig. (B.4.1).

    Figura B.4.2. Distribución de probabilidad de la función discreta de la figura B.4.1

    B.4.2 Características numéricas de una distribución

    Las características numéricas son los parámetros de la distribución, que en forma concisa reflejan los rasgos más esenciales de la

    distribución, así como para la estadística descriptiva son las características de tendencia central y características de dispersión.

    Definición 1: La esperanza matemática de la variable aleatoria X es el número xm que se define mediante la fórmula

    n

    i

    iix Pxm1

    (B.4.2.1)

    para las variables discretas, y

    dx f(x) x =m-

    x

    (B.4.2.2)

    para las variables continuas.

    Claro que las fórmulas (B.4.2.1) y (B.4.2.2) son análogas a las fórmulas para la media muestral en las estadística descriptiva, donde en lugar

    de las probabilidades Pi y (x)dx (para el intervalo entre x y x+dx) se utilizan las frecuencias relativas.

    -2 -1 0 1 2 3 4 50.0

    0.2

    0.4

    0.6

    0.8

    x

    f (x)

    -2 -1 0 1 2 3 4 50.0

    0.2

    0.4

    0.6

    0.8

    1.0

    1.2

    x

    F (x)

  • Ejemplo 1: Individualmente 4 alumnos preparan las tareas con la probabilidad P = 0.8. La variable Y4 es el número de alumnos que

    prepararon la tarea. ¿Cuál es la probabilidad matemática de la variable Y4?.

    Solución: La variable Y4 puede aceptar los valores de 0,1,2,3,4, con las probabilidades Pi que pueden calcularse por medio de la fórmula

    de Bernoulli

    0016.02.0!4!0

    !400 44041 qPYPY (B.4.2.3)

    0256.0)2.0)(8.0(4!3!1

    !411 33141 qPYPY (B.4.2.4)

    1536.0)2.0()8.0(6!2!2

    !422 222241 qPYPY (B.4.2.5)

    4096.0)2.0()8.0(4!1!3

    !433 31341 qPYPY (B.4.2.6)

    4096.0)8.0(!0!4

    !444 40441 qPYPY (B.4.2.7)

    La tabla correspondiente a la distribución es:

    iy 0 1 2 3 4

    Pi 0.0016 0.0256 0.1536 0.4906 0.4906 1

    ii Py i 0 0.0256 0.3072 1.2288 1.6384 3.2

    De aquí se deduce que la esperanza matemática es

    2.35

    0

    i

    iiy Pym (B.4.2.8)

    Este es un resultado evidente, puesto que my = n P = (4)(0.8) = 3.2

    Ejemplo 2: Sea la variable aleatoria X continua que tiene la densidad de distribución representada en la gráfica (B.4.2.1)

    2;0

    20;2

    1

    0;0

    )(

    x

    xx

    x

    xf (B.4.2.9)

    ¿Cuál es la función de distribución de la variable X y su esperanza matemática?

    Figura B.4.2.1. Gráfica de la densidad de distribución para una

    función continua

    -3 -2 -1 0 1 2 3 40

    1

    f (x)

    x

  • Solución: Primeramente notaremos que el área total bajo la curva de la densidad de distribución es igual a 1. Para calcular la función de

    distribución utilizaremos las fórmulas

    x

    dxxfxFxFxf

    )()(;)()( , que son satisfechas por la función siguiente:

    2;1

    20;4

    1

    0;0

    )( 2

    x

    xx

    x

    xF (B.4.2.10)

    La función (B.4.2.10) se representa en la fig. (B.4.2.2)

    Figura B.4.2.2. Función continua correspondiente a la ecuación (B.4.2.10)

    Además esta función satisface las condiciones 1)()( FF .

    Para determinar la esperanza matemática de la variable X utilizaremos la fórmula (B.4.2.2)

    2

    0

    2

    0

    3

    0

    23

    2

    3

    4

    6

    2

    32

    1

    2

    1

    2

    1)(

    xdxxxdxxdxxfxmx (B.4.2.11)

    Definición 2: La magnitud k definida por la fórmula

    n

    i

    ix

    k

    xi

    n

    i

    i

    k

    xik kxpmxPmx11

    ,2,1)()()( (B.4.2.12)

    para variables aleatorias discretas, y por la fórmula:

    ,3,2,1;)()( kdxxfmx kxk (B.4.2.13)

    para las variables aleatorias continuas, se llama k-ésimo momento central de la variable aleatoria X.

    La interpretación de los momentos centrales es muy sencilla. Las magnitudes xi - xm caracterizan las desviaciones de la variable aleatoria

    X de su esperanza matemática. De otro lado los valores Pi caracterizan la probabilidad para encontrar la desviación xi – xm para la

    variable aleatoria X y por lo tanto k puede interpretarse como la esperanza matemática de las desviaciones del valor de la esperanza

    matemática en el orden k

    De las definiciones (B.4.2.12) y (B.4.2.13) se deduce que:

    -1 0 1 2 30.0

    0.4

    0.8

    X

    F(X)

    0

  • 0,1 10 (B.4.2.14)

    Es decir, el momento central de orden cero es igual a uno según la condición de normalización y el momento central de orden uno es igual a

    cero; de ahí el interés de representar solo los momentos centrales a partir del segundo momento.

    Definición 3: El segundo momento central 2 se llama la varianza de la distribución y está definido por:

    -

    2

    1

    2

    2

    continuas variablespara)()(

    discretas variablespara)()(

    )(

    dxxfmx

    xpmx

    xD

    x

    n

    i

    iixi

    (B.4.2.15)

    Definición 4: La raíz cuadrada de la varianza se llama desviación estándar y se denota por:

    ixtodo

    ixxixxx xpmxDxVar )()()(22 (B.4.2.16)

    o

    DxVarxx )(2 (B.4.2.17)

    Definición 5: La magnitud As definida por la igualdad

    3

    3

    x

    sA

    (B.4.2.18)

    se llama asimetría de la distribución.

    Definición 6: La magnitud Ex definida por la igualdad

    4

    4

    x

    xE

    (B.4.2.19)

    se llama el exceso de la distribución.

    La interpretación gráfica de los parámetros de distribución D x, x , As y Ex es la misma que en la estadística descriptiva discutida en el

    Apéndice A. De las definiciones (B.4.2.15) - (B.4.2.19) se deduce que los momentos centrales ,, 32 y 4 , determinan las

    características importantes.

    Pero el cálculo de los momentos centrales k directamente de las fórmulas (B.4.2.12) y (B.4.2.13), a veces no es cómodo y por eso se

    introducen los momentos iniciales.

    Definición 7: La magnitud k , definida por la fórmula

    -

    1

    continua variablepara )(

    discreta variablepara

    dxxfx

    px

    k

    n

    j

    iki

    k (B.4.2.20)

    se llama k-ésimo momento inicial de la variable X.

  • Existe una notación para definir la esperanza matemática de la variable X.

    XMmx (B.4.2.21)

    que es muy cómoda para calcular las esperanzas matemáticas de las combinaciones lineales de las variables, puesto que:

    CCMXMCXMCYCXCM ;2121 (B.4.2.22)

    Los momentos iniciales k y los momentos centrales k según esta notación, pueden ser representados en la forma:

    XMmXM xk

    k 1;][ (B.4.2.23)

    ])[(;])[( 22 xxk

    xk mXMDmXM (B.4.2.24)

    Las fórmulas (B.4.2.22) - (B.4.2.24) pueden ser utilizadas para deducir las relaciones entre los momentos centrales k y los momentos

    iniciales k . Por ejemplo:

    2

    22222

    222222

    ][2][

    ][2][]2[])[

    xxxxx

    xxxxx

    mmXMmmmXM

    mMXMmXMmXmXMmXM

    (B.4.2.25)

    332133323

    3223

    32233

    3

    2333

    33

    33)(

    xxx

    xxx

    xxxx

    mmXMmXM

    mXMmXMmXM

    mXmmXXMmXM

    (B.4.2.26)

    Para nosotros es más importante la primera igualdad:

    XMmmD xxx 12

    22 ; (B.4.2.27)

    Consideremos dos ejemplos de utilización de la fórmula (B.4.2.27).

    Ejemplo 1: Un alumno puede solucionar uno de cada de tres problema con la probabilidad 6.0P . La variable Y3 es la cantidad de

    problemas solucionados. Hallemos la esperanza matemática xm , el segundo momento inicial 2 , la varianza yD y la desviación

    estándar y de la variable Y3. La variable Y3 puede aceptar los valores 0,1,2,3. Según la fórmula de Bernoulli para el esquema de las

    pruebas independientes (n = 3, P = 0.6, q = 0.4).

    064.04.0!3!0

    !300 33031 qPYPY (B.4.2.28)

    228.0)4.0)(6.0(3!2!1

    !311 22131 qPYPY (B.4.2.29)

    432.0)4.0()6.0(3!2!2

    !322 121231 qPYPY (B.4.2.30)

    216.06.0!0!3

    !333 30331 qPYPY (B.4.2.31)

    La tabla correspondiente a la distribución puede ser representada de la forma siguiente:

  • iy 0 1 2 3

    iP 0,064 0,0288 0,432 0,216 1,00

    ii Py i 0 0,288 0,864 0,648 1,800

    ii Py2

    0 0,288 1,728 1,944 3,960

    Según esta tabla

    8,11 ii Py (B.4.2.32)

    96,322 ii Py (B.4.2.33)

    8,11 ym (B.4.2.34)

    72,024,396,322 yy mD (B.4.2.35)

    86,072,0 yy D (B.4.3.36)

    Ejemplo 2: La densidad de distribución para los intervalos T entre dos llegadas un guaguá tiene la forma indicada en la Fig.(B.4.2.3).

    Figura B.4.2.3. Densidad de distribución entre dos llegadas

    de un guaguá

    8;0

    80;32

    1

    0;0

    )(

    t

    tt

    t

    xf (B.4.3.37)

    Hallemos las características ,,, 2tt Dm y 1 para la variable t.

    Primeramente calcularemos los momentos iniciales de la distribución 1 y 2

    8

    0

    3

    0

    83

    1 33,53

    16

    96

    8

    )3(3232

    1)(

    ttdttdtttf (B.4.3.38)

    8

    0

    4

    0

    84

    22

    2 32128

    8

    )4(3232

    1)(

    ttdttdttft (B.4.3.39)

    De aquí:

  • 33,51 tm (B.4.3.40)

    59,34,283222 tt mD (B.4.3.41)

    89,159,3 tt D (B.4.3.42)

    Más adelante consideraremos ciertas distribuciones importantes que se encuentran frecuentemente en la estadística y discutiremos como

    pueden calcularse las características de estas distribuciones.

    B.5 VARIABLES ALEATORIAS CONTINUAS

    La variable aleatoria continua se adapta como modelo matemático para fenómenos físicos. Esta puede tomar cualquier valor sobre el

    eje real. La variable aleatoria continua es más natural que la discreta. Las variables físicas como longitud, masa, tiempo, se tratan

    como cantidades continuas. Una velocidad puede ser: 10; 10.1; 10.12; 9.99 m/s. La falta de recursos para hacer las medicones, nos

    conduce a aproximar las medidas de tales cantidades y limitarlas a un conjunto de valores discretos. Como dijimos anteriormente la

    variable aleatoria debe tomar todos los valores sobre el eje, pero deben excluirse los valores reales negativos, porque a estos se les

    asigna una probabilidad nula.

    Una variable aleatoria y su distribución de probabilidad se dice que pertenecen al tipo continuo si la masa total se distribuye

    continuamente con una densidad )(xf continua. La cantidad )(xf se denomina densidad de probabilidad o función de frecuencia

    de la distribución. La cantidad dxxf )( se denomina elemento de probabilidad de la distribución.

    La masa total de la distribución es igual a 1 y puede expresarse mediante:

    1)( dxxf (B.5.1)

    La función de frecuencia es la derivada de la función de distribución y viene dada por:

    )()( xfxF (B.5.2)

    La cantidad de masa de un intervalo arbitrario bXa , que corresponda a la probabilidad de que la variable X tome un valor perteneciente a este intervalo, es:

    b

    a

    dxxfaFbFbXaP )()()()( (B.5.3)

    Si hacemos a , se obtiene que:

    b

    dxxfbF )()( (B.5.4)

    Análogamente para a y b ,

    1)(

    dxxf (B.5.5)

    que significa que la masa total de la distribución es la unidad.

  • En conclusión, podemos decir que cualquier función )(xf , que satisfaga las anteriores condiciones de continuidad, define una

    distribución de tipo continuo, siendo )(xf la función de frecuencia, siempre y cuando )(xf sea positiva para todo valor de x y

    satisfaga la ecuación (B.5.5)

    Ejemplo:

    Una variable aleatoria x con función de frecuencia )(xf definida por:

    casootroen

    bxaparaabxf

    0

    1

    )( (B.5.6)

    se dice que tiene una distribución rectangular en el intervalo ),( ba ó que se distribuye uniformemente en el intervalo ),( ba . La

    función de distribución correspondiente se obtiene integrando la función de frecuencia (B.5.6), dando por resultado:

    bxaparaab

    ax

    bxpara

    axpara

    xF

    ,

    ,1

    ,0

    )( (B.5.7)

    Los gráficos correspondientes a la función de distribución de tipo continuo (B.5.7) y la

    Figura B.5.1. Función de distribución de tipo continuo

    función de frecuencia (B.5.6) se indican en las figuras (B.5.1) y (B.5.2) respectivamente.

    Figura B.5.2. Función de frecuencia correspondiente a

    la distribución de la fig. (B.5.1)

    El valor promedio de la variable aleatoria x se obtiene de la siguiente manera:

    x

    F(x)

    b

    1

    a

  • b

    a

    b

    a

    ab

    ab

    abx

    abxdx

    abx

    2)(22

    11 222

    El promedio del cuadrado de la variable aleatoria x está dada por:

    b

    a

    b

    a

    aabb

    ab

    abx

    abdxx

    abx

    3)(33

    11 2233322

    La varianza de x se obtiene de la siguiente forma:

    12

    )(

    12

    2

    4

    )(

    3

    222222222 abababbaaabbxxx

    Para el caso particular en el que a=0 y b=1, entonces12

    1x .

    B.6 FUNCION Y DENSIDAD DE DISTRIBUCION

    Una parte muy importante de la teoría de probabilidades para el análisis estadístico, es la que estudia las distribuciones de las variables

    aleatorias. En general, una variable aleatoria discreta X, representa los resultados de un espacio muestral en forma tal que por )( xXP

    se entenderá la probabilidad de que X tome el valor de x . De esta manera es posible construir una función matemática que asigne una probabilidad a cada valor x de la variable aleatoria X. Esta función recibe el nombre de función de probabilidad de la variable aleatoria X.

    Si la variable aleatoria discreta X acepta los valores: nxxx ,,, 21 , con las probabilidades: nppp ,,, 21 , respectivamente, entonces, denotando por )( xXP , la probabilidad del suceso correspondiente a que la variable X tome el valor dado x , la relación

    entre ix y ip generalmente se denota por:

    nipxXP ii ,...,3,2,1;) (B.6.1)

    Para las probabilidades ip debe cumplirse la relación

    n

    i

    ip1

    1 (B.6.2)

    que se llama condición de normalización. Si los valores ix y iP son conocidos se dice que la distribución de la variable aleatoria es dada.

    La función

    }{),()( )()( axPaPaF xn , (B.6.3)

    donde - y + son valores permitidos de a, es llamada función de distribución de la variable aleatoria x.

    Si la distribución )()( aF n es diferenciable, entonces, su derivada con respecto a a es

    )()( )()( aFda

    daf nn (B.6.4)

    y se denomina densidad de probabilidad de x en el punto a.

    La función de densidad de probabilidades (FDP) de una variable aleatoria continua es una función )(xf x , tal que la probabilidad de

    X esté en el intervalo dxxx , , donde el eje x se ha dividido en un número suficientemente grande de intervalos de longitud

    infinitesimal dx . El área bajo la función de densidad de probabilidad (FDP) en un intervalo, representa la probabilidad de que la variable aleatoria tome un valor en ese intervalo, así:

    2

    1

    )(21

    x

    x

    x dxxfxXxP (B.6.5)

  • El valor de )(xf x , no representa una probabilidad, sólo es la medida de la densidad de la probabilidad en el punto. Los valores de

    )(xf x no necesariamente son menores que 1, pero deben cumplir las siguientes condiciones:

    1) 0)( xf x (B.6.6)

    2)

    1)( dxxf x (B.6.7)

    La distribución de una variable aleatoria discreta frecuentemente se presenta en forma de una tabla.

    X x1 x2 ... xn-1 nx

    P P1 P2 ... Pn-1 nP

    Esta tabla corresponde a las frecuencias relativas de una muestra en estadística descriptiva y además sabemos que cuando el volumen de la

    muestra tiende a infinito, las frecuencias relativas se transforman en las probabilidades. De aquí se deduce que, la distribución de una

    variable aleatoria es un límite, al que tiende la tabla de frecuencias relativas de una muestra, cuando el volumen de la muestra tiende a

    infinito.

    Igualmente se puede construir una tabla análoga a la de las frecuencias relativas acumuladas, la cual constituye la función de distribución de

    la variable aleatoria.

    Definición: La función de distribución de una variable aleatoria X, es la función F(x), que es igual a la probabilidad de que la variable

    aleatoria X acepta el valor x:

    xXPxF )( (B.6.8)

    Es claro que para la variable discreta, la probabilidad de que la variable X sea menor que x, es igual a la suma de las probabilidades P para

    todas las xi que no son mayores que x. Es decir:

    xx

    i

    i

    PxF )( (B.6.9)

    La tabla correspondiente a la función de distribución de una variable aleatoria discreta, generalmente tiene la forma siguiente:

    X x1 x2 ... xn-1 nx > nx

    F(x) 0 P1 ... P1+P2...+Pn-2 P1+P2...+Pn-1 1

    El gráfico correspondiente a la función de distribución de una variable aleatoria discreta F(x), se muestra en la fig.(B.6.1).

    Figura B.6.1.

    xn

    x3

    x2

    x1 x

    F(x)

  • En el caso de repetición de pruebas se introduce la variable nY (n es el número total de las pruebas independientes) que es igual al número

    de pruebas en que aparece el suceso A. Claro que la variable aleatoria nY puede aceptar todos los valores enteros desde 0 hasta n.

    Consideraremos un ejemplo de distribución discreta denominada distribución de Pascal:

    Supongamos que después de una explicación, el alumno comprende el tema con la probabilidad 0.7. Introduciremos la variable aleatoria R

    que es igual al número de explicaciones para que el alumno comprenda este tema. Claro que el número de las explicaciones R puede

    aceptar todos los valores enteros positivos n = 1,2,3,.... La probabilidad de que el alumno comprenda el tema después de la primera

    explicación es:

    P{R= 1}= P= 0.7 (n= 1)

    La probabilidad de que el alumno comprenda el tema después de la segunda explicación, es un suceso compuesto, que consiste de que el

    alumno no comprenda la primera vez y comprenda la segunda vez.

    P{R= 2}= 21,0)7,0(3,0)()()( 2121 APAPAAP (B.6.10)

    Análogamente, para después de la tercera, cuarta, quinta y n-ésima explicación se obtiene:

    P{R= 3}= 063,0)7,0(3,0)1()()()( 33321 PPAPAPAP (B.6.11)

    P{R= 4}= 018,0)7,0(3,0)1()()()()( 334321 PPAPAPAPAP (B.6.12)

    P{R= 5}= 0057,0)7,0(3,0)1()()()()()( 4454321 PPAPAPAPAPAP (B.6.13)

    P{R= n}= PPAPAPAPAP nnn1

    121 )1()()()...()(

    (B.6.14)

    La distribución correspondiente es:

    R 1 2 3 4 5 ...

    Pi 0.7 0.21 0.063 0.018 0.005 ...

    Que gráficamente puede representarse del modo siguiente (Fig.B.6.2):

    Figura B.6.2.

    En este caso la variable R puede aceptar un número infinito, de distintos valores enteros desde 1 hasta infinito, con las siguientes

    probabilidades:

    ,2,1;)1( 1 nPPnRP n (B.6.15)

    La distribución dada por la ecuación (B.6.15) se llama distribución de Pascal.

    En la teoría de probabilidades se consideran también otros tipos de distribuciones de variables aleatorias discretas. Mencionaremos las

    distribuciones de Poisson, de Beta y de Gamma. Pero para nosotros son más importantes las distribuciones de las variables aleatorias

    continuas que se usan más frecuentemente en estadística.

    1 2 3 4 50.0

    0.3

    0.6

    Pi

    R

  • Ahora consideraremos la variable aleatoria X que acepta todos los valores dentro de un intervalo [a, b]. Para esta variable introduciremos

    la función de distribución F(x), que es la probabilidad de que la variable X no sea mayor que x. Es decir, la función de distribución en este

    caso se define análogamente a la definición (B.6.8) para las variables aleatorias discretas.

    La función de distribución tiene las siguientes propiedades generales:

    1) )(xF es una función que no decrece en ningún punto, es decir, si 21 xx , entonces )()( 21 xFxF . En efecto, como

    21 xXPxXP , para 21 xx , entonces )()( 21 xFxF . 2) 0)( F , puesto que 0)( XPF . 3) 1)( F , puesto que 1)( XPF .

    4) La probabilidad de que la variable X esté situada entre a y b, P{a X < b}, puede calcularse a través de la función de distribución.

    )()( aFbFbXaP (B.6.16)

    en efecto:

    )()( aFbFaXPbXPbXaP (B.6.17)

    -2 -1 0 1 2

    De lo anterior se deduce que el gráfico de la función de distribución de la variable aleatoria continua debe tener solo la forma mostrada en

    la Fig. (B.6.3). Se puede apreciar que la función de distribución de la variable aleatoria continua es continua, es decir, no presenta saltos

    como la función de distribución de las variables discretas.

    Ahora consideraremos un intervalo pequeño de valores posibles de la variable X entre x y xx ; según la cuarta propiedad de la función de distribución

    )()( xFxxFxxXxP (B.6.18)

    Es decir, la probabilidad de que la variable X acepta el valor dentro de este intervalo es igual al incremento de la función de distribución.

    Por otro lado, del análisis matemático se sabe que el incremento de la función para un intervalo pequeño puede expresarse en términos de la

    derivada de la función F(x): xxFxFxxF )()()( , por consiguiente,

    xxFxxXxP )( (B.6.19)

    La derivada de la función de distribución )(xF , también juega un papel importante en la teoría de probabilidades, se denomina densidad

    de distribución y se denota por (x). Es decir:

    )()( xFxf (B.6.20)

    La función de distribución tiene las propiedades generales siguientes:

    1) 0)()( ff (B.6.21)

    2) La probabilidad de que la variable aleatoria x acepta algún valor dentro del intervalo bXa , ver Fig. (B.6.4), es igual al área bajo la curva del gráfico y = (x) en el intervalo [a, b].

    Figura B.6.3. Función de distribución de tipo continuo

  • a b

    Figura B.6.4.

    Esta propiedad puede escribirse mediante la fórmula:

    dx f(x) =} b

  • APENDICE C

    1 TEOREMA CENTRAL DEL LÍMITE

    C.1 TEOREMA DE LOS NÚMEROS GRANDES Y MÉTODO EXPERIMENTAL PARA DEFINIR LAS

    PROBABILIDADES DE SUCESOS ALEATORIOS

    La probabilidad )(AP es una característica numérica del suceso aleatorio A , que caracteriza la posibilidad de su aparición en el

    experimento. Si n es la cantidad de los experimentos y An es la cantidad de experimentos donde A apareció )( nnA , entonces el

    valor )/( nnP An se llama frecuencia relativa de aparición del suceso A . En la teoría de probabilidades se demuestra el teorema que

    se llama la ley de los grandes números; la frecuencia relativa nP para n siempre tiene un límite finito )(AP , que en la teoría de

    probabilidades se acepta como la probabilidad de aparición del suceso A en cada experimento, es decir:

    n

    nlimPlimAP

    A

    nn

    n

    )( (C.1.1)

    Este teorema tiene gran importancia para la teoría de probabilidades y estadística, puesto que señala la existencia de un valor repetido para

    todos los experimentos, en los cuales los resultados pueden ser diferentes. Según la ley de los grandes números para todos los

    experimentos, las frecuencias relativas tienen siempre solo un limite, cuando el número de los experimentos crece indefinidamente y este

    límite puede aceptarse como la probabilidad de aparición del suceso A en cada experimento.

    Los problemas fundamentales de la teoría de probabilidades se reducen a pronosticar los resultados posibles del experimento para las

    probabilidades de los sucesos, los cuales se suponen conocidos a priori. Por ejemplo, si la probabilidad de la aparición del suceso A en

    cada experimento es igual a P, ¿cuál es la probabilidad de que el suceso aparezca m veces, en n experimentos?

    (m n) Es un problema típico de la teoría de probabilidades.

    Los problemas fundamentales de la estadística matemática son inversos a los problemas de la teoría de probabilidades y se reducen en la

    mayoría de casos a la búsqueda de las probabilidades P(A) de los resultados del experimento. Por lo tanto en la teoría de probabilidades, se

    supone que las probabilidades de aparición de los sucesos son conocidas a priori y los valores P(A), P(B), P(C),..., son fijos. Además se

    suponen que estos valores, pueden ser hallados a posteriori de los resultados del experimento, empleando los métodos de la estadística

    matemática.

    C.2 TEOREMA CENTRAL DEL LÍMITE

    En la teoría de probabilidades existen dos teoremas sobre límites que se utilizan en diferentes ramas de la Física. Estos teoremas se refieren

    a una variable aleatoria, la cual es también un valor promedio de las otras n variables aleatorias:

    Xn

    1=X i

    n

    =1i

    (C.2.1)

    Supongamos que todas estas variables son independientes entre sí y que su varianza 2 es igual. En este caso, las características

    correspondientes a la variable X, son respectivamente

    n==

    22xx

    y (C.2.2)

    debido a que existen las siguientes propiedades para las variables independientes:

  • n

    i

    ixi

    n

    i

    ii

    n

    i

    ii

    n

    i

    ii

    XcXc

    xMcXcM

    1

    22

    1

    2

    11

    (C.2.3)

    De la Ec. (C.2.2) se deduce que, con el crecimiento del número de sumandos la varianza decrece y en el límite, cuando n, ya no es una

    variable aleatoria, sino un valor determinista que coincide con su valor esperado. Esta afirmación, es la consecuencia del primer teorema de

    límite que se llama teorema de los números grandes.

    La segunda afirmación consiste en que, con el crecimiento de n la distribución de la variable X se hace más estrecha y se acerca más y más

    a una distribución normal. En el límite, cuando n , la distribución de X siempre es normal. Esto es una afirmación muy fuerte. ¡En

    efecto se suman n variables aleatorias con las distribuciones arbitrarias y siempre la suma tiene la distribución normal!.

    Este teorema se formula del modo siguiente:

    Sea Xi, con i = 1,2,...,n, unas variables aleatorias independientes con valor esperado i y varianzas n)1,2,...,=(i,2i .

    La suma X=X i

    n

    1=i

    tiene la distribución normal con la densidad

    e2

    1=(x) 2

    2

    2

    )-(x-

    (C.2.4)

    con los parámetros

    2i

    n

    1=i

    2i

    n

    1=i

    ;= (C.2.5)

    cuando n.

    Consideremos dos aplicaciones de este teorema.

    La primera aplicación está relacionada con la distribución de Bernoulli y la segunda con una distribución homogénea.

    Según el teorema central del límite para valores grandes de n la distribución de Bernoulli se transforma en la distribución normal, ya que y

    n= X1+ X2+...+X n.

    La probabilidad nmP , , que en n pruebas el suceso A aparezca m veces, para n, es aproximadamente igual a:

    enpq2

    1=P npq

    )np-(m-

    nm,

    2

    (C.2.6)

    Esta es la llamada fórmula de Moivre-Laplace.

    Ejemplo de aplicación de la fórmula (C.2.6).

    Consideremos un problema que es de mucha importancia, en la teoría de los gases, líquidos y sólidos bicomponentes, cuando estos

    contienen átomos de dos tipos: A y B y con concentración c y (1-c) respectivamente. Supongamos que escogemos una muestra con n

    átomos y denotaremos por ĉ la concentración de los átomos A en la muestra. Evidentemente, la concentración ĉ es una variable aleatoria

    y su distribución, según la fórmula (1.5.3.1) tiene una distribución normal, con densidad y varianza dadas respectivamente por:

    n

    c)-c(1=;e

    2

    1=)c(

    2

    n2n2

    )2c-c(-

    ˆ

    ˆ (C.2.7)

  • Para n esta distribución se transforma en una función delta: ccc ˆˆ y para valores grandes y finitos de n, la distribución se hace más estrecha cuando n crece.

    Otra aplicación del teorema central de límite, está relacionada con la distribución homogénea.

    Tomemos una variable aleatoria,

    1/2-Random=r (C.2.8)

    como la variable Random es una variable homogénea dentro del segmento [0,1], la variable r tiene distribución homogénea dentro del

    segmento [-1/2,1/2] y tiene las siguientes características:

    1/12=0;>=r< 2r (C.2.9)

    consideremos la variable X, dada por:

    r=X i

    12

    =1i

    (C.2.10)

    Esta variable tiene un valor esperado 0, varianza 1 y según el teorema central del límite su distribución es aproximadamente normal.

    Otra variable

    m-X=y (C.2.11)

    tiene una distribución normal con valor esperado m y tiene varianza 2 . La variable (C.2.10) no es precisamente una variable normal,

    puesto que solo acepta valores dentro de un segmento [-6,6], mientras que la variable normal los acepta sobre todo el eje real. Para obtener

    una variable que tenga una distribución normal más precisa, es necesario agregar más términos en la suma:

    ,...; 1,2,3=nrn

    1=X i

    2n

    =1i

    (C.2.12)

    Pero en la práctica, la mayoría de veces la aproximación (C.2.10) es suficientemente buena y esto lo confirman los experimentos

    numéricos.

    Sin embargo existe un caso particular, para el cual las probabilidades de aparición de los sucesos pueden ser calculados sin experimento.

    Este es el esquema clásico de las urnas.

    Denotaremos por pi las probabilidades correspondientes a las variables discretas

    x}=P{X=pi (B.2.1.1)

    y por )(x la densidad de distribución de la variable continua

    dx}+x

  • Otra característica importante de las variables aleatorias, es la función de distribución integral, en la cual cada punto x sobre el eje real, da la

    probabilidad de que en el resultado del experimento la variable aleatoria acepta uno de sus posibles valores a la izquierda del punto x.

    x} x1, entonces F(x2) F(x1). En efecto, como

    )()( 12 xXPxXP para x2 > x1, entonces F(x2) > F(x1)

    2. 1=)F(+ , puesto que 1=}

  • La variable característica de un suceso aleatorio A es X, que acepta el valor de 0 si el suceso A no aparece y el valor de 1 si el suceso A

    aparece. Sea P la probabilidad de aparición del suceso A entonces

    PAPXP 110 (B.3.1)

    PAPXP 1 (B.3.2)

    Y la distribución de la variable es

    Xi 0 1

    P(xi) 1-P P

    Que se puede representar gráficamente

    Figura B.3.1. Distribución de la variable aleatoria X

    La función de distribución de la variable aleatoria X tiene la forma

    Figura B.3.2. Función de distribución de la variable aleatoria X

    correspondiente a la fig. B.3.1

    0 2 4

    1-P

    P

    P(X)

    X

    1-P

    P

    0 1