capÍtulo 6. variables aleatorias methods/apuntes...se llama variable aleatoria la cual acepta un...
TRANSCRIPT
-
CAPÍTULO 6. VARIABLES ALEATORIAS
La teoría de probabilidades estudia los sucesos aleatorios, las variables aleatorias y los procesos aleatorios. Se llama variable aleatoria
la cual acepta un valor que no puede predecirse con certeza antes de un experimento. Si X denota una variable de este tipo, X tomará
generalmente valores diferentes escogidos al azar desde un espacio llamado muestral cada vez que se realice el experimento.
6.1 Clases de variables aleatorias
Las variables aleatorias son variables que en el experimento pueden aceptar uno u otro valor el cual no es conocido a priori. Por
ejemplo: un número de alumnos 3Y que reciben la nota de 3 en la clase de 20 alumnos. Claro que el valor 3Y en el experimento puede
aceptar cualquier valor entero desde 0 hasta 20. Otro ejemplo de variable aleatoria es el tiempo T, entre las dos llegadas de un
vehículo a la parada, que puede aceptar cualquier valor desde cero hasta infinito. La teoría de los sucesos aleatorios también se puede
formular en términos de las variables aleatorias. Con este fin generalmente se introduce una variable característica "X" correspon-
diente al suceso A que acepta el valor 1 cuando aparece el suceso A y el valor de 0 cuando este no aparece. En este caso en lugar del
estudio del suceso aleatorio A puede estudiarse la variable aleatoria X que puede aceptar solamente dos valores 0 o 1.
Las variables aleatorias se pueden dividir en dos grupos: variables continuas y variables discretas. La variable X se llama continua si esta
puede aceptar todos los valores ubicados entre dos puntos sobre el eje real y discreta si los valores posibles de X sobre el eje real se pueden
enumerar, es decir, solo los valores separados entre sí sobre el eje real. En otras palabras, podemos decir que si la variable X puede
tomar cualquier valor entre dos valores dados se llama continua, si no es así, se denomina variable discreta.
Son ejemplos de variables aleatorias continuas: las velocidades, las energías, las coordenadas de las moléculas en un gas, los errores
cometidos en las mediciones de temperatura, presión, la temperatura del aire, el tiempo de solución de un problema, los intervalos entre
dos llegadas, el tiempo de servicio, la altura del hombre, la concentración de los átomos radiactivos, los parámetros físicos de un medio
no homogéneo, tales como: coeficientes de difusión, capacidad calorífica, conductividad eléctrica y calorífica, la temperatura T registrada
cada media hora en un observatorio, etc. Son ejemplos de variables aleatorias discretas: el número de átomos que chocan contra la pared
de un recipiente, el número de moléculas excitadas, el número de experimentos correctos, la nota del examen, el número de alumnos de la
clase, el número de caras para seis lanzamientos de una moneda, el número de los dientes, la cantidad de dinero, el número de libros
en un estante de una librería, la suma de los puntos obtenidos en un lanzamiento de un par de dados, etc.
Una variable se denota por una letra mayúscula del alfabeto, por ejemplo, X, Y, Z, y por la letras minúsculas x, y, z los valores que
pueden tomar estas variables dentro de un conjunto llamado dominio de la variable. Para las variables aleatorias no se puede decir a
priori, qué valor acepta en el experimento, pero casi siempre se pueden caracterizar las posibilidades de aparición de los valores
diferentes, es decir, se puede predecir que uno u otro valor aparezca con mayor probabilidad. Con este fin en la teoría de
probabilidades se introducen la densidad de distribución y la función de distribución de las variables aleatorias. Con el propósito de
aclarar algunos conceptos a continuación se citan algunas definiciones de los conceptos básicos referidos a sucesos aleatorios:
6.2 Variables aleatorias discretas
Si X denota una variable de este tipo, cada vez que se realice el experimento, X podrá tomar valores diferentes. Se denota por
( )P X a , la probabilidad del suceso correspondiente a que la variable X tome el valor dado a. De forma análoga, ( )P a X b ,
representa la probabilidad de que la variable X tome un valor perteneciente al intervalo a X b . Si nosotros pudiéramos calcular la
probabilidad ( )P a X b para todos posibles valores a y b, tendríamos un conocimiento completo de las probabilidades con que la
variable tiende a tomar valores en diferentes partes del dominio de la variabilidad. En aquellos casos en que esto se verifique,
diremos, por consiguiente, que conocemos la distribución de probabilidad, o simplemente la distribución, de la variable X.
Una variable aleatoria pertenecen al tipo discreto, si la masa total de la distribución está concentrada en ciertos puntos aislados,
concibiendo con el eje X que es una barra infinitamente delgada, sobre la cual se halla distribuida una masa total igual a 1. Si
1 2, ,x x es una sucesión finita o infinita de los valores que puede aceptar la variable aleatoria X, y 1 2, ,p p son las correspondientes
probabilidades de que X tome los valores 1 2, ,x x entonces la distribución de la variable aleatoria se define como:
( ) , 1,2,P X x p (6.1)
Puesto que en el resultado de un experimento la variable X aceptará uno de los posibles valores con la certeza debe cumplirse la
siguiente identidad que se llama la condición de normalización:
1p
(6.2)
donde la suma se extiende a todos posibles de la variable Xa.
Consideremos dos ejemplos de las variables aleatorias discretas:
Ejemplo 1. Variable característica de un suceso aleatorio. A cada suceso aleatorio A que no sucede con la probabilidad q y sucede con la probabilidad p (p + q =1) se puede poner en
correspondencia una variable aleatoria X que se llama característica que adquiere el valor 0 ( 1 0x ) en el primer caso, y el valor 1,
-
2 1x en el segundo, es decir 1 20 , 1q X x p X x . A esta variable le corresponde la distribución dada por la
siguiente tabla:
i xi pi 1 0 q
2 1 p
Ejemplo 2. Variable de Bernoulli
Como otro ejemplo, consideremos la variable nY correspondiente al número de aparición del suceso A en n experimentos
independientes. Esta variable puede aceptar cualquier número entero entre 0 y n (en total n+1 valores diferentes) con las
probabilidades dadas por la fórmula de Bernoulli, es decir
!; 0,1,2, ,
! !
m m n m m n mn n
nY m C p q p q m n
m n m
. A esta
variable le corresponde la distribución dada por la siguiente tabla:
i xi pi 1 0 0 0 0n n
nC p q q
2 1 1 1 1n nnC pq npq
……………… ……………… ………………..
m+1 m
!
! !
m m n m m n mn
nC p q p q
m n m
…………….. ………………. ………………
n n-1 1 1 1n n nnC p q np q
n+1 n n n n n nnC p q p
6.3 Variables aleatorias continuas. Función y Densidad de Distribución.
Consideremos una variable aleatoria X de tipo continua que puede aceptar cualquier valor dentro de un intervalo finito ,X a b . En
el caso cuando a o b el intervalo puede considerarse como infinito. La variable X puede aceptar dentro del intervalo
considerado diferentes valores con las probabilidades diferentes. Estas probabilidades se definen a través de dos características de la
distribución, función de distribución y la densidad de distribución.
Definición 1. La probabilidad de encontrar la variable X en un punto sobre eje X a la izquierda del punto x se llama la FUNCIÓN
DE DISTRIBUCIÓN ( )F x
( ) ( )F x X x (6.3)
6.4 Función y Densidad de Distribución para Variables discretas
6.5 Características numéricas de variables aleatorias.
6.6 Teorema de Moivre-Laplace.
6.7 Teorema de Números Grandes y Teorema Central de Límites
-
Una variable aleatoria y su distribución de probabilidad se dice que pertenecen al tipo continuo si la masa total se distribuye
continuamente con una densidad )(xf continua. La cantidad )(xf se denomina densidad de probabilidad o función de frecuencia
de la distribución. La cantidad dxxf )( se denomina elemento de probabilidad de la distribución.
La masa total de la distribución es igual a 1 y puede expresarse mediante:
1)( dxxf (B.5.1)
La función de frecuencia es la derivada de la función de distribución y viene dada por:
)()( xfxF (B.5.2)
La cantidad de masa de un intervalo arbitrario bXa , que corresponda a la probabilidad de que la variable X tome un valor perteneciente a este intervalo, es:
b
a
dxxfaFbFbXaP )()()()( (B.5.3)
Si hacemos a , se obtiene que:
b
dxxfbF )()( (B.5.4)
Análogamente para a y b ,
1)(
dxxf (B.5.5)
que significa que la masa total de la distribución es la unidad.
En conclusión, podemos decir que cualquier función )(xf , que satisfaga las anteriores condiciones de continuidad, define una
distribución de tipo continuo, siendo )(xf la función de frecuencia, siempre y cuando )(xf sea positiva para todo valor de x y
satisfaga la ecuación (B.5.5)
B.4.1 Distribuciones de probabilidad de variables aleatorias discretas
Una parte muy importante de la teoría de probabilidades para el análisis estadístico es la que estudia las distribuciones de las variables
aleatorias.
La distribución de probabilidad, se refiere a la colección de valores de la variable aleatoria y a la distribución de probabilidades entre
éstos. Sin embargo, hacer referencia a la distribución de probabilidad de X no sólo implica la existencia de la función de probabilidad,
sino también la existencia de la función de distribución acumulativa de X.
La función de distribución )(xF de la variable aleatoria X, puede expresarse mediante )()( xXPxF . Si a y b son dos
números reales, tales que ba , los sucesos aX y bXa serán mutuamente excluyentes y su suma será el suceso bX . De la regla de adición se deduce que:
)()()( bXaPaXPbXP (B.4.1.1)
y de aquí:
-
)()()( aFbFbXaP . (B.4.1.2)
Esto significa que si conocemos la función de distribución )(xF para todos los valores de x, la distribución de probabilidad de la
variable quedará completamente determinada.
Cualquier función de distribución )(xF es una función no decreciente de la variable real x, debido a que toda probabilidad es un
número no negativo, por consiguiente )()( aFbF .
Para variables que solamente toman valores finitos se tienen las siguientes relaciones:
1)(lím)(
xFFx
(B.4.1.3)
0)()(
xFlimFx
(B.4.1.4)
Si en la ecuación (B.4.1.2) se mantiene fijo b y hacemos que a tienda a b, y efectuamos el proceso contrario, tendremos:
)()0()( aXPaFaF (B.4.1.5)
0)()0( aFaF (B.4.1.6)
La relación (B.4.1.6) nos dice que cualquier función de distribución )(xF es continua a la derecha para todos los valores de x. En
cambio la relación (B.4.1.5) indica que )(xF es discontinua a la izquierda en todo punto x = a, tal que 0)( aXP y que en tal
punto )(xF tiene un salto de altura )( aXP . Inversamente, de la relación (B.4.1.5) se deduce que si )(xF es continua en cierto
punto ax , entonces 0)( aXP
Una representación que se utiliza frecuentemente consiste en concebir el eje X como una barra infinitamente delgada sobre la cual se
halla distribuida una masa igual a 1, donde su densidad puede variar en diferentes partes de la barra. Si denotamos por )(xF la
cantidad de masa situada a la izquierda del punto x , o en el mismo punto x , entonces la función )(xF tiene las mismas propiedades
de la función de distribución. La cantidad de masa que pertenece a un intervalo arbitrario bXa será igual a )()( aFbF ,
que corresponde a la probabilidad de que la variable tome un valor perteneciente a este intervalo. Cualquier función de distribución de
probabilidad queda completamente caracterizada por medio de la función de distribución )(xF correspondiente. La gran cantidad de
distribuciones de probabilidad pertenece a uno u otro de los dos tipos de distribuciones conocidas como discreta y continua.
Una variable aleatoria y su distribución de probabilidad pertenecen al tipo discreto, sí aplicando la analogía anterior, la masa total de
la distribución está concentrada en ciertos puntos aislados y si en un intervalo finito existe un número finito de puntos de masa.
Sea ,, 21 xx una sucesión finita de puntos de masa, con sus correspondientes cantidades de masa ,, 21 pp . Entonces
,, 21 xx son los únicos valores posibles de la variable X , y la probabilidad de que X tome un valor dado x es igual a p .
La masa total de la distribución viene dada por:
1p , (B.4.1.7)
en donde la suma debe extenderse a toda la sucesión finita o infinita de los puntos de masa.
La función de distribución )(xF para una distribución de este tipo es:
xx
pxF
)( (B.4.1.8)
Un ejemplo de esta función de distribución es la función escalonada. En cada punto de masa x , la función de distribución presenta
una discontinuidad, con un salto de altura p .
-
Figura B.4.1. Función de distribución discreta
La figura (B.4.2) muestra el diagrama de probabilidad de la distribución mostrada en la
fig. (B.4.1).
Figura B.4.2. Distribución de probabilidad de la función discreta de la figura B.4.1
B.4.2 Características numéricas de una distribución
Las características numéricas son los parámetros de la distribución, que en forma concisa reflejan los rasgos más esenciales de la
distribución, así como para la estadística descriptiva son las características de tendencia central y características de dispersión.
Definición 1: La esperanza matemática de la variable aleatoria X es el número xm que se define mediante la fórmula
n
i
iix Pxm1
(B.4.2.1)
para las variables discretas, y
dx f(x) x =m-
x
(B.4.2.2)
para las variables continuas.
Claro que las fórmulas (B.4.2.1) y (B.4.2.2) son análogas a las fórmulas para la media muestral en las estadística descriptiva, donde en lugar
de las probabilidades Pi y (x)dx (para el intervalo entre x y x+dx) se utilizan las frecuencias relativas.
-2 -1 0 1 2 3 4 50.0
0.2
0.4
0.6
0.8
x
f (x)
-2 -1 0 1 2 3 4 50.0
0.2
0.4
0.6
0.8
1.0
1.2
x
F (x)
-
Ejemplo 1: Individualmente 4 alumnos preparan las tareas con la probabilidad P = 0.8. La variable Y4 es el número de alumnos que
prepararon la tarea. ¿Cuál es la probabilidad matemática de la variable Y4?.
Solución: La variable Y4 puede aceptar los valores de 0,1,2,3,4, con las probabilidades Pi que pueden calcularse por medio de la fórmula
de Bernoulli
0016.02.0!4!0
!400 44041 qPYPY (B.4.2.3)
0256.0)2.0)(8.0(4!3!1
!411 33141 qPYPY (B.4.2.4)
1536.0)2.0()8.0(6!2!2
!422 222241 qPYPY (B.4.2.5)
4096.0)2.0()8.0(4!1!3
!433 31341 qPYPY (B.4.2.6)
4096.0)8.0(!0!4
!444 40441 qPYPY (B.4.2.7)
La tabla correspondiente a la distribución es:
iy 0 1 2 3 4
Pi 0.0016 0.0256 0.1536 0.4906 0.4906 1
ii Py i 0 0.0256 0.3072 1.2288 1.6384 3.2
De aquí se deduce que la esperanza matemática es
2.35
0
i
iiy Pym (B.4.2.8)
Este es un resultado evidente, puesto que my = n P = (4)(0.8) = 3.2
Ejemplo 2: Sea la variable aleatoria X continua que tiene la densidad de distribución representada en la gráfica (B.4.2.1)
2;0
20;2
1
0;0
)(
x
xx
x
xf (B.4.2.9)
¿Cuál es la función de distribución de la variable X y su esperanza matemática?
Figura B.4.2.1. Gráfica de la densidad de distribución para una
función continua
-3 -2 -1 0 1 2 3 40
1
f (x)
x
-
Solución: Primeramente notaremos que el área total bajo la curva de la densidad de distribución es igual a 1. Para calcular la función de
distribución utilizaremos las fórmulas
x
dxxfxFxFxf
)()(;)()( , que son satisfechas por la función siguiente:
2;1
20;4
1
0;0
)( 2
x
xx
x
xF (B.4.2.10)
La función (B.4.2.10) se representa en la fig. (B.4.2.2)
Figura B.4.2.2. Función continua correspondiente a la ecuación (B.4.2.10)
Además esta función satisface las condiciones 1)()( FF .
Para determinar la esperanza matemática de la variable X utilizaremos la fórmula (B.4.2.2)
2
0
2
0
3
0
23
2
3
4
6
2
32
1
2
1
2
1)(
xdxxxdxxdxxfxmx (B.4.2.11)
Definición 2: La magnitud k definida por la fórmula
n
i
ix
k
xi
n
i
i
k
xik kxpmxPmx11
,2,1)()()( (B.4.2.12)
para variables aleatorias discretas, y por la fórmula:
,3,2,1;)()( kdxxfmx kxk (B.4.2.13)
para las variables aleatorias continuas, se llama k-ésimo momento central de la variable aleatoria X.
La interpretación de los momentos centrales es muy sencilla. Las magnitudes xi - xm caracterizan las desviaciones de la variable aleatoria
X de su esperanza matemática. De otro lado los valores Pi caracterizan la probabilidad para encontrar la desviación xi – xm para la
variable aleatoria X y por lo tanto k puede interpretarse como la esperanza matemática de las desviaciones del valor de la esperanza
matemática en el orden k
De las definiciones (B.4.2.12) y (B.4.2.13) se deduce que:
-1 0 1 2 30.0
0.4
0.8
X
F(X)
0
-
0,1 10 (B.4.2.14)
Es decir, el momento central de orden cero es igual a uno según la condición de normalización y el momento central de orden uno es igual a
cero; de ahí el interés de representar solo los momentos centrales a partir del segundo momento.
Definición 3: El segundo momento central 2 se llama la varianza de la distribución y está definido por:
-
2
1
2
2
continuas variablespara)()(
discretas variablespara)()(
)(
dxxfmx
xpmx
xD
x
n
i
iixi
(B.4.2.15)
Definición 4: La raíz cuadrada de la varianza se llama desviación estándar y se denota por:
ixtodo
ixxixxx xpmxDxVar )()()(22 (B.4.2.16)
o
DxVarxx )(2 (B.4.2.17)
Definición 5: La magnitud As definida por la igualdad
3
3
x
sA
(B.4.2.18)
se llama asimetría de la distribución.
Definición 6: La magnitud Ex definida por la igualdad
4
4
x
xE
(B.4.2.19)
se llama el exceso de la distribución.
La interpretación gráfica de los parámetros de distribución D x, x , As y Ex es la misma que en la estadística descriptiva discutida en el
Apéndice A. De las definiciones (B.4.2.15) - (B.4.2.19) se deduce que los momentos centrales ,, 32 y 4 , determinan las
características importantes.
Pero el cálculo de los momentos centrales k directamente de las fórmulas (B.4.2.12) y (B.4.2.13), a veces no es cómodo y por eso se
introducen los momentos iniciales.
Definición 7: La magnitud k , definida por la fórmula
-
1
continua variablepara )(
discreta variablepara
dxxfx
px
k
n
j
iki
k (B.4.2.20)
se llama k-ésimo momento inicial de la variable X.
-
Existe una notación para definir la esperanza matemática de la variable X.
XMmx (B.4.2.21)
que es muy cómoda para calcular las esperanzas matemáticas de las combinaciones lineales de las variables, puesto que:
CCMXMCXMCYCXCM ;2121 (B.4.2.22)
Los momentos iniciales k y los momentos centrales k según esta notación, pueden ser representados en la forma:
XMmXM xk
k 1;][ (B.4.2.23)
])[(;])[( 22 xxk
xk mXMDmXM (B.4.2.24)
Las fórmulas (B.4.2.22) - (B.4.2.24) pueden ser utilizadas para deducir las relaciones entre los momentos centrales k y los momentos
iniciales k . Por ejemplo:
2
22222
222222
][2][
][2][]2[])[
xxxxx
xxxxx
mmXMmmmXM
mMXMmXMmXmXMmXM
(B.4.2.25)
332133323
3223
32233
3
2333
33
33)(
xxx
xxx
xxxx
mmXMmXM
mXMmXMmXM
mXmmXXMmXM
(B.4.2.26)
Para nosotros es más importante la primera igualdad:
XMmmD xxx 12
22 ; (B.4.2.27)
Consideremos dos ejemplos de utilización de la fórmula (B.4.2.27).
Ejemplo 1: Un alumno puede solucionar uno de cada de tres problema con la probabilidad 6.0P . La variable Y3 es la cantidad de
problemas solucionados. Hallemos la esperanza matemática xm , el segundo momento inicial 2 , la varianza yD y la desviación
estándar y de la variable Y3. La variable Y3 puede aceptar los valores 0,1,2,3. Según la fórmula de Bernoulli para el esquema de las
pruebas independientes (n = 3, P = 0.6, q = 0.4).
064.04.0!3!0
!300 33031 qPYPY (B.4.2.28)
228.0)4.0)(6.0(3!2!1
!311 22131 qPYPY (B.4.2.29)
432.0)4.0()6.0(3!2!2
!322 121231 qPYPY (B.4.2.30)
216.06.0!0!3
!333 30331 qPYPY (B.4.2.31)
La tabla correspondiente a la distribución puede ser representada de la forma siguiente:
-
iy 0 1 2 3
iP 0,064 0,0288 0,432 0,216 1,00
ii Py i 0 0,288 0,864 0,648 1,800
ii Py2
0 0,288 1,728 1,944 3,960
Según esta tabla
8,11 ii Py (B.4.2.32)
96,322 ii Py (B.4.2.33)
8,11 ym (B.4.2.34)
72,024,396,322 yy mD (B.4.2.35)
86,072,0 yy D (B.4.3.36)
Ejemplo 2: La densidad de distribución para los intervalos T entre dos llegadas un guaguá tiene la forma indicada en la Fig.(B.4.2.3).
Figura B.4.2.3. Densidad de distribución entre dos llegadas
de un guaguá
8;0
80;32
1
0;0
)(
t
tt
t
xf (B.4.3.37)
Hallemos las características ,,, 2tt Dm y 1 para la variable t.
Primeramente calcularemos los momentos iniciales de la distribución 1 y 2
8
0
3
0
83
1 33,53
16
96
8
)3(3232
1)(
ttdttdtttf (B.4.3.38)
8
0
4
0
84
22
2 32128
8
)4(3232
1)(
ttdttdttft (B.4.3.39)
De aquí:
-
33,51 tm (B.4.3.40)
59,34,283222 tt mD (B.4.3.41)
89,159,3 tt D (B.4.3.42)
Más adelante consideraremos ciertas distribuciones importantes que se encuentran frecuentemente en la estadística y discutiremos como
pueden calcularse las características de estas distribuciones.
B.5 VARIABLES ALEATORIAS CONTINUAS
La variable aleatoria continua se adapta como modelo matemático para fenómenos físicos. Esta puede tomar cualquier valor sobre el
eje real. La variable aleatoria continua es más natural que la discreta. Las variables físicas como longitud, masa, tiempo, se tratan
como cantidades continuas. Una velocidad puede ser: 10; 10.1; 10.12; 9.99 m/s. La falta de recursos para hacer las medicones, nos
conduce a aproximar las medidas de tales cantidades y limitarlas a un conjunto de valores discretos. Como dijimos anteriormente la
variable aleatoria debe tomar todos los valores sobre el eje, pero deben excluirse los valores reales negativos, porque a estos se les
asigna una probabilidad nula.
Una variable aleatoria y su distribución de probabilidad se dice que pertenecen al tipo continuo si la masa total se distribuye
continuamente con una densidad )(xf continua. La cantidad )(xf se denomina densidad de probabilidad o función de frecuencia
de la distribución. La cantidad dxxf )( se denomina elemento de probabilidad de la distribución.
La masa total de la distribución es igual a 1 y puede expresarse mediante:
1)( dxxf (B.5.1)
La función de frecuencia es la derivada de la función de distribución y viene dada por:
)()( xfxF (B.5.2)
La cantidad de masa de un intervalo arbitrario bXa , que corresponda a la probabilidad de que la variable X tome un valor perteneciente a este intervalo, es:
b
a
dxxfaFbFbXaP )()()()( (B.5.3)
Si hacemos a , se obtiene que:
b
dxxfbF )()( (B.5.4)
Análogamente para a y b ,
1)(
dxxf (B.5.5)
que significa que la masa total de la distribución es la unidad.
-
En conclusión, podemos decir que cualquier función )(xf , que satisfaga las anteriores condiciones de continuidad, define una
distribución de tipo continuo, siendo )(xf la función de frecuencia, siempre y cuando )(xf sea positiva para todo valor de x y
satisfaga la ecuación (B.5.5)
Ejemplo:
Una variable aleatoria x con función de frecuencia )(xf definida por:
casootroen
bxaparaabxf
0
1
)( (B.5.6)
se dice que tiene una distribución rectangular en el intervalo ),( ba ó que se distribuye uniformemente en el intervalo ),( ba . La
función de distribución correspondiente se obtiene integrando la función de frecuencia (B.5.6), dando por resultado:
bxaparaab
ax
bxpara
axpara
xF
,
,1
,0
)( (B.5.7)
Los gráficos correspondientes a la función de distribución de tipo continuo (B.5.7) y la
Figura B.5.1. Función de distribución de tipo continuo
función de frecuencia (B.5.6) se indican en las figuras (B.5.1) y (B.5.2) respectivamente.
Figura B.5.2. Función de frecuencia correspondiente a
la distribución de la fig. (B.5.1)
El valor promedio de la variable aleatoria x se obtiene de la siguiente manera:
x
F(x)
b
1
a
-
b
a
b
a
ab
ab
abx
abxdx
abx
2)(22
11 222
El promedio del cuadrado de la variable aleatoria x está dada por:
b
a
b
a
aabb
ab
abx
abdxx
abx
3)(33
11 2233322
La varianza de x se obtiene de la siguiente forma:
12
)(
12
2
4
)(
3
222222222 abababbaaabbxxx
Para el caso particular en el que a=0 y b=1, entonces12
1x .
B.6 FUNCION Y DENSIDAD DE DISTRIBUCION
Una parte muy importante de la teoría de probabilidades para el análisis estadístico, es la que estudia las distribuciones de las variables
aleatorias. En general, una variable aleatoria discreta X, representa los resultados de un espacio muestral en forma tal que por )( xXP
se entenderá la probabilidad de que X tome el valor de x . De esta manera es posible construir una función matemática que asigne una probabilidad a cada valor x de la variable aleatoria X. Esta función recibe el nombre de función de probabilidad de la variable aleatoria X.
Si la variable aleatoria discreta X acepta los valores: nxxx ,,, 21 , con las probabilidades: nppp ,,, 21 , respectivamente, entonces, denotando por )( xXP , la probabilidad del suceso correspondiente a que la variable X tome el valor dado x , la relación
entre ix y ip generalmente se denota por:
nipxXP ii ,...,3,2,1;) (B.6.1)
Para las probabilidades ip debe cumplirse la relación
n
i
ip1
1 (B.6.2)
que se llama condición de normalización. Si los valores ix y iP son conocidos se dice que la distribución de la variable aleatoria es dada.
La función
}{),()( )()( axPaPaF xn , (B.6.3)
donde - y + son valores permitidos de a, es llamada función de distribución de la variable aleatoria x.
Si la distribución )()( aF n es diferenciable, entonces, su derivada con respecto a a es
)()( )()( aFda
daf nn (B.6.4)
y se denomina densidad de probabilidad de x en el punto a.
La función de densidad de probabilidades (FDP) de una variable aleatoria continua es una función )(xf x , tal que la probabilidad de
X esté en el intervalo dxxx , , donde el eje x se ha dividido en un número suficientemente grande de intervalos de longitud
infinitesimal dx . El área bajo la función de densidad de probabilidad (FDP) en un intervalo, representa la probabilidad de que la variable aleatoria tome un valor en ese intervalo, así:
2
1
)(21
x
x
x dxxfxXxP (B.6.5)
-
El valor de )(xf x , no representa una probabilidad, sólo es la medida de la densidad de la probabilidad en el punto. Los valores de
)(xf x no necesariamente son menores que 1, pero deben cumplir las siguientes condiciones:
1) 0)( xf x (B.6.6)
2)
1)( dxxf x (B.6.7)
La distribución de una variable aleatoria discreta frecuentemente se presenta en forma de una tabla.
X x1 x2 ... xn-1 nx
P P1 P2 ... Pn-1 nP
Esta tabla corresponde a las frecuencias relativas de una muestra en estadística descriptiva y además sabemos que cuando el volumen de la
muestra tiende a infinito, las frecuencias relativas se transforman en las probabilidades. De aquí se deduce que, la distribución de una
variable aleatoria es un límite, al que tiende la tabla de frecuencias relativas de una muestra, cuando el volumen de la muestra tiende a
infinito.
Igualmente se puede construir una tabla análoga a la de las frecuencias relativas acumuladas, la cual constituye la función de distribución de
la variable aleatoria.
Definición: La función de distribución de una variable aleatoria X, es la función F(x), que es igual a la probabilidad de que la variable
aleatoria X acepta el valor x:
xXPxF )( (B.6.8)
Es claro que para la variable discreta, la probabilidad de que la variable X sea menor que x, es igual a la suma de las probabilidades P para
todas las xi que no son mayores que x. Es decir:
xx
i
i
PxF )( (B.6.9)
La tabla correspondiente a la función de distribución de una variable aleatoria discreta, generalmente tiene la forma siguiente:
X x1 x2 ... xn-1 nx > nx
F(x) 0 P1 ... P1+P2...+Pn-2 P1+P2...+Pn-1 1
El gráfico correspondiente a la función de distribución de una variable aleatoria discreta F(x), se muestra en la fig.(B.6.1).
Figura B.6.1.
xn
x3
x2
x1 x
F(x)
-
En el caso de repetición de pruebas se introduce la variable nY (n es el número total de las pruebas independientes) que es igual al número
de pruebas en que aparece el suceso A. Claro que la variable aleatoria nY puede aceptar todos los valores enteros desde 0 hasta n.
Consideraremos un ejemplo de distribución discreta denominada distribución de Pascal:
Supongamos que después de una explicación, el alumno comprende el tema con la probabilidad 0.7. Introduciremos la variable aleatoria R
que es igual al número de explicaciones para que el alumno comprenda este tema. Claro que el número de las explicaciones R puede
aceptar todos los valores enteros positivos n = 1,2,3,.... La probabilidad de que el alumno comprenda el tema después de la primera
explicación es:
P{R= 1}= P= 0.7 (n= 1)
La probabilidad de que el alumno comprenda el tema después de la segunda explicación, es un suceso compuesto, que consiste de que el
alumno no comprenda la primera vez y comprenda la segunda vez.
P{R= 2}= 21,0)7,0(3,0)()()( 2121 APAPAAP (B.6.10)
Análogamente, para después de la tercera, cuarta, quinta y n-ésima explicación se obtiene:
P{R= 3}= 063,0)7,0(3,0)1()()()( 33321 PPAPAPAP (B.6.11)
P{R= 4}= 018,0)7,0(3,0)1()()()()( 334321 PPAPAPAPAP (B.6.12)
P{R= 5}= 0057,0)7,0(3,0)1()()()()()( 4454321 PPAPAPAPAPAP (B.6.13)
P{R= n}= PPAPAPAPAP nnn1
121 )1()()()...()(
(B.6.14)
La distribución correspondiente es:
R 1 2 3 4 5 ...
Pi 0.7 0.21 0.063 0.018 0.005 ...
Que gráficamente puede representarse del modo siguiente (Fig.B.6.2):
Figura B.6.2.
En este caso la variable R puede aceptar un número infinito, de distintos valores enteros desde 1 hasta infinito, con las siguientes
probabilidades:
,2,1;)1( 1 nPPnRP n (B.6.15)
La distribución dada por la ecuación (B.6.15) se llama distribución de Pascal.
En la teoría de probabilidades se consideran también otros tipos de distribuciones de variables aleatorias discretas. Mencionaremos las
distribuciones de Poisson, de Beta y de Gamma. Pero para nosotros son más importantes las distribuciones de las variables aleatorias
continuas que se usan más frecuentemente en estadística.
1 2 3 4 50.0
0.3
0.6
Pi
R
-
Ahora consideraremos la variable aleatoria X que acepta todos los valores dentro de un intervalo [a, b]. Para esta variable introduciremos
la función de distribución F(x), que es la probabilidad de que la variable X no sea mayor que x. Es decir, la función de distribución en este
caso se define análogamente a la definición (B.6.8) para las variables aleatorias discretas.
La función de distribución tiene las siguientes propiedades generales:
1) )(xF es una función que no decrece en ningún punto, es decir, si 21 xx , entonces )()( 21 xFxF . En efecto, como
21 xXPxXP , para 21 xx , entonces )()( 21 xFxF . 2) 0)( F , puesto que 0)( XPF . 3) 1)( F , puesto que 1)( XPF .
4) La probabilidad de que la variable X esté situada entre a y b, P{a X < b}, puede calcularse a través de la función de distribución.
)()( aFbFbXaP (B.6.16)
en efecto:
)()( aFbFaXPbXPbXaP (B.6.17)
-2 -1 0 1 2
De lo anterior se deduce que el gráfico de la función de distribución de la variable aleatoria continua debe tener solo la forma mostrada en
la Fig. (B.6.3). Se puede apreciar que la función de distribución de la variable aleatoria continua es continua, es decir, no presenta saltos
como la función de distribución de las variables discretas.
Ahora consideraremos un intervalo pequeño de valores posibles de la variable X entre x y xx ; según la cuarta propiedad de la función de distribución
)()( xFxxFxxXxP (B.6.18)
Es decir, la probabilidad de que la variable X acepta el valor dentro de este intervalo es igual al incremento de la función de distribución.
Por otro lado, del análisis matemático se sabe que el incremento de la función para un intervalo pequeño puede expresarse en términos de la
derivada de la función F(x): xxFxFxxF )()()( , por consiguiente,
xxFxxXxP )( (B.6.19)
La derivada de la función de distribución )(xF , también juega un papel importante en la teoría de probabilidades, se denomina densidad
de distribución y se denota por (x). Es decir:
)()( xFxf (B.6.20)
La función de distribución tiene las propiedades generales siguientes:
1) 0)()( ff (B.6.21)
2) La probabilidad de que la variable aleatoria x acepta algún valor dentro del intervalo bXa , ver Fig. (B.6.4), es igual al área bajo la curva del gráfico y = (x) en el intervalo [a, b].
Figura B.6.3. Función de distribución de tipo continuo
-
a b
Figura B.6.4.
Esta propiedad puede escribirse mediante la fórmula:
dx f(x) =} b
-
APENDICE C
1 TEOREMA CENTRAL DEL LÍMITE
C.1 TEOREMA DE LOS NÚMEROS GRANDES Y MÉTODO EXPERIMENTAL PARA DEFINIR LAS
PROBABILIDADES DE SUCESOS ALEATORIOS
La probabilidad )(AP es una característica numérica del suceso aleatorio A , que caracteriza la posibilidad de su aparición en el
experimento. Si n es la cantidad de los experimentos y An es la cantidad de experimentos donde A apareció )( nnA , entonces el
valor )/( nnP An se llama frecuencia relativa de aparición del suceso A . En la teoría de probabilidades se demuestra el teorema que
se llama la ley de los grandes números; la frecuencia relativa nP para n siempre tiene un límite finito )(AP , que en la teoría de
probabilidades se acepta como la probabilidad de aparición del suceso A en cada experimento, es decir:
n
nlimPlimAP
A
nn
n
)( (C.1.1)
Este teorema tiene gran importancia para la teoría de probabilidades y estadística, puesto que señala la existencia de un valor repetido para
todos los experimentos, en los cuales los resultados pueden ser diferentes. Según la ley de los grandes números para todos los
experimentos, las frecuencias relativas tienen siempre solo un limite, cuando el número de los experimentos crece indefinidamente y este
límite puede aceptarse como la probabilidad de aparición del suceso A en cada experimento.
Los problemas fundamentales de la teoría de probabilidades se reducen a pronosticar los resultados posibles del experimento para las
probabilidades de los sucesos, los cuales se suponen conocidos a priori. Por ejemplo, si la probabilidad de la aparición del suceso A en
cada experimento es igual a P, ¿cuál es la probabilidad de que el suceso aparezca m veces, en n experimentos?
(m n) Es un problema típico de la teoría de probabilidades.
Los problemas fundamentales de la estadística matemática son inversos a los problemas de la teoría de probabilidades y se reducen en la
mayoría de casos a la búsqueda de las probabilidades P(A) de los resultados del experimento. Por lo tanto en la teoría de probabilidades, se
supone que las probabilidades de aparición de los sucesos son conocidas a priori y los valores P(A), P(B), P(C),..., son fijos. Además se
suponen que estos valores, pueden ser hallados a posteriori de los resultados del experimento, empleando los métodos de la estadística
matemática.
C.2 TEOREMA CENTRAL DEL LÍMITE
En la teoría de probabilidades existen dos teoremas sobre límites que se utilizan en diferentes ramas de la Física. Estos teoremas se refieren
a una variable aleatoria, la cual es también un valor promedio de las otras n variables aleatorias:
Xn
1=X i
n
=1i
(C.2.1)
Supongamos que todas estas variables son independientes entre sí y que su varianza 2 es igual. En este caso, las características
correspondientes a la variable X, son respectivamente
n==
22xx
y (C.2.2)
debido a que existen las siguientes propiedades para las variables independientes:
-
n
i
ixi
n
i
ii
n
i
ii
n
i
ii
XcXc
xMcXcM
1
22
1
2
11
(C.2.3)
De la Ec. (C.2.2) se deduce que, con el crecimiento del número de sumandos la varianza decrece y en el límite, cuando n, ya no es una
variable aleatoria, sino un valor determinista que coincide con su valor esperado. Esta afirmación, es la consecuencia del primer teorema de
límite que se llama teorema de los números grandes.
La segunda afirmación consiste en que, con el crecimiento de n la distribución de la variable X se hace más estrecha y se acerca más y más
a una distribución normal. En el límite, cuando n , la distribución de X siempre es normal. Esto es una afirmación muy fuerte. ¡En
efecto se suman n variables aleatorias con las distribuciones arbitrarias y siempre la suma tiene la distribución normal!.
Este teorema se formula del modo siguiente:
Sea Xi, con i = 1,2,...,n, unas variables aleatorias independientes con valor esperado i y varianzas n)1,2,...,=(i,2i .
La suma X=X i
n
1=i
tiene la distribución normal con la densidad
e2
1=(x) 2
2
2
)-(x-
(C.2.4)
con los parámetros
2i
n
1=i
2i
n
1=i
;= (C.2.5)
cuando n.
Consideremos dos aplicaciones de este teorema.
La primera aplicación está relacionada con la distribución de Bernoulli y la segunda con una distribución homogénea.
Según el teorema central del límite para valores grandes de n la distribución de Bernoulli se transforma en la distribución normal, ya que y
n= X1+ X2+...+X n.
La probabilidad nmP , , que en n pruebas el suceso A aparezca m veces, para n, es aproximadamente igual a:
enpq2
1=P npq
)np-(m-
nm,
2
(C.2.6)
Esta es la llamada fórmula de Moivre-Laplace.
Ejemplo de aplicación de la fórmula (C.2.6).
Consideremos un problema que es de mucha importancia, en la teoría de los gases, líquidos y sólidos bicomponentes, cuando estos
contienen átomos de dos tipos: A y B y con concentración c y (1-c) respectivamente. Supongamos que escogemos una muestra con n
átomos y denotaremos por ĉ la concentración de los átomos A en la muestra. Evidentemente, la concentración ĉ es una variable aleatoria
y su distribución, según la fórmula (1.5.3.1) tiene una distribución normal, con densidad y varianza dadas respectivamente por:
n
c)-c(1=;e
2
1=)c(
2
n2n2
)2c-c(-
ˆ
ˆ (C.2.7)
-
Para n esta distribución se transforma en una función delta: ccc ˆˆ y para valores grandes y finitos de n, la distribución se hace más estrecha cuando n crece.
Otra aplicación del teorema central de límite, está relacionada con la distribución homogénea.
Tomemos una variable aleatoria,
1/2-Random=r (C.2.8)
como la variable Random es una variable homogénea dentro del segmento [0,1], la variable r tiene distribución homogénea dentro del
segmento [-1/2,1/2] y tiene las siguientes características:
1/12=0;>=r< 2r (C.2.9)
consideremos la variable X, dada por:
r=X i
12
=1i
(C.2.10)
Esta variable tiene un valor esperado 0, varianza 1 y según el teorema central del límite su distribución es aproximadamente normal.
Otra variable
m-X=y (C.2.11)
tiene una distribución normal con valor esperado m y tiene varianza 2 . La variable (C.2.10) no es precisamente una variable normal,
puesto que solo acepta valores dentro de un segmento [-6,6], mientras que la variable normal los acepta sobre todo el eje real. Para obtener
una variable que tenga una distribución normal más precisa, es necesario agregar más términos en la suma:
,...; 1,2,3=nrn
1=X i
2n
=1i
(C.2.12)
Pero en la práctica, la mayoría de veces la aproximación (C.2.10) es suficientemente buena y esto lo confirman los experimentos
numéricos.
Sin embargo existe un caso particular, para el cual las probabilidades de aparición de los sucesos pueden ser calculados sin experimento.
Este es el esquema clásico de las urnas.
Denotaremos por pi las probabilidades correspondientes a las variables discretas
x}=P{X=pi (B.2.1.1)
y por )(x la densidad de distribución de la variable continua
dx}+x
-
Otra característica importante de las variables aleatorias, es la función de distribución integral, en la cual cada punto x sobre el eje real, da la
probabilidad de que en el resultado del experimento la variable aleatoria acepta uno de sus posibles valores a la izquierda del punto x.
x} x1, entonces F(x2) F(x1). En efecto, como
)()( 12 xXPxXP para x2 > x1, entonces F(x2) > F(x1)
2. 1=)F(+ , puesto que 1=}
-
La variable característica de un suceso aleatorio A es X, que acepta el valor de 0 si el suceso A no aparece y el valor de 1 si el suceso A
aparece. Sea P la probabilidad de aparición del suceso A entonces
PAPXP 110 (B.3.1)
PAPXP 1 (B.3.2)
Y la distribución de la variable es
Xi 0 1
P(xi) 1-P P
Que se puede representar gráficamente
Figura B.3.1. Distribución de la variable aleatoria X
La función de distribución de la variable aleatoria X tiene la forma
Figura B.3.2. Función de distribución de la variable aleatoria X
correspondiente a la fig. B.3.1
0 2 4
1-P
P
P(X)
X
1-P
P
0 1