teorema de probabilidad
Post on 13-Dec-2015
3 Views
Preview:
DESCRIPTION
TRANSCRIPT
Universidad de CartagenaFacultad de Ciencias Exactas
PROBABILIDAD(TEOREMAS)
Eiver Rodrıguez
19 Mayo de 2015
Probabilidad 4 Sem. 2015
VALOR ESPERADO Y VARIANZA DE UNA VARIABLEALEATORIA
TEOREMA.1: Sea X una variable aleatoria real absolutamente continua, con funcion de densidad fX. Si h es una funcion estrictamente monotonay diferenciable, entonces, una funcion de densidad de la variable aleatoriaY = h(X) esta dada por:
fY(y) =
{fX(h−1(y))
∣∣∣ ddyh−1(y)∣∣∣ si y = h(x) para algun x
0 si y 6= h(x) para todo x
donde h−1(·) es la inversa de h(·)
Prueba:Supongase en primera instancia h una funcion estricatamente creciente(x ≤y implica h(x) ≤ h(y) ) y sea y ∈ R talque y = h(x) para algun x. Entonces:Con Y = h(X)(∗)
FY(y) = P (Y ≤ Y ) por definicion de funcion de distribucion
= P (h(X) ≤ y) por (*)
= P (X ≤ h−1(y)) Definicion de funcion inversa y decreciente
= FX(h−1(y)) por definicion de funcion de distribucion
Diferenciando se obtiene:
fY(y) = fX(h−1(y))d
dyh−1(y)
Dado que la derivada de h es positiva se obtiene
2
Probabilidad 4 Sem. 2015
fY(y) = fX(h−1(y))
∣∣∣∣ ddyh−1(y)
∣∣∣∣Por otra parte, considerese ahora h una funcion estrictamente decreciente(x ≤y implica h(x) ≥ h(y)) y y ∈ R tal que y = h(x) para algun x. Entonces:
FY(y) = P (Y ≤ Y ) por definicion de funcion de distribucion
= P (h(X) ≤ y) por (*)
= P (X ≥ h−1(y)) Definicion de funcion inversa y decreciente
= 1− FX(h−1(Y ))
Diferenciando se obtiene:
fY(y) = −fX(h−1(y))d
dyh−1(y)
Dado que la derivada de h es negativa se obtiene
fY(y) = fX(h−1(y))
∣∣∣∣ ddyh−1(y)
∣∣∣∣Con ello se completa la demostracion.
TEOREMA.2: Sea X una variable aleatoria real.
1. Si P (X ≥ 0) = 1 y E(X) existe,entonces,E(X) ≥ 0
Supongase que X una variable aleatoria discreta que toma los valores x1, x2, ...,
3
Probabilidad 4 Sem. 2015
como P (X < 0) = 0, obtenemos que P (X = xj) = 0 para todo xj < 0.Por tanto:
E(X) =∑i
(xi)P (X = xi) por por lema variable aleatoria discreta
=∑i:xi≥0
(xi)P (X = xi) ≥ 0 por hipotesis
Si X es una variable absolutamente continua con funcion de densidad f, en-tonces,
E(x) =
∫ ∞0
[1− FX(x)] dx −∫ ∞0
[FX(−x)] dx
=
∫ ∞0
[1− FX(x)] dx
=
∫ ∞0
P (X > x) dx ≥ 0
2.E(a) = a ∀a ∈ R
Sea la Funcion g(x) = a, luego a partir del lema anterior
E(a) =
∫ ∞−∞afX(x) dx = a
∫ ∞−∞fX(x) dx = a
4
Probabilidad 4 Sem. 2015
3.Si X esta acotada, esto es, si existe una constante real M > 0 tal queP (|X| ≤M) = 1, entonces, E(X) existe
Sea X una variable aleatoria Discreta que toma valores x1, x2, ...,, entoncescomo P (|X| > M) = 0, se puede suponer que
{x1, x2, ...,
}⊆ [−M,M ].Por
tanto
∑i
|xi|P (X = xi) ≤M∑i
P (X = xi) = M <∞
Es decir, que las sumas parciales de la serie∞∑k=i
|xk|P (X = xk)(∗) resultan
estar acotadas por la constante M.
Ahora bien, recordando que para que una serie de terminos no negativoscomo en (*) es necesario y sufieciente que para que converja que sus sumasparciales esten acotadas, como en este caso lo estan el valor esperado existe.
Si X una variable aleatoria absolutamente continua con funcion de densi-dad f entonces,como P (|x| > M) = 0, se puede suponer que f(x) = 0 paratodo x /∈ [−M,M ],tenemos:
∫ ∞−∞|x| f(x) dx =
∫ M
−M|x| f(x) dx
≤M
∫ M
−M|x| f(x) dx = M <∞
4.Si a y b son constantes y si g y h son funciones tales que g(X) y h(X) sonvariables aleatorias cuyos valores esperados existen, entonces, el valor espera-do [a g(X) + b h(X)] existe y
E [a g(X) + b h(X)] = a E [g(X)] + b E [h(X)]
5
Probabilidad 4 Sem. 2015
Demostremos primero para el caso continuo:
Si X es una variable aleatoria absolutamente continua con funcion de den-sidad f, entonces:
∫ ∞−∞|a g(X) + b h(X)| f(x) dx
≤∫ ∞−∞|a g(X)| f(x) dx+
∫ ∞−∞|b h(X)| f(x) dx
= |a|∫ ∞−∞| g(X)| f(x) dx+ |b|
∫ ∞−∞| h(X)| f(x) dx <∞
luego el valor esperado (a g(X) + b h(X)) existe y :
∫ ∞−∞
[a g(X) + b h(X)] f(x) dx =
∫ ∞−∞
[a g(X)] f(x) dx+
∫ ∞−∞
[b h(X]) f(x) dx
= a E(g(X)) + b E(h(X))
Veamos ahora para el caso Discreto:
Sea g : R→ R una funcion tal que Y = g(X)
Veamos que el valor esperado E(Y) =∞∑i=1
g(x)P (X = xi) existe:
Llamemos ym los valores de Y, entonces:
6
Probabilidad 4 Sem. 2015
E(Y) =∑m
ym P (Y = ym)(∗)
Por otra parte el evento{Y = ym
}es igual a
{X = xi para algun x tal que g(x) = ym
}Puesto que decir que Y toma el valor ym equivale a decir que X toma unvalor cuya imagen por la funcion g es ym: Por lo tanto:
donde el conjunto de los valores de xi sobre los que se suma es el conjun-to de los valores tales que g(x) = ym. Sutituyendo en (*)
E(Y) =∑m
ym∑
xi:g(x)=ym
P (Y = ym) = E(Y) =∑m
∑xi:g(x)=ym
g(x)P (Y = ym)
Es claro que en la suma doble de la ultima igualdad, es solo la suma de to-dos los valores de xi, ya que cada i aparece una y solo una vez allı.En resumen:
E(Y) =∞∑i=1
g(x)P (X = x)
5.Si g y h son funciones tales que g(X) y h(X) son variables aleatorias cu-yos valores esperados existen y si g(X) ≤ h(X), para todo x,entonces
E(g(X)) ≤ E(h(X))
En particular se tiene que:
|E(X)| ≤ E(|X|)
Demostremos primero para el caso continuo:
7
Probabilidad 4 Sem. 2015
Supongase X una varible absolutamente continua con funcion de densidadf.Entonces,
E(g(X)) =
∫ ∞−∞
g(x) f(x) dx ≤∫ ∞−∞
h(x) f(x) dx = E(h(X))
Ahora como− |x| ≤ x ≤ |x|
Se obtiene que:
E(− |X|) ≤ E(X) ≤ E(|X|)−E(|X|) ≤ E(X) ≤ E(|X|)
Esto es:
|E(X)| ≤ E(|X|)
Veamos ahora para el caso discreto:
Deacuerdo a la propiedad anterior, tomando (g(x) = |x|) se tiene que:
E(X) =∑n
|xi|P (X = x) ≥
∣∣∣∣∣∑n
xi P (X = x)
∣∣∣∣∣ = |E(X)|
Observe que la desigualdad entre las sumas de las series, se deduce simple-mente de que
∞∑n=1
|xi|P (X = x) ≥
∣∣∣∣∣∞∑n=1
xi P (X = x)
∣∣∣∣∣8
Probabilidad 4 Sem. 2015
en virtud de la desigualdad triangular entre los numeros reales.Pasando ellimite cuando N → ∞ se obtiene la desigualdad analoga entre las sumas delas series.
Y esto completa la demostracion.
TEOREMA.3: Sean X una variable aleatoria, cuyo valor esperado existe, ya,b ∈ R constantes, entonces:
Nota: Se utilizara para las demostraciones de los incisos del teorema 3 laspropiedades demostradas del teorema 2.
1.V ar(X) ≥ 0
Es evidente a partir de la definicion de varianza V ar(X) = E(X − E(X))2
y las propiedades del valor esperado;siempre es positivo o 0 cuando X = a,con a = constante
2.V ar(a) = 0
V ar(a) = E[(a− E(a))2
]= E
[(a− a)2
]= E(0) = 0
3.V ar(aX) = a2V ar(X)
V ar(aX) = E[(aX− E(aX))2
]por definicion de varianza
= E[a2(X− E(X))2
]= a2E
[(X− E(X))2
]= a2V ar(X)
9
Probabilidad 4 Sem. 2015
4.V ar(X + b) = V ar(X)
V ar(X + b) = E[(X + b− E(X + b))2
]por definicion
= E[(X + b− E(X) + b)2
]= E
[X2 − 2XE(X) + (E(X))2
]= E(X2)− 2E(X)E(X) + E((EX))2
= E(X2)− 2((EX)2) + ((EX))2
= E(X2)− (E(X))2
5.V ar(X) = 0,sı y solo sı, P (X = E(X)) = 1
Prueba:[⇐ Sı X = E(X) con probabilidad 1
V ar(X) = E(X− E(X))2 = E(X− X)2 = E(0) = 0
⇒ ] Supongase que V ar(X) = 0, y sea a = E((X)). Si P (X = a) < 1,entonces existe c > 0 talque:
P ((X− a)2 > c) > 0
Puesto que:(x− a)2 ≥ cχ{
(x− a)2 > c}
Entonces:
E((x− a)2 ≥ E
(cχ{
(X− a)2) > c})
10
Probabilidad 4 Sem. 2015
V ar(X) ≥ c E
(χ{
(X− a)2) > c})
V ar(X) ≥ cP ((X− a)2 > c) > 0
Lo cual contradice el supuesto inicial.Por tanto
P (X = E(X)) = 1
11
top related