todo unido pe 2011

139
TEMARIO, BOLETINES Y PRÁCTICAS PROBABILIDAD Y ESTADÍSTICA (PE) 2010/2011

Upload: ana-gal-cor

Post on 28-Nov-2015

84 views

Category:

Documents


8 download

TRANSCRIPT

Page 1: Todo Unido Pe 2011

TEMARIO, BOLETINES Y PRÁCTICAS

PROBABILIDAD Y ESTADÍSTICA (PE)

2010/2011

Page 2: Todo Unido Pe 2011

TEMA 1 – TEORÍA DE LA PROBABILIDAD

PROBABILIDAD Y ESTADÍSTICA (PE)

2010/2011

Page 3: Todo Unido Pe 2011

Universidad de Vigo. PyE. Tema 1: Teorıa de la probabilidad 1.1

Prologo

En disciplinas como la fısica o la quımica se establecen relaciones entre distintas variablesque permiten describir el funcionamiento de un determinado sistema. Por ejemplo, conociendola altura sobre el suelo de un objeto podemos predecir el tiempo que tardara en llegar al suelosi se deja caer. Del mismo modo, conociendo la temperatura de dos cuerpos, su masa y su calorespecıfico es posible predecir su temperatura final una vez que se ponen en contacto y realizan unintercambio de calor. Cualquiera de estas dos situaciones supone generalmente una simplificacionde un problema real, puesto que en el primer caso no estamos teniendo en cuenta el rozamientodel aire y en el segundo la interaccion con otros cuerpos externos. La implicacion real es que elresultado final del experimento no se ajustara con total precision a la prediccion determinista quese obtiene a partir de la correspondiente formula, sino que presentara una cierta desviacion.

Generalmente los factores que afectan a un experimento son multiples y difıcilmente todosellos se mantienen constantes, por lo que la repeticion del experimento dara lugar a resultadosdiferentes. Si dejamos caer una pluma al suelo, el tiempo que tarda en caer y la posicion serandistintos en cada prueba. Las pequenas variaciones en la posicion inicial de la pluma y las condi-ciones del aire originan estos cambios. Lo mismo ocurre cuando lanzamos una moneda al aire, yaque en este caso resulta casi imposible lanzarla dos veces de la misma forma. Estos dos ejemplosse podrıan considerar deterministas si la geometrıa de los cuerpos, sus posiciones y velocidadesiniciales y todas las caracterısticas fısicas del aire y su variacion con el tiempo fuesen conocidas,con lo que se podrıa predecir (no sin calculos complicados) el tiempo y la posicion de caıda.Sin embargo, en la practica no se pueden controlar todos estos factores y como consecuencia seobserva una cierta variabilidad o aleatoriedad en los resultados. Exactamente lo mismo ocurre enmuchos experimentos relacionados con el ambito de la ingenierıa de telecomunicacion.

Sintonicemos una radio en un punto del dial en el que no se reciba ninguna emisora y au-mentemos el volumen. Escucharemos un sonido siseante llamado “ruido de radio”. Reemplazandoel altavoz por un osciloscopio que registre la salida del amplificador de audio, observaremos quetrazara, en un intervalo de tiempo, una curva irregular que nunca se repite exactamente y queno puede ser representada como una funcion regular del tiempo f(t). Sin embargo, esta senalfluctuante aparenta tener una cierta estructura: su amplitud permanece dentro de unos lımitesvagamente definidos. Observando las salidas de varios receptores identicos sintonizados en la mis-ma frecuencia, veremos que difieren en el detalle, pero que, en general, muestran caracterısticassimilares. Las fluctuaciones ruidosas son debidas a las agitaciones termicas de iones y electronesen los componentes del receptor y a la excitacion de su antena por campos electromagneticosaleatorios producidos por los movimientos caoticos de las componentes de toda la materia circun-dante. Para describir y analizar el ruido de radio, debemos desarrollar algun modo de manejarla incertidumbre aleatoria que lo caracteriza, y esto se puede hacer mediante la teorıa de laprobabilidad.

El ruido interfiere con la recepcion de senales de radio debiles. Si estamos tratando derecoger mensajes de un satelite que transmite con una potencia limitada, las senales puedenser enmascaradas por el ruido. Subir el volumen no sirve, simplemente el ruido es amplificadoconjuntamente con la senal. Al estrechar la banda de paso del receptor se reduce el ruido, pero acosta de distorsionar las senales hasta un punto en el que estas puedan ser indistinguibles. Si unsistema de comunicacion por satelite transmite informacion codificada en secuencias de dıgitosbinarios: ceros y unos, el ruido causa errores en la interpretacion de la senal recibida: los cerosse pueden convertir en unos y viceversa. Esos errores ocurren en una secuencia erratica y conuna frecuencia que depende de la relacion senal/ruido. El grado en el que el sistema es propensoa error se mide en terminos de probabilidad. Para disenar un receptor optimo debemos analizar

Page 4: Todo Unido Pe 2011

Universidad de Vigo. PyE. Tema 1: Teorıa de la probabilidad 1.2

en terminos de teorıa de la probabilidad el comportamiento aleatorio tanto de la senal como delruido. En efecto, la secuencia de ceros y unos representa la informacion codificada de ciertosmensajes transmitida por el satelite a un receptor con una cierta velocidad y con una ciertafiabilidad. Si el emisor envıa siempre lo mismo no habrıa necesidad del sistema de comunicacion,a menor predictibilidad en los mensajes, mayor informacion llevan. El contenido de la informaciony la velocidad de transmision se pueden cuantificar a traves de un analisis probabilıstico de losmensajes que se van a enviar. Estos son factores esenciales en el desarrollo de un sistema decomunicacion.

Que los experimentos reales presenten cierta variabilidad no quiere decir que sean incon-trolables o que no podamos tener en cuenta en su estudio dicha variabilidad. La variabilidad deun experimento presenta una cierta estructura, una cierta estabilidad que es susceptible de sermedida. Generalmente esta estabilidad se describe indicando cuales son los posibles resultados delexperimento y la frecuencia con la que ocurren a largo plazo, es decir, la proporcion de veces queocurren cuando el experimento se ha realizado muchas veces. En el caso de un dado, por ejemplo,los resultados posibles son del 1 al 6, y si el dado esta equilibrado todos ellos ocurren con la mismafacilidad, es decir 1/6 de las veces cuando el dado se ha tirado muchas veces. Sin embargo, laestabilidad de la variabilidad no siempre se manifiesta en forma de equiprobabilidad. En el caso deun sistema de transmision binario es muy posible (y conveniente) que la transmision sea correctauna proporcion de veces muy superior a la obtenida para los errores. La Estadıstica y la Teorıade la Probabilidad son las disciplinas cientıficas que permiten analizar y modelar los resultadosde los experimentos aleatorios. Las herramientas que proporcionan hacen posible el estimar unmodelo adecuado para el experimento, el predecir su comportamiento futuro y el tomar decisionesrelativas al sistema. Por ejemplo, poseer un modelo probabilıstico para el numero de demandas decomunicacion por unidad de tiempo a una central telefonica permite dimensionar la central paraque la frecuencia con la que ocurre una saturacion de lıneas no supere un determinado umbral.

Descripcion del material de la asignatura

El material de apoyo a la asignatura de Probabilidad y Estadıstica consta de los apuntes dela asignatura, boletines de problemas y enunciados de practicas de laboratorio. Las caracterısticasprincipales de los apuntes de la asignatura son:

- Incluyen los contenidos teoricos que constituyen el programa de la asignatura. En muchasocasiones se omiten las demostraciones matematicas. Estas aparecen en los libros recomen-dados en la bibliografıa.

- Incluyen espacio para ejercicios y ejemplos. Algunos se resuelven en clase y otros son pro-puestos. Tambien incluyen ejemplos resueltos.

- Al final de cada capıtulo existe un conjunto de lecturas recomendadas y de problemaspropuestos pertenecientes a alguno de los libros incluidos en la bibliografıa. En generalestos problemas son algo mas sencillos que los problemas de los boletines de la asignatura.

- Presentan un estilo uniforme. Por ejemplo, cada vez que se define un concepto nuevo, esteaparece subrayado en el texto.

Todo el material de esta asignatura ha sido elaborado por los profesores Ignacio Alonso Alonso yJose Ramon Fernandez Bernardez, del departamento de Teorıa de la Senal y Comunicaciones dela Universidad de Vigo.

Page 5: Todo Unido Pe 2011

Universidad de Vigo. PyE. Tema 1: Teorıa de la probabilidad 1.3

Tema 1. Teorıa de la probabilidad

1. Introduccion. Fenomenos deterministas y aleatorios

El metodo cientıfico se basa en la observacion de los hechos para poder realizar una previsiono prediccion mediante un proceso de deduccion. La Estadıstica es la ciencia que nos permite, enbase a una serie de observaciones o datos, realizar predicciones con los mınimos margenes de errorposibles. El metodo se basa en el ajuste de un modelo teorico a nuestros datos; si comprobamos queel modelo es suficientemente bueno, podemos asumir que este ha sido el mecanismo generador delos datos, por lo que futuras observaciones de la misma poblacion deberıan encajar en ese esquema.Desde el punto de vista matematico, la Estadıstica se basa en el calculo de probabilidades. Laprobabilidad es una disciplina matematica basada en un modelo abstracto, y sus conclusiones sondeducciones basadas en axiomas. La Estadıstica trata con las aplicaciones de la teorıa a problemasreales, y sus conclusiones son inferencias basadas en observaciones.

En este primer tema, se recogen las ideas basicas de la teorıa de la probabilidad, aunquetratando de cuidar mas la vision intuitiva que la vision formal. Posteriormente, en los temas dos ytres, trataremos de presentar de una forma logica los posibles modelos probabilısticos que se nospuedan presentar en un problema real, estudiando las propiedades principales de cada uno. Enlos temas cuatro y cinco estudiaremos estos modelos suponiendo que existe un cierta dependenciatemporal.

Ası, entendemos por Experimento (ε) la observacion de un fenomeno fısico. De cada realizacion(ensayo o prueba) se obtiene un resultado. Distinguiremos dos tipos de fenomenos: deterministasy aleatorios. En los primeros existe una relacion causa-efecto, es decir, el resultado es predeciblede antemano; mientras que en los fenomenos aleatorios no existe esta relacion; podemos conocerde antemano todos los posibles resultados, pero en cambio no podemos predecir con antelacionel resultado de una realizacion concreta.

En un experimento ideal de caıda de un cuerpo con velocidad inicial nula, su trayectoria esdeterminista (es un movimiento rectilıneo uniformemente acelerado). El resultado de la loterıa, lasenal recibida en un receptor de un sistema de comunicacion, la evidencia que aportan la pruebasde ADN en un juicio o el hecho de que una persona herede una enfermedad de sus ascendientesson aleatorios. Cuando repetimos un experimento en identicas condiciones obtendremos el mismoresultado si el fenomeno es determinista, no siendo ası en el caso aleatorio. La teorıa de la proba-bilidad estudia los fenomenos aleatorios. Destacamos tambien, que un mismo fenomeno puede darlugar a distintos experimentos segun lo que observemos. Por ejemplo, en la caıda de un proyectilpodemos observar la velocidad del impacto, el angulo de incidencia o la posicion.

2. Algebra de sucesos

Basandonos en un experimento aleatorio, a continuacion damos algunas definiciones con suscorrespondientes notaciones entre parentesis:

Espacio muestral (Ω): conjunto de todos los posibles resultados. Segun el numero de elemen-tos que tienen, los espacios muestrales se clasifican como discretos (contienen un numerofinito o infinito numerable de elementos) o continuos.

Page 6: Todo Unido Pe 2011

Universidad de Vigo. PyE. Tema 1: Teorıa de la probabilidad 1.4

Suceso (A,B,C, etc.): conjunto de resultados de un experimento (subconjunto de Ω). Estadefinicion es valida para espacios muestrales discretos, pero en espacios continuos podrıaocurrir que un subconjunto del espacio muestral no sea un suceso.Algebra de sucesos (F) es el conjunto formado por todos los sucesos asociados a un expe-rimento aleatorio. En general, sera el conjunto cuyos elementos son todos los subconjuntosde Ω, denominado partes de Ω (P(Ω)).

Un suceso ocurre o se verifica si al realizar el experimento se obtiene un resultado quepertenece al suceso.Suceso seguro (Ω): aquel que ocurre siempre.Suceso imposible (Ø): aquel que nunca ocurre.

Suceso complementario (contrario, opuesto) de A (AC o A): ocurre si y solo si no ocurre A.

Sucesos disjuntos (incompatibles o mutuamente excluyentes): son aquellos sucesos que nose pueden verificar simultaneamente.Diremos que un suceso es compuesto si contiene dos sucesos no vacıos distintos de el mismo;en caso contrario hablaremos de sucesos elementales (los elementos de Ω).

En el conjunto de sucesos, se pueden definir las siguientes operaciones y relaciones:

Inclusion (implicacion): A ⊂ B si y solo si siempre que se verifica A tambien ocurre B.Union (suma) A ∪ B (o A + B) es un suceso que se verifica si y solo si se verifica A o B(puede ocurrir uno de los dos o ambos simultaneamente).Interseccion (producto) A∩B (o AB o A,B) es un suceso que se verifica si y solo si ocurrenA y B simultaneamente.

El conjunto de sucesos, conjuntamente con las operaciones union, interseccion y toma decomplementarios, tiene estructura de algebra de Boole, pues cumple las siguientes propiedades:

- Conmutativa: A ∪B = B ∪ A;A ∩B = B ∩ A- Elemento neutro: A ∪Ø = A;A ∩ Ω = A- Distributiva: A ∪ (B ∩ C) = (A ∪B) ∩ (A ∪ C);A ∩ (B ∪ C) = (A ∩B) ∪ (A ∩ C)- A ∪ AC = Ω;A ∩ AC = Ø

Como consecuencia de esto, se verifican:

- Leyes de De Morgan:(A1 ∪ . . . ∪ An)C = AC1 ∩ . . . ∩ ACn(A1 ∩ . . . ∩ An)C = AC1 ∪ . . . ∪ ACn- Propiedad asociativa:

A ∪ (B ∪ C) = (A ∪B) ∪ C

A ∩ (B ∩ C) = (A ∩B) ∩ C

Ejemplo 1.1: ε = “Giro de una ruleta y observacion del numero obtenido”.Ω = 0, 1, 2, . . . , 36. Sea A = Numero impar y sea B = 2.a) Determina AC , A∪BC , A∩B e indica cuales de los sucesos anteriores son elementales y cualesson compuestos.b) Si en lugar de observar el numero obtenido observasemos el color (rojo o negro), ¿tendrıamosel mismo experimento?

Page 7: Todo Unido Pe 2011

Universidad de Vigo. PyE. Tema 1: Teorıa de la probabilidad 1.5

3. Aproximaciones al concepto de probabilidad

Intentaremos dar una definicion de probabilidad como un numero que mida “la facilidadcon la que puede ocurrir un suceso”. Veremos distintas aproximaciones a esta idea.

Como medida de creencia:La probabilidad se usa a veces como medida de creencia o de convencimiento de que algo

pueda ser cierto o no. Evidentemente tiene un caracter muy subjetivo y no cuantificable, por loque no se utilizara. Se utiliza, por ejemplo, en expresiones del tipo: “Es probable que hoy llueva”.

Clasica o a priori:Si tenemos un espacio muestral finito de tamano N (casos posibles), podemos definir la

probabilidad de un suceso A como el cociente entre NA, el numero de casos en los que el sucesoA ocurre (casos favorables), y N . Es una idea intuitiva y claramente comprensible, pero un tantoambigua en cuanto a la definicion de los casos. Funciona correctamente cuando todos los casos son“equiprobables”; por lo que no es una buena definicion, al entrar el propio concepto que queremosdefinir dentro de la definicion. Ademas no es valida para espacios infinitos.

Ejemplo 1.2: ε = “Lanzar dos dados y obtener la suma”.Sea A = La suma es 7. Determina P(A).

Frecuencia relativa o a posteriori:Repetimos n veces el experimento en identicas condiciones y observamos nA, el numero de

veces que ha ocurrido A. Se define:

P(A) = lımn→∞

nAn

= fr(A)

donde fr(A) se denomina frecuencia relativa de A. Estrictamente hablando nunca conoceremossu valor en el lımite, pues requerirıa realizar el experimento “infinitas” veces. Aunque no seala definicion a utilizar, se interpretaran muchos conceptos desde el punto de vista frecuencial,es decir, pensando en como serıa ese concepto si hubiesemos utilizado la definicion frecuencial.

Page 8: Todo Unido Pe 2011

Universidad de Vigo. PyE. Tema 1: Teorıa de la probabilidad 1.6

Axiomatica:La probabilidad de un suceso A es un numero real positivo que cumple una serie de axio-

mas. Es la definicion que utilizaremos, pues, aunque sea poco intuitiva, posee propiedades muyinteresantes. Sobre ella iremos construyendo la teorıa de la probabilidad, hasta que, gracias a lasleyes de los grandes numeros, veremos que esta definicion coincide con la definicion frecuencial.En ese momento todas las interpretaciones frecuenciales dejaran de ser simplemente interpre-taciones. En la practica, se asignan a los sucesos probabilidades que verifiquen los axiomas y quese aproximen al valor asintotico de la frecuencia relativa.

4. Espacio de probabilidad

A cada espacio de probabilidad, continuo o discreto, le asociamos un algebra de sucesos.Veamos algunos ejemplos.

Ejemplo resuelto 1.1: Examinaremos, para algunos experimentos, cuales serıan los espaciosmuestrales, indicando si son continuos o discretos, y determinando las algebras asociadas.

ε: “ Lanzamiento de una moneda”Ω = c,+ discreto, por tanto F = P(Ω) = partes de Ω = Ø,Ω,c,+

ε: “ Lanzamiento de una moneda dos veces”Ω = cc,c+,+c,++ discreto, por tanto F = P(Ω)

ε: “ Lanzamiento de una moneda hasta que salga cara”Ω = c,+c,++c,+++c,. . . numerable y por tanto discreto. Entonces F = P(Ω)

ε: “ Tiempo de ejecucion de un programa informatico”Ω = (0,∞) continuo por tanto, F= cualquier subconjunto de (0,∞)

ε: “ Nivel de agua en un pantano de capacidad C”Ω = (0,C) continuo por tanto, F= cualquier subconjunto de(0,C)

Estamos ahora en condiciones de dar la definicion axiomatica de probabilidad. Dado unespacio muestral Ω, con un algebra de sucesos F asociada, definimos una medida de probabilidadP como:

P : F −→ [0, 1] verificando:

(i) ∀A ∈ F ,P(A) ≥ 0

(ii) P(Ω) = 1

(iii) Si Ai∞i=1 ⊂ F tales que Ai ∩ Aj = Ø si i 6= j, entonces P

(∞⋃i=1

Ai

)=∞∑i=1

P(Ai)

Sus principales propiedades son:

1) P(Ø) = 0 ya que:

A y Ø son sucesos disjuntos y su union es el propio A; por tanto, por el axioma (iii)

P(A) = P(A ∪Ø) = P(A) + P(Ø)

de donde se deduce que P(Ø) = 0

Page 9: Todo Unido Pe 2011

Universidad de Vigo. PyE. Tema 1: Teorıa de la probabilidad 1.7

2) P(AC) = 1− P(A) ya que:

A ∪ AC = Ω union disjunta. Por tanto:

P(A) + P(AC) = P(Ω) = 1

3) P(A ∪B) = P(A) + P(B)− P(A ∩B) ya que:

A ∪B = B ∪ (A ∩BC) union disjunta. Por tanto:

P(A ∪B) = P(B) + P(A ∩BC)

A = (A ∩B) ∪ (A ∩BC) union disjunta. Por tanto:

P(A) = P(A ∩B) + P(A ∩BC)

Igualando P(A ∩BC) en las dos expresiones anteriores se demuestra la propiedad.

Esta propiedad es generalizable a cualquier union finita de sucesos. Por ejemplo, si unimostres sucesos:

P(A ∪B ∪C) = P(A) + P(B) + P(C)− P(A ∩B)− P(A ∩C)− P(B ∩C) + P(A ∩B ∩C)

4) Si B ⊂ A, entonces P(B) ≤ P(A) ya que:

A = B ∪ (A ∩BC) union disjunta. Por tanto:

P(A) = P(B) + P(A ∩BC)

Dado que todas las probabilidades son mayores o igualesque cero, se obtiene el resultado.

5) 0 ≤ P(A) ≤ 1 para todo suceso A de F .

6) P(Ω) = 1 pero si un suceso A es tal que P(A) = 1 no quiere decir que A = Ω.

A la terna (Ω,F , P ) le llamaremos espacio de probabilidad.

Definicion axiomatica y espacios equiprobables

Un espacio discreto en el que todos los sucesos elementales tienen la misma probabilidadse dice que es equiprobable. En este tipo de espacios se puede utilizar la definicion clasica deprobabilidad. Supongamos que Ω es un espacio discreto. Caben dos posibilidades:

(i) Ω finito, es decir Ω = w1, . . . , wN y por tanto #Ω = N

(ii) Ω infinito numerable, es decir Ω = w1, . . . , wn, . . . y por tanto #Ω =∞

Sea α = #Ω (α sera N o ∞, segun el caso)Consideremos los sucesos elementales wi i = 1, . . . , α y sea pi = P(wi) i = 1, . . . , α.Ahora:

1 = P(Ω) = P

(α⋃i=1

wi

)=

α∑i=1

pi. Por tantoα∑i=1

pi = 1

Page 10: Todo Unido Pe 2011

Universidad de Vigo. PyE. Tema 1: Teorıa de la probabilidad 1.8

Es decir, la suma de los probabilidades de los sucesos elementales de un espacio discreto es uno.Para utilizar la definicion clasica de probabilidad necesitamos que todos los sucesos elementalestengan la misma probabilidad, es decir, pi = p ∀i. Por tanto:

(i) Si Ω finito entonces: 1 =N∑i=1

pi =N∑i=1

p = Np⇒ p =1

N

(ii) Si Ω infinito numerable entonces: 1 =∞∑i=1

pi =∞∑i=1

p =∞p⇒ p =??

Claramente esta ultima situacion no se puede dar, pues no existe ninguna constante p quesumada “infinitas” veces consigo misma de 1. Por tanto, cualquier espacio equiprobable debe serfinito y la definicion clasica de probabilidad tan solo se podra utilizar en este tipo de espacios.En estos casos, la probabilidad de cada suceso elemental sera uno dividido por el numero deelementos del espacio. Evidentemente, no pueden existir espacios equiprobables continuos.

Ejercicio 1.1: Considera el espacio obtenido al observar el resultado en el lanzamiento de undado. ¿Puede ser un espacio equiprobable?Si la respuesta es afirmativa, ¿que probabilidad tendrıa cada suceso elemental?Sobre el mismo espacio muestral, asigna probabilidades a los sucesos elementales de modo que elespacio no sea equiprobable.

5. Probabilidad condicional e independencia

Dado un experimento existe un conjunto de posibles resultados que conforman el espa-cio muestral. Cada uno de estos resultados ocurre con una determinada facilidad que medimosmediante la probabilidad. En algunos casos interesa calcular la facilidad con la que ocurre un re-sultado imponiendo alguna condicion al experimento o restringiendo el estudio a un subconjuntode los resultados. Por ejemplo, considerese un experimento donde se observan los bits enviados ylos recibidos en un sistema de comunicacion binario. Puede ser de interes calcular la probabilidadde que se produzca un error de transmision, pero tambien puede ser de interes calcular esta mismaprobabilidad bajo la condicion de que se haya enviado un bit 0. Si se define A: “Se produce unerror de transmision” y B: “Se envıa un 0” entonces las probabilidades mencionadas son, res-pectivamente, P(A) y P(A/B). Esta ultima se denomina probabilidad de A condicionada por B.Tambien se denomina probabilidad a posteriori, porque se calcula basandose en la hipotesis deque el suceso B ha ocurrido, es cierto. Por tanto, tambien se puede leer como sigue: sabiendo queocurre B (sabiendo que se ha enviado un 0), ¿cual es la probabilidad de que se produzca un errorde transmision?

Al condicionar un suceso cambia el referente a partir del cual se calcula su probabilidad(cambia el espacio de probabilidad), y por tanto, en general, P(A) sera diferente de P(A/B).En el caso anterior, para conocer P(A/B), se trabaja solamente con un subconjunto del espaciomuestral original (unicamente se consideran aquellos casos en los que se envıa un 0).

Definicion: Sea B tal que P(B) > 0, definimos la probabilidad de A condicionada por B:

P(A/B) =P(A ∩B)

P(B)

Page 11: Todo Unido Pe 2011

Universidad de Vigo. PyE. Tema 1: Teorıa de la probabilidad 1.9

Desde el punto de vista frecuencial, se definirıa la frecuencia relativa de A condicionada porB como el cociente entre las frecuencias relativas de la interseccion y del suceso que condiciona.Si realizamos n veces el experimento (siendo n un numero suficientemente grande), obtenemosnA, nB y nAB, es decir, el numero de veces que ocurren A,B y A∩B respectivamente. Definimos:

fr(A/B) =fr(A ∩B)

fr(B)=nABnB

La frecuencia relativa condicionada por B tiene en cuenta tan solo las realizaciones delexperimento en las que ocurre el suceso B y, dentro de estas, cuenta en cuantas ocurre ademas elsuceso A.

Observacion: Una vez fijado el suceso B, la probabilidad condicionada es, a su vez, unamedida de probabilidad, pues verifica los tres axiomas:

PB : F −→ [0, 1] verificando:

(i)∀A ∈ F ,PB(A) = P(A/B) ≥ 0

(ii)P(Ω/B) = 1

(iii) Si Ai∞i=1 ⊂ F tales que Ai ∩ Aj = Ø si i 6= j, entonces P

(∞⋃i=1

Ai/B

)=∞∑i=1

P(Ai/B)

Propiedades:

1) P(A/Ω) = P(A)

2) Si A y B disjuntos entonces P(A/B) = 0

3) Si A ⊂ B entonces P(A/B) ≥ P(A)

4) Si B ⊂ A entonces P(A/B) = 1

Ejercicio 1.2: Demuestra las propiedades anteriores

Ejemplo 1.3: Sea ε : “Lanzar un dado y observar el numero obtenido”.Sean los sucesos A = El resultado es par y B = 2. Calcula P(B/A)

Page 12: Todo Unido Pe 2011

Universidad de Vigo. PyE. Tema 1: Teorıa de la probabilidad 1.10

Ejemplo 1.4: Tenemos una caja con tres bolas blancas y dos rojas. Extraemos dos bolas seguidas.¿Cual es la probabilidad de que la primera sea blanca y la segunda sea roja?

A continuacion se enuncian algunos resultados que, pese a tener una sencilla demostracion,tienen una gran importancia:

Regla del producto (probabilidad de la interseccion de sucesos)

P(A1 ∩ . . . ∩ An) = P(A1)P(A2/A1). . .P(An/A1 ∩ . . . An−1)

Observacion: Dado que la interseccion es conmutativa, los sucesos A1, . . . , An puede inter-cambiarse de orden, por lo que las probabilidades condicionadas pueden elegirse en cualquierorden.

Definicion: Dado un espacio muestral Ω, se dice que A1, . . . , An, . . . es una particion deΩ si los Ai son todos de probabilidad estrictamente positiva, son disjuntos dos a dos y su uniones el propio Ω.

Observacion: Las particiones tienen una cantidad finita o infinita numerable de elementos.

Teorema de las probabilidades totalesSi A1, . . . , An, . . . es una particion de Ω, entonces ∀ suceso B se verifica:

P(B) =∑∀i

P(B/Ai)P(Ai)

La demostracion es sencilla.

Dado que⋃∀i

Ai = Ω es una union disjunta:

B =⋃∀i

(B ∩ Ai) es una union disjunta, por lo que:

P(B) =∑∀i

P(B ∩ Ai) =∑∀i

P(B/Ai)P(Ai)

Observacion: En la demostracion anterior tanto las uniones como los sumatorios podrıanser finitos (si la particion lo es) o infinitos numerables, por lo que el teorema es cierto tanto paraparticiones finitas como para particiones infinitas numerables.

Teorema de BayesSi A1, . . . , An, . . . es una particion de Ω, entonces ∀ suceso B se verifica:

P(Ai/B) =P(B ∩ Ai)

P(B)=

P(B/Ai)P(Ai)∑∀j P(B/Aj)P(Aj)

Observacion: El teorema es cierto tanto para particiones finitas como infinitas numerables.Ası, hablaremos de probabilidad “a priori” P(Ai) y probabilidad “a posteriori” P(Ai/B).

Page 13: Todo Unido Pe 2011

Universidad de Vigo. PyE. Tema 1: Teorıa de la probabilidad 1.11

Ejemplo 1.5: Tenemos tres cajas, C1, C2 y C3, con piezas que pueden ser defectuosas (D) o no. C1

contiene 2000 piezas, de las cuales 100 son defectuosas; C2 contiene 500 piezas (200 defectuosas);mientras que C3 contiene 1000 piezas (100 defectuosas). Se elige una caja al azar y se extrae unapieza de ella.a) ¿Cual es la probabilidad de que sea defectuosa?b) Sabiendo que la pieza elegida es defectuosa, ¿cual es la probabilidad de que provenga de C2?

Independencia de sucesos

Intuitivamente, dos sucesos son independientes cuando el hecho de que uno de ellos ocurrano influye en la probabilidad de ocurrencia del otro. Diremos que dos sucesos A y B son indepen-dientes si la probabilidad de su interseccion es el producto de sus probabilidades. Evidentementeesta condicion es equivalente a la de decir que para uno cualquiera de ellos coinciden sus probabi-lidades a priori y a posteriori despues de conocer al otro; es decir, la informacion que la ocurrenciade uno aporta no influye en la probabilidad de ocurrencia del otro.

A y B son independientes⇔ P(A ∩B) = P(A)P(B)⇔ P(A/B) = P(A) si P(B) > 0

En terminos frecuenciales podemos decir que dos sucesos son independientes si, en el lımite,la proporcion de veces que uno ocurre (frecuencia relativa) no varıa si solo consideramos validaslas ocasiones en las que el otro ocurre (frecuencia relativa condicionada). Es decir, para un nsuficientemente grande:

fr(A/B) =nABnB

= fr(A) =nAn

La idea de independencia se puede generalizar a mas sucesos. Diremos que A1, . . . , An sonmutuamente independientes si cualquier subconjunto de ellos verifica que la probabilidad de lainterseccion es el producto de las probabilidades. Por ejemplo si n=3

A,B y C son mutuamente independientes⇔

P(A ∩B) = P(A)P(B)P(A ∩ C) = P(A)P(C)P(B ∩ C) = P(B)P(C)

P(A ∩B ∩ C) = P(A)P(B)P(C)

Propiedades:

1) Si A y B son independientes, entonces AC y BC son independientes

2) Si A1, . . . , An son independientes entonces Ai es independiente de cualquier suceso formadopor uniones, intersecciones y/o complementarios de los otros

Page 14: Todo Unido Pe 2011

Universidad de Vigo. PyE. Tema 1: Teorıa de la probabilidad 1.12

Ejercicio 1.3: Estudia si se cumplen las siguientes implicaciones entre sucesos de probabilidad nonula.Dos sucesos independientes son siempre disjuntos

Dos sucesos disjuntos no son nunca independientes

Dos sucesos disjuntos son siempre independientes

EJERCICIOS PROPUESTOS:Cuestiones basicas de probabilidad. Li. Problema de autoevaluacion 2.1. Pag. 61.Definicion de sucesos. Li. Problema de autoevaluacion 2.2. Pag. 61.Probabilidad condicionada. Cao. Ejemplo 3.10. Pag 126Fiabilidad. Cao. Problema 3.12. Pag 147Teorema de Bayes. Pena prob 3.1.4, pag 77 (primera ed) o pag 113 (segunda ed)Independencia. Pena prob 3.1.13, pag 78 (primera ed) o pag 114 (segunda ed)

LECTURAS RECOMENDADAS:Introduccion a la probabilidad. Papoulis. Capıtulo 1; Cao. Capıtulo 3

INFORMACION Y DOCUMENTACION ADICIONAL:La documentacion de este tema se complementa con un boletın de problemas.

Page 15: Todo Unido Pe 2011

Universidad de Vigo. Problemas de PyE. Tema 1: Teorıa de la probabilidad 1.1

PROBLEMAS DE PROBABILIDAD Y ESTADISTICATema 1: Teorıa de la probabilidad

1.1) En una ciudad se publican tres periodicos A, B y C. Supongamos que la probabilidad deque una familia este suscrita a un periodico(s) es, en cada caso:

A = 0.6; B = 0.4; C = 0.3 A y B = 0.2; A y C = 0.1; B y C = 0.2 A, B y C = 0.05

a) ¿ Cual es la probabilidad de que una familia este suscrita al menos a un periodico?b) ¿ Cual es la probabilidad de que una familia este suscrita exactamente a un periodico?

1.2) Disponemos de tres monedas: una con dos caras, otra con dos cruces y la tercera con unacara y una cruz. Se elige aleatoriamente una moneda, se lanza y se obtiene una cara.

a) ¿Cual es la probabilidad de que en el lado que no vemos tengamos otra cara?b) ¿Cual es la probabilidad de obtener una cara en el lanzamiento posterior de una segunda

moneda elegida tambien aleatoriamente de entre las dos que quedan?

1.3) Un generador de numeros aleatorios proporciona equiprobable e independientemente valoresenteros entre 1 y 9 incluidos ambos.

a) Se generan dos valores consecutivos:

- ¿Cual es la probabilidad de que su suma sea impar?- ¿Cual es la probabilidad de que su producto sea par?- Sabiendo que su producto es par, ¿Cual es la probabilidad de que la suma sea

impar?- Sabiendo que su suma es impar, ¿Cual es la probabilidad de que el producto sea

par?

b) Se generan tres valores consecutivos:

- ¿Cual es la probabilidad de que su suma sea impar?- ¿Cual es la probabilidad de que su producto sea par?

1.4) Supongamos que hay una prueba para diagnosticar el cancer que da positivo en el 95 % delos casos cuando se aplica a personas que tienen esta enfermedad y da negativa en el 95 %de los casos cuando se aplica a personas sanas. Si la probabilidad de que una persona tengacancer es 0.005, ¿Cual es la probabilidad de que una persona tenga realmente cancer cuandola prueba le de positivo?. Analiza el resultado obtenido.

1.5) Un circuito electrico esta formado por cuatro elementos Ak, con k = 1, 2, 3, 4, segun el es-quema que muestra la figura. Si un elemento funciona mal, se produce un circuito abiertoen ese punto. La probabilidad de que un elemento Ak funcione incorrectamente es igual apk, k = 1, 2, 3, 4; suponiendo independencia en el funcionamiento de los distintos componen-tes; ¿Cual es la probabilidad de que la corriente fluya a traves del circuito?

Page 16: Todo Unido Pe 2011

Universidad de Vigo. Problemas de PyE. Tema 1: Teorıa de la probabilidad 1.2

1.6) Una red esta formada por un servidor y N ordenadores. El servidor envıa un paquete dedatos a los N ordenadores y cada uno de ellos confirma una correcta recepcion con unaprobabilidad p, independientemente de los demas ordenadores. Si el paquete de datos no esconfirmado, se vuelve a enviar. Sea el suceso S(m): “El paquete de datos ha sido confirmadopor los N ordenadores en m o menos envıos”. Calcula P(S(m)) en los siguientes supuestos:

a) Si en un intento falla alguno de los N ordenadores, se vuelve a enviar a todos otra vez,ası hasta que recibe, en un mismo envıo, las N confirmaciones.

b) Si en un intento falla alguno de los N ordenadores, se vuelve a enviar tan solo a losordenadores que no han confirmado.

1.7) Un sistema de transmision consta de varios canales; cada uno de los cuales esta formado porun emisor y un receptor. En cada canal, la probabilidad de que un emisor envıe un mensajees de 0.9; y, una vez enviado, la probabilidad de que se reciba es de 0.95. Se desea que, conuna probabilidad mayor que 0.9999; un mensaje llegue a su destino. ¿Por cuantos canalesdebera enviarse? Supongase independencia en el funcionamiento de distintos canales.

1.8) Disponemos de n helicopteros para encontrar un avion perdido. El avion se ha perdido enuna de dos posibles zonas: la zona I (con probabilidad 0.8) o la zona II (con probabilidad0.2). Un helicoptero buscando en la region adecuada (esto es, la zona en la que el avion seperdio) encuentra el avion con probabilidad 0.3, independientemente de lo que hagan losdemas helicopteros.

a) ¿Cual es la probabilidad de encontrar el avion si enviamos n1 helicopteros a la zona Iy el resto a la zona II?

b) En el caso particular de que dispongamos de n = 3 helicopteros; ¿que cantidad enviarıasa cada zona para maximizar la probabilidad de encontrar el avion? ¿cuanto valdrıa estaprobabilidad maxima?

1.9) En una clase en la que hay n personas nadie quiere salir al encerado para hacer un problema.Para resolver el dilema se decide hacer un sorteo de forma que cada persona debe elegir unpapel dentro de una bolsa; los n papeles son todos iguales por fuera, pero hay uno que indicael “agraciado”. Si pudieses escoger el orden de eleccion, ¿en que lugar elegirıas? Justifica ladecision probabilısticamente.

1.10) Un canal de comunicacion funciona como se ilustra en la figura. En cada flecha esta indicada,en terminos de p0 y p1, la probabilidad de que se produzca esa transmision. Inicialmente setransmite un 0 o un 1 con igual probabilidad.

a) Si en la salida del canal recibimos un 0; ¿Cual es la probabilidad de que inicialmentese hubiese transmitido tambien un cero?

b) ¿Cual es la probabilidad de obtener lo que se ha transmitido?c) Particulariza, en ambos apartados para el caso en que p0 = p1

Page 17: Todo Unido Pe 2011

Universidad de Vigo. Problemas de PyE. Tema 1: Teorıa de la probabilidad 1.3

SOLUCIONES AL BOLETIN DE PROBLEMASTema 1: Teorıa de la Probabilidad

1.1) a) 0.85

b) 0.45

1.2) a) 2/3

b) 1/3

1.3) a) 40/81, 56/81, 40/56, 1

b) 365/729, 604/729

1.4) p = 0.087

1.5) 1 − p3p4 − p1p2p4 + p1p2p3p4

1.6) a) 1 − (1 − pN)m

b) [1 − (1 − p)m]N

1.7) n = 5

1.8) a) 1 − 0.8(0.7)n1 − 0.2(0.7)n−n1

b) Los 3 a la zona I; p = 0.5256

1.9) Da igual, p = 1/n en cualquier orden

1.10) a)p20 + p1 − p0p1p20 − p21 + 2p1

b)1

2[1 + (p0 − p1)

2]

c) 1/2 en ambos casos

Page 18: Todo Unido Pe 2011

Universidad de Vigo. PyE. Practica 1 1.1

PROBABILIDAD Y ESTADISTICAPractica 1. Introduccion al Matlab

Objetivos

- Manejo basico de Matlab- Resolver problemas de calculo de probabilidades mediante simulacion

Introduccion

MATLAB (MATrix LABoratory) es un programa para realizar calculos numericos con matri-ces (escalares y vectores no son mas que casos particulares). Tambien ofrece capacidades graficasmuy potentes, tanto en dos como en tres dimensiones. En esta asignatura no se pretende ensenaren profundidad la herramienta MATLAB en sı, sino introducir su funcionamiento basico; puesresultara util para el desarrollo de las practicas. MATLAB es un lenguaje de programacion inter-pretado. Su manejo basico se realiza desde una consola (ventana de comandos), en la que apareceun indicador (“))”), donde se escribiran las instrucciones o nombres de funciones y se pulsara re-torno de carro para ejecutarlas. MATLAB dispone de una excelente ayuda on-line mediante elcomando help.

Observacion: MATLAB distingue mayusculas de minusculas. Los ejemplos de la ayuda sue-len aparecer en mayusculas pero han de escribirse en minusculas.

Con las teclas de flecha arriba y flecha abajo es posible recuperar instrucciones anteriorespara no tener que volver a escribirlas.

Operaciones basicas con Matlab. Tablas resumen

Algunos operadores basicos se resumen en la siguiente tabla:

Operacion Sımbolo EjemploSuma + 7+6Resta – 3–5

Producto * 2.5*8.9Division / o \ 56/7 = 7\56 = 8Potencia ˆ 5 (1/4)

Funcion Exponencial exp(x) exp(–6)

En MatLab estan disponibles muchas funciones como pueden ser la raız cuadrada o lasfunciones seno y coseno. Para obtener por pantalla una lista de funciones elementales, escribehelp elfun en la ventana de comandos. Para obtener informacion sobre una funcion concretaescribe directamente help nombre funcion (Ej.: help exp).

Para generar un vector se pueden utilizar alguno de los metodos que se resumen a continuacion:

Definicion de un vector fila Comentariosx=[1 exp(0) 4*7 5] Los elementos son expresiones que dan un resultado numerico.

Deben separarse por espacios y delimitarse mediante corchetes.x=(1:5) Equivale a x=[1 2 3 4 5]

x=(1:0.5:3) Equivale a x=[1 1.5 2 2.5 3]x=(1:0.6:3) Equivale a x=[1 1.6 2.2 2.8]

Si al finalizar la expresion incluimos un “;” evitaremos que se visualicen en la pantalla loselementos del vector o matriz definidos (o calculados).

Page 19: Todo Unido Pe 2011

Universidad de Vigo. PyE. Practica 1 1.2

Una vez definidos un conjunto de vectores y escalares es sencillo realizar operaciones entreellos y definir nuevos vectores. A continuacion se especifican algunas posibilidades:

Operaciones entre vectores fila y escalares. x = [0 2 4], y = [1 3 5], a=2, b = –3Operacion Tipo de operacion Resultado Condicion

z=a+x Elemento a elemento z=[2 4 6] Ningunaz=b*y Elemento a elemento z=[-3 -9 -15] Ningunaz=x+y Matricial z=[1 5 9] x e y del mismo tamanoz=x*y Matricial z=??Error!! x e y matrices cuyo producto este definidoz=x.*y Elemento a elemento z=[0 6 20] x e y del mismo tamanoz=x.y Elemento a elemento z=[0 8 1024] x e y del mismo tamanoz=x./y Elemento a elemento z=[0 2/3 4/5] x e y del mismo tamano

z=exp(x) Elemento a elemento z=[1 e2 e4] Ninguna

Algunos comandos de Matlab que usaremos durante el curso

Puedes verificar su sintaxis con ayuda del comando help.

rand: Genera numeros aleatorios en el intervalo (0,1) (distribucion uniforme)zeros: Genera un vector de cerosones: Genera un vector de unos

sum: Calcula la suma de los elementos de un vectormean: Calcula el promedio de un vectorstd: Calcula la desviacion estandar de los elementos de un vectorfloor: Funcion parte entera (calcula el entero inmediatamente inferior)find: Busca los elementos de un vector que cumplan una condicion especificadalength: Calcula la longitud de un vector

figure: Crea una ventana grafica nuevaplot: Hace una representacion de puntos en un plano XYhist: Representa un histograma con 10 clases por defectostairs: Representa puntos en un plano XY unidos de forma escalonada

if : Comprueba si se verifica una condicionfor: Realiza un bucle mediante un contadorwhile: Permite realizar un bucle mientras se verifique una condicion

Resolucion de problema

El siguiente problema se resolvera con detalle en la pizarra.Problema) Tres jugadores lanzan un dado alternativamente hasta que uno de ellos obtiene

un 5, en cuyo caso es el ganador del juego y este finaliza. Llamando A, B y C a los jugadoressegun el orden de actuacion; ¿Cuales son, para los tres, las probabilidades de ganar el juego?

Ejercicios (10’)

1) En la ventana de comandos de Matlab define:

a) Un vector que contenga todos los numeros enteros entre 1 y 20b) Un vector que contenga 10 unosc) Un vector que contenga 20 doses

Page 20: Todo Unido Pe 2011

Universidad de Vigo. PyE. Practica 1 1.3

d) Un vector conteniendo el producto, elemento a elemento, de los obtenidos en a) y c)e) Un vector que contenga, como primer elemento el numero 1 y a continuacion tome

valores que se vayan incrementando en 0.1 hasta llegar a 5 (1, 1.1,1.2, . . . ,5)

2) En la ventana de comandos de Matlab genera (comando rand):

a) Un numero aleatorio entre 0 y 1b) Un vector con 10 numeros aleatorios entre 0 y 1

3) Simulacion de un suceso de probabilidad p.Supongamos que queremos simular en el ordenador la ocurrencia de un suceso de probabi-lidad p. Para ello realizamos un experimento equivalente. Por ejemplo, la probabilidad deque un numero generado con el comando rand sea menor o igual que p es precisamentep; pues es como si dividiesemos el intervalo (0,1) en dos trozos de longitudes p y 1 − p.Bajo esta idea, simula el resultado de 10 lanzamientos de una moneda, suponiendo queP(C)=P(+)=0.5.

Resolucion de problema (35’)

Se ha resuelto en la pizarra el problema de los tres jugadores que lanzan el dado. Posterior-mente se pide que, con ayuda de Matlab, se resuelva mediante simulacion. La idea es aproximarel valor de cada probabilidad pedida por su frecuencia relativa. Para ello se repetira muchas vecesel experimento y se determinara la proporcion de veces que ocurre cada suceso de interes.

Simulacion de eventos discretos (opcional)

1) En la ventana de comandos de Matlab genera:

a) Un numero aleatorio entre 0 y 6b) Un numero elegido equiprobablemente entre 1, 2, 3, 4, 5, 6c) Un vector con 20 numeros aleatorios entre 0 y 1d) Un vector con 20 numeros elegidos equiprobablente y de forma independiente entre 1,

2, 3, 4, 5, 62) Suponiendo que hay n personas en clase, disena un algoritmo que puedas programar en

Matlab para realizar un sorteo que seleccione a una persona para hacer un problema en elencerado. Evidentemente, el sorteo debe de ser justo, esto es, todas las personas deben detener la misma probabilidad de salir.

3) Simula el lanzamiento de un dado y estudia la ocurrencia del suceso “sale un 5”. Con ayudadel generador de numeros aleatorios de Matlab simula 10 veces el experimento. Guarda losresultados en un vector de unos (ha salido un cinco) y ceros (no ha salido un 5).Sugerencia: Dado que la probabilidad del suceso de interes es 1/6, puedes realizar la simu-lacion de la siguiente manera: genera un numero aleatorio. Si el numero es menor que 1/6decide que ha salido un 5. En otro caso decide que no ha salido un 5.

Page 21: Todo Unido Pe 2011

Universidad de Vigo. PyE. Practica 2 2.1

PROBABILIDAD Y ESTADISTICAPractica 2. Teorıa de la Probabilidad

Objetivos

Repaso de los conceptos de: definicion frecuencial y axiomatica de probabilidad, probabilidadcondicionada, teorema de las probabilidades totales y teorema de Bayes.

Ejecucion. Caracterısticas generales del software

La practica se inicia tecleando estadlab en la ventana de comandos de MatLab. En lapantalla se visualizara una ventana de presentacion desde donde se puede acceder a los distintosmodulos que componen las practicas de laboratorio. Para iniciar la sesion correspondiente a Teorıade la Probabilidad se pulsa en el boton Probabilidad, que nos llevara a una nueva ventana depresentacion en la que se puede seleccionar cualquiera de las practicas que componen este modulo.A medida que estas se ejecutan, se van generando nuevas ventanas de trabajo que ocultan a lasanteriores. Para cambiar de ventana de trabajo, se deben utilizar los menus Windows o Ventanasque estan en la barra de menus de la parte superior de la pantalla. Si se desea volver a la ventanade comandos basta con pulsar una tecla (por ejemplo espacio), siempre que en la ventana actualno hayamos seleccionado ningun objeto para introducir datos. En el menu General existe un ıtemde Ayuda que proporciona informacion tanto sobre el entorno de trabajo como sobre la baseteorica subyacente a la practica.

Importante: en todas las practicas que se desarrollen durante el curso, la ventana de coman-dos de MatLab no se debe cerrar nunca durante la sesion.

Definicion clasica de probabilidad y frecuencia relativa (20’)

En esta practica se plantea un problema que en su dıa ya fue propuesto a Galileo. Los juga-dores de dados, basandose en su experiencia, sabıan que al lanzar dos dados y observar su suma,era menos frecuente obtener un 10 que un 9. Sin embargo, sus razonamientos teoricos les llevabana la conclusion de que ambos sucesos eran equiprobables. El objetivo de esta practica es obteneruna solucion teorica que concuerde con los resultados empıricos y aprender donde radicaba elerror que cometıan los contemporaneos de Galileo.

La practica debe realizarse en el siguiente orden:-Resolver las preguntas relacionadas con el tema que aparecen en este cuestionario. Es recomen-dable utilizar lapiz y papel para resolverlas.-Comprobar empıricamente que los resultados teoricos (las probabilidades calculadas) se aseme-jan a las frecuencias relativas que se obtienen en la simulacion:

-Elegir el valor de n (numero de veces que se realiza el experimento).-Pulsar el boton Tirar dados varias veces, hasta que se comprenda el significado de la tabla

y de la grafica que aparecen en pantalla.-Pulsar Seguido para finalizar el proceso.

-Repetir esta operacion para valores de n grandes y pequenos. Comparar los resultados. (Recordarque las frecuencias relativas se asemejan a las probabilidades cuando n es grande).

Cuestiones:

1) Si en el experimento correspondiente a esta practica, observamos la suma de los dados alcaer, ¿Cual es el numero de resultados posibles del experimento?

2) Observando la suma de los dados sabemos que hay 11 resultados posibles. En esta situacionindica si las siguientes afirmaciones son verdaderas o falsas:

a) Si aplicasemos la definicion clasica de probabilidad, obtendrıamos la misma probabili-dad para los sucesos “sumar 9” y “sumar 10”.

Page 22: Todo Unido Pe 2011

Universidad de Vigo. PyE. Practica 2 2.2

b) Las probabilidades que se obtienen si aplicamos la definicion clasica a un espacio mues-tral ası disenado, son correctas.

3) Ahora consideraremos los resultados posibles si se tienen en cuenta las parejas de numerosobtenidos sin distinguir entre dados. En esta situacion indica si las siguientes afirmacionesson verdaderas o falsas:

a) El numero de casos posibles es 36.b) Si aplicasemos la definicion clasica de probabilidad, obtendrıamos la misma probabili-

dad para los sucesos “sumar 9” y “sumar 10”.c) Las probabilidades que se obtienen si aplicamos la definicion clasica a un espacio mues-

tral ası disenado, son correctas.

4) Calcula la probabilidad de que dos dados sumen 9.

5) Calcula la probabilidad de que dos dados sumen 10.Observacion: Anota este resultado y el de la cuestion anterior para compararlo despues conlas frecuencias relativas que se obtienen en la simulacion en funcion del numero de vecesque se realiza el experimento.

6) Se han lanzado los dados 20 veces y se han obtenido las siguientes sumas:5 8 9 9 10 10 10 3 4 10 9 10 7 8 12 2 6 3 5 9Indica si las siguientes afirmaciones son verdaderas o falsas:

a) La frecuencia relativa del suceso “sumar 2” es 0.1b) Despues de 5 tiradas la frecuencia relativa de “sumar 10” es 1/5.c) La frecuencia relativa de “sumar 10” ha sido mayor que la de “sumar 9”, por tanto el

suceso “sumar 10” es mas probable.

Definicion axiomatica de probabilidad (10’)

En esta practica se presenta un sorteo con un conjunto de posibles resultados. En primerlugar se deben introducir las probabilidades que se deseen asignar a cada uno de ellos, de talforma que se verifiquen los axiomas de la probabilidad.

A continuacion, sobre la misma ventana de trabajo se plantean una serie de preguntasrelacionadas con el ejemplo. Es recomendable utilizar lapiz y papel para resolverlas. Tecleando larespuesta el programa las corregira automaticamente.

Probabilidad Condicionada (15’)

En esta practica se simula un sistema de comunicacion binario. Se envıa una trama debits (secuencia de 50) con probabilidades fijas. En cada transmision se superpone ruido blancogaussiano y en recepcion se emplea el sımbolo ruidoso recibido para estimar el transmitido. Comoconsecuencia existe una cierta probabilidad de error y el comportamiento del sistema se describemediante las probabilidades de que el sımbolo detectado sea 0 o 1 en funcion de cual fue el sımbolotransmitido.

Pulsando el boton Iniciar trama se genera una trama (50 bits). En base a los datosobtenidos (en la parte inferior de la pantalla) se pide calcular distintas frecuencias relativas.Las casillas se deben rellenar con cuidado para introducir solamente caracteres numericos. Acontinuacion resuelve las cuestiones.

Cuestiones:Si en el canal binario de la practica: P(X=0)=P(X=1)=0.5; P(X=0,Y=0)=0.4; P(X=1,Y=1)=0.45.1) Calcula P(Y=0/X=0)2) Calcula P(Y=1/X=1)3) ¿Cual es la probabilidad de tener un error de transmision si se envio un cero?4) ¿Cual es la probabilidad de tener un error de transmision?

Page 23: Todo Unido Pe 2011

Universidad de Vigo. PyE. Practica 2 2.3

Teorema de las probabilidades totales (15’)

En esta practica se dispone de tres cajas con bolas de dos tipos distintos, con una composi-cion predeterminada. En primer lugar se pide que se calcule la probabilidad de obtener una bolagrande en cada una de las cajas.

En segundo lugar se propone calcular la probabilidad de extraer una bola grande suponiendoque se introducen todas las bolas en una unica caja y se extrae una de ellas.

Cuestiones:1) Supongamos que el experimento consiste en elegir una caja equiprobablemente para extraer

una bola de ella. ¿Cual es la probabilidad de que sea una bola grande? Compara el resultadocon el valor que se obtenıa cuando todas las bolas estaban en una unica caja.

2) En una votacion se recogen los siguientes resultados: el 70 % del censo son hombres y el30 % son mujeres. Entre los hombres hay un 40 % de abstencion y entre las mujeres un45 %. Indica si las siguientes afirmaciones son verdaderas o falsas:a) P(No votar) = 0.85b) P(Votar) = 0.585c) P(No votar) = 0.415d) P(Votar) = 0.575

3) En un sistema de transmision se envıan bits (X) y por efecto del canal durante la propaga-cion, se recibe Y = X + R, donde R es el ruido aleatorio. Se dispone de los siguientes datos:P(X=0) = P(X=1) = 0.5 ; P(Y=0/X=0) = P(Y=1/X=1) = 0.9Calcula la probabilidad de recibir un 1, esto es, P(Y=1).

4) En un sistema de transmision se envıan bits (X) y por efecto del canal durante la propaga-cion, se recibe Y = X + R, donde R es el ruido aleatorio. Se dispone de los siguientes datos:P(X=0) = 0.4 ; P(X=1) = 0.6 ; P(Y=1/X=1) = 0.9 ; P(Y=0/X=0) = 0.6Calcula la probabilidad de recibir un 0, esto es, P(Y=0).

5) El contenido de dos cajas es el siguiente: en la caja 1 hay 2 bolas rojas y 8 blancas; la caja2 contiene 9 rojas y 6 blancas. Se elige de aleatoriamente una de las cajas y se toma unabola de ella, tambien al azar. Calcula la probabilidad de que la bola escogida sea roja.

Teorema de Bayes (10’)

En esta practica se simula un sistema de comunicacion binario. Se envıa una trama debits (secuencia de 50) con probabilidades fijas. En cada transmision se superpone ruido blancogaussiano y en recepcion se usa el sımbolo ruidoso recibido para estimar el transmitido. Comoconsecuencia existe una cierta probabilidad de error y el comportamiento del sistema se describemediante las probabilidades de que el sımbolo detectado sea 0 o 1 en funcion de cual fue el sımbolotransmitido.

Pulsando el boton Iniciar trama se genera una trama. En base a los datos obtenidos (enla parte inferior de la pantalla) se pide que se calculen las frecuencias relativas condicionadas y lafrecuencia relativa de errores cometidos. Las casillas se deben rellenar con cuidado para introducirsolamente caracteres numericos. Una vez realizada la simulacion, realiza las cuestiones.

Cuestiones:Con la informacion dada en la practica, esto es:P(X = 0) = P(X = 1) = 0.5 ; P(Y = 0/X = 0) = 0.8; P(Y = 1/X = 1) = 0.9Resuelve las siguientes cuestiones:1) Calcula P(X = 0/Y = 0).2) Calcula P(X = 1/Y = 0).3) Calcula P(X = 1/Y = 1).4) Calcula P(X = 0/Y = 1).5) Calcula la probabilidad de error de transmision

Page 24: Todo Unido Pe 2011

Algunos resultados sobre series

Funciones exponenciales

∞∑k=0

ak

k!= ea

Suma de los terminos de una progresion geometrica

m∑k=α

rk =rα − rm+1

1− r

Si |r| < 1 , se puede calcular tambien la suma infinita:

∞∑k=α

rk =rα

1− r

Suma de los terminos de una progresion aritmetica

m∑k=α

k =m+ α

2(m+ α + 1)

(Primero+ultimo) dividido por dos y multiplicado por el numero de sumandos, o lo que es lomismo, la media multiplicada por el numero de sumandos.

Suma de los terminos de una progresion aritmetico-geometrica

∞∑k=1

krk−1 = S

Calcularemos S del siguiente modo:

S = 1r0 + 2r1 + 3r2 + . . .

rS = 1r1 + 2r2 + 3r3 + . . .

Si restamos las dos expresiones:

(1− r)S = r0 + r1 + r2 + . . . = (progresion geometrica) =r0

(1− r)(siempre que |r| < 1)

Por lo que, despejando:

S =1

(1− r)2

Observacion: Si en lugar de comenzar la suma en k = 1, lo hace en cualquier otro ındice, o si lasuma fuese finita en lugar de infinita, las cuentas serıan analogas.

Page 25: Todo Unido Pe 2011

TEMA 2 – VARIABLES ALEATORIAS UNIDIMENSIONALES

PROBABILIDAD Y ESTADÍSTICA (PE)

2010/2011

Page 26: Todo Unido Pe 2011

Universidad de Vigo. PyE. Tema 2: Variables aleatorias unidimensionales 2.1

Tema 2. Variables aleatorias

unidimensionales

1. Introduccion

En el tema de probabilidad hemos considerado experimentos aleatorios en los que defini-mos los sucesos de forma cualitativa, independientemente de la naturaleza del experimento. Porejemplo, un suceso A podıa referirse a un error de transmision en un sistema de comunicacion oa que ha salido el numero siete al lanzar un dado. En todo caso, siempre se aplico la teorıa a unconjunto de sucesos cualitativos a los que nos referıamos mediante letras mayusculas (A, B, C,etc).

En la practica, existen muchos experimentos donde se manejan variables cuantitativas. Enel campo de las telecomunicaciones tiene interes realizar medidas de ruido en un sistema detransmision o conocer el numero de llamadas que se encaminan a traves de una central telefonica.En estos casos se suelen plantear preguntas acerca de la probabilidad que existe de que el ruidoo el numero de llamadas encaminadas superen un cierto umbral. Los sucesos ası definidos secorresponden con un intervalo de valores de la variable observada. Emplear una notacion basadaen sucesos cualitativos para definir este tipo de sucesos asociados a variables cuantitativas es pocopractico. Resulta mucho mas natural e intuitivo asignar un nombre a la variable de interes, porejemplo X, y definir los sucesos de la forma X ≥ u, donde u serıa el umbral. Esta notaciones mucho mas versatil para referirse a variables cuantitativas y permite facilmente designar a losposibles sucesos de interes, que generalmente seran del tipo X = x1, x1 < X ≤ x2, X < x1,etc. Como la variable X esta asociada a un experimento no determinista y no se conoce el valorconcreto que va a tomar en una realizacion determinada (aunque se conozca el rango), se diceque es una variable aleatoria.

Como veremos a continuacion, una variable aleatoria es, matematicamente hablando, unafuncion que asigna a los resultados de un experimento un numero real. Cuando se manejan ex-perimentos cuantitativos no es necesario realizar esta asignacion y el hecho de que la variablealeatoria sea una funcion queda totalmente difuminado (se puede pensar que es la funcion iden-tidad). Se trabaja directamente con los valores que toma la variable. Sin embargo, las variablesaleatorias tambien se pueden utilizar con experimentos cualitativos. En ese caso se realiza unatransformacion del espacio de probabilidad, asignando a cada resultado cualitativo del experi-mento un numero real. De este modo, la variable aleatoria aporta una representacion equivalentedel problema en terminos cuantitativos, que en algunos casos puede resultar mas manejable.

2. Definicion de Variable Aleatoria

Definicion: Variable Aleatoria (VA):

Dado ε : (Ω,F ,P), consideramos:

X : Ω −→ RX

donde RX es un subconjunto de R. Entonces diremos que X es una variable aleatoria si:

el conjunto X−1((−∞, x]) = ω ∈ Ω tales que X(ω) ≤ x es un suceso ∀x.

Page 27: Todo Unido Pe 2011

Universidad de Vigo. PyE. Tema 2: Variables aleatorias unidimensionales 2.2

R

!2 "

#

!3

#

!1

#

X(!2")#

X(!3")#

X(!1")#

RX se denomina rango de X, y es el conjunto de los posibles valores que puede tomar laVA. Si A = X−1(B) entonces se dice que A y B son sucesos equivalentes.

Cuando se manejan variables aleatorias, el espacio muestral original Ω se transforma en unnuevo espacio muestral RX definido sobre los numeros reales. En este nuevo espacio los sucesossuelen estar definidos como intervalos pertenecientes a la recta real. Todos estos sucesos tienensu suceso equivalente en el espacio muestral original. Por ejemplo:

X ≤ x = ω ∈ Ω/X(ω) ≤ x = X−1((−∞, x])

Notacion: las letras mayusculas (X) se emplean para representar VA y las minusculas (x)representan valores concretos que toman dichas VA.

La transformacion que se define mediante una VA conserva la medida de probabilidad asig-nando probabilidades iguales a sucesos equivalentes. A (RX ,FX) se le asocia una medida deprobabilidad PX tal que:

PX(B) = P(X−1(B)) ∀B ∈ FX

La terna (RX ,FX ,PX) constituye un espacio de probabilidad.

Ejemplo: Sea ε: “Lanzar una moneda”. Se definen los sucesos A: “Salir cara” y B: “Salircruz”, el espacio muestral es Ω = A,B. Si se define X: “Numero de caras que han salido”,entonces X(A) = 1 y X(B) = 0. La VA X aporta una representacion equivalente del problemadonde el nuevo espacio muestral es ΩX = 0, 1. Las probabilidades se asignan conservando lamedida de probabilidad: PX(X = 0) = P(B) = 1/2; PX(X = 1) = P(A) = 1/2.

Ejemplo: Sea ε: “Transmision de un bit”. Se definen los sucesos A: “Se transmite un 0” yB: “Se transmite un 1”, el espacio muestral es Ω = A,B. Si se define X: “Numero de veces quese transmite un bit 0”, entonces X(A) = 1 y X(B) = 0. A pesar de que el experimento es cuali-tativamente distinto al del ejemplo anterior, la VA resultante es equivalente y las consideracionesrealizadas son igualmente aplicables a este caso.

Definicion: Una VA compleja es de la forma Z=X+jY, donde X e Y son VA reales.

3. Clasificacion de variables aleatorias

Existen distintos tipos de VA en funcion del numero de posibles valores que pueden tomar,que son un reflejo de la distinta naturaleza de las variables observadas en experimentos reales. Si,por ejemplo, se mide el numero de bits transmitidos con error en una trama de N bits, el conjuntode posibles valores es finito. Cada uno de ellos llevara asociada una determinada probabilidadmayor que cero. Lo mismo ocurre si se mide el numero de transmisiones hasta que se produceun error. En este caso el rango de la variable es infinito y numerable y todos los posibles valorestienen una probabilidad no nula.

Page 28: Todo Unido Pe 2011

Universidad de Vigo. PyE. Tema 2: Variables aleatorias unidimensionales 2.3

Definicion: Se dice que una VA es discreta si su rango es finito o infinito numerable.

El numero de intentos necesarios para transmitir sin error un conjunto de bits se puedemodelar mediante una VA discreta.

Existe otro tipo de variables cuyos posibles valores son todos los pertenecientes a uno o variosintervalos de la recta real. Por ejemplo, el nivel de ruido en un sistema de comunicacion o el tiempode espera en una cola hasta que se puede emplear un determinado servicio. El rango resultantees un conjunto infinito no numerable de puntos. Como hemos visto en el capıtulo anterior, encualquier espacio muestral de este tipo se puede demostrar que es imposible asignar probabilidadesno nulas a todos los subconjuntos del espacio muestral, de tal forma que se verifiquen los axiomas.Concretamente, en los espacios muestrales no numerables definidos sobre la recta real, se asignanprobabilidades no nulas a los sucesos del tipo X ≤ x. Las probabilidades de los demas sucesosse derivan mediante la teorıa de la probabilidad. Como consecuencia, solamente un conjuntonumerable de sucesos del tipo X = x puede tener probabilidad no nula.

Por ejemplo la variable que mide el tiempo de espera hasta que se puede emplear un deter-minado servicio, el suceso X = 0, que ocurre cuando el servicio esta desocupado, tiene asignadauna probabilidad mayor que cero. En el resto del rango se asigna a los intervalos X ≤ x unaprobabilidad mediante una funcion continua de x que verifique los axiomas. Como consecuencia,P(X=x)=0 para todos los valores de X excepto el ya mencionado x=0.

Definicion: Se dice que una VA es continua si su rango es no numerable y todos los sucesosdel tipo X = x tienen asignada probabilidad cero.

El nivel de ruido en un sistema de comunicacion puede modelarse mediante una VA continua.

Definicion: Se dice que una VA es mixta si su rango es no numerable y todos los sucesos deltipo X = x tienen asignada probabilidad cero, excepto un conjunto numerable de ellos. Es unacombinacion de una VA continua y otra discreta.

El tiempo que transcurre desde que un paquete de datos llega a una central de comunica-ciones hasta que es encaminado puede modelarse mediante una VA mixta.

4. Funciones de distribucion y de densidad

En los experimentos aleatorios se desconoce el resultado que se va a obtener en una realiza-cion concreta. Sin embargo, se puede llegar a conocer el conjunto de los posibles resultados y lafrecuencia de aparicion a largo plazo de los mismos, es decir, su probabilidad. De hecho, describircompletamente un experimento aleatorio consiste precisamente en indicar todos sus resultadosposibles y sus probabilidades. En el caso de las variables aleatorias se emplean dos funciones quecontienen toda esta informacion, que son la funcion de distribucion de probabilidad y la funcionde densidad de probabilidad. Estas funciones constituyen dos formas distintas de almacenar lamisma informacion relativa a un experimento aleatorio. Ambas permiten calcular probabilidades ysu representacion grafica resulta util para ilustrar visualmente las caracterısticas mas importantesde la variable observada en el experimento.

Page 29: Todo Unido Pe 2011

Universidad de Vigo. PyE. Tema 2: Variables aleatorias unidimensionales 2.4

4.1. Funcion de distribucion

Definicion: Funcion de distribucion de una VA:Sea X una VA. Se define la funcion FX como

FX : R −→ [0, 1]

x → FX(x) = P(X ≤ x)

FX(x) se denomina Funcion de Distribucion (FD) de X, y representa, para cada valor de x,la probabilidad acumulada desde menos infinito hasta x. La FD es una funcion que esta definidaen todo R y cuya imagen es un valor de probabilidad. Escribiremos F (x) si no hay ambiguedad.

La FD en un valor de x determinado se interpreta desde un punto de vista frecuencial delmismo modo que la probabilidad de un suceso, puesto que FX(x) es igual a la probabilidad delsuceso X ≤ x. Por tanto, si realizamos muchas veces el experimento a partir del que se defineX, FX(x) coincidira asintoticamente con el cociente entre el numero de veces en que el resultadoobtenido es menor o igual que x y el numero total de veces que se realice el experimento.

Observacion: Las VA complejas carecen de FD (en el conjunto de los numeros complejos nohay orden); aunque existe la FD de la parte real y de la parte imaginaria.

Ejemplo 2.1: Sea X: “Numero de caras obtenidas al lanzar dos monedas”. Calcula su FD yrepresentala graficamente.

Propiedades de la FD:

1) F (−∞) = P(X ≤ −∞) = 0; F (+∞) = P(X ≤ +∞) = 1

2) Si x1 ≤ x2 entonces F (x1) ≤ F (x2) (F es no decreciente)

3) F (x+) = F (x) (F es continua por la derecha, ver la demostracion a continuacion)

4) P(X = x) = F (x)− F (x−) (ver demostracion a continuacion). Esto implica:Si F (x) es continua en x0 entonces P(X = x0) = 0Si F (x) es discontinua en x0 entonces P(X = x0) 6= 0

5) Si x1 < x2 entonces P(x1 < X ≤ x2) = F (x2)− F (x1)

Page 30: Todo Unido Pe 2011

Universidad de Vigo. PyE. Tema 2: Variables aleatorias unidimensionales 2.5

6) Analogamente a la propiedad anterior:P(x1 < X < x2) = F (x−2 )− F (x1)P(x1 ≤ X < x2) = F (x−2 )− F (x−1 )P(x1 ≤ X ≤ x2) = F (x2)− F (x−1 )

Demostraciones de algunas de las propiedades

demostracion de prop2 Si x1 ≤ x2 entonces F (x1) ≤ F (x2)

Si x1 ≤ x2 entonces: (−∞, x2] = (−∞, x1]⋃

(x1x2] siendo una union disjunta, por tanto:P((−∞, x2]) = P((−∞, x1]) + P((x1x2]) de donde:F (x2) = F (x1) + P((x1x2]) siendo esta ultima probabilidad mayor o igual que cero, por lo que se cumple la

desigualdad.

demostracion de prop3 F (x+) = F (x)

Por definicion, F (x+) = lımε→0+

F (x+ ε)

F (x+ ε) = P(X ≤ x+ ε) = P(X ≤ x) + P (x < X ≤ x+ ε)Cuando ε→ 0+, x tales que x < X ≤ x+ ε → x/x < X ≤ x = ∅, conlo que su probabilidad es cero. Por tanto:F (x+) = lım

ε→0+F (x+ ε) = P(X ≤ x) = F (x) como querıamos demostrar.

6 Departamento de Teoría de la Señal y Comunicaciones. Universidad de Vigo

Teorema: Cualquier función que verifique las propiedades 1), 2) y 3) de las FD es una FD de

alguna VA. Por tanto, el aspecto de una FD será como el de las figuras siguientes o como una

combinación de ambas. F(x)

x

1

F(x)

x

1

Obs: Las VA discretas se caracterizan por FD escalonadas. Cada uno de los valores que forman

parte del rango de una VA discreta tiene una probabilidad que da lugar a un salto en la FD

(propiedad 4). Por otra parte, entre dos valores adyacentes del rango no se acumula ninguna

probabilidad, y la FD presenta tramos de valor constante. La alternancia de saltos con tramos

constantes da a la FD de las VA discretas aspecto escalonado.

Obs: Las VA continuas se caracterizan por tener FD continuas. Las FD son continuas por la

derecha (propiedad 3), y en el caso de las VA continuas P(X=x)=0 para todo x, por lo que sus FD

son también continuas por la izquierda (propiedad 4), y, por lo tanto, continuas.

Obs: Las VA mixtas constituyen una combinación de las discretas y las continuas. Sus FD

alternan tramos continuos con escalones.

Dem: Propiedad 3) de la FD: F(x+

)=F(x)

Por definición,

!

F(x+) = lim

"#0+F(x + ")

F(x+!) = P(X ! x+!) = P(X ! x) + P(x< X ! x+!)

Cuando !"0+

, x/ x< X ! x+!"x/ x< X ! x=Ø, con lo que su probabilidad es cero.

Por tanto

!

F(x+) = lim

"#0+F(x + ") = P(X $ x) = F(x) como queríamos demostrar.

La FD es, por tanto, continua por la derecha. No se puede asegurar, sin embargo, que sea continua por la

izquierda. Si P(X=x0)>0, no es posible encontrar un valor de ! suficientemente pequeño como para que la diferencia

P(X ! x0)– P(X ! x0-!) sea tan pequeña como se desee.

Dem: Propiedad 4) de la FD: P(X=x)=F(x)-F(x-)

Por definición,

!

F(x") = lim

#$0+F(x " #)

F(x-!)=P(X ! x-!) = P(X ! x)–P(x-!< X ! x)

Cuando !"0+

, x/ x-! < X ! x"x/ x ! X ! x = X=x

Por tanto F(x-)=F(x)–P(X=x) como queríamos demostrar

Como consecuencia de esta propiedad, en las VA continuas se verifica que P(X=x)=0.

( ] X+!

#

X

!"0

#

( ] X X-! #

!"0

#

La FD es, por tanto, continua por la derecha. No se puede asegurar, sin embargo, que sea continua porla izquierda. Si P(X = x0) > 0 no es posible encontrar un valor de ε suficientemente pequeno como para que ladiferencia P(X ≤ x0)− P(X ≤ x0 − ε) sea tan pequena como se desee.

demostracion de prop4 P(X = x) = F (x)− F (x−)

Por definicion, F (x−) = lımε→0+

F (x− ε)F (x− ε) = P(X ≤ x− ε) = P(X ≤ x)− P(x− ε < X ≤ x)Cuando ε → 0+, x tales que x − ε < X ≤ x → x tales que x ≤ X ≤x = X = x.Por tanto F (x−) = F (x)− P(X = x) como querıamos demostrar.

6 Departamento de Teoría de la Señal y Comunicaciones. Universidad de Vigo

Teorema: Cualquier función que verifique las propiedades 1), 2) y 3) de las FD es una FD de

alguna VA. Por tanto, el aspecto de una FD será como el de las figuras siguientes o como una

combinación de ambas. F(x)

x

1

F(x)

x

1

Obs: Las VA discretas se caracterizan por FD escalonadas. Cada uno de los valores que forman

parte del rango de una VA discreta tiene una probabilidad que da lugar a un salto en la FD

(propiedad 4). Por otra parte, entre dos valores adyacentes del rango no se acumula ninguna

probabilidad, y la FD presenta tramos de valor constante. La alternancia de saltos con tramos

constantes da a la FD de las VA discretas aspecto escalonado.

Obs: Las VA continuas se caracterizan por tener FD continuas. Las FD son continuas por la

derecha (propiedad 3), y en el caso de las VA continuas P(X=x)=0 para todo x, por lo que sus FD

son también continuas por la izquierda (propiedad 4), y, por lo tanto, continuas.

Obs: Las VA mixtas constituyen una combinación de las discretas y las continuas. Sus FD

alternan tramos continuos con escalones.

Dem: Propiedad 3) de la FD: F(x+

)=F(x)

Por definición,

!

F(x+) = lim

"#0+F(x + ")

F(x+!) = P(X ! x+!) = P(X ! x) + P(x< X ! x+!)

Cuando !"0+

, x/ x< X ! x+!"x/ x< X ! x=Ø, con lo que su probabilidad es cero.

Por tanto

!

F(x+) = lim

"#0+F(x + ") = P(X $ x) = F(x) como queríamos demostrar.

La FD es, por tanto, continua por la derecha. No se puede asegurar, sin embargo, que sea continua por la

izquierda. Si P(X=x0)>0, no es posible encontrar un valor de ! suficientemente pequeño como para que la diferencia

P(X ! x0)– P(X ! x0-!) sea tan pequeña como se desee.

Dem: Propiedad 4) de la FD: P(X=x)=F(x)-F(x-)

Por definición,

!

F(x") = lim

#$0+F(x " #)

F(x-!)=P(X ! x-!) = P(X ! x)–P(x-!< X ! x)

Cuando !"0+

, x/ x-! < X ! x"x/ x ! X ! x = X=x

Por tanto F(x-)=F(x)–P(X=x) como queríamos demostrar

Como consecuencia de esta propiedad, en las VA continuas se verifica que P(X=x)=0.

( ] X+!

#

X

!"0

#

( ] X X-! #

!"0

#

Como consecuencia de esta propiedad, en las VA continuas se verifica que P(X = x) = 0 ∀x.

Teorema: Cualquier funcion que verifique las propiedades 1), 2) y 3) de las FD es una FDde alguna VA. Por tanto, el aspecto de una FD sera como el de las figuras siguientes o como unacombinacion de ambas.

F(x)

x

1

F(x)

x

1

Observacion: Las VA discretas se caracterizan por FD escalonadas. Cada uno de los valoresque forman parte del rango de una VA discreta tiene una probabilidad que da lugar a un saltoen la FD (propiedad 4). Por otra parte, entre dos valores adyacentes del rango no se acumulaninguna probabilidad, y la FD presenta tramos de valor constante. La alternancia de saltos contramos constantes da a la FD de las VA discretas aspecto escalonado.

Observacion: Las VA continuas se caracterizan por tener FD continuas. Todas las FD son

Page 31: Todo Unido Pe 2011

Universidad de Vigo. PyE. Tema 2: Variables aleatorias unidimensionales 2.6

continuas por la derecha (propiedad 3), y en el caso de las VA continuas, P(X = x) = 0 ∀x, porlo que sus FD son tambien continuas por la izquierda (propiedad 4), y, por lo tanto, continuas.

Observacion: Las VA mixtas constituyen una combinacion de las discretas y las continuas.Sus FD alternan tramos continuos con escalones.

Observacion: VA continuas y P(X = x) = 0

Este es un hecho que llama bastante la atencion y que parece bastante artificial. Si estamosrealizando un experimento fısico, siempre obtenemos una medida concreta de la variable obser-vada, aunque sea una variable de las que denominamos continuas. Por tanto, nuestra intuicionnos dice que un valor concreto cualquiera puede aparecer, es un valor posible y por tanto tieneuna cierta probabilidad. Esta idea choca con el modelo probabilıstico que se emplea para las VAcontinuas, que se caracteriza por asignar probabilidades nulas a sucesos del tipo X = x. Sinembargo, esta aparente limitacion del modelo probabilıstico basado en una VA continua paradescribir un experimento real, no supone un verdadero problema. Cuando se mide una variablecontinua, en la practica siempre se discretiza su valor al realizar la lectura de los sistemas demedida. Por tanto, al especificar la medida no estamos indicando un valor unico y especıfico,sino identificando, implıcitamente, un intervalo al que pertenece. Las variables continuas no semiden con precision infinita y el suceso X = x no tiene utilidad practica en este contexto. Lasprobabilidades se asignan a intervalos, y, por tanto, las VA continuas constituyen una herramientaperfectamente valida para caracterizar este tipo de experimentos.

En el esquema siguiente se representan los distintos tipos de VA que existen en funcion delrango de la variable que describen. Tambien se indican las caracterısticas de las FD que resultanen cada caso.

Page 32: Todo Unido Pe 2011

Universidad de Vigo. PyE. Tema 2: Variables aleatorias unidimensionales 2.7

4.2. Funcion de densidad

Definicion: Funcion de densidad de probabilidad de una VA. Sea X una VA. Se define:

fX(x) =dFX(x)

dx

fX(x) se denomina funcion de densidad de probabilidad (fdp) de X.

La fdp no siempre se puede obtener de acuerdo con la definicion anterior. Analizaremos losdistintos casos que se pueden dar en funcion del tipo de VA (continua, discreta o mixta). Ademas,propondremos metodos alternativos para definir la fdp cuando la derivada de la FD no existe. Entodo caso, la fdp de una VA es una funcion que se caracteriza por una serie de propiedades queveremos a continuacion.

Propiedades de la fdp:

1) f(x) ≥ 0 puesto que F (x) es no decreciente.

2)∫ +∞−∞ f(x)dx = 1. Es decir, el area bajo la curva es igual a una unidad.

−10 −5 0 5 100

0.05

0.1

0.15

0.2

x

f(x)

Area =1

3) F (x) =∫ x−∞ fX(y)dy

−10 −5 0 3 5 100

0.05

0.1

0.15

0.2

x

f(x)

F(x)=P(X ≤ 3)

4) P(x1 < X ≤ x2) = F (x2)− F (x1) =∫ x2x1fX(x)dx

Page 33: Todo Unido Pe 2011

Universidad de Vigo. PyE. Tema 2: Variables aleatorias unidimensionales 2.8

−10 −5 0 5 100

0.05

0.1

0.15

0.2

xf(

x)

P(3<X ≤ 5)

Teorema: Cualquier funcion que verifique las propiedades 1) y 2) de las fdp es una fdp dealguna VA.

Observacion: La fdp es una funcion que, al igual que la FD, permite calcular probabilidadesasociadas a cualquier suceso relativo a una VA. El valor concreto de la FD en un punto x es laprobabilidad acumulada hasta x, es decir P(X ≤ x). Por su parte el valor de la fdp en un puntorepresenta el incremento instantaneo de probabilidad, aunque no se trate de la probabilidad deningun suceso (por ejemplo, podrıa ser mayor que uno). La interpretacion mas sencilla de la fdpconsiste en tener presente que su integral entre dos puntos es igual a la probabilidad del intervalodefinido por ambos (propiedad 4 de la fdp).

A continuacion indicaremos las caracterısticas de las fdp de las VA continuas, discretas ymixtas.

4.2.1. fdp de las VA continuas

Las VA continuas se caracterizan por FD continuas, pudiendo darse dos situaciones:

1) FD derivable en todo el rango: en este caso la fdp se calcula directamente aplicando ladefinicion.

2) FD es no derivable en un conjunto numerable de puntos: en la figura que se representa acontinuacion, la FD presenta tres cambios de pendiente donde la funcion no es derivable(puntos x = 2, x = 6 y x = 9). En estos casos se asigna a f(x) un valor arbitrario positivo,puesto que no va a afectar a los calculos que se realicen. Estos puntos conflictivos puedenignorarse a la hora de determinar y representar la fdp pues al ser continua la VA tienenprobabilidad cero. Recordemos que para obtener una probabilidad con la fdp se calcula unaintegral en el intervalo de interes. La probabilidad es igual al area bajo la curva, que nodepende de un valor aislado de f(x).

2 6 9

0

0.4

1

F(x)

2 6 9

0

0.1

0.2

f(x)

Page 34: Todo Unido Pe 2011

Universidad de Vigo. PyE. Tema 2: Variables aleatorias unidimensionales 2.9

En las VA continuas, como P(X=x)=0, se verifica:

P(x1 < X ≤ x2) = P(x1 < X < x2) = P(x1 ≤ X ≤ x2) = P(x1 ≤ X < x2) =

∫ x2

x1

fX(x)dx

Ejercicio 2.1: (Stark, Problema 2.2, Pag. 100) En un restaurante conocido por su inusual servicio,el tiempo X, en minutos, que un cliente tiene que esperar hasta que es atendido por un camareroviene especificado por la siguiente FD:

F (x) =

x2/4 si 0 ≤ x ≤ 1x/4 si 1 ≤ x ≤ 21/2 si 2 ≤ x ≤ 10x/20 si 10 ≤ x ≤ 20

1 si x ≥ 20

a) Representa graficamente F (x).b) Calcula y representa graficamente f(x). Verifica que el area bajo la curva es igual a la unidad.c) ¿Cual es la probabilidad de que el cliente tenga que esperar al menos 10 minutos?d) ¿Cual es la probabilidad de que el cliente tenga que esperar menos de 5 minutos?e) ¿Cual es la probabilidad de que el cliente tenga que esperar entre 5 y 10 minutos?f)¿ Cual es la probabilidad de que el cliente tenga que esperar exactamente 1 minuto?

Page 35: Todo Unido Pe 2011

Universidad de Vigo. PyE. Tema 2: Variables aleatorias unidimensionales 2.10

4.2.2. fdp de las VA discretas

Las VA discretas se caracterizan por FD escalonadas, es decir, o son constantes o sondiscontinuas siendo el salto de discontinuidad siempre finito e inferior a una unidad. Por lo tanto,la derivada de la FD o bien es nula, o bien no esta definida. Para poder definir la fdp en elcaso discreto, de tal forma que verifique las propiedades caracterısticas que definen a una fdp, serecurre a la funcion delta o funcion impulso.

Definicion: Funcion delta o Impulso δ(x) es una funcion generalizada que se define por lasiguiente propiedad: ∫

A

φ(x)δ(x− x0)dx = φ(x0)

donde φ es cualquier funcion continua en x0 y el punto x0 ∈ A (dominio de integracion). Se diceque la δ esta centrada o ubicada en el punto x0.

La funcion delta nos permite definir la derivada generalizada de una funcion. Sea G unafuncion discontinua en x0. Se define su derivada generalizada:

dG(x)

dx

∣∣∣∣x=x0

=[G(x+0 )−G(x−0 )

]δ(x− x0)

La idea de la funcion delta es que, a la hora de integrar, nos permita recuperar el valor delsalto en el punto x0.

Ejemplo: La funcion escalon unidad se define como:

U(x) =

0 si x < 01 si x > 0

U(x) es una funcion discontinua en x = 0. Su derivada generalizada es precisamente δ(x),esto es, una delta centrada en x = 0.

Se puede definir la f(x) en un punto de discontinuidad de F (x) a partir de la derivadageneralizada:

f(x0) =[F (x+0 )− F (x−0

]δ(x− x0) = P(x = x0)δ(x− x0)

La magnitud del impulso coincide con la magnitud del escalon de la FD, que a su vezcoincide con la probabilidad de que la VA tome el valor x0.

Observacion: La funcion delta, en lo que se refiere a su aplicacion en el campo de las VA, noencierra un significado cualitativo intrınseco. Es simple y unicamente, una herramienta matemati-ca que nos permite caracterizar y representar los resultados de un experimento discreto. Como entodo experimento aleatorio nos interesa conocer los posibles valores y sus probabilidades. En len-guaje matematico expresamos esta situacion mediante un conjunto de deltas, cada una centradaen cada valor de la VA y con magnitud igual a su probabilidad. Ademas, la propiedad que definea la funcion delta, permite que la suma de todos estos impulsos sea una fdp, verificando todaslas propiedades caracterısticas. Al hacer la integral de una delta agregamos el valor del salto dela discontinuidad en el punto en el que la delta esta centrada.

Observacion: Otra forma equivalente a la fdp de representar la informacion acerca de unexperimento aleatorio discreto es mediante la funcion de masa de probabilidad. Simplemente es lafuncion que, definida en los valores del rango de la VA, asigna a cada uno de ellos su probabilidad(P(X = xi) = pi). No emplea la funcion delta, pero conocer una es equivalente a conocer la otra.

Page 36: Todo Unido Pe 2011

Universidad de Vigo. PyE. Tema 2: Variables aleatorias unidimensionales 2.11

En la siguiente figura se representa una FD y una fdp genericas de una VA discreta X. La funcionde masa de probabilidad serıa:

RX = x1, x2, ...., xn, ..; P(X = xi) = pi con pi > 0 ∀i

Evidentemente: ∑∀i

pi = 1

La FD presenta discontinuidades en los puntos xi. Para definir la fdp se recurre a la derivadageneralizada:

f(x) =∑∀i

piδ(x− xi) =∑∀i

[F (xi)− F (x−i )

]δ(x− xi)

Observacion: La fdp de una VA discreta y su funcion de masa de probabilidad son equivalen-tes. Para conocer la fdp necesitamos conocer donde estan ubicadas las deltas (lo cual es el rangode la VA RX) y la magnitud de cada delta (lo cual es la probabilidad asociada a cada punto, pi),por lo que conociendo la fdp conocemos automaticamente la funcion de masa de probabilidad yviceversa.

Observacion: En las VA discretas, la probabilidad de un determinado intervalo puede variaren funcion de que sea abierto, cerrado o semiabierto. Calcular la probabilidad de un intervaloconsiste en sumar la magnitud de las deltas incluidas en dicho intervalo, por lo que el problemase reduce precisamente a identificar cuales estan incluidas.

Ejemplo 2.2: Demuestra las propiedades 1), 2) y 3) de las fdp para el caso discreto.

Page 37: Todo Unido Pe 2011

Universidad de Vigo. PyE. Tema 2: Variables aleatorias unidimensionales 2.12

Ejemplo 2.3: Sea X: “Numero de caras obtenidas al lanzar dos monedas”. Calcula su fdp yrepresentala graficamente (su FD se calculo en el ejemplo 2.1). Comprueba que se trata de unafdp.

4.2.3. fdp de las VA mixtas

Las VA mixtas son una combinacion de las discretas y las continuas. Globalmente presentanun rango no numerable, pero algunos de los valores de su rango tienen probabilidades no nulas.Como consecuencia, la FD alterna escalones con regiones continuas, siendo al menos una deellas no constante. Para calcular la fdp basta con identificar los escalones, que se representaranmediante una funcion delta. En los demas puntos se calcula la derivada de la FD. Por ejemplo,en las figuras siguientes se representan la FD y la fdp de una VA mixta con un impulso en x = 0.

0 2 4 60

0.2

0.4

0.6

0.8

1

x

F(x)

0 2 4 60

0.2

0.4

0.6

0.8

1

x

f(x)

5. Distribuciones notables

En la naturaleza existen experimentos que son practicamente equivalentes desde el puntode vista probabilıstico a pesar de que pertenezcan a ambitos cientıficos completamente distintos.Por ejemplo, existe un cierto paralelismo entre una variable que mide el numero de caras quese obtienen al lanzar una moneda 10 veces, y una segunda variable definida como el numero debits que se transmiten correctamente en una trama de 10 bits. Como consecuencia, existen distri-buciones de probabilidad que aparecen con frecuencia en la practica. Estas distribuciones sirvenpara describir el comportamiento probabilıstico de VA asociadas a situaciones experimentales de

Page 38: Todo Unido Pe 2011

Universidad de Vigo. PyE. Tema 2: Variables aleatorias unidimensionales 2.13

caracterısticas similares. En este apartado estudiaremos las mas comunes, distinguiendo entrediscretas y continuas. Realmente, estudiaremos familias de distribuciones que en funcion del valoro valores de uno o mas parametros dan lugar a distribuciones diferentes.

5.1. Distribuciones discretas notables

5.1.1. Distribucion de Bernoulli

Definicion: Distribucion de Bernoulli: Ber(p) con p ∈ [0, 1]

Dado ε : (Ω,F ,P), sea un suceso A ∈ F tal que P(A) = p y P(Ac) = 1− p. Se realiza unavez el experimento y se define la VA X: “Numero de veces que ocurre A”. Entonces X ∼ Ber(p).

X(ω) =

1 si ω ∈ A

0 si ω /∈ A

Entonces, RX = 0, 1 con probabilidades: P(X = 1) = P(A) = p; P(X = 0) = 1− P(A) = 1− p

Una vez conocida la funcion de masa de probabilidad conocemos la fdp:

f(x) = (1− p)δ(x− 0) + pδ(x− 1)

0 10

1!p

1

FD de X~Ber(p)

0 1

1!p

p

1

x

fdp de X~Ber(p)

La distribucion de Bernoulli describe una situacion muy sencilla en la que nos interesaobservar si ha ocurrido un determinado tipo de suceso o su complementario. Por ejemplo, en unacadena de produccion podrıan ser los sucesos defectuoso y no defectuoso, y en un sistema detransmision podrıan ser transmision correcta o erronea.

5.1.2. Distribucion binomial

Definicion: Distribucion Binomial: Bi(n, p) con n ∈ N, p ∈ [0, 1]

Dado ε : (Ω,F ,P), sea un suceso A ∈ F tal que P(A) = p y P(Ac) = 1 − p. Se repiteel experimento n veces de modo independiente, es decir, el valor de p es constante en todas lasrepeticiones. Se define la VA X: “Numero de veces que ocurre A en n realizaciones”. EntoncesX ∼Bi (n, p).

Page 39: Todo Unido Pe 2011

Universidad de Vigo. PyE. Tema 2: Variables aleatorias unidimensionales 2.14

Observacion: Generalmente al suceso A se le denomina exito, y ası, se dice que la VA mideel numero de exitos en n intentos.Vamos a calcular la fdp de esta distribucion. Evidentemente, el rango viene dado por:

RX = 0, 1, 2, . . . , n

Para calcular P (X = k) hay que tener en cuenta que existen distintos resultados elementalesdel experimento incluidos en el suceso X = k. Este suceso se refiere al numero total de vecesque ocurre el suceso A durante las n realizaciones, independientemente del orden en que hayanaparecido. Supongamos n = 4. El suceso X = 2 incluye todos los resultados siguientes:

AAAcAc, AAcAAc, AAcAcA,AcAcAA,AcAAcA,AcAAAc

Cualquiera de estos sucesos tienen la misma probabilidad. Cada uno de ellos es una inter-seccion de sucesos independientes, por tanto:

P(AAAcAc) = P(AAcAAc) = · · · = P(AcAAAc) = P(A)2P(Ac)2 = p2(1− p)2

Como el suceso X = 2 es la union de todos los sucesos anteriores, y estos son disjuntosentre sı, P(X = 2) se obtendra mediante la suma de las probabilidades. Como todos los terminosson equiprobables:

P(X = 2) = (Numero de ordenaciones posibles) ∗ p2(1− p)2

El numero de ordenaciones posibles es el numero de combinaciones de 4 elementos tomadosde 2 en 2:

C4,2 =

(42

)=

4!

(4− 2)!2!= 6

En el caso general un suceso elemental con k exitos y (n−k) fracasos tiene una probabilidadpk(1− p)n−k. El numero de ordenaciones posibles son las combinaciones de k elementos en n:

Cn,k =

(nk

)=

n!

(n− k)!k!

Por tanto:

P(X = k) =

(nk

)pk(1− p)n−k con k = 0, 1, 2, . . . , n

Una vez conocida la funcion de masa de probabilidad conocemos la fdp:

f(x) =n∑k=0

(nk

)pk(1− p)n−k δ(x− k)

0 1 2 3 4 5 6 70

0.1

0.2

0.3

0.4

0.5fdp de X~Bi(7,0.5)

0 1 2 3 4 5 6 70

0.1

0.2

0.3

0.4

0.5fdp de X~Bi(7,0.9)

Observacion: Por el Binomio de Newton se comprueba que las probabilidades suman 1. Esta

Page 40: Todo Unido Pe 2011

Universidad de Vigo. PyE. Tema 2: Variables aleatorias unidimensionales 2.15

propiedad da nombre a la distribucion:

n∑k=0

P(X = k) =n∑k=0

(nk

)pk(1− p)n−k = (p+ 1− p)n = 1

Observacion: Una VA binomial se puede ver como una suma de VA de Bernoulli asociadacada una de ellas a un realizacion independiente del experimento:

X =n∑k=0

Xk, donde Xk ∼ Ber(p)

La distribucion binomial se emplea en diversos ambitos. Surge, por ejemplo, al medir elnumero de errores que se producen en n transmisiones independientes de un sistema de comuni-cacion, el numero de unidades defectuosas que aparecen en n elegidas al azar en una cadena deproduccion, el numero de mutaciones que se producen en un conjunto de genes, etc.

5.1.3. Distribucion geometrica

Definicion: Distribucion Geometrica: Geo(p) con p ∈ [0, 1]

Dado ε : (Ω,F ,P), sea un suceso A ∈ F tal que P(A) = p y P(Ac) = 1− p. Al suceso A sele denomina exito.

Se repite el experimento, de forma independiente, un numero indeterminado de veces; esdecir, p es constante para todas las repeticiones. Se define la VA X: “Numero de intentos hastaque ocurre el primer exito”. Entonces X ∼ Geo(p).

RX = 1, 2, ..., n, .... X tiene rango infinito numerable.

Para que ocurra el suceso X = k tienen que producirse (k− 1) fracasos en los (k− 1) primerosintentos, y, posteriormente, un exito en el intento k-esimo (especıficamente en ese orden). Setrata de una interseccion de sucesos. Cada exito ocurre con probabilidad p y cada fracaso conprobabilidad (1− p). Por tanto:

P (X = k) = (1− p)k−1p

Una vez conocida la funcion de masa de probabilidad, la fdp sera:

f(x) =∞∑k=0

(1− p)k−1p δ(x− k)

1 2 3 4 5 6 7 80

0.2

0.4

0.6

0.8

fdp de X~Geo(0.5)

1 2 3 4 5 6 7 80

0.2

0.4

0.6

0.8

fdp de X~Geo(0.9)

Page 41: Todo Unido Pe 2011

Universidad de Vigo. PyE. Tema 2: Variables aleatorias unidimensionales 2.16

Observacion: Existe otra version de la distribucion geometrica que cuenta el numero defracasos antes del primer exito. Evidentemente ambas VA son equivalentes, tan solo estan despla-zadas una unidad. La distribucion geometrica tambien se conoce con el nombre de distribucionde Pascal.

Ejercicio 2.2: Demuestra que la expresion de la fdp de la geometrica cumple las propiedades quedefinen a una fdp.

La distribucion geometrica tambien es de uso comun. Variables como el numero de veces quehay que transmitir un paquete de datos hasta que llega a su destino o el numero de veces que senecesita participar en un juego de azar hasta que se consigue un premio, siguen una distribuciongeometrica.

Ejemplo 2.4: En un sistema de transmision binario se puede producir un error, en cada transmi-sion, con probabilidad p. Sabiendo que las transmisiones son independientes, calcula:a) La probabilidad de que no se produzca ningun error en 6 transmisiones.b) La probabilidad de que el primer error se produzca en la sexta transmision.c) La probabilidad de que se produzca exactamente un error en 6 transmisiones.

5.1.4. Distribucion de Poisson

Definicion: Distribucion de Poisson: P(λ) con λ > 0

La distribucion de Poisson esta asociada a variables que miden el numero de sucesos deun determinado tipo que ocurren por unidad de tiempo. Para que este tipo de variables tenganuna distribucion de Poisson, se tienen que dar determinadas circunstancias en el experimento(independencia de ocurrencias, numero medio de ocurrencias por unidad de tiempo constante,etc). La funcion de masa de probabilidad viene dada por:

Page 42: Todo Unido Pe 2011

Universidad de Vigo. PyE. Tema 2: Variables aleatorias unidimensionales 2.17

RX = 0, 1, ..., n, .... X tiene rango infinito numerable.

P (X = k) = e−λ[λk

k!

]Una vez establecida la funcion de masa de probabilidad, la fdp sera:

f(x) =∞∑k=0

e−λ[λk

k!

]δ(x− k)

0 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 170

0.05

0.1

0.15

0.2fdp de X~P(5)

0 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 170

0.05

0.1

0.15

0.2fdp de X~P(8)

Ejercicio 2.3: Demuestra que la expresion de la fdp de una VA con distribucion de Poissoncumple las propiedades que definen a una fdp.

5.2. Distribuciones continuas notables

5.2.1. Distribucion uniforme

Definicion: Distribucion Uniforme: U(a, b) con a < b

Sea X una VA tal que RX = (a, b). La variable sera uniforme si la probabilidad de unintervalo es proporcional a la longitud del mismo. Esto es, dado un intervalo (x, x+4x) ⊂ (a, b),P(x < X ≤ x+4x) = k4x, independientemente de x. Entonces X ∼ U(a, b).

La distribucion uniforme es una generalizacion al caso continuo de los espacios discretosequiprobables. En el caso continuo la equiprobabilidad se manifiesta en los intervalos, cuya pro-babilidad solo depende de su longitud (siempre que esten incluidos en el rango de la VA).

Page 43: Todo Unido Pe 2011

Universidad de Vigo. PyE. Tema 2: Variables aleatorias unidimensionales 2.18

f(x) =

1

b− asi a < x < b

0 otro caso

a b 0

1/(b!a)

fdp de X~U(a,b)

F (x) =

0 si x ≤ a

x− ab− a

si a < x < b

1 si x ≥ b

a b0

1

FD de X~U(a,b)

La distribucion uniforme se emplea en casos en los que la probabilidad se reparte de formahomogenea en todo el rango de una VA continua, es decir, cuando intervalos iguales tienen lamisma probabilidad. En el campo de las telecomunicaciones se utiliza, por ejemplo, para modelarel error de cuantificacion que se produce en la digitalizacion de senales o para modelar la fase deuna senal.

Ejercicio 2.4: Demuestra que la expresion de la fdp de una VA con distribucion uniforme cumplelas propiedades que definen a una fdp.

5.2.2. Distribucion exponencial

Definicion: Distribucion exponencial: exp(α) con α > 0

La distribucion exponencial esta ligada a la distribucion de Poisson. Si el numero de ocu-rrencias de un determinado tipo de suceso en una unidad de tiempo sigue una distribucion dePoisson, entonces el tiempo que transcurre entre dos ocurrencias consecutivas sigue una distri-bucion exponencial, y viceversa. Por ejemplo, si el numero de demandas de lınea que llegan auna central telefonica sigue una distribucion de Poisson, el tiempo que pasa entre dos demandasconsecutivas se distribuye exponencialmente.

Page 44: Todo Unido Pe 2011

Universidad de Vigo. PyE. Tema 2: Variables aleatorias unidimensionales 2.19

f(x) =

αe−αx si x > 0

0 otro caso

0 2 4 6

0

0.2

0.4

0.6

0.8

!=1

fdp de X" exp(! = 1)

F (x) =

0 si x < 0

1− e−αx si x ≥ 0

0 2 4 6

0

0.2

0.4

0.6

0.8

1

FD de X !exp(" = 1)

Ejercicio 2.5: Demuestra que la expresion de la fdp de una VA con distribucion exponencialcumple las propiedades que definen a una fdp.

La distribucion exponencial tambien esta ligada a la distribucion geometrica. Recordemosque la geometrica es una distribucion discreta que surge al medir el numero de intentos hasta queocurre un determinado suceso (exito), siempre que en cada intento su probabilidad sea la misma.La exponencial se utiliza en situaciones similares en las que en lugar de medir numero de intentos,se mide una magnitud continua (tiempo, distancia, etc.). Por ejemplo, si la probabilidad de quese produzca una llamada a traves de una lınea telefonica se supone constante para cualquierinstante de tiempo, el tiempo que pasa hasta que se produce una llamada sigue una distribucionexponencial.

Ambas distribuciones, exponencial y geometrica, comparten una propiedad; son distribu-ciones sin memoria. Esta propiedad se deriva del tipo de experimento a partir del cual se handefinido. En el caso de una geometrica, el saber que se han producido, por ejemplo, 4 intentos sinexito, no nos proporciona ninguna informacion sobre los intentos que quedan. Lo mismo ocurresi en el caso de la exponencial han pasado 3.25 segundos sin que ocurra el suceso de interes. Esdecir, el tiempo que queda hasta que ocurre un exito despues de un numero cualquiera de fracasossigue teniendo una distribucion geometrica o exponencial respectivamente.

Page 45: Todo Unido Pe 2011

Universidad de Vigo. PyE. Tema 2: Variables aleatorias unidimensionales 2.20

5.2.3. Distribucion normal

Definicion: Distribucion normal o gaussiana: N(µ, σ) con µ, σ ∈ R; σ > 0.

La distribucion gaussiana constituye un modelo probabilıstico adecuado para muchas va-riables reales y muy variadas: el ruido en un sistema de comunicacion, los errores de medidaen determinado tipo de observaciones, la altura de un conjunto de individuos, etc. En todos losambitos cientıficos existen variables aproximadamente normales. De hecho, el termino “normal”se le dio como consecuencia de su aparicion tan frecuente. Este fenomeno es debido, en parte, aque una variable, definida como la suma de muchos efectos aleatorios independientes y de similarpeso, sigue aproximadamente una distribucion gaussiana.

La distribucion normal es simetrica con respecto al parametro µ, es decir, f(µ−x) = f(µ+x),y tiene forma de campana, de ahı el nombre de campana de Gauss. La probabilidad se concentraen el eje de simetrıa y decae exponencialmente hacia los extremos. El parametro σ es proporcionala la dispersion de la distribucion con respecto al eje de simetrıa. Aproximadamente el 95 % dela probabilidad se concentra en un intervalo centrado en µ de radio 2σ. Para un radio de 3σ, laprobabilidad pasa a ser algo mas del 99 %.

La expresion analıtica de la fdp de una N(µ, σ) es:

f(x) =1

σ√

2πe−1

2

[(x− µ)2

σ2

]

Proposicion: La expresion anterior de f(x) cumple las propiedades de toda fdp, es decir, es

no negativa y verifica que

∫ +∞

−∞f(x)dx = 1.

La funcion que define la fdp de la normal no tiene primitiva, por lo que no existe una ex-presion analıtica exacta para la FD. Sus valores se pueden calcular numericamente por ordenadoro consultar en tablas. Aunque existen infinitas distribuciones gaussianas distintas (pues exis-ten infinitas combinaciones de parametros) es suficiente una unica tabla de la FD para calcularprobabilidades asociadas a cualquiera de ellas. Esto es debido a la siguiente propiedad:

Proposicion: Sea X ∼ N(µ, σ). Se define Z =X − µσ

. Entonces Z ∼ N(0,1).

Page 46: Todo Unido Pe 2011

Universidad de Vigo. PyE. Tema 2: Variables aleatorias unidimensionales 2.21

Esta proposicion sera demostrada en la seccion de transformaciones de VA. Esta propiedadpermite transformar un suceso cualquiera de una distribucion N(µ, σ) en otro suceso equivalen-te, con la misma probabilidad, asociado a una N(0,1). A la distribucion N(0,1) se le denominanormal estandar o normal tipo, y su FD es la que se tabula habitualmente.

Observacion: La notacion que se emplea para la distribucion normal no es universal. Aunquenosotros utilizaremos N(µ, σ), no es raro encontrar fuentes bibliograficas donde se utiliza N(µ, σ2).

En la figura siguiente se observa la influencia de los parametros en el aspecto de la distribu-cion. Un cambio en µ produce un desplazamiento del eje de simetrıa de la distribucion mientrasque el aumento de σ produce un incremento de la dispersion de la distribucion con respecto aleje de simetrıa.

!10 !5 µx=0 µy=5 10 0

0.1

0.2

0.3

0.4fdp de X~N(0,3) e Y~N(5,1)

5.2.4. Distribucion Rayleigh

Definicion: Distribucion Rayleigh: Ray(σ) con σ > 0

La distribucion de Rayleigh es una distribucion asimetrica cuya fdp es no nula unicamentepara valores positivos. Una de las variables que sigue esta distribucion es el modulo de un vectorde componentes aleatorias cuyas distribuciones son normales de media cero y varianza comun.

f(x) =

x

σ2e−1

2

[x2

σ2

]si x > 0

0 otro caso

0 1 2 3 4 5

0

0.1

0.2

0.3

0.4

0.5

0.6

fdp de Rayleigh(1)

Page 47: Todo Unido Pe 2011

Universidad de Vigo. PyE. Tema 2: Variables aleatorias unidimensionales 2.22

F (x) =

0 si x < 0

1− e−1

2

[x2

σ2

]si x ≥ 0

0 1 2 3 4 50

0.2

0.4

0.6

0.8

1

FD de Rayleigh(1)

6. Transformacion de variables aleatorias

En general, cualquier magnitud fısica que dependa de una VA tambien sera una VA. Supon-gamos un sistema formado por una resistencia sometida a una diferencia de potencial constante.Si el valor de la resistencia varıa aleatoriamente en funcion de distintos factores, como por ejemplola temperatura, la intensidad de corriente resultante tambien sera una VA. Si el tiempo que unvehıculo emplea en realizar un recorrido se puede modelar mediante una VA como consecuenciade las fluctuaciones del trafico, la velocidad media resultante tambien es aleatoria. Estos ejemplosse pueden modelar mediante un sistema que obtiene una senal de salida tras transformar unacierta senal de entrada. Como la senal de entrada es una VA, tambien lo es la senal de salida.

El problema general que se plantea consiste en determinar la distribucion de la senal (VA)de salida en funcion de la distribucion de la senal (VA) de entrada, que se supone conocida.En esta seccion analizaremos distintos metodos para resolver este problema, cuya complejidadvarıa mucho en funcion de las distribuciones de probabilidad y las transformaciones implicadas.Evidentemente los sistemas pueden tener multiples entradas y multiples salidas, con lo que elcalculo se puede complicar indefinidamente.

Una vez comprendidos estos contenidos podremos calcular, por ejemplo, la distribucion deltiempo que pasa hasta que un sistema se averıa en funcion de su arquitectura y de las distribucionesanalogas de sus componentes. Tambien podremos llegar a evaluar estadısticamente los errorescometidos en un sistema de cuantificacion o conocer la distribucion del tiempo que un usuarioemplea para poder disfrutar de un servicio en funcion de la distribucion del tiempo de espera ydel tiempo de uso del servicio.

Planteamiento del problema

Dada una VA X, se define Y = g(X), donde g define una transformacion de X. En general,Y va ser tambien una VA, pues recordemos que una VA no era mas que una funcion de un espaciode probabilidad en R. Obviamente Y = g(X) es una composicion de las dos funciones g y X porlo que sigue siendo una funcion de un espacio de probabilidad en R, es decir, una VA.

Para tener un espacio de probabilidad sobre RY necesitamos definir una medida de proba-bilidad. La manera de hacerlo es asignar la misma probabilidad a los sucesos equivalentes. Engeneral, la fdp de X sera conocida y por lo tanto tambien lo seran las probabilidades asociadasa cualquier suceso A ∈ FX . La probabilidad de un suceso B ∈ FY es por definicion igual a laprobabilidad del suceso equivalente correspondiente en X. Por tanto la clave para calcular laprobabilidad de un suceso B relativo a Y esta en calcular el suceso equivalente en RX , es decir,

Page 48: Todo Unido Pe 2011

Universidad de Vigo. PyE. Tema 2: Variables aleatorias unidimensionales 2.23

en conocer g−1(B).Sea B ∈ FY . Entonces: PY (B) = PX(g−1(B))

Observacion Dado que la medida de probabilidad se conserva en una transformacion, habitual-mente notaremos directamente P(A) o P(B) en lugar de PX(A) o PY (B).

A continuacion veremos como aplicar esta idea sencilla al calculo de la FD de la VA Y yposteriormente enunciaremos un teorema para el calculo de su fdp.

6.1. Calculo de la FD de Y = g(X)

Para calcular la probabilidad de un suceso relativo a Y se debe determinar el suceso equi-valente en X, es decir la imagen inversa del suceso para la transformacion definida. En el casoconcreto de la FD el suceso de interes es Y ≤ y, y por tanto:

FY (y) = P(Y ≤ y) = P(x/g(x) ≤ y) = P(X ∈ g−1((−∞, y]))

Conceptualmente se trata de una operacion sencilla pero en la practica la dificultad paraobtener este suceso equivalente depende de como este definida la VA X y fundamentalmente dela transformacion g. En el caso particular de que X sea discreta la FD serıa:

FY (y0) = P(Y ≤ y0) =∑

i/yi≤y0

P(Y = yi) =∑

i/yi≤y0

∑j/g(xj)=yi

P(X = xj)

es decir, P(Y = yi) se calcula como la suma de las probabilidades de todos los valores de Xtales que g(xj) = yi. Por definicion FY (y0) se calcula como la suma de todas las probabilidadesasociadas a valores de Y menores o iguales que y0.

Ejemplo 2.5: Sea X una VA discreta cuyo rango es RX = −2,−1, 0, 1, 2. Se define Y = X2.Calcula la funcion de masa de probabilidad de Y sabiendo que los posibles valores de X sonequiprobables.

A continuacion vamos a ver una serie de situaciones que se pueden dar dependiendo de la formade la transformacion:

g(x) continua y no constante:

Para cada valor Y = y puede haber varias inversas. En el ejemplo dela figura hay 3 imagenes inversas y el suceso equivalente de Y ≤ y0se define a partir de la union de 2 intervalos en X:

g−1((−∞, y0]) = (−∞, x1]) ∪ [x2, x3]

y por tanto:

FY (y0) = P(X ≤ x1)∪x2 ≤ X ≤ x3) = FX(x1)+FX(x3)−FX(x+2 )

Page 49: Todo Unido Pe 2011

Universidad de Vigo. PyE. Tema 2: Variables aleatorias unidimensionales 2.24

g(x) escalonada:

Esta transformacion se corresponde por ejemplo con la funcion detransferencia de un conversor analogico-digital. La VA resultante Yes discreta. Para calcular la probabilidad asociada a cada uno desus valores hay que obtener la imagen inversa correspondiente. Porejemplo, Y = y1 y x1 < X ≤ x2 son sucesos equivalentes y portanto:

P(Y = y1) = FX(x2)− FX(x1)

g(x) constante en [x0, x1]:

Este caso se puede considerar como una mezcla de los anteriores.Aunque no es escalonada presenta un tramo constante. Como conse-cuencia Y = y0 tiene como suceso equivalente el intervalo [x0, x1].Por tanto:

P(Y = y0) = P(x0 ≤ X ≤ x1) = FX(x1)− FX(x−0 )

Si X es continua la expresion anterior es equivalente a:

P(Y = y0) = FX(x1)− FX(x0)

y la VA Y resultante sera mixta.

Ejemplo 2.6: Sea X ∼ U(−C,C). Se define Y = 1/X2. Calcula FY (y).

Page 50: Todo Unido Pe 2011

Universidad de Vigo. PyE. Tema 2: Variables aleatorias unidimensionales 2.25

Ejemplo 2.7: Un vehıculo realiza a diario un trayecto de longitud L metros. Como consecuenciade las fluctuaciones del trafico y de las condiciones meteorologicas, la velocidad que desarrolla esuna VA V ∼ U(a, b). Sea T el tiempo que tarda en realizar el trayecto.a) Representa graficamente la relacion entre T y V .b) Determina la funcion de distribucion de probabilidad de T .

6.2. Calculo de la fdp de Y = g(X). Teorema fundamental

Sea X una VA continua.Se define Y = g(X), siendo g una funcion real, derivable y no constante en RX .Para cada Y = y sean x1, x2, . . . , xn, . . . las raıces reales de y = g(x). Entonces:

fY (y) =∑∀i

fX(xi)

|g′(xi)|

Observaciones:

a) Si g(x) es discontinua, no derivable o con derivada nula en una cantidad numerable depuntos, el teorema se puede aplicar en todo el rango de X excepto en dichos puntos. ComoX es una VA continua (si no, el teorema no serıa aplicable), la imagen de un conjunto depuntos aislados tiene probabilidad cero y por lo tanto no tiene repercusion en la distribucionde probabilidad de Y . A la fdp de Y en la imagen de dichos puntos se le puede asignar unvalor arbitrario.

b) Si X es mixta el teorema es aplicable unicamente a la parte continua.

c) Si g(x) es constante en un intervalo el teorema no es aplicable en dicho intervalo. Como yahemos visto anteriormente, en estos casos la VA Y sera mixta. Si g(x) = y0 en el intervalo[x1, x2] la fdp de Y presentara un impulso δ(y − y0) de magnitud [FX(x2)− FX(x1)].

d) Si no existe ningun valor de x tal que g(x) = y0, entonces fY (y0) = 0.

e) El numero de raıces de y=g(x) puede ser infinito numerable.

Ejemplo resuelto 2.1:

Sea X una VA continua de fdp conocida. RX = [x0, x1]. Se define Y = aX + b (a > 0).Calcula fY (y).

Resolveremos este problema aplicando el teorema fundamental (tambien se puede calcularla FD mediante la obtencion del suceso equivalente y despues derivar). Una vez que se decide

Page 51: Todo Unido Pe 2011

Universidad de Vigo. PyE. Tema 2: Variables aleatorias unidimensionales 2.26

abordar un problema de transformaciones desde esta perspectiva, es recomendable dar una seriede pasos que vamos a ver a continuacion:

1) Comprobar si se verifican las hipotesis del teorema.

En este caso es evidente que sı. La VA X es continua (dato del problema) y la funcion g esderivable, real y no constante en todo el conjunto de los numeros reales.

2) Representar graficamente la transformacion

Segun cual sea la transformacion que se presente, puedenvariar aspectos fundamentales para el calculo de la nuevafdp, como por ejemplo el rango de Y o el numero deimagenes inversas correspondientes a cada uno de susvalores.

La representacion grafica nos obliga a realizar un analisisen profundidad de la transformacion y posteriormente nosproporciona de un vistazo la informacion mas significativaque necesitamos para aplicar el teorema fundamental.

3) Determinar el rango de la VA Y

A la vista de la transformacion grafica queda claro que los posibles valores de Y pertenecenal intervalo [ax0 + b, ax1 + b].

4) Obtener la imagen o imagenes inversas

Claramente para cada valor de y hay una unica imagen inversa, se trata de una transfor-macion biyectiva. La representacion grafica nos ayuda a ver claramente esta condicion.

Nuestro objetivo es obtener una expresion para fY (y) y por tanto dicha expresion debede escribirse en funcion de y ademas de otras cantidades o parametros que se considerenconocidos (en todo caso la expresion no debe quedar en funcion de x, que es la variable quese transforma). Por tanto, la imagen inversa de Y = y (que evidentemente se trata de unvalor de X) debe quedar expresada en funcion de y.

En nuestro caso particular sabemos que y = ax+ b

Por tanto el valor de x correspondiente a y se puede expresar como: x = (y − b)/aLa expresion que emplearemos para la imagen inversa sera pues (y − b)/aEn el caso general puede ocurrir que la expresion de la imagen inversa cambie para cadavalor de y, que haya varias imagenes inversas, que el numero de imagenes inversas varıe deunos valores de y a otros, etc.

5) Calcular la derivada de la transformacion. Expresarla en funcion de y.

En este caso la derivada de la transformacion es g′(x) = a. Por tratarse de un parametroconocido se puede utilizar directamente en la expresion de fY (y). Si g′(x) queda en funcionde x esta debe sustituirse por el valor correspondiente de y (del mismo modo que en laexpresion de la imagen inversa).

6) Obtener la fdp mediante la aplicacion del teorema.

Con la informacion recogida en los pasos anteriores, obtenemos la fdp de Y :

fY (y) =fX(y−b

a)

a∀y ∈ RY = [ax0 + b, ax1 + b]

Page 52: Todo Unido Pe 2011

Universidad de Vigo. PyE. Tema 2: Variables aleatorias unidimensionales 2.27

donde en el denominador figura directamente a, puesto que en este ejemplo se ha supuestoa > 0 y coincide con su valor absoluto.

Ademas de escribir la expresion de fY (y) es imprescindible indicar el rango de Y , el con-junto de valores de y para los que es valida. Para el resto de valores no especificados sesobreentendera que es nula.

Ejemplo 2.8: Sea X ∼ N(µ, σ). Se define Y = aX + b. Calcula fY (y). Estudia el caso particularen que a = (1/σ) y b = (−µ/σ).

A continuacion vamos a aplicar el teorema fundamental a distintas transformaciones de usocomun en ingenierıa. La transformacion del Ejemplo 2.9 es la que se aplica en un detector de leycuadratica y la del Ejemplo 2.10 es equivalente a la funcion de transferencia de un rectificador demedia onda.

Ejemplo 2.9: Sea X una VA continua con fdp conocida. Se define Y = aX2 (a > 0). CalculafY (y).

Page 53: Todo Unido Pe 2011

Universidad de Vigo. PyE. Tema 2: Variables aleatorias unidimensionales 2.28

Ejemplo 2.10: Sea X una VA continua con fdp conocida. Se define Y = (X + |X|)/2. CalculafY (y).

Ejemplo 2.11: Sea X una VA continua con fdp conocida. Se define Y = c exp(−αx)U(x) conα > 0, c > 0. Calcula fY (y).

Ejemplo 2.12: Sea X una VA continua con FD FX continua. Se define la transformacionY = FX(X). Calcula fY (y) bajo los siguientes supuestos:a) FX(x) es estrictamente crecienteb) FX(x) no es estrictamente creciente

Page 54: Todo Unido Pe 2011

Universidad de Vigo. PyE. Tema 2: Variables aleatorias unidimensionales 2.29

Resultado: Si X es una VA continua, la VA U = FX(X) sigue una distribucion U(0,1).

Este resultado se utiliza a menudo en simulacion para generar numeros aleatorios. En oca-siones solo se dispone de un generador de numeros aleatorios U∼ U(0,1). Si conocemos la FX(x)de la VA que queremos generar, bastara con aplicar a estos numeros aleatorios la transformacioninversa F –1

X (u).

Ejemplo 2.13: Se desea generar una muestra aleatoria con distribucion exp(α) Para ello sedispone unicamente de un generador de numeros aleatorios con distribucion U(0,1). Calcula latransformacion que se debe aplicar a los numeros obtenidos con el generador para obtener ladistribucion de probabilidad deseada.

Observacion: Cuando se transforma una VA la relacion que existe entre los sucesos equiva-lentes del dominio original y del transformado (de X e Y ) puede ser muy variada. Segun cual seala ley de transformacion puede haber diferencias muy importantes entre los rangos y la distri-bucion de probabilidad de ambas VA. En este sentido para conocer cual es la fdp o la FD de lanueva VA es necesario realizar un estudio minucioso de la transformacion y de como aplicar lasdiferentes tecnicas que se estudian en este capıtulo. Deben evitarse en cualquier caso las suposi-ciones comodas y poco rigurosas de que a pesar de que ha habido una transformacion se mantieneel tipo de distribucion de probabilidad (por ejemplo suponer que al transformar una uniforme semantiene la distribucion uniforme y solo cambian los parametros que determinan su rango).

7. Caracterısticas de una variable aleatoria

A menudo es interesante resumir ciertas propiedades de una VA y de su distribucion deprobabilidad en unos cuantos numeros. Estas cantidades deterministas no identificaran de forma

Page 55: Todo Unido Pe 2011

Universidad de Vigo. PyE. Tema 2: Variables aleatorias unidimensionales 2.30

unica a la VA, pero nos daran una idea de sus principales caracterısticas. En esta seccion seestudiaran los principales parametros de una VA; fundamentalmente ındices de localizacion y dedispersion.

7.1. Esperanza

Definicion: Llamaremos Esperanza (Media o Valor esperado) de una VA:

E(X) = µ =

∫ +∞

−∞xfX(x)dx

En el caso discreto, esta integral se convierte en:

E(X) = µ =∑∀i

xiP(X = xi)

Evidentemente, en un espacio equiprobable este es el concepto intuitivo y habitual de pro-medio. La media es un parametro de localizacion, nos da una idea de donde puede estar situadala variable estudiada.

Interpretacion frecuencial

Supongamos que X es una VA discreta tomando valores x1, x2, . . . , xk, . . .. Repetimos elexperimento n veces (siendo n suficientemente grande) y observamos ni = numero de veces queobtenemos el valor xi; con lo que fr(xi) = ni/n. La esperanza de X serıa:

E(X) ≈∑∀i

xifr(xi) =n1x1 + · · ·+ nkxk + . . .

n

La media puede entenderse desde el punto de vista frecuencial como el lımite del promediode muestras de la misma VA, cuando el numero de muestras tiende a infinito.

Observacion: La esperanza se define como una integral (o como una serie en el caso discreto).Esta integral puede que no siempre exista. De hecho, algunas VA carecen de media.

Ejemplo: Sea X: “Valor obtenido en el lanzamiento de un dado”. X toma valores en1, 2, . . . , 6 con probabilidad 1/6. Por tanto: E(X) = (1 + 2 + . . . + 6)/6 = 3.5.

Ejemplo: Sea X ∼ U(a, b). Entonces:

E(X) = µ =

∫ b

a

x

b− adx =

1

b− ab2 − a2

2=b+ a

2

Las principales propiedades de la esperanza son:

1) Si la fdp es simetrica respecto a un punto, ese punto ha de ser necesariamente la media.Es decir, si f(a + x) = f(a − x) ∀x, entonces E(X) = a. En particular, si la fdp es parentonces la media es cero. Por ejemplo, una uniforme es simetrica respecto al punto mediodel intervalo donde esta definida, por lo que este punto es la media.

2) La media de una VA no tiene porque ser uno de los posibles valores de la variable. En elejemplo del lanzamiento de un dado, la media (3.5) no pertenece al rango de la VA.

Page 56: Todo Unido Pe 2011

Universidad de Vigo. PyE. Tema 2: Variables aleatorias unidimensionales 2.31

3) Teorema fundamental para esperanzasBajo las mismas hipotesis del teorema fundamental. Si Y = g(X) entonces:

E(Y ) =

∫ +∞

−∞yfY (y)dy =

∫ +∞

−∞g(x)fX(x)dx

El teorema tambien es cierto en el caso discreto:

E(Y ) =∑∀j

yjP(Y = yj) =∑∀i

g(xi)P(X = xi)

El teorema fundamental para esperanzas nos permite calcular la media de una transforma-cion sin necesidad de calcular la fdp de la variable transformada.

4) La esperanza es un operador lineal, es decir: E(aX + b) = aE(X) + b

Ejemplo resuelto 2.2: Sea X una VA N(0, σ). Hacemos la transformacion Y = X2. Calcula E(Y )

E(Y ) = E(g(X)) =

∫ +∞

−∞g(x)fX(x)dx =

1

σ√

∫ +∞

−∞x2 e−

x2

2σ2 dx∗=

1√2π

∫ +∞

−∞σ2z2e−z

2/2dz∗∗=

∗ z = x/σ ⇒ dz = dx/σ (tipificamos) ∗ ∗

z = u ⇒ dz = du

ze−z2/2dz = dv ⇒ v = −e−z2/2

∗∗=

σ2

√2π

−ze−z2/2]+∞−∞︸ ︷︷ ︸

=0

−∫ +∞

−∞−e−

z2

2 dz

= σ2

∫ +∞

−∞

1√2πe−

z2

2 dz = σ2

∫ +∞

−∞f(z)dz = σ2

Por tanto, E(Y ) = E(X2) = σ2

Otros ındices de localizacion son la moda: el valor en el que se alcanza el maximo de la fdpo, lo que es lo mismo en el caso discreto, el valor mas probable; y la mediana, aquel punto quedeja la mitad de la probabilidad a cada lado, es decir, el punto en el que la FD vale 1/2.

Ejemplo 2.14: Sea X una VA N(µ, σ). Determina la media, la moda y la mediana de X

Page 57: Todo Unido Pe 2011

Universidad de Vigo. PyE. Tema 2: Variables aleatorias unidimensionales 2.32

Ejemplo 2.15: Sea X una VA exp(α). Determina la media, la moda y la mediana de X

7.2. Varianza

De entre los parametros de dispersion, el mas importante quiza sea la varianza, que mide laconcentracion de una variable aleatoria respecto a su media. Se define:

Var(X) = σ2 = E(X − µ)2 =

∫ +∞

−∞(x− µ)2fX(x)dx

En el caso discreto, esta integral se convierte en:

Var(X) = σ2 =∑∀i

(xi − µ)2P(X = xi)

Las principales propiedades de la varianza son:

1) Var(X) = E(X2)− E2(X)

2) Si X = c (constante o determinista) entonces Var(X) = 0

3) V ar(aX + b) = a2 V ar(X); con a y b numeros reales.

Ejercicio 2.6: Demuestra las propiedades anteriores

Page 58: Todo Unido Pe 2011

Universidad de Vigo. PyE. Tema 2: Variables aleatorias unidimensionales 2.33

Ejemplo 2.16: Sea X una VA que toma valores en -1 y en +1 con probabilidad 1/2. Calcula sumedia y su varianza. Sea Y una VA que toma valores en -10 y en +10 con probabilidad 1/2.Calcula su media y su varianza. Compara las medias y las varianzas de X e Y .

Otro parametro importante de dispersion es la desviacion tıpica: la raız cuadrada (positiva)de la varianza. Tiene especial interes por estar expresada en la mismas unidades que la variable.Habitualmente se denota por σ.

7.3. Calculo de las medias y varianzas para las distribuciones notables

En esta seccion veremos ejemplos de calculo de medias y varianzas. En algunos casos, comolas distribuciones normal, exponencial o uniforme ya se calculo la media en ejemplos anteriores,por lo que solo calcularemos la varianza. Existen distribuciones, como la binomial, la geometricao la Poisson, en las que es difıcil calcular su media y varianza utilizando la definicion. Existentecnicas alternativas para el calculo de medias y varianzas, basadas en la denominada funcioncaracterıstica, que permiten determinar facilmente los parametros de esas distribuciones. Esoscontenidos exceden los objetivos de esta asignatura, por lo que no seran introducidos. Sin embargo,al final de la seccion se incluye una tabla en la que se facilitan los parametros de las distribucionesmas importantes.

Ejemplo 2.17: Sea X una VA Ber(p). Determina la media y la varianza de X.

Ejemplo 2.18: Sea X una VA N(µ, σ). Determina la varianza de X.

Page 59: Todo Unido Pe 2011

Universidad de Vigo. PyE. Tema 2: Variables aleatorias unidimensionales 2.34

Ejemplo 2.19: Sea X una VA U(a, b). Determina la varianza de X.

Ejemplo 2.20: Sea X una VA exp(α). Determina la varianza de X.

Ejemplo resuelto 2.3: Sea X una VA Ray(σ). Determina la media y la varianza de X.

E(X) =

∫ +∞

−∞xfX(x)dx =

∫ ∞0

x2

σ2e−

x2

2σ2 dx∗= −x e−

x2

2σ2︸ ︷︷ ︸=0

]∞0

+

∫ ∞0

e−x2

2σ2 dx =

= σ√

∫ ∞0

fN(0,1)(x)dx =σ√

2∗

x = u ⇒ dx = du

xσ2 e− x2

2σ2 dx = dv ⇒ v = −e−x2

2σ2

E(X2) =

∫ +∞

−∞x2fX(x)dx =

∫ ∞0

x3

σ2e−

x2

2σ2 dx∗∗=

∫ ∞0

t

2σ2e−

t2σ2 dt = E(exp(

1

2σ2)) = 2σ2

∗ ∗ x2 = t⇒ 2xdx = dt

Por tanto, Var(X) = E(X2)− E2(X) = 2σ2 − π

2σ2 =

4− π2

σ2

Page 60: Todo Unido Pe 2011

Universidad de Vigo. PyE. Tema 2: Variables aleatorias unidimensionales 2.35

Medias y varianzas de las distribuciones mas importantes

Distribucion Parametros Rango Media Varianza

Bernoulli p 0, 1 p p(1− p)

Binomial n, p 0, 1, 2, ..., n np np(1− p)

Poisson λ 0, 1, 2, 3, .... λ λ

Geometrica p 1, 2, 3, .... 1

p

(1− p)p2

Uniforme a, b (a, b)(a+ b)

2

(b− a)2

12

Normal µ, σ (−∞,+∞) µ σ2

Exponencial α (0,+∞)1

α

1

α2

Rayleigh σ (0,+∞)σ

2

√2π

4− π2

σ2

EJERCICIOS PROPUESTOS:Cuestiones basicas de variables aleatorias. Li. Problemas de autoevaluacion 3.1. Pag. 139.Propiedades de la funcion de distribucion. Li. Problemas. 3.2. Pag. 130.Propiedades de la funcion de densidad. Li. Problemas. 3.9 y 3.10. Pag. 131.Funcion de distribucion y de densidad. Cao. Problema 4.5, apartados a), b) y c). Pag. 192.Funcion de densidad. Cao. Problema 4.9. Pag. 196.Distribucion Gaussiana. Li. Problemas. 3.22. Pag. 133Teorema fundamental.Ejemplo 5.13 (Papoulis).Teorema fundamental. Problema 3.8 de (Stark, 1994). Pag. 154.Esperanzas y varianzas. Cao. Problema 4.6. Pag. 181; Problema 4.12. Pag 198.Esperanza y varianza. Li. Problemas de autoevaluacion 3.4. Pag. 140.Varianza. Li. Problemas de autoevaluacion 3.2. Pag. 139.Esperanza de funciones de una VA. Li. Problema 3.41. Pag. 135.

LECTURAS RECOMENDADAS:Concepto de variable aleatoria. Papoulis. Apartado 4.1Funciones de distribucion y densidad. Papoulis. Apartado 4.2Introduccion a las transformaciones de VA. Apartado 3.1. Stark.Esperanzas y varianzas. Cao. Capıtulos 4.6 y 4.7.

INFORMACION Y DOCUMENTACION ADICIONAL:La documentacion de este tema se complementa con un boletın de problemas.

Page 61: Todo Unido Pe 2011

Universidad de Vigo. Problemas de PyE. Tema 2: Variables aleatorias unidimensionales 2.1

PROBLEMAS DE PROBABILIDAD Y ESTADISTICATema 2: Variables aleatorias unidimensionales

2.1) Una VA continua X se distribuye en el intervalo (0, π/4) con densidad proporcional a cos(x),y en el intervalo (π/4, π/2) con densidad proporcional a sen(x). En el primer intervalo ocurreque: P(0 ≤ X ≤ π/4) = 1/2.

a) Halla la funcion de densidad y de distribucion. Utilizando la funcion de distribucion,calcula:

b) P(X ≤ π/6)c) P(X ≤ 3π/8)

2.2) Una empresa fabrica antenas cuya vida util (medida en anos) es una VA X con fdp dadapor:

f(x) =

C cos

(π10x)

si x ∈ (0, 5)0 en otro caso

La empresa ofrece una garantıa de dos anos y medio; de modo que si la antena falla en eseperiodo, tendra que reemplazarla por una nueva.

a) Determina el valor de la constante C.b) Calcula la probabilidad de que haya que reemplazar una antena en el periodo de

garantıa.c) ¿Cual deberıa de ser el perıodo de garantıa si la empresa desea reemplazar tan solo el

50 % de las antenas que vende?d) Si un cliente ha recibido 10 antenas, calcula la probabilidad de que se estropeen exacta-

mente cuatro de ellas en el periodo de garantıa. Asume independencia entre la duracionde distintas antenas.

2.3) Un canal transmite palabras de 8 bits. La probabilidad de transmitir incorrectamente un bites, independientemente de los demas, 0.1. En recepcion se utiliza un codigo de correccionque permite decodificar correctamente las palabras que contienen un maximo de dos errores.

a) Calcula la probabilidad de que una palabra sea decodificada incorrectamente.b) Calcula la probabilidad de que un mensaje de cuatro palabras sea decodificado correc-

tamente.c) Suponiendo que se realizan sucesivas transmisiones independientes de palabras, deter-

mina la fdp de la VA definida como el numero de palabras transmitidas correctamentehasta decodificar incorrectamente una palabra.

2.4) Un cruce esta regulado por cuatro semaforos. Los semaforos pueden averiarse, por lo quecada 24 horas acude un tecnico y los revisa. En caso de que esten averiados los arreglainmediatamente. El tiempo que el semaforo i esta funcionando desde que es revisado hastaque se averıa es una VA Xi con distribucion exp(1/20), con el parametro referido a horas,independientemente de los demas semaforos. En caso de averıa, el semaforo no vuelve afuncionar hasta que lo arregle el tecnico.

a) Determina la probabilidad de que el cruce este bien regulado entre dos visitas conse-cutivas del tecnico.

b) Determina la probabilidad de que el tecnico no tenga que reparar todos los semaforosen una visita.

c) Determina la probabilidad de que el tecnico tenga que reparar exactamente dos semafo-ros en una visita.

Page 62: Todo Unido Pe 2011

Universidad de Vigo. Problemas de PyE. Tema 2: Variables aleatorias unidimensionales 2.2

d) Un grupo de vecinos quiere sabotear el cruce. El sabotaje consiste en estropear unsemaforo determinado y simular que es una averıa, lo cual ocurre con una probabilidadde 0.05. Se observa que dos horas despues de la visita del tecnico ese semaforo nofunciona. Determina la probabilidad de que se hubiese producido un sabotaje.

2.5) Un transmisor emite impulsos de dos tipos. La amplitud de los impulsos de tipo I tiene comofdp: f1(x) = x exp (−x2/2) si x > 0 (distribucion de Rayleigh con σ = 1); y la amplitudde los impulsos tipo II es una N(5,2). Un receptor decide el tipo de impulso transmitidocomparando la amplitud de cada impulso recibido con un umbral U . Si la amplitud delimpulso es mayor que U , se decide que el impulso transmitido fue de tipo II, en casocontrario se decide que fue de tipo I.

a) Determina el valor del umbral U de forma que la probabilidad de equivocacion altransmitir un impulso de tipo II sea de 0.1. (Ver observacion al final de este problema).

b) Para el umbral obtenido en el apartado anterior, obten la probabilidad de equivocacional transmitir un impulso de tipo I.

c) Si se transmiten N impulsos sucesivos de tipo II; ¿Cual es la probabilidad de que, almenos M de ellos superen el umbral U?. Obten dicha probabilidad para N = 5,M = 4y el valor del umbral U obtenido en el primer apartado.

Observacion: para resolver este problema puede ser util que P(N(0,1) ≤ −1.29) = 0.1

2.6) Una companıa telefonica ha realizado un estudio para conocer el numero de intentos nece-sarios para conseguir lınea al llamar por telefono a una entidad bancaria. El estudio consisteen llamar sucesivas veces de forma que, si se consigue lınea se acaba, y si no se consigue sevuelve a intentar. Finalmente se ha comprobado que:

P(Ak+1/Ak) =k

(k + 1)k = 1, 2, . . .

donde Ak= “En el k-esimo intento de llamada el telefono comunica”.

a) Indica si las siguientes aseveraciones son ciertas o falsas. Justifica la respuesta.

1) Ak y Ak+1 son independientes 2) Ak y Ak+1 son disjuntos3) Ak y Ak+1 son iguales 4) La union de Ak y Ak+1 es el espacio muestral5) Ak esta incluido en Ak+1 6) Ak+1 esta incluido en Ak

b) Si P(A1) = 0.3, calcula P(A2) y P(A3)

c) Calcula una expresion general para la probabilidad de Ak.

d) Calcula la funcion de densidad de probabilidad de una VA X definida como el numerode llamadas que tiene que realizar un usuario para poder establecer comunicacion conel banco.

2.7) La altura del agua de un embalse, medida en metros desde el fondo, seguirıa, idealmente,una distribucion exp(1/10). Sin embargo, por motivos de seguridad, hay un canal de desagueen la parte superior del embalse, que impide que la profundidad supere los 30 metros.

a) Determina la probabilidad de que se desperdicie agua.b) Sea Y la VA que mide la altura en metros de agua acumulada en el embalse. Determina

la fdp de Y y su esperanza.

2.8) Una empresa A cubre una lınea de autobuses con un servicio cada hora. Otra empresa Bdesea cubrir la misma lınea de forma que haya dos autobuses entre dos consecutivos de laempresa A. Se supone que un usuario llega a la parada en cualquier instante para tomarel primer autobus que salga. Si se pretende que el tiempo de espera, por termino medio,sea lo menor posible; ¿En que instante deben producirse las salidas de los autobuses de laempresa B?

Page 63: Todo Unido Pe 2011

Universidad de Vigo. Problemas de PyE. Tema 2: Variables aleatorias unidimensionales 2.3

2.9) En un campeonato de tiro al blanco, un concursante dispara a una diana de radio 50 cm.Si su disparo esta a una distancia del centro menor o igual que 10 cm alcanza la maximapuntuacion. Sea X la VA que mide la distancia en centımetros al centro de la diana en undisparo. La FD de X es:

F (x) = 1− e−1

2

[x2

202

]si x ≥ 0

a) Calcula la probabilidad de que el tirador acierte en la diana.b) Se sabe que el tirador ha acertado en la diana; calcula la probabilidad de que alcance

la maxima puntuacion.c) El concursante realiza 6 disparos de forma independiente. Calcula la probabilidad de

que alcance la maxima puntacion exactamente tres veces.

2.10) Una sala de ordenadores tiene 10 terminales. El tiempo de uso en horas de un terminal es,independientemente de los demas, una VA X con FD dada por:

F (x) =

0 si x < 0

ex−2

1 + ex−2si x ≥ 0

a) Calcula P(X = 0).

b) Sea Y = eX . Calcula la FD de Y , indicando claramente el rango de Y .

c) Calcula el numero medio de terminales que se usan 3 o menos horas.

d) Determina una transformacion que permita generar muestras aleatorias de X a partirde una VA U ∼ U(0,1).

2.11) La duracion en meses de un componente de un sistema es una VA X con distribucionexp(α). La empresa responsable del mantenimiento sustituye el componente por otro nuevobien cuando se estropea o bien cuando han transcurrido 6 meses desde su puesta en fun-cionamiento (aunque no este estropeado). Sea Y la VA que mide el tiempo de uso de uncomponente.

a) Determina la fdp de Y . Comprueba que es fdp

b) Calcula E(Y )

2.12) Un jugador de golf intenta introducir una pelota en un hoyo situado a una distancia de 40metros. Para ello la golpea y esta se pone en movimiento con una velocidad de magnitud Vque forma un angulo θ con la horizontal, siendo θ una VA U(0, π/2). En estas condicionessupongamos que la distancia horizontal que recorrera la pelota sea L = V 2sen(2θ).

a) Asumiendo que V es determinista, calcula la fdp de L indicando su rango.

b) Supon ahora una nueva situacion en la que el jugador dispone de dos palos; el palouno, que proporciona una velocidad inicial v1 = 6.4 m/s y el palo dos, que proporcionauna velocidad inicial v2 = 7 m/s. Calcula, para cada palo:-Longitud media recorrida por la pelota.-Probabilidad de que la pelota quede a una distancia del hoyo menor o igual que 2metros.En base a las cantidades calculadas anteriormente, indica que palo elegirıas y por que.

Observacion: Para resolver este problema puede ser util la siguiente expresion:∫1√

a2 − x2dx = arcsen

(xa

)

Page 64: Todo Unido Pe 2011

Universidad de Vigo. Problemas de PyE. Tema 2: Variables aleatorias unidimensionales 2.4

SOLUCIONES AL BOLETIN DE PROBLEMASTema 2: Variables aleatorias unidimensionales

2.1) a) fX(x) =

k cos(x) si 0 < x < π/4k sen(x) si π/4 < x < π/2

con k =

√2

2

FX(x) =

k sen(x) si 0 < x < π/41− k cos(x) si π/4 < x < π/2

con k =

√2

2b) 0.3535

c) 0.729

2.2) a) C = π/10; b)√

2/2; c) 5/3 anos; d) 0.033

2.3) a) 0.038; b) 0.856; c) Geo(0.038)

2.4) a) 0.008; b) 0.761; c) 0.266; d) 0.357

2.5) a) U = 2.42; b) 0.053; c)0.9185

2.6) a) 1)F, 2)F, 3)F, 4)F, 5)F, 6)V

b) P(A2) = 0.3/2; P(A3) = 0.3/3

c) P(Ak) = 0.3/k

d) P(X = 1) = 0.7; P(X = k) =0.3

k(k − 1)con k > 1

2.7) a) e−3; b) E(Y ) = 9.5

2.8) 1/3 y 2/3 de hora

2.9) a) 0.9561; b) 0.1229; c) 0.0223

2.10) a)1

e2 + 1

b) FY (y) =y

e2 + ysi y ≥ 1

c) 7.31

d) g(u) =

0 si u < 0.12

2 + ln

(u

1− u

)si u > 0.12

2.11) a) fY (y) = αe−αy + e−6αδ(y − 6) si y ∈ (0, 6]

b) (1− e−6α)/α

2.12) a) fL(l) =2

π√v4 − l2

si l ∈ (0, v2)

b)E1 = 26.08, P1 = 0.24E2 = 31.19, P2 = 0.0905

Page 65: Todo Unido Pe 2011

Universidad de Vigo. PyE. Practica 3 3.1

PROBABILIDAD Y ESTADISTICAPractica 3. Variables aleatorias discretas

Objetivos

- Repaso de los conceptos de funcion de densidad y funcion de distribucion de probabilidad.- Familiarizacion con una serie de funciones de densidad de probabilidad de uso comun

asociadas a VA discretas.- Relacion entre frecuencia relativa y probabilidad.- Histograma: definicion y parametros; relacion con la funcion de densidad de probabilidad;

interpretacion: importancia del numero de clases.- Interpretacion grafica en general: influencia de la escala.

Introduccion

Las rutinas de esta practica permiten la visualizacion de una serie de funciones de densi-dad de probabilidad de uso comun a las que se superpone un histograma obtenido a partir deuna muestra generada con la misma ley de probabilidad. Se pueden elegir los parametros de ladistribucion. Tambien se representa la FD y se pueden obtener probabilidades asociadas a ladistribucion mediante una herramienta de calculo.

Ejecucion

Para entrar en la practica teclea estadlab en la ventana de comandos y despues seleccionaVariables Aleatorias. Aparecera la ventana principal con una serie de botones asociados adiferentes distribuciones.

Distribucion Binomial: Bi(n, p) (25’)

Recuerda que el numero de exitos (casos en los que el resultado de un experimento perte-nece a un suceso determinado), que se obtienen si se realiza un experimento n veces siendo laprobabilidad de exito p igual en todos los casos, sigue una distribucion binomial de parametros ny p. En el caso particular en el que n = 1 tenemos la distribucion de Bernouilli, Ber(p).

Al elegir Histograma se generan muestras de una distribucion binomial. Cada una de ellastomara valores enteros entre 0 y n. Se representa el histograma de frecuencia relativa de cadasuceso, superpuesto a la funcion de densidad de la binomial.

¿Que es un histograma?

Un histograma es una representacion grafica de las frecuencias observadas de distintos suce-sos de un experimento. Cada suceso se representa en el histograma mediante una barra. A la vistade un histograma podemos saber que sucesos ocurren mas y menos a menudo en un experimentodado. Concretamente el area de una barra indica la frecuencia relativa observada para el sucesoque representa. Al suceso asociado a una barra del histograma se le denomina clase.

A destacar:- Observese como aumenta el parecido entre el histograma y la fdp teorica a medida que aumen-tamos el numero de muestras.-Observese como la envolvente de esta se parece cada vez mas a una normal si aumentamos n.

Page 66: Todo Unido Pe 2011

Universidad de Vigo. PyE. Practica 3 3.2

-En este caso el numero de clases no es un parametro por tratarse de una VA discreta finita (cadaclase se corresponde con uno de los valores pertenecientes al rango de la VA).Cuestiones:

1) Indica si las siguientes variables aleatorias siguen una distribucion binomial. Si es ası indicacuales son sus parametros:

a) X: “Numero de veces que sale un dos en un dado cuando se lanza cinco veces al aire”.

b) X: “Numero de intentos de llamada telefonica para conseguir lınea” (suponiendo p, laprobabilidad de conseguir lınea, constante en todos los intentos).

c) Y = X1 +X2 + ...+X30; donde Xi = 0 si llueve el dıa i-esimo y Xi = 1 en otro caso,y P(Xi = 0) = p para i = 1, 2, ...30.

2) Sea X: “Numero de veces que sale un 6 cuando se lanza al aire un dado 10 veces”. Indicasi X sigue alguna de estas distribuciones:

a) Bi(6, 0.5); b) Bi(10, 5/6); c) Bi(10, 1/6); d) Bi(6, 1/6)

3) Si X ∼ Bi(7,0.3), calcula analıticamente:

P(X = 3),P(3 ≤ X ≤ 5),P(X > 7)

4) Un experimento consiste en lanzar un dado al aire 5 veces y contar el numero de veces queha salido un 2. El experimento se repite 20 veces y se obtienen los siguientes resultados: 1,0, 1, 1, 0, 0, 2, 0, 0, 2, 0, 3, 0, 0, 0, 0, 1, 1, 0, 1.

a) Representa en un papel el histograma correspondiente a la muestra obtenida. Repre-senta la fdp teorica superpuesta.

b) ¿Han coincidido las frecuencias relativas con las probabilidades? ¿Por que?

5) Indica si los siguientes enunciados sobre los histogramas que se representan junto con la fdpde la distribucion binomial son verdaderos o falsos:

a) El numero de clases del histograma es n.

b) La altura de una barra del histograma coincide con la frecuencia relativa del sucesoque representa.

6) Sea X una VA con distribucion Bi(2, 0.5)

a) Calcula P(X = 0),P(X = 1) y P(X = 2)

b) ¿Puede existir alguna muestra concreta de X de tamano 90 de forma que el histogramaajuste perfectamente la fdp?

c) ¿Y con una muestra de tamano 100?

7) ¿Cuanto suma el area del histograma?

8) ¿Cuantas clases tiene el histograma que se representa con la binomial?

Distribucion Geometrica: Geo(p) (20’)

Al elegir Histograma se generan n muestras de una geometrica (numero de intentos paraconseguir el primer exito). Cada una de ellas tomara valores enteros entre 1 e ∞. Se representael histograma de frecuencia relativa de cada suceso, superpuesto a la funcion de densidad dela geometrica. Evidentemente, la representacion grafica se trunca (no podemos dibujar infinitasclases).

Page 67: Todo Unido Pe 2011

Universidad de Vigo. PyE. Practica 3 3.3

Observese como aumenta el parecido entre el histograma y la fdp teorica a medida queaumentamos n. En este caso el numero de clases no es un parametro por tratarse de una VAdiscreta.

Cuestiones:

1) Indica si las siguientes variables aleatorias siguen una distribucion geometrica:

a) X: “Numero de intentos de llamada telefonica para conseguir lınea” (suponiendo p, laprobabilidad de conseguir lınea, constante en todos los intentos).

b) X: “Numero de intentos que necesita un saltador de altura para sobrepasar el listonsi dispone de 3 oportunidades y la probabilidad de sobrepasar el liston es la misma entodos los intentos”.

2) La asociacion espanola contra la drogodependencia aconseja dıa tras dıa a un joven droga-dicto que acuda a una charla sobre rehabilitacion. En cada ocasion, la probabilidad de que elmuchacho acepte es pequena (0.1), pero la asociacion seguira insistiendo por siempre. Supo-niendo que esta probabilidad se mantenga invariable, calcula manualmente la probabilidadde los siguientes sucesos:

a) Exactamente al cabo de una semana el joven acepta el reto.b) La asociacion necesita como mucho 3 dıas para convencer al muchacho.

3) Indica si los siguientes enunciados sobre los histogramas que se representan junto con la fdpde la distribucion geometrica son verdaderos o falsos:

a) Es posible obtener una muestra cuyo histograma se ajuste perfectamente la fdp de unaGeo(0.5) con 125 muestras.

b) Es posible obtener una muestra cuyo histograma se ajuste perfectamente la fdp de unaGeo(0.5) con 1000 muestras.

4) Cuando se representa la FD de una Geo(0.5) ¿se visualiza algun punto con F (x) = 1?

5) Describe como generarıas manualmente una muestra para representar un histograma de unaGeo(0.5).

Distribucion Poisson: P(λ) (15’)

Al elegir Histograma se generan n muestras de una Poisson. Cada una de ellas tomara va-lores enteros entre 0 e ∞. Se representa el histograma de frecuencia relativa de cada suceso,superpuesto a la funcion de densidad de la Poisson. Evidentemente, la representacion grafica setrunca (no podemos dibujar infinitas clases). El numero de clases se calcula en torno a la media(λ) con un radio de cuatro desviaciones tıpicas, con una representacion mınima entre 0 y 10.

Observese como aumenta el parecido entre el histograma y la fdp teorica a medida queaumentamos n. En este caso el numero de clases no es un parametro por tratarse de una VAdiscreta.

Cuestiones:

1) ¿Es una distribucion simetrica?

2) ¿A que distribucion se parece cuando λ se hace grande? (tienes que introducir medianteteclado el valor de λ deseado, la barra esta acotada superiormente en 3).

Page 68: Todo Unido Pe 2011

Universidad de Vigo. PyE. Practica 4 4.1

PROBABILIDAD Y ESTADISTICAPractica 4. Variables aleatorias continuas

Objetivos

- Repaso de los conceptos de funcion de densidad y funcion de distribucion de probabilidad.- Familiarizacion con una serie de funciones de densidad de probabilidad continuas.- Relacion entre frecuencia relativa y probabilidad.- Histograma: definicion en el caso continuo y parametros; relacion con la funcion de densi-

dad de probabilidad; interpretacion: importancia del numero de clases.- Familiarizacion con la distribucion normal: relacion entre sus parametros y la forma de la

distribucion. La normal estandar (N(0,1)). Estandarizacion de una N(µ, σ). Calculo de probabi-lidades asociadas a una distribucion normal: empleo de las tablas.

Introduccion

Las rutinas de esta practica permiten la visualizacion de una serie de funciones de densidadde probabilidad de uso comun a las que se superpone un histograma obtenido a partir de unamuestra generada con la misma ley de probabilidad. Se pueden elegir los parametros de la distri-bucion y el numero de clases del histograma. Tambien se representa la FD y se pueden obtenerprobabilidades asociadas a la distribucion mediante una herramienta de calculo.

Ejecucion

Para entrar en la practica teclea estadlab en la ventana de comandos y despues seleccionaVariables Aleatorias. Aparecera la ventana principal con una serie de botones asociados adiferentes distribuciones.

Histograma de una VA continua

Un histograma es una representacion grafica de las frecuencias observadas de distintos su-cesos de un experimento. Los histogramas que representa el ordenador los obtiene a partir de lasimulacion de un experimento cuyos resultados siguen una determinada distribucion (la que seestudia en cada caso).

Cada suceso se representa en el histograma mediante una barra cuya area representa la fre-cuencia relativa del suceso que representa. Cuando manejabamos VA discretas, los sucesos eranlos posibles valores de la VA, pero con VA continuas no se puede aplicar la misma idea. Por ellose define un intervalo de valores, denominado clase, y se calcula la frecuencia relativa de cadaclase. Si representamos un histograma donde la altura de las barras fuese la frecuencia relativa,el area total del histograma serıa la longitud de cada clase (es una cuenta muy facil, intentala).Por ello representamos las frecuencias relativas divididas por la longitud de cada clase. De esamanera, el area total del histograma es una unidad, con lo que visualmente es comparable a lafdp. Es evidente que segun como definamos las clases, obtendremos histogramas distintos parauna misma muestra.

A la vista de un histograma podemos saber que sucesos ocurrieron mas y menos a menudoen un experimento dado.

Distribucion Normal: N(µ, σ) (30’)

Al elegir Histograma se generan n muestras de una normal con los parametros especi-ficados. Hay dos graficas distintas, que solo difieren en el numero de clases empleadas para larealizacion del histograma. En ambos casos se superpone la fdp.

Page 69: Todo Unido Pe 2011

Universidad de Vigo. PyE. Practica 4 4.2

Observese el efecto que produce en la curva la variacion del parametro sigma. Para ello sepueden comparar dos fdp con el mismo µ y con distinto σ.

Cuestiones: Calcula las siguientes probabilidades con ayuda de una tabla. Utilizando elboton de Calculos de la FD de una normal, comprueba posteriormente que los resultados soncorrectos.

a) X ∼ N(0,1):

P(X < 1.2)P(X > 2.36)FX(−0.7)P(X > −2.3)x tal que P(X ≤ x) = 0.8x tal que P(−x ≤ X ≤ x) = 0.99α/P(−1.96 ≤ X ≤ 1.96) = 1− α

b) X ∼ N(3,2):

P(X < 1.2)FX(−0.7)P(X > −2.3)x tal que P(X ≥ x) = 0.7

Distribucion Uniforme: U(a, b) (30’)

Al elegir Histograma se generan n muestras de una uniforme. Se representa el histogramade frecuencia relativa (histograma normalizado de tal forma que el area de cada una de sus barrassea igual a la frecuencia relativa del suceso que representa) superpuesto a la funcion de densidadde la uniforme. Hay dos graficas distintas, que solo difieren en el numero de clases empleadas parala realizacion del histograma. (Las clases se eligen como intervalos de igual longitud que abarcanel rango de la VA).

Observa que la distribucion uniforme representa la generalizacion de un experimento discretocon resultados equiprobables al problema continuo (la probabilidad se reparte uniformemente entodo el rango). A la hora de interpretar una grafica en la que este presente un histograma habra quetener en cuenta:

-la definicion de las clases-el numero de muestras empleado (representatividad del histograma).-las escalas empleadas (como en cualquier otra grafica).

Antes de empezar con las cuestiones:- Estudia como cambia el aspecto de la fdp y la FD si se cambian los parametros. Para ello utilizacomo ejemplo valores comprendidos en el rango de las barras deslizantes que aparecen en pantalla.- Estudia como con distinto numero de clases podemos manipular el histograma, de tal forma quesu apariencia sea mas o menos similar al de la funcion de densidad que lo genero.- Comprueba que si se aumenta el numero de clases, necesitamos un mayor numero de muestraspara obtener un histograma similar a la funcion de densidad.

Cuestiones:

1) Indica si las siguientes afirmaciones son verdaderas o falsas (Con X ∼ U(a, b) y a < x < b):

a) P(X = x) = f(x)b) P(X = x) = maxf(x), 0c) P(X = x) = 0

Page 70: Todo Unido Pe 2011

Universidad de Vigo. PyE. Practica 4 4.3

d) f(x) es una funcion creciente.e) F (x) es una funcion no decreciente.f) F (x) puede ser escalonada.

2) Indica si las siguientes variables aleatorias siguen una distribucion uniforme:a) X: “Numero que sale al lanzar un dado”.b) X: “Media obtenida a partir de los numeros que salen al lanzar dos dados”.c) X: “Hora a la que se contesta a una llamada telefonica a una oficina sabiendo que su

horario es de 9:00 a 13:00 horas y que en principio no hay horas a las que sea masprobable que se produzcan llamadas”.

3) Calcula analıticamente: P(X = 8),P(7 ≤ X ≤ 9), P (X > 7) donde X ∼ U(7,10).

4) Escribe en la ventana de comandos rand(1,20). Se visualizaran en pantalla 20 muestrasaleatorias de una distribucion Uniforme (0,1).

a) Con esta informacion representa en un papel un histograma con 4 clases. Representala fdp teorica superpuesta.

b) Calcula las probabilidades de los sucesos correspondientes a cada clase.

c) ¿Han coincidido las frecuencias relativas de los sucesos correspondientes a las clasescon sus probabilidades?

d) ¿Podrıan haber coincidido? Razona la respuesta.

5) Indica si los siguientes enunciados sobre los histogramas que se representan junto con la fdpde la distribucion U(a, b) son verdaderos o falsos:

a) La altura de una barra del histograma coincide con la frecuencia relativa del sucesoque representa.

b) Es posible obtener un histograma que ajuste perfectamente la fdp con 125 muestras y5 clases.

6) ¿Que numero de clases hace que el histograma coincida siempre exactamente con la funcionde densidad de la uniforme?

7) ¿Como generarıas manualmente una muestra para dibujar un histograma de una U(0,10) sisolo se definen dos clases?

Distribucion Exponencial: exp(α) (15’)

Al elegir Histograma se generan n muestras de una exponencial. Se representa el histo-grama de frecuencia relativa (histograma normalizado de tal forma que el area de cada una desus barras sea igual a la frecuencia relativa del suceso que representa) superpuesto a la funcionde densidad de la exponencial. Hay dos graficas distintas, que solo difieren en el numero de clasesempleadas para la realizacion del histograma. (Las clases se eligen como intervalos de igual lon-gitud que abarcan el rango de la muestra).

Observese que si la distribucion uniforme puede considerarse la generalizacion de un ex-perimento discreto con todos los resultados equiprobables al problema continuo, la exponencialtambien puede considerarse una generalizacion de la geometrica.

Cuestiones:

1) Un fabricante de ordenadores nos dice que el tiempo que pasa desde que compramos undeterminado modelo de ordenador hasta que este tiene una averıa, sigue una distribucionexp(1/5), con el parametro expresado en anos.

a) ¿Cual es la probabilidad de que al cabo de 2 anos todavıa no hayamos llevado elordenador al servicio tecnico?

b) Sabiendo que han pasado 2 anos sin averıas, ¿cual es la probabilidad de que en lossiguientes dos anos no llevemos el ordenador al servicio tecnico?

Page 71: Todo Unido Pe 2011

Universidad de Vigo. PyE. Practica 5 5.1

PROBABILIDAD Y ESTADISTICAPractica 5. Esperanzas y transformaciones

Objetivos

- Repaso de los contenidos teoricos de esperanzas y varianzas.- Estudio de las transformaciones de VA uniformes para conseguir otras VA uniformes o VA

discretas equiprobables.- La exponencial como distribucion sin memoria.- Introduccion a la representacion grafica de funciones con Matlab.

Ejecucion

Algunos de los ejercicios de esta practica se haran directamente en la ventana de comandosde Matlab y otros estan integrados en estadlab, en algunos casos en el modulo de Esperanzasy en otros en el modulo de Transformaciones.

El concepto de esperanza y su interpretacion frecuencial (25’)

En este ejercicio se trata de repasar algunas ideas basicas sobre la esperanzas, entre ellas suinterpretacion frecuencial, esto es, que la esperanza de una VA se aproxima por el promedio delas muestras de dicha VA cuando el numero de muestras considerado es grande. Se encuentra enel modulo de Esperanzas de estadlab. Se divide la practica en dos experimentos.

Experimento 1

Sea X: “Valor obtenido al lanzar un dado”.1) Calcula la esperanza de X. Introduce el valor en el ordenador y pulsa enter para poder

continuar. A continuacion se generan muestras de esta VA (puedes seleccionar el tamanomuestral). Pulsando el boton “Representar” obtendras un histograma de frecuencias abso-lutas y el valor promediado de todas las muestras obtenidas. Si pulsas el boton “Evolucionde la estimacion” observaras como cambia el promedio en funcion del numero de muestras.

2) Realiza diferentes simulaciones variando el tamano muestral.Por ejemplo, n = 20, 50, 100, 500, . . . Anota en cada caso el valor del promedio obtenido ycomparalo con la media teorica. ¿Que ocurre a medida que aumenta el tamano muestral?Comprueba que el promedio de muchas muestras de X se aproxima mucho su esperanza.

Experimento 2

Sea X una VA con distribucion Geo(p)

1) Calcula la esperanza de X suponiendo que p = 1/4. Introduce el valor en el ordenador ypulsa enter para poder continuar.

2) Asumiendo p = 1/4, realiza diferentes simulaciones variando el tamano muestral. Por ejem-plo, n = 20, 50, 100, 500, . . . Anota en cada caso el valor del promedio obtenido y comparalocon la media teorica. ¿Que ocurre a medida que aumenta el tamano muestral?

3) Repite el apartado anterior para otros valores de p. Por ejemplo p = 1/2 y p = 1/8. ¿Sesigue manteniendo el parecido entre la media muestral y la media teorica?

Cuestiones:1) Indica si las siguientes afirmaciones son verdaderas o falsas:

a) La esperanza de una VA no tiene porque pertenecer a su rango.b) La esperanza de una VA es siempre mayor o igual que el extremo inferior de su rango.c) La esperanza de una VA es siempre mayor que el mınimo de los valores obtenidos en

varias realizaciones de dicha VA.

Page 72: Todo Unido Pe 2011

Universidad de Vigo. PyE. Practica 5 5.2

2) Indica si las siguientes afirmaciones son verdaderas o falsas:a) La probabilidad de que una unica muestra de una VA sea superior a su esperanza es

de 0.5.b) La esperanza de una VA es el valor para el que se obtiene el maximo de la fdp.

3) Sea X una VA con fdp: f(x) = x/2 si 0 < x < 2a) Calcula E(X)

b) Calcula E(X2)

c) Calcula E(X4)

d) Sea Y = g(X) = 2X2 − 1. Calcula E(Y )

e) Sea Y = g(X) = 2X2 − 1. Calcula E(Y 2)

f) Sea Z = g(X) = 1/X. Calcula E(Z)

g) ¿Coinciden E(1/X) y 1/E(X)?

Los conceptos de varianza y desviacion tıpica (15’)

En este ejercicio se trata de comprobar que la varianza de una VA es un parametro que midela dispersion de la VA con respecto a la esperanza. Se encuentra en el modulo de Esperanzas deestadlab.

1) Sea X una VA U(-2,2) e Y una VA U(-4,4).Obten la esperanza y la varianza de X y de Y . Introduce los valores en el ordenador parapoder continuar. Como puedes ver, ambas tienen la misma esperanza, pero su varianza esdistinta. A continuacion se generaran muestras de ambas VA. Para ello debes seleccionar unnumero de realizaciones y pulsar el boton “Obtener muestras”. Observaras un histogramade cada una. Fıjate que ambos histogramas estan centrados aproximadamente en el mismovalor. ¿Cual de los dos histogramas presenta una dispersion mayor?

2) Sea X una VA U(-2,2) e Y una VA U(-1,3).Selecciona en el ordenador los extremos correspondientes de ambas uniformes. Obten laesperanza y la varianza de X y de Y . Introduce los valores en el ordenador para podercontinuar. Como puedes ver, ambas comparten la misma varianza, pero su esperanza esdistinta. A continuacion se generaran muestras de ambas VA. Para ello debes seleccionar unnumero de realizaciones y pulsar el boton “Obtener muestras”. Observaras un histogramade cada una. Fıjate que los dos histogramas estan ahora centrados en valores diferentes.¿Cual de los dos histogramas presenta una dispersion mayor?

Cuestiones:

1) Indica si las siguientes afirmaciones son verdaderas o falsas:

a) La desviacion tıpica de una VA es un parametro que no puede tomar valores negativos.b) Si nos dicen que la esperanza de una distribucion uniforme es 0, ya podemos deducir

el valor de su desviacion tıpica.c) Para conocer la desviacion tıpica de una VA es suficiente con conocer su rango.

2) Indica si las siguientes afirmaciones son verdaderas o falsas:a) A la desviacion tıpica tambien se le conoce con el nombre de varianza.b) A partir de la fdp de una VA se puede calcular su varianza, pero lo contrario no es

cierto.

3) Sea X una VA con fdp: f(x) = x/2 si 0 < x < 2.(Sugerencia: revisa la cuestion 3 de laseccion anterior)

a) Calcula Var(X).

b) Calcula la desviacion tıpica de X.

c) Sea Y = g(X) = 2X2 − 1. Calcula Var(Y ).

Page 73: Todo Unido Pe 2011

Universidad de Vigo. PyE. Practica 5 5.3

Transformaciones de VA uniformes (25’)

Esta practica se realiza directamente desde la ventana de comandos de Matlab, por lo que noes necesario el software Estadlab. En ella estudiaremos como conseguir, a partir de una VA U(0,1),muestras de VA con distribuciones uniformes cualesquiera o de VA discretas equiprobables.

1) Sea X una VA U(0,1). Sobre ella realizamos la transformacion:

Y = g(X) = (b− a) ∗X + a

siendo a y b numeros reales, con a < b. Determina la fdp de la VA Y .2) Sea X ∼ U(0,1).

a) Determina una transformacion g(X) de forma que la VA resultante Y = g(X) tengauna distribucion U(0,2).

b) Utilizando el comando rand genera 1000 muestras de la VA X y representalas en unhistograma, utilizando el comando hist. Verifica su sintaxis con el comando help, pres-tando especial atencion a como definir el numero de clases deseadas en el histograma.Observa tambien que el histograma representado es de frecuencias absolutas, en lugarde frecuencias relativas.

c) Transforma las 1000 muestras obtenidas en el apartado anterior para obtener 1000muestras de una VA Y con distribucion U(0,2). Representa un histograma de Y .

3) Repite los pasos a), b) y c) de la cuestion 2) para obtener 1000 muestras de una VA U(-3,1)

4) Sea X ∼ U(0, n), siendo n un numero natural. Realizamos la transformacion Y = g(X) =Int(X) siendo Int(x) la parte entera de x, es decir, el entero inmediatamente inferior a x.En Matlab, esta funcion se consigue mediante el comando floor. Determina la funcion demasa de probabilidad de Y .

5) Se desea simular con ayuda del ordenador el resultado obtenido en el lanzamiento de undado. Sea Y la VA que mide el numero obtenido.

a) Escribe la funcion de masa de probabilidad de Y

b) Determina una transformacion para obtener la VA Y a partir de una VA X ∼ U(0,1)

c) Con ayuda de los comandos rand, floor e hist genera una muestra de tamano 1000de la VA Y y representa un histograma de la misma.

La exponencial como distribucion sin memoria (15’)

A esta practica se accede seleccionando Exponencial condicionada en el modulo deTransformaciones de estadlab.

En esta practica se estudia la fdp de una exponencial condicionada por dos sucesos concretos(ver ejemplo 3.2 de los apuntes). Uno de los casos servira de ilustracion de como la exponenciales una distribucion sin memoria.

En la ventana de trabajo se representa la fdp de una exponencial de parametro alfa y dosversiones condicionadas de la misma. Concretamente los sucesos por los que se condiciona la dis-tribucion son: X > cota , X < cota, donde cota es un valor introducido por el usuario.

Acompanando a las fdp se representan los histogramas correspondientes, condicionados ono condicionados, pero en todo caso calculados a partir del mismo conjunto muestral (las mues-tras que se obtienen de la exponencial). Es decir, para obtener el histograma condicionado porX >cota, se toman de las n muestras obtenidas de la exponencial, solo aquellas que cumplandicha condicion. En las graficas se especifican las expresiones de las fdp representadas.

Pulsa el boton Representar cada vez que desees actualizar las graficas. Utiliza un tamanomuestral grande y un numero de clases apropiado para comprobar que se verifica la propiedadbajo estudio. De este modo el histograma sera muy similar a la densidad teorica.

Page 74: Todo Unido Pe 2011

Universidad de Vigo. PyE. Practica 5 5.4

Cuestiones

1) Calcula la expresion general para f(x/X <cota)

2) ¿Cual de las dos exponenciales condicionadas resultantes se parece mas a una exponencial?

3) En ocasiones el resultado de la simulacion es tal que alguno de los dos histogramas con-dicionados no se puede representar, puesto que no se han obtenido muestras mayores omenores que la cota seleccionada (prueba, por ejemplo, con los valores alfa=0.05 y cota=6).Concretamente, ¿cual es la probabilidad de que alguno de los histogramas condicionados nose represente si se ha fijado n = 50, α = 0.5 y cota=3?

Page 75: Todo Unido Pe 2011

Distribución normal estándarZ~N(0,1)Tabla de la función de distribución:P(Z≤z) = p

En la tabla figuran los valores deprobabilidad acumulada pen función de z.

z 0.00 0.01 0.02 0.03 0.04 0.05 0.06 0.07 0.08 0.09

0.0 0.5000 0.5040 0.5080 0.5120 0.5160 0.5199 0.5239 0.5279 0.5319 0.5359

0.1 0.5398 0.5438 0.5478 0.5517 0.5557 0.5596 0.5636 0.5675 0.5714 0.5753

0.2 0.5793 0.5832 0.5871 0.5910 0.5948 0.5987 0.6026 0.6064 0.6103 0.6141

0.3 0.6179 0.6217 0.6255 0.6293 0.6331 0.6368 0.6406 0.6443 0.6480 0.6517

0.4 0.6554 0.6591 0.6628 0.6664 0.6700 0.6736 0.6772 0.6808 0.6844 0.6879

0.5 0.6915 0.6950 0.6985 0.7019 0.7054 0.7088 0.7123 0.7157 0.7190 0.7224

0.6 0.7257 0.7291 0.7324 0.7357 0.7389 0.7422 0.7454 0.7486 0.7517 0.7549

0.7 0.7580 0.7611 0.7642 0.7673 0.7704 0.7734 0.7764 0.7794 0.7823 0.7852

0.8 0.7881 0.7910 0.7939 0.7967 0.7995 0.8023 0.8051 0.8078 0.8106 0.8133

0.9 0.8159 0.8186 0.8212 0.8238 0.8264 0.8289 0.8315 0.8340 0.8365 0.8389

1.0 0.8413 0.8438 0.8461 0.8485 0.8508 0.8531 0.8554 0.8577 0.8599 0.8621

1.1 0.8643 0.8665 0.8686 0.8708 0.8729 0.8749 0.8770 0.8790 0.8810 0.8830

1.2 0.8849 0.8869 0.8888 0.8907 0.8925 0.8944 0.8962 0.8980 0.8997 0.9015

1.3 0.9032 0.9049 0.9066 0.9082 0.9099 0.9115 0.9131 0.9147 0.9162 0.9177

1.4 0.9192 0.9207 0.9222 0.9236 0.9251 0.9265 0.9279 0.9292 0.9306 0.9319

1.5 0.9332 0.9345 0.9357 0.9370 0.9382 0.9394 0.9406 0.9418 0.9429 0.9441

1.6 0.9452 0.9463 0.9474 0.9484 0.9495 0.9505 0.9515 0.9525 0.9535 0.9545

1.7 0.9554 0.9564 0.9573 0.9582 0.9591 0.9599 0.9608 0.9616 0.9625 0.9633

1.8 0.9641 0.9649 0.9656 0.9664 0.9671 0.9678 0.9686 0.9693 0.9699 0.9706

1.9 0.9713 0.9719 0.9726 0.9732 0.9738 0.9744 0.9750 0.9756 0.9761 0.9767

2.0 0.9772 0.9778 0.9783 0.9788 0.9793 0.9798 0.9803 0.9808 0.9812 0.9817

2.1 0.9821 0.9826 0.9830 0.9834 0.9838 0.9842 0.9846 0.9850 0.9854 0.9857

2.2 0.9861 0.9864 0.9868 0.9871 0.9875 0.9878 0.9881 0.9884 0.9887 0.9890

2.3 0.9893 0.9896 0.9898 0.9901 0.9904 0.9906 0.9909 0.9911 0.9913 0.9916

2.4 0.9918 0.9920 0.9922 0.9925 0.9927 0.9929 0.9931 0.9932 0.9934 0.9936

2.5 0.9938 0.9940 0.9941 0.9943 0.9945 0.9946 0.9948 0.9949 0.9951 0.9952

2.6 0.9953 0.9955 0.9956 0.9957 0.9959 0.9960 0.9961 0.9962 0.9963 0.9964

2.7 0.9965 0.9966 0.9967 0.9968 0.9969 0.9970 0.9971 0.9972 0.9973 0.9974

2.8 0.9974 0.9975 0.9976 0.9977 0.9977 0.9978 0.9979 0.9979 0.9980 0.9981

2.9 0.9981 0.9982 0.9982 0.9983 0.9984 0.9984 0.9985 0.9985 0.9986 0.9986

3.0 0.9987 0.9987 0.9987 0.9988 0.9988 0.9989 0.9989 0.9989 0.9990 0.9990

3.1 0.9990 0.9991 0.9991 0.9991 0.9992 0.9992 0.9992 0.9992 0.9993 0.9993

0.9993 0.9993 0.9994 0.9994 0.9994 0.9994 0.9994 0.9995 0.9995 0.99953.2

3.3 0.9995 0.9995 0.9995 0.9996 0.9996 0.9996 0.9996 0.9996 0.9996 0.9997

3.4

3.5

0.9997

0.9998

0.9997

0.9998

0.9997

0.9998

0.9997

0.9998

0.9997

0.9998

0.9997

0.9998

0.9997

0.9998

0.9997

0.9998

0.9997

0.9998

0.9998

0.9998

3.6 0.9998 0.9998 0.9999 0.9999 0.9999 0.9999 0.9999 0.9999 0.9999 0.9999

Observaciones: Si X~N(µ,σ), entonces: Z=(X-µ)/σ sigue una distribución N(0,1)

p=Área

Page 76: Todo Unido Pe 2011

TEMA 3 – VECTORES ALEATORIOS

PROBABILIDAD Y ESTADÍSTICA (PE)

2010/2011

Page 77: Todo Unido Pe 2011

Universidad de Vigo. PyE. Tema 3: Vectores aleatorios 3.1

Tema 3. Vectores aleatorios

1. Introduccion

A menudo en un experimento no se observa una sola variable, sino un conjunto de variables.Si el comportamiento de cualquiera de estas variables no aporta ninguna informacion sobre elestado en el que estan las demas, podrıamos emplear para cada una de ellas los modelos proba-bilısticos unidimensionales que hemos estudiado hasta ahora. Sin embargo, es habitual encontrarsecon sistemas fısicos en los cuales existe una cierta relacion de dependencia entre sus variables.En este caso, las variables aleatorias unidimensionales no proporcionan toda la informacion pro-babilıstica del sistema. Veamos un ejemplo. Supongamos que queremos estudiar el peso (X) y latalla (Y ) en una poblacion. A partir de los modelos probabilısticos que se dispongan para cadavariable por separado (fX(x) y fY (y)), podemos calcular, por ejemplo, la probabilidad de queel peso tome valores entre 60Kg y 70Kg o de que la talla sea superior a 180cm. Sin embargo,frecuentemente resulta de interes obtener la probabilidad de sucesos mas complejos que involu-cran simultaneamente a las dos variables. Por ejemplo, nos podrıa interesar conocer cual es laprobabilidad de que un individuo de la poblacion presente una talla de entre 140cm y 150cm yun peso superior a 80 Kg. La probabilidad de una interseccion de sucesos de este tipo no siemprese puede calcular conociendo unicamente las fdp unidimensionales de X e Y . De hecho solo esposible calcularla de este modo cuando ambas variables son independientes. Este no es el casodel ejemplo que nos ocupa, donde sı existe relacion entre las VA, puesto que, si un individuo esmas alto que otro es mas probable que su peso tambien sea mayor. Es mas, valores de un pesoque para una talla determinada pueden ser habituales, pueden ser realmente extranos para otrovalor de talla. Cuando existe relacion entre las VA, es decir, cuando el conocer informacion sobreel resultado de una de ellas aporta informacion sobre la otra, es conveniente conocer y cuantificaresta relacion de dependencia. Necesitamos pues, una nueva herramienta que tenga en cuenta estadependencia y que nos permita calcular la probabilidad de la interseccion de sucesos relativos ados o mas VA. Los vectores aleatorios y las fdp y FD multidimensionales asociadas constituyenesta nueva herramienta.

2. Funciones de distribucion y de densidad conjuntas

Definicion: Vector Aleatorio:

~X = (X1, X2, . . . , Xn) es un vector aleatorio n-dimensional si Xi es una VA ∀i.

2.1. Funcion de distribucion

Definicion: Funcion de distribucion de un vector aleatorio: Sea (X1, X2, . . . , Xn) un vectoraleatorio. Se define su FD como:

F (x1, x2, . . . , xn) = P(X1 ≤ x1 ∩X2 ≤ x2 ∩ . . . ∩Xn ≤ xn) = P(X1 ≤ x1, X2 ≤ x2, . . . , Xn ≤ xn)

Observacion: La notacion de sucesos separados por comas debe entenderse como una interseccion.Observacion: En el caso de un vector aleatorio bidimensional (X, Y ), la FD serıa de la forma:

FXY (x, y) = P(X ≤ x, Y ≤ y)

Page 78: Todo Unido Pe 2011

Universidad de Vigo. PyE. Tema 3: Vectores aleatorios 3.2

Los sucesos como X ≤ x, Y ≤ y son regiones del plano (X, Y ).

Propiedades de la FD de los vectores aleatorios (referidas a 2 dimensiones, aunque facilmentegeneralizables a dimension superior):

1) F (+∞,+∞) = P(X ≤ +∞, Y ≤ +∞) = 1

2) F (−∞, y) = P(X ≤ −∞, Y ≤ y) = 0 ∀y; F (x,−∞) = P(X ≤ x, Y ≤ −∞) = 0 ∀x

3) F (x, y) es no decreciente y continua por la derecha en x y en y, es decir:

F (x2, y) ≥ F (x1, y) ∀x2 ≥ x1,∀y;F (x, y2) ≥ F (x, y1) ∀y2 ≥ y1,∀xF (x+, y) = F (x, y) ∀x, y; F (x, y+) = F (x, y) ∀x, y

4) Si x1 ≤ x2 e y1 ≤ y2 entonces:

P(x1 < X ≤ x2, y1 < Y ≤ y2) = F (x2, y2) + F (x1, y1)− F (x2, y1)− F (x1, y2)

Teorema: Cualquier funcion que verifique las propiedades 1), 2) y 3) y la siguiente condicion:

F (x2, y2) + F (x1, y1)− F (x1, y2)− F (x2, y1) ≥ 0 ∀x2 > x1,∀y2 > y1

es FD de algun vector aleatorio bidimensional.

2.2. Funcion de densidad

Definicion: Funcion de densidad de probabilidad de un vector aleatorio:Sea (X1, X2, ..., Xn) un vector aleatorio. Se define su fdp como:

f(x1, x2, . . . , xn) =∂nF (x1, x2, . . . , xn)

∂x1∂x2 . . . ∂xn

Observacion: En el caso de un vector aleatorio bidimensional (X, Y ), la fdp serıa de la forma:

f(x, y) =∂2F (x, y)

∂x∂y

Observacion: Al igual que en el caso unidimensional, la derivada de la FD no esta siempredefinida. Mas adelante veremos como resolver este problema.

Page 79: Todo Unido Pe 2011

Universidad de Vigo. PyE. Tema 3: Vectores aleatorios 3.3

Propiedades de la fdp de los vectores aleatorios (referidas a 2 dimensiones):

1) f(x, y) ≥ 0 ∀x, y

2)∫ +∞−∞

∫ +∞−∞ fXY (x, y)dxdy = 1. Es decir, el volumen bajo la curva es igual a una unidad.

3) FXY (x, y) =∫ x

−∞

∫ y

−∞ fXY (u, v)dvdu

4) Si D ⊂ R2 entonces:

P((X, Y ) ∈ D) =

∫ ∫D

fXY (x, y)dxdy

Dada una region D del plano (X, Y ), su probabilidad viene dada por el volumen encerradopor f(x, y) correspondiente a dicha region. Esta propiedad es cierta para practicamentetodos los recintos D. Existen algunos que no aparecen en la practica por lo que no seran deinteres.

Teorema: Cualquier funcion que verifique las propiedades 1)y 2) es fdp de algun vectoraleatorio bidimensional.

Observacion: Si comparamos las propiedades de la FD y de la fdp, se puede observar queesta ultima es una herramienta mas versatil para el calculo de probabilidades. Mientras que con laFD es sencillo calcular probabilidades asociadas a regiones del plano rectangulares (propiedad 4)de la FD), la fdp permite calcular mediante una integral (propiedad 4) de la fdp) la probabilidadasociada a una region generica D, sea rectangular o no.

2.2.1. Distribucion uniforme multidimensional

Sea ~X = (X1, X2, . . . , Xn) un vector aleatorio. Se dice que sigue una distribucion uniforme

n-dimensional si f(x1, x2, ..., xn) es constante en todo el rango de ~X .

En el caso de un vector aleatorio bidimensional (X, Y ) se dice que sigue una distribucionuniforme si f(x, y) es constante para todo (x, y) perteneciente al rango del vector aleatorio. Portanto, el valor de f(x, y) sera igual al cociente entre 1 y el area de la region del plano (X, Y )donde el vector aleatorio este definido.

Page 80: Todo Unido Pe 2011

Universidad de Vigo. PyE. Tema 3: Vectores aleatorios 3.4

A continuacion compararemos graficamente el caso unidimensional y el bidimensional. Enla siguiente figura se representa la fdp de una VA X ∼ U(a, b) y el area correspondiente a laprobabilidad del suceso x1 < X ≤ x2. Esta fdp es una funcion que depende de una variable yla probabilidad del intervalo equivale al area de la superficie bajo la curva en dicho intervalo. Aintervalos de igual longitud incluidos en el rango, les corresponde la misma probabilidad.

En la figura siguiente se representa la fdp de una uniforme bidimensional (X, Y ) definidaen la region (x, y)/x ∈ (3, 7), y ∈ (−2,−2). En este caso la fdp es una funcion que depende dedos variables y su representacion grafica es tridimensional.

Por otra parte, los sucesos relativos al vector aleatorio (X, Y ) son regiones del plano, y suprobabilidad viene dada en este caso por el volumen bajo la curva asociado a dichas regiones. Asuperficies de igual tamano incluidas en el rango, les corresponde la misma probabilidad.

Page 81: Todo Unido Pe 2011

Universidad de Vigo. PyE. Tema 3: Vectores aleatorios 3.5

Ejercicio 3.1: Sea (X, Y ) un vector aleatorio que sigue una distribucion uniforme bidimensional ycuyo rango viene definido por el conjunto (x, y)/x ∈ (3, 7), y ∈ (−2, 2). Calcula la probabilidaddel suceso 4 < X ≤ 5, 0 < Y ≤ 1.

3. Marginales. Masas puntuales y lineales

Definicion: FD (fdp) marginal y FD (fdp) conjunta

A la FD (fdp) de un vector aleatorio se le denomina FD (fdp) conjunta. Las FD (fdp)marginales son las correspondientes a las VA unidimensionales que componen el vector aleatorio.A partir de la FD (fdp) conjunta siempre se pueden calcular las FD (fdp) marginales. El recıprocoen general no es cierto.

Sea (X, Y ) un vector aleatorio. Entonces:

FD marginal de X : FX(x) = P(X ≤ x) = P(X ≤ x, Y ≤ +∞) = FXY (x,+∞)

FD marginal de Y : FY (y) = FXY (+∞, y)

fdp marginal de X : fX(x) =dFX(x)

dx=∂FXY (x,+∞)

∂x=

∫ +∞

−∞fXY (x, y)dy

fdp marginal de Y : fY (y) =

∫ +∞

−∞fXY (x, y)dx

Si F (x, y) no es derivable, la funcion f(x, y) no existe tal y como la hemos definido. Enel caso unidimensional se definio f(x) a partir de la funcion impulso δ(x). Se puede hacer lomismo en el caso bidimensional (y multidimensional), aunque la matematica se complica. Comoconsecuencia, optaremos por emplear la funcion de masa de probabilidad para caracterizar lasVA discretas que formen parte un vector aleatorio. Como ya sabemos, emplear la fdp o la funcionde masa de probabilidad es equivalente y por tanto la eleccion de una u otra es indiferente.

Ejemplo Masas puntuales (Dos VA discretas)

Sea (X, Y ) un vector aleatorio, donde X e Y son VA discretas. Sean RX = x1, . . . , xN yRY = y1, . . . , yM.

La funcion de masa de probabilidad conjunta es P(X = xi, Y = yj) = pijEn este caso se habla de masas puntuales, debido a que el rango del vector aleatorio esta formadopor un conjunto de puntos aislados.

Page 82: Todo Unido Pe 2011

Universidad de Vigo. PyE. Tema 3: Vectores aleatorios 3.6

Evidentemente:N∑i=1

M∑j=1

pij = 1

La FD conjunta se puede calcular a partir de la funcion de masa de probabilidad conjunta:

F (x, y) = P(X ≤ x, Y ≤ y) =∑

i/xi≤x

∑j/yj≤y

pij

Las funciones de masa de probabilidad marginales son:

P(X = xi) =M∑j=1

pij

P(Y = yj) =N∑i=1

pij

Ejemplo Masas lineales (Una VA discreta y otra VA continua)

Sea (X, Y ) un vector aleatorio, donde X es una VA discreta e Y una VA continua. SeanRX = x1, . . . , xN y RY = (ya, yb).

El rango conjunto esta formado por una serie de lıneas paralelas al eje Y (masas lineales).No se puede calcular una funcion de masa de probabilidad conjunta, puesto que una de las VAes continua y cualquiera de los puntos que forman el rango conjunto tienen probabilidad cero.

Para describir adecuadamente esta VA, sera necesario conocer las probabilidades conjuntasdel tipo P(X = xi, y1 < Y ≤ y2) o equivalentemente conocer la expresion de su FD conjunta:

F (x, y) = P(X ≤ x, Y ≤ y) =∑

i/xi≤x

P(X = xi, Y ≤ y)

Page 83: Todo Unido Pe 2011

Universidad de Vigo. PyE. Tema 3: Vectores aleatorios 3.7

El vector aleatorio (X, Y ) estara caracterizado mediante una fdp y una FD conjuntas. Lafdp conjunta solamente puede ser no nula en las masas lineales que definen el rango del vectoraleatorio.

La VA X es discreta, y se puede determinar su funcion de masa de probabilidad marginalo expresar su fdp a partir de la funcion delta:

P(X = xi) = P(X = xi,−∞ < Y < +∞) =

∫ +∞

−∞f(xi, y)dy

f(x) =∑∀i

P(X = xi)δ(x− xi)

La marginal de Y es una fdp, puesto que Y es continua:

f(y) =

∫ +∞

−∞f(x, y)dx =

∑∀i

f(xi, y)

4. Distribuciones condicionales. Independencia

En temas anteriores se definio la probabilidad del suceso A condicionada por el suceso Bcomo:

P(A/B) =P(A ∩B)

P(B)donde P(B) > 0

El hecho de que ocurra el suceso B cambia el espacio de probabilidad original, y por lotanto, las condiciones del experimento, por lo que en general P(A/B) 6= P(A). Las probabilidadesde los sucesos definidos en el ambito de las VA (X < x1, x1 < X ≤ x2, etc.), se rigen por losmismos axiomas que los sucesos definidos en un ambito cualitativo. Por tanto, tiene sentido definirVA condicionadas y definir su FD y fdp correspondientes. Al condicionar una VA por un suceso,en general, cambiara su distribucion de probabilidad. Por ejemplo, supongamos que X ∼N(0,1).Se impone una condicion al experimento de tal modo que se sabe que X > 0. Tendrıamos quehablar entonces de una nueva VA X/(X > 0) (X condicionada a que X > 0). Evidentemente lacondicion impuesta afecta a la distribucion de la VA, ya que en este caso transforma incluso surango (X puede tomar cualquier valor real, mientras que X/(X > 0) solo toma valores positivos).

Definicion: Variable aleatoria condicionada

Sea X una VA y sea M un suceso tal que P(M) > 0. Se define la VA X/M como la VA quetiene como FD:

F (x/M) = P (X ≤ x/M) =P(X ≤ x,M)

P(M)

Obviamente, si derivamos obtenemos la fdp condiconada f(x/M). Al ser X/M una VAtendra sentido tambien hablar de su esperanza. Se define esperanza condicionada como:

E(X/M) =

∫ +∞

−∞xf(x/M)dx

Aunque las FD condicionadas estaran definidas para cualquier suceso M , son especialmenteinteresantes los casos en los que el suceso M esta relacionado con la misma VA (por ejemploM = a < X ≤ b) o con otra VA (por ejemplo M = Y ≤ y).

Page 84: Todo Unido Pe 2011

Universidad de Vigo. PyE. Tema 3: Vectores aleatorios 3.8

Ejemplo Sea M = a < X ≤ b con a < b y X VA continua. Aplicando la definicion de FDcondicionada, se obtiene:

F (x/a < X ≤ b) =P(X ≤ x, a < X ≤ b)

P(a < X ≤ b)=

0 si x < a

F (x)− F (a)

F (b)− F (a)si a ≤ x < b

1 si x ≥ b

Derivando la expresion anterior, se obtiene la fdp condicionada:

f(x/a < X ≤ b) =

f(x)

F (b)− F (a)si a ≤ x < b

0 en otro caso

Observa que la funcion que define la fdp condicionada es la misma, tan solo aparece reesca-lada por una constante para que el area bajo la nueva curva siga siendo una unidad.

Ejemplo 3.1: Sea X la VA que mide el numero de escalones que sube un individuo hasta queresbala y se cae. La probabilidad de caerse en cualquier escalon es p. Si se supone que la escaleratiene infinitos escalones, calcula:a) La fdp de X.b) La fdp de X si el individuo ya ha subido dos peldanos sin resbalar.Representa graficamente ambos resultados y observa sus diferencias y similitudes.

Page 85: Todo Unido Pe 2011

Universidad de Vigo. PyE. Tema 3: Vectores aleatorios 3.9

Ejemplo 3.2: Sea X la VA que mide el numero de metros que sube un patinador a lo largode un plano inclinado hasta que resbala y se cae. Suponiendo que en todo el plano inclinadola probabilidad de caerse es constante, resulta adecuado modelar X mediante una distribucionexp(α).a) Representa graficamente la fdp de X.b) Calcula la fdp de X si el patinador ya ha avanzado dos unidades de distancia sin resbalar.Representala graficamente y comparala con el resultado anterior.

La FD y la fdp se pueden expresar en funcion de una serie de FD y fdp condicionadas porun conjunto de sucesos que formen una particion. En el caso de la expresion de la FD se trata deun caso particular del teorema de las probabilidades totales.

Teorema: Probabilidades totales aplicado a FD

Sea A1, A2, ..., An, ... una particion de Ω. Entonces:

F (x) =∑∀i

F (x/Ai)P(Ai)

La demostracion es trivial, puesto que la expresion anterior es una aplicacion directa delteorema de las probabilidades totales.

P(X ≤ x) =∑∀i

P(X ≤ x/Ai)P(Ai)

Teorema: Probabilidades totales aplicado a fdp

Sea A1, A2, ..., An, ... una particion de Ω. Entonces: f(x) =∑∀i f(x/Ai)P(Ai)

Este resultado se obtiene sencillamente derivando el teorema correspondiente a la FD.

Teorema: Probabilidades totales aplicado a esperanzas

Sea A1, A2, ..., An, ... una particion de Ω. Entonces: E(X) =∑∀i E(X/Ai)P(Ai)

Page 86: Todo Unido Pe 2011

Universidad de Vigo. PyE. Tema 3: Vectores aleatorios 3.10

4.1. FD y fdp condicionada por sucesos de probabilidad nula

En ocasiones es util usar como particion todos los posibles valores de una VA. Si la VA esdiscreta no hay problema, pero si la VA es continua los sucesos del tipo X = x tienen proba-bilidad cero. Por tanto, no se puede aplicar la definicion habitual de probabilidad condicionada asucesos como P(A/X = x). Redefiniremos la fdp condicionada para este caso concreto.

Definicion Si X es una VA continua se define:

P(A/X = x) =P(A)f(x/A)

f(x)

La definicion es analoga a la del teorema de Bayes para probabilidades, pero al utilizar unsuceso de probabilidad nula(X = 0) las probabilidades se sustituyen por fdps.

Definicion Si X e Y son VA continuas, se define la funcion de densidad condicionada de Ydado el valor X = x como:

fY (y/X = x) =fXY (x, y)

fX(x)si fX(x) > 0

Analogamente:

fX(x/Y = y) =fXY (x, y)

fY (y)si fY (y) > 0

Como se observa, la fdp conjunta (el numerador de la fraccion) se puede expresar como elproducto de una marginal por una condicionada.

A partir de la definicion de fdp condicionada, se extrapola facilmente la idea de esperanzacondicionada por un suceso de la forma M = X = x:

E(Y/M) =

∫ +∞

−∞yf(y/M)dy =

∫ +∞

−∞yf(y/X = x)dy =

∫ +∞

−∞yfXY (x, y)

fX(x)dy

La nueva definicion de probabilidad condicionada permite definir versiones de los teoremasde Bayes y de las probabilidades totales para el caso de particiones formadas por sucesos del tipoX = x recorriendo todo el rango de X. Se trata, por tanto, de particiones no numerables.

Teorema: Version continua del teorema de las probabilidades totalesSea X una VA continua. Entonces:

a) P(A) =

∫ +∞

−∞P(A/X = x)f(x)dx

b) fY (y) =

∫ +∞

−∞f(y/X = x)f(x)dx

Teorema: Version continua del teorema de BayesSean X e Y VA continuas. Entonces:

a) f(x/A) =P(A/X = x)fX(x)∫ +∞

−∞P(A/X = u)fX(u)du

b) fY (y/X = x) =fX(x/Y = y)fY (y)

fX(x)

Page 87: Todo Unido Pe 2011

Universidad de Vigo. PyE. Tema 3: Vectores aleatorios 3.11

Analogıas entre las versiones continuas y discretas

Version discreta Version continua

Particion finita o infinita numerable Particion no numerable

B1, . . . , Bn, . . . Rango de una VA continua X = x ∀x

P(A) =∑∀i P(A/Bi)P(Bi) P(A) =

∫ +∞

−∞P(A/X = x)fX(x)dx

Sumatorio finito o infinito Integral

Ponderacion: P(Bi) Ponderacion: f(x)

4.2. Independencia de VA

El concepto de independencia definido para dos sucesos es generalizable para VA. Recorde-mos que dos sucesos A y B son independientes si y solo si P(A ∩B) = P(A)P(B).

Definicion: Independencia de VA

Sean X e Y dos VA. Entonces:X e Y son independientes si los sucesos X ≤ x e Y ≤ y son independientes ∀x, y.

Observacion: Existe un conjunto de definiciones de independencia de VA equivalentes ala anterior. Por tanto que X e Y sean independientes equivale a cualquiera de las siguientescondiciones:

En el caso continuo:

F (x, y) = F (x)F (y) ∀x, yfXY (x, y) = fX(x)fY (y) ∀x, yf(x/Y = y) = fX(x) ∀x, yf(y/X = x) = fY (y) ∀x, y

En el caso discreto:

F (x, y) = F (x)F (y) ∀x, yP(X = xi, Y = yj) = P(X = xi)P(Y = yj) ∀xi, yjP(X = xi/Y = yj) = P(X = xi) ∀xi, yjP(Y = yj/X = xi) = P(Y = yj) ∀xi, yj

Proposicion: Sean X e Y dos VA independientes. Entonces: x1 < X ≤ x2 e y1 < Y ≤ y2son sucesos independientes ∀x1 < x2, ∀y1 < y2.

Page 88: Todo Unido Pe 2011

Universidad de Vigo. PyE. Tema 3: Vectores aleatorios 3.12

Ejercicio 3.2: Sean X ∼ exp(1) e Y ∼ exp(2) dos VA independientes.a) Se sabe que Y ha tomado el valor 2. ¿Cual es la probabilidad de que X tome un valor mayorque Y ?b) Calcula una expresion para la probabilidad de que X sea mayor que Y sabiendo que Y = y.c) Calcula la probabilidad de que X sea mayor que Y .

5. Transformaciones de VA bidimensionales

5.1. Dos funciones de dos VA

En la practica es habitual encontrar sistemas donde existen dos variables de salida que de-penden de otras dos variables de entrada. El hecho de que las variables de entrada sean aleatorias,implica, en general, que las salidas tambien sean aleatorias. Si deseamos expresar un punto encoordenadas polares y conocemos las coordenadas cartesianas ası como su distribucion de proba-bilidad, nos encontramos ante un problema de esta naturaleza. Lo mismo ocurre en un sistema detransmision de una senal estereo, donde las senales que se transmiten son la suma y la diferenciade los canales izquierdo y derecho. Conceptualmente se trata de un problema similar al de lastransformaciones univariantes. Sin embargo, desde el punto de vista del calculo es, en general, unpoco mas complicado, puesto que obtener la imagen inversa de una region del plano es en generalmas laborioso, y posteriormente calcular su probabilidad requiere manejar una fdp bidimensional.

El problema general planteado es el siguiente: sea (X, Y ) una VA bidimensional con FD ofdp conocidas. Sobre ella realizamos las transformaciones:

Z = g(X, Y )

W = h(X, Y )

¿Como determinar FZW (z, w) o fZW (z, w)?

5.1.1. Calculo de la FD

Por definicion FZW (z, w) = P(Z ≤ z,W ≤ w). Dado que fXY (x, y) es conocida, para podercalcular esta probabilidad es necesario hallar el suceso equivalente a Z ≤ z,W ≤ w en el plano(X, Y ). Por tanto:

FZW (z, w) = P(Z ≤ z,W ≤ w) = P ((x, y)/g(x, y) ≤ z, h(x, y) ≤ w) = P((X, Y ) ∈ Dzw)

Page 89: Todo Unido Pe 2011

Universidad de Vigo. PyE. Tema 3: Vectores aleatorios 3.13

donde Dzw es, por definicion, la region del plano (X, Y ) cuya imagen da lugar a los pares de(Z,W ) que verifican Z ≤ z,W ≤ w.

Una vez obtenida la region de interes su probabilidad se puede calcular a partir de fXY (x, y):

FZW (z, w) = P((X, Y ) ∈ DZW) =

∫ ∫DZW

fXY (x, y) dxdy

Si trasladasemos el problema a dimension n, es decir, n funciones de n variables, la solucionserıa analoga.

5.1.2. Calculo de la fdp en el caso continuo. Teorema fundamental

Sea (X, Y ) una VA bidimensional continua. Sea Z = g(x, y), W = h(x, y), siendo g y hfunciones reales, no constantes, derivables y con derivadas parciales continuas.Para cada pareja (z, w) sean (x1, y1), (x2, y2), . . . , (xn, yn), . . . las raıces reales del sistema z =g(x, y), w = h(x, y). Entonces:

fZW (z, w) =∑∀i

fXY (xi, yi)

|J(xi, yi)|=∑∀i

fXY (xi, yi) |J(z, w)|

donde los jacobianos son los siguientes determinantes:

J(x, y) =

∣∣∣∣∣∣∣∂z

∂x

∂z

∂y∂w

∂x

∂w

∂y

∣∣∣∣∣∣∣ J(z, w) =

∣∣∣∣∣∣∣∂x

∂z

∂x

∂w∂y

∂z

∂y

∂w

∣∣∣∣∣∣∣Observacion: Fıjate que la expresion de fZW es funcion del valor absoluto de los determi-

nantes.

Observacion:El teorema serıa analogo para transformaciones n-dimensionales.

Page 90: Todo Unido Pe 2011

Universidad de Vigo. PyE. Tema 3: Vectores aleatorios 3.14

Ejemplo resuelto 3.1: Sea (R,Θ) el vector de coordenadas polares de un punto. R y Θ son in-dependientes, con distribuciones Θ ∼U(−π, π) y R ∼ Ray(σ). Se definen ahora las coordenadascartesianas (X, Y ) como: X = RcosΘ;Y = RsenΘ. Calcula la fdp conjunta de (X, Y ) y susmarginales.R y Θ son VA independientes con fdp:

fR(r) =r

σ2e−

r2

2σ2 si r > 0

fΘ(θ) =1

2πsi θ ∈ (−π, π)

Es una transformacion sobradamente conocida, con inversa unica:

x = rcos(θ)y = rsen(θ)

⇒r =

√x2 + y2

θ = atan(y/x) + kπ con k = −1, 0, 1 en funcion del signo de x e y

Calculamos el jacobiano:

J(r, θ) =

∣∣∣∣ cos(θ) −rsen(θ)sen(θ) rcos(θ)

∣∣∣∣ = r

Aplicando el teorema fundamental:

fXY (x, y) =1

rfR(r)fΘ(θ) =

1√x2 + y2

fR(√x2 + y2)fΘ(θ) =

1

2πσ2e−x

2 + y2

2σ2

Es facil comprobar que:

fXY (x, y) =

1

σ√

2πe− x2

2σ2

1

σ√

2πe− y2

2σ2

= fX(x)fY (y)

Siendo X e Y N(0, σ) e independientes, pues su fdp conjunta es el producto de las marginales.

Ejemplo 3.3: Sea (X, Y ) una VA bidimensional continua con fdp conjunta conocida. Se definenZ = aX + bY ; W = cX + dY . Calcula fZW (z, w) asumiendo que el sistema tiene solucion unica.

Page 91: Todo Unido Pe 2011

Universidad de Vigo. PyE. Tema 3: Vectores aleatorios 3.15

5.2. Cambios de dimension

En muchos sistemas fısicos es comun que exista una magnitud que es funcion de dos omas variables. Por ejemplo, en sistemas de procesado de senal con multiplexadores electronicos(moduladores, demoduladores) es habitual que aparezcan transformaciones del tipo Z = XY .En un sistema de colas el tiempo total que necesita el usuario para poder hacer uso de undeterminado servicio se calcula como la suma del tiempo de espera mas el tiempo de uso delservicio propiamente dicho (Z = X + Y ). El problema que se plantea aquı para calcular ladistribucion de probabilidad de la VA Z es conceptualmente muy similar al de las transformacionesunivariantes y multivariantes abordados anteriormente. En este caso, calcular una probabilidadasociada a un determinado intervalo de Z consiste en obtener un suceso equivalente en el plano(X, Y ), es decir, aquel conjunto de puntos del plano que al ser transformados mediante g(X, Y )dan lugar a un valor de Z perteneciente al intervalo de interes. Ademas de este procedimiento, enesta seccion veremos que a partir del teorema fundamental para transformaciones multivariantesse puede definir un metodo para calcular fZ(z), basado en definir una VA auxiliar.

5.2.1. Calculo de la FD de Z = g(X, Y )

Por definicion FZ(z) = P(Z ≤ z). Dado que fXY (x, y) es conocida, para poder calcular estaprobabilidad es necesario hallar el suceso equivalente a Z ≤ z en el plano (X, Y ). Por tanto:

FZ(z) = P(Z ≤ z) = P((x, y)/g(x, y) ≤ z) = P((X, Y ) ∈ Dzdonde Dz es, por definicion, la region del plano (X, Y ) cuya imagen da lugar a valores de Z queverificanZ ≤ z.

Una vez obtenida la region de interes, su probabilidad se puede calcular a partir de fXY (x, y):

FZ(z) = P((X, Y ) ∈ DZ) =

∫ ∫DZ

fXY (x, y) dxdy

Ejemplo 3.4: Sea (X, Y ) una VA bidimensional continua con fdp conjunta conocida. Se defineZ = max(X, Y ). Calcula FZ(z) y fZ(z).

Page 92: Todo Unido Pe 2011

Universidad de Vigo. PyE. Tema 3: Vectores aleatorios 3.16

Ejemplo 3.5: Sea (X, Y ) una VA bidimensional continua con fdp conjunta conocida. Se defineZ = min(X, Y ). Calcula FZ(z) y fZ(z).

Ejemplo 3.6: Sean X e Y VA independientes con distribuciones exp(α1) y exp(α2) respectiva-mente. Se define Z = min(X, Y ). Calcula FZ(z) y fZ(z).

5.2.2. Calculo de la fdp de Z = g(X, Y ). Metodo basado en el teorema fundamental

Si las VA X e Y son continuas es posible utilizar el teorema fundamental para calcular fZ(z)si se define una VA auxiliar W . A partir de W se construye la VA bidimensional (Z,W ), que esfuncion de (X, Y ). El calculo de fZW (z, w) en funcion de fXY (x, y) ya lo hemos resuelto con elteorema fundamental en su version multivariante. Una vez que calculemos fZW (z, w) ya podemosconocer fZ(z), simplemente calculando la fdp marginal correspondiente. A continuacion veremosesquematicamente los pasos a seguir:

a) Definicion de una VA auxiliar: W = h(X, Y ). La definicion de esta VA es arbitraria. Eviden-temente se debe realizar una eleccion que cumpla las hipotesis requeridas para la aplicaciondel teorema fundamental, procurando que simplifique los calculos. Ejemplo: W = X.

b) Aplicacion del teorema fundamental en su version multivariante a Z = g(X, Y ),W =h(X, Y ). Como resultado se obtiene fZW (z, w).

c) Obtencion de fZ(z) mediante la marginal de fZW (z, w):

fZ(z) =

∫ +∞

−∞fZW (z, w)dw

Page 93: Todo Unido Pe 2011

Universidad de Vigo. PyE. Tema 3: Vectores aleatorios 3.17

Nota: los lımites de integracion se ponen entre −∞ y +∞ con un proposito de generalidad.Evidentemente, en la practica estos lımites habra que modificarlos en funcion de los rangos delas variables aleatorias que se manejen. En este caso particular, para obtener la marginal de Z,habra que determinar, para cada valor de z, el rango de valores que puede tomar W .

Ejemplo 3.7: Sea (X, Y ) una VA bidimensional continua con fdp conjunta conocida. Se defineZ = X + Y . Calcula fZ(z).

Teorema de convolucion. Version continua

Sean X e Y dos VA continuas e independientes. Sea Z=X + Y . Entonces fZ = fX ∗ fY

La demostracion es sencilla. Si particularizamos la expresion obtenida en el anterior ejemplopara el caso en el queX e Y son independientes, se verifican las siguientes expresiones equivalentes:

fZ(z) =

∫ +∞

−∞fx(z − w)fY (w)dw

fZ(z) =

∫ +∞

−∞fx(w)fY (z − w)dw

que son precisamente las integrales de convolucion de ambas fdp.

Teorema de convolucion. Version discreta

Si bien el teorema fundamental no es aplicable a VA discretas, el teorema de convoluciontambien se verifica para este tipo de variables. En este caso se trata de una convolucion discreta:Sean X e Y dos VA discretas e independientes. Sea Z = X + Y . Entonces:

P(Z = zn) =∑

k,j/xk+yj=zn

P(X = xk)P(Y = yj) =∑∀k

P(X = xk)P(Y = zn − xk)

que en el caso de que X e Y tomen valores enteros se transforma en:

P(Z = n) =∑∀k

P(X = k)P(Y = n− k)

Teorema fundamental para esperanzas

Bajo las mismas hipotesis del teorema fundamental. Si Z = g(X, Y ) entonces:

E(Z) =

∫ +∞

−∞zfZ(z)dz =

∫ +∞

−∞

∫ +∞

−∞g(x, y)fXY (x, y)dxdy

Page 94: Todo Unido Pe 2011

Universidad de Vigo. PyE. Tema 3: Vectores aleatorios 3.18

El teorema tambien es cierto en el caso discreto:

E(Z) =∑∀j

zjP(Z = zj) =∑∀k,n

g(xk, yn)P(X = xk, Y = yn)

El teorema fundamental para esperanzas nos permite calcular la media de una transforma-cion sin necesidad de calcular la fdp de la variable transformada. En particular, se puede afirmarentonces que la esperanza es un operador lineal:

E(aX + bY ) = aE(X) + bE(Y )

Ejemplo 3.8: Se sabe que a un ordenador central van llegando procesos para ser ejecutados.El intervalo de tiempo transcurrido entre dos llegadas consecutivas, independientemente de lasdemas, sigue una distribucion exp(α) (con el parametro referido a minutos). El ordenador sesatura si se producen tres o mas llegadas en menos de un segundo.a) Calcula la fdp de la VA Z definida como el tiempo que pasa entre tres llegadas consecutivas.b) Determina la probabilidad de que se sature el ordenador.

Ejemplo 3.9: Sean X e Y dos VA independientes cuyo rango es el conjunto 1, 2, 3, 4. Ambasvariables pueden tomar cada uno de estos valores de forma equiprobable. Se define Z = X + Y .Calcula P(Z = 2) y P(Z = 4).

Page 95: Todo Unido Pe 2011

Universidad de Vigo. PyE. Tema 3: Vectores aleatorios 3.19

6. Correlacion y regresion

6.1. El coeficiente de correlacion

A menudo las VA implicadas en un determinado problema estan interrelacionadas y pre-sentan una determinada relacion de dependencia. Por ejemplo, en un sistema de colas, el tiempode espera esta relacionado con la cantidad de clientes por unidad de tiempo que se incorporanal sistema. El objetivo de muchos trabajos de investigacion es precisamente determinar la depen-dencia que existe entre distintas variables, por ejemplo consumo de tabaco e incidencia de cancer.Por tanto, resulta muy util disponer de algun parametro que mida la dependencia entre VA. Ennuestro caso introduciremos parametros relativos a la dependencia lineal entre dos VA.

Definicion: Se llama covarianza de X e Y :

Cov(X, Y ) = σXY = E(X − µX)(Y − µY ) = E(XY )− E(X)E(Y )

Una relacion importante entre las varianzas y la covarianza de dos VA viene dada por ladesigualdad de Schwartz:

σ2XY ≤ σ2

Xσ2Y ; o, equivalentemente: |σXY | ≤ σXσY

La covarianza puede ser interesante para estudiar la relacion lineal entre dos VA, pero es facilcomprobar que es un parametro dependiente de las unidades de medida que utilicemos. Es decir, siZ = aX+ b y W = cY +d, es inmediato que σZW = ac σXY . Sin embargo, resulta evidente que larelacion entre las variables X e Y es la misma que la que existe entre Z y W (supon que las varia-bles miden longitud y que la transformacion lineal consiste en un cambio de metros a centımetros).Para eliminar esa dependencia de la escala usada, se define el coeficiente de correlacion como:

ρXY =σXY

σXσY

parametro que, independientemente de las unidades, siempre toma valores en el intervalo [-1,1](vease desigualdad de Schwartz). Ademas, es una magnitud adimensional.

El coeficiente de correlacion mide el grado de dependencia lineal entre dos VA, de formaque si vale 1 o -1 la dependencia es total. Esta afirmacion se discutira en detalle mas adelante.

Diremos que dos VA son incorreladas si su coeficiente de correlacion es nulo (para ello bastacon que su covarianza sea cero); hablaremos de VA ortogonales en el caso de que la esperanza desu producto sea cero.

Ejercicio 3.3: Demuestra que si X e Y son VA independientes, entonces tambien son incorreladas.

Dos VA independientes son siempre incorreladas, aunque el recıproco no es, en general,cierto; pues el hecho de que no exista dependencia lineal no quiere decir que no pueda existir otrotipo de dependencia, por ejemplo, polinomica o exponencial. Las condiciones de incorrelacion eindependencia son equivalentes bajo la hipotesis de normalidad, como se vera mas adelante.

Page 96: Todo Unido Pe 2011

Universidad de Vigo. PyE. Tema 3: Vectores aleatorios 3.20

Ejercicio 3.4: Demuestra que Var(X + Y ) = Var(X) + Var(Y ) + 2Cov(X, Y )

Por tanto, la varianza de una suma coincide con la suma de las varianzas solo cuando lasvariables estan incorreladas, pero puede ser mayor o menor que la suma de las varianzas.

6.2. Regresion

La teorıa de la regresion estudia como estimar una VA Y en funcion de n VA X1, . . . , Xn quepudieran ser mas facilmente medibles. Para ello se construye Y = g(X1, . . . , Xn) y se aproxima Ypor Y . Para elegir la funcion g debemos establecer algun criterio respecto a su forma o propiedades.Para que la estimacion sea buena, la funcion g debe minimizar el error cometido. Al trabajar conVA se pueden considerar distintos tipos de error; pero la teorıa de la regresion clasica considerael error cuadratico medio:

ε = E(Y − Y )2

En esta seccion estudiaremos la prediccion de una VA Y por una unica VA X, aunque losresultados que obtengamos seran facilmente generalizables a dimensiones superiores. Estudiaremosdistintas posibilidades para la forma de la funcion g:

1) Y = g(X) = a (Estimacion constante e independiente de X)

En este caso ε = E(Y − a)2 = E(Y 2) + a2 − 2aE(Y ).

Derivando respecto al parametro a e igualando a cero: 2a− 2E(Y ) = 0

de donde se deduce que a = E(Y ). Al ser positiva la segunda derivada concluimos que el valorque minimiza el error es precisamente E(Y ). Por otro lado, es evidente que el error cuadraticomedio cometido es ε = Var(Y ).

2) Y = g(X) = aX + b (Estimacion lineal)

Minimizando el error cuadratico medio se obtienen los siguientes valores (analogo a 1):

a =σXY

σ2X

= ρσYσX

; b = E(Y )− ρσYσX

E(X)

Por lo que la recta general de regresion toma la siguiente expresion:

Y = E(Y ) + ρσYσX

(X − E(X))

Ademas, se puede probar que el error cometido es: ε = σ2Y (1− ρ2)

La pendiente de la recta viene marcada por el signo de ρ. Si ρ = 1 o −1, se ve que el errorcometido es cero y la dependencia lineal entre las dos variables es total. Por otro lado si ρ = 0,vemos que la recta de regresion se reduce a la expresion Y = E(Y ), es decir, el conocer X noaporta ninguna informacion lineal sobre Y ; o lo que es lo mismo, las variables son incorreladas.

Page 97: Todo Unido Pe 2011

Universidad de Vigo. PyE. Tema 3: Vectores aleatorios 3.21

3) Y = g(X) (Estimacion general)

Se puede probar que el estimador es: Y = E(Y/X) llamado lınea general de regresion. Evi-

dentemente si X e Y son independientes Y = E(Y ) es decir, el conocer X no nos aporta nadapara conocer Y . En la practica no es facil conocer esa esperanza condicionada, por lo que, engeneral, se utiliza mas la estimacion lineal mınimo cuadratica.

6.3. Distribucion normal bidimensional

Todos estos parametros tienen una especial relevancia cuando trabajemos con distribucionesnormales.

Sea ~X = (X, Y )t un vector aleatorio y sea ~µ = (µ1, µ2)t un vector de numeros reales. Sea lamatriz:

Σ =

(σ2

1 σ12

σ12 σ22

)

Se dice que ~X sigue una distribucion normal 2-dimensional si su fdp es de la forma:

~X ∼ N2(~µ,Σ)⇔ fXY (~x) = fXY (x, y) =1

2π√|Σ|

exp

−1

2(~x− ~µ)t Σ−1 (~x− ~µ)

Al vector ~µ se le llama vector de medias y a la matriz Σ se le llama matriz de varianzas-covarianzas.

Si llamamos ρ = σ12/(σ1σ2) y hacemos las cuentas del determinante y del producto matricial,la expresion de la fdp serıa:

f(x, y) =1

2πσ1σ2

√1− ρ2

exp

− 1

2(1− ρ2)

[(x− µ1)2

σ21

+(y − µ2)2

σ22

− 2ρ(x− µ1)(y − µ2)

σ1σ2

]

La siguiente figura representa la fdp de una normal bidimensional.

!3!2

!10

12

3

!3!2

!10

12

30

0.1

0.2

0.3

0.4

XY

Page 98: Todo Unido Pe 2011

Universidad de Vigo. PyE. Tema 3: Vectores aleatorios 3.22

Propiedades:

1) Las distribuciones marginales de (X, Y ) son tambien normales unidimensionales. En con-creto X ∼ N(µ1, σ1) e Y ∼ N(µ2, σ2).

2) Se verifica que Cov(X, Y ) = σ12 y por tanto el coeficiente de correlacion entre X e Y es ρ.

3) Si ρ = 0 entonces fXY (x, y) = fX(x)fY (y). Es decir, si dos normales son incorreladas, tam-bien son independientes. Dado que el recıproco es siempre cierto (dos VA independientesson incorreladas), se concluye que bajo la hipotesis de normalidad, la condicion de indepen-dientes equivale a la de incorreladas.

4) Si (X, Y ) sigue una distribucion normal bidimensional, cualquier combinacion lineal de Xe Y , Z = aX + bY , sigue una distribucion normal unidimensional.

Observacion: En una normal 2-dimensional las dos marginales son normales monodimensio-nales, aunque el recıproco no es cierto en general, es decir, podrıa ocurrir que dos VA X e Y seannormales pero su distribucion conjunta no lo sea. En el caso en que X e Y sean independientes(o incorreladas) es evidente que su distribucion conjunta sera normal si X e Y lo son.

Proposicion: Si X ∼ N(µ1, σ1) e Y ∼ N(µ2, σ2) son VA independientes (o incorreladas)

entonces Z = X + Y sigue una distribucion normal. En concreto Z ∼ N(µ1 + µ2,√σ2

1 + σ22).

El hecho de que Z sea gaussiana se deduce inmediatamente de la propiedad 4). Para obtenerlos parametros (media y desviacion tıpica) basta con recordar que la esperanza de la suma es lasuma de las esperanzas y que la varianza de la suma de variables incorreladas es la suma de lasvarianzas.

EJERCICIOS PROPUESTOS:Distribuciones conjuntas y marginales. Li. Ejemplos adicionales 4.23. Pag. 192.Distribuciones conjuntas y marginales. Li. Ejemplos adicionales 4.24. Pag. 194.Distribuciones conjuntas y marginales. Cao. Problema 5.1, apartados a), b) y c). Pag. 222.Independencia de VA. Li. Problema 4.8. Pag. 202.Independencia de VA. Li. Problema 4.10. Pag. 202.Calculo de FZ(z), Z = g(X, Y ). Calcula FZ(z) para Z = X+Y . Hazlo buscando la imagen inversade Z ≤ z y calculando su probabilidad a partir de fXY (x, y). Comprueba que llegas al mismoresultado que en el teorema de convolucion.Teorema convolucion. Calculo de lımites de integracion. Ejemplo 3.3-3 de (Stark, 1994). Pag. 130.Esperanza y esperanza condicionada. Stark. Problema 4.11. Pag. 220.Esperanza y Correlacion. Li. Problema 4.15. Pag. 203.Correlacion. Stark. Ejemplo 4.3.5. Pag 186.Covarianza e incorrelacion. Li. Ejemplos adicionales 4.27. Pag. 196.Independencia e incorrelacion. Stark. Problema 4.18. Pag. 221Regresion. Stark. Problema 4.16. Pag 221

LECTURAS RECOMENDADAS:Concepto de variable aleatoria. Papoulis. Apartado 4.1Funciones de distribucion y densidad. Papoulis. Apartado 4.2Introduccion a las transformaciones de VA. Apartado 3.1. Stark.Esperanzas y varianzas. Cao. Capıtulos 4.6 y 4.7.

INFORMACION Y DOCUMENTACION ADICIONAL:La documentacion de este tema se complementa con un boletın de problemas.

Page 99: Todo Unido Pe 2011

Universidad de Vigo. Problemas de PyE. Tema 3: Vectores aleatorios 3.1

PROBLEMAS DE PROBABILIDAD Y ESTADISTICATema 3: Vectores aleatorios

3.1) Una VA bidimensional (X, Y ) tiene como fdp conjunta una uniforme en la region sombreadaen el grafico, donde D es una constante.

a) Escribe la expresion correspondiente a la fdp conjuntade X e Y . Comprueba que es fdp.

b) Calcula P(X < D/2, Y < D/4).

c) Calcula la fdp marginal de X y la de Y . Compruebaen ambos casos que lo obtenido es efectivamente unafdp.

3.2) Sea X una VA continua e Y una VA discreta. La funcion de densidad conjunta es:

fXY (x, k) =xke−2x

k!con x > 0 y k = 0, 1, 2, . . .

a) Obten la fdp marginal de Y .b) Obten la fdp marginal de X.c) Calcula la fdp de X condicionada por Y = 2.

3.3) Se lanza una moneda al aire 3 veces. La probabilidad de obtener cara en cualquier lanza-miento es p. Sea X la VA que mide el numero de caras que se obtienen y sea Y la VAdefinida como el numero de lanzamientos hasta que se obtiene la primera cara. En caso deque no se obtenga ninguna cara, se le asigna a Y el valor Y = 0. Calcula:

a) Las fdp de las VA X e Y . Comprueba que son fdp y representalas graficamente parap = 0.5.

b) Determina el rango de la VA bidimensional (X, Y ).

c) Calcula la funcion de masa de probabilidad de la VA bidimensional (X, Y ).

d) Calcula la probabilidad de que salga mas de una cara sabiendo que en el primer lan-zamiento ha salido cara. Evalua el resultado para p = 0.5.

3.4) Sea (X, Y ) una VA bidimensional con funcion de masa de probabilidad dada por:

P(X = k, Y = j) = c pk1 pj2 con p1, p2 ∈ (0, 1); k = 0, 1, 2, . . . ; j = 0, 1, 2, . . .

a) Determina el valor de la constante c.

b) ¿Son las VA X e Y independientes?

c) Calcula P(X ≥ Y/Y = n).

d) Calcula P(X = Y ).

3.5) El vector aleatorio bidimensional (X, Y ) sigue una distri-bucion uniforme sobre la region sombreada de la graficaadjunta. Calcula:

a) La probabilidad de que el producto de ambas variablesX e Y sea negativo.

b) El rango de la variable aleatoria Y/X = x.c) La fdp marginal de X.

Page 100: Todo Unido Pe 2011

Universidad de Vigo. Problemas de PyE. Tema 3: Vectores aleatorios 3.2

3.6) Para realizar una tarea informatica se requieren dos pasos. En primer lugar debemos co-nectarnos a un ordenador y posteriormente utilizarlo. Sea Y la VA que mide el tiempoque tardamos en conectarnos al ordenador; sea X la VA que mide el tiempo de uso delordenador, y sea Z la VA que mide la proporcion de tiempo de uso del ordenador sobre eltiempo total que tardamos en concluir la tarea. Suponiendo que las variables X e Y sonindependientes e identicamente distribuidas con distribucion exp(α), calcula la fdp de Z.

3.7) Las VA X e Y son independientes y U(0, a). Encuentra la funcion de densidad de |X − Y |.

3.8) En un sistema de comunicaciones, por cuestiones de seguridad, cada mensaje se envıa si-multaneamente por tres canales distintos. Cada canal consta de cuatro elementos (de tiposA,B,C y D) funcionando a la vez. Se considera que un canal es operativo cuando loscuatro elementos funcionan correctamente. El tiempo de vida de cada elemento sigue unadistribucion exp(λ) con λ = 1/2, 1/4, 1/8 y 1/16 para los elementos de tipo A,B,C y D,respectivamente. Todos los elementos del sistema funcionan de forma independiente. Se con-sidera que el sistema esta operativo si lo estan al menos dos de los tres canales. Sea Y laVA que mide el tiempo total que el sistema esta operativo. Calcula la fdp de Y .

3.9) Los voltajes X1 y X2 son dos VA independientes e identicamente distribuidas con fdp:

f(x) = 2αx e−αx2

si x > 0

Sea Pi la potencia correspondiente al voltaje Xi (P =X2). Calcula la probabilidad de que en la salida delsistema se tenga una potencia mayor que 3.

3.10) Sea (X, Y ) una VA bidimensional con fdp conjunta dada por:

f(x, y) =1

2si 0 < y < x < 2

a) Calcula las fdp marginales de X e Y . Comprueba que efectivamente son fdp.b) Calcula las esperanzas de X e Y .c) Calcula la covarianza entre X e Y .d) Calcula las varianzas de X e Y .e) Calcula la recta general de regresion de Y sobreX y el error cuadratico medio cometido.f) Calcula la lınea general de regresion de Y sobre X y el error cuadratico medio cometido.g) Se ha observado una valor de x = 1.5, ¿cuales serıan las mejores predicciones (lineal y

no lineal) para Y ?

3.11) Sea (X, Y ) una VA bidimensional con fdp conjunta dada por:

f(x, y) = (x+ y) si

0 < x < 10 < y < 1

a) ¿Son X e Y independientes?b) ¿Son X e Y incorreladas?

c) Se realiza la transformacion Z =X

Y. Determina la fdp de Z, indicando claramente el

rango de Z.

3.12) Sea (X, Y ) una VA bidimensional con fdp conjunta dada por:

f(x, y) = 4 e−2x si 0 ≤ y ≤ x < +∞

a) ¿Son X e Y independientes? Justifica la respuesta.Sea Z = X + Y

b) Determina E(Z).c) Determina la fdp de Z, indicando claramente su rango.

Page 101: Todo Unido Pe 2011

Universidad de Vigo. Problemas de PyE. Tema 3: Vectores aleatorios 3.3

SOLUCIONES AL BOLETIN DE PROBLEMASTema 3: Vectores aleatorios

3.1) a) fXY (x, y) = 2D2 con 0 < y < x < D

b) 3/16

c) fX(x) = 2D2x con 0 < x < D; fY (y) = 2

D2 (D − y) con 0 < y < D

3.2) a) f(y) =+∞∑k=0

(1

2

)k+1

δ(y − k)

b) X ∼ exp(1)c) f(x/Y = 2) = 4x2e−2x si x > 0

3.3) a) Si q = 1− p, P(Y = 0) = q3,P(Y = 1) = p,P(Y = 2) = qp,P(Y = 3) = q2p,X ∼ Bi(3, p)b) y c) P(X = 0, Y = 0) = q3,P(X = 1, Y = 1) = P(X = 1, Y = 2) = P(X = 1, Y = 3) =pq2,P(X = 2, Y = 1) = 2p2q,P(X = 2, Y = 2) = p2q,P(X = 3, Y = 1) = p3

c) 2p− p2 (si p = 0.5 vale 0.75)

3.4) a) c = (1–p1)(1–p2)

b) Si

c) pn1

d)(1–p1)(1–p2)

1− p1p23.5) a) 1/2

b) Si x > 0, y ∈ (x− 1,√

1− x2); si x < 0, y ∈ (−1− x,√−1− x2)

c) f(x) =2

2 + π(√

1− x2 + 1− |x|) si −1 < x < 1

3.6) Z ∼ U(0,1)

3.7) f(z) = 2a2

(a− z) 0 < z < a

3.8) fY (y) = 6α(1− e−αy)e−2αy y > 0;α = 15/16

3.9) 2e−3α − e−6α

3.10) a) fX(x) = x/2 si 0 < x < 2; fY (y) = (2− y)/2 si 0 < y < 2b) E(X) = 4/3,E(Y ) = 2/3; c) 1/9; d) Var(X) = 2/9,Var(Y ) = 2/9e) x/2, ecm = 1/6; f) x/2, ecm = 1/6; g) la prediccion es 0.75 en ambos casos.

3.11) a) No

b) No

c) f(z) =

(z + 1)/3 si z ∈ (0, 1)z + 1

3z3si z > 1

3.12) a) No

b) E(Z) = 1.5

c) f(z) = 2(e−z − e−2z) si z > 0

Page 102: Todo Unido Pe 2011

Universidad de Vigo. PyE. Practica 6 6.1

PROBABILIDAD Y ESTADISTICAPractica 6. Variables aleatorias bidimensionales

Objetivos

- Visualizacion de la fdp de una VA bidimensional.- Estudio de algunas transformaciones de VA: mınimo de exponenciales independientes,

cambio de coordenadas, suma de VA.- Revision de los conceptos de covarianza y coeficiente de correlacion, distribucion normal

bidimensional y recta de regresion.

Ejecucion

Todos los ejercicios estan integrados en estadlab: en el modulo de Variables Aleatorias,en el modulo de Esperanzas o en el modulo de Transformaciones.

fdp de VA bidimensionales (15’)

En esta practica se representan funciones de densidad conjuntas correspondientes a VA bidi-mensionales definidas a partir de dos VA independientes. Se encuentra en el modulo de VariablesAleatorias de estadlab.

Antes de empezar con las cuestiones representa las fdp conjuntas que desees dentro de lasopciones que te permite la practica. Abre la ventana de calculos y define regiones para obtenersu probabilidad. Recuerda que la probabilidad de una region del plano XY se obtiene, en gene-ral, integrando la fdp conjunta en esa region, y por tanto coincide con el volumen bajo la curvacorrespondiente a dicha region.

Cuestiones:

1) Sean X e Y dos variables aleatorias independientes con las distribuciones X ∼ Bi (8,0.5) eY ∼ exp(3). Calcula P(5 ≤ X ≤ 6, 0.4 < Y ≤ 1).

Representacion de funciones con MatLab (15’)

Esta practica se realiza trabajando directamente sobre la ventana de comandos de Matlab.- El comando basico para representar una funcion es plot. Su sintaxis mas habitual es

plot(x,y). Si lo ejecutamos en la pantalla se abrira una ventana grafica en la que se represen-taran graficamente los pares de puntos (xi, yi) interpolados linealmente. Para que funcione x e ydeben tener la misma longitud. Esta funcion posee muchas opciones distintas relativas al color,el patron empleado para la representacion, etc. Para consultarlas utiliza el comando help.

El comando hold es util para superponer distintas graficas compartiendo los mismos ejesde representacion (por ejemplo una funcion de densidad de probabilidad con su histograma co-rrespondiente). Si se escribe hold on en la ventana de comandos, la siguiente grafica que se hagacon plot se representara superponiendo la nueva grafica a las anteriores (hay que tener en cuentaque tanto plot como hold son comandos que, por defecto, actuan sobre la ultima de las ventanasgraficas que estuvo activa antes de acceder a la ventana de comandos).

Cuestiones

1) Representa graficamente la funcion y = x2.

2) Representa nuevamente la misma funcion pero ahora solo para valores de x comprendidosen el intervalo [0,5]. Hazlo de manera que la interpolacion lineal de los puntos sea pocoapreciable.

3) Representa graficamente la funcion de densidad de una VA X ∼ N(µ, σ). Define los parame-tros mediante una variable, y la expresion de la funcion de densidad escrıbela en funcion delos mismos.

Page 103: Todo Unido Pe 2011

Universidad de Vigo. PyE. Practica 6 6.2

Introduccion a las siguientes practicas

En las rutinas de esta practica relacionadas con transformaciones de variables aleatorias, sesigue el siguiente esquema:

Se parte de una VA o un conjunto de VA cuya distribucion es conocida (i.e. X ∼ exp(α)).

Se define una nueva VA como transformacion de las originales (Y = g(X))

Se genera una muestra (x1, x2, . . . , xn) siguiendo la distribucion de probabilidad de X yse representa su histograma junto con la fdp teorica (si el tamano muestral es grande elhistograma se ajustara bien a la fdp).

Se obtiene una muestra de Y aplicando directamente la transformacion sobre la muestra deX (yi = g(xi); i = 1, 2, . . . , n).

Mediante la teorıa de transformaciones de VA se puede calcular cual es la fdp de Y , ypara verificar que este resultado es correcto, se superpone la fdp calculada al histograma dela muestra obtenida mediante la transformacion. Para que esta verificacion tenga sentido,el tamano muestral debe ser suficientemente grande en relacion al numero de clases. Enalgunos casos el programa solo representa el histograma y la expresion de la fdp de Y debeser calculada analıticamente para ser representada posteriormente.

En algunos casos se realizan transformaciones multivariantes o cambios de dimension (por ejemplo,suma de dos VA), pero el planteamiento es analogo.

Suma de dos variables normales independientes (10’)

Se encuentra en el modulo de Transformaciones de estadlab.- En la ventana de trabajo se muestra la suma de dos variables normales independientes.

Para ello se generan dos muestras de dos VA X ∼ N(µ1, s1) e Y ∼ N(µ2, s2) independientes.En las dos ventanas de la izquierda se representan los histogramas y las fdp correspondientes.Sumando las muestras obtenidas de X e Y se obtiene una muestra de la VA Z = X + Y , cuyohistograma se representa en la ventana de la derecha. Con proposito comparativo, en esta ventanatambien se representan las fdp de las VA X e Y .

- Cada vez que se pulsa el boton Suma de normales se genera un nuevo conjunto demuestras de acuerdo con los parametros seleccionados y se refrescan las graficas.

Antes de empezar con las cuestiones estudia como afecta el cambio de los parametros de Xe Y (tanto media como varianza) al histograma de la suma. Cada vez que cambies los parametrosdebes pulsar el boton Suma de normales para actualizar las graficas.

Cuestiones:

1) ¿Que distribucion de probabilidad sigue X + Y ?

2) Representa la fdp de la suma superpuesta al histograma (lee previamente las observaciones).

Observaciones:- Para representar la fdp puedes emplear uno de los dos metodos siguientes:

a) Emplear las cajas integradas en la ventana de la practica (x, fx).En la primera caja define el vector x empleado para la representacion (i.e. (1:0.1:10)).En la segunda se especifica el vector fx (i.e. (sin(x)./x)+5) ). Para efectuar la representacionpulsar el boton plot(x, fx). Si alguno de los vectores esta mal definido se visualizara unmensaje de error en la ventana de comandos.

b) Utilizar el comando plot desde la ventana de comandos. Se debe tener en cuenta que elcomando plot actua sobre la ultima ventana grafica activa.

Page 104: Todo Unido Pe 2011

Universidad de Vigo. PyE. Practica 6 6.3

- El metodo b) presenta una serie de ventajas en cuanto a la edicion de las expresiones y lacorreccion de errores.- El boton Borrar elimina cualquier grafica que hayamos superpuesto sobre el histograma.- Estas observaciones son aplicables en cualquier practica en la que se pida la representacion deuna fdp.

Cambio de coordenadas cartesianas a coordenadas polares (15’)

Se encuentra en el modulo de Transformaciones de estadlab. Se accede seleccionandoCartesianas a Polares en la ventana principal.

Tal y como se vio en el ejemplo resuelto 3.1 de los apuntes, supongamos que tenemos dos VAnormales X e Y independientes, de media cero y varianza comun. Si el vector aleatorio (X, Y )representa un punto del plano en coordenadas cartesianas, y queremos representar ese mismopunto en coordenadas polares, sabemos por un ejercicio hecho en teorıa, que Φ, la fase, es unauniforme entre −π y π ; y que R, el radio polar, sigue una distribucion de Rayleigh independientede Φ:

fR(r) =r

σ2e−(r2

2σ2

)si r > 0

- En la practica se generan n muestras de (X, Y ) con desviacion tıpica σ. En la ventanainicial se representan los histogramas y la fdp de X e Y . Esta muestra se transforma para obtenerlas coordenadas polares:

R =√X2 + Y 2; Φ = arctan(Y/X)

- Para visualizar los histogramas de las nuevas VA y la fdp de la uniforme se debe pulsarel boton Transformacion. Cada vez que se desee generar una nueva muestra se pulsa Coord.Cartesianas.

Cuestiones:

1) ¿Que efecto produce el parametro σ sobre la Rayleigh?

2) ¿Es la Rayleigh una distribucion simetrica?

3) Representa la fdp de la Rayleigh superpuesta al histograma.

Mınimo de exponenciales independientes (10’)

Se encuentra en el modulo de Transformaciones de estadlab. Se accede seleccionandoMınimo de Exponenciales en la ventana principal.

- Se trata de comprobar el resultado teorico de que el mınimo de VA Xi ∼ exp(ai) inde-pendientes sigue tambien una distribucion exponencial (ver ejemplo 3.6 de los apuntes). Se puedeseleccionar el numero de exponenciales de las que se quiere calcular el mınimo (de 2 a 4) y suscorrespondientes parametros. Para seleccionar una exponencial se marca el cuadro de verificacionsituado al lado del parametro correspondiente ai. Al pulsar fdp e Histogramas se genera unamuestra de cada distribucion y se representan los histogramas superpuestos a las fdp correspon-dientes.

- Al pulsar el boton Mınimo aparece una nueva ventana en la que se visualiza el histogramade la VA Y = minX1, . . . , Xk donde Xi son la exponenciales previamente generadas y k es unvalor entre 2 y 4 segun los parametros elegidos para la simulacion. La muestra de Y se obtienedirectamente a partir de las muestras obtenidas de las Xi.

- Utiliza un tamano muestral grande y un numero de clases apropiado para comprobar quese verifica la propiedad bajo estudio. De este modo el histograma sera muy similar a la fdp teorica.

Page 105: Todo Unido Pe 2011

Universidad de Vigo. PyE. Practica 6 6.4

Cuestiones

1) ¿Es el histograma de mınimos lo mismo que el mınimo de los histogramas?

2) ¿Que distribucion de probabilidad sigue Y ?

3) Representa la fdp de Y superpuesta al histograma.

Regresion en VA normales (30’)

A esta practica se accede seleccionando Regresion en VA normales en el modulo deEsperanzas de estadlab.

En esta practica generaremos muestras de dos VA normales correladas y representaremosgraficamente sobre esta muestra la recta de regresion que relaciona ambas variables. Variando losvalores del coeficiente de correlacion veremos el efecto del cambio sobre el ajuste.

Sean X ∼ N(0,1) e Y ∼ N(2,2). Se sabe que el coeficiente de correlacion entre X e Y es 0.5.

1) Calcula la covarianza entre X e Y . Introduce el valor en el ordenador y pulsa el boton“Dibujar” para poder continuar. Podras ver en la parte izquierda de la pantalla la fdpconjunta o las dos fdp marginales (segun la opcion elegida). En la parte derecha de lapantalla se ve una muestra de tamano 1000 de la VA bidimensional (X, Y ).

2) ¿Se puede afirmar que la relacion entre X e Y es creciente?

3) Calcula, con papel y bolıgrafo, la ecuacion de la recta de regresion de Y sobre X. Tecleala ecuacion obtenida en el ordenador y pulsa el boton “Representar” para ver el resultado.¿te parece que la recta ajusta bien?. Si tu respuesta es no, revisa los calculos. Pulsa en“Comprobar” para ver la recta correcta.

4) Calcula el error cuadratico medio cometido.

5) Repite los pasos anteriores para un coeficiente de correlacion de -0.75. ¿Se puede afirmarque la relacion entre X e Y es creciente?

6) Repite los pasos anteriores para un coeficiente de correlacion de 0. ¿Se puede afirmar quela relacion entre X e Y es creciente?

7) Repite los pasos anteriores para un coeficiente de correlacion de 0.99. ¿Crees que la rectaajusta ahora mejor que cuando el coeficiente de correlacion valıa -0.75? Justifica la respuesta.

Page 106: Todo Unido Pe 2011

TEMA 4 – ESTIMACIÓN Y TEOREMAS LÍMITE

PROBABILIDAD Y ESTADÍSTICA (PE)

2010/2011

Page 107: Todo Unido Pe 2011

Universidad de Vigo. PyE. Tema 4: Estimacion y teoremas lımite 4.1

Tema 4. Estimacion y teoremas lımite

1. Introduccion

En el mundo de la ingenierıa es frecuente encontrase con el problema de medir una deter-minada magnitud. El resultado de esa medida depende de multiples factores, como la precisiondel sistema de medida que estemos utilizando, la pericia del observador o las condiciones fısicasbajo las que se realice la medida. De hecho, si repetimos la medicion es facil que no se obtengaexactamente el mismo valor. Por ello es recomendable enfocar el problema desde el punto de vistade la teorıa de la probabilidad. Suponemos que la magnitud que deseamos medir es una VA X yque cada medida que hacemos es una valor observado x de la VA X. Ası, cada medida repetidasera un nuevo valor de una VA con la misma distribucion que la VA X.

Si realizamos varias medidas nos encontraremos entonces con una muestra de valores ob-servados x1, . . . , xn a partir de los cuales trataremos de estimar el valor de la magnitud queestamos tratando de medir.

La misma idea se puede aplicar a problemas distintos, como la estimacion de la intencion devoto, la estimacion de la demanda de ancho de banda en una determinada zona o el dimensionadode una central telefonica. Todas ellas son variables que se modelan como aleatorias y que secaracterizan en base a una serie de observaciones muestrales.

2. Muestra y poblacion

El objetivo en este tema es estudiar una caracterıstica dada en un conjunto de elementos,al que llamaremos poblacion. Normalmente es imposible estudiar esa caracterıstica en todos loselementos, bien por motivos economicos, bien por tratarse de una poblacion continua, o bienpor tratarse de elementos que no existen en el presente pero existiran en el futuro. Para resolvereste problema seleccionamos un subconjunto de elementos, que llamaremos muestra. El numerode elementos de la muestra se denomina tamano muestral. Si la muestra es representativa de lapoblacion, podremos extrapolar la caracterıstica bajo estudio de la muestra a la poblacion, esdecir, lo que ocurra en la muestra sera similar a lo que ocurra en la poblacion. Por ello es de sumaimportancia el elegir la muestra adecuadamente. Segun la forma que utilicemos para seleccionaresa muestra tendremos diversos tipos de muestreo. El mas importante es el muestreo aleatoriosimple.

Diremos que una muestra es aleatoria simple (m.a.s.) si los elementos de la poblacion sonequiprobables y cada eleccion es independiente de las demas. Una m.a.s. puede ser consideradacomo los valores observados de un vector aleatorio n-dimensional (hemos observado esos valo-res, pero podıamos haber obtenido otros) siendo las componentes del vector independientes eidenticamente distribuidas con la misma distribucion que la poblacion que estamos muestreando.Matematicamente:

Sea ~X = (X1, . . . , Xn) el vector aleatorio que representa a la muestra. Las VA Xi sonindependientes y con distribucion identica a la de la poblacion que estamos muestreando. Unavez realizado el muestreo obtenemos un valor de la muestra ~x = (x1, . . . , xn) que no es mas que

un valor observado del vector aleatorio ~X.

Page 108: Todo Unido Pe 2011

Universidad de Vigo. PyE. Tema 4: Estimacion y teoremas lımite 4.2

3. Estimadores

Tras el problema del muestreo nos encontramos con el problema de extraer informacion delos datos (inferir) relativa a la poblacion bajo estudio. Un problema de inferencia estadıstica esaquel en el que tenemos un conjunto de datos, generados de acuerdo a una ley de probabilidaddesconocida, y tratamos de averiguar cual ha sido el mecanismo que los ha generado.

Nos puede interesar determinar el tipo de distribucion (normal, uniforme, etc) o estimarun valor concreto de un parametro (media, varianza, etc) asumiendo conocida la forma de ladistribucion. En el primer caso hablaremos de inferencia no parametrica y en el segundo deinferencia parametrica. Los objetivos en ambos casos son bien distintos, y aunque los mecanismospuedan parecer similares, la informacion de partida de la que disponemos hace que estos seanmuy diferentes. Este proceso de reconocimiento del mecanismo generador de los datos se llamaestimacion. Una vez tengamos especificado el modelo subyacente podemos pasar a la toma dedecisiones, tales como predecir futuros valores, o elegir entre opciones que supongan un ciertoriesgo para el decisor.

Supongamos que tenemos una m.a.s. de una variable X de la que conocemos la forma desu distribucion, pero no el parametro o parametros que especifican totalmente esta. Tratamospor tanto de estimar esta caracterıstica de la poblacion. Para ello construimos un estimador o loque es lo mismo, una funcion de la muestra que no depende del parametro a estimar, con la quetratamos de aproximar el verdadero valor del parametro.

Definicion: Estimador

Sea θ un parametro o un vector de parametros de una distribucion. Se dice que θ es unestimador de θ a partir de una m.a.s. (X1, . . . , Xn) si θ es una funcion g(X1, . . . , Xn) que aproximaθ.

Para una muestra concreta podemos evaluar el estimador, en ese caso obtenemos unaestimacion.

Ahora bien, podemos pensar en el estimador como en una VA, por ser funcion de la muestra.Consideraremos ası cada elemento de la muestra como un valor observado de una VA, que hatomado ese valor de acuerdo a una ley de distribucion de probabilidad. Como VA que es, cadaestimador tendra entonces una distribucion, siendo de mucho interes para nosotros el conocimientode esta.

Ejemplo: Estimacion de la media.

Supongamos que queremos estimar la media µ de una poblacion con varianza σ2, para loque obtenemos una muestra (x1, . . . , xn). El mejor estimador “parece” ser la media muestral:

µ = x =n∑

i=1

xin

=X1 + . . .+Xn

n

Ejemplo Supongamos que hemos obtenido una muestra concreta: 2, 7, 3, 4, 2. Si evaluamos elestimador media muestral, obtenemos una estimacion:

x =2 + 7 + 3 + 4 + 2

5= 3.6

Page 109: Todo Unido Pe 2011

Universidad de Vigo. PyE. Tema 4: Estimacion y teoremas lımite 4.3

El estimador, µ, es una VA. Determinaremos su media y su varianza:

E(µ) = E(g(X1, . . . , Xn)) = E

(n∑

i=1

Xi

n

)=

1

n

n∑i=1

E(Xi) =1

n

n∑i=1

µ = µ

Var(µ) = Var

(n∑

i=1

Xi

n

)=

1

n2

n∑i=1

Var(Xi) =1

n2

n∑i=1

σ2 =σ2

n

Al estudiar estimadores, se plantea el problema de como juzgar si ese estimador es buenoo no. Para resolver esta cuestion estudiaremos una serie de propiedades que serıan de interes encualquier estimador.

Diremos que un estimador es centrado o insesgado si se verifica que E(θ) = θ.

Se define el sesgo de θ como: sesgo (θ) = θ − E(θ).

Por otra parte, se define la eficacia o precision de un estimador como:

Precision (θ) =1

Var(θ)

Evidentemente, nos interesaran los estimadores con poco o nulo sesgo y con poca varianza,es decir con mucha precision. En el ejemplo anterior, de la estimacion de la media mediantela media muestral, tenemos un estimador insesgado de precision directamente proporcional altamano muestral (cuantos mas datos, mas precision) e inversamente proporcional a la varianzade la distribucion muestreada.

Otras propiedades de interes seran la linealidad, la facilidad de calculo o la consistencia(convergencia del estimador al parametro cuando el tamano muestral tiende a infinito).

3.1. Estimacion de los momentos de una VA

Los momentos de una VA son las esperanzas de las potencias de la VA. Ası, el momentono centrado de orden k de una VA X, se define como mk = E(Xk), y el momento centrado deorden k de dicha VA se define como µk = E(X −E(X))k. Dos ejemplos de estos momentos sonla media (m1) y la varianza (µ2).

Para definir estimadores para estos parametros se sigue el siguiente procedimiento:

-Dado que la informacion que tenemos acerca de la VA X procede de una m.a.s. (x1, . . . , xn),se supone entonces que X es una VA discreta que toma unicamente dichos valores con una proba-bilidad igual a la frecuencia relativa observada (evidentemente se trata solo de una aproximacionque sera mejor o peor en funcion del tamano de la muestra y de las caracterısticas de X).

-Para estimar un momento de X se calcula el momento teorico correspondiente a la VAdiscreta definida en el paso anterior.

A los estimadores de los momentos que resultan de aplicar este procedimiento los denomi-naremos momentos muestrales. De este modo, los momentos muestrales correspondientes a losmomentos no centrados se definen de acuerdo con la siguiente expresion:

mk =1

n

n∑i=1

xki

Page 110: Todo Unido Pe 2011

Universidad de Vigo. PyE. Tema 4: Estimacion y teoremas lımite 4.4

Para el caso de la esperanza (el momento no centrado de orden 1), el estimador es precisamentela media muestral:

m1 = x =1

n

n∑i=1

xi

Siguiendo la misma idea, los momentos muestrales correspondientes a los momentos centrados secalculan mediante la siguiente expresion:

µk =1

n

n∑i=1

(xi − x)k

En el caso concreto de la varianza (momento centrado de orden 2), el momento muestral sedenomina varianza muestral:

S2n = µ2 =

1

n

n∑i=1

(xi − x)2

Con respecto a la varianza se puede probar que:

E(S2n) =

n− 1

nσ2

con lo que vemos que el estimador presenta un sesgo. Por ello, en la practica se utiliza comoestimador de la varianza la cuasi-varianza muestral, dada por:

S2n−1 =

1

n− 1

n∑i=1

(xi − x)2 =n

n− 1S2n

que es un estimador insesgado pero con mayor varianza que el anterior. Resulta evidente que paratamanos muestrales grandes los dos estimadores coinciden.

4. Concepto de sucesion de VA. Convergencia

En muchos problemas de procesado de senal o imagen, control digital y comunicacionesdisponemos de datos muestreados en un determinado orden temporal; estos datos pueden mo-delarse como observaciones de una VA que va cambiando de distribucion a lo largo del tiempo.Estos problemas se solucionan utilizando un modelo probabilıstico mas general que el estudiadohasta ahora: las secuencias aleatorias. En este tema estudiaremos el concepto y las principalespropiedades de estos modelos. Como veremos las secuencias estocasticas se pueden pensar comoun vector aleatorio infinito-dimensional. Si la dimension del vector es numerable hablaremos deprocesos en tiempo discreto y en otro caso hablaremos de procesos en tiempo continuo, que serantratados en el proximo tema.

Formalmente, diremos que una sucesion de VA o proceso estocastico en tiempo discreto esuna familia numerable de variables aleatorias X1, . . . , Xn, . . . tal que cualquier subfamilia finitade ella es una VA n-dimensional. La representaremos por:

Xn∞n=1 o X[n]∞n=1

Para un valor concreto de cada VA tendremos una sucesion de numeros reales llamadarealizacion o trayectoria del proceso.

Page 111: Todo Unido Pe 2011

Universidad de Vigo. PyE. Tema 4: Estimacion y teoremas lımite 4.5

En muchas ocasiones es interesante estudiar las propiedades asintoticas de las secuenciasaleatorias, propiedades que, inevitablemente vendran ligadas a conceptos como lımite o conver-gencia. Al trabajar con variables aleatorias, tendremos que definir una “medida” de convergenciapara las sucesiones. Existen distintas formas de medir esta convergencia o distancia entre losterminos de la sucesion o su lımite, las mas habituales son: en distribucion (convergencia de lasFD), en media cuadratica (la esperanza del cuadrado de la diferencia converge a cero), en proba-bilidad (o debil) o casi segura (o fuerte). En la bibliografıa recomendada de la asignatura puedesobtener mas informacion la respecto.

Los distintos tipos de convergencia estan relacionados entre ellos: las convergencias casisegura y en media cuadratica implican convergencia en probabilidad, mientras que esta implicaconvergencia en distribucion.

5. Leyes de los grandes numeros

En muchas situaciones nos interesara estudiar el lımite de alguna funcion de la sucesion talcomo la suma o el promedio. En los temas anteriores hemos visto algunas propiedades de la sumafinita de variables aleatorias:- La esperanza de la suma es la suma de las esperanzas.- Si las variables son incorreladas, la varianza de la suma es la suma de las varianzas.- Si las variables son independientes, la fdp de la suma es el producto de convolucion de las fdp.

El promedio de VA cobra especial importancia despues de conocer el estimador de unamedia. Recordemos que en este caso obtenıamos la estimacion como un promedio de VA, cadauna recogiendo un valor obtenido en el muestreo. Cabe preguntarse entonces si aumentando eltamano muestral n obtendrıamos una mejor estimacion. Desde el punto de vista de una sucesionde VA, lo que nos estamos preguntando es por el lımite cuando n → ∞ de la sucesion. Graciasa las leyes de los grandes numeros, veremos que la respuesta es la esperada, el promedio de VAconverge a la media de la VA.

A continuacion enunciaremos algunos resultados relativos a la convergencia de promedios deVA: las leyes de los grandes numeros. Existen multiples versiones de estos teoremas. En algunoscasos se habla de leyes debiles, cuando la convergencia obtenida es en probabilidad, y en otrosde leyes fuertes, cuando la convergencia es casi segura. Comentaremos una de las versiones, paraampliar informacion puedes consultar la bibliografıa recomendada en la asignatura.

Leyes fuertes de los grandes numeros

Teorema: Dada una sucesion de VA mutuamente independientes, identicamente distribuidasy con esperanza finita µ, entonces el promedio de VA converge casi seguro a la media de ladistribucion.

1

n

n∑k=1

Xk −→n→∞

µ

Observacion: Fıjate que el promedio de VA es una VA. Sin embargo, el teorema nos diceque si promediamos una cantidad suficientemente grande de VA podemos aproximar esa VA poruna constante determinista (la media de la distribucion), es decir, se anula la aleatoriedad.

Observacion: La importancia practica de las leyes de los grandes numeros radica en que nosgarantiza que promediando una cantidad suficientemente grande de valores observados de unaVA obtenemos una buena estimacion de la media.

Page 112: Todo Unido Pe 2011

Universidad de Vigo. PyE. Tema 4: Estimacion y teoremas lımite 4.6

Como corolario de las leyes de los grandes numeros se puede concluir el conocido comoteorema de Bernoulli que nos dice lo siguiente:

Dado un espacio de probabilidad ε : (Ω,F ,P) y un suceso A ∈ F tal que P(A) = p, entonces:

fr(A) −→n→∞

p = P(A)

La demostracion es muy sencilla. Planteemos la repeticion sucesiva e independientementedel experimento y en la realizacion n-esima definimos la VA Xn que toma valor 1 si ocurre elsuceso A y valor 0 en otro caso. Evidentemente: P(Xn = 1) = p; P(Xn = 0) = 1− p; E(Xn) = p ylas VA Xn son independientes e identicamente distribuidas. Por las leyes de los grandes numeros:

1

n

n∑k=1

Xk −→n→∞

p

Dado que el promedio de las VA coincide con la frecuencia relativa del suceso A, se verificael teorema.

Con este resultado cerramos un camino que habıamos iniciado en el primer tema, cuandohablabamos de las posibles definiciones de probabilidad. En aquel momento dimos una defini-cion frecuencial, pero optamos por utilizar una definicion axiomatica. A lo largo de los temasanteriores hemos ido realizando distintas interpretaciones frecuenciales de diferentes conceptos.Gracias al teorema de Bernoulli, vemos que las dos definiciones coinciden, por lo que todas lasinterpretaciones que hemos hecho dejan de ser simplemente un punto de vista complementariopara pasar a ser una realidad.

6. Teorema central del lımite

Sentemonos delante de un ordenador y procedamos a obtener valores como suma de nume-ros generados aleatoriamente de acuerdo a una ley uniforme. Si representamos graficamente enun histograma una cantidad suficientemente grande de los valores obtenidos, observaremos queel histograma se parece a una campana de Gauss. Si en lugar de partir de una distribucion uni-forme lo hacemos desde una exponencial, una Rayleigh, una Cauchy o cualquier otra distribucionobservaremos que el resultado es el mismo. Ello es debido al teorema central del lımite.

El gran uso que la distribucion normal tiene en la ciencia y en la ingenierıa es debido, enparte, al hecho de que el error de medida o el ruido en sistemas de comunicacion son debidos, amenudo, a la suma de muchos terminos aleatorios, independientes entre sı, con poca importanciasi consideramos cada uno de ellos por separado, pero que sumados producen una desviacionapreciable sobre la medida o la senal. En estas condiciones la distribucion resultante de la sumade todos estos terminos se aproxima a una distribucion normal. La bondad de esta aproximaciondepende de distintos elementos, como el tipo de distribucion de los sumandos y su numero. Engeneral, la aproximacion es mejor en torno a la media de la distribucion, de ahı la inclusion deltermino “central” en la denominacion del teorema que describe este fenomeno.

Formalmente, el teorema central del lımite (en una de sus multiples versiones) nos dice que sitenemos una sucesion de VA continuas independientes e identicamente distribuidas, con esperanzay varianza finitas, entonces su suma es asintoticamente normal; es decir: si X(n) = X1 + . . .+Xn

entonces:X(n)− EX(n)√

VarX(n)−→n→∞

N(0, 1)

Page 113: Todo Unido Pe 2011

Universidad de Vigo. PyE. Tema 4: Estimacion y teoremas lımite 4.7

o, llamando µ y σ a la media y desviacion tıpica de una cualquiera de las VA:

(X(n)− nµ)

σ√n

−→n→∞

N(0, 1)

Existen distintas versiones de este teorema, por ejemplo la hipotesis de que las variables seanidenticamente distribuidas puede sustituirse por la de uniformemente acotadas (es decir, existeun valor que acota todos los posibles valores de todas las VA, es decir, existe un numero M talque |Xn| < M para todo valor de n).

Ejemplo: La suma de uniformes converge muy rapidamente a una normal. En la siguientegrafica se compara la fdp de la suma de 1, 2, 4 u 8 VA uniformes (color negro, trazo discontinuo)con la fdp de una normal (color rojo, trazo continuo) con los parametros correspondientes. La fdpde la suma de uniformes ha sido estandarizada para una mejor comparacion visual. Observeseque la convergencia es muy rapida, es decir, con un numero relativamente pequeno de sumandosse obtiene una aproximacion bastante buena.

!4 !2 0 2 40

0.1

0.2

0.3

0.4TCL (uniforme)

!4 !2 0 2 40

0.1

0.2

0.3

0.4TCL (suma de 2 uniformes)

!4 !2 0 2 40

0.1

0.2

0.3

TCL (suma de 4 uniformes)

!4 !2 0 2 40

0.1

0.2

0.3

TCL (suma de 8 uniformes)

Page 114: Todo Unido Pe 2011

Universidad de Vigo. PyE. Tema 4: Estimacion y teoremas lımite 4.8

Ejemplo 4.1: Disponiendo de un generador uniforme de numeros aleatorios, ¿como simularıas demodo eficiente una N(0,1)?

6.1. Version discreta del Teorema central del lımite

Existe una version del teorema para variables discretas que puede enunciarse como sigue:

Si tenemos una sucesion de VA independientes, bajo las mismas hipotesis del caso continuo,si X = X1 + . . . + Xn, E(X) = µ y Var(X) = σ2; para un valor de n suficientemente grande severifica que:

P(X = k) ≈ 1

σ√

2πe−(k − µ)2

2σ2

Es decir, f(x) tiende a una sucesion de impulsos cuya envolvente es una normal.

Si aplicamos esta version del teorema a una sucesion de VA independientes con distribucionde Bernoulli (cuya suma es exactamente una distribucion binomial), tendremos el teorema deDeMoivre-Laplace que nos asegura que una distribucion binomial X de parametros n y p sepuede aproximar, para valores de n suficientemente grandes, por una normal de media np y

Page 115: Todo Unido Pe 2011

Universidad de Vigo. PyE. Tema 4: Estimacion y teoremas lımite 4.9

varianza np(1–p). Es decir:

P(X = k) =

(nk

)pk(1− p)n−k ≈ 1√

2πnp(1− p)e− (k − np)2

2np(1− p)

Este resultado es especialmente util para calcular probabilidades acumuladas en una bino-mial cuando el parametro n es suficientemente grande.

Ejemplo 4.2: A traves de una lınea telefonica se transmite una serie de 1000 bits (ceros o unoscon igual probabilidad). Aproxima la probabilidad de que el numero de unos no difiera de 500 enmas de cuatro.

EJERCICIOS PROPUESTOS:TCL. Stark. Ejemplo 4.7.9. Pag. 217.Promedio de VA. Stark. Problema 4.23. Pag 222. Problema 4.24. Pag 222Teorema de DeMoivre-Laplace. Papoulis. 2a ed.: Ej. 8.12. Pag. 196. El mismo problema esta enPapoulis 3a ed., ej. 8.16, pag. 216 y en Papoulis 4a ed., ej. 7.16, pag. 280.Propiedades de los estimadores. Cao. Problema propuesto 8.6. Pag. 373.

LECTURAS RECOMENDADAS:Criterios de convergencia de sucesiones de VA. Stark. Seccion 7.4Convergencia y teoremas lımite. Papoulis. Secciones 8.4 y 8.5 (2a ed.), seccion 8.4 (3a ed.) oseccion 7.4 (4a ed.).Distribucion gaussiana y teorema central del lımite. Li. Seccion 3.5Capıtulo 4. Pena (1a o 2a edicion). Muestra y poblacion, estimadores.

INFORMACION Y DOCUMENTACION ADICIONAL:La documentacion de este tema se complementa con un boletın de problemas.

Page 116: Todo Unido Pe 2011

Universidad de Vigo. Problemas de PyE. Tema 4: Estimacion y teoremas lımite 4.1

PROBLEMAS DE PROBABILIDAD Y ESTADISTICATema 4: Estimacion y teoremas lımite

4.1) Se desea estimar, mediante la media muestral, la media de una poblacion N(µ,1). Paraobtener una estimacion que, con una probabilidad de al menos 0.95, diste de la mediamenos de 0.1, ¿que tamano muestral mınimo se debe elegir?

4.2) Unas resistencias Ri con i = 1, . . . , 12, son VA independientes e identicamente distribuidasuniformemente en el intervalo (450,550). Usando el teorema central del lımite, determina:

P(5900 ≤ R1 + . . . +R12 ≤ 6100)

4.3) Un experimento consiste en el lanzamiento de una moneda. Determina el menor numero delanzamientos para que la frecuencia relativa del suceso “ha salido cara” tome valores entre0.49 y 0.51 con una probabilidad mayor que 0.95.

4.4) Disponemos de n servidores (donde n se supone suficientemente grande) para realizar unatarea cada uno. El tiempo que el servidor i tarda en ejecutar su tarea es, independientementede los demas, una VA Xi con distribucion exp(α). Sea Y la VA que mide el tiempo totalpara realizar el trabajo. Determina la distribucion y densidad de Y en los siguientes casos:

a) Consideramos que el trabajo esta concluido cuando terminan todos los servidores.

b) Consideramos que el trabajo esta concluido cuando termina algun servidor.

c) El sistema trabaja en serie, es decir, un servidor comienza a funcionar cuando acabo elanterior, y el trabajo esta concluido cuando termina el ultimo servidor.

4.5) Disponemos de tres monedas que tienen probabilidades de obtener cara 0.6, 0.5 y 0.4 res-pectivamente. El experimento consiste en lanzar simultaneamente las tres monedas.

a) Realizamos 100 veces el experimento.¿Cual es la probabilidad de que el numero totalde caras sea mayor que 180?

b) ¿Cual es el numero medio de lanzamientos para obtener la primera cara?

4.6) El numero de personas que acuden a cada clase del laboratorio de PyE es, equiprobablemen-te, un numero entre 18 y 22 ambos inclusive. El numero total de clases previstas a lo largodel curso es de 250, aunque se sabe por experiencia que, con probabilidad 0.1, este numeroqueda reducido a 240. Sea Y la VA que cuenta el numero total de asistencias al laboratoriode PyE a lo largo del curso. Suponiendo independencia entre el numero de asistencias endiferentes clases, calcula:

a) Esperanza de Y .

b) Probabilidad de que el numero total de asistencias sea mayor que 5000.

c) Varianza de Y .

4.7) Un examen tipo test consta de 100 preguntas. Cada pregunta ofrece cuatro posibles res-puestas: una es correcta, dos son incorrectas y la cuarta es dejar la pregunta en blanco. Unalumno responde las distintas preguntas de forma independiente y en cada una de ellas tieneuna probabilidad p de conocer la respuesta correcta. Si el alumno desconoce la respuesta,elige una de las cuatro opciones equiprobablemente. Cada pregunta se evalua con dos puntossi se acierta la respuesta, cero puntos si se deja en blanco y se resta un punto si se da unarespuesta incorrecta. El examen se aprueba si se obtienen al menos 100 puntos.

Page 117: Todo Unido Pe 2011

Universidad de Vigo. Problemas de PyE. Tema 4: Estimacion y teoremas lımite 4.2

a) Sea X la VA que cuenta el numero de puntos obtenidos en una pregunta. Calcula laesperanza y la varianza de X. Evalua e interpreta el resultado para p = 1.

b) Suponiendo p = 3/5, calcula la probabilidad de aprobar el examen. Justifica la res-puesta.

Page 118: Todo Unido Pe 2011

Universidad de Vigo. Problemas de PyE. Tema 4: Estimacion y teoremas lımite 4.3

SOLUCIONES AL BOLETIN DE PROBLEMASTema 4: Estimacion y teoremas lımite

4.1) n = 385

4.2) 0.6826

4.3) 9604

4.4) a) F (y) = (1− e−αy)n

b) Y ∼ exp(nα)

c) Y ∼ N((n/α,√n/α)

4.5) a) 0.00021

b) 1.136

4.6) a) 4980

b) 0.45

c) 4098

4.7) a) E(X) = 2p; Var(X) = (−8p2 + 5p+ 3)/2;con p = 1, X es determinista (siempre acierta la respuesta), y E(X) = 2 y Var(X) = 0.

b) 0.9452

Page 119: Todo Unido Pe 2011

Universidad de Vigo. PyE. Practica 7 7.1

PROBABILIDAD Y ESTADISTICAPractica 7. Estimacion y teoremas lımite

Objetivos

Los contenidos de la teorıa que se revisan durante esta practica son los siguientes:-Teorema de Bernoulli.-Leyes de los grandes numeros.-Teorema Central del Lımite.

Ejecucion

Para entrar en la practica teclea estadlab en la ventana de comandos y despues seleccionaSucesiones.

Teorema de Bernoulli (25’)

Se comprueba el teorema de Bernoulli, esto es, el hecho de que la frecuencia relativa deun suceso converge a su probabilidad cuando el numero de repeticiones del experimento tiende ainfinito.

Se simula un experimento un numero de veces y se cuenta en cuantas de ellas ocurre undeterminado suceso. Se puede seleccionar tanto el numero de veces que se realiza el experimentocomo la probabilidad del suceso. Ademas se permite mostrar hasta 6 repeticiones, es decir, 6calculos distintos de frecuencia relativa.

Pulsa el boton Representar para actualizar las graficas.Observa que todas las repeticiones convergen al mismo sitio, aunque al principio las trayec-

torias sean muy diferentes. Compara las trayectorias obtenidas para “Num. de muestras” = 25 ypara “Num. de muestras” = 1000.

Cuestiones:

1) ¿Por que fluctua tanto la frecuencia relativa en los valores bajos de n y en cambio seestabiliza para valores grandes de n?

2) ¿Que ocurre si asignas un valor extremo (0 o 1) a p? Interpreta los resultados.

3) Dado el experimento: “Lanzamiento de un dado” representa graficamente la evolucion de lafrecuencia relativa del suceso “sale un 5” si realizas el experimento 20 veces. Puedes hacerla representacion sobre el papel o en el ordenador, en cuyo caso debes crear previamenteuna nueva ventana grafica, tecleando figure en la ventana de comandos. Para simular unamuestra de este experimento puedes repasar lo estudiado en la practica 5 sobre generacionde VA discretas equiprobables.

4) Sean X ∼ U(-1,3) e Y ∼ U(-3,1) VA independientes. Se define Z = XY . Calcula la proba-bilidad de que Z sea negativo. Realiza una simulacion para comprobar el resultado empıri-camente, es decir, que te permita, a partir de una muestra de gran tamano, evaluar lafrecuencia relativa del suceso de interes. Recuerda que para generar numeros aleatorios pue-des emplear la funcion rand desde la ventana de comandos. Los comandos find y lengthtambien pueden resultar utiles.

Page 120: Todo Unido Pe 2011

Universidad de Vigo. PyE. Practica 7 7.2

Teorema Central del Lımite (20’)

Ejemplo 1

En el Ejemplo 1 de esta practica se comprueba como la fdp de la suma de uniformes seva aproximando a la fdp de una normal a medida que se aumenta el numero de sumandos. Paraello se estudia la fdp de la suma tipificada de k1, k2, k3 y k4 uniformes (0,1) (representada encolor verde) y se compara con la fdp de la N(0,1) (representada en color rojo). A la distribucionque resulta de sumar las uniformes, se le resta su media y se divide por su desviacion tıpica. Aesta operacion se le denomina tipificacion o estandarizacion. Como consecuencia se obtiene unadistribucion de media 0 y desviacion tıpica 1, comparable de este modo con una N(0,1).

Para actualizar las graficas pulsa el boton Ejemplo 1.Observa que en esta practica se realiza una comparacion de fdps (en lugar de la comparacion

entre la fdp y el histograma de una misma VA que se realizo en practicas anteriores).

Cuestiones

1) Supongamos que hemos elegido dos sumandos. Determina el rango de la distribucion de lasuma de dos uniformes tipificada que se representan en la grafica.

2) ¿Como se calcularıa la fdp exacta de la suma de uniformes independientes e identicamentedistribuidas?

Ejemplo 2

En el Ejemplo 2 de esta practica se simula la suma de 12 VA U(0,1) independientes y alresultado se le restan 6 unidades. Segun el Teorema Central del Lımite la distribucion de la VAası generada se parecera a la de una N(0,1) (dada la velocidad de convergencia del teorema parala distribucion uniforme). En la ventana de trabajo se representan dos graficas correspondientesa la simulacion. A la izquierda se muestra un histograma de la muestra obtenida de la suma deuniformes y la fdp de una N(0,1). A la derecha se representa la FD empırica (Fn, ver observacionposterior) obtenida a partir de la muestra y la FD teorica (F ) de una N(0,1). Ademas se representael estadıstico de Kolmogorov-Smirnoff: sup |Fn(x) − F (x)|, que representa la diferencia maximaexistente entre la FD empırica y la teorica.

Para actualizar las graficas pulsa el boton Ejemplo 2.

¿Que es la FD empırica?:

Dadas n observaciones independientes de una VA, la FD empırica es la FD correspondientea una VA discreta que tome esos n valores equiprobablemente. Su apariencia sera escalonadacon saltos de 1/n en cada una de las observaciones. Si alguno de los n valores aparece k veces,tendra un peso k/n.

Cuestiones

1) Se han observado los siguientes valores de una VA: -3, 2, 2, 1 , 4. Haz una representacionde la FD empırica desde la ventana de comandos de MatLab (crea una nueva ventanagrafica utilizando el comando figure). Para ello puede ser util el comando stairs. Para masinformacion teclea help stairs.

2) Comprueba empıricamente que al aumentar el tamano muestral disminuye el estadıstico deKolmogorov-Smirnoff. ¿A que crees que puede ser debido?

Page 121: Todo Unido Pe 2011

Universidad de Vigo. PyE. Practica 7 7.3

Leyes fuertes de los grandes numeros (15’)

Dada una sucesion de VA independientes e identicamente distribuidas, se comprueba que lasucesion construida como la media muestral de las VA anteriores, converge a E(X). Es decir:

E(Xk) = µ con k = 1, 2, . . . ; Xn =1

n

n∑k=1

Xk; entonces lımn→∞

Xn = µ

En esta practica se realiza una simulacion donde se obtienen muestras de una VA exponencialde parametro α (exp(α)). Tanto el numero de muestras como el parametro de la exponencial sonmodificables por el usuario. Cada muestra xk es una observacion de la VA Xk. Se asume que paran grande se verifica: n∑

k=1

Xk ∼n∑

k=1

xk

Estudia la evolucion de la media muestral a medida que se aumenta el tamano muestral.Con esta ley se prueba la bondad de la media muestral como estimador de la media (estimadoreficiente).

Cuestiones:

1) En funcion del parametro α, ¿cual serıa el lımite de la sucesion? Calcula la varianza deltermino general de la sucesion. ¿Como crees que afecta el valor de α a la velocidad deconvergencia?

2) Bajo las mismas hipotesis (variables independientes e identicamente distribuidas) la Leyde los Grandes Numeros nos dice que el promedio de variables converge a una constantedeterminista (la media), mientras que el Teorema Central del Lımite nos dice que convergea una VA normal con unos ciertos parametros. ¿Son contradictorios los resultados? Justificala respuesta.

Page 122: Todo Unido Pe 2011

TEMA 5 – PROCESOS ESTOCÁSTICOS

PROBABILIDAD Y ESTADÍSTICA (PE)

2010/2011

Page 123: Todo Unido Pe 2011

Universidad de Vigo. PyE. Tema 5: Procesos estocasticos 5.1

Tema 5. Procesos estocasticos

1. Descripcion de un proceso estocastico

Los procesos estocasticos o procesos aleatorios constituyen una herramienta estadıstica quesurge ante la necesidad de modelar el comportamiento de experimentos aleatorios que varıanen el tiempo o que dependen de alguna otra variable determinista. Las sucesiones de variablesaleatorias, definidas en el tema anterior, son un ejemplo de proceso estocastico en el que el conjuntode instantes de tiempo es infinito numerable. Por su parte, los procesos estocasticos continuostambien constituyen una familia infinita de VA, pero en este caso no numerable.

Supongamos que estamos estudiando el numero de llamadas que se producen en una centraltelefonica. Para un intervalo de tiempo determinado, por ejemplo una hora, se puede definir laVA: “Numero de llamadas que se producen en una hora”. Si consideramos un intervalo mayor,por ejemplo dos horas, es evidente que el numero de llamadas observadas tendera a ser superiory, por tanto, la distribucion de probabilidad de esta nueva VA sera distinta a la anterior. Ası paracada tiempo que fijemos tendremos una VA, en principio distinta. En situaciones de este tiposurge de modo natural la conveniencia de definir una familia de variables aleatorias que dependende una variable determinista, es decir, un proceso estocastico. En este caso concreto, podemosdefinir el proceso estocastico X(t) como el numero de llamadas que se producen en el intervalo(0, t). Ası, para cada valor de t que elijamos tendremos una VA diferente.

Habıamos definido una VA X como una funcion que a cada posible resultado del experimentoω le asigna un numero real X(ω). En un proceso estocastico el resultado del experimento puedevariar con el tiempo, por lo que asignaremos un numero real como una funcion de ambos X(t, ω).

Definicion: Dado un experimento ε : (Ω,F ,P), si suponemos que el resultado del experi-mento, ω ∈ Ω, se produce en un tiempo t, podemos asignar una funcion de ambos X(t, ω) sobreR. Un proceso estocastico (PE) es una funcion de dos variables, t y ω, una determinista y otraaleatoria, tal que:

a) X(t, ω) es una familia de funciones temporales.

b) Si se fija ω tenemos una funcion temporal X(t) llamada realizacion del proceso.

c) Si se fija t tenemos una VA.

d) Si se fijan t y ω tenemos un numero real o complejo.

La variable ω tiene una interpretacion similar en la VA X(ω) y en el PE X(t, ω). Para unaVA, ω representa un resultado del experimento. En el caso del PE X(t, ω) tambien lo representa,con la diferencia de que en este caso el experimento esta definido para los distintos valores de t y elresultado es en realidad un conjunto de resultados; una funcion temporal que hemos denominadorealizacion del proceso. Al igual que ocurrıa con las VA, notaremos un proceso omitiendo ladependencia con ω: X(t).

Llamaremos espacio de tiempos T al conjunto de los posibles valores del tiempo en los quese estudia el proceso y espacio de estados S al conjunto de los posibles valores del proceso. Ası,hablaremos de procesos discretos o continuos en el tiempo y de procesos continuos, discretos omixtos en el espacio de estados. Para los procesos discretos en el tiempo, dado que podemosnumerar los instantes de tiempo, utilizaremos la siguiente notacion: X(tn) = X[n].

Page 124: Todo Unido Pe 2011

Universidad de Vigo. PyE. Tema 5: Procesos estocasticos 5.2

Ejemplo: Distintas realizaciones del proceso X(t) = Ncos((2π/24)t + Φ) siendo N y Φ VAcon distribuciones P(10) y U(0, 2π) respectivamente. En este ejemplo, tanto el espacio de tiemposcomo el espacio de estados son continuos.

Ejemplo: El numero de llamadas que llegan a una central telefonica es un proceso continuo en eltiempo pero discreto en el espacio de estados. En la grafica siguiente se ven 3 realizaciones.

Page 125: Todo Unido Pe 2011

Universidad de Vigo. PyE. Tema 5: Procesos estocasticos 5.3

Ejemplo 5.1: Sea el proceso X(t, ω) = at+Y (ω) con a determinista e Y ∼ U(0,1). En la notacionhabitual: X(t) = at+ Y . Dibuja una realizacion del proceso, y clasifica los espacios de estados yde tiempos.

Al estar un PE formado por infinitas VA tendra sentido hablar de la FD o de la fdp conjuntade un grupo de ellas o de las marginales correspondientes a las VA individuales. Hablaremosentonces de orden de la FD o de la fdp en funcion del numero de VA que consideremos. En lorelativo a la FD, supondremos en todo momento que estamos trabajando con VA reales.

Dado un PE X(t), si fijamos un tiempo t = t0, tendremos una VA X(t0) que tendra unaFD asociada. Si cambiamos el instante de tiempo tendremos una VA en principio, distinta aX(t0), con una FD diferente. En este sentido, la FD depende del tiempo, por lo que definimos laFD de primer orden del proceso X(t) como:

FX(x; t) = P(X(t) ≤ x)

Desde el punto de vista frecuencial podemos interpretar la FD de primer orden de la siguienteforma: supongamos que realizamos el experimento n veces, en cada una de ellas observamos unafuncion temporal X(t); con lo que obtenemos n realizaciones. Ası, la aproximacion frecuencial deF (x; t) serıa el numero de trayectorias que toman valores menores o iguales que x en el punto t,dividido por n.

Derivando respecto a x tendremos la fdp de primer orden.

Si fijamos dos instantes de tiempo, tendremos dos VA del proceso, X(t1) y X(t2). Podemosdefinir la FD de segundo orden como:

FX(x1, x2; t1, t2) = P(X(t1) ≤ x1, X(t2) ≤ x2)

Calculando las derivadas parciales respecto a x1 y x2 obtendrıamos la fdp de segundo orden. Losconceptos de marginal y distribucion o densidad condicionada son analogos a los definidos paraVA bidimensionales. Ası, por ejemplo:

F (x1; t1) = F (x1,+∞; t1, t2)

f(x1; t1) =

∫ +∞

−∞f(x1, x2; t1, t2)dx2

f(x1; t1/X(t2) = x2) =f(x1, x2; t1, t2)

f(x2; t2)

Page 126: Todo Unido Pe 2011

Universidad de Vigo. PyE. Tema 5: Procesos estocasticos 5.4

Ejemplo: Realizacion de un proceso continuo en el tiempo con fdp de primer orden gaussiana.

Hablaremos en general de FD de orden n como:

F (x1, . . . , xn; t1, . . . , tn) = P(X(t1) ≤ x1, . . . , X(tn) ≤ xn)

Calculando las derivadas parciales obtendrıamos la fdp de orden n. Evidentemente una FDo una fdp de orden n determina todas las FD o fdp de orden inferior, pues son las marginales deesta.

Para determinar estadısticamente un PE, necesitarıamos conocer la FD o la fdp de ordenn, para cualquier valor de n y para cualquier valor de t1, . . . , tn. Esto es, en la practica, realmentedifıcil, por lo que se estudiaran una serie de parametros y propiedades de los PE, que, si bien nolos determinan completamente, nos permiten obtener mucha informacion acerca de ellos.

Un proceso bidimensional consiste en dos procesos X(t) e Y (t) y queda estadısticamentedeterminado si conocemos la FD o fdp conjunta de las VA X(t1), . . . , X(tn);Y (t′1), . . . , Y (t′m) paracualquier n y m; y para todo t1, . . . , tn; t′1, . . . , t

′m

Un proceso complejo Z(t) = X(t) + jY (t) es una familia de funciones complejas y esta es-tadısticamente determinado en funcion del proceso bidimensional X(t), Y (t).

Page 127: Todo Unido Pe 2011

Universidad de Vigo. PyE. Tema 5: Procesos estocasticos 5.5

Ejemplo 5.2: Sea el proceso X(t, ω) = at+ Y con a determinista e Y ∼ U(0,1). Determina la fdpde primer orden.

2. Estadısticos de un proceso estocastico

Definicion: Llamaremos media de un PE a:

EX(t) = µX(t) =

∫ +∞

−∞xf(x; t)dx

Para cada valor de t distinto tenemos, en principio, una VA diferente; por lo que tendre-mos tambien una media distinta. Por ello la media de un proceso es, en general, una funciondependiente del tiempo.

Definicion: Llamaremos autocorrelacion de un PE a:

RX(t1, t2) = EX(t1)X(t2) =

∫ +∞

−∞

∫ +∞

−∞x1x2f(x1, x2; t1, t2)dx1dx2

Si t1 = t2, tenemos la potencia media del proceso: RX(t, t) = EX2(t).

Definicion: Se define correlacion cruzada entre los procesos X(t) e Y (t) como:

RXY (t1, t2) = EX(t1)Y (t2) =

∫ +∞

−∞

∫ +∞

−∞xyfXY (x, y; t1, t2)dxdy

Definicion: Llamaremos autocovarianza de un PE a:

CX(t1, t2) = E[X(t1)–µX(t1)][X(t2)–µX(t2)] = RX(t1, t2)–µX(t1)µX(t2)

Un caso particular es la funcion de varianzas (t1 = t2):

CX(t, t) = E[X(t)–µX(t)]2 = RX(t, t)–µ2X(t) = EX2(t)–µ2

X(t) = VarX(t)

Observa que, al igual que la media, la varianza depende, en general, del instante de tiempot considerado.

Definicion: Se define covarianza cruzada entre los procesos X(t) e Y (t) como:

CXY (t1, t2) = E[X(t1)–µX(t1)][Y (t2)–µY (t2)] = RXY (t1, t2)–µX(t1)µY (t2)

Page 128: Todo Unido Pe 2011

Universidad de Vigo. PyE. Tema 5: Procesos estocasticos 5.6

Estos estadısticos son, en general, funciones que dependen de uno o mas instantes de tiempo.

Observacion: Los conceptos de covarianza y correlacion ya habıan sido utilizados en la seccion de VA.

Ası como la idea de covarianza es una extension logica de aquella definicion, no ocurre lo mismo con la correlacion.

De todas formas, tanto la covarianza, como la correlacion o el coeficiente de correlacion son estadısticos directa-

mente relacionados, cuyo objetivo es proporcionar una medida de dependencia lineal entre VA. De hecho, es facil

demostrar que son equivalentes si las medias son cero y las desviaciones tıpicas una unidad, es decir, si las variables

estuviesen tipificadas. Esa transformacion no supone mas que un cambio de escala para reducir la correlacion al

intervalo (-1,1), de tal forma que toda la informacion de la relacion lineal entre las dos senales esta contenida en

la esperanza del producto, que es precisamente como se ha definido la correlacion cruzada o la autocorrelacion.

En procesado de senal se suele usar mas esta que la “funcion de coeficientes de correlacion” por ser mas sencilla

de calcular y por estar directamente relacionada con la potencia de la salida en un sistema lineal invariante en

el tiempo. Ası, si X(t) e Y (t) representan la entrada y la salida de un sistema lineal, la potencia media en la

salida EY 2(t) no es solo funcion de la potencia media en la entrada EX2(t), sino que necesitamos conocer

E[X(t1) + X(t2)]2, que claramente se calcula a partir de la potencia media en los tiempos t1 y t2 y a partir de

la autocorrelacion de X en t1, t2.

Ejemplo 5.3: Sea el proceso X(t) = at+Y con a determinista e Y ∼ U(0,1). Calcula la esperanza,la varianza, la autocorrelacion y la autocovarianza.

A continuacion generalizamos los conceptos, ya estudiados en VA, de independencia, inco-rrelacion y ortogonalidad para PE.

Definicion: Dos procesos X(t) e Y (t) son independientes si su fdp conjunta de cualquierorden se puede descomponer como el producto de dos fdp marginales, una conteniendo terminossolo dependientes del proceso X(t) y la otra dependientes de Y (t).

Page 129: Todo Unido Pe 2011

Universidad de Vigo. PyE. Tema 5: Procesos estocasticos 5.7

Definicion: Dos procesos X(t) e Y (t) son incorrelados si CXY (t1, t2) = 0 para cualquier valorde t1 y t2.

Definicion: Dos procesos X(t) e Y (t) son ortogonales si RXY (t1, t2) = 0 para cualquier valorde t1 y t2.

Observacion: Para los procesos discretos en el tiempo utilizaremos la siguiente notacion:

µX [n] = E(X[n])

RX [n1, n2] = EX[n1]X[n2]CX [n1, n2] = RX [n1, n2]− µX [n1]µX [n2]

3. Estacionariedad

Uno de los objetivos fundamentales de los modelos estocasticos es la prediccion. Para ello,basandonos en la historia del proceso, trataremos de conjeturar su comportamiento futuro. Parapoder hacer esto, necesitamos que las condiciones futuras sean analogas a las pasadas. Estapropiedad se conoce con el nombre de estacionariedad. De modo general, podrıamos decir que unPE es estacionario si sus propiedades estadısticas son invariantes ante una traslacion de tiempo.Esto implica que el mecanismo fısico subyacente que genera el experimento no cambia con eltiempo.

En la practica existen muchos fenomenos fısicos cuyo comportamiento se puede modelarmediante un PE estacionario. Como comprobaremos al analizar sus propiedades, una de las ven-tajas de estos procesos es que son mas sencillos de caracterizar, pues algunos de sus estadısticosno dependen del tiempo.

Formalmente, diremos que un proceso X(t) es estacionario (en sentido estricto) si sus pro-piedades estadısticas no varıan al trasladar el origen de tiempos; es decir, X(t) y X(t+ ε) tienenlas mismas propiedades estadısticas ∀ε. Expresandolo en terminos de la fdp:

X(t) es estacionario ⇔ f(x1, . . . , xn; t1, . . . , tn) = f(x1, . . . , xn; t1+ε, . . . , tn+ε) ∀n;∀t1, . . . , tn;∀ε

Diremos que dos procesos X(t) e Y (t) son conjuntamente estacionarios si sus propiedadesestadısticas conjuntas son identicas a las de X(t+ ε) e Y (t+ ε) ∀ε.

Las principales propiedades de los procesos estacionarios son:

1) f(x; t) = f(x; t+ ε) ∀εPor tanto podemos conseguir cualquier valor de t eligiendo el ε adecuado; es decir, la fdp deprimer orden no depende del tiempo, y por tanto, parametros como la media o la varianza,que se calculan exclusivamente a partir de la fdp de primer orden, no dependen del tiempo.

2) f(x1, x2; t1, t2) = f(x1, x2; t1 + ε, t2 + ε) ∀t1, t2;∀εEn particular si ε = –t1 tenemos que f(x1, x2; t1, t2) = f(x1, x2; τ) con τ = t2–t1; es decir, lafdp de segundo orden no depende de los instantes temporales que consideremos, sino de ladistancia entre ellos; en particular, los parametros que dependan solo de la fdp de segundoorden, como la autocorrelacion o la autocovarianza, dependen solo de la distancia temporalentre los instantes considerados, independientemente de donde esten situados.

Page 130: Todo Unido Pe 2011

Universidad de Vigo. PyE. Tema 5: Procesos estocasticos 5.8

Verificar que un proceso es estacionario en sentido estricto es, en general, imposible, puesimplica estudiar infinitas fdp. Por ello estudiaremos otros tipos de estacionariedad.

Definicion: Un proceso es estacionario de orden k si la condicion de estacionariedad estrictase cumple para todas las fdp de orden n con n ≤ k.

Definicion: Un proceso es estacionario en sentido amplio (debilmente estacionario) si se cum-plen las siguientes condiciones:

1) EX(t) = µ (la media es independiente del tiempo)

2) RX(t1, t2) = RX(τ) con τ = t2–t1 (la autocorrelacion es solo funcion de la distancia temporalentre los instantes considerados)

Evidentemente, si un proceso es estacionario de orden dos, tambien lo es en sentido amplio.Este tipo de estacionariedad (la debil) es la mas frecuentemente utilizada en la practica, puesse basa en parametros que son facilmente estimables a partir de una muestra del proceso. Otrostipos de estacionariedad que podrıan definirse son: asintotica, en un intervalo o periodica.

Algunas propiedades de la correlacion de procesos estacionarios son:

Si X(t) e Y (t) son PE estacionarios en sentido amplio, se verifica:

1) La potencia media del proceso, EX2(t), no depende de t, ya que:

RX(0) = EX(t)X(t) = EX2(t)

2) La varianza del proceso, VarX(t), no depende de t ya que:

VarX(t) = CX(t, t) = E[X(t)–µX(t)]2 = RX(t, t)–µ2X(t) = RX(0)− µ2

3) RXY (–τ) = RY X(τ) ya que:

RXY (−τ) = EX(t)Y (t− τ) = EX(λ+ τ)Y (λ) = RY X(τ) siendo λ = t–τ.

4) RX(–τ) = RX(τ) ya que:Haciendo X = Y en la propiedad anterior se obtiene el resultado.

Ruido blanco

El termino “ruido” se emplea en el mundo de las telecomunicaciones para hacer referenciaa senales indeseables que constituyen una interferencia en un sistema de comunicacion. En lapractica el modelo que se emplea habitualmente para estas interferencias es el que se conocecomo ruido blanco, que viene dado por la siguiente definicion:

Definicion: Un proceso X(t) es ruido blanco si CX(t1, t2) = 0 ∀t1 6= t2; o lo que es lomismo, las variables X(t1) y X(t2) estan incorreladas. La autocovarianza del ruido blanco sepuede expresar equivalentemente como:

CX(t1, t2) = q(t1)δ(t1 − t2) con q(t) ≥ 0

Diremos que el proceso es ruido blanco en sentido estricto si las variables X(t1) y X(t2) sonindependientes. A menudo la distribucion que se emplea para modelar el ruido en cada instante es

Page 131: Todo Unido Pe 2011

Universidad de Vigo. PyE. Tema 5: Procesos estocasticos 5.9

la distribucion gaussiana, en cuyo caso las definiciones de ruido blanco y ruido blanco en sentidoestricto son equivalentes.

Observacion: Generalmente se asume que el ruido blanco tiene media cero, por lo que sufuncion de autocorrelacion coincide con su autocovarianza. Ademas, tambien es habitual consi-derar que la varianza del proceso es constante, con lo cual el ruido blanco constituye un procesoestacionario en sentido amplio. Tal y como se deduce de su definicion, el ruido blanco en sentidoestricto presenta un valor en cada instante de tiempo que no depende de cual haya sido su valoren los instantes precedentes y que no ejerce ninguna influencia en sus valores futuros.

Los PE se pueden estudiar tambien en el dominio de la frecuencia. Concretamente para un PE estacionario

se define la densidad espectral de potencia como la transformada de Fourier de su funcion de autocorrelacion.

Si aplicamos esta expresion a la funcion de autocorrelacion del ruido blanco de media cero, se obtiene que su

espectro viene dado por una constante, es decir, se trata de un espectro plano, cuya magnitud es comun a todas

las frecuencias. El nombre de ruido blanco contrasta de este modo con el termino ruido coloreado, que es aquel

cuyo espectro presenta magnitudes distintas para diferentes frecuencias.

4. Ejemplo

Sea X(t) = A cos(ωt+Φ) donde Φ es una VA U(−π, π) con A y ω deterministas. Determina:

a) Funcion de densidad de primer orden

b) EX(t)c) RX(t1, t2)

d) Estudia la estacionariedad en sentido amplio

a) Fijado un instante de tiempo t, tenemos que X(t) = g(Φ) = A cos(ωt+ Φ). Aplicaremos elteorema fundamental para determinar la fdp.

Para cada x ∈ (−A,A), tenemos dos inversas: φ1 y φ2.

g′(φ) = −A sen(ωt+ φ) = −A√

1− cos2(ωt+ φ)) = −√A2 − x2

Por el teorema fundamental:

f(x; t) =1/2π√A2 − x2

+1/2π√A2 − x2

=1

π√A2 − x2

si x ∈ (−A,A)

Page 132: Todo Unido Pe 2011

Universidad de Vigo. PyE. Tema 5: Procesos estocasticos 5.10

b)

EX(t) = Eg(Φ) =

∫ +∞

−∞g(φ)f(φ)dφ =

∫ +π

−π

A cos(ωt+ φ)

2πdφ =

A

2πsen(ωt+ φ)

]+π−π

= 0

Por tanto µX(t) = 0 ∀t⇒ X(t) es estacionario en media

c)

RX(t1, t2) = EX(t1)X(t2) = EA cos(ωt1 + φ)A cos(ωt2 + φ) =

= A2Ecos(ωt1 + φ)cos(ωt2 + φ) ∗=∗=A2

2Ecos(ω(t1 + t2) + 2φ) + cos(ω(t1 − t2)) =

=A2

2

∫ +π

−π

cos(ω(t1 + t2) + 2φ)

2πdφ+

∫ +π

−π

cos(ω(t1 − t2))2π

=

=A2

2

1

sen(ω(t1 + t2) + 2φ)

2

]+π−π

+ cos(ω(t1 − t2))

=

=A2

2cos(ω(t1 − t2)) =

A2

2cos(ω(−τ)) =

A2

2cos(ωτ) con τ = t2 − t1

∗ cos(a)cos(b) =1

2cos(a+ b) + cos(a− b)

d) Ya habıamos visto que era estacionario en media, tambien lo es en autocorrelacion, puesesta solo es funcion de τ , la distancia entre los dos instantes de tiempo estudiados, por elloes estacionario en sentido amplio.

EJERCICIOS PROPUESTOS:FD de un PE. Li. Problema 6.2. Pag. 301.FD y esperanza de un PE. Papoulis. 2a ed.: Prob. 9.1. Pag. 258. 3a ed.: Prob. 10.1. Pag. 340. 4a

ed.: Prob. 9.1. Pag. 430.Estadısticos de un PE. Li. Problema 6.5. Pag. 301.Correlacion de la suma y la diferencia. Li. Problema 6.32. Pag. 305.Estacionariedad y autocorrelacion. Li. Problemas de autoevaluacion 6.3. Pag. 310.Estacionariedad y autocovarianza. Papoulis. 3a ed.: Problema 10.10. Pag. 340. 4a ed.: Problema9.10. Pag. 430.Correlacion cruzada. Li. Ejemplos adicionales 6.24. Apartados a), b) y c). Pag. 298.

LECTURAS RECOMENDADAS:Stark: Introduccion y apartado 8.19Li: Apartados 6.1 y 6.3.

INFORMACION Y DOCUMENTACION ADICIONAL:La documentacion de este tema se complementa con un boletın de problemas.

Page 133: Todo Unido Pe 2011

Universidad de Vigo. Problemas de PyE. Tema 5: Procesos estocasticos 5.1

PROBLEMAS DE PROBABILIDAD Y ESTADISTICATema 5: Procesos estocasticos

5.1) Sea U una VA U(0,1). A partir de ella se construye el proceso X(t) = e−Ut, con t > 0

a) Representa una realizacion de X(t).b) Para cada valor de t, determina el rango de la VA X(t).c) Calcula EX(t) y RX(t1, t2).d) Estudia la estacionariedad en sentido amplio del proceso X(t).e) Calcula la funcion de distribucion de primer orden F (x; t).

5.2) Se sabe que el numero de llegadas a una cola en un intervalo de tiempo de longitud t sigueuna distribucion P(λt). Ademas, el numero de llegadas que se producen en un intervaloI1 es independiente del que se producen en un intervalo de tiempo I2 siempre que ambosintervalos no se solapen. SeaX(t) el proceso estocastico que cuenta el numero de llegadas quese producen en el intervalo de tiempo [0, t], con t > 0. Calcula la media, la autocorrelaciony estudia la estacionariedad, en sentido amplio, del proceso X(t).

5.3) Sea el proceso X(t) = U2 + t, donde U es una VA U(-1,2) y t > 0.

a) Representa una realizacion del proceso X(t).b) Determina, en funcion de t, el rango de X(t).c) Calcula la fdp de primer orden de X(t). ¿Es X(t) estacionario de orden 1?d) Calcula la autocorrelacion del proceso X(t).

5.4) Sea X[n] el proceso estocastico dado, de forma recursiva, por:

X[0] = 0

X[n] =

X[n− 1] + 1 con probabilidad pX[n− 1] con probabilidad q = 1− p con n = 1, 2 . . .

a) Determina la fdp de primer orden y la media del proceso.b) Calcula la autocorrelacion entre los instantes n1 y n2 con 0 < n1 < n2.

5.5) Sea X[k] ∼ Ber(p) para k = 0, 1; ambas independientes. Se define el siguiente procesoestocastico:

Y (t) = X[0] +X[1] cos

(t

2

)con 0 ≤ t ≤ π

a) Representa todas las posibles realizaciones del proceso Y (t).b) Calcula la fdp de primer orden del proceso Y (t).c) Calcula EY (t).d) Se sabe que Y (0) = 1. Calcula la probabilidad de que X[0] = 1.

5.6) Consideremos el siguiente proceso estocastico:

Y [n] =X[n] +X[n− 1]

2

Determina media, autocorrelacion y estudia la estacionariedad, en sentido amplio, del pro-ceso Y [n] en los siguientes casos:

a) X[n] es una sucesion de VA independientes e identicamente distribuidas.b) X[n] es un proceso estacionario en sentido amplio.

Page 134: Todo Unido Pe 2011

Universidad de Vigo. Problemas de PyE. Tema 5: Procesos estocasticos 5.2

5.7) Sean X(t) e Y (t), con t > 0, dos PE independientes con fdp de primer orden U(−t, t) enambos casos. A partir de ellos se construye el PE Z(t) = X(t) + Y (t).

a) Representa graficamente una realizacion del PE X(t).

b) Calcula la EZ(t) y VarZ(t).c) Determina el rango de Z(t).

d) Determina f(z; t).

e) Estudia la estacionariedad en sentido amplio de Z(t).

5.8) Sean X e Y dos VA independientes con distribuciones X ∼ U(0,1) e Y ∼ Ber(p). A partirde ellas se construye el PE: Z(t) = X + tY con t > 0

a) Determina EZ(t).b) Calcula RZ(t1, t2).

c) Determina, en funcion de t, el rango de la VA Z(t) .

d) Determina la funcion de distribucion de primer orden de Z(t) para t > 1.

5.9) Sea X[n] un PE en tiempo discreto cuya fdp de primer orden es Ber(p) para todo n entero,n ≥ 0. Por otra parte, X[n] y X[m] son independientes para todo n 6= m. Se define:

Y [n] = X[n]X[n− 1] con n = 1, 2, 3, . . .

a) Indica si las siguientes graficas son fragmentos hasta n = 6 de posibles realizacionesde Y [n]. Justifica tus respuestas.

b) Calcula la esperanza de Y [n]. ¿Es el proceso estacionario en media?

c) Calcula la fdp de orden uno de Y [n].

d) Calcula la autocorrelacion RY [n,m]. ¿Es estacionario en autocorrelacion?

e) ¿Son Y [n] e Y [m] independientes ∀n 6= m? Justifica tu respuesta matematicamente.

Page 135: Todo Unido Pe 2011

Universidad de Vigo. Problemas de PyE. Tema 5: Procesos estocasticos 5.3

SOLUCIONES AL BOLETIN DE PROBLEMASTema 5: Procesos estocasticos

5.1) a)

b) (e−t, 1)

c) EX(t) = (1− e−t)/t; RX(t1, t2) = (1− e−(t1+t2))/(t1 + t2)

d) No estacionario

e) (t+ ln(x))/t si x ∈ (e−t, 1)

5.2) EX(t) = λt;RX(t1, t2) = λt1(1 + λt2); No es estacionario

5.3) a)

b) (t, 4 + t)

c) No es estacionario de orden 1

d) f(x; t) =

1

6√x− t

si x ∈ (1 + t, 4 + t)

1

3√x− t

si x ∈ (t, 1 + t)

e) RX(t1, t2) =11

5+ t1t2 + t1 + t2

5.4) a) Xn ∼ Bi(n, p); E(Xn) = np

b) RX [n1, n2] = n2n1p2 + n1p(1− p)

5.5) a)

b) P(Y (t) = 0) = (1−p)2; P(Y (t) = 1) = p(1−p); P(Y (t) = cos(t/2)) = (1−p)p; P(Y (t) =1 + cos(t/2)) = p2

c) p+ p cos(t/2)

d) 0.5

5.6) a) EY [n] = µX ;RY [n1, n2] =

µ2X si n1 6= n2 y |n1 − n2| 6= 1

E(X2) + µ2X

2si n1 = n2

E(X2) + 3µ2X

4si |n1 − n2| = 1

; es estacionario

b) EY [n] = µX ;RY [n1, n2] = 142RX [τ ] + RX [τ + 1] + RX [τ − 1], con τ = n2 − n1; es

estacionario

5.7) a)

b) EZ(t) = 0; VarZ(t) = 2t2/3

c) (−2t, 2t)

d) f(z, t) = 14t2

(2t− |z|)e) No es estacionario

5.8) a) EZ(t) = 0.5 + tp

b) RZ(t1, t2) = 13

+ p2(t1 + t2) + t1t2p

c) Rango de Z(t) = (0, 1) ∪ (t, t+ 1)

Page 136: Todo Unido Pe 2011

Universidad de Vigo. Problemas de PyE. Tema 5: Procesos estocasticos 5.4

d) F (z; t) =

0 si z < 0z(1− p) si z ∈ [0, 1)(1− p) si z ∈ [1, t)(1− p) + (z − t)p si z ∈ [t, t+ 1)1 si z ≥ t+ 1

5.9) a) La realizacion 1 y la 3 son posibles realizaciones, la 2 no lo es.

b) p2

c) Y [n] ∼ Ber(p2)

d) RY [n,m] =

p2 si n = mp3 si |n−m| = 1p4 en otro caso

e) No son independientes

Page 137: Todo Unido Pe 2011

Universidad de Vigo. PyE. Practica 8 8.1

PROBABILIDAD Y ESTADISTICAPractica 8. Procesos estocasticos

Objetivos

En esta practica se revisan contenidos teoricos del tema de procesos estocasticos.

Ejecucion

Para entrar en la practica teclea estadlab en la ventana de comandos y despues seleccionaEstocasticos.

Procesos estocasticos. Realizacion, media y autocorrelacion (30’)

Se accede seleccionando Media y autocorrelacion en la ventana principal.En esta practica se analiza el siguiente proceso estocastico (similar al del apartado 4 de los

apuntes): X(t) = Ncos(ωt+ Φ); donde:N : Amplitud; es una VA Poisson(λ).Φ: fase; es una VA U(0, 2π). N y Φ son independientes.ω: Frecuencia de la senal; es una constante determinista; ω = 2π/T donde T es el perıodo.t: Tiempo; es una variable determinista (fijado t = t0, X(t0) es una VA).

En la ventana inicial se representan distintas realizaciones del proceso.Cada vez que se pulsa el boton Realizaciones se actualizan las graficas y aparecen en

pantalla el numero de realizaciones deseado. Al pulsar en Estadısticos aparecen otras represen-taciones:

-La esperanza y la autocorrelacion del proceso.-La evolucion de:

µT0 =1

2T0

∫ T0

−T0

x(t)dt =1

2T0

∫ T0

−T0

n cos(ωt+ φ)

a medida que se aumenta el intervalo de integracion. El lımite de esta funcion cuando T0 tiendea infinito, si existe, se denomina media temporal. x(t) es una de las realizaciones obtenidas delproceso y por tanto n y φ representan en la expresion anterior los valores concretos que hantomado las VA N y Φ en dicha realizacion.

Cuestiones:

1) ¿Que diferencias se observan de unas realizaciones a otras?

2) ¿Puede la amplitud de una realizacion valer 2.5?

3) ¿Puedes predecir el valor que toma una realizacion en cualquier instante de tiempo si sola-mente conoces la evolucion de la misma en un intervalo de tiempo?

4) Calcula la media estadıstica del proceso. ¿Es el proceso estacionario en media?

5) Calcula la autocorrelacion del proceso. ¿Es el proceso estacionario en autocorrelacion?

Procesos estocasticos. Modulacion BPSK (20’)

Se accede seleccionando Modulacion BPSK en la ventana principal.Un metodo basico para la modulacion de datos binarios es la modulacion BPSK. La senal

modulada consiste en una portadora cosenoidal cuya fase varıa segun sea el bit transmitido 0 o 1.Es decir, la forma que tiene el receptor de saber si lo que se ha transmitido es un 0 o un 1, es

Page 138: Todo Unido Pe 2011

Universidad de Vigo. PyE. Practica 8 8.2

observar la fase de la senal recibida. Si B[n] es la secuencia binaria que se desea transmitir, lasenal modulada sera el siguiente proceso estocastico:

X(t) = cos((2π/T )t+ φ(t))

φ(t) = φ[k] para kT ≤ t < (k + 1)T

φ[k] =

+π/2 si B[k] = 1−π/2 si B[k] = 0

En general los parametros del coseno se pueden variar para que cada bit abarque en la senaltransmitida el numero de perıodos que consideremos necesario. En nuestro caso utilizaremos unciclo de senal por cada bit transmitido.

En esta practica se simula un sistema de modulacion BPSK y se puede observar comoevoluciona la senal modulada en funcion de la secuencia binaria que genera el transmisor.

La simulacion consiste en obtener una realizacion del proceso X(t). Para que comiencepulsa Empezar simulacion. En la ventana se observara secuencialmente como se genera lasenal modulada a partir de la secuencia binaria. Se puede realizar el numero de simulaciones quese desee.Contesta a las preguntas incluidas en la ventana de trabajo.

Cuestiones

1) ¿Puedes predecir el valor que toma una realizacion en cualquier instante de tiempo si sola-mente conoces la evolucion de la misma en un intervalo de tiempo? Establece una compa-racion entre este proceso y el anterior.

2) Calcula la esperanza del proceso X(t) si P(B[k] = 1) = P(B[k] = 0) = 0.5 ¿Es el procesoestacionario en media?

Numero de llamadas que llegan a una central telefonica. (20’)

A esta practica se accede pulsando Llamadas a una centralita en la ventana principal.Se simula el proceso X(t) definido como el numero de llamadas que llegan a una central

telefonica en un intervalo de tiempo t. Las llamadas se producen de forma independiente, y eltiempo entre dos llamadas consecutivas sigue una exponencial de parametro λ. En estas condi-ciones el proceso resultante tiene un distribucion de Poisson. Concretamente X(t) ∼ P(λt).

Para que comience la simulacion, que consiste en obtener una realizacion del proceso X(t),pulsa Simulacion paso a paso. En la ventana se representa el numero de llamadas que se vanproduciendo en funcion del tiempo (hasta t = 15 segundos). El valor empleado para el parametroes λ = 0.5. Se puede realizar el numero de simulaciones que se desee.

A medida que se van realizando simulaciones, se rellena una tabla con la frecuencia relativade distintos sucesos asociados al experimento. Concretamente indica el porcentaje de realizacionesen las que el numero de llamadas en 10 segundos fue menor o igual que el valor indicado en cadafila de la tabla. Fija el numero de realizaciones que desees y pulsa en Continuar Simulacionpara obtener la tabla resultante.

Pulsa el boton Reiniciar para borrar todas las graficas e inicializar la tabla.Contesta la pregunta incluida en la ventana de trabajo.

Cuestiones:

1) Clasifica el espacio de estados y el espacio de tiempos del proceso.

2) ¿Es el proceso estacionario en media?

3) Calcula la probabilidad de que al cabo de 10 segundos se hayan producido 2 o menosllamadas. Estima esta misma probabilidad a partir de la tabla incluida en la ventana detrabajo y compara los resultados.

Page 139: Todo Unido Pe 2011

Universidad de Vigo. PyE. Practica 8 8.3

La autocorrelacion como funcion de dos instantes de tiempo. Estacio-nariedad. (opcional))

A esta practica se accede pulsando Estacionariedad en la ventana principal.En el ordenador se representan graficamente las funciones de autocorrelacion de tres procesos

distintos. La grafica resultante es tridimensional, ya que en general, si el proceso no es estacio-nario en autocorrelacion, la autocorrelacion es funcion de dos instantes de tiempo (RX(t1, t2) =EX(t1)X(t2)). Tambien se representa una grafica de contornos de autocorrelacion constante,esto es, en el plano t1t2 se muestran los puntos con igual autocorrelacion unidos por una lınea.

Uno de los procesos utilizados como ejemplo es el Proceso 2: X(t) = tY con Y ∼ exp(0.5).

Cuestiones:

1) Proceso 2. Calcula su funcion de autocorrelacion ¿Es estacionario en autocorrelacion?