tema 3: variable aleatoria bidimensional › sargrado › sarweb › transparencias ›...

Post on 07-Jul-2020

10 Views

Category:

Documents

0 Downloads

Preview:

Click to see full reader

TRANSCRIPT

Tema 3: VARIABLE ALEATORIA BIDIMENSIONAL

Carlos Alberola López

Lab. Procesado de Imagen, ETSI Telecomunicación

Despacho 2D014

caralb@tel.uva.es, jcasasec@tel.uva.es,http://www.lpi.tel.uva.es/sar

Juego de dardos:

• Cada lanzamiento es un experimento aleatorio.

• Los errores (respecto del centro) en sentido horizontal serían realizaciones de las VA X.

• Los errores (respecto del centro) en sentido vertical serían realizaciones de las VA Y.

Concepto de VA bidimensional

• ¿Cuándo será mejor un jugador que otro? Cuando más frecuentemente (probablemente) alcance mayor puntuación.

• Necesitamos pues herramientas bidimensionales ….

Una modulación digital:

• Se envían símbolos durante un tiempo T de la forma:

con

Un modelo real presenta ruido!!!

Concepto de VA bidimensional

• Diseño de regiones de decisión para minimizar probabilidad de error: sectores angulares similares a la diana.

• Valor de A que garantiza una determinada calidad en el servicio.

Concepto de VA bidimensional

X

Y( )YX,

Pc: Como norma general no es conocida a partir del conocimiento exclusivo de P1 y P2

Caracterización de VA bidimensional

A) Función de distribución conjunta

x

y

x{ }x≤X

y

{ }y≤Y

A) Función de distribución conjunta

x

y

{ }x≤X

y

{ }y≤Y { } 2Sx ×≤X

x

Caracterización de VA bidimensional

A) Función de distribución conjunta

x

y

{ }x≤X

{ }yS ≤× Y1

x

y

Caracterización de VA bidimensional

A) Función de distribución conjunta

x

y

{ }x≤X

{ }yS ≤× Y1

{ } { }ySSx ≤××≤ YX 12 I

{ } { }yx ≤≤ YX I

x

y

Caracterización de VA bidimensional

Función de distribución conjunta

• Se define como la probabilidad de la región anterior:

• Nótese que:

• Es una función de probabilidad acumulada:

Función de distribución conjunta

{ } { }00 yxA ≤≤= YX I

{ } { }11 yxB ≤≤= YX I

( ) ( )1100 ,, yxFyxF XYXY ≤

pues:

BACAB ⊂⇒= U

( ) ( )( ) ( )DPAP

DAPBPDAB+=

=⇒= UU

x

y

2x

y

1x

D

x

y

2x

y

1x

A

x

y

2x

y

1x

B

( ) ( ) ( )APBPDP −=

( ) ( ) ( )yxFyxFDP ,, 12 XYXY −=

Función de distribución: usos

( ) ( ) ( ) ( )DPAPBPEP −−=

( ) ( ) ( )2122 ,, yxFyxFEP XYXY −=

Función de distribución: usos

2x1x

x

y

2y

1yE

Dx

y

2x1x

A

2y

1y

x

y

2x1x

B

2y

1y

( ) ( )( )1112 ,, yxFyxF XYXY −−

( ) ( )( ) ( ) ( )EPDPAP

EDAPBPEDAB++=

=⇒= UUUU

B) Función de densidad de probabilidad

• La función de distribución es poco versátil, pues sólo permite hallar probabilidades de regiones con geometría muy sencilla.

• ¿Qué sucede si necesitamos calcular la probabilidad de una región con geometría arbitraria?

x

y

( )∑i

iRP

Caracterización de VA bidimensional

B) Función de densidad de probabilidad

• La función de densidad se define de la forma

• Y la relación inversa es

• De forma que la probabilidad asociada a una región arbitraria D del plano es

No negativa

Volumen encerrado=1

Caracterización de VA bidimensional

B) Función de densidad de probabilidad

• ¿Por qué recibe este nombre? Dado que se define

• se puede escribir de forma alternativa

Caracterización de VA bidimensional

Caracterización de VA bidimensional

B) Función de densidad de probabilidad

• ¿Por qué recibe este nombre? Dado que se define

• se puede escribir de forma alternativa xx Δ+x

x

yyy Δ+

y

Ejercicio:( ) ( )xFxP XX −=> 1 ( ) ( )yxFyxP ,1, XYYX −=>>¿ ?

¡¡NO!!{ } { }yxyxS ≤≤>>= YXYX UU,

( ) { } { }( )yxyxPSP ≤≤>>= YXYX UU,

( ) ( )yxPyxP ≤≤+>>= YXYX U,1

( ) ( )yxPyxP ≤≤−=>> YXYX U1,( ) ( ) ( ) ( )yxPyPxPyxP ≤≤−≤+≤=≤≤ YXYXYX IU

( ) ( ) ( )( )yxFyFxF ,1 XYYX −+−=

Funciones marginales• Las funciones de distribución o densidad de cada variable por

separado, en este contexto se denominan funciones marginales.

• A partir de las funciones de densidad o distribución conjunta siempre se pueden obtener las marginales

X

Y( )YX,

• Recíproco, en general, no es cierto

Funciones de distribución marginales• Para obtener hay que definir el suceso a

partir del caso 2D. Para ello escribimos

• Es decir, que en el suceso compuesto la segunda variable no suponga restricción alguna. Por ello

• De la misma forma

( )xFX ( )xP ≤X

( ) { }( )2SxPxP ×≤=≤ XX

Funciones de densidad marginales• En este caso:

• Lo cual se puede escribir de forma compacta como

• con

( )∫ ∞−=

xd

dxd ααφ

( ) ( )∫∞

∞−= dyyf ,ααφ XY

Funciones de densidad marginales• Para derivar bajo el signo integral acudimos a la regla:

• En nuestro caso tenemos:

• por lo que:

( ) ( ) ,∫ ∞−=

xd

dxdxf ααφX

( ) ( )∫∞

∞−= dyyf ,ααφ XY

( ) ( ) ( )∫∞

∞−== dyyxfxxf ,XYX φ

Funciones de densidad marginales• Por tanto:

Casos particulares:

A) Dos variables discretas

Supongamos que nos preguntan:

con

( )xP ≤X

( ) ( ) ( )CPBPAP ++=A B

C

222111 ppp ++=

{ } { }( )jiij yxPp === YX I

Casos particulares:

B) Una variable continua y una discreta

Supongamos que nos preguntan:

2R1R

( )yxP ≤≤ YX , ( )21 RRP U=

{ } { }yxR ≤== YX I11

{ } { }yxR ≤== YX I22

( ) ( )21 RPRP +=

( ) ( ) { } { }( ) { } { }( )yxPyxPRPRP ≤=+≤==+ YXYX II 2121

( ) ( ) ( ) ( )2121, RPRPRRPyxP +==≤≤ UYX

( ) ( ) ( ) ( )2211 xPxyPxPxyP ==≤+==≤= XXYXXY

( ) ( ) ( ) ( )∫ ∫∞− ∞−==+===

y y

Y dxfxPdxfxP ττττ 2211 XXXX Y

Entonces:

Por lo que:

Es necesario pues conocer:

( )ixP =X

( )ixyf =XY

Casos particulares:

C) Componentes relacionadas mediante ( )XY g=Se puede obtener la función

conjunta a través de cada una de las marginales:

( )xgy >

( ) )(),( xFxPyxF XXY X =≤=

( )xgy <

( )( ) ( ))(),( 11 ygFygPyxF −− =≤= XXY X

( )( )xg,x

Casos particulares:Supongamos que las componentes están relacionadas mediante

una recta y nos piden la probabilidad de la región sombreada:

A

B C

D

R

( ))()(

)()(DFCF

BFAFRP

XYXY

XYXY

−−

+=

( )xgy >

( )xgy <

D

CBA ,,

( ) XXY 2== g

)0())0(()()( 1XXXYXY FgFCFBF === −

( ) =−= )()( DFAFRP XYXY ( )( ) =−− )1(51XX FgF ( ) )1(2/5 XX FF −

Funciones condicionadas

• Se plantea cómo incluir más información en las funciones de caracterización total de las variables aleatorias una vez que se sabe que un determinado suceso se ha verificado.

• A tales funciones se les denomina funciones condicionadas, y se representan:

donde M es un suceso de probabilidad no nula.

Funciones condicionadas

Funciones condicionadas, marginales y conjuntas

• Existe una relación importante entre estas tres funciones, tanto a nivel de función de distribución como a nivel de función de densidad.

• Para la función de distribución, supongamos que el condicionante es y calculemos la función . Así pues

• Por ello:

• Y de forma similar

{ }yM ≤= Y( )MxFX

Funciones condicionadas, marginales y conjuntas

• Para la función de densidad, consideremos que el condicionante es una franja de valores de la VA Y, a saber, { }21 yyM ≤<= Y

• Renombramos ahora para poder acudir a cálculo diferencial:

⎩⎨⎧

+=

=

yyyyy

Δ2

1

• Teníamos que

• Y con el cambio de variables:

• Calculando el límite:

• Repetimos la expresión:

• Y ahora derivando con respecto a x:

• Por lo que podemos escribir:

Comentarios adicionales

• ¿Cómo es una función de densidad condicionada a la otra variable?

• Esta expresión permite construir muestras de una VA bidimensional mediante ordenador:

( )( ) muestras

x

100x,1N~0,1N~

⎭⎬⎫

=XYX x=randn(100,1)

y=x+randn(100,1)

Teorema de la Probabilidad Total

• Nótese que podemos integrar estas expresiones y obtenemos las funciones marginales:

Teorema de Bayes

Teorema de la Probabilidad Total

Independencia de dos VAs• Se dice que dos VAs son independientes si se verifica

que los experimentos aleatorios de los que proceden son independientes. Esto trae consigo que:

con

• En particular si escogemos podemos afirmar que dos VAs son independientes si:

• O bien

Independencia de dos VAs• Vimos que de forma general podemos escribir

• Según hemos visto las variables son independientes si se verifica que

Por tanto si son independientes “el condicionante no condiciona”

• Para el caso de las VAs discretas, la independencia se traduce en:

• La comprobación de la “no independencia” es muy sencilla e intuitiva. En particular

Independencia de dos VAs

Recorridos de VAsdependientes entre sí!!!!!

( ) 0, 00 =yxfXY pero ( )( )⎩

⎨⎧

00

0

0

yfxf

Y

X

• Objetivo: obtener la caracterización de Z a partir de la de X e Y.

• Procedimiento: a partir de la definición de función de distribución:

siendo

el procedimiento consiste en:

1. Identificar la región Dz

2. Realizar la integral

Transformación de VA 2D. Caso Z=g(X,Y)

• Consideremos que . Obtengamosla función de distribución de la VA Z.

• Partimos de:

Transformación de VA 2D. Ejemplo

• Entonces:

• Para obtener la función de densidad derivamos

( ) ( )∫ ∫∞

∞−

∞−=

xz

z dxdyyxfDP ,XY

( ) ( ) ( )dzDdP

dzzdFzf z== Z

Z

• Por tanto:

• Hagamos el cambio de variable

• Entonces

Transformación de VA 2D. Ejemplo

( ) ( ) ( )∫ ∫∞

∞−

∞−==

xzz dxdyyxf

dzd

dzDdPzf ,XYZ

xty −=

( ) ( )∫ ∫∞

∞− ∞−−=

zdxdtxtxf

dzdzf ,XYZ

( )∫ ∫∞−

∞− ⎥⎦⎤

⎢⎣⎡ −=

zdtdxxtxf

dzd ,XY

( )∫ ∞−=

zdtt

dzd ϕ

( ) ( ) ( )∫∞

∞−−== dxxzxfzzf ,XYZ ϕ

• Nótese que si las VAs fuesen independientes, el resultado anteriormente obtenido:

• se escribiría

• Es decir

• Este resultado recibe el nombre de Teorema de la Convolución (la función de densidad de la suma de 2 VAs independientes es igual a la convolución de las funciones de densidad)

• Consultar tres ejemplos más en el libro.

Transformación de VA 2D. Ejemplo

( ) ( ) ( )∫∞

∞−−== dxxzxfzzf ,XYZ ϕ

( ) ( ) ( ) ( )∫∞

∞−−== dxxzfxfzzf YXZ ϕ

( ) ( ) ( )zfzfzf YXZ ∗=

• Consideremos ahora que partimos de:

• El objetivo es obtener la función de densidad de las VAs de destino como función de la función de densidad de las VAs de origen.

• Llegaremos a una expresión que será el Teorema Fundamental extendido a dos dimensiones.

Transformación de VA 2D. Dos funcionesde dos VAs

• Para ello, escribimos

Transformación de VA 2D. Dos funcionesde dos VAs

• Generalizando

• Y dado que:

Transformación de VA 2D. Dos funcionesde dos VAs

• Entonces resulta la expresión del teorema:

• con:

Transformación de VA 2D. Dos funcionesde dos VAs

• Solución: la expresión del teorema fundamental es:

( ) ( ) ( )yfxfyxf YXXY =,

• Sólo hay una raíz del plano origen que se transforma en una del plano destino (salvo para el (0,0), pero es un punto aislado en el plano).

• Por ello, escribimos:

• Sustituyendo términos:

• Hemos obtenido pues:

• Y dado que W=X

• Ahora hay que indicar en qué zona del plano (z,w) es cierta la conclusión obtenida.

( )xx

wzf 11, ==ZW

( )w

wzf 1, =ZW

x

y

1

1

0 w

z

1

1

0w

10 ≤≤≤ wz

• Consideremos ahora que partimos de:

es decir, de una transformación de 2 Vas.

• Supongamos que deseamos conocer su función de densidad. Podemos emplear el teorema fundamental haciendo lo siguiente:

• Este procedimiento es el método de la VA auxiliar

Transformación de VA. Método de la Variable Auxiliar

( )wzf ,ZW ( ) ( )∫∞

∞−= dwwzfzf ,ZWZ

(1)

(2) (3)

Indep.

Tenemos pues:

De forma que:

• De forma similar al caso 1D, si se tiene yse desea entonces se puede escribir:

• En particular, si

Caracterización parcial de VA-2D

( ){ }ZhE( )YXZ ,g=

( ) ZZ =h

• Si ahora

Caracterización parcial de VA-2Dcba ++= YXZ

• Variables discretas:

• Esperanzas condicionadas: úsese función de densidad condicionada

Caracterización parcial de VA-2D

Momentos de una VA-2D• Se dividen en

• No centrales:

• Centrales:

• Si las VAs son discretas:

Momentos de una VA-2D• Con nombre propio

• Correlación:

• Covarianza:

• Existe relación entre ellos:

• Coef. de correlación:

Momentos de una VA-2D• Variables ortogonales:

• Variables incorreladas:

• Independencia implica incorrelación:

• El recíproco no es cierto!!!!! (en general)

0=XYR

0=XYC

Momentos de una VA-2D• Variables incorreladas:

• Varianza de la suma es igual a suma de las varianzas:

• Variables ortogonales:

• Si las variables son ortogonales el mismo razonamiento aplica para el valor cuadrático medio de la suma.

0=XYC

0=XYR

Unas nociones sobre estimación• Se trata de poder predecir lo que vale una variable (Y)

una vez que se ha observado lo que vale la otra (X):

( )XY g=ˆ (estimador de Y)

Unas nociones sobre estimación• Criterio de construcción de estimadores:minimizar el

valor cuadrático medio del error

• Veremos tres casos:

• Estimar mediante constante:

• Estimar mediante función lineal

• Estimador sin restricciones

YYε ˆ−= { } ( ){ }22 ˆminmin YYε −= EE

( ) ag == XY

( ) bag +== XXY

( )XY g=ˆ

Unas nociones sobre estimación• Estimar mediante constante

• Estimar mediante función lineal

• Estimador sin restricciones

{ }2min εEa

( ) ag == XY { }YEa =∗

{ }2

,min εE

ba{ } { }XYX

XY

EaEb

Ca∗∗

−=

= 2σ( ) bag +== XXY

( ){ }2min εE

g( )XY g=ˆ ( ) { } ( )∫∞

∞−=== dyxyyfxEg YXYX

Unas nociones sobre estimación• Es interesante ver que el coeficiente de correlación mide

el grado de relación lineal entre las variables:

• VCM del error para estimador constante:

• VCM del error para estimador lineal

• Si ambos coinciden, ¿Por qué? Porque:

{ } 22Yε σ=E

{ } ( )222 1 XYYε ρσ −=E

0=XYρ

{ } { }XYX

XY

EaEb

Ca∗∗

−=

= 2σ

top related