wiki.foros-fiuba.com.arwiki.foros-fiuba.com.ar/_media/materias:66:finales...se tiene entonces que:...

38
Finales de Procesos Estocásticos Nicolás Zorzano Índice 1. Final 11/12/14 2 1.1. Enunciado ...................................................... 2 1.2. Resolución ...................................................... 3 2. Final 18/12/14 10 2.1. Enunciado ...................................................... 10 2.2. Resolución ...................................................... 11 3. Final 13/02/15 17 3.1. Enunciado ...................................................... 17 3.2. Resolución ...................................................... 18 4. Final 18/02/15 23 4.1. Enunciado ...................................................... 23 4.2. Resolución ...................................................... 24 5. Final 26/02/15 28 5.1. Enunciado ...................................................... 28 5.2. Resolución ...................................................... 29 6. Final 10/12/15 34 6.1. Enunciado ...................................................... 34 6.2. Resolución ...................................................... 35 1

Upload: others

Post on 25-Apr-2020

4 views

Category:

Documents


0 download

TRANSCRIPT

Page 1: wiki.foros-fiuba.com.arwiki.foros-fiuba.com.ar/_media/materias:66:finales...Se tiene entonces que: V[X(t)] = cos(wt)2 cos(wt)2 e 4 t= cos(wt)2 1 e Ítem 3 Para que un proceso X(t)

Finales de Procesos Estocásticos

Nicolás Zorzano

Índice

1. Final 11/12/14 21.1. Enunciado . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21.2. Resolución . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3

2. Final 18/12/14 102.1. Enunciado . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 102.2. Resolución . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11

3. Final 13/02/15 173.1. Enunciado . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 173.2. Resolución . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18

4. Final 18/02/15 234.1. Enunciado . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 234.2. Resolución . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24

5. Final 26/02/15 285.1. Enunciado . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 285.2. Resolución . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29

6. Final 10/12/15 346.1. Enunciado . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 346.2. Resolución . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35

1

Page 2: wiki.foros-fiuba.com.arwiki.foros-fiuba.com.ar/_media/materias:66:finales...Se tiene entonces que: V[X(t)] = cos(wt)2 cos(wt)2 e 4 t= cos(wt)2 1 e Ítem 3 Para que un proceso X(t)

1. Final 11/12/14

1.1. Enunciado

Ejercicio 1: Estimación de una constante

Sea un proceso aleatorio en tiempo discreto X(k) = A+N(k) donde A es una variable aleatoria de media 0 y varianzaσ2A y el ruido N(k) es ruido gaussiano de media nula y varianza σ2

N . Se desea estimar el valor de A utilizando unacombinación lineal de dos observaciones de X(k), es decir, A = α1X(k1) + α2X(k2), donde A es la estimación de A. Sea

E2 =(A− A

)2

el error cuadrático.

1. Considere N(k), un ruido blanco de media nula. Obtenga los valores de α1 y α2 que minimizan el error cuadráticomedio. Calcule la media del error cuadrático.

2. Como se modifican los resultados anteriores si N(k) no es blanco?.

3. En que casos de ruido coloreado el MMSE es menor que el calculado en 1.?

Ejercicio 2: Modulación de fase

Sea N(t) un proceso Poisson. Se construye la siguiente señal modulada en fase:

X(t) = cos (wt+ πN(t))

1. A modo de ejemplo, grafique una realización de X(t).

2. Obtenga la media y varianza de X(t).

3. Determine si X(t) es un proceso ESA.

4. Determine si X(t) es continua en sentido cuadrático. En caso afirmativo, determine si el proceso es diferenciable ensentido cuadrático.

Ejercicio 3: Decisión binaria

Un sistema de comunicación transmite información binaria con un código de repetición de largo n. Es decir, paratransmitir el bit 0 transmite por el canal el valor +1 durante n instantes de tiempo, y para transmitir el bit 1, transmite porel canal el valor −1 durante n veces. El canal suma ruido en la transmisión, es decir, la señal recibida es Y (k) = s(k)+N(k)donde s(k) vale +1 o −1 y N(k) es ruido gaussiano.

1. El problema de detección a la salida del canal se puede plantear como un test de hipótesis. En el caso de tener ruidoblanco gaussiano, formalice dicho planteo.

2. Obtenga el cociente de verosimilitud para el problema anterior.

3. Diseñe una arquitectura posible para implementar el receptor.

4. Se modifica la arquitectura anterior si el ruido tiene media nula pero no es blanco?.

5. Qué sucede si la entrada al receptor tiene un sesgo y por ende el ruido tiene una media no nula?.

2

Page 3: wiki.foros-fiuba.com.arwiki.foros-fiuba.com.ar/_media/materias:66:finales...Se tiene entonces que: V[X(t)] = cos(wt)2 cos(wt)2 e 4 t= cos(wt)2 1 e Ítem 3 Para que un proceso X(t)

1.2. Resolución

Ejercicio 1

Ítem 1

El estimador de A se puede escribir como:

A = α1X(k1) + α2X(k2) = α1 (A+N(k1)) + α2 (A+N(k2))→ A = A (α1 + α2) + α1N(k1) + α2N(k2)

El error cuadrático queda entonces:

E2 =(A− A

)2

= (A (1− α1 − α2)− α1N(k1)− α2N(k2))2

Desarrollando el cuadrado se tiene:

E2 = (A (1− α1 − α2))2 − 2A (1− α1 − α2) (α1N(k1) + α2N(k2)) + (α1N(k1))

2+ (α2N(k2))

2+ 2α1α2N(k1)N(k2)

Como se trata de variables aleatorias, es necesario utilizar un estimador del error cuadrático, que en este caso será elerror cuadrático medio. Por otra parte, como la esperanza es un operador lineal, es lo mismo minimizar el error cuadráticomedio que el error cuadrático. Para esto se le toma esperanza al error cuadrático.

ECM = E[E2]

Separando la esperanza de la suma, en la suma de las esperanzas se tiene:

E[(A (1− α1 − α2))

2]

= (1− α1 − α2)2 E[A2]

= (1− α1 − α2)2σ2A

E [A (1− α1 − α2) (α1N(k1) + α2N(k2))] = (1− α1 − α2)(α1

E [AN(k1)] + α2E [AN(k2)]

)= 0

E[(α1N(k1))

2]

= α21E[N(k1)2

]= α2

1σ2N

E[(α2N(k2))

2]

= α22E[N(k2)2

]= α2

2σ2N

E [2α1α2N(k1)N(k2)] = 2α1α2E [N(k1)N(k2)] = 2α1α2RN (|k2 − k1|) = 2α1α2σ2Nδ (|k2 − k1|)

Se tiene entonces que el ECM es:

ECM = (1− α1 − α2)2σ2A + α2

1σ2N + α2

2σ2N + 2α1α2σ

2Nδ (|k2 − k1|)

Si se lo deja en función de las constantes que se desean obtener:

ECM = α21

(σ2A + σ2

N

)+ α2

2

(σ2A + σ2

N

)− 2α1σ

2A − 2α2σ

2A + 2α1α2

(σ2A + σ2

Nδ (|k2 − k1|))

+ σ2A

Se puede ver que el ECM solo depende del tiempo si las dos observaciones X(k1) y X(k2) se hacen al mismo tiempo.Caso contrario, el error cuadrático medio no depende del instante en que se esté analizando.

Esta expresión, se corresponde con la forma cuadrática:

Q (α1, α2) = [α1 α2]

[σ2A + σ2

N σ2A + σ2

Nδ (|k2 − k1|)σ2A + σ2

Nδ (|k2 − k1|) σ2A + σ2

N

] [α1

α2

]+ [α1 α2]

[−2σ2

A 00 −2σ2

A

]+ σ2

A

Según el wolframalpha, esta forma cuadrática corresponde a la de un paraboloide elíptico, el cual tendrá una concavi-dad determinada por los autovalores del termino cuadrático.

det

([σ2A + σ2

N σ2A + σ2

Nδ (|k2 − k1|)σ2A + σ2

Nδ (|k2 − k1|) σ2A + σ2

N

]− λ

[1 00 1

])= det

([σ2A + σ2

N − λ σ2A + σ2

Nδ (|k2 − k1|)σ2A + σ2

Nδ (|k2 − k1|) σ2A + σ2

N − λ

])El polinomio característico es:

λ2 − 2λ(σ2A + σ2

N

)+(σ2A + σ2

N

)2 − (σ2A + σ2

Nδ (|k2 − k1|))2

Las raíces del polinomio característico son:

λi =2(σ2A + σ2

N

)±√

4 (σ2A + σ2

N )2 − 4 (σ2

A + σ2N )

2+ 4 (σ2

A + σ2Nδ (|k2 − k1|))

2

2→ λi = σ2

A+σ2N ±

(σ2A + σ2

Nδ (|k2 − k1|))

3

Page 4: wiki.foros-fiuba.com.arwiki.foros-fiuba.com.ar/_media/materias:66:finales...Se tiene entonces que: V[X(t)] = cos(wt)2 cos(wt)2 e 4 t= cos(wt)2 1 e Ítem 3 Para que un proceso X(t)

Debido a que las varianzas son siempre positivas, se tiene que los autovalores son ambos positivos (en el peor de loscasos es cero, por lo que es una matriz definida no negativa), por lo que el paraboloide tiene una concavidad hacia arriba,indicando que al derivar e igualar a cero se obtendrá un mínimo.

Tomando el gradiente del ECM se tiene:

∇ECM =

[2α1

(σ2A + σ2

N

)− 2σ2

A + 2α2

(σ2A + σ2

Nδ (|k2 − k1|))

2α2

(σ2A + σ2

N

)− 2σ2

A + 2α1

(σ2A + σ2

Nδ (|k2 − k1|)) ] =

[00

]Despejando los valores de α1 y α2 se tiene:

α1 =σ2A

σ2A + σ2

N

(1− σ2

A + σ2Nδ (|k2 − k1|)

σ2N + 2σ2

A

)

α2 =σ2A

σ2N + 2σ2

A

Estos valores de α1 y α2 son los que minimizan el error cuadrático. Nuevamente se tiene que si las observaciones nose hacen en un único instante, estos factores son independientes del tiempo.

Ítem 2

Si no se tratara de ruido blanco, la autocorrelación ya no será una constante multiplicada por una delta:

ECM = α21

(σ2A + σ2

N

)+ α2

2

(σ2A + σ2

N

)− 2α1σ

2A − 2α2σ

2A + 2α1α2

(σ2A +RN (|k2 − k1|)

)+ σ2

A

Los coeficientes en este caso son:

∇ECM =

[2α1

(σ2A + σ2

N

)− 2σ2

A + 2α2

(σ2A +RN (|k2 − k1|)

)2α2

(σ2A + σ2

N

)− 2σ2

A + 2α1

(σ2A +RN (|k2 − k1|)

) ] =

[00

]Los coeficientes en este caso son:

α1 =σ2A

σ2A + σ2

N

(1−

(σ2N −RN (|k2 − k1|)

) (σ2A +RN (|k2 − k1|)

)σ4N −RN (|k2 − k1|)2

+ 2σ2A (σ2

N −RN (|k2 − k1|))

)

α2 = σ2A

σ2N −RN (|k2 − k1|)

σ4N −RN (|k2 − k1|)2

+ 2σ2A (σ2

N −RN (|k2 − k1|))

A diferencia del caso anterior, la autocorrelación ya no es una delta, por lo que puede que estos coeficientes dependandel tiempo sin importar en que instante se hacen las observaciones.

Ítem 3

Ejercicio 1 (bis)

Lo voy a resolver utilizando el principio de ortogonalidad.

Ítem 1

El error cuadrático medio (ECM) es la esperanza del error cuadrático:

ECM = E[E2]

= E[(A− A

)2]

Se puede pensar a A como un estimador lineal de la forma:

A = βX =[α1 α2

] [ X(k1)X(k2)

]El principio de ortogonalidad lo que estipula es que la estimación de un parámetro es la proyección de lo que se desea

estimar sobre el espacio generado por los datos. Por lo tanto, se cumple que:

E [Error · Datos] = 0 =⇒ Error⊥Datos

4

Page 5: wiki.foros-fiuba.com.arwiki.foros-fiuba.com.ar/_media/materias:66:finales...Se tiene entonces que: V[X(t)] = cos(wt)2 cos(wt)2 e 4 t= cos(wt)2 1 e Ítem 3 Para que un proceso X(t)

Para minimizar el error cuadrático medio, es necesario tomar el gradiente e igualarlo a cero:

∇ECM =

E[

∂∂α1

(A− A

)2]

E[

∂∂α2

(A− A

)2] =

E

−2

Error︷ ︸︸ ︷(A− A

) Dato︷ ︸︸ ︷∂

∂α1A

E[−2(A− A

)∂∂α2

A]

=

E [−2(A− A

)X(k1)

]E[−2(A− A

)X(k2)

] =

[00

]

Se puede plantear entonces: E [(A− A)X(k1)]

E[(A− A

)X(k2)

] =

E [AX(k1)− AX(k1)]

E[AX(k2)− AX(k2)

] =

[00

]→[E [AX(k1)]E [AX(k2)]

]=

E [AX(k1)]

E[AX(k2)

] Se tiene entonces:[

E [AX(k1)]E [AX(k2)]

]=

[E [A (A+N(k1))]E [A (A+N(k2))]

]=

E [AX(k1)]

E[AX(k2)

] =

[E [(α1X(k1) + α2X(k2))X(k1)]E [(α1X(k1) + α2X(k2))X(k2)]

][E[A2]

E[A2] ] =

[α1E

[X(k1)2

]+ α2E [X(k2)X(k1)]

α1E [X(k1)X(k2)] + α2E[X(k2)2

] ][σ2A

σ2A

]=

[α1

(σ2A + σ2

N

)+ α2

(σ2A +RN (k1, k2)

)α1

(σ2A +RN (k1, k2)

)+ α2

(σ2A + σ2

N

) ]Se llegó al mismo sistema que antes, asique a menos que le haya pifiado en los despejes de α1 y α2 puedo confiar en

que lo resolví bien.

Ejercicio 2

Ítem 1

Ítem 2

La media del proceso es:E [X(t)] = E [cos (wt+ πN(t))]

Para poder resolver esto, es necesario utilizar la esperanza condicional:

E [X(t)] = E [E [X(t)|N(t)]] = E [Φ (N(t))]

Se plantea entonces:

E [X(t)|N(t) = n] = E [cos (wt+ πn)] =

∞∑n=0

cos (wt+ πn)(λt)

n

n!e−λt

Se sabe que cos (wt+ nπ) = cos (wt) cos (nπ)− sin (wt)sin (nπ) = cos (wt) (−1)

n, entonces se tiene:

E [X(t)|N(t) = n] =

∞∑n=0

cos (wt) (−1)n (λt)

n

n!e−λt = cos (wt) e−λt

∞∑n=0

(−1)n(λt)

n

n!︸ ︷︷ ︸e−λt

= cos (wt) e−2λt

Finalmente, se tiene que:

E [X(t)] = cos (wt) e−2λt

Para la varianza es posible realizar un desarrollo similar, pero partiendo de que:

V [X(t)] = E[X(t)2

]− E [X(t)]

2= E

[cos (wt+ πN(t))

2]−(cos (wt) e−2λt

)2Nuevamente se utiliza la esperanza condicional:

E[cos (wt+ πN(t))

2]

=

∞∑n=0

cos (wt+ πn)2 (λt)

n

n!e−λt =

∞∑n=0

cos (wt)2 (λt)

n

n!e−λt = cos (wt)

2e−λt

∞∑n=0

(λt)n

n!︸ ︷︷ ︸eλt

= cos (wt)2

5

Page 6: wiki.foros-fiuba.com.arwiki.foros-fiuba.com.ar/_media/materias:66:finales...Se tiene entonces que: V[X(t)] = cos(wt)2 cos(wt)2 e 4 t= cos(wt)2 1 e Ítem 3 Para que un proceso X(t)

Se tiene entonces que:

V [X(t)] = cos (wt)2 − cos (wt)

2e−4λt = cos (wt)

2 (1− e−4λt

)Ítem 3

Para que un proceso X(t) sea estacionario en sentido amplio (ESA) se debe cumplir que:E [X(t)] = µX

RX (t1, t2) = RX (|t2 − t1|)

Como la esperanza del proceso es una función del tiempo, no se trata de un proceso ESA.

Ítem 4

Para que un proceso X(t) sea continuo en media cuadrática se debe cumplir que:

lımt→t0

E[(X(t)−X(t0))

2]→ 0

Otra forma de ver esto es:

lımt1,t2→t0

RX (t1, t2) = RX (t0, t0) =⇒ X(t) es continua en media cuadrática en t0

Es necesario entonces obtener la autocorrelación del proceso:

RX(t1, t2) = E [X(t1)X(t2)] = E [cos (wt1 + πN(t1)) cos (wt2 + πN(t2))] = E[cos (wt1) cos (wt2) (−1)

N(t1)+N(t2)]

RX(t1, t2) = cos (wt1) cos (wt2)E[(−1)

N(t1)+N(t2)]

Esta expresión se puede analizar por partes:

t1 = t2

RX (t1, t2) = cos (wt1) cos (wt2)E[(−1)

2N(t1)]

︸ ︷︷ ︸1

→ RX (t1, t2) = cos (wt1)2

t2 ≥ t1

RX (t1, t2) = cos (wt1) cos (wt2)E[(−1)

2N(t1)+N(t2−t1)]

= cos (wt1) cos (wt2)E[(−1)

2N(t1)(−1)

N(t2−t1)]

Como se trata de intervalos independientes (no tienen puntos en común), los procesos de conteo son independientes.Por esta razón, se puede separar la esperanza del producto como el producto de las esperanzas.

RX (t1, t2) = cos (wt1) cos (wt2)E[(−1)

2N(t1)]

︸ ︷︷ ︸1

E[(−1)

N(t2−t1)]

Tomando la esperanza condicional como en los casos anteriores:

E[(−1)

N(t2−t1) |N(t2 − t1) = n]

=

∞∑n=0

(−1)n (λ (t2 − t1))

n

n!e−λ(t2−t1) = e−λ(t2−t1)

∞∑n=0

(−1)n(λ (t2 − t1))

n

n!= e−2λ(t2−t1)

Finalmente se tiene entonces:RX (t1, t2) = cos (wt1) cos (wt2) e−2λ(t2−t1)

t2 < t1

RX (t1, t2) = cos (wt1) cos (wt2)E[(−1)

2N(t2)+N(t1−t2)]

= cos (wt1) cos (wt2)E[(−1)

2N(t2)(−1)

N(t1−t2)]

Este caso es similar al anterior, por lo que se tiene:

RX (t1, t2) = cos (wt1) cos (wt2) e−2λ(t1−t2)

6

Page 7: wiki.foros-fiuba.com.arwiki.foros-fiuba.com.ar/_media/materias:66:finales...Se tiene entonces que: V[X(t)] = cos(wt)2 cos(wt)2 e 4 t= cos(wt)2 1 e Ítem 3 Para que un proceso X(t)

La autocorrelación entonces es:

lımt1,t2→t0

RX (t1, t2) =

cos (wt1)

2t1 = t2

cos (wt1) cos (wt2) e−2λ(t2−t1) t2 > t1

cos (wt1) cos (wt2) e−2λ(t1−t2) t1 > t2

=

cos (wt0)

2t1 = t2

cos (wt0) cos (wt0) e−2λ(t0−t0) t2 > t1

cos (wt0) cos (wt0) e−2λ(t0−t0) t1 > t2

= cos (wt0)2

lımt1,t2→t0

RX (t1, t2) = cos (wt0)2

= RX (t0, t0)

Como se cumple la condición definida, se puede decir que X(t) es un proceso continuo en media cuadrática.Se puede ver que la autocorrelación se puede escribir también como:

RX (t1, t2) = cos (wt1) cos (wt2) e−2λ|t2−t1|

Un proceso es diferenciable en sentido cuadrático si se cumple que:

∃X ′(t) lımh→0

E

[(X ′(t0)− X(t0)−X(t0 − h)

h

)2]

= 0

Una propiedad que se cumple si se trata de un proceso diferenciable es:

X(t) es diferenciable en t0 =⇒ E[dX(t)

dt

]=

d

dtE [X(t)]

La derivada del proceso es:

d

dtcos (wt+ πN(t)) = − sin (wt+ πN(t)) (w + πN ′(t)) = − (w + πN ′(t))

(sin (wt) cos (πN(t)) + cos (wt)

sin (πN(t)))

d

dtcos (wt+ πN(t)) = − (w + πN ′(t)) sin (wt) (−1)

N(t)

La derivada de la esperanza es:

d

dtE [X(t)] =

d

dtcos (wt) e−2λt = −w sin (wt) e−2λt − 2λ cos (wt) e−2λt

No tengo idea de si está bien, pero dudo que estas dos cosas sean iguales. Por lo tanto puedo concluir que no es unproceso diferenciable en sentido cuadrático. Creo que esto tiene sentido ya que por cada arribo que se tiene, el procesopega un salto de fase de π, asique si bien es continuo se pueden tener puntos donde la derivada no es finita.

Ejercicio 3

Ítem 1

El sistema a analizar es:Y (k) = s(k) +N(k)

Según entiendo del enunciado, la señal s(k) es una señal determinista que solo puede valer +1 o −1. Si se toman nmuestras del proceso, el sistema se puede expresar con vectores de largo n.

Y = s+N

Asumiendo que la señal s se mantiene constante durante todo el periodo de muestreo (caso contrario debería sermodelada con un proceso aleatorio), solo se tienen dos posibles resultados:

Y =

[1, 1, · · · , 1] +N Se manda un 0 : H0

[−1,−1, · · · ,−1] +N Se manda un 1 : H1

En el enunciado no se dice nada, pero voy a asumir que P (H0) = 1−P (H1) = p. La regla de decisión para este test dehipótesis es:

P(H0|y

)≷H0

H1P(H1|y

)

7

Page 8: wiki.foros-fiuba.com.arwiki.foros-fiuba.com.ar/_media/materias:66:finales...Se tiene entonces que: V[X(t)] = cos(wt)2 cos(wt)2 e 4 t= cos(wt)2 1 e Ítem 3 Para que un proceso X(t)

Aplicando la regla de Bayes, esta regla de decisión se puede escribir como:

fY |H1

(y|H1

)fY |H0

(y|H0

) ≷H1

H0

p

1− p= γ

Como s es determinística, el proceso Y consiste en una serie de gaussianas similares a las del ruido blanco, pero consus medias desplazadas. Las densidades quedan entonces:

E [s+N |H1] = −1

E [s+N |H0] = 1→

fY |H1

(y|H1

)=

(1

)n2 1∣∣CY ∣∣1/2 e−

12 (y+1)

TC−1Y (y+1)

fY |H0

(y|H0

)=

(1

)n2 1∣∣CY ∣∣1/2 e−

12 (y−1)

TC−1Y (y−1)

Y |H1 ∼ N

[−1, σ2

W I]

Y |H0 ∼ N[1, σ2

W I]

Como N es un proceso de ruido blanco, e Y es el mismo proceso pero desplazado en media, sus matrices de covarianzaserán:

CY = σ2W I → C−1

Y =1

σ2W

I

Introduciendo estos datos en la regla de decisión, y tomando logaritmo natural para que no molesten las exponenciales,se tiene:

− 12

(y + 1

)TC−1Y

(y + 1

)+ 1

2

(y − 1

)TC−1Y

(y − 1

)≷H1

H0ln (γ)(

y − 1)T (

y − 1)−(y + 1

)T (y + 1

)≷H1

H0

2 ln(γ)σ2W

Finalmente se puede escribir: ∣∣∣∣y − 1∣∣∣∣2 − ∣∣∣∣y + 1

∣∣∣∣2 ≷H1

H0

2 ln (γ)

σ2W

Esta expresión se corresponde con la regla de decisión que permite estimar cuál fue el valor recibido.Otra forma de ver a esta expresión es distribuyendo los productos. Se tiene finalmente que:

n∑i=1

y(i) ≶H1

H0

ln (γ)

2σ2W

Ítem 2

Bueno el cociente de verosimilitud lo saque en el ítem anterior, ya que se define como:

L (Y ) =P (Y |H1)

P (Y |H0)

De este cociente se deriva todo lo que hice antes.

Ítem 3

Una arquitectura para este sistema debe ser capaz de tomar n muestras consecutivas del proceso, sumarlas, y compararel resultado con la constante que determina el criterio de decisión. Creo que un sistema que encaja con estos requerimien-tos es el sistema de moving average que se ve en la figura 1.1.

8

Page 9: wiki.foros-fiuba.com.arwiki.foros-fiuba.com.ar/_media/materias:66:finales...Se tiene entonces que: V[X(t)] = cos(wt)2 cos(wt)2 e 4 t= cos(wt)2 1 e Ítem 3 Para que un proceso X(t)

Figura 1.1: Sistema moving average. Para tener el sistema analizado anteriormente es necesario sumara la señal de entrada una señal de ruido blanco.

Teniendo en cuenta el sistema de la figura 1.1, el sistema completo debe ser tal que a la entrada del moving average setiene la señal determinística con el ruido, y a la salida del promediador se tiene un comparador encargado de determinarel valor de la señal determinística.

Ítem 4

Si en la entrada se tuviera ruido de media nula pero no blanco, ya no sería cierto que la matriz de covarianza es unamatriz diagonal. Por lo tanto, la regla de decisión ya no será la misma a la obtenida en los items anteriores.

Ítem 5

Si ahora el ruido es blanco pero tiene media no nula, también se va a modificar la regla de decisión, ya que lasdensidades quedan como:

fY |H1

(y|H1

)=

(1

)n2 1∣∣CY ∣∣1/2 e−

12 (y+1−µW )

TC−1Y (y+1−µW )

fY |H0

(y|H0

)=

(1

)n2 1∣∣CY ∣∣1/2 e−

12 (y−1−µW )

TC−1Y (y−1−µW )

Igual puede que no cambie nada, porque se están desplazando las dos gaussianas de igual manera, y se mantiene ladistancia entre ellas constante, asique tal vez en la regla de decisión se cancela todo mágicamente.

9

Page 10: wiki.foros-fiuba.com.arwiki.foros-fiuba.com.ar/_media/materias:66:finales...Se tiene entonces que: V[X(t)] = cos(wt)2 cos(wt)2 e 4 t= cos(wt)2 1 e Ítem 3 Para que un proceso X(t)

2. Final 18/12/14

2.1. Enunciado

Ejercicio 1: Amplitud modulada

Sea X(t) un proceso aleatorio obtenido del siguiente modo:

X(t) =

∞∑k=1

Akp (t− Tk)

donde Ak ∈ −3,−1,+1,+3 son variables aleatorios i.i.d., Tk es el tiempo de ocurrencia del k-ésimo evento Poissonde parámetro λ, Ak y Tk son variables independientes entre si, y p(.) es un pulso determinístico.

1. Grafique una realización del proceso representando los primeros 4 valores de Ak.

2. Halle la media de X(t).

3. Halle la autocorrelación de X(t).

Ejercicio 2: Codificador en bloque

Considere el proceso X(n), gaussiano, de media nula y autocorrelación RX(k) = σ2Xδ(k). Un codificador en bloque es

un sistema que obtiene el siguiente proceso aleatorio:

Y (n) =

X(n)+X(n+1)√

2n = 2k

X(n−1)−X(n)√2

n = 2k + 1

1. Obtenga un diagrama en bloque para implementar dicho sistema.

2. Grafique una realización de dicho sistema de largo 6.

3. Hallar la autocorrelación de Y (n). El proceso es ESA?.

4. Hallar la función generadora de momentos conjunta de Y (n), Y (n+ 1), Y (n+ 2).

Ejercicio 3: Blanqueo de ruido coloreado

Sea X(n) un proceso ESA de media nula y función de autocorrelación RX(k) = σ2a|k|, con |a| < 1. Considere elproceso filtrado Y (n) = X(n) + βX(n−1).

1. Hallar la autocorrelación cruzada E [Y (k)X(n+ k)].

2. Calcular la densidad espectral de potencia de Y (n).

3. Si es posible, obtenga un valor de β para el cual el proceso filtrado resulta blanco.

10

Page 11: wiki.foros-fiuba.com.arwiki.foros-fiuba.com.ar/_media/materias:66:finales...Se tiene entonces que: V[X(t)] = cos(wt)2 cos(wt)2 e 4 t= cos(wt)2 1 e Ítem 3 Para que un proceso X(t)

2.2. Resolución

Ejercicio 1

Ítem 1

Ítem 2

La media de X (t) es:

E [X(t)] = E

[ ∞∑k=1

Akp (t− Tk)

]Como la esperanza es un operador linea, es posible sacar la sumatoria afuera del operador. Como se dice que Ak y Tk

son variables independientes entre si, se puede separar la esperanza del producto como el producto de las esperanzas. Setiene entonces:

E [X(t)] =

∞∑k=1

E [Ak]E [p (t− Tk)]

Como en el enunciado dicen que Ak está compuesto por variables aleatorias iid, se puede asumir que todos sus valorestienen la misma probabilidad de ocurrir:

E [Ak] =1

4(−3− 1 + 1 + 3) = 0→ E [X(t)] = 0

Ítem 3

La autocorrelación el proceso es:

RX (t1, t2) = E [X(t1)X(t2)] = E

[( ∞∑k=1

Akp (t1 − Tk)

)( ∞∑r=1

Arp (t2 − Tr)

)]

Esta expresión se puede reescribir como:

RX (t1, t2) = E

[ ∞∑k=1

∞∑r=1

AkArp (t1 − Tk) p (t2 − Tr)

]=

∞∑k=1

∞∑r=1

E [AkArp (t1 − Tk) p (t2 − Tr)]

Como se trata de variables independientes, se puede escribir:

RX (t1, t2) =

∞∑k=1

∞∑r=1

E [AkAr]E [p (t1 − Tk) p (t2 − Tr)]

Como A esta compuesta por variables aleatorias iid, es posible separar la esperanza del producto como el producto delas esperanzas. Por esta razón, para k 6= r la autocorrelación es nula. En general se tiene que:

RA (k, r) = E [AkAr]→ RA (k, r) = σ2Aδ (k − r)

Donde la varianza de A es: σ2A = 1/4

((−3)

2+ (−1)

2+ 12 + 32

)= 5. Como esta expresión solo vale si k = r, se elimina

una de las sumatorias, por lo que ahora se tiene:

E [p (t1 − Tk) p (t2 − Tr)] = E [p (t1 − Tk) p (t2 − Tk)]

Como Tk es el tiempo hasta el k-ésimo arribo, se sabe que es una variable Gamma: Tk ∼ Gamma (k, λ). La densidadde esta variable aleatoria es:

fTk (t) =λk

Γ (k)tk−1e−λt1 t > 0 Γ (k) =

ˆ ∞0

xk−1e−xdx

Según Wikipedia, para k ∈ N la distribución Gamma se convierte en la distribución de Erlang cuya densidad es:

Si k ∈ N ⇒ Γ (k) = (k − 1)! =⇒ fTk (t) =λk

(k − 1)!tk−1e−λt1 t > 0

11

Page 12: wiki.foros-fiuba.com.arwiki.foros-fiuba.com.ar/_media/materias:66:finales...Se tiene entonces que: V[X(t)] = cos(wt)2 cos(wt)2 e 4 t= cos(wt)2 1 e Ítem 3 Para que un proceso X(t)

La esperanza entonces es:

E [p (t1 − Tk) p (t2 − Tk)] =

ˆ ∞0

p (t1 − tk) p (t2 − tk)λk

(k − 1)!tk−1k e−λtkdtk =

λk

(k − 1)!tk−11 e−λt1δ (t1 − t2)

Se tiene entonces:

RX (t1, t2) =

∞∑k=1

σ2A

λk

(k − 1)!tk−11 e−λt1δ (t1 − t2) = σ2

Ae−λt1δ (t1 − t2)

∞∑k=1

λk

(k − 1)!tk−11

Según el Wolframalpha se tiene que:∞∑k=1

λk

(k − 1)!tk−11 = λeλt1

Se tiene finalmente entonces que:

RX (t1, t2) = σ2Ae−λt1δ (t1 − t2)λeλt1 → RX (t1, t2) = λσ2

Aδ (t1 − t2)

En el resuelto de la materia toman como que los impulsos tienen duración de largo L. El desarrollo es el mismo, perolo único que cambia es el resultado de la integral del producto de las funciones de impulso:

E [p (t1 − Tk) p (t2 − Tk)] =λk

(k − 1)!

ˆ ∞0

p (t1 − tk) p (t2 − tk) tk−1k e−λtkdtk

Esta integral es distinta de cero siempre y cuando los valores de t1 y t2 se encuentren dentro del impulso. El intervalodonde esto ocurre es:

It = [max (t1, t2) ,mın (t1, t2) + L]

Si existe este intervalo, la esperanza es distinta de cero, y se tiene:

E [p (t1 − Tk) p (t2 − Tk)] =λk

(k − 1)!

ˆIt

tk−1k e−λtk1 (t1, t2) ∈ It dtk

Se puede escribir entonces:

RX (t1, t2) = σ2A

ˆIt

∞∑k=1

λk

(k − 1)!tk−1k e−λtk︸ ︷︷ ︸

λ

1 (t1, t2) ∈ It dtk

Finalmente se tiene:

RX (t1, t2) = λσ2A (mın (t1, t2) + L−max (t1, t2))1 (t1, t2) ∈ It

Ejercicio 2

Y (n) =

X(n)+X(n+1)√

2n = 2k

X(n−1)−X(n)√2

n = 2k + 1

Ítem 1

Ítem 2

Ítem 3

La autocorrelación es:RY (n1, n2) = E [Y (n1)Y (n2)]

Lo divido en distintas situaciones:

12

Page 13: wiki.foros-fiuba.com.arwiki.foros-fiuba.com.ar/_media/materias:66:finales...Se tiene entonces que: V[X(t)] = cos(wt)2 cos(wt)2 e 4 t= cos(wt)2 1 e Ítem 3 Para que un proceso X(t)

n1 y n2 pares:

RY (n1, n2) =1

2E [(X(n1) +X(n1 + 1)) (X(n2) +X(n2 + 1))]

Entonces se puede escribir:

RY (n1, n2) =1

2E [X(n1)X(n2) +X(n1)X(n2 + 1) +X(n1 + 1)X(n2) +X(n1 + 1)X(n2 + 1)]

Que se puede escribir también como:

RY (n1, n2) =1

2(RX (n1, n2) +RX (n1, n2 + 1) +RX (n1 + 1, n2) +RX (n1 + 1, n2 + 1))

Sabiendo que X(n) es ESA (tiene media constante y su autocorrelación depende de la diferencia de tiempos), laautocorrelación de Y queda como:

RY (n1, n2) =1

2σ2X (2δ (n2 − n1) + δ (n2 + 1− n1) + δ (n2 − n1 − 1))

Como n1 y n2 son pares, nunca se cumplirá la condición de n2−n1 + 1 = 0. Por lo que las deltas que involucran estacondición son siempre nulas:

RY (n1, n2) = σ2Xδ (n2 − n1)

n1 y n2 impares:

RY (n1, n2) =1

2E [(X(n1 − 1)−X(n1)) (X(n2 − 1)−X(n2))]

Es decir que:

RY (n1, n2) =1

2E [X(n1 − 1)X(n2 − 1)−X(n1 − 1)X(n2)−X(n1)X(n2 − 1) +X(n1)X(n2)]

RY (n1, n2) =1

2(RX (n1 − 1, n2 − 1)−RX (n1 − 1, n2)−RX (n1, n2 − 1) +RX (n1, n2))

RY (n1, n2) =1

2σ2X (δ (n2 − n1)− δ (n2 − n1 + 1)− δ (n2 − 1− n1) + δ (n2 − n1))

Nuevamente, si son ambos impares no es posible cumplir que n2 − n1 + 1 = 0. Finalmente se tiene que:

RY (n1, n2) = σ2Xδ (n2 − n1)

n1 par y n2 impar:

RY (n1, n2) =1

2E [(X(n1) +X(n1 + 1)) (X(n2 − 1)−X(n2))]

RY (n1, n2) =1

2(RX (n1, n2 − 1)−RX (n1, n2) +RX (n1 + 1, n2 − 1)−RX (n1 + 1, n2))

RY (n1, n2) =1

2σ2X (δ (n2 − 1− n1)− δ (n2 − n1) + δ (n2 − n1 − 2)− δ (n2 − n1 − 1))

Como uno es par y el otro impar, nunca pueden ser iguales. Por otra parte, la distancia entre uno y otro tampocopuede nunca ser 2, por lo que finalmente se tiene:

RY (n1, n2) = σ2Xδ (n2 − n1 − 1)

n1 impar y n2 par: Es igual que el anterior, pero se invierten los coeficientes:

RY (n1, n2) = σ2Xδ (n1 − n2 − 1)

13

Page 14: wiki.foros-fiuba.com.arwiki.foros-fiuba.com.ar/_media/materias:66:finales...Se tiene entonces que: V[X(t)] = cos(wt)2 cos(wt)2 e 4 t= cos(wt)2 1 e Ítem 3 Para que un proceso X(t)

Definiendo τ = n2 − n1, la autocorrelación del proceso es:

RY (n1, n2) =

σ2Xδ (τ) n1 y n2 paresσ2Xδ (τ) n1 y n2 imparesσ2Xδ (τ − 1) n1 par y n2 imparσ2Xδ (−τ − 1) n1 impar y n2 par

Una condición para que sea un proceso ESA, es que la media no debe depender del tiempo. Sin embargo, a pesar quela definición del proceso depende del instante (depende de si n es par o impar), se puede ver que la media será siemprenula. Por otra parte, se puede ver que la autocorrelación en principio depende solo de la diferencia entre instantes. Sinembargo, se puede ver que la definición para n1 par y n2 impar es diferente de la que se tiene para n1 impar y n2 par,y que dicha definición solo depende de n1 y n2 (No se me ocurre como expresarla en función de τ). Por esta razón, laautocorrelación no depende únicamente de la diferencia entre instantes, sino que también depende del instante en que selo mire, y por ende no se trata de un proceso ESA.

Ítem 4

La función generadora de momentos es:

E [Y n] =1

jndn

dwnφY (w)

⌋w=0

Donde φY (w) es la función característica de Y :

φY (w) = E[ejwY

]= F fY (y)

Como se pide hacerlo para un vector, estas funciones se deben definir como:

φY (w) = E[ejw

T y]→ E

[Y `11 . . . Y `nn

]=

(1

j

)∑ni=1 `i ∂

∑ni=1 `i

∂w`11 . . . ∂w`nnφY (w)

⌋w=0

El vector que piden analizar es:

Y =

Y (n)Y (n+ 1)Y (n+ 2)

Como Y es una combinación lineal de gaussianas, también será una gaussiana (de media nula), por lo que su función

característica será:

φY (w) = E[ejw

T y]

= exp

(−1

2wTCY w

)Para poder resolver esto es necesario nuevamente dividir esto en dos casos. Para los n pares el sistema que se tiene es:

Y (n)Y (n+ 1)Y (n+ 2)

=1√2

1 1 0 01 −1 0 00 0 1 1

X(n)X(n+ 1)X(n+ 2)X(n+ 3)

= AX

La matriz de covarianza de Y para este caso es:

CY = E[Y Y T

]= E

[AX (AX)

T]

= E[AXXTAT

]= AE

[XXT

]AT

Como X es un vector de gaussianas descorrelacionadas y de media nula, su matriz de covarianza es una matrizdiagonal:

CX = σ2XI

Entonces se tiene:

CY = σ2XAA

T = σ2X

1 0 00 1 00 0 1

→ CY = σ2XI3×3

14

Page 15: wiki.foros-fiuba.com.arwiki.foros-fiuba.com.ar/_media/materias:66:finales...Se tiene entonces que: V[X(t)] = cos(wt)2 cos(wt)2 e 4 t= cos(wt)2 1 e Ítem 3 Para que un proceso X(t)

La función característica entonces es:

φY (w) = exp

(−σ

2X

2wTw

)= exp

(−σ

2X

2

(w2

1 + w22 + w2

3

))Para el caso donde n es impar, la transformación es:

Y (n)Y (n+ 1)Y (n+ 2)

=1√2

1 −1 0 00 0 1 10 0 1 −1

X(n− 1)X(n)

X(n+ 1)X(n+ 2)

= BX

Procediendo de la misma manera que antes, se tiene que:

CY = σ2XBB

T = σ2XI3×3

Se puede ver que la función característica es la misma para el caso de n par y n impar. Finalmente, la función genera-dora de momentos es:

E[Y `11 Y `22 Y `33

]=

(1

j

)`1+`2+`3 ∂`1+`2+`3

∂w`11 ∂w`22 ∂w

`33

exp

(−σ

2X

2

(w2

1 + w22 + w2

3

))⌋w=0

Ejercicio 3

Ítem 1

La autocorrelación cruzada se obtiene como:

E [Y (k)X(k + n)] = E [(X(k) + βX(k − 1))X(k + n)] = E [X(k)X(k + n)] + βE [X(k − 1)X(k + n)]

Introduciendo los datos de X(n) se tiene:

RY X (k, k + n) = RX (n) + βRX (n+ 1) = σ2(a|n| + βa|n+1|

)

Ítem 2

Por el teorema de Wiener-Kintchine, se sabe que la densidad espectral de potencia es:

SY (w) = F RY (k)

La autocorrelación de Y (n) es:

RY (n, n+ k) =E [(X(n) + βX(n− 1)) (X(n+ k) + βX(n+ k − 1))]

RY (n, n+ k) =E [X(n)X(n+ k)] + βE [X(n)X(n+ k − 1)] + βE [X(n− 1)X(n+ k)] + β2XE [(n− 1)X(n+ k − 1)]

RY (n, n+ k) =RX (k) + β (RX (k − 1) +RX (k + 1)) + β2RX (k)

RY (k) =σ2(a|k|

(1 + β2

)+ β

(a|k−1| + a|k+1|

))La densidad espectral de potencia se obtiene tomando la transformada de Fourier de la autocorrelación encontrada.

Sin embargo, es una expresión muy fea, por lo que lo voy a encarar usando las propiedades de los sistemas LTI.Se sabe que se tiene un sistema LTI tal que:

Y (n) = (h(n) ? X(n)) = X(n) + βX(n− 1)

De donde se puede deducir que:h(n) = δ(n) + βδ (n− 1)

Como se esta excitando un sistema LTI con un proceso ESA, la salida también es ESA (se puede ver también en elcalculo de la autocorrelación que hice antes). Una propiedad muy piola que nos salva de calcular la transformada deFourier es:

SY (w) = |H(w)|2 SX (w)

15

Page 16: wiki.foros-fiuba.com.arwiki.foros-fiuba.com.ar/_media/materias:66:finales...Se tiene entonces que: V[X(t)] = cos(wt)2 cos(wt)2 e 4 t= cos(wt)2 1 e Ítem 3 Para que un proceso X(t)

La densidad espectral de potencia de X(n) (al final no safamos tanto...) es:

SX(w) = Fσ2a|k|

= σ2 (1− a)

2 1

|1− ae−jw|2

La respuesta en frecuencia del sistema LTI es:

H(w) = F h(n) = 1 + βe−jw

Finalmente se tiene que:

SY (w) = σ2 (1− a)2

∣∣1 + βe−jw∣∣2

|1− ae−jw|2

Ítem 3

Para que el proceso Y (n) sea un proceso de ruido blanco, su densidad espectral de potencia debe ser una constante.Esto ocurre para:

β = −a→ Y (n) ∼ Ruido blanco

16

Page 17: wiki.foros-fiuba.com.arwiki.foros-fiuba.com.ar/_media/materias:66:finales...Se tiene entonces que: V[X(t)] = cos(wt)2 cos(wt)2 e 4 t= cos(wt)2 1 e Ítem 3 Para que un proceso X(t)

3. Final 13/02/15

3.1. Enunciado

Ejercicio 1: Estimación con ruido correlacionado

Se desea estimar el valor de la variable aleatoria X a partir de la observación de Y = X +N , donde N es un ruido. Se

sabe queX ∼ N[0, σ2

X

]y N ∼ N

[0, σ2

N

]. Sea X = αY la estimación de X. Se diseña α para minimizar E

[(X − X

)2].

1. Primero considere que X y N son dos variables descorrelacionadas. Obtenga el estimador y calcule el error cuadrá-tico medio correspondiente.

2. Considere ahora en que E [XN ] = ρ y repita el punto anterior.

3. Compare los estimadores anteriores en base a los errores cuadráticos obtenidos y determine cuando uno es mayorque el otro. Explique su resultado.

Ejercicio 2

Considere el sistema lineal en tiempo discreto cuya respuesta impulsiva es:

h(n) =

1M n = 0, · · · ,M − 1

0 otro n

La entrada al sistema es un proceso blanco gaussiano X(n) de varianza unitaria. A la salida del sistema se le suma unnuevo proceso blanco gaussianoW (n) de varianza unitaria, para el cual E [X(n)W (n+ k)] = δ(k)+δ(k−a), 0 < a < M−1.Considere ahora los siguientes dos procesos:

Y (n) = (h(n) ? X(n)) Z(n) = Y (n) +W (n)

1. Obtenga RY (k1, k2) y SY (w). Discuta como varían con el valor de M .

2. Obtenga RZ(k1, k2) y SZ(w). Discuta como varían con el valor de a.

Ejercicio 3

Se desea detectar la presencia de un pulso de duración finita a partir de observaciones ruidosas. Sea

Y (n) = x(n) +N(n)

donde Y (n) es el proceso observado, x(n) es el pulso de duración L a detectar, y N(n) es un ruido de media nula ycon función de autocorrelación RN (k).

1. Sea Z(n) = (h(n) ? Y (n)). Diseñe el filtro h(n) que maximice la relación señal a ruido en Z(n). Grafique Z(n)cuando x(0) = 1, x(1) = −1, y RN (k) = δ(k) + 1/2δ (k − 1) + 1/2δ (k + 1).

2. Para realizar la detección, se considera que el pulso esta presente si Z(0) > τ . Obtenga una expresión para laprobabilidad de falsa alarma, es decir, la probabilidad de declarar que el pulso esta presente cuando no lo esta.Explique si dicha probabilidad mejora o no con la norma de h. Si le resulta útil, considere primero el caso de la señalde duración 2 con τ =

√2/2.

17

Page 18: wiki.foros-fiuba.com.arwiki.foros-fiuba.com.ar/_media/materias:66:finales...Se tiene entonces que: V[X(t)] = cos(wt)2 cos(wt)2 e 4 t= cos(wt)2 1 e Ítem 3 Para que un proceso X(t)

3.2. Resolución

Ejercicio 1

Ítem 1

Para encontrar el valor de α que minimiza el ECM, se puede utilizar el principio de ortogonalidad:

E[(X − X

)2]

= E[(X − αY )

2]

= E[(X − α (X +N))

2]

Para minimizar el ECM, se debe derivar con respecto a α:

dECM

dα= E [2 (X − αY )Y ] = 0

En esta expresión es evidente el principio de ortogonalidad: X − X⊥Y . Despejando α se tiene:

0 =E [XY ]− αE[Y 2]

E [X (X +N)] =αE[(X +N)

2]

E[X2]

+ E [XN ] =α(E[X2]

+ 2E [XN ] + E[N2])

ComoX yN están descorrelacionadas, se puede separar la esperanza del producto como el producto de las esperanzas,y como ambas son de media nula, el resultado es cero. Se tiene entonces:

E[X2]

= α(E[X2]

+ E[N2])

Finalmente se tiene:

α =E[X2]

E [X2] + E [N2]=

σ2X

σ2X + σ2

N

Con este estimador, el ECM es:

ECM = E[(X − α (X +N))

2]

= E[X2 − 2αX(X +N) + α2 (X +N)

2]

ECM = E[X2 − 2αX2 − 2αXN + α2

(X2 + 2XN +N2

)]ECM = E

[X2(1− 2α+ α2

)+ α2N2

]Finalmente se tiene:

ECM =(1− 2α+ α2

)σ2X + α2σ2

N = α2(σ2X + σ2

N

)− 2ασ2

X + σ2X = σ2

X

(1− σ2

X

σ2X + σ2

N

)=

σ2Xσ

2N

σ2X + σ2

N

Ítem 2

Ahora se sabe que E [XN ] = ρ, por lo que se tiene:

E[X2]

+ E [XN ] =α(E[X2]

+ 2E [XN ] + E[N2])

σ2X + ρ =α

(σ2X + 2ρ+ σ2

N

)Por lo tanto, se tiene:

α =σ2X + ρ

σ2X + 2ρ+ σ2

N

El ECM es:

ECM =E[X2 − 2αX2 − 2αXN + α2

(X2 + 2XN +N2

)]ECM =σ2

X

(1− 2α+ α2

)− 2αρ+ 2α2ρ+ α2σ2

N

Despejando un poco se tiene:

ECM = α2(σ2X + σ2

N + 2ρ)− 2α

(σ2X + ρ

)+ σ2

X = σ2X −

(σ2X + ρ

)2σ2X + 2ρ+ σ2

N

=σ2Nσ

2X − ρ2

σ2X + 2ρ+ σ2

N

Se puede ver que para ρ = 0 se tienen las expresiones encontradas en el ítem anterior.

18

Page 19: wiki.foros-fiuba.com.arwiki.foros-fiuba.com.ar/_media/materias:66:finales...Se tiene entonces que: V[X(t)] = cos(wt)2 cos(wt)2 e 4 t= cos(wt)2 1 e Ítem 3 Para que un proceso X(t)

Ítem 3

Para saber cuál de los errores es mas bajo, lo que se puede hacer es:σ2Nσ

2X−ρ

2

σ2X+2ρ+σ2

N

σ2Xσ

2N

σ2X+σ2

N

≷ 1

Como estas cuentas eran horribles, decidí hacer algunas pruebas usando Octave. Los resultados que se obtuvieronfueron que el ECM cuando ambas variables están descorrelacionadas es siempre mayor al ECM que se obtiene con unρ 6= 0. Esto se debe a que se está intentando estimar un valor de X con una muestra de X ruidosa, y si existe una relaciónentre X y el ruido, el filtrado aplicado es mejor. Se pudo observar que cuanto mas correlacionadas estuvieran X y el ruido,mejor era el ECM obtenido.

Ejercicio 2

Ítem 1

Se sabe que la Y (n) es la salida de un sistema LTI, por lo que se tiene:

Y (n) = (h(n) ? X(n)) =

∞∑k=−∞

h(k)X(n− k)

La media del proceso es:

E [Y (n)] =E [(h(n) ? X(n))] = E

[ ∞∑k=−∞

h(k)X(n− k)

]

E [Y (n)] =

∞∑k=−∞

h(k)E [X(n− k)]

E [Y (n)] =

∞∑k=−∞

h(k)µX

Como se trata de un proceso gaussiano, se sabe que su media es constante (en el enunciado no aclaran el valor), y porlo tanto la media de Y (n) también es una constante.

Para sacar la autocorrelación se hace:

RY (n, n+ k) =E [Y (n)Y (n+ k)] = E [(h(n) ? X(n)) (h(n+ k) ? X(n+ k))]

RY (n, n+ k) =E

( ∞∑i=−∞

h(i)X(n− i)

) ∞∑j=−∞

h(j)X(n+ k − j)

RY (n, n+ k) =E

∞∑i=−∞

∞∑j=−∞

h(i)h(j)X(n− i)X(n+ k − j)

RY (n, n+ k) =

∞∑i=−∞

∞∑j=−∞

h(i)h(j)E [X(n− i)X(n+ k − j)]

RY (n, n+ k) =

∞∑i=−∞

∞∑j=−∞

h(i)h(j)RX(k − j + i)

Se puede ver que RY (n, n+ k) no depende de n, y como la media de Y (n) es constante, se puede afirmar que Y (n) esun proceso ESA. Como X(n) es ruido gaussiano de varianza unitaria, se sabe que RX(k) = δ(k), entonces:

RY (k) =

∞∑i=−∞

∞∑j=−∞

h(i)h(j)δ (k − j + i)

RY (k) =

∞∑i=−∞

∞∑j=−∞

h(j − k)h(j)δ (k − j + i)

RY (k) =

∞∑j=−∞

h(j)h(j − k)

19

Page 20: wiki.foros-fiuba.com.arwiki.foros-fiuba.com.ar/_media/materias:66:finales...Se tiene entonces que: V[X(t)] = cos(wt)2 cos(wt)2 e 4 t= cos(wt)2 1 e Ítem 3 Para que un proceso X(t)

Finalmente, la autocorrelación queda:RY (k) = (h(k) ? h(−k))

Como h(n) es una barrera de ancho M , la convolución es un triangulo de ancho 2M centrado en cero, y de altura 1/M.La densidad espectral de potencia es la transformada de Fourier de la autocorrelación:

SY (Ω) = F RY (k) = H(jΩ)H(−jΩ)

Como se trata de un escalón, la transformada de Fourier queda:H(jΩ) = e−jΩ

M−12

sin(ΩM

2

)sin(

Ω2

)H(−jΩ) = ejΩ

M−12

sin(ΩM

2

)sin(

Ω2

)Se tiene entonces:

SY (Ω) =sin2

(ΩM

2

)sin2

(Ω2

)La densidad espectral de potencia corresponde a la de una sinc (·), cuyos primeros dos ceros están en ±2π/M. Por esta

razón, a medida que aumenta M , la densidad espectral de potencia se parece cada vez más a una delta, y por ende Y (n)se parece más a X(n).

Ítem 2

La esperanza de Z(n) es:

E [Z(n)] = E [Y (n) +W (n)] = E [Y (n)] + E [W (n)] = µY + µW

La autocorrelación en este caso es:

RZ(n, n+ k) =E [Z(n)Z(n+ k)]

RZ(n, n+ k) =E [(Y (n) +W (n)) (Y (n+ k) +W (n+ k))]

RZ(n, n+ k) =E [Y (n)Y (n+ k) +W (n)Y (n+ k) + Y (n)W (n+ k) +W (n)W (n+ k)]

RZ(n, n+ k) =RY (k) + E [W (n)Y (n+ k)] + E [Y (n)W (n+ k)] +RW (k)

Las autocorrelaciones cruzadas se obtienen como:

E [W (n)Y (n+ k)] = E [W (n) (h(n) ? X(n))]

En el resuelto de la materia lo que hacen es decir que W (n) (h(n) ? X(n)) = (h(n) ? W (n)X(n)) cosa que para mi noestá bien eso, asique no se bien como resolver esto.

PREGUNTAR

Ejercicio 3

Ítem 1

El proceso a analizar es:Z(n) = (h(n) ? Y (n)) = (h(n) ? (x(n) +N(n)))

Se lo puede analizar de forma vectorial como:

Z = hTY = hT (x+N) = hTx+ hTN

20

Page 21: wiki.foros-fiuba.com.arwiki.foros-fiuba.com.ar/_media/materias:66:finales...Se tiene entonces que: V[X(t)] = cos(wt)2 cos(wt)2 e 4 t= cos(wt)2 1 e Ítem 3 Para que un proceso X(t)

Recordar que al vectorizar las señales, se deben vectorizar al revés, como por ejemplo:

x =

x(n)...

x(n−N + 1)

La relación señal ruido se define como la energía útil sobre la energía del ruido:

SNR =

E[(hTx

)(hTx

)T]E[(hTN

)(hTN

)T] =hTxxTh

hTE[NNT

]h

=

(hTx

)2

hTCNh

El filtro h debe ser tal que se maximiza la SNR. Como CN es una matriz simétrica y definida positiva, se puede escribir:

CN = C1/2N

(C

1/2N

)TSe puede escribir entonces:

hTCNh = hTC1/2N︸ ︷︷ ︸

gT

(C

1/2N

)Th︸ ︷︷ ︸

g

= gT g

Entonces se tiene:hTx = hTC

1/2N C

−1/2N x = gTC

−1/2N x

Metiendo esto en la otra expresión:

SNR =

(hTx

)2

hTCNh=

(gTC

−1/2N x

)2

gT g=

(gTC

−1/2N x∣∣∣∣g∣∣∣∣

)2

Por la desigualdad de Cauchy-Schwarz se sabe que:

aT b ≤ ||a|| ||b||

La igualdad de esta expresión ocurre cuando a y b son colineales:

a = αb→ aT b = ||a|| ||b||

Por lo tanto, para maximizar la SNR se tiene que cumplir que g debe ser colineal a C−1/2

N x:

g = αC−1/2N x

Finalmente, el filtro que maximiza la SNR es:

g =(C

1/2N

)Th = αC

−1/2N x→ h = α

(C−1/2N

)TC−1/2N x→ h = αC−1

N x

Con este filtro, la SNR queda como:

SNR =

(gTC

−1/2N x∣∣∣∣g∣∣∣∣

)2

=

(αxT

(C−1/2N

)TC−1/2N x

)αxT

(C−1/2N

)TαC−1/2N x

2

SNR =

(xTC−1

N x)

xTC−1N x

2

Por lo tanto, la SNR óptima es:

SNRoptima = xTC−1N x

21

Page 22: wiki.foros-fiuba.com.arwiki.foros-fiuba.com.ar/_media/materias:66:finales...Se tiene entonces que: V[X(t)] = cos(wt)2 cos(wt)2 e 4 t= cos(wt)2 1 e Ítem 3 Para que un proceso X(t)

Ítem 2

La regla de decisión que presentan es:Z(0) ≷H1

H0τ

Como Z(n) es una combinación de gaussianas, Z(n) también será gaussiana. Para calcular la probabilidad de decirque hay un pulso cuando no lo está es necesario integrar la función de densidad de Z(n) bajo la hipótesis de H0, pero enla región donde se declara que se tiene ningún pulso. Matemáticamente esto es:

P (H1|H0) =

ˆ ∞τ

fZ|H0(z|H0) dz

22

Page 23: wiki.foros-fiuba.com.arwiki.foros-fiuba.com.ar/_media/materias:66:finales...Se tiene entonces que: V[X(t)] = cos(wt)2 cos(wt)2 e 4 t= cos(wt)2 1 e Ítem 3 Para que un proceso X(t)

4. Final 18/02/15

4.1. Enunciado

Ejercicio 1: Función característica

Sean X e Y dos variables aleatorias con función de densidad conjunta fXY (x, y). Se construye una nueva variableW = aX + bY + c, donde c es una constante.

1. Obtener la función característica de W a partir de la función característica conjunta de X e Y .

2. Obtener la función de densidad de W .

3. Verificar el cálculo anterior cuando X e Y son dos variables gaussianas de media nula y matriz de covarianza[1 0,2

0,2 0,5

]

Ejercicio 2: Proceso no estacionario

Considere el proceso X(n) = An donde A ∼ U [0, 1]. Dicho proceso es la entrada de un sistema LTI de respuesta

impulsiva h(n) = δ(n−3) cuya salida es Y (n).

1. Obtenga RY (k1, k2).

2. Se observa una versión ruidosa de Y (n), Z(n) = Y (n) + W (n) donde W (n) es ruido blanco descorrelacionado conY (n) y de distribución uniforme en el intervalo [−1/2; +1/2]. Se desea estimar el valor de A a partir de Z(n) en uninstante. Obtenga el estimador lineal de menor error cuadrático medio para este caso.

3. Para el estimador anterior, calcule su media y varianza. Discuta como varían estas magnitudes con n.

Ejercicio 3

Considere N(t) un proceso aleatorio discreto de tiempo continuo cuya función de masa de probabilidad es:

P (N(t) = k) =1

1 + λt

(λt

1 + λt

)kk = 0, 1, 2 . . .

donde λ es una constante. El proceso N(t) cuenta la ocurrencia de un cierto evento aleatorio. Cada vez que N(t)cambia de valor el proceso asociado Z(t) cambia de 0 a 1.

1. Obtenga la función de masa probabilidad de Z(t).

2. Calcule E [Z(t)].

3. Obtenga la función característica de Z(t).

23

Page 24: wiki.foros-fiuba.com.arwiki.foros-fiuba.com.ar/_media/materias:66:finales...Se tiene entonces que: V[X(t)] = cos(wt)2 cos(wt)2 e 4 t= cos(wt)2 1 e Ítem 3 Para que un proceso X(t)

4.2. Resolución

Ejercicio 1

Ítem 1

La función característica conjunta de X e Y se define como:

φXY (wX , wY ) = E[ejwX

]= E

[ej(wXX+wY Y )

]La función característica de W se obtiene como:

φW (w) = E[ejwW

]= E

[ejwaXejwbY ejwc

]= E

[ejwaXejwbY

]ejwc

Finalmente se tiene entonces que:

φW (w) = φXY (aw, bw) ejwc

Ítem 2

Para recuperar la función de densidad de W , una forma es utilizando la antitransformada de Fourier de la funcióncaracterística de W :

φW (w) =

ˆfW (γ)ejwγdγ → fW (γ) =

1

ˆφW (w)e−jwγdw = F φW (w)−1

Unas propiedades útiles de la transformada de Fourier son:x(at)

F←→ 1|a|X

(jwa

)x (t− t0)

F←→ X(jw)e−jwt0

Se puede plantear entonces:

fW (γ) =F φW (w)−1

fW (γ) =FφXY (aw, bw) ejwc

−1

fW (γ) =FφXY (aw, bw) ejwc

−1

Utilizando las propiedades mencionadas se tiene finalmente que:

fW (γ) =1

|a| |b|fXY

(xa

+ c,y

b+ c)

No tengo idea de si estará bien, pero bueno.

Ítem 3

La función de densidad de una gaussiana multivariable es:

fXY (x, y) =1

1

|C|1/2exp

(−1

2(x, y)

TC−1 (x, y)

)Se tiene que:

C−1 =1

23

[25 −10−10 50

]|C| = 23

50

Si se quiere calcular la densidad de W de la manera clásica, se debe proceder:

P (W ≤ w) = P (aX + bY + c ≤ w) = P

aX + bY ≤γ︷ ︸︸ ︷

w − c

= P(Y ≤ γ − aX

b

)

24

Page 25: wiki.foros-fiuba.com.arwiki.foros-fiuba.com.ar/_media/materias:66:finales...Se tiene entonces que: V[X(t)] = cos(wt)2 cos(wt)2 e 4 t= cos(wt)2 1 e Ítem 3 Para que un proceso X(t)

Esta probabilidad se puede calcular como:

P (W ≤ w) =

ˆ ∞−∞

ˆ ∞−∞

fXY (x, y)dxdy =

ˆ ∞−∞

ˆ γ−axb

−∞fXY (x, y)dydx

Usando la expresión de la densidad se tiene:

P (W ≤ w) =

ˆ ∞−∞

ˆ γ−axb

−∞

1

1

|C|1/2exp

(−1

2(x, y)

TC−1 (x, y)

)dydx

P (W ≤ w) =1

1

|C|1/2

ˆ ∞−∞

ˆ γ−axb

−∞exp

(− 1

46

(25x2 − 20xy + 50y2

))dydx

Hasta donde yo se, esto no se puede resolver analíticamente y por ende hay que usar tablas. Por esta razón, voy aencararlo por el lado de las funciones características, lo malo es que no voy a poder verificar si los resultados del ítemanterior fueron correctos.

Para el caso donde las variables X e Y son gaussianas, la función característica conjunta es:

φXY (wX , wY ) = e−12w

TCw

Sabiendo que la matriz de covarianza es:

C =

[1 0,2

0,2 0,5

]La función característica conjunta es:

φXY (wX , wY ) = exp

(−1

2w2X − 0,2wXwY −

1

4w2Y

)Por lo tanto, la función característica de W queda como:

φW (w) = φXY (aw, bw) ejwc = exp

(−1

2a2w2 − 0,2abw2 − 1

4b2w2

)exp (jwc)

Se tiene entonces:

φW (w) = exp

(−w2

(a2

2+ 0,2ab+

b2

4

))exp (jwc)

Por otro lado, la función de densidad queda como:

fW (γ) =1

|a| |b|1

1

|C|1/2exp

(−1

2

(xa

+ c,y

b+ c)T

C−1(xa

+ c,y

b+ c))

Ejercicio 2

Ítem 1

El proceso Y (n) se obtiene como la salida de un sistema LTI:

Y (n) = (h(n) ? X(n)) =

∞∑k=−∞

δ (n− 3− k)X(k) = X(n− 3) =A

n− 3

La autocorrelación de Y (n) es entonces:

RY (k1, k2) = E [Y (k1)Y (k2)] = E[

A

k1 − 3

A

k2 − 3

]=

1

(k1 − 3) (k2 − 3)E[A2]

Sabiendo que A ∼ U [0, 1] se tiene que:

E[A2]

= V [A] + E [A]2

=1

12+

(1

2

)2

=1

3

Finalmente se tiene:

RY (k1, k2) =1

3 (k1 − 3) (k2 − 3)

25

Page 26: wiki.foros-fiuba.com.arwiki.foros-fiuba.com.ar/_media/materias:66:finales...Se tiene entonces que: V[X(t)] = cos(wt)2 cos(wt)2 e 4 t= cos(wt)2 1 e Ítem 3 Para que un proceso X(t)

Ítem 2

Ahora se observa una muestra ruidosa de Y (n):

Z(n) = Y (n) +W (n)

donde W (n) ∼ U [−1/2, 1/2]. Utilizando un estimador lineal, se desea estimar el valor de A minimizando el errorcuadrático medio:

ECM = E[(A− A

)2]

El estimador lineal a utilizar es:A = αZ(n)

El error cuadrático medio queda como:

ECM = E[(A− αZ)

2]

= E[(A− α (Y (n) +W (n)))

2]

= E

[(A− α

(A

n− 3+W (n)

))2]

Para minimizar el ECM, es necesario derivar con respecto a α e igualar a cero:

∂ECM

∂α= 2E

(A− α

(A

n− 3+W (n)

))︸ ︷︷ ︸

Error

(A

n− 3+W (n)

)︸ ︷︷ ︸

Dato

= 0

En esta expresión es evidente el principio de ortogonalidad. Esta esperanza se puede desarrollar como:

0 =E[(A− α

(A

n− 3+W (n)

))(A

n− 3+W (n)

)]0 =E

[A2

n− 3+AW (n)− α

(A

n− 3

)2

− αAW (n)

n− 3− αW (n)

A

n− 3− αW (n)2

]

0 =E

[A2

n− 3+AW (n)− α

((A

n− 3

)2

+ 2AW (n)

n− 3+W (n)2

)]

Despejando α se tiene:

αE[A2

n−3 +AW (n)]

E[(

An−3

)2

+ 2AW (n)n−3 +W (n)2

] =1

n−3E[A2]

+ E [A]E [W (n)]1

(n−3)2E [A2] + 2

n−3E [A]E [W (n)] + E [W (n)2]

Sabiendo que la media de W (n) es 0, se tiene finalmente:

α =1

n−3E[A2]

1(n−3)2

E [A2] + E [W (n)2]=

13(n−3)

13(n−3)2

+ 112

→ α =1/(n−3)

1/(n−3)2 + 1/4=

4 (n− 3)

4 + (n− 3)2

Este valor de α hace que el estimador lineal planteado sea el de mínimo ECM.

Ítem 3

La media del estimador planteado es:

E[A]

= E [αZ(n)] = αE [Z(n)] = αE[Y (n) +

W (n)]

= αE [Y (n)] = αE[

A

n− 3

]=

α

n− 3E [A] =

1

2

α

n− 3

Finalmente se tiene que:

E[A]

=1

2

1

n− 3

4 (n− 3)

4 + (n− 3)2 =

2

4 + (n− 3)2

26

Page 27: wiki.foros-fiuba.com.arwiki.foros-fiuba.com.ar/_media/materias:66:finales...Se tiene entonces que: V[X(t)] = cos(wt)2 cos(wt)2 e 4 t= cos(wt)2 1 e Ítem 3 Para que un proceso X(t)

Para la varianza conviene conocer primero:

E[A2]

=E[α2Z(n)2

]= α2E

[Z(n)2

]= α2E

[(Y (n) +W (n))

2]

E[A2]

=α2E[Y (n)2 + 2Y (n)W (n) +W (n)2

]E[A2]

=α2E

[(A

n− 3

)2

+ 2A

n− 3W (n) +W (n)2

]

E[A2]

=α2E

[1

(n− 3)2E[A2]

+ 2A

n− 3W (n) +W (n)2

]

E[A2]

=α2

(1

(n− 3)2

1

3+

1

12

)

E[A2]

=α2

3

(1

(n− 3)2 +

1

4

)

Reemplazando el valor de α se tiene:

E[A2]

=1

3

4

(n− 3)2

+ 4

La varianza del estimador es entonces:

V[A]

=E[A2]− E

[A]2

=1

3

4

(n− 3)2

+ 4−

(2

4 + (n− 3)2

)2

V[A]

=

43

((n− 3)

2+ 4)− 4(

(n− 3)2

+ 4)2

Se tiene finalmente:

V[A]

=43 (n− 3)

2+ 4

3((n− 3)

2+ 4)2

Se puede ver que tanto la esperanza como la varianza se acercan a cero cuando la cantidad de muestras n→∞.

Ejercicio 3

Ítem 1

Esto no estoy seguro de si está bien, pero creo que puede safar esto.La función de masa de probabilidad de Z(t) se puede determinar como:

P (Z(t) = 1) = P (N(t+ τ)−N(t) = 1) = P (N(t+ τ) = 1 +N(t))

Esto es equivalente a decir que en el intervalo (0, τ) se tuvo un arribo (supongo que es ESA y que no importa queintervalo se esta analizando, como si se tratara de un proceso Poisson).

P (Z(t) = 1) = P (N(τ) = 1) =1

1 + λτ

(λτ

1 + λτ

)1

→ P (Z(t) = 1) =λt

(1 + λt)2

La verdad que ni idea si está bien, porque no termino de entender si Z(t) vale 1 cuando N(t) cambia y después vuelvea cero, o si simplemente importa si hay un único arribo en el intervalo (0, t).

El resto de los items sale usando la expresión encontrada acá, pero como dudo que esto esté bien mejor ni me gasto.

27

Page 28: wiki.foros-fiuba.com.arwiki.foros-fiuba.com.ar/_media/materias:66:finales...Se tiene entonces que: V[X(t)] = cos(wt)2 cos(wt)2 e 4 t= cos(wt)2 1 e Ítem 3 Para que un proceso X(t)

5. Final 26/02/15

5.1. Enunciado

Ejercicio 1: Modulación de fase

Sea N(t) un proceso Poisson. Se construye la siguiente señal modulada en fase:

X(t) = cos (w0t+ πN(t))

Para recuperar el valor de N(t) entre dos puntos Poisson, se procesa X(t) por un detector de fase del siguiente modo:

Y (t) = cos (w0t)X(t) Z(t) = (h(t) ? Y (t))

donde h(t) es un filtro pasabajos de respuesta en frecuencia:

H(w) =

1 |w| ≤ w0

2

0 |w| > w0

2

1. A modo de ejemplo, grafique una realización de X(t) y de su correspondiente Z(t).

2. Obtenga la media y varianza de X(t) y de Z(t).

3. Determine si X(t) es un proceso ESA. ¿Qué puede decir de Z(t)?

Ejercicio 2: Codificador en bloque

Considere el proceso X(n), gaussiano, de media nula y autocorrelación RX(k) = σ2Xδ(k). Un codificador en bloque es

un sistema que obtiene el siguiente proceso aleatorio:

Y (n) =

X(n)+X(n+1)√

2n = 2k

X(n−1)−X(n)√2

n = 2k + 1

1. Caracterice el proceso Y (n) calculando su media y autocorrelación.

2. Hallar la función generadora de momentos conjunta de Y (n), Y (n+ 1), Y (n+ 2).

Ejercicio 3: Estimación ruidosa

Sea X(n) una versión ruidosa de una variable aleatoria, es decir, X(n) = A + W (n) donde A ∼ U [0, 1], y W (n) esruido blanco gaussiano de media nula y varianza σ2

W . Dicho proceso se observa luego de ser filtrado por un sistema LTIde respuesta impulsiva h(n) a cuya salida se le suma un nuevo ruido de medición, es decir, Y (n) = (h(n) ? X(n)) + Z(n),donde es ruido blanco gaussiano de media nula y varianza σ2

Z , descorrelacionado con W (n).

1. Obtenga RY (k1, k2) y determine si el proceso es ESA.

2. Se desea estimar el valor de A a partir Y (n) en un instante. Obtenga el estimador lineal de menor error cuadráticomedio para este caso.

3. Para el estimador anterior, calcule su media y varianza.

28

Page 29: wiki.foros-fiuba.com.arwiki.foros-fiuba.com.ar/_media/materias:66:finales...Se tiene entonces que: V[X(t)] = cos(wt)2 cos(wt)2 e 4 t= cos(wt)2 1 e Ítem 3 Para que un proceso X(t)

5.2. Resolución

Ejercicio 1

Ítem 1

El proceso X(t) es un coseno que va pegando saltos de fase cada vez que N(t) se incrementa. Para poder graficar Z(t)se puede hacer la transformada de Fourier de X(t) y así poder aplicar el pasabajos mas fácil.

Ítem 2

Para poder obtener la media de X(t) se tiene:

E [X(t)] = E [cos (w0t+ πN(t))] =

∞∑n=0

cos (w0t+ πn) pN (n)

El coseno se puede desarrollar como:

cos (w0t+ πn) = cos (w0t) cos (πn)− sin (w0t)sin (πn) = (−1)

ncos (w0t)

Se puede escribir entonces:

E [X(t)] = cos (w0t)

∞∑n=0

(−1)ne−λt

(λt)n

n!→ E [X(t)] = cos (w0t) e

−2λt

Como la media no es constante a lo largo del tiempo, se puede afirmar que no se trata de un proceso ESA. Para lavarianza conviene sacar primero la esperanza de X(t)2:

E[X(t)2

]= E

[cos (w0t+ πN(t))

2]

= E[(

(−1)N(t)

cos (w0t))2]

= cos (w0t)2

1︷ ︸︸ ︷E[(−1)

2N(t)]

= cos (w0t)2

La varianza queda entonces:

V [X(t)] = E[X(t)2

]− E [X(t)]

2= cos (w0t)

2 (1− e−4λt

)La esperanza de Z(t) es:

E [Z(t)] = E [(h(t) ? Y (t))] = (h(t) ? E [Y (t)]) = (h(t) ? cos (w0t)E [X(t)])

Se tiene entonces:

E [Z(t)] =(h(t) ? cos (w0t)

2e−2λt

)Para la varianza se procede de la misma manera en que se hizo con la varianza de X(t):

E[Z(t)2

]=E

[(h(t) ? Y (t))

2]

E[Z(t)2

]=E

[(h(t) ? cos (w0t)X(t))

2]

Esto no tengo idea de como resolverlo. Por esta razón, voy a obtener la E[Z(t)2

]a partir de la autocorrelación. La

autocorrelación de Z(t) se define como:

RZ(t, t+ τ) =E [Z(t)Z(t+ τ)]

RZ(t, t+ τ) =E [(h(t) ? Y (t)) (h(t+ τ) ? Y (t+ τ))]

RZ(t, t+ τ) =E[ˆ ∞−∞

h(t− r)Y (r)dr

ˆ ∞−∞

h(t+ τ − `)Y (`)d`

]RZ(t, t+ τ) =

ˆ ∞−∞

ˆ ∞−∞

h(t− r)h(t+ τ − `)E [Y (r)Y (`)] drd`

RZ(t, t+ τ) =

ˆ ∞−∞

ˆ ∞−∞

h(t− r)h(t+ τ − `)RY (r, `) drd`

29

Page 30: wiki.foros-fiuba.com.arwiki.foros-fiuba.com.ar/_media/materias:66:finales...Se tiene entonces que: V[X(t)] = cos(wt)2 cos(wt)2 e 4 t= cos(wt)2 1 e Ítem 3 Para que un proceso X(t)

Como no se trata de un proceso ESA, creo que no se puede seguir desarrollando (cuando es un proceso ESA estotermina quedando como RZ(τ) = (h(τ) ? h(−τ) ? RY (τ))

La autocorrelación de Y (t) es:

RY (r, `) =E [Y (r)Y (`)]

RY (r, `) =E [cos (w0r)X(r) cos (w0`)X(`)]

RY (r, `) = cos (w0r) cos (w0`)E [X(r)X(`)]

RY (r, `) = cos (w0r)2

cos (w0`)2 E[(−1)

N(r)+N(`)]

Como se trata de un proceso Poisson, N(r) +N(`) es un nuevo proceso Poisson de intensidad λ′ = λ (r + `)

E[(−1)

N(r)+N(`)]

=

∞∑n=0

(−1)ne−λ

′ (λ′)n

n!= e−2λ′

Finalmente la autocorrelación queda como:

RY (r, `) = cos (w0r)2

cos (w0`)2e−2λ(r+`)

Se puede plantear entonces:

E[Z(t)2

]=RZ(t, t)

E[Z(t)2

]=

ˆ ∞−∞

ˆ ∞−∞

h(t− r)h(t− `)RY (r, `) drd`

E[Z(t)2

]=

ˆ ∞−∞

ˆ ∞−∞

h(t− r)h(t− `) cos (w0r)2

cos (w0`)2e−2λ(r+`)drd`

La verdad que son cuentas horribles, y no tengo idea de si está bien, asique lo dejo acá.

Ítem 3

Según las cosas que pude resolver en el ítem anterior, ni X(t) ni Z(t) son procesos ESA, ya que sus medias no sonconstantes a lo largo del tiempo. En el caso de Z(t) puede que al resolver la convolución quede mágicamente constante,pero creo que eso pase.

Ejercicio 2

Este ejercicio es igual al ejercicio 2 del final del 18/12/14.

Ejercicio 3

Este ejercicio es parecido al ejercicio 2 del final del 18/02/15.

Ítem 1

Para obtener la autocorrelación de Y (n) se debe proceder:

RY (k1, k2) =E [Y (k1)Y (k2)]

RY (k1, k2) =E [((h(k1) ? X(k1)) + Z(k1)) ((h(k2) ? X(k2)) + Z(k2))]

RY (k1, k2) =E [((h(k1) ? A+W (k1)) + Z(k1)) ((h(k2) ? A+W (k2)) + Z(k2))]

RY (k1, k2) =E [((h(k1) ? A+W (k1)) + Z(k1)) ((h(k2) ? A+W (k2)) + Z(k2))]

RY (k1, k2) =E [((h(k1) ? A) + (h(k1) ? W (k1)) + Z(k1)) ((h(k2) ? A) + (h(k2) ? W (k2)) + Z(k2))]

30

Page 31: wiki.foros-fiuba.com.arwiki.foros-fiuba.com.ar/_media/materias:66:finales...Se tiene entonces que: V[X(t)] = cos(wt)2 cos(wt)2 e 4 t= cos(wt)2 1 e Ítem 3 Para que un proceso X(t)

Haciendo las distribuciones de los productos, se tienen los siguientes términos:

(h(k1) ? A) (h(k2) ? A)

(h(k1) ? A) (h(k2) ? W (k2))

(h(k1) ? A)Z(k2)

(h(k1) ? W (k1)) (h(k2) ? A)

(h(k1) ? W (k1)) (h(k2) ? W (k2))

(h(k1) ? W (k1))Z(k2)

Z(k1) (h(k2) ? A)

Z(k1) (h(k2) ? W (k2))

Z(k1)Z(k2)

Voy a ir desarrollando todas estas expresiones en orden:

E [(h(k1) ? A) (h(k2) ? A)] =E

[( ∞∑n=−∞

h(n− k1)A

)(( ∞∑m=−∞

h(m− k2)A

))]

E [(h(k1) ? A) (h(k2) ? A)] =

∞∑n=−∞

∞∑m=−∞

h(n− k1)h(m− k2)E[A2]

Sabiendo que A es una uniforme, se tiene:

E[A2]

= V [A] + E [A]2

=1

12+

(1

2

)2

=1

3

Como A es un proceso ESA, sabiendo que h(n) es un sistema LTI, la salida también será ESA:

E [(h(k1) ? A) (h(k2) ? A)] =

(h (|k1 − k2|) ? h (− |k1 − k2|) ?

1

3

)Con el segundo termino se tiene:

E [(h(k1) ? A) (h(k2) ? W (k2))] =E

[( ∞∑n=−∞

h(n− k1)A

)(( ∞∑m=−∞

h(m− k2)W (m)

))]

E [(h(k1) ? A) (h(k2) ? W (k2))] =

∞∑n=−∞

∞∑m=−∞

h(n− k1)h(m− k2)E [AW (m)]

Asumiendo que A y W (n) están descorrelacionadas, se puede separar la esperanza del producto como el producto delas esperanzas. Como W (n) tiene media nula, este producto es nulo:

E [(h(k1) ? A) (h(k2) ? W (k2))] = 0 E [(h(k1) ? W (k1)) (h(k2) ? A)] = 0

El tercer termino es:

E [(h(k1) ? A)Z(k2)] =E

[( ∞∑n=−∞

h(n− k1)A

)Z(k2)

]

E [(h(k1) ? A)Z(k2)] =

∞∑n=−∞

h(n− k1)E [AZ(k2)]

Nuevamente asumiendo que A y Z(n) están descorrelacionadas, este termino se anula:

E [(h(k1) ? A)Z(k2)] = 0 E [Z(k1) (h(k2) ? A)] = 0

Resultados similares se obtienen con los términos cruzados entre Z(n) y W (n):

E [(h(k1) ? W (k1))Z(k2)] = 0 E [Z(k1) (h(k2) ? W (k2))] = 0

31

Page 32: wiki.foros-fiuba.com.arwiki.foros-fiuba.com.ar/_media/materias:66:finales...Se tiene entonces que: V[X(t)] = cos(wt)2 cos(wt)2 e 4 t= cos(wt)2 1 e Ítem 3 Para que un proceso X(t)

La quinta expresión se desarrolla como:

E [(h(k1) ? W (k1)) (h(k2) ? W (k2))] =E

[( ∞∑n=−∞

h(n− k1)W (k1)

)(( ∞∑m=−∞

h(m− k2)W (k2)

))]

E [(h(k1) ? W (k1)) (h(k2) ? W (k2))] =

∞∑n=−∞

∞∑m=−∞

h(n− k1)h(m− k2)E [W (k1)W (k2)]

Como W (n) es un proceso de ruido blanco de media nula, se tiene que:

RW (k1, k2) = E [W (k1)W (k2)] = σ2W δ (k2 − k1)

Por esto, se tiene que:

E [(h(k1) ? W (k1)) (h(k2) ? W (k2))] = σ2W (h(0) ? h(0))

Finalmente en el ultimo termino se tiene:

E [Z(k1)Z(k2)] = σ2Zδ (k2 − k1)

Haciendo que k = k2 − k1, se tiene entonces:

RY (k) =

(h (k) ? h (−k) ?

1

3

)+ σ2

W (h(0) ? h(0)) + σ2Zδ (k)

Se puede ver que estas expresiones dependen únicamente de la diferencia de instantes. En caso de que la media de Ysea constante para todo instante de tiempo, se va a poder afirmar que se trata de un proceso ESA:

E [Y (n)] =E[(h (n) ? X(n)) +

Z(n)]

E [Y (n)] =E [(h (n) ? X(n))] = (h(n) ? E [X(n)])

E [Y (n)] =(h(n) ? E

[A+

W (n)])

E [Y (n)] = (h(n) ? E [A]) =1

2

∞∑k=−∞

h(k)

Se puede ver que la esperanza de Y (n) no depende del tiempo, y por lo tanto se trata de un proceso ESA.

Ítem 2

El estimador linea que se desea diseñar es:A = αY (n)

Lo que se desea minimizar es el ECM:

ECM = E[(A− A

)2]

= E[(A− αY (n))

2]

Para minimizar, es necesario derivar con respecto a α e igualar a cero:

∂ECM

∂α= 2E [(A− αY (n))Y (n)] = 0

Se tiene entonces:

E [AY (n)] = αE[Y (n)2

]= αRY (0)→ α =

E [AY (n)]

RY (0)

La esperanza cruzada es:

E [AY (n)] =E [A ((h(n) ? X(n)) + Z(n))]

E [AY (n)] =E [A (h(n) ? X(n))] +E [AZ(n)]

E [AY (n)] =E [A (h(n) ? (A+W (n)))]

E [AY (n)] =E [A (h(n) ? A)] +(((((((

((E [A (h(n) ? W (n))]

E [AY (n)] =E

[ ∞∑k=−∞

h(k)A2

]

E [AY (n)] =

∞∑k=−∞

h(k)E[A2]

=1

3

∞∑k=−∞

h(k)

32

Page 33: wiki.foros-fiuba.com.arwiki.foros-fiuba.com.ar/_media/materias:66:finales...Se tiene entonces que: V[X(t)] = cos(wt)2 cos(wt)2 e 4 t= cos(wt)2 1 e Ítem 3 Para que un proceso X(t)

Se tiene entonces:

α =1

3

∑∞k=−∞ h(k)

RY (0)

Ítem 3

La media del estimador encontrado es:

E[A]

= E [αY (n)] = αE [Y (n)] =1

6

(∑∞k=−∞ h(k)

)2RY (0)

Para la varianza se va debe calcular primero la esperanza de A2:

E[A2]

= E[α2Y (n)2

]= α2E

[Y (n)2

]= α2RY (0) =

(1

3

∑∞k=−∞ h(k)

RY (0)

)2

RY (0) =1

9

(∑∞k=−∞ h(k)

)2RY (0)

La varianza queda como:

V[A]

= E[A2]− E

[A]2

=1

9

(∑∞k=−∞ h(k)

)2RY (0)

(1

6

(∑∞k=−∞ h(k)

)2RY (0)

)2

Entonces:

V[A]

=

(∑∞k=−∞ h(k)

)2RY (0)

(1

9− 1

36

(∑∞k=−∞ h(k)

)2RY (0)

)

Este ejercicio no tengo idea de si estará bien porque eran millones de cuentas, pero algo de sentido tiene.

33

Page 34: wiki.foros-fiuba.com.arwiki.foros-fiuba.com.ar/_media/materias:66:finales...Se tiene entonces que: V[X(t)] = cos(wt)2 cos(wt)2 e 4 t= cos(wt)2 1 e Ítem 3 Para que un proceso X(t)

6. Final 10/12/15

6.1. Enunciado

Ejercicio 1: Suavizado de ruido blanco

Sea X(n) un ruido blanco gaussiano de media nula y varianza unitaria.

1. Se utiliza un filtro promediador de memoria infinita cuya salida es:

Z1(n) =X(1) + · · ·X(n)

n

a) Calcule E [Z1(n)] y V [Z1(n)]. Determine si Z1(n) es un proceso gaussiano.

b) Obtenga la función de autocorrelación de Z1(n).

2. Considere ahora un filtro promediador de memoria finita M :

Z2(n) =X(n−M + 1) + · · ·X(n)

M

a) ¿Cómo se modifican los resultados anteriores?

b) ¿Z2(n) es ahora un proceso estacionario?

Ejercicio 2: Estimación

Considere el proceso ESA X(n) cuya autocorrelación es R(k). Se desea estimar X(n) utilizando X(n1) y X(n2),n1 ≤ n ≤ n2. Para ellos se plantea el siguiente estimador lineal:

X(n) = aX(n1) + bX(n2)

que se desea construir con criterio de menor error cuadrático medio.

1. Plantee el error de estimación y obtenga un sistema de ecuaciones que plantee el principio de ortogonalidad en estecaso.

2. Utilizando el principio de ortogonalidad, determine los valores óptimos para a y b.

3. Analice el resultado para n = n1 y n = n2.

Ejercicio 3: Detección binaria

A través de un canal de comunicaciones digitales, se transmite un 1 o un 0 con la transmisión o no del pulso:

p(n) = δ (n) +1

2δ (n− 1)− 5δ (n− 2)

La salida del canal, Y (n), esta corrompida por ruido blanco gaussiano de media nula y varianza unitaria. Sea W (n)dicho ruido.

1. Explicite el problema de testeo de hipótesis para resolver el problema de detección.

2. Plantee el detector de máxima verosimilitud. Identifique el filtro adaptado correspondiente.

3. Determine los intervalos de Y (n) para los cuales la regla de decisión indica que se transmitió un 1.

4. Determine la probabilidad de error de decidir 0 cuando un 1 fuera enviado.

34

Page 35: wiki.foros-fiuba.com.arwiki.foros-fiuba.com.ar/_media/materias:66:finales...Se tiene entonces que: V[X(t)] = cos(wt)2 cos(wt)2 e 4 t= cos(wt)2 1 e Ítem 3 Para que un proceso X(t)

6.2. Resolución

Ejercicio 1

Ítem 1

Lo primero que se debe hacer es obtener la esperanza del proceso Z1(n):

E [Z1(n)] = E

[1

n

n∑i=1

X(i)

]=

1

n

n∑i=1

E [X(i)]→ E [Z1(n)] = 0

Sabiendo que la media es nula, la varianza del proceso se puede obtener como:

V [Z1(n)] = E[Z1(n)2

]= E

( 1

n

n∑i=1

X(i)

)2

Si bien es una cuenta muy fea, al saber que se trata de ruido blanco (y por lo tanto las componentes están descorrela-cionadas) se sabe que las esperanzas cruzadas se anulan:

i 6= j → E [X(i)X(j)] =E [X(i)]

E [X(j)] = 0

La varianza queda entonces como:

V [Z1(n)] = E

[1

n2

n∑i=1

X(i)2

]=

1

n2

n∑i=1

E[X(i)2

]︸ ︷︷ ︸1

=1

n2n =

1

n

Estos resultados eran esperables, ya que Z1(n) se construye a partir de una sumatoria de gaussianas independientes,por lo que el resultado debe ser una nueva gaussiana:

Z1(n) ∼ N [0, 1/n]

La autocorrelación del proceso se obtiene como:

RZ1(n1, n2) = E [Z1(n1)Z1(n2)] = E

( 1

n1

n1∑i=1

X(i)

) 1

n2

n2∑j=1

X(j)

Se tiene entonces:

RZ1(n1, n2) =E

1

n1

1

n2

n1∑i=1

X(i)

n2∑j=1

X(j)

RZ1

(n1, n2) =1

n1

1

n2

n1∑i=1

n2∑j=1

E [X(i)X(j)]

RZ1(n1, n2) =

1

n1

1

n2

n1∑i=1

n2∑j=1

δ (i− j)

Finalmente se tiene entonces que:

RZ1(n1, n2) =

mın (n1, n2)

n1n2

Se puede ver que la autocorrelación encontrada no coincide con la de un proceso gaussiano. Por esta razón, si biencada Z1(n) se distribuye como una normal, el proceso no es gaussiano. Otro detalle, es que no es un proceso ESA, ya quesu autocorrelación no depende de la diferencia de instantes.

35

Page 36: wiki.foros-fiuba.com.arwiki.foros-fiuba.com.ar/_media/materias:66:finales...Se tiene entonces que: V[X(t)] = cos(wt)2 cos(wt)2 e 4 t= cos(wt)2 1 e Ítem 3 Para que un proceso X(t)

Ítem 2

Ahora se tiene un promediador de largo finito:

Z2(n) =X(n−M + 1) + · · ·X(n)

M

Nuevamente se tiene una sumatoria de gaussianas independientes, por lo que se puede afirmar que Z2(n) también serágaussiana:

E [Z2(n)] =1

ME

[M−1∑k=0

X(n− k)

]=

1

M

M−1∑k=0

E [X(n− k)] = 0

La varianza en este caso es:

V [Z2(n)] = E[Z2(n)2

]= E

( 1

M

M−1∑k=0

X(n− k)

)2 =

1

M2

M−1∑k=0

E[X(n− k)2

]︸ ︷︷ ︸1

=1

M

Para la autocorrelación se procede como antes:

RZ2(n, n+ k) =E [Z2(n)Z2(n+ k)]

RZ2(n, n+ k) =E

1

M

M−1∑i=0

X(n− i) 1

M

M−1∑j=0

X(n+ k − j)

RZ2

(n, n+ k) =1

M2

M−1∑i=0

M−1∑j=0

E [X(n− i)X(n+ k − j)]

RZ2(n, n+ k) =

1

M2

M−1∑i=0

M−1∑j=0

δ (k + i− j)

No tengo idea de si se puede reducir mas, pero la autocorrelación queda:

RZ2(n, n+ k) =1

M2

M−1∑i=0

M−1∑j=0

δ (k + i− j)

A diferencia del caso anterior, esta expresión sólo depende de la diferencia de instantes, por lo que se trata de unproceso ESA. Sin embargo, dudo que eso de ahí sea la autocorrelación de un proceso gaussiano (cada Z2(n) por separadoes gaussiana, pero el proceso no lo es).

Ejercicio 2

Ítem 1

El estimador que se desea utilizar es:X(n) = aX(n1) + bX(n2)

El error cuadrático en este caso es:

E2 =(X(n)− X(n)

)2

= (X(n)− aX(n1)− bX(n2))2

Como se trata de variables aleatorias, es necesario utilizar el error cuadrático medio. Además como se trata de unoperador lineal, es lo mismo minimizar el ECM que el error cuadrático.

ECM = E[E2]

= E[(X(n)− aX(n1)− bX(n2))

2]

Como los parámetros que minimizan el ECM son a y b, se debe derivar con respecto a éstos para encontrar el mínimo:

∇ECM = E

−2

Error︷ ︸︸ ︷(X(n)− aX(n1)− bX(n2))

Dato︷ ︸︸ ︷X(n1)

−2(X(n)− aX(n1)− bX(n2))︸ ︷︷ ︸Error

X(n2)︸ ︷︷ ︸Dato

=

[00

]

36

Page 37: wiki.foros-fiuba.com.arwiki.foros-fiuba.com.ar/_media/materias:66:finales...Se tiene entonces que: V[X(t)] = cos(wt)2 cos(wt)2 e 4 t= cos(wt)2 1 e Ítem 3 Para que un proceso X(t)

Se puede ver que queda expresado el principio de ortogonalidad, el cual indica que Error⊥Dato. Concretamente, elprincipio de ortogonalidad indica que la estimación es la proyección de lo que se desea estimar sobre el espacio generadopor los datos.

El sistema de ecuaciones que se debe resolver para obtener los valores de a y b es:E[X(n)X(n1)− aX(n1)2 − bX(n2)X(n1)

]= 0

E[X(n)X(n2)− aX(n1)X(n2)− bX(n2)2

]= 0

Matricialmente este sistema se puede escribir como:[RX(0) RX(n1, n2)

RX(n1, n2) RX(0)

] [ab

]=

[RX(n, n1)RX(n, n2)

]

Ítem 2

Los valores óptimos de a y b se obtienen resolviendo el sistema expresado en el ítem anterior.[RX(0) RX(n1, n2)

0 RX(0)2 −RX(n1, n2)2

] [ab

]=

[RX(n, n1)

RX(0)RX(n, n2)−RX(n, n1)RX(n1, n2)

]Se tiene entonces que b vale:

b =RX(0)RX(n, n2)−RX(n, n1)RX(n1, n2)

RX(0)2 −RX(n1, n2)2

Por lo tanto, se tiene que a es:

a =1

RX(0)

(RX(n, n1)− RX(0)RX(n, n2)−RX(n, n1)RX(n1, n2)

RX(0)2 −RX(n1, n2)2RX(n1, n2)

)Con estos valores de a y b se minimiza el error de estimación.

Ítem 3

Para los casos donde n = n1, se puede ver que b = 0 y a = 1, lo cual tiene sentido ya que X(n1) = X(n) y es el valorque se desea estimar. Contrario a esto ocurre si n = n2, donde se tiene que b = 1 y a = 0, lo cual confirma nuevamente elrazonamiento hecho para el caso anterior.

Ejercicio 3

Ítem 1

Lo que interpreto yo es que si se quiere transmitir un 1, se transmite el pulso p(n), y si se quiere transmitir un cero elpulso p(n) no se transmite. El sistema a testear es entonces:

Y (n) =

p(n) +W (n) H1 : Se transmite un unoW (n) H0 : Se transmite un cero

p(n) = δ(n) +1

2δ(n− 1)− 5δ (n− 2)

El test de hipótesis que se debe plantear es:

P (H0|y(n)) ≷H0

H1P (H1|y(n))

Este problema se lo puede pensar de forma vectorial como:

Y =

p+W H1 : Se transmite un unoW H0 : Se transmite un cero

Como p es una señal deterministica, lo único que hace es desplazar la densidad de W . Las densidades son entonces:Y |H1 ∼ N

[p, I]

Y |H0 ∼ N [0, I]→

fY |H1(y|H1) = 1

(2π)n/2 exp

(− 1

2

∣∣∣∣y − p∣∣∣∣2)fY |H0

(y|H1) = 1(2π)

n/2 exp(− 1

2

∣∣∣∣y∣∣∣∣2)37

Page 38: wiki.foros-fiuba.com.arwiki.foros-fiuba.com.ar/_media/materias:66:finales...Se tiene entonces que: V[X(t)] = cos(wt)2 cos(wt)2 e 4 t= cos(wt)2 1 e Ítem 3 Para que un proceso X(t)

Utilizando la regla de Bayes, el test de hipótesis se puede escribir como:

fY |H0(y|H0)P (H0)

fY (y)≷H0

H1

fY |H1(y|H1)P (H1)

fY (y)→

fY |H1(y|H1)

fY |H0(y|H0)

≷H1

H0

P (H0)

P (H1)︸ ︷︷ ︸γ

tomando el logaritmo natural, la regla de decisión queda como:

−1

2

∣∣∣∣y − p∣∣∣∣2 +1

2

∣∣∣∣y∣∣∣∣2 ≷H0

H1ln (γ)→

∣∣∣∣y∣∣∣∣2 − ∣∣∣∣y − p∣∣∣∣2 ≷H1

H02 ln (γ)

Este sistema permite determinar si se recibió un 1 o un 0 a partir de una observación y.

Ítem 2

La regla de decisión de máxima verosimilitud es la encontrada en el ítem anterior, la cual se puede desarrollar un pocomas: (

y − p)T (

y − p)

=(yT − pT

) (y − p

)= yT y − yT p− pT y + pT p

Sabiendo que yT p = pT y, se puede escribir:

pT y ≷H1

H0ln (γ) +

1

2

∣∣∣∣p∣∣∣∣2Se puede ver que esta estructura responde a la de un filtro adaptado con respuesta al impulso h = pT (h(n) = p(n)).

Ítem 3

Para poder resolver esto lo que se debe hacer es dibujar las dos gaussianas que representan las densidades para cadahipótesis. Como tienen medias diferentes, serán dos gaussianas iguales pero desplazadas. Por ejemplo para n = 1, serándos gaussianas unidimensionales, donde para y > 1

p

(ln (γ) + 1

2

∣∣∣∣p∣∣∣∣2) se considera que se recibió un uno. Para este ítemconviene dibujar y ver que onda, porque para n > 1 hay que hacerlo con las elipses de concentración.

Ítem 4

La probabilidad de error en este caso es:

P (H0|H1) = P(pT y > ln (γ) +

1

2

∣∣∣∣p∣∣∣∣2 |H1

)Como se está en H1, la densidad de probabilidad es:

fY |H1(y|H1) =

1

(2π)n/2

exp

(−1

2

∣∣∣∣y − p∣∣∣∣2)Para n = 1 hay que integrar en esa región. Para n > 1 también hay que integrar, pero hay que tener dibujadas las

elipses de concentración porque se tienen gaussianas multivariables.

38