entropia

17
AREA DE LA ENERGÍA, LAS INDUSTRIAS, Y LOS RECURSOS NATURALES NO RENOVABLES CARRERA DE INGENIERIA EN ELECTRÓNICA Y TELECOMUNICACIONES MÓDULO VIII COMUNICACIONES DIGITALES TEMA: Fuentes de Información y Codificación de Fuente. REALIZADO POR: Edgar Emanuel González Malla. PARALELO: A” DOCENTE: Ing. Klever Carrión FECHA: 2012-03-19 LOJA - ECUADOR

Upload: eduardo-neira

Post on 03-Jul-2015

1.100 views

Category:

Economy & Finance


0 download

DESCRIPTION

entropa

TRANSCRIPT

Page 1: Entropia

AREA DE LA ENERGÍA, LAS INDUSTRIAS, Y LOS RECURSOS NATURALES NO RENOVABLES

CARRERA DE INGENIERIA EN ELECTRÓNICA Y

TELECOMUNICACIONES

MÓDULO VIII

COMUNICACIONES DIGITALES

TEMA: Fuentes de Información y Codificación de Fuente.

REALIZADO POR: Edgar Emanuel González Malla.

PARALELO: “A”

DOCENTE: Ing. Klever Carrión

FECHA: 2012-03-19

LOJA - ECUADOR

Page 2: Entropia

FUENTES DE INFORMACIÓN Y CODIFICACIÓN DE FUENTE

Una fuente de información es un elemento que entrega información, como pueden ser una

persona hablando, un ordenador entregando datos. Es un elemento que entrega una señal, y

una señal es una función de una o más variables que contiene información acerca de la

naturaleza o comportamiento de algún fenómeno. Es decir, se considera señal tanto al

fenómeno físico que transporta la información como a la función matemática que representa a

ese fenómeno.

Las fuentes de información se clasifican basándose en el tipo de señal que entregan. Se

pueden clasificar, según el tipo de variable independiente (tiempo) en:

Fuentes de tiempo continuo: la función está definida para cualquier valor de la

variable independiente.

Fuentes de tiempo discreto: la función sólo está definida para un conjunto contable de

instantes de tiempo. En la cuales el valor de la función sólo toma un conjunto finito de

valores. A cada uno de estos valores se los denomina símbolos. El conjunto de todos

los símbolos se suele llamar alfabeto.

1. ENTROPÍA

La Entropía corresponde a la cantidad de información promedio que contienen los símbolos

usados. Los símbolos con menor probabilidad son los que aportan mayor información; por

ejemplo, si se considera como sistema de símbolos a las palabras en un texto, palabras

frecuentes como "que", "el", "a" aportan poca información. Mientras que palabras menos

frecuentes como "corren", "niño", "perro" aportan más información. Si de un texto dado

borramos un "que", seguramente no afectará a la comprensión y se sobreentenderá, no

siendo así si borramos la palabra "niño" del mismo texto original. Cuando todos los símbolos

son igualmente probables (distribución de probabilidad plana), todos aportan información

relevante y la entropía es máxima.

El concepto de entropía es usado en termodinámica, mecánica estadística y teoría de la

información. En todos los casos la entropía se concibe como una "medida del desorden" o la

"peculiaridad de ciertas combinaciones". La Entropía puede ser considerada como una medida

de la incertidumbre y de la información necesaria para, en cualquier proceso, poder acotar,

reducir o eliminar la incertidumbre.

Sea E un suceso que puede presentarse con probabilidad P(E). Cuando E tiene lugar, hemos

recibido:

I(E) = (1)

unidades de información.

Si introducimos el logaritmo de base r=2, la unidad correspondiente se denomina bit,

empleando logaritmos naturales, la unidad de información recibe el nombre de nat, en el caso

de logaritmos de base 10, la unidad de información es el Harley. La relación entre estas

unidades es la siguiente:

Page 3: Entropia

1 Hartley = 3,32 bits (2) 1 nat = 1,44 bits (3)

En la ecuación 4 notamos que si P (E) = 1/2, será I(E) = 1 bit. Es decir, un bit es la cantidad de

información obtenida al especificar una de dos posibles alternativas igualmente probables.

Esta situación se presenta al lanzar una moneda al aire o al examinar la salida de un sistema de

comunicación binario.

Definición de Entropía: Al contenido de información de la fuente se denomina Entropía, H(S),

que corresponde a la magnitud de la cantidad media por símbolo de la fuente. La entropía de

una variable aleatoria S es una función de las probabilidades de ocurrencia de las muestras,

definida como:

H(S)= ∑ bits (4)

En el transcurso de este informe se mantendrá la notación = log(m), por lo que las

unidades manejadas serán bits.

Ejemplo 1. Consideremos la fuente S = {s1, s2, s3,) con P(s1) = 1/2 y P(s2) = P(s3) = 1/4.

Entonces:

H(S) = 1/2 log 2 + 1/4log 4 + 1/4 los 4 = 3/2 bits

2. PROPIEDADES DE LA ENTROPÍA

La entropía tiene las siguientes propiedades:

La entropía es no negativa. Esto es evidente ya que al ser Pi una probabilidad entonces 0

<Pi ≤ 1.Por tanto podemos decir que < 0 y por tanto > 0.

Dado un proceso con posibles resultados {S1,..,Sn} con probabilidades relativas P1, P2..,Pn,

la función H(P1,P2,….., Pn), es máxima en el caso de que P1 = P2 = Pn = 1/n. El resultado es

intuitivo ya que tenemos la mayor incertidumbre del mensaje, cuando los valores posibles

de la variable son equiprobables.

Dado un proceso con posibles resultados {S1,..,Sn} con probabilidades relativas P1, ...,Pn,

la función H(P1, P2,…Pn), es nula en el caso de que Pi = 0 para todo i, excepto para una

clase, tal que: pj = 1. De forma intuitiva podemos pensar que cuando uno o más estados

tienen una probabilidad alta, disminuye significativamente la entropía porque, como es

lógico, existe una menor incertidumbre respecto al mensaje que se recibirá.

La cantidad máxima de información dada por una fuente de memoria nula de q símbolos,

crece lentamente al aumentar q. De hecho, la cantidad máxima de información crece con

el logaritmo del número de símbolos de la fuente, de modo que para duplicar la cantidad

máxima de información por símbolo en una fuente de q símbolos, sería necesaria una

fuente de q2 símbolos. Ya que H(S2)=2H(s).

Un ejemplo particularmente importante de fuente de información de memoria nula

corresponde a una fuente binaria de memoria nula. En tal fuente, el alfabeto se reduce a (0, 1).

Page 4: Entropia

La probabilidad de un o es w y la de un 1 es 1 – w. En donde w’=1-w. La entropía se determina

a partir de la ecuación 4:

H(S) = 1/w*log

+ 1/w’*log

bits

Otro punto importante es que:

Por lo tanto por definición:

0*log0=0

En la Figura 1 se representado la curva de variación H(w) en función de w, denotada en el

intervalo (0, 1 )de la variable. Como se aprecia en dicha figura si la salida de la fuente binaria es

cierta (w=0 u w’=1) la fuente no suministra ninguna información. El valor medio de la

información aportada por un símbolo de la fuente binaria alcanza su máximo en el caso en que

ambos, 0 y 1, sean igualmente probables, siendo este valor máximo igual a log 2, es decir, 1

bit. La salida de una fuente binaria está constituida por dígitos binarios o binits. Así una

secuencia de binits producida por una fuente de información binaria de memoria nula, de 0s y

1s equiprobables, suministra un bit de información por binit. Si 0s y 1s no son igualmente

probables, la cantidad de información dada por un binit será menor o mayor de 1 bit

dependiendo de los valores de las probabilidades. La cantidad media de información

suministrada por un binit de tal fuente, sin embargo, será siempre menor o igual a 1 bit.

Figura 1. Representación de H(w).

Page 5: Entropia

3. CÓDIGOS HUFFMAN

La codificación Huffman usa un método específico para elegir la representación de cada

símbolo, que da lugar a un código prefijo (es decir, la cadena de bits que representa a un

símbolo en particular y nunca es prefijo de la cadena de bits de un símbolo distinto) que

representa los caracteres más comunes usando las cadenas de bits más cortas, y viceversa.

Huffman fue capaz de diseñar el método de compresión más eficiente de este tipo: ninguna

representación alternativa de un conjunto de símbolos de entrada produce una salida media

más pequeña cuando las frecuencias de los símbolos coinciden con las usadas para crear el

código.

La idea en la codificación de Huffman es elegir una longitud de palabra que las secuencias mas

probables tengan longitudes cortas. Los códigos Huffman son unívocamente decodificables e

instantáneos con longitud de código mínima. En ese sentido son óptimos. La optimalidad se

entiende sobre todos los códigos que satisfacen la condición de prefijo (y en consecuencia son

unívocamente decodificables e instantáneos).

Técnica básica: La técnica utilizada es el propio algoritmo de Huffman. Consiste en la

creación de un árbol binario (o de alfabeto n-ario) en el que se etiquetan los nodos hoja con

los caracteres, junto a sus frecuencias, y de forma consecutiva se van uniendo cada pareja de

nodos que menos frecuencia sumen, pasando a crear un nuevo nodo intermedio etiquetado

con dicha suma. Se procede a realizar esta acción hasta que no quedan nodos hoja por unir a

ningún nodo superior, y se ha formado el árbol binario.

Posteriormente se etiquetan las aristas que unen cada uno de los nodos con ceros y unos (hijo

derecho e izquierdo, respectivamente, por ejemplo. El código resultante para cada carácter es

la lectura, siguiendo la rama, desde la raíz hacia cada carácter (o viceversa) de cada una de las

etiquetas de las aristas.

Ejemplo 2:

Codificar la fuente S={a1, a2,..., a6} con una distribución de probabilidades,:

p1=0.3; p2=0.25; p3=0.2; p4=p5=0.1; p6=0.05

Utilizando un alfabeto de 2 simbolos; el árbol binario seria como el de la Figura 2:

Figura 2. Árbol binario para el ejemplo 2.

Page 6: Entropia

Los resultados obtenidos tanto del código compacto como de su longitud y entropía se

muestran en la Figura 3.

Figura 3. Resultados del ejemplo 2.

Este resultado expresa el código compacto obtenido utilizando el método de codificación de

Huffman , el cual como se menciono anteriormente corresponde al código con la menor

longitud media, además de acuerdo a los resultados de la figura 3 se concluye que los códigos

de huffman asignan mayor cantidad de bits a los símbolos de la fuente que poseen menor

probabilidad, es decir, a los que poseen mayor información.

Ejemplo 3:

Se dispone de una fuente S de memoria nula, de 13 símbolos, cuyas probabilidades se

representan en la Figura 4. En ella se enumeran los correspondientes alfabetos de 2 a 13

símbolos.

Figura 4. Resultados del ejemplo 3.

Page 7: Entropia

Del ejemplo 3 podemos concluir que conforme aumentan los símbolos de codificación, la

longitud media L disminuye.

4. CUANTIZACIÓN.

Después del muestreo de una señal tenemos una secuencia de números que, teóricamente,

pueden representar cualquier valor de un rango continuo. Hay infinitos valores posibles, de

hecho, esos valores forman un conjunto infinito no numerable [lo que significa que los

elementos de ese conjunto no se pueden poner en correspondencia biunívoca con los

números naturales]. Para poder representar cada número de ese rango continuo, sería

necesario tener una cantidad infinita de dígitos, algo que no tenemos. En lugar de eso,

debemos representar nuestros números con una cantidad finita de dígitos, es decir: después

de discretizar la variable del tiempo, tenemos ahora que discretizar también la variable usada

para la amplitud. Esta discretización de valores de amplitud recibe el nombre de cuantización.

El adjetivo escalar hacer referencia a las salidas y entradas del cuantificador:

Cuantización escalar si las E/S son escalares.

Cuantización vectorial si las E/S son vectoriales.

4.1 CUANTIZACIÓN ESCALAR:

En la cuantización escalar cada salida individual de la fuente se cuantiza en cierto número de

niveles que después son codificados a una secuencia binaria. Cada salida de la fuente es un

número real en general, pero aun así la transmisión de números reales requiere un número

infinito de bits. En consecuencia, es necesario mapear el conjunto de los números reales en un

conjunto finito y al mismo tiempo minimizar la distorsión introducida. En la cuantización

escalar el conjunto de los números reales R se particiona en N subconjuntos disjuntos Rk,

1≤K≤N. A cada subconjunto Rk corresponde un punto de referencia x’K. Si al salida de la fuente

en el instante i, xi pertenece a Rk, entonces se representa por x’k, que es la versión cuantizada

de xi, x’i luego se representa mediante una secuencia binaria y se transmite. Dado que existen

N posibilidades para los niveles cuantizados, logN bits son suficientes para codificar esos

niveles en secuencias binarias (N se elije generalmente como potencia de 2). En consecuencia,

el numero de bits requeridos para transmitir cada salida de la fuente es R=logN bits. La

desventaja de disminuir de infinitos niveles a logN es la distorsión introducida.

La figura 5 muestra un ejemplo de un esquema de cuantización de 8 niveles. En este esquema

las 8 regiones están definidas como R1= (-inf,a1), R2=(-a1,a2),…, R8=(-a7,+inf). El punto de

representación (o valor cuantizado) en cada región es x’i, como se muestra en la figura 5. La

función de cuantización Q esta definida por:

Q(x)= x’i (Par todo x que pertenece a Ri). (5)

Esta función también se muestra en la figura 5. De donde puede concluirse que la función

cuantización es no lineal y no invertible. Esto se debe a que todos los puntos en Ri se mapean

en un solo punto x’i, dado que la función cuantización no es invertible, se pierde alguna

información en el proceso de cuantización y esta perdida de información no es recuperable.

Page 8: Entropia

Figura 5. Ejemplo de un esquema de cuantización de 8 niveles.

Ejemplo 4. Considerando la señal:

S(t)=4*cos(2*pi*t)

Muestreada cada 0.05 s. La muestra fue codificada usando el conversor A/D cuyo

funcionamiento se muestra en la figura 6, y decodificada con el D/A cuyo funcionamiento se

muestra en la figura 7.

Figura 6. Funcionamiento del codificador de 8 niveles para el ejemplo 4.

Figura 7. Funcionamiento del decodificador de 8 niveles para el ejemplo 4.

Algunos ejemplos de entradas, conversores A/D y D/A y los errores en la cuantificación se

muestran en la tabla siguiente:

Page 9: Entropia

Tabla 1. Resultados obtenidos para el ejemplo 4.

La representación gráfica del cuantificador o cuantizador se muestra en al Figura 8. Podría

decirse que la división de la entrada es un problema del codificador y la asignación de salidas a

las palabras del código es un problema del decodificador. Obviamente ambos problemas están

muy relacionados y los dos forman parte del diseño del cuantificador. Observa que un

problema importante de diseño es asignar códigos binarios a los intervalos.

Figura 8. Representación del cuantificador para el ejemplo 4.

4.1.1 cuantización uniforme: Es el cuantificador más simple, todos sus intervalos de

cuantificación tienen el mismo tamaño (se suele notar como Δ); con la salvedad del primer y

último intervalo si la señal de entrada no está acotada. Los valores de reconstrucción están

igualmente espaciados con el mismo espacio que las fronteras de decisión Δ. Figura 9

Los cuantizadores escalares uniformes pueden ser Midrise (Cuantificadoruniforme simétrico):

el 0 no está en el conjunto de salidas. O Cuantificador Midtread (Cuantificador uniforme

asimétrico): el 0 pertenece al conjunto de salidas. Normalmente se usan los cuantificadores

midtread si el número de intervalos es impares o si necesitamos representar al 0 en los valores

de salida.

Page 10: Entropia

Figura 9. Cuantizador uniforme de 7 niveles.

4.1.2 cuantización no uniforme:

Consideremos la función de densidad de la Figura 10:

Figura 10. Función de densidad.

Es obvio que sería bueno que los intervalos de cuantificación fuesen muy pequeños cerca del

cero y luego fuesen creciendo (esto no lo podemos hacer con un cuantificador uniforme). Un

cuantificador que tiene intervalos no uniformes recibe el nombre de cuantificador no-

uniforme. Figura 11

Figura 11. Cuantizador no uniforme.

Page 11: Entropia

4.2 CUANTIZACIÓN VECTORIAL: en la cuantización escalar cada salida de la fuente

discreta en tiempo (la cual es usualmente el resultado del muestreo de una fuente en tiempo)

se cuantiza separadamente y luego se codifica. Por ejemplo se utiliza un cuantizador escalar de

4 niveles y se codifica cada nivel en 2 bits se estará utilizando 2 bits por cada salida de la

fuente. Este esquema de cuantización se muestra en la figura 12.

Figura 12. Cuantizador escalar de 4 niveles.

Si se considera ahora dos muestras de salida de la fuente a la vez, y se interpreta esas 2

muestras como un punto en el plano, el cuantizador escalar particiona el plano en 16 regiones

de cuantización como el mostrado en la figura 13.

Figura 13. Cuantizador escalar de 4 niveles aplicado a 2 muestras.

Puede observarse que las regiones en el espacio bidimensional tienen toda forma rectangular.

Si se permiten regiones de una forma arbitraria es posible obtener mejores resultados. Esto

significa que esta cuantizado 2 salidas de la fuente a la vez utilizando 16 regiones, lo cual es

equivalente a 4 bits/ 2salidas de la fuente o 2 bits/cada salida de la fuente. En consecuencia el

número de bits/salida de la fuente para cuantizar dos muestras a la vez es igual al número de

Page 12: Entropia

bits/salida de la fuente obtenidos para el caso escalar. Si se relajan los requerimientos de tener

regiones rectangulares, el desempeño mejorará.

Si se toman ahora 3 muestras a la vez y se cuantiza el espacio tridimensional en 64 regiones, se

tendrá aun menor distorsión con el mismo numero de bits/salida de la fuente. La idea de la

cuantización vectorial es tomar bloques de salidas de longitud n y diseñar el cuantizador en el

espacio n-dimensional antes que realizar la cuantización en muestras individuales en el espacio

unidimensional.

Suponiendo que las regiones de cuantización en el espacio n-dimensional se notan por Ri,

1≤i≤K. Esas regiones particionan el espacio n-dimensional. Cada bloque de salidas de la fuente

de longitud n se nota por x E R y si x E Ri entonces está cuantizado a Q(x)=x’i. La Figura 14

muestra este esquema de cuantización para n=2 y K=37.

Figura 14. Cuantizador vectorial en 2 dimensiones.

Dado que existe un total de K valores cuantizados, logK bits serán suficientes para

representarlos. Esto significa que serán necesarias logK bits/n salidas de la fuente o, que la

velocidad de codificación de la fuente será:

R =

bits/salida de la fuente (6)

El cuantizador vectorial óptimo de dimensión n y el numero de niveles K son aquellos que

resultan de elegir la región Ri y los valores de cuantización x’i de forma que la distorsión sea

mínima.

5. CODIFICACIÓN DE FORMA DE ONDA.

Los esquemas de codificación de forma de onda se diseñan paran reproducir la señal de salida

de la fuente en el destino con la menor distorsión posible. En estas técnicas no se presta

atención al mecanismo que produce la forma de onda y toda la atención se dirije a la

reproducción de la salida de la fuente en el destino de alta fidelidad. Dado que la estructura de

la fuente no juega ningún rol en el diseño de los codificadores de forma de onda y solo las

propiedades de la señal afectan el diseño, los codificadores de forma de onda son robustos y

Page 13: Entropia

pueden utilizarse con una variedad de fuentes, siempre que las formas de onda producidas por

esas fuentes tengan ciertas similaridades. Los codificadores de la forma de onda intentan

reproducir la forma de la onda de la señal de entrada. Generalmente se diseñan para ser

independientes a la señal, de tal forma que pueden ser usados para codificar una gran

variedad de señales. Presentan una degradación aceptable en presencia de ruido y errores de

transmisión. Sin embargo, para que sean efectivos, sólo se deben usar a bit-rates medios. La

codificación se puede llevar a cabo tanto en el dominio del tiempo como de la frecuencia. Los

codificadores de forma de onda dividen en dos grupos: en el dominio del tiempo y en el

dominio de la frecuencia.

5.1 CODIFICADORES EN EL DOMINIO DEL TIEMPO

Dentro de este grupo tenemos los siguientes codificadores:

PCM

DPCM

ADPCM

5.1.1 MODULACIÓN DE PULSOS CODIFICADOS (PCM).

La modulación de pulsos codificados PCM es la forma más simple y antigua de codificación de

forma de onda. Cada muestra que entra al codificador se cuantifica en un determinado nivel

de entre un conjunto finito de niveles de reconstrucción. Cada uno de estos niveles se hace

corresponder con una secuencia de dígitos binarios, y esto es lo que se envía al receptor. Se

pueden usar distintos criterios para llevar a cabo la cuantificación, siendo el más usado el de la

cuantificación logarítmica. Un codificador PCM esta formado por tres partes básicas: un

muestreador, un cuantizador y un codificador. Un bloque funcional de un sistema PCM se

muestra en al figura 15.

Figura 15. Diagrama de bloques de un sistema PCM.

La señal que entra al muestreador es de ancho de banda limitado, W. Usualmente existe un

filtro con ancho de banda W previo al muestreador para evitar que frecuencias superiores a W

entren al muestreador. Este filtro se denomina filtro de premuestreo. El muestreo se realiza a

una velocidad superior a la de Nyquist para permitir una banda de salvaguarda. Los valores

muestreados entran luego a un cuantizador escalar. El cuantizador escalar es un cuantizador

uniforme, que resulta en un sistema PCM uniforme, o un cuantizador no uniforme. La elección

del cuantizador se basa en las características de la salida de la fuente. La salida del cuantizador

se codifica a una secuencia binaria de longitud v, donde N=2v

es el número de niveles de

cuantización.

Page 14: Entropia

5.1.2 MODULACIÓN POR CODIFICACIÓN DE IMPULSOS DIFERENCIAL

(DPCM)

Puesto que PCM no tiene en cuenta la forma de la onda de la señal a codificar, funciona muy

bien con señales que no sean las de la voz, sin embargo, cuando se codifica voz hay una gran

correlación entre las muestras adyacentes. Esta correlación puede aprovecharse para reducir

el bit-rate. Una forma sencilla de hacerlo sería transmitir solamente las diferencias entre las

muestras. Esta señal de diferencia tiene un rango dinámico mucho menor que el de la voz

original, por lo que podrá ser cuantificada con un número menor de niveles de reconstrucción.

En la figura siguiente 16 se muestra el funcionamiento de un sistema DPCM, donde la muestra

anterior se usa para predecir el valor de la muestra actual:

Figura 16. Sistema DPCM: codificador/decodificador

Normalmente, el valor predicho S'n, es una combinación lineal de un número finito de

muestras anteriores, Sn:

S’n=∑ (7)

dn= sn-s’n (8)

La señal de diferencia, dn, se denomina residuo y es el residuo lo que se cuantifica y se envía al

receptor. Los coeficientes de predicción, {ak}, se eligen para minimizar el error cuadrático

medio, E:

E=∑ (9)

5.1.3 MODULACIÓN POR CODIFICACIÓN DE IMPULSOS DIFERENCIAL

ADAPTATIVA (ADPCM).

En DPCM tanto el predictor como el cuantificador permanecen fijos en el tiempo. Se podría

conseguir una mayor eficiencia si el cuantificador se adaptase a los cambios del residuo de

predicción. Además, también se podría hacer que la predicción se adaptase a la señal de la voz.

Esto aseguraría que la raíz cuadrada del error de predicción se minimice continuamente, con

independencia de la señal de voz y de quién la emita.

Page 15: Entropia

La figura 17 muestra un codificador/decodificador ADPCM, Hay dos métodos para adaptar los cuantificadores y los predictores, llamados adaptación en feedforward y adaptación en feedbackward. En la adaptación feedforward los niveles de reconstrucción y los coeficientes de predicción se calculan en el emisor, usando un bloque de voz. Después son cuantificados y transmitidos al receptor como información lateral. Tanto el emisor como el receptor usan estos valores cuantificados para hacer las predicciones y cuantificar el residuo. En la adaptación feedbackward los niveles de reconstrucción y los coeficientes de predicción se calculan a partir de la señal codificada. Puesto que la señal es conocida tanto por el emisor como por el receptor, no hay necesidad de transmitir información lateral, así el predictor y el cuantificador pueden actualizarse para cada muestra. La adaptación feedbackward puede dar menores bir rates, pero es más sensible a los errores de transmisión que la adaptación feedforward.

Figura 17. Codificador/decodificador ADPCM, estándar G.721. ADPCM de 32 Kbps

ADPCM es muy útil para codificar voz a bit rates medios. La CCITT propone un estándar de codificación de voz telefónica a una velocidad de 32 kb/s. Es el estandar G.721 (ver Figura 17). Usa un esquema de adaptación feedbackward tanto para el cuantificador como para el predictor. El predictor tiene dos polos y seis ceros, por lo que produce una calidad de salida aceptable para señales que no son de voz.

5.2 CODIFICACIÓN EN EL DOMINIO DE LA FRECUENCIA

Este tipo de codificadores dividen la señal en distintas componentes en frecuencia y codifican

cada una de éstas de forma independiente. El número de bits usados para codificar cada

componente en frecuencia puede variar dinámicamente. Algunos codificadores son:

Codificación en sub-bandas.

Codificación por transformada.

5.2.1 CODIFICACIÓN EN SUB-BANDAS

Es el más sencillo de los métodos en el dominio de la frecuencia. Sea el siguiente codificador

en sub-bandas el que se muestra en la figura 18, la señal atraviesa un conjunto de filtros paso-

banda (BPF). Después, cada sub-banda se pasa a banda baja y se realiza un proceso de

Page 16: Entropia

decimación, es decir, se quitan muestras. Las sub-bandas se codifican usando algún método

basado en el dominio del tiempo. El número de bits asignados a cada banda pueden variar en

función de la importancia de dicha banda. En el receptor, se añaden muestras y se vuelven a

modular las bandas a sus posiciones originales. Al final, se suman para obtener la señal de voz

de salida. La principal ventaja de la codificación en sub-bandas es que el ruido de

cuantificación que se produce en cada banda queda confinado a la misma.

Figura 18. Codificador en sub-bandas.

La codificación en sub-bandas se usa mucho en señales de un gran ancho de banda, como

puede ser en teleconferencia. Se rige de acuerdo al estándar G.722 de la CCITT.

5.2.2 CODIFICACIÓN POR TRANSFORMADA

Consiste en una codificación por bloques. La señal de entrada se transforma en un dominio

diferente y se codifican los coeficientes de la transformación. En el receptor, el decodificador

calcula la transformada inversa para obtener la señal original reconstruida. La transformación

más usada es la Transformada Discreta del Coseno, DCT, cuya representación es la siguiente:

Xc (K) = ∑

K= 0,1,…,N-1 (10)

X (n) = ∑

n= 0,1,…,N-1 (11)

La codificación por transformada se utiliza en la codificación de señales de banda ancha de

imagen y sonido. Sin embargo, no se usa mucho en codificación de voz debido a su

complejidad.

BIBLIOGRAFÍA:

Disponible en: http://es.wikipedia.org/wiki/Entrop%C3%ADa_%28informaci%C3%B3n%29

Disponible en: http://ceres.ugr.es/~alumnos/luis/f_onda_t.htm#pcm

Page 17: Entropia

Disponible en:

http://electroacustica.artesmusicales.org/varios/material_didactico/Sampling/Digital%20Signa

ls-Sampling%20and%20Quantization.pdf

Disponible en: http://ceres.ugr.es/~alumnos/luis/f_onda_f.htm

Abramson Norman, Teoría de la información y codificación. Quinta Edición.