seminario de titulaciÓn “procesamiento digital de …

182
SEMINARIO DE TITULACIÓN “PROCESAMIENTO DIGITAL DE SEÑALES” Transición de la Televisión Analógica a la Digital. T E S I N A Que para obtener el grado de: INGENIERO EN COMUNICACIONES Y ELECTRÓNICA. Presentan: Costilla Arias José Alberto. Gómez Rodríguez Carlos Alejandro. Hernández Órnelas Roberto Isaac. Solorio Cortes Alberto. ASESORES: M. en C. BRAULIO SANCHEZ ZAMORA M. en C. ORLANDO BELTRÁN NAVARRO. México, D. F. Mayo de 2008. INSTITUTO POLITÉCNICO NACIONAL ESCUELA SUPERIOR DE INGENIERÍA MECÁNICA Y ELÉCTRICA UNIDAD CULHUACAN INGENIERÍA EN COMUNICACIONES Y ELECTRÓNICA

Upload: others

Post on 05-Jul-2022

0 views

Category:

Documents


0 download

TRANSCRIPT

Page 1: SEMINARIO DE TITULACIÓN “PROCESAMIENTO DIGITAL DE …

SEMINARIO DE TITULACIÓN “PROCESAMIENTO DIGITAL DE SEÑALES”

Transición de la Televisión Analógica a la Digital.

T E S I N A Que para obtener el grado de:

INGENIERO EN

COMUNICACIONES Y ELECTRÓNICA.

Presentan:

Costilla Arias José Alberto. Gómez Rodríguez Carlos Alejandro. Hernández Órnelas Roberto Isaac. Solorio Cortes Alberto.

ASESORES:

M. en C. BRAULIO SANCHEZ ZAMORA M. en C. ORLANDO BELTRÁN NAVARRO.

México, D. F. Mayo de 2008.

INSTITUTO POLITÉCNICO NACIONAL ESCUELA SUPERIOR DE INGENIERÍA MECÁNICA Y ELÉCTRICA

UNIDAD CULHUACAN INGENIERÍA EN COMUNICACIONES Y ELECTRÓNICA

Page 2: SEMINARIO DE TITULACIÓN “PROCESAMIENTO DIGITAL DE …

TRANSICION DE LA TELEVISION ANALOGICA A LA DIGITAL.

2

Page 3: SEMINARIO DE TITULACIÓN “PROCESAMIENTO DIGITAL DE …

TRANSICION DE LA TELEVISION ANALOGICA A LA DIGITAL.

3

INSTITUTO POLITECNICO NACIONAL ESCUELA SUPERIOR DE INGENIERÍA MECÁNICA ELÉCTRICA

UNIDAD CULHUACAN

TESINA

TRANSICIÓN DE LA TELEVISIÓN ANALÓGICA A LA DIGITAL.

QUE PRESENTAN LOS CC.

COSTILLA ARIAS JOSÉ ALBERTO. GÓMEZ RODRÍGUEZ CARLOS ALEJANDRO.

HERNÁNDEZ ÓRNELAS ROBERTO ISAAC. SOLORIO CORTES ALBERTO.

M. en C. Orlando Beltrán Navarro M. en C. Braulio Sánchez Zamora

Coordinador del seminario Asesor

M. en C. Héctor Becerril Zamora Jefe de Carrera de ICE

Page 4: SEMINARIO DE TITULACIÓN “PROCESAMIENTO DIGITAL DE …

TRANSICION DE LA TELEVISION ANALOGICA A LA DIGITAL.

4

Page 5: SEMINARIO DE TITULACIÓN “PROCESAMIENTO DIGITAL DE …

TRANSICION DE LA TELEVISION ANALOGICA A LA DIGITAL.

5

CONTENIDO

OBJETIVO. 9 CAPITULO 1. 11 HISTORIA, EVOLUCION DE LA TELEVISIÓN, FORMATOS Y ASPECTOS BASICOS DE LA TELEVISION ANALÓGICA. 1.1 Principios de la televisión. 11

1.1.1 El desarrollo de la TV. 15 1.1.2 La ingeniería del video en la televisión a color. 16 1.1.3 Historia de la televisión en México. 16

1.2 Fundamentos de la señal de video. 36 1.2.1 Las características de la luz visible. 36 1.2.2 La percepción de la luz. 38 1.2.3 La percepción de los detalles finos. 38

1.3 La cámara. 40 1.3.1 Partes de la cámara de video. 40

1.4 Propiedades de la imagen óptica. 41 1.4.1 Elementos de imagen. 41 1.4.2 Propiedades de la imagen. 41

1.4.1 Partes de la señal de video compuesto. 43 1.5.1 Exploración horizontal y vertical. 43 1.5.2 Frecuencia de cuadro y de campo. 43 1.5.3 Número de líneas y resolución del sistema NTSC. 44 1.5.4 Frecuencia de exploración horizontal y vertical. 44 1.5.5 Sincronía horizontal y vertical. 45 1.5.6 Borrado horizontal y vertical. 46 1.5.7 Formas de onda. 48

1.5 El vectorscopio. 49 1.6 Señal de TV a color. 50

1.7.1 Señales de video Rojo, Verde y Azul. 50 1.7.2 Codificación de las señales de color. 51 1.7.3 Diferentes amplitudes de RGB. 51 1.7.4 Diferentes amplitudes del mismo color. 52 1.7.5 Adición de color. 53

1.7 Definiciones de términos de color. 54 1.8.1 Blanco. 54 1.8.2 Matiz. 54 1.8.3 Saturación. 55 1.8.4 Crominancia. 55 1.8.5 Luminancia. 55

1.8 Codificación de la información. 55 1.9.1 Sección de matriz. 57 1.9.2 Señales I y Q. 57

Page 6: SEMINARIO DE TITULACIÓN “PROCESAMIENTO DIGITAL DE …

TRANSICION DE LA TELEVISION ANALOGICA A LA DIGITAL.

6

1.9.3 Modulación de crominancia. 58 1.9.4 El burst de color. 58 1.9.5 Resolución y ancho de banda de color. 60

1.9.6 Frecuencia de la subportadora de color. 61 1.9 Sistemas de la TV a color. 63

1.10.1 Partes de la señal de TV NTSC. 64 1.10 Señales de video analógico en componentes. 64

1.11.1 El formato RGB. 65 1.11.2 Características de la señal. 65 1.11.3 La distribución de las señales. 66 1.11.4 Monitoreo de señales. 66

1.11 Fundamentos de audio analógico. 67 1.12.1 Nivel de presión sonora. 67 1.12.2 Medición de fase mediante el monitor de fase de audio. 68 1.12.3 Monitoreo de niveles de audio. 69

1.12.3.1 El medidor de VU’s. 69 1.12.3.2 El medidor PPM. 70

1.12.4 Rango dinámico. 70 CAPITULO 2. 71 FUNDAMENTOS DE TELEVISIÓN DIGITAL.

2.1 Introducción. 71 2.2 ¿Por qué televisión digital? 71 2.3 Ventajas de Un Sistema Digital. 72

2.3.1 Multigeneraciones sin pérdida de calidad. 72 2.3.2 Ganancia y Respuesta en frecuencia totalmente estable. 72 2.3.3 Facilidades de Post-Producción. 72

2.4 El Proceso de Conversión Analógico-Digital. 72 2.4.1 Bits, Bytes y palabras. 72 2.4.2 Muestreo. 73 2.4.3 El Proceso de Cuantización. 74 2.4.4 Errores de Cuantización y Aliasing. 74

2.5 Interfaces de Video Digital. 75 2.5.1 Interface Paralela. 75 2.5.2 Interface Serial. 76

2.6 Formatos de video digital por componentes. 77 2.6.1 El Formato 4:2:2, 4:4:4 y 4:2:0. 77 2.6.2 El Formato 4:4:4. 78 2.6.3 Estructura de Muestreo. 79 2.7 Señal de Referencia (Timming Reference Signal). 81 2.8 El Ancillary Data. 81 2.8.1 Horizontal Ancillary Data (HANC). 81 2.8.2 Vertical Ancillary Data (VANC). 82 2.9 El EDH Error Detection and Handling. 82 2.9.1 Principios del EDH. 82

Page 7: SEMINARIO DE TITULACIÓN “PROCESAMIENTO DIGITAL DE …

TRANSICION DE LA TELEVISION ANALOGICA A LA DIGITAL.

7

2.9.2 Inserción de EDH. 83 2.9.3 Recepción de EDH. 83 2.9.4 Equipo de EDH. 83

2.9.5 El Efecto Cliff. 83 2.10 Errores Digitales. 84 2.11 El Patrón de Ojo y Mediciones para Una Interface SDI 4:2:2. 85 2.12 Ecualización y Reclocking. 85 2.13 Evaluación de la Calidad de Imagen para un Sistema 4:2:2. 87 2.14 Forma de Onda en el Waveform Monitor. 87 2.15 Sincronización y Timming Mediante el Patrón de Bowtie. 88 2.16 Errores de Gamut y Colorimetría. 88 2.17 Uso de Patrones para la Evaluación de Señales en Componentes. 88 2.17.1 El Patrón de Lighting. 89

2.17.2 El Patrón de Diamond. 91 2.17.3 El Patrón de Arrowhead. 97

2.18 Audio digital. 99 2.18.1 Proceso de muestreo. 99 2.18.2 Cuantización. 99 2.18.3 Codificación. 103 2.18.4 Dither. 103

2.19 Estructura General del Protocolo AES/EBU. 105 2.19.1 Características de la Interface de Datos AES/EBU. 112

2.20 Audio Embebido. 112 2.20.1 Embeber o no embeber. 114 CAPITULO 3. 115 CARACTERISTICAS DE LA HDTV. 3.1 Introducción. 115

3.1.1 Estándares de video digital. 115 3.1.2 Comparación de DTV, SDTV y HDTV. 116

3.2 Conceptos Básicos. 119 3.2.1 Relación de Aspecto. 119 3.2.2 Submuestreo de Croma. 121 3.2.3 Sistemas de Submuestreo y relaciones. 121 3.2.4 Codificación de diferencia de Color. 122 3.2.5 Componente de video digital. 124 3.2.6 Interfaz Digital Serial. 124 3.2.7 Tasa de bits. 125 3.2.8 Representación de datos digitales en Paralelo 4:2:2. 126

3.3 Compresión MPEG-2. 128 3.3.1 Por que de la compresión. 128 3.3.2 La compresión de Video MPEG-2. 129 3.3.3 Entropía y Redundancia. 130 3.3.4 MPEG-2 Compresión y Transporte. 131 3.3.5 Compresión de video. 132

Page 8: SEMINARIO DE TITULACIÓN “PROCESAMIENTO DIGITAL DE …

TRANSICION DE LA TELEVISION ANALOGICA A LA DIGITAL.

8

3.3.6 Redundancia Espacial. 133 3.3.7 Codificación Espacial. 134 3.3.8 Codificación Temporal. 134 3.3.9 Imágenes en MPEG-2. 135 3.3.10 Imágenes I. 135 3.3.11 Imágenes P. 135 3.3.12 Imágenes B. 136 3.3.13 Predicción Íntercuadro. 136 3.3.14 Predicción de Movimiento. 137 3.3.15 Perfiles y Niveles. 137 3.3.16 MainProfail@Mainlevel MP@ML. 137 3.3.17 Formación del flujo de Transporte. 138 3.3.18 Sincronización PCR, PTS y DTS. 139 3.3.19 Descodificación de la cadena comprimida. 140

3.4 Audio en HDTV. 141 3.4.1. Compresión de Audio. 141 3.4.2. Enmascaramiento Auditivo. 141 3.4.3. Enmascaramiento Temporal. 141 3.4.4. Estándar de Audio AC-3 de ATSC. 142 3.4.5. Dolby Digital y 5.1. 143 3.4.6. Codificación y decodificación de Dolby Digital. 144 3.4.7. Codificación de Audio. 146 3.4.8. Descodificación de Audio. 147

CAPITULO 4. 149 TRANSICION DE LA TELEVISION ANALOGICA A LA DIGITAL. 4.1 Introducción. 149 4.2 Implementaciones para la transición de las emisiones de televisión analógica a digital

en usa. 149 4.2.1 Criterio de asignación de frecuencias para DTV en usa. 150 4.2.2 Infraestructura analógica existente. 153 4.2.3 Infraestructura digital SDI existente. 155 4.2.4 Infraestructura existente SDI y nueva planta en HDTV. 157 4.2.5 Infraestructura en HDTV. 158

4.3 Estándares para HDTV en el mundo. 160 4.3.1 Estándar ISDB. 160

4.3.1.1 Aplicaciones del estándar ISDB-T. 161 4.3.1.2 Características principales del sistema. 162

4.3.2 Estándar DVB. 163 4.3.3 Estándar ATSC. 168

4.4 Transición de la TV analógica a la digital en México. 175 Bibliografías. 181

Page 9: SEMINARIO DE TITULACIÓN “PROCESAMIENTO DIGITAL DE …

TRANSICION DE LA TELEVISION ANALOGICA A LA DIGITAL.

9

En la actualidad se están dando avances tecnológicos aceleradamente y uno de estos es la modificación del sistema de televisión que esta pasando de los sistemas convencionales como los son el NTSC y PAL, de los cuales el sistema NTSC es el aceptado por la Secretaria de Comunicaciones y la radiodifusión en México.

� Este tesis dará a conocer la evolución de la televisión; desde lo que es televisión blanco y negro, pasando a televisión a color al igual que la televisión digital terrestre (TDT) y hasta lo que es hoy en día Televisión de Alta Definición (HDTV). Haciendo ver sus ventajas y desventajas, así como los usos que se le dan o se le dieron a cada una de ellas.

� El objetivo primordial de esta tesis es el tratar de explicar la evolución que ha tenido

la Televisión de Alta Definición (HDTV), así como sus generalidades técnicas y proceso de difusión en México.

� Explicar o definir conceptos históricos que se ocupan dentro de lo que es la televisión

normal y la Televisión de Alta Definición. Como lo son sus componentes físicos, etc.

� Describir en cada uno de los capítulos los aspectos teóricos – prácticos que servirán para que el usuario tenga una idea mas clara del funcionamiento de esta tecnología introducida a México en estos tiempos modernos.

� Como objetivo final se ha pensado, que la tesis debe de ser entendible y digerible

para cualquier persona que llegue a consultarla; ya sea desde un ámbito de nivel Ingeniería hasta nivel bachillerato o cualquier otro sector estudiantil, así como también cualquier otro sector de la sociedad que este interesada sobre el tema. Que cada persona llegue a entender o comprender los conceptos o principios básicos de lo que es la Televisión de Alta Definición en México.

Page 10: SEMINARIO DE TITULACIÓN “PROCESAMIENTO DIGITAL DE …

TRANSICION DE LA TELEVISION ANALOGICA A LA DIGITAL.

10

Page 11: SEMINARIO DE TITULACIÓN “PROCESAMIENTO DIGITAL DE …

TRANSICION DE LA TELEVISION ANALOGICA A LA DIGITAL.

11

CAPITULO 1. HISTORIA, EVOLUCION DE LA TELEVISIÓN, FORMATOS Y ASPECTOS BASICOS DE LA TELEVISION ANALÓGICA.

1.1 PRINCIPIOS DE LA TELEVISIÓN. Los primeros intentos de transmitir imágenes a distancia se realizan mediante la electricidad y sistemas mecánicos. La electricidad hacía de medio de unión entre los puntos y servía para realizar la captación y la recepción de la imagen, los medios mecánicos efectuaban las tareas de movimientos para realizar los barridos y descomposición secuencial de la imagen a transmitir. Para 1884 aparecieron los primeros sistemas de transmisión de dibujos, mapas escritos y fotografías llamados telefotos. En estos primeros aparatos se utilizaba la diferencia de resistencia para realizar la captación. El desarrollo de las células fotosensibles de selenio, en las que su resistividad varía según la luz que incide en ellas, el sistema se perfeccionó hasta tal punto que en 1926 se estableció un servicio regular de transmisión de telefotografía entre Londres y Nueva York. Las ondas de radio pronto sustituyeron a los cables de cobre, aunque nunca llegaron a eliminarlos por completo, sobre todo en los servicios punto a punto. El desarrollo de la telefotografía alcanzó su cumbre con los tele inscriptores, y su sistema de transmisión. Estos aparatos permitían recibir el periódico diario en casa del cliente mediante la impresión del mismo que se hacia desde una emisora especializada. Hasta la década de los años 80 del siglo XX se vinieron utilizando sistemas de telefoto para la transmisión de fotografías destinados a los medios de comunicación. La imagen en movimiento es lo que caracteriza a la televisión. Los primeros desarrollos los realizaron los franceses Rionoux y Fournier en 1906. Estos desarrollaron una matriz de células fotosensibles que conectaban, al principio una a una, con otra matriz de lamparillas. A cada célula del emisor le correspondía una lamparilla en el receptor. Pronto se sustituyeron los numerosos cables por un único par. Para ello se utilizó un sistema de conmutación que iba poniendo cada célula en cada instante en contacto con cada lámpara. El problema fue la sincronización de ambos conmutadores, así como la velocidad a la que debían de girar para lograr una imagen completa que fuera percibida por el ojo como tal. La necesidad de enviar la infamación de la imagen en serie, es decir utilizando solamente una vía como en el caso de la matriz fotosensible, se acepto rápidamente. En seguida se desarrollaron sistemas de exploración, también llamados de desintegración, de la imagen. Se desarrollaron sistemas mecánicos y eléctricos. En 1884 Paul Nipkow diseña y patenta el llamado disco de Nipkow, un proyecto de televisión que no podría llevarse a la práctica. En 1910, el disco de Nipkow fue utilizado en el desarrollo de los sistemas de televisión de los inicios del siglo XX y en 1925, el 25 de marzo, el inventor escocés John Logie Baird efectúa la primera experiencia real utilizando

Page 12: SEMINARIO DE TITULACIÓN “PROCESAMIENTO DIGITAL DE …

TRANSICION DE LA TELEVISION ANALOGICA A LA DIGITAL.

12

dos discos, uno en el emisor y otro en el receptor, que estaban unidos al mismo eje para que su giro fuera síncrono y separados 2m. Se transmitió una cabeza de un maniquí con una definición de 28 líneas y una frecuencia de cuadro de 14 cuadros por segundo. Baird ofreció la primera demostración pública del funcionamiento de un sistema de televisión a los miembros de la Royal Institution y a un periodista el 26 de enero de 1926 en su laboratorio de Londres. En 1927, Baird transmitió una señal a 438 millas a través de una línea de teléfono entre Londres y Glasgow. Este disco permite la realización de un barrido secuencial de la imagen mediante una serie de orificios realizados en el mismo. Cada orificio, que en teoría debiera tener un tamaño infinitesimal y en la practica era de 1mm, barría una línea de la imagen y como éstos, los agujeros, estaban ligeramente desplazados, acababan realizando el barrido total de la misma. El número de líneas que se adoptaron fue de 30 pero esto no dio los resultados deseados, la calidad de la imagen no resultaba satisfactoria. En 1928 Baird funda la compañía Baird TV Development Co para explotar comercialmente la TV. Esta empresa consiguió la primera señal de televisión transatlántica entre Londres y Nueva York. Ese mismo año Paul Nipkow ve en la Exposición de radio de Berlín un sistema de televisión funcionando perfectamente basado en su invento con su nombre al pie del mismo. En 1929 se comienzan las emisiones regulares en Londres y Berlín basadas en el sistema Nipkow Baird y que se emitía en banda media de radio. Se desarrollaron otros exploradores mecánicos como el que realizó la casa Telefunken, que dio buenos resultados, pero que era muy complejo y constaba de un cilindro con agujeros que tenían una lente cada uno de ellos. La formación de la imagen en la recepción se realizaba mediante el mismo principio que utilizaba en la captación. Otro disco similar, girando síncronamente, era utilizado para mirar a través de él una lámpara de neón cuya luminosidad correspondía a la luz captada en ese punto de la imagen. Este sistema, por el minúsculo tamaño del área de formación de la imagen, no tuvo mucho éxito, ya que únicamente permitía que ésta fuera vista por una persona, aun cuando se intentó agrandar la imagen mediante la utilización de lentes. Se desarrollaron sistemas basados en cinta en vez de discos y también se desarrolló, que fue lo que logró resolver el problema del tamaño de la imagen, un sistema de espejos montados en un tambor que realizaban la presentación en una pantalla. Para ello el tambor tenía los espejos ligeramente inclinados, colocados helicoidalmente. Este tambor es conocido como la rueda de Weiller. Para el desarrollo práctico de estos televisores fue necesaria la sustitución de la lámpara de neón, que no daba la luminosidad suficiente, por otros métodos, y entre ellos se utilizó el de poner una lampara de descarga de gas y hacer pasar la luz de la misma por una célula de Kerr que regulaba el flujo luminoso en relación a la tensión que se le aplicaba en sus bornes. El desarrollo completo del sistema se obtuvo con la utilización de la rueda fónica para realizar el sincronismo entre el emisor y el receptor.

Page 13: SEMINARIO DE TITULACIÓN “PROCESAMIENTO DIGITAL DE …

TRANSICION DE LA TELEVISION ANALOGICA A LA DIGITAL.

13

La exploración de la imagen, que se había desarrollado de forma progresiva por las experiencias de Senlecq y Nipkow se cuestiona por la exposición del principio de la exploración entrelazada desarrollado por Belin y Toulón. La exploración entrelazada solventaba el problema de la persistencia de la imagen, las primeras líneas trazadas se perdían cuando todavía no se habían trazado las últimas produciendo el conocido como efecto ola. En la exploración entrelazada se exploran primero las líneas impares y luego las pares y se realiza lo mismo en la presentación de la imagen. Brillounin perfecciona el disco de Nipkow para que realice la exploración entrelazada colocándole unas lentes en los agujeros aumentando así el brillo captado. En 1932 se realizan las primeras emisiones en París. Estas emisiones tienen una definición de 60 líneas pero tres años después se estaría emitiendo con 180. La precariedad de las células empleadas para la captación hacía que se debiera iluminar muy intensamente las escenas produciendo muchísimo calor que impedía el desarrollo del trabajo en los platós. La rueda fónica fue el sistema de sincronización mecánico que mejores resultados dio. Consistía en una rueda de hierro que tenia tantos dientes como agujeros había en el tambor o disco. La rueda y el disco estaban unidos por el mismo eje. La rueda estaba en medio de dos bobinas que eran recorridas por la señal que llegaba del emisor. En el centro emisor se daba, al comienzo de cada agujero, principio de cada línea, un pulso mucho más intenso y amplio que las variaciones habituales de las células captadoras, que cuando era recibido en el receptor al pasar por las bobinas hace que la rueda dé un paso posicionando el agujero que corresponde. En 1937 comenzaron las transmisiones regulares de TV electrónica en Francia y en el Reino Unido. Esto llevó a un rápido desarrollo de la industria televisiva y a un rápido aumento de telespectadores aunque los televisores eran de pantallas pequeñas y muy caras. Estas emisiones fueron posibles por el desarrollo de los siguientes elementos en cada extremo de la cadena. La implementación del llamado tubo de rayos catódicos o tubo de Braun, por S. Thomson en 1895 fue un precedente que tendría gran transcendencia en la televisión, si bien no se pudo integrar, debido a las deficiencias tecnológicas, hasta entrado el siglo XX y que perdura en la primera mitad del XXI. Desde los comienzos de los experimentos sobre los rayos catódicos hasta que el tubo se desarrolló lo suficiente para su uso en la televisión fueron necesarios muchos avances en esa investigación. Las investigaciones de Wehnelt, que añadió su cilindro, los perfeccionamientos de los controles electrostático y electromagnéticos del haz, con el desarrollo de las llamadas "lentes electrónicas" de Vichert y los sistemas de deflexión permitieron que el investigador Holweck desarrollara el primer tubo de Braum destinado a la televisión. Para que este sistema trabajase correctamente se tuvo que construir un emisor especial, este emisor lo realizó Belin que estaba basado en un espejo móvil y un sistema mecánico para el barrido.

Page 14: SEMINARIO DE TITULACIÓN “PROCESAMIENTO DIGITAL DE …

TRANSICION DE LA TELEVISION ANALOGICA A LA DIGITAL.

14

Una vez resuelto el problema de la presentación de la imagen en la recepción quedaba por resolver el de la captación en el emisor. Los exploradores mecánicos frenaban el avance de la técnica de la TV. Era evidente que el progreso debía de venir de la mano de la electrónica, como en el caso de la recepción. El 27 de enero de 1926 John Logie Baird hizo una demostración ante la Real Institución de Inglaterra, el captador era mecánico, compuesto de tres discos y de construcción muy rudimentaria. La primera imagen sobre un tubo de rayos catódicos se formó en 1911 en el Instituto Tecnológico de San Petersburgo y consistía en unas rayas blancas sobre fondo negro y fueron obtenidas por Boris Rosing en colaboración con Zworrykin. La captación se realizaba mediante dos tambores de espejos (sistema Weiller) y generaba una exploración entrelazada de 30 líneas y 12,5 cuadros por segundo. Las señales de sincronismo eran generadas por potenciómetros unidos a los tambores de espejos que se aplicaban a las bobinas deflexoras del TRC, cuya intensidad de haz era proporcional a la iluminación que recibía la célula fotoeléctrica. Los transductores diseñados fueron la base para las cámaras de televisión. Estos equipos integraban, e integran, todo lo necesario para captar una imagen y transformarla en una señal eléctrica. La señal, que contiene la información de la imagen más los pulsos necesarios para el sincronismo de los receptores, se denomina señal de vídeo. Una vez que se haya producido dicha señal, ésta puede ser manipulada de diferentes formas, hasta su emisión por la antena, el sistema de difusión deseado. La señal transducida de la imagen contiene la información de ésta, pero como hemos visto, es necesario, para su recomposición, que haya un perfecto sincronismo entre la deflexión de exploración y la deflexión en la representación. La exploración de una imagen se realiza mediante su descomposición, primero en fotogramas a los que se llaman cuadros y luego en líneas, leyendo cada cuadro. Para determinar el número de cuadros necesarios para que se pueda recomponer una imagen en movimiento así como el número de líneas para obtener una óptima calidad en la reproducción y la óptima percepción del color (en la TV en color) se realizaron numerosos estudios empíricos y científicos del ojo humano y su forma de percibir. Se obtuvo que el número de cuadros debía de ser al menos de 24 al segundo (luego se emplearon por otras razones 25 y 30) y que el número de líneas debía de ser superior a las 300. La señal de vídeo la componen la propia información de la imagen correspondiente a cada línea (en el sistema PAL 625 líneas y en el NTSC 525 por cada cuadro) agrupadas en dos grupos, las líneas impares y las pares de cada campo, a cada un de estos grupos de líneas se les denomina campo (en el sistema PAL se usan 25 cuadros por segundo mientras que en el sistema NTSC 30). A esta información hay que añadir la de sincronismo, tanto de cuadro como de línea, esto es, tanto vertical como horizontal. Al estar el cuadro dividido en dos campos tenemos por cada cuadro un sincronismo vertical que nos señala el comienzo y el tipo de campo, es decir cuando empieza el campo impar y cuando empieza el campo par. Al comienzo de cada línea se añade el pulso de sincronismo de línea u horizontal

Page 15: SEMINARIO DE TITULACIÓN “PROCESAMIENTO DIGITAL DE …

TRANSICION DE LA TELEVISION ANALOGICA A LA DIGITAL.

15

(modernamente con la TV en color también se añade información sobre la sincronía del color). La codificación de la imagen se realiza entre 0V para el negro y 0,7V para el blanco. Para los sincronismos se incorporan pulsos de -0,3V, lo que da una amplitud total de la forma de onda de vídeo de 1V. Los sincronismos verticales están constituidos por una serie de pulsos de -0,3V que proporcionan información sobre el tipo de campo e igualan los tiempos de cada uno de ellos. El sonido, llamado audio, es tratado por separado en toda la cadena de producción y luego se emite junto al vídeo en una portadora situada al lado de la encargada de transportar la imagen.

1.1.1 EL DESARROLLO DE LA TELEVISIÓN.

En 1945 se establecen las normas CCIR que regulan la exploración, modulación y transmisión de la señal de TV. Había multitud de sistemas que tenían resoluciones muy diferentes, desde 400 líneas a hasta más de 1.000. Esto producía diferentes anchos de banda en las transiciones. Poco a poco se fueron concentrando en dos sistemas, el de 512 líneas, adoptado por EE.UU. y el de 625 líneas, adoptado por Europa (España adoptó las 625 líneas en 1951). También se adoptó muy pronto el formato de 4/3 para la relación de aspecto de la imagen. Es a mediados del siglo XX donde la televisión se convierte en bandera tecnológica de los países y cada uno de ellos va desarrollando sus sistemas de TV nacionales y privados. En 1953 se crea Eurovisión que asocia a varios países de Europa conectando sus sistemas de TV mediante enlaces de microondas. Unos años más tarde, en 1960, se crea Mundovisión que comienza a realizar enlaces con satélites geoestacionarios cubriendo todo el mundo. La producción de televisión se desarrolló con los avances técnicos que permitieron la grabación de las señales de vídeo y audio. Esto permitió la realización de programas grabados que podrían ser almacenados y emitidos posteriormente. A finales de los años 50 del siglo XX se desarrollaron los primeros magnetoscopios y las cámaras con ópticas intercambiables que giraban en una torreta delante del tubo de imagen. Estos avances, junto con los desarrollos de las máquinas necesarias para la mezcla y generación electrónica de otras fuentes, permitieron un desarrollo muy alto de la producción. En los años 70 se implementaron las ópticas Zoom y se empezaron a desarrollar magnetoscopios más pequeños que permitían la grabación de las noticias en el campo. Nacieron los equipos periodismo electrónico o ENG. Poco después se comenzó a desarrollar equipos basados en la digitalización de la señal de vídeo y en la generación digital de señales, nacieron de esos desarrollos los efectos digitales y las paletas gráficas. A la vez que el control de las máquinas permitía el montaje de salas de postproducción que, combinando varios elementos, podían realizar programas complejos.

Page 16: SEMINARIO DE TITULACIÓN “PROCESAMIENTO DIGITAL DE …

TRANSICION DE LA TELEVISION ANALOGICA A LA DIGITAL.

16

El desarrollo de la televisión no se paró con la transmisión de la imagen y el sonido. Pronto se vio la ventaja de utilizar el canal para dar otros servicios. En esta filosofía se implementó, a finales de los años 80 del siglo XX el teletexto que transmite noticias e información en formato de texto utilizando los espacios libres de información de la señal de vídeo. También se implementaron sistemas de sonido mejorado, naciendo la televisión en estéreo o dual y dotando al sonido de una calidad excepcional, el sistema que logró imponerse en el mercado fue el NICAM.

1.1.2 LA INGENIERIA DEL VIDEO EN LA TELEVISIÓN A COLOR.

Al término de la guerra, la industria de la TV tomó un nuevo ímpetu. Europa adoptó un sistema de 625 líneas, mientras que Francia poseía uno de 819. Inglaterra mantuvo el suyo de 405 y USA. Estandarizó su sistema de 525 líneas.

Los diferentes estudios realizados a fin de desarrollar la TV en colores, volvía a poner en jaque la compatibilidad que el público requería de los aparatos. Los intereses económicos de las grandes compañías presionaron fuertemente para que se adoptase un sistema de color no compatible a todos los aparatos. Aunque, ciertamente fue la gran cantidad de televisores vendidos en aquel entonces (sobre los 10 millones), el hecho motivó el acuerdo de desarrollar una TV color plenamente compatible.

Otro problema que se suscitaba era la doble compatibilidad directa e inversa, es decir, que una señal en color se viera en un TV en B/N y una señal B/N se viera en un TV color. Al final, el sistema de compatibilidad se logró, adoptando desde 1953 el nombre del comité regulador, conocido como sistema NTSC. Pero, este desarrollo también llegó a los países europeos quienes no quisieron transar sus orgullos nacionales. Francia simplemente no quiso estandarizar su sistema al americano y crea su propio sistema de TV en colores: el SECAM (Sequentiel Couleur A Memorie), desarrollado en 1967 con una definición de 625 líneas. Alemania hace lo propio y en el mismo año 67 crea el sistema PAL (Phase Alternation Line), también de 625 líneas desarrollado por la empresa TELEFUNKEN. Según las opiniones de los ingenieros, esta es la mejor de las tres.

1.1.3 HISTORIA DE LA TELEVISIÓN EN MÉXICO.

A pesar de que las transmisiones de televisión en México se iniciaron oficialmente en 1950, la historia de este medio de comunicación en nuestro país se remonta varios años atrás. Dos décadas antes de ese comienzo formal, técnicos mexicanos ya experimentaban con la transmisión de imágenes a distancia, a veces con sus propios --y generalmente muy modestos-- recursos o con apoyo gubernamental. Más tarde, empresarios como Emilio Azcárraga Vidaurreta también destinarían recursos a la experimentación televisiva cuando, a mediados de los años cuarenta, el nuevo medio de comunicación mostraba ya potencial para convertirse en un gran negocio.

A partir del último bienio de la década de los veinte, y de manera especial a partir de los años cincuenta en que la televisión comienza a funcionar de manera cotidiana y a transformarse en una presencia de singular importancia en la vida cultural, política y económica de México,

Page 17: SEMINARIO DE TITULACIÓN “PROCESAMIENTO DIGITAL DE …

TRANSICION DE LA TELEVISION ANALOGICA A LA DIGITAL.

17

ocurren una gran cantidad de acontecimientos que van conformando el complejo fenómeno en que la TV se ha convertido en nuestros días. En las siguientes líneas se incluye la descripción de algunos de los acontecimientos más relevantes en el desarrollo de la televisión en nuestro país, desde los experimentos de pioneros como los ingenieros Francisco Javier Stavoli y Guillermo González Camarena hasta la utilización de satélites de difusión directa para transmitir señales de televisión a los hogares. Asimismo, en la parte final del texto, se presenta un apéndice estadístico que ilustra el desarrollo cuantitativo de esta actividad que es a la vez medio de información, forma de entretenimiento, instrumento para la publicidad, foro para el debate político y escenario para la experimentación y la evolución tecnológica.

1928 - 1930

PIONEROS: Los primeros experimentos de televisión en México corren a cargo de los ingenieros Francisco Javier Stavoli y Miguel Fonseca, ambos profesores de la Escuela Superior de Ingeniería Mecánica y Eléctrica (ESIME) y del Instituto Técnico Industrial. Stavoli era, además, el encargado técnico de la emisora XEFO del Partido Nacional Revolucionario (PNR), instalada en 1930 e inaugurada el 1 de enero de 1931, por lo que esa organización política le otorgó apoyo económico para viajar a Estados Unidos donde adquirió un equipo completo de televisión integrado por dos cámaras de exploración mecánica a base del disco Nikov, un transmisor y varios receptores, así como equipo adicional para realizar transmisiones experimentales.

1931

PRIMERA TRANSMISION: El equipo traído a México por el ingeniero Stavoli se instala en el edificio de la ESIME, ubicado en la calle de Allende, en el centro de la Ciudad de México, y la antena transmisora se coloca en la iglesia de San Lorenzo, sita en la esquina que forman Allende y Belisario Domínguez. Después de realizar algunas pruebas de campo, se lleva a cabo la transmisión inicial: el rostro de la señora Amelia Fonseca, esposa del ingeniero Stavoli, es la primera imagen que se transmite en México por televisión.

1934

GENIO EN FORMACION: Un destacado alumno del ingeniero Stavoli, el joven Guillermo González Camarena, nacido en Guadalajara, Jalisco, en 1917, comienza a realizar por su cuenta programas experimentales de televisión: para ello cuenta con la ayuda de las actrices Emma Telmo y Rita Rey. González Camarena recorre los mercados de Tepito y La Lagunilla en busca de piezas de desecho que utiliza para construir ese año la primera cámara de televisión completamente electrónica hecha en México. El joven jalisciense ingresa a la Escuela Superior de Ingeniería Mecánica y Eléctrica, pero sólo cursa dos años, pues obtiene la licencia de operador expedida por la Secretaría de Comunicaciones y Obras Públicas y comienza a trabajar en la radiodifusora de la Secretaría de Educación Pública. A pesar de no haberse titulado como ingeniero, sus conocimientos técnicos llegan a ser de primer nivel, a tal grado que en 1957 el Columbia College de Los Angeles, California, Estados Unidos, le otorga el título de Doctor Honoris Causa en Ciencias.

Page 18: SEMINARIO DE TITULACIÓN “PROCESAMIENTO DIGITAL DE …

TRANSICION DE LA TELEVISION ANALOGICA A LA DIGITAL.

18

1935

APOYO GUBERNAMENTAL: Por disposición del Presidente de la República, general Lázaro Cárdenas del Río, los estudios de la radiodifusora XEFO del Partido Nacional Revolucionario le son facilitados al ingeniero González Camarena para que continúe sus experimentos en materia televisiva. Asimismo, la emisora se encarga de traer un equipo de televisión a México.

TRANSMISION DEL PNR: El 16 de mayo el Partido Nacional Revolucionario convoca a la prensa para mostrar públicamente el equipo de televisión que planea adquirir con el fin de integrarlo a su proyecto de "propaganda y difusión cultural". Se realiza una transmisión desde el edificio ubicado en Paseo de la Reforma número 18, la cual es dirigida por el ingeniero Javier Stavoli.

1940

TV A COLORES: El 19 de agosto el ingeniero González Camarena patenta en México --con el número de registro 40 235-- su sistema de televisión tricromático basado en los colores verde azul y rojo. Además, diseña una cámara con tubo orticón e ingresa a la XEW como operador.

1942

PATENTE INTERNACIONAL: Guillermo González Camarena patenta en Estados Unidos --con el número de registro 2 296 019-- el sistema de televisión tricromático. También inicia la realización de transmisiones experimentales desde su domicilio ubicado en la calle de Havre número 74, Ciudad de México.

1946

XHIGC: El 7 de septiembre, a las 14.30 horas, se inaugura la estación experimental XHIGC, instalada y operada por el ingeniero González Camarena. Las transmisiones regulares se llevan a cabo los sábados y se hacen desde el domicilio de González Camarena (Havre 74) a los estudios de la XEW o de la XEQ. Las señales también son recibidas en las instalaciones de la Liga Mexicana de Radio Experimentadores, en la esquina de Bucareli y Lucerna.

1947

COMISION INBA: El Presidente de la República, Miguel Alemán Valdés, solicita al músico Carlos Chávez, director del Instituto Nacional de Bellas Artes (INBA), que nombre una comisión encargada de analizar cuál de los dos sistemas de televisión predominantes en el mundo, el estadunidense (comercial-privado) y el británico (monopolio estatal), es el más conveniente para México. La Comisión del INBA se integra por el escritor Salvador Novo y por el ingeniero Guillermo González Camarena quienes, durante el mes de octubre, viajan por Estados Unidos y Europa para cumplir con la instrucción presidencial.

Page 19: SEMINARIO DE TITULACIÓN “PROCESAMIENTO DIGITAL DE …

TRANSICION DE LA TELEVISION ANALOGICA A LA DIGITAL.

19

"VEASE EN TV": Antes de emprender su viaje de estudio, Guillermo González Camarena instala, en el mes de septiembre, algunos circuitos cerrados de televisión en las tiendas más importantes de la Ciudad de México y en los cines de la Cadena de Oro, en ese momento propiedad de Emilio Azcárraga Vidaurreta. En estas demostraciones se invita al público asistente a mirar su imagen en el receptor de televisión a la vez que se anuncian diversos productos y servicios. El interés que despiertan estos circuitos cerrados es tal que continúan instalándose hasta 1950, poco "tiempo antes de la inauguración formal de las transmisiones de TV en México.

1948

INVESTIGACION CONCLUIDA: La Comisión del INBA entrega al presidente Miguel Alemán el resultado de la investigación encomendada. El texto consta de dos partes. La primera, escrita por Salvador Novo, se refiere a los aspectos administrativos, de organización, financiamiento y contenido programático de los sistemas de televisión estadunidense y británico. No recomienda explícitamente que se adopte alguno de los dos en México, sin embargo vierte elogios con respecto a la televisión británica, operada por la British Broadcasting Corporation (BBC).

La segunda parte, elaborada por el ingeniero González Camarena, constituye una recomendación formal para que México adopte el sistema estadunidense. Las razones expuestas son de índole técnica y económica: se argumenta que todos los experimentos hechos en México hasta ese momento se han realizado con base en las especificaciones técnicas vigentes en Estados Unidos, que los aparatos fabricados en México funcionan de acuerdo con esas especificaciones y, por último, que para poner a funcionar la televisión en el país será necesario importar una gran cantidad de aparatos receptores y resultará mucho más fácil traerlos de Estados Unidos que de Europa.

LABORATORIOS GON-CAM: En agosto, la Secretaría de Economía expide el permiso oficial para que los laboratorios GON-CAM, propiedad de Guillermo González Camarena, operen comercialmente. En las instalaciones de esta empresa se fabrican equipos transmisores de televisión, generadores de sincronía, consolas de operación, amplificadores de distribución, mezcladoras de audio y video, y antenas de transmisión. Entrevistado por la revista Transmisiones González Camarena declara que "el dinero invertido en los experimentos (de televisión) es incalculable y el apoyo económico para costearlos se debe a don Emilio Azcárraga" (número 21, marzo-abril de 1948, p.p. 21-22).

PRIMER CONTROL REMOTO: En el mes de septiembre se realiza, con la dirección del ingeniero González Camarena, el primer control remoto desde la Exposición Objetiva Presidencial, un evento organizado por el gobierno de la república en el Palacio de Minería como complemento al segundo informe de gobierno del presidente Miguel Alemán Valdés.

TV EN LA EDUCACION: Se realiza la primera demostración de televisión en blanco y negro con fines educativos. Ello ocurre durante la celebración de la VII Asamblea de Cirujanos, que se efectúa en el Hospital Juárez de la Ciudad de México, cuando con la

Page 20: SEMINARIO DE TITULACIÓN “PROCESAMIENTO DIGITAL DE …

TRANSICION DE LA TELEVISION ANALOGICA A LA DIGITAL.

20

dirección del ingeniero González Camarena se transmite en circuito cerrado una intervención quirúrgica.

1949

PRIMERA CONCESION: Se otorga la primera concesión para operar comercialmente un canal de televisión. Se trata de XHTV, Canal 4. El titular de la misma es la empresa Televisión de México, S.A., propiedad de Rómulo O'Farril, dueño en esa época del diario Novedades de la Ciudad de México.

EDUCACION Y TV A COLOR: En el marco de la IX Asamblea de Cirujanos se realiza por primera vez en México una transmisión de televisión a colores. Se trata de una intervención quirúrgica a través de un circuito cerrado. Es también el ingeniero González Camarena quien dirige la transmisión cuya importancia consiste en que ya no sólo se trata de un experimento de laboratorio con TV a colores --cosa que el propio González Camarena hacía desde 10 años antes-- sino una transmisión en circuito cerrado para un auditorio integrado por médicos.

SEGUNDO CONTROL REMOTO: Se realiza en el mes de septiembre el segundo control remoto televisivo, en esta ocasión desde la Exposición Objetiva Presidencial instalada en el Estadio Nacional. Nuevamente González Camarena está a cargo de la dirección.

1950

CANAL 5: En el mes de enero, el ingeniero Guillermo González Camarena obtiene la concesión para explotar comercialmente el Canal 5 al que decide asignar las siglas XHGC, cuyas últimas dos letras corresponden a las iníciales de sus apellidos. El equipo técnico con el que habrá de operar la emisora se fabrica en los laboratorios GON-CAM, propiedad del destacado ingeniero. Se decide, asimismo, ubicar los estudios en el edificio del teatro Alameda, facilitado por Emilio Azcárraga Vidaurreta, su propietario, y donde se localizan también las instalaciones de la radiodifusora XEQ. La antena se levanta en el edificio de la empresa Seguros de México, en la calle de San Juan de Letrán.

NORMAS TECNICAS: El 11 de febrero se publica en el Diario Oficial de la Federación el "Decreto que fija las normas que deberán observar para su instalación y funcionamiento las estaciones radiodifusoras de televisión", primera disposición legal específica e el documento contiene se basan en las recomendaciones formuladas por el ingeniero González Camarena en el informe entregado por la Comisión INBA al presidente Miguel Alemán en 1948 en el sentido de adoptar el sistema técnico estadunidense. González Camarena había sido nombrado en 1949, por el Presidente de la República, asesor de la comisión que elaboró el mencionado decreto.

INICIO FORMAL: El día 1 de septiembre el Canal 4 inicia sus transmisiones regulares con la difusión del IV Informe de Gobierno del presidente Miguel Alemán Valdés. Previamente, durante los meses de julio y agosto, se realizan transmisiones de prueba, la primera de las cuales se lleva a cabo el 26 de julio. Aunque se considera a la transmisión del informe presidencial como el inicio formal de la TV en México, la inauguración oficial del Canal 4 se

Page 21: SEMINARIO DE TITULACIÓN “PROCESAMIENTO DIGITAL DE …

TRANSICION DE LA TELEVISION ANALOGICA A LA DIGITAL.

21

lleva a cabo un día antes, el 31 de agosto de 1950, con un programa "artístico musical" desde el Jockey Club del Hipódromo de las Américas al cual asiste con la representación gubernamental el secretario de Comunicaciones, Agustín García López.

Los estudios del Canal 4 se ubican en los pisos 13 y 14 del edificio de la Lotería Nacional y su antena en la parte más alta de ese inmueble. El equipo técnico se compra a la empresa Radio Corporation of America (RCA). Más tarde, en 1951, al incrementarse sus necesidades de producción, el Canal 4 instala dos nuevos estudios, uno ubicado en la calle de Bucareli número 4, y otro en la calle de Balderas, en el edificio ocupado por la Asociación Cristiana de Jóvenes.

1951

CANAL 2: El 21 de marzo se inician las transmisiones regulares del Canal 2, XEW TV, concesionado a la empresa Televimex, S.A., porpiedad de Emilio Azcárraga Vidaurreta. El programa inaugural es un encuentro de beisbol transmitido en control remoto desde el Parque Delta (más tarde llamado Parque Deportivo del Seguro Social), en la Ciudad de México. Desde octubre de 1950, el canal lleva a cabo transmisiones de prueba. Sus estudios se encuentran en la Avenida Chapultepec en un edificio que había comenzado a construirse en 1943 con la idea de llamarlo Radiópolis y diseñado para albergar ahí a las emisoras XEW y XEQ, pero que en 1948, ante la inminencia de la llegada de la televisión, se decide convertir en Televicentro. Las operaciones del canal empiezan sin que el edificio se encuentre terminado. La inauguración oficial de Televicentro ocurre hasta el 12 de enero de 1952 con la transmisión de una función de lucha libre. El equipo técnico con que el Canal 2 inicia sus transmisiones proviene de las empresas estadunidenses General Electric y Laboratorios Dumont.

1952

CANAL 5, AL AIRE: El 10 de mayo, el Canal 5, concesionado dos años antes a la empresa Televisión González Camarena, S.A., inaugura formalmente sus operaciones con la transmisión, a control remoto desde el teatro Alameda, de un festival organizado por el periódico Excélsior con motivo del Día de la Madres. No obstante, las transmisiones regulares dan comienzo hasta el 18 de agosto de ese año.

1955

TELESISTEMA MEXICANO: El 26 de marzo las empresas concesionarias de los canales 2, 4 y 5 anuncian que han decidido fusionarse en una sola entidad, llamada Telesistema Mexicano, la cual se encargará de administrar y operar esas frecuencias. Previamente, en 1954, los canales 2 y 5 habían llegado a un acuerdo de fusión. Emilio Azcárraga Vidaurreta declara a la prensa que: "Telesistema Mexicano S.A., ha nacido como un medio de defensa de las tres empresas que estaban perdiendo muchos millones de pesos. Todos los programas se originarán desde Televicentro, que se convertirá en la gran central de televisión" (Boletín Radiofónico, número 62, 31 de marzo de 1955). El cuerpo directivo de Telesistema Mexicano queda integrado de la siguiente forma: Emilio Azcárraga Vidaurreta, presidente y

Page 22: SEMINARIO DE TITULACIÓN “PROCESAMIENTO DIGITAL DE …

TRANSICION DE LA TELEVISION ANALOGICA A LA DIGITAL.

22

gerente general; Rómulo O'Farril, vicepresidente; Emilio Azcárraga Milmo y Rómulo O'Farril Jr., gerentes; Antonio Cabrera, subgerente administrativo; Luis de Llano, subgerente de producción y programación; Miguel Pereyra, subgerente técnico; y Ernesto Barrientos Reyes, subgerente de ventas. Las acciones de la empresa quedan distribuidas así: Emilio Azcárraga Vidaurreta, 4 mil; Rómulo O'Farril, 4 mil; Emilio Azcárraga Milmo, 500; Rómulo O'Farril, 500; Ernesto Barrientos Reyes, 500; y Fernando Díez Barroso, 500. En total 10 mil acciones con valor de mil pesos cada una que hace un capital de 10 mil pesos.

EXPANSION: La fusión de los canales 2, 4 y 5 en Telesistema Mexicano permite ampliar la cobertura territorial de la TV. Ya en 1952, el Canal 2 había iniciado la construcción de una estación repetidora --XEQ TV, Canal 9-- en el paraje conocido como Paso de Cortés ubicado entre los volcanes Popocatépetl e Iztaccíhuatl. En 1955 Telesistema coloca en el mismo lugar, a una altura de 4 mil 200 metros sobre el nivel del mar, otra estación repetidora con una potencia de 7.5 kilowatts, con lo cual los programas del Canal 4 pueden ser vistos en el sureste y suroeste de México, desde el Golfo hasta el Pacífico. En 1956 comienza a funcionar una nueva repetidora: XEAW TV, ubicada en el cerro de El Zamorano, en Guanajuato. La estación tiene una potencia de 30 kilowatts y se localiza a una altura de 2 mil 800 metros sobre el nivel del mar, lo que permite hacer llegar los programas del Canal 2 a los estados de Michoacán, Tamaulipas, San Luis Potosí y Querétaro. Además de estas y otras repetidoras, Telesistema Mexicano cuenta con televisoras locales en varias ciudades del país como Guadalajara, Monterrey y Tijuana. En esta ciudad fronteriza funciona desde 1954, antes de la constitución de Telesistema, el Canal 6 propiedad de Emilio Azcárraga Vidaurreta y Clemente Serna Martínez, el cual transmite en inglés.

1958

LLEGA EL VIDEOTAPE: El año de 1956 Telesistema Mexicano inicia negociaciones con la empresa Ampex para adquirir equipo de grabación en cinta de video que ese año había salido al mercado. Dos años después, en 1958, Telesistema adquiere, a través de su canal filial XEFBTV de Monterrey, la primera máquina de video tape que opera en el país. Esta innovación tecnológica revoluciona la producción televisiva en nuestro país, ya que permite grabar y editar los programas reduciendo drásticamente la "salida al aire" de errores. Asimismo, la grabación en cinta de video da Telesistema Mexicano la oportunidad de exportar programas, especialmente telenovelas, a Latinoamérica y Estados Unidos. El 3 de abril de 1959 se difunde el primer programa grabado en video tape en México, se trata de un capítulo de la serie Puerta de suspenso.

Para grabar programas de televisión se utilizaba anteriormente una técnica llamada kinescopio, a base de película cinematográfica de 16 milímetros, pero la calidad de la imagen obtenida era muy deficiente.

1959

CANAL 11, AL AIRE: El 2 de marzo, de las 18.00 a las 20.00 horas, el Canal 11, XEIPN, dependiente del Instituto Politécnico Nacional, realiza su primera transmisión de manera oficial. Un documental y una clase de matemáticas son los primeros programas que salen al

Page 23: SEMINARIO DE TITULACIÓN “PROCESAMIENTO DIGITAL DE …

TRANSICION DE LA TELEVISION ANALOGICA A LA DIGITAL.

23

aire. El apoyo del director del IPN, Alejo Peralta, y del secretario de Comunicaciones y Transportes, Walter Cross Buchanan, es fundamental para que esa institución educativa obtenga el permiso para operar el Canal 11. Unos meses antes, en diciembre de 1958, el 11 había iniciado pruebas transmitiendo dos horas por la mañana y dos por la tarde.

1960

MARCO LEGAL: El Diario Oficial de la Federación publica el 19 de enero la Ley Federal de Radio y Televisión, ordenamiento jurídico específico para estos dos medios antes regidos por la Ley de Vías Generales de Comunicación y por reglamentos derivados de ésta.

Entre los aspectos sobresalientes de esta ley está la definición de la radio y la televisión como medios de interés público y el establecimiento del régimen de concesiones y permisos a que están sujetos ambos medios. Según la ley pueden existir estaciones concesionadas, las cuales están facultadas para transmitir anuncios comerciales, y estaciones permisionadas cuya administración se encomienda a entidades no lucrativas que, por lo tanto, no pueden hacer uso comercial de las frecuencias de radio y TV.

NUEVO SISTEMA CROMATICO: El ingeniero Guillermo González Camarena obtiene en México y Estados Unidos la patente de un nuevo sistema de TV a colores llamado caleidoscopio.

1961

INTERNACIONALIZACION: Telesistema Mexicano instala en San Antonio, Texas, su primera filial en territorio estadunidense, dirigida al público hispanoparlante de ese país.

1962

MÁS TV A COLORES: Guillermo González Camarena patenta en México, Estados Unidos y otras naciones otro sistema de televisión a colores: el bicolor simplificado, que se establece a base de los colores verde-naranja y verde-azul.

1963

INICIA LA TV A COLORES: En noviembre de 1962, el ingeniero Guillermo González Camarena obtiene la autorización para efectuar a través de un canal abierto, ya no como experimento, sino con carácter comercial, transmisiones de televisión a colores. La primera transmisión se realiza el 8 de febrero de 1963 en el Canal 5 con el programa Paraíso Infantil, que a partir de esa fecha se transmite cada sábado (originalmente se planeaba que la primera transmisión fuera el 21 de enero de ese mismo año, pero problemas técnicos lo impidieron).

Al principio las transmisiones a colores son escasas por la insuficiencia de equipo en las televisoras, y privilegio de una minoría, pues la oferta de aparatos receptores capaces de registrar esas señales es mínima y su consumo está reservado para sectores muy reducidos (la

Page 24: SEMINARIO DE TITULACIÓN “PROCESAMIENTO DIGITAL DE …

TRANSICION DE LA TELEVISION ANALOGICA A LA DIGITAL.

24

mayor parte de las personas que sienten curiosidad por ver la TV cromática acuden a tiendas comerciales en donde se instalan aparatos receptores).

Con el tiempo, el número de programas que se transmiten a color aumenta: Escaparate 360, Los Thunderbirds, Telemundo y muchos más. Para 1967 se llevan a cabo varias transmisiones especiales a colores como el tercer Informe de Gobierno del presidente Gustavo Díaz Ordaz y la pelea de revancha por el campeonato mundial de peso pluma entre Vicente Saldívar y Howard Winstone celebrada en el estadio Azteca.

TRANSMISIONES INTERNACIONALES: Llegan a nuestro país las primeras transmisiones internacionales en vivo. Se trata de imágenes transmitidas a México por microondas --todavía no por satélite-- provenientes de Estados Unidos. El primer suceso de importancia mundial que la televisión mexicana difunde en vivo y en directo es el lanzamiento de la nave Mercury IX con el cosmonauta Gordon Cooper a bordo. También en 1963 se reciben en México las escenas del funeral de John F. Kennedy, asesinado en noviembre de ese año, y la coronación del Papa Paulo VI. Este último acontecimiento se transmite de Roma a Nueva York por satélite y de ahí a México por microondas.

1964

JUEGOS OLIMPICOS: En octubre el satélite estadunidense Syncom III transmite desde Tokio, Japón, los Juegos Olímpicos realizados ese año. Las imágenes de la inauguración llegan a Estados Unidos vía satélite y luego a México por microondas.

1965

PAJARO MADRUGADOR: En abril es colocado en órbita el Pájaro Madrugador (Early Bird), primer satélite comercial de comunicaciones, gracias al cual pueden verse en México la pelea por el campeonato mundial de peso pluma entre Vicente Saldívar y Howard Winstone (1965), el Campeonato Mundial de Futbol de Inglaterra (1966) y el célebre programa internacional Nuestro Mundo (1967) en el que la televisión mexicana participa transmitiendo en vivo el nacimiento de un niño y un espectáculo de danza prehispánica. México aún no tiene infraestructura propia para la comunicación vía satélite, por lo que las imágenes provenientes de Europa llegan primero a Estados Unidos y luego se envían a nuestro país por microondas; asimismo, las señales que tienen su origen en México viajan primero vías microondas al país vecino en donde son "subidas" al satélite.

ALFABETIZACION POR TV: Se inicia formalmente la televisión educativa en México al ponerse en práctica, por parte de la Secretaría de Educación Pública, un plan piloto de alfabetización, a través de circuito cerrado, gracias al cual mil quinientas personas aprenden a leer y escribir. En 1967 se empieza a utilizar la televisión abierta como medio de educación a distancia.

TELESECUNDARIA: Se inicia en nuestro país la Telesecundaria mediante la transmisión en circuito cerrado de la serie Yo puedo hacerlo que consta de 82 programas. Para 1968, la

Page 25: SEMINARIO DE TITULACIÓN “PROCESAMIENTO DIGITAL DE …

TRANSICION DE LA TELEVISION ANALOGICA A LA DIGITAL.

25

Telesecundaria comienza a difundirse de manera abierta a través del Canal 5 llegando a ocho entidades de la república.

MUERE GONZALEZ CAMARENA: El 18 de abril muere en un accidente automovilístico el ingeniero Guillermo González Camarena, personaje fundamental en la historia de la televisión mexicana.

RED DE MICROONDAS: Al concluir el primer lustro de los años sesenta, las estaciones repetidoras, comúnmente llamadas de microondas, llevan la imagen televisiva a 26 estados de la república mediante una red cuya construcción se había iniciado en 1955 con la construcción de tres rutas: la de occidente, la del sureste y la del norte. En 1965, el gobierno decide ampliar esta infraestructura y crear una Red Federal de Microondas que abarque todo el territorio nacional. La nueva red se integra por dos rutas centrales que van de frontera a frontera, rutas costaneras en el Golfo y el Pacífico, así como por rutas transversales. Para 1970 cuenta ya con 65 estaciones terminales, 207 repetidoras y 12 mil 800 kilómetros de longitud.

1966

INGRESO A INTELSAT: México ingresa a la Organización Internacional de Comunicaciones por Satélite (INTELSAT), con lo cual obtiene el derecho de utilizar los artefactos espaciales propiedad de ese consorcio.

1968

INFRAESTRUCTURA DE TELECOMUNICACIONES: Se concluyen los trabajos de la Red Nacional de Telecomunicaciones iniciados desde 1963. El sistema incluye la Red Federal de Microondas, la Estación Terrestre para Comunicaciones Espaciales de Tulancingo (para envío y recepción de señales por satélite) conectada a los satélites INTELSAT II y III, y la Torre de Telecomunicaciones en la Ciudad de México.

XIX JUEGOS OLIMPICOS: México se integra de lleno a la comunicación vía satélite. Se transmiten desde nuestro país los juegos de la XIX Olimpiada cuya audiencia acumulada en todo el planeta supera los 900 millones de personas, la mayor alcanzada hasta ese momento en la historia de la televisión. Para tal efecto se utiliza el satélite ATS-3, propiedad de la NASA y rentado por Intelsat. A partir de 1969 se establece una conexión internacional permanente de nuestro país con el exterior a través del satélite INTELSAT III colocado sobre el océano Atlántico.

En 1970 se realiza desde México otro conjunto de transmisiones con relieve internacional al celebrarse aquí el Campeonato Mundial de Futbol.

CANAL 8: El 1 de septiembre el presidente Díaz Ordaz rinde su IV Informe de Gobierno; su mensaje es transmitido por dos nuevos canales de televisión: XHTIM, Canal 8, y XHDF, Canal 13.

Page 26: SEMINARIO DE TITULACIÓN “PROCESAMIENTO DIGITAL DE …

TRANSICION DE LA TELEVISION ANALOGICA A LA DIGITAL.

26

La concesión del Canal 8 se otorga el 24 de junio de 1967 a la empresa Fomento de Televisión S.A. Con el fin de fortalecer financieramente la puesta en marcha de la emisora, la nueva concesionaria se asocia con la empresa Televisión Independiente de México, filial del grupo Alfa, de Monterrey, Nuevo León. Aunque la inauguración oficial de este canal tiene lugar con la transmisión del informe presidencial el 1 de septiembre de 1968, sus transmisiones regulares dan inicio el 25 de enero de 1969. En el ínterin, Canal 8 realiza varias trasmisiones de prueba entre las que destacan las efectuadas desde Washington y Nueva York, la primera, el 5 de noviembre, para informar sobre el curso de las elecciones presidenciales en Estados Unidos, y la segunda, en diciembre, para traer a México las imágenes de la pelea por el campeonato mundial de peso completo entre Joe Frazier y Oscar Bonavena.

El nuevo canal tiene como sede los antiguos estudios cinematográficos San Ángel Inn y su antena, de 130 metros de altura, se ubica en un predio de la calle General Prim, en el centro de la Ciudad de México.

CANAL 13: Al igual que lo habían hecho antes otras emisoras, el Canal 13, XHDF, se inaugura oficialmente transmitiendo un informe de gobierno, en su caso el correspondiente al 1 de septiembre de 1968. Su programación regular, sin embargo, se inicia el 12 de octubre de ese año desde los estudios ubicados en la calle de Mina número 24, en la céntrica colonia Guerrero. Su antena, el transmisor y un estudio adicional se colocan en la parte más alta de la Torre Latinoamericana. La concesión para operar el Canal 13 se otorga el 24 de junio de 1967 a la empresa Corporación Mexicana de Radio y Televisión, encabezada por el industrial radiofónico Francisco Aguirre Jiménez, dueño de la cadena de radiodifusoras Organización Radio Centro.

1969

CABLEVISION: El 20 de en mayo de 1969, la empresa Cablevisión S.A., filial de Telesistema Mexicano, obtiene la concesión para prestar el servicio de TV por cable en la Ciudad de México, el cual se empieza a proporcionar un año después, en 1970.

Esta tecnología, creada por el estadunidense John Walson en 1947, llega a nuestro país el año de 1954 con la instalación de un pequeño sistema de cable en Nogales, Sonora, cuyo objetivo básico es llevar a ciudadanos estadunidenses que viven en México canales provenientes de su país. A este sistema siguen otros, igualmente limitados, en Piedras Negras, Coahuila (1963), Ciudad Acuña (1964), y Monterrey, Nuevo León (también en 1964). Sin embargo, es hasta el surgimiento de Cablevisión cuando se inicia el desarrollo industrial de la TV por cable en México.

12.5 % DE "TIEMPO FISCAL": El 1 de julio, después de seis meses de negociaciones entre los representantes de la Cámara Nacional de la Industria de la Radiodifusión (CIR) y la Secretaría de Hacienda, el presidente Díaz Ordaz emite un decreto que autoriza pagar de la siguiente manera el "Impuesto sobre el importe de los pagos que se efectúen por los servicios prestados por empresas que funcionen al amparo de concesiones federales para el uso de bienes del dominio de la nación": las empresas concesionarias de radio y televisión pondrán a

Page 27: SEMINARIO DE TITULACIÓN “PROCESAMIENTO DIGITAL DE …

TRANSICION DE LA TELEVISION ANALOGICA A LA DIGITAL.

27

disposición del Estado el 12.5 % de su tiempo diario de transmisión para que éste haga uso de él de acuerdo con sus propios fines.

1972

CANAL 13, ESTATAL: El 15 de marzo de 1972, luego de operar durante casi cuatro años como empresa privada, el Canal 13 pasa a ser propiedad del Estado. La operación se realiza a través de de institución financiera estatal Sociedad Mexicana de Crédito Industrial (SOMEX).

La adquisición del Canal 13 constituye la primera de una serie de acciones efectuadas por el gobierno del presidente Luis Echeverría encaminadas a fortalecer al papel del Estado como emisor a través de los medios de comunicación. Dentro de esas acciones destaca la creación, el 29 de abril de 1972, de la red de cobertura nacional denominada Televisión Rural de México (llamada más tarde, en 1980, Televisión de la República Mexicana) En 1976 se construyen nuevas y modernas instalaciones para el Canal 13 a unos pasos de la carretera al Ajusco en el sur de la Ciudad de México.

LUTO EN LA TV: El 23 de septiembre fallece en Houston, Texas, a los 77 años de edad, Emilio Azcárraga Vidaurreta, fundador de la XEW y del Canal 2. En adelante su hijo, Emilio Azcárraga Milmo, se hará cargo de los negocios creados por el empresario nacido el 2 de marzo de 1895 en Tampico, Tamaulipas.

TELEVISA: Después de competir entre sí por un periodo de cuatro años, las empresas Telesistema Mexicano, operadora de los canales 2, 4 y 5, y Televisión Independiente de México, accionista mayoritaria del Canal 8, deciden en noviembre de 1972, fusionarse en una sola entidad que habrá de operar esas emisoras así como sus repetidoras en el país. El día 28 de ese mes, los señores Bernardo Garza Sada, del grupo Alfa de Monterrey, y Emilio Azcárraga Milmo, de Telesistema Mexicano, firman un acuerdo de fusión. Surge de esta manera el consorcio Televisión Vía Satélite S.A. (Televisa). El 8 de enero de 1973 el nuevo consorcio inicia oficialmente sus actividades. El 75 por ciento de las acciones de Televisa queda en poder de Telesistema Mexicano, mientras que el 25 por ciento restante permanece en manos de Televisión Independiente de México, filial del grupo Alfa. Emilio Azcárraga Milmo es designado presidente de Televisa.

En 1982, el grupo Alfa sufre una fuerte crisis financiera por lo que su director, Bernardo Sada, decide vender el 25 por ciento de acciones que el grupo posee en Televisa. Telesistema Mexicano, presidido por Emilio Azcárraga Milmo, adquiere entonces el total del paquete accionario del consorcio formado diez años antes.

1973

REGLAMENTO DE RADIO Y TV: El día 4 de abril el Diario Oficial de la Federación publica el "Reglamento de la Ley Federal de Radio y Televisión" en donde se precisan las atribuciones de la Secretaría de Gobernación como encargada de vigilar que los contenidos de las transmisiones de ambos medios se ajusten a lo estipulado por la legislación. El

Page 28: SEMINARIO DE TITULACIÓN “PROCESAMIENTO DIGITAL DE …

TRANSICION DE LA TELEVISION ANALOGICA A LA DIGITAL.

28

reglamento faculta a las estaciones de TV para destinar al 18 por ciento de su tiempo de transmisión a la emisión de publicidad.

1976

TELEVISA INTERNACIONAL: El consorcio Televisa adquiere el 20 por ciento de las acciones de la empresa Spanish International Communication Corporation (SICC) de los Estados Unidos y funda el sistema Univisión, que incluye estaciones en Los Angeles, Nueva York y San Antonio, gracias al cual exporta programas vía satélite y microondas hacia ese país.

1977

DIRECCION DE RTC: Se crea, mediante decreto publicado en el Diario Oficial el 7 de julio, la Dirección General de Radio Televisión y Cinematografía (en adelante conocida como RTC), dependiente de la Secretaría de Gobernación. Su tarea fundamental es vigilar que la normatividad aplicable a la radio, la TV y el cine, dentro del ámbito que corresponde a esa secretaría (por ejemplo, la vigilancia sobre los contenidos), se cumpla.

1980

TELEVISA POR SATELITE: En mayo Televisa contrata, con autorización de la Secretaría de Comunicaciones y Transportes, los servicios del satélite estadunidense Westar III con lo cual adquiere la posibilidad de cubrir el territorio mexicano, pues la huella del artefacto cubre nuestro país, y de transmitir directamente a Estados Unidos 19 horas diarias de programación a través de la cadena Spanish International Network (SIN) constituida por 100 estaciones afiliadas y de la que Televisa ha adquirido el 75 por ciento de acciones.

SATELITE MEXICANO EN PROYETO: El 10 de octubre la Secretaría de Comunicaciones y Transportes da a conocer que para 1985 México contará con su propio satélite que llevará el nombre de Iluicahua ("Señor del cielo" en lengua náhuatl). Hasta ese momento México realiza sus telecomunicaciones internas por microondas y las de carácter internacional utilizando satélites del consorcio Intelsat o satélites domésticos estadunidenses con cobertura en nuestro territorio.

1981

RED DE ESTACIONES TERRENAS: El 3 de abril el presidente López Portillo inaugura la primera etapa de la Red Nacional de Estaciones Terrenas, la cual consta de 14 estaciones para envío y recepción de señales vía satélite y 21 estaciones que sólo reciben señales.

LUTO EN LA TV: El 7 de mayo fallece en la Ciudad de México Rómulo O'Farril Sr., fundador del Canal 4.

SE AUTORIZA PROYECTO DE SATELITE MEXICANO: El 16 de octubre el presidente José López Portillo autoriza la ejecución del proyecto del satélite mexicano.

Page 29: SEMINARIO DE TITULACIÓN “PROCESAMIENTO DIGITAL DE …

TRANSICION DE LA TELEVISION ANALOGICA A LA DIGITAL.

29

MEXICO ALQUILA SATELITE: Debido a que México está ampliando su infraestructura de comunicación por satélite, pero aun no cuenta con uno propio, el gobierno de la república solicita al consorcio Intelsat que modifique la órbita de uno de sus artefactos (el Intelsat IV AF3) para que pueda "bañar" el territorio mexicano con sus señales. El alquiler de tres transpondedores en este satélite permite a México efectuar por esa vía una parte sustancial de sus telecomunicaciones internas las cuales realizaba antes por microondas. En 1984, al concluir la vida útil de este satélite, México renta los servicios del Intelsat V F8 para efectuar sus comunicaciones domésticas.

UTEC: Se crea la Unidad de Televisión Educativa y Cultural (UTEC), encargada de la producción y transmisión de programas educativos.

1982

CANAL 22: El día 15 de abril el Canal 22 del Distrito Federal inicia sus transmisiones en la frecuencia de UHF bajo la administración del organismo estatal Televisión de la República Mexicana (TRM).

CRECE INFRAESTRUCTURA: El presidente López Portillo inaugura el 22 de junio la segunda etapa de la Red Nacional de Estaciones Terrenas, consistente en 71 estaciones. De ellas 39 han sido instaladas por la Secretaría de Comunicaciones y Transportes y 32 por Televisa. La participación del consorcio en la instalación de esta infraestructura se fundamenta en un convenio con la SCT, firmado el 8 de octubre de 1980, mediante el cual la televisora se compromete a financiar 44 estaciones terrenas a cambio de que el gobierno le proporcione descuentos en el pago del alquiler de la infraestructura de telecomunicaciones y derecho preferencial para transmitir sus señales. El convenio tendría una vigencia de nueve años.

ACTIVIDAD ESTRATEGICA: En diciembre, el artículo 28 constitucional es modificado por iniciativa del nuevo presidente, Miguel de la Madrid, con el fin de declarar a la comunicación por satélite como "una actividad estratégica a cargo exclusivo del Estado".

1983

INSTITUTO MEXICANO DE TELEVISION: El 23 de marzo el gobierno de la república anuncia la creación de un organismo denominado Instituto Mexicano de Televisión bajo cuya responsabilidad queda el manejo de los recursos del Estado en esa área. El Canal 13 y su red nacional, los canales 22 del Distrito Federal, 8 de Monterrey, 2 de Chihuahua y 11 de Ciudad Juárez, la Productora Nacional de Radio y Televisión (PRONARTE) y la red Televisión de la República Mexicana (TRM) quedan a cargo del nuevo organismo.

SATELITES MORELOS: En junio la Secretaría de Comunicaciones y Transportes informa que el sistema mexicano de satélites llevará el nombre de Morelos (ya no Iluicahua, como se le pretendía llamar en el sexenio anterior) y que estará constituido por dos artefactos que serán colocados en órbita en 1985. Su costo será de 140 millones de dólares. La empresa estadunidense Hughes International Communications quedará a cargo de la construcción; la

Page 30: SEMINARIO DE TITULACIÓN “PROCESAMIENTO DIGITAL DE …

TRANSICION DE LA TELEVISION ANALOGICA A LA DIGITAL.

30

Mc Donell Douglas del servicio de propulsión; y la Agencia Nacional de Aeronáutica y del Espacio (NASA), de Estados Unidos, del lanzamiento. La firma Comsat General Corporation se ocupará de supervisar el proceso de construcción, pruebas y lanzamiento.

1985

IMEVISION Y CANAL 7: El 29 de abril el gobierno de la república da a conocer que en adelante el Instituto Mexicano de Televisión asumirá para fines de identificación institucional y comercial el nombre de Imevisión, y anuncia la apertura de una nueva frecuencia en la Ciudad de México, la del Canal 7. La televisora sale al aire el 18 de mayo de 1985 con las siglas XHIMT y como cabeza de una red nacional integrada por las 99 emisoras que hasta ese momento operaban con el nombre de Televisión de la República Mexicana (TRM), organismo que, como consecuencia de estos cambios, queda disuelto. MORELOS I, EN ORBITA: La madrugada del 17 de junio el transbordador Discovery de la NASA coloca en órbita el primer satélite de comunicaciones mexicano, el Morelos I.

MORELOS II, AL ESPACIO: El 26 de noviembre el Morelos II, segundo satélite del sistema mexicano, es enviado al espacio. En el transbordador Atlantis, la nave que lo coloca en órbita, va como miembro de la tripulación el doctor Rodolfo Neri Vela, quien de esa forma se convierte en el primer astronauta mexicano.

TV SALUD: Da inicio el proyecto de educación médica vía satélite denominado TV Salud, promovido por el Hospital Infantil de México.

1989

MULTIVISION: El 1 de septiembre inicia sus transmisiones en México un nuevo sistema de TV por suscripción. Se trata de MVS Multivisión, que emplea una tecnología nunca antes utilizada en nuestro país: el sistema denominado MMDS, sigla que significa Multichannel Multipoint Distribution System, es decir, Sistema de Distribución Multicanal Multipunto.

El sistema MMDS consiste en el envío, a través del espacio aéreo, de señales de televisión codificadas hacia los hogares de los suscriptores a quienes se dota previamente del equipo necesario para la recepción (antena, decodificador y control remoto). Funciona en el segmento de 2500 a 2696 megahertz.

La concesión para operar Multivisión es otorgada al señor Joaquín Vargas Gómez, propietario de la empresa productora TELEREY y del grupo radiofónico Frecuencia Modulada Mexicana (Vargas fue también director de Televisión Independiente de México, Canal 8, hasta antes de que, en 1972, esta empresa se fusionara con Telesistema Mexicano para formar Televisa). Joaquín Vargas Gómez había solicitado a la Secretaría de Comunicaciones y Transportes, desde junio de 1983, la concesión para operar un sistema de televisión restringida en el Valle de México, misma que se le otorga el 14 de diciembre de 1984. Sin embargo, el inicio de operaciones de lo que en 1989 habría de ser MVS Multivisión se retrasa más de cuatro años. Las instalaciones de la nueva televisora se ubican

Page 31: SEMINARIO DE TITULACIÓN “PROCESAMIENTO DIGITAL DE …

TRANSICION DE LA TELEVISION ANALOGICA A LA DIGITAL.

31

en Boulevard Aeropuerto, al oriente de la Ciudad de México, y su antena transmisora irradia señales desde Cerro del Chiquihuite al norte de la capital de la república.

DE UTEC A UTE: La Unidad de Televisión Educativa y Cultural (UTEC) elimina de su denominación la palabra "cultural" y reduce su nombre a UTE. Ello se debe a que la producción de programas culturales pasa al dominio del Consejo Nacional para la Cultura y las Artes creado ese mismo año. En adelante la UTE se ocupará sólo de la producción de programas de tipo educativo.

1990

NUEVO PROYECTO SATELITAL: Ante la proximidad de la finalización del periodo de vida útil del satélite Morelos I, prevista para 1994, y la inminente saturación del Morelos II, cuyo lapso de utilización llegará a su término en 1998, el gobierno de la república da a conocer, el 28 de julio, su proyecto de ubicar en el espacio un nuevo sistema de satélites, también integrado por dos artefactos, que llevará el nombre de Solidaridad y cuya vida útil será de 14 años Se anuncia que el primero de los satélites será enviado al espacio en 1993.

TV DE ALTA DEFINICION: El 3 de septiembre Televisa y la Nippon Hoso Kyokai (NHK) de Japón dan a conocer en el Centro de Postproducción de Televisa San Angel, la realización de exitosas pruebas de transmisión de TV de Alta Definición (TVAD). Las pruebas se efectúan con equipo instalado en el cerro Pico de Tres Padres, ubicado al norte de la capital mexicana, a una altura de 750 metros sobre el nivel del centro de la ciudad. Televisa invierte en ese equipo 15 millones de dólares. Se utilizan las bandas de 12 y 17 gigahertz.

La TVAD tiene grandes diferencias con respecto a la televisión "tradicional". Entre ellas se cuentan: 1) la proporción de la pantalla: mientras en la TV tradicional la proporción entre las dimensiones horizontal y vertical es de 4:3, en la de Alta Definición es de 16:9, es decir, la misma proporción que se utiliza en la moderna pantalla cinematográfica que es de forma más rectangular que la pantalla normal de TV; 2) el número de "líneas de barrido": en tanto la TV tradicional emplea 525 líneas, en el caso del sistema NTSC, estadunidense, o 625, en el de los europeos SECAM y PAL, la TVAD duplica el número de líneas, lo que le otorga una mayor definición y calidad a la imagen; 3) el sonido digital, similar al del disco compacto, es otra característica de la TVAD.

El 10 de marzo de 1993 la Secretaría de Comunicaciones y Transportes publica en el Diario Oficial una "primera notificación" dirigida a la compañía Sistema de Comunicación Televisiva de Alta Definición, S.A. de C.V., filial de Televisa, en la cual se le informa que su solicitud de concesión para operar dos canales de TVAD ha resultado favorablemente dictaminada. A pesar de haber realizado pruebas exitosas y de haber obtenido virtualmente la concesión para operar comercialmente la TVAD, Televisa, por razones técnicas y económicas, suspende el inicio de las transmisiones en formato de alta definición, las cuales, según había anunciado en septiembre de 1990, comenzarían en un lapso de 12 a 18 meses después de esa fecha.

Page 32: SEMINARIO DE TITULACIÓN “PROCESAMIENTO DIGITAL DE …

TRANSICION DE LA TELEVISION ANALOGICA A LA DIGITAL.

32

CEMESATEL: Se crea el Centro Mexicano de Educación en Salud por Televisión (CEMESATEL), de la Secretaria de Salud, que interconecta a hospitales e instituciones de este sector mediante videoconferencias, imágenes de intervenciones quirúrgicas y programas de educación médica.

1991

DE INTELECTUALES AL PRESIDENTE: El 26 de enero un grupo de 800 intelectuales solicita al presidente Carlos Salinas de Gortari que el Canal 22 no sea vendido --como había anunciado el gobierno que lo haría-- y en cambio sea transformado en una televisora cultural. Salinas responde afirmativamente el 21 de febrero.

CONSTRUCTOR DE SATELITES: El 19 de marzo el gobierno da a conocer que el constructor de los satélites Solidaridad será la empresa Hughes Communications, también fabricante de los Morelos.

EMPRESA LANZADORA: El 19 de julio se anuncia que la empresa Arianespace ha ganado la licitación pública convocada por el gobierno mexicano y será la encargada de poner en orbita los satélites Solidaridad desde Kourou, Guyana Francesa.

1992

TELESECUNDARIA POR SATELITE: La Unidad de Televisión Educativa (UTE) inicia la transmisión de la telesecundaria y otros programas educativos a través del sistema de satélites Morelos. En 1993 pone en marcha su proyecto de transmitir teleconferencias a diversas instituciones de educación en la república.

1993

EL 22, CANAL CULTURAL: El 23 de junio sale al aire una nueva televisora cultural: el Canal 22, XEIMT. Aunque este canal operaba desde 1982 como parte del sector estatal de televisión, su transformación en emisora cultural se remonta al 26 de enero de 1991 cuando un grupo de 800 intelectuales mexicanos publica en la prensa nacional una carta abierta dirigida al presidente Carlos Salinas de Gortari solicitándole que esa frecuencia no sea privatizada y se le destine, en cambio, a la difusión cultural.

A diferencia del Canal 11, que opera bajo el régimen de permiso, el 22 cuenta con una concesión cuyo titular es la empresa de propiedad estatal Televisión Metropolitana S.A. de C.V. Su primer director es el escritor José María Pérez Gay.

TELEVISION AZTECA: El 18 de julio de 1993, después de permanecer más de veinte años bajo la administración del Estado, el Canal 13 de televisión pasa nuevamente al sector privado. Junto con el 13 y su red nacional, son "desincorporados" el Canal 7 con sus repetidoras en la república y el Canal 2 de Chihuahua. Para efectuar la "desincorporación" el gobierno tiene que regularizar la situación legal de los canales, pues muchos de ellos, especialmente los de la red 7, tienen el estatuto de per misionados lo cual impide

Page 33: SEMINARIO DE TITULACIÓN “PROCESAMIENTO DIGITAL DE …

TRANSICION DE LA TELEVISION ANALOGICA A LA DIGITAL.

33

formalmente su venta debido a que la legislación de la materia señala que solamente los canales concesionados pueden cederse en operaciones de compraventa. Crea, entonces, una serie de empresas paraestatales --la más grande llamada Televisión Azteca-- para que se conviertan en concesionarias de los canales que conforman las redes 13 y 7. Al final pone a la venta dos cadenas nacionales, una con 90 canales (la del 13) y otra con 78 (la del 7).

La privatización de los que fueran canales del Estado se lleva a cabo después de un largo y complicado proceso de licitación pública en donde participan cuatro sociedades empresariales y en el cual resulta elegido para efectuar la compra el grupo Radio Televisora del Centro, encabezado por el empresario Ricardo Salinas Pliego propietario de la cadena de venta de artículos electrodomésticos Elektra. El grupo adquiriente paga alrededor de 650 millones de dólares por un "paquete de medios" que incluye, además de las cadenas de televisión, la cadena de salas cinematográficas Compañía Operadora de Teatros, S.A. y los Estudios América, ambos de propiedad estatal. En adelante, el sistema de canales que alguna vez fue conocido como Imevisión llevará el nombre de TV Azteca. SOLIDARIDAD I: El 19 de noviembre es lanzado al espacio desde Guyana Francesa, a bordo de un cohete Ariane, el nuevo satélite mexicano Solidaridad I, construido, al igual que sus antecesores, los Morelos, por la empresa estadunidense Hughes.

1994

DTH: En marzo, Televisa anuncia su proyecto de iniciar el servicio de televisión vía satélite directa al hogar, conocido como Direct to Home o DTH. Se trata de un nuevo sistema que permite la transmisión de señales de TV a los hogares directamente desde un satélite. La diferencia entre el sistema DTH y otros servicios de TV directa al hogar vía satélite es que permite transmitir audio y video digitales, es decir, el sonido tiene la calidad de un compact disc, y la imagen una definición mucho mayor que la TV normal. Además, el nuevo sistema posee la ventaja de operar con pequeñas antenas semiparabólicas con diámetros de entre 45 y 90 centímetros --en contraste con las de otros servicios que requieren parabólicas de hasta 5 metros de diámetro-- y la de tener capacidad para transmitir más de 150 canales.

Según los planes originales, el servicio se proporcionaría a través del satélite PAS III, de la empresa Panamsat, en el cual Televisa rentaría 8 traspondedores a un costo de 24 millones de dólares anuales. Se planeaba colocar en órbita este satélite a finales de noviembre o principios de diciembre de 1994.

Para noviembre de 1994, Televisa hablaba de que el servicio se iniciaría en la primavera de 1995 y de que tendría un costo de instalación de aproximadamente 700 dólares --con la posibilidad de que bajara a 500 al finalizar 1996-- y de que la renta por el servicio fluctuaría entre los 25 y los 30 dólares. El proyecto llevaría el nombre de Galavisión Latinoamérica.

Sin embargo, su iniciación se ve frustrada debido a que el satélite PAS III no puede ser colocado en órbita en diciembre de 1994. El día primero de ese mes, el cohete de la empresa francesa Arianespace que se encargaría de llevar el satélite al espacio falla en su tercera etapa

Page 34: SEMINARIO DE TITULACIÓN “PROCESAMIENTO DIGITAL DE …

TRANSICION DE LA TELEVISION ANALOGICA A LA DIGITAL.

34

y cae al mar poco después de haber despegado de su base en Kourou, Guyana Francesa. El PAS III queda destruido.

Televisa y Panamsat explican que la pérdida del satélite no reviste gravedad, pues en menos de un año se construirá un satélite sustituto. El nuevo PAS III es enviado al espacio el 28 de noviembre de 1995, casi un año después del fracaso de su antecesor, pero para entonces Televisa ya tiene otros planes en el ámbito del sistema DTH, los cuales se precisan más adelante.

SOLIDARIDAD II: El 7 de octubre de 1994, el satélite Solidaridad II es colocado en órbita. Construido también por la empresa Hughes Communications es enviado al espacio, desde Guyana Francesa, a bordo de un cohete de la compañía Ariane.

TELEVISA: 62 NUEVAS CONCESIONES: El 6 de octubre el Diario Oficial da a conocer que la empresa Radio televisora de México Norte, S.A. de C.V., filial de Televisa, obtiene la concesión para operar una red de 62 canales de TV distribuidos en 28 estados del país. En realidad la concesión había sido otorgada desde el 8 de marzo de 1994, según se establece en el decreto aparecido en el periódico gubernamental, pero era hasta siete meses después que el hecho se hacía público. Algunas características de la concesión de este paquete de canales televisivos son las siguientes: 1) tendrá una vigencia de 16 años contados a partir del 8 de marzo de 1994, fecha de su inicio, y hasta el 7 de marzo de 2010 en que concluirá. Los términos de la concesión serán revisados por Televisa y la SCT cada cinco años; 2) Televisa, a través de su filial Radio televisora de México Norte, tendrá que pagar 295 millones 198 mil 776 nuevos pesos "por concepto de participación al gobierno federal". Este pago se basa en una disposición del artículo 110 de la Ley de Vías Generales de Comunicación y su aplicación resulta significativa, pues no se conocen antecedentes de que el gobierno cobre por el otorgamiento de concesiones para la explotación de canales de TV. Los nuevos canales se emplearán para extender la cobertura del Canal 9 convirtiéndolo en red nacional.

EDUSAT: Se consolida la Red Satelital de Distribución de Televisión Educativa (EDUSAT), planeada desde 1989, mediante la cual se transmiten seis canales de TV educativa a 11 mil escuelas en todo el país a través del sistema Solidaridad.

1995

REFORMA CONSTITUCIONAL: En enero, apenas en el segundo mes de su gestión, el gobierno zedillista decide reformar el artículo 28 constitucional con el fin de que la comunicación vía satélite deje de ser considerada legalmente como "una actividad estratégica exclusiva del Estado" --como había sido definida por el gobierno dela madridista en diciembre de 1982-- y pase a ser una "actividad prioritaria" en donde se permite al capital privado participar en la propiedad y operación de esos artefactos espaciales. La iniciativa presidencial es aprobada por el Congreso de la Unión con el apoyo de los partidos PRI y PAN.

LEY DE TELECOMUNICACIONES: En mayo, el Congreso de la Unión aprueba, nuevamente con el voto favorable del PRI y del PAN, una Ley Federal de

Page 35: SEMINARIO DE TITULACIÓN “PROCESAMIENTO DIGITAL DE …

TRANSICION DE LA TELEVISION ANALOGICA A LA DIGITAL.

35

Telecomunicaciones en la que se establecen las condiciones para que el capital privado participe en la comunicación por satélite, actividad que había sido hasta ese momento exclusiva del Estado. La nueva ley establece: 1) que el gobierno federal, a través de la SCT, podrá concesionar a empresas privadas la ocupación y la explotación de posiciones orbitales asignadas a México; 2) La SCT podrá otorgar concesiones para la explotación de bandas de frecuencias, a través de las cuales se puedan transmitir señales provenientes de satélites extranjeros que cubran el territorio nacional, "siempre y cuando se tengan firmados tratados en la materia con el país (de cuya nacionalidad sea el satélite) y dichos tratados contemplen la reciprocidad para los satélites mexicanos"; 3) en cualquiera de los dos casos anteriores, la inversión extranjera en las empresas concesionarias no podrá ser superior al 49 por ciento.

La Ley Federal de Telecomunicaciones fue aprobada por el Congreso de La unión el 18 de mayo de 1995 y publicada en el Diario Oficial de la Federación el 7 de junio del mismo año. DIRECTV: El 9 de marzo las empresas Hughes Communications, de Estados Unidos, Organización Cisneros, de Venezuela, Televisión Abril, de nacionalidad brasileña, y MVS Multivisión, de México, dan a conocer la creación del consorcio Galaxy Latín America. Se trata de una alianza estratégica para lanzar al mercado DirecTV, un servicio de televisión vía satélite "directo al hogar" (DTH) con cobertura latinoamericana.

Este proyecto es resultado de la expansión hacia Latinoamérica de otro que, con el mismo nombre, inició en Estados Unidos la empresa Hughes Communications a finales de 1993. El 17 de diciembre de ese año Hughes colocó en el espacio un satélite --el Galaxy 4 H-- con la finalidad de prestar el servicio de "TV directa al hogar" o DTH. Para comercializar el nuevo sistema, Hughes crea la filial DirecTV que mediante una inversión de 600 millones de dólares proporciona el servicio DTH en Estados Unidos. El inicio de operaciones se produce en junio de 1994.

Entusiasmada por los análisis prospectivos efectuados en Estados Unidos durante el primer lustro de los años noventa, los cuales señalan a América Latina como una zona con posibilidades de "crecimiento explosivo" en lo que se refiere a la televisión de paga, Hughes decide buscar socios en esa parte del continente para extender hacia ella su proyecto DTH. En México, ejecutivos de la compañía estadunidense se entrevistan en febrero de 1994 con el señor Clemente Serna Alvear quien en 1993, al frente de la empresa Corporación Medcom, había participado sin éxito en la licitación por adquirir los canales 7 y 13; la intención era llegar a un acuerdo con él, ya que su empresa había obtenido en octubre de 1994 una concesión para prestar el servicio DTH en la República Mexicana.

Las negociaciones con Medcom, sin embargo, no prosperan, por lo que los ejecutivos de Hughes buscan establecer alianza con Televisa, pero Emilio Azcárraga Milmo no acepta debido a que, como se indicó líneas arriba, está en esos días a punto de anunciar su propio proyecto de DTH. Hughes acude entonces con la familia Vargas, propietaria de la empresa MVS Multivisión, que también proyecta explotar ese servicio en México (al igual que Medcom, Multivisión obtiene en octubre de 1994 una concesión para operar el servicio DTH). Las negociaciones con los señores Vargas sí tienen éxito. En febrero de 1995 llegan a un acuerdo y el 9 de marzo de ese año Hughes Communications, Organización Cisneros de Venezuela, Televisión Abril y MVS Multivisión anuncian la creación del consorcio Galaxy

Page 36: SEMINARIO DE TITULACIÓN “PROCESAMIENTO DIGITAL DE …

TRANSICION DE LA TELEVISION ANALOGICA A LA DIGITAL.

36

Latín America que tendrá a su cargo el lanzamiento del servicio DirecTV en esta parte del continente; se trata de un servicio diseñado especialmente para el público latinoamericano por lo que la programación será en español y portugués. En esta sociedad Hughes participa con 60 por ciento de la inversión (alrededor de 600 millones de dólares), Organización Cisneros con el 20 por ciento, en tanto que Televisión Abril y Multivisión lo hacen cada una con 10 por ciento. El servicio se prestará a través del satélite Galaxy III R, construido por Hughes. La capacidad de transmisión del artefacto es de 144 canales de video y 60 de audio, en ambos casos con calidad digital. Se esperaba cubrir 21 países de la región.

El satélite Galaxy III R es lanzado al espacio por la empresa Ariane, desde Guyana Francesa, el 15 de diciembre de 1995. En Brasil, sede de Televisión Abril, DirecTV comienza a funcionar el 14 de junio de 1996, y en Venezuela, el país de Organización Cisneros, el otro socio latinoamericano, las transmisiones se inician el 28 de junio. En México el comienzo de DirecTV se programa para llevarse a cabo en el segundo semestre de 1996. CANAL 40: El 19 de junio comienza sus transmisiones formales el Canal 40 del Distrito Federal, una nueva opción en la banda de frecuencias ultra elevadas (UHF). La concesión para operar este canal es obtenida el 23 de septiembre de 1991 por la empresa Televisión del Valle de México, S.A. (TEVESCOM), propiedad del empresario Javier Moreno Valle. Sus transmisiones de prueba se inician el 5 de diciembre de 1994.

Operado por la entidad denominada Corporación de Noticias e Información (CNI), filial de TEVESCOM, y con el lema "CNI Canal 40, la realidad en televisión" ofrece al teleauditorio una programación que pone el acento en los temas de tipo periodístico y noticioso.

SKY: Ante la solidez que mostrada por el proyecto DirecTV, el consorcio mexicano Televisa, el conglomerado estadunidense News Corporation, la empresa brasileña O'Globo y la compañía Tele Communications Internacional Inc. (TCI), la operadora de sistemas de cable más grande de Estados Unidos, deciden unir esfuerzos y firman el 20 de noviembre de 1995 un convenio para prestar de manera conjunta el servicio de televisión directa vía satélite, o DTH, en Latinoamérica. En esta sociedad, Televisa, News Corporation y O'Globo aportan cada una el 30 por ciento de la inversión, mientras que TCI participa con el 10 por ciento restante. El servicio se proporcionará a nivel latinoamericano por medio de los satélites Panamsat, aunque en México, Televisa decide hacerlo inicialmente a través del sistema Solidaridad. El nombre que se asigna a este nuevo proyecto es el de Sky Entertainment Services, sin embargo para fines publicitarios se le conoce simplemente como Sky. Al igual que DirecTv se proyecta que Sky comience a funcionar en el segundo semestre de 1996.

1.2 FUNDAMENTOS DE LA SEÑAL DE VIDEO.

1.2.1 CARACTERISTICAS DE LA LUZ VISIBLE.

La luz visible esta usualmente definida por una longitud de onda la cual corresponde a un rango de frecuencia especifico, para la luz visible el rango resulta estrecho va de 380 a 760

Page 37: SEMINARIO DE TITULACIÓN “PROCESAMIENTO DIGITAL DE …

TRANSICION DE LA TELEVISION ANALOGICA A LA DIGITAL.

37

nm (1nm= 10-7 cm), a cada color corresponde una frecuencia y longitud de onda dentro de este rango, y el ojo los percibe de esta manera. Un ejemplo de esto corresponde a los colores primarios: Rojo = 700.0 nm Verde = 546.1 nm Azul = 435.8 nm A continuación se muestra el espectro de la luz visible y sus frecuencias y longitudes de onda:

FIG 1.1 Espectro de luz visible y sus frecuencias y longitudes de onda.

Page 38: SEMINARIO DE TITULACIÓN “PROCESAMIENTO DIGITAL DE …

TRANSICION DE LA TELEVISION ANALOGICA A LA DIGITAL.

38

1.2.2 LA PERCEPCIÓN DE LA LUZ. La forma en que el hombre percibe las imágenes y la luz, es a través del ojo. El ojo es un órgano extremadamente complejo y podemos decir que es el responsable en 80% del aprendizaje del ser humano, esta compuesto por varias partes las cuales mencionaremos a continuación:

FIG 1.2 El ojo humano La parte que se encarga de la conversión de la luz en señales para que el cerebro las interprete, es la retina, esta recibe la imagen una vez que esta ha sido recibida y enfocada; la retina esta compuesta de dos tipos de células: los conos y bastones. Los bastones son alrededor de entre 110 y 130 millones y los conos entre 6 y 7 millones. Los bastones predominan en la periferia de la retina, y son mas sensibles a la luz que los conos, son responsables de la visión nocturna (sin color) y poseen una visión poco detallada. Los conos predominan en el área central de la retina y responden a niveles más intensos de luz que los conos, son los responsables de la visión diurna. A niveles altos de iluminación aumenta la percepción de detalles respecto a la iluminación, pero disminuye la percepción de detalles respecto al color, si la intensidad de la luz decrece, la visión ahora recae sobre los bastones en la periferia de la retina los cuales son más numerosos. La información recibida por la retina es transmitida al cerebro a través del nervio óptico, el cual consiste en cerca de 800,000 fibras individuales conectadas a un ganglio cada una.

1.2.3 LA PERCEPCIÓN DE LOS DETALLES FINOS. La capacidad de percibir detalles finos es medida como el ángulo de visión hacia el detalle más pequeño de un objeto.

Page 39: SEMINARIO DE TITULACIÓN “PROCESAMIENTO DIGITAL DE …

TRANSICION DE LA TELEVISION ANALOGICA A LA DIGITAL.

39

Derivado de diferentes mediciones y consideraciones, involucradas con la cantidad de iluminación, se ha logrado establecer que el mínimo ángulo de visión para el ojo humano es de 1 minuto, En diseño de Sistemas de Televisión la forma en que se reproducen las imágenes es en base a líneas horizontales cuyo número determina la resolución de la imagen, esto se expresa en líneas por altura de imagen o (LPH), ahora bien, este numero de líneas esta determinado por la siguiente expresión: Nv=1/αn Donde: Nv es el número total de líneas para la resolución α es el ángulo mínimo para visión del ojo de detalles el cual es de 1 minuto. n= D/H distancia visual dividida entre la altura de la imagen Esto puede verse más claramente en la imagen siguiente:

FIG 1.3 Número total de líneas para la resolución.

Considerando el ángulo como 1 minuto, esto tiene que convertirse a radianes, tenemos que 1 minuto = 2.91X10-4 y por convención se ha establecido que la variable n se toma como una constante igual a 6, debido a que la distancia a la que debe situarse un observador de la pantalla para poder apreciar detalles pequeños estará dado en base al tamaño de la pantalla, por ejemplo si la pantalla es de 24 pulgadas el observador deberá situarse a 4” para poder apreciar los detalles más finos en concordancia con el ángulo de visión.

Page 40: SEMINARIO DE TITULACIÓN “PROCESAMIENTO DIGITAL DE …

TRANSICION DE LA TELEVISION ANALOGICA A LA DIGITAL.

40

Por lo tanto: Nv= 1/(6X 2.91x10-4) = 572 Líneas. Actualmente se utiliza una máxima consideración de 525lineas, sin embargo en realidad se emplea una resolución menor, esto se vera en capítulos posteriores. 1.3 LA CAMARA.

1.3.1 PARTES DE LA CÁMARA DE VIDEO.

Está compuesta por dos elementos:

a) Sección óptica: donde se encuentra un complejo sistema de lentes para captar la imagen. Pueden ser:

1.- Lentes fijas. Tienen una distancia focal fija. La distancia focal es la distancia del extremo del objetivo a la película.

2.- Zoom. Tiene una distancia focal variable, dependiendo de la máxima y mínima distancia focal.

b) Sección electrónica: en ella se encuentran los tubos de cámara y componentes electrónicos encargados de realizar la generación, que consiste en transformar la información óptica en imagen electrónica.

La fotoelectricidad es una propiedad de la cual se valen los tubos de cámara para realizar la función transductora, es decir, la transformación de un tipo de energía en otra, de la luz en una corriente eléctrica proporcional a la intensidad incidente en el transductor luz/corriente.

Funcionamiento: la luz reflejada por un sujeto u objeto es recogida por el sistema de lentes de la cámara y enfocada sobre una placa o mosaico (target), elemento sensible a la luz.

Cuando la luz incide sobre el mosaico cargado eléctricamente, origina una reacción eléctrica en función de la intensidad de la luz.

El target o mosaico está compuesto por pequeños puntos que serán leídos o explorados.

El haz de electrones emitidos por el cañón lee, es decir, explora la información eléctrica presente punto por punto y línea por línea en el lado interno del mosaico.

El chip electrónico realiza la misma operación. Utiliza miles de sensores internos que convierten la luz en electricidad. La diferencia es que el chip es digital y los tubos de cámara son analógicos.

Page 41: SEMINARIO DE TITULACIÓN “PROCESAMIENTO DIGITAL DE …

TRANSICION DE LA TELEVISION ANALOGICA A LA DIGITAL.

41

1.4 PROPIEDADES DE LA IMAGEN OPTICA.

1.4.1 ELEMENTOS DE IMAGEN.

Una imagen fija es una ordenación de áreas pequeñas algunas claras y otras obscuras en una fotografía los granos de plata, corresponden a los elementos de la imagen, si observamos bien cualquier imagen ya sea de TV o impresa nos podemos dar cuenta que esta compuesta de muchos puntos ya sea en color o blanco y negro. A estas áreas se les llama elementos de imagen o detalle de imagen o como normalmente se les conoce como píxel, todos estos elementos juntos contienen la información visual de la imagen. Si son reproducidos con la misma cantidad de luz y en la misma posición que el original, se obtendrá la reproducción de la imagen original.

FIG 1.4 Reproducción de imagen.

1.4.2 PROPIEDADES DE IMAGEN.

En el punto anterior ya analizamos lo que son los elementos de imagen ahora analizaremos lo que son las propiedades de imagen, tales como: Brillo.- El brillo es la intensidad global o media de iluminación y determina el nivel de fondo de la imagen. Los elementos individuales pueden variar en más o menos respecto a este nivel medio. Contraste: Contraste significa diferencias de intensidad entre las partes negras y blancas de la imagen reproducida. El margen de contraste debe ser suficiente para reproducir una imagen fuerte o intensa, con blanco brillante y negro oscuro para obtener los valores extremos de intensidad.

Page 42: SEMINARIO DE TITULACIÓN “PROCESAMIENTO DIGITAL DE …

TRANSICION DE LA TELEVISION ANALOGICA A LA DIGITAL.

42

Detalle: La calidad de la imagen que también se llama resolución o definición depende del numero de elementos de imagen que pueden ser reproducidos, los elementos de imagen entre mas pequeños son capaces de evidenciar detalles finos de las imágenes. Por lo tanto entre mas elementos de imagen y más pequeños sean estos mejor será la definición de la misma. Esta característica hace que la imagen sea bien perceptible y clara si los objetos están agudamente definidos o contorneados. Una buena definición traerá consigo también la sensación de profundidad pudiéndose notar los detalles del fondo. En la siguiente figura puede apreciarse la misma imagen a resoluciones diferentes en una de ellas existe un mayor numero de elementos por lo cual los detalles son percibidos con mayor claridad.

FIG 1.5 Resolución de imagen.

Nivel de Color: Tal como se indica el nivel de color se define como la saturación de color de una imagen, la cual pude ir desde imágenes en blanco y negro hasta escenas en colores muy intensos y vívidos: para el caso de un sistema de Televisión, el nivel de color se controla mediante la ganancia de la señal de crominancia. Matiz: El Matiz es propiamente el tono de un color, también suele ser llamado tinte, la evaluación de esta propiedad es en realidad subjetiva y se refiere a la percepción visual de la imagen, por ejemplo el matiz del pasto en un campo de fútbol es verde. Para un sistema de Televisión el Matiz, Hue, Tinte o Fase depende del ángulo de fase de la señal de crominancia, respecto de la sincronía de color, variando la fase se puede ajustar la reproducción de la imagen en un sistema de video compuesto, esta parte se estudiará con mayor profundidad más adelante. Relación de Aspecto (4/3): La relación entre anchura y altura es lo que se llama relación de aspecto, esta relación se encuentra normalizada de acuerdo a la siguiente consideración:

H= 1.33 X V

Como es fácil notar la parte horizontal de la pantalla es 1.33 veces mayor que la vertical, esto debido a que se desea que la anchura del cuadro sea mayor debido a que permite reproducir de mejor manera el movimiento de una escena el cual regularmente es horizontal.

Page 43: SEMINARIO DE TITULACIÓN “PROCESAMIENTO DIGITAL DE …

TRANSICION DE LA TELEVISION ANALOGICA A LA DIGITAL.

43

1.5 PARTES DE LA SEÑAL DE VIDEO COMPUESTO. Ya hablamos de las características que tiene una imagen fija, pues bien el Sistema de Televisión sigue muchas de estas reglas y además incorpora características adicionales por ser un sistema que reproduce imágenes en movimiento, un sistema de televisión se basa en la reproducción de líneas horizontales, a este método de reproducción de imagen se le llama exploración entrelazada, por supuesto que la imagen que se reproduce en un Televisor ha sido previamente captada por una cámara en el estudio de televisión, la cámara sigue exactamente este mismo método de exploración horizontal.

1.5.1 EXPLORACION HORIZONTAL Y VERTICAL. La imagen de Televisión es explorada sucesivamente en una serie de líneas horizontales, una debajo de otra, tal como se puede apreciar en la figura:

FIG 1.6 Cómo se efectúa la exploración lineal horizontal.

Esta exploración hace posible que una señal de vídeo incluya todos los elementos necesarios para completar la imagen. Como vimos anteriormente una imagen se compone de elementos de imagen más pequeños, los cuales al variar tanto su intensidad de brillo o color son los responsables de la composición de la imagen completa. Para obtener una señal de vídeo que transmita todas las variaciones de luz, sombra y color, se exploran todos los detalles de imagen sucesivamente o sea en un orden secuencial de tiempo. De esto podemos entender que en una imagen de Televisión la imagen transmitida se ensambla en línea tras línea, las cuales pasan a formar primero campos y luego cuadros.

1.5.2 FRECUENCIA DE CUADRO Y CAMPO. El sistema de televisión también toma elementos del cine en donde la frecuencia de cuadro es de 24 cuadros por segundo, es decir 24 diapositivas son proyectadas en un segundo en la

Page 44: SEMINARIO DE TITULACIÓN “PROCESAMIENTO DIGITAL DE …

TRANSICION DE LA TELEVISION ANALOGICA A LA DIGITAL.

44

pantalla, si bien esto debía de ser de esta manera no sucede así, en realidad son proyectados sobre la pantalla 48 cuadros, esto debido a que con la frecuencia de 24 por segundo no se logra cancelar completamente la sensación de parpadeo, por lo cual el obturador de el proyector hace posible que se proyecte dos veces el mismo cuadro. Para el caso de Televisión la frecuencia de cuadro es de 30 cuadros por segundo, sin embargo cada cuadro se divide en dos campos por lo cual la frecuencia de campo es de 60 Hz, de esta manera se hace una analogía con el caso del cine.

1.5.3 NUMERO DE LÍNEAS Y RESOLUCIÓN DEL SISTEMA NTSC. Para el caso de un sistema de Televisión en el formato NTSC (National Televisión Systems Comitee), el cual es el sistema que se utiliza en Estados Unidos, México , Canadá y en casi toda América un cuadro de Televisión consta de 525 líneas de resolución horizontal, y esta dividido en dos campos cada uno de 262.5 líneas, estos campos se dividen en campo par y campo non, efectuándose la exploración de cada uno de ellos de forma separada, este procedimiento ayuda a disminuir el efecto de parpadeo en la imagen al ser reproducida. Como se mencionó anteriormente en el sistema de Televisión NTSC, se transmiten 30 cuadros completos en un segundo, así como 60 campos, en un principio se utilizó esta frecuencia con la finalidad de hacerla más compatible con la frecuencia de línea de Alimentación de AC. Ahora hablaremos del proceso mediante el cual se efectúa el proceso de reproducción de la señal a este procedimiento se le llama Exploración Entrelazada, el cual se explica a continuación:

1.5.4 FRECUENCIA DE EXPLORACIÓN HORIZONTAL Y VERTICAL. Como mencionamos anteriormente se transmiten 30 cuadros y 60 campos en un segundo y cada campo se define como el campo que agrupa a las líneas pares y a las impares, cada campo contiene 262.5 líneas cada uno, para hacer un total de 525 líneas. La frecuencia de Exploración Horizontal es la siguiente: se sabe que se transmiten 30 cuadros por segundo, y cada cuadro esta compuesto de 525 líneas, entonces por lo tanto la frecuencia de horizontal será: 525 líneas X 30 cuadros = 15750 Hz Duración de la Exploración de una Línea Horizontal: 1/15750= 63.5 µs Esta frecuencia se considera para un sistema de Televisión Monocromático, sin embargo para el caso de un sistema de Color esta frecuencia puede cambiar un poco, esto se verá más adelante. Para el caso de la frecuencia de Vertical es un poco diferente, recordemos que para el caso de vertical se transmiten 30 cuadros por segundo y 60 campos, por lo tanto la frecuencia de vertical estará dada por la frecuencia de campos, es decir la frecuencia de Vertical es de: Frecuencia de Vertical: 60 Hz

Page 45: SEMINARIO DE TITULACIÓN “PROCESAMIENTO DIGITAL DE …

TRANSICION DE LA TELEVISION ANALOGICA A LA DIGITAL.

45

Duración del intervalo Vertical: 1666 µs Para un sistema de Televisión Monocromático, esta frecuencia cambia un poco debido a ciertas consideraciones de la subportadora de Color, estos casos se revisarán más adelante. En la exploración entrelazada primero se exploran las líneas impares de arriba hacia abajo, omitiendo las líneas pares, es decir primero se explora el campo non y después el campo par. Ahora bien una vez que se termina de explorar el campo non o líneas impares, es necesario volver a posicionar el haz electrónico en el punto superior de la pantalla con la finalidad de comience a explorar el siguiente campo, a este procedimiento de le llama retraso vertical, obviamente debe existir una señal que se encargue de efectuar el control de la forma en que el haz electrónico se encarga de barrer la línea en exploración desde el inicio hasta el final, recordemos que por ejemplo para el caso en que la imagen que se esta reproduciendo sea la imagen de una cámara en el estudio, el haz en el Televisor deberá estar sincronizado con el haz de la cámara en el estudio, de lo contrario se producen distorsiones indeseables, a este procedimiento se le llama sincronía horizontal , de la misma manera existe una sincronía vertical para cuando el haz de la cámara en el estudio se encuentra en reposicionamiento, al punto alto de la pantalla y el del televisor deberá efectuar este mismo procedimiento en sincronía. Esto puede observarse de mejor manera en la gráfica siguiente:

FIG 1.7 Exploración horizontal y vertical

1.5.5 SINCRONÍA HORIZONTAL Y VERTICAL. Como es fácil observar de la grafica, el primer campo que explora es el campo impar, la línea numero 1 comienza ser explorada de izquierda a derecha, en forma horizontal, pero que es lo que indica cuando debe iniciarse la exploración de la línea, en esta parte interviene una señal que se llama señal de sincronía horizontal, la cual tiene como propósito el mover el haz desde el punto inicial hasta el fin de la línea, posteriormente el haz deberá posicionarse en la siguiente línea que se va a exploraren este caso la línea numero 3, en esta parte surge una nueva señal que se encarga de desplazar al haz desde el final de la línea anterior y hasta

Page 46: SEMINARIO DE TITULACIÓN “PROCESAMIENTO DIGITAL DE …

TRANSICION DE LA TELEVISION ANALOGICA A LA DIGITAL.

46

el inicio de la nueva línea a esta señal se le llama sincronía vertical, para ambos casos tanto la frecuencia de sincronía horizontal como vertical es la misma que las frecuencias de barrido o exploración, esto debido a que se aplica un pulso para cada una de las 15750 líneas exploradas durante los 60 campos transmitidos, y además se agrega un pulso de sincronía vertical para cada uno de los campos transmitidos 60 Hz.

FIG 1.8 Tiempo de sincronía horizontal

FIG 1.9 Tiempo de sincronía vertical.

1.5.6 BORRADO HORIZONTAL Y VERTICAL. Ya vimos como es que se produce el método de exploración entrelazada, vimos también las señales de sincronía vertical y horizontal, sin embargo no hemos estudiado algo muy importante y que se puede apreciar en la figura anterior, las líneas punteadas representan el viaje de regreso de el haz electrónico una vez que ha completado la exploración de una línea, así mismo para el caso del vertical una vez que se ha terminado de explorar ya sea el campo impar o el campo par, el haz tiene que ser desplazado al inicio de la pantalla para explorar el

Page 47: SEMINARIO DE TITULACIÓN “PROCESAMIENTO DIGITAL DE …

TRANSICION DE LA TELEVISION ANALOGICA A LA DIGITAL.

47

siguiente campo, durante todo este procedimiento el haz continúa emitiendo electrones y golpeando con ello los puntos de fósforo en la pantalla , esto no resulta deseable puesto que esta líneas que en realidad no son trazos de información de la imagen, se ven en la pantalla como una línea que cruza de derecha a izquierda, una línea luminosa, por este motivo y para evitar que este retraso sea visible se utilizan los pulsos de borrado tanto vertical como horizontal. En televisión la palabra borrado significa ennegrecimiento o oscurecimiento, es decir cuando una línea termina de ser explorada, el haz debe ser cancelado para que no aparezca su rastro, a este pulso se le llama pulso de borrado horizontal, el cual actúa sobre el haz cuando este esta viajando para posicionarse en el inicio de de una nueva línea, por lo tanto y de lo mencionado anteriormente podemos considerar que la frecuencia de los pulsos de borrado horizontal será la misma que la frecuencia de líneas horizontales o de barrido horizontal, es decir 15750 Hz, ahora bien el tiempo de duración de este pulso es de aproximadamente 16% de la duración de cada línea, es decir el 16 % de 63.5 µs, con lo cual tendríamos el siguiente tiempo de borrado horizontal: Tiempo de Borrado Horizontal = 63.5µs X 0.16= 10.2 µs Es decir durante este tiempo el trazo del haz electrónico se encontrará inhibido o en negro. Para el caso del borrado vertical el caso es muy similar, recordemos que para el caso de vertical la frecuencia es de 60 Hz, para el caso del borrado vertical este tiene que ser un poco más largo ya que el haz tiene que permanecer inactivo más tiempo por el retorno del haz desde el punto inferior de la pantalla hasta el punto de inicio, para este caso el tiempo de borrado vertical es de aproximadamente 8% el tiempo de la duración de un campo completo es decir:

Tiempo de Borrado Vertical: = 1/60 X 0.08= 1333µs

Page 48: SEMINARIO DE TITULACIÓN “PROCESAMIENTO DIGITAL DE …

TRANSICION DE LA TELEVISION ANALOGICA A LA DIGITAL.

48

FIG 1.10 Borrado horizontal.

FIG 1.11 Borrado vertical

1.5.7 FORMAS DE ONDA. Además de los pulsos de sincronización tanto horizontales como verticales , también se utilizan los pulsos igualadores o de ecualización, los cuales son utilizados para adaptar o igualar las condiciones eléctricas de una línea con otra, se agregan dos pulsos igualadores por cada línea, como mencionamos estos pulsos igualadores tienen como finalidad adaptar las características eléctricas de una línea con otra, así mismo también el tiempo o sincronización son afectados, en la siguiente gráfica se puede ver los pulsos de sincronía tanto horizontal como vertical y los pulsos igualadores:

Page 49: SEMINARIO DE TITULACIÓN “PROCESAMIENTO DIGITAL DE …

TRANSICION DE LA TELEVISION ANALOGICA A LA DIGITAL.

49

FIG 1.12 Impulsos de sincronismo.

Un comentario importante es que en realidad las frecuencias de 15750 Hz, 60 Hz, son frecuencias exactas para Televisión Monocromática, sin embargo para el sistema actual de Color, las frecuencias reales de operación son 15734.26 Hz, 59.94, esto debido a algunas consideraciones con la subportadora de color, estas razones serán vistas más adelante en el capítulo de señal de color. 1.6 VECTORSCOPIO. Vectorscopio, instrumento de medida utilizado en televisión para ver y medir la componente de color de la señal de vídeo. El monitor vectorscopio es en realidad un osciloscopio especializado en la representación de la parte de crominancia de la señal de vídeo.

FIG 1.13 VECTORSCOPIO

La crominancia, o señal de color, es la parte de la señal de vídeo en la que se codifica la información de color. Esta información tiene dos parámetros, uno es la cantidad de color, o saturación y otro es el tipo del color, o tinte (hue en inglés). Tanto en el sistema PAL o NTSC estos dos parámetros se codifican sobre una misma señal mediante una modulación en cuadratura. Esta señal recibe el nombre de portadora de color y se modula en amplitud con a información de la saturación y en fase con la información del tinte. El resultado es un vector que tiene por módulo la saturación y por argumento el tinte (es decir el tip de color, rojo, amarillo...) Para su representación se utiliza el vectorscopio, que viene a ser y osciloscopio trabajando en representación X - Y (es decir sin base de tiempos) al que se le aplica en su canal vertical y en el horizontal las señales de diferencia de color. El resultado es una serie de vectores que tienen como origen el centro de la pantalla y e donde su módulo coincide con la saturación y el argumento con el tinte de la señal aplicada. La carátula de este instrumento viene marcada normalmente con unas casillas para la ubicación de los vectores correspondientes a la señal de barras de color. Estas casillas son de dos tamaños diferentes correspondiendo, el más pequeño, a una tolerancia del 5% y el mayor

Page 50: SEMINARIO DE TITULACIÓN “PROCESAMIENTO DIGITAL DE …

TRANSICION DE LA TELEVISION ANALOGICA A LA DIGITAL.

50

a una del 10%. También está representado el sincronismo de color para los dos estándares de barras más comunes, del 75% y del 100%. Barras de color EBU vistas en un MFO y un vectorscopio. El vectorscopio suele tener canales de entrada y una serie de funciones para la sincronización de la croma, bien con sigo misma o con una señal de referencia. Es normal que el instrumento incluya una serie de funciones y características que sirven para realizar una serie de medidas estándar sobre la señal de vídeo como la ganancia diferencial y la fase diferencial. Es corriente encontrar este instrumento en combinación con el monitor forma de onda. Señal de televisión. Su base de tiempos está diseñada para adaptarse a los tiempos típicos de esa señal y ver las partes de interés de la misma de una forma fácil y sencilla. 1.7 SEÑAL DE TELEVISIÓN EN COLOR.

1.7.1 SEÑALES DE VIDEO ROJO, VERDE Y AZUL. El sistema de Televisión en Color termina y comienza en Rojo, Verde y Azul, para la información de color en la escena. La cámara de Televisión se encarga de suministrar estas señales de video de diferentes colores. El tubo de imagen se encarga de reproducir estas señales de tal manera que formen la imagen originalmente captada por la cámara esto puede ser observado en la gráfica siguiente:

FIG 1.14 Tubo de imagen.

Page 51: SEMINARIO DE TITULACIÓN “PROCESAMIENTO DIGITAL DE …

TRANSICION DE LA TELEVISION ANALOGICA A LA DIGITAL.

51

1.7.2 CODIFICACIÓN DE LAS SEÑALES DE COLOR. Anteriormente vimos que las señales de sincronía vertical y horizontal , los pulsos de borrado y los pulsos igualadores, pues bien en realidad esto compone a un sistema de Televisión Monocromático, sin embargo debido a la demanda de un sistema que fuera capaz de reproducir señales en color se comenzó a tratar de aumentar esta capacidad en el sistema existente al principio se encontró que esto resultaba prácticamente imposible debido a que se requería transmitir los tres colores rojo verde y azul , para ser reproducidos en el receptor, esto tenía varios problemas, el primero radicaba en el ancho de banda necesario, otro en el hecho de que resultaba complicado tener tres transmisores uno para cada color, otro gran problema era el de poder controlar los tiempos de retardo de cada uno de los colores una vez que esta eran transmitidos, por estas razones en un principio se pensó en que esto no resultaba técnicamente viable, sin embargo se continuó con las investigaciones para encontrar un método para hacer posible la transmisión en color. En 1949 comenzó experimentalmente la transmisión de color en base a dos sistemas uno de ellos de CBS y el otro de RCA, el sistema de CBS empleaba una rueda mecánica de color con filtros de Rojo, verde y Azul en campos secuénciales. Este método como es fácil observar no era compatible con el sistema Monocromático, por el contrario en sistema de RCA, utilizó un sistema compatible en exploración y reproducción de señales en Color, es importante señalar que parte de esta idea fue concebida por un Mexicano el Ing. Guillermo González Camarena , el sistema que RCA patentó y que evolucionó hasta el sistema actual NTSC, se adoptó aproximadamente en 1966, la FCC diseñó normas para este sistema de televisión compatible con el sistema de Televisión Monocromático, en el año de 1951comenzó la transmisión de Televisión en B/N, y en 1966 NBC fue la primera cadena en transmitir color en todas su estaciones, sin embargo no existía muchos receptores capaces de reproducir señales en color en nuestro país el sistema de Televisión fue instituido en el año de 1968, para los Juegos Olímpicos. El sistema NTSC que actualmente esta en uso utiliza la misma forma de exploración, sincronía y borrado que el sistema Monocromático, la diferencia es que se agregó una subportadora de Color la cual tiene multiplexada la información de color, las señales de video son codificadas combinándolas en proporciones determinadas para proveer la misma información en forma diferente resultado de esta codificación es la formación de dos tipos de señales la señal de Crominancia o señal C, para el color y la señal de luminancia Y, para el blanco y negro. En el receptor en realidad se requieren los colores primarios RGB, sin embargo a través de circuitos de decodificación se recupera esta información de color.

1.7.3 DIFERENTES AMPLITUDES DE RGB. En la siguiente figura se muestran las tres componentes fundamentales de la señal de video en color a estos colores suele llamarse colores primarios, en esta figura puede verse que los valores de tensión están en su máximo nivel para cada una de las componentes con respecto al tiempo es decir cuando se esta reproduciendo la componente de rojo, el valor de tensión

Page 52: SEMINARIO DE TITULACIÓN “PROCESAMIENTO DIGITAL DE …

TRANSICION DE LA TELEVISION ANALOGICA A LA DIGITAL.

52

esta en su máximo nivel esto ocurre cuando los valores visuales de cada color están en su máximo nivel en la pantalla , los valores de cada componente las veremos más adelante.

FIG 1.15 Señales de color R, G y B para las barras de color rojo, verde y azul.

1.7.4 DIFERENTES AMPLITUDES DEL MISMO COLOR Con anterioridad ya vimos como se representan lo tres colores cuando estas están en su máximo nivel sin embargo algo muy importante de considerar es que sucede cuando el mismo color cambia en intensidad en voltaje o tensión cuando esto sucede se tiene el mismo color pero en tonalidad desvanecida, de esta manera un sistema de televisión logra representar todos los colores asociados con el color principal, en la grafica se puede ver la degradación en voltaje y también en su representación en la pantalla.

Page 53: SEMINARIO DE TITULACIÓN “PROCESAMIENTO DIGITAL DE …

TRANSICION DE LA TELEVISION ANALOGICA A LA DIGITAL.

53

FIG 1.16 Amplitudes decrecientes de la señal video de color R, para las barras roja, rosa y rosa pálido. Indicando colores más débiles con menos saturación de color.

1.7.5 ADICION DE COLOR Se puede reproducir prácticamente cualquier color, sólo se requiere la combinación de los colores primarios en su debida proporción a bien el menor nivel de voltaje de cada uno de ellos en caso de ser un color desvanecido, esto puede ser explicado más claramente si observamos la siguiente figura de colorimetría, como podemos ver se tiene los tres colores primarios y en el centro con la combinación de cada uno de ellos se tiene el color blanco, esta superposición permite la obtención del color blanco, a su vez en los puntos de intersección tenemos lo que se llama colores secundarios o complementarios.

Page 54: SEMINARIO DE TITULACIÓN “PROCESAMIENTO DIGITAL DE …

TRANSICION DE LA TELEVISION ANALOGICA A LA DIGITAL.

54

FIG 1.17 Figura de colorimetría COLOR PRIMARIO COLOR COMPLEMENTARIO ROJO CIAN VERDE MAGENTA AZUL AMARILLO Es importante señalar que en Televisión lo que se maneja en realidad es valores de voltaje para cada frecuencia de los colores, por lo tanto podemos decir que en realidad en sistemas de televisión en color se efectúa sumas de valores de tensión.

1.8 DEFINICIONES DE TÉRMINOS DE COLOR.

1.8.1 BLANCO.

De la grafica de combinación de colores podemos observar, que la luz blanca o color blanco es la mezcla de los colores primarios en las proporciones adecuadas de cada uno de ellos. Par el caso de Televisión el blanco esta especificado como temperatura de color de 6500ºK , esto equivale a luz de día, por ejemplo cuando se ajusta una cámara de color, esta se apunta hacia una cartulina blanca o carta de blanco y se ajusta la respuesta de los circuitos de RGB para que estos presenten niveles de salida iguales.

1.8.2 MATIZ.

En realidad el color en si mismo es un matiz, por ejemplo el pasto de una cancha de fútbol tiene una matiz verde, una manzana tiene un matiz rojo, sin embargo para diferenciar entre color y matiz de establece que el color sólido o primario puede desvanecerse o bien combinarse con otro para dar lugar a un nuevo color producto de combinación o

Page 55: SEMINARIO DE TITULACIÓN “PROCESAMIENTO DIGITAL DE …

TRANSICION DE LA TELEVISION ANALOGICA A LA DIGITAL.

55

desvanecimiento a esto llamamos matiz y como veremos más adelante la subportadora de color es la responsable directa de esta característica.

1.8.3 SATURACION. Como ya habíamos mencionado anteriormente los colores saturados son vívidos e intensos, sin embargo como se vio en la escala de desvanecimiento de un color, estos pueden tener diferentes niveles y amplitudes por lo cual puede presentarse el caso de un desvanecimiento o degradación de un color, este estado es cuando la tensión de este color disminuye, por lo cual en Televisión tenemos que un color esta saturado cuando esta a su máximo nivel de voltaje o tensión.

1.8.4 CROMINANCIA. Este término se utiliza para definir el matiz y la saturación. En televisión de color se eligió una frecuencia de subportadora de color para esta información de 3.58 MHz, la cual es específicamente la señal de crominancia; la crominancia incluye toda la información de color sin el brillo, la crominancia más la luminancia o brillo constituyen la información completa de la imagen, la crominancia suele llamarse también Croma. A continuación se muestra una descripción de las diferencias entre la señal de croma o señal C, y los colores primarios: Señal C: Incluye las bandas laterales por encima y por debajo de de la subportadora modulada de 3.58 MHz, regularmente de 3.08 a 4.08 MHz es decir +/- 0.5 MHz, el cual es el ancho de banda de los colores primarios. Señales de video RGB: Se refiere a los colores primarios y sus frecuencias de banda base de 0.5Mhz.

1.8.5 LUMINANCIA.

La luminancia indica la cantidad de intensidad de luz, que es percibida por el ojo como brillo. En una imagen en blanco y negro las partes más claras tienen más luminancia que las partes oscuras. Sin embargo este caso es para Televisión Monocromática, para el caso de televisión en color la información de Luminancia esta contenida en la señal Y, la cual esta formado por la combinación de proporciones de colores primarios, estas proporciones son las siguientes:

Señal Y= .30R + .59G + .11B

Este caso es cuando existe un valor de blanco y un nivel de voltaje de la señal de 1 vpp o sea 100 unidades IRE. La información de los valores de la señal NTSC se encuentra en la norma SMPTE-170M, la cual se encuentra en los apéndices de estos apuntes. 1.9 CODIFICACIÓN DE LA INFORMACIÓN.

Page 56: SEMINARIO DE TITULACIÓN “PROCESAMIENTO DIGITAL DE …

TRANSICION DE LA TELEVISION ANALOGICA A LA DIGITAL.

56

En esta parte consideraremos con más detalle como se produce la señal de crominancia para la transmisión de una señal en color. El primer punto a considerar es que los voltajes de los colores primarios proporcionan la información de imagen. Estas señales de voltaje son codificadas para formar las señales de crominancia y luminancia. La cámara recibe las luces roja, verde y azul que corresponden a la imagen o escena de que se trate, y produce las señales de video correspondiente a cada una de ellas. En la grafica siguiente se muestran las formas de onda de las tensiones obtenidas en la exploración de una línea horizontal a través de las barras de color las cuales son un patrón de ajuste el cual revisaremos en la sección de patrones de ajuste, la cámara a su vez esta compuesta por tres tubos de imagen cada uno sensible a uno de los colores primarios, por ejemplo el tubo de cámara del rojo produce la plena salida cuando percibe un color rojo intenso, si la escena cambia de color hacia el verde el tubo de rojo no proporcionará salida, ahora el tubo del verde se encargará de este trabajo, de la misma manera que esto sucede, la operación se repite para el tubo del azul, es decir cada uno de ellos presentará voltaje de salida cuando su propio color este presente en la escena, ahora bien cuando la escena este en blanco ahora los tres tubos presentarán emisión de voltaje o tensión en su salida, este mismo procedimiento ocurre para los sistemas modernos de CCD, En la gráfica siguiente se puede ver lo anteriormente dicho, podemos ver que cuando la barra esta en rojo, sólo el tubo del rojo produce emisión y voltaje, a su vez sucede los mismo para los otros colores, sin embargo para el caso del amarillo el cual es un color derivado o mezclado se puede observar, que los tubos de verde y rojo presentan emisión con lo cual se combinan para dar lugar al amarillo.

Page 57: SEMINARIO DE TITULACIÓN “PROCESAMIENTO DIGITAL DE …

TRANSICION DE LA TELEVISION ANALOGICA A LA DIGITAL.

57

FIG 1.18 voltajes de los colores primarios proporcionan la información de imagen. Estas señales de

voltaje son codificadas para formar las señales de crominancia y luminancia.

1.9.1 SECCION DE MATRIZ. En esta parte veremos como los colores se mezclan para obtener nuevos colores o tonalidades de ellos a esta parte se le llama Matriz, al cual se encarga en base a las tensiones o voltajes de cada uno de los colores primarios , producir señales de luminancia y otras dos señales las señal I y la señal Q, las cuales analizaremos a continuación y explicaremos el por que de estas señales, en realidad como podemos ver la matriz de color produce tres señales , la señal Y, la señal I , la señal Q. En la grafica siguiente se muestra la matriz de color y las señales de salida

FIG 1.19 SECCION DE MATRIZ

1.9.2 SEÑALES I y Q.

Como mencionamos anteriormente en la salida de la Matriz se presentan tres salidas las señales Y, I y Q, pues bien ahora analizaremos cada una de ellas por separado y explicaremos el por que de estas señales. En realidad las tres señales son combinaciones de las señales de color RGB, sin embargo en el caso de la señal Y es importante recordar que esta contiene la señal de luminancia, por lo cual no contiene los cambios de color, las dos señales I y Q, si contienen cambios de color y la suma de ellas forman la señal C

Page 58: SEMINARIO DE TITULACIÓN “PROCESAMIENTO DIGITAL DE …

TRANSICION DE LA TELEVISION ANALOGICA A LA DIGITAL.

58

Como es fácil advertir de la grafica, las señales I y Q tienen ángulos de fase separados por 90º, en efecto la Q significa cuadratura debido a la relación de fase de cuadratura con respecto a la señal I, además estas señales I y Q se pueden convertir también en señales de tipo B-Y , R-Y. En resumen de la salida de la matriz obtenemos las siguientes señales: Señal de Luminancia Y: Esta contiene las variaciones de iluminación con respecto a los tres colores, esta señal sin las componentes I y Q daría como resultado una señal de grises para las barras de color. La expresión de esta señal ya se vio con anterioridad. Señal I: la polaridad positiva de esta señal es naranja, la polaridad negativa es cian, la señal I contiene los colores intermedios entre naranja y cian, los cuales son mezclas de los colores primarios, el ancho de banda para esta señal es de 1.3 MHz, debido a que por método experimental se ha comprobado que los colores entre el naranja y el cian hacen más perceptibles los detalles de imagen. Señal Q: La polaridad positiva de la señal Q es púrpura, la polaridad negativa es verde-amarillento el ancho de banda para la señal Q es de 0.5 MHz, esta es un ancho de banda más pequeño que para la señal I, debido a la reproducción de detalles.

1.9.3 MODULACION DE CROMINANCIA. Las señales I y Q son transmitidas como bandas laterales de la subportadora de color de 3.58 MHz, que a su vez modula a la portadora principal, por ejemplo supóngase la frecuencia de portadora del canal 4, en la que su portadora se encuentra a 67.25 MHz, la cual es modulada por la portadora de 3.58 MHz, por lo cual la subportadora de color se encontrará a 67.25 + 3.58 MHz= 70.83 MHz La frecuencia de 3.58 MHz se eligió como una frecuencia de video alta para separar la señal de crominancia con respecto a las frecuencias más bajas de la señal de luminancia. Además, la alta frecuencia evita cualquier posible interferencia en la señal de luminancia. Por otra parte la frecuencia de la señal C, no debe estar tan cerca de la frecuencia de la subportadora de sonido, para evitar cualquier posible inducción en el audio.

1.9.4 EL BURST DE COLOR. Como mencionamos anteriormente, para la portadora de 3.58 MHz, sólo se usan las bandas laterales, en las cuales están las señales I y Q, por lo cual cuando se transmite la señal se suprime la portadora, es decir la frecuencia de oscilación y sólo se transmiten las bandas laterales, en realidad si se transmite una parte de la subportadora, esta parte es el BURST, de color el cual proporciona al receptor la forma de recuperar la información ,como se envía sólo una parte de la portadora, el receptor deberá tener incorporado un oscilador con la finalidad de recuperar la información. Es importante señalar que la fase del burst de color es la que proporciona la fase o matiz de la señal de video.

Page 59: SEMINARIO DE TITULACIÓN “PROCESAMIENTO DIGITAL DE …

TRANSICION DE LA TELEVISION ANALOGICA A LA DIGITAL.

59

El burst de color es una secuencia de 8 a 11 ciclos de la subportadora de color, como mencionamos anteriormente el Burst es quien sincroniza el oscilador local del receptor, es burst es insertado en cada una las líneas que se transmiten y va colocad en el umbral posterior de cada pulso de borrado horizontal, el valor de amplitud del Burst es de +/- 40 unidades IRE, la grafica siguiente muestra al burst y su posición en la línea horizontal, así mismo en la grafica numero 2 se aprecian los ángulos de fase del mismo, así como las señales I y Q.

Vista en el forma de onda.

Vista en el Vectorscopio.

FIG 1.20 Burst de color.

Page 60: SEMINARIO DE TITULACIÓN “PROCESAMIENTO DIGITAL DE …

TRANSICION DE LA TELEVISION ANALOGICA A LA DIGITAL.

60

FIG 1.21 Nivel del burst de color.

1.9.5 RESOLUCIÓN Y ANCHO DE BANDA DE COLOR. La señal Y es transmitida en todo el ancho de banda de video es decir 4.2 Mhz , con la finalidad de tener el mayor detalle en Monocromía, sin embargo este ancho de banda total no es necesario para las señales de color, esto debido a que en color el ojo no resulta tan sensible a lo detalles. Por esta razón la información de color se puede transmitir con sólo una parte del ancho de banda. Esta característica permite multiplexar la señal de crominancia en el canal estándar de 6 Mhz. Todas las señales de vídeo en color tienen un ancho de banda de 0 a 0.5 Mhz, a excepción de la señal I, la cual tiene un ancho de banda de 1.3 Mhz. En la gráfica puede apreciarse los anchos de banda, para las diferentes señales de video y al final se aprecia el ancho de banda total de la señal de video y el canal de televisión de 6 Mhz completo.

Page 61: SEMINARIO DE TITULACIÓN “PROCESAMIENTO DIGITAL DE …

TRANSICION DE LA TELEVISION ANALOGICA A LA DIGITAL.

61

FIG 1.22 Anchos de banda para las diferentes señales de video.

1.9.6 FRECUENCIA DE LA SUBPORTADORA DE COLOR. La elección de la frecuencia de subportadora fue elegida por algunas razones de protección , como ya habíamos mencionado anteriormente, es te frecuencia se eligió con la finalidad de estar dentro de un rango se seguridad y no interferir con la luminancia, por otra parte debe estar debajo de la subportadora de sonido, sin embargo para evitar en lo mayor posible, estas interferencias la portadora se suprime y sólo se transmite el Burst de color, ahora bien la frecuencia exacta de la subportadora de color en realidad no es de 3.58 Mhz, esta frecuencia se toma de esta manera por comodidad para expresarla, sin embargo la frecuencia exacta la veremos a continuación, sin embargo antes revisaremos algunas consideraciones para esta exactitud en la frecuencia de la subportadora:

Page 62: SEMINARIO DE TITULACIÓN “PROCESAMIENTO DIGITAL DE …

TRANSICION DE LA TELEVISION ANALOGICA A LA DIGITAL.

62

1.- La frecuencia de la portadora de imagen y la subportadora de sonido transmitidas no deberán cambiar, con la finalidad de evitar el batido de frecuencias para los 4.5 Mhz de sonido. 2.- Existe una frecuencia de interferencia de aproximadamente 0.92 Mhz, entre las frecuencias de la subportadora de color y la portadora de sonido. 3.- Puede existir interferencia entre la señal de crominancia y las frecuencias más altas de la señal de luminancia. Para minimizar todos estos efectos se eligió una frecuencia exacta de 3.579545 Mhz. Esta frecuencia esta determinada por la frecuencia de las relaciones armónicas de las frecuencias de exploración de línea horizontal, la frecuencia de la portadora de sonido.

FIG 1.23 Frecuencia de la subportadora.

Frecuencia de exploración horizontal: En base a tratar de encontrar soluciones para minimizar las interferencias entre cada una de las partes de la señal de video se encontró que la portadora de sonido es aproximadamente el 286º armónico de la frecuencia de línea horizontal, entonces efectuando un re cálculo de esto se obtuvo lo siguiente: FH= 4.5 Mhz / 286 = 15734.27 Hz La cual es la frecuencia exacta de exploración de línea horizontal para un sistema de Televisión en Color. Frecuencia de Exploración Vertical: Dado que se efectuó un reajuste en las frecuencias de horizontal, también debe reajustarse el vertical, debido a que están en estrecha conexión,

Page 63: SEMINARIO DE TITULACIÓN “PROCESAMIENTO DIGITAL DE …

TRANSICION DE LA TELEVISION ANALOGICA A LA DIGITAL.

63

ahora considerando que existen 262.5 líneas por campo tenemos que la frecuencia de vertical es: FH= 15734.25Hz/262.5= 59.94 Hz Esto se podría pensar en que resulta un problema para el oscilador de 60 Hz del receptor, sin embargo como la diferencia es de tan sólo 0.06 por lo cual no afecta en nada a esta variable. Frecuencia Exacta de la Subportadora de Color: En base los anteriores cálculos ahora podemos determinar la frecuencia exacta de la subportadora de color, ya habíamos mencionado que esta frecuencia se tuvo que elegir derivado de algunos problemas de interferencias con otras señales, ahora para asegurarse de evitar la interferencia la portadora de color se calculó en base a ser la 455º armónica de la frecuencia horizontal dividida entre dos es decir: C=455X (15734.27/2)= 3.579545 Mhz Con esto se asegura que no existirá interferencia de ningún tipo con el audio y con la luminancia. 1.10 STEMAS DE TELEVISIÓN A COLOR. El sistema de Televisión , visto es el NTSC, el cual se utiliza en Estados Unidos, México y un gran número de países incluyendo Japón, sin embargo existen básicamente otros dos sistemas de televisión , los dos usados en Europa, en la tabla siguiente se muestran los sistemas de televisión , así como algunos de los países que lo emplean, estos dos sistemas emplean tecnologías similares al NTSC, con algunas variantes en cuanto a las frecuencias y el número de líneas usado, así como a la forma de codificar el color, sin embargo los procesos son bastantes similares.

Sistema PAL Sistema SECAM Sistema NTSC Argentina Armenia Bahamas Bélgica Bosnia Barbados Brasil Bulgaria Belice China Croacia Bolivia Dinamarca Checoslovaquia Canadá Inglaterra Estonia Camboya Egipto Francia Chile Germany Grecia Colombia Holanda Irán Costa Rica Hungría Irak Cuba India Líbano El Salvador Israel Lituania Ecuador Italia Mali Guatemala Liberia Marruecos Honduras Malasia Nigeria Jamaica Nepal Rusia Japón Corea del norte Senegal México Paraguay Eslovenia Perú Spain Togo USA.

Page 64: SEMINARIO DE TITULACIÓN “PROCESAMIENTO DIGITAL DE …

TRANSICION DE LA TELEVISION ANALOGICA A LA DIGITAL.

64

Tabla 1.1 Sistemas empleados en los países.

1.10.1 PARTES DE LA SEÑAL DE TELEVISIÓN NTSC. La señal de Televisión en el formato NTSC, esta regulada por la norma del SMPTE (Society Motion Picture Televisión Engineers) SMPTE 170A, la cual es idéntica a la 170, sin embargo la 170A, se refiere a un sistema en color en ella se encuentran todas las frecuencias y tiempos de duración de los pulsos de sincronía tanto horizontal como vertical, borrado, subportadora de color, ecuaciones de color etc. Es importante señalar que esta norma sólo se refiere a video el caso completo para la señal ocupando el ancho de banda completo de 6 Mhz , así como la colocación de la portadora y subportadora de color y de audio, pertenecen a la norma NTSC, a continuación presentamos una gráfica en la cual se muestran estos elementos:

FIG 1.24 Colocación de la portadora y subportadora de color y de audio, pertenecen a la norma NTSC

En esta grafica se muestran las portadoras, de video principal, la subportadora de color, así como la subportadora de sonido, se puede observar también los anchos de banda y la limitación de banda en el caso de la portadora principal en la cual la banda lateral inferior esta limitada mediante filtrado con la finalidad de evitar interferencias con el canal adyacente inferior, el ancho de banda como puede observarse tiene un ancho de banda de 1.3 Mhz. 1.11 SEÑALES DE VIDEO ANALÓGICO EN COMPONENTES. Hasta ahora hemos estudiado el sistema de televisión NTSC, el cual es un sistema de video compuesto, esto quiere decir que todas las señales que hace posible la reproducción de las imágenes de televisión se encuentran juntas en un mismo paquete, es decir se encuentran moduladas y multiplexadas, esto incluye a los colores primarios, secundarios y demás componentes de la señal, este sistema resulta excelente para transmisión debido a que toda esta información se puede empaquetar para insertarse en el ancho de banda de 6 Mhz, sin embargo recuérdese que para el caso de las componentes de los colores primarios se limita el

Page 65: SEMINARIO DE TITULACIÓN “PROCESAMIENTO DIGITAL DE …

TRANSICION DE LA TELEVISION ANALOGICA A LA DIGITAL.

65

ancho de banda de estos con la finalidad de evitar interferencias con la portadora de sonido y con el canal adyacente, esto aparentemente no tiene un efecto notable sobre de la calidad de video, sin embargo en la práctica la señal o imagen si sufre un deterioro importante, por esta razón se optó por efectuar producción en la banda base de cada uno de los colores primarios, a este sistema se le llama video en componentes debido a que los equipos procesan cada uno de los colores primarios en forma independiente, es decir se procesa los componentes individuales de la señal de video, este tipo de sistema presenta ventajas en cuanto a la calidad de la imagen y a su vez plantea dificultades técnicas cuando se requiere transportar esta información, actualmente se utilizan básicamente 2 tipos de formatos en componentes, el primero de ellos es RGB, el cual veremos a continuación:

1.11.1 EL FORMATO RGB. Este formato de componentes RGB está compuesto esencialmente por 3 señales de video monocromáticas cada una representa uno de los 3 colores primarios, cada uno de los cuales viaja a través de un cable individual. Las fuentes de señal posibles son cámaras, tele cines, equipo de gráficos, etc.

1.11.2 CARACTERISTICAS DE LA SEÑAL En la tabla siguiente se muestran varios sets de señales RGB usados en la práctica. Las amplitudes de señal son típicamente de 100% y son mostradas con sincronía agregada, algunos conjuntos de señales presentan sincronía en el verde y algunas otras incluyen un cuarto cable el cual lleva la sincronía. La primera columna muestra las características en relación con el sistema NTSC, generalmente disponibles en la salida de una cámara. El setup (7.5 IRE) se agrega en el codificador para NTSC, estas señales tienen una amplitud de 714 mV pico, y si se les sincronía esta tendrá una amplitud de -286 mV. FIG. 1.25 Sets de señales RGB usados en la práctica.

Page 66: SEMINARIO DE TITULACIÓN “PROCESAMIENTO DIGITAL DE …

TRANSICION DE LA TELEVISION ANALOGICA A LA DIGITAL.

66

La segunda columna muestra las características del NTSC en relación con las componentes RGB, tal como estaría en la salida de un decodificador de NTSC, estas son similares a las señales en la columna 1, excepto que estas tienen agregado el setup. La tercera columna muestra las características de señales RGB conforme del sistema SMPTE/EBU, en esta parte no existe setup y las señales tienen una amplitud de 700 mV pico, y sincronía a -300 mV, estas señales serían las que se obtendrían en la salida de decodificador en PAL. Estos estándares son similares pero no estrictamente compatibles, derivado de la resolución de líneas para el caso de PAL y NTSC, otra característica importante es el hecho que aún cuando las componentes pertenezcan a un mismo sistema de televisión, cada uno de ellos tiene su propio nivel de señal etc. Es importante señala r que si se desea utilizar este sistema se debe estandarizar a un sistema especifico para toda la instalación.

1.11.3 LA DISTRIBUCIÓN DE LAS SEÑALES. Una señal de componentes RGB, asegura la máxima calidad disponible. Idealmente todas las actividades de producción, deberían ser trabajadas en RGB, y la codificación de video compuesto debía de ocurrir un poco antes de la etapa de transmisión, sin embargo dado que muchas veces se requiere enviar esta señales a distancias medias y largas, esto puede producir problemas de retardo y atenuación con lo cual la señal resultaría inutilizable. Además de esto pensemos en l caso en el cual la señal se requiere distribuir a varios puntos, para poder hacer esto se requeriría disponer de tres distribuidores amplificadores cada uno de ellos ajustado exactamente al mismo nivel y con el mismo tiempo de retardo, así mismo las longitudes de los cables deberán de ser las mismas par evitar problemas de retardo en la línea de transmisión. Por estas razones este tipo de tecnología no resulta de amplia difusión y ha sido relegado para uso en donde las distancias son cortas y el equipo requiere el uso de una gran calidad de señal, es el caso por ejemplo de equipos para gráficos, generadores de caracteres etc.

1.11.4 MONITOREO DE LAS SEÑALES Al igual que en el caso de RGB se requiere de un Wave Form Monitor, de tres canales par asegurarse que las componentes, se mantienen dentro de los valores validos y legales. La codificación hacia el video compuesto es altamente recomendable y se puede monitorear en un WFM convencional.

Page 67: SEMINARIO DE TITULACIÓN “PROCESAMIENTO DIGITAL DE …

TRANSICION DE LA TELEVISION ANALOGICA A LA DIGITAL.

67

1.12 FUNDAMENTOS DE AUDIO ANALÓGICO. Hasta ahora hemos hablado de video, sin embargo el sistema de audio asociado, resulta de gran importancia, desde hace algunos años las compañías de televisión han comprendido la necesidad de manejar sistemas de audio de excelente calidad para poder lograr esta calidad es necesario tener un conocimiento básico de las características del audio, algunas de ellas las veremos a continuación.

1.12.1 NIVEL DE PRESION SONORA (SPL). El sonido es definido como oscilaciones o desplazamiento bajo presión en un medio elástico. El sonido es la sensación producida por el oído por estas oscilaciones, el sonido puede ser deseable (música) o indeseable (ruido). Las oscilaciones audibles ocurren dentro de un rango (para el oído humano) aproximado de 20 Hz. – 20 Khz, algunas veces menor dependiendo de la salud del aparato auditivo del individuo. Como mencionábamos anteriormente el sonido es el resultado de oscilaciones en un medio con presión y elástico, por lo cual revisaremos una variable llamada nivel de presión sonora. El nivel de presión sonora es medido en DYNAS por centímetro cuadrado, (d/cm2), también se mide en Microbars o Newtons por metro cuadrado (N/m2). La relación entre estas unidades de medición es: 1 D/Cm2 = 1 MICROBAR = 0.1 N / m2

La referencia para el nivel de presión sonora (SPL) es de 0.0002 d/cm2 el cual corresponde al umbral de audición para una persona con una edad por debajo de 30 años a una frecuencia de 1 KHz. El nivel de presión sonora es expresado en DECIBELES por medio de esta formula: SPL (dB) = 20 log 10 (P / Pref.) Donde: SPL (dB) = nivel de presión Sonora en decibeles. P = la presión sonora medida, d/cm2. Pref. = 0.0002 d/cm2.

En la grafica siguiente se muestran algunos niveles de presión sonora encontrados en la práctica y expresados en d/cm2, así como DECIBELES con referencia en el umbral audible.

Page 68: SEMINARIO DE TITULACIÓN “PROCESAMIENTO DIGITAL DE …

TRANSICION DE LA TELEVISION ANALOGICA A LA DIGITAL.

68

FIG. 1.26 Niveles de presión sonora. En un estudio de televisión podemos identificar 3 niveles de presión sonora los cuales son: 1.- 120 dB, SPL Este es el nivel típico de un pico de una orquesta de sinfónica. 2.- 74 dB, SPL, Este es el nivel promedio del nivel de presión sonora de programas con voz y es la referencia usada por los fabricantes de micrófonos. 3.- 30 dB, SPL, Es el nivel típico de un ambiente con ruido.

1.12.2 MEDICIÓN DE FASE MEDIANTE EL MONITOR DE FASE DE AUDIO.

Actualmente casi todas las estaciones de Televisión, utilizan audio estéreo en sus emisiones, por lo tanto se requiere mayor cuidado en el nivel y fase de los dos canales de audio, esto es debido a que cuando el audio se modula para la transmisión sabemos que el modulador de audio trabaja bajo la relación: L-R , LCR Las cuales son relaciones de fase de los canales de audio, por lo cual si se producen errores en la conexión de estos canales al salir del estudio , es decir al ser enviados hacia el máster , este las enviará en forma incorrecta la transmisor con lo cual la transmisión estéreo será incorrecta y el televidente no podrá apreciar la sensación estéreo, Para evitar estos problemas existe un método llamado figuras de Lissajous, las cuales al ser observadas en un monitor de

Page 69: SEMINARIO DE TITULACIÓN “PROCESAMIENTO DIGITAL DE …

TRANSICION DE LA TELEVISION ANALOGICA A LA DIGITAL.

69

audio nos permiten determinar la correcta o incorrecta posición de los canales de audio, así mismo existen algunos equipos encargados del monitoreo de audio , algunos de ellos son Tektronix ,audio monitor modelo 760 A. Los patrones de Lissajous son:

FIG. 1.27 Patrones de Lissajous. Como es fácil observar de estas figuras este método nos permite tener en cuanta los errores de fase así como de nivel diferente en cada uno de los canales.

1.12.3 MONITOREO DE NIVELES DE AUDIO. El monitoreo de audio, es una parte muy importante en la etapa de transmisión y generación del audio, este proceso se realiza con la finalidad de evitar los picos de nivel los cuales pueden ocasionar sobrecarga y distorsión en la transmisión. Existen básicamente dos tipos de medidores para audio el medidor de VU’s y el PPM , a continuación veremos los dos casos:

1.12.3.1 EL MEDIDOR DE VU’s.

Resulta conveniente efectuar la medición de nivel de señal de audio tomando en cuenta el valor promedio de acuerdo con el volumen del audio. El equipo adecuado para efectuar estas mediciones es el medidor de VU’s.

Page 70: SEMINARIO DE TITULACIÓN “PROCESAMIENTO DIGITAL DE …

TRANSICION DE LA TELEVISION ANALOGICA A LA DIGITAL.

70

El equipo fue desarrollado en los años 30’s por los institutos de CBS, NBC y Bell. La característica de este equipo es que cuando se conecta a un equipo o circuito de carga de 600 Ohms de impedancia y con una señal de 1 Khz se tiene un voltaje de 1.228 volts, al ser un medidor de aguja móvil, la aguja bajo estas condiciones se reflexiona hasta la marca 0 VU, es importante señalar que este instrumento al ser mecánico posee el problema de la inercia y por lo cual no sirve para medir señales de pico, dado que no responde con la suficiente rapidez , por este motivo una medición en este equipo depende de su velocidad de respuesta la cual es de más o menos 30 milisegundos o 0.3 segundos, en este momento la medición que el equipo hace resulta confiable.

1.12.3.2 EL MEDIDOR PPM. Este medidor posee una respuesta mucho mejor que el medidor VU’s, por lo cual permite el monitoreo de los picos de la señal, se encuentra referido al igual que el medidor mecánico, sin embargo este es capaz de efectuar mediciones de picos que puedan resultar perjudiciales para la transmisión, produciéndose saturación y distorsión, las escalas para estos medidores van del orden de -20 VU’s hasta + 4VU’s pasando por cero. Es importante señalar que es deseable que los picos de señal no sobrepasen +3 VU’s

1.12.4 RANGO DINAMICO El rango dinámico es el rango de el espectro de frecuencias audibles cuyas características ya se vieron con anterioridad, por otra parte es importante señalar que en Televisión y estaciones de Radio FM estéreo, no se pueden transmitir frecuencias mayores a 15 Khz, debido a sobre modulación de la portadora de audio y la subportadora estéreo.

Page 71: SEMINARIO DE TITULACIÓN “PROCESAMIENTO DIGITAL DE …

TRANSICION DE LA TELEVISION ANALOGICA A LA DIGITAL.

71

CAPITULO 2. FUNDAMENTOS DE TELEVISION DIGITAL.

2.1 INTRODUCCIION. Desde hace algunos años, los sistemas de Televisión Analógicos han comenzado a ser reemplazados por la nueva tecnología de Televisión Digital; desde el inicio de esta revolución tecnológica en los años 90´s, cada vez más compañías deciden efectuar la migración hacia sistemas de proceso digital. Para poder obtener mayores beneficios de los sistemas digitales, estos deben de ser diseñados considerando nuevos conjuntos de reglas, las cuales en algunas ocasiones resultan similares con los sistemas analógicos y en algunas otras resultan ser completamente diferentes. Regularmente los planes de diseño incluyen la consideración en la cual se tienen sistemas completamente digitales trabajando en conjunto con sistemas analógicos, para posteriormente ir evolucionando hacia una instalación completamente digital y posteriormente hacia sistemas de HDTV, sin embargo calculamos que esta tecnología no estará disponible en forma económicamente viable hasta quizá 7 o más años, por lo que el paso siguiente desde sistemas analógicos es hacia sistemas digitales, los cuales ahora resultan muy viables económicamente, por estas razones se requiere actualizar a las personas involucradas en todo el proceso de producción, así como al personal de ingeniería responsable de el servicio e instalación de los equipos; por esta razón se ha diseñado este curso que pretende aportar los conceptos básicos y consideraciones necesarios para la operación de un sistema de televisión digital, los puntos básicos a tratar son los siguientes: ° Definiciones y estándares de Televisión Digital ° Estudio de los formatos de Video Digital ° Interfaces y Métodos de Transmisión de una Señal Digital ° Problemas de la Señal Digital * Mediciones de Señales Digitales. 2.2 ¿POR QUE TELEVISION DIGITAL? Una pregunta importante acerca de Televisión Digital, se refiere a cual es la ventaja real de cambiar los sistemas analógicos hacia sistemas de Televisión Digital, ¿existe un incremento real de la calidad? , comparando los sistemas analógicos existentes, podemos observar que estos han alcanzado el límite máximo de su rendimiento, por otra parte la calidad que estos sistemas ofrecen resulta bastante similar a la que ofrecen sistemas digitales, considerando la calidad desde

Page 72: SEMINARIO DE TITULACIÓN “PROCESAMIENTO DIGITAL DE …

TRANSICION DE LA TELEVISION ANALOGICA A LA DIGITAL.

72

un punto de vista perceptivo, por ejemplo si usted observa una señal grabada correctamente en una maquina de video tape de formato “C” en la cual la cinta es de 1”, la resolución esperada de un sistema de este tipo es casi de 600 líneas, por lo tanto se acerca con mucho a la calidad de un sistema digital, sin embargo si se efectúan mediciones de relación señal a ruido podemos ver la ventaja de los sistemas digitales, a simple vista esto no representa una ventaja de peso para decidir a cambiar a un sistema de proceso digital, las ventajas reales de un sistema digital se muestran a continuación: 2.3 VENTAJAS DE UN SISTEMA DIGITAL.

2.3.1 MULTIGENERACION SIN PÉRDIDA DE CALIDAD. Un problema que existe en los sistemas analógicos es de la Multigeneración a partir de un solo máster o cinta maestra, cada vez que se efectúa una generación a partir de otra la calidad se degrada ostensiblemente, este problema no era posible de solucionar en los sistemas analógicos y es en realidad la gran ventaja de un sistema digital que permite efectuar multigeneraciones sin sufrir degradación en la calidad original.

2.3.2 GANANCIA Y RESPUESTA EN FRECUENCIA TOTALMENTE ESTABLE.

En un sistema de Televisión Digital, prácticamente no existen ajustes, por lo cual la labor de mantenimiento resulta mas simple, de la misma forma la labor del operador resulta más simple sin que la calidad de la señal sufra degradación, la frecuencia del stream o flujo digital es fija, por lo que no se requieren procesos de clamping , y tampoco se requiere cuidar de una manera tan escrupulosa el nivel de video, sincronía y demás parámetros que en el dominio analógico resultan tan importantes. Problemas tales como: hum , ganancia diferencial, fase diferencial, etc. no tienen relevancia en el dominio digital.

2.3.3 FACILIDADES DE POST-PRODUCCION. Otra ventaja de un sistema con proceso digital es que los procesos de post-producción resultan económicamente más baratos y fáciles de efectuar; efectos especiales que anteriormente implicaban una gran dificultad para realizarse ahora resultan posibles mediante las tecnologías digitales, un ejemplo de esto lo representan los manipuladores digitales o DVE’s, los cuales tenían que convertir las entradas de señal analógicas hacia señales digitales, lo cual elevaba su costo así como su complejidad, actualmente es posible que DVE esté integrado dentro del switcher de producción. 2.4 EL PROCESO DE CONVERSION NALOGICO-DIGITAL.

2.4.1 BITS, BYTES Y PALABRAS.

Page 73: SEMINARIO DE TITULACIÓN “PROCESAMIENTO DIGITAL DE …

TRANSICION DE LA TELEVISION ANALOGICA A LA DIGITAL.

73

La información digital puede ser representada por diferentes unidades. La unidad más simple es el bit. Bit es la abreviación de las palabras en inglés “binary digit”, un bit es un valor de 1 ó 0, tal como si fuera la posición de encendido o apagado en un switch. Encadenando varios bits juntos se puede representar un carácter o número. Grupos de bits son llamados bytes, palabra (word) o palabra de datos (data word). Un byte es un grupo de 8 bits. Una palabra puede consistir de cualquier número de bits, definidos específicamente para el sistema digital que use esta palabra. Algunos sistemas pueden usar 8, 10, 16, 18, 20 ó inclusive 24 bits por palabra. La velocidad a la que la información digital es transmitida se representa como millones de bits por segundo, mediante la siguiente nomenclatura: 143 Mb/s.

2.4.2 MUESTREO. El primer paso en el proceso de convertir una señal análoga hacia digital se llama muestreo este procedimiento implica el dividir las variaciones de una señal análoga en muestras mediante intervalos de tiempo discretos, esto puede ser observado en la figura:

FIG.2.1 Resultado del muestreo de la señal análoga.

El muestreo resulta de vital importancia ya que el rango de muestreo debe ser suficientemente rápido para evitar pérdidas importantes de información. Generalmente se emplea una frecuencia de muestreo la cual debe de ser cuando menos el doble de la frecuencia más alta análoga.

Page 74: SEMINARIO DE TITULACIÓN “PROCESAMIENTO DIGITAL DE …

TRANSICION DE LA TELEVISION ANALOGICA A LA DIGITAL.

74

Fm=2fo

Donde: Fm=frecuencia de muestreo fo =frecuencia de la señal analógica En el mundo real la frecuencia de muestreo es un poco más alta que dos veces la frecuencia de la señal analógica. A esta expresión se le conoce como el Teorema de Nyquist.

2.4.3 EL PROCESO DE CUANTIZACION. El segundo paso en el proceso de digitalización es la cuantización, este procedimiento implica asignar un número digital a los niveles de voltaje en la señal analógica muestreada. 256 niveles para 8 bits (28), 1024 niveles para 10 bits (210). Esto puede expresarse mediante la siguiente ecuación:

Q= 2n

Donde: Q= Numero de Muestras a cuantizar El 2 es la base del sistema binario. N= numero de bits usados para la conversión.

Los beneficios de un sistema digital dependen de la precisión usada, algunas máquinas de videotape utilizaban solamente 8 bits para video, sin embargo actualmente se utilizan 10 bits como estándar. Procesamientos con menos de 10 bits pueden causar problemas en la reconstrucción del video, estos efectos visibles pueden aparecer como un contorno en la imagen también llamado Artifacts , por otra parte el tamaño del convertidor también tiene importancia en el momento de efectuar funciones por ejemplo Keys en un Switcher.

2.4.4 ERRORES DE CUANTIZACION Y ALIASING. Los errores de cuantización, son defectos en el proceso de conversión debidos a la variación de las señales que se convierten, de hecho estos errores dependen de la resolución de los convertidores usados, por ejemplo para un convertidor de 8 bits se producen errores indeseables por ejemplo ruido y contornos defectuosos en las imágenes. Conversiones de menos de 8 bits, tienen como consecuencia imágenes con una calidad inaceptable. Estos errores se pueden calcular como niveles de voltaje de error del convertidor, por ejemplo el valor RMS de un conjunto de errores esta dado por la expresión:

Q/√12

Page 75: SEMINARIO DE TITULACIÓN “PROCESAMIENTO DIGITAL DE …

TRANSICION DE LA TELEVISION ANALOGICA A LA DIGITAL.

75

Además la salida pico a pico del convertidor es igual a:

2nQ Por lo tanto la relación señal a ruido provocado por errores de cuantización en un convertidor esta dado por la expresión:

S/QRMS (dB) = 20 log (2nQ x √12) /Q Por leyes de logaritmos tenemos:

= 20 (log 2nx√12) = 20 (n log 2) + 20 log √12 = n (20 log 2) + 20 log 3.4641

= n(6.0205) + 10.7918, considerando que n es igual al número de bits usados para la conversión, tenemos:

8(6.0205) + 10.7918 = 58.9558 dB. Como podemos observar el coeficiente de ruido es alto, para un convertidor de 8 bits, por lo cual resulta muy recomendable usar equipos de conversión con resoluciones mayores, actualmente la mayoría de los equipos utilizan convertidores de 10 y hasta 12 bits. A este problema de errores de cuantización que trae como consecuencia un nivel de ruido alto también se le llama aliasing. 2.5 INTERFASES DE VIDEO DIGITAL. Hasta ahora hemos revisado el proceso de la señal desde el punto de vista del muestreo, sin embargo esta información digital requiere un medio a través del cual ser transmitida, este medio se llama interfaces, existen dos tipos de interfaces para la transmisión digital, las cuales explicaremos a continuación:

2.5.1 INTERFASE PARARLELA. Este tipo de interface es capaz de transmitir por bytes, es decir palabras completas a través de un conector de 25 cables (DB-25). Un par de cables se requiere para transmitir la información de un solo Bit, el reloj es transmitido en un par de cables también, el conector utilizado para este efecto se muestra en la siguiente figura: FIG. 2.2 Interface Paralela.

Page 76: SEMINARIO DE TITULACIÓN “PROCESAMIENTO DIGITAL DE …

TRANSICION DE LA TELEVISION ANALOGICA A LA DIGITAL.

76

Como es fácil observar el uso de este tipo de conectores para video tiene muchas desventajas. Es difícil y costoso trabajar con este tipo de conectores, el tiempo para construir un conector de este tipo es quizás 10 ó 15 veces mayor que el requerido para construir un cable BNC, el costo del conector es tal vez 5 veces superior a un BNC. La durabilidad de la instalación resulta también un punto importante, frecuentemente los conectores DB-25 presentan problemas de falsos contactos cuando no están bien atornillados o bien cuando el proceso de soldadura o plisado entre el conductor y los pines no se efectuó correctamente. En una instalación con interface paralela no pueden efectuarse loops, el espacio requerido para un conector DB-25 paralelo, es el equivalente para 3 conectores BNC, esto causaría que los paneles traseros de los equipos sean de mayor tamaño para tener espacio suficiente para los conectores. La principal razón por lo cual este tipo de instalación no es utilizada en sistemas grandes se debe a la limitación en distancia intrínseca a la interface. Una interface paralela teóricamente puede enviar señales hasta aproximadamente 50 metros dependiendo de la calidad del cable usado, aplicando ecualización esta distancia puede crecer hasta 120 metros, sin embargo, el equipo para ecualización para interfaces paralelas resulta muy costoso. Otro gran problema existente es la desviación entre los datos y la señal de reloj causada por los retardos de propagación a través de longitudes diferentes de cable. Como es fácil observar estas limitaciones hacen que la interface paralela no resulte de aplicación práctica para instalaciones grandes y actualmente se encuentra limitada para sistemas pequeños como islas de edición y suites de gráficos. La norma para video digital en componentes a través de una interface paralela es la SMPTE-125M.

2.5.2 INTERFACE SERIAL. Como mencionamos anteriormente, la interface paralela presenta varios inconvenientes para instalaciones de mayor tamaño, ante esta problemática se decidió por utilizar la interface de tipo serial la cual presenta grandes ventajas, las cuales revisaremos a continuación. La interface serial utiliza como medio conductor cable coaxial y acoplado un conector BNC; como es fácil observar resulta mucho más simple efectuar las conexiones por este medio, el ensamble del conector resulta más simple ahorrándose tiempo en la instalación , el costo de los conectores y en general de la instalación resulta mucho más económica, estas ventajas en si mismas representan grandes ventajas sin embargo quizás las más importantes se encuentren referidas a las características eléctricas de la interface, Una interface de tipo serial es capaz de conducir señales digitales sin necesidad de ecualización o compensación hasta distancias de hasta 200 mts y 300 mts empleando cables especiales para señales digitales, una interface serial soporta efectuar loops; cuando se requiere efectuar ecualización el circuito que se emplea es sencillo y relativamente barato por lo cual el uso de la interface serial es muy extendido y esta designado como estándar para la mayoría de los sistemas de televisión.

Page 77: SEMINARIO DE TITULACIÓN “PROCESAMIENTO DIGITAL DE …

TRANSICION DE LA TELEVISION ANALOGICA A LA DIGITAL.

77

Derivado del uso de la interface serial, regularmente el video digital suele llamarse SDI (Serial Digital Interfase), sin embargo esta terminología no resulta del todo correcta, ya que existe interface serial para video compuesto, así como interfase serial para video en componentes digitales 4:2:2, sin embargo para usos prácticos continuaremos llamándolo SDI 4:2:2, la referencia técnica del SMPTE, se encuentra en la recomendación SMPTE 259M. 2.6 FORMATO DE VIDEO DIGITAL POR COMPONENTES. 2.6.1 EL FORMATO 4:2:2, 4:4:4 y 4:2:0. Desde hace mucho años se ha tratado de hacer compatibles los sistemas Europeo y Americano, lo cual no ha sido posible hasta ahora, sin embargo esta idea se reforzó partiendo del sistema en componentes, básicamente el sistema Europeo y Americano se encuentran definidos por componentes de video, dado que ya en el sistema de video compuesto se muestreaba a 4 veces , se pensó en continuar con este mismo factor sin embargo en la idea de hacer compatibles estos sistemas se requería buscar una frecuencia de muestreo que trajera como resultado un número entero igual u cuando menos parecido de muestras por periodo de línea para ambos sistemas tanto PAL como NTSC, esta frecuencia se estableció en 13 .5 Mhz , debido a las siguientes relaciones: FM= 858 X fH= 858X 15734.27 = 13.5 Mhz Esta es la frecuencia de muestreo para el caso de NTSC, en donde se considera una frecuencia de horizontal de 15734.27 Hz Ahora revisaremos el caso del sistema en PAL, para este caso se considera una frecuencia de línea de 15625 Hz, aplicando la misma relación tenemos: FM= 864 X fH= 864X 156325 = 13.5 Mhz De lo anterior observamos que no resulta exactamente le mismo numero de muestras, sin embargo el numero obtenido resulta muy similar, esto trae consigo la posibilidad de hacer un poco más compatibles los sistemas. Es importante señalar que esta frecuencia fue utilizada para muestreo de la Luminancia, la cual se muestrea a 4 veces, para el caso de las componentes de color, estas se muestrean a sólo 2 veces, esto debido a la sensibilidad del ojo humano, esta parte se estudió en el inicio del curso, en base a pruebas se encontró que con muestrear sólo 2 veces se logra una buena calidad de imagen, de lo anterior tenemos que la frecuencia de muestreo para las componentes de color será: FMCOMPONENTES= 13.5 Mhz/2= 6.75 Mhz. En la siguiente tabla se muestran los valores de muestras, para cada componente, para los sistemas PAL y NTSC.

Page 78: SEMINARIO DE TITULACIÓN “PROCESAMIENTO DIGITAL DE …

TRANSICION DE LA TELEVISION ANALOGICA A LA DIGITAL.

78

Tabla 2.1 2.6.2 El FORMATO 4:4:4. En algunas ocasiones el muestreo 4:2:2 no resulta de buena calidad para ciertas aplicaciones, por lo cual se tiene que muestrear tanto la luminancia como las componentes a banda completa es decir tanto la luminancia como las componentes se muestrean a 4:4:4, esto obviamente trae consigo un mayor ancho de banda pero la calidad resulta mejor, algunos ejemplos de esto son

Page 79: SEMINARIO DE TITULACIÓN “PROCESAMIENTO DIGITAL DE …

TRANSICION DE LA TELEVISION ANALOGICA A LA DIGITAL.

79

los casos de equipos de gráficos, generadores de caracteres, inserción de Chroma Key en un Switcher Digital, etc., de hecho en el Chroma Key del Switcher se encontró que cuando se efectuaba la inserción de señales en 4:2:2, se producían problemas de contorno en la inserción de Key, esto se debía a falta de información en el Chroma, por lo cual actualmente los Switchers efectúan un proceso interno de muestreo para duplicar las muestras de la componente 4:2:2 original. 2.6.3 ESTRUCTURA DE MUESTREO. Muestrear la señal analógica de video a un múltiplo de la frecuencia de línea horizontal trae como resultado el hecho de que el muestreo se encuentre alineado en vertical con la exploración de línea horizontal y con el conjunto del campo en sí. A este tipo de estructura se le llama muestreo Ortogonal, Si se aplica el muestreo ortogonal, las dos señales de diferencia de color, se muestran el mismo instante y simultáneamente con una de las muestras de Luminancia, tal como puede verse en la figura siguiente:

FIG. 2.3 Muestreo ortogonal. El numero de muestras de Luminancia por línea total es igual a fm/fH, donde fM= 13.5 Mhz, donde fM es la frecuencia de muestreo y fH es la frecuencia de Barrido horizontal, ya sabemos que el numero de muestras es de 858, numeradas del 0 al 857, para el caso de PAL tenemos que el numero de muestras es de 864 numeradas del 0 al 863. Ahora consideremos el número de muestras para el caso de las componentes de color, tenemos que la frecuencia de muestreo para las componentes es de 6.75 Mhz, ahora aplicando la misma relación tenemos que le numero de muestras es de: Numero de Muestras= fM/fH= 13.5 Mhz/15734.27 Hz = 429 Muestras. Para el caso del sistema de televisión PAL, tenemos: Numero de Muestras (PAL)= fM/fH= 13.5 Mhz/15625 Hz = 432 Muestras.

Page 80: SEMINARIO DE TITULACIÓN “PROCESAMIENTO DIGITAL DE …

TRANSICION DE LA TELEVISION ANALOGICA A LA DIGITAL.

80

Considerando la duración de Borrado Vertical en Muestras la cual es de 138 muestras, tenemos que le numero total de muestras activas por línea será de: Muestras activas por Línea (NTSC)= 858 -138= 720 Muestras Activas por Línea. Para el número de muestras activas para las componentes de Chroma tenemos que esta se muestrean a la mitad de la Luminancia, por lo tanto tenemos: Muestras Activas para las Componentes de Chroma= 720/ 2= 360 De lo anterior también podemos suponer que si para el caso de la luminancia se tienen 138 muestras, para el caso de las componentes de chroma este numero será de la mitad, o sea de 69 muestras. Para el caso del Sistema en PAL, el número de muestras para el Intervalo de Borrado vertical es de 144 muestras, por lo tanto el número de muestras por línea activa es de: Muestras activas por Línea (PAL)= 864 -144= 720 Muestras Activas por Línea. Como es fácil advertir es el mismo número de muestras para el caso de línea activa para ambos sistemas. El numero de muestras resultantes en una línea activa de video es de 720 muestras de Luminancia y 360 muestras para el caso de la componente B-Y, así como de 360 para la componente R-Y, por lo cual el numero total de muestras para una línea activa completa considerando las componentes de Luminancias y las dos de Croma es de 1440 Muestras, es decir el numero de muestras totales es de 1440, numeradas de 0 a 1439, mientras que le numero de muestras para el intervalo vertical es de: Muestras Intervalo Vertical (NTSC) = 138(y) + 69 (B-Y) + 69 (R-Y) = 276 Muestras. Para el caso de un sistema en PAL tenemos lo siguiente: Muestras Intervalo Vertical (PAL) = 144(y) + 72 (B-Y) + 72 (R-Y) = 288 Muestras. Ahora considerando el número total de muestras para un sistema NTSC tenemos: Numero Total de Muestras (NTSC)= 1440 + 276 = 1716 Muestras Numeradas del 0 al 1715, para el sistema NTSC. Para el caso de un sistema en PAL, tenemos el siguiente: Numero Total de Muestras (PAL)= 1440 + 288 = 1728 Muestras

Page 81: SEMINARIO DE TITULACIÓN “PROCESAMIENTO DIGITAL DE …

TRANSICION DE LA TELEVISION ANALOGICA A LA DIGITAL.

81

Numeradas del 0 al 1727. 2.7 SEÑAL DE REFERENCIA (TIMMING REFERENCE SIGNAL). La señal de video por componentes no incluye el tip de sincronía. Dos señales de referencia se encuentran multiplexadas en el flujo de datos en cada línea, 8 palabras de datos, se reservan el borrado horizontal para la transmisión de señales de timming y referencia. En la figura anterior se muestran los espacios reservados para la transmisión de la señal de referencia, esos espacios van de las palabras 1440 a 1443 y están reservados para la señal de referencia EAV. Las palabras de 1712 a 1715 se encuentran reservadas para la señal de referencia SAV. Cada señal de referencia consiste en una secuencia de 4 palabras, esta secuencia puede ser representada usando notación hexadecimal de 10 bits. 3FF, 000, 000, XYZ Las tres primeras palabras son un preámbulo flexible. El 3FF y 000, son reservados para identificación del Timming y además identifican la sincronía de SAV, EAV. XYZ representan una palabra variable, la cual contiene información que define:

• Identificación del campo

• Estado de Borrado Vertical

• Estado de Borrado Horizontal 2.8 EL ANCILLARY DATA. Antes de hablar del Ancillary Data diremos que el Ancillary Data es el espacio libre en el cual se puede insertar información, algo similar a lo que ocurre en NTSC con el espacio de Vertical para un sistema analógico, de hecho guardan una gran relación campo veremos más adelante. El Ancillary data permite insertar algunos servicios tales como: Audio Embebido, Close Caption, etc. Existen dos formas de Ancillary Data estas son llamadas Ancillary Data Horizontal y Vertical a diferencia de sistema 4Fsc, el cual sólo puede soportar inserción de Ancillary data en el Data Stream Serial, el sistema en componentes es capaz de insertar Ancillary data en cualquier porción del sistema 4:2:2, siempre y cuando no este ocupado por la señal de referencia o por datos de video. 2.8.1 HORIZONTAL ANCILLARY DATA (HANC). Resoluciones de 10 bits para HANC, pueden ser usadas en el intervalo horizontal, cada bloque se encuentra precedido por un encabezado de tres palabras: 000, 3FF, 3FF

Page 82: SEMINARIO DE TITULACIÓN “PROCESAMIENTO DIGITAL DE …

TRANSICION DE LA TELEVISION ANALOGICA A LA DIGITAL.

82

2.8.2 VERTICAL ANCILLARY DATA (VANC). En un sistema NTSC el VANC, se encuentra permitido sólo en la porción activa de las líneas 1 a 13, 15 a 19, 264 a 276 y 278 a 282. Las líneas 14 y 277, se encuentra reservadas para el Time Code Vertical Digital (DVITC). El VANC es un formato de 8 bits. 2.9 EL EDH (ERROR DATECTION AND HANDLING). El problema con televisión digital es que los problemas de pérdidas y degradación de la señal muchas veces no son tan evidentes, en ocasiones usted puede ver la imagen en un monitor y pensar que no existe nada mal, sin embargo esta señal puede desaparecer de un momento a otro sin una razón lógica aparente. Si se trata de medir la señal por medios tradicionales por ejemplo un waveform analógico y un vectorscopio (después de usarse un convertidor Digital-Analógico), usted podrá ver que la señal es perfecta, no existe atenuación, la calidad de la imagen permanece con excelente calidad. Sin embargo el problema radica en el dominio digital, técnicas totalmente diferentes son necesarias para efectuar estas mediciones. De hecho se requiere checar lo errores de bits en la señal, es aquí en donde el EDH hace su contribución al mundo digital. El uso de las técnicas para EDH en instalaciones de televisión serial digital es una recomendación del SMPTE, en la recomendación RP-165. Antes de hablar acerca del EDH, es importante resaltar que el EDH por sus siglas en Inglés Error Detection and Handling, es una forma de evaluar la calidad de la transmisión de los paquetes de información a través de una interfase de tipo serial, por lo cual en realidad el EDH forma parte de las características de una interfase serial, mas que de el Sistema en Componentes, por otra parte esta información se encuentra insertada en el Stream de la Interfase, y el sólo valido para el caso de una Interfase de tipo Serial, mas adelante se explica a detalle el funcionamiento del EDH. 2.9.1 PRINCIPIOS DEL EDH. El principio del EDH esta basado en técnicas similares a las que se usan en comunicaciones digitales. Un transmisor de EDH está conectado con el equipo bajo prueba y un receptor de EDH está conectado en la salida del mismo tal como se muestra en la figura. El primer dispositivo de EDH cuenta los bits de la imagen digital en cada campo de la imagen y después inserta esta información en el ancillary data en el inicio del intervalo de blanking del siguiente campo. La señal completa junto con los datos insertados pasa posteriormente a través del equipo bajo prueba. El segundo dispositivo de EDH conectado en la salida repite los mismos cálculos para contar los bits en el campo y comparar el resultado con ancillary data contenido en la señal. Si los dos números no coinciden después uno ó más errores son detectados. Contando los bits resultantes

Page 83: SEMINARIO DE TITULACIÓN “PROCESAMIENTO DIGITAL DE …

TRANSICION DE LA TELEVISION ANALOGICA A LA DIGITAL.

83

por cada campo es la manera de checar la palabra, esto se calcula usando el CRC-CCITT método de generación polinomial (código de redundancia cíclica). En comunicaciones la meta es reproducir fielmente la señal original sin modificaciones y un código CRC puede ser usado con un alto grado de confiabilidad para corregir cualquier error, desafortunadamente en televisión esto no resulta posible ya en múltiples ocasiones pueden suceder eventos que cambian la imagen por ejemplo el productor puede agregar un logo o una indicación en la pantalla, o bien el Ingeniero de la transmisión requiere agregar las señales de prueba en el intervalo vertical (VITS), cuando esto ocurre como el EDH hace para distinguir un error de un cambio en la imagen. Existen algunas indicaciones especificas llamadas banderas para indicar al operador que ha ocurrido un cambio y si el cambio ocurrió en la imagen o en el intervalo de blanking, esto permite saber si el error ocurrió en el paso anterior o bien en el inicio de la transmisión, estas banderas se explicaran cada una, sin embargo continuaremos explicando un poco más acerca del EDH. 2.9.2 INSERCION DE EDH. Los datos en paralelo pasan a través de un coprocesador el cual cuenta campo por campo y genera un CRC por cada campo, los CRC’s son multiplexados en los datos en paralelo y después son serializados y transmitidos a través de cable coaxial hacia el siguiente dispositivo. 2.9.3 RECEPCION DE EDH. La señal serial es recibida en la entrada del siguiente dispositivo, esta señal es deserializada en datos paralelos y el CRC del dispositivo anterior es extraído, un nuevo CRC es calculado y comparado con el CRC del dispositivo anterior, si la comparación falla se indica que un error está presente y estas discrepancias son insertadas como banderas en los datos paralelos de salida, estas banderas son reportadas hacia el usuario en este punto. 2.9.4 EQUIPO DE EDH. Para proporcionar un medio para checar la integridad de la transmisión serial digital, el SMPTE ha propuesto a los fabricantes de equipo el incorporar un circuito de EDH en sus transmisores seriales y receptores con la finalidad de detectar errores en el flujo de datos digital. Algunos productos nuevos ahora ofrecen la capacidad de inserción y detección de EDH y cada vez es más común que aparezcan equipos con esta capacidad, sobre todo equipos de procesamiento de señal. 2.9.5 EL EFECTO CLIFF. El aplicar reclocking y ecualización, resulta de suma importancia cuando se va a enviar una señal digital a distancias largas o bien cuando esta proviene de un punto remoto debido a que como ya mencionamos la señal suele degradarse y acumular jitter y atenuación.

Page 84: SEMINARIO DE TITULACIÓN “PROCESAMIENTO DIGITAL DE …

TRANSICION DE LA TELEVISION ANALOGICA A LA DIGITAL.

84

En algunas ocasiones se puede enviar una señal Serial Digital a distancias de 200 mts, y cuando se revisa la calidad de la señal en un monitor, al parecer no existen problemas es más si se agregan 50 mts más de distancia quizá la señal aparecerá sin alteraciones en el monitor, y tal vez se pueda incrementar la distancia poco a poco, hasta llegar al punto en el cual tan sólo con agregar un metro o dos la señal desaparece y llega al punto de ser inservible, a este efecto se le llama efecto Cliff, lo que sucede en esta caso en realidad es que al deteriorarse la señal con la distancia y el jitter, se empiezan a producir errores los cuales no pueden ser corregidos por el código de corrección, en algunos equipos se integra un sistema de advertencia el cual puede ser desde un simple led que enciende cada vez que se producen errores, o bien mediante un sistema más complejo el cual es capaz de brindar un reporte de este tipo de errores, a este indicación se le llama EDH (Error Detection Handling) , el cual es el punto que veremos a continuación. 2.10 ERRORES DIGITALES. Un error digital esta definido como uno o más bits de datos con diferente valor en el destino al valor que tenían en el origen. Estos errores pueden ser causados por fallas en le equipo, longitud excesiva de cable, la figura muestra como el número de errores crece a medida que la longitud de cable es mayor, a esto se le conoce como el efecto Cliff, ante esto se tiene que aplicar una acción correctiva. En el caso de que se maneje Audio Embebido el problema es todavía mayor ya que el problema no sólo se presentará en el video sino también en el audio, lo cual a veces resulta más molesto que los propios problemas del video.

FIG. 2.4 Errores Digitales “Efecto Cliff”

Page 85: SEMINARIO DE TITULACIÓN “PROCESAMIENTO DIGITAL DE …

TRANSICION DE LA TELEVISION ANALOGICA A LA DIGITAL.

85

2.11 EL PATRON DE OJO Y MEDICIONES PARA UNA INTRFACE SDI 4:2:2. Las mediciones son una parte muy importante de las señales seriales digitales, anteriormente ya habíamos platicado acerca de algunos problemas en la transmisión serial, así como la relación transmisor – receptor y el transporte de la señal, como se mencionó al inicio, la señal digital en realidad no sufre de problemas tales como: degradación de Chroma, problemas de sincronía, atenuación del nivel de video etc, Sin embargo la interfase serial si tiene problemas de atenuación y jitter, para poder efectuar mediciones al respecto y de esta manera asegurarnos que la señal será transmitida en forma adecuada; el Patrón de Ojo, es un patrón que se representa en un Waveform Monitor Digital, este patrón permite medir el nivel de jitter y atenuación de la señal serial, los parámetros así como el patrón se muestran el la figura:

FIG.2.5 Forma de onda del Eye Pattern 2.12 ECUALIZACION Y RECLOCKING. De lo anteriormente visto, podemos afirmar que si bien la información es digital, en realidad la señal físicamente es analógica, y por lo tanto es vulnerable a problemas físicos tales como atenuación, respuesta en frecuencia del medio de transporte, distorsión de fase, ruido, clock jitter etc, por tal motivo es importante tener ciertas consideraciones con el transporte de esta información, en pocas palabras la información en realidad no sufre problemas de degradación , pero la señal de transporte sí los sufre esto quiere decir que el carrier si puede sufrir problemas y por lo tanto perderse la información, si el grado de distorsión o de atenuación traen como consecuencia que los datos sean irrecuperables. Distancias largas de cables son la causa principal de distorsiones en la señal. La mayoría de los equipos poseen ecualización y regeneración en las entradas, con la finalidad de compensar los problemas que pudieran ocasionar estas distancias. La regeneración de la señal generalmente quiere decir el recuperar datos desde la señal de entrada y retransmitirla en una forma de

Page 86: SEMINARIO DE TITULACIÓN “PROCESAMIENTO DIGITAL DE …

TRANSICION DE LA TELEVISION ANALOGICA A LA DIGITAL.

86

onda limpia, usando una fuente de señal de reloj limpia. La regeneración de una señal digital permite transmitirla a mayor distancia y soporta la degradación analógica que una señal que tiene acumuladas distorsiones y degradación. En video digital, existen dos formas de regeneración: serial y paralela. La regeneración Serial es muy simple. Consiste en ecualización de cable, recuperación de la señal de reloj, recuperación de datos y retransmisión de la información. Un circuito de PLL (Phase Lock Loop) genera la frecuencia de reloj para recuperar la señal de reloj, a este procedimiento se le llama Reclocking. La regeneración paralela es un poco más compleja. Esta involucra tres pasos: (1) Deserialización (2) Reclocking en Paralelo (3) Serialización. El procedimiento para Serial puede verse en la siguiente figura.

FIG. 2.6 Regeneración Serial. El diseño del PLL, es un punto muy importante, ya que el oscilador utilizado como fuente de la frecuencia para recuperar la frecuencia de reloj no esta correctamente diseñado, producirá jitter de baja frecuencia, por este motivo algunos fabricantes utilizan cristales para estabilidad de frecuencia o bien tecnologías de dispositivos controlados por temperatura etc. A continuación se muestra una gráfica en la cual se puede observar una señal con jitter y otra señal a la cual se le ha aplicado un reclocking y ecualización y se ha logrado eliminar el Jitter. FIG. 2.7 (A) Señal sin Jitter con aplicación de reclocking. FIG. 2.7 (B) Señal Serial Digital con Jitter.

Page 87: SEMINARIO DE TITULACIÓN “PROCESAMIENTO DIGITAL DE …

TRANSICION DE LA TELEVISION ANALOGICA A LA DIGITAL.

87

La figura B, muestra una señal serial digital con Jitter, y la figura A muestra una señal sin jitter, en la cual se ha aplicado un reclocking y ecualización. Es importante señalar que estos problemas son problemas propios de la interfase de transmisión es decir: son problemas del carrier, los cuales no tienen nada que ver con la calidad de imagen. Como se mencionó anteriormente la gran mayoría de los fabricantes ofrece ecualización y reclocking para las entradas de sus equipos, en el caso de lo equipos terminales tales como los distribuidores de video digital, esta característica puede elegirse si se desea utilizar o no, ya que para distancias de hasta 100 metros el reclocking no resulta de vital importancia, por lo cual fabricantes como LEITCH, GRASS VALLEY,Miranda etc, ofrecen modelos sin reclocking a precios más reducidos con lo cual el costo de la instalación disminuye , sin embargo también se ofrecen modelos con ecualización y reclocking para aplicaciones en donde la señal tendrá que ser enviada a distancias grandes . 2.13 EVALUACION DE LA CALIDAD DE IMAGEN PARA UN SISTEMA 4:2:2. Anteriormente vimos algunas mediciones tales como Patrón de Ojo, para mediciones de Jitter y atenuación de la Señal, sin embargo esta mediciones a pesar que resultan de suma importancia para la correcta transmisión de la Señal , en realidad no permiten evaluar la calidad de Imagen de la misma, estas mediciones sólo sirven para evaluar la calidad con la que la señal es transmitida a través de un medio, en este caso cable, para poder realmente asegurarnos de la calidad de imagen , resulta necesario el hacer uso de otro tipo de mediciones las cuales tiene relación directa con la colorimetría y timming de la señal, estas mediciones se verán a continuación. 2.14 FORMA DE ONDA EN EL WAVEFORM MONITOR. Dado que en realidad la señal 4:2:2, son componentes, se rigen bajo la misma forma de efectuar mediciones que en el mundo analógico, existen dos formas de componentes las componentes de tipo RGB y las de diferencia de color Y, B-Y, R-Y, las formas de onda para estos dos sistemas se muestran a continuación:

FIG. 2.8 (A) Componentes en dominio RGB FIG. 2.8 (B) Componentes en dominio Y, B-Y, R-Y

Page 88: SEMINARIO DE TITULACIÓN “PROCESAMIENTO DIGITAL DE …

TRANSICION DE LA TELEVISION ANALOGICA A LA DIGITAL.

88

2.15 SINCRONIZACION Y TIMMING MEDIANTE EL PATRON DE BOWTIE. El display de Bowtie o patrón de Bowtie requiere una señal especial para prueba, el cual genera una barrido de frecuencias para las componentes de color en correspondencia con la Luminancia, este patrón genera frecuencias de 500 Khz para el caso del canal de Luminancia y 502 khz para el caso de las componentes de color, la representación de esto puede verse en la forma de onda que se muestra en el Waveform Monitor, es importante resaltar que esto sólo permite evaluar el Timming desde un punto de vista cualitativo. 2.16 ERRORES DE GAMUT Y COLORIMETRIA. El término Gamut ha sido usado para definir los valores de color que un sistema de Televisión es capaz de reproducir, cuando la escena se encuentra en su nivel de blanco. El valor de Gamut se encuentra definido por el valor de crominancia, este rango de colores posee valores de saturación variable, y son reproducidos en el monitor como señales RGB. Además de esto el termino de Gamut se utiliza para referir al rango de colores cuyas combinaciones pueden exceder los valores legales de 700 mV, las señales que exceden este valor pueden producir colores indeseables, así mismo cuando esta señal de video es procesada para transmisión en sistemas de compresión o algunas codificaciones, se producirán distorsiones en el momento de volver a ser codificadas en el punto final. En el dominio de RGB, cualquier canal o señal que excede o esta por debajo de su límite representa una señal inválida. Señales Legales son simplemente aquellas que no violan los valores máximos de voltaje, para el formato particular que se este usando. Una señal válida es aquella en la cual el Gamut permanece Legal cuando se codifica a otro formato. Una señal válida es siempre legal, pero una señal Legal no siempre es válida, para dar un ejemplo de esto diremos que para el caso de cuando se efectúa un procedimiento de transcodificación de RGB hacia diferencias de color resulta muy común que una señal Legal en el dominio de RGB pase a ser Ilegal en el dominio de las componentes o diferencias de color, con lo cual la señal pasará a ser una señal INVALIDA. 2.17 USO DE PATRONES PARA LA EVALUACION DE SEÑALES EN CONPONENTES. Algunos de los patrones que veremos a continuación son marcas registradas de Tektronix, en realidad existen algunas otras formas de efectuar la medición cuando no se4 dispone de un equipo, de esta marca sin embargo resulta claro que estos patrones son un valioso auxiliar que no esta disponible para ningún otro fabricante de equipos de medición para Video, comenzaremos por explicar el uso del Patrón de Lighting.

Page 89: SEMINARIO DE TITULACIÓN “PROCESAMIENTO DIGITAL DE …

TRANSICION DE LA TELEVISION ANALOGICA A LA DIGITAL.

89

2.17.1 EL PATRON DE LIGHTING. El Patrón de Lighting es un patrón de Marca Registrada de Tektronix, este patrón proporciona una forma de efectuar mediciones de forma sencilla de el ajuste de Timming entre los canales de componentes, para un sistema de componentes tanto analógico como digital, la ventaja es que con este patrón sólo se requiere de el uso de una señal de prueba de Barras de Color como señal de barrido para generar el patrón, realmente este patrón efectúa la misma función que el patrón de Bowtie, sin embargo recuérdese que para el patrón de Bowtie se requiere de una señal especial llamada Pathological y para el caso de este patrón sólo se requiere del uso de Barras de Color , el cual es un patrón de uso muy difundido y común. La forma de efectuar la medición es la siguiente: El patrón de Lighting se reproduce sobre una gratícula, la cual posee una serie de puntos, muy juntos uno de otro, estos puntos representan una separación de 40 ns entre cada uno de ellos. Así mismo existen un par de puntos en los extremos de esta línea que se encuentran más separados que el resto, estos puntos representan 80 ns.

FIG. 2.9 (A) Patrón Lighting. Para el caso en que la diferencia de color sea B-Y o R-Y, no coincida con la luminancia, las transiciones se doblarán hacia la parte del centro o bien hacia la luminancia, por lo cual las líneas no pasan por el punto del centro, esto se explicará a detalle más adelante. La cantidad de esta deflexión o doblamiento representará el retardo relativo entre la luminancia y la componente de color que se trate. La parte alta del display mide el retardo entre la componente Pb contra Y, mientras que la parte inferior mide Pr contra Y.

Page 90: SEMINARIO DE TITULACIÓN “PROCESAMIENTO DIGITAL DE …

TRANSICION DE LA TELEVISION ANALOGICA A LA DIGITAL.

90

Para cada caso si la transición se dobla en dirección del centro vertical (Black) la diferencia de color se encontrará retrasada con respecto a la Luminancia, si por el contrario lo hace con respecto a la parte de blancos, esto indica que se encuentra adelantada. Ejemplos Prácticos se encuentran en las figuras siguientes:

FIG. 2.9 (B) Patrón de Lighting con Barras al 100% Sin problemas en normas.

FIG. 2.9 (C) Patrón de Lighting con Barras al 100% Sin problemas en normas.

Page 91: SEMINARIO DE TITULACIÓN “PROCESAMIENTO DIGITAL DE …

TRANSICION DE LA TELEVISION ANALOGICA A LA DIGITAL.

91

FIG. 2.9 (D) Error de Timming de Pb retardada con respecto a Y.

FIG. 2.9 (E) Error de Timming Pb adelantada con respecto a Y.

2.17.2 EL PATRON DE DIAMOND. El patrón de Diamond proporciona un método de detección de colores inválidos, después de que se terminó una producción, los colores son representados al final como formato RGB. Si el sistema usado fuera RGB, el monitoreo para detectar una señal legal resultaría muy simple, solo se requeriría que los límites del patrón no fueran excedidos.

Page 92: SEMINARIO DE TITULACIÓN “PROCESAMIENTO DIGITAL DE …

TRANSICION DE LA TELEVISION ANALOGICA A LA DIGITAL.

92

Sin embargo la mayoría de los estudios de Televisión emplean el formato Y, B-Y, R-Y, para el procesamiento y posteriormente codificado a NTSC o PAL para transmisión final. En realidad todas las señales de color son manejadas en formato RGB, para su reproducción en un monitor RGB. El Patrón de Diamond o Diamante de Tektronix es generado mediante la combinación de RGB, si la señal de video se encuentra en otro formato este será convertido en RGB y de esta manera se podrá considerar si la señal es válida y Legal, para el sistema de 100% de Barras. La parte superior del display, esta formada por la decodificación de la señal aplicando B+G al eje vertical y B-G al horizontal. La parte inferior corresponde a –(R+G) para el eje vertical y R-G, para el eje horizontal, estas dos partes se reproducen alternadamente para crear un doble diamante el cual es el patrón de Diamond. Este patrón de tres componentes va de 0 a 700 mV, si los vectores se extienden fuera de las marcas del diamante, esto significa que la señal presenta error de Gamut. Errores en la amplitud del Verde, afectan a ambas partes del patrón, mientras que errores en el azul sólo afectan a la parte superior, errores en el rojo, sólo afectarán a la parte inferior. Errores de Timming pueden ser observados utilizando el patrón de Barras y se muestran como deflexiones o desdoblamientos en las transiciones.

FIG. 2.10 (A) Esta Figura representa el Patrón de Diamond para un Patrón de Barras

De 100%, sin errores de Gamut y Timming.

Page 93: SEMINARIO DE TITULACIÓN “PROCESAMIENTO DIGITAL DE …

TRANSICION DE LA TELEVISION ANALOGICA A LA DIGITAL.

93

FIG. 2.10 (B) Patrón de Diamond en el cual se tiene un problema de Amplitud de Verde

Excesiva por lo cual existe error de Gamut.

FIG. 2.10 (C) Error de Gamut Derivado de La Amplitud excesiva del Rojo.

Page 94: SEMINARIO DE TITULACIÓN “PROCESAMIENTO DIGITAL DE …

TRANSICION DE LA TELEVISION ANALOGICA A LA DIGITAL.

94

FIG. 2.10 (D) Patrón de Diamond con Barras SMPTE, las cuales exceden Los valores RGB.

FIG. 2.10 (E) Señal de Video Activa, en normas sin errores de Gamut.

Page 95: SEMINARIO DE TITULACIÓN “PROCESAMIENTO DIGITAL DE …

TRANSICION DE LA TELEVISION ANALOGICA A LA DIGITAL.

95

FIG. 2.10 (F) Señal de Video Activo, en los círculos rojos se aprecian Los excesos de la norma o errores de Gamut.

FIG. 2.10 (G) Señal de Video Activo con errores en el Rojo, esto se aprecia en la Parte inferior del vector correspondiente al rojo.

Page 96: SEMINARIO DE TITULACIÓN “PROCESAMIENTO DIGITAL DE …

TRANSICION DE LA TELEVISION ANALOGICA A LA DIGITAL.

96

FIG. 2.10 (H) Señal de Video Activo con error en el Azul, el cual se puede apreciar En la parte superior en el vector para el Azul.

FIG. 2.10 (I) Señal de Video Activo con error en el Verde, lo cual se aprecia tanto En la parte superior como en la inferior.

Page 97: SEMINARIO DE TITULACIÓN “PROCESAMIENTO DIGITAL DE …

TRANSICION DE LA TELEVISION ANALOGICA A LA DIGITAL.

97

Mediante la observación del patrón de Diamante o Diamond el operador puede estar seguro que las componentes de video, que se encuentran en monitoreo pueden ser convertidas en Señales Legales y Válidas en el ámbito RGB. 2.17.3 EL PATRON DE ARROWHEAD. El Sistema NTSC no puede transmitir ni acomodar patrones de Barras 100%, por lo cual no resulta posible asegurar que la señal estará correcta en el domino RGB, esta señal puede ser transmitida incorrectamente en una modulación de amplitud para un transmisor NTSC, tradicionalmente la señal es codificada en NTSC y monitoreada en un Monitor de forma de onda NTSC. El patrón de Arrowhead de Tektronix proporciona información de Gamut, directamente de la señal en componentes. El patrón de Arrowhead muestra a la Luminancia en el eje Vertical, con el Blanking como el pico o cresta más pequeño en el lado inferior, estos puntos pueden verse en las gráficas así mismo es importante resaltar que este patrón sirve para encontrar las relaciones de amplitud de voltaje en unidades IRE, para la croma de las componentes y sus derivadas. Esto es importante ya que permite conocer si una señal es legal y valida cuando se codifica a NTSC, esto se muestra en las figuras siguientes:

FIG. 2.11 (A) En la figura superior se muestran las partes del patrón de Arrowhead

Y sus valores correspondientes en unidades IRE para un sistema NTSC.

Page 98: SEMINARIO DE TITULACIÓN “PROCESAMIENTO DIGITAL DE …

TRANSICION DE LA TELEVISION ANALOGICA A LA DIGITAL.

98

FIG. 2.11 (B) Patrón de Arrowhead con Barras SMPTE, en las cuales Se muestran los valores dentro de normas.

FIG. 2.11 (C) Patrón de Arrowhead con Patron de Barras al 100%, se aprecian Problemas de saturación hasta 130 IRE.

Page 99: SEMINARIO DE TITULACIÓN “PROCESAMIENTO DIGITAL DE …

TRANSICION DE LA TELEVISION ANALOGICA A LA DIGITAL.

99

FIG. 2.11 (D) Patrón de Arrowhead para una Señal de Video Activo, con errores de Gamut Y niveles excesivos para amplitud de la señal.

2.18 AUDIO DIGITAL. La integración de equipo digital en un ambiente analógico, requiere que las señales analógicas sean convertidas a digital y viceversa. El proceso de conversión análogo digital, se explica a continuación:

2.18.1 PROCESO DE MUESTREO. Este el proceso implica el hecho de dividir a la señal analógica original en pequeños pedazos o muestras, las cuales describen a esta señal, las muestras son intervalos periódicos de tiempo los cuales entre más cortos sean serán capaces de representar de forma más precisa a la señal de audio original, recuérdese el caso para muestreo de Vídeo digital compuesto, de igual manera para este caso se utiliza el teorema de Nyquist el cual establece que la frecuencia de muestreo deberá ser cuando menos el doble de la frecuencia más alta de la señal original. La violación de el teorema de Nyquist, pueden producir problemas de de baja frecuencia de muestreo con lo cual se producirá el error de aliasing, este error de aliasing se refleja como un sonido metálico en la señal de audio cuando éstas se convierten nuevamente a analógica.

2.18.2 CUANTIZACION. En este proceso cada muestra de la forma de onda análoga original, que es asignada a un valor de código binario mediante un dispositivo llamado "Cuantizador". Por ejemplo en el sistema de

Page 100: SEMINARIO DE TITULACIÓN “PROCESAMIENTO DIGITAL DE …

TRANSICION DE LA TELEVISION ANALOGICA A LA DIGITAL.

100

cuatro bits, existen 16 posibles valores binarios, para codificar la amplitud del pulso de cada muestra. Existen solamente dieciséis valores binarios discretos para describir la amplitud de cada pulso. Además cuando el valor de amplitud cae dentro del intervalo de dos niveles de cuantización, se tomará el valor más cercano y se generará un error de cuantización el cual corresponde con la diferencia entre la señal de audio original y la representación de escalera de la misma señal de audio muestreada, esto se muestra en las figuras siguientes:

FIG. 2.12 (A) Proceso de cuantización.

FIG. 2.12 (B) Error de Cuantización. El ejemplo de cuantización de la figura anterior muestra conclusiones importantes: El valor del rango de representación binaria no es simétrico, para niveles positivos y negativos de la señal de audio original. Un número binario llamado “Complemento a dos " permite la representación de valores negativos. El MSB (Most Significant Bit) del valor de la muestra, representa el signo. Esto puede verse en la siguiente figura:

Page 101: SEMINARIO DE TITULACIÓN “PROCESAMIENTO DIGITAL DE …

TRANSICION DE LA TELEVISION ANALOGICA A LA DIGITAL.

101

FIG. 2.12 (C) Representación del signo mediante el MSB. Para un sistema de 20 bits la amplitud máxima está limitada por el valor Hexadecimal 7FFFF y 80000. Las señales de audio de baja amplitud tienen pocos niveles de cuantización el resultado de esto es una alta gamma de errores de cuantización provocados por niveles bajos de señal. Estos niveles de errores de cuantización, pueden ser reducidos incrementando los niveles de muestreo, por ejemplo un sistema de 5 bits, reduce el intervalo de cuantización a la mitad, el sistema de el 16 bits usado para audio, en el inicio de los sistemas de audio digital, tenía la capacidad de generar 65,535 niveles de cuantización. Los convertidores actuales de 20 y 24 bits, proveen una mayor capacidad de niveles cuantización, con lo cual los errores serán menores. Un método diferente de reducir los errores cuantización es incrementar la frecuencia de muestreo. Esto se llama oversampling o sobremuestreo. Si la Amplitud de la Señal de Audio analógico excede el rango de cuantización, se producirá Clipping Digital. La máxima amplitud del error de cuantización es igual a la mitad del intervalo de cuantización que el cuantizador asume como el valor binario más cercano. Tal como se muestra en la siguiente figura:

Page 102: SEMINARIO DE TITULACIÓN “PROCESAMIENTO DIGITAL DE …

TRANSICION DE LA TELEVISION ANALOGICA A LA DIGITAL.

102

FIG. 2.12 (D) Evaluación del error de cuantización.

El instante de muestreo T1, genera un valor de medición el cual cae exactamente. Dentro de dos niveles de cuantización. En este instante de muestreo, el error de cuantización es máximo y el cuantizador generará un valor binario inmediato inferior o superior del valor medido. Los errores de cuantización son dependientes de la señal, pero la cantidad de ruido existente en la señal original agrega componentes aleatorias, especialmente cuando el valor cuantizado cae en medio de dos niveles de cuantización. El error resultante puede ser interpretado como ruido agregado a la señal original y puede producir distorsiones indeseables en la señal. En una aproximación simple, esto puede ser considerado como una relación en la cual no existe posibilidad de predicción entre el error de una muestra y el error de la siguiente muestra. Esto resulta en un espectro de errores de cuantización plano, con igual energía para todas las frecuencias, lo cual es característico del ruido. Una señal de audio con un espectro ancho y gran amplitud, genera errores de cuantificación con igual probabilidad de tener cualquiera valor entre +Q/2 y –Q/2 tal como se muestra en la figura siguiente:

FIG. 2.12 (E) Diagrama de Probabilidad de error.

Page 103: SEMINARIO DE TITULACIÓN “PROCESAMIENTO DIGITAL DE …

TRANSICION DE LA TELEVISION ANALOGICA A LA DIGITAL.

103

Esto representa más que los valores de errores aleatorios en un intervalo de cuantización, el cual genera un espectro de error plano, la probabilidad para cada valor es igual a 1/Q. El valor RMS del ruido cuantizado es expresado como la raíz cuadrada media de las suma del cuadrado de los errores tal como se muestran en la siguiente expresión:

V= 2n-1 Q/ √2 Para un ejemplo con un convertidor de 16 bits, tenemos que la SNR(dB)=98, actualmente para un sistema de 20 bits, tenemos que la relación señal a ruido será de 122 dB, sin embargo esta relación tiene un porcentaje de error muy alto cuando se tiene en señales senoidales de muy bajo nivel.

2.18.3 CODIFICACION. Cada valor binario cuantizado es codificado para adaptar la señal muestreada a los requerimientos de transmisión y grabación. Los sistemas de codificación más usados son: Modulación por Codificación de Pulsos (PCM), Modulación por Ancho de Pulsos (PWM), Modulación Adaptativa Delta (ADM), Por Punto Flotante y Diferencial (DPCM. Los últimos sistemas se describirán en partes posteriores ya que se utilizan para compresión de audio. El PCM es el más simple y más difundido método de codificación para audio, sin embargo es el menos eficiente. El PCM cuantifica linealmente todo los intervalos de cuantización por medio de una escala fija sobre el rango de amplitud de una señal senoidal.

2.18.4 DITHER. Para reducir la distorsión de cuantización en señales de bajo nivel, se utiliza una técnica llamada Dither, esta requiere la adición de ruido blanco a la señal. Es importante que el valor RMS de la señal de ruido blando agregado, no sea mayor a un tercio del intervalo de cuantización. La conversión hacia análogo genera una señal la cual no tiene relación con la señal original. Esta señal pasa a través de un filtro de reconstrucción de baja señal. Los Glitches, son filtrados de la señal original la cual es reconstruida para aproximarse a la señal original. La figura en la página siguiente muestra una señal senoidal de bajo nivel la cual ha sido digitalizada. El error de cuantización es muy importante, cuando esto sucede estos errores son convertidos a audio analógico con lo cual se producen efectos indeseables. En esta misma figura la segunda gráfica muestra cómo se agrega el ruido blanco cuando la amplitud de la señal análoga es cerca de cero, la salida del convertidor permanece en cero. Cuando el nivel de la señal se incrementa, los picos positivos de la señal del ruido agregado a la señal exceden el límite Q/2, mientras que los picos negativos permanecen por debajo de este límite.

Page 104: SEMINARIO DE TITULACIÓN “PROCESAMIENTO DIGITAL DE …

TRANSICION DE LA TELEVISION ANALOGICA A LA DIGITAL.

104

Como resultado el convertidor analógico digital constantemente entre dos valores de cuantización (obsérvese la grafica c de la misma figura). Cuando la señal análoga, encuentra cerca del nivel máximo, en su nivel positivo, la salida del convertidor se mantendrá alta. Resultados similares son obtenidos cuando la señal análoga llega su máximo nivel negativo. En la gráfica d, se muestra un convertidor digital análogo, no existe en errores de cuantización el ruido de piso se ha incrementado en 2 dB. El proceso de Dither distribuye uniformemente el error de cuantización en el ruido aleatorio suavizando el efecto de los niveles de Cuantización.

FIG. 2.13 Procesos de una señal.

Page 105: SEMINARIO DE TITULACIÓN “PROCESAMIENTO DIGITAL DE …

TRANSICION DE LA TELEVISION ANALOGICA A LA DIGITAL.

105

2.19 ESTRUCTURA GENERAL DEL PROTOCOLO AES/EBU. El estándar AES/EBU, se refiere al protocolo de transmisión y a la interfase que hace posible la transmisión y recepción de señales de audio digital. Estructura del Formato. La interfase de Audio AES/EBU, posee una estructura como la que se muestra en la siguiente figura. Este formato esta constituido por dos subframes (Subframe A y Subframe B) cada uno de ellos combina datos muestreados de una fuente de audio o canal, datos auxiliares, preámbulo, datos asociados, Validity (V), Usuario (U), Canal (C) y Paridad (P). Los frames de audio están agrupados en bloques de 192 frames cada uno. Una bandera llamada bandera Z, permite la detección de cada bloque. La duración de cada frame de audio es de 20.83 µs para una frecuencia de muestreo de 48 Khz, la duración de un bloque de audio es de:

20.83 X 192 = 4000 µs En la siguiente figura se muestra la estructura de datos de esta interfase, así como algunas de las partes anteriormente descritas , así mismo se muestran los 4 bits del preámbulo llamadas Sync Word, las cuales son usadas para identificar el inicio de una nueva muestra de un bloque de audio nuevo. Se definen tres palabras para esta aplicación:

• Sync Word Z.- Esta secuencia de bits indica el inicio del primer frame de un bloque nuevo de datos para audio. Este bit genera la bandera Z.

• Sync Word X.- Este bit indica el inicio de de todos los frames restantes.

• Sync Word Y.-Este bit indica el inicio de cada frame

Estas palabras de sync no se encuentran codificadas bajo el código BPM, tal como están el resto de los bits para los subframes. La estructura de esta palabras puede verse en la figura la estructura de cada una de ellas facilita el minimizar la componente de DC en la línea de transmisión, y facilita la recuperación del reloj.

Page 106: SEMINARIO DE TITULACIÓN “PROCESAMIENTO DIGITAL DE …

TRANSICION DE LA TELEVISION ANALOGICA A LA DIGITAL.

106

FIG. 2.14 Estructura de datos de la interface de Audio AES/EBU.

Page 107: SEMINARIO DE TITULACIÓN “PROCESAMIENTO DIGITAL DE …

TRANSICION DE LA TELEVISION ANALOGICA A LA DIGITAL.

107

Un frame de Audio Contiene dos subframes de 32 bits cada uno, cada muestra de audio puede ser especificada para 16 o 20 bits, inclusive 24 bits cuando los 4 bits de datos auxiliares son asignados como muestras de bits. Estos bits auxiliares pueden contener información auxiliar tal como un subcanal de baja calidad para el talk back del productor o bien para comunicación de estudio a estudio, esta estructura se muestra en la siguiente figura: En cada 4 ms o 192 frames existen 4 bits , con lo que tenemos un total de:

4X 192 =768 bits Las cuales pueden ser organizados 64 palabras de audio de 12 bits de resolución. Estas 64 palabras de 4 ms proporcionan una frecuencia de muestreo equivalente a 16 Khz. Cada subframe de Audio puede transportar un canal separado de audio auxiliar. Cada subframe tiene 4 bits asociados tal como sigue: Validity Bit: El bit de Validación o Validity Bit, se encuentra ajustado a cero, si la palabra de la muestra de audio es correcta y valida para conversión D/A. De otra forma el equipo de recepción puede aplicar un MUTE a las muestras defectuosas. Es importante resaltar que esta característica no ha sido implementada por todos los fabricantes de equipo y algunos de ellos no generan o verifican esta palabra de Validación. User Bit.- El bit de usuario en cada subframe se envía a un arreglo de memoria de 24 rows de 8 bits cada uno, tal como se muestra en la siguiente figura:

Page 108: SEMINARIO DE TITULACIÓN “PROCESAMIENTO DIGITAL DE …

TRANSICION DE LA TELEVISION ANALOGICA A LA DIGITAL.

108

FIG. 2.15 Bit de usuario en cada subframe.

Esta memoria es alimentada row tras row, con 192 user bits los cuales provienen de igual número de subframes, lo cual constituye la duración de un bloque de audio. La norma AES18-1992, específica el formato para los bits de USER, para una interfase de tipo AES. En este formato los, los paquetes de datos pueden ser transmitidos a través de la interfase en bloques, los cuales pueden ser sincronizados para los frames de Televisión, tal como sucede en la VTR’s. Channel Bit (Bit C).- Es similar al bit de usuario, el bit de canal o channel bit es enviado a un arreglo de memoria de 24 rows de 8 bits cada uno, tal como se muestra en la figura anterior, así mismo el contenido de esta información se muestra en las siguientes figuras. Es importante resaltar que esta información del Channel Bit, proporciona valiosa información de las características de la señal tales como: Tipo de Señal si se trata de una señal de Audio Profesional o Consumer, El tipo de frecuencia de muestreo usada etc.

Page 109: SEMINARIO DE TITULACIÓN “PROCESAMIENTO DIGITAL DE …

TRANSICION DE LA TELEVISION ANALOGICA A LA DIGITAL.

109

FIG. 2.16 (A) Arreglo de bits en la interfase de Audio AES/EBU.

Page 110: SEMINARIO DE TITULACIÓN “PROCESAMIENTO DIGITAL DE …

TRANSICION DE LA TELEVISION ANALOGICA A LA DIGITAL.

110

FIG. 2.16 (B) Arreglo de bits en la interfase de Audio AES/EBU. Parity Bit (P).- El bit de paridad se sitúa siempre para indicar paridad par. El bit de paridad permite la detección de errores de la interfase en la transmisión, en realidad no todos los equipos de procesamiento de audio poseen la capacidad de detección de esta información o bien no la pueden manejar de buena manera. Las información mostrada en las figuras anteriores, detallan el arreglo de bits y su importancia en la interfase de Audio AES/EBU, por ejemplo el Byte 0 el bit 0 indica el uso del canal, es decir si es profesional o bien consumidor. Si los canales son para uso de consumidor, el Byte 0 en el bit 0 será igual a cero, cuando esto sucede esta información se limita solamente a los Bytes 0 y 1, los cuales indican:

Page 111: SEMINARIO DE TITULACIÓN “PROCESAMIENTO DIGITAL DE …

TRANSICION DE LA TELEVISION ANALOGICA A LA DIGITAL.

111

• Datos de Audio Digital Normal o bien si se encuentra presente audio digital.

• Bloqueo de Copiado (evitar la piratería).

• Uso del Preemfasis durante la etapa de conversión A/D.

• Indicación de la Categoría (CD, PCM, DAT). Si los canales son para uso profesional, el bit 0 del Byte 0 será 1, y toda la información que se encuentra descrita en las tablas estará disponible, esta información la cual es la más usual y se encuentra en los Bytes del 0 al 4, es la siguiente: Para el Byte 0, tenemos: a.- Uso del canal.- Usuario o Profesional b.- Audio o Non Audio Use.- Modo Normal de Audio o sin audio. c.- Tipo de Preemfasis usado, ver la tabla. d.- Fuente de la señal en Timming o sin Timming, es decir síncrona o asíncrona e.- Frecuencia de Muestreo.- La frecuencia de Muestreo que esta siendo usada (32, 44.1, 48 Khz). Para el Byte 1 tenemos: f.- Modo de Operación.- Operación del audio, Mono, estéreo etc, ver la tabla. g.- Servicio por definir. Para el Byte 2, tenemos:

h.- Uso de los bits auxiliares.- Recuérdese el uso de los bits auxiliares para servicios extra tales como intercomunicación i.- Historia de Codificación y Longitud de palabra, este servicio esta por definirse, sin embargo se pretende que contenga información del historial de la señal para evaluar la calidad. r.- Reservado.- Bit reservado para posterior uso. Para el Byte 3, tenemos:

Page 112: SEMINARIO DE TITULACIÓN “PROCESAMIENTO DIGITAL DE …

TRANSICION DE LA TELEVISION ANALOGICA A LA DIGITAL.

112

j.- Uso futuro para multicanalización.- Este bit lleva información para multicanalización, en la actualidad esto no es muy popular, sin embargo ya existen formatos de multicanal como el MADI etc. Para el Byte 4, tenemos: k.- Digital Audio Referente Signal.- Referencia de Audio Digital, o también llamada Word Clock, este bit indica si la señal contiene referencia y guarda estrecha relación con el bit d. Para el Byte 22.- En este caso este Byte ahora no contiene información claramente definida, sin embargo se espera en un futuro desarrollar servicios, tales como Time Code etc. El Byte 23 contiene información para el CRC o Código de Redundancia Cíclica, y tiene como objetivo poder facilitar la detección de errores total de la estructura de datos.

2.19.1 CARACTERISTICAS DE LA INTERFACE DE DATOS AES/EBU. Considerando una frecuencia de Muestreo de 48 Khz, el rango total de datos es de:

32 X 2 x 48000= 3.072 Mbps Después de que se efectúa la codificación BPM, la frecuencia se dobla a 6.144 Mbps, la cual es finalmente la frecuencia de la transmisión para el formato AES/EBU. Sincronización de Audio Las señales de audio digital, están constituidas de muestras discretas. El proceso de mezcla, inserción o ensamble de audio digital desde una variedad de fuentes, requiere la sincronización de estas muestras con respecto a una señal de referencia, en fase y frecuencia. En la práctica dos dispositivos idénticos ubicados en el mismo estudio pueden provocar pequeñas diferencias de TIMMING en los dos equipos. Como en el caso de video se requiere el uso de un generador maestro el cual enganche a ambos equipos. Para el caso de señales externas al centro de producción o estudio, obligadamente estas deberán tener diferencias de TIMMING, por lo cual se deberán implementar soluciones para hacer posible una producción de audio digital sin la aparición de POPs y CLICKs. La sincronización depende de que tipo de señal sea interna o externa o bien si existen involucradas conexiones de video. 2.20 AUDIO EMBEBIDO. El audio digital puede ser multiplexado en el ancillary data de un interfase serial digital, haciendo posible su transporte a través de un solo cable coaxial junto con el video. Esto implica ahorros importantes en la distribución y ruteado de la señal, así como también en los costos del cable. Cuando las señales de audio son embebidas con el flujo de datos, se utiliza un equipo llamado multiplexor o audio embeber, y cuando se desea separar el audio de la señal de video un de multiplexor o deembebber es usado. Típicamente estos equipos son llamados multiplexores y de multiplexores.

Page 113: SEMINARIO DE TITULACIÓN “PROCESAMIENTO DIGITAL DE …

TRANSICION DE LA TELEVISION ANALOGICA A LA DIGITAL.

113

FIG. 2.17 Diagrama del Proceso de Audio Embebido. La señal de audio digital AES/EBU es la señal que se multiplexará en la señal de video digital, la cual tiene capacidad para soportar varios canales de audio digital. Recuerde que un canal AES/EBU contiene 2 canales análogos o sea un par estéreo. Los datos de audio digital son embebidos en formato de grupo, un grupo está definido como 2 canales AES/EBU o bien 4 canales analógicos monoaurales, ó 2 pares estéreo. Cuando se multiplexa el audio digital en el ancillary data, la información de audio digital es mapeada en paquetes de datos y colocada en la región del ancillary data. Para poder entender mejor esto, imaginemos el siguiente punto: Imagine que la señal serial es un tren, la máquina del tren arrastra varios vagones los cuales contienen la información de video serial. Cada cierto número de vagones aparece uno vacío, esto puede compararse con el ancillary data. Esto puede ocurrir en los intervalos del EAV y SAV. La información de audio se parte es pequeños paquetes o paquetes de datos y se agrega un encabezado de datos a cada paquete, estos paquetes son colocados en los vagones vacíos y se envían en la misma dirección. En el receptor el buffer de 64 muestras se llena con los paquetes recibidos y su salida es el audio digital AES/EBU. El truco es nunca permitir que el buffer llegue al punto de estar sobrecargado y completamente vacío. Existe la posibilidad de efectuar este procedimiento para el caso de video digital compuesto y para video digital por componentes, es fácil entender dada las velocidades de las interfases que no resulta la misma capacidad para cada uno de estos sistemas, por ejemplo para el caso de video compuesto se tiene un espacio de 9.87 Mbits para el audio embebido, mientras que par un sistema de tipo 4:2:2 se tiene un espacio mayor de 55.7 Mbits para este mismo propósito.

Page 114: SEMINARIO DE TITULACIÓN “PROCESAMIENTO DIGITAL DE …

TRANSICION DE LA TELEVISION ANALOGICA A LA DIGITAL.

114

2.20.1 EMBEBER O NO EMBEBER. Ya vimos que es posible transportar señales de video y audio digital a través de un mismo cable, ahora es necesario decidir en base a las ventajas de uno y otro sistema cual es la mejor manera de manejar audio y video digital. Obviamente si el video y el audio no requieren ser procesadas por separado, el manejar audio embebido resulta una gran ventaja, ya que el audio y el video al estar multiplexados pasan a través del mismo número de equipos y recorren la misma distancia, se elimina el problema de lip-sync. Si las señales de audio y video van a procesarse por separado se requerirá demultiplexarlas por ejemplo en el caso de un estudio en el cual el audio y el video son procesados por separado. La decisión de manejar audio embebido o no, radica en las características y aplicaciones de la instalación de que se trate.

Page 115: SEMINARIO DE TITULACIÓN “PROCESAMIENTO DIGITAL DE …

TRANSICION DE LA TELEVISION ANALOGICA A LA DIGITAL.

115

CAPITULO 3. CARACTERISTICAS DE LA HDTV.

3.1 INTRODUCCION.

3.1.1 ESTÁNDARES DE VIDEO DIGITAL. Con el advenimiento del video digital, nuevos estándares se necesitaron para definir cómo se debería de almacenar y transmitir la señal de video digital. Estos estándares requirieron tener compatibilidad con los estándares analógicos. El desarrollo de los estándares de video digital fue manejado por consorcios representativos de la industria en cooperación con agencias de gobierno internacionales. ITU (Internacional Telecommunication Union) Es una organización dentro del Sistema de Naciones Unidas que trae juntas las representaciones de los gobiernos y sectores privados para desarrollar estándares para las telecomunicaciones globales. Sus tres departamentos principales son: ITU-R (Radio Communicaction), ITU-T (Telecommunication Standardization), y ITU-D (Telecom Development). Un estándar ITU que se encuentra comúnmente en trabajos con medios digitales es ITU-R BT.601, el cual da especificaciones para almacenamiento y comunicación. Este estándar originado como CCIR601, desarrollado por el Consultative Comité For Internacional Radio, sigue siendo referido con este viejo nombre. Probablemente habrá visto el acrónimo SMPTE (Society for Motion Picture and Televisión Engineers) más a menudo relacionado con códigos de tiempo, pero SMPTE ha sido un instrumental en el desarrollo de los estándares de video digital internacional. En la década de los 90s, SMPTE trabajó en asesoramiento con la ITU para ayudar a asegurar que los archivos de video digital de las fuentes NTSC, PAL y SECAM pudieran ser intercambiados. Varios de los estándares de video digital usan el prefijo SMPTE. En los 1990s, el desarrollo de los estándares internacionales para la transmisión de la televisión digital (Digital Televison DTV) se convirtió en un tópico caliente. Hay tres organizaciones para estandarizar la DTV: ATSC en Note América, DVB en Europa y ISDB en Japón. Los tres estándares utilizan compresión de video MPGE-2 y compresión de audio Dolby. La mayor diferencia reside en los esquemas de modulación para la señal de radiofrecuencia. ATSC (Advanced Televisión Systems Committee) es una organización internacional no lucrativa que desarrolla voluntariamente estándares para la televisión digital. Esta incluye organizaciones miembros de las industrias de computación, cable, satélite, radiodifusión, imágenes en movimiento, y electrodomésticos. ATSC desarrolló los estándares de la DTV para Estados Unidos y Canadá. Estos estándares fuero adoptados por la FCC en 1996. Este

Page 116: SEMINARIO DE TITULACIÓN “PROCESAMIENTO DIGITAL DE …

TRANSICION DE LA TELEVISION ANALOGICA A LA DIGITAL.

116

fue el comienzo de la evolución de la televisión de alta definición emitida por la FCC en 1998. DVB (Digital Video Broadcasting Project) Desarrolló el estándar para la televisión digital En Europa. DVB es un consorcio internacional de radiodifusores, fabricantes, operadores de redes, desarrolladores de software, y cuerpos reguladores con el objetivo de desarrollar estándares de televisión digital global. Los estándares DVB son promulgados por ETSI (European Telecommunications Standards Institute). Los estándares de la televisión digital en Japón van con el nombre de ISDB (Integrated Services Digital Broadcasting). El sistema ISDB fue desarrollado por ARIB (Association of Radio Industries and Businesses). Como el ATSC y DVB, ISDB usa compresión de video MPGE-2 y compresión de audio Dolby.

3.1.2 COMPARACIÓN DE DTV, SDTV Y HDTV. La Televisión Digital (Digital Television DTV) difunde video digital. Esta puede ser transmitida de la misma manera que se transmite la televisión analógica: vía ondas de radio enviadas desde estaciones terrenas (televisión terrestre); vía ondas de radio enviadas a los satélites y de nuevo a los hogares del consumidor (la TV vía satélite o radiodifusión satelital directa (Direct Broadcast Satellite DBS)); o vía el cable coaxial o fibra óptica (Antena de TV comunitaria (Community Antenna TV CATV)). La televisión avanzada (Advanced Television ATV) refiere a los sistemas de transmisión diseñados para la entregar entretenimiento a los consumidores, a niveles de calidad substancialmente elevados sobre la televisión convencional. Los sistemas de transmisión ATV se basan en un sistema de barrido de 1125/60/2:1 y compresión del MUSE que han ampliado en Japón. Los Estados Unidos han adoptado los estándares para ATV basado en formatos de imagen de 1920x1080 1280x720. La compresión MPEG-2 puede comprimir esto cerca de 20 Mb/seg, una taza conveniente para la transmisión a través de un canal terrestre de 6 MHz VHF/UHF. La compresión y la tecnología de transmisión digital desarrollado para ATV se ha adaptado para la transmisión digital de la televisión convencional; se conoce esto como televisión de definición estándar (Standard Definition Television, SDTV). La televisión de definición estándar SDTV es televisión con la relación de aspecto de 4:3 y resolución tradicional. SDTV puede ser analógica o digital. La compresión MPEG-2 y la transmisión digital permiten a un radiodifusor colocar cerca de cuatro canales digitales en el ancho de banda ocupado por un canal analógico NTSC. Los servicios de televisión digital se han extendido hacia la radiodifusión directa por satélite (Direct Broadcast Satellite DBS) y sistemas de televisión por cable. La televisión de alta definición (High-definition television HDTV) es televisión con una relación de 16:9 y audio mejorado (sonido Dolby Digital surround). La idea detrás del desarrollo de HDTV fue crear un ambiente más envolvente de la visión con un ancho de

Page 117: SEMINARIO DE TITULACIÓN “PROCESAMIENTO DIGITAL DE …

TRANSICION DE LA TELEVISION ANALOGICA A LA DIGITAL.

117

pantalla mayor y un sonido mejorado. Históricamente, la televisión digital y HDTV no son la misma cosa. Es posible tener HDTV aunque no se transmita digital; y es posible tener televisión digital aunque no esté en formato de alta definición. Mientras que la tecnología se ha desarrollado, los dos formatos han comenzado a combinarse. La televisión de alta definición se define por tener dos veces la resolución vertical y dos veces la resolución horizontal de la televisión convencional, una relación de aspecto de la imagen de 16:9, una frecuencia de cuadros de 24 Hz. o mayor, y por lo menos dos canales de sonido de calidad CD. El equipo de HDTV comercialmente tiene una exploración de 1125/60/2:1 y un formato de imagen 1920x1080, con cerca de dos megapixels por cuadro seis veces mas el número de píxeles de la televisión convencional. La velocidad de los datos para HDTV con calidad de estudio es de cerca de 120 Mb/seg. Las cámaras de HDTV comercialmente disponibles rivalizan con la calidad de imagen de las mejores cámaras de cine y de televisión. El primer sistema de HDTV inicialmente llamado DTV, se origino en Japón. A finales de los 1960s, el gobierno japonés tomo el reto de innovar su sistema de radiodifusión de televisión, para utilizar una mayor relación de aspecto y mejor sonido. Para no interferir con la radiodifusión de canales terrestre, los japoneses eligieron transmitir HDTV por el satélite, gobernado por su sistema publico de radiodifusión NHK. Geográficamente, era factible hacer esto y alcanzar todas las islas japonesas con uno o dos satélites. Notablemente, en su inicio HDTV japonesa fue analógica, y no digital. La HDTV Japonesa surgió con un número de versiones. La versión de 1990, aún esencialmente analógica pero con métodos de compresión prestados de tecnología digital, fue conocida en los Estados Unidos como MUSE (Multiple sub-Nyquist Sampling Encoding). Esta versión tenía 1125 líneas/cuadro, 30 cuadros/s, y una relación de aspecto de 16:9, y un ancho de banda de 24 MHZ. Por la década de los 80s, los Estados Unidos y Europa notaron que estaban en tiempo para responder con sus propias propuestas para estándares de HDTV. Los cimientos fueron altos para definir los estándares. Debido a su resolución más alta y audio realzado, HDTV requería de un ancho de banda mayor. Los métodos de la compresión todavía no habían avanzado al punto donde fuera posible comprimir el ancho de banda de HDTV en los 6 MHz asignados para los canales estándar de televisión analógica. Si la HDTV tenía que ser radiodifundida por canales terrestres, esto parecía que los canales tenían que ser reasignados. Los canales de la radiodifusión son finitos y de una comodidad preciosa, y la perspectiva de dividirlos diferentemente trajo un interés especial a grupos motivados. El prospecto de alternativa de mover las radiodifusiones al satélite preocupó a los radiodifusores terrestres en que sus servicios pudieran ser menos valiosos. La definición de estándares también afectó las industrias competitivas de computación y de televisión. ¿Debería utilizar el barrido entrelazado para los monitores de HDTV, una herencia de los monitores de televisión analógica? ¿O debería moverse el estándar hacia el barrido progresivo y ser más compatible con los monitores de las computadoras? Simultáneo con la evolución de HDTV, los estándares se fueron desarrollando para la televisión digital en los Estados Unidos, Europa, y Japón. En los Estados Unidos, la nueva

Page 118: SEMINARIO DE TITULACIÓN “PROCESAMIENTO DIGITAL DE …

TRANSICION DE LA TELEVISION ANALOGICA A LA DIGITAL.

118

tecnología fue llamada Sistemas de Televisión Avanzada, cubriendo SDTV y HDTV. En 1987, la FCC estableció un comité consultivo para ayudaros a fijar el orden técnico y público con respecto a la televisión avanzada. Inicialmente, 23 sistemas diversos fueron propuestos al comité consultivo, extendiéndose los sistemas que ofrecieron mejoras relativamente pequeñas a la calidad de las radiodifusoras de televisión analógica existentes con respecto a los sistemas HDTV con mayor relación de aspecto y sonido mejorado. En 1990, General Instruments Corporation introdujo el primer sistema totalmente digital de HDTV, y rápidamente otros tres sistemas digitales de HDTV aparecieron. Un desafío surgió para los líderes de la industria para crear un formato HDTV que pudiera combinar lo mejor de estos cuatro sistemas, motivando la formación de la Gran Alianza, un consorcio de líderes de la industria incluyendo General Instruments, AT&T, Massachusetts Institute of Technology, David Sarnoff Research Center, Philips, Zenith ,and Thomson Electronics. La Gran Alianza conjunto un sistema prototipo de HDTV, y el comité consultivo FCC supervisó las pruebas de 1993 a 1995. Al ATSC le fue encomendado escribir las especificaciones detalladas para los estándares de la televisión avanzada basados en el sistema de la Gran Alianza. Llegó a ser claro que la especificación necesitaba cubrir el espectro entero de DTV, así que el ATSC agregó SDTV digital al estándar propuesto. En 1996, la FCC aceptó la oferta de DTV del ATSC, que se convirtió en el estándar de ATSC A/53. Esencialmente, la aceptación del estándar de ATSC ascendió a un mandato para que los radiodifusores de televisión terrestre comenzaran a cambiar y eventualmente a remplazar las radiodifusiones terrestres completamente. HDTV debería primero difundirse junto a las transmisiones analógicas, y eventual terminarlas para que quedara solamente HDTV en las transmisiones terrestres. El calendario para la transición tuvo que ser ajustado de una manera realista para acoplarse con la industria de la televisión y el consumidor para ser capaces de realizar el cambio. Se acordó que la fecha límite para completar la transición de la de televisión de HDTV fuera el 2006. Mientras tanto, Europa y Japón desarrollaban sus propios estándares para DTV y HDTV. El proyecto DVB fue organizado en 1993 con la misión de crear un sistema de radiodifusión totalmente digital para el mercado europeo. El estándar de DVB-T fue aprobado en 1995. Como el sistema de ATSC, DVB utiliza la compresión MPEG-2 para el vídeo. Las diferencias principales entre los sistemas de DVB y de ATSC radican en cómo el audio es codificado y cómo la señal es modula para la frecuencia portadora. DVB utiliza la codificación para audio MPEG además de la compresión audio Dolby Digital (AC-3) usada por ATSC. Para la modulación de la señal, DVB utiliza Coded Orthogonal Frequency Division Multiplexing (COFDM), mientras que ATSC utiliza la modulación de la Banda Lateral Vestigial (8-VSB). Los desarrollos Japoneses de los estándares digitales de televisión comenzaron en 1994, culminando en 1999 con un sistema de radiodifusión digital terrestre aprobado por el ITU-R. El sistema japonés se conoce como Radiodifusión Digital de Servicios Integrados Terrestres (Integrated Services Digital Broadcasting for Terrestrial ISDB-T), aplicable a la televisión y a la radio. Utiliza la compresión MPEG-2 para el vídeo, y una forma de MPEG para la compresión de audio también.

Page 119: SEMINARIO DE TITULACIÓN “PROCESAMIENTO DIGITAL DE …

TRANSICION DE LA TELEVISION ANALOGICA A LA DIGITAL.

119

Los estándares de ATSC, de DVB, e ISDB se han adoptado en países fuera de sus países de origen. Canadá, Taiwán, Corea del sur, Argentina, y México utiliza el estándar ATSC. El Reino Unido, España, y Suecia han adoptado el estándar DVB. Solamente Japón utiliza ISDB. Los tres estándares para HDTV se resumen en la figura 3.1.

ATSC DVB ISBD

Origen Estados Unidos Europa Japón

Compresión de video MPEG-2 Main Profile

Compresión de Audio Dolby AC-3 MPEG-2 y Dolby AC-3 MPEG-2 AAC

Tipo de transmisión 8-VSB COFDM Ancho de Banda segmentado de COFDM

Bit Rate 19.4 Mb/s 3.7 - 31.7 Mb/s 4 - 21.5 Mb/s

Tabla 3.1 Estándares para televisión digital terrestre. Como se indico anteriormente la propuesta ATSC fue endosada a la FCC en 1996 El estándar A/53 incluyó una tabla de 18 formatos para la televisión digital, variando en resolución, velocidad de cuadro, y tipo de barrido. Esta tabla fue suprimida de A/53, con la idea de que tales detalles del formato deben de ser establecidos por el mercado. Sin embargo, aunque la tabla fue omitida oficialmente, de hecho todos los equipos del consumidor en los Estados Unidos utilizan uno de los 18 formatos digitales prescritos para la televisión digital. 3.2 CONCEPTS BASICOS.

3.2.1 LA RELACIÓN DE ASPECTO 16:9. La relación de aspecto surge con el desarrollo de la Televisión de Alta definición. Esta relación le da a la imagen una mayor realidad de presencia. En la figura 3.3 podemos observar los distintos formatos de pantallas utilizados en cine y TV. En este caso vemos que la relación de aspecto 16:9 utilizada en HDTV, se asemeja a la relación utilizada en cine de pantalla ancha. No olvidemos que hoy en día, la relación 16:9 también se utiliza en televisión Digital Estándar (SDTV). La señal digital de SDI de 270 Mbps, es una señal con una estructura 4:2:2/10 bits con una frecuencia de muestreo de canal de luminancia de 13.5 Mhz y una frecuencia de muestreo de cada una de las señales diferente de color de 6.75Mhz. Esta señal puede tener una relación de aspecto de 4:3 o de 16:9. Sin embargo la verdadera relación 16:9 en Televisión Digital Estándar, corresponde a una señal de 360 Mbps/4:2:2. En este caso la señal de luminancia (Y) es muestreada a 18Mhz y cada una de las señales diferencia de color (Cb y Cr) son muestreadas a 9Mhz cada una.

Page 120: SEMINARIO DE TITULACIÓN “PROCESAMIENTO DIGITAL DE …

TRANSICION DE LA TELEVISION ANALOGICA A LA DIGITAL.

120

La relación de aspecto de 16:9 fue elegida por ser compatible con formatos existentes en el cine además de mantener una relación cuadrática con el formato 4:3. Las dos relaciones de aspecto se comparan en el siguiente cuadro. Se observan los formatos de HDTV abreviados con la resolución horizontal cerca seguido de “i” o “p” para la exploración entrelazada o progresiva, como en 1080i. Es posible desplegar una imagen con relación de aspecto de 16:9 en una pantalla con una relación de aspecto de 4:3, y viceversa, con métodos de sobre de carta o caja apilada, según lo ilustrado. La cantidad de imagen con una relación de aspecto amplia puede ser editada para caber una pantalla 4:3 usando el método de barrido y paneo, donde la porción más interesante de cada imagen es acomodada para caber el la relación de aspecto 4:3. Resolución (píxeles activos por cuadro)

Razón de Aspecto

Frame Rate Forma del Píxel

1920 x 1080 16:9 30i, 30p, 24p Cuadrado 12 x 720 16:9 60p, 30p, 24p Cuadrado 704 x 480 16:9 y 4:3 30i, 60p,30p, 24p Rectangular 640 x 480 4:3 30i, 60p,30p, 24p Cuadrado Nota: El frame rate esta modificado por 1000/1001 que es permitido. Esto permite un frame rate de 23.976, 29.97 y 59.94 Hz.

Tabla 3.2 18 formatos de HDTV propuestos en ATSC A/53.

FIG. 3.1 Comparación de relación de aspectos de imagen de SDTV y HDTV

Dado el gran número de píxeles por cuadro en HDTV, se requiere un a tasa alta de compresión para ajustar la señal a un ancho de banda de 6 MHz, asignado para los canales

Page 121: SEMINARIO DE TITULACIÓN “PROCESAMIENTO DIGITAL DE …

TRANSICION DE LA TELEVISION ANALOGICA A LA DIGITAL.

121

terrestres de televisión. La compresión MPEG-2 reduce para la HDTV la tasa de bits a 19.4 Mb/s. La tasa de bits esta relacionada con el ancho de banda y esta en función de cuantos bits se pueden representar por cada ciclo. Con los métodos de la modulación usados para la transmisión de televisión terrestre, es posible transmitir cerca de 3.5 bits por ciclo. Una aritmética sencilla muestra que en la compresión con MPEG-2, una señal de HDTV se puede ajustar dentro de un ancho de banda de 6 MHz.

19.4Mb/seg.*1ciclo/3.5bits ≈ 5.5 millones ciclos/seg. = 5.5 MHz

Ecuación. Ancho de banda requerido para compresión de MPEG-2 de HDTV SDTV Digital requiere solamente cerca de 4 Mb/s, así que por lo menos cuatro canales de SDTV pueden ser difundidos en una banda de 6 MHz (asumiendo que un ciclo transmite cerca de 3.5 bits). Resulta que la televisión digital requiere menos ancho de banda que la analógica, así que se tiene espacio para otras cosas como canales múltiples, servicios interactivos, etc.

3.2.2 SUBMUESTREO DEL CROMA. El submuestreo del croma se utiliza para dar más resolución a la información de la luminancia y menos resolución a la información del color. Se utiliza en muchos esquemas de codificación de video (análogo y digital) y también en la codificación del formato JPEG. El submuestreo se basa en la manera que la visión humana percibe una imagen, el ojo humano es menos sensible al color que a la luminosidad, el ancho de banda se puede optimizar almacenando más detalle de la luminancia y menos detalle del color. En las distancias normales de la visión, no hay una pérdida perceptible muestreando el detalle del color a una tasa de muestreo más baja con respecto a la luminancia. En los sistemas video, se logra esto muestreando por separado la señal de luma Y´ y las componentes de diferencia de color R´-Y´ y B´-Y´.

3.2.3 SISTEMAS DE SUBMUESTREO Y RELACIONES. El esquema del submuestreo se expresa comúnmente como un cociente de tres partes (ejemplo 4:2:2), aunque está expresado a veces como cuatro porciones (es decir 4:2:2:4). Las partes son (en su orden respectivo):

• Referencia de muestreo horizontal de la luma, originalmente, como múltiplo de 3 3/8 de MHz (4x3.375 MHz = 13.5 MHz.)

• Factor de muestreo horizontal de Cb y Cr con respecto al primer dígito • Si es igual que el segundo dígito no hay submuestreo vertical, a menos que sea cero.

Cero indica que Cb y Cr son submuestreados 2:1 verticalmente • Si está presente, igual que el dígito de la luma; indica el componente alfa.

Page 122: SEMINARIO DE TITULACIÓN “PROCESAMIENTO DIGITAL DE …

TRANSICION DE LA TELEVISION ANALOGICA A LA DIGITAL.

122

FIG. 3.2 Esquema del submuestreo.

Los ejemplos siguientes son solamente teóricos y para ilustración. Los flujos de bits puestos en práctica en la vida real difieren muy probablemente. También, observar que el diagrama no demuestra el croma que se filtra o de qué píxeles se muestrean los valores del croma.

FIG. 3.3 Tipos de muestreo.

El video requiere generalmente cantidades masivas de ancho de banda. Debido a limitaciones de almacenamiento y de la transmisión, hay siempre un deseo de reducir (o comprimir) la señal de video. El formato 4:4:4, ya sea de RGB o Y'CbCr, se considera muestreo sin pérdida. Puesto que el sistema visual humano es mucho más sensitivo a las variaciones en brillo que al color, podemos tomar Y'CbCr y reducir los componentes de Cb y de Cr a la mitad de la resolución de bits, dando 4:2:2. El resultado final es una señal de video reducida en su ancho de banda con poco impacto en lo que percibe el espectador.

3.2.4 CODIFICACIÓN DE DIFERENCIA DE COLOR. En video compuesto, los tres componentes necesarios para transmitir la información de color se transmiten separadamente. La capacidad de datos va acorde a la información de color, una señal de video puede ser reducida aprovechándose de la capacidad relativamente pobre de la visión para percibir el color, manteniendo un ancho da banda fijo de luma. Las señales luma y B-Y, R-Y son derivadas de las señales R’, G’ y B’. Una vez que se tiene estas señales se efectúa su submuestreo (filtrado).

Page 123: SEMINARIO DE TITULACIÓN “PROCESAMIENTO DIGITAL DE …

TRANSICION DE LA TELEVISION ANALOGICA A LA DIGITAL.

123

FIG. 3.4 Submuestreo del croma.

Un arreglo de 2x2 de píxeles R' G' B' pueden ser transformados a un componente de luma Y' y a dos componentes de diferencias de color CB y CR; Los detalle de color puede ser reducidos por un submuestreo, previendo mantener los detalles completos de la luma. El aspecto amplio de las muestras CB y CR indica su extensión espacial. El desplazamiento horizontal de CB y CR es coincídete con la luminancia. (JPEG, H.261, y MPEG-1 no son coincidentes; en lugar, sus muestras de CB y CR son tomadas entre la mitad de las muestras de luma.) Y’ CB CR: Los componentes de vídeo digital, CB y CR son formados escalando (B'-Y', R'-

Y'). Y’ PB PR: Los componentes de video analógico PB y PR son señales de diferencia de

color escaladas de (B'-Y', R'-Y') y son filtradas a bajas frecuencias resultando con un ancho de banda cerca de la mitad del luma.

4:4:4: En la figura 1.14, la columna izquierda bosqueja un arreglo de 2x2 píxeles de R'G'B' con 8 bits por muestra, que ocuparían un total de 12 bytes. Éste es denotado 4:4:4 R'G'B'. Componentes de Y’CBCR se pueden formar de R'G'B', según las indicaciones de la segunda columna; sin el submuestreo es denotado: 4:4:4 Y'CB CR. El uso de 4 como la base numérica para la notación del submuestreo es una referencia histórica para un muestreo cerca de cuatro veces la frecuencia de la subportadora de color.

4:2:2: El vídeo digital de Y'CBCR acordado en Rec. 601 usa el muestreo 4:2:2 Los componentes de Croma son submuestreados por un factor de 2 a lo largo del eje horizontal. Las muestras de Croma son coincidentes con las muestras alternas de luma. En un sistema de 8 bits usando la codificación 4:2:2, el arreglo 2x2 ocupa 8 bytes, y la capacidad de los datos agregados es de 16 bits por píxel.

4:1:1: Algunos sistemas de video digital han utilizado el muestreo 4:1:1, donde las componentes de chroma están submuestreadas por un factor de 4 horizontalmente.

4:2:0: JPEG, H.261, MPEG-1, y MPEG-2 generalmente usan el muestreo 4:2:0. CB CR son submuestreados cada uno por un factor de 2 horizontal y verticalmente.

Page 124: SEMINARIO DE TITULACIÓN “PROCESAMIENTO DIGITAL DE …

TRANSICION DE LA TELEVISION ANALOGICA A LA DIGITAL.

124

MAC: Un sistema de transmisión para los componentes analógicos Componentes Analógicos Multiplexados (Multiplexed Analog Components MAC) ha sido adoptado en Europa para la radiodifusión directa por satélite (DBS). En MAC, los componentes de diferencia de color no se combinan una con otra ni con la luma, pero son comprimidas en tiempo y transmitidas serialmente. El MAC no esta estandarizado por ITU-R.

3.2.5 COMPONENTES DE VIDEO DIGITAL 4:2:2.

La interfaz estándar para la componente de video digital 4:2:2 es recomendada en ITU-R 601-4. Especifica el muestreo del luma de 13.5 Mhz. y un muestreo para las componentes de diferencia de color CB y CR de 6.75 Mhz. Esta interfaz es referida como 4:2:2, puesto que la luma es muestreada cuatro veces 3.375 Mhz, y cada uno de las componentes de CB y CR a dos veces 3.375 Mhz. las señales de diferencia de color son submuestreadas horizontalmente por un factor de 2:1 con respecto a la luma. El muestreo a 13.5 Mhz. resulta en un número de muestras por total de línea (S/TL samples per total line) para los sistemas 525/59.94 (858 S/TL) y 625/50 (864 S/TL). La Luma se muestrea con 720 muestras por línea activa para ambos 525/59.94 y 625/50. Los componentes de video digital de una grabadora de cinta de video están disponibles para los sistemas 525/59.94 y 625/50, y se han estandarizado con la designación D-1. Esa designación se aplica correctamente al formato de la cinta, no a la interfase de la señal. La recomendación 601 especifica la codificación de luma para fijar el negro con el código 16 y blanco con el código 235. Las diferencias del color están codificadas con un offset binario, con cero a 128, el pico negativo a 16, y el pico positivo a 240.

FIG. 3.5 Línea de barrido para las componentes de video 525/59.94, mostrando la luma. Las 720 muestras contienen información de imagen. Los intervalos de borrado horizontal ocupan el resto de las

muestras.

3.2.6 INTERFAZ DIGITAL SERIAL SDI. Para transportar los datos de DTV, los fabricantes de equipo de video profesional han construido interfases y medios de transmisión que permiten a los estudios y estaciones de radiodifusión mover de un punto a otro, formatos de video SDTV o HDTV. La mayoría de los sistemas manejan conexiones seriales para entrega y recepción de datos, aunque cuentan

Page 125: SEMINARIO DE TITULACIÓN “PROCESAMIENTO DIGITAL DE …

TRANSICION DE LA TELEVISION ANALOGICA A LA DIGITAL.

125

también con conexión en paralelo. Las conexiones seriales son necesarias porque las conexiones en paralelo no permiten distancias mayores a 50 mts. Para SDTV, y 20 mts. Para HDTV, debido a cuestiones técnicas para entregar datos de múltiples bits a altas velocidades con respecto a una señal de reloj. Como resultado los datos paralelos se necesitan convertir a un flujo de datos seriales antes de entregarse y convertirlos a paralelo después de su recepción. Un serializador/deserializador es una parte física importante de un DSI, presente en cualquier punto donde datos seriales sean convertidos a datos de video en 10 bits, o datos de video de 10 bits sean convertidos a datos seriales. Ejemplos de equipo de video profesional que requieren interfaces SDI incluyen cámaras de video profesional, equipos para edición de video, servidores para producción de video, convertidores de formato SD a HD, HD a SD, y HD a HD. La internase Digital Serial (SDI), estandarizada en ITU-R BT.656 y SMPTE259M, es una interfase de video digital utilizada para radiodifusión de vídeo. Un estándar relacionado, conocido como Interfase Digital Serial de Alta Definición (HD-SDI), se estandariza en SMPTE292M; esta proporciona una tasa nominal de datos de 1.485 Gbit/seg. Una interfase conocida comúnmente en la industria como enlace dual, consiste esencialmente en un par de enlaces SMPTE292M, se estandariza en SMPTE372M; esto proporciona una interfase nominal de 2.970 Gbit/seg. utilizada en aplicaciones (tales como cine digital) que requieren mayor fidelidad y resolución que el estándar HDTV puede proporcionar. Una interfase más reciente, que consiste de un solo enlace serial de 2.97 Gbit/seg., se estandariza en SMPTE424M. Estos estándares se utilizan para la transmisión de las señales digitales sin comprimir, señales no encriptadas de televisión digital (opcionalmente incluyendo audio) dentro de las instalaciones de los estudios de televisión; se pueden utilizar también para empaquetar datos. Se diseñan para operar a corta distancia; debido a sus altas tasas de bits son inadecuadas para la transmisión a larga distancia. SDI y HD-SDI actualmente están solamente disponibles en equipo de video profesional; por acuerdos, se restringe el uso de interfaces digitales no comprimido a equipo profesional, y prohíben su aplicación en equipo de uso del consumidor.

3.2.7 TASA DE BITS (BITRATES).

• Para el estándar SDTV (Standard-definition television, SDTV), definido por SMPTE259M, los bitrates posibles son 270 Mbit/seg. 360 Mbit/seg., 143 Mbit/seg., y 177 Mbit/seg. 270 Mbit/seg. es la tasa de bits de uso general más común; aunque la interfase de 360 Mbit/seg. (usado para la definición estándar widescreen) se encuentra a veces. Las interfases a 143Mbits/seg. y 177 Mbit/seg. fueron pensadas para la transmisión de la señal de video compuesto (NTSC o PAL) codificado digitalmente, y actualmente se consideran obsoletas.

• Para EDTV (Enhanced-definition television, EDTV) (principalmente 525P), Están

definidas varias interfaces de 540 Mbit/seg., así como un estándar de interfase de enlace dual a 270 Mbit/seg., la cual se encuentra raramente.

Page 126: SEMINARIO DE TITULACIÓN “PROCESAMIENTO DIGITAL DE …

TRANSICION DE LA TELEVISION ANALOGICA A LA DIGITAL.

126

• Para HDTV, la interfase dital serial es definida por SMPTE292M. Se definen dos

bitrates, 1.485 Gbit/seg., y 1.485/1.001 Gbit/seg.. El factor de 1/1.001 se proporciona para permitir que SMPTE292M soporte los formatos de video con tasas de cuadro de 59.94 Hz., 29.97 Hz., y 23.98Hz., para ser compatible con los sistemas existentes NTSC. La versión de 1.485 Gbit/seg. del estándar soporta otras tasas de cuadro de uso extenso, incluyendo 60 Hz., 50 Hz., 30 Hz., 25 Hz., y 24 Hz. Es común referir colectivamente a ambos estándares usando una tasa de bits nominal de 1.5 Gbit/seg.

• Para aplicaciones de muy de alta definición, que requieren una mayor resolución, tasa

de cuadros, o fidelidad del color que la interfase de HD-SDI puede proporcionar, el SMPTE372M es el estándar que define la interfase de enlace dual, esta interfase consiste en dos SMPTE292M interconectados en paralelo. Soporta un formato de 10 bits, 4:2:2, 1080P con tasas de cuadro de 60 Hz., 59.94 Hz., y 50 Hz., así como profundidad de color de 12 bits para la codificación del RGB, y 4:4:4 para el muestreo del croma.

• La interfase nominal 3 Gbit/seg. (más exactamente, 2.97 Gbit/seg., designada

comúnmente como “3G” es actualmente estandardizado por SMPTE; a junio de 2006, los chipsets para esta interfase están ya disponibles. Se desarrolló para soportar todas las características de la interfase de enlace dual de 1.485 Gbit/seg., pero requiriendo solamente un cable en lugar de dos para su interconexión.

Las componentes de video paralelo para SDTV consisten de 10 bits transmitidos a una frecuencia de reloj de 27 MHz. Esto resulta en una tasa de datos de 270 Mbits/seg. para SD-SDI. Las componentes de video paralelo para HDTV consisten de dos flujos de datos de 10 bits, 10 bits para el canal de luminancia y 10 bits para el canal de diferencias de color (Cb y Cr) transmitidos a una frecuencia de reloj de 74.25 MHz. o 74.25/1001 MHz. (74.17582), resultando en una tasa de datos seriales de 1.485 Gbits/seg. o 1.485/1001 Gbits/seg. (1.483516 Gbits/seg.). Para la interfase HD-SDI. Para generar una sola cadena o flujo de datos de 2 flujos de datos paralelos (Y, Cb y Cr) las muestras de Y, Cb y Cr son intercaladas en un solo flujo como se muestra en la figura 3.6.

FIG. 3.6 Intercalado de los canales Y y Cb/Cr para formar una cadena de datos de 10 bits serial HD-

SDI.

3.2.8 REPRESENTACIÓN DE DATOS DIGITALES EN PARALELO PARA SDTV 4:2:2.

Las interfases de transporte paralelo fueron definidas para SDTV y HDTV. La interfase de datos digitales en paralelo para SDTV está definida en el estándar SMPTE 125M-1995. Aunque el estándar indica longitudes de transmisión máximas de 300 mts. Prácticamente no

Page 127: SEMINARIO DE TITULACIÓN “PROCESAMIENTO DIGITAL DE …

TRANSICION DE LA TELEVISION ANALOGICA A LA DIGITAL.

127

es factible llevar 10 bits de datos más una fuente de reloj síncrono sobre 300 mts. de cable paralelo sin la utilización de un ecualizador. Este estándar se utiliza actualmente en instalaciones en distancias relativamente cortas (50 mts.). El conector recomendado es un conector D-sub de 20 pines. Es importante comprender esta interfase y los requerimientos en el formato de los datos para entender el estándar serial correspondiente Serial Digital Interfase SDI para las componentes de video digital 4:2:2 YCbCr documentado en el estándar SMPTE 259M. Los datos de video de 10 bits se transmiten como 10 señales de datos síncronos (DATA 0 a DATA 9) con una señal de reloj de 27 MHz. Las muestras de Y, Cb y Cr de la parte activa del video (figura 2) son arregladas en el flujo serial de datos de 10 bits. Las muestras de Y ocurren cada ciclo de reloj alternado para satisfacer la frecuencia de muestreo de 13.5 MHz. Las muestras de Cb y Cr ocurren cada 4 muestras respectivamente satisfaciendo la frecuencia de 6.75 MHz. cada una.

FIG. 3.7 Arreglo de las muestras de las componentes de luminancia y diferencias de color en SDTV

4:2:2. Con muestreo de 10 bits. Digitalizando los intervalos de borrado horizontal podría ocupar más ancho de banda, ya que, estos intervalos solo llevan información de tiempo. La mayoría de los datos durante el intervalo de borrado son utilizados para transportar datos auxiliares como audio embebido, teletexto, close caption, y códigos de redundancia cíclica CRC. La información de tiempo de la señal de video es capturada en TRSs (Timing Reference Signals, TRS) que indican el inicio de la línea activa de video (Start of Active Video, SAV) y el final de la línea activa (End of Active Video, EAV). El arreglo del período de borrado EAV y SAV y el video activo para cada línea de video codificada en 10 bits se muestra en la figura 3.10

FIG 3.8 Estructura para cada línea de video digital en SDTV 4:2:2.

La interfase paralela para las componentes digitales de HDTV está documentada en la norma SMPTE 274M para la resolución de 1920x1080 y SMPTE 296M para la resolución de 780x1280. La conexión paralela entre sistemas es por medio de un multiconductor y conector

Page 128: SEMINARIO DE TITULACIÓN “PROCESAMIENTO DIGITAL DE …

TRANSICION DE LA TELEVISION ANALOGICA A LA DIGITAL.

128

de 93 pines, y una distancia máxima de transmisión de 20 mts. Este formato paralelo puede ser serializado para producir el flujo serial HD-SDI, estándar especificado en SMPTE 292M. A diferencia de SDTV, la interfase digital paralela para HDTV consiste de dos cadenas de datos de 10 bits, una cadena para la luminancia y una cadena para las diferencias de color y una señal de reloj. La frecuencia del reloj es igual a la frecuencia de muestreo de la luminancia Y, la cual puede ser 74.25 MHz o 74.176 MHz. El diagrama de tiempos en la figura 3.11 muestra el arreglo de las muestras activas de Y, Cb y Cr con respecto a la señal de reloj. El primer flujo de datos representa las muestras de luminancia a 10 bits y el segundo flujo de datos representa las muestras a 10 bits de las diferencia de color Cb y Cr multiplexadas en el mismo flujo.

FIG. 3.9 Arreglo de las muestras de las componentes de luminancia y diferencias de color en HDTV

4:2:2. Con muestreo de 10+10 bits. Ambos flujos de datos (muestras de luminancia y crominancia) tienen intervalos de borrado digital, consistentes en secuencias de TRSs (EAV, SAV) y datos auxiliares, esto se muestra en la siguiente figura

FIG. 3.10 Estructura de los canales de luminancia y crominancia para cada línea de video digital en

HDTV 4:2:2. 3.3 COMPRESIÓN MPEG-2.

3.3.1 POR QUE DE LA COMPRESIÓN. La compresión de video se viene aplicando en televisión analógica de diferentes formas. El barrido entrelazado una forma de compresión, debido a que el ancho de banda que ocupa esa señal, se reduce ala mitad, el ancho de banda que ocuparía esa señal seria el doble.

Page 129: SEMINARIO DE TITULACIÓN “PROCESAMIENTO DIGITAL DE …

TRANSICION DE LA TELEVISION ANALOGICA A LA DIGITAL.

129

3.3.2 LA COMPRESIÓN DE VIDEO MPEG-2. La compresión de video es una técnica de compresión de datos redundantes e inconsecuencia, una reducción de velocidad binaria de ese flujo. El sistema de compresión mas utilizado en aplicaciones de video-brodcast es el MPEG-2. Mediante la compresión se logra ocupar menos ancho de banda que la misma señal sin comprimir. En trasmisión la compresión permite la emisión de señales digitales, por el mismo espectro que ocupa un canal analógico actual. La ventaja de usar compresión, implica un ahorro significativo de costos y mayor flexibilidad de sistemas. El proceso de la compresión requiere que la señal a comprimir sea digital. Si la señal a comprimir es analógica primero hay que digitalizarla. Las técnicas de compresión varían respecto al tipo de señal a comprimir. Para video y audio los procesos de compresión son diferentes y por ello los compresores también lo son. La figura siguiente muestra un simple proceso de compresión de video. La señal de entrada es analógica y se digitaliza a través de un conversor A/D. Este flujo de datos es luego comprimido y paquetizado.

Conversor A /DCompresor de

VideoPaquetizacion

Señal digital SDISeñal

Comprimida

PES Flujo Elemental

PaquetizadoSeñal Analógica

FIG. 3.11 Proceso de compresión de Video.

A la salida del Compresor tenemos un tren de datos comprimido cuya velocidad binaria será menor que la de la entrada. La velocidad del flujo de datos de salida es directamente proporcional a la relación de compresión aplicada.

Page 130: SEMINARIO DE TITULACIÓN “PROCESAMIENTO DIGITAL DE …

TRANSICION DE LA TELEVISION ANALOGICA A LA DIGITAL.

130

La señal de salida del compresor es paquetizada en paquetes de longitud variable. Estos se denominan PES Paquet Elementary Stream. Cuando más alta es la relación de compresión aplicada mayor será la degradación. Esta se ve traducida en una imagen en la perdida de resolución de movimientos.

3.3.3 ENTROPÍA Y REDUNDANCIA. Cualquier tipo de imagen esta compuesta por dos partes fundamentales que son; Entropía y Redundancia. Se define a la entropía como a la información útil de una señal; así mismo se define a la redundancia como una información que es repetitiva la cual es fácilmente predecible. Una imagen cuya escena tiene un mar completamente verde, tiene poco de entropía y mucho de redundancia y parte de la entropía obviamente abra una degradación de calidad, debido a que se esta perdiendo información. En la práctica es difícil determinar donde termina exactamente la redundancia y comienza la entropía. Por ello, el proceso de compresión reduce la redundancia hasta el determinado punto, quedando siempre algo de ella. En la siguiente figura se representa a modo de ejemplo la entropía y redundancia de una imagen cualquiera.

FIG. 3.12 Entropía y Redundancia de una imagen antes de la compresión MPEG-2.

La zona blanca es la entropía o núcleo de esa imagen. Lo que envuelve a esta es la redundancia ósea toda la información que se reporte. En la figura siguiente se muestra la misma imagen una vez efectuada la compresión. Nótese que queda solo un aparte de la redundancia original, que es la parte externa de la entropía.

Page 131: SEMINARIO DE TITULACIÓN “PROCESAMIENTO DIGITAL DE …

TRANSICION DE LA TELEVISION ANALOGICA A LA DIGITAL.

131

FIG. 3.13 Entropía y Redundancia después de la compresión MPEG-2.

Si se comprimiera aun más esa señal, se quitaría la redundancia restante pero como se menciono antes es difícil determinar exactamente donde finaliza la redundancia y comienza la entropía. Todas las imágenes contienen una gran información que es redundante. En teoría, un compresor ideal (para una relación de compresión máxima) debería de quitar el cien por ciento de la redundancia de una imagen o secuencia de imágenes quedando solo la entropía. Sin embargo en la práctica al aplicar la compresión siempre queda un poco de redundancia. Si se aumenta aun mas la relación de compresión, se llega a un punto en que comienza a reducirse datos de la entropía. Cuando esto ocurre el sistema se degrada en calidad y no es reversible. Esto significa que al decodificar la señal hay datos que no pueden recuperar. Con esto se quiere significar que la compresión debe utilizarse con moderación, para no producir degradaciones sobre la imagen. Estas degradaciones, producidas por una alta relación de compresión, se traducen en perdidas de resolución de movimientos.

3.3.4 MPEG-2 COMPRESIÓN Y TRANSPORTE. MPEG-2 es un sistema estándar para construir un solo flujo digital de transporte, o multiplexaje, que pueden llevar una docena de programas o más, dependiendo del nivel de la compresión usado y el ancho de banda de las comunicaciones disponible. En las secciones siguientes, discutiremos los fundamentos de la compresión MPEG-2 y del transporte. Este estándar cubre las reglas para: (1) Compresión del audio y el contenido de video (2) Transporte del multiplexaje a través de una red

Page 132: SEMINARIO DE TITULACIÓN “PROCESAMIENTO DIGITAL DE …

TRANSICION DE LA TELEVISION ANALOGICA A LA DIGITAL.

132

(3) Encapsulado de datos en el multiplexaje El estándar MPEG-2 no maneja simultáneamente varios sistemas de transporte. Como los decodificadores o los IRD (Integrated Receiver Decoder), operan o deben manejar simultáneamente varias cadenas de trasporte, se efectuaron extensiones a la capa del sistema MPEG-2, que fueron desarrolladas por la Digital Video Broadcasting (DVB) y el Advanced Television Systems Committee (ATSC). La compresión de una cadena de video se puede comparar a liofilizar una sopa instantánea. Cuando se empaqueta la sopa, toda el agua se quita para hacer el recorrido y el almacenaje más eficientes. Una vez que el paquete alcance a consumidor, él o ella agregan el agua nuevamente dentro de la mezcla para reconstruir la sopa. Esto es como si se extrajera la información redundante de una cadena de video o audio, la compresión MPEG-2 contrae la señal 180 veces más que su tamaño original. Una vez que la cadena llegue al espectador en casa, el decodificador regenera el contenido casi original y lo presenta al espectador. La compresión permite que los radiodifusores transmitan de 6 a10 veces el número de programas o de servicios que ofrecían anteriormente, sin necesitar aumentar el ancho de banda. Con el ancho de banda adicional, pueden ofrecer más programación, Televisión de Alta Definición (HDTV), servicios del Internet y/o TV interactiva. Porque la compresión MPEG-2 es con pérdida, cuando se comprima más una señal, más baja será la calidad que resulta. En cierto grado, las técnicas de la compresión del MPEG maximizan la calidad de la señal comprimida introduciendo la degradación donde es menos probable que el espectador lo perciba. Usando estas técnicas, una señal se puede comprimir considerablemente antes de que se comprometa la calidad de la imagen, pero si se requiere mayor compresión para preservar un ancho de banda, se puede sacrificar la calidad de la imagen. El estándar MPEG-2 permite una compensación flexible entre la calidad de la imagen y el bitrate para acomodar una amplia gama de requisitos de calidad y de la disponibilidad de ancho de banda. MPEG-2 especifica varios perfiles y niveles que permiten que los radiodifusores determinen el grado de compresión contra la calidad dependiendo de la aplicación.

3.3.5 COMPRESIÓN DE VIDEO. Una vez que se ha digitalizado el video, la compresión puede comenzar. La compresión del video se aprovecha de la redundancia considerable que existe dentro de cada cuadro de video y entre los cuadros consecutivos. También hace uso de la capacidad limitada de la visión humana para interpretar el movimiento. Con el uso de la compresión de video, se puede quitar hasta el 98% de la señal digital original sin una degradación inaceptable en la calidad de imagen. Hay dos tipos principales de compresión de video de MPEG, codificación espacial y codificación temporal. La codificación espacial elimina redundancia entre los píxeles

Page 133: SEMINARIO DE TITULACIÓN “PROCESAMIENTO DIGITAL DE …

TRANSICION DE LA TELEVISION ANALOGICA A LA DIGITAL.

133

adyacentes en un cuadro de vídeo. También hace uso la inhabilidad del ojo de detectar ciertas degradaciones visuales incluyendo ruido en áreas ocupadas del cuadro. La codificación temporal reduce al mínimo la redundancia entre cuadros en una secuencia de video.

3.3.6 REDUNDANCIA ESPACIAL. Dentro de una misma imagen, existen áreas de muestra de píxeles iguales. Un ejemplo típico puede se el césped de un campo de fútbol o una imagen con un cielo azul. En estas partes de la imagen que tienen el mismo color y brillo, es donde tenemos una gran repetición de muestras o lo que es lo mismo tenemos mucha redundancia en estos caso, se aplica una codificación que reduce a la redundancia dentro de la misma imagen. A este tipo de codificación se le denomina espacial lográndose con esta una baja relación de compresión.

FIG. 3.14 a) Redundancia Espacial. b) Líneas de Barrido.

En la figura se muestra una imagen cualquiera que tiene mucha redundancia. Las flechas en todas direcciones indican que existe repetición de píxeles dentro de la misma imagen. Se muestra a manera de ejemplo tres líneas de barrido de u campo. Supongamos que la imagen esta compuesta por una escena con un cielo azul. En este caso tenemos mucha información repetitiva o redundante bastara con enviar la primera de las 720 muestras de cada línea activa en vez de enviar las 719 restantes y transmitir un código que indica cuantas veces se repiten esas muestras. En este caso se reduce el flujo de datos y por ende la velocidad binaria de ese flujo este es un ejemplo genérico de compresión, aunque el proceso que se emplea es diferente. La idea, es codificar las muestras que se repiten dentro de la misma imagen, con pocos bits y a la inversa las muestras que tienen poca repetición o redundancia dentro de la misma imagen, codificarlas con muchos bits.

Page 134: SEMINARIO DE TITULACIÓN “PROCESAMIENTO DIGITAL DE …

TRANSICION DE LA TELEVISION ANALOGICA A LA DIGITAL.

134

3.3.7 CODIFICACIÓN ESPACIAL. La codificación espacial confía en semejanzas entre grupos adyacentes de píxeles en áreas planas de una imagen. Por ejemplo, un cuadro que contiene un fondo del cielo azul contendrá probablemente varias filas de píxeles azules idénticos. La codificación espacial puede codificar solamente un conjunto de estos píxeles y después indicar que el resto es idéntico, eliminando así datos redundantes de la cadena de bits. El proceso de codificación espacial involucra los pasos siguientes: 1. La Transformada del Coseno Discreto (Discrete Cosine Transform “DCT”) 2. Cuantificación 3. Ponderación 4. Exploración 5. Codificación entrópica La transformada del coseno discreto (DCT) divide una imagen en bloques de 8x8 píxeles entonces transforma las intensidades de los píxeles en una serie de valores basados en su frecuencia de aparición, o coeficientes. Debido a la redundancia espacial, muchos de los coeficientes presentan valores cero o cercanos a cero. Estos se pueden desechar de la serie de coeficientes así que el cuadro de video se expresa con menos bits como sea posible. El resultado es la compresión con pérdida, que elimina un cierto detalle, pero el nivel del detalle desechado es imperceptible al ojo humano. Sin embargo, incluso la mayor compresión es a veces necesaria, así que el largo de una palabra de los coeficientes restantes se debe expresar incluso en menos bits. Una vez más la reducción de bits adicionales compromete la exactitud del flujo de video convertido a digital e introduce una cierta degradación adicional en la imagen. Después de aplicar la transformada DCT, el cuadro de video es cuantificado, significando que los coeficientes se reorganizan según la importancia visual. Después de la cuantificación, el proceso de ponderación coloca estratégicamente una degradación o ruido, en áreas más detalladas o más complejas de la imagen donde es menos probable que el espectador lo note. Los coeficientes de DCT entonces se exploran tal que los coeficientes más significativos son enviados primero, seguidos por coeficientes menos significativos y finalmente una indicación en el código que los coeficientes restantes son cero. El paso final en la codificación espacial es la codificación entrópica, que vuelve a escalar el tamaño de los coeficientes basados en el número de veces que ocurren. Los coeficientes que se repiten frecuentemente se expresan con el menor número de bits, así va disminuyendo grandemente el ancho de banda total necesario para transmitir los coeficientes.

3.3.8 CODIFICACIÓN TEMPORAL. La codificación temporal elimina la redundancia entre los cuadros secuénciales en el flujo de vídeo. Por ejemplo, supongamos que se está codificando el vídeo que muestra la vista aérea

Page 135: SEMINARIO DE TITULACIÓN “PROCESAMIENTO DIGITAL DE …

TRANSICION DE LA TELEVISION ANALOGICA A LA DIGITAL.

135

de un juego del fútbol. Aunque los jugadores se mueven de cuadro a cuadro, la escena del fondo no cambia. La codificación temporal se aprovecha de las semejanzas entre los cuadros secuénciales y codifica solamente las diferencias a partir de un cuadro al siguiente. Esto se logra a través de dos tipos de codificación temporal: predicción inter-cuadro (prediction Inter-frame) y predicción del movimiento (motion prediction).

3.3.9 IMÁGENES EN MPEG-2. Para efectuar la compresión espacial y temporal de MPEG-2 toma el video de entrada y lo procesa en tres tipos de imágenes que son I, B y P. A partir de la imagen (I) actual, se genera una nueva imagen (P) o de predicción. Esta nueva imagen para su formación, toma información de la imagen (I). A su vez se generan dos imágenes (B) o de interpolación. Estas imágenes bidireccionales o sea que para efectuar la compresión, toman información de la imagen (I) y de la imagen de predicción (P).

3.3.10 IMÁGENES I. Este tipo de imágenes son comprimidas en forma espacial. Como habíamos visto, esta codificación reduce la redundancia dentro de la misma imagen, denominándose a esta codificación intra cuadro. La codificación espacial es utilizada para las imágenes (I) solamente. Estas posen menos compresión que otras imágenes que le siguen. Las imágenes (I) son enviadas al principio de cada secuencia de video y contienen toda la información para poder luego reconstruir una imagen. Las imágenes (I) se utilizan como referencia ara la codificación de otro tipo de imágenes. En el decodificador, estas imágenes se decodifican sin tomar referencia de oras imágenes. Las imágenes (I) el punto de partida o referencia de una secuencia de imágenes (B) y (P).

3.3.11 IMÁGENES P. Las imágenes (P) son imágenes de predicción y se generan tomando información de la imagen (I), estas se predicen desde la imagen previa (I) o (P). La técnica utilizada es por compensación de movimiento. En la secuencia de imágenes, la primera de ellas es al (I) seguida de dos imágenes o cuadros (B) y luego la imagen (P).

Page 136: SEMINARIO DE TITULACIÓN “PROCESAMIENTO DIGITAL DE …

TRANSICION DE LA TELEVISION ANALOGICA A LA DIGITAL.

136

La técnica de compresión empleada es de predicción de movimiento. Las imágenes (P) tienen más alta compresión que las imágenes (I). Estas imágenes se codifican de tal forma que tienen la mitad o un tercio de los datos que tienen las imágenes (I)

3.3.12 IMÁGENES B. Observando la figura anterior vemos que entre la imagen (I) y la (P) de predicción se generan dos imágenes de intercalación (B). En el estándar MPEG-2, podemos seleccionar la cantidad de imágenes (P) (B), dentro de dos imágenes (I) de acuerdo con las diferentes tasas de compresión y resolución de movimientos empleados. Las imágenes (B) son de interpolación y utilizan una predicción de movimiento interpolada estas imágenes para su formación toman información de la imagen actual (I) y de la predicción (P). Las imágenes (B) tienen mayor tasa de compresión estas se codifican de tal forma que tienen entre un tercio y la cuarta parte de los datos que contienen las imágenes (P).

3.3.13 PREDICCIÓN INTER-CUADRO. La predicción Inter-cuadro toma ventaja de las semejanzas entre los cuadros secuénciales codificando un cuadro de referencia completo sólo periódicamente, y después usando ese cuadro para predecir los cuadro que le preceden y le siguen. El cuadro de referencia se llama cuadro codificado I (Intra-coded frame) o cuadro I (I-frame). Los cuadros I se utilizan como una referencia para predecir los cuadros P y los cuadros B. Los cuadros predichos, o cuadros P, se refieren a un cuadro I (I-frame) anterior o a un cuadro P (P-frame) previo. Esto significa que en vez de transmitir todos los coeficientes de DCT para un cuadro P (P-frame), el codificador transmite solamente esos coeficientes que diferencien del cuadro I o del P que le precede. En el decodificador, se reconstruyen los cuadros P usando el cuadro I o el cuadro P que precede como referencia y aplicando las diferencias. Los cuadros bidireccionales predichos o cuadros B, se predicen en la misma manera ya sea precediendo o subsecuentes al cuadro I o el cuadro P. Donde un cuadro P requiere generalmente un 1/2 de los datos necesarios para crear un cuadro I, un cuadro B requiere solamente 1/4. Por supuesto, usando solamente un cuadro I como base para crear el resto de los cuadros en el flujo del video dejaría extremadamente vulnerable el flujo a errores, puesto que un error en el cuadro I se propagaría a través de la secuencia entera. Por esta razón, los cuadros se

Page 137: SEMINARIO DE TITULACIÓN “PROCESAMIENTO DIGITAL DE …

TRANSICION DE LA TELEVISION ANALOGICA A LA DIGITAL.

137

dividen en Grupos de Imágenes GOP (Groups of Pictures), generalmente de 12 a 15 cuadros. Cada GOP comienza con un cuadro I, previendo una corrección de error rápida para cuando un cuadro I se corrompa. Los GOPs también contienen los cuadros P y los cuadros B. El siguiente es un ejemplo de un grupo de imágenes.

FIG. 3.15. Grupo de imágenes GOP.

3.3.14 PREDICCIÓN DEL MOVIMIENTO.

Aunque los objetos pueden cambiar de localización en la pantalla, su aspecto sigue siendo a menudo igual. La predicción del movimiento se aprovecha de esta semejanza midiendo el movimiento de un objeto en el codificador y enviando un vector de movimiento al decodificador. El decodificador entonces utiliza este vector para cambiar de lugar la imagen especificada respecto a su localización en el cuadro anterior a una nueva localización en el cuadro siguiente. Así los objetos móviles necesitan solamente ser codificados una vez y después ser movidos cuanto sea necesario entre los cuadros. Típicamente, el movimiento continúa a través de varios cuadros, logrando incluso una mayor compresión cuando se transmiten solo la diferencia de vectores. Por ejemplo, si la velocidad de un objeto es constante, los vectores del movimiento no cambian; solamente una diferencia de cero para el vector se transmite.

3.3.15 PERFILES Y NIVELES. Para ofrecer a los radiodifusores mayor flexibilidad en la complejidad de la codificación y el tamaño de la imagen, el estándar MPEG-2 especifica diversas opciones de compresión conocidas como perfiles y niveles. Los perfiles dictan la complejidad de la codificación mientras que los niveles especifican el número de píxeles por cuadro. La siguiente tabla muestra varios perfiles y niveles especificados por MPEG-2 y el máximo bitrate para cada combinación.

3.3.16 MAINPROFILE@MAINLEVEL (MP@ML).

El MainProfile@MainLevel es probablemente la combinación más popular de los perfiles MPEG-2 y de los niveles, también en términos de la implementación del hardware. Es considerado la extensión estándar de MPEG-1 porque se han quitado o se han alcanzado muchas limitaciones. Actualmente con el MainProfile@MainLevel es posible cifrar ITU-R 601 Rec. formato de cuadro, que es entrelazado, sin procedimientos de filtrado antes de codificar. Además el valor máximo de la gama de bit permite una gama más amplia de usos y en general de una calidad mejor.

Page 138: SEMINARIO DE TITULACIÓN “PROCESAMIENTO DIGITAL DE …

TRANSICION DE LA TELEVISION ANALOGICA A LA DIGITAL.

138

Perfiles Niveles

Simple Main SNR

Scalable Spatially Scalable High

High 1920x1080x30 1920x1152x25 80Mbps 100Mbps

High-1440 1440x1080x30 1440x1152x25 60Mbps 60Mbps 80Mbps

Main 720x480x30 720x576x25 15Mbps 15Mbps 15Mbps 20Mbps

Low 352x240x30 352x288x25 4Mbps 4Mbps

Tabla 3.3 (La combinación de perfiles y niveles que no se presentan no están definidas como puntos de conformidad.)

En el ambiente de hoy de la radiodifusión, las combinaciones de uso más general son el Perfil Principal a Nivel Principal (Main Profile at Main Level MP@ML) y Perfil Principal a Nivel Alto (Main Profile at High Level MP@HL).

3.3.17 FORMACIÓN DE UN FLUJO DE TRANSPORTE. El mecanismo del transporte MPEG-2 es similar al transporte IP en que los flujos MPEG-2 llevan los datos que se han dividido en paquetes de transporte, cada uno con una cabecera y una carga útil. El proceso siguiente transforma varios vídeos analógicos, audio y el flujo de datos en un solo flujo de transporte. Una vez que se comprima un flujo de vídeo o de audio, este se convierte en un Flujo Elemental ES (Elementary Stream ES). De allí, se divide en un Flujo Elemental Empaquetado PES (Packetized Elementary Stream PES) con paquetes de longitud variable, cada uno contiene una cabecera y una carga útil. La carga útil contiene un solo cuadro de vídeo o de audio. La cabecera incluye la información de sincronía que indica al decodificador cuando decodificar el cuadro presente.

FIG 3.16 Creación de un Flujo Elemental Empaquetado (PES).

Page 139: SEMINARIO DE TITULACIÓN “PROCESAMIENTO DIGITAL DE …

TRANSICION DE LA TELEVISION ANALOGICA A LA DIGITAL.

139

Luego, durante el proceso de codificación, los PES’s son además divididos en paquetes de transporte de longitud fija de 188 bytes cada uno. Este tamaño del paquete fue elegido inicialmente para simplificar el mapeo de paquetes MPEG-2 sobre ATM (Modo de Transmisión Asíncrona), que utiliza las células con una carga útil de 47 bytes (47x4=188). Como en el paquete PES, cada paquete de transporte también contiene una cabecera y una carga útil. Una vez que el flujo de audio o video se haya dividido en los paquetes del transporte, se múltiplexa, o combina, con contenidos empaquetados similarmente para otros servicios. Un

múltiplex compuesto por unos o más servicios se llama un flujo del transporte.

FIG 3.17 Creación de un Flujo de Transporte.

Cada paquete en el flujo del transporte, contiene, ya sea audio, vídeo, tablas o datos, y es identificado por un número llamado Identificador de Paquete PID (Packet Identifier PID). Los PID’s permiten al decodificador clasificar los paquetes a través en un flujo de transporte.

3.3.18 SINCRONIZACIÓN: PCR, PTS Y DTS. La sincronización en el flujo de transporte se basa en un Sistema Tiempo de Reloj STC (System Time Clock STC) de 27 MHz en el codificador. Para asegurar la sincronización apropiada durante el proceso de decodificación, el reloj del decodificador debe amarrarse al STC del codificador. Para alcanzar este amarre, el codificador inserta en el flujo de transporte una marca de tiempo de 27 MHz para cada programa. Esta marca de tiempo se llama la Referencia de Reloj de Programa PCR (Program Clock Reference PCR). Usando el PCR, el decodificador genera un reloj local de 27 MHz que se amarra al STC del codificador. Como se menciono anteriormente, los cuadros de video comprimidos son transmitidos a menudo fuera de orden. Esto significa que un cuadro I usado para regenerar cuadros

Page 140: SEMINARIO DE TITULACIÓN “PROCESAMIENTO DIGITAL DE …

TRANSICION DE LA TELEVISION ANALOGICA A LA DIGITAL.

140

precedentes B debe estar disponible en el decodificador antes de que su tiempo de presentación arribe. Para manejar este proceso crítico de la sincronización, hay dos marcas de tiempo en la cabecera de cada paquete PES, la Marca de Tiempo de Descodificación TDS (Decoding Time Stamp DTS) y la Marca de Tiempo de Presentación PTS (Presentation Time Stamp PTS). Estas le indican al decodificador cuando debe decodificar un cuadro (DTS) y ser mostrado (PTS). Si el DTS de un cuadro precede su PTS considerablemente, el cuadro es decodificado y mantenido en un buffer hasta que arribe su tiempo de presentación. La figura siguiente demuestra la secuencia de la sincronización en el flujo del transporte. Antes de que se cree el flujo de transporte, el codificador agrega los PTS’s y DTS’s a cada cuadro en el PES. También coloca el PCR para cada programa en el flujo de transporte. Dentro del decodificador, el PCR pasa por un algoritmo de Lazo de Amarre por Fase (Phase Lock Loop PLL), el cual amarra el reloj del decodificador al STC del codificador. Esto sincroniza el decodificador con el codificador de modo que no desborden los bufers en el decodificador o que no llegue completo el flujo. Una vez que se sincronice el reloj del decodificador, el decodificador comienza a decodificar y a presentar programas según lo especificado por el PTS y el DTS para cada cuadro de audio o video.

FIG. 3.17 Sincronización del Flujo de Transporte.

3.3.19 DECODIFICACIÓN DE LA CADENA DE VIDEO COMPRIMIDA.

La descodificación de MPEG-2 es el proceso inverso uno a uno de la codificación del video. El proceso de la DCT inverso restaura los coeficientes de frecuencia según la exactitud del codificador. El decodificador entonces usa los macro bloques transmitidos de los cuadros I y P para reemplazar los macro bloques redundantes desechados de los cuadro P y B durante la codificación. Los vectores del movimiento especifican la ubicación de estos macro bloques dentro de los cuadros predichos. Como se explico anteriormente, la predicción requiere que los cuadros sean enviados al decodificador fuera de secuencia y sean almacenados temporalmente en un buffer. Por ejemplo, para que el decodificador recree un cuadro B, ambos datos de la imagen previa y la

Page 141: SEMINARIO DE TITULACIÓN “PROCESAMIENTO DIGITAL DE …

TRANSICION DE LA TELEVISION ANALOGICA A LA DIGITAL.

141

siguiente deben estar disponibles. Considerar el orden de la secuencia anterior de cuadros antes de ser decodificadas para presentarse al espectador.

FIG. 3.18 Cuadros decodificados fuera del orden para mantener una codificación temporal.

3.4 AUDIO EN HDTV.

3.4.1 COMPRESIÓN DE AUDIO. La compresión de audio MPEG-2 explota las limitaciones del oído humano. Se basa en el “enmascaramiento,” o la incapacidad del oído para detectar un sonido en presencia de un sonido similar más fuerte. Hay dos tipos de enmascaramiento: enmascaramiento auditivo y enmascaramiento temporal.

3.4.2 ENMASCARAMIENTO AUDITIVO. El enmascaramiento auditivo se presenta cuando ocurren dos sonidos con frecuencias similares al mismo tiempo. Si un sonido es más fuerte que el otro, opacará totalmente el segundo sonido. Por ejemplo, el enmascaramiento auditivo ocurre cuando intentas continuar una conversación en voz baja en una estación de tren. Cada vez que pasan los trenes opacarán su conversación. En presencia del sonido generado por el tren, las voces bajas en la conversación llegan a ser imperceptibles. Entre más cercanas están dos señales en frecuencia, es más probable que el sonido mas fuerte opaque al sonido más suave, aunque el segundo sonido sea levemente suave. Por ejemplo, si dos cornetas están tocando a frecuencias similares, la de frecuencia de menor intensidad no será escuchada. Pero un tambor bajo que suena en el mismo nivel de sonido que la corneta con sonido más bajo es más probable que sea escuchado, puesto que su frecuencia difiere significantemente de la corneta más ruidosa. Porque la sensibilidad del oído es dependiente de la frecuencia, el efecto de enmascaramiento es también dependiente de la frecuencia. Los sonidos con bajas frecuencias también deben ser cercanos para ser enmascarados al igual que los sonidos de altas frecuencias.

3.4.3 ENMASCARAMIENTO TEMPORAL. El enmascaramiento temporal ocurre cuando un sonido fuerte opaca sonidos más suaves inmediatamente antes y después de éste. Hay un rango de tiempo de varios milisegundos de duración antes y después de un sonido enmascarador fuerte durante el cual sus efectos

Page 142: SEMINARIO DE TITULACIÓN “PROCESAMIENTO DIGITAL DE …

TRANSICION DE LA TELEVISION ANALOGICA A LA DIGITAL.

142

estarán presentes. Por ejemplo, la ráfaga del silbido de un tren opacará probablemente una señal sonora débil que lo preceda. Para capitalizar en estas características auditivas, los algoritmos de compresión de audio dividen el espectro de audio en varias sub-bandas. El rango dinámico en cada sub-banda es reducido por separado, tal que, los efectos del rango dinámico de compresión no son perceptibles. Esto significa que en vez de 16 bits por muestra de audio en cada sub-banda, se podría tener solamente 2 a 4 bits por muestra. También se utiliza un escalamiento constante para cada banda. La asignación de bits por sub-banda se divide tal que los rangos de frecuencia importantes reciben más peso. El tamaño de una sub-banda también varía por la frecuencia de modo que empate el enmascaramiento por frecuencia en el oído humano. Una señal de audio se comprime en bloques tales que la asignación de la información de frecuencia puede ser cambiada en el tiempo utilizando efectivamente el enmascaramiento por tiempo. El tamaño típico de un bloque de audio es 24 milisegundos.

3.4.4 ESTÁNDAR DE AUDIO AC-3 DE ATSC (A/53C). El AC-3 “Estándar de Televisión Digital”, describe el algoritmo para codificación de audio. El estándar de compresión de audio digital ATSC AC-3 fue desarrollado por los laboratorios Dolby Digital y es conocido también como Sonido Dolby Digital 5.1., el estándar para la televisión de alta definición HDTV ATSC seleccionó este estándar para la compresión del audio. El audio de 5.1 canales primero fue desarrollado para usos en los cines. A diferencia de cualquier otro formato de grabación y reproducción previsto para el consumidor, el sonido de la grabación es mezclado en el mismo ambiente con el cual será reproducido. Todos los aspectos se han estandarizado y calibrados de modo que lo creado en los mezcladores en la etapa del doblaje es lo que se oye en el cine. Estos aspectos incluyen los niveles de la grabación en la banda de sonido de la película y la intensidad total durante su reproducción. Para mejorar el sonido del cine se establecieron hace años estándares de niveles y calibración para asegurar uniformidad a través de varios ambientes de reproducción. Aun cuando la evolución de las tecnologías de los amplificadores de potencia y bocinas hacen posible reproducir con alta calidad el sonido en el cine, todavía no era fácil entregar o reproducir frecuencias bajas fuertes. Las mejores cintas magnéticas de sonido (70 mm) habían alcanzado su capacidad máxima de grabación, así que era imposible aumentar los bajos sin causar una sobrecarga. Incluso hoy, los altavoces principales de la pantalla usados en cines no reproducen debajo de 30 Hz, así que si la banda de sonido lleva más bajos a los amplificadores, no serían reproducidos necesariamente. Para aumentar las capacidades de reproducción de bajas frecuencias en el cine, se instalaron los subwoofers. Para dirigir señales bajas a los subwoofers, se agregó un canal separado a la banda de sonido. Conocido como canal LFE (Low Frequency Effects), el cual, maneja los

Page 143: SEMINARIO DE TITULACIÓN “PROCESAMIENTO DIGITAL DE …

TRANSICION DE LA TELEVISION ANALOGICA A LA DIGITAL.

143

efectos de bajeo del subwoofer y puede también llevar la información de baja frecuencia de otros canales para enriquecer toda la banda de sonido. Un formato entregado al consumidor como un CD es perceptiblemente diferente de un sistema de cine. La intensidad del CD no está calibrada, el consumidor decide donde fijar el control de volumen. Tampoco se tiene calibrado el nivel de grabación del CD, el productor de la música puede agregar más bajos a una grabación ajustando los niveles totales, asegurando así que los bajos adicionales no causarán sobrecarga. De una manera similar, cada canal en el sistema Dolby Digital puede llevar el contenido de bajos. ¿Porqué hay un canal LFE en un formato de audio entregado al consumidor? simplemente, permite que las bandas de sonido de la película sean transcritas directamente y sin la alteración al formato video casero. Esto no significa que el canal de LFE no debe ser utilizado. Esto sugiere que el canal de LFE pueda no ser el único, o la mejor manera de proporcionar los bajos fuertes y profundos. Esto llega a ser más evidente cuando uno mezcla realmente el audio de varios canales usando un sistema de monitoreo de estudio correctamente configurado y calibrado.

3.4.5 DOLBY DIGITAL Y 5.1 CANALES DE AUDIO. Dolby Digital (AC-3) es un sistema de codificación de audio perceptivo desarrollado en 1992 para permitir que las impresiones de películas de 35 mm lleven el audio digital de varios canales además de la banda óptica analógica de sonido estándar. El sistema se ha adoptado desde entonces para el uso en el disco láser, el sistema de alta definición (HDTV) ATSC, el DVB definición estándar, televisión digital estándar (SDTV), televisión por cable digital, radiodifusión digital satelital, vídeo de DVD, Audio DVD, DVD-ROM, y distribución de audio en Internet. Dolby Digital divide el espectro del audio en estrechas bandas de frecuencia usando modelos matemáticos derivados de las características del oído humano, y analiza cada banda para determinar la audibilidad de esas señales. Para maximizar la eficiencia de los datos, el número más grande de bits representa las señales más audibles y pocos bits representan señales menos audibles. Para la determinación de la audibilidad de las señales, el sistema realiza lo qué se conoce como enmascaramiento. El enmascarar se refiere al fenómeno en el que el oído no puede detectar sonidos bajos cuando hay sonidos de alto nivel en frecuencias próximas. Cuando ocurre esto, el sonido de alto nivel enmascara el de bajo nivel, haciéndolo inaudible. Explotar este fenómeno permite que el audio sea codificado más eficientemente que en otros sistemas de codificación de audio. Esto hace del Dolby Digital una opción excelente para los sistemas donde se desea alta calidad de audio, pero el espacio del ancho de banda o de almacenaje es limitado. Como opción de los fabricantes, los programas Dolby Digital pueden entregar sonido envolvente (surround) con cinco canales discretos de rango completo - canal izquierdo “L”, centro “C”, derecho “R”, izquierdo envolvente “LS” y derecho envolvente “RS” más un sexto canal para efectos de bajas frecuencias “LFE” (Low Frequency Effects “LFE”). Como éste cubre solamente alrededor de un décimo del ancho de banda audible de los otros canales LFE es referido como el canal “.1”. La figura 1 muestra un sistema típico 5.1.

Page 144: SEMINARIO DE TITULACIÓN “PROCESAMIENTO DIGITAL DE …

TRANSICION DE LA TELEVISION ANALOGICA A LA DIGITAL.

144

FIG. 3.19 Arreglo del sistema Dolby Digital 5.1 Canales.

La cadena de bits de Dolby Digital entrega los canales principales con ancho de banda de frecuencia completa, a partir 3 Hz a 20 kHz, y un canal de ancho de banda con frecuencia limitada LFE, a partir 3 Hz a 120 Hz. Los codificadores de Dolby Digital aceptan largos de palabra de 16, 18, o 20 bits y con tasas de muestreo de 32 KHz, 44.1 KHz, o 48 KHz. El algoritmo de Dolby Digital proporciona una resolución de 24 bits, y las versiones futuras pueden ampliar las tasas de muestreo a 96 kHz. Todos los programas multicanales llevan dentro una cadena de bits de Dolby Digital que pueden ser mezcladas hacia abajo (downmixed) para tener compatibilidad con el sistema Dolby Surround, estéreo, o sistemas monoaurales. En que se diferencia Dolby Digital de 5.1 canales del Dolby Surround? Dolby Digital 5.1 canales proporciona dos canales envolventes con respecto al sistema Dolby Surround (de 1 solo canal envolvente) para una localización más exacta de sonidos y un convencimiento de un ambiente realista. También, los canales envolventes cubren la gama audible entera (20-20.000 Hz), mientras que en el sistema Dolby Surround de un solo canal envolvente está limitado a 7000 Hz. Está adición en el sonido envolvente aumenta el realismo, permitiendo efectos especiales más agudos y delineados. Su canal “.1” LFE permite reproducirse efectos de bajas frecuencias con sensaciones de impacto (dos veces más fuerte que los otros canales).

3.4.6 CODIFICADOR Y DECODIFICADOR DE DOLBY DIGITAL. La mezcla discreta de 5.1 canales al ser codificados y descodificados se mantienen como canales discretos independientes. Al mezclarse y monitorearse en 5.1, es importante tener los monitores configurados y calibrados correctamente para que la mezcla se reproduzca correctamente cuando es descodificado por el consumidor. El monitoreo a través de un codificador y de un decodificador es importante considerando el downmixing y el control de rango dinámico DRC (Dinymic Range Control). Usar un codificador y un decodificador Dolby Digital en una cadena de monitoreo permitirá la exanimación rápida de la variedad de maneras que un consumidor puede oír una mezcla. Dolby Digital ofrece varias características para mantener compatibilidad hacia atrás así como permitir al consumidor la capacidad de modificar sus ambientes particulares de escucha. Para

Page 145: SEMINARIO DE TITULACIÓN “PROCESAMIENTO DIGITAL DE …

TRANSICION DE LA TELEVISION ANALOGICA A LA DIGITAL.

145

mejores resultados, las características tales como downmixing, DRC, y el manejo de bajas frecuencias debe ser comprobado durante su generación y la entrega para ver si llevan el contenido del proveedor así como cumplir con los requerimientos del consumidor. Para una radiodifusión o grabación más eficiente de las señales de audio, la cantidad de información requerida para representar las señales de audio puede ser reducida. En el caso de señales de audio digitales, la cantidad de información digital requerida para reproducir exactamente las muestras originales de la modulación por código de pulso (PCM) puede ser reducida aplicando un algoritmo digital de compresión, dando por resultado una representación digital comprimida de la señal original. (El término compresión usada en este contexto significa la compresión de la cantidad de información digital que se debe almacenar o grabar, y no la compresión del rango dinámico de la señal de audio) la meta del algoritmo digital de compresión es producir una representación digital de una señal de audio que, cuando sea decodificada y reproducida, suene igual que la señal original, mientras se usa un mínimo de información digital (tasa de bits) para la representación comprimida o codificación. El algoritmo de compresión AC-3 digital especifica que se puede codificar a partir 1 a 5.1 canales de audio fuente con una representación de bits seriales PCM con tasas de bits de datos que se extienden a partir de 32 kbps a 640 kbps. El canal 0.1 se refiere a un canal con ancho de banda previsto para transportar solamente señales de baja frecuencia (subwoofer). Un uso típico del algoritmo se demuestra en la figura 2. En este ejemplo, un programa audio de 5.1 canales es convertido de una representación de PCM que requiere más de 5 Mbps (6 canales X 48 kHz X × 18 bits = 5.184 Mbps) en un flujo serial de bits de 384 kbps por el codificador AC-3. El equipo de transmisión vía satélite convierte este flujo serial de bits a una transmisión de RF que se dirige a un transponder del satélite. La cantidad del ancho de banda y energía requeridas por la transmisión ha sido reducida por un factor de más de 13 por la compresión digital AC-3. La señal recibida del satélite se desmodula nuevamente dentro del flujo serial de bits de 384 kbps, y decodificada por el decodificador AC-3. El resultado es el programa original del audio de 5.1 canales. La compresión de digital de audio es útil dondequiera que haya una ventaja económica que se obtendrá reduciendo la cantidad de información digital requerida para representar el audio. Los usos típicos se presentan en radiodifusión terrestre, comunicación satelital, comunicación por cables metálicos o ópticos, o el almacenaje del audio en medios magnético, ópticos, semiconductor, u otros medios.

Page 146: SEMINARIO DE TITULACIÓN “PROCESAMIENTO DIGITAL DE …

TRANSICION DE LA TELEVISION ANALOGICA A LA DIGITAL.

146

FIG. 3.20 Ejemplo de aplicación de transmisión de audio codificado en AC-3.

3.4.7 CODIFICACIÓN DE AUDIO.

El algoritmo AC-3 alcanza un alto aumento de la codificación (el cociente de la tasa de bits de entrada a la tasa de bits de salida) por medio de una cuantización burda en el dominio de la frecuencia de la representación de la señal de audio. La figura 3 muestra un diagrama de bloques simplificado del codificador AC-3. El primer pasó

FIG. 3.21 Codificador AC-3.

En el proceso de codificación es transformar la representación del audio de una secuencia de las muestras del tiempo de PCM en una secuencia de bloques de los coeficientes de frecuencia. Esto se hace en el banco de filtro para análisis. Los bloques traslapados de 512 muestras del tiempo son multiplicados por una ventana de tiempo y transformados al dominio de la frecuencia. Debido al traslape de los bloques, cada muestra de entrada de PCM se representa en dos bloques secuenciales transformados. La representación en el dominio de la

Page 147: SEMINARIO DE TITULACIÓN “PROCESAMIENTO DIGITAL DE …

TRANSICION DE LA TELEVISION ANALOGICA A LA DIGITAL.

147

frecuencia es decimada por un factor de dos para que cada block contenga 256 coeficientes de frecuencia. Los coeficientes individuales de frecuencia se representan en notación exponencial binaria como un exponente binario y mantisa. El conjunto de exponentes se codifica en una representación burda del espectro de la señal referido como envolvente del espectro. Esta envolvente espectral es utilizada por el núcleo de la rutina de asignación de bits, que determina cuántos bits utilizar para codificar cada mantisa individualmente. La envolvente espectral y las mantisas quantizadas burdamente para seis bloques audio (1536 muestras de audio por canal) se formatean en un frame AC-3. El flujo de bits AC-3 es una secuencia de frame AC-3. El codificador real AC-3 es más complejo que lo indicado en el la figura 3., Las siguientes funciones no mostradas arriba también se incluyen: 1. Se une un encabezado al frame el cual contiene la información (tasa de bits, frecuencia de muestreo, número de canales codificados, etc.) requerida para sincronizar y decodificar el flujo de bits codificado. 2. Los códigos de la detección de error se insertan para permitir que el decodificador verifique que un frame recibido de datos no tenga error. 3. La resolución espectral del banco de filtros para análisis se puede alterar dinámicamente para acoplar mejor la característica de tiempo/frecuencia de cada bloque de audio. 4. La envolvente espectral se puede codificar con resolución variable de tiempo/frecuencia. 5. Una asignación de bits más compleja puede ser realizada, modificando los parámetros de la rutina de asignación de bits para producir una asignación de bits más óptima. 6. Los canales se pueden acoplar juntos a altas frecuencias para alcanzar una ganancia de codificación mayor para operación a baja tasas de bits. 7. En el modo de dos canales, un proceso de rematrizado se puede realizar selectivamente para proporcionar aumento adicional en la ganancia de codificación, y permitir mejorar los resultados que se obtendrán en caso que la señal de dos canales se decodifique con un decodificador de matriz de sonido envolvente.

3.4.8 DECODIFICADOR DE AUDIO. El proceso de decodificar es básicamente el proceso contrario de codificación. El decodificador, mostrado en la figura 3, debe sincronizarse con el flujo codificado de bits, comprobar para detectar errores, y recuperar el formato de los diferentes tipos de datos tales como el envolvente espectral codificado. Se ejecuta la rutina de la asignación de bits y los resultados se utilizan para desempaquetar y decuantizar las mantisas. La envolvente espectral se decodifica para producir los exponentes. Los exponentes y las mantisas se transforman nuevamente al dominio del tiempo para producir las muestras PCM decodificadas de tiempo. El decodificador real AC-3 es más complejo que lo indicado en la figura 4. Las funciones siguientes no mostradas arriba son incluidas:

Page 148: SEMINARIO DE TITULACIÓN “PROCESAMIENTO DIGITAL DE …

TRANSICION DE LA TELEVISION ANALOGICA A LA DIGITAL.

148

1. Se aplica la cancelación de error o el silenciamiento (muting) en caso de que se detecte un error en los datos.

2. Los canales que han tenido su contenido de alta frecuencia acoplados juntos deben ser desacoplados.

3. Desmatrizado debe ser aplicado (en el modo de 2 canales) siempre que hayan sido los canales remasterizados.

4. La resolución del banco de filtros para sintetizado debe ser alterada dinámicamente de manera semejante a la del banco de filtros para análisis del codificador ocurrida durante el proceso de codificación.

FIG. 3.22 Decodificador AC-3.

Page 149: SEMINARIO DE TITULACIÓN “PROCESAMIENTO DIGITAL DE …

TRANSICION DE LA TELEVISION ANALOGICA A LA DIGITAL.

149

CAPITULO 4. TRANSICION DE LA TELEVISION ANALOGICA A LA

DIGITAL.

4.1 INTRODUCCION. El periodo de transición se considera al tiempo que convivirán la televisión analógica y la digital. Durante este periodo de tiempo, además de la emisión del programa analógico actual, se emite en forma simultánea el o los nuevos programas digitales. Para ello es necesario asignar un segundo canal para la programación de televisión digital. Esta nueva asignación del canal digital, es la que quedara en principio, después del periodo de transición. Esto significa que durante ese lapso de tiempo, el Broadcaster emitirá su señal por dos canales. El programa analógico que emite por el canal actual y la nueva programación en digital, que se emite por el nuevo canal asignado. Depuse del periodo de transición, el broadcaster emitirá solamente programación en digital. Esta transición esta por terminar en USA la cual ha sido un gran éxito y de la cual podemos aprender mucho para que también pueda ser implementada en nuestro país. Tomaremos como ejemplo lo ocurrido en USA durante su transición, para luego ver como se puede realizar en nuestro país. 4.2 IMPLEMENTACIONES PARA LA TRANSICION DE LAS EMISIONES DE

TELEVISION ANALOGICA A DIGITAL EN USA.

El periodo de transición, como habíamos mencionado, es el lapso de tiempo en que tendrán que convivir juntas la televisión analógica y la digital. Durante ese periodo de tiempo, los sistemas de televisión deberán emitir dos señales; la señal analógica actual y la nueva señal digital en alta definición (HDTV). Para ello los broadcaster deberán adecuar sus sistemas en forma gradual, hasta converger a la emisión digital solamente. Un claro ejemplo de esta transición es la que Sucederá en Estados Unidos la cual llegará a su punto culminante en el año del 2009 en donde la televisión estadounidense dejará de transmitir señales analógicas y difundirá exclusivamente en formato digital; de esa manera, el proceso de transición iniciado en ese país en diciembre de 1996, y el cual estuvo planeado originalmente por la FCC (Federal Commissión of Communication) para realizarse en un plazo de entre ocho y 15 años. Finalmente llegara a su fin, el “apagón analógico” se producirá en ese país, si no hay prórroga, a doce años de iniciada la migración hacia la TV digital.

Page 150: SEMINARIO DE TITULACIÓN “PROCESAMIENTO DIGITAL DE …

TRANSICION DE LA TELEVISION ANALOGICA A LA DIGITAL.

150

Tengamos en cuenta que la emisión analógica debe mantenerse por un largo tiempo, debido a que el parque de receptores de esta tecnología, seguirá por muchos años. Veremos a continuación, las distintas posibilidades que tienen los broadcasters, para adecuar los estudios durante el periodo de transición. Todo esto desde el punto de vista en la transición que sufrió estados unidos, como un claro ejemplo que esto también sucederá en nuestro país algún día.

4.2.1 CRITERIO DE ASIGNACION DE FRECUENCIAS PARA DTV EN EUA.

El criterio seguido en estados unidos para la asignación de canales para DTV (Digital Televisión) se muestra en la figura 4.1, donde se muestra los canales de televisión para NTSC y la asignación para DTV.

FIG. 4.1. Distribución de canales en NTSC y DTV en USA. El espectro que abarcan los canales de aire analógicos, comprenden la banda baja de VHF (canales 2 al 6), la banda alta de VHF (canales 7 al 13) y la banda de UHF (canales 14 al 36 y 38 al 69). El canal 37 no es utilizado para televisión. Cada canal tiene un espectro de 6MHz de ancho de banda. Para televisión digital DTV, se han asignado los canales de la banda alta (7 al 13) y los canales de UHF (14 al 36 y 38 al 69).

El espectro para DTV es más reducido que el de televisión analógica, pues se han tenido en cuenta algunos criterios para su asignación. La banda baja de VHF no se ha adoptado para DTV. El criterio empleado es que en esta banda se producen las mayores interferencias, especialmente en el canal 2. Además los canales 3 y 4 utilizados por los conversores de sistemas de cable y video caseteras, pueden interferir con los nuevos canales de DTV. Para televisión digital, el espectro comienza en la banda alta de VHF.

DISTRIBUCION DE CANALES PARA NTSC

2-4 5-6

Banda baja VHF.

7-13 14-36 39-69

Banda alta VHF. UHF

DISTRIBUCION DE CANALES PARA DTV

7-13 14-36 38-51

Banda alta VHF. UHF

Page 151: SEMINARIO DE TITULACIÓN “PROCESAMIENTO DIGITAL DE …

TRANSICION DE LA TELEVISION ANALOGICA A LA DIGITAL.

151

La banda de UHF se asigno parcialmente del canal 14 al 36. El canal 37 sigue siendo utilizado para comunicaciones. Otra parte de la banda de UHF asignada, comprende los canales 38 al 51. La porción de banda comprendida entre los canales 52 al 69 no se asigno para DTV. Una de las razones, es que solo un 10% de las estaciones actuales, tiene asignados esos canales para NTSC y la segunda razón es que se le dará otro uso en el futuro. La asignación de frecuencias de DTV en USA fue realizada por el FCC (Federal Commissión of Communication), y la cual fue la siguiente; a cada broadcaster que tenía su frecuencia para transmisión de televisión analógica, se le asigno una nueva frecuencia para DTV. Veremos a continuación, algunos ejemplos de asignación de frecuencias para la transición y que sucederá después de esta. Se consideraran tres casos que se dieron en los estados unidos. El la figura 4.2 se muestra un ejemplo típico en donde un broadcaster tenía asignado para la emisión en NTSC el canal 20 de UHF. Para el periodo de transición, se le asigno para DTV el canal 42 de UHF. Este broadcaster emitirá la señal por dos canales, hasta que dure la transición, el canal 20 en NTSC y el canal 42 en DTV.

FIG. 4.2 Ejemplo de asignación de frecuencia

para DTV, durante la transición.

Finalizando el periodo de transición, a este broadcaster se le dejara asignada una sola frecuencia para DTV, que puede ser la del canal 20 o 42, ya que en esté caso puede ser una de las dos frecuencias. La razón es que ambas se encuentran dentro del espectro de asignación de DTV, el Broadcaster en ese caso, optara por una de ellas para seguir emitiendo en DTV, ya sea un programa de HDTV o múltiples programas de SDTV, en un canal de 6MHZ de ancho de banda. En este caso es muy probable que el broadcaster elija la frecuencia del canal 42, esto es debido a que venia emitiendo en ese canal y por ello tiene el trasmisor digital y la antena trasmisora.

DURANTE LA TRANSICION.

Canal actual. NTSC

Canal 20.

Nuevo canal. DTV

Canal 42.

DESPUES DE LA TRANSICION.

DTV

Canal 20 o 42.

Page 152: SEMINARIO DE TITULACIÓN “PROCESAMIENTO DIGITAL DE …

TRANSICION DE LA TELEVISION ANALOGICA A LA DIGITAL.

152

Otro de los casos que se presento es, en el que un broadcaster emite su programación de NTSC por el canal 55 de UHF. Para DTV se le asigno un nuevo canal que es el 24 de la misma banda, y así fue la transmisión durante el periodo de transición. Finalizando el periodo de transición, el broadcaster no puede elegir la frecuencia como en el caso anterior, sino que se le asigna de forma automática el canal 24. Esto es debido a que el espectro de frecuencias asignado para DTV, tiene como límite el canal 51 de UHF y canal 55 esta fuera del mismo, esto se ilustra en la figura 4.3. FIG. 4.3. Otro caso de asignación de Frecuencia Para DTV. En el último caso, el broadcaster tiene asignada la frecuencia del canal 56 de la banda UHF, para las emisiones analógicas. Para DTV se le ha asignado el canal 54 de la misma banda. Al finalizar el periodo de transición, el broadcaster no puede optar por elegir, sino que se le asigna de forma automática un nuevo canal. Esto es debido a que ambos canales (56 y 54), se encuentran fuera de la banda asignada para DTV. En consecuencia, se le asignara un nuevo canal que este dentro de la banda asignada para DTV. En este caso se le asigno el canal 32 de la banda UHF, como se muestra en la figura 4.4.

FIG. 4.4. Otro caso de asignación de frecuencia para DTV.

DURANTE LA TRANSICION.

Canal actual. NTSC

Canal 55.

Nuevo canal. DTV

Canal 24.

DESPUES DE LA TRANSICION.

DTV

Canal 24.

DURANTE LA TRANSICION.

Canal actual. NTSC

Canal 56.

Nuevo canal. DTV

Canal 54.

DESPUES DE LA TRANSICION.

DTV Canal

32.

Page 153: SEMINARIO DE TITULACIÓN “PROCESAMIENTO DIGITAL DE …

TRANSICION DE LA TELEVISION ANALOGICA A LA DIGITAL.

153

4.2.2 INFRAESTRUCTURA ANALOGICA EXISTENTE. En la figura 4.5 se representa un sistema analógico compuesto por estudio, producción y transmisión.

FIGURA 4.5. Infraestructura analógica existente y adaptación para HDTV. Este sistema es similar a la mayoría de los sistemas de televisión aéreos de NTSC, que están funcionando actualmente en USA. Este ejemplo es el más simple y se trata de aprovechar parte del equipamiento analógico existente, para implementar a bajo costo, la trasmisión digital en HDTV.

HDTV

Producción. Decoder ATSC

DVE Switcher de Produccion

Down Converter

Down Converter

Server

Generador Caracteres

Editor no Lineal

VTR

Routing Switcher

Analógico

Master Control Switcher Analógico.

ESTUDIO

Modulador Transmisor

NTSC

Up Converter

Compresor

y Múltiplex

ATSC

Modulador

y Transmisor

Digital

Transmisión

1.48 Gbps HDTV ATSC NTSC

Page 154: SEMINARIO DE TITULACIÓN “PROCESAMIENTO DIGITAL DE …

TRANSICION DE LA TELEVISION ANALOGICA A LA DIGITAL.

154

Estos ejemplos, son considerados para aprovechar las distintas alternativas existentes, durante la transición. Se transmite en digital una señal de HDTV, además de la señal analógica actual. También podrán considerarse estos ejemplos para otros países, independientemente del estándar empleado, pudiendo emitirse como señal digital un programa de HDTV. También se puede cambiar la estructura existente, para emitir varios programas de SDTV. En cualquiera de los casos, se trata de utilizar parte de la infraestructura existente y efectuar luego una ampliación a HDTV o SDTV. En algunos casos no es la situación ideal, debido a la perdida de calidad. Sin embargo, se aprovecha parte del equipamiento analógico existente, para transmitir una señal de HDTV. Lo que se trata de lograr es una mínima inversión inicial en equipos de HDTV, durante el periodo de transición. Volviendo al ejemplo de la figura 4.5, el sistema de HDTV se halla compuesto por un sistema de recepción satelital y un estudio con dos cámaras. La señal recibida de satélite es decodificada a través de un Decoder ATSC, obteniéndose a la salida una señal de 1.48Gbps en HDTV. Esta señal para poder ingresarla al routing switcher analógico, es convertida de 1.48Gbps HDTV a una señal analógica NTSC, a través del Down Converter. El mismo proceso, se realiza con la señal de HDTV proveniente de las cámaras de estudio. Estas señales de digital HDTV se convierten a analógica NTSC. El router switcher es utilizado para rutear las distintas señales que ingresan en sus entradas. Además de la señal de satélite y de las cámaras de estudio, al routing switcher ingresan las señales analógicas provenientes de un sistema de edición no lineal, un generador de caracteres, un Server y una videograbadora (VCR). La salida analógica del routing switcher es conectada a la entrada del Master Control Switcher. Este equipo, permite generar múltiples efectos, además de proveer otras facilidades adicionales. El Master Control Switcher tiene dos salidas, la segunda de ellas, ingresa al modulador y la salida de este excita al transmisor. La salida de este es conectada a la primera antena transmisora, mediante una línea de transmisión, de esta manera, se transmite la señal analógica existente. La primera salida analógica del Master Control Switcher, es convertida a través del Up Converter, a una señal digital de HDTV. El Up Converter realiza dos funciones: la primera de ellas es la de un decoder, o sea que convierte la señal analógica a una señal SDI. La segunda función, es convertir la señal SDI de 270Mbps a una señal de 1.48Gbps de HDTV. Esta señal, es comprimida y multiplexada a

Page 155: SEMINARIO DE TITULACIÓN “PROCESAMIENTO DIGITAL DE …

TRANSICION DE LA TELEVISION ANALOGICA A LA DIGITAL.

155

través del compresor y múltiplex de trasporte en HDTV en el estándar ATSC. La salida del múltiplex es conectada a la entrada del modulador 8-VSB. El flujo digital modulado excita al transmisor digital y la salida de este mediante la línea de transmisión, es conectada a la segunda antena transmisora. El sistema presentado en este ejemplo es el más simple y tiene algunas ventajas. Si bien este caso no presenta toda la calidad que se requiere de una señal de HDTV digital, permite al menos durante la transición, aprovechar el equipamiento analógico existente para transmitir la señal digital. En esta infraestructura la inversión inicial a realizar es mínima, aun con la perdida de calidad que significa la conversión de la señal analógica a digital HDTV, es una buena opción para comenzar las emisiones de HDTV.

4.2.3 INFRAESTRUCTURA DIGITAL SDI EXISTENTE. En la figura 4.6 se muestra una opción más interesante, a fin de aprovechar los equipos existentes, junto a los nuevos en HDTV. En este se considera una planta que esta emitiendo actualmente un programa analógico, pero todo el procesamiento en la misma es digital SDI. Todos los equipos digitales son conmutables de 720Mbps/4:3 a 360Mbps/16:9. El nuevo sistema de HDTV se halla compuesto, al igual que el ejemplo anterior, por un sistema de recepción satelital y un pequeño estudio en HDTV. La señal recibida de satélite es decodificada a través de un Decoder ATSC, en cuya salida tenemos una señal de 1.48Gbps en HDTV. Esta señal para poder ingresarla al Routing Switcher Digital, es convertida a través de un Down Converter. Un segundo Down Converter se utiliza con las señales de HDTV, provenientes de las cámaras de estudio. En este caso ambos Down Converters convierten la señal de HDTV de 1.48Gbps a una señal SDI de 270Mbps. Además de la señal de satélite y de las cámaras, al Routing Switcher SDI también ingresan señales digitales provenientes de un sistema de edición no lineal, un generador de caracteres y un switcher de producción. La salida digital del routing switcher es conectada a la entrada del Master Control switcher. La señal SDI de la primer salida del Master Control Switcher, mediante un Up Converter, es convertida de SDI-270Mbps a una señal de 1.48Gbps-HDTV. Esta señal es comprimida y multiplexada para luego, excitar al modulador 8-VSB. La salida modulada es conectada al transmisor digital y la salida de este, se conecta a la primera antena transmisora, mediante una línea de transmisión. La señal de la segunda salida del Master Control Switcher, ingresa a un Encoder NTSC, este equipo convierte la señal digital SDI a una señal analógica NTSC. Esta señal excita al

Page 156: SEMINARIO DE TITULACIÓN “PROCESAMIENTO DIGITAL DE …

TRANSICION DE LA TELEVISION ANALOGICA A LA DIGITAL.

156

modulador y la salida de este es conectada al transmisor. La salida de RF del transmisor, es conectada a la segunda antena transmisora, mediante la línea de transmisión.

FIGURA 4.6 Infraestructura SDI existente y adaptación A HDTV. Esta opción requiere un mínimo de inversión, pues se aprovecha parte de la infraestructura SDI existente, para emitir un programa en HDTV. El Up Converter de SDI a HDTV, posee excelente calidad de imagen, para lo que significa una conversión. Sin embargo, a pesar que no se explota por completo la tecnología de HDTV, es una opción de transición interesante, sobre todo por la relación costo performance.

HDTV

Producción. Decoder ATSC

DVE Switcher de Produccion

Down Converter

Down Converter

Generador Caracteres

Editor no Lineal

270/360 Mbps. Routing SDI

Master Control Switcher SDI ESTUDIO

SDI

Encoder NTSC

Up Converter

Compresor Múltiplex

Transmisor

Digital

Transmisión

HDTV ATSC NTSC

Modulador Transmisor

NTSC

SDI

Page 157: SEMINARIO DE TITULACIÓN “PROCESAMIENTO DIGITAL DE …

TRANSICION DE LA TELEVISION ANALOGICA A LA DIGITAL.

157

4.2.4 INFRAESTRUCTURA EXISTENTE SDI Y NUEVA PLANTA EN HDTV.

Otra de las alternativas interesantes que existe durante la transición, consiste en utilizar la infraestructura existente en Digital Serie (SDI) y proyectar el resto de la planta en HDTV. La transmisión digital se realiza en HDTV. En la figura 4.7 se representa un diagrama de bloques de esta infraestructura combinada.

FIGURA 4.7 Infraestructura digital Serie SDI y HDTV. Esta opción es interesante, pues permite por un lado producir y emitir durante una parte del día programación en HDTV y durante otra parte del día permite producir y emitir es SDTV.

HDTV

Isla de Producción en HDTV.

Decoder ATSC

DVE Switcher de Produccion

Generador Caracteres

Editor no Lineal

ESTUDIO SDI

Up

Converter

Encoder NTSC

Compresor Múltiplex

Modulador Transmisor

Digital

Transmisión

HDTV ATSC NTSC

Modulador Transmisor

NTSC

SDI

Routing Switcher HDTV

Master Control Switcher HDTV

Switcher de Produccion

Gen. De Caracteres

Editor no Lineal

Routing Switcher SDI 270/360 Mbps

Master Control Switcher SDI 270/360 Mbps

Isla de Producción en SDI

Page 158: SEMINARIO DE TITULACIÓN “PROCESAMIENTO DIGITAL DE …

TRANSICION DE LA TELEVISION ANALOGICA A LA DIGITAL.

158

La conformación de este diagrama de bloques esta separada en dos partes. El centro de producción y emisión en HDTV y el de SDTV (Televisión Digital Estandar). La salida del Master Control Switcher en digital HDTV, es conectada a la primer entrada del compresor ATSC y la salida de este ingresa al múltiplex. A la salida del múltiplex tenemos formado el flujo de transporte, este es conectado a la entrada del Modulador 8-VSB. La salida de RF modulada ingresa al transmisor digital y la salida de este es conectada a la primera antena transmisora. La primera salida SDI del Master Control Switcher, es conectada a la entrada del encoger NTSC. Este equipo convierte la señal SDI a analógica. Esta señal es conectada a la entrada del modulador, la salida de este es conectada a la entrada del transmisor analógico. La salida del transmisor es conectada a la segunda antena transmisora. Otra opción para generar la señal HDTV, es tomar la segunda salida SDI del Master Control Switcher y mediante un Up Converter, convertirla de SDI-270Mbps a HDTV-1.48Gbps. Este flujo digital ingresa a la segunda entrada del compresor-múltiplex de HDTV. Mediante el centro de alta definición (HDTV), logramos la más alta calidad de televisión. El formato utilizado es 1080i (entrelazado). El centro de producción en SDI, permite operar en 270Mbps con una relación de aspecto de 4:3 o en 360Mbps en 16:9. También, con este último formato se logra una muy buena calidad de imagen. Ambos centros, están interconectados de tal manera de ampliar las facilidades. El diagrama de cada uno de ellos, es similar en su conformación e interconexión a los diagramas de bloques anteriores. Este sistema, resulta muy apropiado para la transición y aun después de la misma, la única desventaja es que si no se dispone de un estudio SDI, resulta más caro invertir en este equipamiento, pues simultáneamente se debe invertir en el equipamiento de HDTV. Sin embargo, si el Broadcaster dispone de un sistema SDI similar al diagrama, esta es la solución ideal, pues solo se requiere una mínima inversión inicial en el equipamiento de HDTV.

4.2.5 INFRAESTRUCTURA EN HDTV. En la figura 4.8 se muestra un diagrama de bloques de una infraestructura en HDTV. Cuando el objetivo final consiste en emitir programación en HDTV, esta es la solución mas apropiada. Es la más costosa, pues todo el equipamiento es de HDTV y debe adquirirse por completo, pero es la solución ideal. Con este sistema se logra la más alta calidad de imagen en producción y emisión. La segunda salida del master control Switcher ingresa al Encoder ATSC (compresor y Múltiplex). El flujo de transporte así obtenido excita al modulador y la salida de este es conectado al transmisor digital. La señal de RF de salida del transmisor, es conectada a la

Page 159: SEMINARIO DE TITULACIÓN “PROCESAMIENTO DIGITAL DE …

TRANSICION DE LA TELEVISION ANALOGICA A LA DIGITAL.

159

antena transmisora mediante la línea de transmisión. De esta manera, se transmite el programa digital en HDTV. Simultáneamente, se debe transmitir la misma señal, pero analógica NTSC, esto es a fin de que todos los usuarios que tengan receptores analógicos, puedan recibir esa señal. Para ello, la primer salida del master Control Switcher en HDTV ingresa al Down Converter, este equipo convierte la señal de 1.48Gbps en HDTV a una señal de 270Mbps SDI. Luego a través de un encoger NTSC, se convierte la señal SDI a una señal analógica. Con esta señal de video compuesta, se excita el modulador y la salida de este es conectada al transmisor. La salida de RF del transmisor es conectada a la segunda antena. De esta manera, se transmite la segunda señal, que es la analógica.

FIGURA 4.8 Infraestructura en HDTV.

HDTV ATSC NTSC SDI

HDTV

Producción

Decoder ATSC

DVE Switcher de Produccion

Generador Caracteres

Editor no Lineal

ESTUDIO SDI

Down Converter

Encoder NTSC

Modulador Transmisor

NTSC

Transmisión

Modulador Transmisor

Digital

Routing Switcher

HDTV

Master Control

Switcher HDTV

Up Converter

Encoder ATSC

Page 160: SEMINARIO DE TITULACIÓN “PROCESAMIENTO DIGITAL DE …

TRANSICION DE LA TELEVISION ANALOGICA A LA DIGITAL.

160

4.3 ESTANDARES PARA HDTV EN EL MUNDO. El objetivo principal de los sistemas y planes de transmisión de televisión digital, es ofrecer al televidente programas con imágenes puras, sin degradaciones, ruido, ínter modulaciones ó fantasmas, así como sustituir a los servicios analógicos convencionales. La radiodifusión de señales de televisión en formato digital es ya una realidad en el mundo y se han definido tres estándares oficiales, adoptados por diversos países y soportados por organizaciones internacionales. Algunos de los estándares adoptados son: en Europa con el DVB (Digital Video Broadcast), Los Estados Unidos de Norteamérica con el ATSC (Advanced Television Systems Committee) y Japón con ISDB-T (Integrated Services Digital Broadcasting). Dichos estándares, únicamente marcan las características técnicas de los sistemas de transmisión de señales digitales de servicios de televisión en formatos de alta definición (HDTV) y definición estándar (SDTV). Para el caso de producción, la UIT (Unión Internacional de Telecomunicaciones) ha definido el estándar de producción de programas de televisión de alta definición en 1080i (1080 líneas y 1920 columnas).

FIGURA 4.9 Señales en un ancho de banda de 6MHz para TV digital.

Aún cuando los tres estándares de TV digital permiten seleccionar si el servicio será en SDTV ó HDTV, la denominada Televisión de Alta Definición es sin duda el objetivo primordial de los servicios de TV digital, ya permite al televidente disfrutar imágenes con la calidad de fotografía de 35 mm (cine) y audio surround equiparable al CD en una pantalla ancha con relación de 16:9.

4.3.1 ESTANDAR ISDB. ISDB (Integrated Services Digital Broadcasting) o Transmisión Digital de Servicios Integrados es el formato de televisión digital y radio digital que Japón ha creado para permitir a las estaciones de radio y televisión la conversión a digital. Además de transmisión de audio y video, ISDB también define conexiones de datos (transmisión de datos) con Internet como un canal de retorno sobre varios medios y con

Page 161: SEMINARIO DE TITULACIÓN “PROCESAMIENTO DIGITAL DE …

TRANSICION DE LA TELEVISION ANALOGICA A LA DIGITAL.

161

diferentes protocolos. Esto se usa, por ejemplo, para interfaces interactivas como la transmisión de datos y guías electrónicas de programas. Hay dos tipos de receptores de ISDB: TV y STB (Set top box o Decodificador, por sus siglas en inglés). La relación de aspecto de la televisión ISDB es 16:9. ARIB (Asociación de Industrias y Negocios de Radiodifusión) es la entidad encargada de crear y mantener el ISDB, congrega a una multitud de empresas-japonesas y extranjeras-en el negocio de producir, financiar, fabricar, importar y exportar bienes de consumo relacionados con la radiodifusión. En cuanto a la Radiodifusión Digital, el ARIB ha creado 3 estándares para su funcionamiento en Japón: El ISDB-T (televisión digital terrestre), ISDB-S (televisión digital satelital) e ISDB-C (televisión digital por cable). El ISDB ha adoptado el MPEG-2 y el MPEG-4 para la compresión de vídeo y audio. Aunque otros sistemas de compresión también han sido aprobados. El ISDB utiliza distintos sistemas de modulación para hacer más efectiva su llegada al usuario. Como el DSPK, o el BST-OFDM. Para la interactividad el ISDB-T utiliza distintos sistemas, a ser aprobados en el país en el que se adopten. Sin embargo, en Japón utiliza la Internet como canal de retorno de distintos medios (10Base-T/ 100 Base T, módem, teléfono celular, LAN Inalámbrico (IEEE 802.11) con diferentes protocolos.

4.3.1.1 APLICACIONES DEL ESTANDAR ISDB-T.

• ISDB-T puede transmitir un canal HDTV y un canal de teléfono móvil dentro de un ancho de banda de 6 MHz reservado usualmente para transmisiones de TV.

• ISDB-T permite seleccionar entre dos y tres canales SDTV en lugar de uno solo en HDTV (multiplexando canales SDTV). La combinación de estos servicios puede ser cambiada en cualquier momento.

• ISDB-T proporciona servicios interactivos con transmisión de datos. Servicios tales como juegos o compras, vía línea telefónica o Internet de banda ancha.

• ISDB-T proporciona EPG (Electronic Program Guide, o guía electrónica de programas)

• ISDB-T soporta acceso a Internet como un canal de retorno que trabaja para soportar la transmisión de datos. Acceso a Internet también es provisto en teléfonos móviles.

• ISDB-T provee SFN (Single Frequency Network, Red de una sola frecuencia) y tecnología on-channel repeater (repetición en el canal). SFN hace uso eficiente del espectro de frecuencias.

• ISDB-T se puede recibir con una simple antena interior.

Page 162: SEMINARIO DE TITULACIÓN “PROCESAMIENTO DIGITAL DE …

TRANSICION DE LA TELEVISION ANALOGICA A LA DIGITAL.

162

• ISDB-T proporciona robustez a la interferencia multiruta (que produce los denominados "fantasmas" de la televisión analógica)

• ISDB-T proporciona robustez a la interferencia de canal adyacente de la televisión análoga.

• ISDB-T proporciona robustez frente a señales transitorias que provienen de motores de vehículos y líneas de energía eléctrica en ambientes urbanos.

4.3.1.2 CARACTERISTICAS PRINCIPALES DEL SISTEMA.

El estándar ISDB-T, tiene características especiales que difieren del estándar DVB-T. Veremos a continuación las características más importantes de este estándar.

A. TRANSMISION OFDM EN FORMA SEGMENTADA.

El flujo de transporte (transport stream) es remultiplexado y agrupado en segmentos de datos. Luego, cada uno de estos segmentos es transformado en segmentos OFDM. En total, el espectro de transmisión se compone de trece segmentos, siendo esta cantidad la misma para un canal de 6, 7 y 8 MHz. De ancho de banda. Lo que varía en cada uno de los espectros, es el tiempo de duración de cada segmento. Para 6MHZ de ancho de banda del canal, el espectro compuesto por los trece segmentos ocupa 5.6MHz, siendo el ancho de banda de cada segmento de 429KHz.

En la figura 4.10 se muestra el espectro de los trece segmentos en transmisión, los mismos corresponden a un canal de 6 MHz. de ancho de banda.

FIGURA 4.10 Segmentos de datos en ISDB-T, para 6 MHz de ancho de banda del canal.

B. AJUSTE DEL TIEMPO DE INTERCALACION DE DATOS.

Se dispone de cuatro tiempos distintos de intercalación de datos, para cada ancho de banda del canal de transmisión. En la tabla 4.1, se muestran los tiempos de intercalación para los distintos anchos de banda del espectro.

0 1 2 3 4 5 6 7 8 9 10 11 12

0.429Mz Segmento de datos.

13 Segmentos = 5.6 Mz.

Page 163: SEMINARIO DE TITULACIÓN “PROCESAMIENTO DIGITAL DE …

TRANSICION DE LA TELEVISION ANALOGICA A LA DIGITAL.

163

Ancho de banda

del canal. Tiempo 1 de intercalación

(seg.)

Tiempo 2 de intercalación

(seg.)

Tiempo 3 de intercalación

(seg.)

Tiempo 4 de intercalación

(seg.) 6 MHz. 0 0.096 0.19 0.38 7 MHz. 0 0.082 0.16 0.33 8 MHz. 0 0.072 0.14 0.29

TABLA 4.1. Tiempos de intercalación de los datos, para espectros de 6, 7 y 8 MHz. de ancho de banda.

C. OPERACIÓN EN DISTINTOS MODOS DE TRANSMICION.

En el estándar ISDB-T, se opera en tres diferentes modos de transmisión. Cada modo tiene distintos espaciados de las portadoras OFDM. Los modos de transmisión son los siguientes: MODO 1: En este modo de transmisión, las portadoras OFDM están espaciadas en 4

KHz. MODO 2: El espacio de portadoras es de 2KHz. MODO 3 Aquí el espacio de portadoras es de 1KHz. Se afirma que ISDB-T permite recepción de HDTV en vehículos móviles por sobre los 100 km/h, lo cual no ha sido comprobado todavía; la norma DVB-T solo puede recibir SDTV en vehículos móviles, y se afirma que las señales ATSC no pueden ser recibidas en vehículos móviles en absoluto (sin embargo, a principios de 2007 hubo reportes de recepción exitosa de ATSC en laptops usando receptores USB en vehículos móviles). ISDB-T fue adoptado para las transmisiones comerciales en Japón en diciembre de 2003. Abarca actualmente un mercado de cerca de 100 millones de televisiones. ISDB-T tenía 10 millones de suscriptores para el final del abril de 2005. Junto con el uso amplio de ISDB-T, el precio de STB está consiguiendo bajo.

4.3.2 ESTANDAR DVB. Digital Video Broadcasting (DVB) es una organización que promueve estándares aceptados internacionalmente de televisión digital, en especial para HDTV y televisión vía satélite, así como para comunicaciones de datos vía satélite (unidireccionales, denominados DVB-IP, y bidireccionales, llamados DVB-RCS). El acceso unidireccional, no es de banda ancha, ya que se realiza combinando el acceso a Internet tradicional, vía RTB/RDSI, más el módem de acceso satelital DVB. Está constituido por más de 270 instituciones y empresas de todo el mundo. Los estándares propuestos han sido ampliamente aceptados en Europa y casi todos los continentes, con la excepción de Estados Unidos y Japón donde coexisten con otros sistemas propietarios. Todos los procedimientos de codificación de las fuentes de vídeo y audio están basados en los

Page 164: SEMINARIO DE TITULACIÓN “PROCESAMIENTO DIGITAL DE …

TRANSICION DE LA TELEVISION ANALOGICA A LA DIGITAL.

164

estándares definidos por MPEG. No obstante, hemos visto que los estándares MPEG sólo cubren los aspectos y metodologías utilizados en la compresión de las señales de audio y vídeo y los procedimientos de multiplexación y sincronización de estas señales en tramas de programa o de transporte. Una vez definida la trama de transporte es necesario definir los sistemas de modulación de señal que se utilizarán para los distintos tipos de radiodifusión (satélite, cable y terrena), los tipos de códigos de protección frente a errores y los mecanismos de acceso condicional a los servicios y programas. El DVB ha elaborado distintos estándares en función de las características del sistema de radiodifusión. Los estándares más ampliamente utilizados en la actualidad son el DVB-S y el DVB-C que contemplan las transmisiones de señales de televisión digital mediante redes de distribución por satélite y cable respectivamente. La transmisión de televisión digital a través de redes de distribución terrestres utilizando los canales VHF convencionales se contempla en el estándar DVB-T, que actualmente se está implantando en la mayor parte de los países europeos. La diferencia fundamental, que distingue a cada uno de estos estándares, es su sistema de modulación. En la figura 4.11 se representa un diagrama, con los distintos tipos de modulación empleados y sus aplicaciones.

FIGURA 4.11 Distintos tipos de modulación en los estándares DVB.

El estándar digital de servicios de satélite (DVB-S), ampliamente utilizado en todo el mundo, emplea la modulación QPKS (Quaternary Phase Shift Keyling), transmisión por desplazamiento de fase cuaternaria. Este sistema de modulación es de una sola portadora. El estándar digital de sistemas de cable (DVB-C), utiliza la modulación QAM (Cuadratura Amplitude Modulation), modulación de amplitud en cuadratura, también de portadora única. El estándar para sistemas de televisión digital terrestre, emplea la modulación COFDM (Codec Orthogonal Frecuency Division Multiplex) Multiplex por división de frecuencia de

DVB

SISTEMAS DE MODULACION

SATELITE CABLE TV TERRESTRE

QPSK QAM COFDM

Portadora Única Portadora Única

Múltiples Portadoras QPSK 64 QAM

Page 165: SEMINARIO DE TITULACIÓN “PROCESAMIENTO DIGITAL DE …

TRANSICION DE LA TELEVISION ANALOGICA A LA DIGITAL.

165

portadoras ortogonales codificadas. Este tipo de modulación emplea múltiples portadoras y cada una de ellas es modulada en QPSK o 64 QAM. Además de estos estándares también están especificados sistemas para la distribución de señales de televisión digital en redes multipunto, sistemas SMATV (Satellite Master Antenna Televisión). También existen estándares que definen las características de la señalización en el canal de retorno en sistemas de televisión interactiva, la estructura de transmisión de datos para el cifrado y descifrado de programas de acceso condicional, la transmisión de subtítulos, y la radiodifusión de datos (nuevos canales de teletexto) mediante sistemas digitales. Estos estándares definen la capa física y la capa de enlace de datos de un sistema de distribución. Los dispositivos interactúan con la capa física a través de un interfaz paralelo síncrono (SPI), un interfaz serie síncrono (SSI) o un interfaz serie asíncrono (ASI). Todos los datos se transmiten en flujos de transporte MPEG-2 con algunas restricciones adicionales (DVB-MPEG). Se está experimentando un estándar para distribución comprimida en el tiempo (DVB-H) para distribución a dispositivos móviles. Además de la transmisión de audio y vídeo, DVB también define conexiones de datos (DVB-DATA - EN 301 192) con canales de retorno (DVB-RC) para diferentes medios (DECT, GSM, RTB/RDSI, satélite, etc.) y protocolos (DVB-IPI: protocolo de Internet; DVB-NPI: protocolo de red independiente). Para facilitar la conversión, estos estándares también soportan las tecnologías existentes tales como el teletexto (DVB-TXT) y el sincronismo vertical (DVB-VBI). Sin embargo, para muchas aplicaciones hay disponibles alternativas más avanzadas como, por ejemplo, DVB-SUB para los subtítulos. El estándar de televisión digital terrestre, se esta implementando en Europa y ha sido adoptado además por otros países. Básicamente, este estándar tiene las siguientes características, ver la figura 4.12.

FIGURA 4.12 Características principales del estándar DVB-T. La compresión de video empleada es MPEG-2, de acuerdo a las especificaciones de la norma ISO/IEC 13.818-2. El audio se comprime de acuerdo al estándar MPEG-2, norma ISO/IEC 13.818-3.

COMPRESION DE VIDEO MPEG-2

COMPRESION DE AUDIO MPEG-2

MULTIPLEX Y SISTEMA DE TRANSPORTE

MPEG-2

MODULACION COFDM

Page 166: SEMINARIO DE TITULACIÓN “PROCESAMIENTO DIGITAL DE …

TRANSICION DE LA TELEVISION ANALOGICA A LA DIGITAL.

166

El protocolo de los paquetes de datos, múltiplex y sistema de transporte es MPEG-2, de acuerdo a la norma ISO/IEC 13.818-1. El sistema de modulación empleado en la transmisión es COFDM de múltiples portadoras. Respecto al audio, el grupo DVB adopto también el sistema de compresión Dolby AC-3, que fue desarrollado por Dolby laboratorios de USA. Este sistema de compresión de audio es el utilizado por el estándar ATSC. El estándar para televisión digital terrestre DVB-T opera con:

• Televisión Digital Estandar (SDTV) y televisión Digital de Alta Definición (HDTV).

• Recepción portable y móvil, solamente para SDTV. • Transmisión en modo jerárquico. HDTV para recepción fija y SDTV para

recepción móvil. • Redes de frecuencia única (SFN).

El estándar DVB-T tiene dos tipos de servicios, ver figura 4.13. El primero de ellos corresponde a Televisión Digital Estandar (SDTV), con una relación de aspecto de 4:3 o 16:9. Opera en el MP@ML (Perfil Principal-Nivel Principal) del estándar MPEG-2. En este modo se dispone de múltiples canales de SDTV, para transportarlos en el espectro de 6, 7 u 8 MHz de ancho de banda. El audio utilizado en SDTV es el MUSICAM (capa 2 del estándar MPEG-2). En este caso, se transmiten dos canales de audio en modo estéreo con una velocidad binaria por canal de 128 Kbps.

FIGURA 4.13 Tipos de servicios que se transmiten en DVB-T para 6, 7 u 8 MHz de ancho de banda del

canal. En televisión de alta definición (HDTV), se opera en el MP@HL (Perfil Principal-Nivel Alto) del estándar MPEG-2. El audio esta conformado por seis canales comprimidos en el estándar MPEG-2.También se esa utilizando el sistema de compresión de audio Dolby AC-3. Para la emisión de múltiples programas de SDTV o un programa de HDTV, se emplea la modulación COFDM de múltiples portadoras, donde cada una de ellas es modulada en 64QAM.

SDTV HDTV

4:3 / 16:9 MP@ML

Audio: Estéreo

16:9 MP@HL

Audio: 6 Canales

Page 167: SEMINARIO DE TITULACIÓN “PROCESAMIENTO DIGITAL DE …

TRANSICION DE LA TELEVISION ANALOGICA A LA DIGITAL.

167

El estándar DVB-T cuenta con dos modos de transmisión:

a) TRANSMISION NO JERARQUICA. En este modo, se transmite un flujo de datos de aproximadamente 19.6 Mbps, en un espectro de 6 MHz. de ancho de banda. Este flujo puede transportar un programa de HDTV con sus audios y datos asociados o en su defecto varios programas de SDTV, también cada uno de ellos con sus audios y datos asociados. En la figura 4.14 se muestra a manera de ejemplo, la capacidad de programas que se pueden transportar a 19.6 Mbps. Los primeros dos programas se transportan a 6 Mbps cada uno, el tercero y cuarto programas son trasportados a 4 y 3.6 Mbps respectivamente.

FIGURA 4.14 Capacidad de programas a transportar en modo no-jerárquico.

En la tabla 4.2 se representan los parámetros principales a utilizar, para cada uno de los ejemplos citados.

HDTV SDTV Modo. 8k 8k Modulación de cada portadora. 64QAM 64QAM FEC. (3/4) (3/4) Intervalo de guarda. (1/16) (1/16) TABLA 4.2. Parámetros principales para HDTV y SDTV en modo de transmisión No-Jerárquica.

b) TRANSMISION JERARQUICA. Esta transmisión, consiste en el transporte de dos flujos de datos, combinados en uno solo. Cada uno de estos flujos, tiene una modulación diferente dentro del sistema COFDM. La transmisión jerárquica se utiliza para emitir un programa de HDTV para recepción fija y un programa de SDTV para recepción móvil, en un solo flujo de datos. En este caso, el

HDTV

SDTV # 1 6 Mbps

SDTV # 2 6 Mbps

SDTV # 3 4 Mbps

19.6 Mbps

6 MHz de ancho de banda

a)

b)

SDTV # 4 3.6 Mbps

Page 168: SEMINARIO DE TITULACIÓN “PROCESAMIENTO DIGITAL DE …

TRANSICION DE LA TELEVISION ANALOGICA A LA DIGITAL.

168

programa de HDTV se transporta con una velocidad mayor y el programa de SDTV con una velocidad menor. Al flujo de más alta velocidad binaria, se le denomina LP (Low Priority) y el flujo de más baja velocidad, se le denomina HP (High Priority). El HP que es el flujo de alta prioridad, se le utiliza para recepción móvil. Este debe tener una modulación robusta, por ello, cada portadora del COFDM es modulada en QPSK. El LP que es el flujo da baja prioridad, es utilizado para recepción fija. En este caso, no interesa tanto la robustez, por ello cada portadora del COFDM es modulada en 64 QAM. En la siguiente figura se muestra un diagrama de operación en modo jerárquico. Fig. 4.15.

FIGURA 4.15 Capacidad de programas a transportar en modo jerárquico. En la figura pasada podemos observar que el flujo de HDTV tiene una velocidad binaria de 14.9 Mbps, mientras que el flujo SDTV para recepción móvil, tienen una velocidad binaria de 4.7 Mbps. El flujo de HDTV tiene un formato 720p (1280 muestras por línea activa x 720 líneas activas). El flujo de SDTV tiene un formato de 575 líneas con barrido entrelazado. En la tabla 4.3 se muestran las características principales para este tipo de transmisión. HDTV-RX Fija. SDTV-RX Móvil. Tipo de stream. LP HP Modo. 8k 8K Modulación de c/portadora. 64 QAM QPSK FEC (5/6) (1/2) Intervalo de guarda. (1/8) (1/8) TABLA 4.3. Parámetros principales para transmisión jerárquica.

4.3.3 ESTANDAR ATSC.

El estándar Advanced Televisión System comité (ATSC) es un grupo que se encarga del desarrollo de los estándares de la televisión digital en los Estados Unidos, este estándar de

HDTV

14.9 Mbps

SDTV

4.7 Mbps

19.6 Mbps

6 MHz de ancho de banda

Page 169: SEMINARIO DE TITULACIÓN “PROCESAMIENTO DIGITAL DE …

TRANSICION DE LA TELEVISION ANALOGICA A LA DIGITAL.

169

transmisión terrestre define el contenido de la secuencia de bits, su transporte y transmisión digital en un ancho de banda RF de 6 MHz. El sistema ATSC usa múltiples formatos de transmisión, compresión de audio y video digital, empaquetamiento de datos y nuevas técnicas de modulación de señales RF. El empaquetamiento permite al Video, audio y data auxiliar separarse en unidades de tamaño determinado para correcciones de errores lineales, multiplexación del programa, sincronización de tiempo, flexibilidad y compatibilidad con el formato ATM.

Parámetros Características

Video Escaneo múltiple. Compresión MPEG-2, de MP@ML a MP@HL

Audio Dolby AC-3

Datos Complementarios Servicios adicionales (guía de programa, información del sistema, V-chip, transferencia de data al computador etc.)

Transporte Empaquetamiento de data. Programas Múltiples. Protocolo de transporte MPEG-2.

Transmisión RF Modulación 8-VSB para transmisión terrestre

Receptor 16-VSB para Distribución de red por cable. Formato antiguo de presentación en pantalla. No hay estándar.

TABLA 4.4. Características del estándar ATSC.

El sistema de transmisión ATSC se ha implementado en base a 5 subsistemas: 1.- Codificación y compresión de video y audio. 2.- Canal de Datos Complementarios. 3.- Multiplexación y Transporte del Programa. 4.- Transmisión RF. 5.- Receptor. 1.- Codificación y compresión de video y audio.

a) Video: Se utiliza el MPEG-2 como sistema de compresión de datos en video. El diseño de sistema de video comprende dos capas OSI, la parte de formateo de

Page 170: SEMINARIO DE TITULACIÓN “PROCESAMIENTO DIGITAL DE …

TRANSICION DE LA TELEVISION ANALOGICA A LA DIGITAL.

170

fuente de video y la codificación de compresión como lo muestra la figura 4.16. Es necesario formatear la fuente ya que hoy en día, la mayoría de las fuentes de programas son producidas en varios formatos de componentes análogos utilizando señales G, B, R o Y, Pr, Pb. La digitalización se realiza usando una frecuencia de muestreo de 13.5 MHz para señales SDTV y 75 MHz para señales HDTV. En la producción de imágenes se utilizan muchos estándares de colorimetría. Para asegurar una versión de colorimetría idéntica en la pantalla receptora, se especifican parámetros de colorimetría basados en colores primarios, características de transferencia (gama) y coeficientes de matriz. Luego de la conversión de colorimetría, un circuito detector de film 4:2:0.

Por último, se utiliza el MPEG- 2 para la compresión del video. Luego de comprimir la data, ésta se multiplexa en el dominio del tiempo y se formatea en paquetes que serán enviados al sistema de transporte.

FIGURA 4.16. Formateo y Codificación de Fuente de video.

La transferencia de datos en HDTV utilizando una señal sin comprimir debiera ser de 1Gbps, pero como se utiliza un canal de 6 Mhz de ancho, para transmitir la información debemos comprimirla unas 50 veces con el objeto de reducir la tasa de transferencia a 20Mbps, que es lo que acepta dicho ancho de banda.

Los siguientes perfiles MPEG-2 son los determinados por el Standard ATSC: - The MP@ML profile (MainProfile@MainLevel) Es el formato digital más comparable al NTSC y su velocidad de transmisión de datos es de 15Mbits/s. - The MP@HL profile (MainProfile@HighLevel) Es utilizado para la genuina HDTV. Su máxima velocidad de transferencia de datos alcanza los 80 Mbits/s, por lo que no puede ser completamente usado en el ancho de banda de 6 Mhz. donde aproximadamente se hace a 19.4 Mbps.

El Standard ATSC determina 18 diferentes formatos de display, los cuales están divididos dentro de cuatro combinaciones de vertical y horizontal.

1) 1920 x 1080 (Es lo que la industria de la Televisión demanda para la representación de imágenes HDTV).

Page 171: SEMINARIO DE TITULACIÓN “PROCESAMIENTO DIGITAL DE …

TRANSICION DE LA TELEVISION ANALOGICA A LA DIGITAL.

171

2) 1280 x 720 (Es la sugerencia de la industria del PC para la representación de imágenes HDTV).

3) 704 x 480 (Esta combinación corresponde a la equivalencia digital de la señal NTSC de hoy).

4) 640 x 480 (Standard VGA combinación de los monitores de PC).

b) Audio: Emplea el denominado sistema Dolby AC-3.

El Standard ATSC utiliza la tecnología "Dolby Digital AC-3. La misma está basada en el método que actualmente se utiliza en las salas de cine, el Dolby Surround Sound. Este procedimiento brinda 5.1 canales de audio digital, distribuidos de la siguiente manera:

Canal Izquierdo Canal Derecho Canal Central (Middle Channel) Canal Surround Izquierdo Canal Surround Derecho 0,1 Canal para señal de Subwoofer

FIGURA 4.17. Codificador AC-3.

En la figura 4.17 vemos que los 6 canales ya digitalizados entran al codificador AC-3. Luego, se multiplexan las secuencias de audio (AC-3), video y auxiliar para obtener una secuencia de programa.

El Standard ATSC permite dos servicios principales y seis tipos de adición de servicios de audio para cada canal de programa individual. El canal principal de servicios de audio posee los diálogos, la música y los efectos. El canal Music & Effects provee sólo la música y los efectos, sin los diálogos.

Page 172: SEMINARIO DE TITULACIÓN “PROCESAMIENTO DIGITAL DE …

TRANSICION DE LA TELEVISION ANALOGICA A LA DIGITAL.

172

-Main audio service: complete main (CM). -Main audio service: music and effects (ME). Las extensiones del servicio de audio son las siguientes:

I. Associated service: visually impaired (VI) - Provee una descripción narrativa del contenido visual del programa.

II. Associated service: hearing impaired (HI) - Solo diálogos para enfatizar la calidad cuando se mezcla con el canal principal.

III. Associated service: dialogue (D) - Diálogo Original. IV. Associated service: commentary (C) - Comentarios adicionales. V. Associated service: emergency (E) - Servicio de Emergencias (Llamado a la

solidaridad, Meteorología, etc). VI. Associated service: voice-over (VO) - Permite la posibilidad de adicionar voz al

programa original.

FIGURA 4.18. Comparación de sistemas de audio NTSC y ATSC

Tipos de Servicio contenidos en una secuencia elemental AC-3. 2.- Canal de Datos Complementarios: Usado para enviar información adicional al televidente que puede ser de diversa índole.

Page 173: SEMINARIO DE TITULACIÓN “PROCESAMIENTO DIGITAL DE …

TRANSICION DE LA TELEVISION ANALOGICA A LA DIGITAL.

173

Este servicio permite tener posibilidades ilimitadas para poder tener una Programación Interactiva, aunque todavía no se tiene muy en claro cómo las estaciones de televisión diseñarán sus programas añadiendo este servicio. Algunas ideas existentes son:

- Publicidad Interactiva. - Subtitulados. - Guía de programación. - Ancillary service target decoder (ASTD) Chequeo de datos para abonados. - Codificación de Video y Audio (Scrambling). - Juegos. - Tutoriales. - Datos de la emisora. Etc.

3.- Multiplexación y Transporte. Los datos comprimidos de video, audio y los datos complementarios se multiplexan formando una sola sucesión de bits. Esta sucesión de bits modula una señal que se transmite por radiodifusión terrestre.

FIGURA 4.19 Multiplexación de cadenas elementales a una cadena de programa y luego a una cadena

de transporte.

En la figura 4.19, se ve cómo 4 cadenas elementales (video, 2 de audio, auxiliar) forman una cadena de programa para que luego, varios programas formen una cadena de transporte. Esta cadena de 19.39Mbps para entonces al sistema de transmisión. 4.- Transmisión RF. En la figura 4.20, tenemos un diagrama de bloques de un transmisor VSB. Recibe este nombre ya que el sistema de modulación es el denominado 8-VSB (8 level - Vestigial Side Band) que sería banda lateral vestigial modulada a 8 niveles.

Page 174: SEMINARIO DE TITULACIÓN “PROCESAMIENTO DIGITAL DE …

TRANSICION DE LA TELEVISION ANALOGICA A LA DIGITAL.

174

No se debe confundir codificación MPEG-2, con modulación 8-VSB. Este será un punto fundamental en el estudio de la DTV ya que una correcta comprensión del funcionamiento de este bloque permitirá realizar análisis correctos y trabajos efectivos en los TV's del mañana.

FIGURA 4.20. Diagrama de bloques de un transmisor VSB.

La señal HDTV entra al sincronizador de cuadros el cual alinea la secuencia de datos en bytes. Esta cadena alimentada la cual consta de 19.39Mbps está compuesta por 188 bytes que incluyen 1 byte de sincronía y 187 bytes de data que representan la parte útil de la carga. Esta cadena pasa a un aleatorizador de datos el cual asegura que los valores constantes de data no existan en la cadena. Esto se hace para que no haya uniformidad en el espectro causando interferencia por parte de la transmisión en los demás canales. El Reed-Solomon encoder revisa los bytes de cada paquete para añadir bytes para corrección de errores de transmisión. El data interleaver corrige futuros errores al originar ráfagas. El proceso de codificación de trellis, incrementa la señal de entrada doblando los valores de data. Cada bloque de 208 bytes es convertida en 832 palabras de 2 bits. Esto se conoce como 8VSB. Luego entran al multiplexador, la señal proveniente del trellis encoder y datos de sincronismo. 5.- Receptor. El ATSC no especifica requerimientos para los receptores. Sin embargo, el FCC ha dado una recomendación especificando que todos los receptores deben ser capaces de decodificar el audio, video y señales auxiliares especificadas en los documentos estándares del ATSC. La funcionalidad de recibir múltiples servicios puede ser implementada con receptores o adaptadores set-top para convertir señales digitales ATSC a señales análogas NTSC o señales S-Video.

Page 175: SEMINARIO DE TITULACIÓN “PROCESAMIENTO DIGITAL DE …

TRANSICION DE LA TELEVISION ANALOGICA A LA DIGITAL.

175

El receptor ATSC invierte las funciones de la transmisión RF y luego de decomprimir y decodificar, genera video y audio conforme al formato del la pantalla y las condiciones de audio escogidas. 4.4 TRANSICION DE LA TV ANALOGICA A LA DIGITAL EN MEXICO.

En México, la comunicación a través de la radio y la televisión es una actividad de interés público que tiene como función social la de contribuir al fortalecimiento de la integración nacional y al mejoramiento de las formas de convivencia humana, por lo que es necesario que estos servicios se presten en las mejores condiciones tecnológicas en beneficio de la población. En este contexto, el servicio que proporcionan las estaciones de radio y televisión, tienen como propósito fundamental, el llegar a cada una de las localidades del territorio nacional, a fin de satisfacer la importante necesidad de comunicación a los habitantes de nuestro país. El uso de frecuencias de radio y canales de televisión con sistemas de transmisión analógicos, demandan de amplios anchos de banda y de altas potencias de transmisión, por lo que la disponibilidad técnica de frecuencias y canales dentro de las bandas de frecuencias del espectro radioeléctrico atribuido a los servicios de radio y televisión, se ve limitada y reducida para ofrecer mayores alternativas de programación al público radioescucha y televidente. Por ello, ante el fenómeno mundial de la digitalización que se presentó a finales de la década de los noventas, México se insertó en la dinámica de la evolución tecnológica, a fin de encontrarse acorde con las tendencias internacionales, principalmente por lo que respecta a la optimización y uso adecuado del espectro radioeléctrico. Si bien, en el proceso de transición de la tecnología analógica a la digital, no se presentará la disponibilidad de frecuencias del espectro radioeléctrico, por razones de las transmisiones simultáneas, al término de ella si se podrá contar, en el caso de la televisión, con recuperación de canales que permitan en el futuro la prestación de nuevos servicios. Con el objeto de que las estaciones de televisión pudiesen contar con la disponibilidad de espectro radioeléctrico para realizar, en su oportunidad, las transmisiones analógicas y digitales, en 1998 se celebró con la Federal Communications Commission de los Estados Unidos (FCC), un memorándum de entendimiento, en el cual se aseguró a cada parte la disponibilidad de canales de televisión digitales. Ante al avance tecnológico en la digitalización a nivel mundial, México estableció en 1999, el Comité Consultivo de Tecnologías Digitales para la Radiodifusión (Comité), en el que de manera colegiada la autoridad y la industria, analizan y evalúan los procesos de desarrollo y transición que se han implementado en países como en los Estados Unidos, Canadá y Europa. Como parte de las medidas adoptadas por el Comité, en el año 2000 se emitieron recomendaciones que se encuentran reflejadas en acuerdos mediante los cuales se establecen

Page 176: SEMINARIO DE TITULACIÓN “PROCESAMIENTO DIGITAL DE …

TRANSICION DE LA TELEVISION ANALOGICA A LA DIGITAL.

176

los compromisos de concesionarios y permisionarios de transitar de las tecnologías analógicas a las digitales y se tienen establecidas las reservas de bandas de frecuencias. Con dichos acuerdos, se ha permitido la realización de trabajos de operaciones experimentales, tanto para estaciones de televisión como de radio, con tecnología digital, a fin de evaluar en el campo las condiciones de propagación de las señales y la calidad de las mismas. Adicionalmente, el Comité participó en diversas reuniones de la Comisión de Estudios 6 del sector radiocomunicaciones de la Unión Internacional de Telecomunicaciones (UIT), lo cual permitió contar con la información técnica necesaria para evaluar el grado de desarrollo de los estándares digitales que se venían analizando en la UIT. El Comité realizó reuniones con los desarrolladores de las tecnologías digitales aplicables a la televisión, a efecto de conocer las fortalezas y debilidades de cada uno de los estándares, así como de las problemáticas a las que se enfrentaban en el proceso de transición, tanto por la disponibilidad de equipos como por el costo de los mismos. De los trabajos realizados a nivel internacional por el Comité, se hizo evidente que cada país ha definido sus líneas de acción conforme a sus condiciones particulares y de acuerdo con la evolución de sus respectivos procesos, que son de largo plazo y que resultó necesario definir para México un solo estándar para las transmisiones de la televisión digital. El Comité también consideró que con la televisión digital se tenía el potencial de favorecer la optimización del espectro radioeléctrico, que la calidad de las señales se vería mejorada hasta lograr niveles de alta definición con alta confiabilidad en la recepción de señales y que se fortalecería el desarrollo de la convergencia en beneficio de la sociedad. Por lo anterior, y dado que el Comité había reunido los elementos necesarios para recomendar la adopción del estándar digital en televisión y su política de transición, se publicó el 2 de julio de 2004, el acuerdo correspondiente en el que se estableció, entre otros aspectos importantes, lo siguiente: • La adopción del estándar A/53 del Advance Television Standard Committee (ATSC, por sus siglas en inglés); • El proceso de transición con certidumbre jurídica para todas las partes que en él intervienen; • Las condiciones objetivas para dar seguimiento al proceso, para así evaluar el desarrollo del mismo y, en su caso, reorientar las líneas de acción de corto, mediano y largo plazo, y • Los objetivos, metas, requisitos, condiciones y obligaciones para los concesionarios y permisionarios de televisión.

Page 177: SEMINARIO DE TITULACIÓN “PROCESAMIENTO DIGITAL DE …

TRANSICION DE LA TELEVISION ANALOGICA A LA DIGITAL.

177

Por los costos que implica la política de transición a la televisión digital terrestre, para concesionarios, permisionados, productores, anunciantes y público televidente en general, la misma es un proceso de largo plazo, por lo que se tomaron en cuenta los siguientes elementos para establecer el calendario de transición: – Flexibilidad y gradualidad en el proceso para la instalación de las estaciones de televisión digital terrestre, iniciando con presencia en las actuales coberturas analógicas para posteriormente, replicarlas; – Periodos de desarrollo revisables dentro de este proceso, considerando que se trata de una nueva tecnología y que los montos de inversión requeridos deberán realizarse de acuerdo con la evolución del propio proceso, y – Metas mínimas con base en la densidad poblacional. En cumplimiento a las disposiciones establecidas en el acuerdo de adopción del estándar y establecimiento de la política para la transición, y conforme a los compromisos establecidos por los concesionarios y permisionarios para realizar la transición de la televisión analógica a la digital, a la fecha se han otorgado: – 121 refrendos de concesión de televisión que amparan la operación de 444 estaciones, y – 6 refrendos de permisos de televisión, para 10 estaciones. De acuerdo con lo establecido en el primer periodo de la política de transición, éste inició a partir de la entrada en vigor del acuerdo y finalizó el 31 de diciembre de 2006, el cual consideró a 10 de las ciudades más importantes del país, con al menos la presencia de dos señales digitales comerciales. No obstante lo proyectado, al 31 de diciembre de 2006 se había cumplido con lo programado para el primer periodo, dado que al 6 de junio del 2006, se tenían en operación 34 estaciones digitales, de las 20 consideradas. En México la transición de la televisión analógica a la digital, se ha venido desarrollando en mejores condiciones que lo programado, especialmente en las grandes ciudades que por sus características socio-económicas lo han permitido. Lo anterior, aunado a que a partir de abril de 2006, las facultades regulatorias y normativas relacionadas con la radiodifusión sonora y de televisión abierta, corresponden a la Comisión Federal de Telecomunicaciones, así como también la presidencia del Comité. La COFETEL ha puesto especial atención a la supervisión y vigilancia del cumplimiento de la política de transición de la televisión analógica a la digital, no obstante el resultado que se tiene de la evaluación del primer periodo, sin embargo, se estará muy atento al desarrollo de las siguientes etapas que conforman el programa de transición.

Page 178: SEMINARIO DE TITULACIÓN “PROCESAMIENTO DIGITAL DE …

TRANSICION DE LA TELEVISION ANALOGICA A LA DIGITAL.

178

LA HDTV EN MÉXICO

1990 1997

1997/98 1999 2000 2001 2004

Televisa - NHK (Analógico). SCT otorga permisos para transmisión experimental. Primeras transmisiones y producciones en DTV. Transmisiones diarias HDTV digital C-48. Pruebas en CATV y Satélite Evaluación ATSC y DVB. Comparación ISDB / ATSC. Publicación del acuerdo secretarial para la adopción del estándar ATSC.

TABLA 4.5 Evolución de la HDTV en México. Por lo que hace a la entrega de contenidos, en materia de radiodifusión digital, México observará los compromisos establecidos en los Tratados Internacionales suscritos en materia de propiedad intelectual, tales como: - Convenio de Berna; - Convenio de Bruselas; - Convenio de París; - Convención de Roma; - Tratado de la Organización Mundial de Propiedad Intelectual sobre Derechos de Autor, entre otros; - Así como, la legislación federal de nuestro país, como la Ley Federal del Derecho de Autor. Para el servicio de televisión digital, la entrega de contenidos se proporcionará como una mejor alternativa al contar con imágenes y sonido de mayor fidelidad y/o resolución que las actualmente proporcionadas por la televisión analógica. Asimismo, con la transición digital se prevé la posibilidad de proporcionar servicios tanto asociados como adicionales, sin que ello afecte la calidad del servicio principal. Con lo anterior, se presentará la convergencia plena de servicios de telecomunicaciones, con lo cual se optimizará el uso del espectro radioeléctrico al tiempo que se proporcionarán diversos servicios a través de un mismo medio (redes de transmisión), generando mayor competencia entre prestadores de servicios, en beneficio de los usuarios, al contar con mejor calidad y diversidad de los servicios, así como precios accesibles. Dado que en México el proceso en el que se encuentra la transición de la televisión analógica a la digital, apenas ha iniciado, se estima que los servicios asociados y adicionales a la televisión digital que en su oportunidad puedan ser ofertados, serán variados y de acuerdo a las necesidades del público televidente.

Page 179: SEMINARIO DE TITULACIÓN “PROCESAMIENTO DIGITAL DE …

TRANSICION DE LA TELEVISION ANALOGICA A LA DIGITAL.

179

Sin embargo, en este momento se encuentra en proceso de implementación el servicio de televisión digital, por lo que no es posible predecir las variantes que se presentaran en el

futuro.

FIGURA 21. Periodo para la Transición de la TV analógica a la digital en México.

TRANSICION A LA TV DIGITAL EN MEXICO.

18 AÑOS

2004

TV ANALOGICA Y DIGITAL

2021

TV DIGITAL UNICAMENTE

Page 180: SEMINARIO DE TITULACIÓN “PROCESAMIENTO DIGITAL DE …

TRANSICION DE LA TELEVISION ANALOGICA A LA DIGITAL.

180

Page 181: SEMINARIO DE TITULACIÓN “PROCESAMIENTO DIGITAL DE …

TRANSICION DE LA TELEVISION ANALOGICA A LA DIGITAL.

181

BIBLIOGRAFIA. Simonetta, José Televisión Digital Avanzada. 1er ed. Buenos Aires Intertel 2002. 640 p. Philip J. Cianci HDTV and the Transition to Digital Broadcasting: Understanding New Television Technologies Focal Press. Ing. Diego Rivera Cursor de Televisión Digital Compresión y Alta Definición 244 p. 2004 Tektronix Fundamentos y Mediciones de Medición Digital en SD 142 p. www.tektronix.com

Page 182: SEMINARIO DE TITULACIÓN “PROCESAMIENTO DIGITAL DE …

TRANSICION DE LA TELEVISION ANALOGICA A LA DIGITAL.

182