proyecto integrador mayo 2012

131
Ing. Ramiro Javier Podetti e-mail: [email protected] Universidad Nacional de Córdoba Facultad de Ciencias Exactas, Físicas y Natur ales Proyecto integrador Ingeniería Electrónica Consola de audio digital para efectos de sonido 3D controlada vía Ethernet Alumno: Podetti Ramiro Javier Director: Ing. Parlanti, Gustavo Codirector: Dr.Ing. Molina, Germán Rodrigo Mayo 2012

Upload: jose-sanchez

Post on 12-Aug-2015

91 views

Category:

Documents


15 download

TRANSCRIPT

Page 1: Proyecto Integrador Mayo 2012

Ing. Ramiro Javier Podetti e-mail: [email protected]

Universidad Nacional de Córdoba Facultad de Ciencias Exactas, Físicas y Natur ales

Proyecto integrador Ingeniería Electrónica

Consola de audio digital para efectos

de sonido 3D controlada vía Ethernet Alumno: Podetti Ramiro Javier

Director: Ing. Parlanti, Gustavo

Codirector: Dr.Ing. Molina, Germán Rodrigo Mayo 2012

Page 2: Proyecto Integrador Mayo 2012

Ing. Ramiro Javier Podetti e-mail: [email protected]

Proyecto integrador Consola de audio digital para efectos de sonido 3D controlada vía Ethernet

Contenido Agradecimientos 7

Resumen 8

Abstract 9

Glosario 10

1. Capitulo 1 Presentación

1.1. Introducción 12

1.2. Objetivo 13

1.3. Motivación 13

1.4. Objetivo Comercial 14

1.5. Esquema del Prototipo 15

1.6. Organización del informe 16

2. Capitulo 2 Marco Teórico

2.1. Introducción 18

2.2. Audio Digital 18

2.3. Audio Digital Vs Audio Analógico 19

2.3.1. Ventajas del Audio Digital 19

2.3.2. Desventajas del Audio Digital 20

Página 2

Page 3: Proyecto Integrador Mayo 2012

Ing. Ramiro Javier Podetti e-mail: [email protected]

Proyecto integrador Consola de audio digital para efectos de sonido 3D controlada vía Ethernet

2.4. Conceptos básicos del Audio Digital 20

2.4.1. Muestreo y Aliasing 21

2.4.2. Cuantificación 23

2.4.3. Codificación 23

2.4.4. Modulación por impulsos codificados (MIC o PCM) 23

2.4.5. Códec de audio 24

2.5. Rango Dinámico y Dither 24

2.6. Número de canales 26

2.7. Formatos digitales de audio 27

2.8. Procesamiento de señales digitales 27

2.9. Procesador digital de señal o DSP y representación aritmética 29

2.10. Clasificación de sonidos según la Tecnología utilizada para su reproducción 30

2.10.1. Sonido Monoaural 31

2.10.2. Sonido Estereofónicos 31

2.10.3. Sonido Cuadrafónico 32

2.10.4. Sonido envolvente o sonido 3D 32

2.10.5. Sonido Dolby AC3 y E-AC-3 34

2.10.6. Sonido Digital Dinámico Sony o SDDS 34

2.10.7. Sonido Teatro Digital o DTS 35

2.11. Técnicas para lograr Sonidos Envolventes. 36

2.11.1. Técnicas en sistemas de sonido 3D 37

2.11.2 Técnica Holofónica 4D 37

3. Capitulo 3 Correlación del sistema auditivo en seres humano con técnicas de sonido

envolvente 3D.

3.1. Introducción 38

3.2. Entendiendo el sistema auditivo humano 38

3.3. Detalles de las Técnicas de Sonido 3D. 40

3.4. Conceptos fundamentales de un sistema de sonido 3D 41

3.5. Mecanismos de localización del sonido en los seres humanos 42

3.5.1. Sistemas de Coordenadas 43

3.5.2. Dirección de una fuente sonora 44

3.5.2.1. Localización en el plano horizontal, ángulo lateral 45

3.5.2.1.1. Diferencias Interaurales de Intensidad o DII 45

3.5.2.1.2. Diferencias Interaurales de tiempo o DIT 46

Page 4: Proyecto Integrador Mayo 2012

Ing. Ramiro Javier Podetti e-mail: [email protected]

Página 3

Page 5: Proyecto Integrador Mayo 2012

Ing. Ramiro Javier Podetti e-mail: [email protected]

Proyecto integrador Consola de audio digital para efectos de sonido 3D controlada vía Ethernet

3.5.2.2. Localización en el plano medio - Ángulo de elevación 48

3.5.3. Distancia de una fuente sonora 50

3.6. Función de Transferencia relativa a la cabeza o HRTF 52

3.7. Conclusiones sobre las técnicas de sonido envolvente para el desarrollo de nuestra

aplicación 53

4. Capitulo 4 Implementación del Prototipo

4.1. Introducción 57

4.2. Propuesta de Solución 57

4.3. Hardware 60

4.3.1. Bloque 1 o DSP 60

4.3.1.1. Características generales Freescale Symphony 60

4.3.1.1.1. Fuente de alimentación 62

4.3.1.1.2. Conector de Expansión (CON1) 62

4.3.1.2. Características de Conversión A/D, D/A 63

4.3.1.2.1. AKM AK4556 63

4.3.1.2.2. AKM AK4584 63

4.3.1.3. Características del Procesador Digital de Señales DSP56371 65

4.3.1.3.1. Módulo Core 66

4.3.1.3.2. Módulo Interfaz para depuración de la programación 67

4.3.1.3.3. Módulo de Memoria 68

4.3.1.3.4. Módulo Interfaz serie mejorada de audio (ESAI) 68

4.3.1.3.5. Módulo de entradas, salidas de propósito general(GPIO)71

4.3.2. Bloque 2 o Microcontrolador 71

4.3.2.1. Características del Módulo MCF52259 72

4.3.2.2. Características del Módulo TWR-SER 73

4.3.2.3. Características del Módulo TWR-ELEV 74

4.3.3. Bloque 3 o Interfaz de comunicación entre DSP y MCF52259 75

4.3.3.1. Estructura de la interfaz 75

4.3.3.2. Estructura del dato a transmitir por la interfaz 77

5. Capítulo 5 Programación del sistema

5.1. Introducción 78

5.1.1. Esquema general de la programación del sistema 78

5.1.2. Descripción por bloques del Esquema general 79

5.2. Programación DSP56371 80 Página 4

Page 6: Proyecto Integrador Mayo 2012

Ing. Ramiro Javier Podetti e-mail: [email protected]

Proyecto integrador Consola de audio digital para efectos de sonido 3D controlada vía Ethernet

5.2.1. Diagramas de Flujo 81

5.2.2. Asignación de Memoria 83

5.2.3. Búferes Circulares 84

5.2.4. Archivos y Rutinas 85

5.2.4.1. Archivos Principales 87

5.2.4.2. Archivos de Comunicación con MCF52259 88

5.2.5. Procesamiento del Audio Digital 89

5.2.5.1. Mezcla de Audio de entrada 90

5.2.5.2. Control de Volumen y Mute 91

5.2.5.3. Control de Posicionamiento Horizontal 92

5.3. Programación del TWR-MCF52259 95

5.3.1. Herramientas de Programación 95

5.3.1.1. MQX 3.4 y Code Warrior 7.1 96

5.3.1.2. MQX RTOS 97

5.3.1.3. MQX RTCS 98

| 5.3.1.4. AJAX 100

5.3.1.4.1. Tecnologías incluidas en Ajax 100

5.3.1.4.2. Patrón de interacción asíncrono 101

5.3.1.4.3. Inconvenientes de Ajax 102

5.3.1.4.4. Navegadores que permiten Ajax 102

5.3.2. Programación de tareas y prioridades en MCF52259 usando MQX RTOS 103

5.3.2.1. Diagrama de flujo 103

5.3.2.2. Archivos y funciones 105

5.4. Programación de la Interfaz MCF52259-DSP56371 106

5.4.1. Diagrama de flujo de la programación 108

5.4.2. Lógica Programación 109

5.5. Programación pagina web, sección servicio para control de la Consola 110

6. Capítulo 6 Prototipo final

6.1. Introducción 113

6.2. Características Técnicas 113

6.3. Instalación y calibración del Sistema de audio cuadrafónico 115

6.4. Costos 115

6.5. Conexiones del Sistema 116

6.5.1. Diagrama general de conexionado 117

6.5.2. Conexiones de entradas de audio analógicas 118

6.5.3. Conexiones de salida al Sistema de Audio Cuadrafónico 118

Página 5

Page 7: Proyecto Integrador Mayo 2012

Ing. Ramiro Javier Podetti e-mail: [email protected]

Proyecto integrador Consola de audio digital para efectos de sonido 3D controlada vía Ethernet

6.5.4. Conexiones y configuración IP del cliente (ordenador portátil) 118 6.5.5. Modo de acceso y dirección web del servicio de control remoto de la consola

de audio. 119 6.6. Modos de funcionamiento 120

7. Capítulo 7 Conclusiones 121

Apéndice I: Software 124

Referencias 125

Página 6

Page 8: Proyecto Integrador Mayo 2012

Ing. Ramiro Javier Podetti e-mail: [email protected]

Proyecto integrador Consola de audio digital para efectos de sonido 3D controlada vía Ethernet

Agradecimientos

Quiero agradecer a todos mis compañeros, amigos y profesores que durante estos años en

estuvieron presentes a lo largo de mi formación como profesional.

Agradecer en especial a los profesores Ing. Gustavo Parlanti y Dr.Ing. Rodrigo Molina, por

haberme prestado incondicionalmente su tiempo y apoyo para poder realizar este

proyecto.

Agradezco a la empresa Freescale que mediante el programa de apoyo a estudiantes

“Freescale Student Project Sponsorship” aprobó ser sponsor del proyecto, haciendo

posible el descuento del 100 % de los kit de desarrollos que se utilizaron en el prototipo.

Además Agradezco muy especialmente a mis Padres quienes me dieron el apoyo para

comenzar este camino y el mismo aliento permaneció durante todo el trayecto, al igual que

el resto de mi familia, no quiero olvidar a nadie mi hermano, abuelos, suegros,

cuñados, madrina y compadre.

Por último agradecer al amor de mi vida Gisela, quien me acompaño por este camino, y

me regalo dos hijos llenos de luz, Ignacio y Giuliana, ellos desde muy pequeños y casi sin

saberlo me guiaron como dos faros durante los momentos más difíciles, para ellos

también mi agradecimiento.

Página 7

Page 9: Proyecto Integrador Mayo 2012

Ing. Ramiro Javier Podetti e-mail: [email protected]

Proyecto integrador Consola de audio digital para efectos de sonido 3D controlada vía Ethernet

Resumen

Para lograr efectos dinámicos de la ubicación virtual de una fuente sonora como es el caso

de los sonidos envolventes o 3D (3 dimensiones), a través de la utilización de tecnologías

analógicas se tornan inviables. Ante estos casos, la utilización de sistemas digitales de

audio, provistos de ciertos algoritmos de procesamiento digital de señales, son la mejor

opción.

En este trabajo se construyo un prototipo de consola de audio digital para efectos de

sonidos envolventes 3D, dicha consola es capaz de digitalizar y procesar señales de audio.

Su construcción está basada en un DSP56731 de la marca FreescaleTM. El objetivo fue

obtener a la salida una posición espacial virtual de la fuente sonora de entrada a la

consola, las distintas posiciones virtuales de la fuente sonora son seleccionadas por el

usuario a través de los comandos de la consola, estos comandos fueron implementados

con un microcontrolador MCF52259 también de la marca FreescaleTM. La tecnología

incorporada en este microcontrolador, posibilita usar el protocolo de redes Ethernet. En

este prototipo los controles de la consola están accesibles desde una página web que es

servida por el mismo microcontrolador. El combo de las tecnologías empleadas en este

proyecto dan como resultado un consola de audio digital capaz de conectarse a los más

variados dispositivos portátiles actuales del mercado, como lo son Tablets, Smartphone,

Notebook, etc., pudiendo controlar los efectos de sonidos envolventes 3D, traduciéndose

en un ahorro de diseño y fabricación del hardware de control remoto.

Se demuestra el funcionamiento de la consola en tiempo real, con comandos simples

para su manejo. Este prototipo intenta ser la base de partida para que Músicos, DJ.,

Artistas, se interesen en este tipo de efectos en “vivo”, logrando posicionar sus

ejecuciones musicales en distintos espacios del auditorio. La consola de audio será el

medio por el cual los efectos podrán ser ejecutados con total espontaneidad, haciendo

que los sonidos interpretados cambien de lugar entre los espectadores, creando una

experiencia única en la interacción del Artista, Músico o DJ. con el público.

Página 8

Page 10: Proyecto Integrador Mayo 2012

Ing. Ramiro Javier Podetti e-mail: [email protected]

Proyecto integrador Consola de audio digital para efectos de sonido 3D controlada vía Ethernet

Abstract

To achieve dynamic effects of the virtual location of a sound source such as surround

sound 3D (three dimensional), through the use of analog technologies become unviable.

In these cases, the use of digital audio systems, provided with certain algorithms of digital

signal processing, is the best option. In this paper we built a prototype digital audio

console for 3D surround sound effects, this console is able to scan and process audio

signals. Its construction is based on a brand FreescaleTM DSP56731. The goal was to get

out a virtual spatial position of the sound source input to the console, the positions of the

virtual sound source are selected by the user through the console commands, these

commands were implemented with a microcontroller also MCF52259 FreescaleTM brand.

The technology built into the microcontroller, possible to use the Ethernet protocol. In this

prototype console controls are accessible from a web page that is served by the same

microcontroller. The combo of the technologies employed in this project result in a digital

audio console can connect to the most varied current market portable devices, such as

Tablets, Smartphone, Notebook, etc., controlling the 3D surround sound effects , resulting

in savings of hardware design and manufacture of remote control. We demonstrate the

operation of the console in real time with simple commands for handling. This prototype

is intended to be the starting point for musicians, DJ electronic music artists are interested

in this type of effect "in-live", making positioning their musical performances on different

areas of the auditorium. The audio console is the means by which the effects may be

performed with complete spontaneity, making the sounds played to move among the

audience, creating a unique experience in the interaction of the Artist, Musician or DJ with

the public.

Página 9

Page 11: Proyecto Integrador Mayo 2012

Ing. Ramiro Javier Podetti e-mail: [email protected]

Proyecto integrador Consola de audio digital para efectos de sonido 3D controlada vía Ethernet

Glosario

Aliasing = Término utilizado para referirse a la generación de frecuencias no deseadas

producto de un sub muestreo o un filtrado incorrecto de una señal digital.

Bit depth = resolución en bits.

Códec = abreviatura de codificador-decodificador.

Conversión A/D, D/A = Conversión de señales, analógicas a digitales / digitales a analógicas. DSP =

Digital signal processing/processor (procesador/procesamiento digital de señales). ESAI =

Enhanced serial audio interface (Interfaz de audio serial mejorada).

Ethernet = es un estándar de redes de área local para computadores con acceso al medio

por contienda CSMA/CD. CSMA/CD (Acceso Múltiple por Detección de Portadora con

Detección de Colisiones).

Frame = Marco.

Hypertext Transfer Protocol (HTTP)= protocolo de transferencia de hipertexto es el

protocolo usado en cada transacción de la World Wide Web. HTTP fue desarrollado por el

World Wide Web Consortium y la Internet Engineering Task Force, colaboración que

culminó en 1999.

IDE = entorno de desarrollo integrado, IDE (sigla en inglés de integrated development

environment), es un programa informático compuesto por un conjunto de herramientas de

programación. Puede dedicarse en exclusiva a un solo lenguaje de programación o bien poder

utilizarse para varios.

IP = Protocolo de Internet ( IP ) es el principal protocolo de comunicaciones utilizado para retransmitir datagramas (también conocido como los paquetes de red ) a través de una red interna utilizando el conjunto de protocolos de Internet.

TCP = Transmission Control Protocol (en español Protocolo de Control de Transmisión) o

TCP, es uno de los protocolos fundamentales en Internet. Fue creado entre los años 1973 y 1974 por Vint Cerf y Robert Kahn.

LSB = Less significant bit (Bit menos significativo).

MSB = Most significant bit (Bit más significativo).

Página 10

Page 12: Proyecto Integrador Mayo 2012

Ing. Ramiro Javier Podetti e-mail: [email protected]

Proyecto integrador Consola de audio digital para efectos de sonido 3D controlada vía Ethernet

Sampling = Muestreo.

S/H = Sampling and hold (Muestreo y retención).

Sweet spot = punto focal entre los altavoces, donde un individuo es plenamente capaz de

escuchar la mezcla de audio de la forma en que fue pensado para ser escuchado llamado

también “punto dulce”.

SPDIF = Sony-Philips digital interface.

Wi-Fi = (Wireless Fidelity) Conjunto de estándares para redes inalámbricas basado en las

especificaciones IEEE 802.11 (especialmente la 802.11b), creado para redes locales

inalámbricas, pero que también se utiliza para acceso a internet. El término fue acuñado

por la Wi-Fi Alliance.

World Wide Web (WWW) = Red informática mundial, es un sistema de distribución de

información basado en hipertexto o hipermedios enlazados y accesibles a través de

Internet.

Página 11

Page 13: Proyecto Integrador Mayo 2012

Ing. Ramiro Javier Podetti e-mail: [email protected]

Proyecto integrador Consola de audio digital para efectos de sonido 3D controlada vía Ethernet

CAPITULO 1

Presentación

1.1. Introducción

En la ingeniería de sonido, se utilizan sistemas de audio y consolas analógicas y digitales de

múltiples canales de audio, para la ambientación de diferentes escenarios como por ejemplo

salones, teatros, estadios, etc., con el objeto de que las bandas musicales o sonidistas, puedan

recrear los ambientes musicales buscados. La ambientación de estos escenarios se realiza

mediante configuraciones especiales de fuentes de sonidos, ubicados en diferentes lugares

dentro del ambiente a sonorizar. De esta manera es posible lograr diferentes efectos de sonido

relacionados con la ubicación de las fuentes sonoras, retardos en el tiempo de la señal,

simulación de rebotes del sonido para armonizar los materiales de los diferentes escenarios o

lugares donde se desarrollan las actividades musicales amplificadas electrónicamente. Sin

embargo, para aquellos casos en donde se busca lograr efectos de la ubicación virtual sonora

dinámicamente como es caso de los sonidos 3D (3 dimensiones), la utilización de tecnologías

analógicas se tornan costosas. Ante estos casos, la utilización de sistemas digitales de audio,

provistos de ciertos algoritmos de procesamiento digital de señales, son la mejor opción.

En este capítulo presentamos el prototipo de la consola de audio para efectos de sonido

envolventes, junto con el control remoto de la consola. Este control remoto se implementa a

través de una página web servida por la misma consola, convirtiendo a la consola de audio

digital en un dispositivo electrónico con la capacidad de formar parte de una red de

computadoras. Esta característica denominada como control vía Ethernet, permitirá a la

consola de audio digital nutrirse de los beneficios que la misma red proporciona, dando como

Página 12

Page 14: Proyecto Integrador Mayo 2012

Ing. Ramiro Javier Podetti e-mail: [email protected]

Proyecto integrador Consola de audio digital para efectos de sonido 3D controlada vía Ethernet

resultado el ahorro del hardware en el control remoto y aprovechando las distintas

infraestructuras de redes de computadoras Ethernet, podremos ampliar el alcance o distancia

de control, al punto de poder ser controlada desde cualquier parte del mundo en el que

tengamos acceso a Internet. Esta característica de control de la consola vía Ethernet será

aprovechada para posicionarnos comercialmente en un mercado muy exigente como lo es el

del audio digital.

1.2. Objetivo

En este trabajo se desarrollará el prototipo de una consola de Audio Digital, para realizar

efectos sobre la ubicación espacial de fuentes de sonidos utilizando técnicas de procesamiento

digital de señal en tiempo real. Dicha consola tendrá la particularidad de ser controlada a través de

una red Ethernet y de esta manera ser controlada por cualquier dispositivo que use este

protocolo de red. El prototipo a desarrollar será capaz de ser accedido por la variedad de

dispositivos hoy presentes en el mercado que sean compatible con el protocolo Ethernet,

ejemplo de ello son los dispositivos, Tablets, Smartphone, Netbook, Notebook, etc.,

aprovechando las características que estos dispositivos nos brindad, en especial sus placas de red

Ethernet, tarjetas inalámbricas Wi-fi (compatible con el protocolo Ethernet), Navegadores web,

corriendo sobre su sistema operativo, etc.

1.3. Motivación

Desde mi infancia tuve cierta atracción por los fenómenos electromagnéticos y en particular

por cualquier dispositivo electrónico que hubiere dando vueltas, el primer manual de usuario

que recuerdo haber leído he interpretado, fue el manual de uso de un equipo de audio

estereofónico, donde explicaba como posicionar en una sala, los dos transductores electro

acústicos (parlantes) y la ubicación del “punto dulce” (lugar donde se debe situar el auditor)

dentro del ángulo de audición formado por los parlantes, a los fines de poder apreciar los

efectos de sonido estereofónicos grabados en distintas obras musicales. Este fue el detonante de

mi inquietud por este tipo de efectos que nos dan una sensación de la posición en el

espacio de una fuente de sonido. Este recuerdo me acompaña y conforma en mi mente una

fotografía que no se ha borrado con el paso del tiempo.

Durante mi carrera he dirigido el enfoque de mis trabajos prácticos al campo del sonido y al

interesante funcionamiento de la red de internet o su significado en ingles Word Wide Web

(Red de Informática Mundial). La idea motivadora del trabajo es poder integrar estas dos

áreas Página 13

Page 15: Proyecto Integrador Mayo 2012

Ing. Ramiro Javier Podetti e-mail: [email protected]

Proyecto integrador Consola de audio digital para efectos de sonido 3D controlada vía Ethernet

tecnológicas para conformar un nuevo dispositivo de Audio que incorpore la capacidad de

poder ser controlado a distancia para realizar los efectos de sonido envolventes, desde

cualquier lugar, pensemos en la posibilidad de configurar el servidor para que forme parte de la

Word Wide Web, esta Consola de Audio estaría accesible desde cualquier parte del mundo que se

pueda accedera a Internet, de esta forma estamos eliminando el concepto de distancia o

limitaciones que tiene un control remoto vía Radio Frecuencia.

1.4. Objetivo Comercial

Se presentan 3 casos a los cuales apuntamos comercialmente en este desarrollo.

• Caso 1:

Apuntamos a Músicos, Cantantes, Artistas, que quieran innovar en la forma de ejecutar su

música. Hoy en día es imposible operar la consola para colocar en “VIVO” un efecto de

posicionamiento de sonido. Desde el escenario la distancia a la consola de sonido es inevitable,

por cuestiones estéticas, infraestructuras, etc. Por lo general las consolas son manejadas por

sonidistas y el interprete o artista esta en el escenario, sin poder poner sus efectos en el

“VIVO”, sino dependiendo de una coordinación con el sonidista, perdiendo así la creatividad

espontanea del artista, apuntamos a un control a distancia de comandos simples para

aumentar la creatividad en los artistas a la hora de interactuar con su público.

• Caso2:

Diseñadores de efectos especiales de sonido, debe situarse en el “punto dulce” o su

traducción al inglés “sweet spot”, este es el punto focal entre los altavoces, donde un individuo

es plenamente capaz de escuchar la mezcla de audio de la forma en que fue pensado para ser

escuchado. De esta forma los Ingenieros de sonido prueban sus diseños de efectos y

comprueban que se ejecuten realmente como los ha diseñado, estos efectos son previamente

grabados. Imaginemos que se quiere representar el efecto de sonido de una motocicleta

recorriendo la pantalla del cine de izquierda a derecha, este sonido debe ser grabado,

mezclado, y luego ejecutado para su análisis, donde es muy común querer hacer ajustes en los

efectos, dando lugar a interminables idas y vueltas desde la consola de sonido al “sweet spot”.

Nuestra consola de audio será capaz de ser controlada a distancia, apuntando a esta

característica novedosa en consolas de audio y de esta manera facilitar el trabajo de los

diseñadores de efectos especiales de sonido.

Página 14

Page 16: Proyecto Integrador Mayo 2012

Ing. Ramiro Javier Podetti e-mail: [email protected]

Proyecto integrador Consola de audio digital para efectos de sonido 3D controlada vía Ethernet

• Caso 3:

Apuntamos comercialmente a los DJ. de música electrónica. En este caso la persona se

encuentra cerca de la consola, pero es complicado ejecutar un efecto de variación de

posicionamiento de una fuente de sonido, mientras se están tocando las pistas en una rutina. La

técnica que utilizan hoy en día los DJ., es grabar previamente al espectáculo sus mezclas de

audio, y luego las reproduce cuando están tocando en vivo, aplicando algunos efectos de

posicionamiento controlando, balance, volumen, etc.

Intentaremos apuntar a la espontaneidad, poder controlar en el “VIVO” o para nosotros los

ingenieros “en tiempo real” efectos de sonido 3D no pregrabados. Imaginemos el sonido de una

sirena, o tambores que den vuelta por el lugar donde se sitúa el público, el DJ. debería ser una

especie de pulpo para ejecutar tal efecto, y continuar con su rutina, en este proyecto se

intentará hacer el control de movimientos de fuentes de sonido de una forma simple y en

tiempo real, apuntamos a introducirnos en el mercado de los espectáculos públicos con un

nuevo dispositivo electrónico que capte la atención de los espectadores.

¿Porque se elije el estándar Ethernet para el control de la consola a distancia?

La Consola de Audio es concebida para que pueda ser conectada a estándares Ethernet, ya

que la mayoría de los dispositivos portátiles que se podrán usar para su control tienen

integrados módulos de Radio Frecuencia Wi-Fi que son compatibles con Ethernet.

1.5. Esquema del Prototipo

A modo de introducción se muestra el prototipo a desarrollar en la figura 1.

Se pueden observar en la figura 1, dos elementos principales conformados por los Kits de

desarrollo de la empresa Freescale, un interface de comunicación, y una página web de

control, la interface de comunicación se implementara atreves de software usando los puertos

de comunicación de propósito general de ambos kits, la pagina web estará alojada en la misma

consola.

• Kit de audio Freescale Symphony SoundBite (contiene el DSP56371)

• Kit FreescaleTWR-MCF52259 (contiene el microcontrolador MCF52259)

• Interface de comunicación

• Pagina Web de control Página 15

Page 17: Proyecto Integrador Mayo 2012

Ing. Ramiro Javier Podetti e-mail: [email protected]

Proyecto integrador

eConsola de audio digital para efectos de sonido 3D controlada vía Ethernet

uPrototipo de la Consola de audio digital para efectos de sonido 3D controlada via Ethernet.

Pagina Web de control

Kit Freescale TWR-MCF52259

Interface de comunicación

Kit de audio Freescale Symphony SoundBite (contiene el DSP56371)

Figura 1. Vista Lateral Prototipo Consola de Audio controlada vía Ethernet

1.6. Organización del informe

El capítulo 2 hace un repaso de los conceptos básicos del audio digital y procesamientos de

eseñales digitales. Posteriormente, el capítulo 3 presenta la correlación del sistema auditivo en

dseres humano, con técnicas de sonido envolvente. El capítulo 4 expone los bloques de diseño

para la solución del prototipo, la elección del hardware y características del mismo para la

5implementación. El capitulo 5 expone los procedimientos empleados para escribir el software

Sdel microcontrolador y del DSP, y exponemos sobre la interface de comunicación entre ambas

tecnologías. El capítulo 6 está dedicado a las características técnicas del prototipo, se describen

Página 16

Page 18: Proyecto Integrador Mayo 2012

Ing. Ramiro Javier Podetti e-mail: [email protected]

Proyecto integrador Consola de audio digital para efectos de sonido 3D controlada vía Ethernet

las conexiones, calibración y modos de funcionamiento del prototipo. Por último, en el capítulo

7 se exponen las conclusiones obtenidas. Junto con el informe se adjunta un CD-ROM con toda la

información adicional del proyecto (software, hojas de datos, etc.).

Página 17

Page 19: Proyecto Integrador Mayo 2012

Ing. Ramiro Javier Podetti e-mail: [email protected]

Proyecto integrador Consola de audio digital para efectos de sonido 3D controlada vía Ethernet

CAPITULO 2

Audio Digital 2.1. Introducción

Capítulo dedicado a exponer los conceptos teóricos del audio digital, los mismos que

hicieron tan populares a las técnicas de digitalización de audio. Estos concepto junto con

los avance de integración de hardware que dio lugar a los procesadores de señales

digitales, en inglés Digital Signal Processor o sus siglas DSP, hacen posible este tipo de

proyectos y además que la ecuación costo-beneficio no solo sea viable sino tentadora.

2.2. Audio Digital

Es la representación digital mediante un conjunto de datos binarios de una señal de audio.

El proceso para llegar a tener la señal de audio digitalizada, llamado “Cadena de

digitalización” como se muestra en la figura 2, comienza por un transceptor (micrófono)

que convierte la onda de presión acústica, a una señal eléctrica analógica. Un convertidor

analógico-digital se encarga de transformar en unos y cero la señal original. La fidelidad de

la representación digital dependerá de, resolución en bits y la frecuencia de muestreo o sus

expresiones en ingles, bit depth y sample rate, profundizáremos sobre los procesos básicos

del audio digital en la sección 2.4.

Página 18

Page 20: Proyecto Integrador Mayo 2012

Ing. Ramiro Javier Podetti e-mail: [email protected]

Proyecto integrador eConsola de audio digital para efectos de sonido 3D controlada vía Ethernet

Figura 2. Cadena de digitalización [1]

2.3. Audio Digital Vs Audio Analógico

qSegún la aplicación que se quiera desarrollar, es conveniente usar técnicas digitales o

analógicas, la mejor opción es combinarlas para sacar el mejor provecho de ambas

tecnologías, pero en particular la aplicación que se desarrolla en este proyecto sería

inviable en un esquema de audio analógico.

2.3.1. Ventajas del Audio Digital

• Menor cantidad de componentes electrónicos.

• No requieren calibración, permitiendo la repetición a gran escala, (nivel industrial).

• Alta inmunidad al ruido.

• El procesamiento en el dominio discreto es más sencillo.

• Facilidad para la transmisión y el almacenamiento de datos digitales.

• Es posible realizar acciones imposibles de obtener utilizando el procesamiento

oanalógico (por ejemplo, filtros con respuesta de frecuencia arbitraria y fase lineal)

• Facilidad para implementar filtros adaptivos.

• La información digital se puede transferir un número ilimitado de veces desde un

sistema a otro sin ningún tipo de degradación, cada equipo de procesamiento

analógico agrega ruido y distorsión a la señal de manera inversamente

proporcional a la calidad del mismo. Página 19

Page 21: Proyecto Integrador Mayo 2012

Ing. Ramiro Javier Podetti e-mail: [email protected]

Proyecto integrador Consola de audio digital para efectos de sonido 3D controlada vía Ethernet

• Mejor aprovechamiento energético, menores perdidas por disipación de calor

(ejemplo menores perdidas que en equipos valvulares).

2.3.2. Desventajas del Audio Digital

• Imposibilidad de implementar con exactitud ciertos efectos que tienen origen en

equipos analógicos. Por ejemplo, distorsiones logradas con sistemas valvulares.

• La conversión de una señal analógica en digital, obtenida muestreando la señal y

cuantificando las muestras, produce una distorsión que nos impide la

reconstrucción de la señal analógica original en su “real totalidad” a partir de

muestras cuantificadas.

• Existen efectos indeseados debidos a la precisión finita que deben ser

considerados en el procesado digital de las muestras cuantificadas.

• En un sistema de audio digital, siendo la frecuencia de muestro fmáximo no se

podrán reproducir sonidos generados a frecuencias mayores a la mitad de

fmáximo (ver sección 2.4.1. Muestreo).

En la figura 3, se puede observar una toma de Cimbales (instrumento musical de

percusión), a 108.3 dB hecha con micrófonos B&K 4135, aproximadamente a

cuarenta y cinco centímetros de distancia realizada por el Ing. James BoyK. El trazo

superior indica los cimbales sumado el fondo (background) o piso de ruido

ambiental en ausencia de sonido, corregido hacia 100 kHz. El trazo inferior

representa solo el fondo. Nótese que la energía en 20, 30 y 40 KHz es mayor a la de

2, 3 y 4 KHz respectivamente; y que a 100 kHz se mantiene todavía muy por

encima del fondo. Es importante notar que nuestro equipo de audio digital para

reproducir la energía generada por este instrumento debería tener una frecuencia de

muestreo cercano a los 200Khz, para estos casos de muestro los codecs de

audio se elevan en precio traduciéndose en una desventaja al menos por los

tiempos que corren, en un futuro cercano esta desventaja puede dejar de serlo,

aun así es en ejemplo que nos permite introducirnos en una características muy

importante del audio digital de alta fidelidad.

2.4. Conceptos básicos del Audio Digital

A Continuación profundizaremos sobre los procesos que se utilizan para obtener audio

digital. Página 20

Page 22: Proyecto Integrador Mayo 2012

Ing. Ramiro Javier Podetti e-mail: [email protected]

Proyecto integrador Consola de audio digital para efectos de sonido 3D controlada vía Ethernet

• Muestreo

• Cuantificación

• Codificación

• Modulación por impulsos codificados (MIC o PCM)

• Códec de Audio

Figura 3 Medición realizada por el Ing. James Boyk, del Instituto de Tecnología California. Derechos 1992-

1997 James Boyk.

2.4.1. Muestreo

Consiste en tomar muestras (medidas) del valor de la señal, n veces por segundo, con lo que

podrá obtener hasta n niveles de tensión en un segundo.

El teorema de muestreo de Nyquist-Shannon, también conocido como teorema de

muestreo de Whittaker-Nyquist-Kotelnikov-Shannon, criterio de Nyquist o teorema de

Nyquist, es un teorema fundamental de la teoría de la información, de especial interés en

las telecomunicaciones. Este teorema fue formulado en forma de conjetura por primera

vez por Harry Nyquist en 1928 [2], y fue demostrado formalmente por Claude E. Shannon

en 1949 [3]. Página 21

Page 23: Proyecto Integrador Mayo 2012

Ing. Ramiro Javier Podetti e-mail: [email protected]

Proyecto integrador Consola de audio digital para efectos de sonido 3D controlada vía Ethernet

Teorema del Muestro. (Oppenheim 1975)

“Sea una señal x(t) de banda limitada con X (ω)= 0, para |ω|> ωM. Luego x(t) queda

unívocamente determinada por sus muestras x(nT), con n= 0,-1,-2,-3,... si:

ωs > 2. ωM (2.1)

donde:

ωs=2π/T (2.2)

Dadas estas muestras, se puede reconstruir x(t) generando un tren de impulsos en el cual los

sucesivos impulsos tengan amplitudes correspondientes a los valores de las ωs. Este tren de

impulsos luego es procesado por un filtro pasa bajo ideal con ganancia T y frecuencia de corte >

ωM < (ωs - ωM ). La señal resultante a la salida es exactamente igual a x(t)”.

El teorema demuestra que la reconstrucción exacta de una señal periódica continua en

banda base a partir de sus muestras es matemáticamente posible si la señal está limitada en

banda y la tasa de muestreo es superior al doble de su ancho de banda.

Para un canal telefónico de voz es suficiente tomar 8.000 muestras por segundo, o, lo que

es lo mismo, una muestra cada 125 μs. Esto es así porque, de acuerdo con el teorema de

muestreo, si se toman muestras de una señal eléctrica continua de banda limitada a

intervalos regulares y con una frecuencia doble a la frecuencia máxima que se quiera

muestrear, dichas muestras contendrán toda la información necesaria para reconstruir la

señal original. Por ejemplo teniendo una frecuencia de muestreo de 8 kHz (período 125 μ),

sería posible transmitir hasta 4 kHz llamando a este parámetro la “respuesta en frecuencia

del sistema”, suficiente para el canal telefónico de voz, donde la frecuencia más alta a

transmitir es de 3,4 kHz. El tiempo de separación entre muestras (125 μs) podría ser

destinado al muestreo de otros canales mediante el procedimiento de multiplexación por

división de tiempo (TDM).

Aliasing: En el campo del procesamiento de señales el aliasing es el efecto que causa que

señales continuas distintas se tornen indistinguibles cuando se les muestrea

digitalmente. Cuando esto sucede, la señal original no puede ser reconstruida de forma

unívoca a partir de la señal digital. Específicamente, si una sinusoide de frecuencia f Hz es

muestreada s veces por segundo, y s ≤ 2*f, entonces las muestras resultantes también

serán compatibles con una sinusoide de frecuencia fm - f, donde fm es la frecuencia de

muestreo. En la jerga inglesa de procesamiento de señales, cada una de las sinusoides se Página 22

Page 24: Proyecto Integrador Mayo 2012

Ing. Ramiro Javier Podetti e-mail: [email protected]

Proyecto integrador Consola de audio digital para efectos de sonido 3D controlada vía Ethernet

convierte en un "alias" para la otra. Estos alias son eliminados por un filtro antialiasing o

pasa bajo.

2.4.2. Cuantificación

En la cuantificación se asigna un determinado valor discreto a cada uno de los niveles de

tensión obtenidos en el muestreo.

Las muestras pueden tener un número de valores infinito, en el proceso de convertir una

señal en tiempo discreto, la señal analógica se ha dividido en el tiempo en un número

finito de muestras (el valor de éstas aún no ha sido limitado en precisión). En una señal

discreta en tiempo y amplitud, expresando cada muestra por medio de una precisión finita y

conocida, consecuencia del ajuste a un número finito y determinado de niveles, se

denomina cuantificación.

Se denomina proceso de cuantificación, al proceso que intervienen en la cadena de

digitalización, que sigue al de muestreo y precede al de codificación (ver Figura 2)

Un ejemplo de cuantificación en la gama de intensidad de la voz, sería un canal

telefónico que es de aproximadamente de 60 dB, lo que es lo mismo, una relación de

tensión de 1000:1.

2.4.3. Codificación

En la codificación, a cada nivel de cuantificación se le asigna un código binario distinto,

con lo cual ya tenemos la señal codificada y lista para ser transmitida, un ejemplo de los

conceptos expuestos anteriormente es la “Modulación por impulsos codificados (MIC o

PCM)”

2.4.4. Modulación por impulsos codificados (MIC o PCM)

Modulación por impulsos codificados, por sus siglas en inglés PCM, Pulse Code

Modulation, es un procedimiento de modulación utilizado para transformar una señal

analógica en una secuencia de bits (señal digital), este método fue inventado por Alec

Reeves en 1937, este método es el que usa el formato de audio digital tan popular como

lo es el formato CD de Audio. Una trama o stream PCM es una representación digital de

Page 25: Proyecto Integrador Mayo 2012

Ing. Ramiro Javier Podetti e-mail: [email protected]

Proyecto integrador Consola de audio digital para efectos de sonido 3D controlada vía Ethernet

una señal analógica en donde la magnitud de la onda analógica es tomada en intervalos

uniformes (muestras), cada muestra puede tomar un conjunto finito de valores, los cuales se

encuentran codificados. En la figura 4, se muestra una codificación PCM de 4 bits la cual

discriminara entre 16 niveles de señal.

2.4.5. Códec de audio

Códec es la abreviatura de codificador-decodificador, un códec de audio es un códec que

incluye un conjunto de algoritmos que permiten codificar y decodificar los datos auditivos, lo

cual significa reducir la cantidad de bits que ocupa el archivo de audio. Sirve para

comprimir señales o archivos de audio con un flujo de datos (stream) con el objetivo de

que ocupan el menor espacio posible, consiguiendo una buena calidad final, y

descomprimiéndolos para reproducirlos o manipularlos en un formato más apropiado. Se

implementa en software, hardware o una combinación de ambos.

Figura 4 Codificación PCM de 4 bits [4]

2.5. Rango Dinámico y Dither

El rango dinámico es un concepto propio de los procesadores. Se define como la relación

existente entre el máximo y mínimo valor (distinto de cero) representables. En un formato

de coma flotante éste viene determinado por el número de niveles del exponente. Si Página 24

Page 26: Proyecto Integrador Mayo 2012

Ing. Ramiro Javier Podetti e-mail: [email protected]

Proyecto integrador Consola de audio digital para efectos de sonido 3D controlada vía Ethernet

expresamos esta relación en dB:

RD [dB] = 6 *(Niveles del exponente) (2.3)

Así para el caso típico de un exponente de 8 bits el rango dinámico es de 1530. En un

formato en coma fija este depende del tamaño de palabra de datos según la relación:

RD [dB] = 6 * Tamaño de palabra (2.4)

El rango dinámico del procesador debe ser superior al de la aplicación. Este último viene

determinado por los conversores A/D y D/A utilizados. De esta forma se garantiza que los

errores introducidos durante el procesamiento (debidos a truncamientos, redondeos, etc.)

quedan por debajo del error que Introducen los propios conversores. En la Figura 5, se

muestra un grafica de los valores típicos de rango dinámico.

Figura 5 Valores típicos de Rango Dinámico [5]

Actualmente, los mejores convertidores comerciales disponibles de audiofrecuencia ofrecen

niveles de ruido térmico que permiten relaciones señal a ruido (SNR) máximas sobre los 115-

120 dB. Un sistema o formato que emplea 24 bits en la cuantificación es un sistema o

formato que, en el mejor de los casos, registra o almacena ruido en sus cuatro bits menos

significativo: sus valores en las muestras resultan del más puro azar (y, de hecho, se emplean en

el estudio de fenómenos estocásticos). El número de bits efectivos siempre será, en el mejor

de los casos, de 19 ó 20. Si consideramos el ruido blanco gaussiano de valor eficaz (RMS) 16

a 20 veces mayor que el error de cuantificación teórico de un cuantificador de 24 bits, no es

necesario añadir dither a la señal analógica de entrada.

Página 25

Page 27: Proyecto Integrador Mayo 2012

Ing. Ramiro Javier Podetti e-mail: [email protected]

Proyecto integrador Consola de audio digital para efectos de sonido 3D controlada vía Ethernet

Dither

Técnica que agrega ruido por lo general en audio, llamado ruido blanco, (el ruido blanco está

formado por todas las frecuencias audibles). Cualquier señal que se encuentre por debajo del

nivel de cuantización del conversor analógico digital, debe utilizar esta técnica, de no ser así

esta señal producirá una salida de continua, saturando el sistema. Esta técnica trabaja de

manera que la salida cambia de un nivel continuo a valores representativos de la señal

original. En algunos casos se usan efectos de audio en saturación donde esta técnica no se

aplica para lograr el efecto buscado.

En la figura 6 se muestra la técnica de muestreo con Dither.

Figura 6. Muestreo con Dither

(Steven W. Smith. The Scientist and Engieneer´s Guide to Digital Signal Processing)

2.6. Número de canales

También llamado numero de pistas,

Un (1) Canal es usado para sistemas de audio mono,

Dos (2) canales son usados para sistemas de sonido estéreo, son comúnmente llamados,

canal derecho y canal izquierdo.

Cuatro (4) canales son utilizados en los sistemas de sonido cuadrafónico.

Page 28: Proyecto Integrador Mayo 2012

Ing. Ramiro Javier Podetti e-mail: [email protected]

Página 26

Page 29: Proyecto Integrador Mayo 2012

Ing. Ramiro Javier Podetti e-mail: [email protected]

Proyecto integrador Consola de audio digital para efectos de sonido 3D controlada vía Ethernet

La cantidad de canales influye directamente en la cantidad de información a procesar por

segundo (tasa de bit o en inglés “Bit rate“) este será un dato a tener en cuenta para

nuestro desarrollo. En audio digital a mayor cantidad de canales, aumenta el caudal de

información binaria a procesar y a transmitir en un tiempo determinado o ventana

temporal, aumentando así el parámetro bit rate. Si trabajamos en tiempo real, esta

ventana temporal la define la frecuencia de muestro y es el intervalo que tendremos para

realizar la cadena de digitalización, posterior procesamiento de las muestras digitalizadas

y vuelta a la conversión D/A. Esto ventana temporal nos debe permitir trabajar cada uno

de los canales que use nuestro sistema, o sea mayor número de canales mayores

exigencias de hardware y software para mantener el proceso en tiempo real.

2.7. Formatos digitales de audio

En la figura 7 se observan los distintos formatos de audio digitales.

2.8. Procesamiento de señales digitales

El Procesamiento Digital de Señales (DSP por sus siglas en inglés) es un área de la

ingeniería que se dedica al análisis y procesamiento de señales (audio, voz, imágenes,

video, etc.) en el dominio del tiempo discreto. Comúnmente las señales en la naturaleza

nos llegan en forma analógica, aunque también existen casos en que éstas son digitales,

como por ejemplo: las edades de un grupo de personas, el estado de una válvula en el

tiempo (abierta/cerrada), etc. (Steven W. Smith, 2007). El objetivo de procesar

digitalmente una señal de audio puede ser obtener una disminución del nivel de ruido,

mejorar la presencia de determinados matices (como los graves o los agudos), generar

efectos tales como los que necesitamos en nuestra aplicación “efectos de

posicionamiento” o los más usados como lo son los efectos de eco, reverberación,

distorsión. Página 27

Page 30: Proyecto Integrador Mayo 2012

Ing. Ramiro Javier Podetti e-mail: [email protected]

Proyecto integrador eConsola de audio digital para efectos de sonido 3D controlada vía Ethernet

Figura 7. Tabla Formato de audio digital

Página 28

Page 31: Proyecto Integrador Mayo 2012

Ing. Ramiro Javier Podetti e-mail: [email protected]

Proyecto integrador Consola de audio digital para efectos de sonido 3D controlada vía Ethernet

2.9. Procesador digital de señal o DSP y representación aritmética

Es un sistema basado en un procesador que posee su propio hardware y software

optimizados para aplicaciones que requieren operaciones numéricas a muy alta velocidad.

Es especialmente útil para el procesado y representación de señales analógicas en tiempo

real.

Representaciones Aritméticas en DSP [5]

A continuación exponemos sobre las representaciones aritméticas más comúnes en DSP.

Un número de coma flotante se representa mediante una mantisa y un exponente siendo

su valor:

Valor = mantisa ∙ 2exponente (2.5)

Figura 8. Representaciones numéricas comunes en los DSP comerciales

a) Formato numero entero. b) Formato número coma fija. c) Formato número coma flotante. [5]

Página 29

Page 32: Proyecto Integrador Mayo 2012

Ing. Ramiro Javier Podetti e-mail: [email protected]

Proyecto integrador Consola de audio digital para efectos de sonido 3D controlada vía Ethernet

La mantisa es un número fraccionario, mientras que el exponente determina la posición

del punto binario. En estos procesadores es el propio hardware de la CPU, es el que realiza

los escalados mencionados anteriormente, quedando reflejada la posición del punto

binario en el exponente. Esto facilita enormemente la programación de las aplicaciones.

En la Figura 8, se muestra un resumen, de las representaciones numéricas más comunes

en los DSP.

El DSP56317 posee una arquitectura interna de 24 bits de datos y la aritmética de punto

fijo es complemento a 2 con signo. El cálculo del complemento a dos es muy sencillo

mediante puertas lógicas, los números positivos se quedarán igual en su representación

binaria. Los números negativos deberemos invertir el valor de cada una de sus cifras, es

decir realizar el complemento a uno, y sumarle 1 al número obtenido. Cabe recordar que

debido a la utilización de un bit para representar el signo, el rango de valores será

diferente al de una representación binaria habitual, el rango de valores decimales para n

bits será -2n-1 < Rango < 2n-1 .

Figura 9. Registro 24 bits

Cualquier número real Xq puede ser aproximado por la suma finita

Xq= −b0 + −b(−i) ∗ 2-i (2.6)

Resolución es límite inferior a los números fraccionarios que se pueden representar en

este caso 2-23 = 1.192*10-7 (2.7) 2.10. Clasificación de sonidos según la Tecnología utilizada para su reproducción

En los años 1930, la banda sonora de una película se reproducía en un solo altavoz (sonido

monoaural), o en varios altavoces reproduciendo el mismo sonido detrás de la sala. En

una sala de cine moderna, el sonido viene desde todas direcciones, es lo que se conoce

como sonido envolvente. Una de las primeras producciones en incorporar sonido

envolvente fue Fantasía (Walt Disney, 1941). En ese entonces, se hicieron grabaciones Página 30

Page 33: Proyecto Integrador Mayo 2012

Ing. Ramiro Javier Podetti e-mail: [email protected]

Proyecto integrador Consola de audio digital para efectos de sonido 3D controlada vía Ethernet

separadas de cada sector de la orquesta y luego se mezclaron a través de 4 pistas de audio

óptico analógico. Los diferentes tipos de sonidos envolventes de la actualidad se logran

en combinación de equipamientos hardware y algoritmos de programación en el ámbito del

audio digital, dando como resultado sonidos envolventes o 3D, estos equipamientos,

procesan, transmiten, y reproducen el sonido por múltiples canales.

Se clasificaran diferentes tipos de sonidos, según la cadena de equipamiento electrónico

que utilizan para su reproducción (ya sean equipos analógicos o digitales). La idea de esta

sección es presentar las tecnologías más usadas para reproducir diferentes tipos de

sonidos envolventes tanto en cines como en el hogar. Las tecnologías que presentamos en

este informe se exponen de forma breve a modo de ejemplos.

Las diferentes fuentes de sonidos a reproducir por estos equipamientos pueden haber

sido generadas por técnicas de grabación que buscan simular la tridimensionalidad del

espacio donde se ubica la fuente sonora. La combinación de equipamiento para la

reproducción y técnicas de sonido, dan como resultado sensaciones auditivas

espectaculares. Sobre estas técnicas de sonido nos ocuparemos en la sección 2.11.

A continuación clasificaremos algunos de los tipos de sonido según equipamientos

asociados para su reproducción.

2.10.1. Sonido Monoaural

El más sencillo es el sonido mono o monoaural, esta técnica consiste en grabar todo el

sonido mediante un único canal y reproducirlo normalmente mediante un solo altavoz.

2.10.2. Sonido Estereofónico

El estéreo o estereofónico, está hoy en día presente en la gran mayoría de nuestros

televisores y radios. Esta tecnología hace referencia a grabaciones multicanal que se

reproducen desde dos altavoces situados a derecha e izquierda. Los sistemas de sonido

estéreo cubren a lo sumo unos 120 grados del auditorio.

Página 31

Page 34: Proyecto Integrador Mayo 2012

Ing. Ramiro Javier Podetti e-mail: [email protected]

Proyecto integrador Consola de audio digital para efectos de sonido 3D controlada vía Ethernet

2.10.3. Sonido Cuadrafónico

Se dice que un sistema de sonido es cuadrafónico cuando este posee cuatro canales

discretos de información de audio, estos sistemas fueron una de las primeras propuestas

de venta en los sistemas de múltiples canales. Precursor de los sistemas de cine en casa

5.1, entre otros. Este sistema es usualmente utilizado en audio automotriz.

2.10.4. Sonido envolvente o sonido 3D

Sonido envolvente o sonido 3D conocido por su traducción al inglés como surround [6],

se refiere al uso de múltiples canales de audio para provocar efectos envolventes a la

audiencia, ya sea proveniente de una película o de una banda sonora. Esta tecnología ha

llegado hoy a nuestros hogares, como parte fundamental de los sistemas de cine en casa.

Técnicamente, el concepto de sonido surround fue acuñado por Laboratorios Dolby [7]

Dolby es el nombre comercial para una serie de tecnologías de compresión de audio

desarrollado por el mismo laboratorio. En el año 1982, este laboratorio lanzan el "Dolby

Surround Sound" como primer sistema de sonido envolvente para cine, codificando las

dos pistas de cualquier fuente estéreo en sonido envolvente de cuatro canales.

Hoy por hoy, también muchos equipos de audio poseen sistemas de sonido multicanal,

consolas de videojuegos preparados para este sistema, en definitiva, esta tecnología

resulta común en la actualidad.

El sonido Surround se puede conseguir mediante la colocación física de un conjunto de

altavoces y el agregado de efectos al procesar la señal de audio, de modo que produzcan

una percepción psicoacústica de 3D o 3 dimensiones.

La forma más simple de Surround es lo que se conoce como formato estéreo 3/2. La

norma ITU-R BS 775-1 es el estándar emitido por la Unión Internacional de

Telecomunicaciones, por sus siglas en ingles ITU (International Telecomunications Union)

para colocación de altavoces para lograr una respuesta óptima cuando se utiliza dicho

formato.

El formato estéreo 3/2 como lo muestra la figura 10, está compuesto por un total de 5

altavoces:

• Canal central. Situado en una posición central con respecto al canal izquierdo y

derecho; en el mismo eje se encontraría el “punto dulce” o su traducción al idioma inglés

“sweet spot” punto ideal en el que el oyente debería estar colocado. Página 32

Page 35: Proyecto Integrador Mayo 2012

Ing. Ramiro Javier Podetti e-mail: [email protected]

Proyecto integrador Consola de audio digital para efectos de sonido 3D controlada vía Ethernet

• Canal izquierdo y canal derecho. A una distancia de 30º, con respecto al eje central

que va del canal central al “punto dulce”. Es la misma posición que ocupan en el formato

estéreo 2/0, por lo que mantiene la compatibilidad. En algunas ocasiones, es posible que el

ángulo de separación sea aún mayor, teniendo como límite máximo los 35º.

• Dos canales traseros. Colocados en un ángulo de 110º con respecto al eje central, son

los que permiten hablar de sonido envolvente, sin ellos, sería formato estéreo sin más.

Los canales Surround no presentan demasiadas exigencias en cuanto a su colocación, pues la

percepción humana no es muy buena cuando se enfrenta a sonidos procedentes desde la

parte posterior.

Para poder crear correctamente la imagen sonora, el oído debe recibir la información

procedente de cada uno de los 5 canales al mismo tiempo, por ello, los altavoces deben

estar situados equidistantes con respecto al punto dulce. Esta equidistancia se logra

considerando el sistema como un círculo imaginario, de forma que el punto dulce es el

centro de la circunferencia, y los altavoces se ubican todos en el borde de la misma,

distanciados del centro una longitud equivalente al radio del círculo. Cuando esto no es

posible, se introducirá un retardo electrónico en aquellos altavoces situados más próximos

al oyente, hasta cuadrar el tiempo y que todas las señales lleguen al oído "en fase", es

decir, al mismo tiempo.

Figura 10. Ángulos para la ubicación de los parlantes en sistemas de sonidos de múltiples

canales [6]

En el plano teórico, a la hora de colocar los altavoces, habría que tener en cuenta que

todos deberían estar situados a la misma altura, preferentemente a nivel del oído. Sin

embargo, la presencia de obstáculos, a nivel práctico, hace que a veces se tengan que

situar por encima o por debajo de esta altura ideal. Lo que hay que tener en cuenta en ese

Página 33

Page 36: Proyecto Integrador Mayo 2012

Ing. Ramiro Javier Podetti e-mail: [email protected]

Proyecto integrador Consola de audio digital para efectos de sonido 3D controlada vía Ethernet

caso es que la desviación con respecto al eje horizontal, cuya referencia son los oídos del

oyente, no sea superior a los 15º; a partir de ese límite, los sonidos son percibidos como

procedentes de arriba o abajo.

2.10.5. Dolby AC3 y E-AC-3

En 1991 fue mejorado el Sonido Dolby Surround [7] Se presenta el nuevo sistema de

codificación de audio de canales múltiples, Dolby AC-3. Ahora conocido como Dolby

Digital, su primera aplicación es en formato de sonido para películas. Es decir, cuatro

canales para cinco altavoces. Es el sistema de audio 3D casero más extendido en la

actualidad (se emplea en los vídeos VHS, en muchas televisiones por cable y satélite y es una

opción en muchos Dvd).

AC-3, es la versión más común que contiene hasta un total de 6 canales de sonido, con 5

canales de ancho de banda completa de 20 Hz - 20 kHz para los altavoces de rango-normal

(frente derecho, centro, frente izquierdo, parte posterior derecha y parte posterior

izquierda) y un canal de salida exclusivo para los sonidos de baja frecuencia conocida en el

idioma inglés como “low frecuency effect, o subwoofer”.

El formato Digital Dolby soporta también el uso de mono y estéreo. Este códec tiene

varios alias, que son diversos nombres para el mismo códec.

El heredero de este sistema es E-AC-3 (Enhanced AC-3) o Dolby Digital Plus [7]. Cuyas

principales características son:

• Canales: 1.0 a 7.1 para las aplicaciones actuales de los medios, extensibles a 16

canales discretos.

• Velocidad de datos: 32 kbps-6 Mbps, escalables, por lo general 768 kbps-1.5 Mbps en

los discos ópticos de HD, de 256 Kbps para la difusión en línea.

• Frecuencia de muestreo: 48 kHz

• Profundidad de bits: 20 bits

2.10.6. Sonido Digital dinámico Sony o SDDS (Sony Dynamic Digital Sound)

Es un sistema de sonido digital lanzado en 1993 por Sony [8], este proporciona unas altas

prestaciones de audio multicanal para la proyección de películas en salas de cine. Sólo

está disponible su uso en salas comerciales y no en el ámbito doméstico.

Page 37: Proyecto Integrador Mayo 2012

Ing. Ramiro Javier Podetti e-mail: [email protected]

Proyecto integrador Consola de audio digital para efectos de sonido 3D controlada vía Ethernet

El sistema SDDS se caracteriza por el uso de hasta 8 canales independientes de sonido

denominado “7.1” (Izquierdo, Izquierdo Central, Central, Derecho Central, Derecho,

Subwoofer, Izquierdo Trasero y Derecho Trasero). Las pistas SDDS se alojan en los

márgenes de las películas estándar de 35 mm, sin ser incompatibles con las pistas ópticas

analógicas de sonido analógico que permanecen donde siempre, de hecho las bandas

sonoras SDDS de 35mm se pueden oír en cualquier tipo de sala. Debido al uso

preponderante de los sistemas de sonido digital Dolby Digital o DTS en las salas de cine, el

SDDS no está disponible en todas las salas, aunque actualmente muchas de las películas

de la empresa Columbia Pictures, propiedad de Sony, se suelen grabar con este sistema.

2.10.7. Sonido Teatro Digital o DTS (Digital Theater System / Sound / Surround) [9]

Sonido de Teatro Digital o por sus siglas en inglés DTS (Digital Theater System / Sound /

Surround) es un sistema digital de codificación de sonido que permite la existencia de 6

canales independientes de audio en una sola señal comprimida. Además de usarse para el

cine, DTS también se utiliza en "sitios especiales" como parques temáticos o simuladores

virtuales, caso en que puede albergar hasta 8 canales independientes en una sola señal,

pudiendo sincronizar varias señales para conseguir un número ilimitado de canales

totalmente independientes.

Los 6 canales que ofrece se corresponden en nombre y localizaciones con los del sistema

Dolby Digital, con unas frecuencias de 20 Hz a 20 kHz en todos los canales (izquierdo,

derecho, central y surrounds) y 20 Hz a 120 Hz en el canal central “LFE”. Tiene una

frecuencia de muestreo de 48 kHz a 96 kHz.

DTS utiliza velocidades de transferencia de 768 o 1536 Kb/s en sus variantes más simples. En

velocidad de transferencia de 1536kbit/s ofrece una muy buena calidad.

Ya que el formato DTS no es el códec por defecto de la generación actual de

reproductores DVD, muchos dispositivos no lo soportaron inicialmente. Mientras la

mayoría de los reproductores más modernos ofrecen soporte para DTS.

Para dispositivos de audio cine en el hogar, la mayoría de los usuarios eligen un

reproductor de DVD con un decodificador integrado de DTS o un procesador separado que

soporte esta tarea. Todos los receptores modernos soportan DTS.

Para la reproducción en el PC, muchos reproductores mediante software soportan la

decodificación en DTS. El proyecto Video LAN creó un módulo decodificador para DTS

llamado libdca (antes libdts), el cual es la primera implementación libre del DTS. Página 35

Page 38: Proyecto Integrador Mayo 2012

Ing. Ramiro Javier Podetti e-mail: [email protected]

Proyecto integrador Consola de audio digital para efectos de sonido 3D controlada vía Ethernet

En el cine DTS no incorpora los datos impresos en la cinta a proyectar, sino que vienen

grabadas en un CD-ROM aparte. Lo que sí incluye en la cinta es un "código de tiempo",

una señal impresa de sincronización que permite a la imagen y al sonido reproducirse

simultáneamente, aún cuando una cinta de 24 fotogramas por segundo es proyectada a

25 f/s, por ejemplo, ya que soporta variaciones de hasta ±10 % en la velocidad. Gracias a la

versatilidad de este código de tiempo, DTS es el único sistema digital utilizado en 70 mm.

En la figura 11 observamos impresos los diferentes formatos de audio.

Figura 11. Fotografía de un segmento de cinta de audio impreso, nos muestra los cuatro

formatos de audio (o "pista cuádruple")- De Izquierda a derecha, SDDS (área azul a la

izquierda de los agujeros grandes), Dolby Digital (zona gris entre los agujeros dentados),

sonido analógico (las dos líneas blancas a la derecha de la pista Dolby Digital), y el código de

tiempo para DTS (la línea punteada a la derecha de la pista analógica). [9]

2.11. Técnicas para lograr Sonidos Envolventes

Aquí nombramos dos técnicas diferentes de simulaciones ambientales bien diferenciadas,

“Sistemas de sonido 3D” y otro técnica por grabación de sonido “Holofonía 4D” (Hugo

Zucarelli, 1980) [10].

Ambas técnicas graban y procesan las señales de entrada para logra a la salida los efectos de

sonidos envolventes deseados, ambas técnicas están diseñadas para dos canales de salida

obteniendo la mejor performance en un sistema de sonido tipo estereofónico con la

utilización de auriculares. En el caso de usar parlantes amplificados, los efectos de sonido

3D son menos resaltados que si se usan auriculares, en el caso de la holofonía se

necesitan parlantes especiales. Página 36

Page 39: Proyecto Integrador Mayo 2012

Ing. Ramiro Javier Podetti e-mail: [email protected]

Proyecto integrador Consola de audio digital para efectos de sonido 3D controlada vía Ethernet

Es en estos dos puntos es donde nuestro proyecto se hace más fuerte ya que planteamos la

necesidad de poder lograr los efectos 3D con sistemas de altavoces comunes y sin el uso de

auriculares. Ahora trataremos de explicar con más detalles ambas técnicas para lograr los

sonidos envolventes.

2.11.1. Técnica en Sistemas de sonido 3D

Es una técnica aplicada atreves de algoritmos de programación, es utilizada para simular

una fuente de sonido mono/monoaural en un ambiente tridimensional o 3D. A Esta

técnica se le dedica el Capítulo 3, con motivo de correlacionar las técnicas usadas en

sonido 3D con el funcionamiento del sistema auditivo de los seres humanos.

2.11.2. Técnica Holofónica 4D

Las Holofonías son marca registrada por Hugo Zucarelli 1980 [10], consiste en un sistema

de grabación que utiliza una técnica de exposición múltiple. Su inventor expone,” la

holofonía es un sistema 4D ya que se le agrega a las 3 dimensiones espaciales una más

correspondiente a los desplazamientos temporales de la fuente, conformando la 4ta

dimensión”. Las holofonías fueron desarrolladas en 1980 usando la misma premisa de

"múltiple exposición" que se usa en las imágenes holográficas (hologramas).

El sonido holofónico se produce al grabar el patrón de interferencia generado cuando la

señal de grabación original se combina con una señal de referencia digital inaudible

produciendo un sonido totalmente envolvente y nítido, el sonido holofónico aún no está

preparado para nuestros sistemas de sonido del hogar. La escucha debe realizarse

mediante auriculares, o a través del uso de altavoces especialmente diseñados para ello.

El lector interesado puede escuchar muestras de audio grabadas con esta técnica en:

http://www.acousticintegrity.com/acousticintegrity/Sound_Samples/Sound_Samples.html .

Debido a que el autor no ha publicado la teoría, se presento el tema a modo de exponer variedad en

las técnicas para lograr sonidos envolventes y además se presento esta técnica por la gran

claridad del producto final. Es de destacar que el álbum de estudio “The Final Cut” perteneciente a la

banda británica de rock Pink Floyd está grabado con esta técnica, lo que sigue demostrando que en

el campo del sonido aún hay mucho por trabajar.

Página 37

Page 40: Proyecto Integrador Mayo 2012

Ing. Ramiro Javier Podetti e-mail: [email protected]

Proyecto integrador Consola de audio digital para efectos de sonido 3D controlada vía Ethernet

CAPITULO 3

Correlación del sistema auditivo en seres humano con

técnicas de sonido envolvente

3.1. Introducción

Capítulo dedicado a comprender el sentido auditivo de los seres humanos. En este

capítulo expondremos el fenómeno físico que estamos queriendo reproducir y controlar, se

explica la teoría y fundamentos del desarrollo, en base a estudios previos que dieron lugar

a los “Sistemas de sonido 3D “al final se expone cuales serán las variables a tener en cuenta

para nuestro desarrollo. 3.2. Entendiendo el sistema auditivo humano

Para que podamos comprender el sistema auditivo de los seres humanos, se elegió

presentar con más detalles las técnicas de sonido 3D. Los conceptos básicos de un

“sistemas de sonidos de 3D” son a mí entender los más explicativos del fenómeno físico

real. Antes de meternos de lleno a las técnicas 3D, presentamos el fenómeno físico de la

audición humana.

Nuestros oídos son órganos extraordinarios. Recogen todos los sonidos a su alrededor y

luego traducen esta información en una forma que su cerebro puede entender. Una de las

cosas más notables de este proceso es que es completamente mecánico. El sentido del

Página 38

Page 41: Proyecto Integrador Mayo 2012

Ing. Ramiro Javier Podetti e-mail: [email protected]

Proyecto integrador Consola de audio digital para efectos de sonido 3D controlada vía Ethernet

olfato, el gusto y la visión, implican reacciones químicas, pero el sistema auditivo se basa

únicamente en el movimiento mecánico.

La percepción del sonido virtual en un sistema de sonido envolvente aprovecha las

propiedades mecánicas básicas de los altavoces. Un altavoz es esencialmente un

dispositivo que convierte impulsos eléctricos en sonido. Para ello, utiliza un diafragma en

forma de cono que se mueve rápidamente hacia atrás y hacia adelante, empujando y

tirando del aire junto a él, compresiones y dilataciones son el resultado del movimiento de

las partículas del aire, traduciéndose en una onda longitudinal. Esta onda crean zonas de

alta y baja presión que llegan a su oído, la onda se refleja en el pabellón auricular, o el

cono externo del oído, este sonido también viaja en el canal auditivo, en el que se mueve

físicamente la membrana timpánica, o tímpano (se puede observar en la figura 12). Este

proceso pone en marcha una reacción en cadena que implica muchas pequeñas

estructuras dentro de su oído. Con el tiempo, las vibraciones de la onda de presión lleguen

a su nervio coclear, que las lleva al cerebro en forma de impulsos nerviosos. El cerebro

interpreta los impulsos como sonido. El proceso de interpretación de su cerebro le

permite entender el significado del sonido, además de que le permite interpretar el

sonido. El cerebro también utiliza un montón de señales auditivas para ayudarle a

averiguar de dónde viene, esto no siempre es algo que usted piense o sea consciente,

aunque ser capaz de localizar la fuente de un sonido es una habilidad importante, esta

capacidad ayuda a los animales encontrar comida, evitar a los depredadores y encontrar a

otros de su especie. Ser capaz de decir de dónde provenía el sonido también le ayuda a

decidir si alguien lo está siguiendo y si un golpe está en tu puerta o la de su vecino. Estas

señales y las propiedades físicas de las ondas de sonido son esenciales para un sonido

envolvente virtual o sonido 3D.

El pabellón de la oreja, o sea la parte externa de la oreja, sirve para "atrapar" las ondas

sonoras. Su oído externo está apuntando hacia adelante y tiene una serie de curvas, estos

pliegues le ayudan a determinar la dirección de un sonido. Las ondas sonoras, rebotan en el

pabellón de una manera diferente si viene de frente o por debajo. Esta reflexión de

sonido altera el patrón de la onda sonora, el cerebro reconoce patrones distintos y

determina la posición del sonido. [12] Página 39

Page 42: Proyecto Integrador Mayo 2012

Ing. Ramiro Javier Podetti e-mail: [email protected]

Proyecto integrador Consola de audio digital para efectos de sonido 3D controlada vía Ethernet

Figura 12. Diagrama del Oído [11]

Su cerebro determina la posición horizontal de un sonido mediante la comparación de la

información proveniente de las dos orejas. Si el sonido está a su izquierda, llegará a su

oreja izquierda un poco antes de lo que llega a su oído derecho. También será un poco

más fuerte en el oído izquierdo que en la oreja derecha. A continuacion nos enfocamos en

estos detalles de las técnicas de sonido 3D.

3.3. Detalles de las Técnicas de Sonido 3D

Esta sección del informe y hasta la sección 3.5.4. inclusive hacen referencia al trabajo

sobre electroacústica “Sistemas de Sonido 3D” presentado en junio de 2005 a la escuela

superior de ingenieros de Bilbao en la Universidad del País Vasco EUSKAL HERRIKO

UNIBERTSITATEA por el Dr. Ingeniero Industrial Alejandro García, de ahora en adelante

referencia [13].

Antes de la aparición del sonido envolvente, uno de los objetivos que se propusieron los

ingenieros de sonido era conseguir mediante un par de transductores acústicos, generar

sonido en tres dimensiones. Los ingenieros buscaban poder experimentar como los

sonidos que se transmitían por un par de altavoces, los podíamos percibir como si la

fuente de sonido estuviera en un lugar distinto al de los parlantes (altavoces) que

ejecutaban el sonido, o sea que ese sonido se situara en el entorno del auditor y que no

tenia porque corresponder al lugar físico donde se encontraban los transductores

Página 40

Page 43: Proyecto Integrador Mayo 2012

Ing. Ramiro Javier Podetti e-mail: [email protected]

Proyecto integrador Consola de audio digital para efectos de sonido 3D controlada vía Ethernet

acústicos. La percepción que un oyente puede experimentar con un simple sistema de

altavoces y un sistema capaz de generar sonido 3D, podría ser por ejemplo, escuchar los

coches que se circulan por una avenida, mientras a un costado escucha los pasos de los

peatones. En nuestro ambiente natural percibimos los sonidos en tres dimensiones y

podemos localizarlos en cualquier instante. En realidad, el cerebro se ha entrenando toda

la vida, y tiene memorizados una serie de parámetros basados en la experiencia y

personalizados para cada uno. Esto es parte del campo del estudio de la Psicoacústica,

podemos concluir que habrá tantas diferencias al escuchar la misma fuente de sonido,

como personas la estén escuchando.

En el ámbito de la música grabada, el estéreo tradicional nos da algo de información

espacial, pero no lo suficiente para recrear que estamos en una habitación escuchando un

concierto en directo con la banda instalada en nuestra habitación, es más, en vez de dar

una sensación de que estás en un espacio tridimensional, la reproducción por altavoces da

la sensación que estas en frente de la fuente de sonido. Si bien el sonido estéreo, puede

recrear una sensación de especialidad, ya que podemos tener la sensación de estar

escuchando sonidos diferentes, en el caso del sonido 3D se crearán sensaciones espaciales

que no se experimentan con los sistemas de sonido estéreo. Con parlantes o altavoces se

espera la posibilidad de situar sonidos fuera de los límites de los altavoces pudiendo situar

el sonido a 360 °, en el caso de usar auriculares, se espera que el sistema sitúe los sonidos

360 ° fuera del espacio de nuestra cabeza.

3.4. Conceptos fundamentales de un sistema de sonido 3D.

La clave del desarrollo en el sonido 3D, se debe al uso del procesado de señal, mediante

funciones dependientes de la dirección de la fuente de sonido, o funciones llamadas de

transferencia relativas a la cabeza, por sus siglas en inglés HRTF (Head Relative Transfer

Function). El modelo científico del sonido 3D se puede dividir en tres disciplinas para llegar a

un entendimiento del mismo.

- Acústica física

- Psicoacústica

- Neuropsicología auditoria.

Página 41

Page 44: Proyecto Integrador Mayo 2012

Ing. Ramiro Javier Podetti e-mail: [email protected]

Proyecto integrador Consola de audio digital para efectos de sonido 3D controlada vía Ethernet

Acústica física.

Su estudio se centra en las ondas sonoras que alcanzan al receptor desde el pabellón

auditivo y el fenómeno acústico que determina sus propiedades específicas.

Psicoacústica.

Estudia la relación entre las ondas acústicas en el pabellón auditivo y la percepción de la

imagen espacial que experimentan los receptores.

Neuropsicología auditoria.

Trata la comprensión de las estructuras neuronales que dan sentido a la sensación del

sonido.

Antes de analizar en profundidad cómo se emite el sonido envolvente por un par de

altavoces, se explicará como nosotros, los humanos, localizamos el sonido en un ambiente

para comprender los trucos que se utilizan en el proceso de la señal para sistemas de

sonido 3D.

3.5. Mecanismos de localización del sonido en los seres humanos.

Primero veamos el significado de localización del sonido.

La localización del sonido define la capacidad del individuo de determinar la ubicación de

una fuente sonora en el espacio, la localización sólo es posible a partir de la audición

biaural, es decir, teniendo dos oídos [13]. Aquí vale aclarar que la técnica de la Holofonía

(Hugo Zuccarelli 1980) [14], no considera verdadero el anterior postulado , o sea la

necesidad de tener dos canales auditivos para detectar ubicación de la fuente, ya que su

inventor, propone experimentos en los cuales con un solo canal auditivo puede

establecerse la posición de la fuente. Sin el afán de querer desviar la atención del lector

es a modo de comentario para que usted tome conocimiento de las distintas posturas

sobre el mismo tema, tenga en cuenta y recuerde que se eligió para explicar y

comprender el fenómeno complejo de la audición humana, los conceptos de técnicas en

Sistemas de Sonido 3D, por su extenso contenido teórico y posibilidad de acceso a la

información. Ahora sí, retomando el tema, que nos ocupa la atención, por lo general en

Sistemas de Sonidos 3D, se establecen tres planos característicos en los experimentos

destinados a estudiar la localización por parte del ser humano, y estos planos son

representados en distintos sistemas de coordenadas. Los planos y el sistema de

coordenadas son presentados en la figura 13 y 14.

Página 42

Page 45: Proyecto Integrador Mayo 2012

Ing. Ramiro Javier Podetti e-mail: [email protected]

Proyecto integrador

eConsola de audio digital para efectos de sonido 3D controlada vía Ethernet

3.5.1. Sistemas de Coordenadas

Para especificar la localización de un sonido en el entorno tridimensional, se necesita un

sistema de coordenadas que nos ayude a localizar los sonidos en la cabeza del oyente,

como el sistema que se muestra abajo. Los tres ejes coordenados definen tres planos

testándar x-y el plano horizontal, x-z el plano frontal, y el y-z el plano mediano. Definiendo,

arriba/abajo, delante/atrás y derecha/izquierda respectivamente como se observa en la

figura 13. Pero como la cabeza es como una esfera se utilizan coordenadas esféricas,

donde tenemos azimut, elevación y radio como lo muestran las figuras 15 y 16

eFiguran 13 y 14. Sistemas y planos para localización del sonido [13]

Página 43

Page 46: Proyecto Integrador Mayo 2012

Ing. Ramiro Javier Podetti e-mail: [email protected]

Proyecto integrador

eConsola de audio digital para efectos de sonido 3D controlada vía Ethernet

Figura 15. Sistema de coordenadaas vertical-polar. Figura 16. Sistema de coordenadas Interaural-polar.

eEn la figura 15 observamos el sistema de coordenadas vertical-polar. Este se utiliza para

ádescribir las fuentes que están en el plano horizontal, cuando azimut varía entre (-180º,

+180º).

En la figura 16 observamos el sistema de coordenadas Interaural-polar. Con este sistema

el azimut esta siempre entre -90º y +90º. La distinción entre adelante y atrás, es 0 para

superficies en el plano horizontal y 180 para las superficies en la parte de atrás del plano

ihorizontal. Los dos últimos dibujos, son los dos sistemas de coordenadas que se emplean

oen las funciones HRFT. La localización se realiza a partir de la determinación de una

dirección y una distancia.

3.5.2. Dirección de una fuente sonora

oLa dirección de una fuente sonora, a su vez, se establece a partir de un Angulo Lateral y

de un Angulo de Elevación. Página 44

Page 47: Proyecto Integrador Mayo 2012

Ing. Ramiro Javier Podetti e-mail: [email protected]

Proyecto integrador Consola de audio digital para efectos de sonido 3D controlada vía Ethernet

3.5.2.1. Localización en el plano horizontal, Angulo lateral

Para la ubicación lateral de una fuente sonora el sistema auditivo utiliza pistas

provenientes principalmente de las diferencias de intensidad y tiempo con que las ondas

sonoras llegan a cada uno de nuestros oídos. Unas y otras son más efectivas para distintos

rangos de frecuencia.

3.5.2.1.1. Diferencias Interaurales de Intensidad o DII

Las diferencias interaurales de intensidad o DII representan el tiempo que tarda de más

un sonido proveniente del lado izquierdo de una persona en llegar al oído derecho. Esto se

debe a que el sonido se difracta alrededor de la cabeza hasta llegar al oído derecho, y por

lo tanto tienen que viajar más. Las DII como se muestra en la figura 17 se dan

principalmente a partir de las diferentes distancias que deben recorrer las ondas para

llegar a uno y otro oído, pero también por la sombra acústica producida por la cabeza del

individuo (difracción de la onda).

Figura 17. Diferencias Interaurales de Intensidad o DII [13]

Los sonidos de bajas frecuencias tienen longitudes de onda relativamente grandes con

respecto a las dimensiones de la cabeza. El estudio de la difracción determina que cuando

la longitud de la onda es suficientemente grande con respecto al obstáculo que encuentra

la onda, ésta se difracta fácilmente y no se genera una “sombra acústica” (o, al menos, se

produce una sombra acústica pequeña). Por el contrario, cuando las longitudes de onda

son pequeñas, se produce poca difracción y por lo tanto existe una sombra acústica

mayor. Para frecuencias de 500 Hz la longitud de onda del sonido es de unos 69cm, unas Página 45

Page 48: Proyecto Integrador Mayo 2012

Ing. Ramiro Javier Podetti e-mail: [email protected]

Proyecto integrador Consola de audio digital para efectos de sonido 3D controlada vía Ethernet

tres veces el diámetro promedio de la cabeza humana, la difracción es poca. Para

frecuencias de 4 KHz (la longitud de onda del orden de los 8.5 cm) la sombra acústica es

importante. Las DII son prácticamente despreciables para frecuencias inferiores a los 500

Hz, pero pueden ser de hasta 20 dB para frecuencias mayores de 5 KHz, lo anterior

expuesto se puede observar en la figura 18 que muestra para distintas frecuencias según

el ángulo de azimut de la fuente sonora la intensidad correspondiente en dB.

Figura 18. DII para distintas frecuencias según ángulo azimut [13]

3.5.2.1.2. Diferencias Interaurales de Tiempo o DIT

Este parámetro refiere a la diferencia de tiempos de llegada entre los oídos, como se

puede observar en la figura 19. Mediante este parámetro se puede localizar una fuente de

sonido. Este efecto es útil hasta una frecuencia en la que la longitud de onda del sonido se

aproxima al doble de la distancia entre los dos oídos, a partir del cual, no se diferencia un

sonido de otro. Página 46

Page 49: Proyecto Integrador Mayo 2012

Ing. Ramiro Javier Podetti e-mail: [email protected]

Proyecto integrador Consola de audio digital para efectos de sonido 3D controlada vía Ethernet

Figura 19. Diferencias Interaurales de Tiempo o DIT [13]

Figura 20. DIT vs azimut [13]

Las Diferencias interaurales de Tiempo pueden calcularse a partir de las diferencias en las

distancias que deben recorrer las ondas. Las Diferencias interaurales de Tiempo, van de 0

segundos para fuentes sonoras con un ángulo de 0º (exactamente delante del sujeto),

hasta cerca de 0.69 ms para fuentes sonoras con un ángulo de 90º (ver figura 20).

Según el MÉTODO DE LORD RAYLEIGH (JOHN William Strutt 1842-1919-Inglaterra), el

sonido se propaga a una velocidad de “c” igual a 343 m/s en el aire. Si una onda llega a

una superficie esférica con un ángulo azimut θ, el sonido llega primero a la oreja derecha

que a la izquierda, pues tiene que viajar una distancia superior para llegar a la oreja

izquierda. Si lo dividimos por la velocidad del sonido, se obtiene la formula:

Página 47

Page 50: Proyecto Integrador Mayo 2012

Ing. Ramiro Javier Podetti e-mail: [email protected]

Proyecto integrador

eConsola de audio digital para efectos de sonido 3D controlada vía Ethernet

DTI = (θ + sen θ); -90º ≤ θ ≤ +90º (3.1)

eAsí, DTI es cero cuando la fuente esta directamente en frente, y tiene un máximo cuando

la fuente está en un lado. Esto representa una diferencia de 0.7ms para un tamaño típico

de cabeza, ver figura 21

Figura 21. Esquema de datos para ecuación 3.1 [13]

a3.5.2.2. Localización en el plano medio, Ángulo de elevación

Experimentos han mostrado la importancia de la cabeza, pero también del pabellón

auditivo en la localización de sonidos que se encuentran en el plano medio. En tal caso las

DII y las DIT son cero, dado que ambas ondas llegan al mismo tiempo y con la misma

intensidad a los oídos. El registro de los sonidos para estos experimentos se realiza por

medio de micrófonos colocados dentro de los pabellones artificiales de un muñeco o

udumy como lo muestra la figura 22.

Figura 22. Cabeza de muñeco dumy con micrófonos incorporados [13] Página 48

Page 51: Proyecto Integrador Mayo 2012

Ing. Ramiro Javier Podetti e-mail: [email protected]

Proyecto integrador

eConsola de audio digital para efectos de sonido 3D controlada vía Ethernet

pTanto la cabeza, pero principalmente el pabellón auditivo, modifican el espectro de los

ásonidos en dependencia del ángulo de incidencia del sonido con respecto a la cabeza. Las

diferencias espectrales entre el sonido original y el sonido medido junto al tímpano dieron

slugar a las funciones de transferencia relativas a la cabeza o por sus siglas en inglés HRTF

c(Head-Related transfer Function). Las modificaciones espectrales producidas por el

épabellón y la cabeza también son usadas por el sistema auditivo para determinar la

nlocalización de una fuente sonora. En este caso, es importante que el sonido tenga energía

espectral a lo largo de un amplio rango de frecuencias. Las frecuencias superiores a los 6

Khz son particularmente importantes, dado que es en esa región en la que las longitudes

de onda se hacen suficientemente pequeñas como para interactuar eficazmente con el

pabellón. Los distintos picos de resonancia en las HRTF corresponden a diferentes

slocalizaciones de las fuentes sonoras en el plano medio.

El pabellón auditivo actúa como una cavidad de resonancia, donde amplifica algunas

frecuencias, y su geometría genera ciertos efectos de interferencia que atenúan otras

rfrecuencias. Dicho de otra forma, su respuesta en frecuencia depende de la dirección. En

la figura 23 se observan las mediciones de intensidad sonora medidas en dB según las

drespuestas en frecuencia de dos direcciones distintas. En ambos casos vemos los caminos

que siguen las ondas.

oFigura 23 Intensidad sonora medidas en dB vs las respuestas en frecuencia de dos

sdirecciones distintas según geometría del pabellón auditivo.

Página 49

Page 52: Proyecto Integrador Mayo 2012

Ing. Ramiro Javier Podetti e-mail: [email protected]

Proyecto integrador Consola de audio digital para efectos de sonido 3D controlada vía Ethernet

A frecuencias elevadas, la señal directa esta en desfase con la señal que llega más tarde. La

mayor interferencia ocurre, cuando la diferencia de recorrido D es la mitad de la

longitud de onda. Por ejemplo :

F= (3.2)

Como el pabellón auditivo es mucho más efectivo con sonidos que vienen de la parte

delantera, este efecto es por lo tanto mucho más pronunciado. Si se presenta un sonido de

banda limitada con frecuencias centrales de 300 Hz o 3 KHz, la imagen sonora siempre se

formará delante del sujeto. Si la frecuencia central es de 8 KHz la imagen estará

siempre arriba. Y si la frecuencia central es de 1 o 10 khz la imagen se formará siempre

detrás, ver figuras 23 y 24.

Figura 23. Ubicación de la dirección sonora según frecuencia de la fuente

Figura 24. Representación de la dirección sonora según la frecuencia, donde: V=adelante, O=

arriba, H=atrás

3.5.3 Distancia de una fuente sonora

Este parámetro es uno de los más difíciles de calcular. Hay ciertos parámetros que se

pueden tener en cuenta para calcular la distancia. Entre los parámetros están:

• Loudness: Intensidad de sonido

Page 53: Proyecto Integrador Mayo 2012

Ing. Ramiro Javier Podetti e-mail: [email protected]

Proyecto integrador Consola de audio digital para efectos de sonido 3D controlada vía Ethernet

• Motion parallax: esto se refiere a los movimientos de la cabeza. El mover la

cabeza cambian los parámetros de azimut, y estos son dependientes de lo lejos

que esté de la fuente. Así para fuentes sonoras que están cercanas al receptor, se

puede observar un cambio grande en las variables azimut, mientras que para

fuentes lejanas, es inapreciable. Así mismo, para fuentes cercanas, el ILD

aumentará.

• Reverberación: otra característica que el oído utiliza para localizar los sonidos es

la razón de reverberación con la fuente el sonido directo. Esto tiene que ver con la

reflexiones del sonido en las paredes de una habitación. la intensidad del sonido cae

con el cuadrado de la distancia, pero cuando existen reverberaciones las cosas

cambian. A distancias cortas la reverberación es bastante grande, mientras que a

distancias largas este ratio es más pequeño.

• Proporcionalidad entre reverberación y sonido seco: En habitaciones cerradas, la

energía de una densa reverberación será más o menos constante, mientras que en

distancias largas la energía que un sonido directo (seco, sin reverberación) caerá con

la distancia.

• Balance espectral: las habitaciones actúan como filtros, modificando el espectro

de las señales acústicas. El espectro de la respuesta al impulso de una habitación

buena, debe ser lo suficientemente plana en todo el ancho de banda de la señal.

• Difusión: tiene que ver con la absorción de los materiales, normalmente las

frecuencias altas caen más rápidamente

Figura 25. Amplitud de señal directa y posteriores reflexiones representadas en el tiempo. Página 51

Page 54: Proyecto Integrador Mayo 2012

Ing. Ramiro Javier Podetti e-mail: [email protected]

Proyecto integrador

eConsola de audio digital para efectos de sonido 3D controlada vía Ethernet

a3.6. Función de Transferencia relativa a la cabeza o HRTF

Figura 26. Funciones HRTF

Estas funciones son las que está presente en el software de infinidad de sistemas de

saudio que utilizan las siglas Audio 3D (por 3 dimensiones) para su comercialización

haciendo referencia a que el equipo es capaz de reproducir sonidos envolventes

virtualizando ambientes sonoros o fuentes de sonido según la posición en espacio que es

generada.

uEste dibujo figura 26 es el que se utiliza para encontrar la presión sonora en alguno de

anuestros oídos. Para encontrar la presión sonora que una señal x(t) produce en el pabellón

auditivo, es necesario conocer la respuesta al impulso h(t) de la fuente en el pabellón

rauditivo correspondiente, para el canal derecho es hXR(t) y el izquierdo hXL(t), a estas se

llaman Head Related Impulse Response (HRIR), y su transformada de Fourier se llama

Head Related Transfer Function (HRTF). La HRTF captura muchas cualidades que

zutilizamos a la hora de localizar un sonido. Una vez conocido para ambos oídos, se puede

sintetizar las señales biaurales a partir de una señal monoaural como lo muestra la figura27.

Página 52

Page 55: Proyecto Integrador Mayo 2012

Ing. Ramiro Javier Podetti e-mail: [email protected]

Proyecto integrador Consola de audio digital para efectos de sonido 3D controlada vía Ethernet

Figura 27. Esquema de la síntesis de señales biaurales a partir de una señal monoaural.

Notamos que, no es el objetivo de este trabajo presentar las ecuaciones matemáticas que

dan lugar a estas funciones HRTF, pero si tener presente la síntesis mostrada en el cuadro

de la figura 27. En esta figura observamos que para repuestas lejanas al oído deberá

utilizarse sistemas de parlantes, en este caso la interacción con el medio, tiempos de

delay deben contemplarse para que sus algoritmos funcionen en relación a la realidad

buscada, en cambio en respuestas cercanas al oído esto no ocurre ya que se utilizan

sistemas de audífonos. Para implementar estas funciones en nuestro prototipo,

deberíamos manejarnos en el campo de respuesta lejana al oído, y este es susceptible a

condiciones del ambiente a sonorizar o a los movimientos de la cabeza. Por lo tanto

deberemos tomar solo algunos aspectos que consideran estas funciones como veremos a

continuación.

3.7. Conclusiones sobre las técnicas de sonido envolvente para el desarrollo de nuestra

aplicación

La mayoría de los sistemas de audio 3D se basan en las funciones de transferencia HRTF,

son capaces de simular elevación, distancia y azimut de la fuente sonora. En principio

mediante este sistema se puede crear sonido 3D, pero en la práctica es algo distinto,

debido a las diferencias entre las personas y las limitaciones que tiene el sistema de ser

reproducido en ambientes controlados acústicamente a tal punto, que en equipos no

Página 53

Page 56: Proyecto Integrador Mayo 2012

Ing. Ramiro Javier Podetti e-mail: [email protected]

Proyecto integrador Consola de audio digital para efectos de sonido 3D controlada vía Ethernet

profesionales la única forma de escuchar las sensación de sonido envolvente es que la

persona se mantenga inmóvil, otra forma (la cabeza en movimiento) mediante el uso de

auriculares. Para nuestra aplicación, el desarrollo de una Consola de Audio Digital para

efectos de sonido envolvente , orientada comercialmente según se vio en la sección 1.4.

queda descartado el uso de técnicas de sonido 3D basados en las funciones HRTF. La

dirección de la cabeza en los seres humanos influye sobre varios parámetros en las

funciones HRTF es por ello que siempre en estos sistemas 3D se aconseja usar auriculares

o situarse en posición estática, que no es el fin que se persiguen nuestras aplicaciones.

Las distancias a la fuente sonora según el ángulo de ataque de la fuente, es otro

parámetro que no se podrá controlar ya que el público no es representativo de una

cabeza, sino un montón de cabezas expectantes de un efecto de audio.

Por tales motivos para nuestro desarrollo tomaremos algunas pautas de todo lo expuesto.

En cuanto a las técnicas Holofonicas, planteadas anteriormente sección 2.11.2 del

Capítulo 2, estas son técnica de grabación, que no son aplicables a este proyecto ya que no

queremos grabar, sino modificar una fuente de sonido en tiempo real y poner el efecto de

posicionamiento deseado.

En cuanto a las técnicas de sonido envolvente 3D, se trabajará en este desarrollo con la

respuesta lejana a los Oídos y las variables son:

• Las diferencias constructivas de materiales y dimensiones, del auditorio.

• Cantidad de auditores, dimensiones del spot.

Ambos parámetros varían en los distintos lugares donde se pretende usar la aplicación,

deberemos plantear la solución a través de sistemas de reproducción que minimicen estas

variables.

Propuesta para nuestra implementación:

• Sistema cuadrafónico de parlantes activos , denominados activos a los

transductores de audios con amplificador individual incorporado

• Utilizar algoritmos propios de programación para diseñar los distintos efectos. Página 54

Page 57: Proyecto Integrador Mayo 2012

Ing. Ramiro Javier Podetti e-mail: [email protected]

Proyecto integrador Consola de audio digital para efectos de sonido 3D controlada vía Ethernet

El sistema de Sonido Cuadrafónico, vale decir, la disposición de los 4 transductores activos

equidistantes del spot de audición, atenuará las variables DTI, e ITD, y será menos

ponderables a las cuestiones físicas de la sala como lo son las características de la

construcción, materiales, formas del lugar, acústica de la sala, etc., enmascarando todos

los efectos indeseados. En este sistema cuadrafónico se controlaran las variables

espaciales x,y,z (referidas en un sistema de ejes cartesianos), controlando las posiciones en

el plano horizontal y vertical, a través de algoritmos de procesamiento de señales

creados exclusivamente para este desarrollo.

Para comprender las variables a modificar propuestas para la solución, debemos

ubicaremos en un sistema de ejes cartesianos X,Y,Z.

Ejes X-Y. Plano Horizontal

La sensación del desplazamiento en el plano horizontal de una fuente sonora, se propone a

través del proceso de mezcla y ruteo del audio de entrada, ambos implementados en el

procesador digital de señales.

Las muestras de audio de entrada serán ruteadas y mezcladas para cada uno de los

canales de salida del sistema cuadrafónico según la posición horizontal elegida para cada

entrada. El proceso de mezcla será realizado con todas las entradas de audio que

correspondan salir por los canales del sistema cuadrafónico. Esta correspondencia será

implementada a través de un algoritmo específico de programación que desarrollamos en el

capítulo 5 “Programación del Sistema”

Se controlará la profundidad o distancia en este mismo plano horizontal, a través del

manejo de la ganancia individual de cada transductor acústico activo.

Eje Z. Altura

La sensación de la altura de una fuente sonora se controlará a través de filtros digitales.

Un filtro digital es un sistema que, dependiendo de las variaciones de las señales de

entrada en el tiempo y amplitud, realiza un procesamiento matemático sobre la misma

obteniéndose a la salida el resultado del procesamiento (Oppenheim, 1975). Estos filtros

digitales serán implementados en el procesador digital de señales. Se proponen diseñar

un filtro digital “pasa bajos” y un filtro digital de “banda angosta” de 8Khz, estos son

simuladores de altura natural al sistema auditivo de los seres humanos, según se vio en la

sección 3.5.2.3. Página 55

Page 58: Proyecto Integrador Mayo 2012

Ing. Ramiro Javier Podetti e-mail: [email protected]

Proyecto integrador Consola de audio digital para efectos de sonido 3D controlada vía Ethernet

Con todo lo expuesto en este capítulo, el fenómeno auditivo en los seres humanos ha sido

planteado. También se plantearon conclusiones y una propuesta de solución para nuestra

aplicación. En los capítulos siguientes, se muestra como se implemento en nuestro

prototipo la solución propuesta.

Página 56

Page 59: Proyecto Integrador Mayo 2012

Ing. Ramiro Javier Podetti e-mail: [email protected]

Proyecto integrador Consola de audio digital para efectos de sonido 3D controlada vía Ethernet

CAPITULO 4 Implementación del Prototipo

4.1. Introducción

En el siguiente capítulo presentamos la implementación del hardware que dará solución al

diseño del prototipo propuesto en el Capítulo I.

4.2. Propuesta de Solución

Necesitamos un dispositivo electrónico capaz de convertir y procesar señales digitales de

audio, que sea capaz de recibir comandos de usuario para ejecutar diferentes procesos.

Estas señales serán provenientes de fuentes de sonido que generan señales eléctricas

analógicas. Las fuentes sonoras podrán ser provenientes de micrófonos, guitarras

eléctricas, reproductores de audio CD, AUDIO-DVD, Mp3, consolas de sonido, placas de

sonido de computadoras, etc. Estas señales analógicas deben ser convertidas a señales

digitales y procesadas según los efectos de sonido envolvente que quiera producir el

usuario. El usuario podrá elegir el efecto dentro de un abanico de posibilidades diseñadas,

una vez procesada la señal digital, se deberá convertir esta señal nuevamente a señal

analógica para que esta pueda ser amplificada y reproducida por los transductores

electroacústicas (parlantes), este proceso formara parte de la primera etapa o “Bloque 1”.

Este bloque se implementara con un DSP. Página 57

Page 60: Proyecto Integrador Mayo 2012

Ing. Ramiro Javier Podetti e-mail: [email protected]

Proyecto integrador Consola de audio digital para efectos de sonido 3D controlada vía Ethernet

Los distintos efectos a reproducir por la consola deberán ser seleccionados a través de una

página web que se alojara en un servidor web y será accesible desde ordenadores móviles

o portátiles. Ambos servidor y dispositivo portátil utilizarán el protocolo de red Ethernet,

el servidor se encontrará alojado dentro de la consola de audio digital. Este servidor web

conformará la segunda etapa o “Bloque 2” y se implementara con un microcontrolador

que contenga módulos embebidos con capacidades Ethernet. Específicamente el

microcontrolador nos permita implementar el “protocolo de transferencia de híper texto”

conocido por sus siglas en inglés HTTP [14.a].

Por otro lado es necesario que el servidor web tenga una interfaz de comunicación con la

consola de audio a los fines de poder hacer de puente entre estas dos tecnologías. Esta

interfaz deberá ser el puente que posibilite informar los comandos respectivos

seleccionados por el usuario al procesador de señales (DSP). El DSP será el encargado de

aplicar los algoritmos de programación establecidos para tal selección. La Interfaz entre

“Bloque 1” y Bloque 2” conforma el “Bloque 3”.

Bloque 1: Se implementará con un DSP y sus características principales deben ser:

• Conversor de señales analógicas a señales digitales (Conversor A/D)

• Procesador de señales digitales

Conversor de señales digitales a analógicas (Conversor D/A)

Bloque 2: Se implementará con un microcontrolador que nos permita programar

servicios web y los ítems principales a desarrollar serán:

• Servidor Web

• Pagina de Control web

• Cliente Web

Bloque 3: Se debe desarrollar una interfaz específica para la necesidad de interconexión

entre los bloques 1 y 2.

A continuación en la figura 28, se presenta el diagrama de bloques esquemático de la

solución a implementar. Página 58

Page 61: Proyecto Integrador Mayo 2012

Ing. Ramiro Javier Podetti e-mail: [email protected]

Proyecto integrador

eConsola de audio digital para efectos de sonido 3D controlada vía Ethernet

Figura 28. Diagrama de bloques esquemático de la solución a implementar

Página 59

Page 62: Proyecto Integrador Mayo 2012

Ing. Ramiro Javier Podetti e-mail: [email protected]

Proyecto integrador Consola de audio digital para efectos de sonido 3D controlada vía Ethernet

4.3. Hardware

Se presentara en esta sección el hardware que se eligió para los respectivos bloques,

siguiendo el esquema planteado en la propuesta de solución en la sección anterior. Se

dividirá esta sección en 3 partes para seguir la correspondencia del planteamiento

anterior sobre la solución por bloques y sus interacciones.

4.3.1. Bloque 1 o DSP

Se seleccionó para este Bloque, el Kit de la empresa Freescale “Symphony SoundBite”

representado en la figura 29, la selección del mismo está basado en sus características

técnicas que serán presentadas en las sub-secciones 4.3.1. Estas características resuelven

por completo las necesidades del Bloque 1 y son presentadas en tres grupos.

• Características Generales Freescale Symphony SoundBite

• Características de Conversión A/D, D/A

• Características del Procesador Digital de Señales (DSP)

Figura 29. Kit Freescale Symphony SoundBite.

4.3.1.1. Características Generales Freescale Symphony

Es un kit basado en el DSP56371 que utiliza un núcleo heredado de la conocida familia

56300 de Motorola, la cual originalmente estaba orientada al área de las comunicaciones.

Esta versión posee una arquitectura de datos de 24 bits con periféricos orientados

específicamente al procesamiento de audio. Entre ellos se pueden nombrar los módulo

Page 63: Proyecto Integrador Mayo 2012

Ing. Ramiro Javier Podetti e-mail: [email protected]

Proyecto integrador

eConsola de audio digital para efectos de sonido 3D controlada vía Ethernet

ESAI (Interfaz serie de audio), DAX (Transmisor de audio digital) y EFCOP (Coprocesador de

filtros). Todo esto, sumado a las prestaciones de un DSP de 24 bits, lo hace una opción

emuy recomendable para tareas de procesamiento de audio digital. Este kit es capaz de

procesar 8 entradas de audio independientes agrupadas en cuatro fichas estéreo: J1, J3, J5

y J7 (cada ficha estéreo agrupa dos canales, uno para la señal izquierda y otro para la señal

nderecha). Para la conversión analógica-digital y digital-analógica se utilizan 4 circuitos

integrados (códec) equipados con conversores de 24 bits de resolución y una capacidad de

muestrear señales analógicas a una frecuencia de hasta 192KHz. Cada códec es capaz de

utrabajar con dos canales de audio individuales, lo que equivale a un canal estéreo. El audio

procesado se puede obtener en cualquiera de las 4 salidas estéreo: J2, J4, J6 y J8. El kit

eposee un preamplificador de micrófono que también se encuentra montado. El kit se

puede observar en la figura 30.

Figura 30. Kit Symphony SoundBite [15]

Page 64: Proyecto Integrador Mayo 2012

Ing. Ramiro Javier Podetti e-mail: [email protected]

Página 61

Page 65: Proyecto Integrador Mayo 2012

Ing. Ramiro Javier Podetti e-mail: [email protected]

Proyecto integrador Consola de audio digital para efectos de sonido 3D controlada vía Ethernet

4.3.1.1.1. Fuente de alimentación

El kit Symphony SoundBite puede ser alimentada de dos formas, las mismas son

seleccionadas a través del jumper número 3 (ver figura 30, Power Select) estas dos formas de

alimentación son:

1- Puerto USB, por esta fuente se puede degradar el rendimiento de audio

debido a que:

a- La tensión de suministro al códec AK4584 no puede estar por bajo del

límite mínimo especificado de 4,75V, esto puede suceder debido a

caídas de tensión en los cables USB y en la alimentación del puerto. b- El

ruido del puerto USB se puede transmitir a través del códec AK4584,

ya que no hay regulador en la línea de alimentación para aislar y filtrar

el ruido.

2- Alimentación Externa, La alimentación externa debe estar en el intervalo de 6-

8 VAC o 8-10 VCC. El conector denominado en la figura 30 como PWR_JACK de 2.1mm, es el

ingreso para alimentación externa, la polaridad en el PWR_JACK no es importante debido a

la presencia del puente rectificador integrado G1 [16].

La fuente de alimentación seleccionada para nuestro prototipo en el Kit Symphony, es

alimentación externa tipo fuente conmutada, propiedad de la empresa JD Audio,

modelo: 9010, con conector 5.5 * 2.1mm cuyas características de salida son, 9 VCC y

1000mA.

4.3.1.1.2. Conector de Expansión (CON1)

El kit Symphony posee un conector de expansión, CON1, ver figura 30, se proporciona

para permitir la expansión fuera de la placa. Proporciona, el suministro de 5V y 3,3 V así

como todas las líneas para entradas salidas de los puertos de propósito general o GPIO.

En nuestro prototipo se usa el conector de expansión CON1 para conectar las líneas GPIO con

los puertos de propósito general del micro MCF52259 y de esta forma implementar la

interfaz que dará solución al bloque3 planteado en la sección 4.2.

Página 62

Page 66: Proyecto Integrador Mayo 2012

Ing. Ramiro Javier Podetti e-mail: [email protected]

Proyecto integrador Consola de audio digital para efectos de sonido 3D controlada vía Ethernet

4.3.1.2. Características de Conversión A/D, D/A

Los códecs integrados en el kit y utilizados en este trabajo son AKM AK4556 y AKM

AK4584 [15], ambos contienen en una sola pastilla de silicio los siguientes elementos:

• Dos conversores A/D de 24 bits (uno para cada canal de la señal estéreo)

• Filtros anti-aliasing y reconstructivos de capacitores conmutados. Su frecuencia de

corte se ajusta automáticamente a la frecuencia de muestreo utilizada.

• Interfaz para transferir datos desde y hacia el DSP

• Dos conversores D/A de 24 bits (uno para cada canal de la señal estéreo)

4.3.1.2.1. AKM AK4556

En total se utilizan 3 de estos integrados. Cada uno integra dos conversores A/D de 24 bits

para digitalizar la señal de audio estéreo (canal R y canal L) y dos conversores D/A para

realizar el proceso inverso. Los filtros anti-aliasing y reconstructivos se implementan

utilizando la tecnología de capacitores conmutados o sus siglas en inglés SCF, los cuales

proveen gran atenuación en la banda rechazada con la ventaja de ocupar una muy

pequeña superficie en el silicio.

4.3.1.2.2. AKM AK4584

Es similar al AK4556 con el agregado de la posibilidad de adquirir una señal digital óptica.

Este tiene importancia destacada en el funcionamiento de Symphony ya que funciona

como maestro, marcando el tiempo de sincronización a los restantes códecs AK4556 y el

DSP, para sincronizar las transferencias de audio analógico a audio digital y viceversa.

A continuación en las figuras 31 y 32 se muestran las estructuras internas de estos

integrados. Página 63

Page 67: Proyecto Integrador Mayo 2012

Ing. Ramiro Javier Podetti e-mail: [email protected]

Proyecto integrador Consola de audio digital para efectos de sonido 3D controlada vía Ethernet

Figura 31. Estructura interna del códec AK4556 (Códec AK4556 hoja de datos)

Figura 32. Estructura interna del códec AK4584 (Códec AK4584 hoja de datos)

Página 64

Page 68: Proyecto Integrador Mayo 2012

Ing. Ramiro Javier Podetti e-mail: [email protected]

Proyecto integrador Consola de audio digital para efectos de sonido 3D controlada vía Ethernet

4.3.1.3. Características del Procesador Digital de Señales DSP56371

Este integrado fue diseñado para aplicaciones de efectos de audio, reproductores DVD,

receptores de audio / vídeo, receptores de radios y amplificadores de coches, mini

sistemas de auriculares virtuales, sistemas de altavoces virtual, TV.

En la figura 33 mostramos el diagrama de bloques del integrado DSP56371.

Figura 33. Características Técnicas del chip DSP56317 Página 65

Page 69: Proyecto Integrador Mayo 2012

Ing. Ramiro Javier Podetti e-mail: [email protected]

Proyecto integrador Consola de audio digital para efectos de sonido 3D controlada vía Ethernet

4.3.1.3.1. Módulo Core

Características: • Alta -Performance 24-bit, familia de DSP56300

• Alto rendimiento 150.000.000 o 180.000.000 instrucciones por segundo (MIPS)

utilizando un reloj interno de 150 o 180 MHz en 1.25V.

• Compatibilidad de código con el core DSP56000.

• Set de Instrucciones paralelas.

• Datos de unidad lógica aritmética (ALU), con 24 x 24-bit multiplicador acumulador

y registros de operación de 56-bit.

• Seis canales de controlador DMA.

• Programa de control de posición independiente código de soporte y apoyo caché

de instrucciones.

• Muy bajo consumo de energía, diseño full CMOS.

• Modos de parada y espera, modos de bajo consumo en espera.

Beneficios:

• Diseñado para proporcionar un alto rendimiento necesario para muchas

aplicaciones de audio.

• Permite una fácil migración desde Dispositivos de la familia DSP56000.

• Mejora el rendimiento al permitir que múltiples instrucciones puedan ser

ejecutadas en un solo ciclo de reloj.

• Permite la aplicación de doble precisión (48-bit) para las operaciones aritméticas.

• Permite un movimiento independiente de los datos desde el núcleo.

• Flexibilidad en el desarrollo de código.

Funcionamiento del pipeline

Su estructura interna de 24 bits en punto fijo, en conjunto con una estructura de pipeline

de 7 etapas que le permite ejecutar la mayoría de las instrucción en un solo ciclo de reloj,

hacen de este chip una de las características más importantes. El pipeline es una

arquitectura muy utilizada en microprocesadores y consiste en ir ejecutando

simultáneamente las diferentes etapas requeridas para una instrucción completa.

Para diferentes instrucciones estos pasos se van ejecutando en forma paralela se puede

lograr que efectivamente cada instrucción se concluya en un solo ciclo de reloj, esto

sucede cuando hayan transcurrido 7 ciclos de reloj desde el arranque del DSP.

Page 70: Proyecto Integrador Mayo 2012

Ing. Ramiro Javier Podetti e-mail: [email protected]

Proyecto integrador Consola de audio digital para efectos de sonido 3D controlada vía Ethernet

Dentro del set de Instrucciones, las instrucciones que requieren de más de un ciclo son las

instrucciones de doble palabra, como muestra la instrucción n3 de la figura 34, estas son

instrucciones con un modo de direccionamiento que requiere más de un ciclo para

calcular la dirección. Un ejemplo de esto es la instrucción “jump” del lenguaje

ensamblador “jmp”. Este tipo de instrucciones, generan un cambio en la dirección del flujo

de programa, ya que todas las instrucciones que se cargaron en el pipeline deben ser

desechadas, limpiando el pipeline. La arquitectura Harvard, es la que le permite acceder

a cada memoria mediante buses independientes lo que aporta la ventaja de poder realizar

una operación matemática y dos movimientos de datos en memoria simultáneamente.

Esto se conoce como ejecución paralela de instrucciones. La unidad MAC es la que

permite realizar la operación de multiplicación acumulación en un solo ciclo de reloj.

Figura 34. Estructura Pipeline, operaciones, ciclos por instrucción

4.3.1.3.2. Módulo Interfaz para depuración de la programación

Características:

• Dirección interna de seguimiento y apoyo del software, mediante el chip de

emulación (ONCE)

• Puerto JTAG

Beneficios:

• Permite el desarrollo de software en tiempo real. Página 67

Page 71: Proyecto Integrador Mayo 2012

Ing. Ramiro Javier Podetti e-mail: [email protected]

Proyecto integrador Consola de audio digital para efectos de sonido 3D controlada vía Ethernet

• Descarga el software para el chip en la RAM.

• Permite correr el software y la depuración con el total de velocidad de operación.

• Brinda la capacidad de puntos de interrupción y la capacidad de modificar el

software, registros de memoria y los periféricos, todo accesible al usuario.

4.3.1.3.3. Módulo de Memoria

Características:

El chip DSP56731 permite configurar distintas particiones de la memoria RAM.

• 16K-48K x 24-bits de Y-RAM datos, 32K x 24-bits de datos Y-ROM

• 28K-36K x 24 bits de X-RAM datos, 32K x 24-bits de datos X-ROM

• 4K-44K x 24-bit RAM de programa

• 64 K x 24-bit de arranque del programa y ROM

Beneficios:

• Proporciona la flexibilidad al usuario a la hora de particionar la memoria según el

diseño de programa para la aplicación.

4.3.1.3.4. Módulo Interfaz serie mejorada de audio (ESAI)

Características:

• Dos líneas dedicadas a Transmisión y 4 seleccionables Transmisión/Recepción de

señales.

• Puede ser configurado como maestro o esclavo

• Compatible con muchos protocolos programables, como I2S, Sony, AC97, red.

Beneficios:

• Códecs con conexión al estándar de la industria (I2S, AC97)

• Multiplexado por Hardware (multiplexado por división de tiempo por sus siglas en

inglés TDM)

La interfaz de audio serial mejorada por sus siglas en inglés “ESAI” es una integración de

las múltiples capacidades que poseen tanto la interfaz serial sincrónica “ESSI” común a

muchos de los procesadores de la familia DSP56300, y la interfaz de audio serial “SAI”

diseñada específicamente para aplicaciones de audio profesional. En las primeras familias

de procesadores Motorola Symphony ya se hace presente esta interfaz. Los módulos ESAI

proveen una interfaz simple para vincular conversores A/D y D/A, códec, entre otros, con

Page 72: Proyecto Integrador Mayo 2012

Ing. Ramiro Javier Podetti e-mail: [email protected]

Proyecto integrador Consola de audio digital para efectos de sonido 3D controlada vía Ethernet

un DSP dando la posibilidad de utilizar diferentes protocolos de comunicación. El

DSP56371 posee 2 módulos ESAI denominados “ESAI” y “ESAI_1”. Cada uno tiene 2

receptores y 4 receptores/transmisores que se configuran de una manera u otra según las

necesidades. Ambos módulos se programan para trabajar con el protocolo I2S, con la

particularidad de que el módulo “ESAI” completo funciona como receptor únicamente

utiliza cuatro de sus 6 receptores, por lo tanto se encarga de recibir las muestras

digitalizadas por los códecs, mientras que el módulo “ESAI_1” se configura como

transmisor ocupando los 4 transmisores disponibles, por lo que se encargará de enviar las

muestras a los conversores D/A de los códecs.

El diagrama de tiempos de la figura 35 muestra el comportamiento en el tiempo de las

líneas utilizadas en ambos módulos. El slot 0 contiene la muestra del canal izquierdo, el

slot 1 transporta la muestra del canal derecho. Es así como cada par de slots transmite dos

muestras de audio, conformando una señal de audio estéreo.

Figura 35. Comportamiento en el tiempo de los módulos ESAI

Protocolo I2S (Inter-IC Sound Format)

El protocolo I2S fue especialmente desarrollado por Philips para ser utilizado en dispositivos de

audio digital. Un bus I2S consiste de 3 líneas:

Página 69

Page 73: Proyecto Integrador Mayo 2012

Ing. Ramiro Javier Podetti e-mail: [email protected]

Proyecto integrador Consola de audio digital para efectos de sonido 3D controlada vía Ethernet

• Una línea de datos, los cuales son transferidos utilizando multiplexado por división de

tiempo (TDM). Primero se transmite el canal izquierdo y luego el canal derecho (Figura 34).

• Una línea de selección de palabra (FST: Frame sync transmitter, FSR: Frame sync

receiver)

• Una línea de reloj (SCKR: Serial clock receiver, SCKT: Serial clock transmitter)

Los datos son transmitidos en complemento a 2, comenzando desde el bit más significativo ya

que los dispositivos acoplados pueden soportar diferentes longitudes de palabra. Si por

ejemplo el receptor soporta una longitud de palabra de 24 bits y el transmisor solamente 16 bits,

entonces el dato transmitido se trunca y rellena con ceros. Los datos son detectados en el flanco

ascendente del reloj. La línea de selección de palabra indica qué canal se está

transmitiendo y su duración es de 32 ciclos de reloj. El MSB siempre es transmitido un ciclo de

reloj más tarde que la transición de la línea de selección de palabra.

Figura 36 Estructura del protocolo I2S [17]

El dispositivo maestro es, en la Symphony un solo dispositivo que se encarga de generar los

relojes de sincronismo y todos utilizan el protocolo I2S para la transmisión de datos. Todos

los otros dispositivos acoplados funcionan como esclavo. El dispositivo maestro en este

trabajo es el códecs AK4584, mientras que todos los demás (DSP y códecs AK4556) funcionan

como esclavos.

Page 74: Proyecto Integrador Mayo 2012

Ing. Ramiro Javier Podetti e-mail: [email protected]

Proyecto integrador Consola de audio digital para efectos de sonido 3D controlada vía Ethernet

4.3.1.3.5. Módulo de propósito general de entrada y salida (GPIO)

Características:

• Cada uno de los pines de este puerto pueden ser programados como, entrada o

salida, para lectura o escritura respectivamente.

• Este integrado presenta 47 pines que corresponden a los distintos puertos GPIO.

Beneficios:

Los pines de los distintos puertos GPIO que no tienen un uso específico por las

transmisiones de audio u otras funciones en el hardware de la Symphony, pueden ser

utilizados para una variedad de funciones por ejemplo en nuestra aplicación

implementaremos a través de estos puertos GPIO, la interfaz MCF52259-DSP56371 de

comunicación.

4.3.2. Selección Bloque 2 o Microcontrolador

La premisa para resolver la selección de este bloque es el control, ya que se determinará

el hardware que va a permitir introducir las decisiones o comandos del usuario, estos

datos deben ser trasmitidos al Bloque 1 o Kit Symphony, para que pueda tomar las

acciones correspondientes a las decisiones del usuario. Proponemos para ello un esquema

con un Servidor Web, que proporcione a través de los protocolos de híper texto o por sus

siglas en inglés HTTP (Hyper text Transfer Protocol), la posibilidad de ingresar las

decisiones de usuario por una página web, programada para tal fin.

El Hardware que se adapta a nuestras necesidades es el Kit TWR-MCF52259, es una

herramienta de desarrollo de bajo costo para el microcontrolador MCF52259 Ethernet.

Este kit es parte del Sistema de Freescale Tower, una plataforma modular, reconfigurable

de desarrollo que permite a los diseñadores llegar al mercado más rápido con placas de

evaluación, herramientas y software en tiempos cortos. El kit integra un paquete de

soluciones de software llamado Freescale MQX con librerías y herramientas para

implementar nuestro servidor HTTP. Estas librerías y herramientas serán detalladas en la

sección 5.3. “Programación del TWR-MCF52259”.

Este Kit TWR-MCF52259 consta de tres módulos principales, a continuación se muestra en

la figura 37 el Kit completo Tower.

Página 71

Page 75: Proyecto Integrador Mayo 2012

Ing. Ramiro Javier Podetti e-mail: [email protected]

Proyecto integrador Consola de audio digital para efectos de sonido 3D controlada vía Ethernet

Módulo microcontrolador MCF52259

Modulo TWR-ELEV

Modulo TWR-SER

Figura 37. Kit Tower MCF 52259

4.3.2.1. Características del Módulo microcontrolador MCF52259

Este módulo está diseñado para ser una herramienta de depuración independiente. La familia de microcontroladores de 32 bits MCF5225x, constan de dispositivos altamente integrados dentro del mismo, como lo son dispositivos USB, Ethernet, CAN y funciones de encriptación. Además nos ofrece el software compatible de Freescale ™ MQX RTOS, que es en su conjunto un Sistema Operativo en Tiempo Real, que nos permite manejar a cada módulo embebido dentro del integrado a través de sus drivers correspondiente y funciones asociadas. El conjunto de librerías que conforman el sistema operativo Freescale ™ MQX RTOS, nos facilitan la tarea de programar a bajo nivel, y la tarea se transforma en hacer uso de las funciones que nos proveen los drivers correspondientes.

El módulo incorpora:

• Núcleo ColdFire V2 con una velocidad de 80 MHz

• Compatible con la solución de software Freescale MQX ™

• Conectividad: USB 2.0 de alta velocidad Host / Device

• Controlador de FlexCAN,

• Controlador Ethernet 10/100 MB

• Externo Mini-Flex Bus Página 72

Page 76: Proyecto Integrador Mayo 2012

Ing. Ramiro Javier Podetti e-mail: [email protected]

Proyecto integrador

eConsola de audio digital para efectos de sonido 3D controlada vía Ethernet

• La unidad de aceleración criptográfica

• a512 KB de memoria flash

• 64 KB de SRAM

• 96 Pines I/0

DFigura 38. Diagrama en Bloques de la familia MCF5225x [18]

4.3.2.2. Características del Módulo TWR-SER

El módulo TWR-SER ofrece varias formas de comunicación como lo son puertos USB, mEthernet, también permite implementar soluciones de transmisión serie a través de los mprotocolos RS232/485. Este módulo periférico está diseñado para ser parte del sistema de

Torre de Freescale, se debe combinar con el módulo microcontrolador MCF52259 y el Módulo TWR-ELEV, todos ensamblados conforman el sistema de torre.

Página 73

Page 77: Proyecto Integrador Mayo 2012

Ing. Ramiro Javier Podetti e-mail: [email protected]

Proyecto integrador

eConsola de audio digital para efectos de sonido 3D controlada vía Ethernet

sSus características principales son:

• Módulo RS232 y RS485

• Módulo Ethernet

• Módulo CAN

• Módulo USB

Este módulo será utilizado como la interfaz Ethernet que proporcionara a nuestro servidor

web la capacidad de poder conectarse físicamente con ordenadores o dispositivos

aportátiles y puedan controlar la consola de audio. En nuestro proyecto integrador este

módulo será el equivalente a una placa de red Ethernet para un PC. A continuación se

cpuede observar la placa mencionada en la siguiente figura “módulo Freescale TWR-SER”.

Figura Módulo Freescale TWR-SER. Interfaz Ethernet del Servidor Web

4.3.2.3. Características del Módulo TWR-ELEV

El módulo TWR-ELEV conforma los dos pilares del Kit Tower, está conformado para

eensamblar el sistema de torre, será el encargado de unir el módulo del microcontrolador,

con el módulo periférico TWR-SER.

sSus características principales son:

Página 74

Page 78: Proyecto Integrador Mayo 2012

Ing. Ramiro Javier Podetti e-mail: [email protected]

Proyecto integrador Consola de audio digital para efectos de sonido 3D controlada vía Ethernet

• Soporta interfaces de comunicación externa

• Incluye un circuito de regulación de la potencia para alimentar vía USB el sistema

de la Torre.

• Cuatro conectores PCI Express

• Dos conectores de 80-pines en el exterior para apoyar la depuración o la expansión

de módulos LCD.

4.3.3. Bloque 3 o Interfaz de comunicación entre DSP y MCF52259

La Comunicación entre el DSP56371 y el MCF52259 se realizará a través de la interfaz de

comunicación denominada “Interfaz MCF52259-DSP56371” que será la encargada de

conectar el Bloque 1 con el Bloque 2 según la solución planteada en la sección 4.2.

En esta interfaz será el MCF52259 es el encargado de:

• Servir la pagina web para control de la consola de audio

• Conocer las decisiones del usuario a través de la lectura de la página web

• Informar al DSP para que este pueda realizar la acción correspondiente, para ello

es necesario enviar un paquete de datos al DSP, esto lo podrá hacer valiéndose de

la interfaz MCF52259-DSP56371.

A continuación presentamos en la sección siguiente la estructura de esa interfaz.

4.3.3.1. Estructura de la interfaz

La comunicación entre el DSP y el MCF52259, se basa en una interfaz compuesta por 12

líneas direccionales, conformadas por 8 líneas de datos y 4 líneas de señalización, ver

figura 39. Las mismas líneas serán implementadas a través de los puertos de propósito

general de entrada y/o salida por sus siglas en inglés GPIO (General Prupose Input/Ouput),

en ambos integrados. Los datos se transmitirán de forma asíncrona. Los mismos datos

serán recibidos por el DSP de acuerdo a los tiempos disponibles entre muestra y muestra

ingresada por los códecs de audio. La ventana temporal para recibir los datos por el DSP

estará enmarcada por la frecuencia de muestreo que comanda el códec AK4584 como se

vio en la sección 4.3.1.3.4. El DSP recibirá dos byte de datos, conformando una instrucción

completa del tamaño de 16 bits, de ahora en adelante el primer byte de dato será llamado

SoundByteA y el segundo byte será llamado SoundByteB, el contenido de cada byte de

datos se detalla en la sección 4.3.3.2.

Página 75

Page 79: Proyecto Integrador Mayo 2012

Ing. Ramiro Javier Podetti e-mail: [email protected]

Proyecto integrador

eConsola de audio digital para efectos de sonido 3D controlada vía Ethernet

Configuraremos el GPIO del MCF52259 de la siguiente manera:

r• Una línea de escritura para informa si hay datos disponibles, la llamaremos

Bandera 1.

a• Una línea de escritura para informar el tipo de dato a transmitir (SounByteA o

eSounByteB), la llamaremos Bandera 2.

u• Ocho líneas de escritura para pasar los datos al DSP, lo llamaremos Byte de dato.

• Una línea de lectura para leer la Bandera 3 que será comandada por el DSP.

• Una línea de lectura para leer la Bandera 4 que será comandada por el DSP.

Configuraremos el GPIO del DSP de la siguiente manera:

r• Una línea de escritura para informa si el byte de datos tipo SounByteA fue

orecibido, la llamaremos Bandera 3.

r• Una línea de escritura para informar si el byte de datos tipo SounByteB fue

orecibido, la llamaremos Bandera 4.

• Ocho líneas de lectura para tomar los datos del MCF52259, llamaremos Byte de

dato.

• Una línea de lectura para leer la Bandera 1, que será comandada por el MCF52259.

• Una línea de lectura para leer la Bandera 2, que será comandada por el MCF52259.

Si bien la interfaz está contemplada para transferencias de datos en forma

bidireccional, en este trabajo solamente se envían datos desde el MCF52259 hacia el DSP.

En la figura 39 se muestran las líneas de comunicación entre el DSP y el MCF52259.

aFigura 39. Líneas de comunicación entre el DSP y el MCF52259

Page 80: Proyecto Integrador Mayo 2012

Ing. Ramiro Javier Podetti e-mail: [email protected]

Page 81: Proyecto Integrador Mayo 2012

Ing. Ramiro Javier Podetti e-mail: [email protected]

Proyecto integrador Consola de audio digital para efectos de sonido 3D controlada vía Ethernet

CAPITULO 5 Programación del Sistema

5.1. Introducción

En este capítulo presentamos la lógica de programación correspondiente al prototipo

desarrollado, a continuación presentamos un plano general de programación y

herramientas de desarrollo para cada bloque de hardware del prototipo. Además en este

capítulo se comentara cada uno de los bloques independiente de programación y sus

interconexiones. Comentaremos las tecnologías empleadas para desarrollar la

programación de cada bloque. El código completo de programación de cada bloque se

adjunta en el Apéndice de este Informe.

5.1.1. Esquema general de la programación del Sistema

Se plantea un esquema general de programación del sistema a los fines de facilitar el

entendimiento. En el esquema se pueden observar bloques diferentes a programar

dependiendo del hardware asociado, también se presentan las herramientas de

desarrollo y lenguajes de programación utilizados para cada parte del prototipo. A

continuación en la figura 41, se muestra el esquema general de programación del

prototipo. Página 78

Page 82: Proyecto Integrador Mayo 2012

Ing. Ramiro Javier Podetti e-mail: [email protected]

Proyecto integrador

eConsola de audio digital para efectos de sonido 3D controlada vía Ethernet

mFigura 41. Esquema de programación del prototipo Consola de Audio 3D controlada via ethernet

5.1.2. Descripción por bloques del Esquema general

n• Bloque “Programacion DSP56371”

cPara lograr la programacion de este bloque, usaremos la plataforma de Hardware

Symphony SoundBite, la herramienta de desarrollo de programacion será Eclipse

eStudio Symphony 1.1, y lenguage de programacion es ensamblador.

Página 79

Page 83: Proyecto Integrador Mayo 2012

Ing. Ramiro Javier Podetti e-mail: [email protected]

Proyecto integrador Consola de audio digital para efectos de sonido 3D controlada vía Ethernet

• Bloque “Programación Servidor HTTP ”

Se utilizara la plataforma de hardware, TWR-MCF52259, la herramientas de desarrollo

será Code Warrior 7.1. y MQX 3.4, usando los complementos MQX RTOS Y RTCS.

Utilizaremos lenguaje C de programación. Debemos programa el servidor con sus

correspondientes bloques para responder al cliente. La aplicación cliente correrá en un

navegador web, y se describe en “Programación Página Web”.

• Bloque “Programacion Interfaz DSP56371 - MCF52259”

Este se divira en dos bloques cada uno referido a su correspondiente hardware.

� Bloque “Programacion Interfaz MCF52259 ”

Este bloque lo conforma una tarea independiente del sistema operativo

MQX RTOS, sera implementada en el mismo TWR-MCF52259 a traves del

sistema operativo RTOS MQX, esta tarea se programará con MQX 3.4 y

Code Warrior 7.1, usando lenguaje C de programacion.

� Bloque “Programacion Interfaz DSP56371”

Este bloque será una rutina del Bloque de “Programacion DSP56371”

• Bloque “ Programación Pagina Web ”

La programación de la página se lograra usando la tecnología AJAX. La página web

correrá en cualquier navegador web siendo este el cliente de nuestro servidor, la

pagina web incorporada en nuestro servidor, podrá ser accedida desde cualquier

ordenador portátil con una placa de red Ethernet y un navegador web corriendo sobre el

sistema operativo correspondiente al ordenador portátil.

5.2. Programación DSP56371

Los DSP utilizan un lenguaje de programación ensamblador, además admiten en general

ser programados en lenguaje de alto nivel como C, el cual resulta fácil de usar, documentar,

depurar y es independiente del hardware, con la desventaja de ser menos eficientes y más

lentos para su ejecución ya que no aprovecha todos los recursos específicos del DSP. El

lenguaje ensamblador es más eficiente, se ejecuta a mayor velocidad, requiere menos

memoria y aprovecha al máximo las prestaciones del DSP, aunque son más difíciles de

programar, leer, etc. La cantidad de ciclos de reloj para cada instrucción por lo general está

determinada para el lenguaje ensamblador en el set de instrucciones de los DSP, en el

DSP56371 podemos hacer uso de esta información para calcular el tiempo de cada rutina de

programación y tomar decisiones sobre la programación en tiempo real. En nuestro caso

Página 80

Page 84: Proyecto Integrador Mayo 2012

Ing. Ramiro Javier Podetti e-mail: [email protected]

Proyecto integrador

eConsola de audio digital para efectos de sonido 3D controlada vía Ethernet

particular la ventana temporal para poder trabajar sin pérdida de información estará dada

.por la frecuencia de muestreo.

oEn este trabajo se elige programar el DSP utilizando lenguaje ensamblador. El propósito

de esta decisión es aprovechar mejor los recursos disponibles. Para la programación se

mutiliza el entorno “Eclipse Symphony Studio” el cual ha sido desarrollado sobre plataforma

Java. Este software es parte de un paquete de programas Open Source gratuitos que se

pueden descargar en www.eclipse.org.

5.2.1. Diagramas de flujo

eEn la figura 42, se puede observar el diagrama de flujo de la programación del DSP56371.

nLas interrupciones que llaman a las diferentes rutinas de interrupción o RTI se muestran a

sen la figura 43, donde se observan los procesos de entrada y salida de muestras de audio

y las interrupciones generadas en cada proceso.

Figura 43. Interrupciones generadas en los procesos de entrada y salida

Página 81

Page 85: Proyecto Integrador Mayo 2012

Ing. Ramiro Javier Podetti e-mail: [email protected]

Proyecto integrador

eConsola de audio digital para efectos de sonido 3D controlada vía Ethernet

rDiagrama de flujo de la programación del DSP56371

rFigura 42. Diagrama de flujo de la programación del DSP56371 Página 82

Page 86: Proyecto Integrador Mayo 2012

Ing. Ramiro Javier Podetti e-mail: [email protected]

Proyecto integrador Consola de audio digital para efectos de sonido 3D controlada vía Ethernet

5.2.2. Asignación de Memoria

Figura 44. Asignación de Memoria en DSP56371. Programa P:,RAM X:,RAMY:

Página 83

Page 87: Proyecto Integrador Mayo 2012

Ing. Ramiro Javier Podetti e-mail: [email protected]

Proyecto integrador Consola de audio digital para efectos de sonido 3D controlada vía Ethernet

En la figura 44 observamos la asignación de memoria RAM X: RAM Y: y memoria de

programa P: para el DSP56371. Esta es la distribución de memoria usada en nuestra

programación y además se presentan las variables utilizadas.

5.2.3. Búferes Circulares

El proyecto presenta 5 búferes circulares, que a continuación describimos.

• Dos son para las muestras de entrada que se guardan en X:RAM e Y:RAM,

correspondientes a las muestras de cada canal estero, cuyo puntero es R0 ,

• Dos para las muestras de salidas que se guardan en X:RAM e Y:RAM,

correspondientes a las muestras de cada canal estero, cuyos punteros son

R2, R3, R4, R5.

• Uno para el stack de programa que es R7.

Cada búfer circular contiene los datos de la muestra en bloques de cuatro muestras. En la

configuración determinada, cada búfer contiene 3 bloques de 4 muestras. Cada bloque

ofrece dos muestras anteriores, además de la muestra actual de entrada de cada canal y

los datos de salida. Este tamaño de búfer permite fácilmente la aplicación de filtros de

segundo orden. El registro R0 se utiliza como puntero del bloque actual en el buffer de

entrada, como se indica en figura 44. Los cuatro punteros correspondientes a los

registros R2, R3, R4 y R5, son cada uno dedicado a una sola salida ESAI, que corresponde

a una salida única de cada códec como se muestra en la figura 44. Los registros

modificadores Nx, cada uno correspondiente a su puntero, están configurados para hacer

que los punteros salten automáticamente, creando así buffers circulares, donde el registro

Nx tiene el incremento correspondiente y Mx el final del búfer. Después de cada muestra,

los punteros se incrementan en un desplazamiento de 4 (con el correspondiente registro

de desplazamiento Nx) para que apunten al bloque siguiente dentro del búfer.

A continuación se podrá observar en la figura 45, los punteros a registro que guardan las

muestras de los códecs de entradas y salidas en la memoria. Además se presenta cada

códec con su correspondiente entrada o salida Jx, de la placa Symphony SoundBite,

observar que cada Jx se corresponde con su códec asociado.

Página 84

Page 88: Proyecto Integrador Mayo 2012

Ing. Ramiro Javier Podetti e-mail: [email protected]

Proyecto integrador

eConsola de audio digital para efectos de sonido 3D controlada vía Ethernet

sFigura 45. Punteros a registro que guardan las muestra de los códec entrada y salida

5.2.4. Archivos y Rutinas

El proyecto programado para correr en la Symphony Soundbite, se basa en 6 archivos de

programación principales en el lenguaje ensamblador. Estos archivos a su vez se dividen

en dos grupos. Un grupo representan la columna vertebral del procesamiento de audio de

ela Symphony Soundbite denominado “Archivos Principales” y un segundo grupo

denominado “Archivos de Comunicación con MCF52259” que integrarán la comunicación

bcon el TWR-MCF52259. También en el proyecto se encuentran archivos de librerías que

hacen más fácil la programación de los registros del DSP y que son usados por el

Página 85

Page 89: Proyecto Integrador Mayo 2012

Ing. Ramiro Javier Podetti e-mail: [email protected]

Proyecto integrador Consola de audio digital para efectos de sonido 3D controlada vía Ethernet

compilador. Lo antes dicho se puede observar en la figura 46.

A continuación presentaremos un breve resumen de cada archivo, y nos detenemos a

Figura 46. Archivos del Proyecto Consola de Audio 3D “POSISONICA” en IDE Eclipse

Symphony Studio.

Página 86

Page 90: Proyecto Integrador Mayo 2012

Ing. Ramiro Javier Podetti e-mail: [email protected]

Proyecto integrador Consola de audio digital para efectos de sonido 3D controlada vía Ethernet

5.2.4.1. Archivos Principales

Archivo “main.asm”

El archivo main.asm contiene el código de inicio para la aplicación, y el bucle principal de la

aplicación.

Las configuraciones iníciales de cada modulo del integrado DSP56371 ocurren en esta

parte del código, ejemplo velocidad de trabajo del PLL, se enmascaran las interrupciones,

inicio de módulos ESAI, se inician los registro del Core del DSP y los registros de cada

Códec, también se definen las funciones y variables globales.

El bucle principal contiene dos consultas, este bucle se repite eternamente y solamente

será interrumpido por las rutinas de interrupción que se dedican a muestrear las señales

analógicas (conversión A/D) y sacar las muestras procesadas (conversión D/A) , en las

rutinas de interrupciones correspondientes cambiaran los estados de las banderas

COMENZAR_PROCESAR y RECIBIR_CODIGO.

La bandera COMENZAR_PROCESAR, es manejada en la rutina de interrupción “esai_tx_isr”

esta es llamada cada vez que se terminan de transmitir las muestras procesadas, según la

frecuencia de muestreo programada a 96 KHZ esto ocurre aproximadamente cada 10

microsegundos.

La bandera RECIBIR_CODIGO, es manejada en la rutina de interrupción “esai_1_rx_even”

esta ocurre una vez que se recibieron todos las muestras para procesar desde los codecs y

ocurre en la misma frecuencia que la transmisión de datos hacia los codecs o sea cada 10

microsegundos, este es el tiempo para lograr el procesamiento de las muestras, antes

que ingrese la próxima.

Archivo “sb_codecs.asm”

El archivo contiene las subrutinas que permiten configurar un grupo de pines de

propósito general de entrada salida (GPIO) del DSP para que comanden el enlace de

comunicación serie entre el DSP y el AK4584 códec, el AK4584 es programado para llevar

la frecuencia de muestro en 96 KHz, este sincronizará las llamadas a interrumpir al DSP y

comandara los tres códec restantes para lograr un sincronismo en el hardware. Cada

códec maneja dos entradas y dos salidas, lo que nos permite que en la frecuencia de

muestro programada trabajemos con ocho entradas y ocho salidas cada una de las salidas

Página 87

Page 91: Proyecto Integrador Mayo 2012

Ing. Ramiro Javier Podetti e-mail: [email protected]

Proyecto integrador Consola de audio digital para efectos de sonido 3D controlada vía Ethernet

con una respuesta en frecuencia de 48 KHZ, alcanzando la calidad de respuesta en

frecuencia del formato AUDIO-DVD.

Archivo “posi_esai_interrup.asm”

El archivo sb_isr_esais.asm contiene las rutinas de servicio de interrupción ESAI and

ESAI_1 que reciben las señales de audio digital de entrada de los codecs y llenan los

búferes de entrada, además extraer los datos de audio de los búferes de salida para la

transmisión de los codecs.

Una vez enmascaradas las interrupciones de los módulos ESAI, las rutinas de servicio de

interrupción hacen todo el trabajo en lo que respecta a recibir, transmitir y llamar a

procesar el audio digital. El trabajo de llamar a procesamiento se realiza mediante la

bandera “COMENZAR_PROCESAMIENTO” dentro de la subrutina esai_tx_isr. La bandera es

interpretada en el bucle principal y se traduce en habilitar la llamada de la rutina

process_sample. Esto debe ser manejado cuidadosamente para asegurar que son

suficientes los MIPS disponible para que el DSP realice el procesamiento deseado dentro del

período de tiempo de una trama de datos. Si process_sample se retrasa demasiado

ocurrirá un rebasamiento de los búferes de entrada o salida.

Archivo “procces_sample.asm”

Este archivo es el encargado de procesar las muestras de audio de entrada según las

decisiones del usuario. En este archivo sucede el posicionamiento de la fuente de sonido

en el plano horizontal y vertical, además controlamos el volumen de cada una de las

entradas y el mute. Todos estos datos decididos por el usuario ya están ingresados en

variables globales por la rutina COMANDO en el archivo “comando.asm”. Dedicaremos la

sección 5.3 a los detalles del procesamiento de las muestras de audio digital.

5.2.4.2. Archivos de Comunicación con MCF52259

Archivo “driver_gpio.asm”

En este archivo se configura el puerto de propósito general de entrada salida GPIO, para

manejar 8 líneas de recepción de datos y 4 banderas que son los requerimientos de la

Página 88

Page 92: Proyecto Integrador Mayo 2012

Ing. Ramiro Javier Podetti e-mail: [email protected]

Proyecto integrador

eConsola de audio digital para efectos de sonido 3D controlada vía Ethernet

Interfaz MCF52259-DSP56371

Archivo “comando.asm”

cEste archivo contiene la lógica para el traspaso de datos del TWR-MCF52259 al DSP. Es

maquí donde se produce el manejo de las banderas y se colocan los tipos de datos a

transmitir por la interfaz. La lógica de la comunicación asíncrona de la interfaz se detalla

4más adelante. En la figura 47 se presenta la estructura de datos que espera recibir la

lrutina comando ubicada en el archivo comando.asm.

Figura 47. Tipos de datos esperados por la rutina comando en comandos.asm

En la rutina comando sucede lo siguiente:

o• Si el tipo de dato es SoundByteA (note que en esta instancia el DSP no sabe a qué

entrada corresponde el dato) salta a la rutina SOUNDBYTE_A y extrae la

información que contenga el dato. Esta información se guarda en variables

globales que serán tomadas luego por la rutina PROCESAR_AUDIO en el archivo

“procces_sample.asm”.

s• Si el tipo de dato es SoundByteB salta a la rutina SOUNDBYTE_B y extrae la

información que contenga el dato. Esta información se guarda en variables

globales que serán tomadas luego por la rutina PROCESAR_AUDIO en el archivo

“procces_sample.asm”.

d5.2.5. Procesamiento del Audio Digital

uEn la sección anterior se expuso un planteo general de la programación del DSP56317 que

epermite el funcionamiento de la consola de audio digital. En esta sección nos ocuparemos

Página 89

Page 93: Proyecto Integrador Mayo 2012

Ing. Ramiro Javier Podetti e-mail: [email protected]

Proyecto integrador

eConsola de audio digital para efectos de sonido 3D controlada vía Ethernet

exclusivamente de los procesos o algoritmos de programación que la consola de audio

tejecutara para lograr los efectos de sonido envolvente o 3D deseados por el usuario.

Los distintos comandos de usuario darán lugar a los siguientes procesos:

• Mezcla de Audio y Ruteos.

• Control de Volumen o Mute.

• Posicionamiento en el Plano Horizontal.

• Posicionamiento en el Plano Vertical

rTodos estos procesos ocurrirán según lo decidido por el usuario en la página web de

control, las decisiones del usuario ingresan al DSP a través de la Interfaz MCF52259-

DSP56371, estos datos como vimos en la sección anterior son recibidos y procesados en el

archivo “comando.asm”.

5.2.5.1. Mezcla de Audio de entrada.

eCuatro entradas puede ser seleccionadas en la página de control web, cada una de estas

óentradas corresponde a los códec J1, J3, J5 y J7 de la placa symphony soundbite, cada una

de estas entradas posee dos canales, cada canal correspondientes a los canales estero

izquierdo y derecho. En nuestro proyecto estos dos canales izquierdos y derecho de cada

entrada son controlados de igual manera en cuanto al volumen y posicionamiento virtual

de sonido. A la salida provocaran los dos canales los mismos efectos 3D. De esta manera

logramos manejar 8 entradas de audio y cuatro posicionamientos diferentes para cada

una de las entradas. Un ejemplo de ello se puede observar en la figura 48 que

dcorresponde a una selección del usuario en la página de control. Figura 48. Selección del Usuario en página web de control.

Página 90

Page 94: Proyecto Integrador Mayo 2012

Ing. Ramiro Javier Podetti e-mail: [email protected]

Proyecto integrador Consola de audio digital para efectos de sonido 3D controlada vía Ethernet

En este ejemplo de código la entrada uno correspondiente a J1 tendrá disponibles dos

canales de entrada para ser posicionados en el espacio 12 con altura media y volumen 9. Para

implementar este proceso es necesario sumar las entradas correspondientes a los

canales, izquierdo más derecho de la entrada J1. Debemos cuidar de no saturar la

ganancia, para ello la señal sumada es reducida en ganancia un medio de su valor.

A continuación presentamos una parte del código de la rutina Procesar_Audio en el

archivo proceses_sample.asm, donde se observa la suma de canales Izquierdo y derecho,

mas control de atenuación para entrada. ;*** * ;ENTRADA_UNO RAMIRO JAVIER PODETTI ;* ** * ; entrada uno

clr A ;se componen entrada J1 move X: IN_IZQ_J1,Y0 ; add Y0,A ; move X: IN_DER_J1,Y1 ; add Y1,A

;------------------------------------------- ;---- VOLUMEN DE ENTRADA 1 ----RAMIRO JAVIER PODETTI ;-------------------------------------------

VOLUMEN_J1 move A,X0 move Y: GAN_J1,Y0 mpy X0,Y0,A

Nota: La selección de la entrada es detectada por el DSP a través de la información

contenida en el dato tipo SoundBiteA.

5.2.5.2. Control de Volumen y Mute.

Ambos controles volumen y mute fueron implementados en las muestras de audio de

entrada. Los mismos controles a la salida serán comandadas automáticamente por los

algoritmos de posicionamiento.

Las variables globales GAN_J1, GAN_J3, GAN_J5, GAN_J7 toman su valor en la rutina

COMANDO del archivo comando.asm, los valores del volumen seleccionado son ingresado a

la rutina por el dato tipo SoundBiteB en el cual sus primeros cuatro bits bit [0-3]

representan la magnitud del volumen.

El comando de usuario Mute se refleja en la decisión del usuario a través de la tilde que se

observa en la página de control web (ver figura 48), que se sitúa sobre cada entrada

correspondiente (ver figura 48). La interfaz de control coloca esta información en el bit 2

del dato tipo SoundByteA (ver figura 47). Esta decisión de usuario es pasada a la variable

Page 95: Proyecto Integrador Mayo 2012

Ing. Ramiro Javier Podetti e-mail: [email protected]

Proyecto integrador Consola de audio digital para efectos de sonido 3D controlada vía Ethernet

global soundbyteA_X, esto sucede en el archivo comandos.asm, guardando el valor del

volumen=0, dentro de la variable global “GAN_J1” para la entrada 1. Este valor será

tomado en la rutina de procesamiento de audio, efectuando el control de ganancia =0

para la entrada correspondiente, como lo hace para el control de volumen.

A continuación se presenta un extracto del código del archivo comando.asm donde

representa lo antes dicho. ;*** ENTRADA_1_B ;*** *MUTE ***

move Y: soundbyteA_x,Y0 brset #2,Y0,VOL_1

entrada 1, GAN_J1 =0 move #$0000,Y0 move Y0,Y: GAN_J1 jmp RECIBIR_A

; CHECK BOX pagina web (ENTRADA 1 ) ;pregunto si el bit 2 es cero apago

; fin rutina comando ENTRADA UNO APAGADA ;***

5.2.5.3. Control de Posicionamiento Horizontal

Esto se logra a través del control de ganancia para cada una de las salidas

correspondientes al sistema de sonido Cuadrafónico, para ello es necesario enumerar las

salidas de la consola correspondiente a cada transductor y enumerar el lugar

correspondiente a la posición horizontal del sonido que se pretende simular. Se presenta

en la Tabla 1, un esquema guía para introducirnos en la programación, en el cual se puede

observar, el spot de audición en este caso área de audición y la ubicación de los 4

transductores. El área de audición estará delimitada de acuerdo a la potencia de los

amplificadores de audio utilizados, estos conceptos serán ampliados en el capítulo 6,

ahora lo importante es concentrarnos en la programación. Para ello presentamos la tabla

1 que representa las distintas ubicaciones espaciales en una sala de audición y la posición de

los transductores o parlante del sistema de sonido cuadrafónico.

La posición en el plano horizontal donde se pretende escuchar la fuente de sonido será

seleccionada a través del control “Espacio” de pagina web, como se puede observar en la

Tabla 1, tenemos la posibilidad de elegir entre 25 posiciones diferentes dentro del área de

audición para cada una de las 4 entradas, esto se corresponde con las selecciones en la en

el campo espacio de la página web de control, como se observa en la figura 49.

Page 96: Proyecto Integrador Mayo 2012

Ing. Ramiro Javier Podetti e-mail: [email protected]

Página 92

Page 97: Proyecto Integrador Mayo 2012

Ing. Ramiro Javier Podetti e-mail: [email protected]

Proyecto integrador

eConsola de audio digital para efectos de sonido 3D controlada vía Ethernet

TABLA 1.

Sala de Audición

Tabla 1. Área de audición y la ubicación de los 4 transductores.

pVista del control espacio en página web, para control de posición.

Figura 49. Selección del espacio en el Plano horizontal para la entrada 2 en página web de control.

Página 93

Page 98: Proyecto Integrador Mayo 2012

Ing. Ramiro Javier Podetti e-mail: [email protected]

Proyecto integrador Consola de audio digital para efectos de sonido 3D controlada vía Ethernet

La implementación del código ocupa su lógica principal a saltar a la rutina correspondiente

de la posición elegida. Una vez detectada la posición se efectuara un salto a la rutina

correspondiente a la posición, donde se controlarán las ganancias de salida para cada

transductor según la tabla 2. Las muestras afectadas serán guardadas en variables

auxiliares de salidas correspondiente a cada entrada, esto se repite para cada una de las

entradas, al final se sumaran todas las variables auxiliares de salidas correspondiente

produciendo la mezcla final por cada canal (ver archivo “process_sample.asm”).

A continuación se presenta la tabla 2 con los porcentajes de ganancia que serán afectadas

las salidas finales de audio correspondientes a cada transductor según la posición

elegida.

Tabla 2. Porcentajes de control de ganancia para las salidas correspondientes a cada transductor

según posición seleccionada.

Página 94

Page 99: Proyecto Integrador Mayo 2012

Ing. Ramiro Javier Podetti e-mail: [email protected]

Proyecto integrador Consola de audio digital para efectos de sonido 3D controlada vía Ethernet

5.3. Programación del TWR-MCF52259

Para lograr el software de control de la consola de audio, se programó el Microcontrolador MCF52259 para que atienda dos procesos o tareas independientes, estas son:

• Programación de tareas y prioridades en MCF52259.

-Deberá programarse el microcontrolador MCF52259 para prestar servicios HTTP y poder ofrecer la pagina web de control a sus clientes. -Deberá programarse el microcontrolador para poder recibir el tipo de dato enviado por la página web.

• Programación Interfaz MCF52259 -DSP56371

Deberá acomodar los datos recibidos desde la pagina web de tal forma sean entendibles para el DSP y se enviarán a través de la interfaz MCF52259-DSP56371 en el formato requerido por la misma interfaz.

5.3.1. Herramientas de Programación

Para programar estas rutinas se usó un conjunto de herramientas de desarrollo compatibles con el TWR-MCF52259, este conjunto de herramientas de desarrollo de software está conformado por:

• Conjunto de soluciones Freescale MQXTM versión 3.4.

o MQX RTOS o MQX RTCS

• Entorno de desarrollo integrado “Code warrior 7.1.”

Para poder comprender la tecnología MQX presentamos en la figura 50, una imagen, propiedad de la empresa Freescale donde presenta el esquema de soluciones de software MQX. Para nuestra aplicación se utilizaron las librerías de software que componen los bloques MQX RTOS y el complemento MQX RTCS, además de las librerías BSP (board support package) y PSP (processor suport package) correspondiente al Tower Kit TWRMCF52259, estas dos últimas librerías permiten abstraerse del hardware utilizado y además proporcionan la portabilidad del software.

Página 95

Page 100: Proyecto Integrador Mayo 2012

Ing. Ramiro Javier Podetti e-mail: [email protected]

Proyecto integrador

eConsola de audio digital para efectos de sonido 3D controlada vía Ethernet

Figura 50. Soluciones de software Freescale MQXTM

5.3.1.1. MQX 3.4 y Code Warrior 7.1

Con el conjunto de soluciones “MQX, versión 3.4” que utilizamos en este proyecto se

logra una estrecha integración con el entorno de desarrollo integrado o IDE (por sus sigla

en inglés (integrated development environment) “Code Warrior Studio, versión 7.1 “ este

uprograma informático compuesto por un conjunto de herramientas de programación,

nos permite utilizar el lenguaje C de programación para lograr la programación del

MCF52259. El Code Warrior 7.1 nos permitió importar las librerías MQX RTOS (Real Time

Page 101: Proyecto Integrador Mayo 2012

Ing. Ramiro Javier Podetti e-mail: [email protected]

Proyecto integrador Consola de audio digital para efectos de sonido 3D controlada vía Ethernet

Operative Software) y las librerías RTCS (Real time communication suite sockets) que

dieron solución a la programación de las tareas y periféricos Ethernet respectivamente, el

conjunto de esta batería de software de desarrollo permitieron realizar el control vía

Ethernet de la consola de audio digital.

En la figura 51 presentamos una vista del entorno Code Warrior 7.1, con una vista

ampliada de las carpetas contenedoras donde se ubican las librerías MQX, importadas

para nuestro proyecto.

Figura 51. Entorno de desarrollo integrado Code Warrior con librerías MQX

5.3.1.2. MQX RTOS

Este bloque está conformado por un conjunto de librerías que dan origen al sistema operativo en tiempo real o por sus siglas en inglés RTOS (Real Time Operative Sistem)

Página 97

Page 102: Proyecto Integrador Mayo 2012

Ing. Ramiro Javier Podetti e-mail: [email protected]

Proyecto integrador Consola de audio digital para efectos de sonido 3D controlada vía Ethernet

MQX RTOS se utilizo para la configuración y programación del Modulo MCF52259, las principales características de este sistema son:

• Trabajo en Multitarea

• Asignación de prioridades a cada una de la tareas

• Sincronización y asignación de recursos para cada tareas

• Comunicación entre tareas

• Planificación Round-Robin, Permite dar un tiempo de ejecución a cada tarea y cuando este tiempo se termina , automáticamente pasa a la siguiente tarea, según asignación de prioridad programada

• Manejo de Interrupciones

• Permite centrarse en la lógica de diseño de aplicaciones, en lugar del manejo de periféricos y asignaciones de memoria para los mismos.

• Permite reutilizar aplicaciones de procesadores o periféricos diferentes compatibles.

• Integra a la perfección el “Middleware” TCP/IP, USB, BSPs (I/O drivers), MFS, etc.

El “Middleware” es un software informático que proporciona servicios a las aplicaciones de software, más allá de los disponibles en el sistema operativo. El middleware en el los RTOS hace más fácil, para los desarrolladores de software llevar a cabo la comunicación de entrada y/o salida de periféricos, y permite centrarse en el objetivo específico de la aplicación.

5.3.1.3. MQX RTCS

Es un conjunto de librerías de software llamado Complemento de Comunicaciones de Tiempo Real por sus siglas en ingles RTCS (Real time communication suite sockets), estas librerías nos permite crear nuestra aplicación sin preocuparnos por la programación de diferentes periféricos de comunicación como lo son RS232, USB, o Ethernte, en nuestro proyecto usaremos los paquetes dedicados a el manejo de Ethernet y haremos uso de los protocolos IPCFG, HTTP, para armar nuestro servidor web. La figura 52 presenta un esquema del complemento MQX RTCS.

Página 98

Page 103: Proyecto Integrador Mayo 2012

Ing. Ramiro Javier Podetti e-mail: [email protected]

Proyecto integrador

eConsola de audio digital para efectos de sonido 3D controlada vía Ethernet

Figura 52. Esquema MQX RTCS [19]

sA continuación presentamos en la figura 53 los protocolos disponibles a través del .paquete Freescale MQX RTCS.

Figura 53. Los protocolos disponibles a través del paquete Freescale MQX RTCS. P

Page 104: Proyecto Integrador Mayo 2012

Ing. Ramiro Javier Podetti e-mail: [email protected]

Proyecto integrador Consola de audio digital para efectos de sonido 3D controlada vía Ethernet

5.3.1.4. AJAX

Es importante hacer un breve repaso de Ajax, este fue la clave que nos permitió

implementar el control remoto de nuestra consola de audio a través del servidor web

sobre el microcontrolador MCF52259. Esto se debe a que, Ajax nos permite utilizar

menos recursos del servidor que en sitios web tradicionales.

Ajax [20] no constituye una tecnología en sí, sino que es un término que engloba a un

grupo de éstas que trabajan conjuntamente. A pesar de que el término «Ajax» fue creado en

2005 por Jesse James Garrett, la historia de las tecnologías que permiten Ajax se

remonta a una década antes.

Ajax, acrónimo por sus siglas en ingles de Asynchronous JavaScript And XML (JavaScript

asíncrono y XML), es una técnica de desarrollo web para crear aplicaciones interactivas o

por sus siglas en inglés RIA (Rich Internet Applications). Estas aplicaciones se ejecutan en

el cliente, es decir, en el navegador de los usuarios mientras se mantiene la comunicación

asíncrona con el servidor en segundo plano. De esta forma es posible realizar cambios

sobre las páginas sin necesidad de recargarlas, lo que significa aumentar la interactividad,

velocidad y usabilidad en las aplicaciones. Un buen ejemplo de Ajax es “Google Maps”, al

usar el cursor para agarrar el mapa y navegarlo o hacer un zoom de algún área, se podrá

observar que todo sucede casi instantáneamente, sin esperar que la página se vuelva a

recargar.

5.3.1.2.1. Tecnologías incluidas en Ajax

Ajax es una combinación de cuatro tecnologías existentes:

• XHTML (o HTML) y hojas de estilos en cascada (CSS)

• Document Object Model (DOM) accedido con un lenguaje de scripting por parte

del usuario, especialmente implementaciones ECMAScript como JavaScript y

JScript, para mostrar e interactuar dinámicamente con la información presentada.

• El objeto XMLHttpRequest para intercambiar datos de forma asíncrona con el

servidor web.

• XML es el formato usado generalmente para la transferencia de datos solicitados al

servidor, aunque cualquier formato puede funcionar, incluyendo HTML pre

formateado, texto plano, etc.

Página 100

Page 105: Proyecto Integrador Mayo 2012

Ing. Ramiro Javier Podetti e-mail: [email protected]

Proyecto integrador

eConsola de audio digital para efectos de sonido 3D controlada vía Ethernet

5.3.1.2.1. Patrón de interacción asincrónonico

Ajax es una tecnología asíncrona, en el sentido de que los datos adicionales se solicitan al

servidor y se cargan en segundo plano sin interferir con la visualización ni el

comportamiento de la página. JavaScript del inglés scripting language, es el lenguaje

interpretado en el que normalmente se efectúan las funciones de llamada de Ajax

mientras que el acceso a los datos se realiza mediante XMLHttpRequest, objeto disponible

en los navegadores actuales. En cualquier caso, no es necesario que el contenido

easíncrono esté formateado en XML. En la figura 54, propiedad de Jesse James Garrett,

empresa “adaptivepath.com”, se muestra el patrón de interacción sincrónica de una

aplicación Web tradicional (arriba) en comparación con el patrón asincrónico de una

aplicación AJAX (abajo).

Figura 53: El patrón de interacción sincrónica de una aplicación Web tradicional (arriba) en

ccomparación con el patrón asincrónico de una aplicación AJAX (abajo). [21]

Página 101

Page 106: Proyecto Integrador Mayo 2012

Ing. Ramiro Javier Podetti e-mail: [email protected]

Proyecto integrador Consola de audio digital para efectos de sonido 3D controlada vía Ethernet

5.3.1.2.3. Inconvenientes de Ajax

• Las páginas con AJAX son más difíciles de desarrollar que las páginas estáticas.

• No se debe desarrollar todo el sitio en AJAX, sólo se deben usar las peticiones

necesarias en Ajax. Con esto garantizamos menos recursos del servidor que en

sitios web tradicionales. Esto se representa en la figura 54.

• Los motores de búsquedas no entienden JavaScript. La información en la página

dinámica no se almacena en los registros del buscador.

• Hay problemas usando Ajax entre nombres de dominios. Eso es una función de

seguridad.

Figura 54. El modelo tradicional de aplicaciones Web (izquierda) en comparación con el

modelo de Ajax (derecha) [21].

5.3.1.2.4. Navegadores que permiten Ajax

Ha de tenerse en cuenta que ésta es una lista general, y el soporte de las aplicaciones Ajax

dependerá de las características que el navegador permita.

• Navegadores basados en Gecko como Mozilla, Mozilla Firefox, SeaMonkey,

Camino, K-Meleon, IceWeasel, Flock, Epiphany, Galeon y Netscape versión 7.1 y Página 102

Page 107: Proyecto Integrador Mayo 2012

Ing. Ramiro Javier Podetti e-mail: [email protected]

Proyecto integrador Consola de audio digital para efectos de sonido 3D controlada vía Ethernet

superiores.

• Navegadores basados en WebKit como Google Chrome de Google o Safari de

Apple.

• Microsoft Internet Explorer para Windows versión 5.0 y superiores, y los

navegadores basados en él.

• Navegadores con el API KHTML versión 3.2 y superiores implementado, incluyendo

Konqueror versión 3.2 y superiores y el Web Browser for S60 de Nokia tercera

generación y posteriores.

• Opera versión 8.0 y superiores, incluyendo Opera Mobile Browser versión 8.0.

5.3.2. Programación de tareas y prioridades en MCF52259 usando MQX RTOS

La programación de las distintas tareas en el TWR-MCF52259 se hace en base a las prioridades multi-hilo preventivo a través de MQX RTOS, los hilos se ejecutan en orden de prioridad. Si un subproceso de prioridad alta se convierte en listo para funcionar, se puede, dentro de un intervalo de tiempo pequeño y acotado, hacerse cargo de la CPU, antes que cualquier tema de baja prioridad se pueda ejecutar. El subproceso de prioridad alta se puede ejecutar sin interrupción hasta que haya terminado lo que tiene que hacer. Este enfoque, conocido como el establecimiento de prioridades basado en la programación preventiva, permite a las tareas de alta prioridad cumplir con sus plazos de forma consistente, sin importar cuántos subprocesos están compitiendo por tiempo de CPU.

5.3.2.1 Diagrama de flujo

A continuación se presenta en la figura 55 el diagrama de flujo de la programación

multitareas del MCF52259 bajo el sistema operativo en tiempo real MQX.

Página 103

Page 108: Proyecto Integrador Mayo 2012

Ing. Ramiro Javier Podetti e-mail: [email protected]

Proyecto integrador

eConsola de audio digital para efectos de sonido 3D controlada vía Ethernet

dFigura 55. Diagrama de flujo programación MCF52259 MQX RTOS multitarea Página 104

Page 109: Proyecto Integrador Mayo 2012

Ing. Ramiro Javier Podetti e-mail: [email protected]

Proyecto integrador Consola de audio digital para efectos de sonido 3D controlada vía Ethernet

5.3.2.2. Archivos y funciones

Archivo “Webserver_demo.c”

Es el archivo principal, crea y asigna las prioridades a cada tarea, particiona la memoria

interna para alojar la pagina web a través de la inicialización del sistema de archivos trivial

o por sus siglas en ingles TFS, el archivo tfs_data contiene la información de la pagina web,

este se hace a través de la función _io_tfs_install (). Si no hay ningún error en el servidor

se inicializa con la dirección raíz especificada con el "\\mqx.html", este archivo será la

página de índice. Antes de que el servidor se ejecute, este será configurado con la

información “Common Gateway Interface”, una tecnología que se usa en los servidores

web denominada por sus siglas en ingles CGI (Tecnología Perljax)[22] y que en nuestra

aplicación es el medio que posibilita traer el dato desde el cliente al servidor. La tabla

cgi_lnk_tbl contiene una lista de los diferentes servicios CGI disponibles. La función

httpd_server_poll (); se utiliza para esperar las conexiones con el servidor HTTP y servirlos.

Archivo “Security_Network.c”

Inicia el Packete MQX RTCS, que da lugar a las configuraciones del driver de la placa

Ethernet del TWR-MCF52259, hace uso del protocolo de configuración IPCFG, asignando el

numero de ip, mascara de red, puerta de enlace al servidor, espera se conecte el cable de

red y mediante el uso del protocolo DHCP, entrega la IP al cliente automáticamente,

luego se quedara escuchando al cliente. En nuestro caso el cliente es el navegador web de

cualquier dispositivo portátil, corriendo la página alojada en el servidor MCF52259.

Archivo “Security_Utility.c”

Realiza la llamada a inicializar el driver GPIO a través de la función Sec_Initialize_IO(). Este

archivo está reservado para futuras implementaciones.

Archivo “Security_IO.c”

Configura el driver GPIO de la interfaz MCF52259-DSP56371.

Las funciones Flag_sendTower_biteAOK(), y Flag_sendGetDSP_BiteAOK(), manejaran las

banderas 1,2,3y 4 de la interfaz planteada en la sección 4.3.3. La función

Page 110: Proyecto Integrador Mayo 2012

Ing. Ramiro Javier Podetti e-mail: [email protected]

Proyecto integrador Consola de audio digital para efectos de sonido 3D controlada vía Ethernet

Set_ByteOutput(), será la encargada de transmitir los datos en grupos de 8 bits.

5.4 Programación de la Interfaz MCF52259-DSP56371

Antes de introducirnos en la lógica de programación de la interfaz MCF52259-DSP56371

es importante observar el grafico de la figura 56, que presenta un esquema general de

cómo se manejan los datos dentro de la interfaz, estos datos se irán cargando con una

secuencia determinada ya que el canal de datos de la interfaz es de solo 8 bits. La

programación de la interfaz del lado de la Symphony, se hace en la rutina “comando”

(sección 5.2.4.2.) y la programación en el microcontrolador se hace mediante la tarea

“transfer_dsp”.

Página 106

Page 111: Proyecto Integrador Mayo 2012

Ing. Ramiro Javier Podetti e-mail: [email protected]

Proyecto integrador

eConsola de audio digital para efectos de sonido 3D controlada vía Ethernet

Figura 56. Transmisión de datos MCF52259 al DSP56371

2El microcontrolador MCF52259 armará paquetes de cada canal correspondiente a la

aconsola de audio, así para la entrada 1 (uno) armará el paquete de 16 bits

correspondiente, con 8 bits de SounByteA y 8 bits SoundByteB, el contenido de estos

datos se explico en la sección 5.2.4.2. Estos paquetes llevan la etiqueta correspondiente a

sla entrada o canal de la consola de audio que pertenecen, por lo tanto la secuencia es

tenida en cuenta solo por el MCF52259, que es quien envía los datos, esta secuencia se

puede observar en la figura 57. Del lado del receptor o DSP, la correspondencia a la

entrada que pertenece cada paquete, se extraeré del dato que trae el mismo paquete.

Esta característica hace que el DSP se independice de un sincronismo y da lugar a la

comunicación asíncrona de la Interfaz. Tenemos un paquete de dato de 16 bits y un canal

disponible para transmisión de datos de 8 bits, este problema es resuelto a través de la

Page 112: Proyecto Integrador Mayo 2012

Ing. Ramiro Javier Podetti e-mail: [email protected]

Proyecto integrador

eConsola de audio digital para efectos de sonido 3D controlada vía Ethernet

lógica de la programación en la sección siguiente.

A continuación se presenta la secuencia de transmisión de datos que debe cumplir el

SMCF52259 cuando envía al DSP

SFigura 57. Secuencia de envió de datos del MCF52259

a5.4.1. Diagrama de flujo de la programación

lA continuación se presenta el Diagrama de flujos correspondiente a la programación de la

1interfaz MCF52259-DSP56371

Página 108

Page 113: Proyecto Integrador Mayo 2012

Ing. Ramiro Javier Podetti e-mail: [email protected]

Proyecto integrador

eConsola de audio digital para efectos de sonido 3D controlada vía Ethernet

Figura 58. Diagrama de flujo, programación de la interfaz MCF52259-DSP56371

5.4.2. Lógica de Programación

En la figura 58 sección se presento el diagrama de la programación de la interfaz, en el Página 109

Page 114: Proyecto Integrador Mayo 2012

Ing. Ramiro Javier Podetti e-mail: [email protected]

Proyecto integrador Consola de audio digital para efectos de sonido 3D controlada vía Ethernet

mismo se pueden observar los siguientes aspectos a destacar.

La comunicación entre el DSP y el MCF52259 se realizara de manera asíncrona, una vez

que el MCF52259 levante la “Bandera 1” informando que hay datos, el DSP recibirá el byte

de datos dentro de la rutina correspondiente, esto se explico en la sección 5.2.4.2., el DSP

leerá la “Bandera 2” para saber si el dato es el SoundByteA o el SounByteB, de esta forma

el DSP guardara el dato en las variables globales correspondientes, luego pondrá la

“Bandera 3” si recibió el SounByteA o “Bandera 4” si recibió el SounByteB, para informar

al MCF52259 El MCF52259 podrá seguir avanzando en la rutina de transmisión cargando

el dato siguiente, este dato será cargado según la secuencia de envió de datos por parte

del MCF52259, esto se repite infinitamente, la misma secuencia se puede observar en la

figura 41. Esta implementación de comunicación sin una base de tiempo que comande el

sincronismo, tiene su sustento en que el DSP no puede demorarse en esperar un dato, ya

que se puede traducir en cortes del audio a la salida, de esta manera el que se queda

esperando para transmitir el próximo dato es el MCF52259. Aun cuando el MCF52259

pareciera estar en bucles infinitos, haciendo uso del sistema operativo multitarea MQX

RTOS, este nunca queda trabado en esta tarea de comunicación, el mismo micro puede

continuar con sus tareas, en este prototipo la segunda tarea del MCF52259 es la de

Servidor Web.

Un dato importante es la velocidad de la rutina del DSP estará en el orden de los 20

microsegundos o equivalente según tiempo de muestreo programado, mientras que la

velocidad de refrescos de datos en la rutina de comunicación en el MCF52259 es del

orden de los 150 milisegundos, el DSP recibirá varias veces los mismos datos hasta que

suceda un refresco de datos por parte del MCF52259, lo que nos asegura que el DSP

nunca perderá un dato, además para aliviar la tarea de recibir comandos en le DSP se usa

la Bandera 1.

5.5. Programación pagina web, sección servicio para control de la Consola

Las distintas tecnologías usadas en la programación de la pagina tienen sus bases en AJAX,

ver sección 5.3.1.4. La misma se programo utilizando el editor HTML “Notepad ++” [23]. La

figura 59 muestra una vista de “sound.html”, que es la sección de la pagina web

programada para control remoto de la Consola de Audio 3D. La página web correrá en

cualquier navegador web compatible con Ajax. El navegador web correrá sobre el sistema

operativo del ordenador o dispositivo portátil utilizado para acceder a la misma. Este

portátil con interfaz Ethernet compatible se transforma en el Cliente. Los datos

Página 110

Page 115: Proyecto Integrador Mayo 2012

Ing. Ramiro Javier Podetti e-mail: [email protected]

Proyecto integrador

eConsola de audio digital para efectos de sonido 3D controlada vía Ethernet

transmitidos por el cliente a través de la pagina web “sound.html” conforman un mapa de

ldatos que serán recibido por la función “strcpy (parametros, session->request.urldata)” en

el archivo “cgi_index.c” del servidor.

mEn la figura 60 se observa el mapa del dato “SID” enviado por el cliente al servidor a través

lde la pagina web “sound.html”.

Figura 59. Vista de página de control “sound.html” corriendo en cliente web browser

Página 111

Page 116: Proyecto Integrador Mayo 2012

Ing. Ramiro Javier Podetti e-mail: [email protected]

Proyecto integrador

eConsola de audio digital para efectos de sonido 3D controlada vía Ethernet

Mapa del dato “SID” enviado por el cliente al servidor a través de la pagina web

“sound.html”.

DFigura 60. Mapa del dato “SID” enviado por el cliente al servidor a través de la pagina web

“sound.html”.

Como se comento anteriormente, este dato “SID” es tomado por el servidor y guardado

ven variables globales. Estas variables serán usadas por la interfaz MCF52259-DSP56371

upara transmitir estos datos, cuestión que hemos analizado a lo largo de este capítulo.

Página 112

Page 117: Proyecto Integrador Mayo 2012

Ing. Ramiro Javier Podetti e-mail: [email protected]

Proyecto integrador

Consola de audio digital para efectos de sonido 3D controlada vía Ethernet

CAPITULO 6 Prototipo Final

6.1. Introducción

En el presente capitulo presentaremos las características técnicas del prototipo final, las

calibraciones necesarias para su correcto funcionamiento, los costos para su realización, y por

ultimo presentaremos las funciones del sistema.

6.2. Características técnicas

Las capacidades técnicas de la consola de audio para efectos de sonido 3D controlada vía

Ethernet se presentan a continuación.

Canales de entrada de Audio analógico

• 8 Canales de Entradas mono de audio analógico muestreados a 96Khz.

• El Nivel de señal aceptado por cada canal de entrada, es equivalente al nivel de

audio analógico.

Configuraciones de los Canales de entrada para posicionamiento 3D • 4 Canales mono de posicionamiento 3D independientes. Cada canal puede

manejar hasta 2 entradas mono a posicionar sobre el mismo espacio.

Página 113

Page 118: Proyecto Integrador Mayo 2012

Ing. Ramiro Javier Podetti e-mail: [email protected]

Proyecto integrador

Consola de audio digital para efectos de sonido 3D controlada vía Ethernet

• 2 Canales estero de posicionamiento 3D independientes. Cada canal estéreo puede

manejar hasta dos entradas estero a posicionar sobre el mismo espacio.

Canales de salidas de Audio analógico.

• 8 Canales de salidas mono de audio (calidad de audio superior al formato CD)

• Nivel de señal de Salida es equivalente al nivel de línea.

Configuraciones de salida para sistemas de sonido cuadrafónico

• 4 Canales de salida para sistema cuadrafónico de parlantes activos.

• 4 Canales de salida para sistema de Auriculares cuadrafónicos o refuerzo de

parlantes activos del sistema cuadrafónico.

Control de la Consola • Servidor de Pagina Web incorporado (Protocolo HTTP, DHCP)

• Pagina Web HTML servida para control total de la consola • Placa de red Ethernet 10/100MB para conexión de dispositivo portátil • Control remoto de la consola, accesible desde cualquier dispositivo portátil con interfaz Ethernet y navegador web compatible.

Opciones de control

En cada canal de posicionamiento 3D independiente se puede controlar:

• 25 áreas diferentes de posicionamiento horizontal.

• 3 Opciones de posicionamiento en altura.

• Control de Volumen de 10 pasos.

• Control de Mute.

Alimentación

La alimentación del prototipo es externa, con alimentación independiente de cada modulo. Las fuentes de alimentación no forman parte del proyecto integrador.

• Modulo “Consola de audio” debe ser alimentado por una fuente conmutada externa. Las características de salida de la fuente deben ser: 9V DC/AC 400mA, el tipo de conector debe ser de 5.5*2.1 mm.

• Modulo Servidor web debe ser alimentad por una fuente externa de alimentación. Las características de salida de la fuente deben ser: 5V DC 400mA,

salida con conector tipo mini USB.

Página 114

Page 119: Proyecto Integrador Mayo 2012

Ing. Ramiro Javier Podetti e-mail: [email protected]

Proyecto integrador

Consola de audio digital para efectos de sonido 3D controlada vía Ethernet

6.3. Instalación y calibración del Sistema de audio cuadrafónico

El sistema de audio para amplificación y reproducción de sonido no son parte de este

prototipo, pero es imprescindible para el funcionamiento de nuestro prototipo seguir los

pasos de instalación y calibración del sistema de audio cuadrafónico para su amplificación. Se

debe contar con cuatro parlantes activos y un decibelímetro para que la instalación y

calibración sea exitosa. En nuestros ensayos se usaron parlantes activos de una potencia de

salida de 25W RMS cada uno, estos nos permitieron definir un área de audición de 6

metros de largo por 6 metros de ancho. Esta área de 36 metros cuadrados será nuestra

referencia. Cada uno de los transductores irá ubicado en los vértices definidos por este

cuadrado y apuntaran cada uno levemente hacia el “Sweet Spot”, ángulo máximo de

inclinación 30 grados (Ver figura 10 en sección 2.10.4.).

Calibración del Sistema de audio cuadrafónico

Antes de poner en funcionamiento el Sistema de Consola de Audio 3D, se debe proceder a la

calibración del sistema de audio cuadrafónico destinado a la amplificación del audio.

Partiendo del área de referencia planteada y con el uso del decibelímetro se podrán variar las

dimensiones del área de audición, siempre y cuando se tengan en cuenta los pasos de

calibración que presentamos a continuación:

• Trazar dos diagonales dentro del cuadrado definido como área de audición, y una

vez definido el centro por el cruce de las diagonales o sea el centro del área, se

colocara en dicho punto central un decibelímetro para medir intensidades de

sonido.

• Colocar los cuatro controles de volumen de la consola de audio en el valor 10.

• Seleccionar el tipo de escala dBA en el decibelímetro a utilizar.

• Reproducir una frecuencia de 1 KHZ y regular el volumen de cada parlante activo

hasta que el decibelímetro marque el mismo valor para los cuatros parlantes.

Este paso se repetirá para cada uno de los parlantes activos por separado. El valor

máximo a registrar en el decibelímetro dependerá de los niveles de intensidad

sonora permitidos según las reglamentaciones Municipales o Regionales.

6.4. Costos

Si bien los kit de desarrollo fueron ambos donados por la empresa freescale se pone los valores del mismo para tener una magnitud general.

Página 115

Page 120: Proyecto Integrador Mayo 2012

Ing. Ramiro Javier Podetti e-mail: [email protected]

Proyecto integrador

Consola de audio digital para efectos de sonido 3D controlada vía Ethernet

Los costos generales involucrados en una posible consola de audio para el manejo de efectos de sonido 3D construida a partir del prototipo se pueden ver en la Tabla 3. En este presupuesto se contemplan los kits completos y no los componentes individuales que se requieren de cada uno. Presupuestando únicamente los componentes específicos que se necesitan de cada kit, el costo final sería todavía menor.

En cuanto a las horas de programación solo se ponen a los efectos de dimensionar el trabajo realizado. Como el prototipo no está pensando, en un solo producto sino que se apunta a un producto comercial, este valor equivalente a horas de programación se debe prorratear con la cantidad o volumen de consolas a fabricar. Se opto por no poner un valor equivalente en los campos “Horas de Programación” y si incluirlo en el campo “Costo total estimado de comercialización”.

TABLA 3

Detalles Horas u$s

Kit Symphony Soundbite 150

Kit TWR-MCF52259 119

Horas de diseño Interfaz 50

Horas de Programación DSP 150

Horas de Programación TWR-MCF52259 50

Costos de fabricación 250

Costo total del hardware y fabricación 519

Costo total estimado de comercialización 1000

6.5. Conexiones del Sistema

Las distintas actividades posibles a realizar con este prototipo están basadas en los objetivos comerciales planteados en la sección 1.4. Cualquiera de estos usos del prototipo tiene un solo objetivo que es el posicionamiento de sonidos en 3D, es por ello se presenta en la figura 61 un diagrama general de conexiones para el prototipo. Para poder realizar las conexiones adecuadamente deberá tomarse como referencia la figura 30 del capítulo 4 donde están numeradas las entradas y salidas del Symphony Soundbite.

Página 116

Page 121: Proyecto Integrador Mayo 2012

Ing. Ramiro Javier Podetti e-mail: [email protected]

Proyecto integrador

Consola de audio digital para efectos de sonido 3D controlada vía Ethernet

6.5.1 Diagrama general de conexionado

Figura 61. Diagrama general de conexionado Página 117

Page 122: Proyecto Integrador Mayo 2012

Ing. Ramiro Javier Podetti e-mail: [email protected]

Proyecto integrador

Consola de audio digital para efectos de sonido 3D controlada vía Ethernet

6.5.2 Conexiones de entradas de audio analógicas

Las distintas entradas de audio podrán ser conectadas directamente a las entradas de la

placa Symphony J1, J3, J5, J7, cada una de estas entradas acepta dos canales mono controlados de por las entradas In 1, In 2, In 3, In 4, respectivamente de la pagina web.

6.5.3 Conexiones de salida al Sistema de Audio Cuadrafónico

Los 4 parlantes activos que conforman el sistema de de audio cuadrafónico podrán ser conectados directamente a las salidas de la placa Symphony J4, J6, cada una de estas salidas acepta dos canales de salida izquierdo y derecho, lo mismo ocurre con el par de salidas J8 y J2, en la tabla 4 se muestra el conexionado de salidas.

La ubicación de los mismos transductores en la sala será uno en cada vértice del cuadrado

definido para la calibración,

TABLA 4

J4 Izquierdo Transductor 1 Frente Derecho

Derecho Transductor 2 Frente Izquierdo

J6 Izquierdo Transductor 3 Trasero Izquierdo

Derecho Transductor 4 Trasero Derecho Tabla 4. Conexionado de las salidas

6.5.4. Conexiones y configuración IP del cliente (ordenador portátil)

Deberá conectarse un dispositivo portátil destinado a ser el cliente que controlará nuestra consola de audio digital. Esta conexión se hará usando un cable Ethernet categoría E5 de 8 hilos (4 pares) en configuración directo, mediante la interfaz física RJ-45 (fichas), al modulo de red TWR-SER del TWR-MCF52259.

Configuración IP del ordenador portátil

La dirección IP por defecto de la placa de red del TWR-MCF52259 es 169.254.3.3. Normalmente, cuando se conecte el ordenador portátil directamente a la placa de red del TWR-MCF52259, el ordenador por defecto asignará una dirección IP automática en la misma subred que el TWR-MCF52259 (169.254.x.x), por lo que no requiere instalación.

Página 118

Page 123: Proyecto Integrador Mayo 2012

Ing. Ramiro Javier Podetti e-mail: [email protected]

Proyecto integrador

Consola de audio digital para efectos de sonido 3D controlada vía Ethernet

Nota: El ordenador puede tardar unos minutos en detectar la dirección IP automática y puede informar que la conexión es limitada o nula. Si lo prefiere, también puede configurar la dirección IP del ordenador portátil de forma manual. Necesitará establecer la dirección IP a 169.254.3.4 y la máscara de subred de 255.255.0.0.

6.5.5. Modo de acceso y dirección web del servicio de control remoto de la consola de

audio.

Una vez realizadas todas las conexiones correspondientes se podrá comenzar a probar el funcionamiento. Para ello es necesario escribir en la barra del navegador web del ordenador portátil la dirección del servidor web “http://169.254.3.3/sound.html”, una vez accedida la pagina se podrá probar el funcionamiento seleccionando distintos espacios de posicionamientos para las entradas de audio correspondientes, realizando distintas selecciones sobre la pagina web de control, también se podrá controlar el volumen o desactivar la entrada. A continuación se presenta la figura 62 donde se pueden observar dichos comandos

Figura 62. Comandos de la consola accedidos a través de http://169.254.3.3/sound.html

Page 124: Proyecto Integrador Mayo 2012

Ing. Ramiro Javier Podetti e-mail: [email protected]

Proyecto integrador

Consola de audio digital para efectos de sonido 3D controlada vía Ethernet

6.6. Modos de funcionamiento

Los modos de funcionamiento son tres, la consola de audio digital puede funcionar en diferentes configuraciones, estos modos de operación son:

• Modo Mono, se podrán utilizar 8 entradas de audio mono, se pondrán los efectos 3D y se controlará su volumen en cuatro canales independientes, cada canal independiente acepta hasta dos entradas mono. Cada par de entradas mono que ocupen el mismo canal serán susceptibles a los mismos efectos de posicionamiento.

• Modo Estéreo, se podrán utilizar 4 entradas de audio estéreo, se pondrán los efectos 3D y se controlará su volumen en solo 2 canales estéreo independientes, cada canal estéreo independiente acepta hasta dos entradas estéreo. Cada par de entradas estéreos que estén en el mismo canal serán susceptibles a los mismos efectos de posicionamiento.

• Modo Combinado, el ultimo modo de funcionamiento es una combinación de los

anteriores, explicaremos este modo con un ejemplo práctico, supongamos queremos utilizar dos canales de entradas independientes para formar una salida estéreo y los dos restantes para dos entradas mono independientes, de esta forma tendríamos tres canales independientes susceptibles de ser posicionados en distintos lugares, un canal estéreo y los dos restantes tipo mono.

Página 120

Page 125: Proyecto Integrador Mayo 2012

Ing. Ramiro Javier Podetti e-mail: [email protected]

Proyecto integrador Consola de audio digital para efectos de sonido 3D controlada vía Ethernet

CAPITULO 7

Conclusiones El objetivo principal planteado al comenzar el trabajo fue poder posicionar una fuente de

sonido virtualmente por un espacio determinado y controlar su ubicación especial vía

Ethernet. Este objetivo fue alcanzado, demostrando además la posibilidad de

interconexión en tiempo real de dos tecnologías diferentes como lo son el audio digital y

las redes de computadoras. Cuando se comenzó este proyecto integrador se pensaba en

posicionar el sonido en un lugar fijo y no se pensaba en la fluidez del sonido en cuanto al

cambio de posicionamiento de la fuente sonora, si se pretendía que fuera apreciable para

un auditorio conformado por más de una persona. El prototipo construido supero

ampliamente las expectativas de funcionamiento y control en varios aspectos, los cuales

se traducen en una sensación de movimiento de una fuente de sonido por un espacio

horizontal.

La coordinación del traspaso del dato de control, entre las distintas interconexiones, o

sea, la conexión Ethernet al microcontrolador, interfaz MCF52259-DSP56371, y por

último el procesador digital de señales, se logró con retardos de tiempos muy cortos. El

retardo temporal desde que el usuario indica algún cambio en la página web hasta que ese

comando es procesado por el DSP, está en el orden de los 250 milisegundos.

Teniendo en cuenta el camino que recorren los datos por los distintos bloques de

hardware y protocolos de programación nos da una velocidad de transmisión de datos de

control excelente. Este retardo es comparable con cualquier retardo programable de

teclado. Esta velocidad de comunicación alienta el desarrollo de dispositivos que trabajan en

tiempo real y que podrán ser controlados vía Internet.

Página 121

Page 126: Proyecto Integrador Mayo 2012

Ing. Ramiro Javier Podetti e-mail: [email protected]

Proyecto integrador Consola de audio digital para efectos de sonido 3D controlada vía Ethernet

Las interfaz Ethernet no pierde sincronismo si se desconecta el cable Ethernet, esto es

una ventaja importante ya que en futuras aplicaciones nos permitirá pasar de una

conexión de área local a conectarnos con la rede de internet. De esta forma nos asegura

que ante cortes en el servicio de redes, el sistema de audio seguirá reproduciendo la

última orden hasta que se vuelva a establecer el canal Ethernet. Una vez restablecido el

canal el prototipo retomara el sincronismo automáticamente.

Cuando se cambia de área local a la red de Internet es muy probable estar expuestos a

cortes por parte del proveedor del acceso a Internet. Mantener el sincronismo a pesar de las

desconexiones es una característica que alienta a seguir trabajando en el control vía

Ethernet. Esta experiencia puede ser interesante para aplicar en otras áreas de desarrollo

que necesiten dispositivos electrónicos controlados a través de Internet.

La interfaz MCF52259-DSP56371 no pierde el sincronismo si se desconecta el cable cinta de

interconexión GPIO. Esto nos da la posibilidad de separar el módulo de control ante algún

desperfecto y la consola de audio no alterará su funcionamiento.

El micro MCF52259 en conjunto con los periféricos acoplados a través del sistema Tower,

y el paquete de software MQX nos permitieron manejarnos en el entorno de un sistema

operativo en tiempo real, dando flexibilidad a la programación de tareas independiente. El

conjunto TWR-MCF52259 demostró la gran capacidad que tiene como “micro servidor

web” y lo que asombra es la estabilidad que tiene con respecto a esta función.

En cuanto al DSP56371, se invirtió gran cantidad de tiempo para poder comenzar a

operarlo una vez pasada la barrera del aprendizaje inicial, se pudo observar que el mismo

supera todas las expectativas de la programación en tiempo real esperadas y alienta a

seguir avanzando en aplicaciones que necesiten correr en tiempo real.

Por cuestiones de la complejidad del proyecto, debido a las diferentes tecnologías

asociadas, se excedió el tiempo de este proyecto integrador, es por ello se deja para

futuras implementaciones los siguientes ítems:

• En el del DSP56371, la programación de los filtros pasa bajo de 3 Khz y

pasa banda de 8 Khz, ambos para simulaciones de altura de la fuente de

sonido.

• En el Kit Tower, se propone cambiar la interfaz Ethernet por wifi Ethernet

de modo de poder acceder sin cables a la consola de audio.

En lo personal este proyecto integrador ha sido una experiencia emocionante. El

desafío de poder trabajar en la interconexión y manejo de dos tecnologías diferentes

Page 127: Proyecto Integrador Mayo 2012

Ing. Ramiro Javier Podetti e-mail: [email protected]

Proyecto integrador Consola de audio digital para efectos de sonido 3D controlada vía Ethernet

como lo son el audio digital y las tecnologías de redes de computadoras, ha sido el

motivo de aliento constante durante el transcurso de todo el proyecto.

Desde muy pequeño he soñado con poder manejar el sonido con el movimiento de

mis manos, si bien queda camino por recorrer para lograrlo hoy siento que ese sueño ha

empezado a convertirse en realidad.

Página 123

Page 128: Proyecto Integrador Mayo 2012

Ing. Ramiro Javier Podetti e-mail: [email protected]

Proyecto integrador Consola de audio digital para efectos de sonido 3D controlada vía Ethernet

Apéndice I

Software

Ver el CD-ROM adjunto con el informe Página 124

Page 129: Proyecto Integrador Mayo 2012

Ing. Ramiro Javier Podetti e-mail: [email protected]

Proyecto integrador Consola de audio digital para efectos de sonido 3D controlada vía Ethernet

Referencias [1] Proyecto integrador Consola de Audio Digital, Manuel José Peirone, Córdoba 2009, Universidad Nacional de Córdoba

[2] Certain topics in telegraph transmission theory, Harry Nyquist en 1928

[3] Communication in the presence of noise, Claude E. Shannon en 1949 Communication in

the presence of noise.

[4] PCM http://es.wikipedia.org/wiki/Modulaci%C3%B3n_por_impulsos_codificados

[5 ] Introducción a los DSP http://www.dsp.efn.unc.edu.ar/documentos/Introduccion_DSP.pdf

[6] Sonido envolvente http://es.wikipedia.org/wiki/Surround

http://electronics.howstuffworks.com/virtual-surround-sound1.htm

[7] Sonido Dolby http://www.dolby.com/us/en/about-us/who-we-are/dolby-history/index.html]

[8] SDDS

http://es.wikipedia.org/wiki/SDDS

[9] DTS http://es.wikipedia.org/wiki/Digital_Theater_System]

[10] Hugo Zuccarelli http://www.acousticintegrity.com/acousticintegrity/Hugo_Zuccarelli.html

[11] Diagrama del oído

http://compugente.com/nuestroshijoshablaran/images/diagrama_del_oido.jpg

[12] Sistema auditivo, biología humana http://science.howstuffworks.com/environmental/life/human-biology/hearing1.htm

[13] Sistemas de sonido 3D, EUSKAL HERRIKO UNIBERTSITATEA, UNIVERSIDAD DEL PAÍS VASCO, Ing. Alejandro García, Bilbao, Junio de 2005.

http://www.buenastareas.com/ensayos/Sonido-3D/2602948.html

[14] Características de la Holofonía http://www.elotrolado.net/wiki/Holofon%C3%ADas Página 125

Page 130: Proyecto Integrador Mayo 2012

Ing. Ramiro Javier Podetti e-mail: [email protected]

Proyecto integrador Consola de audio digital para efectos de sonido 3D controlada vía Ethernet

[14.a] Protocolo HTTP http://es.wikipedia.org/wiki/Hypertext_Transfer_Protocol

[15] Kit Symphony Symphony SoundBite referente manual.pdf

[16] Integrado “puente rectificador” G1 SoundBite schematics.pdf

[17] Estructura del protocolo I2S Nota Freescale AN1848

[18] Diagrama en Bloques del microcontrolador MCF52259 http://www.freescale.com/webapp/sps/site/prod_summary.jsp?code=MCF5225X

[19] MQX RTCS

Nota Frescales VFTF09_AE130 [20] Ajax http://es.wikipedia.org/wiki/AJAX

[21] Jesse James Garrett www.adaptivepath.com

[22] Tecnología Perljax http://cpan.uwinnipeg.ca/htdocs/CGI-Ajax/Changes.html]

[23] Note pad ++ http://notepad-plus-plus.org/

Freescale Semiconductor Application Note AN1848. ESAI: Enhanced serial audio interfaz.

Rev. 1, 05/2000.

DSP56300 Family Manual. 24-Bit Digital Signal Processors. DSP56300FM. Rev. 5,3/2005.

DSP56371 Data Sheet. Rev. 4.1, 1/2007.

DSP56371 User Manual. 24-Bit Digital Signal Processors. DSP56371UM. Rev. 2.1,08/2006.

ASAHI KASEI Codec AK4556 Data Sheet. MS0559-E-00. 11/2006.

ASAHI KASEI Codec AK4584 Data Sheet. MS01118-E-00. 11/2001. Página 126

Page 131: Proyecto Integrador Mayo 2012

Ing. Ramiro Javier Podetti e-mail: [email protected]

Proyecto integrador Consola de audio digital para efectos de sonido 3D controlada vía Ethernet

Symphony Studio Eclipse for Symphony DSPs. DSPSTUDIOUG. Rev. 1.1, 07/2008.

Freescale Semiconductor User Manual TWR_MCF5225X_UM. Rev. 1.0

Freescale Semiconductor TWR_MCF5225X_SCH. SCH-26008 PDF: SPF-26008,07/2009

Freescale Semiconductor MCF52259RM. Rev. 2 8/2009

Freescale Semiconductor MQX 3.4 Demo Guide web_hvac.

Freescale Semiconductor Application Note How to Develop IO Drivers for_AN3902. Rev. 0,

08/2009

Freescale Semiconductor Application Note Writing Your First MQX Application_AN3905.

Rev. 1, 11/2009

Freescale Semiconductor Laboratorios, RTCS Lab, Task Example Lab, Buenos Aires 2010.

Página 127