manualillo de produccion musical

63

Upload: edecarlo-barron

Post on 20-Jun-2015

5.178 views

Category:

Documents


16 download

TRANSCRIPT

Page 1: Manualillo de produccion musical
Page 2: Manualillo de produccion musical

Aprende a comprimir tus señales

Introducción: la dinámica de una señal ¿Qué es lo básico? Antes siquiera de hablar de compresión, debemos dejar claros algunos conceptos sobre la dinámica de una señal de audio; por "dinámica" entendemos las variaciones de nivel de una señal en el tiempo (una cantante de ópera que haga continuos crecendos y decrecendos tendrá una dinámica muy acusada; un pitido de silbato mantenido al mismo volumen no tendrá dinámica alguna).

· Nivel de ruido de fondo: este es el nivel donde encontramos el ruido de cinta y de línea, los ruidos eléctricos, etc.

· Nivel nominal: sería el nivel más apropiado para grabar tu señal de manera que haya una mínima distorsión (el momento en que la señal "pica" en el rojo; es decir, sobrepasa el umbral máximo admitido) y que el nivel de ruido de fondo sea superado.

· Relación señal-ruido: la distancia entre el nivel de ruido y el nivel nominal.

· Nivel máximo: se alcanza cuando la señal entrante comienza a distorsionar.

· Headroom: la diferencia entre el nivel nominal y el nivel máximo; es tu "zona de seguridad", el último espacio que tienes antes de que suceda la distorsión.

· Rango dinámico: todo el nivel que puede ocupar la señal, desde el nivel de ruido hasta el nivel máximo.

La compresión

Ahora que hemos explicado estos conceptos elementales, podemos empezar a hablar de compresión. Supongamos que estas en tu estudio grabando unas tomas de sintetizadores, voces o instrumentos. Has ajustado un nivel adecuado para grabarlos, es decir, deberías estar cerca del nivel nominal (superando el ruido de fondo y cerca de la distorsión, pero sin tocarla). Esto es un escenario ideal, pero lo más normal es que, si prestas atención a tu indicador de señal, veas como se pone en el rojo alguna vez (distorsión).

Esto dependerá de la naturaleza de la fuente que estés grabando: por ejemplo, imagina que grabas una voz muy sentida, con momentos de murmullo y repentinas subidas de nivel. Es muy fácil que saltes al rojo en estas circunstancias. Podrías pensar "bueno, si estoy atento a los cambios de nivel, puedo anticiparme y subir y bajar el volumen de entrada cuando se requiera"... Has pensado bien, pero no eres del todo práctico: deja que te ayude un compresor.

Un compresor monitoriza la señal de entrada y actúa bajando el nivel cuando se alcanza la distorsión, o subiéndolo si la señal cae demasiado baja. Esta es la definición de andar por casa; para completarla, podemos decir que el compresor lee la señal de entrada, y luego, de acuerdo con el ratio de compresión que tú has configurado, reduce la señal que de otra manera distorsionaría. Esto te permite mantener la señal a un nivel manejable y grabable sin picos imprevistos.

Alto, ¿qué es eso del "ratio"? Es uno de los parámetros esenciales de un compresor. Pasamos a explicarte cuáles son los controles básicos de los compresores, y así irás descubriendo cómo funcionan (en la foto, el Nanocompressor de Alesis)

Page 3: Manualillo de produccion musical

· Threshold: este es el nivel (en decibelios, dB) a partir del cual el compresor empieza a actuar. Para que entiendas cómo actúa, debemos hablar un momento de los niveles de una señal. Quédate con la idea de que un fader colocado en la marca de 0 dB está dejando pasar toda la señal "tal cual", sin restarle o añadirle ganancia. Digamos que 0 dB se identifica con la

imagen "real" del sonido que entra. Los valores positivos (+1 dB, +2 dB...) indican que estamos añadiendo ganancia a la señal original, y los negativos (-1 dB...) que estamos restándosela. Si ajustamos el threshold del compresor a -5 dB por ejemplo, le estamos

diciendo que, cuando la señal entrante alcance ese nivel, empezará a ser comprimida. Por ello, cuanto mas bajemos el threshold, más comprimiremos la señal.

· Ratio: se da en valores de proporción, como 2:1, 3:1, 4:1, etc. Supongamos que colocas el ratio en 3:1. Lo que sucederá es que por cada vez que tu señal entrante supere en 3 dB al nivel de threshold, el compresor sólo permitirá que pase 1 dB de señal. Tu pensarás "de

acuerdo, pero si está dejando pasar un decibelio cada vez, entonces sobrepasará de todos modos el nivel de threshold". Evidentemente; el threshold es una marca de referencia, no una

"guillotina" que corta todo lo que pasa por ella. Se da por hecho que el threshold y el ratio deben ir relacionados; debes configurar un nivel de threshold lo bastante bajo, teniendo en cuenta el ratio, para que los dB que pasen no lleguen a distorsionar, saliéndose por encima

den? 0 dB. Aquí entra en juego el concepto de headroom; el "espacio de seguridad" al que nos referíamos. Si tienes un headroom amplio, podras jugar con ajustes más extremos. Si estás

en trance permanente de distorsionar la señal, tendras que manejar estos controles con mayor precisión.

La técnica más recomendable es ajustar el ratio primero, y luego ir moviendo el threshold hasta que notes que la señal empieza a comprimirse (esto lo verás fácilmente en los

medidores de tu mesa, cuando veas que las distorsiones de la señal empiezan a desaparecer, cayendo el nivel a un rango más uniforme). Ten clara una cosa: si tu señal es demasiado

débil, y el threshold está demasiado alto, nunca funcionará el compresor. Si tu señal, digamos, solo alcanza cotas de -5 dB y el threshold está a -2 dB, es evidente que el

compresor no actuará.

· Ataque (attack): Este parámetro decide con qué rapidez actuará el compresor cuando aparezcan los picos (cuando la señal supere el umbral de threshold). Nos servirá para adaptar el funcionamiento del compresor a la naturaleza de la fuente de sonido. Por ejemplo: algunos instrumentos tiene un ataque muy rápido (es decir, suenan de inmediato, tan pronto como son tocados). Así pues, para este tipo de sonidos (como los de bajo o bombo), necesitarás que el compresor actúe rápidamente, para que no se le escape ningun pico (tendrías que

ajustar el ataque a un valor bajo o nulo).

· Liberación (release): El parámetro de liberación marca la velocidad con que el compresor deja de actuar sobre la señal una vez que ésta, despues de picar, ha bajado ya del nivel de threshold (cuando ya no necesita ser comprimida). Si ajustas la liberación a un valor largo, conseguirás una señal más sostenida. Si es corto, la señal caerá de nivel más rapidamente.

· Ganancia de salida (output gain): Cuando has ajustado ya el threshold y el compresor está actuando, tu nivel nominal se verá reducido dependiendo de la cantidad de compresión

que apliques, y así la señal, aunque comprimida, se escuchará con menor volumen. Este parámetro se utiliza para corregir ese efecto y restablecer el nivel de nuevo. Usa este ajuste con cuidado: aumentando de nuevo el nivel, estás aumentando también el nivel de ruido de fondo que llega aumentado después de la compresión. Para evitar esto, procura que llegue la

mayor cantidad de señal pura posible al compresor, con el mínimo ruido.

· Knee: Este parámetro no lo llevan todos los compresores, pero no es raro encontrárselo. Hay dos tipos de "knee" (rodilla): hard-knee y soft-knee. El ajuste hard-knee supone que la

señal será comprimida de inmediato en la proporción marcada por el ratio tan pronto alcance el nivel de threshold. El ajuste soft-knee hace esto de una manera más suave, aplicando la compresión no toda de golpe, consiguiendo así un sonido menos abrupto. Típicamente, los sonidos que requieren pegada, como el bajo y el bombo, se comprimen con "hard-knee". Algunos compresores te permiten también escoger valores intermedios entre estos dos

extremos, para controlar mejor el sonido.

Comprimiendo en la práctica

El uso de la compresión dependerá mucho de tus gustos personales. En la música de baile actual y en ciertos estilos se utilizan configuraciones extremas para darle gran pegada a los sonidos, pero puede n?que tú no necesites eso. Una compresión extrema puede hacer una

Page 4: Manualillo de produccion musical

mezcla demasiado agresiva, pero también, una compresión escasa puede hacer muy "blando" el sonido. Como siempre, la solución está en probar distintas configuraciones hasta alcanzar un resultado que te satisfaga.

Para darte una guía, aquí tienes algunos ajustes recomendados, en general, para distintos tipos de señales:

· Bajo: Prueba a empezar con un ratio de 4:1 y un ataque y liberación rápidos. Normalmente se prefiere la compresión hard-knee porque el sonido del bajo suele requerir pegada y potencia, pero también depende del estilo. Quizás te convenga una soft-knee para un bajo de jazz en un tema suave y tranquilo.

· Guitarra: Empieza con un ratio de 2:1 para guitarras acústicas, o un 3:1 o 4:1 para g

distorsionadas. Para conseguir un sonido más sostenido, intenta un ratio de 4:1 ratio, con ataque rápido y liberación lenta. Cuando tengas esos ajustes preparados, toca la nota que quieres sostener, y aumenta el ratio hasta que el sonido se sostenga tanto como deseabas.

uitarras un

· Percusión: Las señales de percusión se comprimen muy a menudo debido a sus ataques a

s

rápidos. Prueba a comprimir la caja, que es el sonido que más suele distorsionar porque cadgope de caja sobresale por encima de todos los demás con mucha facilidad. Intenta un ratio de 3:1, y usa un ataque y liberación rápidos. Si la señal continúa distorsionando, prueba ratio mayores (la foto que te incluimos aquí muestra un compresor de Logic configurado para una caja). Este método es válido también para los timbales. Para lon?s platillos, prueba un ratio de 2:1 con ataque rápido y liberación lenta, para mantener así el desvanecimiento natural del sonido de los platillos.

· Voces: Como en la percusión, es habitual comprimir las señales de voz. El ratio varía con

s

cada cantante, dependiendo del tipo de voz (gritona y potente, suave y tranquila, etc). Los cantantes que no hacen grandes altibajos con su voz tendrán una dinámica mas pequeña y requerirán por ello menos compresión. Prueba para empezar un ratio de 2:1, con el ataque rápido, y liberación media-larga. Aumenta luego el ratio hasta que tengas dominados los picode distorsión.

Conclusión

En general, debes usar la compresión para situar las señales correctamente en la mezcla, para darles la presencia necesaria y para dominar sus subidas y bajadas de nivel. Otros la utilizan también con intenciones creativas, o para conseguir un efecto deliberado, como por ejemplo una gruesa y potente línea de bajo que marque el ritmo.

Podría decirse que la compresión es un arte que solo dominarás con mucha práctica. Tu oído será la mejor guía: prueba diferentes ajustes y configuraciones hasta alcanzar el sonido que estabas buscando.

Page 5: Manualillo de produccion musical

Conceptos básicos sobre la mezcla

Introducción

La mezcla es uno de los procesos más delicados y creativos de la producción de una canción. El objetivo es conseguir un reparto equilibrado de las frecuencias, volúmenes y planos de los instrumentos/voces de forma que la escucha sea agradable y/o apropiada a lo que se intenta transmitir con cada canción. Para ello se controla el espectro de cada instrumento (ecualización), la dinámica (volumen, compresión, expansión, limitación) y la profundidad (reverberación, retardo).

Hay varios factores a tener en cuenta, muy importantes, antes de adentrarnos en el proceso de la mezcla...

Reproducción y monitorización

Muchas veces olvidado, el sistema de reproducción y monitorización (tarjeta de sonido + amplificador + altavoces) es lo más importante dsistema. El tener una correcta referencia es la mejor de las ayudas paradeterminar el sonido de una pista. Debido a que cada sistema de escucha es diferente y no existe ni habitación perfecta ni monitores infalibles, en los estudios se suele tener varias parejas de monitores de diferentes tamaños y calidades para conseguir el mejor sonido posible. Un amplificador que no distorsione la señal (algunos monitores los trae incorporado) y una tarjeta de sonido con una buena señal ruido y respuesta en frecuencia (la mayoría) completan el paquete.

el

actores arán

La colocación de los monitores y las reflexiones en la sala son fmuy importantes. Unos altavoces muy cerca de la pared sobrecargde graves tu escucha, de forma que las mezclas sonarán faltas de esas frecuencias. Así mismo, unahabitación con reflexiones incontroladas creará eco o realzará alguna frecuencia.

Los efectos

Existen un grupo de efectos básicos y de su calidad dependerá en mayor o menor medida la calidad del resultado. Como antes se comentó, los más importantes son la dinámica, ecualización y retardo/reverberación, imprescindibles para acometer cualquier mezcla. Debido al auge de la informática, la mayoría de las veces se usan efectos software o la combinación de ambos.

No existen reglas fijas sobre su uso, aunque daré a lo largo del tutorial ajustes “estándar”. Para profundizar más, recomiendo la lectura de otros artículos de la web.

Los efectos se pueden usar de dos formas, como inserción o como envío. En el primer caso el efecto sólo actúa sobre la señal de entrada (una pista o un grupo de ellas). En el segundo caso, puedes elegir de cada pista qué cantidad de esta debe ser afectada por el efecto mediante un control de envío.

Efectos de inserción suelen ser los compresores, la ecualización o distorsión. Efectos de envío suelen ser la reverberación, retardo (delay) o el coro (chorus), aunque insisto en que no hay reglas fijas.

El factor humano

La mezcla no es un proceso científico, depende del tipo de canción y del gusto del ejecutante. Además, hay otros factores importantes que influyen negativamente, como el cansancio auditivo o

Page 6: Manualillo de produccion musical

el consumo de drogas. El entrenamiento es el arma más poderosa y, en tiempos en donde la tecnología está al alcance de todos, decisiva.

Preparación

Hay una serie de pasos útiles antes de comenzar una mezcla. En primer lugar es muy recomendable escuchar unos minutos de tu música favorita para ir “calibrando” tu audición con respecto a los monitores que tengan. Esto es especialmente útil cuando el sistema a usar no es el habitual o estás fuera de casa.

Las pistas del tema deberían estar bien alineadas y organizadas dentro del sistema multipistas a utilizar. Para acelerar el proceso se puede “patchear” o configurar algún efecto general, tipo reverb o delay.

Hoy en día todo el material, exceptuando el dirigido a televisión o cine, suele estar mezclado en estéreo. Tras muchos años experiencia y varios centenares de mezclas a mis espaldas puedo decir sin temor a equivocarme que se debe mezclar siempre en mono. La razón es que en mono es más sencillo ajustar la ecualización y equilibro de todas las pistas. Además, se ocupa todo el espectro antes, de forma que al volver al estéreo el sonido es más amplio y espacioso. Si se realiza el proceso directamente en estéreo, es más sencillo sobrecargar la mezcla. Una vez que se haya ajustado los volúmenes y el espectro, se puede continuar en estéreo y hacer las correcciones pertinentes.

Los pasos que voy a describir están orientados para una mezcla pop-rock más o menos estándar y pueden ser aplicados a todos los demás estilos. La mejor forma de aprender es trabajar con referencias, es decir, siguiendo estos pasos ir buscando el sonido de un disco con sonido similar a lo que buscas.

¡Comencemos!

La voz

Hay muchas formas de enfrentar una mezcla. Hay quien prefiere empezar por la percusión y otros por la voz. Aunque suelo cambiar el enfoque dependiendo del material a mezclar, yo suelo empezar por esta última, ecualizando, comprimiendo y ajustando todos los detalles hasta que suena de forma correcta y con un volumen más o menos constante. Un poco de reverberación y retardo nunca le vienen mal, pero es algo que suelo añadir más adelante.

Un defecto importante es la silibancia, que se corrige con un deeser . El deeser es un compresor encadenado ( side chain ), en el que la señal de disparo es la misma de entrada filtrada para resaltar la silibancia. De esta forma, cuando se produce el defecto, actúa el compresor. La silibancia suele darse entre 5 y 8 Khz.

Cuando la voz va haciendo coros lo mejor es tener un bus con todos las pistas y comprimirlos y ecualizarlos juntos.

Panoramización (Pan): La voz principal debe ir siempre al centro. Los coros se suelen abrir en estéreo un poco, pero no demasiado.

Page 7: Manualillo de produccion musical

Ecualización (EQ) recomendada: un recorte de graves (filtro paso alto), sobre 200 con una curva suave para mejora la definición y entre 7.5 y 10 Khz para darle brillo. En el caso de los coros, se puede cortar más arriba (400-500 Hz). Esto hará que se empasten mejor.

Dinámica (Din) recomendada: compresor, ratio de entre 2,5:1 a 4:1, con un ataque y desvanecimientos moderados. Deeser para corregir la silibancia.

Efectos (FX) recomendados: Reverberación tipo placas ( Plate ), predelay 30 ms y tiempo de reverberación de 1.5 segundos. Recorte de graves de la reverberación hasta 400 Hz. Retardo estéreo sin realimentación ( feedback ), con tiempos de 20 y 30 ms. La voz puede llevar otros retardos o reverberaciones a la vez, para adecuarla al estilo del tema.

La voz suele ser el elemento principal, por lo que es recomendable usar el mejor compresor y ecualizador disponible.

La percusión

En la mayoría de los estilos musicales, la percusión y el bajo son los elementos que llevan el peso de la canción y más concretamente la batería, por lo que será nuestro siguiente elemento a tener en cuenta.

La batería, acústica o electrónica, consta habitualmente de los siguientes elementos: bombo, caja, plato de charles (o hi-hat), timbales y platos, que suelen ser microfoneados indivudalmente (incluso con varios micrófonos, como la caja o el bombo). Además, cuando estamos mezclando una batería acústica contaremos con las señales de overhead (micros situados sobre la batería), ambiente (mono o estéreo) y PZM (micrófonos piezoeléctricos que se usan para grabar ambientes).

Hay cientos de formas de mezclar una batería. La más sencilla empieza ajustando el bombo con la siguiente cadena:

Puerta de ruido -> EQ -> Compresor

La puerta de ruido sirve para cortar aislar los bombos y evitar que se cuele el resto de los instrumentos. No existen ajustes mágicos, pero se puede obtener mejor resultado si tiene una función de encadenado (sidechain) ajustada para actuar sólo con las frecuencias graves.

Bombo

Pan: Siempre al centro, para evitar el cambio de peso de la canción. Antiguamente, con el nacimiento del estéreo se situaba en alguno de los lados, muy abiertos. Hoy en día sólo se hace cuando se busca un sonido retro.

EQ: 80Hz es la zona de la pegada, por lo que se puede realzar si le falta. 250 Hz es una frecuencia bastante delicada, suele chocar con el bajo, por lo que se puede recortar si vemos problemas. 1 – 5 Khz es ideal para darle presencia.

Din: Puerta de ruido y compresor. El compresor debe tener ataque y decaimiento rápidos, con un ratio alrededor de 4:1.

Page 8: Manualillo de produccion musical

La caja suele grabarse con dos micrófonos, uno para recoger la parte superior y otro para la bordonera y se tratan independientemente. Un detalle a tener en cuenta es la fase, pues a veces se producen cancelaciones entre los dos micros, por lo que habría que invertirla en uno de ellos. La cadena de efectos es la misma al bombo y el tratamiento de dinámica es similar.

Caja

Pan: Al centro.

EQ: Cada caja es un mundo, pero hay frecuencias clave. 100 Hz para darle más cuerpo, entre 250 y 750 Hz para cajas que suenen acartonadas y 5 Khz para darle brillo

Din: Puerta de ruido y compresor con valores similares a los del bombo.

FX: Un poco de reverberación brillante, la misma que el bombo pero en mayor cantidad. En ciertos estilos se suele usar también una reverberación de tipo “ gated ” con un retardo de unos 40 ms. Este tipo de reverb se hizo popular gracias a la canción “In the air tonight” de Phil Collins. Consiste en una reverberación con una puerta de ruido, que corta la cola.

Los timbales son bastante problemáticos debido a que esos micros recogen el resto del set . Parte del problema se resuelve mediante una puerta de ruido, aunque lo más recomendable en un sistema por ordenador es editar cada pista recortando los momentos donde no aparezcan.

Para el resto, el tratamiento es similar al de la caja.

Timbales

Pan: Se recrea la posición natural de los timbales.

EQ: 100 Hz para darle cuerpo. Recortar entre 300 y 750 Hz para evitar que los timbales suenen acartonados.

FX: Igual que la caja.

Los overheads es una pista estéreo (o dos mono) que contiene el sonido de toda la batería desde arriba. Dependiendo de su colocación y del tipo del micro, lo contendrá de forma más o menos equilibrada, por lo que su utilidad es variada. En muchos casos se usa sólo para recoger el sonido de los platos (cortando graves hasta 1 Khz) o para añadir ambiente al resto de los elementos, en combinación con los otros micros más lejanos.

Overheads

Pan: Totalmente abiertos o en estéreo.

EQ: Se pueden reforzar sobre 8 Khz o más para darle más aire. Dependiendo de su uso, se suele cortar por debajo de 250 Hz para evitar cancelaciones de fase o más arriba si se quiere sólo los platos.

Din: Un poco de compresión con ataque y decaimiento largos y no mucho más de 3:1 de ratio mejoran la dinámica.

FX: Nada o un poco de reverb .

Si tenemos pistas individuales para cada plato y para el charles, podemos usarlas para reforzar los overheads .

Todos se tratan de forma similar: se recorta hasta 400 Hz y un poco de reverberación.

Page 9: Manualillo de produccion musical

Platos

Pan: replicando su posición real.

EQ: Recorte hasta 400 Hz. Se puede reforzar entre 8 y 15 Khz para darles más brillo o aire.

Din: No precisan compresor en muchos casos, pero se puede hacer para controlar más la dinámica o añadir más sostenimiento.

FX: Nada o un poco de reverberación.

Las pistas de ambiente y PZM sitúan la batería en el contesto de la habitación donde fue grabada, y en muchos casos sustituye a la adicción de reverberación. El tratamiento es idéntico al de los overheads.

El bajo

El elemento conductor de la armonía y posiblemente uno de los más sencillos de mezclar. Es muy importante que la grabación sea la correcta y aplicar una buena dosis de compresión durante la mezcla. Al contrario de lo que muchos piensan, no hay que recortar nunca en graves (a menos que sature, claro). Un refuerzo en 100 Hz para darle más cuerpo y entre 2 y 3 Khz para darle más presencia en la mezcla. Importante no forzar sobre 250 Hz demasiado porque, aunque en unos altavoces pequeños suene mejor, embarraría la mezcla.

Pan: Centrado, junto al bombo, la caja y la voz, son la base de la canción.

EQ: 100 Hz para darle más cuerpo. Entre 2 y 3 Khz para darle más presencia.

Din: Ataque y decaimiento largos. 4:1 de ratio es un buen punto de partida.

FX: Un poco de saturación de válvulas suele hacer mucho bien. En algunos estilos en los años 80 se le agregaba efecto de coro o flanger, etc, que no le hace demasiado bien en la mayoría de los casos, exceptuando el wah-wah.

Las guitarras eléctricas

Page 10: Manualillo de produccion musical

Debido a la diversidad de estilos y técnicas, sería muy difícil establecer reglas para colocarlas correctamente en la mezcla. Como norma general, se deben cortar por debajo de 150-200 Hz para evitar que choquen con el bajo y el bombo.

Pan: Depende de su uso. Si son rítmicas y están grabadas dobles, se pueden usar totalmente panoramizadas. Si es un riff o un solo quizás al centro. Si va de acompañamiento a un lado. Demasiadas opciones J

EQ: El recorte de graves le viene bien. Si no, la mezcla se enturbia. El resto de los ajustes de EQ depende del estilo y pueden ir desde la famosa curva en V del metal hasta las guitarras funky llenas de medios.

Din: Un poco de compresión, ataque y decaimiento medios y ratio sobre 2:1 a 3:1, facilitan su integración en la mezcla.

FX: De todo un poco.

Resto de instrumentos

En general, estos instrumentos van acompañando al resto, por lo que suelen estar recortados en graves para que empasten mejor en la mezcla y panoramizados fuertemente para no restarle peso a la canción, a excepción en los momentos en los que son solistas.

La mezcla

Tal como comentábamos, lo más importante de una mezcla es el equilibrio entre la voz y la parte rítmica, por lo que prestaremos especial atención al balance voz-bombo-caja-bajo que es donde reside la magia de la canción

Una vez que están equilibrados, situamos el resto de los elementos de la batería exceptuando los micros generales de ambiente. Cuando todo suene a nuestro gusto, levantamos los overheads y ambientes poco a poco y se corrige el sonido del resto de los instrumentos para mantener el mismo equilibrio con la voz, momento para introducir el bajo y tener el corazón de la canción.

En este punto lo ideal es agregar las guitarras y darles el protagonismo deseado. Como hemos comentado antes, las guitarras rítmicas suelen ir fuertemente panoramizadas. Como estamos haciendo todo este proceso en mono, podremos comprobar la fuerza relativa de la suma de las guitarras en comparación con la base rítmica + voz. Después de introducir las guitarras, podremos introducir los sintes, colchones de cuerdas, etc, e ir recortando su espectro acomodándolos con la ecualización.

Cuando la mezcla suene correctamente y equilibrada, es el momento de escucharlo en estéreo. Notaremos cómo hay ciertos instrumentos, como las guitarras, que suenan demasiado alto y algunos efectos (reverberación y retardo, por ejemplo) suenan demasiado evidentes, por lo que procederemos a hacer las pertinentes correcciones, comprobándolas constantemente en mono para tener una mezcla coherente en ambos formatos.

Page 11: Manualillo de produccion musical

Trucos

¡Automatiza!

Durante la mezcla, se suele automatizar muchos parámetros, como volúmenes y envíos de efectos, dándole énfasis a distintas partes o, simplemente, equilibrando la dinámica. Especialmente interesante es añadir eco o reverberación a ciertas palabras de la voz, o mover objetos en el panorama.

Compresión en el master.

Este es un tema muy peliagudo, pero lo cierto es que el sonido del compresor es el sonido de muchos estilos musicales, desde el Rock hasta el Trip-Hop y, además, la mezcla será comprimida durante la masterización. Mi preferencia personal es comprimir un poco, hasta unos -3dB de corrección y luego enviar la mezcla limpia a masterizar con mi pista original como referencia, excepto donde la compresión es fundamental para el sonido de mezcla. El motivo de mezcla con compresión es que el balance de los instrumentos suele ser bastante diferente al aplicarla, constituyendo a veces una desagradable sorpresa.

Por Antonio Escobar

Page 12: Manualillo de produccion musical

La reverb y otros efectos

Introducción

Los procesadores de efectos son el condimento para nuestros guisos musicales, tanto en la mezcla de sabores y pistas como en la transformación y búsqueda de nuevos sonidos en nuestros samples. Su utilización, bien sea en forma de hardware alojado en nuestro rack o bien en forma de software, nos permite dar ese toque personal a nuestro particular menú sonoro.

LEXICON PSP-42 - Procesador software de efectos basados en delay para VST desarrollado por

PSP imitando el mítico modelo hardware de LEXICON

Etiquetas como “reverb”, “delay”, “chorus” o “flanger” son conocidas y utilizadas por todos nosotros a la hora de crear una carta musical en forma de mezcla. Lo que debemos preguntarnos es si realmente somos capaces de crear un plato de alta cocina sonora o simplemente nos dedicamos a usar recetas básicas en forma de presets con las que todo termina sabiendo y sonando igual y que convierten nuestro proyecto musical en un simple menú del día.

Por lo tanto para que nuestro Restaurante Sonoro pueda figurar en las mejores guías gastronómicas y musicales del mundo hay que huir de las recetas fáciles y presets preestablecidos para buscar nuevos sabores y sonidos. Pero para comprender a la perfección el funcionamiento y aplicación de estos condimentos contenidos en nuestros procesadores de efectos es necesario comenzar por el principio...

Un poco de Teoría

No quiero en este artículo adentrarme en los abismos de la Acústica de Recintos ni hacer un repaso exhaustivo de los fundamentos básicos del sonido, pero si que creo que es necesario explicar un par de conceptos que seguro os ayudarán a comprender un poco mejor todo esto.

La reverberación es un fenómeno acústico natural que se produce en recintos más o menos cerrados por el cual a la señal original se le van sumando las diferentes ondas reflejadas en las paredes del recinto con un retardo o “delay” generado básicamente por la distancia física entre la fuente de sonido original y las paredes del recinto. Pero entonces, ¿Cuál es la diferencia entre eco y reverberación?

Hay algunos autores que para definir el fenómeno de la “reverberación” usan el término “eco” como repetición de un sonido en el tiempo, de forma que la reverberación es un conjunto de ecos producidos por las paredes del recinto que se van sumando a la señal original. En cambio, otros autores más técnicos, prefieren diferenciar claramente ambos conceptos. Y esa diferenciación se basa en una simple cuestión de percepción auditiva. Nuestro oído posee una característica denominada persistencia acústica por la cual es incapaz de distinguir un sonido de sus reflexiones siempre y cuando la diferencia de tiempo entre ambas sea menor a 1/15 de segundo. También es importante conocer el efecto HAAS, por el cual cuando el oído capta unas reflexiones con un retardo superior a 35ms es incapaz de integrarlos como “ecos” consecutivos y los asocia a la fuente original reforzándola.

A efectos prácticos que es lo que nos interesa, esto se traduce en que nuestro oído no diferencia entre el sonido puro y su reverberación, sino que lo percibe como un “todo”, un mismo sonido que además presenta unas características diferentes del sonido original.

Page 13: Manualillo de produccion musical

Hay quien defiende la teoría de que en la naturaleza no existen sonidos puros, que todos los sonidos que percibimos están alterados por este proceso de reverberación. Un ejemplo curioso es el de la voz humana, ¿quién no se ha sorprendido la primera vez que ha escuchado su voz grabada? La sensación suele ser de que suena distinta. La razón hay que buscarla en que nuestra boca hace de cámara reverberante y nuestros oídos no solo recogen el sonido externo que producimos y que los demás escuchan, a la vez percibimos esa señal reverberada desde dentro y que sumamos a la original. Lo cierto es que es bastante más complejo que esta explicación pero tampoco quiero irme mucho del tema.

Otro ejemplo claro de reverberación a “pequeña escala” puede ser perfectamente una guitarra española. Uno de los aspectos que define el sonido de la guitarra es la forma de la caja, que realmente hace de cámara reverberante del sonido producido al tañer las cuerdas. Obviamente si variamos la forma, las dimensiones o el material del cuerpo de la guitarra, estamos cambiando por completo el sonido que produce esa guitarra.

Pero para poder simplificar el proceso, otros autores prefieren centrar el proceso de la reverberación en los recintos mas o menos cerrados, entendiendo que en un espacio abierto la reverberación producida por el entorno es mínima y por lo tanto inapreciable. En el caso de los recintos cerrados las variables que definen el proceso de reverberación son tan diversas que es muy difícil crear dos recintos más o menos amplios con una misma acústica.

Aparte de las variaciones atmosféricas (temperatura, humedad, viento...) que afectan a la velocidad de propagación del sonido y por tanto influyen también en el fenómeno de la reverberación, existen una serie de variables arquitectónicas básicas que definen en gran medida el tipo de reverberación que se produce en cada recinto como pueden ser las dimensiones y la planta de la sala o los materiales que revisten las paredes. Estas variables forman parte básica de los parámetros que rigen los procesadores digitales de efectos como veremos un poco mas adelante.

Algo de historia

Esta claro que el fenómeno de la reverberación vinculado a la Arquitectura o a la Acústica de Recintos no es algo nuevo, las catedrales góticas son un claro ejemplo de que muchas culturas han “manejado” e incluso dominado la acústica de recintos pudiéndonos remontar incluso a civilizaciones tan antiguas como los sumerios. Pero lo que realmente nos interesa es como recrear esas condiciones acústicas en nuestro estudio.

Dejando a un lado las grabaciones en directo realizadas en teatros y auditorios (aprovechando la acústica propia de los recintos y los grandes estudios de radio de los años 20 y 30, precedente obligado de los estudios de grabación y que en muchos casos se construían sobre antiguos teatros o imitando a estos), el camino hasta los actuales procesadores digitales de efectos no ha sido fácil.

El primer paso, allá por 1930, fue la creación de cámaras de reverberación, habitaciones o salas de grandes dimensiones (hasta 100m3) normalmente con las paredes vacías y con un funcionamiento relativamente simple. Un altavoz emite el sonido original desde un punto determinado de esa sala y un micrófono omnidireccional recoge el sonido reverberado de la sala. Las variables o parámetros son relativamente simples, el modelo de altavoz y micrófono y su colocación en la sala. Con el tiempo se fue experimentando con nuevos materiales colocados o distribuidos por la sala para intentar modular las características del sonido reverberado.

Page 14: Manualillo de produccion musical

Camara de reverberación variable de los Estudios DISCOREY en Monterrey (Mexico, 1974)

La reverberación magnética fue el siguiente paso. Nos encontramos en la década de los 50 y el Rock & Roll empieza a hacer furor en el mundo de la música y los magnetofones se han instalado definitivamente en los estudios de grabación de todo el mundo. Probablemente fruto de la experimentación surge el primer procesador electromecánico de efectos. Como supongo que sabéis, los magnetofones poseen tres cabezales, borrado, grabación y reproducción, separados por una cierta distancia. Esta separación provoca un retardo entre la señal que se graba y la que se reproduce, de forma que si mientras grabo un instrumento en el magnetófono levanto el canal de la mesa donde tengo conectado la salida del magnetófono, estaré añadiéndole la misma señal pero retardada. Es decir, lo que hoy llamamos un delay. El tiempo de retardo depende de la velocidad de la cinta y de la distancia física entre los cabezales que cambia de un fabricante a otro. Si además disponía de la función de variación de velocidad (pitch) podías modular el tiempo de retardo a tu voluntad. Aún hoy en las emisoras de radio y en algunos estudios de grabación se pueden encontrar magnetófonos de la marca REVOX que ha sido un autentico estándar en los magnetófonos de _ de pulgada bipista y con los cuales se han creado los efectos y Reverbs de la gran mayoría de cuñas publicitarias de los últimos treinta años. Solo la informatización de las emisoras de radio ha conseguido relegarlos, aunque os puedo garantizar que aún hoy algún técnico de la vieja escuela suele usarlo como procesador de efectos como si de un elemento más de su rack se tratase.

ELOTTRONIX - Procesador VST desarrollado por ELOGOXA que emula el efecto “Flippertronix”

creado por Robert Fripp y que simula dos STUDER REVOX B77 haciendo un loop continuo

Las cámaras de muelles y las placas de eco fueron otros sistemas de reverberación natural aprovechando las cualidades físicas del metal, en especial el acero para retardar la señal

Page 15: Manualillo de produccion musical

(lógicamente cualquier metal es mucho más denso que el aire) y para crear reverbs mediante vibraciones sobre una placa recogidas por un micrófono piezoeléctrico.

Con las primeras unidades de retardo electrónico basadas en dispositivos de transferencia de carga constituidos por filas de transistores “Mos”, a principios de los 80 se abrió el campo de las reverberaciones artificiales cuyo funcionamiento era similar al de los actuales procesadores digitales pero sin conversión A/D. Si bien cayeron muy pronto en desuso, son el precedente directo de la mayoría de las unidades digitales que hoy conocemos.

Procesadores digitales de efectos

Hoy en día los procesadores digitales de efectos, tanto en Hardware como mas recientemente en aplicaciones software, forman parte fundamental de cualquier Estudio de Grabación y por extensión de cualquier producción musical. Reverb, delay, flanger, phaser, chorus o vocoder forman parte de nuestro vocabulario actual a la hora de diseñar un sonido. Pero, ¿realmente somos capaces de definir su funcionamiento o simplemente asociamos esas etiquetas a un resultado sonoro que preestablecemos como explicación?

La inmensa mayoría de las veces, nos acogemos mas bien a la segunda opción. Ese desconocimiento de las bases teóricas que rigen y modulan estos efectos es nuestra principal limitación a la hora de experimentar con nuevas formas sonoras, reduciendo nuestra capacidad experimental a girar los diferentes potenciómetros, analógicos o virtuales, con la esperanza de acertar con algo diferente. Algunas veces, este rudimentario sistema trae consigo resultados realmente interesantes, pero la mayoría de las veces terminamos como “gallinas sin cabeza” correteando de un lado a otro sin saber de donde venimos o a donde vamos, concluyendo en un hastío experimental que acaba en el momento en el que nos rendimos y cargamos el mismo preset que tantas veces nos ha dado un resultado aceptable pero que condena nuestras producciones a la vulgaridad sonora.

MODOS OPERATIVOS

Antes de iniciarnos en este farragoso viaje a través de tipos de procesadores, parámetros, nomenclatura, o presets, creo que es más que necesario tener claro de que forma y manera vamos a cargar estos procesadores en nuestra mezcla, ya que en gran medida depende de ello el resultado final. · Seco o Mojado Aunque parezca un anuncio de pañales, Seco o Mojado sería la traducción al castellano de los términos “Dry” y “Wet”. El término “Dry” (Seco) hace referencia a la señal original que entra en el procesador, es decir, la señal sin procesar. En un lenguaje menos técnico se suele denominar “señal limpia” en contraposición a “señal procesada”. Algunos fabricantes también se refieren a esta señal como “Direct” o como “Input”.

El término “Wet” (Mojado) se refiere a la señal una vez aplicado el procesador. A veces, sobre todo si se trabaja con procesadores Hardware, se suele confundir con la señal que sale del procesador, lo cual no es correcto. La explicación es simple, la mayoría de los procesadores de efectos incorporan la posibilidad de mezclar la señal original con la procesada, con lo cual la señal resultante no tiene por que coincidir con la procesada.

La opción “bypass”, en el ámbito operativo actúa como un conmutador que activa o desactiva el procesador, de forma que nos permite comparar la señal original con la resultante.

Hay algunos fabricantes que en vez de usar los términos Dry y Wet, utilizan un parámetro que suelen denominar “Mix” y que se expresa en porcentaje (%) de señal. Realmente este parámetro lo que esta modulando es la relación existente entre la señal original y la procesada. Esta característica es común a muchos procesadores de efectos software.

Page 16: Manualillo de produccion musical

Normalmente, los procesadores también nos permiten realimentar el sistema, es decir volver a enviar la señal procesada para que vuelva a ser procesada de nuevo. Es el llamado Feedback, (realimentación) que viene expresado a su vez en porcentaje de señal. Hablando en cristiano para no perdernos, determina que cantidad de señal volvemos a procesar en el sistema. Por eso cuando movemos este parámetro hasta el 100% lo que sucede es que estamos creando un bucle de señal cuyo resultado auditivo es, en el mejor de los casos, una distorsión realmente desagradable. · Inserto o Envío Aunque la mayoría de nosotros trabajamos con los llamados “estudios virtuales”, la nomenclatura y los modos operativos usados en este tipo de aplicaciones de software provienen de los sistemas analógicos tradicionales. Es el caso de los insertos (inserts) y envíos (sends).

Un inserto es, básicamente, un punto en la cadena de audio donde la señal puede ser enviada a un procesador externo de la mesa y retornada a ese mismo punto una vez procesada. Esto implica que la señal original se transforma por completo. En este caso para determinar la relación entre la señal original y la procesada solo lo podemos realizar desde el propio procesador de efectos. Una vez retornada la señal al punto de inserto no se puede disociar.

El envío es un concepto que se suele asociar al término “auxiliar”. Realmente se trata de una salida auxiliar del canal de la mesa, que nos permite enviar la señal a un procesador externo sin cortar la cadena de audio. Es decir, en el canal de la mesa seguirá estando la señal original o seca. ¿Entonces como incluimos en nuestra mezcla la señal procesada? Sencillo, retornaremos la señal procesada a un canal de la mesa diferente, de forma que en el canal 1, por ejemplo, tendremos la señal original y en el canal 24 tendremos la señal procesada. La relación entre ambas la determinaremos con los Faders de cada canal. En algunas mesas digitales, cuando se usan los procesadores de efectos de la propia mesa, el canal al que se retorna la señal procesada es fijo e invariable y se suele denominar “return” (retorno). Un ejemplo es la Yamaha 01V donde los dos canales de retorno de efectos en vez de modularse mediante un Fader como el resto de canales de la mesa, utilizan un potenciómetro de botón.

La diferencia entre envío y envío auxiliar es mas bien poco clara por que depende en gran medida de la nomenclatura que use cada fabricante. A grandes rasgos podemos decir que un Envío es individual de cada canal y un Envío Auxiliar nos permite “routear” varios canales a un mismo Envío. La mayoría de los fabricantes se refiere a los Envíos individuales como Envíos Directos (Direct Output). Lo que definiría los Envíos Directos es que la señal se toma justo después del previo de entrada a la mesa, antes de ser ecualizada o regulada por el Fader, lo que en términos técnicos se define como PreEQ y PreFader.

Vista de Rack de Insertos y Envíos de la Consola MACKIE 24:8 Bus Series

PreEQ, postEQ, prefader y postfader Estos conceptos creo que son un poco más sencillos. En algunas mesas, tanto digitales como analógicas, y en algunos programas software, tenemos la posibilidad de elegir desde que punto de la cadena de audio de la mesa queremos realizar el envío. Si seleccionamos un envío preEQ (Previo a

Page 17: Manualillo de produccion musical

la ecualización) la señal que enviamos al procesador de efectos externo o interno de la mesa ira sin ecualizar, en cambio, un envío postEQ (Posterior a la ecualización) implicará que la señal que enviamos al procesador llevará la misma ecualización que la señal original.

Entiéndase que hablamos de la señal que enviamos, una vez que la señal pasa por el procesador y la

zación

s

preEQ y

Las opciones prefader y postfader funcionarían con la misma metodología. Un envío prefader

sta

Usos y Costumbres uno os estaréis preguntando “Este buen hombre ¿qué me esta contando de

y

Imaginemos un tema pop donde existe una voz principal y dos voces que van doblando esa voz o

e medios,

e.

Cuanta menos señal original y más señal procesada, en este caso reverberada, mas sensación de rtir

ader.

rb, de

Un par de matices rápidos al ejemplo. Como hemos comentado hace unos párrafos algunos eguir

la

retornamos a la mesa podemos ecualizarla como cualquier otro canal de la mesa. A efectos prácticos esto se traduce en que si en el canal de la señal original estamos usando una ecualimas bien correctiva (que tiene como objetivo corregir defectos o ruidos de la señal) el envío será postEQ, de forma que la señal que le llegue al procesador de efectos no presente esas deficienciasque intentamos subsanar en el canal original. En cambio, si la ecualización del canal original es mabien expresiva (que busca realzar o dar brillo a la señal en determinadas frecuencias) el envío será preEQ por que es preferible ecualizar la señal una vez procesada en el canal donde retorne. Esta aplicación practica es meramente orientativa, ya que existen multitud de excepciones y posibilidades, la más simple es que nuestro sistema no nos permita elegir entre un envíopostEQ.

implica que la señal es tomada antes del fader del canal original, lo que se traduce en que las diferentes variaciones del fader no le afectan. Por el contrario, en un envío postfader la señal esujeta a las diferentes modificaciones del fader del canal original. · A estas alturas mas de Envíos, si a mí lo que me interesa es saber como hacerme una Reverb guapa para un tema que estomezclando?”. Para que más o menos veáis la importancia del tipo de envío a la hora de aplicar un Procesador de Efectos nos vamos a quedar con un ejemplo fácil.

haciendo coros. Además de jugar con la panoramización dejando la voz principal en el centro de lamezcla stereo y abriendo mas o menos los panorámicos de los coros, un truco básico es alejar los coros de la voz principal dando la sensación de que se encuentran mas atrás. Podríamos hablar de darle mas profundidad a esos coros. Para ello usaremos una reverb (mas adelante veremos que tipode reverb nos puede interesar para esto). Lo normal a la hora de usar reverbs es utilizar un envío, rara vez se utilizan Insertos que suelen destinarse mas bien a procesadores de dinámica o ecualizadores externos donde es necesario procesar la señal por completo. Por limitación dsolo puedo usar una reverb para las dos pistas o los dos canales con coros, por lo tanto en principio prescindiré de los envíos directos (direct output) y usaré un envío auxiliar para que a un mismo procesador pueda enviar la señal de dos canales. La señal procesada la retornaré, si las señales originales ocupan los canales 12 y 14, pongamos al canal 18 de la mesa que me ha quedado librEste efecto de profundidad se consigue reduciendo la señal original y dándole caña a la señal procesada.

profundidad tendremos con respecto a la voz principal y por tanto del primer plano sonoro. A pade aquí será nuestro oído o nuestro criterio el que determine la profundidad sonora en la que queremos sumergir las voces de los coros. Para conseguir este efecto, el envío deberá ser pref¿Por qué? Sencillo. Si usamos un envío postfader, cuando bajamos los canales 12 y 14 que corresponderían a la señal original estamos también bajando la señal que enviamos a la reveforma que bajamos también el nivel de salida. Con un envío PreFader independizamos la señal queenviamos al procesador de forma que será mucho más fácil conseguir el efecto de profundidad deseado.

procesadores incluyen la posibilidad de mezclar la señal original con la procesada, para conseste efecto lógicamente a la hora de confeccionar o de cargar el preset de la reverb es necesario desactivar o mutear esta opción de forma que la señal que sale del procesador de efectos es solo señal reverberada. El otro matiz tiene que ver con el aumento de volumen, si a una señal original le

Page 18: Manualillo de produccion musical

sumamos la señal reverberada la resultante tendrá un volumen superior lógicamente a la señal original por lo cual tendremos que retocar ligeramente los volúmenes de la mezcla de voces.

La ventaja de utilizar este truco (por otro lado muy simple) es que para crear los planos sonoros entre las voces no hay que recurrir a modular los volúmenes de forma exagerada. Dándole profundidad a los coros nos permite que tengan un volumen muy superior, incluso de primer plano, que tendrían si no las hubiésemos alejado mediante la reverb. De esta forma ganamos sonoridad y presencia de todas las voces en la mezcla final y lo que es más importante, esa sensación de “empaste” que muchas veces echamos de menos.

Reverbs

Probablemente sea el procesador de efectos más habitual en cualquier tipo de producción ón de

a

Quizá el único dogma técnico existente y donde parece que hay cierto consenso entre técnicos e

s”

Hay quien piensa que la sonoridad que produce un buen diseño acústico de una sala es de difícil il

En el uso y utilización de reverbs habría que comenzar por los casos donde es necesaria. Cuando r

la propia

Por extensión serán los instrumentos acústicos los que casi demandan la utilización de una reverb.

El uso

independientemente del estilo musical en el que nos movamos. A priori, el uso o la utilizacilas reverbs es la simulación de un recinto acústico concreto modelando este recinto mediante unserie de parámetros. Pero en muchos casos es más bien una herramienta de creación y modelado de nuevos sonidos que nos permite enriquecer o personalizar un sonido o una pista completa.

ingenieros es que es extremadamente complicado variar o eliminar la reverb natural de un sonido grabado. Desde luego existen posibilidades pero los resultados rara vez son óptimos. Poreso la tendencia en el acondicionamiento acústico de salas de grabación es a crear espacios “sordoo “secos” donde el sonido tenga una reverberación mínima y luego, en la mezcla, recrear mediante procesadores digitales el entorno sonoro más adecuado a nuestra producción. Aunque bien es cierto que grandes estudios o por lo menos con grandes medios, suelen disponer de alguna sala “brillante” o “semi-brillante” destinada principalmente a la grabación de percusiones e instrumentos acústicos.

recreación mediante procesadores digitales ya que estos tienden a ser muy metálicos o irreales. Yprobablemente no les falta su parte de razón, pero conseguir esa acústica de sala perfecta no es fácy sobre todo, no es barato.

solo disponemos de una sala “seca” y afrontamos grabaciones mas o menos clásicas como puede seun solo de piano o de guitarra, un cuadro flamenco o grabaciones de música clásica y opera, es necesario crear una atmósfera común que simule un recinto real con unas condiciones acústicas óptimas. En estos casos se suele usar un mismo procesador para toda la mezcla o varios procesadores con unas configuraciones muy similares, para que se cree esa atmósfera quegrabación te pide.

La guitarra española es un claro ejemplo. Es un instrumento que podríamos declarar “agradecido” al uso de reverbs que le dotan de la sonoridad natural que tiene el instrumento y que a veces se pierde en el registro o la grabación. Además, con el uso de reverbs muy cortas (tiempo de decaimiento o decay muy bajo) le confiere una sonoridad que parece “engordar” el sonido.de las reverbs así como de otros procesadores digitales esta íntimamente relacionado al tempo del tema musical. Un tempo mas bien lento como puede ser un adagio nos permite usar Reverbs muy largas (tiempo de decaimiento o decay con valores muy altos). En cambio, ese mismo tiempo de decaimiento tan largo en una producción muy viva o veloz (alegro), puede fácilmente emborronardemasiado la ejecución del intérprete y probablemente también la mezcla. En el apartado dedicado a las unidades de retardo o delay profundizaremos en el tema de la sincronía tempo-efectos.

Page 19: Manualillo de produccion musical

MASTERVERB - Reverb Software VST y DX desarrollado por WAVE ARTS

Una referencia habitual en los libros y manuales técnicos se refiere al espectro sonoro de los instrumentos o incluso de la pista para modular los parámetros de una reverb. Parece claro que las frecuencias más graves se propagan de una manera mucho más abierta y lenta que las agudas que tienen una propagación mucho mas rápida y direccional. Pues bien, según este criterio para instrumentos o sonidos muy graves, el uso de estos procesadores debe centrarse simplemente en “engordar” el sonido mediante programas muy cortos o en muchos casos no usar ningún tipo de reverberación. La razón esta en esa misma capacidad de propagación que con el uso de Reverbs puede enturbiar el sonido y por tanto la mezcla. Por el contrario, los instrumentos o sonidos muy agudos son mucho más receptivos al uso de procesadores de efectos, no solo reverbs, ya que tienen la claridad necesaria para el lucimiento de los efectos sin que enmarañe la mezcla. Como ejemplo de este criterio aplicado de forma consciente o inconsciente es el bombo o el bajo. Es realmente difícil encontrar producciones donde se hayan aplicado programas de reverberación largos a estos instrumentos. De todas formas, todas estas consideraciones son meras orientaciones puesto que la capacidad de experimentación en un técnico o en un productor deben estar por encima de dogmas o principios y su oído debe ser el juez supremo.

Al igual que hablábamos de la querencia de la guitarra española sobre este tipo de procesadores, es aplicable a la mayoría de instrumentos acústicos como puede ser piano, la familia de los metales (trompeta, trombón, saxo), maderas (flauta y clarinete), pequeña percusión y cuerdas (violín y viola), con la excepción de cello y contrabajo que necesitan un tratamiento muy cuidadoso para no perder la definición tan completa que suelen tener ambos instrumentos. En la mayoría de estos instrumentos se tiende simplemente a recrear un espacio sonoro donde puedan destacar sus propias propiedades tímbricas y solo en raras excepciones se busca modificar el sonido original mediante el uso de reverbs.

El caso de la batería acústica es bastante más complejo en gran medida por que claramente abandonamos una estética mas bien clásica y nos adentramos en nuevas formas de expresión técnica donde la creatividad sonora es parte fundamental del proceso. El bombo, debido a su forma y propiedades físicas no suele necesitar del uso de reverbs, aunque si en la grabación se han usado reductores de ruido que han diezmado en exceso el decaimiento natural del instrumento es recomendable usar programas muy cortos para redondear el sonido aunque no suele ser lo habitual por que el resto de pistas de la batería suele recoger también parte del sonido del bombo. El caso de los timbales es similar aunque cuanto menos diámetro tiene el timbal o tom, mas demandaría una reverb tipo hall, room o stage con un decaimiento inversamente proporcional a su diámetro. Influye mucho que normalmente los toms son instrumentos de corte sin una carga rítmica constante con lo que se puede ganar mucha sonoridad mediante programas más largos ya que no enturbian tanto la mezcla como ocurriría en el caso del bombo. Para el tratamiento de platos y charles se tiende a usar programas tipo plate que como veremos son muy metálicos y lógicamente resaltan la sonoridad de estos instrumentos. La caja es el caso más complejo. De su sonido depende en gran medida la identidad musical de la producción que estamos mezclando y la variación que puede producirse a la hora de usar un programa u otro es tan amplía que es muy difícil marcar una pauta que nos pueda

Page 20: Manualillo de produccion musical

servir de base. Algunos autores indican un programa tipo plate como punto de partida, pero esta es una apreciación que no es muy afortunada en algunos estilos musicales.

En sintetizadores y samplers, la utilización de procesadores de efectos, no sólo reverbs, forma parte del proceso de creación de un sonido. En este sentido es complicado sentar alguna base de trabajo.

Algo similar ocurre con la guitarra eléctrica, cuyo amalgama de posibilidades sonoras relacionan íntimamente el uso de procesadores con el sonido que el intérprete busca. Existe la creencia mas o menos generalizada de que un sonido más analógico y cálido es mas bien seco y que las reverbs y otros efectos implicarían otra concepción musical más fría o digital. Aunque esto no siempre es así y dependería del tiempo de decaimiento de los efectos.

El caso de la voz humana es un poco particular. Como ya vimos, tenemos que partir de la base que a nosotros mismos nos escuchamos con una reverb natural generada en la cavidad bucal que actúa como cámara reverberante y cuyo sonido se transmite por las mandíbulas y otros conductos hasta nuestros oídos. Esa es la causa principal por la cual la primera vez que escuchamos una grabación de nuestra voz no suena “raro”. De hecho hay muchos interpretes que incluso para ensayar o para grabar necesitan escucharse con mucha reverb. Algo que también sucede de forma natural en cualquier ducha o lavabo cuyas paredes estén recubiertas de azulejos. De ahí que lo de cantar en la ducha tenga mucho sentido. Además, no será el primer estudio de grabación que ha usado los aseos como sala brillante. Por lo tanto parece claro que toda voz debe llevar algo de reverberación. Otro tema es que esa reverberación se deje notar o tan solo sirva para “engordar” o dar empaque a la voz. Dentro del apartado de “dejarse notar” desde luego me quedaría con la reverb de 7 segundos, perfectamente estudiada, con la que Julio Iglesias deleita a sus feligreses en sus recitales. Parámetros Principales

· REV TIME (Tiempo de Reverberación) es el tiempo expresado en segundos o fracciones de segundo que es necesario para que el nivel de reverberación disminuya unos 60dB convirtiéndose en inapreciable.

· PRE-DELAY o INITIAL DELAY es el tiempo que transcurre desde que llega el sonido directo o la señal original hasta que llegan las primeras reflexiones que corresponden a la pared opuesta a la fuente de sonido. Suele variar entre 0 y algunos cientos de milisegundos. Cuanto mayor sea, más grande parecerá la sala simulada, al dar la impresión de que la pared opuesta esta mas alejada.

· EARLY REFLECTIONS primeras reflexiones o reflexiones primarias, en algunos procesadores permite desactivarlas. En principio son las que mayor carga sonora poseen y que más cerca de la señal original se situarán.

Page 21: Manualillo de produccion musical

TRUEVERB Reverb TDM desarrollada por WAVES

· REV DELAY es el tiempo que transcurre entre las primeras reflexiones y el inicio de la reverberación.

· DIMENSION nos permite configurar las dimensiones del recinto. En algunos casos viene expresada directamente en metros cúbicos, aunque algunos modelos permiten configurar por separado la anchura (WIDTH), la altura (HEIGHT) y la profundidad (DEPHT). También suele aparecer como ROOM SIZE que siempre va expresado en metros cúbicos.

· DIFUSSION esta relacionada con el contenido de una supuesta sala, es decir si es una sala llena o vacía. Cuanto mayor sea más rica y compleja será la reverb.

· DENSITY determina la densidad de las reflexiones, entendiendo por densidad, el numero y secuencia temporal entre todas las reflexiones que componen la reverberación. Cuanto más alta es la densidad mas “pesada” o contundente será la reverb.

· LIVENESS está relacionado con los materiales con los que van revestidas las paredes de la sala. Realmente expresa la vivacidad de la sala. Si queremos simular una sala con paredes de piedra el valor será muy alto, mientras que si queremos una sala mas muerta como si hubiese moqueta en las paredes, su valor será ciertamente muy bajo. Hay que tener en cuenta que este parámetro tiende a actuar solo sobre las frecuencias más agudas. Presets más habituales

· HALL - En principio simula una gran sala, tipo auditorio. Suelen ser bastante largas y poco densas. Hay fabricantes que distinguen entre SMALL HALL o LARGEST HALL.

· ROOM - Simula las condiciones acústicas de una sala pequeña o una habitación.

· PLATE - Realmente es una reverberación mecánica, como si colocásemos una plancha metálica frente a la fuente de sonido, de forma que sobre todo las reflexiones primarias son muy brillantes.

Page 22: Manualillo de produccion musical

· CATHEDRAL - Intenta recrear las condiciones acústicas de la típica catedral gótica, una reverb muy larga y densa llena de matices y poco recomendable para las mezclas por que tiende a enturbiarlo todo.

· BATHROOM - Como su nombre indica, simula las condiciones de un cuarto de baño típico, un espacio mas bien reducido y muy brillante puesto que las paredes son de azulejo y ya se sabe de las propiedades acústicas de la bañera. Hay fabricantes que también incluyen una variante STATE BATHROOM, que viene a ser un baño de grandes dimensiones.

Procesador Hardware Multiefectos TC ELECTRONICS M6000

· TEATHRE - En teoría simula las condiciones acústicas de un teatro, aunque en la práctica viene a ser una reverb hall un poco menos densa y matando un poco las reflexiones primarias.

· STUDIO - En principio un estudio no debería tener ningún tipo de reverb, pero algunos fabricantes incluyen un preset donde han dejado las reflexiones primarias y han eliminado el resto. Incluso diferencian entre STUDIO A y STUDIO B, cuya diferencia viene a ser las dimensiones del estudio. Aunque otros fabricantes usan configuraciones distintas.

· VOICE ROOM - De verdad que hay fabricantes osados en esto de hacer presets, en principio es una reverb tipo ROOM adaptada para voz (?) Pero no queda ahí la cosa, también te puedes encontrar DRUMS ROOM o GUITAR ROOM.

· MILLENIUM - Es similar a la CATHEDRAL pero incluyendo muchos más retardos. No simula ningún tipo de recinto conocido, es muy espectacular aunque poco práctica.

· Por último algunos fabricantes en determinados modelos (por ejemplo en la Yamaha 01V) incluyen diseños particulares para cada instrumento para que no tengas que pensar mucho: HIT-HAT, TOM1, TOM2, SNARE, CRASH, etc, etc...

Delay: unidades de retardo

Dejando a un lado su utilización en la sonorización de eventos y espacios, lo que se denomina “refuerzo de sonido” o “Public Address” (P.A.), las unidades de retardo o delay son una herramienta muy potente en aplicaciones musicales.

Como vimos en la introducción a los principios teóricos al principio de este artículo, la definición de eco (echo) vendría dada por la capacidad de nuestro oído de diferenciar la señal original de la reflejada y por lo tanto, según el efecto Haas, el retardo mínimo deberá ser superior a 50 milisegundos. En la práctica, hablamos de delay para referirnos a cualquier retardo sobre la señal original y a eco (Echo), cuando este retardo si que es identificado por nuestro oído como una señal diferente a la original.

Page 23: Manualillo de produccion musical

SPINDELAY - Delay Stereo VST desarrollado por SPINAUDIO

Hay que distinguir dos vertientes del efecto, el llamado eco simple, donde la señal sólo se dobla una vez y que simplemente retarda la señal respecto a la original, y el eco múltiple. En el eco múltiple hay que definir cual será el tiempo de realimentación (feedback delay), el numero de veces que se va a producir la realimentación (a veces se expresa en % de señal) y el nivel de salida.

Pero para que un delay o eco múltiple se integre perfectamente en nuestra mezcla hay que pensar que es un elemento rítmico más de la producción y que su uso debe ser sincrónico al tempo y compás del tema musical. Para calcular esta sincronía en los retardos, podemos tirar de calculadora o bien, recurrir a las tablas de retardos sincrónicos que nos muestran las relaciones entre la velocidad del tema y el tiempo de retardo, si queremos que nuestro delay sea a negras o bien a corcheas, tresillos, semicorcheas, etc... Un ejemplo a 120 b.p.m. el retardo expresado en milisegundos en negras será de 500, en corcheas 250, en tresillos 166,6 etc...

- [ Bájate aquí una tabla de delays en formato Excel ]

Hoy en día muchos procesadores de efectos incluyen esta función en sus procesadores donde defines el tempo musical del tema y el valor de duración de la nota que representará el delay.

El empleo de delays se ha centrado tradicionalmente en guitarras como apoyo rítmico y en menor medida en teclados y sintetizadores. En el caso de las voces se ha usado para doblar la voz principal aunque hay ejemplos de muchas mezclas que revelan que es una herramienta creativa con infinidad de posibilidades pese a su simplicidad. Quizá sea debido a que es un efecto que se deja notar, que al oído no le pasa inadvertido. Y esta virtud le permite asociarse con otros procesadores de forma que si aplicamos un delay simple a una reverb conseguiremos que esa reverb se deje notar de una manera más evidente, dependiendo del tiempo de retardo. Y viceversa, si al usar un retardo múltiple insertamos después una reverb, la sensación de “empaste” del delay será mayor.

DDBPM - Doble Delay Sincronico desarrollado por DSOUND para VST

Uno de los programas más curiosos es el delay ping-pong, un programa múltiple donde cada repetición se panoramiza a un lado de la mezcla, creando un efecto de cruce estéreo entre las repeticiones. Hay algunos procesadores que usan etiquetas como slap, short, medium o long, que hacen alusión a los tiempos de retardo, teniendo siempre en cuenta que para hablar de eco (Echo) hay que moverse en valores superiores a 50 milisegundos.

Efectos de modulación: chorus, flanger y phaser

Page 24: Manualillo de produccion musical

Son los efectos que afectan a la modulación en frecuencia de las señales. Esta modulación se basa en las diferentes sensaciones que percibe nuestro cerebro en función de las diferencias de volumen, afinación o procedencia de la música. Las señales son repetidas con un ligero retardo y sometidas a una pequeña variación de frecuencia.

· CHORUS: Es un efecto que persigue dar mayor profundidad a la señal tratada dotándola de una sensación de profundidad. Se suele aplicar para engordar o engrandecer las secciones de cuerda, teclados o guitarras. Básicamente se trata de dividir la señal tratada en tres señales diferentes que se colocan en el centro, izquierda y derecha del panorama estéreo. Cada señal es retrasada ligeramente por un oscilador de baja frecuencia (LFO) para que las variaciones de tono sean mínimas.

· FLANGER: Es un efecto típico de las guitarras eléctricas. Se logra efectuando una combinación de retardo y oscilador de baja frecuencia. Los valores de ese retardo oscilan entre 1 y 15 ms y la baja frecuencia entre 0,03 y 1 hz. Para obtener el efecto, una parte de la señal de baja frecuencia se ingresa en el circuito de retardo sumándose a la señal directa. Su funcionamiento se basa en un ligero retardo que se alterna constantemente con la modulación producida por el LFO, consiguiendo un cambio de fase de la señal procesada con la original. Es necesario que ambos niveles de salida o de mezcla, original y procesado, sean similares y se consigue una mayor expresividad cuanto mayor sea el espectro de frecuencias tratado.

· PHASER o PHASING: Hay quien opina que es una versión suave del flanger, pero básicamente se trata de invertir la frecuencia de la señal procesada respecto a la original y retardarla ligeramente lo que provoca cancelaciones continuas de la señal y un efecto muy concreto y también muy apreciados por guitarristas y guitarreros.

· TREMOLO: Es un efecto muy similar al producido por un programa chorus, pero mucho más marcado, tanto en la profundidad como en la variación del retardo. Clemente Tribaldos en su libro “SONIDO PROFESIONAL” (ED Paraninfo 1993) lo define como “una modulación cíclica y aleatoria de la señal de entrada, pudiendo controlar el retardo introducido...” ahí es nada.

Procesador Hardware Multiefectos YAMAHA SPX 1000

Otros tipos de procesadores

Vocoders Se trata de un efecto muy característico en las producciones ochenteras de Pink Floyd o Tangerine Dream y más recientemente, el tema “Believe” de Cher. Se trata de dividir la señal mediante una red de filtros pasa banda en un determinado numero de bandas muy estrechas en distintas frecuencias, por lo que podemos acceder a modificar el ancho de banda o actuar sobre los armónicos centrales, modificando las características de la señal tratada. Es un efecto muy complejo que utiliza osciladores y generadores de ruido y cuya resultante es realmente particular. Efectos de Tono: Pitch y Octaver Realmente han quedado un poco trasnochados con la llegada de procesadores digitales por software, pero la mayoría de los multiefectos siguen incorporándolos. El Octaver, como su nombre indica permite disminuir una o dos octavas la señal original y ha sido muy usado en guitarras y bajos. Pitch Blend o Pitch Change es una aplicación que cualquiera manejamos en un Editor de audio y

Page 25: Manualillo de produccion musical

que nos permite realizar ajustes de afinación en la señal original. Ahora bien, si usamos estos efectos con un cierto delay o retardo, mezclando la señal procesada con la original, los resultados pueden ser sorprendentes. Un ejemplo seria aumentar una octava una pista de voz, darle un delay corto y un programa de reverb con poca densidad. Efectos de timbre: Overdrive y Excitadores El Overdrive o distorsión es un efecto característico de las Guitarras Eléctricas y por extensión, de los Pedales o Pedaleras de Efectos. Como su nombre indica, se trata de producir una distorsión al sonido que lo convierte en agresivo y potente. Lo más habitual es que nos permita seleccionar el rango de frecuencias que someteremos a la distorsión y el grado de la misma.

Hablar de Excitadores es hablar de APHEX que ya en 1975 introdujo en el mercado el primer excitador aural. Estos procesadores tienen una doble función, actúan sobre las frecuencias medias y agudas generando armónicos y realzándolos y por otro lado amplían, de una forma aparente, el espectro estéreo enmascarando la escucha. Esta supuesta ampliación se debe a que estimulan los procesos pisco-acústicos de la escucha humana para crear ese efecto.

Trabajando con procesadores

A lo largo de las explicaciones hemos ido introduciendo algunos trucos y aplicaciones, mas bien simples, de uso y utilización de diversos procesadores de Efectos. Reconozco que muchas veces es complicado salirse de los presets y programas habituales e intentar buscar nuevos sonidos que le den personalidad a nuestra mezcla. Supongo que en cierta manera, al igual que con los ecualizadores, existe una tendencia correctiva y otra expresiva a la hora de aplicar determinados procesadores.

Dentro de esa tendencia correctiva incluiríamos por ejemplo, recrear unas supuestas condiciones acústicas de las que carece nuestro Estudio o dotar de mas peso o rotundidad a una voz solista.

En la tendencia expresiva irían todas las configuraciones dirigidas a conjugar mejor los sonidos en una mezcla, utilizando los procesadores a la hora de efectuar planos sonoros o ampliar el espectro estéreo de un instrumento.

Quizá uno de los errores o carencias mas habituales es utilizar los procesadores de una forma aislada. Probablemente el secreto para personalizar el sonido de una mezcla o de una pista esta en utilizar varios procesadores en cadena combinándolos con ecualizadores y procesadores de dinámica. Ejemplos hay muchos, desde la clásica reverb de caja sesgada con una puerta de ruido (noise gate) al estilo Phill Collins hasta la última moda Pop de doblar la voz mediante un delay simple sincronizado y filtrado por un Ecualizador que simule el sonido de los antiguos receptores de onda media (AM) con un programa de reverb largo y poco denso. Desde luego las posibilidades son infinitas ya que en este caso el orden de los factores si que altera el sonido final. No es lo mismo ecualizar una señal reverberada que reverberar una señal ecualizada, aunque en algunos casos el resultado final puede ser muy similar, en otros las diferencias son muy evidentes.

El otro gran error es el abuso de efectos y procesadores que a veces llega a desvirtuar el sentido musical de un tema rebajándolo a un mero ejercicio o demostración técnica. La frontera entre el uso y el abuso, en ocasiones, es muy fina y en el fragor de una mezcla es fácil dejarse llevar por la experimentación y la tecnología. Por eso siempre es positivo dejar enfriar una mezcla e intentar ser críticos a la hora de retomarla.

10 consejos rapidos

1. La mejor reverb del mundo no es siempre la más espectacular, sino la que mejor se adapta a tu mezcla o al estilo musical que estas mezclando.

2. Los presets son como la comida rápida, están bien cuando tienes poco tiempo y necesitas algo rápido, pero donde este un buen entrecot a la brasa con una buena guarnición asado con tiempo y

Page 26: Manualillo de produccion musical

paciencia, que se quite un Big Mac. Aunque a veces, por no cocinar, apetezca más un Mac Menú y otras que, con tanto tiempo y paciencia, se te queme el entrecot.

3. Ten siempre en cuenta que una pista o un instrumento va integrado en una mezcla de forma que, aunque pueda parecer que esta muy alto el efecto, luego en la mezcla apenas se deje sentir y viceversa. Por eso siempre es bueno escuchar como se integra el sonido procesado en la mezcla para evitar sorpresas de ultima hora.

4. El mejor procesador de efectos no es siempre el más caro sino el que conoces mejor. Dominar un procesador implica una capacidad mayor para encontrar con el efecto más idóneo para cada ocasión, por eso no es necesario tener decenas de efectos diferentes en el ordenador. Con unos pocos bien “crrados” se obtienen mejores resultados que con muchos que en algunos casos nos viene justo para saber como funcionan.

5. El mayor pecado de un técnico es que su trabajo se deje notar. A la hora de diseñar un efecto nunca esperes que el oyente piense “que reverb más estupenda ha insertado en tal pista”. Una mezcla es un concepto global.

6. Los procesadores de efectos, como el resto de la tecnología, están al servicio de las ideas o conceptos musicales. Cuando te dejas llevar y la música acaba por estar al servicio de la tecnología, tu música acaba pareciéndose a la demo de cualquier fabricante, aunque hay que reconocer que hay algunas demos que son autenticas joyas.

7. El volumen de escucha es fundamental a la hora de valorar un efecto. Si tienes los monitores muy “cañeros” escucharas los efectos perfectamente. Pero sucede que el consumidor final de la mezcla no tiene por que tener semejante volumen de escucha, mas bien al contrario, por lo que siempre es positivo hacer una escucha con un volumen mínimo para ver como se comportan o como quedan esos efectos en la mezcla. Por desgracia lo que antes era espectacular, a bajo volumen ni se aprecia.

8. Sentarte a oír música y escuchar que han hecho otros incluyendo que tratamiento han dado a sus pistas, es mucho más practico y constructivo que leer artículos como este en la red. Escuchar es siempre la mejor herramienta de creación de que disponemos.

9. La ausencia de efectos también es un efecto. No te sientas obligado a partir de ahora a procesar todas las pistas a diestro y siniestro, un sonido seco y limpio puede ser un efecto tan valido como la mejor combinación de procesadores.

10. Lo que al final determina si un efecto es apropiado para una mezcla es tu criterio y tu oído. Cuando te enfrentes a una mezcla de nada servirán ni libros, ni artículos ni siquiera consejos en los Foros (que los hay muy buenos). Al final, lo que te queda es tu criterio y lo que tu oído escucha. El resto, como este artículo o cualquiera de los de la amplia Biblioteca de Hispasonic, son meras guías o consejos que pueden estar muy bien y ayudarte un montón, pero lo que cuenta es lo que escuchas cuando le das al play del secuenciador o del multipistas.

Por Proty

Page 27: Manualillo de produccion musical

Reverb inversa

Muchas veces habrás oído este tipo de efecto: una reverberación que va in crescendo y se engancha con el sonido que la produjo, exactamente al revés de como actúa una reverb normal, que nace a partir de un sonido y va decreciendo.

Evidentemente esto no puede hacerse a tiempo real; no hay reverbs que "viajen en el tiempo" y se adelanten al sonido del que dependen. Pero la cosa es muy sencilla; abre tu editor de audio y ten a mano la muestra sobre la que quieres hacer el efecto; vale cualquier cosa, incluso mezclas completas. Con todo se puede experimentar; nosotros te daremos un ejemplo tratando un sample corto de voz.

Tratando la muestra original

Escucha [aquí] nuestra toma original, antes de ser retorcida...

Como es un efecto que se utiliza a manera de "Reverse Cymbal", es decir, para dar una entrada sorprendente y espectacular a un momento concreto, trabajaremos sólo sobre el momento inicial de la muestra. En nuestro caso, haremos el efecto sobre la primera sílaba de la frase "de nuevo vuelvo a vivir".

Cargamos esta muestra en el editor e insertamos una buena cantidad de silencio al principio, dejando así espacio para que luego suene la cola de reverberación.

Dándole la vuelta y añadiendo reverb

Selecciona toda la onda y ejecuta la función reverse de tu editor de audio. Esto hará que suene todo al revés, claro; la cosa da risa, pero es necesario...

Escucha [aquí] la toma en reverse.

Ahora haz una selección que empiece en el pedazo a procesar (en nuestro caso esa sílaba) y que llegue hasta el final de la muestra tal como la tienes ahora. Como hemos dado la vuelta a la onda, ahora el inicio original estará al final, seguido de los segundos de silencio que aplicamos antes.

Con este segmento seleccionado, aplica reverb y guarda los cambios a la onda. Usa la reverb que más te guste -cuanta más cola tenga, más tiempo durará el efecto y más silencio deberás añadir previamente-. Recuerda: añade reverb sólo a la parte seleccionada.

Otra vuelta y... ¡al plato!

Selecciona ahora toda la muestra de nuevo. Ejecuta otra vez la función reverse para poner las cosas en su sitio. Dale a play y... ¡ya lo tienes!

¡Ahora a practicar!

Por Xabier Blanco

Page 28: Manualillo de produccion musical

La ecualización

La ecualización es una de las tareas de estudio más desconocidas; sin embargo, su uso es fundamental para conseguir un sonido realista y natural. En este artículo partimos de lo básico y te damos una visión general para que empieces a trabajar sobre ella.

Breve introducción al sonido: la frecuencia

El sonido es la vibración de un medio elástico, bien sea gaseoso, liquido o sólido. Las ondas generadas por la fuente sonora producen ciertas variaciones de presión en el medio (por ejemplo, el aire o el agua), y esto es lo que permite que sean percibidas por el ser humano (si bien no percibe cualquier variación; si es demasiado rápida o demasiado lenta no la escuchará). Es por ello que en el espacio cósmico no hay sonidos, ya que falta el medio por el que deben discurrir: en el espacio sólo hay vacío, y por ello no pueden haber variaciones de presión audibles.

Partiendo de esto, podemos definir la frecuencia del sonido como el número de vibraciones (ciclos) que produce una señal sonora por unidad de tiempo (el segundo). La unidad correspondiente a un ciclo por segundo es el herzio (Hz). Las frecuencias más bajas en herzios se corresponden con lo que habitualmente llamamos sonidos "graves?, sonidos de vibraciones lentas. Las frecuencias más altas en herzios se corresponden con lo que llamamos "agudos" y son por ello vibraciones muy rápidas.

Como hemos insinuado antes, el ser humano no puede captar cualquier vibración; el espectrode frecuencias audible variará según cada persona, pero se acepta como media el intervalo entre 20 Hz y 20 kHz. Así que en este rango de frecuencias existe todo lo que nosotros podemos oír; más alla están los ultrasonidos (por encima de 20 Khz) y los infrasonidos (por debajo de 20 Hz), que sí pueden captar algunos animales con un sistema auditivo más desarrollado.

Cada instrumento musical, como cualquier otra fuente sonora, produce sonido en una zona determinada de este espectro de frecuencias audibles; unos abarcan más espacio y otros menos. Y aquí es donde entran los ecualizadores: estos dispositivos alteran la respuesta en frecuencia de un sonido, aumentando o atenuando ciertas frecuencias.

Tipos de ecualizadores Existen varios tipos de ecualizadores; el más simple es el de tipo shelving, que tiene solamente control de graves y agudos; se encuentra en cualquier equipo común. Normalmente, estos ecualizadores aumentan o atenúan 15 db en 100 Hz (graves) y en 10 KHz (agudos), aunque pueden variar según cada modelo. Con un ecualizador de tres bandas puedes ya aumentar o atenuar bajos, medios y agudos, también sólo en frecuencias fijas: por ejemplo, en 100Hz (bajos), 2 KHz (medios) y 10 KHz (agudos).

Los ecualizadores semiparamétricos son los que te permiten elegir la frecuencia a ecualizar; de esta manera puedes aumentar o atenuar las frecuencias que te parezcan convenientes. En un ecualizador paramétrico tienes, además, la posibilidad de elegir el ancho de banda (rango de frecuencias afectadas a partir de la elegida) que quieres aumentar o atenuar. Este parámetro es conocido como "Q".

Por último, los más comunes son los ecualizadores gráficos, que van por lo normal desde 5 hasta 31 bandas de frecuencia fijas, aunque a veces te encuentras con aparatos más complejos, con más bandas (en la foto que sigue puedes ver uno de 10 bandas por canal).

Page 29: Manualillo de produccion musical

Los ecualizadores tienen básicamente estas dos aplicaciones:

Resolver problemas Los ecualizadores se pueden utilizar como filtros, para atenuar o eliminar frecuencias que

molestan, ruidos o interferencias que se mezclan con el sonido. Por ejemplo, el hum producido por una mala fuente de alimentación se reduce atenuando en 50-60 Hz aproximadamente. El hiss, tan común en los cassettes, se puede disminuir atenuando las altas frecuencias. Por lo general, los problemas ocurren en un rango determinado de frecuencias, por esto es que los

ecualizadores paramétricos son los ideales para este propósito. Otro problema común es el del enmascaramiento: un instrumento con una resonancia o un pico en una frecuencia. Si bien

este instrumento suena bien solo, al mezclarlo con otros puede interferir en la claridad de éstos, por lo que es recomendable atenuar estas frecuencias, comprimirlas o limitarlas.

Afectar a la personalidad de un sonido Los EQ también pueden variar el carácter de un instrumento. Esto se logra alterando la

frecuencia fundamental o los armónicos, teniendo en cuenta siempre que si se alteras todos los instrumentos por separado y luego los mezclan no se asegura un buen resultado de

la mezcla. Para ecualizar correctamente un instrumento puede servirte como guía nuestra tabla referida al rango de frecuencias de los instrumentos musicales; para consultarla, pulsa [

aquí ].

Ideas para el uso práctico de los ecualizadores Como norma general, a cada instrumento se le puede dar cuerpo aumentando su frecuencia fundamental. Atenúa ésta si el sonido es muy grave o indefinido. Aumentando los armónicos le das mas presencia y definición, así que atenúalos también si el sonido es muy violento. Por otra parte, ten en cuenta que ecualizaciones extremas reducen fidelidad, pero pueden crear efectos interesantes: por ejemplo, cortando bruscamente los graves y los agudos de una voz se consigue el sonido telefónico.

Las siguientes son algunas sugerencias de frecuencias que puedes ajustar con los ecualizadores. Si quieres lograr el efecto deseado, aumenta en esa frecuencia; si no lo quieres,atenúala (en la foto, una EQ de Cubase configurada para reducir los hiss y hums de una pista

de voz).

· Bajo: Cuerpo y profundidad en 60 Hz, áspero en 600 Hz, presencia en 2.5 kHz y ruido de cuerda a partir de los 3 kH.

· Guitarra acústica: Cuerpo en 80 Hz, presencia en 5 kHz, sonido de púa por encima de 10 kHz.

· Guitarra eléctrica: Pegada en 60 Hz, cuerpo en 100 Hz, estridente en 600 Hz, presencia en 2-3 kHz, latosa y rasposa arriba de los 6 kHz.

· Batería: Cuerpo en 100 Hz, apagada en 250-600 Hz, trash de 1 a 3 kHz, ataque en 5 kHz, seca y enérgica en 10 kHz.

· Bombo: Cuerpo y potencia por debajo de los 60 Hz, acartonado 300-800 Hz (corta de 400 a 600 para conseguir un mejor tono), y el kick o ataque en 2-6 kHz.

· Percusión: Brillo y presencia en 10 kHz.

· Saxo: Cálido en 500 Hz, duro en 3 kHz, sonido de llaves por encima de 10 kHz.

Page 30: Manualillo de produccion musical

· Voz: Cuerpo en 100-150 Hz (hombre), cuerpo en 200-250 (mujer), sonido nasal en 500-1000 Hz, presencia en 5 kHz, y sonido de 's' arriba de 6 kHz.

¿Hay que usar los EQ cuando grabas o cuando mezclas? Si se graban todos los canales por separado, lo que usualmente se hace es grabar con todos los EQ planos y ecualizar durante la mezcla. Esta es la mejor solución, porque las cosas cambian cuando se escuchan todos los instrumentos al mismo tiempo. Si, en cambio, tienes que hacer premezclas antes de grabar, debes ecualizar antes de premezclar. También debes saber que, en tomas de micro, antes de usar un EQ debes intentar lograr ese cambio de tono cambiando de lugar los micrófonos. Esto le da un efecto más natural que utilizando el EQ. Para acabar, recuerda que los EQ suelen trabajar mejor cuando se utilizan sutilmente (variaciones de 2 o 3 db pueden ser suficientes).

El error más común es comenzar agregándole graves a todo; así la mezcla sonará grave y turbia. Si haces eso podrías pensar que subiendo los agudos se arreglará el fiasco, pero verás enseguida como los medios suenan débiles... y se descontrolará todo. Un buen consejo es utilizar la EQ con bypass para ir escuchando y controlando la ecualización en todo momento.

· Tutorial cedido por Tamaba (Taller de Música y Arte de Buenos Aires) [ http://www.tamaba.com.ar ] · Aumentado y adaptado por Xabier Blanco

Page 31: Manualillo de produccion musical

La masterización

"La masterización es el arte del compromiso; saber qué es lo posible y lo imposible, y tomar decisiones sobre lo que es más importante en la música"

Bob Katz

El proceso de masterización

Así pues, ¿qué es lo más importante en tu música? Quizás quieras destacar la voz, o a lo mejor trabajas un estilo muy rítmico y quieres primar la presencia de los bombos y bajos. No hay una misma regla para todos; tu música y tus oídos son los que mandan.

De cualquier modo, el proceso de masterización en general sigue unos pasos determinados; nosotros seguiremos el esquema que marca una de las unidades de mastering más reputadas, el TC Electronic Finalizer:

I1 e I2 se refieren a las inserciones de efectos que ofrece el Finalizer; hablando en general, antes de pasar a la fase de compresión/limitación, lo normal es aplicar una EQ general e incluso alguna puerta o de-esser para filtrar sibilantes o ruidos si están presentes.

Un punto vital a la hora de masterizar es tener unos monitores que ofrezcan nitidez y precisión en el sonido. Si no escuchamos claramente todos los aspectos de la mezcla, difícilmente e?corregiremos los errores y potenciaremos los aciertos; esto es particularmente importante a la hora de ecualizar.

El mastering actual usa cada vez más los compresores y limitadores multibanda, que afectan selectivamente a bandas de frecuencias seleccionadas. Son muy eficaces, pero su manejo requiere cierta destreza y, aunque no lo notes al principio, los ajustes extremos pueden provocar fatiga auditiva con más facilidad que en ajustes suaves, buscando mayor naturalidad.

El TC Finalizer; un nombre realmente apropiado

<!-- pagebreak --> La ecualización

Como sabes, la EQ puede cambiar el trazado espectral del sonido; sin embargo, el mayor trabajo de EQ se lleva a cabo en la fase de mezcla, resaltando las características deseadas de cada pista, equilibrándolas y situando cada cosa en su sitio sin producir confusión. En el mastering, la EQ nos servirá para darle un toque final al material; si no has hecho un buen trabajo con la EQ en la fase de mezcla, seguramente ya será tarde para corregirlo. Repásate nuestro artículo sobre [ la ecualización ] si quieres recordar sus principios.

La EQ en la masterización tiene tres objetivos primordiales:

· Ajustar el nivel general de bajos, medios y agudos. · Hacer que el nivel general de esas tres bandas de frecuencia suene más uniforme. · Atenuar ciertas frecuencias que causan distorsión, o al revés, potenciar frecuencias que consiguen un sonido más natural.

Escucha atentamente la mezcla e intenta captar sus debilidades; ¿demasiado oscura y sin aire? Haz pequeños ajustes en las frecuencias altas. ¿Poco cuerpo? Actúa sobre los rangos medios. ¿Están demasiado embarullados los graves o retumban los subgraves? Haz cortes o

Page 32: Manualillo de produccion musical

atenúa en esa zona. Como ves, no estamos hablando aquí de resaltar o solapar un instrumento concreto o una voz; como hemos dicho, eso debe hacerse en la mezcla. Ahora debes centrarte en el sonido general, considerado como un todo.

Un truco es que el contraste de rangos tiene un efecto interactivo; por ejemplo, una pequeña atenuación en el rango inferior de medios (alrededor de 250 Hz) puede tener un efecto similar que potenciar el rango de presencia (alrededor de 5 Khz). Otro truco es restaurar el "aire" que puede ser perdido incluso dando cortes de medio dB a 7 Khz; esto puede arreglarse a menudo aumentando el rango de 15 a 20 Khz; un cuarto de dB puede solucionar las cosas.

No hay magia en esto; debes guiarte por tus oídos. Pero una buena manera de aprender la ofrecen herramientas como el [Steinberg Freefilter], que "copia" los parámetros de EQ de una onda dada y te permite usarlos en tus producciones. Escoge pues una mezcla profesional e?que tenga características similares a la que tienes entre manos y pásale el FreeFilter; fíjate en los parámetros resultantes y adáptalos a tu mezcla.

La normalización

Una vez que hemos ajustado la EQ, se habrán producido cambios en la ganancia general del sonido. La normalización aumenta o reduce la amplitud general o nivel de loudness de una señal a un punto seleccionado. Generalmente, sirve para llevar el pico de amplitud más alto de la señal justo por debajo del nivel de distorsión (0 dB)

Normalizando conseguimos sacar el máximo partido del rango dinámico que dispongamos (en audio digital, es mayor el rango de un archivo de 24 bit que el de otro a 16 bit). Sin embargo, no afecta al rango dinámico relativo de la propia señal de audio; en otras palabras, el rango dinámico entre el material de menor y mayor volumen de la propia señal queda inalterable, pero la señal suena a más volumen en general (aumentan en la misma proporción las partes de poco y mucho volumen). Para afectar a esa dinámica de la señal tendremos que acudir a la compresión.

Señal sin normalizar (arriba) y normalizada (abajo)

<!-- pagebreak --> El expansor

Un expansor funciona como una puerta y te ayudará a eliminar ruido de fondo. Prueba a escuchar el principio de tu mezcla, ¿hay algún ruido de grabación o de cinta? Si tiene algo de esto y quieres eliminarlo, utiliza el expansor de la siguiente forma: ajusta el ratio a 1:32 (esto es, la profundidad del expansor). Ahora ajusta el umbral. El expansor comienza a funcionar cuando la señal cae por debajo del punto de umbral; ve jugando con este parámetro mientras reproduces la música desde el principio un par de veces, hasta que el inicio ya no contenga ruidos. Si solo quieres eliminar el ruido de cinta, puede que sea suficiente con utilizar un expansor multibanda en las bandas agudas.

Page 33: Manualillo de produccion musical

El compresor

Un compresor añade pegada extra a tu material (en la foto, el compresor del software T-Racks), dándole cuerpo y ajustando la dinámica general. Si no estás familiarizado con los fundamentos de la compresión, deberías leerte antes nuestro

artículo [ Aprende a comprimir tus señales ]; aunque está orientado al proceso de mezcla, los principios del compresor son los mismos.

Un truco general para el ajuste del compresor a la hora de masterizar es este: busca el threshold aproximado en primer lugar, con un ratio alto y un tiempo de liberación rápido. Asegúrate de que el medidor de reducción de ganancia se mueve a medida que pasan las "sílabas" o partes que quieres afectar. Entonces reduce el ratio a un ajuste muy bajo y coloca el tiempo de liberación a unos 250 ms para empezar. Ahora se trata de ajustar con precisión el ataque, liberación y ratio, quizás con algún reajuste en el threshold; el objetivo es situar el threshold entre la dinámica mas baja y más alta, de manera que haya una alternancia constante entre compresión alta y baja (o no-compresión) en la música. Y cuidado: un ajuste de threshold muy bajo y un ratio demasiado alto hará que todo suene al mismo nivel constantemente.

Esto para los compresores simples; cuando estás aplicando una compresión multibanda tienes que analizar con más detalle la señal a procesar; ¿hay demasiado extremo grave o agudo, o demasiado poco? ¿Está el rango medio bien definido?

Si quieres realizar cambios en la relación global de las bandas grave, media y aguda usando el compresor multibanda, tienes dos rutas a tomar:

· La primera forma es modificar los niveles de banda, usándolos como en un ecualizador · La segunda forma es comprimir individualmente las bandas. Es aquí donde oirás grandes diferencias.

Como regla de oro, la banda grave actúa mejor con tiempos de ataque rápidos y con tiempos de liberación algo lentos dado que las frecuencias graves tienen una longitud de onda larga. En la banda de medios puedes usar prácticamente el mismo tiempo de ataque, pero el tiempo de liberación debería ser algo más rápido dado que el oído humano es muy sensible en esta zona. Si ajustas la liberación de medios demasiado larga sonará artificial. La banda de agudos actúa mejor con un tiempo de ataque un poco más lento que en las otras dos bandas, dado que esto permitirá que las transiciones de frecuencias altas pasen por el compresor. El dejar que estos picos pasen por el compresor evita el que se produzca el sonido tensionado y sobrecomprimido. El tiempo de liberación de la banda aguda debería ser rápido, como el de los medios, por la misma razón, para aumentar la apertura del compresor.

El compresor multibanda software de Waves

El limitador

Page 34: Manualillo de produccion musical

El limitador debe estar situado a continuación del compresor; esto implica que si usas el compresor en ajustes extremos, harás que el limitador también vaya a tope. Déjale al limitador un poco de espacio para hacer el trabajo para el que está pensado, que es sujetar el nivel de vez en cuando.

Si haces que los niveles de salida del bloque de compresor queden demasiado cerca del techo del limitador, tu mezcla sonará aplastada. Un uso racional del limitador, especialmente usando los valores de ratio más suaves posibles, hará que tu mezcla siempre suene natural.

Notas finales

Utiliza tus oídos en todos los procesos; confía en ellos cuando te dicen que la mezcla suena bien. Juega con el bypass para observar los cambios que producen tus ajustes. Descansa cuando lleves demasiado tiempo trabajando en la mezcla; si te agotas perderás la noción de las cosas importantes y cometerás errores.

Por Xabier Blanco

Page 35: Manualillo de produccion musical

Técnicas avanzadas de masterización

Introducción

Hay quien opina que la masterización no existe, que es un parche a una mala mezcla. Realmente, aunque no estoy totalmente de acuerdo, no deja de tener razón. En general, una buena mezcla requiere un proceso posterior mínimo. El problema es que, durante el proceso de la mezcla, se tiende a equilibrar unas pistas con otras sin tener claro cómo debe sonar el conjunto ?acrecentado por la fatiga auditiva?. Esto se evitaría en gran medida teniendo una pista como referencia constante durante la mezcla o usando un analizador de espectros.

Entonces, ¿cuál es el objetivo de la masterización? En primer lugar, conseguir uniformidad entre las pistas, de forma que no existan grandes diferencias de sonido dentro de un mismo trabajo; conseguir que suenen igual en cualquier equipo de audio, corrigiendo picos que han pasado desapercibidos en los monitores de referencia usados en las mezclas; y ganar algunos dB de volumen medio. En este último punto hay una gran polémica, pero esta nueva tendencia de apurar al máximo el volumen de una canción tiene su explicación en la psicoacústica. Para el oído humano, una canción que tiene más volumen que otra es percibida como mejor de forma inconsciente. Este curioso efecto es el motivo por el que se tiende a comprimir y limitar al máximo posible cada pista, consiguiendo, en muchos casos, que la pieza pierda toda la dinámica, siendo este un terrible error.

Propongo una situación real y habitual: acabas de terminar de mezclar unos temas y te gustaría que sonasen correctamente en cualquier sistema de audio y que tuvieran coherencia entre ellas. Sin duda necesitan una masterización, un ajuste común y preciso. Por tanto, coges tus pistas y las cargas en tu editor de audio y te dispones con tus bien conocidos monitores de campo cercano a masterizarlas... Sin duda estás comiendo de entrada tres errores bastante importantes: primero, nunca se debe masterizar sin descansar los oidos. Unos oídos viciados tenderán a destacar frecuencias en la mezcla; en segundo lugar, unos monitores de campo cercano no son lo más apropiado para masterizar, al no ofrecer una respuesta clara y amplia de todo el espectro; y en tercer lugar, tú no deberías nunca masterizar tus propias mezclas, puesto que hay detalles que ya pasas por alto por el vicio de escucharlos una y otra vez. Por tanto, lo mejor es recurrir a un buen profesional siempre que se pueda.

Page 36: Manualillo de produccion musical

Las condiciones ideales de masterización distan en muchos casos de la mayoría de los estudios de grabación de cualquier categoría. Para estos menesteres se requiere una sala tratada acústicamente, para ofrecer una respuesta equilibrada en todas las frecuencias. No se trata de crear una cámara anecoica; consiste en evitar realces de frecuencias y rebotes dañinos para una correcta audición. Los altavoces son un punto clave: necesitamos escuchar todas las frecuencias sin coloraciones. Es un error habitual en los monitores de campo cercano y, en menor medida, en los de medio campo, su incapacidad para reproducir frecuencias graves, siendo atenuadas las frecuencias por debajo de los 70 Hz. Por tanto, unos monitores de campo lejano, multivía y habitualmente empotrados, serían el punto de partida ideal para la masterización. Es muy importante, además, disponer de escuchas de distintos tamaños y calidades para poder chequear el material en condiciones cercanas a las que dispondrá el receptor final.

La gran polémica surge en cuanto a qué elementos (y en qué orden son adecuados) para una masterización. En el artículo anterior se sugería el sistema del Finalizer. Sin duda hay cosas fundamentales que no deben faltar en una cadena de masterización: un ecualizador, un compresor y un limitador. Personalmente, no podría vivir sin un compresor multibanda y un par de conversores M-S (este elemento lo analizaremos más adelante) y, sin duda, es muy socorrido un excitador aural, pero la gran pregunta es ¿software o hardware? La respuesta: da igual, pero ha de ser de primera calidad. En general, la alternativa software suele ser más barata a igual calidad. Hoy en día, la solución software es la que ofrece mejor calidad-precio. Existen numerosos paquetes de primerísima línea de Waves, Spectral Design y TC, entre otros. Un ecualizador mediocre o un compresor de baja calidad puede destrozar una mezcla. En cualquier caso, la clave de todo el proceso es que la masterización no arregla una mala mezcla.

<!-- pagebreak--> La normalización

Uno de los objetivos principales de la masterización de un disco es que las canciones sean percibidas a un mismo nivel medio. Cuando empiezas el ajuste de varias pistas, el primer paso lógico es normalizarlas de forma que el pico de volumen más grande coincida con el máximo permitido. En principio esto es innecesario puesto que, mediante la compresión y limitación, vamos a ajustar las pistas para que suenen todas a un volumen medio similar y al normalizar podemos perder sutilezas. Sólo cuando una pista muestre un volumen demasiado bajo se requeriría una normalización. Además, en ese caso, si la pista fue mezclada a 16 bits, la normalización puede aumentar el nivel general del ruido de la pista, con lo que es más conveniente volver a la mezcla y subir el nivel de la mezcla.

Compresión multibanda

Con un compresor multibanda se pueden hacer ajustes muy precisos sobre las distintas bandas. Son útiles para destacar o atenuar instrumentos o frecuencias descontroladas. La diferencia más importante con la ecualización es que la ecualización recorta las frecuencias seleccionadas en todos los casos, mientras que un compresor ajustado a una banda de frecuencias sólo actuará cuando el volumen de esa banda supera el umbral establecido. El compresor multibanda es muy útil para retocar el equilibrio espectral, pero adquiere su mayor esplendor cuando se usa en modo M-S.

Modo M-S

Sin duda uno de los procesos más útiles para hurgar en las entrañas de la mezcla. La conversión M-S consiste en convertir una mezcla de dos canales L-R (izquierda ? derecha, una mezcla estéreo normal) en el formato de dos canales M-S (centro-estéreo), de forma que el canal M contiene la información que se escucha en el centro de la mezcla y el canal S sólo la información estéreo. El canal S consiste en la señal resultante de restar al canal izquierdo el derecho. El canal M es la suma de la señal resultante de sumar el resultado de restar a cada canal la señal S.

M = (L-S)+(R-S) ; S= L-R

Para devolverlo al formato L-R, sólo hay que hacer pasar de nuevo el audio por otro conversor M-S.

Page 37: Manualillo de produccion musical

Generalmente, en una mezcla solemos disponer en el canal central de la voz, el bajo, el bombo, la caja y algún instrumento solista y en el canal del estéreo suelen estar charles, rebotes de los ecos, reverberación e instrumentos de adorno. Supongamos que tenemos una mezcla en la que la voz suena demasiado alta; es un gran problema. Si intentamos atenuarla mediante ecualización, probablemente perdamos las guitarras ?panoramizadas a los lados?. Si montamos la siguiente cadena...

...y ajustamos el compresor multibanda en la banda de la voz, podremos atenuar únicamente la voz sin dañar el resto de los instrumentos.

Excitador aural

Este elemento fue en el pasado utilizado ampliamente. Cuando la tecnología musical estaba bajo mínimos, las mezclas eran bastante opacas y llegó a ser tan imprescindible que su inventor sólo los alquilaba. Su principio activo se basa en la restauración de armónicos perdidos durante el proceso de la mezcla, añadiendo brillo. En la actualidad, basándose en el mismo principio, han aparecido un nuevo tipo de excitadores que añaden presencia en el espectro de los graves o incluso los que permiten la selección de la frecuencia central. Con la mejora de los procesos de grabación y mezcla, su uso ya no está tan justificado, aunque en muy pequeña cantidad puede añadir ese brillo que suele faltar en los masters. Es un efecto con el que es muy fácil pasarse, porque el oido se acostumbra muy rápidamente y se tiende a añadir más de lo necesario.

Los medidores

Para poder ajustar el nivel entre canciones, es necesario usar medidores fiables. Los vúmetros incorporados en las mesas de mezclas y en los programas suelen ser medidores que reaccionan muy rápido a los transitorios, ideales para evitar distorsión y saturación que, por otro lado, es tan peligrosa en la grabación digital y aparece en cuanto superas los 0dBFS (FS = fondo de escala). Realmente, nuestro oído no escucha así. Aunque tengamos dos canciones cuyos picos máximos llegan al mismo nivel, el volumen medio puede ser diferente. Para poder medir eso, es necesario la utilización de medidores que funcionen en modo RMS (Root Mean Square). Una medidor en modo RMS proporciona el valor eficaz del volumen. Esta forma de medir es más parecida a la forma que tiene el oído humano de escuchar, motivo, además, por el que los medidores analógicos se siguen usando aún en nuestros días.

<!-- pagebreak --> Software de masterización

Como comenté al principio del artículo, las soluciones en software para masterización ofrecen mayores ventajas que sus equivalentes en hardware. Realmente, se puede masterizar con cualquier programa que permita añadir plugins de efectos y modificar sus parámetros en tiempo real, con lo que abre mucho nuestro abanico, pudiendo ser desde un secuenciador (Pro Tools, Nuendo, Logic, etc.) hasta un editor de audio (Spark, WaveLab, SoundForge, etc.) o un programa especializado (T-Racks).

Entre los editores de audio, los más especializados son Spark y WaveLab. Spark permite el ruteo de la señal a través de distintos efectos, pudiendo separar los canales y procesarlos independientemente de formas muy complejas. WaveLab trae un rack que permite la carga de varios efectos simultáneos y tienes opciones avanzadas de análisis del audio. Existen otras opciones como Peak o SoundForge, pero dan menos facilidades a la hora de masterizar.

El T-Racks 24 es un programa de masterización integrado completamente autónomo. Se basa en la emulación de procesadores de válvulas y no soporta plugins de ningún tipo.

Page 38: Manualillo de produccion musical

Dentro de los paquetes de efectos en plugins, confesaré que tres son mis favoritos: DSP-FX, Steinberg Mastering Edition (diseñados por Spectral Design) y los de Waves.

DSP-FX es un paquete con algunos años que funciona como plugin DirectX y Saw que contiene varios procesadores (reverbs, chorus, eco) y, en especial, un excitador aural (Enhancer) y un limitador (Optimizer) fabulosos. Su interfaz es bastante antiguo, pero su sonido es fantástico. En particular, el medidor del limitador es muy útil para ajustar el volumen relativo entre las pistas.

El Steinberg Mastering Edition es un paquete de plugins DirectX, VST y WaveLab que contienen un buen surtido de procesadores especialmente dedicados para la masterización que contienen todos los elementos necesarios para realizar una masterización completa. Son plugins de primera calidad entre los que se encuentran el popular FreeFilter (un ecualizador gráfico con funciones de adaptación de curvas de ecualización), el Loudness Maximizer (un limitador bastante musical) y el MultiBand Compressor es un buen compresor/expansor multibanda.

Waves proporciona varios paquetes de plugins, algunos de ellos muy apropiados para la masterización. En particular, es muy popular el L1-Ultramaximizer, un limitador maximizador para masterización y el Ressinance Compressor, un estupendo compresor que puede emular varios tipos de compresores, muy suave y cálido. El L1 me resulta demasiado bruto con la limitación y, de todos los limitadores comentados en este apartado, es el que más deteriora el sonido, cortando muchas veces los picos. Recientemente, Waves ha presentado el L2, descendiente de su versión en rack y que mejora mucho en musicalidad el resultado.

Existen otras opciones de muy buena calidad, como el paquete de plugins TC Native Bundle, que ofrece un surtido de herramientas aptas para masterización y, en forma de programa autónomo, Emagic Waveburner Pro, ideado para la masterización y grabación de masters en CDs.

Hardware de masterización

En este apartado existen numerosas opciones posibles, siendo muy habituales los equipos antiguos a válvulas. Últimamente han ido apareciendo algunas soluciones ?todo en uno? de mano de dbx (Quatum y Quatum II), Drawmer (Masterflow DC2476) y los más populares de TC Electronic con su gama Finalizer, Finalizer 96K y Plus.

Por Antonio Escobar

Page 39: Manualillo de produccion musical

Introducción a la síntesis substractiva

Para empezar...

A diferencia del resto de instrumentos, que tienen un timbre propio cuya esencia no puede modificarse sin afectar a la naturaleza del instrumento, los sintetizadores pretenden construir nuevos sonidos. Un piano puede tocarse de diversas maneras, pero siempre sonará como un piano; los sintetizadores aspiran a crear su propio sonido, algo completamente original en el más amplio sentido de la palabra. Por hacer una comparación, podemos decir que el sonido de un piano es un rompecabezas ya montado que puede pintarse de mil colores, y el de un sintetizador es un rompecabezas que está por hacer. Hay muchas maneras de crear sonidos a partir de la nada o de pocos elementos (esto es, de sintetizarlos), pero la síntesis substractiva se ha mostrado como la más popular. A partir de su nombre (sustraer = restar) podemos intuir su esencia: un sintetizador substractivo parte de una señal dada y la modifica y filtra para alcanzar un sonido concreto mediante una serie de procesos.

En un principio, esta cadena de procesos estaba separada; es por esto que los primeros sintetizadores eran modulares. Cada módulo realizaba una función en la síntesis, y los módulos podían interconectarse entre sí de muchas maneras. Sin embargo, siendo esta una solución muy flexible, resultaba demasiado complicada, y poco a poco pasó a estandarizarse una serie fija de módulos que se utilizaban siempre, conectados de la misma manera, y se integraron juntos en un solo sistema y un solo aparato. Seguramente esta fue

la mayor aportación del Moog Minimoog (en la foto), el substractivo más famoso de la historia; así funcionan ahora la mayoría de los sintetizadores. En esta cadena de procesos, el sonido básico nace de un oscilador, al que pueden aplicársele filtros con los que se seleccionan las frecuencias deseadas. Esta señal puede ser afectada por las envolventes y el LFO, que les dan dinámica y expresividad. Finalmente, el sonido se amplifica y sale al exterior. Y pasamos a explicar todo esto...

Partes de la síntesis substractiva

Los osciladores Son las fuentes primarias del sonido de un sinte substractivo. Los osciladores de los primeros tiempos producían ondas eléctricas controladas por voltaje (eran los VCO, Voltage Controlled Oscillator). Estos componentes eléctricos, al oscilar, generaban ondas sonoras básicas que luego podían ser filtradas y procesadas para resultar en el timbre deseado. Mucha gente hoy busca sintetizadores basados en VCOs por su calidez sonora y su comportamiento a veces impredecible, dado que los VCO solían ser inestables en cuanto a su afinación. El problema de la inestabilidad se resolvió en los primeros años 80 con la aparición de los DCO (Digital Controlled Oscilator). Estos osciladores seguían produciendo ondas eléctricas, pero eran controladas por un chip digital que evitaba las variaciones imprevistas de tono. La famosa saga Juno de Roland pertenece a esta familia de sintes. Actualmente, los sintetizadores digitales han eliminado la necesidad de incluir componentes eléctricos para los osciladores, recreándolos mediante simulaciones o muestras. Podemos encontrarnos con diversos tipos de onda generados por los osciladores. Las más básicas son estas (pulsa sobre ellas para escuchar un mp3; y cuidado, que "pitan" a bastante volumen):

Page 40: Manualillo de produccion musical

Senoidal Cuadrada Sierra Pulso

Con ciertos aparatos digitales no estamos anclados a ondas de tipo eléctrico, ya que nos permiten utilizar muestras. Esto abre nuevas posibilidades: por ejemplo, si usamos muestras de instrumentos acústicos, procesándolos de la manera adecuada, podemos conseguir imitaciones de gran realismo. Los filtros Son circuitos que sólo dejan pasar una serie de frecuencias seleccionadas. Como en el caso de los osciladores, inicialmente eran controlados por voltaje (VCF), y más adelante por chips digitales (DCF). Los filtros totalmente digitales cumplen la misma función, pero simulándola a base de cálculos matemáticos. En general, nos encontramos con distintas clases de filtros según el efecto que produzcan; estos son los más elementales: · Paso-alto: deja pasar todas frecuencias que superen un valor dado (el llamado cutoff o corte de filtro), eliminando las que queden por debajo. · Paso-bajo: deja pasar todas frecuencias que no superen el cutoff, y elimina todas las demás que quedan por encima. · Paso-banda y banda eliminada: Deja pasar solamente o elimina las frecuencias comprendidas en un rango determinado (el llamado ancho de banda o Q). Muchas veces se incluye en el filtro un circuito de realimentación al que llamamos resonador; lo que hace es aumentar o disminuir la amplificación en las frecuencias más cercanas al punto de corte. Si añadimos más o menos resonancia, esas frecuencias destacarán con mayor o menor intensidad. Un efecto ya clásico de la música electrónica moderna es el barrido de filtro, que normalmente se realiza configurando una resonancia alta y abriendo el cutoff de un filtro paso-bajo desde las frecuencias más bajas a las más altas, descubriendo así gradualmente todo el espectro del sonido. > Pulsa [aquí] para escuchar un barrido de filtro de un sonido arpegiado básico. Advierte como empieza a sonar sólo en las frecuencias bajas y progresivamente se van incorporando las medias y altas (MP3 247 Kb). Otro factor a destacar de los filtros es el número de polos o su pendiente. Esta característica se refiere a la la capacidad del filtro para atenuar o aumentar un mayor o menor número de frecuencias, es decir, a su suavidad o agresividad. Actualmente los más habituales son los de 2, 4 o 6 polos, ya que ir más allá de los 8 polos resulta complejo y caro. Un filtro de 2 polos tiene una pendiente de 12dB por octava; uno de 4, 24dB por octava, y el de 6, 48 dB por octava. <!-- pagebreak --> Las envolventes Como las ondas generadas por los osciladores son continuas y sin matices, necesitamos un generador de envolvente para dotarles de dinámica y expresividad. Con el filtro podemos variar el contenido armónico, pero las envolventes nos permiten además aplicar cambios en el tiempo (dinámicos), afectando a distintos parámetros. Actúan por "pasos" progresivos, y los más básicos son:

· Ataque (attack): indica el tiempo que tardará un parámetro en alcanzar su nivel máximo, partiendo del nivel cero.

· Decaimiento (decay): una vez que el parámetro llega al nivel máximo, transcurrido el tiempo de ataque, entra en la fase de decaimiento; se refiere al tiempo que tarda el parámetro en caer a un nivel ya sostenido.

· Sostenimiento (sustain): marca el nivel al que permanece el parámetro durante el tiempo de sustain.

Page 41: Manualillo de produccion musical

· Liberación (release): transcurrido el tiempo de sostenimiento, llega la fase final; la liberación nos marcará el tiempo que tarda el parámetro en caer del nivel sostenido al nivel cero.

Por las iniciales de estos pasos decimos que esa envolvente es de tipo ADSR; hay envolventes más complejas, con más pasos intermedios, pero en general son variaciones del mismo concepto. Por otra parte, según cuáles sean los parámetros a los que afectan las envolventes, pueden clasificarse de esta manera:

· Envolvente de tono: afecta a la afinación de los osciladores. Por ejemplo, si configuramos esta envolvente con un ataque largo, el sonido tardará cierto tiempo en alcanzar su tono normal, haciendo así un efecto de glissando. · Envolvente de amplitud: afecta al volumen de salida del amplificador. Si escogemos aquí un ataque rápido, el sonido comenzará a sonar a su máxima potencia de inmediato (apropiado para un bajo). Si elegimos un ataque largo, el sonido empezará a escucharse a un volumen bajo e irá subiendo poco a poco (característico de los pads o de un oboe, por ejemplo). · Envolvente de filtro: afecta al funcionamiento del filtro. Esto permite controlarlo para que actúe no en todo momento, sino en diferentes puntos en el tiempo y de diversas maneras. Si configuramos un filtro paso-bajo con el corte situado en las frecuencias más bajas, y elegimos un tiempo de ataque largo para esta envolvente, el sonido comenzará mostrando todas sus frecuencias y gradualmente irá eliminando las medias y altas, sin necesidad de actuar manualmente sobre el filtro. El oscilador de baja frecuencia (LFO, Low Frequency Oscillator) Este oscilador difiere de los comentados anteriormente en que produce su sonido en las frecuencias subsónicas (las más graves), y se utiliza para modular y controlar al resto de parámetros del sintetizador, más que para crear sonido tonal. El hecho de que sea un oscilador nos permite modular el sonido de manera repetitiva, en bucles. Por ejemplo, si aplicamos un LFO al amplificador, podemos conseguir un efecto de tremolo, que será mas o menos rápido según cómo configuremos la velocidad de oscilación del LFO. De la misma manera, y aplicándolo al tono, conseguiremos un vibrato. Estos efectos serán más o menos intensos dependiendo del ratio que escojamos para el LFO.

Por Xabier Blanco

Page 42: Manualillo de produccion musical

Grabación de guitarras: Nociones básicas

Tu guitarra

Tengas una Paul Reed Smith de Luthier o una imitación de Telecaster de 100 euros, tu guitarra siempre tiene que estar a punto para tocar, y esto supone una serie de detalles que no dejaremos aparte por obvios que nos parezcan.

Siempre que vayas a grabar utiliza cuerdas nuevas; las cuerdas usadas pierden su color por determinados factores. Tampoco hay que ser neuróticos con esto, pero si tienes una grabación importante y quieres que tu guitarra esté en las mejores condiciones, debes usar cuerdas nuevas.

Chequea tu afinación siempre que puedas, antes de cada toma incluso. Lo ideal es poner un afinador que tenga salida thru y tenerlo conectado siempre. Si eres un guitarrista amante del vibrato, tus cuerdas se desafinarán con facilidad. Comprueba siempre que la guitarra esté bien octavada, es decir que la afinación sea igual en el traste 12 que con la cuerda al aire.

Pon especial atención a las interferencias, sobre todo las causadas por los monitores de ordenador. Busca en la sala la posición adecuada en donde las interferencias sean menores, y en la medida de lo posible apaga esos monitores para matar el problema.

Usa diferentes tipos de guitarras o de sonidos cuando quieras tenerlos bien separados en la mezcla, y ecualízalos de manera que no se estorben en el espectro de frecuencias, dándole espacio en la mezcla a cada uno de los sonidos atenuando o realzando frecuencias.

Si tenemos pistas de sobra, las técnicas modernas de grabación en disco duro nos permiten hacer varias tomas de un mismo solo para así elegir después la mas acertada o una combinación de ellas. Habitualmente, los efectos en el estudio se aplican durante la mezcla; sin embargo, en el caso concreto de los guitarristas es importante que el sonido se grabe procesado para comodidad del ejecutante, especialmente si lleva un wah wah, un delay o algo que influya sobremanera a la hora de interpretar. Efectos como una reverb se pueden monitorizar durante la grabación grabando la señal seca y aplicándola después. Lo importante es que el guitarrista se sienta cómodo con su sonido mientras lo ejecuta. <!-- pagebreak -->

La grabación

Experimenta. Esto es esencial, no hay una técnica correcta a la hora de grabar una guitarra. Los factores a tener en cuenta una vez tengamos nuestra guitarra a punto son principalmente:

· Microfonía · Multiefectos · Amplificadores

Page 43: Manualillo de produccion musical

Aquí hay todo un mundo de técnicas, posiciones, trucos... trataremos de sugerir unos cuantos, pero lo esencial es que cojas tu equipo y que juegues con él. El mejor truco es el que uno mismo ha descubierto, ha probado y ha visto que es el adecuado para conseguir el sonido que persigue en cada situación. Nos limitaremos a exponer unas cuantas propuestas a modo de puntos de partida, para llegar al fin deseado: tener nuestro propio sonido y controlar todos sus aspectos.

Juega con las posiciones de los micros. Utiliza uno o varios. Ponlos en ángulo recto apuntando hacia el altavoz, pon uno detrás, mezcla las diferentes señales... Todo es

posible, lo importante es experimentar

Si quieres que tu ampli suene con menos graves, levántalo del suelo y ponlo en alto. Por el contrario si lo que buscas es un sonido con graves demoledores, ponlo en una esquina. En este sentido, la distancia entre el micro y el ampli suele desempeñar un papel esencial.

Habitualmente, situar el micro enfrente del altavoz a un palmo (o menos) de distancia, dará como resultado un sonido grave, con cuerpo y "punch" ("pegada"). Conforme vayamos aumentando la distancia, el sonido se hará más ligero, brillante y "ventilado".

Y ahora una cuestión: ¿es posible conseguir un sonido redondo, lleno, sin hacer un uso abusivo de los graves y la saturación? La respuesta es... difícil lo tienes. Pero puedes intentar un truco usado por Eddie Van Halen, y que consiste en la utilización de dos micros simultáneamente. Uno de ellos lo colocas enfrente del cono del altavoz, dejando una distancia suficiente para evitar el desagradable zumbido del exceso de graves. El otro micrófono, enfócalo hacia la esquina del altavoz... dejando un espacio mayor que en el otro caso. De esta manera obtendrás un sonido más rico y denso, muy apropiado para que tus solos guitarreros no recuerden al cascajo de Extremoduro, Reincidentes, y demás pandilla.

Resulta desconcertante observar cómo muchos guitarristas no se desprenden de su Shure SM57 ni para ir a la ducha. Sin embargo, otros rastrean hasta en los cubos de basura para encontrar micros o accesorios deliberadamente viejos, con la intención de sonar parecido a alguien, en algún disco, editado algunas décadas atrás.

Toca en la sala de control si es que tienes la posibilidad, y así podrás oir por los monitores lo que se esta grabando exactamente a través de los micros. De lo contrario, puedes llevarte una gran decepción (con el consiguiente cabreo), al comprobar que ese magífico riff que

acabas de interpretar, lleno de destreza y sentimiento... debe ser repetido porque no ha sonado exactamente como tú pensabas que estaba sonando. Omejor dicho: al cacharro que graba no le ha sonado igual que a ti. Así que asegúrate bien y experimenta desde la cabina, antes de dar pasos en falso. Graba la señal del ampli con los micros y a la vez, graba la guitarra por linea o con algún efecto y experimenta con ambas señales en la mezcla

Si buscas engordar tu sonido, trata de tocar lo mismo en dos pistas diferentes; es una alternativa menos artificial que un chorus, y puede dar resultados

interesantes paneando las tomas. Pero cuidado, ya lo dijo Yngwie Malmsteen en una de las célebres entrevistas/vaciladas que solía conceder... "demasiado a menudo, 2 pistas simúltaneas no se suman... sino que se restan".

Otro experimento curioso es colocar un micro en la guitarra y recoger el sonido de la púa y de las cuerdas; conseguirás una pista brillante para añadir a la mezcla. Como ejemplo práctico, escucha Been Caught Stealin, tema de los alucinantes Jane's Addiction, donde Dave Navarro aplica esta técnica. Cuidado con las puertas de ruido, utilízalas con cabeza; si decides usar una, ponla después de la distorsión, pero antes de un delay o una reverb, para que la puerta no se coma la cola de la reverb o la cola del delay.

Page 44: Manualillo de produccion musical

En definitiva, todo esto es papel mojado si lo aplicas de forma autómata. Lo importante es escuchar atentamente lo que estás tocando; lo ideal sería tener a un técnico que ponga micrófonos mientras tocas y que vaya cambiando el tipo de micrófono y la dirección hacia donde apunta, hasta que oigas que el sonido se adapta a lo que quieres conseguir.

Esperamos haber abierto vuestra curiosidad con estas 4 pinceladas sobre grabación de guitarras. Es tu turno; te toca ir al estudio y empezar a crear tu propio mundo de sonidos.

Por Pablo Surja

Page 45: Manualillo de produccion musical

El protocolo MIDI

Nociones básicas: el lenguaje MIDI MIDI (Musical Instruments Digital Interface) es el lenguaje que utilizan actualmente muchos instrumentos para comunicarse entre ellos, enviar y recibir datos y sincronizarse. Nació dentro del mundo de los sintetizadores

como respuesta a una necesidad de los músicos: controlar varios equipos con sus dos manos y hacer capas de varios sonidos entre ellos. Los primeros resultados de esta nueva tecnología se mostraron en el North American Music Manufacturers Show de 1983 en Los Ángeles. La demostración consistió en dos sintetizadores de distintos fabricantes conectados por MIDI con un par de cables; el representante de una de esas dos compañías tocó uno de los sintetizadores... ¡y el público se alborotó entre muecas de asombro al ver como los teclados sonaban juntos! Al igual que dos ordenadores pueden conectarse por módem, dos instrumentos que soporten el protocolo MIDI pueden comunicarse. La información MIDI tiene un carácter netamente musical: se refiere a comandos play-stop, activación de nota, tempo, volumen, etc, aunque su uso avanzado permite muchas mas posibilidades. En este punto vale la pena hacer una aclaración para los más novatos. Uno de los mitos más recurrentes entre los no iniciados es que el MIDI es algo material, un formato de sonido en sí mismo. Eso ha llevado a las tópicas y erróneas expresiones "escucha este MIDI que acabo de hacer", "estoy buscando el MIDI de esta canción", y el más inocente de todos ellos, "quiero pasar este WAV a MIDI". Todos estos conceptos se basan en una mala comprensión del MIDI. El MIDI es un protocolo de comunicación, un conjunto de comandos que circulan entre dispositivos MIDI dando órdenes a los mismos respecto a lo que deben hacer. Lo que suena son los aparatos, no "el MIDI" que, además, tiene otras funciones aparte de controlar la ejecución de sonidos. Cuando alguien pregunta "cómo pasar de WAV a MIDI", está en la misma situación que aquel que tiene una foto digital (un JPG por ejemplo) de un texto y quiere que esa foto se convierta en formato TXT para usarlo en un procesador de textos. Así como el WAV y el JPG son "fotos" digitales de una realidad material (el sonido y la imagen), el MIDI y el TXT son lenguajes que indican a ciertos dispositivos qué deben hacer. En el caso de un sintetizador, el MIDI le dice qué notas deben sonar, a qué volúmenes, etc; y en el caso de un procesador de textos, el TXT le dice qué caracteres deben presentarse, en qué formato... Es cierto que existen las tecnologías OCR para leer caracteres a partir de una foto, pero esta técnica está implementada en el audio digital con menos fortuna. Existen programas que pueden identificar tonos a partir de un wav y construir mensajes MIDI a partir de ellos, pero normalmente solo funciona con WAVs monofónicos y no muy complejos. Volviendo al tema que nos ocupa, conviene hablar un poco del funcionamiento interno de este lenguaje para entender cómo se comporta. La base de la comunicación MIDI es el byte (una unidad de información digital). Cada comando MIDI tiene una secuencia de bytes específica. El primer byte es el byte de estado (status byte), que le dice al dispositivo MIDI qué función activar. Codificado en ese byte de estado va el canal MIDI. El MIDI opera en 16 canales diferentes, numerados del 0 al 15. Las unidades MIDI aceptarán o ignorarán un byte de estado dependiendo de en qué canal estén configuradas para recibir datos. Sólo este byte de estado tiene codificado el número de canal, ya que los demás bytes de la cadena se asume que circulan en el canal indicado por el byte de estado. Algunas de las funciones que puede activar el byte de estado son estas: Note On, Note Off, System Exclusive (SysEx), Patch Change, y otras. Así pues, dependiendo del byte de estado, le seguirán un numero diferente de bytes. Por ejemplo, el estado Note On le dice al dispositivo MIDI que empiece a hacer sonar una nota. Así pues, se requerirán dos bytes adicionales al de estado; uno que indique el tono de la nota (pitch byte) y otro que marque la velocidad de la misma (velocity byte). Este último byte de velocidad es el que determina con que fuerza ha sido pulsada esa nota. Aunque no todos los dispositivos MIDI aceptan el byte de velocidad -especialmente los aparatos antiguos o algunos modernos de gama baja-, sigue siendo un byte requerido para completar la cadena. Y ¿para qué citamos aquí todo este farragoso sistema de datos? Es importante hacer notar ahora una limitación del lenguaje MIDI, y es su transmisión en serie. Por un cable MIDI discurren todos esos bytes que hemos citado... pero uno detrás de otro, no todos a la vez. Esto tiene implicaciones prácticas: por ejemplo, si tenemos un teclado controlador conectado

Page 46: Manualillo de produccion musical

a un sampler y estamos enviando datos MIDI al sampler desde el teclado, al pulsar un acorde de varias notas no llegarán todas juntas al sampler, sino una detrás de otra. El proceso se hace a gran velocidad y no hay retardos audibles en este ejemplo, pero en una cadena interconectada de dispositivos MIDI sí podrían surgir problemas, como indicaremos a continuación. Por todo esto, es importante tener una idea de lo que realmente transmiten los datos MIDI: qué bytes y en qué orden.

Conexiones y cadenas MIDI Seguramente ya estás familiarizado con esas conexiones de 5 pines de tus teclados o aparatos MIDI, etiquetadas como IN, OUT y THRU. Alrededor de estos tres conectores girará todo nuestro sistema MIDI. Por los puertos MIDI IN de un aparato se recibirán todos los mensajes MIDI y por el MIDI OUT cada aparato enviará los

suyos. La conexión MIDI THRU es algo que desconcierta a los más novatos, pero no tiene ningún misterio y es de gran utilidad para configurar una cadena. Lo que hace el MIDI THRU es copiar los datos que se reciben por el MIDI IN de ese aparato y enviarlos de nuevo hacia fuera. Aunque del MIDI THRU salgan datos MIDI, no debe confundirse con el MIDI OUT; de este último salen solamente los datos enviados por el mismo aparato, mientras que del THRU sale la copia de los datos recibidos por el aparato en su MIDI IN. ¿Cuál es la utilidad de este MIDI THRU? Básicamente, enlazar unos aparatos con otros en una cadena, de manera que todos respondan a una fuente de datos MIDI inicial. Como ejemplo práctico, si tenemos un secuenciador MIDI del que nacen todos nuestros mensajes de control y queremos enviarlos a 2 aparatos distintos, tendríamos que establecer la siguiente cadena:

En nuestro esquema, el secuenciador envía sus datos MIDI por la salida MIDI OUT (A); estos datos son recibidos por el sintetizador a traves de su MIDI IN (B), y reenviados por el MIDI THRU (C) hacia el sampler, que los recibe, lógicamente, por su MIDI IN (D). Así pues, los datos del secuenciador estarían siendo recibidos por los dos aparatos, ya que el primero (sintetizador) los recibe directamente por su MIDI IN, y al mismo tiempo los copia y los reenvía por su MIDI THRU hacia el sampler. Como ya habrás imaginado, podríamos seguir conectando dispositivos MIDI en esta cadena, simplemente enlazándolos con el MIDI THRU. Por ejemplo si queremos añadir otro sintetizador, podríamos enviar el MIDI THRU del sampler hacia su MIDI IN. De todos modos, por la cuestión antes mencionada de que el MIDI se transmite en serie, no conviene enlazar una cadena demasiado larga por MIDI THRU, ya que el último aparato de esta cadena podría sufrir retardos al recibir los mensajes. Por esta razón, muchos secuenciadores tienen varias salidas MIDI, para poder enviar los mismos datos en distintas series a diferentes aparatos sin utilizar las conexiones THRU, o al menos reduciéndolas. Por ejemplo, si nuestro secuenciador tuviese dos MIDI OUT, el esquema anterior no necesitaría el uso de la cadena THRU: simplemente conectariamos el sintetizador y el sampler a cada una de esas dos salidas, y ambos recibirían los datos del secuenciador al mismo tiempo.

Page 47: Manualillo de produccion musical

Mensajes MIDI: teoría Ya sabemos que gracias al MIDI podemos controlar varios equipos, establecer relaciones entre ellos y sincronizarlos. Imaginando que nuestros aparatos MIDI son los componentes de una tropa de soldados, y nosotros los capitanes, lo más importante ahora será conocer qué ordenes podemos enviar para que cumplan su misión. Al igual que una tropa obediente, nuestro equipo de dispositivos MIDI funcionará correctamente si sabemos qué mensajes enviarles y si estos son correctos. De esta manera, nos encontramos con las siguientes categorías de mensajes que podemos enviar:

Mensajes de canal

Se llaman así porque actúan solamente en el canal que se determine. Son de dos tipos: · Mensajes de voz: Se basan en la interpretación; por ejemplo: Note on (activación de una nota), Note off (desactivación), Program Change (cambio de timbre) o Control Change (cambio de controlador, también llamado CC; estos se enumeran de 0 a 127, y algunos están determinados como estándar, p.e: el CC 7 es el control de volumen y el CC 10 es el pan) · Mensajes de modo: Indican a un sintetizador como debe distribuir las voces internas; básicamente son estos: Omni on/off (si se reciben mensajes por todos los canales -on- o solo por uno predeterminado -off-) y Mono on/off (indica si cada canal tocará solo una nota -on-, o será polifónico -off-)

Mensajes de sistema

No afectan solo a un canal, sino a todo el sistema, y son de tres tipos: · Mensajes comunes: por ejemplo, los de afinación general de un sintetizador. · Mensajes de tiempo real: pensados para secuenciadores (start-stop, mensajes de reloj, etc) · Mensajes SysEx: su nombre deriva de "sistema exclusivo". Sirven para que diferentes dispositivos de la misma marca y modelo intercambien información (por ejemplo, acerca de sonidos, síntesis, efectos, etc.). Cada dispositivo MIDI suele traer funciones propias, no generales a todos los demás dispositivos, y por ello son necesarios estos mensajes, que son "exclusivos" de esa marca y modelo.

Mensajes MIDI: práctica Todo esto está muy bien, pero ¿lo necesito para mi trabajo práctico? Descartando los tipos de mensajes más elementales y de menor importancia (por ejemplo, no hace falta pararse demasiado sobre los evidentes usos del Note on-off o la afinación), la respuesta es sí: por eso nos centraremos ahora en aquellos que es necesario dominar para controlar nuestros equipos con precisión.

· Cambio de banco y programa: Tenemos un sintetizador o sampler repleto de sonidos interesantes, pero ¿cómo acceder a ellos desde el exterior, p.e. desde un secuenciador u otro teclado? La respuesta nos la dan estos dos mensajes: Bank Change y Patch Change. Son los que indicarán al dispositivo MIDI qué timbre debe sonar por cada canal (recordemos que son mensajes de canal y sólo afectarán al canal que determinemos).

-Patch Change: Como en el resto del protocolo MIDI, disponemos de la numeración 0 a 127 para escoger cualquier sonido de una fuente externa. Si tuvieramos un sintetizador con 32 memorias para patches (por ejemplo, el clásico Yamaha DX7), para escuchar el sonido número 20 mandaríamos un mensaje Patch Change 19 (no el 20, porque el 0 ya cuenta como

Page 48: Manualillo de produccion musical

primer número). Pero claro, esto nos limitaría a escoger 128 sonidos, cuandos los aparatos actuales pueden contener muchos más. Es por ello que estos aparatos ordenan sus sonidos en distintas series de 128 sonidos, llamadas "bancos". Así pues, un sintetizador con 512 patches tendría que dividirlos en 4 bancos de 128. -Bank Change: Este es el mensaje que nos da definitivamente un acceso total a los patches de un dispositivo con mas de 128 sonidos. Siguiendo con nuestro ejemplo de un sintetizador que tenga 512 sonidos, organizados en 4 bancos: si quisiéramos seleccionar el sonido 138, o para entendernos mejor, el décimo sonido del segundo banco, tendríamos que mandar un mensaje de Bank Change 1 y a continuación, un Patch Change 9. Date cuenta de que ésta es una explicación simplificada; la mayoria de los sintetizadores tienen números específicos para designar sus bancos; por ejemplo, el banco A de un sinte podría requerir un Bank Change 64 u otro, no tendría por qué ser el 0. Lo hemos explicado así para hacerlo de una manera más gráfica. Para saber qué mensajes de banco debes enviar a tu sinte, consulta en su manual. · Controladores: los mensajes CC (Control Change) nos dan acceso a un montón de funciones importantes que afectan a cada canal. Podemos mandar -lo adivinaste- 128 mensajes CC distintos, y a cada uno asignarle un valor. Por ejemplo, un mensaje CC 7 (volumen) con valor 120 subirá el volumen de ese canal a 120. Un mensaje CC 10 (pan) con valor 80, colocará la panoramización de ese canal ligeramente a la derecha, dado que 64 se considera el centro. Algunos CC han sido estandarizados, y tienen la misma función en cualquier dispositivo MIDI que te encuentres. El resto no tienen ninguna función asignada en principio, de modo que cada fabricante puede dársela a su gusto. Para saber a qué mensajes CC responde tu dispositivo, tendrás que consultar su tabla de implementación MIDI. Por lo pronto, nosotros te ofrecemos aqui nuestra tabla de mensajes de control MIDI. · SysEx: Dado que estos mensajes dependen de cada fabricante, no vamos a citar ninguno en concreto aquí porque, por ejemplo, un mensaje SysEx que variase la profundidad del efecto "chorus" en un Roland no valdría para un Yamaha. Pero sí los destacamos porque son los que permiten acceder a las "tripas" de tus dispositivos. Los SysEx asustan a todo el mundo, y realmente tienen cierta complejidad, pero si se dominan abren un mundo nuevo de control total sobre tus máquinas. Aquí te animamos a curiosear e investigar acerca de los SysEx, pero no es el objeto de este artículo profundizar sobre ellos.

Page 49: Manualillo de produccion musical

Equipo MIDI básico Sin duda, los dispositivos MIDI más tradicionales son los sintetizadores. El MIDI se diseñó para comunicarlos entre sí, y esa función desde luego sigue vigente. El MIDI te permite utilizar varios teclados o módulos de sonido a la vez; de esta manera puedes hacer que un sonido de un sinte sea reforzado por el sonido de otro, o simplemente hacer arreglos polifónicos y multitímbricos con varias máquinas sincronizadas.

Hay que aclarar aquí la típica confusión de principiante entre sintetizador y teclado. El sintetizador (o sampler, dado el caso) es el generador de sonido, y el teclado simplemente envía mensajes MIDI indicando qué notas deben tocarse y con qué fuerza. Como la mayoría de sintetizadores llevan teclado incluido, mucha gente cree que son inseparables. Pero no es así; hay sintetizadores sin teclado (los llamados "módulos de sonido") y teclados sin sintetizador. Estos últimos son los teclados maestros. Con la simplificación de los estudios caseros actuales, mucha gente utiliza los llamados teclados maestros o controladores, que no incorporan ningún sonido. Simplemente envían datos MIDI para controlar a otros aparatos (por ejemplo, sintes virtuales). Esto abarata su precio y hace que la producción musical sea más accesible a todos, si bien los teclados maestros de gama alta pueden ser muy caros. Algunos fabricantes famosos son FATAR (su modelo SL-161 en la foto de abajo), Oberheim, Midiman, Roland o Yamaha.

Domina tu equipo externo

Page 50: Manualillo de produccion musical

El centro de una instalación MIDI es el secuenciador, que centraliza la grabación y reproducción de todos los mensajes MIDI, su edición y sincronización. Lo normal es que esté basado en un programa de ordenador, dado que los ordenadores ofrecen mayor potencia que cualquier sistema de secuenciación hardware, y muestran sus datos en monitores de gran tamaño que facilitan las tareas. Sin embargo, para actuar en directo muchos prefieren la seguridad de los secuenciadores hardware; algunos ejemplos clásicos de estos aparatos son el Alesis MMT-8 (foto izquierda) o el Roland MC-50. También

se utilizan los viejos ordenadores Atari y Amiga para este fin. Los secuenciadores software más famosos son sin duda Logic (foto abajo), Cubase y Cakewalk (o su reciente actualización, SONAR). Cakewalk es el más extendido en América, y los otros dos son líderes en el mercado europeo. Cualquiera de ellos es altamente capaz, destacando especialmente Logic por su environment configurable. Otros programas famosos son el Digital Performer de MOTU o la saga Orchestrator de Voyetra; ciertos editores de partituras como Finale tienen funcionalidades de secuenciador MIDI, así como algunos sistemas multipista de audio como Pro Tools o Nuendo. Todos ellos manejan un gran número de pistas a la vez, así que esto no será un límite.

Si dispones de varias máquinas MIDI y quieres tener un control absoluto sobre ellas, todo debe estar bien conectado y debe gestionarse principalmente desde el secuenciador. Desde este programa podrás grabar todos tus equipos por pistas, y luego cortar, copiar y editar las secuencias. Tú solo podrás completar un arreglo complejo de muchas pistas. Lo normal es comenzar grabando una pista base, y luego ir grabando las demás por encima, mientras suenan las anteriores que has grabado. Así el tema se irá "construyendo" y

solo se requiere la intervención de una persona. Una primera idea para conectar varios equipos entre ellos es la cadena THRU, ya explicada en la primera parte de este tutorial. Sin embargo, si tienes muchos equipos, se producirá latencia en los últimos dispositivos de la cadena. La solución a esto es utilizar un interface MIDI dotado de varios puertos de salida y no de uno sólo. Esto evita las cadenas THRU, o al menos las minimiza: si tu interface MIDI tiene cuatro salidas, puedes dominar cuatro dispositivos directamente, y todos los mensajes les llegarán a un mismo tiempo.

Como hemos dicho, el protocolo MIDI funciona de una manera serial, pero esto es así por cada puerto; es decir, si disponemos de varios puertos, actuarán de manera separada, sin acumular sus datos unos a otros. Existen muchos interfaces de este tipo en el mercado; algunas marcas fabricantes son Midiman (a la izquierda, su Midisport 2x2), Egosys, MOTU, Steinberg y Emagic. Todas ellas ofrecen diversos modelos dependiendo de sus salidas y entradas MIDI. También algunas tarjetas de sonido incorporan dos o más puertos MIDI de entrada y salida, pero es raro y lo normal es que solo lleven uno o ninguno. Para gestionar las librerías de sonidos de tus sintetizadores y editar sus patches vía MIDI existen también soluciones software muy útiles, que evitarán en muchas ocasiones el enfrentamiento con esos pequeños displays de tus máquinas. ¿Cuántos se han atrevido a editar los sonidos un DX7 desde el frontal de la máquina? Utilizando estos programas podrás hacer esas tareas de manera remota, aprovechándote de la capacidad de almacenamiento y organización de tu ordenador y una mayor claridad y comodidad gracias a la pantalla grande. Sound Diver de Emagic y SoundQuest son dos ejemplos de gestores-editores totales, que incluyen plantillas para un amplio número de aparatos, pero hay también una multitud de editores más sencillos, que sólo se ocupan de una máquina concreta. La mayoría de estos últimos son gratuitos; busca por la red el que corresponda a tu sintetizador. Domina tu equipo virtual

Page 51: Manualillo de produccion musical

Con la implantación cada vez mayor de los sintetizadores y samplers virtuales, muchos usuarios han empezado a demandar un control más manual sobre ellos. El ratón no parece convencer a la hora de controlar con precisión estos programas, y es por ello que los fabricantes han dado una alternativa: los controladores MIDI externos. Estos dispositivos adoptan la forma de mesas o consolas con faders o knobs configurables, y se limitan a enviar datos MIDI como C

o sysex, que controlan las funciones del software. Así como para tocar un sintetizador virtuanecesitarás un teclado maestro que le envíe mensajes MIDI, para controlarlo como si fuera hardware, con botones, deslizadores y demás, necesitarás una de estas máquinas. Su principal ventaja es que no se limitan a un solo sintetizador virtual; al utilizar el protocolo universal MIDI, pueden dominar cualquier dispositivo software que siga estas especificaciones. Esto incluye, por supuesto, a las máquinas hardware que admitan su control a partir de mensajes CC o sysex externos. La oferta de controladores va en aumento, y desde el ya clásico Keyfax Phatboy (foto izquierda) han aparecido muchos otros, como el Doepfer Pocket, Native Instruments 4Control, Phillip Rees C16 o ya a un nivel más ambicioso, el Kenton Control Freak, Peavey 1600 o Doepfer Drehbank.

Cs l

Flautas, guitarras... y otras rarezas MIDI Se han fabricado toda una diversidad de aparatos MIDI muy "especiales", sobre todo en lo referente a controladores. El hecho de que el MIDI sea un protocolo estándar, universal, hace que cualquier dispositivo compatible pueda integrarse en la cadena, y las posibilidades son múltiples. Por ejemplo, Yamaha ofrece su controlador de viento WX5 (a la izquierda), que es una especie de saxofón-flauta que envía datos MIDI basándose en el soplido. Hay módulos de sonido especiales para este controlador, como el Yamaha VL-70m, que imita los timbres de viento reales mediante modelado físico. Pero como el WX5 es MIDI, puede controlar cualquier cosa... podrías tocar un violín o unas marimbas usando este curioso aparato. Los guitarreros también tienen sus propios dispositivos MIDI. Acoplando una pastilla MIDI a tu guitarra puedes convertir su señal en datos MIDI que podrán controlar un sintetizador de guitarra (como el Roland GR-30 o 50)... o lo que tú quieras. El mundo de los controladores MIDI se ha ido convirtiendo en toda una caja de sorpresas, y cada vez nos topamos con máquinas mŽsa innovadoras y originales. Si te gustaron las arpas láser de Jarre, Roland te ofrece sus sistemas D-Beam en muchos de sus teclados y sintetizadores; se trata de un rayo que, al ser interrumpido a diferentes alturas y ángulos, genera diferentes mensajes MIDI que modifican el sonido.

Tabla: mensajes de controladores MIDI

0 Bank select

Page 52: Manualillo de produccion musical

1 Modulation wheel 2 Breath control 3 Indefinido 4 Foot controller 5 Portamento time 6 Data Entry 7 Channel Volume 8 Balance 9 Indefinido

10 Pan 11 Expression Controller 12 Effect control 1 13 Effect control 2 14 Indefinido 15 Indefinido 16 General Purpose Controller #1 17 General Purpose Controller #2 18 General Purpose Controller #3 19 General Purpose Controller #4 20 Indefinido 21 Indefinido 22 Indefinido 23 Indefinido 24 Indefinido 25 Indefinido 26 Indefinido 27 Indefinido 28 Indefinido 29 Indefinido 30 Indefinido 31 Indefinido 32 Bank Select 33 Modulation wheel 34 Breath control 35 Indefinido 36 Foot controller 37 Portamento time 38 Data entry 39 Channel Volume 40 Balance 41 Indefinido 42 Pan 43 Expression Controller 44 Effect control 1 45 Effect control 2 46 Indefinido 47 Indefinido 48 General Purpose Controller #1 49 General Purpose Controller #2 50 General Purpose Controller #3 51 General Purpose Controller #4 52 Indefinido 53 Indefinido 54 Indefinido 55 Indefinido 56 Indefinido 57 Indefinido 58 Indefinido 59 Indefinido

Page 53: Manualillo de produccion musical

60 Indefinido 61 Indefinido 62 Indefinido 63 Indefinido 64 Damper pedal on/off (Sustain) 65 Portamento on/off 66 Sustenuto on/off 67 Soft pedal on/off 68 Legato Footswitch 69 Hold 2 70 Sound Controller 1 (Sound Variation) 71 Sound Controller 2 (Timbre) 72 Sound Controller 3 (Release Time) 73 Sound Controller 4 (Attack Time) 74 Sound Controller 5 (Brightness) 75 Sound Controller 6 76 Sound Controller 7 77 Sound Controller 8 78 Sound Controller 9 79 Sound Controller 10 80 General Purpose Controller #5 81 General Purpose Controller #6 82 General Purpose Controller #7 83 General Purpose Controller #8 84 Portamento Control 85 Indefinido 86 Indefinido 87 Indefinido 88 Indefinido 89 Indefinido 90 Indefinido 91 Effects 1 Depth 92 Effects 2 Depth 93 Effects 3 Depth 94 Effects 4 Depth 95 Effects 5 Depth 96 Data entry +1 97 Data entry -1 98 Non-Registered Parameter Number LSB 99 Non-Registered Parameter Number MSB

100 Registered Parameter Number LSB 101 Registered Parameter Number MSB 102 Indefinido 103 Indefinido 104 Indefinido 105 Indefinido 106 Indefinido 107 Indefinido 108 Indefinido 109 Indefinido 110 Indefinido 111 Indefinido 112 Indefinido 113 Indefinido 114 Indefinido 115 Indefinido 116 Indefinido 117 Indefinido 118 Indefinido

Page 54: Manualillo de produccion musical

119 Indefinido 120 All Sound Off 121 Reset All Controllers 122 Local control on/off 123 All notes off 124 Omni mode off (+ all notes off) 125 Omni mode on (+ all notes off) 126 Poly mode on/off (+ all notes off) 127Poly mode on (incl mono=off +all notes off)

Tabla: conversión para delays

Aquí tenéis una útil tabla de conversión para ajustar los delays digitales al tempo.

Page 55: Manualillo de produccion musical

BPM (Tempo) 1/4 1/8 1/16

60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 92 93 94 95 96 97 98 99 100 101 102 103 104 105 106 107 108 109 110 111 112 113 114 115 116 117 118 119

1000.00 983.61 967.74 952.38 937.50 923.08 909.09 895.52 882.35 869.57 857.14 845.07 833.33 821.92 810.81 800.00 789.47 779.22 769.23 759.49 750.00 740.74 731.71 722.89 714.29 705.88 697.67 689.66 681.82 674.16 666.67 659.34 652.17 645.16 638.30 631.58 625.00 618.56 612.24 606.06 600.00 594.06 588.24 582.52 576.92 571.43 566.04 560.75 555.56 550.46 545.45 540.54 535.71 530.97 526.32 521.74 517.24 512.82 508.47 504.20

500.00 491.80 483.87 476.19 468.75 461.54 454.55 447.76 441.18 434.78 428.57 422.54 416.67 410.96 405.41 400.00 394.74 389.61 384.62 379.75 375.00 370.37 365.85 361.45 357.14 352.94 348.84 344.83 340.91 337.08 333.33 329.67 326.09 322.58 319.15 315.79 312.50 309.28 306.12 303.03 300.00 297.03 294.12 291.26 288.46 285.71 283.02 280.37 277.78 275.23 272.73 270.27 267.86 265.49 263.16 260.87 258.62 256.41 254.24 252.10

250.00 245.90 241.94 238.10 234.38 230.77 227.27 223.88 220.59 217.39 214.29 211.27 208.33 205.48 202.70 200.00 197.37 194.81 192.31 189.87 187.50 185.19 182.93 180.72 178.57 176.47 174.42 172.41 170.45 168.54 166.67 164.84 163.04 161.29 159.57 157.89 156.25 154.64 153.06 151.52 150.00 148.51 147.06 145.63 144.23 142.86 141.51 140.19 138.89 137.61 136.36 135.14 133.93 132.74 131.58 130.43 129.31 128.21 127.12 126.05

Page 56: Manualillo de produccion musical

120 121 122 123 124 125 126 127 128 129 130 131 132 133 134 135 136 137 138 139 140 141 142 143 144 145 146 147 148 149 150 151 152 153 154 155 156 157 158 159 160 161 162 163 164 165 166 167 168 169 170 171 172 173 174 175 176 177 178 179 180

500.00 495.87 491.80 487.80 483.87 480.00 476.19 472.44 468.75 465.12 461.54 458.02 454.55 451.13 447.76 444.44 441.18 437.96 434.78 431.65 428.57 425.53 422.54 419.58 416.67 413.79 410.96 408.16 405.41 402.68 400.00 397.35 394.74 392.16 389.61 387.10 384.62 382.17 379.75 377.36 375.00 372.67 370.37 368.10 365.85 363.64 361.45 359.28 357.14 355.03 352.94 350.88 348.84 346.82 344.83 342.86 340.91 338.98 337.08 335.20 333.33

250.00 247.93 245.90 243.90 241.94 240.00 238.10 236.22 234.38 232.56 230.77 229.01 227.27 225.56 223.88 222.22 220.59 218.98 217.39 215.83 214.29 212.77 211.27 209.79 208.33 206.90 205.48 204.08 202.70 201.34 200.00 198.68 197.37 196.08 194.81 193.55 192.31 191.08 189.87 188.68 187.50 186.34 185.19 184.05 182.93 181.82 180.72 179.64 178.57 177.51 176.47 175.44 174.42 173.41 172.41 171.43 170.45 169.49 168.54 167.60 166.67

125.00 123.97 122.95 121.95 120.97 120.00 119.05 118.11 117.19 116.28 115.38 114.50 113.64 112.78 111.94 111.11 110.29 109.49 108.70 107.91 107.14 106.38 105.63 104.90 104.17 103.45 102.74 102.04 101.35 100.67 100.00 99.34 98.68 98.04 97.40 96.77 96.15 95.54 94.94 94.34 93.75 93.17 92.59 92.02 91.46 90.91 90.36 89.82 89.29 88.76 88.24 87.72 87.21 86.71 86.21 85.71 85.23 84.75 84.27 83.80 83.33

Page 57: Manualillo de produccion musical

Tabla: cuadrar diferentes unidades de tiempo

Esta tabla sirve para cuadrar unidades de medida diferentes, ya que el tempo se mide en beats por minuto (BPM), el tiempo en segundos y la longitud en compases. ¿Cómo usar la tabla? Por ejemplo, si queremos encajar 18 segundos en 9 compases, necesitaremos segun la tabla un tempo de 120 BPM.

BPM Compases

Page 58: Manualillo de produccion musical

Segundos 4 5 6 7 8 9 10 11 12 13 14 16 60.0 75.0 90.0 105.0 120.0 135.0 150.0 165.0 180.0 195.0 210.0

17 56.5 70.6 84.7 98.8 112.9 127.1 141.2 155.3 169.4 183.5 197.6

18 53.3 66.7 80.0 93.3 106.7 120.0 133.3 146.7 160.0 173.3 186.7

19 50.5 63.2 75.8 88.4 101.1 113.7 126.3 138.9 151.6 164.2 176.8

20 48.0 60.0 72.0 84.0 96.0 108.0 120.0 132.0 144.0 156.0 168.0

Segundos 9 10 11 12 13 14 15 16 17 18 19 26 83.1 92.3 101.5 110.8 120.0 129.2 138.5 147.7 156.9 166.2 175.4

27 80.0 88.9 97.8 106.7 115.6 124.4 133.3 142.2 151.1 160.0 168.9

28 77.1 85.7 94.3 102.9 111.4 120.0 128.6 137.1 145.7 154.3 162.9

29 74.5 82.8 91.0 99.3 107.6 115.9 124.1 132.4 140.7 149.0 157.2

30 72.0 80.0 88.0 96.0 104.0 112.0 120.0 128.0 136.0 144.0 152.0

Segundos 14 15 16 17 18 19 20 21 22 23 24 36 93.3 100.0 106.7 113.3 120.0 126.7 133.3 140.0 146.7 153.3 160.0

37 90.8 97.3 103.8 110.3 116.8 123.2 129.7 136.2 142.7 149.2 155.7

38 88.4 94.7 101.1 107.4 113.7 120.0 126.3 132.6 138.9 145.3 151.6

39 86.2 92.3 98.5 104.6 110.8 116.9 123.1 129.2 135.4 141.5 147.7

40 84.0 90.0 96.0 102.0 108.0 114.0 120.0 126.0 132.0 138.0 144.0

Tabla: rango de frecuencias de los instrumentos musicales

Instrumento Fundamental Armónicos

Flauta 261-2349 3-8 KHz Oboe 261-1568 2-12 KHz Clarinete 165-1568 2-10 KHz Fagot 62-587 1-7 KHz Trompeta 165-988 1-7.5 KHz

Page 59: Manualillo de produccion musical

Trombón 73-587 1-4 KHz Tuba 49-587 1-4 KHz Tambor 100-200 1-20 KHz Bombo 30-147 1-6 KHz Platillos 300-587 1-15 KHz Violín 196-3136 4-15 KHz Viola 131-1175 2-8.5 KHz Cello 65-698 1-6.5 KHz Bajo acústico 41-294 1-5KHz Bajo eléctrico 41-300 1-7 KHz Guitarra acústica 82-988 1-15 KHz Guitarra eléctrica (amplif.) 82-1319 1-3.5 KHz Guitarra eléctrica (directa) 82-1319 1-15 KHz Piano 28-4196 5-8 KHz Saxo Soprano 247-1175 2-12 KHz Saxo alto 175-698 2-12 KHz Saxo tenor 131-494 1-12 KHz Cantante 87-392 1-12 KHz

Calculo de los tiempos de retardo en los ecos

Si hay un cálculo recurrente, siempre que nos enfrentamos a ajustar un eco, es el del retardo de las etapas. Este efecto debe estar sincronizado con el tempo del tema , tarea no demasiado sencilla de entrada. Para facilitarnos las cosas, existe una sencilla fórmula:

T = (Divisiones x 240.000) / BPM

donde T = milisegundos (ms), Divisiones es la unidad de medida del compás (1/16 = semicorchea, 1/4 = negra) y BPM el tempo de la canción en beats per second (golpes por segundo).

Page 60: Manualillo de produccion musical

A continuación, una tabla muestra, de forma orientativa, algunos tiempos de retardo.

Tiempo

(ms) 1/16 1/12

BPM 1 2 3 4 5 6 7 8 1 2 4 5 60 250 500 750 1000 1250 1500 1750 2000 333 667 1333 166765 231 462 692 923 1154 1385 1615 1846 308 615 1231 153870 214 429 643 857 1071 1286 1500 1714 286 571 1143 142975 200 400 600 800 1000 1200 1400 1600 267 533 1067 133380 188 375 563 750 938 1125 1313 1500 250 500 1000 125085 176 353 529 706 882 1059 1235 1412 235 471 941 117690 167 333 500 667 833 1000 1167 1333 222 444 889 111195 158 316 474 632 789 947 1105 1263 211 421 842 1053100 150 300 450 600 750 900 1050 1200 200 400 800 1000105 143 286 429 571 714 857 1000 1143 190 381 762 952 110 136 273 409 545 682 818 955 1091 182 364 727 909 115 130 261 391 522 652 783 913 1043 174 348 696 870

BPM 1/16 1/8 3/16 1/4 5/16 3/8 7/16 1/2 1/12 1/6 1/3 5/12120 125 250 375 500 625 750 875 1000 167 333 667 833 125 120 240 360 480 600 720 840 960 160 320 640 800 130 115 231 346 462 577 692 808 923 154 308 615 769 135 111 222 333 444 556 667 778 889 148 296 593 741 140 107 214 321 429 536 643 750 857 143 286 571 714 145 103 207 310 414 517 621 724 828 138 276 552 690 150 100 200 300 400 500 600 700 800 133 267 533 667 155 97 194 290 387 484 581 677 774 129 258 516 645 160 94 188 281 375 469 563 656 750 125 250 500 625 165 91 182 273 364 455 545 636 727 121 242 485 606 170 88 176 265 353 441 529 618 706 118 235 471 588 175 86 171 257 343 429 514 600 686 114 229 457 571 180 83 167 250 333 417 500 583 667 111 222 444 556

Tabla: Marcas y modelos de micros para cada uso

Bombo AKG D112 (dinámico), AKG D12 (dinámico), Sennheiser MD421 (dinámico)

Caja Shure SM-57 (dinámico), Sennheiser MD421(dinámico), AKG 414 (condensador)

Hi-hat Shure SM-57, Shure SM-81, Neumann KM-184 Timbales Sennheiser 609s (dinámico), MD421, SM-57

Superiores y platillos

Shure KSM-32 (condensador), Shure KSM-44 (condensador), Neumann TLM 103 (condensador), Neumann U87 (condensador), Neumann U89, KM-184 (condensador), AKG 414

Page 61: Manualillo de produccion musical

Micros de sala AKG-414, AT-4050, AT-4033, U-87, U-89, TLM-103, KM-184

Guitarras SM-57, MD421, AKG 414, Sennheiser MD441 (dinámico)

Bajos AKG D112, AKG D12, Shure Beta 52 (dinámico), MD421

Voz AKG-C1000, AKG-C3000, AKG-414, AT-4050, AT-4033, U-87, TLM-103, Rode N1, Rode N2

Piano U-87, TLM-103, KSM-32/44, AKG-414 Guitarra acústica

AKG-C1000, AKG-C3000, AKG-414, AT-4050, AT-4033, U-87, TLM-103

Por Ken Lanyon

Tabla de tiempos para Delay Delay BPM Delay BPM Delay BPM Delay BPM 3.000 20 0.741 81 0.423 142 0.296 203 2.857 21 0.732 82 0.420 143 0.294 204 2.727 22 0.723 83 0.417 144 0.293 205 2.609 23 0.714 84 0.414 145 0.291 206 2.500 24 0.706 85 0.411 146 0.290 207 2.400 25 0.698 86 0.408 147 0.288 208 2.308 26 0.690 87 0.405 148 0.287 209

Page 62: Manualillo de produccion musical

2.222 27 0.682 88 0.403 149 0.286 210 2.143 28 0.674 89 0.400 150 0.284 211 2.069 29 0.667 90 0.397 151 0.283 212 2.000 30 0.659 91 0.395 152 0.282 213 1.935 31 0.652 92 0.392 153 0.280 214 1.875 32 0.645 93 0.390 154 0.279 215 1.818 33 0.638 94 0.387 155 0.278 216 1.765 34 0.632 95 0.385 156 0.276 217 1.714 35 0.625 96 0.382 157 0.275 218 1.667 36 0.619 97 0.380 158 0.274 219 1.622 37 0.612 98 0.377 159 0.273 220 1.579 38 0.606 99 0.375 160 0.271 221 1.538 39 0.600 100 0.373 161 0.270 222 1.500 40 0.594 101 0.370 162 0.269 223 1.463 41 0.588 102 0.368 163 0.268 224 1.429 42 0.583 103 0.366 164 0.267 225 1.395 43 0.577 104 0.364 165 0.265 226 1.364 44 0.571 105 0.361 166 0.264 227 1.333 45 0.566 106 0.359 167 0.263 228 1.304 46 0.561 107 0.357 168 0.262 229 Delay BPM Delay BPM Delay BPM Delay BPM 1.277 47 0.556 108 0.355 169 0.261 230 1.250 48 0.550 109 0.353 170 0.260 231 1.224 49 0.545 110 0.351 171 0.259 232 1.200 50 0.541 111 0.349 172 0.258 233 1.176 51 0.536 112 0.347 173 0.256 234 1.154 52 0.531 113 0.345 174 0.255 235 1.132 53 0.526 114 0.343 175 0.254 236 1.111 54 0.522 115 0.341 176 0.253 237

Page 63: Manualillo de produccion musical

1.091 55 0.517 116 0.339 177 0.252 238 1.071 56 0.513 117 0.337 178 0.251 239 1.053 57 0.508 118 0.335 179 0.250 240 1.034 58 0.504 119 0.333 180 1.017 59 0.500 120 0.331 181 1.000 60 0.496 121 0.330 182 0.984 61 0.492 122 0.328 183 0.968 62 0.488 123 0.326 184 0.952 63 0.484 124 0.324 185 0.938 64 0.480 125 0.323 186 0.923 65 0.476 126 0.321 187 0.909 66 0.472 127 0.319 188 0.896 67 0.469 128 0.317 189 0.882 68 0.465 129 0.316 190 0.870 69 0.462 130 0.314 191 0.857 70 0.458 131 0.313 192 0.845 71 0.455 132 0.311 193 0.833 72 0.451 133 0.309 194 0.822 73 0.448 134 0.308 195 0.811 74 0.444 135 0.306 196 Delay BPM Delay BPM Delay BPM Delay BPM 0.800 75 0.441 136 0.305 197 0.789 76 0.438 137 0.303 198 0.779 77 0.435 138 0.302 199 0.769 78 0.432 139 0.300 200 0.759 79 0.429 140 0.299 201 0.750 80 0.426 141 0.297 202