en el límite - escritos sobre arte y tecnología

112
en el límite escritos sobre arte y tecnología

Upload: charlex-omar-lopez

Post on 07-Aug-2015

90 views

Category:

Documents


0 download

TRANSCRIPT

Page 1: En El Límite - Escritos sobre Arte y Tecnología

en el límiteescritos sobre arte y tecnología

Page 2: En El Límite - Escritos sobre Arte y Tecnología

Universidad Nacional de Lanús

Dra. Ana JaramilloRectora

Mg. Nerio NeirottiVicerrector

Prof. Héctor MuzzopappaDirector del Departamentode Humanidades y Artes

Comité EditorialDra. Mirta FabrisMg. Ana FarberProf. Héctor MuzzopappaDr. Daniel RodríguezDr. Oscar Tangelson

La fotocopia mata al libro y es un delito.

Page 3: En El Límite - Escritos sobre Arte y Tecnología

en el límiteescritos sobre arte y tecnología

Coleccion Humanidades y ArtesEdiciones de la UNLa.

Page 4: En El Límite - Escritos sobre Arte y Tecnología

CompiladoresRaúl Minsburg y Leigh Landy

AutoresJorge PetrosinoLeigh LandyRob WealeRaúl Minsburg John YoungSimom EmmersonJulio MoyanoAlejandra OjedaDaniel SchachterAndrew HillJuan SamajaMalena Pasin]

Colección Humanidades y ArtesEdiciones de la UNLa.

Centro de Estudios en Producción Sonora y Audiovisual

Page 5: En El Límite - Escritos sobre Arte y Tecnología

Presentación

Introducción

Los autores

La posibilidad de percibir lo inaudible. Ultrasonido y audiciónJorge Petrosino

El Proyecto de Intención/Recepción y su relevancia en el campode la producción y en el de la educación musicalRob Weale y Leigh Landy

Percepción de la simultaneidad Sonora en música electroacústicaRaúl Minsburg

Formación de la formaJohn Young

Música electroacústica: ¿qué clase de discurso analítico necesitamos?Simon Emmerson

El signo sonoro. Un análisis desde la semiótica de PeirceAlejandra Ojeda

El discurso de Arte Sonoro Acusmático en soportes y formatos para sonido envolventeDaniel Schachter

Desarrollo de un lenguaje para la música audiovisual electroacústica:investigación sobre su comunicación y clasificaciónAndrew Hill

La construcción imaginaria del espacio audiovisual del sonidoauto-referencial al sonido centrado en el espectadorJuan Samaja y Malena Pasín

07

08

10

12

23

35

44

53

61

74

86

99

índice

Page 6: En El Límite - Escritos sobre Arte y Tecnología

En el límite / compilado por Raùl Minsburg y Leigh Landy. - 1a ed. -Remedios de Escalada : De la UNLa - Universidad Nacional de Lanús, 2010.112 p. ; 27x21 cm.

ISBN 978-987-1326-54-9

1. Música. I. Minsburg, Raùl, comp. II. Landy, Leigh, comp.CDD 780

Fecha de catalogación: 11/11/2010

Diseño de tapa e interiorCentro de Diseño y Comunicación Visual, UNLa.

ISBN 978-987-1326-54-9

Impreso en ArgentinaQueda hecho el depósito que marca la Ley 11.723

© El autor/a o Los autores (según corresponda)© Ediciones de la UNLa.29 de setiembre 39011826 Remedios de Escalada, Partido de Lanús,Provincia de Buenos Aires, ArgentinaTel. 54 11 6322 9200 [email protected]/public/enellímite/index.php

Escritos sobre arte y tecnología

Publicación 2010. Audición y recepción audiovisual, sonora y de música a base de sonidos.En colaboración con el Music, Technology and Innovation Research Centre (MTI) de Montfort University (Leicester, UK).

Page 7: En El Límite - Escritos sobre Arte y Tecnología

en el limite | 7

La revista que estamos presentando es la primera publicación del Centro de Estudios en Producción Sonora y Audiovisual (CEPSA), cuyo objetivo es generar un ámbito en donde la diversa producción artística vinculada a la imagen y al sonido y su tratamiento mediante tecnología, pueda expresar posiciones conceptuales y establecer un plexo de discusión respecto de esos temas.

Con ese fin, el responsable de la publicación ha diseñado un formato según el cual en cada número se propondrá un tema en torno del cual se desarrollará, desde diferentes perspectivas, cada una de las contribuciones. El objetivo es ofrecer, dentro del marco propuesto para la publicación, la mayor diversidad conceptual y las más diferentes perspectivas.

En consonancia con los objetivos del CEPSA, el responsable de la publicación ha buscado también ampliar el horizonte de conocimientos en nuestra lengua, que es notoriamente deficiente; con ese fin se traducirán trabajos escritos en idioma inglés, para hacerlos asequibles a todo clase de público de habla castellana interesado en estos temas.

Esperamos que nuestra publicación tenga una acogida favorable, ofreciendo desde ya este medio de expresión a todos aquellos que deseen realizar una contribución.

Héctor MuzzopappaDirector del Departamento de Humanidades y ArtesUniversidad Nacional de Lanús

Presentación

Page 8: En El Límite - Escritos sobre Arte y Tecnología

8 | en el limite

En el año 2009 se firmó un Memorandum de Entendimiento entre Centro de Estudios en Producción Sonora y Audiovisual (CEPSA) perteneciente al Departamento de Humanidades y Artes de la Universidad Nacional de Lanús (Argentina) y el Music, Technology and Innovation Research Centre (MTI) de la De Montfort University (Leicester, UK). Este acto se celebró inicialmente en la Universidad Nacional de Lanús mediante una jornada de trabajo que culminó con un concierto CEPSA/MTI. Hay diversos planes con diferentes tipos de intercambio que evolucionarán a futuro, todos ellos haciendo eje en la investigación

El primer resultado tangible de esta colaboración es el presente volumen, editado primero en español, con una posterior edición on line en Inglés en un futuro próximo. Esta publicación es, por lo tanto, no sólo el lanzamiento del acuerdo de colaboración CEPSA/MTI, sino también la primer publicación del CEPSA. Los investigadores del MTI están orgullosos de este acuerdo así como particularmente orgullosos de poder participar en este primer volumen. Debido a los intereses comunes de ambos Centros, nos pareció lógico dedicar esta primera publicación a hablar acerca de la recepción y la percepción del sonido, de la música focalizada en la organización del sonido, así como de la percepción conjunta de la imagen y el sonido.

Por parte del MTI, cuyos miembros son todos compositores activos, ha habido cuatro propuestas. Dos de éstas, de Simon Emmerson y John Young, se centran en aspectos relacionados a la experiencia analítica auditiva de la música electroacústica. Emmerson se interesa en las cuestiones fundamentales relacionadas a qué es lo que buscamos en el análisis, en particular, desde el punto de vista de la experiencia auditiva. Young se centra en un área muy poco tratada en el área en los estudios de música electroacústica, a saber, la de la forma. Muchos debates de esta música trabajan a un nivel local y Young se pregunta con razón sobre la forma y sobre qué tipos de formas están emergiendo a partir de campo todavía joven de experimentación en organización sonora.

Los otros artículos están más basados en la relación entre las intenciones de los músicos y la recepción del oyente. Rob Weale y Leigh Landy han estado involucrados durante unos años con el proyecto Intención/Recepción (I/R) y comparten su visión en este artículo. Hasta el momento todos los casos estudiados pertenecen al ámbito de la música electroacústica. Este proyecto es uno de los pocos que ha sido tomado por otros, tanto en el MTI como en otros lugares (tan lejanos como Nueva Zelanda y Malasia). Andrew Hill, actualmente doctorando, presenta su trabajo en el cual la metodología del proyecto I/R es desarrollada y aplicada a la recepción de obras electroacústicas audiovisuales. También desarrolla la “grilla del lenguaje” de Simon Emmerson a fin de ayudar en la creación de un nuevo sistema de clasificación.

Estos cuatro artículos ilustran nuestro compromiso con el tema del presente volumen.

Por parte del CEPSA tenemos cinco propuestas. Jorge Petrosino investiga la percepción de ultrasonidos. Aquellas frecuencias que no son percibidas por el oído humano ¿pueden considerarse sonido? ¿O son solamente un fenómeno físico? Petrosino decubre muchos aspectos conflictivos al analizar la relación entre ultrasonido y percepción, mucho más compleja que lo que se creía años atrás. Por otro lado, Daniel Schachter y Juan Samaja y Malena Pasín abordan un aspecto poco trabajado teóricamente en relación a la percepción: el sonido envolvente. Schachter se pregunta si el sistema de reproducción elegido, en este caso el 5.1 influye también en las características estéticas del discurso sonoro y de que manera lo hace, considerando lo que sin duda ocurrió con la estandarización del formato CD estéreo. Por su parte Samaja y Pasín reflexionan sobre la utilización del sonido en la percepción del espacio imaginario en el discurso audiovisual, para lo cual consideran producciones recientes, nacionales y extranjeras, que utilizan la técnica de sonido envolvente.

Introducción

Page 9: En El Límite - Escritos sobre Arte y Tecnología

en el limite | 9

Desde una perspectiva musical, Minsburg comparte el resultado de una investigación sobre la que trabaja hace unos años: la percepción de la simultaneidad, conocida como textura. Partiendo de la música electroacústica, elabora una propuesta basada en la percepción de diferentes tipos de texturas musicales que sea susceptible de aplicar a otros tipos de músicas.

Por último, Alejandra Ojeda y Julio Moyano nos brindan una perspectiva semiótica a partir de la trilogía de Pierce, ahondando en la comunicación sonora, perspectiva aún pendiente de resolver en la semiótica actual, si se hace abstracción del lenguaje verbal, ampliamente estudiado en esta disciplina.

Esperamos descubrir la sinergia entre las propuestas del CEPSA y del MTI así como encarar investigaciones conjuntas entre los miembros de ambos centros en un futuro cercano.

De la misma manera, es nuestro deseo que esta primera publicación del CEPSA, despierte interés en los lectores de habla castellana y de lugar a un rico intercambio entre investigadores y artistas a nivel local, regional e internacional, con la idea puesta en impulsar el intercambio multidisciplinar así como a establecer sólidos lazos con instituciones e individuos que compartan los mismos intereses

Leigh Landy (Director – MTI) – Raúl Minsburg (CEPSA)Abril 2010

Page 10: En El Límite - Escritos sobre Arte y Tecnología

10 | en el limite

Jorge PetrosinoIngeniero electrónico. Posee un Diploma de Estudios Avanzados en Enseñanza de las Ciencias por la Universidad Autónoma de Madrid en la cual está desarrollando su tesis doctoral. Es docente de Acústica y Electrónica y Director de Posgrados en la Universidad Nacional de Lanús, donde además desarrolla investigaciones en relación con el audio y la historia de los sistemas de registro de [email protected]

Leigh LandyDirige el Centro de Investigación “Music, Technology and Innovation” en la Universidad De Montfort. Ha publicado cinco libros, entre ellos “Understanding the Art of Sound Organization” (MIT Press), dirige el proyecto ElectroAcoustic Resource Site (EARS) y es miembro fundador del Electroacoustic Music Studies Network (EMS). Sus composiciones, que han sido representadas mundialmente, incluyen muchas para video, danza y teatro. [email protected]

Rob WealeEs Research Fellow en el Music, Technology and Innovation (MTI) Compositor de música electroacústica- su trabajo creativo está publicado bajo el seudónimo ‘The Aural Initiative’ Areas de ínteres: musicología de la música electroacústica, intención y recepción, la experiencia auditiva, el acceso y la ampliación de la participación, didactica y pedagogí[email protected]

Raúl MinsburgHa obtenido diversos premios nacionales e internacionales. Desarrolla su actividad en la Universidad Nacional de Lanús como Docente, Investigador y Director artístico del Festival “Sonoimágenes”, y en la Universidad Nacional de Tres de Febrero como Docente y miembro del Centro de Experimentación e Investigación en Artes Electrónicas. Recientemente ha editado su primer disco monográfico “Entre Sueños”[email protected]

John YoungEs Profesor de Composición en la Universidad De Montfort. Su música se centra en las fusiones de sonidos grabados en entornos naturales con sonidos más abstractos desarrollados a través de las transformaciones hechas por computadora.  Su producción incluye obras electroacústicas multi-canales obras electroacústicas, extensas obras radiofónicas, y obras con isntrumentos y sonidos electró[email protected]

Simon EmmersonProfesor de “Music, Technology and Innovation” en la Universidad De Montfort. Trabaja principalmente con live electronics pero ha tenido encargos de obras puramente electroacústicas del IMEB y del GRM. Ha editado dos CDs monográficos con el sello Sargasso (‘Spaces and Places’ (2007), ‘Points and Pathways’ (2008). Ha editado y conttribuido a editar los libros The Language of Electroacoustic Music (Macmillan, 1986)

y Music, Electronic Media and Culture (Ashgate, 2000). Su libro Living Electronic Music fue publicado por Ashgate en 2007. Pertenece al Consejo Directivo de ‘Sound and Music’[email protected]

Alejandra V. OjedaProfesora de la cátedra Historia y Semiótica de los Medios de la Universidad Nacional de Lanús, donde coordina el área de Metodología de la Investigación del Departamento de Humanidades y Artes. Investigadora por las universidades de Buenos Aires y de Lanús, en las que ha profundizado su línea de trabajo en el campo de la semiótica visual. Profesionalmente es consultora en Comunicación Social y en Técnicas de Investigación, trabajando para organismos nacionales e internacionales, empresas y gobiernos [email protected]

Julio E. MoyanoLicenciado en Comunicación y Magíster en Metodología de la Investigación. Secretario Académico de la Carrera de Ciencias de la Comunicación de la Universidad de Buenos Aires. Docente e investigador en la Universidad Nacional de Lanús. Consultor en Comunicación y colaborador regular en [email protected]

Daniel SchachterCoordinador Académico, Profesor-Investigador en Edición Digital de Sonido, Organología, Masterización Digital, y Morfología del Sonido

Los autores

Page 11: En El Límite - Escritos sobre Arte y Tecnología

en el limite | 11

en la UNLa (Universidad Nacional de Lanús, Buenos Aires - Argentina). Integrante del CEPSA (Centro de Estudios en Producción Sonora y Audiovisual) de la UNLa, y Co-Director del Festival Internacional Acusmático y Multimedial Sonoimá[email protected]

Andrew Hilles actualmente doctorando en el Music, Technology and Innovation Research Centre de la Universidad De Montfort estudiando con el Profesor Leigh Landy y el Dr Bret Battey. En su Doctorado investiga el desarrollo de un discurso teórico apropiado para la música audiovisual electroacústica así como la recepción del público del mismo. Es el fundador y uno de los principales organizadores del Congreso Internacional de Posgrado “Sound, Sight, Space and Play” y miembro del Leicester ElectroAcoustic Sound [email protected]

Juan Alfonso SamajaLic. en Artes (Filo-UBA; 2003). Maestrando en Metodología de la Investigación Científica (UNLa). A cargo del área de investigación de la carrera de Dirección y Producción de Radio, Televisión y Cine de la Universidad de Belgrano. Director del Centro de Estudios sobre Cinematografía. Docente e investigador en el área de Semiótica Narrativa, Historia de los Medios y Metodología de la Investigació[email protected]

Malena PasinDiseñadora Industrial (FADU-UBA; 1999). Maestranda en Metodología de la Investigación Científica (UNLa) Docente en el área Proyectual del CBC-UBA y en Metodología de la investigación aplicada al diseño en UBA, y Universidad de Belgrano. Participa de proyecto UBACyT en la cátedra de Beatriz Galán (FADU-UBA) desde 2005. Realizó estudios formales sobre Fotografía en Escuela Argentina de Fotografí[email protected]

Page 12: En El Límite - Escritos sobre Arte y Tecnología

12 | en el limite

Jorge PetrosinoCEPSACentro de Estudios en Producción Sonoray AudiovisualUniversidad Nacional de Lanús

IntroducciónEl término sonido puede usarse para hacer referencia tanto a un fenómeno físico como a uno perceptivo. Físicamente el sonido es una onda mecánica, en forma independiente de que pueda ser escuchado. Esta antigua diferenciación vuelve a adquirir protagonismo al preguntarnos si el ultrasonido debe ser considerado sonido. La respuesta clásica es que las ondas mecánicas de frecuencias elevadas no son percibidas por el oído humano, no generan sensaciones auditivas y por lo tanto no pueden considerarse sonido: lo que no se percibe no es sonido. Sin embargo hay bastantes aspectos conflictivos cuando se intenta analizar la relación entre ultrasonido y percepción desde este punto de vista. El presente artículo analiza una serie de investigaciones y especulaciones sobre el tema que muestran que la respuesta a esta pregunta es más compleja de lo que suele suponerse.

Límite superior de frecuencias audiblesFletcher y Munson (1933) llevaron adelante una investigación clásica en relación a la percepción humana de sonidos en función de la frecuencia. En 1937 trazaron las primeras curvas de sonoridad equivalente (equal-loudness contours) en las que se indica el nivel

de presión sonora necesaria para que tonos puros de diferentes frecuencias se perciban con igual nivel de sonoridad. Estas curvas fueron corregidas unos años más tarde por Robinson y Dadson (1956), las que sirvieron de base para el estándar ISO 226.

Es comúnmente aceptado que los seres humanos perciben sonidos de frecuencias que van de los 20 Hz a los 20 KHz, aunque es importante señalar que no resulta sencillo asignar valores precisos a estos extremos. Los límites de mínima y máxima frecuencia dependen fuertemente de las condiciones experimentales y de otras variables. La edad de los sujetos, por ejemplo, afecta fuertemente la capacidad para percibir frecuencias altas. Con respecto al límite inferior Olson (1967) afirma que bajo condiciones altamente favorables la mayoría de los individuos es capaz de detectar tonos de tan solo 12 ciclos por segundo.

Más allá de las diferencias en la selección de los límites, en general se admite que un ser humano no puede percibir sonidos de más de 20 KHz de frecuencia. Las ondas mecánicas que superan los 20 KHz de frecuencia se conocen como ultrasonido.

Los límites del rango audible que van de 20 Hz a 20 KHz han sido utilizados como valores prácticos para definir el rango de frecuencias de lo que se conoce como Hi Fi (alta fidelidad). Las tecnologías del audio digital han tomado estos límites como

referencia para seleccionar ritmos de muestreo apropiados. En base al teorema de Nyquist podemos afirmar que es necesario utilizar una frecuencia de muestreo que sea mayor al doble de la máxima frecuencia que se pretende registrar digitalmente de ahí que el estándar de frecuencia de muestreo para el disco compacto de audio (CD-DA) sea de 44.1 KHz, y el de la cinta de audio digital (DAT) de 48 KHz.

En los últimos años han surgidos nuevas tecnologías de audio digital de alta resolución como el Super Audio CD (SACD) y el DVD-Audio que utilizan frecuencias de muestreo más elevadas. Con 96 KHz se pueden registrar sonidos que superen los 40 KHz, siempre y cuando todo el equipamiento de audio adicional sea capaz de procesar señales que superen los 20 KHz (micrófonos, preamplificadores, consolas de mezcla, amplificadores y altavoces). Estos sistemas también utilizan más bits de resolución que el CD-DA. Resulta cuando menos curioso que estos límites no hayan surgido bajo el amparo de nuevas experiencias que extiendan las curvas de Robinson-Dadson con el fin de determinar un nuevo límite de frecuencia máxima audible, así como un mayor rango dinámico perceptivo (relacionado con el incremento de resolución en bits).

Experimento de Meyer y MoranMeyer y Moran (2007) describen en un artículo del Journal of Audio Engineering Society (A.E.S.) una experiencia para comparar, en

La posibilidad de percibir lo inaudible.Ultrasonidos y audición

Page 13: En El Límite - Escritos sobre Arte y Tecnología

en el limite | 13

base al sistema de doble ciego1, la posibilidad de distinguir entre la resolución de los discos compactos tradicionales y la de los sistemas de alta resolución de audio (Super Audio CD y DVD-Audio). El experimento se llevó a cabo a lo largo de un año haciendo pruebas con una variedad de sistemas y con diferentes participantes entre los que se contaban amantes del audio, profesionales dedicados al sonido y la grabación, así como estudiantes de carreras universitarias relacionadas con el audio. Los equipos incluían costosos monitores profesionales y un sistema “high-end” con altavoces electrostáticos. Los resultados obtenidos indican que la diferencia entre ambos sistemas resulta indetectable para todos los sujetos y para todas las combinaciones de sistemas de reproducción utilizados cuando los niveles de reproducción son bajos, normales o incluso altos. La única situación en la que se reportaron diferencias fue cuando se utilizaron muy elevados niveles de presión sonora. Al comparar los sistemas de 16 bits y 44.1 KHz del disco compacto con el Super Audio CD y el DVD-Audio los aciertos al detectar los sistemas de alta calidad fueron del 49.82% en 554 situaciones experimentales, lo que es perfectamente compatible con la imposibilidad de distinguir entre ambos sistemas. Las únicas excepciones surgieron al comparar estos sistemas con altos niveles y sin señal de entrada. En esta situación las diferencias en el piso de ruido del formato standard y el de alta calidad resultaron detectables.

Esta experiencia, que ha generado gran controversia en el mundo del audio profesional, podría parecer suficientemente concluyente como para descartar la utilidad práctica de los formatos de audio de alta resolución. Es posible citar además experiencias anteriores (Kimio y Toshiyuki, 2005) cuyos resultados tampoco muestran diferencias significativas entre la utilización de diferentes formatos de grabación digital (48kHz 24bit PCM, 192kHz 24bit PCM y DSD). De todas formas debemos aclarar que estos mismos investigadores habían presentado un año antes resultados que indicaban que algunas personas podían detectar diferencias ante la presencia de frecuencias ultrasónicas (Ando, Kimio, Toshiyuky y Kahuo, 2004). Sin embargo no todo es percepción en el mundo del audio. Es posible defender la existencia de estos formatos utilizando argumentos técnicos relacionados con requerimientos propios del procesamiento de la información que justificarían el registro con mayor resolución que la estrictamente necesaria, de modo semejante al caso de las

calculadoras de mano que utilizan más decimales en su procesamiento interno que los que se muestran en el visor. Desde un punto de vista distinto, muchos especialistas sostienen además que el procesamiento de audio con frecuencias mayores produce mejores resultados al reproducir sonidos dentro de la banda audible debido a que se reducen los errores de fase y se mejora la respuesta a transitorios de las componentes que están por debajo de los 20 Khz2(Dunn, 1998).

Sin poner en duda la rigurosidad de las experiencias de Meyer y Morán, ni sus resultados, aún es posible analizar casos en donde la existencia de ultrasonidos genera efectos perceptivos.

Los límites perceptivos visuales suelen ser razonablemente semejantes entre animales de diferentes especies. Es posible atribuir la causa a que la vista debe aprovechar la energía radiante del sol que es la misma para todos los animales. Sin embargo, los sistemas auditivos de diferentes animales poseen distintos rangos de frecuencias.

Frecuencias de audición de seres humanos y de diferentes animales. Las zonas claras indican las frecuencias de mayor sensibilidad.3

Page 14: En El Límite - Escritos sobre Arte y Tecnología

14 | en el limite

Cada especie adapta su sistema auditivo a los sonidos que le resultan esenciales. Entre ellos los sonidos que pueden producir sus predadores o presas, así como los generados por otros miembros de su especie.

Además de los ultrasonidos generados y percibidos en el mundo animal, en nuestro entorno existen ultrasonidos producidos por diferentes tipos de causas como la fricción en distinto tipo de máquinas. También existe alta frecuencia en nuestro entorno musical. James Boyk4 escribió hace algunos años un artículo en cuyo título sostiene que “hay vida por encima de los 20 KHz”. Allí afirma que al menos un miembro de cada familia de instrumentos (cuerdas, vientos de madera, vientos de metal y percusión) posee componentes del orden de los 40 KHz con importantes niveles de intensidad. En el caso particular de una trompeta medida experimentalmente los componentes de energía significativa llegaron a superar los 100 KHz. ¿Percibimos las componentes ultrasónicas producidos por estos instrumentos musicales?

Experimento de OohashiTsotomu Oohashi y colaboradores de la Universidad de Tokio han realizado una serie de investigaciones en las que utilizan técnicas no invasivas de medición de parámetros fisiológicos cerebrales para conseguir evidencia de que los sonidos que contienen componentes por encima del rango audible afectan significativamente la actividad cerebral (Oohashi y colaboradores, 1991). En un experimento publicado en el

año 2000 utilizaron muestras sonoras de música gamelán de Bali a sabiendas de que posee mucha riqueza en alta frecuencia con una estructura no estacionaria. Dividieron la información acústica obtenida en dos componentes: una parte audible, por debajo de los 22 KHz (LFC – Low Frequency Component) y una parte de alta frecuencia, por encima de los 22 KHz (HFC). Se registró la actividad neuronal mientras los sujetos fueron expuestos a varias combinaciones de las partes de baja y alta frecuencia. Ninguno de los participantes reconoció la existencia de las componentes de alta frecuencia (HFC) cuando estas se presentaban por si solas (Oohashi y colaboradores, 2000).

El espectro de potencias de la señal electroencefalográfica en el rango de frecuencias alfa (alfa-EEG) registrado en la región occipital tuvo un incremento estadísticamente significativo cuando los sujetos fueron expuestos a la combinación de componentes de alta y baja frecuencia, comparado con los resultados de utilizar solamente la porción audible (LFC). Tampoco se evidenció ningún aumento de actividad alfa al utilizar las componentes de alta frecuencia en forma aislada. Mediante mediciones de tomografía de emisión de positrones se encontró un aumento significativo de flujo cerebral (Regional Cerebral Blood Flow – rCBF) en el tronco del encéfalo y en el tálamo izquierdo, cuando los participantes fueron sometidos a la aplicación simultánea de ambos componentes sonoros (HFC y LFC),

al compararlo con la presentación de los componentes de baja frecuencia por si solos (LFC). Se detectó además que los participantes tendían a considerar que las situaciones en las cuales ambos componentes estaban presentes eran más placenteras, comparadas con las situaciones en las que el HFC se filtraba. Estos investigadores denominaron “efecto hipersónico” (hypersonic effect) a la respuesta cerebral generada por sonidos complejos con alto contenido de frecuencias ultrasónicas.

No resulta sencillo compatibilizar los resultados de Oohashi con los de Meyer y Moran.

Estos últimos investigadores han publicado con posterioridad a sus experimentos un listado parcial de los materiales sonoros utilizados en la comparación5. Entre ellos hay algunas obras especialmente creadas para ser reproducidas con los sistemas de Super Audio CD y con DVD-Audio. ¿Qué habría pasado si se comparasen los sistemas de Meyer y Moran utilizando música gamelán? ¿Será esta la causa de la diferencia? Atendiendo a los resultados obtenidos por Oohashi podríamos decir que los componentes de alta frecuencia no son percibidos por si solos, pero de algún modo parecerían modificar la experiencia perceptiva cuando están acompañados de componentes de baja frecuencia. Esta afirmación resulta desafiante y da lugar a una gran cantidad de preguntas que merecerían investigarse. ¿Qué características debe tener el conjunto de componentes de baja frecuencia para que su experiencia perceptiva

Page 15: En El Límite - Escritos sobre Arte y Tecnología

en el limite | 15

resulte modificada cuando existen componentes de alta frecuencia presentes? ¿Tiene que existir alguna relación entre ambos?

Imaginemos una posible modificación del experimento de Oohashi en el que las componentes de baja frecuencia (LFC) son cambiadas por cualquier otra muestra de sonidos de baja frecuencia (LFC-2) no correlacionados con las componentes de alta frecuencia. ¿Se repetirían los resultados de activación de ondas alfa cuando se presentan en forma simultánea ambos componentes (HFC y LFC-2)? No puede responderse a esta cuestión en forma contundente sin una experimentación adecuada, pero suena razonable suponer que los resultados deben depender de la correlación que pudiera existir entre los componentes de alta y baja frecuencia.

Quizás los ultrasonidos no se perciban en forma directa (por si solos), pero pareciera que resultan capaces de generar efectos perceptivos ya que su presencia o ausencia modifican los patrones de activación neuronales, así como las respuestas subjetivas, al menos en los casos reportados en el experimento de Oohashi.

¿Cuál podría ser la causa de que los componentes ultrasónicos se perciban solamente si están acompañados por otra serie de componentes dentro del espectro audible? Si pensamos en la existencia de algún proceso alineal que genere productos de intermodulación que den lugar a resultados

preceptivos, nos estaríamos equivocando ya que en ese caso aparecerían efectos audibles aún cuando solo se presentasen ultrasonidos, sin necesidad de que existan componentes de baja frecuencia.

Procesos alineales y ultrasonidoTodo proceso alineal aplicado a una señal genera una serie de componentes nuevos. Si la señal original es senoidal pura, los productos de la distorsión son múltiplos enteros de la frecuencia original. Este efecto se denomina distorsión armónica ya que produce armónicos que no estaban presentes en la señal original.

Page 16: En El Límite - Escritos sobre Arte y Tecnología

16 | en el limite

Una señal compleja está formada por varias componentes senoidales puras. Al aplicar un proceso alineal a una señal compleja se genera lo que se conoce como distorsión por intermodulación, además de producirse distorsión armónica. El caso más sencillo de mencionar es cuando se tiene una señal formada solamente por dos frecuencias f1 y f2.

El proceso alineal da lugar a innumerables componentes cuya frecuencia puede calcularse como

f = |n.f2 – m.f1| y f = |n.f2 + m.f1|

para todos los valores de n y m enteros positivos. Las componentes con más energía suelen ser las que corresponden a valores pequeños de n y m.

Uno de estos componentes de mucha importancia para nuestro análisis es el que corresponde a la resta entre ambas frecuencias. Por ejemplo, una frecuencia de 45 KHz superpuesta a otra de 42 KHz generará, entre otras, una frecuencia de 45 – 42 = 3 KHz. Así aunque ambas frecuencias iniciales sean ultrasónicas, la diferencia entre ellas está dentro del rango audible.

Existen al menos dos clases de procesos alineales que normalmente están presentes en la audición. Por una parte están los procesos alineales desde el punto de vista fisiológico, en donde el propio oído resulta tener un comportamiento alineal6 (Moore, 1997; Equiluz y colaboradores, 2000). Por otra parte, desde el punto de vista físico, la relación entre la presión y la densidad del aire es alineal (teniendo en cuenta la ley de Boyle y Mariotte de los gases). Si bien esta última alinealidad resulta despreciable para presiones sonoras moderadas, puede ser importante al utilizar niveles sonoros elevados.

Page 17: En El Límite - Escritos sobre Arte y Tecnología

en el limite | 17

frecuencia de 1 KHz, tal y como si resultase desplazada 40 KHz hacia abajo. Una tercera frecuencia de 43 KHz también será desplazada y por tanto generará una componente de 3 KHz. Sin embargo, al pensar de esta forma nos estaríamos olvidando que también existe intermodulación entre las frecuencias de 41 KHz y la de 43 KHz. Esto agrega una gran complejidad al tema de conseguir que el resultado de la distorsión por intermodulación permita conseguir un determinado espectro audible puesto como objetivo ya que cada par de frecuencias originales generará productos de intermodulación. Los detalles de como es posible lograr reducir estas otras componentes de intermodulación escapan al alcance del presente trabajo.

Los sistemas comerciales que provocan sonido a partir de ultrasonido se basan en niveles de sonoridad sumamente elevados de ultrasonido. ¿Qué nivel de sonoridad puede alcanzarse con ultrasonido como tope sin riesgos para el sistema auditivo? La respuesta no es nada clara y vuelve a posicionar la discusión en torno al tema del ultrasonido y la percepción. ¿Será que si una onda sonora no se percibe, no puede dañar al sistema auditivo independientemente de su intensidad? No existen suficientes estudios sobre este tema como para dar una respuesta satisfactoria.

Conducción ósea de ultrasonidosDesde hace décadas muchos investigadores han comenzado a discriminar el límite superior de

El tema de la alinealidad explicaría la creación de componentes de baja frecuencia (perceptibles) por la intermodulación de dos o más componentes ultrasónicos, pero esto no basta para entender los resultados de Oohashi. Los efectos perceptibles debidos a las frecuencias ultrasónicas en un proceso alineal no se verían alterados en modo alguno por la presencia o ausencia de otros componentes de baja frecuencia y sabemos que en la experiencia de Oohashi las diferencias perceptivas se dan cuando los componentes ultrasónicos se presentan simultáneamente con otros de baja frecuencia. De todas formas el tema de la alinealidad nos permite explorar otras dimensiones de la relación entre ultrasonidos y percepción.

Haces de sonidoElwood Norris ganó en el año 2005 el premio Lemeslon7 del prestigioso Instituto Tecnológico de Massachusetts (MIT) a la innovación tecnológica por su propuesta de generar sonido mediante ultrasonido. Existen una serie de productos en el mercado que explotan la alinealidad del aire para lograr este fin: Audio Beam8, Audio Spotlight9, Sonic Beam10, LRAD11. Estos sistemas fueron creados con la intención de generar un “haz de sonido” semejante a un rayo de luz. Los sonidos de alta frecuencia son más direccionales que los de baja frecuencia en relación con un fenómeno físico conocido como difracción. El ultrasonido es altamente direccional. Esto lo vuelve semejante a

un haz sonoro cuyo ángulo de apretura es relativamente bajo, como si se tratase de un haz luminoso. Al generar sonido como producto de intermodulación de componentes ultrasónicos se consigue una fuente sonora audible con un estrecho haz de apertura. Dicho en palabras simples: se consigue un haz de sonido que sólo puede ser escuchado cuando los altavoces apuntan directamente a los oídos de la persona. Se consigue además que el nivel de sonoridad no decaiga con la distancia con el mismo ritmo que el que corresponde a una onda esférica. En general se trata de sistemas muy costosos (varios miles de dólares por cada altavoz ultradireccional).

De todas formas, el procedimiento para generar sonido audible a partir de ultrasonido no es tan directo como cabría suponer en una primera aproximación. Es relativamente sencillo generar un tono puro con dos senoidales ultrasónicas, pero no es tan sencillo generar un sonido compuesto en base a ondas ultrasónicas, sin que aparezcan frecuencias audibles no deseadas. Dos frecuencias ultrasónicas generan un componente energético que se corresponde con la diferencia entre las frecuencias iniciales. Con esta idea en la cabeza uno podría suponer que la frecuencia más baja podría ser considerada como frecuencia de base y por lo tanto interpretar todo el proceso como un desplazamiento de las componentes más altas hasta volverlas audibles. Una frecuencia de 40 KHz junto a otra de 41 KHz, generará una

Page 18: En El Límite - Escritos sobre Arte y Tecnología

18 | en el limite

frecuencia que puede escucharse entre sonidos transmitidos por el aire y el que corresponde a sonidos transmitidos directamente a través de los huesos del cráneo. En 1950 la revista Nature publicó un artículo de R. J. Pumphrey en el que se refería al tema. Pumphrey afirma que la máxima frecuencia generalmente aceptada como límite para sonidos conducidos en forma aérea es de 20 KHz. Por encima de los 12 KHz el umbral de detección de sonidos aumenta abruptamente y la posibilidad de discriminar diferencias de frecuencias disminuye. Esta suposición llevó a muchos autores a asumir tácitamente que el oído no es capaz de responder a frecuencias mayores a 20 KHZ (Pumphrey, 1950).

Actualmente se sabe que es posible provocar sensación audible si se genera vibración ultrasónica por conducción ósea. Con este procedimiento las ondas de hasta 120 KHz son percibidas como tonos simples con una altura subjetiva como si se tratase de un sonido recibido por conducción aérea de entre 8 y 16 KHz. No existe consenso sobre los mecanismos que dan lugar a estas sensaciones. Nishimura y colaboradores (2003) afirman que los ultrasonidos estimulan las cilias internas, pero no activan las cilias externas (a diferencia de lo que sucede con sonidos dentro del rango audible). Lenhardt (1991, 2003) trabaja con un par de hipótesis diferentes. La primera supone que el sáculo12, que está junto a la cóclea y posee cilias más cortas que responden a frecuencias de excitación que

van de 20 KHz a 100 KHz, actúa como un receptor ultrasónico. La otra hipótesis asume que los ultrasonidos resuenan en el cráneo y dan lugar a un proceso de modulación que permite percibir su presencia. Fujimoto (2005) duda de estas explicaciones. Afirma que las anteriores hipótesis suponen procesos básicamente lineales, y que según sus propias investigaciones, centradas en la detección de señales de voz que modulan una señal ultrasónica, el proceso involucrado tendría que ser necesariamente alineal. Existen varios procesos que podrían ser causales de alinealidad. Inclusive hay quien afirma que la propia interacción entre el transductor y el hueso del cráneo podría ser la causa. Como en varios de los temas discutidos previamente, no hay respuestas cerradas sobre esta cuestión.

Pero lo que resulta sumamente intrigante, como pregunta de ingeniería inversa que intenta asociar una determinada capacidad con una necesidad fisiológica o psicológica, es la de intentar entender cuál podría ser la finalidad de disponer de una capacidad de detección de ultrasonidos por conducción ósea y no aérea, siendo que se trata de un tipo de vibración posible, pero poco común. Prácticamente todo nuestro contacto con fuentes ultrasónicas proviene de fuentes aéreas. La mayoría de la energía acústica proveniente de fuentes ultrasónicas aéreas se refleja y sólo una proporción minúscula se convierte en vibración ósea13. El oído posee un complejo mecanismo para evitar este tipo de reflexión de

la energía acústica dentro del rango audible. Si fuese importante para nuestra supervivencia o tuviese algún otro tipo de utilidad la detección de ultrasonidos, no se comprende la ausencia de un mecanismo de detección para ultrasonidos conducidos por el aire. Por el contrario, si es poco útil o poco común el que estemos enfrentados a niveles de ultrasonido suficientemente energéticos como para que sean claramente detectados por la transmisión ósea, ¿qué tipo de fuerzas evolutivas podrían haber logrado desarrollar un “órgano de detección de ultrasonidos”?

Afirmación de Rupert NeveUn último punto a presentar surge de un relato que forma parte del folklore del audio profesional. Dicha anécdota no tiene bases suficientes para enfrentarse al cúmulo de trabajos científicos anteriormente citados, pero puede servir de excusa para dejar volar la imaginación especulando sobre aquellas piezas que faltan en el rompecabezas de la relación entre audición y ultrasonidos.

Rupert Neve es un prestigioso diseñador de equipos de sonido, nacido en Argentina y radicado en Inglaterra desde los 17 años. Cuenta la anécdota que Rupert Neve descubrió en 1977 que Geoff Emerick podía percibir frecuencias de 54 KHz14. El relato describe una situación en la que Emerick estaba trabajando en una mesa de mezclas en el estudio Air Sound de Londres cuando percibió que uno de los módulos sonaba diferente al resto. Cuando fue revisado con

Page 19: En El Límite - Escritos sobre Arte y Tecnología

en el limite | 19

detalle por los técnicos de la fábrica de Neve se encontró que alguien había omitido instalar las resistencias de carga necesarias en la entrada y en la salida de los transformadores, lo que causaba que los transformadores generasen una oscilación (ringing) en la vecindad de los 60 KHz15. La anécdota tiene tanto adherentes como detractores (que están dispuestos a ofrecer un sinnúmero de explicaciones alternativas).No pretendo aquí defender dicha anécdota ni certificar la veracidad de los dichos de Neve, sino mas bien concentrarme en especular sobre ciertos detalles de lo que podrían significar esas afirmaciones. Tengo entendido que en al menos una presentación pública Rupert Neve hizo escuchar a los presentes un tono puro y un tono compuesto, ambos de 17 KHz de frecuencia fundamental, insistiendo en que era posible distinguirlos perceptivamente. La única diferencia que hay entre un tono puro y uno compuesto corresponde a la existencia de armónicos en el tono compuesto (2x17=34 KHz, 3x17=51 KHz, y así siguiendo). De modo que si se percibe la diferencia, entonces los componentes ultrasónicos afectan lo que percibimos. La experiencia parece sencilla, pero quizás no lo sea tanto al intentar sacar del medio otros efectos que generarían una diferencia perceptible diferente a la que se pretende analizar. Para llevarla adelante es necesario tener disponible una cadena de audio que responda linealmente en todas sus etapas hasta unos 60 KHz y asegurarse de quitar toda otra diferencia perceptiva que no sea la que se pretende analizar. Hasta donde

tengo conocimiento esta prueba no ha sido realizada con metodología científica.

Supongamos por un momento que la prueba se realiza comparando una onda senoidal de 17 KHz con una onda cuadrada de 17 KHz y que se obtienen resultados convincentes respecto de las diferencias perceptivas. Estos resultados confirmarían que de alguna forma los componentes ultrasónicos afectan la percepción, sin que esto implique que podamos escuchar tonos puros ultrasónicos por si solos (con transmisión aérea). Las ondas cuadradas solamente poseen armónicos impares, por lo cual deberíamos suponer que un componente de 51 KHz estaría generando sensación auditiva siempre y cuando se tratase de un armónico que viene acompañando a un tono fundamental de 17 KHz. ¿Por qué podría ser que los humanos tuviésemos disponible un sistema auditivo capaz de hacer algo tan extraño como la detección de 51 KHz solamente si está acompañando a una onda de 17 KHz? Es posible argumentar que con este extraño comportamiento se lograría distinguir timbres de las ondas en todo el rango audible.

Efecto de “ceguera” a los timbresCualquier sistema limitado en su rango de frecuencias verá alterada su capacidad de distinguir formas de onda de las frecuencias que están en la porción superior de dicho rango. Toda onda compuesta posee armónicos (que son múltiplos de la frecuencia fundamental), por lo cual si el rango de

frecuencias está limitado a 20 KHz, entonces no podremos percibir diferencias entre formas de onda para sonidos superiores a los 10 KHz, debido a que ni siquiera se podría detectar un segundo armónico. Esto significaría que no podríamos distinguir entre una onda senoidal de 12 KHz y una onda diente de sierra que tuviese esa misma frecuencia fundamental. En cierta forma podríamos decir que se produce una especie de “ceguera” a los timbres para todas las ondas que estén por encima de la mitad de la frecuencia máxima. Por otra parte, las ondas con frecuencia fundamental entre un tercio y la mitad de la frecuencia máxima solo podrían distinguirse en forma precaria (detectaríamos la posible presencia de un segundo armónico, pero no del tercero y los subsiguientes). Existen muchas fuentes sonoras que generan solamente armónicos impares. Sería para nosotros imposible distinguir en este rango entre una senoidal pura y una onda formada solamente por armónicos impares, como es el caso de una onda cuadrada o una triangular, por ejemplo.

Page 20: En El Límite - Escritos sobre Arte y Tecnología

20 | en el limite

En cierto modo esto parece respetarse en los instrumentos musicales. Las notas más altas de un piano corresponden a frecuencias que están dentro del primer tercio. Pero la pregunta subsiste: ¿es posible que distingamos timbres, al menos en forma precaria, de frecuencias superiores a los 10 KHz?

Si Rupert Neve tuviese razón, la respuesta sería afirmativa. Pongámonos por un momento en el lugar de un hipotético diseñador de un

sistema auditivo. Supongamos que nuestro objetivo es lograr detectar sonidos dentro de cierto rango pero de tal modo que seamos capaces de distinguir entre distintas formas de onda incluso de las frecuencias más elevadas (al menos hasta el tercer armónico). La solución a esta restricción de diseño implicaría generar un sistema que sea capaz de captar frecuencias algo más altas que las del rango, pero presentar solamente a la conciencia las que estén dentro del rango de base16.

Quizás exista alguna clase de “ocultamiento perceptivo” que impide que las altas frecuencias generen sensación auditiva cuando se encuentran dentro del rango de “ceguera a los timbres”. No disponemos de experiencias realizadas específicamente con la intención de probar esta hipótesis. Sin embargo los resultados de Oohasi relacionados con la percepción de altas frecuencias siempre y cuando estén acompañadas de frecuencias bajas podrían resultar razonables desde este punto de vista. No sería completamente extraño desde el punto de vista fisiológico la existencia de un tipo de “ocultamiento” ya que existen otros fenómenos perceptivos relacionados con la audición en la que parecen existir procesos previos y más básicos que lo que luego podríamos catalogar con propiedad como perceptivos (como en el tema de las sensaciones producidas por ecos con diferentes retardos).

ConclusionesEn función de todo lo expuesto anteriormente podríamos resumir los principales puntos mencionados en las siguientes afirmaciones:

• Meyer y Morán afirman que las diferencias entre un sistema de audio de alta fidelidad y un sistema de Super CD o DVD Audio no resultan detectables.• Oohashi sostiene que percibimos la presencia de componentes ultrasónicos pero solamente cuando están presentes en forma simultánea con sonidos (correlacionados) que se encuentran dentro del rango audible.

Detección dificultosa de timbres a partir de los 7 KHz, para un sistema perceptivo limitado a 20 KHz

Page 21: En El Límite - Escritos sobre Arte y Tecnología

en el limite | 21

• Los procesos alineales podrían producir sensación sonora a partir de ultrasonidos, pero no parece ser este el motivo por el cual se perciben componentes de alta frecuencia en las experiencias de Oohashi, ya que la respuesta no cambia ante la existencia o ausencia de sonidos de baja frecuencia. • Los ultrasonidos pueden generar sensaciones audibles cuando son transmitidos por conducción ósea directa, pero este interesante hecho parece más prometedor en electromedicina como medio de enfrentar cierto tipo de disfunciones auditivas, que como explicación del problema de la audición en situaciones normales.• Neve afirma que si bien no somos capaces de detectar un tono puro de 51 KHz, si podemos distinguir entre un tono puro de 17 KHz y un tono compuesto que tenga una fundamental de 17 KHz y un tercer armónico de 51 KHz.

Este conjunto de afirmaciones da la impresión de tener superposiciones y sentidos contrapuestos. Como intento de darles coherencia como grupo es que hemos propuesto una hipótesis aventurada que no posee aún apoyo experimental. Quizás nuestro sistema auditivo sea capaz de detectar componentes de hasta 60 KHz (el triple de los 20 KHz típicos) en un tipo de procesamiento que podríamos llamar pre-perceptivo, pero solo permita percibir las que se encuentren dentro del primer tercio de dicho rango.

Este rango ampliado permitiría determinar ciertas características tímbricas de las ondas de hasta 20 KHz de frecuencia, ocultando a la percepción las ondas superiores a 20 KHz que no sean complementarias de otras frecuencias más bajas.

Resulta adecuado terminar esta línea de razonamientos diciendo que la cuestión planteada en el título del presente trabajo parece ahora mucho más compleja que lo que se intuía hace unos cuantos años atrás. Será necesario disponer de paciencia para esperar a que nuevas investigaciones arrojen algo más de luz en esta compleja trama de relaciones entre percepción y ultrasonidos.

Referencias1 El sistema de doble ciego consiste en pruebas en las cuales ni el participante ni la persona que aplica el test sabe durante la realización de la experiencia cuál es la respuesta correcta. Se intenta de este modo eliminar cualquier efecto de interacción no intencional entre el aplicador y el participante.

2 Mills, P. “The need for extended high frequency bandwidth – or why you need a SuperTweeter”. http://www.audiophile.com.au/media/product_tannoy_images/WPSuperTweeter.pdf

3 Adaptado de Cracknell, A. (1983): Ultrasonidos. Madrid: Paraninfo, y de la página de la Universidad Estatal de Louisiana, USA. http://www.lsu.edu/deafness/HearingRange.html

4 J. Boyk, There’s life Above 20 Kilohertz, A Survey of Musical Instrument Spectra to 102.4 kHz, MusicLab, California Institute of Technology, Pasadena,CA 91125 USA, May 2000. http://www.cco.caltech.edu/~boyk/spectra/spectra.htm

5 http://www.bostonaudiosociety.org/explanation.htm

6 Hay varios aspectos de la audición que son propios de sistemas alineales. En primer lugar, la sensibilidad del oído en función de la frecuencia depende del nivel de presión sonora, dando lugar a una respuesta en frecuencia más plana para niveles elevados de sonoridad que para niveles bajos, En segundo lugar, la detección a nivel de la cóclea de las frecuencias que componen un sonido involucra un proceso de realimentación positiva, en las cuales el propio oído genera vibraciones. Por último, se ha detectado, también a nivel de la cóclea, la existencia de productos de intermodulación.

7 http://web.mit.edu/invent/n-pressreleases/n-press-05LMP.html8 http://www.sennheiserusa.com/professional_communication-systems_audiobeam_009859

9 http://www.holosonics.com/

10 http://www.browninnovations.com/

Page 22: En El Límite - Escritos sobre Arte y Tecnología

22 | en el limite

Bibliografía

Ando, A.; Kimio, H.; Toshiyuki, N.; Kauho, O. (2004) “Perceptual Discrimination of Very High Frequency Components in Musical Sound Recorded with a Newly Developed Wide Frequency Range Microphone” presentado en la convención de la AES de octubre de 2004.http://www.aes.org/e-lib/browse.cfm?elib=12955

Cracknell, A. Ultrasonidos. Madrid: Paraninfo, 1983

Dunn, J. “The benefits of 96 kHz sampling rate formats for those who cannot hear above 20 kHz” Preprint 4734, presented at the 104th AES Convention, Amsterdam, May 1998.http://www.nanophon.com/audio/antialia.pdf

Eguiluz, V. M. y colaboradores (2000): “Essential nonlinarities in Hearing”, Physical Review Letters. Vol 84, n 22, pág. 5232-5235.

Fletcher, H.; Munson, W. A. “Loudness, its definition, measurement and calculation” J.Acoust. Soc Am.5, 82–108 (1933).

Fujimoto, K. y colaboradores (2005): “Nonlinear explanation for bone-conducted ultrasonic hearing”. Hearing Research 204 (2005) 210–215

Kimio, H.; Toshiyuki, N. (2005) “Differences of Hearing Impressions Among Several High Sampling Digital Recording Formats”, presentado en la convención de la AES de mayo de 2005.http://www.aes.org/e-lib/browse.cfm?elib=13185

Lenhardt, M.L. (2003): “Ultrasonic hearing in humans: applications for tinnitus treatment”. Int. Tinnitus J. 9, 69–75.

Lenhardt, M.L., Skellett, R., Wang, P., Clarke, A.M. (1991): “Human ultrasonic speech perception”. Science 253, 82–85.

Meyer, E.; Moran, D. (2007) “Audibility of a CD-Standard A/D/A Loop Inserted into High-Resolution Audio Playback”, J.

Audio Eng. Soc., Vol. 55, No. 9, 2007 September

Moore, B. (1997): “An Introduction to the Psychology of Hearing”. London: Academic Press. (págs. 24-26, 34-36, 83-84, 131-133)

Olson, Harry F. (1967). “Music, Physics and Engineering”. Dover Publications. p. 249

Oohashi y colaboradores (1991): “High-Frequency Sound Above the Audible Range Affects Brain Electric Activity and Sound Perception” presentado en la convención de la AES de octubre de 1991http://www.aes.org/e-lib/browse.cfm?elib=5509

Oohashi, T. y colaboradores (2000): “Inaudible High-Frequency Sounds Affect Brain Activity: Hypersonic Effect”, en The Journal of Neurophysiology Vol. 83 No. 6 June 2000, pp. 3548-3558. http://jn.physiology.org/cgi/content/short/83/6/3548

Pumphrey, R. J. (1950): “Upper Limit of Frequency for Human Hearing”. Nature 166, 571 (30 September 1950). http://www.nature.com/nature/journal/v166/n4222/pdf/166571b0.pdf

Robinson, D. W.; Dadson, R. S. “A re-determination of the equal-loudness relations for pure tones” Br. J. Appl. Phys. 7, 166-181 (1956).

11 http://www.atcsd.com/site/

12 El vestíbulo (región media del oído interno) está en contacto con la cóclea por un lado y con los canales semicirculares por el otro. Se le atribuye una función central en relación con el equilibrio, junto a los canales semicirculares. Un estrechamiento lo divide en dos partes: el sáculo (más cerca de la cóclea) y el utrículo (cerca de los canales semicirculares).

13 En realidad cualquier onda mecánica transmitida por el aire que se enfrenta con una restricción de alta impedancia tiende a reflejarse casi por completo. Todo el oído medio tiene por función principal el de adaptar impedancias para evitar que la energía sonora del espectro audible se refleje completamente.

14 http://www.vinyl-record-collectors.net/history-of-sound-7.htm

15 http://www.mercenary.com/greatrivelmp.html

16 Hay que prestar atención al hecho de que si se amplía el rango sin provocar un efecto de “ocultamiento” de las frecuencias más altas cuando no están acompañadas de frecuencias más bajas, entonces sigue existiendo una zona en la cuál se produce la ceguera de timbres.

Page 23: En El Límite - Escritos sobre Arte y Tecnología

en el limite | 23

Rob Weale – Leigh LandyMTIMusic, Technology and Innovation CenterDe Monfort University

Breve reseña sobre el proyectoIntención/RecepciónLas bases para la investigación que dieron origen al proyecto de Intención/Recepción surgieron en 1990 cuando Leigh Landy, coautor, utilizó como título de su trabajo una pregunta surgida durante la “International Computer Music Conference” (ICMC): “Luego de tres décadas de existencia, ¿tiene la música por computadora el público que merece?” (Landy, 1990:369). Su respuesta terminante: “¡Por supuesto que no!” se basó en el hecho de que en aquel momento “la música contemporánea se veía afectada por ser una de las artes que menor apoyo recibía…principalmente en lo referente a su difusión”. (Ibíd.) La postura de Landy, enfocada a cuestiones de difusión y acceso, tuvo como intención introducir en la investigación de la música electroacústica una premisa poco considerada hasta el momento: la música electroacústica podía y debía captar otra audiencia además de aquella a la que solía llegar y, sobre la base de esta premisa, los investigadores y artistas debían dirigir cierto grado de su energía investigativa a cumplir con dicho propósito.

Landy atribuye la situación actual de la música electroacústica a ciertas causas extra-musicales: la música en el campo de la educación, la difusión de las obras a través de los medios

sonoras del mundo real. Estas son, en este caso, composiciones fijas en un determinado medio (o soporte) y en las cuales la intención del compositor se basa, en forma total o parcial, en las características referenciales del mundo real del contenido sonoro. La metodología consistió en presentar a los oyentes obras que para ellos fueran desconocidas para luego hacer una evaluación sobre sus experiencias auditivas. Se monitorearon las reacciones auditivas de los oyentes tanto mediante escuchas repetidas como con la presentación de otros datos que transmitían la intención de los compositores (título de la obra, fuentes de inspiración e ideas que se intentaron comunicar, elementos del proceso de composición en sí mismo; en otras palabras, la “dramaturgia”3 de la obra). El objetivo de este trabajo es investigar hasta qué punto la familiarización contribuye al acceso y a la apreciación de estas obras y en qué medida la intención y la recepción se relacionan en este campo particular de la música a base de sonidos. (Weale, 2006:189)

Hasta el momento, se han utilizado cinco obras como material de escucha: ABZ/A de Pete Stollery, Deep Pockets de Larisa Montanaro, Nocturne de Simon Atkinson (estas tres incluidas en la investigación doctoral de Weale), Prochraine Station de Claude Schryer y Christian Calon, y Valley Flow de Denis Smalley (ambas formaron parte de una prueba realizada por Landy4).

ABZ/A y Prochraine Station presentan al oyente una serie de experiencias auditivas ligadas a

El proyecto Intención / Recepcióny su relevancia en el campo de la produccióny en el de la educación musical

de comunicación, la colaboración audio-visual, las prácticas de conciertos y los factores socioeconómicos. Todos estos inconvenientes suponen una falta de difusión y, como consecuencia directa, de acceso. (Ibíd.) Estas dos cuestiones han sido el motor de la investigación que realizó Landy durante casi dos décadas. De hecho, al revisar su trabajo de 1990 en el año 2004, Landy se pregunta: “Luego de casi una década y media, ¿se logró algún avance? El punto de partida para mi trabajo surgió del hecho de que el sonido digital está en todas partes, pero la música electroacústica1, término mayormente utilizado en [Organised Sound2] para el relevante cuerpo de obras, luego de cinco décadas y media de existencia, aún encuentra ciertos problemas iniciales de aceptación en la mayoría de los países”. (Landy, 2204: 227)

El proyecto I/R, que constituyó la base de una tesis de doctorado (Weale, 2005b) se desarrolló en torno a ideas surgidas de la investigación realizada por Landy, principalmente en lo que se refiere a los problemas de acceso e interpretación de la música a base de sonidos. Un enfoque clave del proyecto tuvo que ver con la investigación acerca del grado de accesibilidad que presentan las obras musicales a base de sonidos, particularmente para el oído inexperto (aquél que nunca antes escuchó determinados tipos de música creada a partir de sonidos).

En su primera versión, el proyecto se centró en composiciones a base de sonidos que contienen, o parecen contener, referencias

Page 24: En El Límite - Escritos sobre Arte y Tecnología

24 | en el limite

lugares específicos. En estas obras, es escasa la abstracción, transformación y manipulación de los sonidos. Deep Pockets utiliza sonidos y objetos sonoros vinculados a un lugar específico y a un acontecimiento que sucede dentro de ese lugar, es decir, sonidos reconocibles como tales. No obstante, esta obra incluye también un elemento compositivo transformacional y abstracto que forma parte de la exploración de la musicalidad compuesta e intrínseca de los sonidos, aunque tal abstracción no es absoluta. La identidad reconocible de los sonidos continúa siendo el factor comunicativo primario en la obra. Nocturne y Valley Flow no contienen sonidos reales como tales, en cuanto a sonidos concretos y reconocibles vinculados a la fuente que los originó, sino una abstracción del contenido sonoro realizada mediante una manipulación y transformación sofisticadas. Sin embargo, a pesar de este nivel de abstracción, aún persiste una idea de realidad en las obras, la modalidad de una realidad que ha sido interpretada con imaginación.

Estas obras fueron seleccionadas con el fin de revelar de qué manera el acceso, la apreciación y las experiencias de escucha se ven afectadas por ciertas variaciones en el contenido, a lo largo de un eje que va desde los sonidos reales hasta los abstractos. El procedimiento de la prueba de escucha consiste en reproducir las composiciones seleccionadas para que los participantes de la experiencia las escuchen y en registrar sus respuestas escritas. Para poder investigar los efectos de la información

dramatúrgica en la experiencia de escucha, la composición elegida se reproduce tres veces durante una única sesión de prueba (en cada reproducción, aumenta la información relacionada con la obra que se les da a los participantes). En la primera escucha, no se les proporciona información, ni siquiera el título. La segunda vez se les da a los participantes el título de la obra (cuando el título no resulta de ayuda, o resulta ambiguo, se les otorga a los participantes algunos datos sobre la obra). Antes de la tercera escucha, los participantes reciben información sobre los aspectos pertinentes a la dramaturgia de la obra que se obtuvieron mediante un cuestionario que se le hizo al autor sobre sus intenciones al componer la pieza (véase Weale, 2006: 199-200). Las respuestas de los participantes se monitorean durante las tres escuchas a través de dos tipos de cuestionarios: uno en tiempo real, que recoge las respuestas inmediatas del participante, y un cuestionario dirigido, que se completa sólo después de la primera escucha. (Ibíd.)

Luego de esas tres instancias, los participantes comparten sus experiencias en un debate grupal informal. Durante la discusión, se toma nota de toda la información complementaria que pudiera ser valiosa para la investigación.

A través de las tres escuchas, se espera obtener información sobre:

a) El nivel de accesibilidad y de apreciación cuando no se facilita

información contextual antes de escuchar la composición. Esta información sólo se puede registrar únicamente después de la primera vez que se escucha la obra.

b) Los medios que utilizan los oyentes para comprender la obra en lo que respecta únicamente a su contenido. Estos dos factores muestran, además, cuánta información posee la obra en sí misma acerca de los medios a través de los cuales se interpreta la obra.

c) El nivel de ayuda que proporcionan el título y la dramaturgia a los oyentes en términos de acceso y cómo esos datos dan información a la estrategia de escucha y mejoran la apreciación. Un factor importante a tener en cuenta era saber hasta qué punto la información dramatúrgica era capaz de ofrecer a los oyentes algo en que apoyarse5 cuando éstos se involucran con la obra.

La aplicación de la metodología I/R permitió obtener información que mostraba la accesibilidad de los tipos de obras representadas en el estudio, poniendo en relieve la capacidad de los oyentes inexpertos para apreciar y, lo que es aún más importante, para lograr una experiencia de escucha placentera y estimulante. Cuando el acceso y la apreciación resultaban problemáticos para los participantes (la mayoría de las veces con relación a la abstracción del sonido), el estudio demostró claramente que

Page 25: En El Límite - Escritos sobre Arte y Tecnología

en el limite | 25

cuando se proporcionan los aspectos pertinentes acerca de la dramaturgia de la obra como un elemento en que apoyarse, los oyentes pueden usar esta información como ayuda en la experiencia auditiva.6

Dos tercios de las 151 respuestas que se recogieron de los oyentes observaron que tuvieron una experiencia positiva al escuchar el material (la diferencia entre piezas fue menor al 10%, ya sea en una u otra dirección); y la mayoría de los oyentes expresaron que, en el futuro, deseaban escuchar más obras similares a estos tipos de composiciones. Estos resultados sorprendentes son importantes, dado el actual interés en lo pedagógico del proyecto I/R, en cuanto a que muestran el potencial que tiene la música a base de sonidos para ser incluida en los planes de estudio, de los cuales está marginada o ni siquiera está presente.

Al momento de su redacción, el proyecto I/R generó varias publicaciones de gran importancia.7 El método I/R también ha sido aplicado a otros proyectos de investigación. En Nueva Zelanda, Alexander Bennett ha estado investigando el fenómeno de “sonidos clave” en la música electroacústica utilizando ciertos aspectos del método I/R.8 En Malasia, Affendi Ramli bajo la supervisión de Hasnizam Abd Wahid utilizó el método I/R para investigar la experiencia auditiva desde una perspectiva cultural. En este caso, con las mismas piezas que se usaron en el proyecto I/R original llevado a cabo por Weale, se exploró hasta

qué grado las experiencias auditivas de los oyentes malasios difieren (o no) de las de los oyentes británicos que participaron en la investigación original, es decir, cómo la cultura afecta a la cognición e interpretación de ciertas formas de la música a base de sonidos. En Australia, algunos investigadores llevaron a cabo proyectos basados en el modelo I/R que involucran a la danza contemporánea, utilizando el método I/R que ha sido desarrollado independientemente del método Weale/Landy (véase Grove, Stevens y McKechnie 2005). En efecto, Catherine Stevens de MARCS Auditory Laboratories de la Universidad de Western Sydney desarrolló metodologías empíricas que van más allá del enfoque del cuestionario sociológico tradicional aplicado hasta ahora en el proyecto I/R, que incluyen elementos tales como medidas de respuesta física frente a lo que los participantes ven o escuchan (Landy, 2007 a: 79). Andrew Hill, quien también participa en esta publicación, incorpora el método I/R en el estudio de lo que él denomina “música visual electroacústica”.

Intención / Recepciónacceso / accesibilidad y triangulaciónEn tanto la música a base de sonidos y la accesibilidad continúen siendo el centro del proyecto I/R, es importante definir qué se entiende por acceso/accesibilidad. El acceso/accesibilidad en este tipo de música comprende: a) el conocimiento de que tal música existe, b) dónde encontrarla (lo cual,

en cierta medida, es un tema de marketing, pero también es indicio de hasta qué punto la música a base de sonidos en su conjunto está poco representada en los medios de difusión), y c) cómo acceder a su contenido, cómo ingresar en su universo sonoro (qué escuchar a efectos de darle sentido a la música a base de sonidos y apreciar las composiciones en esta área).

El objetivo clave del proyecto I/R en su manifestación inicial se refería al punto (c) –cómo acceder al contenido, cómo apreciar la composición y cómo desarrollar una estrategia auditiva adecuada referente al género, categoría o contenido de una composición musical específica. Para este fin, el proyecto I/R ha sido relativamente exitoso en explorar la accesibilidad de los contenidos y en delinear los métodos que podrían asistir al oyente en la orientación dentro de una composición musical, en caso de que el acceso y la apreciación les resultaran dificultosos.

De todos modos, el hecho de proporcionarle a los oyentes estrategias auditivas clave para acceder al universo sonoro de una composición no resuelve las cuestiones (a) y (b) –el conocimiento de que este tipo de música existe y dónde encontrarla. Un enfoque más activo para establecer la accesibilidad en la música a base de sonidos requiere encontrar la manera para lograr que los oyentes se enteren de que tal música existe y cómo encontrarla en primera instancia. Joel Chadabe remarcó: “La gente puede usar zapatos y no por eso saber qué

Page 26: En El Límite - Escritos sobre Arte y Tecnología

26 | en el limite

camino tomar”. (Chadabe, 2004:316). Si bien hay algún tipo de progreso, la cobertura de la música a base de sonidos en los medios conocidos aún sigue siendo, en el mejor de los casos, marginal. En este sentido, los oyentes potenciales (aquellos que nunca han escuchado música a base de sonidos, pero a quienes dicho material les podría resultar interesante, tanto como material auditivo como una expresión del arte a la que tal vez deseen dedicarse creativamente) tendrían pocos recursos, o ninguno, para descubrirla, a menos que asistan a una institución académica donde se enseñen aspectos de la música a base de sonidos. Además, exponer la música a base de sonidos a una audiencia más amplia bien podría ser el punto inicial para ocuparnos de la problemática del acceso a esta música. Sin embargo, a menos que este material sea accesible a este público novato, éste puede simplemente apagar y rechazarlo. Por consiguiente, es importante que los compositores de música a base de sonidos que estén interesados en acceder a audiencias potenciales nuevas, sean conscientes de las estrategias que este público novato utiliza para acceder a sus obras – cuáles funcionan y cuáles no – y cómo ayudar a los oyentes a acceder a sus obras cuando dicho acceso resulta difícil. La clave aquí reside en que los compositores respondan activamente a esta información de acceso, a través de la adaptación de sus estrategias de composición en forma acorde.

De este modo, se crea un feedback y comienza a tener lugar la triangulación. Esta forma de triangulación, la incorporación de la evaluación del feedback adquirido del propio trabajo, es un medio de crítica y de desarrollo del arte del siglo veintiuno. (Landy, 1999:63; Landy, 2006).

La triangulación también es importante en términos de establecer una mayor accesibilidad a la música a base de sonidos a través de la educación, es decir, mediante el desarrollo de un modelo pedagógico dinámico. Efectivamente, el modelo que se analizará más adelante se creó como una respuesta directa a la información de los oyentes recolectada por medio del proyecto inicial de investigación I/R. Con este fin, los compositores pueden utilizar la información de la triangulación para estimular la composición de obras focalizadas pedagógicamente; obras que están destinadas a introducir a los oyentes en la música a base de sonidos en un contexto educativo y a adaptar estas obras a grupos de edades específicos. Weale ha compuesto obras focalizadas pedagógicamente, en especial, para ser utilizadas en el programa de entrenamiento auditivo según el método I/R, basado en el feedback adquirido de las primeras experiencias logradas dentro del proyecto I/R y refinado luego de probar las obras con estudiantes de nivel secundario y universitario.

La naturaleza intrínsecamente orientada a los adultos de la música a base de sonidos Parte del problema de acceso está relacionad con la orientación centrada en los adultos que caracteriza a la música a base de sonidos. Parecería ser que (por lo menos en el Reino Unido), este tipo de música no es difundido (en una proporción significativa) entre los adolescentes y niños como una forma potencial de arte en la que podrían llegar a estar interesados. Al parecer, no mucha gente joven está en contacto en forma rigurosa y significativa con la música a base de sonidos hasta que comienzan la educación terciaria. Como consecuencia, este tipo de música está “centrada en los adultos” – la investigación, las becas y la participación en la cultura de la música centrada en los sonidos, ya sea como compositor u oyente (o ambos), comienza y se difunde, en su mayoría, en el mundo de los adultos. Parecería ser que sólo una pequeña porción de este tipo de música está siendo creada por los adolescentes9 y distribuida para ellos.

Se realizan talleres de arte comunitario esporádicos en distintas zonas del Reino Unido. De hecho, muchos de estos talleres resultan muy provechosos, ya que introducen nuevas formas de expresión musical a los jóvenes. De todos modos, la mayoría de estos talleres son de corta duración o proyectos excepcionales en el cual hay una mínima o ninguna continuación. Esto tal vez sea el resultado de la dependencia en el

Page 27: En El Límite - Escritos sobre Arte y Tecnología

en el limite | 27

financiamiento por parte del sector público: cuando no hay más fondos, los proyectos llegan a su fin. Existen algunos proyectos distinguidos de mayor duración que centran el acceso como objetivo esencial. Desde una perspectiva internacional, en el portal DigiArts Knowledge de la UNESCO existe un apasionante recurso online que tiene como objetivo reunir a la comunidad digital de artistas de todo el mundo (incluidos artistas de música a base de sonidos) y, además, promover y fomentar la ampliación de la participación en forma activa en las artes digitales. “DigiArts es una de las iniciativas principales de la UNESCO que tiene el propósito de desarrollar actividades interdisciplinarias de investigación, creatividad y comunicación en el campo de las artes en los medios de comunicación”.10 (sitio web DigiArts) Uno de sus objetivos es “fomentar el uso de software electrónico entre los jóvenes para la creación y comunicación electrónicas”. (Ibíd.)

A través de dichos proyectos, nuevos caminos hacia el descubrimiento artístico y creativo y la expresión por medio de las artes digitales y basadas en la tecnología resultan accesibles a una población internacional más amplia y cada vez más joven y culturalmente diversa.

Un proyecto que ha sido relativamente exitoso en el Reino Unido y que, al momento de la redacción de este trabajo, ha estado activo por varios años a través de Sonic Arts Network11 es el programa Sonic Postcards.

Sonic Postcards es un programa educativo nacional único e innovador que alienta a los participantes a “abrir sus oídos”. El proyecto les permite a los alumnos del Reino Unido explorar y comparar con otras escuelas los ambientes sonoros locales a través de la composición e intercambio – vía Internet – de postales que contienen sonidos. (Sonic Postcards, 2008)

El punto fundamental de este proyecto Sonic Postcards no es solamente que se encuentra centrado en los adolescentes y niños en cuanto a que atiende el tema de la accesibilidad, sino que se encuentra comprometido con el sistema de educación estatal, si bien depende de que los docentes incluyan el proyecto en las actividades áulicas de forma voluntaria. No ha sido incluido formalmente en el plan de estudio (al menos, hasta el momento).

Creemos que la educación formal debe cumplir un papel mucho más importante a la hora de exponer a los jóvenes y alentarlos a convertirse en sujetos creativamente involucrados en la música a base de sonidos. Dicho esto, uno de los objetivos fundamentales del método I/R del programa de entrenamiento auditivo y del programa pedagógico EARS II, que es más amplio y en el cual está integrado, es facilitar una mejor provisión de la música a base de sonidos dentro del plan de estudios de la educación primaria y secundaria, además de establecer un contexto auditivo estructurado y

fundacional a este programa de música a base de sonidos para su implementación en el nivel universitario.

PedagogíaPresentación del Programa de Entrenamiento Auditivo basado en el Método I/REl programa de entrenamiento auditivo según el método I/R utiliza un método auditivo guiado cuyo objetivo es presentar la música a base de sonidos a oyentes principiantes tanto en el nivel secundario (de 11 a 14 años de edad o que cursan el tercer ciclo –Key Stage 3– en el Reino Unido) como a los alumnos universitarios. El programa utiliza un enfoque basado en el concepto que opera dentro del sistema auditivo estructurado que abarca desde composiciones en las cuales no hay abstracción del material sonoro (en el caso de material basado en sonidos grabados del ambiente) y en donde existe un mínimo grado de complejidad (forma, estructura, discurso musical, particularmente con referencia a la música basada en síntesis de sonido) - hasta material caracterizado por la abstracción total y una gran complejidad.

A efectos de brindar una mayor claridad, los dos conceptos básicos son:

Música basada en sonidos grabados: es la música en la cual el sonido grabado es la unidad principal de composición.Música basada en síntesis de sonido: es la música en la cual el sonido producido digitalmente o en forma electrónica es la unidad principal de composición.

Page 28: En El Límite - Escritos sobre Arte y Tecnología

28 | en el limite

Claramente, ambos pueden estar, y a menudo están, combinados en contextos musicales a base de sonidos.

Escucha basada en sonidos grabadosLa sección de escucha basada en sonidos grabados conduce a los alumnos a un material en el que hay poca abstracción, transformación y manipulación, y en el que el “objetivo comunicativo ”se basa en referencias del mundo real, directa o indirectamente relacionadas con los sonidos grabados que se encuentran en la composición (por ejemplo: composición de paisaje sonoro), hacia un material en donde la abstracción es significativa y en donde los sonidos del mundo real utilizados como material composicional no se usan necesariamente para sus referencias extrínsecas, sino exclusivamente como material musical (por ejemplo: musique concrète en la que tiene relevancia la idea de escucha reducida de Pierre Schaeffer). La sección de sonidos grabados también incluye material donde la manipulación del medio es prominente, como sucede con el remixing (remezclas) y turntablism (arte de hacer girar las mesas de discos muy utilizado en el HipHop) Para este fin, los sonidos del mundo real pueden no estar presentes en modo alguno, sino sólo muestras de material musical existente (por ejemplo: los loops). Landy ha denominado a este tipo de música como “música basada en música” (Music-based-music).12

Escucha basada en síntesis de sonidosLa sección de síntesis de sonido conduce al alumno desde el material donde la abstracción

y la musicalidad no son excesivamente complejas, composiciones que poseen un contenido, una estructura y un desarrollo relativamente accesibles (por ejemplo: la música ambiental o composiciones electrónicas con pocos estratos de sonido) hasta los géneros/composiciones donde el contenido, la estructura, el desarrollo y el nivel general de abstracción es complejo y, así, finalmente llegamos a la música de ruido.

Se considera al aprendizaje basado en conceptos como un enfoque alternativo del modelo diacrónico que se utiliza con frecuencia en los sistemas pedagógicos. Si se utilizara un modelo diacrónico para el entrenamiento auditivo, comenzando por la musique concrète, y, por ende, la teoría Schaefferiana, se conseguiría, por ejemplo, introducir las prácticas de escucha reducida a una edad temprana. No obstante, estas áreas necesitan conocimientos y habilidades de escucha sofisticadas que no están al alcance de un principiante. La musique concrète entonces estaría seguida en el modelo diacrónico por la electronische Musik, que explora las nociones de forma momento y las técnicas seriales (nuevamente un conjunto de material que puede ser bastante difícil de acceder si no se cuenta con ciertos conocimientos previos). Sólo en una etapa posterior en este modelo diacrónico, se puede introducir la composición del entorno sonoro, un género que, como se demostró a través de la investigación I/R, es significativamente accesible para principiantes,

además de ofrecer una base sólida, punto de partida para presentarles a los alumnos la música a base de sonidos.13

Mediante el modelo de entrenamiento auditivo basado en conceptos, se puede incluir la musique concrète en una sección de música basada en sonidos grabados y elektronische Musik en una sección de música basada en síntesis de sonidos, pero recién en un determinado momento del aprendizaje, teniendo en cuenta el nivel de conocimiento y la habilidad auditiva precisa para acceder y poder apreciar dicho material en forma efectiva.

Integración del Programa de Entrenamiento Auditivo según el método I/R con el programapedagógico EARS IIIniciar a los alumnos de secundario y estudiantes universitarios en el estudio de la música a base de sonidos no sólo comprende el desarrollo de competencias auditivas apropiadas. Es importante, también, impartirles una interpretación más amplia de la modalidad artística – de dónde surge, cómo se ha desarrollado (perspectivas históricas), donde encaja, cuál es su función y valor dentro de la sociedad cultural, así como también cómo desarrollarla.

En este sentido, el Programa de Entrenamiento Auditivo según el método I/R no existe de manera aislada, sino que es parte de un sistema múltiple, un programa pedagógico “holístico”

Page 29: En El Límite - Escritos sobre Arte y Tecnología

en el limite | 29

para el estudio de la música electroacústica: el proyecto pedagógico EARS II (si desea obtener una visión general más detallada, consulte Landy 2007a).14 Dicho programa incluye entrenamiento auditivo, terminología, repertorio, conceptos teóricos e históricos, apoyo contextual y un software especialmente diseñado para el trabajo creativo. El factor clave de este sistema es un entorno de aprendizaje electrónico a distancia que puede funcionar en un espacio áulico con la asistencia de un profesor guía, o una modalidad centrada en el usuario para el estudio independiente.

La inspiración de la estructura del proyecto pedagógico EARS II se encuentra en el CD-ROM del Groupe de Recherches Musicales denominado La musique électroacoustique (Ina/GRM-Hyptique, 2000). Esta espléndida publicación multimedia le ofrece al usuario tres opciones desde la apertura del CD-ROM: connaître (comprender), entendre (escuchar) y faire (hacer). Este enfoque tripartito es extremadamente sensato, ya que se centra en la comprensión de conceptos y en la adquisición de conocimiento histórico; ayuda a la apreciación musical a través de ejemplos documentados, con partituras evocativas que le proveen al usuario un elemento de referencia al escuchar por primera vez música que, posiblemente, sea totalmente nueva; y dan lugar al aprendizaje a través de la creatividad, ya que les permite a los usuarios la oportunidad de manipular sonidos…

En consecuencia, EARS está planeando su propio proyecto tripartito que involucra el aspecto de comprensión…una metodología auditiva adaptable que facilita el acceso y la apreciación, parte del proyecto en curso de Intención/Recepción (I/R) del MTI (Centro de Investigación de Tecnología e Innovación) y el aspecto del “aprendizaje por medio de la acción” mediante el software de audio de Sound Organiser que actualmente se encuentra en desarrollo para cualquier grupo de usuarios principiantes. (Landy, 2007a:77)

Implementación del Programa de Entrenamiento Auditivo en el aulaTal como sucede con el sistema pedagógico EARS II, el Programa de Entrenamiento Auditivo según el método I/R se puede implementar con la ayuda de un profesor guía o mediante una modalidad de estudio independiente centrada en el usuario. En lo que concierne a la escritura, la modalidad de profesor guía se encuentra en su etapa más desarrollada; por eso, será el foco del análisis que se presenta a continuación.

Los aspectos centrales del Programa de Entrenamiento Auditivo se pueden implementar tanto en el aula de un nivel secundario como universitario. Sin embargo, cada versión tiene que estar pedagógicamente diseñada a medida en cuanto al contenido y entrega de respuesta a las habilidades de los grupos de edad involucrados.

Las diferencias clave entre las versiones para el nivel secundario y el nivel universitario son:

• El repertorio: el material de audio, en términos de contenido, contexto y técnicas de producción, tiene que ser pedagógicamente apropiado para el grupo de edad al que apunta.15

• El vocabulario/lenguaje: el lenguaje, el vocabulario y la terminología utilizados se deben ajustar a las habilidades del lenguaje y al entendimiento de los grupos de edad. • El contenido multimedia: una diferencia clave para el sistema de nivel secundario es que será altamente interactivo, con gran cantidad de material visual como sea posible, como animaciones, y con menos contenido escrito. Si bien el sistema para el nivel universitario mantendrá algunos de estos elementos, será mucho más rico en términos de la enseñanza de los contenidos mediante el texto, y en cuanto a las fuentes de conocimiento avanzadas (por ej: enlaces a artículos impresos y en línea).

El sistema del profesor guía funciona casi idénticamente como el método de investigación I/R original. Se reproduce una obra tres veces en total, en cada ocasión se introduce información detallada sobre ese trabajo. Los estudiantes responden preguntas basadas en aquellas que fueron formuladas en tiempo real y en cuestionarios dirigidos. La serie de obras presentadas (durante varias clases) debería seguir los programas de aprendizaje sobre

Page 30: En El Límite - Escritos sobre Arte y Tecnología

30 | en el limite

sonidos grabados o sobre síntesis de sonidos o de una combinación particular de ambos, como se analizó previamente.

Un aspecto importante de este sistema pedagógico (que difiere del sistema de investigación I/R) es que previo a la tercera escucha, cuando se provee información dramatúrgica, deben incluirse los aspectos pertinentes del proceso productivo, los enfoques compositivos utilizados por el compositor para producir la pieza (presentando enfoques tecnológicos específicos cuando sea apropiado). Esta nueva información será el soporte del entendimiento de la aplicación creativa de la tecnología en la realización de un género específico de trabajo o, efectivamente, de una pieza específica. Tal información es importante para demostrar cómo se ha utilizado la tecnología para manipular, transformar y organizar sonidos desde una perspectiva intrínseca (acústica), y respetando el enfoque holístico de enseñar a escuchar, entender y crear.

Las discusiones grupales en el sistema pedagógico pueden implicar desplazarse sistemáticamente a través de cada pregunta completada en tiempo real y cuestionarios dirigidos o centrarse en preguntas particulares realizadas a discreción del maestro enfocadas en cuestiones relacionadas con el material objeto de estudio. Estas discusiones grupales son de significativa importancia en el sistema pedagógico, ya que cumplen múltiples funciones didácticas:

• Alentar a los estudiantes a pensar sobre el rol de su experiencia auditiva, a reflexionar sobre sus propias experiencias. • Inspirar confianza en la expresión de sus propias experiencias con la música a base de sonidos a otras personas. Esto ciertamente inspirará confianza en las discusiones grupales en general.• Exponer a los estudiantes a la subjetividad inherente de la interpretación a medida que escuchan diferentes relatos relacionados con la experiencia de escucha. Esto tiene una significación particular a medida que se introduce un mayor grado de abstracción y de complejidad organizacional del contenido sonoro y los estudiantes comienzan a cuestionarse si su interpretación es correcta o no.• Permitir a los estudiantes confrontar sus experiencias de escucha con las de otras personas. Ciertamente hay un gran valor didáctico en los estudiantes (oyentes) al confrontar sus escuchas con las escuchas de otros (Camilleri & Smalley, 1998: 5)

Resulta, también, didácticamente pertinente permitir a los estudiantes que sus propias piezas creativas sean escuchadas en un marco grupal mediante el método I/R. Se tiene conocimiento de que esto ha sido explorado anecdóticamente en entornos universitarios y parece ser efectivo en términos de fortalecimiento de la confianza, en enseñarles a los estudiantes cómo participar en críticas

constructivas y para lograr la triangulación.Cuando se utiliza material de los estudiantes para realizar escuchas, se obtiene un importante resultado didáctico cuando se alienta a los estudiantes a producir su propia información sobre las intenciones del compositor. Se alienta a los estudiantes a reflexionar sobre los aspectos comunicativos y/o estéticos de sus piezas de arte, y sobre qué información sienten que resulta necesaria para ayudar a los oyentes a apreciar sus piezas. Este enfoque incluye también triangulaciones, es decir, obtener respuestas sobre su trabajo por parte de pares y tutores, ayudarles a comprender cómo otros interpretan ciertos elementos de sus piezas y, posteriormente, ayudarles a mejorar y desarrollar su trabajo apuntando a atraer a los oyentes.

Escuchas ilustradasParte de un enfoque de aprendizaje electrónico a distancia centrado en el usuarioUna inclusión clave en la versión electrónica del programa de entrenamiento auditivo es una aplicación de escucha ilustrada que ayuda al estudiante a explorar la experiencia auditiva a medida que sucede en tiempo real, facilitando información dramatúrgica sobre el trabajo que se está escuchando. Esta aplicación puede ser utilizada para resaltar aspectos tales como sonidos clave, gestos, micro y macro estructuras, y otros aspectos pertinentes al discurso musical. También puede ser utilizada para resaltar procesos y técnicas particulares de

Page 31: En El Límite - Escritos sobre Arte y Tecnología

en el limite | 31

producción, un ejemplo en tiempo real de cómo se ha implementado la tecnología. También pueden plantearse preguntas durante la escucha que alienten a los oyentes a pensar sobre sus propias experiencias auditivas a medida que evolucionan en tiempo real, a pensar por qué están interpretando los sonidos en una forma particular y qué tipos de información se está comunicando a través de la composición, la cual puede no ser abiertamente clara. El sistema funciona en dos modos: lineal, en el que el usuario puede escuchar la pieza desde el principio hasta el fin; y exploratorio, mediante el cual el oyente elige secciones de la pieza para explorar y recibe información sobre esas secciones en particular.

Un aspecto emocionante de este sistema de escucha ilustrada es que le permite al usuario seguir un Programa de Entrenamiento Auditivo según el Método I/R, fuera del aula, en un ambiente de aprendizaje independiente centrado en el usuario. La aplicación adquiere el rol de un pedagogo, que entrega contenidos y facilita el aprendizaje a través de un ambiente guiado y de aprendizaje electrónico a distancia interactivo. Este atributo es en respuesta a un desarrollo clave del aprendizaje electrónico que está siendo explorado para su utilización con el sistema pedagógico EARS II, la inclusión de una herramienta de diagnóstico en los dos modos (el modo centrado en el estudiante y el modo guiado por maestros), a través de la cual la aplicación de aprendizaje electrónico identifica cuándo un usuario tiene

una dificultad con cierta tarea de aprendizaje y responde pedagógicamente, ya sea ayudándole a superar esa dificultad en particular dentro del ambiente de aprendizaje electrónico o alertando al maestro acerca de la dificultad que tiene el estudiante.

Inclusión en la educación de las artesLa música a base de sonidos comopráctica sonora creativa para quienesno son músicosLos desarrollos que se han llevado a cabo a través del proyecto pedagógico EARS abrieron las puertas a la posibilidad de introducir la composición sonora creativa a los estudiantes que no poseen entrenamiento musical previo. La idea de utilizar música a base de sonidos como práctica creativa para personas que no son músicos implica moverse de la noción de utilizar la tecnología del audio en lo que se refiere a la creación y presentación de la música basada en notas musicales a la utilización de la tecnología del audio como un medio para ser creativo con el sonido. Este programa sonoro creativo buscaría activamente la inclusión de los estudiantes (y de las personas de todas las edades) que no son músicos, aquellos que no poseen conocimientos musicales teóricos. En muchos casos dentro de la educación en el Reino Unido, debido a la manera en que se estructura el plan de estudio, los que tienen acceso a estudios de composición basados en la tecnología son sólo los alumnos que fueron entrenados musicalmente. Por lo tanto, aquellos alumnos que no son músicos, pero

que podrían destacarse en la práctica creativa de sonidos o aquellos músicos que no han recibido educación formal quedan excluidos de este tipo de posibilidad.Es fundamental que el enfoque para la utilización de la tecnología musical en la educación se haga desde una perspectiva más amplia, no sólo como un medio para enseñar a las personas cómo producir música tradicional valiéndose de tecnología, sino como un medio para utilizar la tecnología del audio de manera creativa, independientemente de la reglas tonales, atonales o de cualquier otra teoría basada en notas. Dichos estudios creativos podrían realizarse en paralelo a la tecnología musical basada en notas, lo cual requiere cierto conocimiento teórico de la música. Sin embargo, la tecnología musical a base de sonidos no debería depender, en primera instancia, de este conocimiento musical previo o como prerrequisito para su estudio.16 De acuerdo con esta visión, la música a base de sonidos (o el arte para aquellos quienes experimentan cierta dificultad en pensar en música valiéndose de sonidos) posee el potencial para convertirse en una línea directriz distintiva, una nueva práctica artística creativa dentro del plan de estudios de la educación artística, una práctica que no se limite al campo de los músicos entrenados, sino que se abre a cualquier estudiante que desee explorar la composición creativa con sonidos –y que, en lo que se refiere a su acceso, pueda abrirse el amplio espectro de música a base de sonidos a una nueva audiencia participativa.

Page 32: En El Límite - Escritos sobre Arte y Tecnología

32 | en el limite

ConclusiónEl proyecto I/R es un ejemplo fundacional dentro de los estudios de música a base de sonidos. Es una excepción, y no una regla, en lo que se refiere a la educación actual. Este proyecto logró alcanzar su meta a través de la información inesperadamente positiva que se recopiló. Las estadísticas conseguidas hasta ahora proporcionan la información adecuada para los futuros grupos influyentes de la música a base de sonidos, información que les permitirá lograr mucha más efectividad cuando traten de crear una mayor apertura artística para la sociedad en lo que se refiere a la educación y los medios de comunicación. (Landy, 2007b: 53)

El proyecto I/R es multifacético, ya que funciona como una metodología muy útil para obtener datos acerca de las reacciones de los oyentes, además de trazar un mapa sobre los aspectos de la experiencia de escucha y de explorar la relación comunicativa e intersubjetiva entre el compositor, su trabajo y el oyente. Este proyecto demostró que a través de un enfoque dinámico y centrado en el usuario para el acceso y la apreciación, la participación en la música a base de sonidos puede ser abordada enérgicamente teniendo en cuenta la evidencia empírica y directa que se reunió de los propios participantes. Al brindarle esta información a los compositores, se establece un cierto potencial para la triangulación, en la que los músicos podrían adaptar su material para acceder a ciertos grupos de

oyentes. Este proyecto reveló que al ofrecer a los oyentes algo en que apoyarse y al alentar un acercamiento activo hacia la escucha, la sensación de alienación que algunos de ellos puedan experimentar cuando escuchan este tipo de composiciones por primera vez puede ser reemplazada por el interés y, de esta manera, estimular el potencial para una apreciación más amplia, particularmente con respecto a los oyentes que son nuevos en este campo. En este sentido, el método I/R demostró tener un gran potencial para desarrollarse como un modelo pedagógico: una herramienta musical y educacional poderosa que apunta a introducir la música a base de sonidos en las aulas, especialmente en las etapas más tempranas de la educación más que en aquellas en las que los alumnos ya pueden comprometerse con la música a base de sonidos.

El proyecto I/R está bien posicionado para realizar una gran contribución en todo el campo de la música a base de sonidos. Los resultados obtenidos hasta ahora deberían fortalecer el acceso al debate e instigar una acción directa en lo que se refiere a ampliar la participación más activamente en esta expresión artística (educación, transmisión en los medios de comunicación y facilitación en la comunidad artística). El potencial pedagógico del método I/R como un programa de entrenamiento auditivo, cuando se incorpore a la educación a nivel curricular como parte del más amplio sistema pedagógico EARS II, aumentará el nivel de acceso y la participación

en la música a base de sonidos, y ofrecerá la posibilidad de establecer un nuevo carrera de estudios sobre “ser creativo con los sonidos” para los jóvenes. Facilitar la mayor participación de los jóvenes en la música a base de sonidos también puede abarcar la naturaleza actual de la forma del arte “centrada en el adulto”.

Con la integración en el sistema pedagógico EARS II, el Programa de Entrenamiento Auditivo según el método I/R formará parte de un contexto educativo holístico que permite que las áreas auditivas, de comprensión y de realización funcionen como un sistema integrado. Su concreción podría representar el primer sistema educativo sólido y con verdaderos cimientos en lo relativo a la música electroacústica.

Traducción de los alumnos del Traductorado Público en Idioma Inglés: Daniela Giannandrea, Flavia Villarreal, Evangelina Gomez, Daniela Sindoni, Melina Bidart, Vanina Flores, Silvia Vaccarezza, Daniela Saccone, Mariana GonzalezRevisado y supervisado por Trad. Publ. Mariela Santoro.

Page 33: En El Límite - Escritos sobre Arte y Tecnología

en el limite | 33

Referencias

1 Landy introdujo el concepto música a base de sonidos (sound-based music) como una alternativa a los términos música electroacústica y música por computadora (véase Landy, 2007b), ya que estos últimos términos tienen diversos significados y son, por lo tanto, ambiguos. La música a base de sonidos es un tipo de arte en el que el sonido, y no la nota musical, es la base fundamental. El término música a base de sonidos se utiliza en este texto para hacer referencia a un tipo particular de música innovadora, tanto aquella de origen popular como artístico, que no se encuentra dentro de la corriente dominante y que ocupa una posición relativamente marginal en los medios de comunicación. Comprende tanto la música basada en sonidos grabados como la música basada en síntesis de sonido.

2 Organised Sound: publicación internacional de tecnología musical (Cambridge University Press).

3 “La dramaturgia, en el sentido empleado en el proyecto I/R, abarca todos aquellos elementos que han tenido influencia en la creación de una obra determinada. Por lo tanto, la dramaturgia de una obra artística [a base de sonidos] puede incluir las ideas, motivaciones, inspiraciones y aspiraciones del compositor, así como también el desarrollo de estos elementos durante el proceso compositivo. Incluye, aunque no se limita a lo que el compositor desea comunicar a través de su obra” (Weale, 2006: 189-190). Señalamos que el término dramaturgia fue introducido como término aplicado al estudio de la música a base de sonidos en (Landy, 1990: 371).

4 La descripción completa de esta prueba se encuentra en (Landy, 2006).

5 La frase “algo en que apoyarse” representa a los factores que un oyente utiliza para comprender y apreciar una obra en particular. “El oyente de hoy en día, especialmente los oyentes que no han tenido mucha experiencia con composiciones tímbricas, pueden beneficiarse si pueden apoyarse en algo dentro las obras en las que los elementos tradicionales no tienen un rol prominente”. (Landy, 1994:49). Es más, esos factores pueden ser proporcionados al oyente por el compositor como parte de la dramaturgia de la obra.

6 Puede consultarse un análisis estadístico detallado de las respuestas de los oyentes en (Weale, 2005b & 2006).

7 En particular (Landy, 2001 & 2006; Landy & Weale, 2003; and Weale, 2005a, 2005b, 2006 & 2007) Se consultaron secciones clave de estas publicaciones para escribir este texto.

8 Bennett presentó sus ideas en la conferencia de Electroacoustic Music Studies Network EMS08 en París. Actualmente publicada en el sitio web del EMS, www.ems-network.org.

9 Dicho esto, hay personas que piensan que varias formas de música a base de sonido en vivo, que incluyen el desempeño de las computadoras portátiles, ha sido creada para una audiencia más joven, en lugar de, digamos, una actuación acusmática con un medio fijo. Se debería hacer un comentario sobre esta tendencia, pero el punto fundamental que concierne a una comunidad oyente es el punto que se expresa en este texto.

10 Aunque los aspectos activos del proyecto están oficialmente inactivos desde el año 2007, el sitio web sigue funcionando como un recurso fundamental para jóvenes artistas digitales.

11 Sonic Arts Network es una organización nacional (ubicada en el Reino Unido) que posibilita tanto a la audiencia como a los practicantes involucrarse en el arte del sonido de formas diversas, accesibles e innovadoras. (Sonic Arts Network, 2008).

12 Véase (Landy, 2007b)

13 Es importante destacar que las estrategias de aprendizaje diacrónico no están siendo rechazadas de inmediato como modelos inapropiados para el aprendizaje de la música a base de sonidos, simplemente el modelo diacrónico posee características inherentes que presentan dificultades pedagógicas al intentar establecer un sistema de entrenamiento auditivo. Como se podrá observar, en el proyecto en el cual se integra este programa, se presentará una línea de tiempo a modo de referencia.

14 EARS quiere decir “ElectroAcoustic Resource Site” (www.ears.dmu.ac.uk); en español, sitio de recursos electroacústicos. El sitio original es un recurso de Internet que concentra glosarios con terminología en varios idiomas relacionados con esta área, la estructuración del área de estudios de música electroacústica (Índice) que, a su vez, es utilizada para acceder a la información sobre publicaciones de esta área (Bibliografía). EARS II es la segunda fase de este proyecto cuya intención es, específicamente, el uso educativo.

15 De hecho, cuando se traduzca el proyecto EARS II y, específicamente, el trabajo actual para su uso en otros países, se pueden realizar adaptaciones culturales similares a aquellas mencionadas aquí para los distintos grupos de edad.

16 Debemos reconocer que el conocimiento de ciertas técnicas compositivas del paradigma musical basado en las notas puede ser aplicado, y resulta de utilidad en cuanto a los enfoques compositivos en la música a base de sonidos.

Page 34: En El Límite - Escritos sobre Arte y Tecnología

34 | en el limite

Bibliografía

Camilleri, L. and Smalley, D. (1998). The Analysis of Electroacoustic Music: Introduction. Journal of New Music Research. Vol. 27, Parts 1-2: 3-12.

Chadabe, J. (2004). Look around and get engaged. Organised Sound. Vol. 9, No. 3: 315-316.

DigiArts (UNESCO)http://portal.unesco.org/culture/en/ev.php-URL_ID=1391&URL_DO=DO_TOPIC&URL_SECTION=201.html (Consulted March 2009)

Grove, R., Stevens, C. and McKechnie, S. (eds) (2005). Thinking in Four Dimensions: Creativity and Cognition in Contemporary Dance. Melbourne: Melbourne University Press (e-book).

Landy, L. (1990). Is More than Three Decades of Computer Music Reaching the Public It Deserves?. In Proceedings of the 1990 International Computer Music Conference – Glasgow: 369-372.

Landy, L. (1994). ‘The Something to Hold on to Factor’ in Electroacoustic Timbral Composition. Contemporary Music Review. Vol .10, No. 2: 49-60.

Landy, L (1999). Reviewing the Musicology of Electroacoustic Music: A plea for greater triangulation. Organised Sound: Vol. 4, No. 1: 61-70.

Landy, L. (2001). Measuring Intention against Reception in Electroacoustic Music: a new opportunity for analysis. In Proceedings of the 2001 International Computer Music Conference - Havana: 26-29.

Landy, L. (2004). Editorial. Organised Sound. Vol. 9, No. 3: 226-228.

Landy, L. (2006). The Intention/Reception Project. In Mary Simoni, ed. Analytical Methods of Electroacoustic Music. NY: Routledge: 29-53.

Landy, L. (2007a). The ElectroAcoustic Resource Site (EARS). Journal of Music, Technology and Education. Vol. 1, No.1: 69–81.

Landy, L. (2007b). Understanding the Art of Sound Organization. Cambridge, Mass: MIT Press.

Landy, L & Weale, R. (2003). Measuring Intention against Reception in Electroacoustic Music. SAN Diffusion, October 2003, 2–6 (originally a paper read at the SEA2003, Scarborough Electroacoustic Music festival/Conference, UK - SAN stands for Sonic Arts Network)

Sonic Arts Network.http://www.sonicartsnetwork.org/index.php?option=com_content&task=view&id=10&Itemid=46 (Consulted - March 2009)

Sonic Postcards.http://www.sonicpostcards.org/project-info/what-is-sonic-postcards (Consulted - March 2009

Weale, R. (2005a). The Intention/Reception Project: Investigating Composer Intention and Listener Response in Electroacoustic Compositions. Conférences et Séminaires Series, No. 19: Paris: Observatoire Musical Français: 71-81.

Weale, R. (2005b). The Intention/Reception Project: Investigating the Relationship Between Composer Intention and Listener Response in Electroacoustic Compositions. PhD Thesis. De Montfort University, Leicester, UK.

Weale, R. (2006). Discovering How Accessible Electroacoustic Music Can Be: the Intention/Reception project. Organised Sound. Vol. 11, No. 2. Cambridge: Cambridge University Press: 189-200.

Weale, R. (2007). Mapping perception across the communicative continuum as a prelude to analysis. In Proceedings of the 2007 Electroacoustic Music Studies Conference. Leicester, UK. http://www.ems-network.org/spip.php?article279 (Consulted - March 2009)

Page 35: En El Límite - Escritos sobre Arte y Tecnología

en el limite | 35

Raúl MinsburgCEPSACentro de Estudios en Producción Sonoray AudiovisualUniversidad Nacional de Lanús

Este artículo refleja los resultado obtenidos hasta el momento de una investigación que vengo realizando en forma individual desde hace algunos años y que, afortunadamente, a partir del año 2009 adopta un carácter colectivo, radicado en la Universidad Nacional de Lanús. Agradezco a Sergio García, Georgina Galfione y Alejandro Brianza Espinosa por haber sumado su entusiasmo y sus aportes a este proyecto, del cual comentaré sus hallazgos y propuestas.

La palabra ‘Textura’ es de uso familiar y corriente entre músicos, especialmente entre aquellos de habla castellana e inglesa. Sin embargo no ocurre lo mismo en francés, cuyo uso está casi íntegramente orientado hacia lo visual, así como tampoco existe un equivalente directo en alemán o italiano. En éste último caso la palabra más parecida es la de ‘tessitura’ que tiene un significado completamente distinto. Inclusive, el uso de la palabra textura con un significado musical preciso parece ser de uso relativamente reciente. Hasta 1954 no aparecía como tal en la edición del Grove’s Dictionary of Music and Musicians, y tampoco tiene una referencia en la edición de 1933 del Oxford English Dictionary1. No hay mejor suerte en lengua castellana: no tiene significación

musical en la edición de 1968 del voluminoso Diccionario Enciclopédico Quillet, situación que se reitera, por ejemplo, en la edición de 1980 de la Enciclopedia Espasa Calpe.

Pese a esta carencia de tipo terminológica, consideramos que la textura, es decir la simultaneidad de ideas musicales, posee una importancia central en la historia de la música. Unos pocos ejemplos pueden ilustrar claramente esta afirmación: los cambios estilísticos que se han registrado en los distintos momentos históricos han implicado siempre un cambio en el tratamiento textural de las obras. No es lo mismo la textura en la música barroca que en la música clásica ni tampoco lo es en el atonalismo con respecto al romanticismo. De la misma forma encontramos diferentes tipos de texturas en los diversos géneros musicales que conviven en la actualidad: la disposición textural que encontramos en la Bossa Nova es completamente distinta a la que encontramos en el Dixieland o en el Tango. A su vez, los cambios que se fueron dando en cada uno de estos géneros también se reflejaron en la textura. Con lo cual tanto desde una perspectiva histórica como isócrona, la textura es siempre un elemento fundamental en la organización musical.

En nuestro estudio vamos a focalizarnos en la percepción de las texturas y, vamos a intentar desarrollar una propuesta de clasificación de las mismas a partir de la percepción que tengamos de ellas. Y esto lo realizaremos en el dominio

de la música electroacústica, acusmática, o utilizando la terminología más abarcativa propuesta por Leigh Land2, “sound based music” que tentativamente traduciremos como “música a base de en sonidos”, vale decir aquella que no trabaja con notas puntuales, que pueden ser entonadas y cantadas y que además poseen una duración acotada, sino con todo tipo de sonidos, generalmente creados, diseñados, por el compositor. Esto presenta algunas problemáticas adicionales: en primer lugar la de no poseer, al menos según nos consta, ningún tipo de clasificación de la simultaneidad sonora de sus materiales. En segundo lugar la de sustituir la voz o la línea melódica por el sonido o, usando un término de Schaeffer, el objeto sonoro, y por último, la de ser una música de carácter fundamentalmente empírico: por más que uno intente prever como puede resultar el encuentro entre dos sonidos, nunca se puede estar plenamente seguro del resultado sonoro que se va a lograr. Pero para llegar a este punto, primero hagamos un recorrido por lo que ya ha sido dicho o escrito en el ámbito de las texturas vinculadas a la música instrumental.

Clasificaciones tradicionalesRetomando el aspecto terminológico, ya sea por un uso intuitivo, por lo que se transmite en las instituciones educativas o lo que se publica en todo libro de aprendizaje musical en la actualidad, se le llama textura al estudio de la simultaneidad sonora y/o musical. La textura de una pieza musical implica el comportamiento de sus partes o voces, siendo

Percepción de la simultaneidad sonoraen música electroacústica

Page 36: En El Límite - Escritos sobre Arte y Tecnología

36 | en el limite

ésta última palabra un resabio de las antiguas prácticas corales, como habitualmente se lo denomina en el lenguaje musical. Por lo tanto estudiar la textura de una obra musical es estudiar la manera en que sus partes o voces se relacionan en un momento o sección determinada y cómo dichas relaciones van evolucionando en el tiempo, cambios que por lo general incidirán en la forma, en las secciones que contenga la obra.

Más allá de la definición en sí misma, y según hemos constatado, observamos que, generalmente, las texturas musicales no se encuentran estudiadas en profundidad y es muy frecuente encontrar una descripción muy general al momento de explicar las distintas situaciones de simultaneidad. En las mallas curriculares de la mayoría de los centros de enseñanza musical, incluyendo Conservatorios y Universidades, la simultaneidad sonora está estudiada desde el punto de vista de la altura (armonía) y desde el timbre instrumental (orquestación). La única aproximación al estudio de las texturas es a través de la materia “contrapunto”, pero éste no es un tipo de textura sino un recurso que puede ser aplicado en distintos tipos de texturas. Y por lo general, ésta asignatura se aboca al estudio de las reglas del contrapunto en la música antigua y, en raras ocasiones, en la música atonal. En determinadas materias, por lo general de carácter introductorio, se habla básicamente de cuatro tipos de texturas: monodia, homofonía, heterofonía y polifonía y éstas están vinculadas

a música instrumental o vocal, por lo general de comienzo de siglo XX…hacia atrás. Sin embargo, a poco que comenzamos a indagar y profundizar en esta clasificación, vemos que resulta claramente insuficiente. Con sólo realizarnos unas pocas preguntas, enseguida comprendemos que estas definiciones resultan claramente insuficientes: ¿Cuál es la diferencia real entre heterofonía y polifonía? ¿La textura homofónica puede incluir cualquier tipo de acompañamiento? ¿Qué quiere decir “poli”: tres, diez, cuarenta, cien…? ¿Existe un solo tipo de monodia? ¿el prefijo “hetero” se refiere a la cantidad o a la acción que realizan esas voces? ¿Si voz significa “línea melódica” cual es el rol de la altura y el registro en las texturas? ¿La técnica de contrapunto es la misma en Machaut, Gesualdo, Schoenberg, Strawinsky o Ligeti? Y si cambia… ¿el tipo de polifonía también cambia? ¿Entonces hay distintos tipos de polifonía? ¿Y como se pueden caracterizar? ¿En qué medida el timbre puede afectar la percepción de una textura? ¿Y si cambia la percepción de la misma, cambia la textura? Tomemos un ejemplo simple para reafirmar la poca precisión terminológica: al hablar de homofonía (melodía acompañada) no se distinguen los diferentes tipos de acompañamientos utilizados en los distintos estilos musicales: desde una melodía, acompañada por una caja chayera en una baguala, hasta las canciones de Mahler con un denso acompañamiento orquestal. Tampoco queda claro, y hay diferentes interpretaciones de ello, si homofonía se refiere a un tipo de

acompañamiento que tiene el mismo ritmo que la melodía principal (de ahí viene el prefijo “homo”) o si se refiere a cualquier tipo de acompañamiento. Y así podríamos seguir.Por otro lado, si bien existe cierto material bibliográfico como detallaremos a continuación, consideramos que no es suficiente para poder profundizar sobre los diferentes tipos de texturas y, muy particularmente aquellas situaciones musicales de cierta complejidad que no están contempladas en las categorizaciones tradicionales de textura. Esto nos plantea una gran problemática inclusive al nivel más básico de la enseñanza musical: ¿Cómo se puede enseñar a escuchar y percibir las sutilezas del discurso musical a nivel de la simultaneidad sin la existencia de un adecuado corpus teórico y, más aún, sin una cantidad de ejemplos ilustrativos que avalen ese corpus?

Algo de bibliografíaUna de las primeras referencias más directas a este tema fue hecha por Arnold Schoenberg en su libro “Fundamentals of music composition”. Después de explicar lo que es una frase, cómo construirla, responderla y continuarla, entre otras tantas ideas, le dedica una sección al acompañamiento. Citamos textualmente:

El acompañamiento no debería ser una mera adición. Debería ser tan funcional como sea posible, así como ser un complemento a los aspectos esenciales del tema (…) El acompañamiento se vuelve imperativo si la armonía o el ritmo son complicados.3

Page 37: En El Límite - Escritos sobre Arte y Tecnología

en el limite | 37

Con sólo hacer una lectura superficial, se hace evidente que Schoenberg está apelando a determinados conocimientos o procedimientos de carácter intuitivo o derivados de una práctica común, de un oficio. En ningún momento define qué entiende por funcional, complemento o complicado. Creemos saber a qué se está refiriendo, podemos suponerlo. Personalmente no me arriesgaría a definir qué puede haber entendido Schoenberg por complicado…

Posteriormente, nos encontramos con uno de los primeros estudios más sistemáticos del tema en el libro “Orquestación” de Walter Piston4, de 1955, cuya edición castellana es de 1984. Ahí encontramos la descripción de seis tipos de texturas orquestales: Unísono orquestal, Melodía y acompañamiento, Melodía secundaria, Escritura a varias voces (Part writing en el original), Textura contrapuntística y Acordes. Al final agrega la Textura Compleja definida por la combinación de dos o más de las texturas precedentes. En este caso, nos encontramos con que no brinda ninguna definición conceptual ni tampoco una justificación pertinente de estas siete categorías, diferenciándolas exclusivamente por la distribución de los instrumentos de la orquesta y no por una funcionalidad o una caracterización musical, más allá del instrumento en sí. Y, por supuesto, priorizando aspectos tímbricos claramente vinculados al libro en cuestión: encontramos permanentes menciones acerca del logro del “equilibrio

sonoro” y el eje está puesto en la obtención de colores orquestales “interesantes”, más allá de la función textural que pueda cumplir tal o cual elemento.

Casi simultáneamente, Leonard Meyer5 realiza un valioso aporte al aplicar ciertos conceptos de la psicología de la Gestalt a situaciones musicales. En primer lugar la define como una agrupación mental de estímulos musicales concurrentes. Esto resulta particularmente de nuestro interés ya que le atribuye un carácter eminentemente perceptivo. Posteriormente, y basándose en un principio básico de diferenciación visual, aplica la noción de figura – fondo asociando figura a melodía y fondo a acompañamiento. Es así como determina que el campo musical puede ser percibido como conteniendo: figura sola, varias figuras solas, una figura (o más) con fondo, figuras similares con fondo y fondo solo. Sin duda constituye un primer paso importante en el camino de categorizar la simultaneidad musical de acuerdo a nuestra experiencia perceptiva pero, a nuestro entender, deja de lado muchas cuestiones claves: ¿Qué funciones cumplen las diferentes líneas? ¿Todas las líneas tienen la misma jerarquía? ¿Qué ocurre con estas líneas con los substanciales matices musicales que inciden directamente sobre nuestra percepción como las diferencias de registro, de instrumento o de intensidad? Y, muy especialmente ¿podemos reducir todo fenómeno musical a líneas y fondo? Estas preguntas quedan sin responder, pero más adelante volveremos sobre los conceptos de

Meyer porque creemos que pueden sernos de gran utilidad para un desarrollo ulterior.

Posteriormente tenemos dos aportes importantes. Por un lado el de Denis Smalley6, en su célebre ensayo sobre la espectromorfología, su método de aproximación a los materiales sonoros y a las estructuras musicales, focalizando en el espectro y su desarrollo temporal. Es importante señalar esto ya que esta aproximación la hace a partir de los desarrollos teóricos de Pierre Schaeffer, concretamente a partir de privilegiar la escucha del material sonoro fijo sobre soporte. Allí define la textura como modos de comportamiento interno atribuyéndole de este modo un significado muy distinto vinculándolo exclusivamente a las características sonoras, a la actividad interna, y no a la simultaneidad. En este sentido, encuentra que las texturas están influenciadas por a) los sonidos ambientales, b) la magnificación de texturas internas (los detalles que se revelan por medio de la grabación de sonido) y c) por la observación visual de texturas, sean éstas artificiales o naturales.

Y por otro lado el de Albert Bregman7, que es quien sistemáticamente realizó una metódica investigación sobre la percepción sonora aplicando las leyes de la Gestalt y es, sin duda, un investigador cuyos aportes nos parecen sumamente remarcables. En el capítulo dedicado a la percepción musical, Bregman propone estudiar los principios organizadores

Page 38: En El Límite - Escritos sobre Arte y Tecnología

38 | en el limite

del sistema auditivo en la audición musical. Lamentablemente, considerando nuestro interés, el autor examina estos principios en la organización melódica, en la armonía, en el timbre y en el contrapunto. No así en las texturas como tales. Inclusive el mismo autor es muy cauto al hablar de música admitiendo, con una gran honestidad intelectual, la necesidad de que alguien con mayores conocimientos musicales que él continúe su investigación.

No queremos dejar de mencionar el libro de John White8 “Theories of Musical Texture in Western History” cuyo título mencionamos completo porque su hallazgo, de manera casual en Internet, nos resultó sorprendente ya que creímos haber encontrado el primer libro dedicado íntegramente a este tema. Sin embargo lamentablemente comprobamos que aborda la problemática desde el punto de vista de la altura. Sus distintos capítulos, como por ejemplo “Texturas del período Clásico”, “Texturas Románticas” o “Texturas del Siglo Veinte” hablan única y exclusivamente de armonía. No es que esto no sea importante a nivel de la simultaneidad, pero por algo existe una palabra para armonía y otra para texturas. De esta última, pese al título, no hace ninguna mención.

Por otro lado, en la Argentina, tenemos el trabajo de Pablo Fessel9 quien aborda la problemática de la textura desde el punto de vista del modelo de la gramática generativa de Chomsky, particularmente en el marco de un modelo generativo de la gramática tonal.

Para el autor, la textura tiene que ver con la constitución de planos texturales, descriptos como estructuras musicales diferenciadas de organización sintáctica, que van a conformar una unidad superior llamada Configuración Textural, presentando de esta forma, un modelo de análisis textural que va más allá de los intentos taxonómicos tradicionales. A partir de dichas configuraciones, el autor va a encarar el estudio de la textura como uno de los componentes de la descripción estructural de la obra. Dicho de otra manera, vincula la textura con el proceso formal, criterio que compartimos como veremos más adelante. Pero no encontramos mención de cómo percibir estas texturas o que estrategias auditivas desarrollar. Vemos que la clasificación que propone el autor, plasmada en una serie de fórmulas, no toma en cuenta la escucha, detalle que consideramos importante.

Teoría de la GestaltFrente a este panorama de cierta ambigüedad terminológica y de pocas referencias bibliográficas, creemos que algunas de las leyes de la Psicología de la Gestalt pueden ser de gran utilidad, aunque empleándolas con cierto cuidado ya que éstas fueron ampliamente estudiadas en el ámbito visual. Recordemos10 que la Teoría de la Gestalt, que fue introducida alrededor de 1910 fundamentalmente por Max Wertheimer y sus colegas Kurt Koffka y Wolfgang Kohler, tiene entre sus postulados que lo que percibimos es el todo, de manera independiente a la

suma de sus partes. Citando a Wertheimer leemos que “El comportamiento del todo no está determinado por el de sus elementos individuales, sino que son estos los que están determinados por la naturaleza intrínseca del todo. Es la esperanza de la teoría de la Gestalt el determinar la naturaleza de estas totalidades.” Asimismo nos da un ejemplo muy esclarecedor: ¿Cuándo escucho una melodía, escucho una suma de notas individuales o escucho algo que va a estar determinado por el carácter de la totalidad? Indudablemente lo que percibimos son determinadas relaciones dentro de una totalidad. Prueba de ello es que al transponer la melodía sigo reconociéndola aunque sus notas hayan cambiado. Consciente, entonces, de que cuando estamos frente a un número de estímulos no experimentamos eventos individuales sino una totalidad, y que nuestra experiencia perceptiva está constituida por totalidades separadas y relacionadas entre sí, es que Wertheimer se pregunta si estas configuraciones están regidas por principios definitivos, aplicables a todos los casos, o sea por leyes. Por supuesto que la respuesta es afirmativa y en 1923 es cuando Wertheimer publica su célebre ensayo “Leyes de Organización de formas perceptuales”. Hemos tomado algunas de estas leyes y vamos a analizar a continuación su aplicación a situaciones musicales.

Algunas leyes Frente a esta perspectiva, vamos a tratar de pensar una configuración básica, simple, a nivel de la simultaneidad, para ver que

Page 39: En El Límite - Escritos sobre Arte y Tecnología

en el limite | 39

ocurre con nuestra percepción de la misma. De acuerdo al recorrido que queremos plantear, pensemos esta situación tanto en música instrumental como electroacústica. Si escuchamos dos sonidos o dos voces a la vez, tiene que haber alguna diferencia entre ellos para que los podamos diferenciar, de lo contrario no nos sonarán dos, sino uno: esto lo podemos ver en la polifonía de J. S. Bach, en donde la diferenciación en el registro hace más fácil de percibir cada una de las distintas entradas de una fuga, por poner un ejemplo, o en cualquier obra de tipo polifónico. El caso exactamente opuesto se da en ciertas obras del compositor húngaro Gyorgy Ligeti, como Lux Aeterna, Volumina o Atmospheres, en donde el autor busca que no haya una diferenciación de las voces para crear una sensación de mayor densidad, con lo cual es mínima su separación en el registro. La misma situación la podemos plantear en la música acusmática: si escuchamos el comienzo de la tercera pieza de la obra “De natura Sonorum” de Bernardo Parmegiani llamada “Géologie Sonore” vamos a percibir claramente dos sonidos de características similares en cuanto a su comportamiento pero con una amplia separación en el registro lo cual los hace claramente perceptibles. El caso contrario lo encontramos en “Stria” de John Chowning en donde en determinados momentos los sonidos comparten hasta el mismo registro, percibiéndose de esta manera un aumento de la masa sonora, pero no de la cantidad de elementos en simultaneidad.

Esta situación se puede explicar a través de la ley gestáltica de Similitud. Como vimos, esta noción es válida para toda la historia de la música, aunque en la música tradicional está centrada exclusivamente en la altura. Tomemos como ejemplo un grupo coral; si cada parte esta claramente separada y delimitada en el registro, se escucharán mejor las cuatro voces melódicas. Con lo cual la separación de un coro en cuatro voces obedece no solamente a cuestiones fisiológicas, voces agudas y graves en registros masculinos y femeninos, sino también a cuestiones perceptivas, que derivan en una mejor apreciación de las ideas musicales. Pero esta ley no sólo es aplicable a la altura sino a otros aspectos del sonido como el perfil dinámico, la envolvente, el timbre e inclusive el tipo de objeto sonoro.

En segundo lugar tenemos la ley de la Proximidad que la podemos vincular a cuán cercanos se encuentran los sonidos temporalmente. En cierto sentido complementaría lo anterior, ya que dos sonidos pueden estar muy próximos pero ser totalmente distintos entre sí. Sin embargo por proximidad los vamos a agrupar y van a configurar una unidad perceptual. También es sabido a través de numerosos estudios estadísticos11, que la mayoría de las notas musicales presentes en diversas melodías analizadas en distintos períodos históricos, tienden a ser cortas, alrededor de 0,5 segundo por nota, lo cual, unido a lo ya dicho en el

caso del registro, evidencia porqué es tan fuerte la preeminencia de la melodía a lo largo de la historia de la música. Es perfectamente compatible con nuestro modo de percibir.

Esta ley da lugar a dos tipos de unidades muy utilizadas musicalmente: por un lado la unidad “ataque – sostenimiento” que nos permite vincular sonidos muy distintos con la ilusión de creer que uno deriva del otro. Esto lo podemos observar en muchas obras electroacústicas, como por ejemplo el célebre comienzo de “De natura sonorum” de Parmegiani, pero también en muchas obras orquestales en las que, después de un ataque orquestal complejo, continúa el sonido de uno de los instrumentos que participaron en ese ataque. El comienzo de la Séptima Sinfonía de Beethoven es sumamente esclarecedor al respecto.

Y, por otro lado, da lugar a la “célula”, según Schaeffer, gesto compuesto por diferentes objetos sonoros de muy breve duración y que, dada su cercanía temporal, nuestro oído no puede separar.

Lo interesante son los vínculos, relaciones y oposiciones que pueden hacerse entre ambas leyes, y las que veremos a continuación. Podemos hacernos la siguiente pregunta, desde la perspectiva de la música electroacústica: ¿Qué grados de transformación podemos realizar en un sonido para que lentamente se convierta en uno totalmente diferente? Si consideramos, por

Page 40: En El Límite - Escritos sobre Arte y Tecnología

40 | en el limite

ejemplo, una transformación muy gradual de un determinado sonido hasta llegar a uno totalmente distinto, podemos constatar que al escuchar esa derivación, seguimos asociando el sonido nuevo al sonido original si es que esta transformación ocurre con cierta continuidad temporal. De esta manera encontramos otra relación entre ambas leyes.

Otra ley que podemos considerar es la ley de Contexto, esto es, vinculamos sonidos si están unidos o agrupados por su contexto. Esto lo podemos asociar con entornos sonoros ambientales, sonidos de un determinado espacio sonoro que, aunque sean distintos comparten ese espacio, y por otro lado, con la idea de estructura en música contemporánea o por lo menos con música de la segunda mitad del siglo veinte. Especifiquemos un poco más esta situación: hablamos de estructura, configuración o unidad gestáltica a aquella idea musical o sonora en donde el oyente no puede percibir unidades, sean voces, líneas melódicas u objetos sonoros, sino el que percibe la totalidad teniendo que desarrollar un tipo de audición global, estadística en vez de puntual. Aquí podemos traer a colación la definición de pasaje textural que hace Rosemary Mountain12 que va exactamente en este mismo sentido: “Cuando la atención del oyente se dirige hacia la imagen sonora global y a la interacción de sus componentes en vez de hacia cualquiera de las líneas individuales.”

Conviene recordar algo de lo que ya hemos hablado en otra oportunidad13: nuestra audición se ve dificultada, o directamente “perdida”, al escuchar música de determinada complejidad. Usamos el término complejidad exclusivamente en relación a la simultaneidad (ya que muchas veces se habla de complejidad en sentido armónico o formal) y vamos a vincularlo con la cantidad de voces. Por ejemplo: basta con escuchar polifonía a cuatro voces para que no podamos seguir cada una de las voces en particular. Si se trata de una fuga, podremos escuchar cada una de las entradas del sujeto, pero nos es imposible determinar qué hacen las voces restantes a partir de la tercera o cuarta entrada. Es decir, percibiremos algún rasgo saliente, ya sea por registro, rítmica o por su valor temático y nuestra audición se va a ver dificultada en mayor medida cuando no esté dicha característica saliente, como ocurre en obras polifónicas que no tienen aspectos imitativos como muchos motetes de los siglos XV y XVI a cuatro o más voces, así como también en muchas composiciones de principios del siglo XX en adelante.

Entonces, a la hora de precisar lo que ocurre a nivel de la simultaneidad, observamos que un oído medianamente entrenado puede seguir con facilidad hasta tres voces si están claramente diferenciadas rítmica y melódicamente, como ocurre en la música polifónica en general. Este límite se amplía en el caso de haber una melodía acompañada

siempre y cuando las funciones de las voces secundarias intervinientes estén claramente delimitadas en función de la voz principal.

Aquí resulta necesario incorporar otro concepto, propuesto por Albert Bregman que es el de “auditory stream” que podríamos traducir como “estrato auditivo”. El autor nos da la siguiente definición: es una unidad perceptual que representa un único evento. Lo amplía agregando que es un concepto que incorpora más de un sonido, como por ejemplo cuando decimos “escuché pasos en la lluvia” nos referimos a dos estratos (pasos y lluvia) siendo evidente que hay más de un sonido en cada uno de ellos. Por otro lado, y vinculado con esto último nos agrega que es una asociación perceptual, no siendo algo de carácter físico. De este modo podemos ampliar la definición de complejidad como aquella situación sonora o musical en donde están presentes más de tres o cuatro voces o estratos.

Una propuestaA partir de lo anteriormente expuesto vamos a intentar avanzar hacia una propuesta de organización textural en música electroacústica, no sin antes repensar lo que es moneda corriente en la música instrumental. Aquí observamos que la clasificación habitual utilizada fundamentalmente para la música previa al siglo XX está fundamentada en dos criterios básicos: cantidad y funcionalidad de voces. Podríamos reorganizarlo de la siguiente manera de acuerdo al nivel

Page 41: En El Límite - Escritos sobre Arte y Tecnología

en el limite | 41

creciente de complejidad: dependiendo de la cantidad se va a hablar de monodia (una), homofonía, heterofonía y polifonía (dos a cuatro) y estructura (más de cuatro). Y según la funcionalidad serán homofonía, heterofonía o polifonía. De esta manera nos quedaría el siguiente cuadro:

Cantidad

UnaMonodia

Pocas - Dos a cuatroHomofoníaHeterofonía Polifonía

Muchas - Más de cuatroEstructura – Configuración - Pasaje textural

Esto no es más que una primera aproximación que nos sirve como punto de partida. Podemos dar un paso más y preguntarnos ¿qué pasa con esta clasificación en música electroacústica, o música “basada en sonidos”, al sustituir las “voces” por “sonidos” u “objetos sonoros”? Creemos que lo apropiado para este tipo de música, al no trabajar con notas generadas por instrumentos sino con sonidos de diversa complejidad címbrica, es sustituir voces por estrato auditivo, de acuerdo a lo que postula Bregman. En este caso podemos hablar de una clasificación común en cuanto a cantidad, no así en cuanto a funcionalidad ya que si bien cada objeto o estrato puede cumplir diferentes funciones, difícilmente se puedan denominar homofonía o heterofonía, tal como fue

planteado anteriormente. Estas categorizaciones se fundamentan en el criterio de establecer cuál es “la voz principal” situación perfectamente compatible con un melodía, con primacía de la altura, de la nota, pero no con un discurso estructurado en base al timbre.

Ahora proponemos retomar la propuesta de Meyer (figura y fondo) pero en este caso vinculando dos tipos de objetos sonoros muy distintos perceptivamente y que forman una primera distinción básica en cuanto a la duración: objetos puntuales de corta duración y objetos sostenidos de duración más extensa. Y por otro lado, agregamos un criterio vinculado a la información que portan y su grado de variación: su mayor o menor grado de regularidad morfológica o de redundancia Esto es acorde con la idea de no establecer a priori la idea de “voz principal” como si ocurre con la de figura y fondo. Si unimos esto con la idea de Bregman (estrato auditivo) obtendremos de esta manera un primer cuadro, basado en criterios perceptivos que creemos puede ser de utilidad al menos en una primera aproximación. Esto quedaría conformado de la siguiente manera partiendo de figura y fondo y adaptándola a nuestros fines:

Texturas simplesUna o dos figuras sin fondo = Uno o dos sonidos o estratos de corta duración (Variables o no redundantes) Fondo simple = Uno o dos sonidos o estratos de duración extensa. (Estático o redundante)

Una o dos figuras con fondo = Uno o dos sonidos o estratos de corta duración mas otro extenso. (Superposición de ambos)

Texturas complejas Tres o más figuras sin fondo = Tres o más sonidos o estratos de corta duración.(Variables o no redundantes) Fondo compuesto = Tres o más sonidos o estratos de duración extensa.(Estático o redundante) Tres o más figuras con fondo = Tres o más sonidos o estratos de corta duración mas otro extenso. (Superposición de ambos)

Tenemos ejemplos musicales tomados de diferentes obras electroacústicas para todas las categorías propuestas, pero por diversas razones lamentablemente no acompañan la escritura del presente artículo.

De aquí en adelante Conscientes de que éste es sólo un primer paso, no queremos dejar de señalar algunas dificultades de las cuales ya tomamos nota y que serán las que intentaremos resolver en nuestros próximos pasos.

En primer lugar sabemos de la ambigüedad de ciertos sonidos inclusive desde el punto de vista de su duración. Si bien esto es muy rico y atractivo desde el punto de vista artístico genera problemas a la hora de cualquier intento de clasificación.

Funcionalidad

Page 42: En El Límite - Escritos sobre Arte y Tecnología

42 | en el limite

Por otro lado tenemos la confluencia que hemos observado entre textura y discurso, o entre textura y forma. En el caso de la música electroacústica, el tipo de textura utilizada es parte indisoluble de la forma, por lo tanto cualquier intención de tipo discursiva, como generar una determinada expectativa, buscar un contraste, realizar mínimas variaciones, por poner sólo algunos ejemplos, provoca siempre un cambio en la textura. Hemos encontrado que no existen, por lo general, secciones completas con un solo tipo de textura sino que éstas varían permanentemente de acuerdo a las intenciones discursivas del compositor. Esto nos ha llevado a sugerir la idea de modulación textural, que nos parece apropiada por dos razones: en primer lugar la palabra modulación es parte del vocabulario del lenguaje musical, e implica el abandono de una situación dada para llega a otra. Y en segundo lugar da cuenta de esos momentos de transición, característicos de toda modulación, en donde se comienza a abandonar una situación, armónica o, en este caso, textural, para llegar a otra. Esto implica que la textura no es algo que ocurre en un determinado instante, sino una situación que se establece y tiene un mínimo de pregnancia perceptiva.

Por último, y esto no sería un problema sino algo a continuar investigando, nos falta estudiar qué ocurre con la aplicación de otras leyes de la Gestalt a la simultaneidad musical como por ejemplo la ley de Buena Continuación, la de Destino Común, la de Simplicidad o la de Ambigüedad, entre otras.

De todas formas, creemos que estas consideraciones, aunque incompletas por el momento, pueden contribuir a desarrollar diferentes estrategias auditivas a la hora de escuchar este tipo de música y también pueden ser tenidas en cuenta a la hora de la composición. Y, quien sabe…quizás puedan llegar a derivar en una mejor comunicación entre compositor y oyente, situación sumamente necesaria en estos tiempos de tanta “polución sonora”. Pero ese es otro cantar.

Referencias1 Dunsby, Jonathan “Considerations of Texture” Music & Letters, Vol. 70, No. 1 Oxford University Press 1989.

2 Landy, Leigh “The music of sounds” Mint – Serie Musique et nouvelles Technologies 2007

3 Schoenberg, Arnold “Fundamentals of music composition” Faber and faber 1999

4 Piston, Walter “Orquestación” Real Musical. 1984

5 Meyer Leonard. “Emotion and meaning in music” University of Chicago Press 1956

6 Smalley, Dennis: “Spectromorphology” en The language of electroacoustic music Macmillan Press 1985

7 Bregman, Albert: “Auditory Scene Analysis” MIT Press 2001

8 White, John “Theories of Musical Texture in Western History” Garland Publishing 1995

9 Fessel, Pablo “Hacia una caracterización formal del concepto de textura” Revista del Instituto Superior de Música. Universidad Nacional del Litoral.

10 Minsburg, Raúl: “Las texturas musicales y su problemática para la percepción auditiva” en “Escritos sobre Audiovisión”, Ediciones de la Unla (2006)

11 Huron, David. “Tone and Voice: A Derivation of the Rules of Voice-leading from Perceptual Principles”

12 Mountain, Rosermary: “Periodicity and musical texture” Paper adaptado de la Tesis Doctoral de la autora: An Investigation of Periodicity in Music, with reference to three twentieth-century compositions: Bartok’s Music for Strings, Percussion & Celesta, Lutoslawski’s Concerto for Orchestra, Ligeti’s Chamber Concerto

13 Minsburg, Raúl: Op Cit.

Page 43: En El Límite - Escritos sobre Arte y Tecnología

en el limite | 43

BIBLIOGRAFÍA

Arnheim, Rudolf “To the rescue of Art: Twenty six essays” University of California Press 1992.

Basso, Gustavo. “Percepción auditiva” Universidad Nacional de Quilmes. 2006

Boulez, Pierre “Al límite del país fértil” Hacia una estética musical. Monte Avila Editores 1990

Brelet, Giselle “Música y estructura” Estructuralismo y estética. Nueva Visión 1971

Bregman, Albert S. “Auditory scene analysis” Mit Press 1990

Deliège, Irene: “Perception des formations élémentaires de la musique”. Analyse Musicale 1985

Dunsby, Jonathan “Considerations of Texture” Music & Letters, Vol. 70, No. 1 Oxford University Press 1989

Eco, Umberto “La definición en el arte” Planeta – Agostini 1985

Eco, Umberto “Obra Abierta” Planeta – Agostini 1992

Fessel, Pablo “Hacia una caracterización formal del concepto de textura” Revista del Instituto Superior de Música. Universidad Nacional del Litoral.

Huron, David. “Tone and Voice: A Derivation of the Rules of Voice-leading from Perceptual Principles” Music Perception Vol. 19, nº 1. 2001

Landy, Leigh “The music of sounds” Mint – Serie Musique et nouvelles Technologies 2007

Lester, Joel “Le rôle des textures dans la musique tonale du XXe siècle“. Analyse Musicale 2001

Meyer, Leonard. “Emotion and meaning in music” University of Chicago Press 1956

Minsburg, Raúl: “Las texturas musicales y su problemática para la percepción auditiva” en “Escritos sobre Audiovisión”, Ediciones de la Unla (2006)Mountain, Rosemary “Periodicity and musical texture” Publicación electrónica adaptada de la tesis de postgrado de la autora

Piston, Walter “Orquestación” Real Musical. 1984

Risset, Jean–Claude: “Timbre et synthèse des sons”. Analyse Musicale. 1986

Roederer, Juan “Acústica y psicoacústica de la música” Ricordi Americana 1997

Roy, Stephane “L´analyse des musiques électroacoustiques: Modèles et propositions” L´Harmattan 2003

Schaeffer, Pierre: “Tratado de los objetos musicales” Alianza Música 1988

Schoenberg, Arnold “Fundamentals of music composition” Faber and faber 1999

Smalley, Dennis: “Spectromorphology”en Emmerson, Simon : “The language of electroacoustic music” Macmillan Press 1985

Somers, Eric “Simultaneity and Polyphony in Speech Based Audio Art” Proceedings of the 2002 International Conference on Auditory Display, Kyoto, Japan, July 2-5, 2002

Wertheimer, Max: “Gestalt Theory” (1924). En http://www.gestalttheory.net/archive/wert1.html“Laws of Organization in Perceptual Forms” (1923) en http://www.psych.yorku.ca/classics/Wertheimer/Forms/forms.htm

White, John “Theories of Musical Texture in Western History” Garland Publishing 1995

Page 44: En El Límite - Escritos sobre Arte y Tecnología

44 | en el limite

las “notas” – representan una ruptura con las nociones adquiridas de organización musical, pero también con su propia esencia. Consecuentemente, la naturaleza acústica, a veces muy compleja, de los materiales de la música electroacústica, trae ciertas dificultades al aplicar los conceptos analíticos tradicionales de carácter reduccionista. Al escuchar ya tenemos incorporadas las expectativas moldeadas culturalmente acerca del discurso musical; entonces, ¿qué tienen para ofrecer las ideas establecidas acerca de la organización musical en general, en el paisaje sonoro radicalmente nuevo de la música electroacústica?

2. Como compositor, ¿de qué modo puedo desarrollar una perspectiva sobre la relación entre lo local y lo global que obtenga el mayor valor expresivo de mi material, ya que tanto yo como otros buscaremos estas relaciones? En un arte basado en el tiempo parece natural ser consciente de la eficacia de las relaciones de corto y largo plazo entre materiales. Desde una perspectiva pragmática de la composición, no deseo verme abrumado por una pantalla en blanco cuando compongo, ni quiero descartar un juego libre sin límites con el sonido que finalmente derive en algo musicalmente inútil.

Por lo tanto, estoy hablando de forma no como un conjunto de moldes que simplemente

“contienen” música, sino como un principio más orgánico por el cual los procesos de identidad, transformación y ordenamiento de los sonidos puedan proyectar morfologías y mensajes estructurales fundamentales – así como una idea de formación/creación y de la forma. Stephen McAdams sugirió que “la forma tal como se experimenta depende tanto de la mente del oyente como de la estructura que se le presenta a esa mente” (1989:181). Esto sugiere que la forma es algo independiente de la estructura en cuanto al “modo en que los sonidos se articulan secuencialmente”. El tiempo musical no es lineal ya que requiere nuestra participación y atención activas. También sugiere que la noción de forma es un modo útil de generalizar el significado global (no sólo la estructura global) – de modo que reconocemos la esencia “contrastante”, “en desarrollo” y “recursiva” de la forma sonata como algo que evoca teleología, tensión (lucha) y resolución. O en un nivel aún más amplio se podría visualizar a Mahler mostrando el camino a la redención, o participar del vuelo imaginativo y distractor de Mendelssohn cuando crea un tema adicional en la sección del desarrollo de un primer movimiento sinfónico.

A los efectos de este documento hay tres perspectivas sobre la forma que pueden ofrecer una comprensión más profunda sobre la creación de formas en la música electroacústica: la retórica musical, la idea de forma “momento” y la idea de forma “mórfica”.

Formación de la forma

John YoungMTIMusic, Technology and Innovation CenterDe Monfort University

En el libro de Simon Emmerson, “The Language of Electroacoustic Music” (El Lenguaje de la Música Electroacústica), Denis Smalley (1986) formula la siguiente pregunta: “¿Ha descubierto la música electroacústica alguna forma musical nueva?”. Esta pregunta se formuló abiertamente para sugerir que el consenso formal tal vez no sea relevante para la música basada en la complejidad espectromorfológica. Sin embargo, la creciente práctica de los últimos veinte años no ha producido tantas soluciones estructurales como cantidad de piezas musicales y lo que sugiere Smalley al hablar de descubrimiento es que las formas se encuentran dentro de la maduración de la práctica en desarrollo. Considerando lo anterior, este trabajo expone algunas ideas iniciales sobre las distintas maneras posibles de considerar los nuevos enfoques respecto a la forma dentro de la música electroacústica.

Mi interés particular en la forma proviene de dos aspectos de la pregunta de Smalley, uno que se refiere al escuchar, y el otro al hacer:

1. El rango “infinito” de materiales con fuentes de sonido real y virtual que pueden utilizarse – disponibles debido a que no estamos sometidos a los límites impuestos por los instrumentos físicos y a

Page 45: En El Límite - Escritos sobre Arte y Tecnología

en el limite | 45

Retórica MusicalLos modos establecidos para explicar las estructuras musicales de nivel superior e inferior han descrito con frecuencia la forma y la función de eventos musicales en términos cuasi lingüísticos, al emplear nociones relacionadas con el análisis de fragmentos (chunking) y el análisis sintáctico, el fraseo y la direccionalidad, como también con la interpretación del significado, como por ejemplo las estructuras de frases abiertas y cerradas en la obra de Deryck Cooke (1959). Más recientemente, y explícitamente en referencia a la música electroacústica, Gary Kendall (2008) ha considerado la naturaleza del “evento” musical usando la perspectiva de las construcciones lingüísticas como punto de partida, demostrando que éstas se utilizan como cognados para maneras más profundas pero análogas de caracterizar y comprender los materiales musicales y su flujo en el tiempo. De acuerdo a estos enfoques, se puede considerar que la música funciona en un plano retórico – es decir, que hay modos de utilizar los principios inherentes de la construcción musical para hacer que un “argumento” sea lo más lúcido o eficaz posible, o, de hecho, para llevar a un oyente a una red de ideas e interrelaciones. Cuando Cooke afirmó que los métodos reales de expresión emocional en la música son diferentes a aquellos de la lengua hablada, planteó la idea de que una forma es la encarnación de esa expresión: -“...algunas actitudes generales pero bien definidas hacia la existencia mediante la disposición de varios

términos de expresiones emocionales en un orden significativo. Y la forma musical es simplemente el medio por el cual se logra ese orden” [en bastardilla en el original] (Cooke, 1959: 212). Para el pensamiento influyente de Cooke, esto es especialmente importante ya que su tesis se apoya en la noción de que la forma está vinculada al contenido en virtud del imperativo expresivo del compositor, que sólo los materiales en concordancia con las intenciones expresivas del compositor son los que idealmente encuentran su camino hacia una obra. De este modo, Cooke propone que la forma es igual a la expresión. Y en ese sentido, un intento expresivo requiere un método discursivo y habilidades de persuasión. Por lo tanto, la práctica de exponer ideas musicales en el tiempo, con el objeto de lograr las consiguientes funciones expresivas y estructurales, podría considerarse como construcción de la retórica.

Quisiera sugerir aquí que muchos de los gestos retóricos de la música instrumental pueden transferirse a los géneros electroacústicos. Un ejemplo notorio se encuentra al comparar los compases iniciales de la Sonata para violín en Do menor de Beethoven (interpretada sólo con piano) y Tongues of Fire de Trevor Wishart, en los cuales se proyectan dos frases cortas seguidas por una más larga. En estos ejemplos, dos gestos concisos que demandan atención y luego se abren a un “abgesang” [en alemán en el original] más extenso. En el caso de Beethoven, el perfil melódico secuencial de los dos

primeros gestos y su cambio armónico implícito constituyen una parte claramente significativa de cómo se crea el gesto tonal. En el caso de Wishart, la repetición exacta de un gesto muy complejo basado en la voz permite recurrir nuevamente al material como si hubiésemos dicho: “disculpe, ¿qué dijo?”. El contenido espectromorfológico del gesto articulado rápidamente posee la naturaleza ligeramente incomprensible de un loop de Warren, dado que hay varias células espectrogestuales que pueden percibirse dentro de él.1

Las entradas y salidas de los sonidos, separados por silencios, nos dicen también que estamos frente a un “viaje accidentado” y a una forma a gran escala (lo cual ocurre en ambas obras)2. En el caso de Wishart, la extensión que sigue a este objeto repetido del comienzo inmediatamente se comienza a desarrollar, y se proyecta en capas de energía acumulada que aparentemente cubren la estructura gestual de los sonidos y el crecimiento consiguiente en riqueza espectral. Pero, lo que vincula los comienzos de estas dos obras, considerando la lejanía histórica entre ellas, es una similitud muy llamativa en la cantidad de tiempo utilizado para el despliegue de cada gesto y su separación por silencios. Lo que las separa es el contraste entre la funcionalidad tonal y la transparencia melódica en la obra de Beethoven (con sus implicaciones en los primeros acordes que proveen, en términos tonales tradicionales, un nivel de movimiento más amplio como ritmo armónico) y el

Page 46: En El Límite - Escritos sobre Arte y Tecnología

46 | en el limite

carácter casi insondablemente comprimido de los gestos de Wishart.

Marta Grabocz (1997) argumentó que muchas obras electroacústicas dependen de los diseños formales tradicionales como medio para contener sonidos radicalmente nuevos dentro de marcos estructurales comprensibles y asimilables. Ella planteó, al momento de escribir, que sólo en los diez años anteriores se hicieron marcadamente evidentes los nuevos conceptos de diseño formal. Sobre esto esbozó tres “ideas estructurales” innovadoras (en este sentido, estructura se utiliza como sinónimo de “forma”): modelos extra musicales, estructuras que presentan estasis y la articulación de música a partir de modelos gráficos. Además de ser tipologías útiles, son esencialmente procesos compositivos o caracterizaciones de materiales musicales – elementos desde los cuales puede surgir la innovación formal. De hecho, la diversidad en la práctica contemporánea presenta una variedad de énfasis puestos sobre la forma en la que se crean o se escuchan los materiales musicales (considerar la sonorización de flujos de información no auditiva, procedimientos aleatorios e improvisaciones, y las formas derivadas de sonidos ambientales grabados) de modo que forma, naturaleza y estructura de materiales y procesos son realmente difíciles de desentrañar y atribuir definitivamente como fuerzas moldeadoras y generativas: en resumen, el hecho de que los objetos sonoros complejos, y los sonidos referenciales no

sean necesariamente estética y culturalmente neutrales como las “notas”, tal vez requiera la participación del oyente en el proceso interpretativo de la forma...

Si bien esto no constituye una nueva dimensión para el análisis musical -la forma y el contenido siempre tuvieron roles simbióticos-, la diversidad de materiales sonoros que normalmente se encuentran en una misma obra electroacústica, señalan a ésta como una pregunta primordial a considerar al tratar de comprender las relaciones entre materiales y morfologías de menor nivel estructural. Entonces, parecería que en Tongues of Fire, Trevor Wishart desplegó, tal vez intuitivamente, un dispositivo retórico de captación de atención ya establecido para anunciar material sonoro altamente complejo, seguido de una frase que exhibe una especie de cobertura del “tema” sonoro que también juega con la sugerencia de la procedencia vocal. La concisión gestual que caracteriza los comienzos de las obras ya mencionadas de Wishart y de Beethoven posee un significado arquitectónico, como brusco motivo (motto) puntuado y como bloque constructivo de formas más desarrolladas. Por lo tanto, aunque la forma retórica en la apertura de Tongues of Fire entra en contacto con la tradición, Beethoven se despliega mediante la interacción del movimiento rítmico y tonal mientras que Wishart lo hace enfatizando la maleabilidad espectromorfológica.

Forma momento Stockhausen (1991:63) caracterizó la idea de “forma momento” de la siguiente manera:

“Cuando ciertas características permanecen constantes durante un período -en términos musicales, cuando los sonidos ocupan una región o registro en particular, o permanecen dentro de una cierta dinámica o mantienen una velocidad promedio- se produce entonces un momento: estas características constantes determinan el momento”.

La idea de momento en la música electroacústica es una herramienta poderosa debido a que unifica las maneras de pensar acerca de los objetos sonoros y justifica la manera, la raison d’ etre (en francés en el original, “razón de ser”) en la que se los utiliza en el tiempo. La idea de mantener la forma momento mediante el cambio de disposiciones estáticas puede proveer la plataforma para una escucha activa”dentro del sonido”; mientras que, como señaló Jonathan Kramer (1978:177), actúa también como un vehículo para las formas profundas de discontinuidad. Según sus palabras: “(...) lo inesperado es más llamativo, más significativo que lo esperado porque contiene más información”. Si aceptamos esto, entonces la naturaleza de los materiales y de las cualidades particulares de discontinuidad que los cambios de momento pueden evocar, constituye claramente un factor significativo en el potencial afectivo de las formas realizadas de esta manera.

Page 47: En El Límite - Escritos sobre Arte y Tecnología

en el limite | 47

Por supuesto, la forma momento no pertenece solamente al dominio de la música electroacústica, pero posee un potencial especial mediante el uso de la tecnología. Esto se debe a que está ligada a la idea de esculpir el sonido, tal vez a partir de una perspectiva poiética en particular: después de todo, el compositor se enfrenta con los mismos momentos una y otra vez, concretamente en el estudio, a través de los cuales se puede desarrollar una gran agudeza al escuchar (aunque también puede ocurrir que el acto de escuchar se vuelva cansador hasta el punto de tornar ineficaz la toma de decisiones). John Dack (1999) realizó la siguiente observación: “(...) la adopción de la forma momento de Stockhausen no necesita descartar los procesos perceptibles con objetivos, simplemente se rehúsa a participar en una curva narrativa dirigida globalmente (...)”, e hizo hincapié en el hecho de que como principio organizativo posee el potencial de exponer un sentido de arreglo de los componentes estructurales como entidades individuales e invita al oyente a comprometerse con un modo de escucha inquisitivo y creativo, incluso, tal vez “formador”.

De tal modo puede ser considerada como la personificación de la idea del proceso de composición, como la forma en el estado de ser descubierta y abierta a la interpretación como micro-narrativas, secuencias, estados de materia sonora y contrastes de los mismos. La configuración del sonido en tiempo real en el marco de improvisaciones de música electroacústica, donde un proceso

formal puede estar pre-estructurado o ser completamente fortuito, constituye otra prueba de cómo la “escultura” fluida del material puede guiar la evolución de una obra. También noto la influencia de la forma momento en muchas obras a larga escala del canon acusmático francés, donde la forma a gran escala se sostiene articulando la obra con movimientos fuertemente unificados que se centran en la ejecución dentro de ciertas limitaciones espectromorfológicas.

Forma mórficaEl género de la forma “mórfica” de Trevor Wishart (1994) acoge el discurso narrativo en el potencial de la música electroacústica para desarrollar materiales a través de procesos de constante transformación del timbre y de la identidad sonora. Las herramientas de transformación de sonido inherentes a la música electroacústica fomentan este enfoque ya que las nociones de transfiguración y metamorfosis sonora pueden incorporar un significado nuevo, centrado en lo causal (en el sentido del sonido como “material” auditivo). Esto evoca la idea del continuo (particularmente en lo que se refiere al timbre) y aún cuando estos continuos impliquen caminos lineales o curvilíneos, en cualquier debate musical de importancia, es posible aprovechar su potencial para interceptarse y superponerse. Puede haber “reglas” generalizables sobre cómo funcionan las continuidades, pero debemos tener cuidado de cómo las describimos. Por ejemplo, en un momento de Tongues of Fire, Wishart (1994)

usa la metáfora de “cambio de tonalidad” para referirse a la metamorfosis de sonidos vocales a sonidos semejantes a los producidos por la madera. A pesar de que el cambio de énfasis que él crea es tangible, esta descripción no contempla el hecho de que en un cambio de tonalidad, el resultado sigue siendo un grupo de relaciones equivalentes entre los elementos tonales en las tonalidades viejas y nuevas, y a menudo, la cualidad más interesante es no solamente el sonido de la nueva tonalidad, sino la sensación producida en el punto mismo de cambio (ciertamente cuando nos referimos a temperamentos iguales). La trasformación de la voz en madera sugiere un cambio en las fuentes aparentes entre las cuales no hay relaciones equivalentes. Otra dificultad práctica con el modelo de continuo es que resulta a la vez imaginario y limitado por lo que puede lograrse en el estudio. Un compositor cuenta con la ventaja de poder jugar con el sonido que informa el resultado final de una forma que el oyente jamás experimentará, o podrá frustrarse por imaginar extensiones sonoras que no podrá concretar por carecer de los medios para lograrlas. De manera tal que existen problemas formales para presentar la “imagen” de un continuo de tal forma que el oyente pueda relacionarse con ella e internalizar su dialéctica.

Por lo tanto, las ideas de forma del momento y mórfica tal vez tengan un nuevo significado en la música electroacústica con algunas consecuencias interesantes. Por ejemplo, en la obra de los compositores espectralistas,

Page 48: En El Límite - Escritos sobre Arte y Tecnología

48 | en el limite

si consideramos la identidad singular del timbre como algo formado y coherente en sus propios términos, queda claro que el discurso musical puede surgir de la deconstrucción de dicha identidad, que puede coincidir con el requerimiento de McAdams, en cuanto a que:

Una dimensión que contiene formas deberá ser susceptible a la organización en categorías perceptibles y las relaciones entre estas categorías deberían codificarse fácilmente. Un sistema de relaciones de saliencias o estabilidad debería poder aprenderse a través de la mera exposición y debería afectar la percepción de los patrones en dicha dimensión (McAdams, 1989:195)

Una característica esencial del enfoque espectralista es el reconocimiento del fenómeno de la integración espectral como algo cuya lógica se “conoce” instintivamente fuera de todo contexto de la composición y puede, por lo tanto, utilizarse para comprender los procesos y modelos del compositor. Algunos ejemplos del valor “momento” del pensamiento espectralista pueden hallarse en la pieza Mode de valeurs et d’intensités (1949) perteneciente a Quatre Études de Rhythme, del compositor Messiaen. Los fundamentos precomposicionales seriales/modales del trabajo están bien expresados en la literatura (Hill, 1995) y de hecho, están expuestos en el prefacio de la partitura. En un nivel el efecto es de corte serial – pequeñas gotas de notas que proyectan un lienzo puntillista de piano tonalmente neutral, en el cual la principal característica organizativa

consiste en (como en el gamelán) que las largas duraciones corresponden al rango de los tonos graves y las cortas se concentran en los agudos. Esto tiende a que ocasionalmente se oigan como cristalizaciones momentáneas de unidades motívicas. Se ha creado aquí un ecosistema musical, con eventos de notas específicos que ocupan sus propios nichos dinámicos, de duración y de registro fijo, ayudándonos de esta manera a captarlos como identidades aún cuando estén suficientemente conectados para formar grupos. La imagen de una dispersión de altura aleatoria se produce mientras la dispersión de los tonos actúa contra la formación consistente de voces coherentes. La concentración en la calidad de cada nota, particularmente a través del contorno de textura creado por cambios dinámicos directos, significa que tanto las notas aisladas como algunas agrupaciones rápidas pueden considerarse como “momentos”. Esto se ve fundamentalmente enriquecido a otro nivel por la fugaz agrupación de tonos relacionados como armónicos naturales que se congelan en momentos de una transparente fusión espectral, y la resonancia de bajas frecuencias más extendidas que se agregan a la fusión que ocurre en estos puntos. Estos “momentos” expresan otro nivel diferente a las notas: indican que existen condiciones bajo las cuales los sonidos dejan de actuar como valores individuales y se consolidan como una unidad cuasi-tímbrica –como señalizaciones formales que invitan a la expectativa, (¿Cuándo surgirá el próximo momento?). Se produce una estasis en

estos puntos ya que la fuerza base de la fusión armónica parece congelar el paso del tiempo. Conceptual y técnicamente, las ideas acerca de deconstrucción y fusión del timbre continúan siendo fundamentales para el pensamiento electroacústico, con un considerable intercambio entre el campo electroacústico y el instrumental estimulado por lo que Murail (2005: 123) definió como “la verdadera idea esencial de que el átomo musical no es la cabeza de la nota escrita en el pentagrama”.

Un ejemplo claro aparece en el primer movimiento de la pieza Chant d’Ailleurs (Viñao, 1994) de Alejandro Viñao en el cual los procesos continuos de reconstrucción espectral alrededor de la fuente central de una cantante femenina, dependen del traslado de la atención auditiva a regiones específicas dentro de un espectro y donde la manipulación del balance espectral o la articulación rítmica estimulan el desarrollo mórfico. Las etapas de deconstrucción tímbrica nos hacen tomar conciencia de que se eliminan los parámetros de sonidos como componentes, pero también aparecen ocultos a través de un inteligente filtrado espectral cuando se reintegran como nuevas identidades. Una vez más, sin embargo, la persona central que canta provee una base de fuente reconocible.

Reconocimiento de la fuente para definir momentos musicalesAquí voy a sugerir que una fuente que ha sido reconocida puede funcionar como momento

Page 49: En El Límite - Escritos sobre Arte y Tecnología

en el limite | 49

musical, no sólo en términos espectromorfológicos sino también referenciales. Por ejemplo, Phonurgie de Francis Dhomont (2001) comienza de una manera retórica impactante con gestos y texturas impulsivos y alturas resonantes que emergen de ellos; sin embargo, a los 4’ 48’’ se produce una transición a un sonido más terrenal con la imagen del aleteo de aves, que emerge por sobre un zumbido de banda ancha. Este sonido coherentemente realista no sólo funciona como transición a un “campo” morfológico nuevo sino que también introduce un poderoso cambio de referencia. La imagen se impone como fondo, a la vez que el tiempo aminora en la obra, a pesar de que la textura es sonoramente muy activa – la concentración se dirige a comprender la escena intuitivamente. Por lo tanto, formalmente, su función no es sólo presentar un “tema” morfológico contrastante, sino también desviarnos hacia otro tipo de escucha. Nos dice que la obra no sólo trata de la estructura de los sonidos sino también del contexto formal que los envuelve, y del sentido musical/imaginativo que les permite participar en la obra. Hace que ésta se transforme en un mundo imaginativo en el cual este realismo puede coexistir con abstractas morfologías resonantes; sin embargo, también debemos construir para nosotros mismos un escenario que acomode de forma imaginativa tanto en el momento, así como la consecuencia a más largo plazo de la fuerte imagen creada en ese momento.

A pesar de esto, los momentos musicales no evocan necesariamente una respuesta estática. Lleva poco tiempo evocar una imagen sonora

de este tipo – y la atención se puede desviar en distintas direcciones hacia características espectromorfológicas de los sonidos mismos, junto con la atención en busca de un cambio a nivel referencial o espectromorfológico. Por ejemplo, podemos llegar a suponer que las aves pueden dispersarse, permitiéndonos así escuchar otros sonidos previamente escondidos en la escena, o que la estructura de los sonidos puede cambiar (por ejemplo, cambios en la estructura del tono o la envolvente), con la capacidad de iniciar una secuencia de cambio “mórfica”. Mientras que un “significado” está sólo disponible al nivel de esta yuxtaposición, un significado más concluyente (¿Por qué hemos sido proyectados dentro de ese nuevo ámbito?) es ambiguo, abierto3. El mensaje primordial es la poderosa naturaleza de la transición en sí misma y la comprensión de que este tipo de cambio indicativo es posible. Los momentos referenciales también pueden ser muy fugaces y sabemos que son una forma impactante de invitar a los oyentes a escuchar de manera “creativa/formativa” – por ejemplo, en parte de la música de Jonty Harrison desde mediados de los noventa, donde las imágenes sonoras confirman o contradicen de manera juguetona el ámbito que pensamos que se ha establecido en una mélange animada de sonidos abstractos. Este tipo de cambios referenciales constituyen una de las características más innovadoras de las formas electroacústicas. Por lo tanto, si buscamos en los términos de McAdams mencionados anteriormente, “un sistema de

relaciones de prominencia o estabilidad” que se pueda aprender o comprender a través de la “mera exposición”, los cambios referenciales que funcionan como momentos formales definidos o como semillas de transformación morfológica son catalizadores poderosos.

Identificar nuevos catalizadores del diseño formal dentro de la estructura del sonido mismo resulta más problemático, lo que es atribuible en gran parte al hecho de que este proceso puede involucrar el pedirle a los oyentes que se adapten a modos de escuchar que no necesariamente son equivalentes a lo que (hasta la fecha) se adquiere normativamente a través de la cultura. En un intento muy prometedor de explicar cómo puede funcionar formalmente la estructura del sonido, como parte de una aproximación basada en la segmentación al análisis estructural, James Tenney propuso la idea de un perfil paramétrico para unidades de sonido de diferente duración (él las denomina elemento, golpe o secuencia) con el propósito de registrar fluctuación en “intensidad paramétrica”- una medida del significado subjetivo o el peso acordado a cualquier parámetro musical a través del tiempo. Un parámetro que él describió como “cualquier atributo distintivo de un sonido, en cuanto a qué sonido o configuración de sonido (elemental) puede distinguirse de otro”. (Tenney, 2006: 92). También planteó la hipótesis de que el sonido evoca respuestas cinestésicas en los oyentes y que las duraciones

Page 50: En El Límite - Escritos sobre Arte y Tecnología

50 | en el limite

de aquellos efectos podrían variar de acuerdo a cambios en la intensidad paramétrica, lo que crearía un efecto acumulativo en la interpretación de la forma. En el ambiente espectromorfológicamente complejo de la música electroacústica, esto parece ser una herramienta potencial para evaluar tanto las calidades de los momentos y su impacto sobre la forma a través de la manera en la que la escucha puede ser guiada conjuntamente con el flujo consiguiente de la evolución morfológica (léase mórfica), aunque para estar bien desarrollado esto requerirá un léxico paramétrico adecuado.

Aunque las ideas de Tenney se centran en el análisis de la música instrumental, también resuenan en la siguiente afirmación de Christian Zanési en la nota a Stop! l’horizon:

“Tengo la certeza de que la música sólo es un “gran ruido” cuyo interior se encuentra esculpido con miles de detalles. Se abre como un organismo vivo para dejar que mi escucha (en el original: mon écoute) deambule dentro de él. Se establece muy pronto una relación magnética y todos los sonidos que constituyen el gran ruido me arrastran hacia una dirección. La acepto. Tarde, mucho más tarde, llego a un punto distante en el horizonte que me conduce hacia él.”

Lo que Zanési ha expresado aquí es un panorama imaginativo, casi escultórico, una visión general de un paradigma formal en el cual los materiales, aunque fijos en estructura, están disponibles para la investigación,

interpretación y contemplación, y muy posiblemente presenten el tipo de modelo musical y conceptual que llevó a Smalley (1986) a cuestionarse la relevancia del consenso formal. Los tres movimientos de Stop! l’ horizon se proyectan a través de marcos retóricos caracterizados por la interacción de materiales que en su mayoría se encuentran alejados de fuentes identificables tales como nubes de ruido complejo, junto con ataques puntuales que nos mantienen cerca de una “superficie” de objetos reales, tales como tonos resonantes similares a los de un tambor. Las texturas cobran vida con cambios en la intensidad paramétrica, particularmente en las distinciones ruido-tono, lo que invita al cambio en la naturaleza del foco de la escucha. La riqueza de la invención y el detalle sonoro son cruciales para tal visión, como lo es el uso apropiado del tiempo expansivo que permite que la escucha activa penetre en ese detalle. Luego, uno podría caracterizar ese abordaje de la forma como un mundo de “momentos disponibles” que se interrumpen y se dividen en capas. Para resumir, Zanési logra un equilibrio entre estasis y movimiento, que mantiene la escucha activa y buscando direcciones, a la vez brindando espacio para la relajación en ese entorno musical en el cual nos sumergimos. La metáfora de un “organismo vivo” en el cual se puede “deambular” mientras se escucha, encuentra también un paralelo en el proceso creativo. La facilidad con la que los materiales sonoros pueden desarrollarse y mutar mediante el

uso de computadoras presenta exactamente el potencial para la investigación extensiva, la reforma y la recombinación de objetos de sonido que Zanési sugiere dentro del proceso que conlleva escuchar.

De hecho, el don del medio electroacústico de otorgar una libertad más amplia para desarmar y rearmar sonidos junto con la toma de conciencia de que dichos sonidos simplemente pueden no responder al procesamiento de la manera que uno imagina que lo harían, o lo necesiten hacer para los propósitos musicales previstos para ellos, es una razón clave, un requisito, para comprender claramente la forma y los principios de creación/formación de la misma.

Comentarios finalesEs importante para el campo de la música electroacústica que se lleve a cabo una búsqueda seria para identificar su innovación formal. Está relacionada íntimamente con el desarrollo de herramientas descriptivas y analíticas per se, pero si por forma entendemos las maneras en las que podemos relacionar lo local con lo global, lo micro con lo macro y la formulación del significado, tomando en cuenta los modos particulares de escuchar fomentados por el género, entonces es esencial un concepto emergente de forma para el desarrollo de nuevos modos de análisis – de otro modo ¿qué es lo que queremos que el análisis busque? Los métodos analíticos frecuentemente buscan identificar características particulares de los sonidos y tipos de relaciones particulares

Page 51: En El Límite - Escritos sobre Arte y Tecnología

en el limite | 51

entre ellos basándose en suposiciones acerca de la naturaleza y función de los materiales “musicales” – y uno de los problemas al analizar la música electroacústica es que frecuentemente se resiste a los métodos reduccionistas tradicionales, en los cuales, por ejemplo, se destacan los modelos complejos de diseño de timbre. Al evaluar los patrones globales de la organización musical, pueden encontrarse las necesidades para el mejoramiento del vocabulario analítico y su aplicación.

Los términos que se utilizan en este documento para esbozar una búsqueda de nuevas formas musicales no son solamente del dominio del trabajo expresamente basado en la tecnología – con testimonio de las raíces de la forma momento como un acercamiento genéricamente más experimental al tiempo tanto en la música instrumental como en los inicios de la música electroacústica, las obras orquestales mórficas de Ligeti o el juego de capas referenciales intrínsecas/extrínsecas en la música de Ives. A pesar de la extensión radical de materiales que el medio electroacústico ofrece, no debería asumirse que es inevitable una ruptura total con los conceptos tradicionales formales. Aun así, la capacidad de la música electroacústica de ayudarnos a encontrar nuevas formas de escuchar dentro de nosotros mismos, requiere una investigación seria de las formas en las que los compositores pueden diseñar esta nueva forma de escuchar. De alguna manera, esta tensión inevitable entre lo tradicional y lo

innovador hace que el tema se vuelva más irresistiblemente atractivo y más fundamental y cohesivamente musical.

Traducción de los alumnos del Traductorado Público en Idioma Inglés: Adriana Coca, Leonel Diorno, Juliana Fernández Casas, Mayra Maldonado, Guido Montesano, Marcelo Ranieri, Bárbara Riccardi, Verónica Romañach y Lucas Traba. Revisado y supervisado por Trad. Publ. Victoria Illas.

Referencias1 La repetición es también una característica del ejemplo de Beethoven, pero solo en la entrada del violín luego de la intervención gesticular corta- corta- larga inicial del piano.

2 Puede discutirse también que los silencios al comienzo de Tongues of Fire son, en términos metafóricos, silencios “ruidosos”, ya que la naturaleza de lo que seguirá a estas articulaciones es difícil de predecir.

3 El momento del aleteo se contesta con ataques dispersos de tonos ambiguos que ofrecen un claro comportamiento conductual de los sonidos de las alas, y éstos cumplen un rol significativo en la posterior evolución textural de la obra.

Page 52: En El Límite - Escritos sobre Arte y Tecnología

52 | en el limite

Bibliografia

Cooke, Deryck (1959) The Language of Music. Oxford: Oxford University Press.

Dack, John (1999) Karlheinz Stockhausen’s Kontakte and Narrativity. eContact 2.2, URL: http://cec.concordia.ca/econtact/SAN/Dack.htm.

Dhomont, Francis (2001) Phonurgie (1998), On Cycle du son, Montréal: Empreintes Digitales, IMED 0158.

Grabócz, Marta (1997) Survival or Renewal? Structural Imagination in Recent Electroacoustic and Computer Music. Organised Sound, 2:83-95.

Hill, Peter (ed.) (1995) The Messiaen Companion, London: Faber.

Kendall, Gary S. (2008) What is an Event? The EVENT Schema, Circumstances, Metaphor and Gist.” Belfast: Proceedings of the 2008 International Computer Music Conference. También en la URL: http://www.garykendall.net/papers/KendallICMC2008.pdf

Kramer, Jonathan (1978) Moment Form in Twentieth Century Music. The Musical Quarterly, 64 (2): 177-194.

Kremer, Gidon and Argerich, Martha (1994) Beethoven Violin Sonata in C minor, op. 32 no. 2. Deutsche Grammophon 453 743-2.

McAdams, Stephen (1989). Psychological Constraints on Form-Bearing Dimensions in Music. Contemporary Music Review, 4:181–198. Also at URL: http://mediatheque.ircam.fr/articles/textes/McAdams89a/

Murail, Tristan (2005) The Revolution of Complex Sounds. Contemporary Music Review, 24: 2, 121-135.

Smalley, Denis (1986) Spectro-Morphology and Structuring Processes, in S. Emmerson (ed) The Language of Electroacoustic Music, London: Macmillan, 61-93.

Stockhausen, Karlheinz (1991) Stockhausen on Music. London/NY: Marion Boyars.

Tenney, James (2006) Meta Hodos and Meta Meta Hodos: A Phenomenology of 20th-century Musical Materials and an Approach to the Study of Form. Lebanon, New Hampshire: Frog Peak Music.

Viñao, Alejandro (1994) Chant d’Ailleurs (1991) for soprano and computer, on Hildegard’s Dream, [Paris]: INA-GRM, INA C 1015.

Wishart, Trevor (1994) Audible Design: A Plain and Easy Introduction to Practical Sound Composition York: Orpheus the Pantomine.

Wishart, Trevor (1994) Tongues of Fire. York: Orpheus The Pantomime.

Zanési, Christian (1996) Stop ! l’horizon (1983) on Stop ! l’horizon, [Paris]: INA-GRM, INA C 2001.

Page 53: En El Límite - Escritos sobre Arte y Tecnología

en el limite | 53

Simon Emmerson MTIMusic, Technology and Innovation CenterDe Monfort University

¿Qué es el análisis?A los fines de esta discusión, la pregunta “¿qué es el análisis?” equivale a “¿cuál es la función del análisis? – ¿cuál es su utilidad?”1 Lo que es, es simplemente la articulación de lo que hace.

Existen muchas razones y finalidades en el análisis de una obra musical, de las cuales podemos mencionar tres:Para aprender técnicas de composición – al menos con la aspiración de alcanzar una meta, aun cuando no estemos seguros de cómo el compositor llegó al resultado final.Para conocer cómo “funciona” la música: la relaciones de las partes con el todo. Para aprender de qué manera tiene determinado efecto en el oyente. Esta cuestión puede tener dimensiones psicológicas, neurológicas y semióticas.

Estas tres preguntas genéricas corresponden, en líneas generales, a los tres polos de comprensión del “hecho musical en su totalidad” (poiético, estésico y el denominado neutro) de Jean-Jacques Nattiez (1990)2. Nattiez intentó diluir la diferencia entre la notación musical tradicional de una obra como Tristan und Isolde y la ejecución de los juegos musicales de garganta (katajjaq) de los Inuit. A la postre, ambos existían en el tiempo, pero

quedarían reducidos a su representación fuera del tiempo a los fines del discurso analítico.

En consecuencia, el análisis siempre remite a un objeto aparentemente fijo: la representación. Más aún, esta representación constituye una forma de reducción de datos. Es necesario disminuir el flujo de información a lo esencial, lo cual depende de la función que cumpla el análisis. Esta es la razón por la cual el análisis de una obra que utiliza la notación musical occidental es según parece tan eficiente, porque es muy pobre y puede sintetizar lo que de otra forma produciría una gran cantidad de información. El análisis de un sistema de notación musical es (tautológicamente) el análisis de lo que ese sistema representa. Por supuesto, no se puede analizar lo que ese sistema excluye.

Pero, inadvertidamente, estamos omitiendo otro nivel de análisis sobre lo que hay que incluir y lo que no hay que incluir, es decir, ¿qué es exactamente “la obra”? ¿Cómo podemos precisar con exactitud una idea tan difícil, especialmente con relación a la música electroacústica? Un volumen de próxima aparición de la publicación Organised Sound se denominará “organizando música electroacústica”3, dejando de manera deliberadamente ambigua quién lo organiza y con qué propósito. ¿Es necesario al fin y al cabo que haya una “obra” para responder a esta pregunta?

¿Qué es la obra?El análisis de la música electroacústica (y acusmática) no ha desarrollado un paradigma: ¡ni siquiera uno para criticar o rechazar! Más aún, los paradigmas y métodos en oposición que comúnmente se encuentran con respecto al arte musical occidental son de dudosa utilidad fuera de esa tradición.

Stéphane Roy (2003) ha cotejado y evaluado un amplio rango de técnicas analíticas, en un intento por sugerir relaciones. Este trabajo se basa, significativamente, en las fuentes de la tradición francesa de Delalande (2001) así como también en la británica (Smalley, Dack, Ten Hoopen) y americana (Slawson, Cogan). Esta apertura del campo analítico se encuentra más sintetizada en el reciente libro de Leigh Landy: Understanding the Art of Sound Organisation (2007). En el capítulo 3 (“Toward a Framework for the Study of Sound-based Artworks”), Landy trata de asimilar una amplia variedad de peculiaridades y enfoques, mediante la creación de una taxonomía de descriptores de herramientas y palabras. En este caso, ya no se ignora el contexto de ejecución ni el rol del oyente. El próximo paso sería la rigurosa aplicación del marco a un amplio espectro de géneros y prácticas.

La tradición alemana más idealizada se basa, principalmente, en el conocimiento del proceso de composición y en las intenciones del compositor. Rudolf Frisius ha manifestado que él “no puede” escribir sobre una obra hasta que haya visto sus bosquejos y todo el material

Música Electroacústica¿qué clase de discurso analítico necesitamos?

Page 54: En El Límite - Escritos sobre Arte y Tecnología

54 | en el limite

disponible del compositor4. Esta perspectiva parece ser un intento de justificar una cosa con la otra; el conocido auto-análisis de Stockhausen es exactamente así. La obra se estructura de esta forma - ¡así es como es! El sentido perceptivo del ser humano se encuentra en evolución y llegará un momento en que alcanzará a captar lo que está dentro la obra.

En los enfoques de la nueva ola que sucedió a la revolución de la computadora portátil, Nick Collins (2008) ha sugerido distintas formas en las que podemos abordar tanto la performance como la composición interactiva abierta y generada electrónicamente. Nick Collins plantea un alegato significativo:

“Creo haber aportado alguna justificación para el tratamiento de los programas y las producciones, y creo haber señalado la necesidad de establecer un puente entre el proceso y el producto si es que sinceramente queremos analizar y explorar los programas algorítmicos de música”. (pág. 242)

Analizaré esta división5 más adelante.

Es evidente que no todos estos elementos se refieren al mismo objeto, pero ¿acaso se refieren al mismo sujeto?

¿Dónde está la obra?Si bien recordamos que hay otra musicología que tiene problemas con la propia idea de “obra” (más adelante volveremos sobre esto), aún en la tradición occidental ha habido dificultades para identificar dicha

idea, fuertemente ligada a la noción de una partitura fija que está “fuera del tiempo”. Toda música que se aleja de esta noción “tiene un problema”. Aparentemente, el componente trascendental se ha diluido.

Los intentos para reemplazarlo involucran tanto la descripción como la trascripción. Pero esta descripción está muerta si se la compara con la que la antecede – normalmente no puede generar ningún sonido. Puede aplicarse con éxito a la música – si leo detalladamente, digamos, Auffürungspartitur de Stockhausen para Kontakte, o la detallada trascripción llevada a cabo por Andrew Lewis (1989) de Pentes de Denis Smalley, creo poder afirmar que tengo una experiencia similar a la de Brahms cuando supuestamente dijo: “La mejor interpretación es aquella que escucho en mi cabeza cuando leo la partitura”, pero debo ser más honesto, esto resulta un tanto vago e impreciso. La información espacial exacta (para mí) a menudo se pierde. Pero no estoy haciendo lo mismo que Brahms. La partitura no “genera” el sonido en un “orquestador interior” imaginario, simplemente activa la “memoria asociativa” de densidad espectromorfológica, dinámica, etc. De hecho, muchas de las formas parecen iguales y, al ser despojada de cualquier connotación temporal, mi memoria puede fallar por completo y no “activarse” cuando veo la forma. (En realidad, esto es lo que sucede la mayoría de las veces cuando sigo la partitura tradicional. No soy un buen lector de partituras; más que a menudo la

partitura actúa como disparadora de recuerdos de grabaciones o ejecuciones que ya he escuchado, pero no como generadora).

¿Lo idealizado (“aquello que trasciende”) o lo real (“aquello que ocurre ahora”)?Existe una frustración en el análisis de la música que gira en torno de este punto. El análisis de una interpretación (de una pieza de jazz, por ejemplo) puede examinar la música en relación a la forma en que los instrumentistas se han complementado y han interactuado entre ellos o puede analizar el sonido como tal, o los modos y elaboración de las alturas. Cualquiera sea el balance que se haga de una versión particular de la obra, la forma “estándar” del texto (que los instrumentistas normalmente memorizaron) nunca se considera como una versión ideal, sino como un esquema sobre el cual los instrumentistas construyen su interpretación personal.

Para que una entidad trascienda en el tiempo, se convierte en un objeto en el espacio (e incluyo una “idea” sobre este punto de vista)6. Aunque aun en este caso haya cierto grado de idealismo, todos los objetos están sujetos al tiempo y, por lo tanto, a la descomposición y desaparición final o transformación. Pero para nuestra experiencia de corto plazo, la distinción sigue siendo significativa.

Merleau-Ponty hizo el siguiente comentario: “No se observa una escena de la misma manera que se observa una cosa en forma

Page 55: En El Límite - Escritos sobre Arte y Tecnología

en el limite | 55

individual. Mi mirada da vueltas dentro ella. En lugar de no verla, veo de acuerdo a ella o por medio de ella… 7 “(de L´oeil et l´esprit, citado en Bayle 1993, pág. 186). Así, los objetos son los que definen nuestra mirada, no a la inversa. (Tomo el concepto de la “cosa individual” de Merleau Ponty como algo que se puede ver en su totalidad sin mover o reenfocar los ojos). Pero no se puede ver la totalidad de una pieza musical, excepto en lo que recordamos de ella; posee “prolongación” solamente en el espacio de la memoria.

Están quienes creen que es precisamente en esta “lucha por la abstracción” donde radica la esencia de la música occidental –su fracaso para lograrlo no es el punto. Desde esta perspectiva, la obra entonces existe independientemente de todas las manifestaciones reales. Estas constituyen meras aproximaciones a esta versión “eterna”8. Por ejemplo, en la observación de Brahms citada anteriormente, su oído interior “contenía” una orquesta del siglo XIX, aún más afinada y mejor armonizada en comparación con la “real”. Si “existe” una interpretación ideal no significa que Brahms creyera que la había. El no hizo comentarios sobre el hecho de que la orquesta de Don Giovanni era sustancialmente diferente de la que él conoció un siglo después, fundamentalmente en términos de tamaño, potencia y, por lo tanto, timbre (pero también en la forma en que los directores de orquesta del siglo XIX incrementarían el tamaño de la secciones para una mayor proyección en sus

grandes salas de concierto). Pero la partitura era (esencialmente) la misma. Seguía siendo la principal generadora del sonido imaginado9.

Por otra parte, toda mi vida he considerado la partitura de una ópera de Mozart como prescriptiva, es decir, como un conjunto de instrucciones para producir la obra. Si bien es literalmente cierto, hay otra posible interpretación, que es también una descripción de la obra idealizada y que es, por lo tanto, imperfecta y defectuosa porque está incompleta.

¿La música acusmática es su propia interpretación idealizada?¿Cuánto más podríamos acercarnos al ideal si contáramos con una grabación? No demasiado si se trata de una grabación de la interpretación de una obra con partitura. Sin embargo, una obra acusmática es una grabación y (cuando está fija en un soporte)10 un tipo de interpretación a la vez.

Ahora contamos con avances interesantes. Por primera vez, podemos reproducir al oído una composición acusmática de manera idéntica (o muy cercana) mediante iPods múltiples que reproducen un composición acusmática, por ejemplo, con la misma clase de auriculares a una gran cantidad de individuos. Por supuesto, nuestros sistemas de perceptivo/auditivo son distintos, pero al menos sabemos que estamos compartiendo un elemento en común. Esto plantea un nuevo interrogante: ¿esta interpretación “ideal estándar” es la

que desea el compositor? Con seguridad, no siempre…se supone que el uso de auriculares no influye en la actitud de quien escucha – por supuesto, se hace cada vez más común el uso de auriculares para las instalaciones de sonido y algunas producciones experimentales (ambisonic). Sin embargo, excluyen un nivel interactivo de percepción con otros miembros de la audiencia, el ambiente de la sala (clima), etc. Escuchar música puede ser una actividad solitaria dentro de su multiplicidad. La música deja de ser una experiencia compartida para fragmentarse en múltiples experiencias individuales (no utilicé los términos “unificadas” ni “singulares”).

Respuesta desde la musicologíaétnica y los estudios de música popular“en contra de la obra, peroa favor del trabajo”Philip Tagg formuló claramente las grandes dudas de quienes escriben sobre música popular con respecto al concepto de “obra”: “El problema es que me sentí imposibilitado de usar el término “obra” para designar este concepto (…) y la mayoría de los estudiosos de la música popular evitan esta noción”. (Tagg 2000, pág. 154). Su ensayo pretende conseguir un equilibrio en la terminología “…para que las diferentes alternativas puedan basarse en principios musicales, históricos, sociales y lingüísticos más firmes de lo que usualmente ocurre con otros términos empleados por los académicos de la música popular” (pág. 154). Existen claras similitudes y diferencias con el análisis de la música electroacústica. Nos

Page 56: En El Límite - Escritos sobre Arte y Tecnología

56 | en el limite

encontramos examinando una tradición auditiva (difícilmente “oral”) sin una partitura escrita, por un lado, mientras que por el otro lado, la interpretación es claramente menos personal y mantiene el sello distintivo del “arte elevado”. Aunque aquí también radica el problema de la relación entre la nueva corriente experimental electrónica y la IDM –ésta ha heredado la perspectiva de la “música como interpretación”, propia de la música popular, donde a grabación es un medio y no un fin. Desde su punto de vista (y el de otros autores), la priorización del texto por encima de la performance conduce a un tipo de adaptación, considerada como “universal” y meta-histórica y (potencialmente) a un imperialismo estético como resultado11.

La paradoja de la desarticulaciónLa paradoja de la ejecución de una obra acusmática radica en la constancia final de la “pista grabada” (el conjunto de dígitos que constituyen el generador del resultado sonoro). La interpretación puede estar constituida por una difusión a través de muchos parlantes, pero también puede incluir, si tomamos en cuenta la noción más abarcativa de musicking (1998) planteada por Christopher Small, ejecuciones personales (e incluso privadas) en el hogar con un reproductor estéreo. Una buena difusión claramente realza la obra (y una difusión deficiente la devalúa); la noción de interpretación sigue presente, pero observemos su significado de una manera más sofisticada.

Una de las críticas más frecuentes es que no existe el control sobre el timbre –éste se

encuentra codificado a priori, según argumentan, en la pista grabada. Sin embargo, el espacio y la amplitud, así como las condiciones de la sala, la marca de los parlantes, la disposición y la direccionalidad, pueden afectar profundamente el impacto tímbrico final en el oyente. Acepto que durante los primeros cincuenta o sesenta años del género, el tiempo ha sido inexorablemente fijo, pero es perfectamente posible que surjan sistemas que ajusten esta escala de tiempo (“velocidad”) a, por ejemplo, la acústica de la sala (como lo haría cualquier especialista barroco al cambiar de una sala pequeña a una catedral).

Pero mientras se podría sugerir que esta interpretación es un verdadero logro humano, posee claramente (en la actualidad) una naturaleza diferente a la de las interpretaciones del mundo acústico. Interviene un mecanismo de retroalimentación auditivo, y no físico. Escuchamos y ajustamos (es cierto que un instrumentista también hace esto), pero (a diferencia del instrumento) los sonidos que producimos no causan una reacción háptica. Se establece un claro paralelo con el director del conjunto, sólo que en ese rol la fuente está compuesta por una serie de señales sin contacto físico.

La técnica más cercana a la de la difusión del sonido es la del pianista. Ninguna nota individual tiene demasiadas posibilidades de control tímbrico a partir de una digitación individual: solamente la combinación de velocidad

compleja y señales de tiempo con movimientos sutiles de los pedales crea las resonancias tímbricas del sonido del piano. Por lo tanto, también en nuestra disciplina, la difusión es la combinación compleja de objetos que producen sonidos en el espacio y consecuentemente en el tiempo. Esto destruye deliberadamente muchas de las sutilezas de la coherencia de fases, que constituye la razón por la cual las piezas ambisónicas y binaurales y, más recientemente, las versiones 5.1 de las obras requieren de un cuidado especial para preservar lo más importante de estos aspectos12.

Pero nuestro análisis retorna tenazmente a la idea de que hay algo más estable, más inmutable en una obra acusmática. Nosotros, francamente, no creemos que exista una variación de posibles resultados semejante a la de una interpretación de Mozart. Aunque esto podría ser el producto de una fase histórica de la música acusmática, una fase en la que el dominio del tiempo fuera inexorablemente fijo. ¿Qué ocurre con aquellos géneros que admiten un elemento “en vivo” de control de tiempo y de nivel de la misma manera que una partitura tradicional (y tal vez incluso en mayor medida)?

El análisis de la obra abiertaCasi de forma inevitable, el análisis de una obra abierta depende cada vez más del análisis de sus instancias, es decir, sus diferentes interpretaciones. Obviamente, también es posible el análisis de la partitura de, por ejemplo, Variations IV de John

Page 57: En El Límite - Escritos sobre Arte y Tecnología

en el limite | 57

Cage. El análisis de la obra abierta relaciona no tanto procedimientos generativos, como ser las “notas”, sino que posibilita estrategias, oportunidades y posibilidades. Si tomamos la definición básica de “abierto” como algo que de hecho requiere de una interpretación o, por lo menos, de una “versión”, preparada para completar el trabajo, entonces tenemos varias definiciones alternativas de “la obra”: desde la partitura, la versión preparada13, hasta la interpretación.

Algunas personas podrían argumentar que ninguna de éstas constituye una “obra” en absoluto, según la percepción que surgió a principios del siglo XIX. La frase es un oxímoron; lo único que podemos hacer es evaluar las ejecuciones, las instancias de la práctica. No hay generalización ni abstracción; por consiguiente, no hay “obra”. Esto sugiere, una vez más, la posibilidad de dos opciones: evaluar un proceso y no un producto. O, si insistimos en tomar el objeto como enfoque principal, entonces podríamos comparar (por así decirlo) varias composiciones de la partitura de Cage para poder ver qué es lo que tienen en común (si es que hay similitudes). Tal vez eso revelaría nuestro idealizado Variations IV - inalcanzable como toda obra perfecta. Aquí nos interiorizamos en un mundo platónico, pero provocador. ¿El ideal Variations IV existe de la misma forma que el ideal De Natura Sonorum o Kontakte? ¿Tenemos una especie de entidad platónica empírica no disponible a priori para nosotros, pero construida desde la observación?

No todas las obras abiertas son indeterminadas - tal vez otra frase resultaría más apropiada. Cualquier intento para describir fuera de tiempo las etapas de trabajo de Steve Reich (ya sea una cinta instrumental o acusmática) necesitará claramente representar de alguna manera el “argumento” musical de la obra.14 ¿Pero cómo se puede realizar una notación musical de un fenómeno fundamentalmente psicoacústico? Semejante pregunta retórica para este simple ejemplo sólo empeora cuando se analiza la representación de sonidos complejos dentro de la música a base de sonidos.

Existen varias relaciones aparentemente imposibles:

Las representaciones de amplitud (dominio del tiempo) y las de FFT (dominio de la frecuencia) no nos dicen mucho sobre lo que percibimos (aunque sí nos dicen algo al ser interpretadas…)

Las transcripciones evocativas no nos aportan suficientes detalles de constitución y sustancia, y nos brindan, generalmente, sólo un gráfico superficial de “percepción de impacto”. Estas transcripciones son notoriamente subjetivas (y frecuentemente “incompletas” – dado que la información se reduce a lo mínimo necesario para poder llevar a cabo la tarea en cuestión). El Acousmographe combina estas tres en una representación múltiple que es un modelo de dicha filosofía. La neurociencia, en vías de desarrollo, puede dilucidar la relación entre las

descripciones acústicas y las perceptivas –en la actualidad, la transcripción evocativa se determina subjetivamente y es ésta con la cual uno sueña poder automatizar – por lo menos, ésa es la primera reacción, aunque puede llegar a ser muy apresurada. Tal vez sea en las nuevas riquezas de la gloriosa subjetividad (es decir, la variedad) de las posibles transcripciones evocativas en donde yacen las bases para el análisis. La transcripción automatizada sería uniforme, pero ¿quién dice que todos escucharán la obra de la misma manera que yo? Las diferentes escuchas tal vez revelen diferentes atributos sonoros en la percepción: el detalle dentro de la textura, la textura dentro del gesto y así sucesivamente. La denominada descripción objetiva no debe reemplazar sino complementar la descripción subjetiva, que tiene una raíz y una meta diferentes15.

Forma y formación, obra y elaboraciónDenis Smalley parece evitar la noción de forma, reemplazándola con la idea de una cadena de funciones que fluyen a través de los procesos de composición locales (1986, págs. 84-88)16. La forma, en este sentido, parece ser el resultado inmanente del proceso de formación de la obra. Desde este punto de vista, la obra sólo puede existir en la memoria (no debemos olvidarnos que ésta es una representación atemporal, congelada y espacial del flujo de tiempo que se almacena en algún lugar de nuestra corteza cerebral luego de sucedido el acontecimiento). Reificar la estructura arquitectónica de la obra, según se dice, es peligroso, dándole cierto estatus de

Page 58: En El Límite - Escritos sobre Arte y Tecnología

58 | en el limite

autonomía cuando no puede, y no debería, escapar de los materiales a partir de los cuales está constituido.17 Este miedo tiene algo de cierto. Después de que A B Marx “inventó” la sonata en 1845, se enseñó hasta cierto punto como una forma y no como una variedad de procedimientos musicales evolutivos (Charles Rosen (1988) ha argumentado que esta es la única manera de poder comprenderlo por completo).

Entonces si vemos a la forma de esta manera, tal vez podremos hacer lo mismo con la obra. ¿Es la obra un resultado inmanente de la elaboración, es decir, de algo fijo solo después de su formación? ¿Hemos reificado de forma similar un proceso hacia un objeto? Simplemente, podemos decir que esto resulta inevitable. Me refiero, solamente y por mera necesidad, a la obra como una muestra de identidad. Vamos más allá de esta simple designación hacia el análisis de lo que la obra realmente es.

La idea de obra como objeto enfatiza la igualdad potencial de todos los elementos por encima del tiempo, mientras que, por supuesto, la “sección final” se encuentra profundamente influenciada por la memoria inmediata de lo que ocurrió previamente. El proceso acumula memoria, pero sólo en una dirección; la contemplación de un objeto también puede lograrlo, pero con accesos aleatorios y a través de la re-exploración de un aspecto visto anteriormente. Entonces, ¿cómo hacemos para representar una repetición, por ejemplo? ¿Simplemente repetimos gráficamente lo que sucedió antes? Esto representa el objeto

que vemos de forma repetida, pero no el proceso o el efecto de la repetición en sí misma.

Quisiera desviar este argumento en sentido contrario por un momento. Tomemos la obra de Stockhausen, Telemusik, que (reconocida por la partitura y las publicaciones del compositor) sabemos fue construida a partir de una serie pre-estructurada de “cuadros” (frames) (de duraciones del número de Fibonacci). De hecho, detrás de la forma en que están distribuidos los numerales resulta el modelo de la onda con sus “armónicos”18 - cuya periodicidad determina la distribución y la secuencia de los números. La teoría actual de la onda sonora (ya sea acústica o no) puede tener dos tipos de representación. Imaginemos una onda sonora acercándose a nuestro oído: una representación en el dominio del tiempo, es decir, un rastro que representa la modificación de la presión a través del tiempo en un punto en el espacio; y una representación en el dominio del espacio que representa la presión a través de un espacio acordado en algún momento del tiempo. Solo en ciertas circunstancias pueden reducirse una a la otra. No constituyen lo mismo. El objeto (dominio del espacio) podría verse como el resultado del proceso (dominio del tiempo).

ConclusiónEl análisis debe tomarse como una disciplina múltiple, incluso como una “interdisciplina”, según Pierre Schaeffer. No puede haber un único paradigma para el análisis de la música electroacústica. La base en donde radica “la obra”

puede ser fugaz y flexible, y para algunos géneros la interpretación la desplazará como objeto de discusión. La explicación no es universal – el para quién es y para qué es modificará la naturaleza del análisis de forma sustancial.

Un alejamiento de la evaluación de textos y gráficos sin sonido (que, a diferencia de sus predecesores, ni siquiera definen al sonido en la ejecución) hacia la base auditiva del discurso analítico coincidirá de manera más clara con los orígenes de la música en los procesos de grabación y audición en sí mismos. Esto no significa que la información gráfica y escrita desaparezca, sino que no continuará siendo el foco de atención. Desde una perspectiva general, el texto es una forma de grabación. A la inversa, ha llevado un tiempo considerable el poder evaluar las posibilidades de que la grabación reemplace al texto como la herramienta principal del discurso analítico. Ambas formas son, por supuesto, complementarias19.

Traducción de los alumnos del Traductorado Público en Idioma Inglés: María Rosa Tosi, Brenda Solernó, Analía Carballo. Revisado y supervisado por Trad. Publ. Mariela Santoro.

Page 59: En El Límite - Escritos sobre Arte y Tecnología

en el limite | 59

Referencias1 Por supuesto, no se debe confundir con el análisis funcional.

2 Realizo un análisis sobre estas ideas con mayor amplitud en lo que respecta a la música electroacústica en Emmerson (2008).

3 A propósito de esta frase, una no-organización de Cage se incluye como una forma de organización.

4 Comentario personal hecho público en un simposio en Colonia (2007).

5 La discusión acerca de cómo entender el resultado o “cómo llegamos a él” nunca es tan puntual como en el área de la música electrónica en vivo e interactiva. Aquí podemos tener la partitura, el detalle de los patches de procesamiento, etc., para tener en cuenta además de los archivos de sonido y el resultado sonoro.

6 Aquí quiero evitar un argumento demasiado filosófico sobre la relación espacio-tiempo: quiero explicarlo de manera simple. Una onda sonora existe en el espacio, pero solo por un tiempo limitado. Su percepción (como el sonido propiamente dicho) tiene lugar dentro de los confines de la corteza cerebral de donde es enviado (más o menos) a la memoria: una entidad neurológica espacial.

7 “Le tableau nee se regarde pas comme on regarde une chose. Mon regard erre en lui. Je vois selon ou avec lui plutôt que je ne le vois…”

8 Lydia Goehr analiza extensamente esta tradición en Goehr (1992).

9 Hay quienes podrían querer reinstalar la imaginación a priori de los sonidos que se espera sean sintetizados para el compositor, en contra del ciclo más experimental de la tradición de la musique post-concrète “escuchar/experimentar/elegir”.

10 Tengo la incómoda convicción de que la era de las obras acusmáticas de duración fija pueden haber dado paso a

una mayor flexibilidad en las decisiones expresivas

del tiempo en la interpretación. No me refiero a las obras “mixtas” abiertas, sino simplemente a un archivo de sonido con deslizamiento temporal en ejecuciones donde puede reconocerse que se mantiene “la misma” obra.

11 En Emmerson (2007), analizo como podríamos responder a esta cuestión e integrar algunos de los puntos.

12 La difusión de una imagen estéreo simple por medio de una serie de parlantes destruye la estabilidad de la teoría de estéreo de Blumlein. Pero en la práctica parece funcionar, o sea, parece realzar nuestro sentido del espacio, profundidad y amplitud en el sonido. Esto puede deberse a que un grado de delay y modulación de fase (phasing o filtro en peine) es aceptable y, de algún modo, hasta atractivo, ya que imita el efecto de los límites reales de sala, las reflexiones y el “sentido del espacio” (estar allí).

13 Esto fue puesto de manifiesto en una exhibición (Notation. Calculation and Form in the Arts) realizada en el museo ZKM (Karlsruhe) en el año 2009, que incluyó versiones de Eberhard Blum (para flauta extendida) de algunas de las partituras de Variations de John Cage, preparadas meticulosamente para su ejecución.

14 Es una ficción del análisis de la música occidental tradicional que las notas de la partitura encapsulen este “argumento”. Pero muy pocos teóricos y compositores de música electroacústica han intentado llevar a cabo un análisis basado en el sonido de obras no electroacústicas.

15 Aunque en una futura y horrenda versión de Google/Amazon – tal vez exista un software que reconozca a cada individuo y de esa forma realizaría una transcripción evocativa que sea “personal”.

16 En Emmerson (1989), se pueden encontrar observaciones más personales de Smalley sobre la composición Pentes.

17 John Young (2004) trata de unificar a ambos con su idea de “la morfología del sonido como un catalizador estructural” mientras se mantiene fuertemente arraigado en el proceso de percepción.

18 Este modelo puede encontrarse a menudo en las obras de esta época de Stockhausen – más notablemente en Zyklus.

19 Se puede observar un gran avance en esta dirección en la combinación de ejemplos de sonido y de gráficos (del Acousmographe) de Bayle & Thomas (2008). Mientras esto se mantiene en la obra de Bayle, se ha podido demostrar una referencia cruzada dinámica entre varios géneros e historias por medio de la marcación en paquetes audiovisuales interactivos (Clarke 2006 y D’Escrivan & Jackson 2008).

Page 60: En El Límite - Escritos sobre Arte y Tecnología

60 | en el limite

Bibliografía

Bayle, François (1993). musique acousmatique – propositions … positions. Paris: Buchet/Chastel.

Bayle, François & Thomas, Jean-Christoph (2008).Diabolus in Musica. (book + DVD-ROM). Paris: Magison.

Clarke, Michael (2006). ‘Jonathan Harvey’s Mortuos Plango, Vivos Voco’ in Simoni (ed.) Analytical Methods of Electroacoustic Music. New York: Routledge.

Collins, Nicholas (2008). ‘The Analysis of Generative Music Programs’, Organised Sound 13(3) pp.237-248.

Delalande, F. (2001): Le son des musiques. Paris: Buchet/Chastel.

D’Escriván, Julio & Jackson, Paul (2008). ‘Applied Plunderphonia: tagging electronic music with electronic music’. Proceedings of the EMS08 Conference (Paris). http://www.ems-network.org/ems08/paper.html

Emmerson, Simon (1989). ‘Pentes: a Conversation with Denis Smalley’, Electroacoustic Music (Journal of the Electroacoustic Music Association of Great Britain) 4 (May 1989), pp.15-25.

Emmerson, Simon (2007). ‘Where next? New music, new musicology’, Proceedings of the Electroacoustic Music Studies Network Conference 2007 (EMS-07), Leicester.http://www.ems-network.org/spip.php?article293

Emmerson, Simon (2008). ‘Where is ’the work’ of electroacoustic music? How can we examine it?’, Proceedings of the Symposium ‘Elektroakustische Musik - Technologie, Ästhetik und Theorie als Herausforderung an die Musikwissenschaft’, University of Leipzig (September 2007), Essen: Verlag Die Blaue Eule, 2008, pp.35-46.

Goehr, Lydia (1992). The Imaginary Museum of Musical Works: An Essay in the Philosophy of Music. Oxford: OUP.Goehr, Lydia (2000). ‘‘On the Problems of Dating’ or ‘Looking Backward and Forward with Strohm’’ in Talbot, M. (2000), pp.231-246.

Landy, Leigh (2007). Understanding the Art of Sound Organization. Cambridge: MIT Press.

Lewis, Andrew (1989). ‘Amplitude and Frequency Slope Profiles in Denis Smalley’s Pentes’, Electroacoustic Music, 4(1-2), pp.26-32.

Nattiez, Jean-Jacques (1990), Music and Discourse, (tr. Carolyn Abate), Princeton: Princeton University Press.Rosen, Charles (1988). Sonata Forms (revised edition). New York: Norton.

Roy, Stéphane (2003). L’analyse des musiques electroacoustiques. Paris: L’Harmattan.

Small, Christopher (1998). Musicking – The meanings of performing and listening. Hanover: Wesleyan University Press.Smalley, Denis (1986). ‘Spectro-morphology and Structuring Processes’, in Emmerson, Simon (ed.), The Language of Electroacoustic Music. Basingstoke: Macmillan, pp.61-93.

Tagg, Philip (2000). ‘’The Work’: an Evaluative Charge’ in Talbot (2000), pp.153-167.

Talbot, Michael (ed.) (2000). The Musical Work: Reality or Invention? Liverpool University Press.

Young, John (2004). ‘Sound Morphology and the Articulation of Structure in Electroacoustic Music. Organised Sound 9(1), pp. 7-14.

Page 61: En El Límite - Escritos sobre Arte y Tecnología

en el limite | 61

Alejandra V. Ojeda Colaborador: Julio E. MoyanoUniversidad Nacional de Lanús

Hemos ingresado al siglo XXI habituados a una herencia de conceptos sonoros rica y amplia, herencia que nos invita al desafío de continuar las indagaciones sobre el lenguaje sonoro iniciadas en el siglo XIX, a partir de las grandes transformaciones científico-técnicas y culturales en torno a este campo1. Tal marcación histórica no implica de modo alguno suponer que la problemática de la comunicación sonora posea un linaje histórico tan breve: la comunicación sonora acompaña a la humanidad desde sus inicios, manifestándose como lenguaje verbal, como producción y reconocimiento de sonidos diversos originados en la vida natural y en la social, y como fenómeno musical. Pero es en la era industrial y sus grandes cambios socio-culturales y científicos que constituye los tópicos decisivos de un campo científico autónomo. El lenguaje verbal ha sido largamente estudiado en los últimos siglos, primero por la filosofía y la filología, más recientemente por la semiótica. Su rol decisivo en la configuración y transmisión de la cultura, en la configuración de la escritura y por lo tanto de la Historia, lo tornan el lenguaje humano por excelencia, y por ello, objeto de un tratamiento distintivo por parte de los estudiosos de los signos: su doble articulación, su equilibrada tensión entre continuidad y cambio, entre transmisión y consenso, entre lengua y habla lo distinguen de otras formas

de comunicación humana existentes en la vida social. En tal sentido, es interesante notar como la semiótica saussuriana se ha preocupado en distinguir los distintos aspectos de la sonoridad del lenguaje verbal como rasgos accesorios que no hacen al funcionamiento esencial del sistema (Saussure, 1945).

Dentro del campo de lo sonoro, pues, la semiótica ha considerado al lenguaje verbal como un objeto de estudio radicalmente distinto de otras formas de expresión sonora humana, como serían la interpretación de sonidos naturales, la creación de sonidos no verbales para la comunicación, y las distintas formas y funciones de la música. Las semiologías del siglo XX coinciden en el carácter central del lenguaje verbal para la cultura, y nadie dudaría, precisamente, de su condición de lenguaje. Sobre los otros modos de comunicación sonora existen, en cambio, numerosas dudas y puntos de vista largamente discutidos y no necesariamente saldados en la actualidad. Cuando hoy en día utilizamos el término “semiótica sonora” nos estamos refiriendo a estos últimos modos, y no al lenguaje verbal, aunque se sobreentiende que este lenguaje depende necesariamente de un soporte sonoro y del oído para existir.2

El propósito de este artículo es reflexionar sobre estos últimos modos considerando su posible condición de lenguaje, esto es, su posibilidad de constituir un conjunto articulado de signos que pueda viabilizar

una comunicación intencional a través del sentido del oído, haciendo abstracción del lenguaje verbal, cuya condición de lenguaje no es puesta en discusión. Utilizaremos para ello la clasificación de signos propuesta por Charles S. Peirce para la construcción de una teoría semiótica general, en tanto constituye uno de los dos pilares clásicos de la semiótica contemporánea, y dada su notable eficacia tanto para la reflexión teórica como para la intervención profesional en campos de producción sígnica por fuera de la lengua3 en sus versiones verbal y escrita.

Para ello tomaremos como unidad de análisis cualquier evento sonoro que se constituya en signo, y el único requisito para que esto ocurra es –siguiendo la hoy clásica definición de Peirce- que ese evento sonoro4 signifique “algo para alguien en alguna relación o sentido”5. Basarnos en esta definición nos permitirá superar algunas dicotomías que suelen presentarse al momento de pensar lo sonoro como podrían ser arte/información, intencional /no intencional, codificado/no codificado, espontáneo/planificado pues tales dicotomías provienen de analizar al signo exclusivamente como instancia de producción basada en un consenso sistemático y explícito, en tanto que la definición peirciana que hemos tomado nos permite entender al signo no como una producción a priori del sentido, sino como el proceso mismo de significación. No se trata pues, de que algunos sonidos sean a priori signos y otros no, sino de analizar bajo qué circunstancias cualquier sonido –o silencio- se constituye en signo.

El signo sonoro y su clasificaciónUn análisis desde la semiótica de Peirce

Page 62: En El Límite - Escritos sobre Arte y Tecnología

62 | en el limite

Muchos escritos de la semiótica sonora se han orientado a lo largo de la segunda mitad del siglo XX al estudio de las manifestaciones artísticas, tratando de indagar qué operaciones de significación ocurren y por qué. Tal es el caso de los trabajos de Pierre Schaeffer (1966) en su Tratado de los Objetos Musicales y de Michel Chion (1983), Nattiez (1990) o dentro de la música tonal, instrumental y/o cantada los estudios de Ruwet (1974), Meyer (1973) o desde fuera del campo musical Roland Barthes (1970/1976) o Emile Benveniste (1982) en los cuales se intenta formular modelos de lectura e interpretación que echen luz sobre el lenguaje musical y su forma de comunicar. En el caso de Emile Benveniste, retomando la tradición saussuriana, se produce una definición de música que alcanzará amplia difusión entre los semiólogos que no provienen del campo musical, describiéndola como un sistema que no posee doble articulación y por lo tanto no puede ser considerado un sistema semiótico “La lengua es el único sistema cuya significancia se articula, así, en dos dimensiones. Los demás sistemas tienen una significancia unidimensional: o semiótica (gestos de cortesía, Mudràs), sin semántica, o semántica (expresiones artísticas), sin semiótica.”6

Hasta la década de 1970, la mayoría de estos estudios semióticos –inscriptos en la tradición de la semiología continental europea-7 evaluaban a los distintos lenguajes con el tamiz del lenguaje verbal, tomando como modelo al sistema de la lengua y sosteniendo

el dogma de la “doble articulación”, como requisito indispensable para que ciertos signos pudieran ser considerados como componentes de un sistema semiótico. Es el italiano Umberto Eco (1973) uno de los pioneros en retomar a Peirce para tratar de pensar los distintos lenguajes (son decisivos sus trabajos sobre lenguaje visual) desde una perspectiva diferente que permita encontrar modelos más propios de cada lenguaje en vez de tratar de forzar su adscripción al del lenguaje verbal, en una época en que los estudios semiológicos encontraban dificultad para dar cuenta de la especificidad de otros lenguajes ampliamente desarrollados en el siglo de las tecnologías de la comunicación y del transporte: la masificación del cine, la radio, la televisión, la industria discográfica y del espectáculo, el desarrollo de la sociología del arte, la industrialización de este último, la industria gráfica con ilustraciones, abrían un campo sin límites, y lo mismo sucedía con los despliegues de sistemas de señales artificiales, fuesen estos para ordenar desplazamientos urbanos e interurbanos, redes ferroviarias o eronavegación. Y más aún, el despliegue de la informática y su impacto sobre las teorías de lenguajes y sistemas ponía en cuestión la idea misma de centralidad del lenguaje verbal.

La tradición peirciana, desde entonces, ha sido explorada para abordar la semiótica visual, la semiótica del cine, del tacto, etc., por ofrecer una clasificación general de los signos, aplicable a cualquier hecho u objeto siempre que éste sea

interpretado por alguien en sustitución de otra cosa. Al hacer eje en la operación sustitución (A es A pero “representa” B en la mente C) y no en las características de los signos ni en la necesidad de que integren un sistema, podemos extender la noción de signo a cualquier sonido, aún cuando no sea intencionalmente realizado, aún cuando no quede registrado de ninguna manera o cuando no se pueda establecer a priori su posible significación, sea este elemento real o imaginario.

Peirce y las tricotomías para la clasificación sígnicaCharles Peirce propone una tipología clasificatoria de signos. La versión de ella más completa, conocida y utilizada por la semiótica del siglo XX es la que organiza sus clases a partir de tres tricotomías, basadas en tres tipos de relaciones:

1. Las relaciones de comparación, que son aquellas cuya naturaleza es la de las posibilidades lógicas,

2. Las relaciones de funcionamiento, que son aquellas cuya naturaleza es la de los hechos reales y

3. Las relaciones de pensamiento, que son aquellas cuya naturaleza es la de las leyes.

“La idea del instante presente, la cual, sea que exista o no, es pensada naturalmente como un punto de partida del tiempo en que no se puede producir ningún detalle, es una idea de

Page 63: En El Límite - Escritos sobre Arte y Tecnología

en el limite | 63

Primeridad. El tipo de una idea de Segundidad es la experiencia del esfuerzo, prescindiendo de una idea de intencionalidad. (…) La Segundidad es genuina o degenerada. (…) en términos generales, la Segundidad genuina consiste en que una cosa actúa sobre otra: la acción bruta. Digo bruta porque en la medida en que aparece una idea de cualquier ley o razón, se presenta la Terceridad” (Peirce, 1987, p.111 y 112).

El valor de este criterio puede ser discutible y de hecho lo es en la lógica o en la filosofía del lenguaje actuales, pero su influencia y utilidad práctica han sido notorios en numerosos campos, y de hecho hacen notar ciertas matrices comunes de pensamiento presentes en diferentes tradiciones teóricas y disciplinares.8 El mismo Peirce manifestaba en algunos escritos tardíos su descubrimiento reciente de la semejanza de su planteo con la lógica de Hegel, autor del que se había creído lejano toda su vida.

Por lo tanto, aún cuando esta propuesta clasificatoria pueda estar siendo actualmente superada por los desarrollos filosóficos y científicos contemporáneos, continúa siendo muy provechosa al momento de pensar categorías generales, en tanto se asienta sobre una matriz ampliamente compartida, y especialmente útil cuando se trata de romper los límites de clasificaciones menos abarcativas, como es el caso que nos interesa aquí: pensar lenguajes que no se encuadran en la descripción lingüística del sistema de lengua escrita o verbal. De esta manera, podemos pensar al signo

sonoro desde tres dimensiones principales: una primeridad integrada por los repertorios formales y sus reglas de articulación; una segundidad que abarca los aspectos referidos a la materialización y enunciación del signo y una terceridad que actúa como el sistema legal que da sentido a las dos instancias anteriores y permite, finalmente, la semiosis.

La ideación del signoPrimeridad Es difícil establecer qué elementos y operaciones comunes a todo el campo sonoro se deben incluir en este primer momento de ideación. En principio es posible considerar los límites biológicos de audición humana como frontera en los términos descriptos por la ciencia acústica, las unidades de audición propias de la experiencia biológica (no es necesario un sistema articulado de signos para que una explosión, una agradable brisa moviendo las hojas en una arboleda o un violento e inesperado ladrido nos afecten todo nuestro sistema nervioso central) y cultural (ruidos y sonidos producidos por la vida social, como frenadas, gritos, motores, molinos, etc.), así como campos sonoros propios de experiencias culturales más específicas (como la audición musical, en la cual la experiencia permite reconocer un instrumento, y aún un “tipo” de música). Campos más específicos construyen gamas de sonidos que permiten realizar la función fática9. Así, es relativamente sencillo reconocer una cadena verbal como perteneciente al habla natural de una persona

o bien a una transmisión radiofónica o a la emisión de un filme: Los volúmenes relativos entre los distintos sonidos son muy diferentes, y lo son también el rol del silencio, o el que cumplen distintos instrumentos musicales, o ciertos sonidos que en una circunstancia serían considerados “ruido” y en otra sonido significante. Los repertorios de conceptos y sus organizaciones en ejes variables, en agrupaciones que nos permitan aprenderlas, utilizarlas y modificarlas variarán mucho según sea la procedencia del campo de comunicación que lo origina. No se ha constituido aún un repertorio común de saberes entre quienes manejan el lenguaje radiofónico, el audiovisual, quienes se dedican a la música o aquellos que trabajan en terapias basadas en lo sonoro, etc. Cada uno ha desarrollado un ABC que no siempre supone el conocimiento de los otros campos. La forma de pensar el sonido, de significarlo y aplicarlo, será muy diferente en cada campo, afectando desde la identificación de las unidades mínimas hasta el concepto de lo que es deseable estéticamente.

El signo se hace presenteSegundidadLa materialización del signo en una instancia específica implica, en términos generales, la contracara necesaria de esa idea que se ha planificado (en el caso de comunicaciones intencionales) o con la cual se asociará el hecho percibido (en el caso de comunicaciones no intencionales). Este proceso implicará la toma de una serie de decisiones o limitaciones

Page 64: En El Límite - Escritos sobre Arte y Tecnología

64 | en el limite

de las posibilidades generales del lenguaje en una elección particular que se hará presente en un tiempo–espacio particular de una manera única. Así, la cuasi infinita gama de posibilidades de significación de una sirena se reducirá según la misma suene en un estadio luego del gol, en una ambulancia en movimiento, o en un carro de bomberos, en el interior de una vivienda o en una fábrica. Un timbrazo apuntará a significar específicamente el fin de una clase en la escuela, el llamado a la puerta de una vivienda o una alarma. Un sonido de trompeta apuntará a una significación específica y diferente según se trate de un ejército en retirada, de la ceremonia de despedida de un soldado, de una banda de guerra escolar en un desfile, del llamado al rancho, del arranque de un tema de jazz en un café concert, etc.

La percepción auditiva humana materializa, torna existente en un sentido específico, a aquel estímulo sonoro emitido con la intención o sin ella. Gran cantidad de estímulos sonoros es descartada constantemente por el sentido del oído y su procesamiento mental. Pero otra enorme cantidad de sonidos no intencionales, de la naturaleza o de hechura humana, se materializa como signo en la vida cotidiana, haciendo potencialmente posibles reacciones de resguardo, prudencia, cambio de dirección, inicio de una comunicación intencional, realización de transacciones, disfrute del entorno, etc.

El signo es interpretadoTerceridadEl momento en el que el signo es escuchado por alguien10 y es asociado a una determinada idea es el momento de la comunicación; hasta ese momento el signo no existe más que como una posibilidad de significación, un campo de posibilidades materializado que sólo será signo si algún sujeto lo interpreta (aunque sólo sea el mismo que lo produjo). Si el signo no es interpretado, por más que el sonido se haya producido, no se constituye como un signo. Es una segundidad, un hecho sonoro, que no puede ser aprehendido por ningún intérprete que complete su proceso semiótico. Esta definición del signo complejiza el proceso de la comunicación, rompiendo con el esquema dicotómico de un emisor y un receptor que intercambian un mensaje autónomo de ellos mismos, cual paquete que se entrega de unas manos a otras. Aquí, la constitución misma del signo reclama de una mente que en esa interpretación lo genere al fin, tantas veces como interpretaciones haya, de tantas formas como interpretantes se generen. Reclama pensar la emisión sólo como el principio de un proceso inter-subjetivo que no se puede concluir desde el autor, sino, necesariamente, desde el receptor podrá ser más o menos previsto al momento de pensar el mensaje. Este proceso inter-subjetivo está guiado por y enmarcado en construcciones sociales y culturales que actúan de “reglas” que orientan la interpretación, que tendrán diferentes grados de convencionalidad y que podrán generar con mayor o menor éxito –según sea el

caso- un mensaje que sea interpretado con mayor o menor grado de polisemia.

Las tricotomías del signo sonoroLas tres dimensiones del signo que acabamos de describir (ideación, existencia, interpretación) pueden ser pensadas de diferentes maneras según las analicemos en función de la relación del signo consigo mismo, del signo con su objeto y del signo con su interpretante. Por lo tanto, si cada dimensión puede pensarse a partir de estas tres relaciones (o tricotomías), nuestras categorías pasan a ser nueve.

Cualisigno, sinsigno, legisignoEn función de la relación del signo consigo mismo, tendremos entonces, en términos de Peirce, tres tipos de signos: cualisigno, sinsigno y legisigno, correspondientes a la articulación con primeridad, segundidad y terceridad respectivamente.

Es importante hacer notar que Peirce no considera que estos tipos de signo puedan existir en forma independiente. Cada clase de signo realmente existente resulta de combinaciones de tres tipos o categorías, uno correspondiente a una de las tres categorías del signo en relación del signo consigo mismo, otro del signo en relación con su objeto, y otro del signo en relación con su interpretante. Por lo tanto, cuando hablamos de cualisigno, sinsigno y legisigno, hacemos referencia a que toda clase de signo en una de sus dimensiones (la relación consigo mismo) será cualisigno, sinsigno

Page 65: En El Límite - Escritos sobre Arte y Tecnología

en el limite | 65

o legisigno. Imaginar que pudiese existir un signo que fuese sólo “cualisigno” sin ninguna otra categoría conexa equivale a imaginar que podamos encontrar en la naturaleza un “tres” efectivamente existente.

Apliquemos esta primera tríada a lo sonoro.

Cualisigno Las cualidades del signo sonoro pueden ser pensadas también como variables, o aspectos que afectan o determinan las configuraciones sonoras. Estas variables posibles son en términos tradicionales el timbre, la altura, la intensidad, la duración y demás aspectos que conocemos por medio de la descomposición científica de las dimensiones físicas del fenómeno sonoro. Para nutrir este primer grupo de categorías constitutivas del signo sonoro recurrimos a las sistematizaciones realizadas desde campos diversos de la ciencia, como la acústica, la física, la música, la biología, la medicina y todo enfoque que pueda servirnos a obtener herramientas para diversificar nuestro repertorio de posibilidades para la emisión y recepción de comunicaciones sonoras intencionales, y para la recepción de señales sonoras no intencionales transformadas en signo precisamente por dicha recepción. La semiótica sonora apunta al estudio, apropiación y ampliación de estas dimensiones consideradas como posibilidades de significación, crecientemente variadas y complejas, incorporadas a cada campo (música, medio de comunicación, acústica

y hábitat, etc.) como materia prima para la elaboración de comunicaciones eficientes11.

SinsignoLa gama de posibilidades expresada como cualisignos se delimita en el sinsigno, esto es, en la materialización de un cualisigno en un aquí y ahora, dando lugar a una configuración particular construida con las posibilidades seleccionadas. Este paso hacia la segundidad, hacia la existencia, implica un proceso donde interviene centralmente, como parte de su constitución, la problemática tecnológica. Las decisiones tecnológicas tomadas harán posible la existencia de algunos hechos sonoros en detrimento de otros posibles (así, por ejemplo, la magnificación de la intensidad sonora de la voz humana sobre las explosiones en una escena fílmica de guerra, la eliminación de todo sonido ambiente en una escena dramática, o la magnificación de los cantos de pájaros en una escena romántica). Esta influencia se puede pensar tanto para la producción del signo como para su conservación y reproducción, e incluso, como hemos dicho, su anulación.

Este problema se ha pensado desde diversas aristas, en gran medida por los teóricos de la música que han reflexionado sobre la importancia de la naturaleza del instrumento que genera el sonido, la incidencia de los procedimientos de descomposición, abstracción, saturación, yuxtaposición, grabación, edición y manipulación sonora y lo

que tiene que ver con la puesta en acto de ese evento sonoro, dependiendo de la forma en que éste sea transmitido y/o amplificado.Si pensamos el aspecto tecnológico en el momento de la ideación del signo, deberemos tomar en cuenta las connotaciones que esa forma tecnológica posea, la carga histórica, social, emotiva que es capaz de producir, el repertorio de posibilidades al que restringe nuestras elecciones formales, e incorporarla a las otras variables con las que pensamos el signo sonoro. Por lo tanto, cuanto más amplio sea el conocimiento de las técnicas y procedimientos disponibles para generar sonidos, más amplio será nuestro repertorio de posibilidades, y a su vez, cuanto más se explora y amplía la gama de posibilidades de significación sonora, mayor estímulo se produce sobre la investigación de los sustratos materiales y tecnológicos de las mismas. Este círculo virtuoso es fundamental cuando planificamos programas y actividades de aprendizaje –por ejemplo, cómo utilizar los repertorios que brindan las herramientas informáticas- en el momento de la enseñanza, ya que estos paquetes con interfaz de usuario sencilla suelen condensar una gran cantidad de opciones –y en ese sentido su ayuda es invalorable- pero excluyen una gran variedad de recursos que no son fácilmente digitalizables, y por lo tanto, si los alumnos no son estimulados en otras opciones, no podrán elegir libremente y quedarán atados a lo que ofrece la computadora, a lo que se agrega el problema inverso: No siempre la

Page 66: En El Límite - Escritos sobre Arte y Tecnología

66 | en el limite

enseñanza de estas herramientas goza del quantum adecuado de tiempo suficiente como para lograr la apropiación de toda la gama de posibilidades por su usuario, lo cual deja subutilizada la misma, en tanto el usuario se habitúa a operar con las variables básicas e imprescindibles que se le alcanzó a enseñar en los breves plazos de despliegue de su programa en el marco de un plan de estudios formal.

LegisignoAlgunas estructuras formales, generalmente acompañadas por estrategias tecnológicas más o menos estables, conforman “tipos” o patrones de composición que (más o menos explicitados, coherentes, o completos) tienen carácter de legisigno. Es decir, actúan como formatos orientadores tanto de la producción como del reconocimiento de las piezas sonoras, y definen un rango de lo “audible”, de lo comprensible, en pocas palabras, de lo pensable como recursos posibles. Esto resulta muy claro en el caso de la música –desde la antigüedad- y mucho más recientemente en la configuración de estructuras formales de reconocimiento en el mundo de los medios de comunicación de masas (v.gr. la radiofonía). Las estructuras suelen reconocerse en el umbral de la conciencia, lo cual tienta, sobre todo en aquellos campos con larga historia, a considerarlas como innatas y/o universales y a-históricas. Estudios recientes desde diversas disciplinas (antropología, psicología, biología, historia) parecen respaldar esta hipótesis en sentido inverso: Aquello que puede ser considerado un instrumento, una

unidad de significación sonora o musical, o un “ruido” varía según épocas históricas y marcos de referencia culturales.No existiendo aún tramas sonoras atravesadas plenamente por la doble articulación del lenguaje, la conformación plena de legisignos depende más de la acumulación experiencial que de la conformación convencional de reglas de doble articulación. Así, es posible hallar acuerdos constructivos en el marco de la música orquestal, reconocible por la comunidad de músicos específica, series de signos que en conjunto organizan una trama comunicacional. Son ejemplo de esto último los sistemas sonoros radiofónicos utilizados no como contenido de la programación sino como organizadores: música de presentación, música de reconocimiento de géneros (noticiero, variedades, radioteatro, programa musical, etc.), cortinas separadoras, aviso del informe de hora exacta y clima, fondo que favorece el reconocimiento rápido de una situación de parodia, ironía, alarma, complicidad, etc. También lo son los elementos musicales y sonoros que fortalecen el reconocimiento de un género de la cinematografía industrial, o aún sistemas mucho más elementales, como las secuencias de aviso de un ascensor.

La segunda tricotomíaÍcono, índice, símboloCuando pensamos las categorías cenopitagóricas en función de la relación Signo-objeto, llegamos a una de las clasificaciones más conocidas de Peirce: ícono,

índice y símbolo. Es, de hecho, la única tríada que suele ser conocida por el público no especializado, aunque generalmente asociada –sobre todo el ícono- con el lenguaje visual, a tal punto en que icónico es en numerosos ámbitos sinónimo de “basado en imágenes”. Pero así como el concepto “imagen” no es exclusivo del lenguaje visual, tampoco lo es el de ícono.Peirce define al ícono como:

“(…) un signo que se refiere al Objeto al que denota meramente en virtud de caracteres que le son propios, y que posee igualmente exista o no exista tal Objeto.(...) Cualquier cosa, sea lo que fuere, cualidad, individuo existente o ley es un ícono de alguna otra cosa, en la medida en que es como esa cosa y en que es usada como signo de ella.” Peirce, prg. 247

Como podemos observar, en esta definición no hay nada que nos haga asociar al ícono sólo con una representación visual. Existen innumerables ejemplos en los que el sonido utilizado es “semejante” al que quiere representar y sustituye. Tal es el caso del sonido de un papel celofán movido entre los dedos de una mano cercana a un micrófono para simular el sonido de una lluvia o la vibración de una chapa para simular un trueno, el tamborillear de dedos sobre el micrófono para semejar un galope o tantos otros recursos empleados por ejemplo en la radio antes de la existencia de los sintetizadores. O el caso de los sonidos simulados de guitarra, flauta, etc., que se incluyen en los teclados. Pero también

Page 67: En El Límite - Escritos sobre Arte y Tecnología

en el limite | 67

podría pensarse como ícono la palabra que repite un loro, donde lo que se reproducen son rasgos sonoros estructurales que nos permiten reconocer en ese sonido una determinada palabra aunque el loro no tenga la menor conciencia de estar repitiendo un lenguaje complejo. Podemos decir, entonces: existe gran cantidad y variedad de íconos sonoros.

ÍndiceSiguiendo con la tríada, para Peirce:

“Un Índice es un signo que se refiere al Objeto que denota en virtud de ser realmente afectado por aquel Objeto.(...) un índice implica alguna suerte de ícono, aunque un ícono muy especial; y no es el mero parecido con su Objeto, aún en aquellos aspectos que lo convierten en un signo, sino que se trata de la efectiva modificación del signo por su Objeto.” Peirce, pg. 248.

Siendo todo sonido resultante del impacto que una onda sonora realiza sobre el tímpano haciéndolo vibrar, se podría decir, en primera instancia, que todo sonido contiene un residuo indicial en cuanto a la forma en que opera, pero esta verdad no diferencia al sonido de otras formas comunicacionales, en tanto la comunicación visual supone también ciertos procedimientos físicos en su soporte. A su vez, cuando pasamos a la instancia de reconocimiento (interpretante) la situación se complejiza tanto como en cualquier otro tipo de lenguaje.

Es cierto, sin embargo, que gran parte de la vida cotidiana individual y social transcurre en un entorno sonoro donde una enorme cantidad de sonidos, gracias a su indicialidad nos permite relacionarnos y desplazarnos con seguridad. Así, por ejemplo, cuando sentimos el ruido de un motor con intensidad creciente constatamos con la vista que un vehículo se acerca y tomamos las medidas de seguridad del caso. Cuando escuchamos un trueno o sonido de lluvia decidimos qué hacer al respecto aunque no necesariamente veamos la lluvia en ese momento, etc. Los sonidos emitidos por los animales sin mediación de grabaciones son para nosotros también un fenómeno de indicialidad, en tanto el ladrido del perro o el rugido del tigre son la huella misma de la presencia del animal, que nos hace concientes de su presencia inmediata y activa con ello todos los mecanismos de defensa. A medida que se complejiza la capacidad semiótica del sonido, la indicialidad ocupa lugares más específicos. Así, en una época en que la grabación se ha tornado una práctica tecnológicamente viable y socialmente habitual (desde fines del siglo XIX), escuchar en vivo una orquesta u otro espectáculo con puesta en escena (un show humorístico, una ejecución de ballet, una obra de teatro) nos hace disfrutar de un plusvalor de mayor indicialidad en comparación con la escucha de la reproducción del material grabado. Muchos signos sonoros, aún en sistemas muy elementales como la sirena de emergencia de un vehículo de salud o policial, están

pensados para un estricto uso indicial. Cuando escuchamos la sirena reconocemos un legisigno (por convención es un aviso que pide ceder paso para colaborar con su requerimiento de velocidad y tránsito seguro), pero es un legisigno indicial, en tanto está pensado para que reconozcamos la presencia física inmediata del vehículo. Carecería de función social la misma sirena sin el vehículo correspondiente. La actual revolución tecnológica que amplía ilimitadamente la imitación, distorsión, ampliación, grabación, reproducción, mezcla e invención de sonidos pone sin duda en cuestión los hábitos preexistentes en la cultura sobre indicialidad, iconicidad y simbolización. Se trata de un campo abierto a la interrogación crítica y la generación de teoría.

SímboloUn símbolo supone una regla creada o reconocida por una comunidad. No es la conexión física o percepción de una semejanza lo que establece la relación sígnica, sino la convención, en el amplio sentido. Dice Peirce:

“Un Símbolo es un signo que se refiere al Objeto que denota en virtud de una ley, usualmente una asociación de ideas generales que operan de modo tal que son la causa de que el Símbolo se interprete como referido objeto. En consecuencia, el Símbolo es, en sí mismo, un tipo general o ley, esto es, un Legisigno.” Peirce, prg. 249.

En la interpretación del símbolo media, pues, una construcción racional que va más allá de

Page 68: En El Límite - Escritos sobre Arte y Tecnología

68 | en el limite

la similitud o de la relación “causa-efecto”. En “las cuatro estaciones” de Vivaldi, es difícil pensar los sonidos como íconos o índices de cada una de las estaciones del año, sin embargo nos remiten a cada una de ellas con mucha intensidad, por cuanto apela a una articulación con el lenguaje verbal-escrito para sugerir interpretaciones y a una larga acumulación de códigos de reconocimiento de secuencias musicales utilizadas para representar o sugerir climas, ritmos y estados de ánimo, sin las cuales probablemente el receptor no podría saber qué significación sugiere la obra. El silbido de la sirena de una fábrica significa “comienza la jornada” o “termina la jornada” según la hora por puro acuerdo entre las partes, y lo mismo sucede con la misma sirena cuando es activada en la medianoche del 31 de diciembre sin que ninguno de los involucrados suponga que continúa diciendo algo sobre entrar o salir del trabajo. Asimismo, el silbato del árbitro significa diferentes sanciones en distintos momentos en que se produce y en articulación con distintas expresiones gestuales o visuales (mostrar, por ejemplo, una tarjeta). No hay nada de icónico o indicial en esos sonidos en relación a lo que se quiere significar, y sin embargo nos conducen casi sin posibilidad de error a la interpretación deseada. Muchos de los ejemplos dados más arriba para ejemplificar un legisigno corresponden a esta relación, dado que es su forma más compleja y desarrollada, y existen infinidad de otras en la vida cultural: Las señales sonoras para

comunicación tradicional entre barcos cuando no hay visibilidad, los envíos de señales morse por medio de cadenas de sonidos codificados, las interpretaciones formales de un himno nacional, etc. En el teatro, y aún más a menudo en el ballet, es usual la construcción de símbolos que permiten reconocer algunos personajes, emociones o tipos de situaciones. En este caso, la construcción del símbolo es interna al relato, no resulta universal, e implica que en algún momento este sonido fue construido como un legisigno capaz de remitir a un “tipo particular” y que al ser ejecutado nos permite hacer presente a tal o cual personaje o evento correspondiente a dicho tipo. El cine ha tomado con éxito estos procedimientos para su propio uso.

La posibilidad de que un signo remita a su objeto, ya sea icónicamente, indicialmente o simbólicamente, no radicará exclusivamente en la forma en que este signo se construya, sino que también estará determinada por la enciclopedia que el receptor disponga como repertorios conceptuales y experienciales, y por el contexto en el que se interprete ese signo. Al respecto Peirce nos dice:

“El signo solo puede representar al objeto y hablar de él. No puede ofrecer una relación con o un reconocimiento del tal objeto; eso es lo que se entiende en este volumen por objeto de un signo; es decir, aquello con lo cual éste presupone un conocimiento para poder proporcionar alguna información adicional que le concierne. No hay

duda de que habrá lectores que dirán que no pueden comprender esto. Ellos piensan que un signo no tiene que relacionarse con algo de otro modo conocido y no le ven ni pies ni cabeza a la afirmación de que cada signo debe relacionarse con tal objeto. Pero si hubiese algo que proporcione información y aun así no tenga ninguna relación en absoluto ni referencia a cosa alguna con la que la persona a quien proporciona información tenga, cuando ella comprenda esa información, el más mínimo conocimiento, directo o indirecto -y será un tipo de información muy extraña- el vehículo de tal tipo de información no se llama, en este volumen, signo” (Peirce: Los signos y sus objetos, 1910. 2.231.)

En pocas palabras, conocemos (es decir percibimos racionalmente, interpretamos) a partir de lo que ya conocemos. Si a un signo no podemos vincularlo con un objeto conocido (ya sea esto algo concreto o una idea abstracta) no tendremos posibilidad de comprenderlo, y la función sígnica no atravesará, en el mejor de los casos, la función fática. Este conocimiento previo además de permitirnos decodificar, es decir, además de ser nuestro universo de posibilidades semióticas, también es lo el marco que nos limita a aquellas comprensiones que estén dentro de dicho universo. Esto que parece una trampa cognitiva, donde “sólo se puede conocer lo que ya se conoce”, en realidad consiste en un proceso de construcción dialéctica donde el esfuerzo de incorporar lo desconocido percibido a la trama de lo conocido aprehendido supone asignar

Page 69: En El Límite - Escritos sobre Arte y Tecnología

en el limite | 69

lugar en dicha trama a lo nuevo, y adaptar la trama al requerimiento de tal asignación. Así, cada interpretación implica a las anteriores y por lo tanto la supera. Y en estas sucesivas reinterpretaciones, en nuestro asunto es probable que lo que en un primer momento habíamos percibido como ícono o como índice pueda transformarse en un símbolo posteriormente, justamente porque tenemos incorporadas las interpretaciones anteriores. Un niño puede escuchar las fanfarrias y comenzar a buscar en su enciclopedia: ¿recital? ¿fiesta? ¿representación divertida de algo viejo? ¿batalla militar? Si ninguna respuesta le permite acomodar lo nuevo tendrá que hacer un esfuerzo adaptativo: razonar por analogía, quedarse sin interpretar hasta que se acumulen más casos similares, preguntar a sus referencias culturales (papás, amigos, maestra), hasta que pueda realizar la adaptación adecuada. La siguiente ocasión después de tal adaptación plantea un reto sencillo: ¿Fanfarrias? ¡Ingresará alguien importante a la escena!

Si bien es sencillo encontrar ejemplos de signos sonoros en toda la gama de las tricotomías que hemos visto hasta ahora, la tarea se torna algo más dificultosa a medida que avanzamos hacia la terceridad, en comparación con otros lenguajes más desarrollados históricamente. Pero la dificultad no llega al punto de anular la posibilidad de hallar dichos ejemplos. Esto parece indicar que nos hallamos ante una construcción cuyo límite no es sustancial ni estructural, sino histórico. Se trata de un

campo de lenguajes que ha alcanzado su mayor desarrollo en el último siglo y medio, en comparación con otros sistemas que se han desplegado en los orígenes mismos de la Historia. Por ello los sistemas de comunicación sonora basados en legisignos simbólicos más avanzados y complejos han sido hasta ahora aquellos que buscan establecer una traducción en otro soporte del sistema de la lengua (código Morse con señales sonoras, sistemas de comunicación por tambores), más que lenguajes nuevos propiamente dichos. Pero apenas focalizamos nuestra atención en desarrollos de rango menor (sin doble articulación) hallamos una amplia y rica gama de ejemplos plenamente operantes en diversos campos de la vida social.

La tercera tricotomíaRema, dicente y argumentoRecordemos que esta tricotomía se basa en la relación entre el signo y su interpretante (la secuencia de operaciones o conducta que realiza la sustitución sígnica en la dirección “correcta”). Dice Peirce:

“Un Rema es, para su Interpretante, un Signo de Posibilidad cualitativa, vale decir, se entiende que representa tal o cual clase de Objeto posible. Un Rema puede, quizás, proporcionar alguna información; pero no se interpreta que la proporciona (representa al objeto en función de sus caracteres). Un Signo Dicente es un signo que, para su Interpretante, es un Signo de existencia real. Por lo tanto, no puede ser un ícono, el cual no

da lugar a ser interpretado como una referencia a existencias reales (representa al Objeto con respecto a la existencia real). (...) Un Argumento es un Signo de ley (...) representa a su Objeto en su carácter de Signo”. Peirce, cita no textual de los parágrafos 250, 251, 252 y 253.

RemaSi el rema es la relación del signo con su interpretante en estado de “primeridad”, entonces hace referencia a aquellas configuraciones o clases de objetos posibles, “nombres” –en el sentido de significados significantes- para pensar los argumentos, cualquiera sea el lenguaje –verbal, visual, musical, de señas, etc.- en que se presente. A diferencia de la primer tríada, aquí no estamos hablando sólo de cualidades, sino de configuraciones, (se podría utilizar aquí el término sema), de todas las posibilidades significantes. Estas primeridades tienen su fuente directa en la cultura, y en ella están ancladas. Nos veremos obligados, por ello, a concentrar esfuerzos en conocerlas, pues todo representamen posee, al tornarse interpretable por un rema, la posibilidad de anclar en cada una de sus significaciones posibles, y debemos necesariamente acotar, restringir tal campo de significación a favor de aquellas significaciones preferentes surgidas de nuestra planificación de la comunicación.12

En el campo de lo sonoro existe en la sociedad contemporánea una amplia variedad de unidades significado-significantes de uso

Page 70: En El Límite - Escritos sobre Arte y Tecnología

70 | en el limite

potencialmente general, que pueden sumarse al universo de remas: En la trama sonora de un filme nunca será igual la comunicabilidad del sonido de un pajarillo que la de un cuervo. En la industria de las sirenas, existen sistemas de producción sonora que habrán de acordar con las autoridades estatales la función específica de cada sonido. Arsenales de ringtones esperan la decisión interpretante que asigne sonidos específicos a contactos específicos, y aún a momentos distintos en relación con estos contactos. En la música, ciertos instrumentos producen con su presencia la asociación de ideas en relación con marcas históricas, de género, étnicas o las tres cosas a la vez. Imaginemos lo que significa integrar un banjo, una gaita, un kultrum o un bombo legüero en una composición musical. Pero en estos ejemplos, las posibilidades de significación no se actualizan aún en significaciones específicas. Para ello, se precisa la puesta en acción de un dicente.

El signo dicenteCuando el mensaje adquiere la característica de dicente, alcanza su máximo nivel de existencia real. Es el lugar de la negación del conjunto de posibilidades exceptuando aquella que concretamente ha quedado formulada. Es el momento de actuación, de puesta en funcionamiento del signo, de comparación con otros signos (ya sea a nivel tecnológico como estético o argumental). Si tomáramos estos ítems como una guía de trabajo (tanto de análisis como de producción), sería el punto desde donde pensar y realizar estudios de la

competencia y del entorno, en las condiciones existenciales de circulación del mensaje, su “aquí y ahora”. Los universos problemáticos de la puesta en escena, de la postproducción, de la interpretación musical, de la activación de una señal sonora de utilidad social, trabajan en este nivel.

El argumentoEste tipo de signos, el “signo de ley” en los términos de la semiótica de Peirce, está estructurado de tal manera que la lectura de sus premisas nos implica hacia una consecuencia necesaria, y en tanto dichas premisas sean verdaderas, también lo será la conclusión. No es casual la semejanza estructural entre este párrafo y la definición tradicional de argumento por la lógica formal, por cuanto el argumento sígnico es según Peirce un tipo de argumento lógico, y de hecho la tricotomía rema, dicente y argumento es elaborada por reformulación de la tríada tradicional de la lógica: Término, Proposición, Argumento. Dado que el argumento “representa a su objeto en su carácter de signo”, esto es, permite representarnos objetos que a su vez disparan relaciones sígnicas, cuando un lenguaje despliega argumentos como parte de su existencia normal, puede potencialmente alcanzar complejidad y doble –o múltiple- articulación.

Para pensar la posible construcción o el análisis del argumento es necesario contemplar ciertos aspectos indispensables al momento de

prever la interpretación de nuestro discurso, cualquiera sea el lenguaje que lo soporte:

a. la noción de público o de lector modeloeste aspecto ha sido tenido en cuenta desde los inicios de la modernidad y cada vez con más fuerza, a medida que la producción y circulación de las piezas discursivas se desplazaban del campo del arte al del mercado mediático. b. los valores sobre los que se asentará la argumentaciónEl conjunto de ideas sobre el que se organiza el argumento, las formas posibles de combinación y aceptación, así como la posibilidad de que encuentren sentido, estarán dadas por el entorno cultural13 al que vaya dirigido. c. el tipo de estrategia sobre la que se asentará la combinación de términos que hayamos seleccionado del rema (identificación, simpatía, ritmo corporal sincronizado con la comunicación recibida, motivación, emoción, sentimiento de absurdo, repulsión, miedo, terror, desasosiego, tristeza, etc.). d. Aquellos aspectos contextuales que puedan influir sobre la interpretación del argumento.e. El argumento supone que es posible procesar rápidamente distintos niveles de significación sostenidos en un mismo signo.

Page 71: En El Límite - Escritos sobre Arte y Tecnología

en el limite | 71

A modo de cierreHemos visto que diversos sistemas más o menos complejos de producción significante sonora pueden constituirse y estabilizarse configurando todas los tipos de signos existentes en un lenguaje, tanto a nivel de sus representámenes, de las articulaciones con el objeto representado y de las posibilidades de interpretación. Resta preguntarnos: ¿Alcanza lo sonoro el rango más elevado de la conformación como lenguaje, como lo es el argumento? ¿Es este lenguaje argumental, o puede serlo? ¿De qué manera se estructuraría en esa dirección? ¿Con qué términos y combinatorias? ¿Con qué nivel de articulación? ¿Se puede lograr cierto grado de univocidad en algunos aspectos o mensajes específicos en lenguaje sonoro? (no discutimos aquí si desde el lenguaje verbal esto último se puede). El estado actual de la investigación y el debate sobre esta cuestión es heterogéneo y probablemente falte mucho trecho para que se complete. Pero considerando las conclusiones de distintas corrientes teóricas con raíces tanto en las comunidades científicas como en las filosóficas, así como los evidentes avances en la utilización comunicacional del sonido en el último siglo, puede concluirse que si bien los avances en comprensión, formalización y aplicación del sonido en la comunicación y la cultura no alcanzan aún para una respuesta segura respecto de su condición de macro-lenguaje plenamente desplegado, lo que no puede negarse es la capacidad de los

lenguajes sonoros para generar sentido. Cómo continuará y se asentará esta tendencia en los próximos años es, sin dudas, una aventura que protagonizarán estudiosos, artistas, técnicos, científicos y sociedad en general. Qué resultados hallaremos es una pregunta cuya respuesta queda abierta. Y ello confirma tanto el carácter histórico y contingente de todo lenguaje, como el potencial de la expresión sonora para constituirse en uno de ellos, plenamente desplegado en sus potencialidades lógicas, físicas, estéticas y comunicacionales.

Referencias 1 Este repertorio de conceptos, se presenta fuertemente influenciado por las innovaciones tecnológicas acaecidas durante el siglo pasado: hacia finales del siglo XIX y principios del XX se logra registrar y reproducir sonidos, se despliega la industria discográfica y posibilita que el cine se vuelva sonoro (década del ’30), aparece la radio (década del ‘20), y se hace habitual el uso del teléfono.

2 La excepción a esta regla, la decodificación visual del lenguaje verbal (lectura de labios) es una creación producida frente a fallas específicas del circuito verbal-auditivo: personas sordas, personas que realizan investigación en secreto.

3 Puede mencionarse, al respecto, los avances en semiótica visual, del teatro, del cine, etc. a partir de este entramado teórico a lo largo del siglo XX.

4 Que en algún sentido compartiría la definición de “objeto sonoro” de Schaeffer y Chion.

5 Según la definición de Charles Sanders Peirce “Un Signo, o representamen, es algo que para alguien, representa o se refiere a algo en algún aspecto o carácter. Se dirige a alguien, esto es, crea en la mente de esa persona un signo equivalente, o,tal vez, un signo más desarrollado. Este signo creado es lo que yo llamo el interpretante del primer signo. El signo está en lugar de algo, su objeto. Está en lugar de ese objeto, no en todos los aspectos, sino sólo con referencia a una suerte de idea, que a veces he llamado fundamento del representamen”. (Peirce, Prg. 228)

6 (Cfr. Benveniste, E. 1997, pág.69). Esta afirmación es realizada en el marco de un llamado a utilizar otros parámetros que no sean el modelo de la lengua para analizar el resto de los lenguajes, pero aún asignando a la lengua un lugar jerárquico en relación a otros sistemas.

Page 72: En El Límite - Escritos sobre Arte y Tecnología

72 | en el limite

7 El término “semiótica” ha sido inicialmente utilizado por Charles Sanders Peirce, en tanto el de “semiología” ha sido empleado por Ferdinand de Saussure y por lo tanto más identificado con los estudios lingüísticos. Actualmente ambos son utilizados como sinónimos en la mayoría de los casos.

8 En un trabajo anterior, al referirnos a estas categorías sostuvimos: “Existen muchos autores que se basan en tríadas similares para pensar objetos de estudio comunicacionales, entre ellos Roger Chartier, que propone trabajar la historia de la lectura desde los aspectos tecnológicos, formales y culturales, o Nelly Schanith que se refiere a la percepción como un fenómeno mediado por tres tipos de filtros: perceptivos, de reconocimiento y culturales. Esto puede explicarse porque en realidad lo que subyace a estas teorías es una lógica subyacente a la cultura occidental contemporánea, que se presenta como muy potente para pensar este y otros fenómenos. Nos referimos a aquella heredada de Emmanuel Kant y de la filosofía clásica alemana (Fichte, Schelling, Hegel, Feuerbach, Marx) que desarrolla una propuesta lógica y crítica de gran influencia en el pensamiento científico y filosófico contemporáneo, y que se despliega en numerosas direcciones a lo largo de los siglos XIX y XX en campos tan variados como la lógica, la semiótica, la psicología genética o la geografía”.(Ojeda, 2008)

9 En los términos clasificatorios originalmente propuestos por Jakobson (Cfr. Jakobson 1988, Ojeda y Moyano, 1999).

10 Según Peirce “alguien” incluye no sólo seres humanos u otras mentes animales, sino otros mecanismos naturales o artificiales de codificación-decodificación: una cuasi-mente.

11 Se utiliza aquí el término “eficientes” en sentido amplio. Una comunicación puede ser considerada eficiente cuando se logra ser correctamente comprendido, pero también puede serlo cuado se logra una amplia polisemia en una comunicación artística, o cuando se anula la condición significante de un ruido en un trabajo de aislamiento acústico.

12 Recuérdese que por “planificación de la comunicación” entendemos tanto la producción significante para emitir mensajes como la producción significante para interpretar o aún anular irrupciones sígnicas originadas tanto en las prácticas sociales como en la naturaleza.

13 Entendiendo cultura en sentido amplio.

Bibliografía

Attalah, Paul: Théories de la communication. Sens, sujets, savoirs. Presses de l’Université du Québec, Québec, 1991.

Bajtin, Mijail: “Estética de la creación verbal”. Editorial SXXI, 2° ed.

Barbero, Jesús Martín: Procesos de Comunicación y matrices de Cultura. Editorial Gustavo Gilli, México, 1987.

Barthes, Roland: “El grano de la voz”. “La música, la voz, la lengua” “El mensaje fotográfico”,”Retórica de la imagen”. En: Lo obvio y lo obtuso. Editorial Paidós Comunicación, Barcelona, 1986.

Barthes, Roland: “El grado cero de la escritura”. Siglo XXI Editores, Buenos Aires, 1997. (1ª. Ed. 1953).

Benjamin, Walter: “La obra de arte en la época de su reproductividad técnica.” En: Curran, J., Gurevitch, M. y otros: “Sociedad y Comunicación de Masas.” Fondo de Cultura Económica, México, 1981.

Benveniste, Emile: “Problemas de Lingüística General”, tomos I y II, Siglo XXI, México, 1982.

Bordwell, David: “Teorías diegéticas de la narración” en La narración en el cine de ficción. Paidos, Barcelona, 1996.

Bosetti, Oscar: “Radiofonías” Colihue, Buenos Aires, 1998.

Chion, Michel.: “El Sonido.” Paidos Ibérica, Barcelona, 2001.

Chion, Michel.: “Guide des objets sonores” Buchet-Chastel, Paris, 1983.

Deely, John: “Los fundamentos de la semiótica.” Universidad Iberoamericana, Mèxico, 1996.

Ducrot, O. y Todorov, T.: “Diccionario enciclopédico de las ciencias del lenguaje,” Siglo XXI editores, Madrid, 1997 (1º ed. 1972)

Eco, Umberto: “Lector in fábula.” Editorial Lumen, Barcelona, 1981.

Eco, Umberto: “Semiología de los mensajes visuales”, en: Metz y otros: Análisis de las imágenes (Pág 169 y ss). Editorial Tiempo Contemporáneo, colección Comunicación, Buenos Aires, 1972.

Page 73: En El Límite - Escritos sobre Arte y Tecnología

en el limite | 73

Flichy, Patrice, “Una historia de la comunicación moderna. Espacio público y vida privada,” México, Gustavo Gili, 1993.

Habermas, Jürgen: “Historia y Crítica de la Opinión Pública.” Editorial Gustavo Gilli, Barcelona, 1981.

Jakobson, Roman: “Lingüística y Poética.” Editorial Cátedra, Madrid, 1988.

Metz , Christian: “El significante imaginario.” Paidós Ibérica, Barcelona, 2001

Nattiez, Jean Jacques: “Music and Discourse. Toward a Semiology of Music.” Princeton Unversity Press, New Jersey, 1990.Ojeda, Alejandra: “El signo triádico”. Mimeo de cátedra, Lanús, 2008.

Ojeda, Alejandra; Moyano, Julio: “Jakobson, Peirce y las funciones del lenguaje.” Anales de las Jornadas Nacionales de Epistemología, Universidad Nacional de Córdoba, 1999.

Peirce, Charles: “La ciencia de la Semiótica.” Ediciones Nueva Visión, 1986, Buenos Aires, Argentina. Los textos seleccionados corresponden a los capítulos 1,2 y 3 de los Collected Papers of Charles Sanders Peirce, recopilados por Charles Harsthorne y Paul Weiss, editados por The Belknap Press of Harverd University Press, Cambridge, Massachusetts, 1965, volumen II, Elements of Logic, libro II, “Speculative Grammar”.

Roy, Stéphane: “L’analyse des musiques électroacustiques: Modèles et propositions.” Ed. L’Harmattan, Montreal, 2003.

Ruwet, Nicolás: “Introducción a la Gramática Generativa,” Gredos, Madrid, 1974.

Schaeffer, Pierre. “Traité del objets musicaux.” Seul, Paris, 1977 (1º ed. 1966)

Samaja, Juan: “Semiótica y Dialéctica.” JVE Ediciones, Buenos Aires, 2000.

Saussure, Ferdinand: “Curso de lingüística general.” Editorial Losada, Buenos Aires, 1945.

Sazbón, José: “Saussure y los fundamentos de la lingüística.” Centro Editor de América Latina, Colección Universidad Abierta, Buenos Aires, 1987.

Sebeok, Thomas: “Signos, una introducción a la semiótica.” Paidos, Barcelona, 1996.

Sinni, Carlo: “Semiótica y Filosofía.” Hachette, Buenos Aires, 1985.

Steimberg, Oscar: “Semiótica de los Medios Masivos.” Atuel, Buenos Aires, 1998.

Ulanovsky, Carlos, y otros: “Días de radio.” Espasa Calpe Argentina, 1995.

Van Dijk, Teum: “Estructura y funciones del discurso.” Siglo XXI, México, 1993.

Verón, Eliseo y otros: “Lenguaje y comunicación social.” Ediciones Nueva Visión, Buenos Aires, 1967.

Williams, Raymond: “La tecnología y la sociedad” en: Causas y azares, Nº 4, Invierno 1996, pp. 155-172.

Page 74: En El Límite - Escritos sobre Arte y Tecnología

74 | en el limite

El discurso sonoro acusmático en soportes y formatos para Sonido Envolvente.El desafío de la distribución masiva.Daniel SchachterCEPSACentro de Estudios en Producción Sonoray AudiovisualUniversidad Nacional de Lanús

Este artículo presenta una parte de un proyecto de investigación en el que me encuentro trabajando actualmente en la Universidad Nacional de Lanús.1 Este proyecto indaga acerca de la creciente influencia de los nuevos formatos de registro y distribución del sonido grabado, los que parecen asumir un rol paradigmático, o al menos una referencia obligada en el momento de la creación o diseño del discurso sonoro en sus diferentes formas y estilos.

El principal interrogante que se plantea este trabajo es: ¿En que medida influye el sistema de reproducción elegido como destino final de una producción discográfica o del sonido de una producción audiovisual en las características estéticas del discurso sonoro? Esta primera aproximación al problema, gira en torno de la composición de Arte Acusmático y fue presentada en Junio de 2009 en el Congreso Internacional EMS’09 en Buenos Aires2 y en Noviembre de 2009 al Congreso y Festival Internacional EMUFEST’09 en Roma3

¿Es este un tema de discusión válido para la música acusmática?Sin dudas, los nuevos formatos y soportes para el registro y distribución de música en sonido envolvente ejercen una fuerte influencia a la hora de pensar en el diseño de productos sonoros para la distribución masiva, donde el objetivo es su inserción en un mercado en el que cada vez existen mas reproductores de audio diseñados para la reproducción de esos formatos. Sin embargo, a pesar de eso no existen actualmente criterios uniformes para el diseño de esos productos. Partiendo de esto, ¿Que podemos decir de su influencia en la composición musical con medios electroacústicos?

La evolución del discurso sonoro ha estado muy fuertemente relacionada a través de la historia con el desarrollo de los formatos que lo contienen. La consolidación del lenguaje musical escrito, marcó la aparición de un elemento distintivo de la cultura musical europea. La partitura pasó a ocupar un lugar central en ese escenario al transformarse en el soporte que hacía posible la ejecución y difusión de la música, mas allá de la presencia de su autor; pero dadas sus limitaciones para una completa representación del fenómeno sonoro, trajo consigo la necesidad de crear y consolidar la tradición interpretativa como un capitulo esencial en la formación de los músicos. Este hecho incontrastable se mantuvo en el siglo XX, en el que el análisis y la interpretación de la música del pasado se transformaron en hábitos corrientes.

De esta misma forma, la evolución tecnológica acompañó a la del lenguaje. El piano, fenomenal invención aportada por la primera Revolución Industrial, apareció en escena para dar un paso sin retorno en el carácter del discurso. Pensar en el timbre de ese instrumento nos acerca a la idea del sonido del Romanticismo donde la innovación aportada por el piano4 y la consolidación de la orquesta sinfónica definieron el estilo de la época, tanto como el estilo del Renacimiento se relaciona con el timbre de la familia de la violas, o el Gótico con la acústica de las catedrales. Así, cada periodo de la historia de la música occidental ha tenido un sonido propio e inconfundible relacionado con los instrumentos de su época, los que por supuesto fueron el fruto de la tecnología de cada momento histórico.

Las innovaciones tecnológicas aportadas por el Siglo XXLa Segunda Revolución Industrial aportó herramientas que una vez más hicieron sentir su influencia. Pero en este caso, la complejidad del escenario social y político del siglo pasado dejaron también sus huellas:

• Por un lado los nuevos instrumentos musicales electrónicos, la música electroacústica sobre soporte y la incorporación de la tecnología al ritual del concierto.• Por otro lado la aparición y consolidación de los medios masivos de comunicación audiovisual y con

Page 75: En El Límite - Escritos sobre Arte y Tecnología

en el limite | 75

ellos la difusión del arte musical del pasado y su influencia en la creación del repertorio para la formación de los nuevos intérpretes.

Además, un elemento característico de las últimas décadas del siglo XX es la proliferación de estilos musicales nuevos, tanto en la llamada música académica como en la música popular, en la que incursionan músicos de sólida formación académica.

El formato de distribución como un elemento relevante para el compositorEn la cultura occidental el formato de distribución ha sido siempre un elemento central. Precisamente, la escritura musical entendida como soporte o como formato de distribución de la música ha sido un elemento distintivo de la cultura occidental europea y durante mucho tiempo el único que hacía posible que la música permanezca en el tiempo más allá de la vida del autor. El soporte es el elemento que contiene el discurso, el lugar donde la idea sonora toma cuerpo y permanece en el tiempo. A partir de la aparición en escena del sonido grabado y con el desarrollo de la industria discográfica, las características del soporte (la cinta magnética, el disco vinílico, el disco compacto) han tomado paulatinamente un mayor protagonismo.

El fenómeno de la difusión masiva es el resultado de la unión entre el sonido grabado, y la radiodifusión. Desde entonces, ha existido

una verdadera revolución desde el punto de vista de la escucha, a tal punto que la calidad del sonido grabado se ha independizado de los conceptos acústicos tradicionales relativos a la percepción del sonido en una sala de conciertos. Esta cualidad paradigmática del sonido grabado no solo puede apreciarse en las producciones discográficas correspondientes a los estilos musicales instrumentales y vocales más tradicionales, sino también en las manifestaciones estéticas de vanguardia, particularmente en las desarrolladas en la segunda mitad del Siglo XX, a partir de aparición de la Música Concreta.5

Diferencias entre el discurso acusmático y otros discursos sonorosEl discurso musical acusmático6 tiene características propias y distintivas, que se ponen en evidencia a la hora de incluir en su producción orientada a la distribución, los nuevos recursos tecnológicos que tenemos a nuestro alcance.

La idea misma de acercar al oyente a la percepción del sonido mas allá del reconocimiento de la fuente que lo produce, o incluso la puesta fuera de contexto de dicha fuente cuando la misma es reconocible, nos ponen ante el desafío de una utilización tal vez menos convencional por ejemplo de la distribución espacial estándar definida por Dolby para la producción discográfica en formatos de sonido envolvente. Mas aún, nos vemos obligados a encontrar un camino

alternativo válido dado que las soluciones del mercado parten de un modelo pensado para la música de cine, cuando las necesidades que plantea el sonido para el cine son diferentes a las de la música acusmática, que pone en escena al sonido por el sonido mismo prescindiendo de toda referencia ajena al mismo.

Por ejemplo, la disposición de canales para sonido envolvente contempla el uso de un canal frontal central pensado específicamente para los diálogos, un elemento de indudable pregnancia en el cine, que asume un rol principal por su carga argumental, cuya fuente debe reconocerse y que permanece ubicado allí, inmóvil, muchas veces sin relación con el desplazamiento físico de los personajes. En el mismo sentido, el estándar 5.1 asigna un rol secundario a los canales traseros, lo que conspira contra una distribución espacial equilibrada del sonido. Podríamos decir que se trata de una propuesta envolvente pero a la vez estática.

El inmovilismo del canal central y el menor peso relativo de los canales traseros parece contradecir la idea misma de la proyección del sonido en el espacio, tan cara a los ideales acusmáticos, donde inevitablemente la gestualidad estará fuertemente ligada a la trayectoria7 y donde precisamente la percepción textural del sonido es uno de los elementos mas buscados por el compositor. Por esta razón, si pensamos por ejemplo en la disposición 5.1 desde el inicio, y componemos una obra acusmática para esa distribución,

Page 76: En El Límite - Escritos sobre Arte y Tecnología

76 | en el limite

deberemos poner especial cuidado en no perder las cualidades espaciales del discurso. Si por otro lado partimos de obras terminadas en estéreo, cuadrafonía u octofonía, debemos poner especial cuidado en recrear la distribución espacial del original.

El paso del estéreo a la cuadrafonía, y a la octofonía, significaron una expansión de las posibilidades expresivas, y por lo tanto, la incorporación de los nuevos formatos de sonido envolvente no deberían significar un paso atrás, para lo cual el compositor se ve obligado buscar soluciones innovadoras que resulten satisfactorias.

Nuevos Formatos y nuevasalternativas de elecciónAl considerar el impacto de los nuevos formatos en la forma de pensar el discurso, debemos tener en cuenta que donde antes no existía elección posible, ahora han aparecido diversas alternativas, lo que transforma en un hecho importante para el compositor la decisión sobre el formato físico y lógico en el que su obra tendrá su forma definitiva. Efectivamente, el formato CD Audio en 44.1 KHz 16bit ha sido uno de los formatos mas usuales de Audio Digital para el trabajo en estudio, y a partir de la consolidación del CD como medio físico de distribución, hemos trabajado por años con un solo formato disponible.

Esto determinó la instalación de un doble estándar, dado que la multiplicidad de

formatos para el concierto, se oponían al formato único para la distribución. Así, los compositores han trabajado por años versiones diferentes para concierto y para la edición en CD, y la versión CD siempre ha sido importante para el compositor, a veces casi una obsesión, por ser aquella que permitiría la mas amplia difusión de su obra, fundamentalmente cuando ha debido realizar una reducción o incluso una revisión de su obra en canales múltiples para obtener una versión estéreo adecuada para CD.

A partir de la aparición del DVD y desde que ha sido mirado con atención como una alternativa válida, la elección de formato y soporte ha pasado a ser un hecho relevante para el compositor. Este tema adquiere importancia dado que todo parece indicar que nos encontramos en un nuevo punto de inflexión, tal como sucedió con el Audio CD en los años 80, la incorporación de los formatos multipista surround al mercado masivo es ya un hecho concreto. Si efectivamente se produce un cambio en el formato del soporte para distribución, y ese cambio es ampliamente aceptado, el nuevo formato se transformará en un nuevo estándar o modelo de referencia.

Aquí aparece también un nuevo desafío para el compositor: crear un producto que responda a sus necesidades estéticas y sea a la vez un producto idóneo para la distribución masiva, más allá de las estrategias comerciales

de los sellos discográficos. Entre las diversas alternativas disponibles, una correcta elección permitirá a la vez un mejor aprovechamiento de los nuevos recursos, y desde el punto de vista de la composición misma, puede contribuir a la unificación de los formatos de concierto y de distribución en un único producto.

Debemos tomar en cuenta que la evolución tecnológica no se detiene, y así como estamos asistiendo a la instalación del soporte físico Blu-Ray que reemplazará al DVD (manteniendo al menos por ahora los formatos lógicos), también nos enfrentaremos a un nuevo desafío si la tradición misma de la distribución de música sobre soporte físico es reemplazada por nuevas tecnologías de audio en alta calidad transmitidas por Internet. Los tiempos parecen ser cada vez más breves y la obsolescencia tecnológica cada vez mas acelerada.

El rango dinámico y el Discurso Acusmático en las distribuciones de canales múltiples Tal como sucedió con la transición del medio analógico al digital, que derivó en la consolidación del CD como formato generalmente aceptado, pero ahora en un sentido mucho mas amplio, un entorno multicanal permite pensar en el rango dinámico como un atributo relevante de la toma de sonido.

Esto parece confirmarse también con la evolución de las principales herramientas

Page 77: En El Límite - Escritos sobre Arte y Tecnología

en el limite | 77

informáticas para la edición digital y el procesamiento del sonido, que permiten al compositor pensar la dinámica como un elemento medular en el discurso musical, en una constante evolución del lenguaje de la Música Electroacústica. Así, a medida que el número de altoparlantes se incrementa, el compositor dispone de un rango proporcionalmente mayor que hace posible el diseño de contrastes dinámicos mucho mas amplios que en estéreo, considerando que dispone de una relación Señal/Ruido mucho mas satisfactoria, que le permite por ejemplo pensar en la creación de discursos con una marcada direccionalidad en intensidad. Por otro lado el mayor rango dinámico hace posible una mejor percepción textural de la obra musical por parte del oyente.

Nuestro desafío al encarar la creación musical en formatos de Sonido Envolvente será entonces el de no perder estas características esenciales del formato cuadrafónico u octofónico, al migrar hacia un nuevo estándar.

La aceptación global de los formatos y soportes para Sonido Envolvente y su distribución masiva, es sin dudas un elemento a favor. A cambio de sacrificar algunos canales de las distribuciones habituales en conciertos acusmáticos, tendremos una disposición espacial disponible tanto en una sala de conciertos como en espacios académicos y también domésticos. Pero por otro lado nos encontramos con dos elementos claramente contrarios o al menos enfrentados a las ideas

puramente musicales: los formatos de Sonido Envolvente fueron pensados originalmente para el cine, no para la música. Además, estos nuevos formatos aceptan muchos diferentes estándares de audio digital, algunos con valores importantes de compresión de datos, tal como ocurre con diversos formatos de audio disponibles en Internet.

Por lo tanto, ¿que formato de audio para Sonido Envolvente conviene utilizar para el discurso sonoro acusmático? No existe relación alguna entre la calidad del sonido y las reglas del mercado. Tal como ocurrió con la batalla entre Beta y VHS en el video, los formatos SACD y DVD Audio no fueron adoptados para la distribución masiva de música a nivel global, a pesar de su mayor calidad de audio. Finalmente el DVD-Video ganó la guerra.

Algunas ideas puestas en perspectivaResulta especialmente útil rescatar y poner en perspectiva algunas de las ideas y propuestas entre las muchas elaboradas a lo largo de la última década por diversos teóricos e investigadores en la materia.

Por ejemplo el artículo de Dominique Bassal “The practice of Mastering in electroacoustics” publicado por la Comunidad Electroacústica de Canadá en 2002 y por tanto escrito antes del fin de la guerra entre los diversos formatos multicanal. Las ideas y reflexiones de Bassal son sin dudas muy interesantes y útiles. Por ejemplo, plantea como una posible solución

para el uso del formato DVD-Video en música acusmática que una vez descartado el canal delantero central al que describe como ajeno a la idea puramente musical, podemos pensar en la producción de un soporte cuadrafónico de alta calidad, dado que el formato DVD-Video permite el uso de cuatro canales de audio sin compresión de datos y en 48KHz a 20 bits o bien en 96KHz a 16bits. Esta solución teórica no ha sido considerada hasta el momento por los principales diseñadores de software para la autoría de DVD… y por tanto cabe preguntarse si los lectores estándar de DVD-video serían capaces de reconocer ese producto como un formato válido.

Otro interesante trabajo es un articulo del compositor e investigador chileno Felipe Otondo “Some considerations for spatial design and concert projection with surround 5.1” presentado en el Congreso de Música Digital en Escocia en el año 2005. En su trabajo, Otondo parte de su propia experiencia de compositor y describe las principales fortalezas y debilidades de un sistema de Sonido Envolvente aplicado a la producción y difusión de la música electroacústica y hace hincapié en las diferencias entre el monitoreo del sonido y la difusión acusmática en concierto.

También en 2005, Jean-Marc Lyzwa publicó en Francia un trabajo sobre la problemática de la toma de sonido para la distribución en Sonido Envolvente de la obra Repons de Pierre Boulez: “Prise de son et restitution multicanal en 5.1.

Page 78: En El Límite - Escritos sobre Arte y Tecnología

78 | en el limite

Problematique d’une oeuvre spatialisee” El trabajo se refiere a las sesiones de grabación de la obra de Boulez realizados el 15 y 16 de Marzo de 2003 en La Cité de la Musique por el Ensemble Intercontemporain, dirigido por el autor.

La obra requiere un conjunto de 24 músicos, situado en medio de la sala, dividido en tres grupos (cuerdas, maderas, metales), con el público distribuido alrededor de los músicos. Seis instrumentistas se ubican a modo de cuadro exterior al publico y fueron registrados individualmente y tratados en tiempo real. El resto permanece en el centro y es registrado en conjunto. Lyzwa plantea que el registro estereofónico de la pieza hubiese hecho imposible la percepción de la realidad sonora que plantea la obra. Se basa en un sistema 5.1 donde no cuestiona el uso del canal frontal central. Justifica su uso por los motivos apuntados anteriormente: distribución masiva del formato DVD. Resulta imprescindible también, mencionar el trabajo de investigación y desarrollo llevado a cabo por Michael Gerzon y Peter Fellgett, en las universidades de Oxford y Reading en Gran Bretaña, en la implementación del Sistema Ambisonics. Ese trabajo fue continuado por otros centros de investigación y los resultados obtenidos son muy interesantes pero exceden el marco de este artículo dado que en principio Ambisonics parece destinado a definir un posible formato estándar de concierto y no de venta masiva. Posiblemente en el futuro cercano

los compositores de música electroacústica se planteen un nuevo doble paradigma (Ambisonics para concierto vs. 5.1 para distribución masiva) que reemplace al actual (cuadrafonía u octofonía en concierto vs. estéreo para distribución en CD).

Un elemento sin dudas destacado del sistema Ambisonics es su consideración del punto de equilibrio perceptivo o “sweet point”. Precisamente este punto es mucho mas amplio en un sistema estéreo que en sonido envolvente 5.1, y esto se agudiza por las limitaciones de espacio cuando el sistema se instala en un entorno extraño al concierto, como por ejemplo una casa particular, donde además la colocación de los altavoces no es un tema de preocupación central para el consumidor. Aquí es precisamente donde Ambisonics toma ventaja creando un espacio virtual con un punto de equilibrio perceptivo extendido a partir de solo cuatro canales reales. El sistema Ambisonics registra un campo sonoro de 360 grados utilizando un micrófono especialmente diseñado, provisto de 4 u 8 cápsulas. El registro es codificado mediante el sistema UHJ que permite obtener además un archivo estéreo compatible.

El punto débil de Ambisonics es que necesita un equipamiento dedicado, es decir especialmente diseñado, para la adecuada reproducción del sonido a partir de los 4 canales. Más allá de esta limitación, este sistema es mucho más compatible y adecuado al lenguaje de la música electroacústica que

el 5.1, pero una vez mas el mercado toma decisiones que no consideran cuestiones estéticas. Así no es habitual encontrar hoy día decodificadores para Ambisonics, incluso hay pocos en las salas de concierto. Existe sin embargo un interesante desarrollo llevado a cabo en herramientas de software como Max/MSP o Pure Data.8 Con la llegada del DVD, el sello británico Nimbus re-editó algunas grabaciones realizadas con Ambisonics en DVD-Audio formato DTS.

Alternativas para incorporar los formatos de sonido envolvente a la producción acusmáticaConsiderando entonces que el formato 5.1 en soporte DVD parece consolidarse como un estándar, y tomando en cuenta que el nuevo formato Blu-ray es en sí mismo un formato físico de mucha mayor capacidad que no altera los formatos lógicos que contiene; o mejor aún, considerando que Blu-ray permitirá el uso del audio sin compresión de datos (es decir sin pérdidas) al reemplazar los Laboratorios Dolby su viejo formato AC3 utilizado en DVD por el nuevo Dolby TrueHD, manteniendo como alternativa el uso del formato DTS actualmente empleado en las producciones en DVD-video como el formato de audio multicanal con pérdidas de mayor calidad, es razonable esperar que en el futuro cercano tendremos la posibilidad de disfrutar de audio 5.1 de alta calidad como una alternativa disponible en los reproductores de venta masiva. Podremos entonces definir diferentes estrategias para incorporar el Sonido

Page 79: En El Límite - Escritos sobre Arte y Tecnología

en el limite | 79

Envolvente en 5.1 a la producción de música acusmática, como por ejemplo: - Pensar desde un primer momento el discurso para la disposición 5.1, unificando entonces el formato de concierto con el de distribución. En este aso restará definir criterios para la utilización o no del Canal Delantero Central, como así también para la creación del “.1” (canal de sub-graves) que habitualmente suele surgir de la mezcla de los otros canales y su posterior paso a través de un filtro del tipo “crossover”. Por su parte la eliminación del Canal Delantero Central resulta en una distribución prácticamente equivalente a la Cuadrafonía.

• Continuar pensando el discurso en Estéreo y elaborar alternativas para expandir 2 canales a 5, dejando la problemática del canal central y el “.1” para el momento de la expansión.

• Continuar pensando el discurso en octofonía y elaborar alternativas para reducir 8 canales a 5. Sea cual fuere la estrategia, deberemos definir el destino del Canal Delantero Central que aparece siempre como el elemento discordante a la hora de pensar en el equilibrio de fuerzas.

Personalmente mi posición es cercana a la primera alternativa. La disposición cuadrafónica o pentafónica ofrece naturalmente mas alternativas para la distribución del sonido en el espacio que la distribución estéreo. Aún considerando su origen cinematográfico, puede convertirse en una interesante alternativa para pensar gestos y trayectorias, siempre

que consideremos los cinco canales como vías discretas y en tanto y en cuanto podamos resolver el rol del canal delantero central.

Con respecto al canal de subgraves o “.1” de hecho es hoy día habitual encontrarlo en muchas salas de concierto equipadas con ocho canales, precisamente como un refuerzo de las frecuencias inferiores del espectro. En contraposición, es necesario reconocer que la disposición en cinco canales presenta una rigidez esquemática que se contrapone con la flexibilidad y versatilidad de las diferentes disposiciones posibles de ocho canales.

Diferencias entre la disposición de canales 5.1 y diversas distribuciones octofónicasLa disposición octofónica es en sí misma una organización de canales discretos, donde cada canal tiene su propio material sonoro independiente de los demás. Esta característica propia del “8” es bien tenida en cuenta por los compositores de música acusmática que piensan su discurso para un entorno de canales múltiples.

Existen diversas distribuciones de ocho canales, entre las cuales las mas habituales son la distribución por pares, por canales cruzados y en círculo.

Page 80: En El Límite - Escritos sobre Arte y Tecnología

80 | en el limite

En contraposición a las múltiples alternativas posibles en ocho canales, la distribución 5.1 es fija y surge de la Matriz de Surround de acuerdo a las especificaciones de la empresa Dolby Laboratories Inc.

Distribución 5.1

En una distribución octofónica, el rol de los canales puede variar durante el transcurso de cada obra, pasando por ejemplo de una disposición en círculo a una por canales cruzados, etc. Si comparamos la libertad que ofrece la octofonía discreta, el formato de Sonido Envolvente significa un retroceso. Si lo enfocamos desde el punto de vista de la posible unificación del formato de concierto con el de distribución, que permite incluir la

industria discográfica con la restauración y remasterización de grabaciones de la era analógica, la consolidación del formato y soporte de Sonido Envolvente como un nuevo estándar hará necesaria la elaboración de estrategias de transcripción.

Alternativas para la transcripción de estereofonía a 5.1 canalesAnte todo, resulta a mi juicio mas adecuado el uso del concepto de transcripción que el de conversión, dado que “conversión” denota una cuestión mas técnica que estética, cuando en el caso planteado será al menos tan importante es aspecto estético como el técnico. En otras palabras, la transcripción será equivalente a llevar a la orquesta un discurso musical originalmente pensado para el piano o reducir una partitura orquestal al piano.

Para llevar a cabo este trabajo existen diversas herramientas de software basadas en la aplicación de la codificación matricial “Dolby Surround”, que por lo tanto llevan a cabo su tarea a partir de la suma o resta de canales y al corrimiento de fase de la señal. Este procedimiento no se relaciona en modo alguno con la música acusmática y permite obtener un escenario sonoro similar al de un campo estéreo ampliado, pero en definitiva pobre en cuanto a la percepción de las trayectorias.

En lugar de utilizar una de esas herramientas, podremos desarrollar un criterio original coherente con el discurso acusmático, es

distribución espacial del discurso en el soporte que puede llegar masivamente a las manos de los potenciales oyentes, resulta un avance respecto del formato CD en estéreo.

Mas allá de esto, existe en el repertorio una gran cantidad de música ya editada en CD estéreo, proveniente tanto de obras pensadas originalmente en estéreo o en canales múltiples, y como ha ocurrido en la

Page 81: En El Límite - Escritos sobre Arte y Tecnología

en el limite | 81

decir buscando preservar la percepción de los objetos sonoros y las particularidades de su desarrollo energético en el tiempo y su desplazamiento en el espacio. Un criterio original basado en estas premisas trabajará sobre la manipulación de la gestualidad sonora, lo que es absolutamente propio y característico del lenguaje acusmático que siempre trabaja sobre el gesto del sonido.

Manipulación de la gestualidaddel sonidoSaliencias GestualesEn un trabajo presentado al Congreso del Sonic Arts Network en 2004 en Leicester (Reino Unido), publicado en la colección “Escritos de Audiovisión Vol.1” de la UNLa (“Hacia Nuevos Modelos del Discurso Electroacústico Interactivo”); y con posterioridad en versión inglesa (“Towards new models for the construction of interactive electroacoustic music discourse”, en la Organized Sound Magazine, Cambridge University Press), he presentado algunas características propias del discurso acusmático como así también diferentes cuestiones relativas a la percepción del sonido por parte del oyente y su diferencia con la recepción por parte de los intérpretes de una performance interactiva entre instrumentos acústicos y medios electroacústicos. Las consideraciones relativas a la percepción por parte del público planteadas en dicho articulo, son totalmente aplicables al caso de la transcripción a un sistema de sonido Envolvente 5.1 de una pieza acusmática concebida originalmente en estéreo.

Para hablar de Gestualidad, ante todo es necesario mencionar la Teoría de la Gestalt. A pesar de que los principios de la Gestalt toman como punto de partida la experiencia visual, resultan extremadamente útiles para el análisis de la comprensión del discurso musical por estar profundamente relacionados con la percepción humana. Así, los modelos perceptuales propuestos por esta escuela son aplicables en forma general a todos los estilos musicales y su estudio hace evidente la dificultad en la percepción del discurso cuando éste toma más en cuenta el cálculo matemático o probabilístico. De acuerdo a la Gestalt, percibimos naturalmente el “todo” en forma independiente a la suma de sus partes. Así, reestructuramos los datos y percibimos una “forma” o “figura” (gestalt) y podemos discernir la idea global de un discurso, de forma que la totalidad y unidad permanecen en nuestra conciencia mas allá de que no podamos retener todos los detalles.

Los “Gestalistas” identificaron una serie de Principios o Leyes de Organización Perceptual, entre las que se destacan:Equilibrio – Enfoque – Figura/Fondo – Pregnancia o Buena Forma

Proximidad – Unidad – Semejanza – Familiaridad o Similitud

Igualdad – Simplicidad – Simetría – Isomorfismo

Continuidad o Destino Común – Cierre o Forma cerrada

Partiendo de esta idea, podemos reconocer no solo la gestualidad de un instrumentista durante la ejecución de una obra musical, sino también ciertas características gestuales del sonido mismo, a partir de la percepción de su textura. Así, nuestra mayor o menor capacidad

focal para entender la evolución del discurso sonoro hará evidentes diversos elementos perceptualmente reconocibles o Saliencias Gestuales, cuya percepción dependerá tanto de la distribución temporal de la energía del sonido como de su posición y desplazamiento espacial.

La Espectromorfología del SonidoPartiendo de la Tipo-Morfología de Pierre Schaeffer, Dennis Smalley (1986) planteó el concepto de Espectromorfología extendiendo aquellos conceptos y profundizando el análisis auditivo (aural analysis) en su articulo Spectromorphology and Structuring Processes (ya citado en este mismo articulo). Posteriormente otros autores siguieron esta idea, entre los que se destaca el trabajo de Lasse Thoresen “Spectromorphological Analysis of Sound Objects” que amplía diversos conceptos planteados por Smalley.

Entre las principales ideas introducidas por Smalley, se encuentra la de Profundidad Focal. Escribe el autor que “...sentimos la necesidad de variar nuestro foco perceptivo pasando por diversos niveles durante el proceso de escucha...”. Smalley presenta también como fundamental la relación entre el Gesto y la Textura del sonido. Escribe al respecto que “...Gesto tiene que ver con trayectoria, con la aplicación de energía y está unido a la causalidad...”

Las líneas texturales internas de la banda electroacústica favorecen las relaciones de “causalidad”. Así, la percepción del Gesto del sonido está fuertemente ligada con la percepción de la textura y finalmente con la comprensión del discurso en su totalidad.

Page 82: En El Límite - Escritos sobre Arte y Tecnología

82 | en el limite

Enfatización gestualPartiendo de estas ideas, podemos intentar orientarlas hacia la transcripción de una textura dada, concebida originalmente para una determinada distribución espacial, con el objeto de mantener su esencia en otra distribución diferente. En otras palabras, podemos comenzar por considerar el gesto propio del discurso sonoro, contenido en la percepción de sus Saliencias Gestuales, y a partir de allí enfatizar las mismas, alterando las relaciones de amplitud de forma tal que impacten en nuestra percepción de diferente manera según sea el canal por el que son proyectadas al espacio. De esta forma podremos manejar la distribución de la energía, obteniendo como resultado una “imagen sonora” más rica que la entregada por la distribución espacial en estéreo. Podemos llamar Enfatización Gestual a este procedimiento que hará mas notorio lo ya existente, y su aplicación nos permitirá jugar con la percepción del oyente en un sistema de Sonido Envolvente, ubicando por ejemplo algunas saliencias en los canales delanteros y otras en el central o en los traseros. Por supuesto, será posible aplicar el mismo criterio a la trayectoria del sonido, modificando la distribución panorámica entre canales delanteros y traseros. La aplicación de esta enfatización al plano dinámico y a la trayectoria permite reemplazar las sumas y restas de canales o las inversiones de fase habituales, para otorgar la sensación de espacialidad.

Elaboración gestualUna estrategia diferente, y por cierto muy efectiva es la de crear saliencias que no están presentes en el discurso original. Esto puede ser muy eficiente ya que producirá un efecto especialmente notable al aparecer nuevas saliencias localizadas en algunos altoparlantes y no en otros. De esta forma podemos incitar al oyente, elaborando texturas diferentes para un mismo discurso. No se trata de contradecir la idea original, sino de aprovechar

la multiplicidad de canales para obtener como resultado una mayor riqueza textural. Imaginemos por caso una grabación de una obra sinfónica, donde gracias a la disposición del Sonido Envolvente sea posible una escucha mas detallada de ciertos instrumentos, de acuerdo a cual sea la vía de sonido por la que se escuchan. El siguiente gráfico muestra la representación de la forma de onda de un fragmento de una obra acusmática, tal como surge de la mezcla original en estéreo:

Si por un instante podemos imaginar este fragmento colocado en dos de los canales de una disposición de Sonido Envolvente, será posible entonces comprender el siguiente gráfico donde

el mismo es asignado a otro par de canales dentro de la misma distribución. Podemos ver aquí la aplicación en forma alternada de Enfatización y Elaboración Gestual.

Page 83: En El Límite - Escritos sobre Arte y Tecnología

en el limite | 83

De la misma forma, podemos aplicar esta idea al posicionamiento espacial del sonido y trazar diferentes trayectorias aplicables a los canales

delanteros y traseros. El siguiente gráfico muestra una posible distribución alternativa de la energía entre canales.

transcripción de este tipo. El gráfico de la izquierda presenta esta disposición de ocho canales y el de la derecha ilustra un ejemplo de las posibles trayectorias que intentaremos preservar:

Para lograr este fin, y siempre cuidando siempre los valores resultantes de la suma de amplitudes, podemos sumar los canales impares por un lado y los pares por el otro.Así obtendremos1=1+3, 3=5+7, 2=2+4 y 4=6+8.

El gráfico de la derecha ilustra el resultado obtenido, y el de la izquierda muestra aproximadamente las trayectorias obtenidas luego de la suma de canales.

Por cierto, perderemos en el camino una parte del diseño original de espacialización del sonido, y debemos cuidarnos de no desvirtuarlo. Precisamente la reducción de

Resta por supuesto definir el rol del Canal Frontal Central, para lo cual es posible tanto la exclusión del mismo como adjudicarle un determinado material sonoro proveniente de la suma o resta de los canales derecho e izquierdo con una Enfatización o Elaboración Gestual propia, o cualquier otra estrategia del compositor.

Transcripción de una mezcla originalmente octofónica a 5.1 canalesReducir una idea originalmente octofónica para llevarla a cinco canales es sin dudas un compromiso, sobre todo teniendo en cuenta que, tal como hemos visto, existen diferentes distribuciones posibles para un discurso sonoro en octofonía. Precisamente, dada esa multiplicidad de posibilidades, de acuerdo a como sea pensada la distribución por el autor, será la estrategia de transcripción, y en cada caso deberemos cuidar que la resultante no contradiga a la idea original.

Entre las distribuciones octofónicas más habituales, la disposición por pares de canales es la menos conflictiva. Por supuesto, en todos los casos pondremos en juego el diseño de espacialización, pero esta distribución de las vías de sonido nos permite pensar en una nueva distribución en cuadrafonía discreta como un paso intermedio, a partir del cual definiremos tal como ya hemos visto, el criterio a seguir para adaptarnos al formato de Sonido Envolvente.

Para llevar esto a cabo podremos diseñar diversas estrategias. Una de ellas podría ser la reducción de cuatro de los ocho canales, de modo que queden incluidos dentro de los otros cuatro, tratando siempre de mantener las trayectorias lo mas cerca posible a la idea original. Podemos ver esto con mas claridad en los gráficos que siguen:

La distribución original octofónica por pares es, tal como hemos dicho, adaptable a una

Page 84: En El Límite - Escritos sobre Arte y Tecnología

84 | en el limite

ocho canales a cuatro, permite limitar esa pérdida, pero tan pronto como planteemos la inclusión del canal central delantero en la distribución de fuerzas, correremos el riesgo de desequilibrar el resultado.

Las otras distribuciones de ocho canales que incluyen canales centrales parecieran proponer soluciones mas adecuadas al problema del canal frontal “C”. Sin embargo, eso es relativo dado el rol estático de dicho canal en la disposición 5.1, que se contrapone con el dinamismo y variedad de todos los canales en cualquiera de las distribuciones octofónicas. La distribución de canales en un sistema de Sonido Envolvente es en sí misma una organización impar de fuerzas que no guarda relación con el equilibrio habitual de todo diseño octofónico. Por esta razón deberemos siempre estar dispuestos a modificar en mayor o menor medida la mezcla original para lograr una transcripción satisfactoria.

Con respecto al “.1”, dado que se trata de un refuerzo de graves, especialmente eficiente en aquellos sistemas de sonido envolvente donde los cinco canales “satélites” son originalmente proyectores de frecuencias medias y agudas, podremos llevar a cabo una sub-mezcla de los restantes canales y pasar el resultado por un filtro pasa-altos con una frecuencia de corte ubicada por ejemplo en los 120 Hz. o en los 80 Hz. Estos procedimientos (sobre todo el segundo) son sin dudas arbitrarios y muestran hasta que punto la rigidez del esquema

5.1 puede desnaturalizar una idea espacial originalmente concebida en octofonía.

La conclusión obvia es que la disposición de canales en un sistema de sonido envolvente permite soluciones innovadoras para la expansión del campo estéreo, pero en cambio no resulta igualmente satisfactoria al reducir la octofonía a cinco canales. Esta circunstancia puede transformarse en un estímulo para pensar el discurso acusmático originalmente en un formato de Sonido Envolvente, descartando reducciones que pueden desvirtuar la idea original del compositor.

Referencias1 “Producción del discurso sonoro para la distribución en formatos y soportes de sonido envolvente. Evolución tecnológica e influencia estética” UNLa Proyecto No. 33A083

2 El Congreso Internacional EMS’09 se llevó a cabo en el Centro Cultural Borges de Buenos Aires del 22 al 25 de Junio de 2009, organizado por la Universidad Nacional de Tres de Febrero, la Universidad de Montfort de Leicester (Reino Unido) y la Université de Paris I.

3 El EMUFEST’2009 se realizó en el Conservatorio Santa Cecilia de Roma y el Instituto Italo-Latinoamericano de Roma (Italia), entre el 8 y el 15 de Noviembre de 2009.

4 El piano introduce la posibilidad de manejar la dinámica, es decir la intensidad del sonido producido, por parte del ejecutante. Su nombre moderno deriva del original “pianoforte” que significa suave-fuerte.

5 Música Concreta o Musique Concrète tal el nombre que le dio su creador Pierre Schaeffer, músico, teorico e investigador francés (1910-1995).

6 El término “acusmático” fue introducido por Pierre Schaeffer en su “Tratado de los Objetos Musicales” para referirse a los sonidos que percibimos por ellos mismos sin atender al reconocimiento de la fuente que los produce. Mas adelante, François Bayle se refiere al discurso musical basado en las teorías de Schaeffer como Música Acusmática”.

7 Tal como sostiene Denis Smalley en su artículo “Spectromorphology and Structuring Processes” citado mas adelante de una vez en este trabajo.

8 Ambas herramientas de software para la programación orientada a objetos, específicamente diseñadas para el procesamiento de audio, no pensadas para el consumo masivo.

Page 85: En El Límite - Escritos sobre Arte y Tecnología

en el limite | 85

Schachter, Daniel: “Hacia Nuevos Modelos del Discurso Electroacústico Interactivo” en “Escritos sobre Audiovisión Vol.1” Ediciones de la UNLa (2005). Versión inglesa ampliada: “Towards new models for the construction of interactive electroacoustic music discourse” Organised Sound Magazine, Vol 12.1 pp. 67-78 (2007) Cambridge University Press (Reino Unido).

Wertheimer, Max: “Leyes de organización en las formas perceptivas”. “Untersuchungen zur Lehre von der Gestalt II”, por Wertheimer, M. (1923) en Psycologische Forschung, 4, pp. 301-350.

Thoresen, Lasse: “Spectromorphological Analysis of Sound Objects. An adaptation of Pierre Schaeffer’s Typomorphology” (Academia Noruega de Musica 2001-04) Ponencia presentada al Electroacoustic Music Studies Conference, EMS 2006

Bibliografia

Schaeffer, Pierre: “Traité des Objets Musicales” Ed. du Seuil, Paris, 1966)

Bayle, François “Musique acousmatique. Propositions. Positions” Ed. Buchet Chastel (1993)

Smalley, Denis: “Spectromorphology and Structuring Processes”, artículo incluido en “The Language of Electroacoustic Music”, editor Simon Emmerson, pp. 61–93 (Ed. Macmillan, Londres 1985)

Bassal, Dominique: “The practice of Mastering in electroacoustics” (2002) publicado por la CEC (Comunidad Electroacústica de Canadá)

Otondo, Felipe: “Some considerations for spatial design and concert projection with surround 5.1” presentado en el Congreso “Digital Music Research Network Conference”, Glasgow (2005)

Lyzwa, Jean-Marx: “Prise de son et restitution multicanal en 5.1. Problematique d’une oeuvre spatialisee: Répons de Pierre Boulez” Servicio Audiovisual – Conservatorio Nacional Superior de Música y Danza de Paris (2005)

Felgett, Peter: “Ambisonics. Part one: general system description”, Studio Sound, (1975), pp. 20-22.

Gerzon, Michael: “Ambisonics. Part two: Studio techniques”, Studio Sound, (1975), pp. 24-26 and 28.

Gerzon, Michael: “Multi-system ambisonic decoder (1—Basic design philosophy), (2—Main decoder circuits)”, Wireless World, (1977), pp. 43-47 y 69-73, vol. 83.

Gerzon, Michael: “Ambisonics in Multichannel Broadcasting and Video”, J. Audio Eng. Soc., (1985), pp. 859-871, vol. 33, No. 11.

Gerzon, Michael: “Psychoacoustic Decoders for Multispeaker Stereo and Surround Sound”, AES Audio Engineering Society 93o Congreso (1992), pp. 1-25

Page 86: En El Límite - Escritos sobre Arte y Tecnología

86 | en el limite

Andrew HillMTIMusic, Technology and Innovation CenterDe Monfort University

IntroducciónEl presente artículo constituye una introducción al estudio realizado sobre la recepción de la música audiovisual electroacústica por parte de la audiencia. En primer lugar, se analizarán las definiciones y el contexto en los que se basa este proyecto de investigación y se discutirá brevemente una serie de estudios previos (Landy 2006, Weale 2006, Lipscomb y Kendall 1994, Glass y Stevens 2005) que exponen los últimos desarrollos en la materia. En segundo lugar, se discutirá la investigación desarrollada a partir de los mencionados estudios y se presentarán posibles hipótesis de investigación. Finalmente, se introducirá un método de categorización para los distintos tipos de composiciones audiovisuales electroacústicas.

Definición de música audiovisual electroacústica Los términos “electroacústica” y “audiovisual” carecen de definiciones precisas; sin embargo, a los fines de este trabajo y con el objeto de intentar esbozar el material tratado en este estudio, he adaptado la definición de “electroacústica” empleada por Simon Emmerson y Denis Smalley: El término “electroacústica” señala un tipo de música en el que se emplea tecnología electrónica (en la actualidad, principalmente basado en computadoras) para acceder, generar,

explorar y configurar materiales sonoros, y cuyo principal medio de transmisión son los parlantes”. (EARS/1)

Una obra de música audiovisual electroacústica podría, entonces, definirse como una entidad cohesiva en la que se emplea tecnología electrónica, generalmente basada en computadoras, para acceder, generar, explorar y configurar imagen y sonido, con el objeto de crear una expresión audiovisual conformada musicalmente. Las obras de música audiovisual electroacústica exploran las posibilidades que genera la combinación de dos medios que se basan en el tiempo (el sonido y la imagen en movimiento).

Contexto de la investigación Generalmente, la gran mayoría del público se muestra dispuesto a aceptar la aplicación de arte sonoro y efectos especiales de sonido (foley work) en material cinematográfico debido a que éstos complementan y mejoran su experiencia visual (Landy, 1991). Sin embargo, cuando los mismos elementos se sacan de este contexto y se presentan en forma de una obra musical audiovisual electroacústica, se advierte que la mayoría de los espectadores se esfuerzan por encontrar un significado o por apreciar las obras. Por consiguiente, es necesario llevar a cabo una investigación sobre la respuesta que genera la música audiovisual electroacústica en la audiencia para poder así dilucidar las posibles razones que justifiquen esta diferencia y para poder también descubrir la efectividad de diversos factores en proveer a la audiencia “algo

a lo cual aferrarse”, un factor de accesibilidad. (ver Landy, 1994).

El proyecto “Intención/ Recepción” (I/R) llevado a cabo por Leigh Landy y Rob Weales (Landy, 2006; Weale, 2006) contiene pruebas que sugieren que la música electroacústica puede atraer a un público más amplio que aquel que la aprecia actualmente. La investigación también demostró que la información contextual de las composiciones (su título, notas de programa, la intención del autor) facilita el acceso del público a la obra. Esta información contextual demostró ser de particular importancia en casos de público inexperto en la materia a medida que se aumentaba la naturaleza abstracta del material sonoro. (Weales, 2006: 194).

Si bien la música electroacústica y la música audiovisual electroacústica se hallan estrechamente vinculadas, la introducción de material visual al musical (y viceversa) altera considerablemente la percepción del público (Chion 1994:5). Por lo tanto, es imposible hacer una comparación directa entre los resultados de los estudios previos sobre música electroacústica y aquellos que se obtengan en el presente estudio de música audiovisual electroacústica. No es el objetivo de este estudio realizar la comparación de la recepción del público en ambos casos, sino tomar y desarrollar los aspectos fundamentales de la metodología probada y comprobada, empleada hasta entonces para la música electroacústica, a fin de aplicarlos en el estudio sobre la recepción que la música audiovisual electroacústica tiene en la audiencia.

Desarrollo de un lenguaje para la MúsicaAudiovisual ElectroacústicaInvestigación sobre su comunicación y clasificación

Page 87: En El Límite - Escritos sobre Arte y Tecnología

en el limite | 87

Investigaciones previas en este ámbitoPor muchos años, la música cinematográfica ha sido objeto de análisis por parte de múltiples y variadas disciplinas de investigación académica. Estos estudios comprenden desde debates teóricos (por ejemplo, Chion 1994), investigaciones psicológicas empíricas (por ejemplo, Hodges, Hariston and Burdette, 2005) hasta teorías basadas en modelos cognitivos de recepción de música cinematográfica (por ejemplo Cohen 2001). La mayoría de los estudios previos basados en el público pueden dividirse en dos categorías: aquellos que buscan investigar la percepción sensorial humana de eventos audiovisuales aislados (por ejemplo, Hodges, Hariston y Burdette 2005, Lipscomb y Eugene 2004) y aquellos que buscan investigar la recepción del público de partes u obras completas (por ejemplo, Marshall y Cohen 1988, Lipscomb y Kendall 1994). El primer tipo de estudio tiende a centralizarse en la investigación de respuestas sensoriales humanas, y busca explorar cómo diferentes corrientes de información sensorial se influencian unas a otras. El segundo tipo de estudio tiende a investigar los correlatos audiovisuales de la cognición humana, teniendo en cuenta el contexto en forma de mímesis1 y diégesis2.

Muchos de estos estudios sobre el público (ambos tipos) distinguen entre lo que clasifican como “música” y “sonido”. Dichos estudios los consideran como entidades diferentes (o frecuentemente ignoran por completo el

contenido sonoro no orquestal, por ejemplo, “[...] se eliminó la banda sonora original [y] y la partitura musical del disco compacto de la banda de sonido se mezcló luego directamente sobre el video, y se eliminó este ruido extra musical” (Lipscomb and Kendall 1994: 65)). Sin embargo, el contenido sonoro completo tiene el potencial de influenciar la recepción de la audiencia. Chion (1994) clasifica al sonido en diegético y no diegético. El sonido diegético es parte del discurso narrativo primario (por ejemplo, el sonido de una representación musical que acompaña imágenes de la misma representación), mientras que el sonido no diegético no forma parte de la narrativa primaria (por ejemplo, la música ambiental).

En lugar de tender a la distinción entre contenido sonoro diegético y no diegético, las obras de música audiovisual electroacústica poseen un componente de audio cohesivo de sonido organizado; sin embargo, los proyectos de investigación sobre esta materia que se centran en la recepción del público de la música cinematográfica están obligados a lidiar con esta división. Se discutirán a continuación tres estudios empíricos de gran importancia para la investigación actual,

1. Lipscomb y Kendall (1994) investigaron las respuestas del público a veinticinco combinaciones audiovisuales.3 Estos ejemplos se crearon mediante la remoción de cinco clips de una película de Hollywood a los que se les intercambió el audio. Esto tuvo como resultado

una serie de ejemplos audiovisuales que daban cuenta de la intención del compositor y una amplia colección de ejemplos audiovisuales que consistían en combinaciones visuales y musicales donde no figuraba la intención del compositor original. Se convocaron a tres estudiantes de composición de música de películas para crear los nuevos ejemplos audiovisuales. En cada ejemplo audiovisual, se intentó sincronizar, de la mejor manera posible, los componentes auditivos y visuales (Lipscomb y Kendall 1994: 65). De este modo, podría decirse que estos nuevos ejemplos audiovisuales fueron “recompuestos”. Dos experimentos se llevaron a cabo luego, en el primero se le pidió a la audiencia que indicara en su respuesta la categorización más adecuada, y en el segundo se le pidió a los miembros del público que asignaran una puntuación a los ejemplos de clips en una escala de diferencial semántico.

Los resultados del primer experimento demostraron que la audiencia identificó de manera significativa como mejor opción a la composición que reflejaba la intención del compositor; sin embargo, los resultados de la mayoría de los clips visuales abstractos fueron menos significativos. Esto se atribuyó al hecho de que “la mejor opción” se vuelve más difícil de juzgar en escenas abstractas, porque cada pista de audio puede dar lugar a una interpretación distinta de la escena antes de ser juzgados como inapropiados (Lipscomb y Kendall 1994: 69). Esto indica

Page 88: En El Límite - Escritos sobre Arte y Tecnología

88 | en el limite

un defecto fundamental en la manera en que la intención del compositor fue evaluada por el proyecto en cuestión. Tal intención se juzgó con respecto a cuál fue la condición audiovisual original, en vez de evaluarla a través de un análisis más detallado del significado de la intención, contenido emotivo o contexto. La recomposición de los clips originales en las muestras audiovisuales a evaluar, también indica que las intenciones de estos “recompositores” se impusieron sobre los ejemplos. De esta manera, la divulgación de “la mejor opción” de las respuestas del público, puede ser un reflejo de las intenciones de estos “recompositores” en lugar de la intención proporcionada a través de la composición orquestal original.

2. El segundo experimento de Lipscomb y Kendall demostró que los puntajes que los individuos otorgaron en una escala de diferencial semántico variaron en forma significativa cuando el contenido musical cambiaba. La música que indicaba la intención del autor recibió las calificaciones más altas de la escala, lo que indica que “el juicio evaluativo se ve afectado por la precisión con la que se conjugan la coordinación de los componentes visuales y musicales en el contexto de una composición audiovisual”. (Lipscomb y Kendall 1994: 77). El segundo experimento también indicó que el componente auditivo de un ejemplo audiovisual tenía un impacto más significativo sobre la calificación evaluativa que el contenido visual, aunque probablemente

la situación experimental en sí misma haya influenciado los resultados. Al eliminar todos los sonidos diegéticos de los ejemplos audiovisuales, la atención podría haberse centrado en la banda sonora no diegética, creando así una experiencia cinematográfica “no natural”, lo que sería irónico debido a la insistencia de los investigadores en querer usar muestras “reales”. Ellos citan:

“Dado que nuestro interés se centra en la búsqueda de elementos musicales, debemos asegurarnos que el material provisto para la observación representa música real y no meramente elementos recortados para propósitos experimentales a tal punto que dejen completamente de lado la música”. (Hevner 1936: 248)

Este estudio usará como ejemplos de prueba obras musicales audiovisuales electroacústicas reales para asegurar que los resultados reflejen realmente la recepción de la audiencia de dichas obras y no de simples ejemplos audiovisuales y se requerirá a sus compositores que brinden una interpretación detallada de sus intenciones al realizarlas.

3. Renee Glass y Catherine Stevens realizaron un importante estudio titulado “Making Sense of Contemporary Dance” – “Comprensión de la Danza Contemporánea”- (Glass y Stevens 2005), que investigó la recepción de la audiencia de trabajos experimentales completos. En este caso es relevante al presente estudio debido a un interés común por la recepción de la audiencia, el acceso, y

las propiedades que ambas formas artísticas tratadas tienen en común. La danza, al igual que la música audiovisual electroacústica, contiene tanto elementos visuales como sonoros, que están relacionados y estructurados en el tiempo. Glass y Stevens descubrieron que el hecho de haber brindado información a la audiencia antes del espectáculo no impactó significativamente en la tendencia a interpretar la pieza, pero sí afectó el contenido de la interpretación (2005:6).4 El noventa por ciento de los miembros de la audiencia mostró cierto nivel de comprensión del trabajo, mientras que se consideró que el diez por ciento restante que no interpretó la pieza, mostró falta de compromiso intelectual con la obra.

Por el contrario, el proyecto de Intención / Recepción que realizaron Landy y Weale mostró que la información dramatúrgica5 (en forma de información del título e intención del compositor) facilitó e influyó en gran medida la interpretación de la audiencia. El ochenta por ciento de los participantes de la audiencia manifestó que la información dramatúrgica constituyó un factor importante en la interpretación de las obras (Weale 2006:194). Esta diferencia interesante podría sugerir que las audiencias necesitan más ayuda para entender y contextualizar las obras basadas puramente en sonido (como la música electroacústica) que aquellas con un elemento visual (como la danza). Asimismo, la danza en sí misma resultó ser el elemento visual que provocó el mayor disfrute en la audiencia,

Page 89: En El Límite - Escritos sobre Arte y Tecnología

en el limite | 89

mientras que el componente auditivo resultó ser, en promedio, la cuarta causa, detrás de las características del bailarín y el movimiento (Glass y Stevens 2005:7)

Este hallazgo de la importancia visual para la recepción de la audiencia respecto de la danza se opone a la importancia atribuida a la banda sonora musical en la recepción de ejemplos audiovisuales en el estudio de Lipscomb y Kendall (1994: 77). Posiblemente, esta discrepancia se deba muy probablemente al resultado de metodologías de investigación no neutrales en las cuales los resultados del estudio se condujeron en cierta dirección como resultado del procedimiento de la evaluación en sí mismo, o posiblemente debido al énfasis perceptual impuesto por la forma de expresión artística. La falta de sonido diegético en los ejemplos audiovisuales de Lipscomb y Kendall pudo haber servido para centrar la atención perceptual completamente en la banda sonora mientras que en la danza se centra principalmente en el movimiento del bailarín en el espacio. De esta manera, la atención de la audiencia se desvía hacia el audio en los ejemplos audiovisuales de Lipscomb y Kendall y hacia el aspecto visual en los trabajos de danza estudiados por Glass y Stevens. Los compositores de música audiovisual electroacústica dependen tanto de los elementos auditivos como visuales para la realización de sus trabajos y generalmente asignan la misma importancia al sonido y a la imagen. Como consecuencia, se aplicará un esfuerzo conjunto

para asegurar que el procedimiento de prueba actual no priorice un elemento sobre otro.

La investigación sobre accesibilidad y recepción de las obras de música audiovisual electroacústica puede relacionarse con cada uno de los proyectos de investigación discutidos anteriormente. Sin embargo, la naturaleza de la forma artística en cuestión y las diferencias en cuanto a las metodologías empleadas implican que ningún dato sobre recepción de la audiencia puede compararse directamente. Los tres estudios han demostrado la importancia de investigar obras completas en oposición a clips cortos editados, y de dilucidar temas importantes al llevar a cabo una investigación efectiva y confiable de recepción de audiencia, lo que puede servir de base para el desarrollo de hipótesis experimentales

Objetivos e hipótesisdel presente proyecto

El impacto de la información dramatúrgicaEl principal objetivo del presente trabajo de investigación es estudiar el impacto que la información dramatúrgica tiene sobre la recepción de las obras de música audiovisual electroacústica por parte de las audiencias inexpertas. Se postula que la información dramatúrgica afecta la interpretación de las obras de música audiovisual electroacústica, aunque la misma no está destinada a tener un impacto significativo en cuanto a accesibilidad

como lo tuvo en las obras de música audiovisual electroacústica en el proyecto I/R.6 Es probable que, al igual que para la danza contemporánea, las audiencias inexpertas puedan construir interpretaciones para las obras de música audiovisual electroacústica sin información dramatúrgica detallada, pero ésta ayudará a las audiencias a construir una interpretación más profunda de las obras. Se propone que la combinación de múltiples medios (en el caso de la música audiovisual electroacústica: elementos de comunicación visuales y auditivos) permite que un elemento de comunicación contextualice al otro en ‘tiempo real’ y viceversa, mientras que la información dramatúrgica contextualiza la obra ‘fuera de tiempo’. Estas contextualizaciones en ‘tiempo real’ y ‘fuera de tiempo’ funcionan de diferentes maneras y ambas contribuirán a la accesibilidad e interpretación generales del trabajo. Sin embargo se prevé que debido a la contextualización en ‘tiempo real’ producto del discurso audiovisual, la información dramatúrgica (‘fuera de tiempo’) parece ser un factor menos significativo en el aumento de los niveles de acceso e interpretación de la audiencia, si se comparan los datos de acceso del presente estudio con aquellos del proyecto I/R original.

A los fines de este proyecto, se les solicitará a los compositores/artistas multimediales que completen un cuestionario referido a la intención del artista donde esbozarán y describirán sus intenciones en el trabajo. Esta información, así como también las propiedades del trabajo en sí, serán tomadas en cuenta al

Page 90: En El Límite - Escritos sobre Arte y Tecnología

90 | en el limite

seleccionar ejemplos adecuados de trabajos para su análisis. Se les pedirá directamente a los compositores que provean información sobre su composición con el fin de limitar el nivel de mediación de la información. Si el investigador percibe la pieza e intenta decodificar las intenciones, entonces lo que percibe ya está mediado. Los trabajos para este estudio se solicitarán por medio de un llamado abierto, cuyo fin es recoger muestras que presenten mayor diversidad que si hubieran sido compuestas por el mismo investigador.

Clasificación y accesoOtro de los propósitos de este trabajo es la investigación acerca de la clasificación y accesibilidad de diferentes tipos de composiciones audiovisuales electroacústicas. El proyecto I/R original clasificaba y diferenciaba las distintas obras en función del reconocimiento de sus fuentes sonoras. Aquellas obras que contenían sólo material auditivo del mundo real se contrastaron con una selección de obras que contenían una cantidad de material auditivo abstracto en aumento. La inclusión de un segundo elemento en las composiciones audiovisuales electroacústicas aumenta de manera considerable la complejidad de la situación. En primer lugar, cada elemento puede tener un nivel de independencia de abstracción de la fuente del material y, en segundo lugar, las formas en que los dos elementos se combinan dentro del discurso audiovisual genera una gran influencia sobre la significación construida y la percepción del significado .

Se presupone que el nivel de reconocimiento de la fuente original de materiales será de menor importancia para las obras musicales audiovisuales electroacústicas que para las obras musicales electroacústicas debido a la autocontextualizante “vinculación entre fuentes” entre los materiales auditivos y visuales en dichas obras. Se utilizarán también los resultados obtenidos del estudio empírico, junto con la literatura existente sobre percepción y semiótica de música cinematográfica, para construir modelos teóricos específicos sobre la percepción de la audiencia y el acceso a las obras audiovisuales electroacústicas.

La relación entre la intención de la composición y la recepción de la audienciaCuando los materiales auditivos y visuales se combinan en un discurso audiovisual (como en otras situaciones) se construye significado. La intención de la composición, ya sea consciente o inconsciente, selecciona la forma más apropiada del sonido y la imagen para un fin específico. En algunos casos, este proceso de composición puede tener en cuenta las propiedades del material individual, el tipo de asociaciones sonoras/visuales dentro de eventos audiovisuales individuales y el impacto de estos eventos individuales dentro del contexto de la obra completa. Este tipo de estructuración es similar al de la teoría de la articulación en semiótica, en la que un mensaje general puede descomponerse en unidades más pequeñas, significativas en sí mismas. (Chandler 2004)

El proceso compositivo (cualquiera de las dos acepciones) mencionado se observa en todos los compositores7 (tal vez limitados por la memoria) e incluye el modo en el que ellos mismos recepcionan las obras. Por ello, el proceso por el cual los compositores eligen sus materiales y componen puede estar muy influenciado por el proceso de recepción.

Annabel Cohen hace referencia a una serie de estudios neurológicos que muestran un sistema de estructuración similar para la recepción de la audiencia. En su discusión acerca de la música como fuente de emoción en películas, presenta un número de proyectos de investigación que sugieren que el “cerebro funciona tanto a través de principios de asociación innatos como de conexiones adquiridas” (Cohen 2001: 259). Basada en esta información, Cohen construyó un marco de congruencia -asociacionista para el entendimiento de la comunicación fílmico musical” (Cohen 2001: 259) (Figura 1). Este modelo propone que varios canales que representan los elementos comunicativos de una película operan en paralelo a través de cuatro niveles de procesamiento. Se produce interacción entre los canales y en ambas direcciones a lo largo del canal. Los cuatro niveles de procesamiento abarcan desde el análisis de las propiedades físicas del elemento imagen/sonido (A), pasando por el análisis y construcción de estos elementos para seguir con la información estructural (gestalt) y semántica (asociacionismo) (B). El resultado del nivel B permite la asociación entre canales

Page 91: En El Límite - Escritos sobre Arte y Tecnología

en el limite | 91

y puede dirigir formas de preatención en niveles superiores. La memoria de corto plazo (en inglés STM) se da en el nivel C donde la información narrativa puede construirse partiendo de múltiples fuentes y sus contextos inmediatos para que los individuos de la audiencia interpreten los estímulos. El nivel

superior (D) representa a la memoria de largo plazo (en inglés LTM) que recibe la información de todos los niveles y tiene un proceso que parte de lo general a lo específico cuyo fin es la construcción de una narración a través de un marco temporal más amplio, lo que involucra la integración del conocimiento experiencial.

Figura 1.

La congruencia-

asociacionista de Cohen,

un marco para la

comprensión de la

comunicación fílmico-

musical”

(Cohen 2001: 259)

Este modelo cognitivo estructurado está respaldado por teorías de recepción musical y semiótica inspiradas en la ecología.

Eric F. Clarke sostiene que la música puede funcionar de manera simultánea como un conjunto autónomo de características o como ‘’una realidad virtual compuesta por objetos y eventos que se experimentan simultáneamente en forma de motivos musicales, grupos rítmicos y cadencias, como así también por espacios, acciones, lugares y agentes’’, y como una experiencia enraizada en las relaciones que se establecen con los actos, objetos, lenguaje, interacciones sociales del “mundo real’’ (Atkinson 2009:89 [énfasis original] )

El modelo propuesto por Cohen incluye los tres canales paralelos a los que considera como los flujos de comunicación más significativos dentro de una película: ‘‘el diálogo’’, ‘’la imagen’’ y ‘’la música’’. En la aplicación de este modelo en el campo de las obras de música audiovisual electroacústica, el elemento hablado resulta bastante superfluo (si bien puede resultar útil en el análisis de aquellas obras donde la palabra hablada, en tanto expresa un texto narrativo, constituye un elemento)8.

Si este modelo (con exclusión del canal de diálogo) se aplica, en efecto, como un marco básico para entender la comunicación que se establece en una obra de música audiovisual, podemos entonces ver que la significación final está formada por la totalidad del discurso audiovisual y que las interpretaciones individuales surgirán como resultado del

Page 92: En El Límite - Escritos sobre Arte y Tecnología

92 | en el limite

enfoque propio (consciente o inconsciente) de cada miembro de la audiencia sobre niveles de procesamiento diferentes en distintos momentos de la obra9.

Los niveles A y B que se centran principalmente en las propiedades físicas de los elementos individuales pueden aportar información significativa con respecto a cuál será el significante; pero no es hasta que estos elementos son contextualizados por las memorias a corto y largo plazo (niveles C y D) que tiene lugar la significación final. Atkinson plantea el proceso de significación en la música electroacústica y destaca que existe una coexistencia del discurso espectro-morfológico con otros signos más complejos, como son por ejemplo ‘’las metonimias y metáforas musicales (…) que requieren o invitan a la interpretación por parte del oyente en contextos específicos y temporales’’ (Atkinson 2008:91). La interpretación de las obras de música audiovisual electroacústica por parte de la audiencia se produce entonces por la totalidad de su discurso audiovisual y la significación representa la integración de los medios de producción, las propiedades materiales y el contexto teorético.

Desarrollo de una metodología efectivaLo más significativo al momento de desarrollar una metodología efectiva es la limitación de variables que pudieran producir cambios en la recepción y apreciación por parte de la audiencia. Como se demostró mediante el

debate previo sobre los estudios de investigación existentes, es necesario que la metodología de investigación sea lo más transparente posible de manera que no influencie los resultados de forma no intencional. Es necesario, también, que el investigador sea capaz de controlar por completo la información de entrada (input) (por ejemplo, los materiales presentados durante las sesiones de investigación) y de establecer un sistema efectivo y transparente para registrar de un modo más preciso la información de salida (output) (por ejemplo, la interpretación por parte de los miembros de la audiencia de los materiales presentados).

Al utilizar el modelo de la metodología Intención/Recepción, se recopilará información de las respuestas de la audiencia para este proyecto a través de una serie de cuestionarios cualitativos de respuestas de la audiencia y de sesiones de grupos focales. La importancia de recopilar información cualitativa reside en que la misma proporciona los medios más ricos a través de los cuales las audiencias pueden registrar sus interpretaciones subjetivas sobre las obras analizadas. Las metodologías cuantitativas tales como las escalas de diferencial semántico son una manera muy restrictiva de medir la apreciación de la audiencia, y, en algunos casos, la sobre-simplificación del proceso de interpretación puede derivar en la distorsión de los resultados. Además, Weale consideró que incluir un debate bastante informal al finalizar cada sesión de recopilación de

datos permitía interpretaciones con detalles más expresivos que en las respuestas escritas (2006: 191). Sin embargo, también se observó que recopilar los registros de estos debates informales resultó complejo ya que cada vez que se intentó grabar las sesiones, muchos participantes no opinaron.

Se espera que el hecho de incluir estas sesiones de debate como parte del proceso formal de evaluación, minimice esa falta de interés por participar. Los textos en los que se discute la efectividad en el funcionamiento de estas sesiones de grupos focales se utilizarán para informar el desarrollo de un método y entorno efectivos para la recopilación de la información obtenida en los debates de estos grupos10.

Por lo tanto, además de mantener el proceso de recopilación de información lo más abierto y transparente posible, es necesario definir claramente las variables que se investigan. En el caso de este proyecto, las variables experimentales son la obra que se analiza y el nivel de información dramatúrgica que se ha provisto a la audiencia. Si bien es relativamente fácil controlar la cantidad de información dramatúrgica que se provee a los miembros de la audiencia, es mucho más complicado definir y categorizar diferentes tipos de obras de música audiovisual electroacústica para análisis.

Page 93: En El Límite - Escritos sobre Arte y Tecnología

en el limite | 93

Como categorizar las obrasindividuales para su análisisEl proyecto Intención/Recepción (Landy, 2006, Weale, 2006) seleccionó diferentes ejemplos de obras que presentan distintos

niveles de reconocimiento de fuentes sonoras para utilizarlos en sus procesos de análisis. Dichas obras se encuentran en una escala que va desde la “ubicación del paisaje sonoro”, donde la fuente del material sonoro

Figura 2Continuo utilizado por Landy + Weale en el proyecto Intención/Recepción11.

Como se ha mencionado anteriormente, al intentar transferir este método de significación directamente a las obras de música electroacústica audiovisual, surgen dos complicaciones importantes.

En primer lugar, tanto el aspecto sonoro como el aspecto visual pueden variar en el nivel de abstracción que presentan con respecto a su fuente original en el mundo real. Con el objeto de intentar representar esta primera complicación, construimos un esquema planar (de coordenadas) de dos ejes. El primer eje representa el contenido del mundo real en materia auditiva en una escala que va de alto a bajo. El segundo eje representa el contenido del mundo real en el campo visual, en una escala de alto a bajo (Figura 3).

Figura 3:Campo bidimensionalque comprende tanto ala abstracción visualcomo a la auditiva.

se distingue claramente hasta “el referencial abstracto’’, donde el material sonoro se procesó, eliminando la conexión directa con su fuente, aunque aún preservaba características similares a los sonidos del “mundo real” (MR). (Weale, 2006) (Figura 2).

Page 94: En El Límite - Escritos sobre Arte y Tecnología

94 | en el limite

En segundo lugar, por la manera en que los materiales audiovisuales están asociados, no se efectuó relación alguna dentro del campo bidimensional (figura 3) y podría decirse que este es el factor variable más significativo en una obra de música electroacústica audiovisual. Aunque inicialmente podría parecer lógico agregar simplemente un tercer eje de “interacción audiovisual” que vaya desde el mundo real al abstracto, existen problemas de importancia al respecto que provienen (entre otras cosas) de la naturaleza autocontextualizante de las obras de música electroacústica audiovisual. Una imagen extremadamente abstracta podría asociarse con un sonido del mundo real de una manera muy sincrónica y causal, por ejemplo un polígono coloreado que se rompe en dos partes de acuerdo al sonido de un fuerte golpe de hacha sobre madera. Esta asociación resultaría muy sincrónica y potencialmente causal, pero no podría definirse como del mundo real porque tal asociación, entre el mundo abstracto y el real, nunca ocurriría en el entorno real. Por lo tanto, sería apropiado cambiar el ejemplo en cuestión al tercer eje para una asociación audiovisual abstracta. Sin embargo, mientras que la asociación sincrónica de un evento abstracto y del mundo real se puede definir como una asociación audiovisual abstracta, también se puede aplicar tal definición a la asociación no sincrónica de un evento sonoro del mundo real con un evento visual del mundo real (por ejemplo: imágenes de una calle urbana muy transitada con el sonido

de pájaros cantando en el campo). Esto presenta claramente un problema, ya que estos dos ejemplos contienen diferentes tipos de asociaciones audiovisuales y aún así se clasifican en una posición similar en los ejes.

Significación Como lo demostramos anteriormente, existe una clara conexión entre la intención compositiva y la recepción de la audiencia respecto del significado. El compositor crea el significado en la composición de su obra y la audiencia lo interpreta al percibir dicha obra. Cualquier definición de obras que usen el significado como criterio (como así también otros criterios estéticos) deben de tener en cuenta el hecho de que la subjetividad es inevitable en la percepción de una expresión artística. Lawrence Kramer plantea:

Las afirmaciones interpretativas […] están cultural y socialmente condicionadas, son sensibles al contexto y al producto de la educación y el diálogo. […la subjetividad] no debe entenderse como una condición de la existencia privada cerrada en sí misma, sino como una condición de interconexión pública, una posición – o serie de posiciones- en una red de prácticas y representaciones. (Kramer in Atkinson 2008: 89).

Con las metonimias y las semiosferas construidas dentro de un discurso audiovisual, subjetivamente y por consiguiente como signos abiertos12, interpretados de varias formas por diferentes miembros de una audiencia, no es posible usar algún aspecto concreto o específico

del significado como factor de clasificación (por ejemplo, no es posible clasificar obras basadas en temas específicos que los compositores intentan significar, o lo que un miembro de la audiencia interpreta, porque otro miembro de la misma puede construir una interpretación radicalmente diferente). Sin embargo, puede ser posible diferenciar entre obras basadas en la complejidad del significado construido dentro de sus discursos.

La escala del significado puede variar en rango desde lo a simple a lo complejo con obras clasificadas por complejidad relativa. Un significado simple presenta estímulos directamente relacionados al concepto que se intentó significar (por ejemplo, el Rey Ricardo era valiente y fuerte), mientras un significado más complejo opera posiblemente de forma muy similar a una metáfora, según la cual los estímulos relacionados de forma menos directa se asocian en la creación de un significado construído (por ejemplo, el Rey Ricardo era un León). Esto se puede demostrar más adecuadamente con otro ejemplo, el significado de opresión. Una representación relativamente simple de este concepto (opresión) puede presentar materiales desde salas de noticias o fuentes periodísticas mostrando documentación de tiranía o represión física del mundo real. Una representación más compleja puede presentar imágenes desde el interior de la celda de una prisión acompañada de gritos/alaridos de voces humanas sometidas a tormentos y torturas. Incluso se puede aplicar mayor complejidad para significar opresión a través del

Page 95: En El Límite - Escritos sobre Arte y Tecnología

en el limite | 95

uso de estímulos basados en un sonido duro e incesante, en un intento de ubicar a la audiencia en una situación alegórica de opresión.

Cada uno de estos ejemplos puede, de alguna manera, interpretarse como que significan opresión, diferenciándose cada uno de ellos en su relativa complejidad. Categorizar las obras usando el criterio de “complejidad del significado” ayudará a evitar las complicaciones inherentes a la utilización de la palabra abstracta para definir un correlato audiovisual autocontextualizante y permitirá la clasificación de diferentes estilos o métodos de comunicación. Es probable que a medida que se incremente el grado de complejidad, la audiencia requiera más información dramatúrgica a fin de contextualizar y comprender la obra.

El cubo de lenguajeEl uso de la significación como criterio de clasificación para las obras de música audiovisual electroacústica toma en cuenta las propiedades de los elementos de imagen y sonido, sus relaciones en el discurso (estos tres, audio, video y su relación, son las propiedades materiales de la obra), el contexto teórico de la obra y, lo más importante, la intención del compositor (la significación que se pretende).

A pesar de que las propiedades de los elementos individuales de imagen y sonido ya están, hasta cierto punto, contempladas en los criterios de significación, tal vez aún sea útil conservar la clasificación de estas

variables en dos ejes independientes, debido a la importancia que se demostró que poseían para influir en el acceso e interpretación de las obras en el proyecto de Intención/Recepción (Landy 2006, Weale 2006).

Por lo tanto, agregar la significación como tercer factor variable a nuestro campo bidimensional (figura 3) produce un ‘cubo de lenguaje’ tridimensional en el que es posible clasificar las obras de música audiovisual electroacústica.

Figura 4.El cubo del lenguaje: un campo tridimensional para la clasificación de obras de música audiovisual electroacústica.

Puede marcarse un punto en cualquier lugar del cubo para definir las características de una obra en un momento preciso en el tiempo. Por supuesto, la naturaleza temporal de las obras de música audiovisual electroacústica implica que las propiedades de una obra pueden cambiar a través del tiempo y por eso es poco probable que un momento fijo represente de forma suficiente una obra completa. Es

posible, sin embargo, dividir la cuadrícula en varias zonas demarcadas en las que puede ubicarse el énfasis principal de una obra. Esto funciona de manera muy similar a las divisiones en la Grilla de Lenguaje propuesta por Simon Emmerson (Emmerson 1986).

Page 96: En El Límite - Escritos sobre Arte y Tecnología

96 | en el limite

ResumenEste proyecto tiene por objeto analizar la carencia de discurso teórico específico para las obras de música audiovisual electroacústica. La investigación sobre el acceso a y la recepción de las obras de música audiovisual electroacústica por parte de la audiencia proporcionará un fundamento sólido para el desarrollo de teorías aplicables específicamente a la música audiovisual electroacústica. Se analizaron de manera crítica proyectos anteriores de investigación que estudiaron la recepción/percepción de música (Landy 2006, Weale 2006), danza (Glass y Stevens 2005) y música cinematográfica (Lipscomb y Kendall 1994) con el fin de desarrollar y construir una metodología eficaz y confiable, así como también de informar hipótesis de investigación. La recepción de la audiencia de las obras artísticas audiovisuales electroacústicas es un asunto subjetivo, pero la clasificación de las obras de acuerdo con la complejidad de significación permitirá una clara evaluación del rol que cumple la información dramatúrgica en el aumento de la accesibilidad y para ayudar a la audiencia en la interpretación.

Es apropiado que se haya propuesto un modelo para la relación entre la recepción de la audiencia y la intención del compositor para las obras de música audiovisual electroacústica mediante la integración de investigaciones en psicología, neurología, semiótica y estética musical para esta forma de expresión artística interdisciplinaria. Este

proyecto de investigación continuará desarrollando los modelos propuestos por una amplia variedad de disciplinas, y empleara los resultados obtenidos en este estudio empírico, en un discurso teórico o lenguaje específico para la música audiovisual electroacústica.

Traducción de los alumnos del Traductorado Público en Idioma Inglés: Adriana Coca, Leonel Donozo, Juliana Fernádez Casas, Mayra Maldonado, Guido Montesano, Marcelo Ranieri, Bárbara Riccardi, Verónica Romañach y Lucas Traba. Revisado y supervisado por Trad. Publ. Victoria Illas.

Referencias1 Mímesis se refiere a la imitación no solamente de la naturaleza sino también de los aspectos de la cultura humana que no están usualmente asociados con el material musical. (Emerson 1986: 17)

2 Diégesis se refiere al hecho de contar una historia. La diégesis contiene elementos tales como personajes, eventos y cosas dentro de la narrativa principal o primaria. (Prince 2003)

3 Lipscomb y Kendall denominaron “combinaciones (composites) audiovisuales“ a los ejemplos que examinaron, pero a los efectos de esta investigación se referirá a los mismos como “ejemplos audiovisuales”.

4 Cabe destacar que en el estudio de Glass y Stevens, la información contextual no fue brindada por el coreógrafo o el artista directamente, sino por un académico o experto en ldanza. Por lo tanto, en este caso, la intención de la información ya había sido construida subjetivamente por los expertos antes mencionados y editada para la representación ante las audiencias

5 Dramaturgia es un término adoptado del teatro para el proyecto de Intención/Recepción y en este contexto incluye todos los elementos que influenciaron la creación de una determinada obra (Landy 1990)

6 Algunos artistas no aplican intenciones conscientes cuando crean sus obras y por lo tanto, encuentran difícil expresar o explicar estas intenciones en palabras. Las obras de este tipo no se investigarán en este proyecto ya que no incluyen ningún tipo de información dramatúrgica.

7 Uno de los aspectos del proyecto Intención/Recepción ha sido proveer a los compositores una devolución (feedback) en lo que respecta a cómo su obra fue recepcionada por otros, dándole así la oportunidad de usar esta información en sus futuras composiciones, el producto de la aplicación de un modelo de investigación en acción.

8 Cabe destacar que el modelo propuesto por Cohen se inclina a favor del elemento visual, lo que constituye la tendencia general en las películas modernas

Page 97: En El Límite - Escritos sobre Arte y Tecnología

en el limite | 97

9 El modelo de Cohen fue específicamente diseñado para racionalizar el rol de la banda sonora dentro de las películas. Si bien puede servir como un indicador útil del proceso de recepción, es necesario adaptar el modelo para hacerlo relevante y aplicable a la música audiovisual electroacústica. Esta es una futura meta de la presente investigación.

10 Por ejemplo, ( Morgan 1997) y (Janis 1982)

11 En este contexto, el mundo real se refiere a los sonidos que pueden ser interpretados como existentes dentro del entorno (humano y natural). En consecuencia, se incluyen tanto las grabaciones no procesadas como también los sonidos sintetizados que presentan cualidades miméticas.

12 Algo que está cargado de significado, pero que no tiene un significado obvio sugiere la idea deconstructivista de apertura del signo vacío” (Raymond Monelle in Atkinson 2008: 88 [original énfasis])

Bibliografía

Atkinson, S. (2008) Abstraction, reality and the loudspeaker. In Böhme-Mehner, Mehner and Wolf eds. Electroacoustic Music – Technologies, Aesthetics, and Theories – A Musicological Challenge. Essen, Die Blaue Eule.

Brown, N (2006) The flux between sounding and sound: Towards a relational understanding of music as embodied action. Contemporary Music Review, 25 (1) pp. 37-46.

Chandler, D. (2004) Semiotics For Beginners [WWW] Articulation. Available from:http://www.aber.ac.uk/media/Documents/S4B/sem08a.html [Accessed 4/4/09].

Cohen, A. J. (1994) Introduction to the special volume on the psychology of film music. Psychomusicology, 13 (1119:spring/fall) pp. 2-8.

Cohen, A. J. (2001) Music as a source of emotion in film. In Juslin and Sloboda eds. Music and Emotion Theory and Research. New York, Oxford University Press.

Chion, M. (1994) Audio-Vision. New York, Columbia University Press.

Dvorko, N. and ERSHOV, K. (2002) Audio-visual Perception of video and multimedia programs. In: Proceedings of 21st Conference of the Audio Engineering Society St. Petersburg, Russia. June 2002. pp. 355-362.

Ears/1 (undated) Genres & Categories: Electroacoustic music [WWW] Electroacoustic Resource Site, De Montfort University. Available from:http://www.ears.dmu.ac.uk/spip.php?rubrique125 [Accessed 24/2/09].

Emmerson, S. (ed.) (1986) Language of Electroacoustic Music. London, Macmillan.

Glass, R. And Stevens, C. (2005) Making Sense of Contemporary Dance: An Australian Investigation into Audience Interpretation and Enjoyment Levels. fuel4arts report (February 2005).

Hevner, K. (1936) Experimental studies of the elements of expression in music. American Journal of Psychology, 48, pp. 246-269.

Hodges, D. A.; Hariston, W. D.; Burdette, J. H. (2005) Aspects of Multisensory Perception: the integration of visual and auditory information in musical experiences. Annals of the New York Accademy of Sciences. 1060. pp. 175-185

Janis, I. L. (1982) Groupthink. 2nd ed. Boston, Houghton Mifflin.

Landy, L. (1990). Is More than Three Decades of Computer Music Reaching the Public It Deserves? In Proceedings of the 1990 International Computer Music Conference - Glasgow. San Francisco, CA: ICMA: pp. 369-372.

Landy, L. (1991) What’s the Matter with Today’s Experimental Music? Organized Sound Too Rarely Heard. Chur, Harwood Academic Publishers (now Routledge).

Landy, L. (1994) The Something to Hold on to Factor in Timbral Music. Contemporary Music Review. 10(2) pp.49-60.

Landy, L. (2006) The Intention/Reception Project In: SIMONI, M. ed. (2006) Analytical methods of electroacoustic music. New York, Routledge pp.29-53.

Lipscomb, S., Kendall, R. (1994) Perceptual Judgement of the Relationship Between Musical and Visual Components in Film. Psychomusicology 13 pp. 60-98.

Lipscomb, S., Eugene, K.M. (2004) Perceived Match Between Visual Parameters and Auditory Correlates: An Experimental Multimedia Investigation. In: Proceedings of the 8th International Conference on Music Perception and Cognition, Evanston, IL pp. 72-75.

Marshall, S. K.; Cohen, A. J.; (1988) Effects of musical Soundtracks on Attitudes towards Animated Geometric Figures. Music Perception. 6 (1) pp. 95-112.

Morgan, G. (1997) Focus Groups as Qualitative Research. 2nd ed. London, Sage.

Page 98: En El Límite - Escritos sobre Arte y Tecnología

98 | en el limite

Prince, G. (2003) A Dictionary of Narratology. 2nd ed. Lincoln, Neb, University of Nebraska Press.

Weale, R. (2006) Discovering how Accessible Electroacoustic Music can be: the Intention/Reception project. Organised Sound. 11 (2) pp. 189-200.

Page 99: En El Límite - Escritos sobre Arte y Tecnología

en el limite | 99

Juan Alfonso SamajaUniversidad Nacional de LanúsMalena PasinUniversidad de Buenos Aires

Introducción

El valor añadido y el predominioen el eje temporalEn el capítulo introductorio sobre la audiovisión, Michel Chion presenta el concepto de valor añadido, definiéndolo a partir de dos ejes complementarios: 1) como valor extra que el sonido agrega a la imagen; es decir, el sonido contiene elementos que en la imagen no presentan referente, y que por el sonido solamente pueden llegar a hacerse perceptibles. 2) A esta primera definición, que en principio afecta exclusivamente a la materialidad del producto, agrega un componente externo, esto es: la ilusión en el espectador de que aquello que escucha tiene su origen únicamente la imagen. Así, el valor añadido llega a constituirse en una transparencia del sonido, en un enmascaramiento a favor de la imagen, como si lo percibido (audiovisualmente) estuviera contenido completamente en la imagen sola, y no fuera en cambio resultado de una combinación. Como se advierte, este segundo criterio atiende más a aspectos de la psicología de la percepción que a las organizaciones del discurso en el sentido formal, sea audio, visual o audiovisual.

Esta explicitación del doble criterio con que define al valor añadido tendrá para nosotros gran utilidad por lo que atañe al fenómeno de la percepción, que involucra tanto a aspectos del producto, y de su organización interna, como de la recepción por parte de un sujeto espectador, con el que el dispositivo hace sistema.

A partir de allí, el autor sostiene que entre los diversos efectos del valor añadido destaca aquel que refiere a la percepción del tiempo en la imagen por el sonido, y es precisamente este eje temporal el que Chion privilegia como valor añadido a la imagen1 en el contrato audiovisual. Esta afirmación no resulta especialmente llamativa puesto que el sonido es un fenómeno en sí mismo temporal, lo que significa que entre sus cualidades principales y diferenciales respecto de la imagen visual2 fija está el ser un fenómeno que no es sino que dura. Puesto que todo fenómeno que opera sobre el eje temporal requiere estar en movimiento sobre el espacio, es decir, transcurrir, entonces no hay nada novedoso en afirmar que el sonido aporta o enriquece cualitativamente a la imagen sobre todo a lo que afecta en la dimensión del tiempo.

Sin embargo, el problema particular de la influencia del sonido sobre la imagen en movimiento (cinematográfica) es un fenómeno mucho más complejo que, a nuestro entender, Chion no aborda de manera satisfactoria. La imagen cinematográfica no puede considerarse de ninguna manera -y en ningún caso- como ausente de movimiento frente al sonido, como

parece afirmar el autor cuando se refiere a la imagen visual.3

En todo caso, puede decirse que en el cine hay , por el cual las entidades en movimiento forman parte del hecho narrativo, es decir, están para ser mostradas, y un segundo movimiento no diegético,4 es decir, un movimiento que ocurre en el fenómeno pero que no forma, en sentido riguroso, parte de lo que es narrado; por ejemplo la imagen cinematográfica de una entidad inmóvil.5

De esto último se desprende que la imagen cinematográfica puede generar, a través y por medio del movimiento, la ilusión del no-movimiento, es decir, su negación aparente.

Como el sonido viene a agregarse (según Chion) a una banda en movimiento, que ya está operando sobre el eje del tiempo, no resulta entonces cierto que el sonido venga a aportar temporalidad a la imagen en un sentido estricto, sino que viene a construir nuevas formas de temporalidad sobre formas de temporalidad ya existentes en el nivel de la forma del dispositivo, pero no tematizadas en el nivel del contenido. Dicho de otro modo, la temporalidad que agrega el sonido a la imagen (del modo que sea) es la temporalidad diegética, mas no la temporalidad en sí misma como fenómeno durativo. Éste ya se halla inscripto en la misma materialidad cinematográfica.

La construcción imaginaria del espacioaudiovisual del sonido auto-referencial al sonido centrado en el espectador

Page 100: En El Límite - Escritos sobre Arte y Tecnología

100 | en el limite

Sin embargo la reflexión sobre la temporalidad excede el marco de este trabajo, y nos conformamos con señalar simplemente algunas insuficiencias que debieran subsanarse en la consideración del tiempo en el fenómeno audiovisual.

Más allá del tiempola influencia del sonido en lapercepción del espacioChion no llega a sostener que la influencia del sonido esté solamente vinculada a la percepción de la temporalidad de la imagen, dejando abierta la posibilidad de incluir otras formas posibles de percepción, aunque resulta evidente que es a esa dimensión a la que reconoce mayor importancia en lo que a valor añadido refiere.

Nosotros creemos que dicha preeminencia sobre el eje temporal descuida el vínculo decisivo que el sonido establece con la percepción del espacio simbólico, en tanto espacio diegético y extradiegético. En este sentido proponemos en este artículo hacer una pequeña y modesta reflexión acerca del modo en que el sonido ha pretendido, en sus orígenes como en la época actual, establecer y reforzar relaciones de espacialidad. De esta descripción esperamos mostrar las diferencias específicas que aporta el sonido en esta construcción respecto de lo que la imagen visual por sí sola puede conseguir.

La representación del espacio por medio del sonidoA pesar de esta relación evidente entre la imagen visual y el espacio, no deja de ser cierto que el sonido también puede producir indicios que motiven a la construcción de un espacio simbólico (diegético o extradiegético). Esto suele olvidarse, o al menos minimizarse, ya que es frecuente adjudicar a la imagen visual el todo de los indicadores de las relaciones de espacialidad, pero esto es una consecuencia de reducir el eje espacial a unas pocas variables, tales como proporción y distancia entre los elementos internos de la imagen visual. Sin embargo, desde los primeros años del cine sonoro ya los realizadores habían comenzado a experimentar con el sonido a los efectos de sugerir indicios espaciales en correlación con las relaciones que la propia imagen reflejaba.6

Estos primeros experimentos siguieron dos modelos: el del realismo estricto7 de la verosimilitud narrativa. Los primeros intentaron reproducir la escala real de los planos sonoros con la misma fidelidad y relaciones proporcionales que el plano visual establece en la imagen. Esto último significa, por ejemplo, que si hay una muchedumbre gritando en las inmediaciones, la conversación íntima entre dos sujetos no debería escucharse en primer plano, ya que en la realidad sería superada en decibeles por el fenómeno de la turba. Los segundos, en cambio, se esforzaron

en codificar una convención audiovisual tal como se había conseguido a comienzos de siglo XX con el espacio visual cinematográfico,8 desentendiéndose entonces de una auténtica referencialidad.

Obviamente, el realismo estricto, al menos en el cine institucional, no fructificó y rápidamente los realizadores y productores advirtieron que lo que no se toleraba como deformación visual sí se toleraba como manipulación sonora a los efectos del relato. Es decir, la forma en la que se articula el sonido respecto de la imagen puede resultar contradictoria con los principios de la física acústica, y a pesar de ello pasar por creíble sobre todo si la imagen justifica dicha interpretación. Así, la audibilidad mayor de la conversación respecto de la turba no sólo es creíble, sino que resulta necesaria para la comprensión del relato, ya que lo que resulta segundo en el plano sonoro real (la conversación) deviene primero en el orden narrativo, y viceversa.

Esta segunda forma del realismo es la que ha predominado hasta la actualidad, por lo que podemos afirmar sin pretender novedad alguna sobre este asunto, que toda utilización del sonido realista en la imagen es una pura convención, y no un reflejo directo de la realidad por medio del dispositivo. Sin embargo, es interesante advertir que ciertos recursos originados inicialmente en las experiencias del realismo estricto pasaron a

Page 101: En El Límite - Escritos sobre Arte y Tecnología

en el limite | 101

conformar el arsenal de recursos expresivos de este verosímil sonoro.9

Sin embargo, no se deriva de esto que el sonido venga simplemente a reforzar lo que la imagen visual ya había logrado a través de las relaciones de los elementos internos al cuadro. La hipótesis de este trabajo es que el descuido del eje espacial en relación con el sonido ha sido también consecuencia de no advertirse hasta qué punto el sonido inaugura una serie de nuevas experiencias con el espacio; en efecto, si la imagen establece relaciones espaciales entre los objetos internos al cuadro, el sonido –en cambio- permite establecer relaciones de espacialidad entre los elementos del campo con los del fuera de campo. De modo tal que por medio del sonido se puede sugerir una presencia invisible como no-visible,10 y esto es propio y singular del sonido. La imagen visual sola no puede representar relaciones espaciales con elementos que no se ven. Pero además de estas relaciones entre el campo y el fuera de campo, la experiencia audiovisual, asociada a los desarrollos del dispositivo ha hecho posible un fenómeno realmente interesante que es la relación entre elementos diegéticos y no diegéticos, en particular la organización del espacio centrada en el espectador como elemento atraccional.

La intensidad del plano sonoro como indicador espacialLas primeras experiencias de representación del espacio a través del sonido se obtuvieron con la manipulación de la variable intensidad,

según un eje semántico simple y de relación inversamente proporcional entre intensidad y distancia, y directamente proporcional entre intensidad y proximidad: mayor intensidad/menor distancia (más próximo al punto de referencia), y menor intensidad/mayor distancia (más lejos). Veamos el ejemplo del film argentino Monte Criollo de Arturo S. Mom.

Tenemos delante de nuestros ojos la escena de una sala de juegos; allí hay mesas distribuidas a lo largo del salón y personas sentadas alrededor de las mesas que juegan a las cartas. La cámara se desplaza a lo largo del salón, y la intensidad de las conversaciones en cada una de las mesas fluctúa con relación a la proximidad de la cámara: más nos acercamos, más fuerte se oye la conversación, y en la medida que nos alejamos, el volumen de la conversación va descendiendo hasta fusionarse con la conversación siguiente que comienza in crescendo desde la mesa próxima a medida que la cámara se aproxima.

En el caso del ejemplo mencionado, la intensidad guarda una correspondencia directa con la posición del artefacto cinematográfico, coincidiendo –si se quiere- con el supuesto observador invisible de Pudovkin.11 En otras palabras: al desplazarse la cámara –y por ende el punto de observación/narrador del film- las intensidades sonoras de las distintas conversaciones se van alterando en función de la distancia que asumen respecto de la cámara como posición de enunciador.

En otras palabras: al desplazarse la cámara –y por ende el punto de observación/narrador del film- las intensidades sonoras de las distintas conversaciones se van alterando en función de la distancia que asumen respecto de la cámara como posición de enunciador.

Pero veamos otro caso hipotético posible:12 tenemos un hombre sentado en una mesa. El hombre, ensimismado lee un libro. Comienzan a escucharse débilmente unos pasos, el hombre saca la vista del texto, el ruido de las pisadas se incrementa, el hombre de repente mira hacia atrás y descubre al hombre que viene a matarlo.

La situación es relativamente semejante al ejemplo anterior, pero presenta una diferencia, y es que aquí la intensidad no está en función de un observador-auditor invisible o presupuesto, sino de un personaje presente en el cuadro. La alteración de la intensidad toma al personaje como punto de referencia y, dado que el plano visual nos coloca a nosotros en tanto espectadores en la misma posición que al sujeto sentado frente a la mesa –en última instancia- nos interpela tanto como al personaje. Veamos un último caso hipotético, pero plausible con esta misma tecnología. Tenemos la misma escena, pero a diferencia del caso anterior, el espectador sabe que al protagonista lo están buscando para matarlo, pero el protagonista no lo sabe. El hombre está sentado a la mesa y lee plácidamente un libro. Se escuchan los pasos a la distancia muy débilmente. Pero supóngase ahora un elemento nuevo: el espectador sabe que el protagonista es sordo, por lo tanto sólo el espectador

Page 102: En El Límite - Escritos sobre Arte y Tecnología

102 | en el limite

escucha el aumento de la intensidad de los pasos que se acercan de manera irremediable ante el hombre que no puede escucharlos.

Estos últimos dos casos nos permiten ilustrar las relaciones espaciales que el sonido establece articulando el campo con el fuera de campo y reforzando, de esta manera, la percepción de un espacio simbólico. La modificación gradual de la intensidad nos lleva a percibir como distantes en el espacio elementos que son no-visibles temporalmente.

Se dirá que la composición de la imagen también articula el campo con el fuera de campo; en efecto, si se nos muestra la ventana de una casa, cuyo techo ha quedado por fuera del cuadro la percepción de la totalidad que es la casa resulta de esa correlación entre lo que se ve y lo que no se ve. Y de hecho, la construcción misma de lo que se denomina espacio fílmico13 es consecuencia de concebir la imagen como un espacio mayor que tiende al infinito en todos sus extremos.14 Sin embargo hay una diferencia entre la articulación que permite la imagen visual y la que hace posible el sonido; en el primer caso el fuera de campo se articula como extensión del campo, y en este sentido es una pura continuidad imaginaria de la porción visible del espacio. Con el sonido, en cambio, la articulación no implica ninguna continuidad con los elementos del cuadro, y más bien se presenta como irrupción desde un afuera indefinido. Si en el primer caso, el espacio no visible se nos presenta como

una extensión lógica e interna con la porción visible, en el segundo, el sonido irrumpe como pura exterioridad sin conexión interna con los elementos del campo. Dicho de otra manera: a través de la imagen visual, lo que no se ve es presupuesto por lo que se ve, ya que se sigue lógicamente por extensión, mientras que un sonido fuera de campo jamás puede ser presupuesto por lo que se oye en campo, el sonido no visible jamás es presupuesto, simplemente irrumpe sorpresivamente desde un afuera total.

Aquí cabe una aclaración, estamos haciendo referencia sólo a la materialidad visual y sonora; es respecto de la pura materialidad que la imagen visual se extiende en el espacio desde el campo hacia el fuera de campo, y es también respecto de la pura materialidad sonora que el sonido irrumpe. Esto significa que no estamos considerando el recurso visual o sonoro desde la función narrativa, ya que es evidente que un sonido fuera de campo puede estar justificado narrativamente por los elementos del campo. Por ejemplo, si el protagonista camina por un parque lleno de árboles, el sonido fuera de campo de los pájaros se presenta como una continuidad narrativa de lo que es verosímil y esperable respecto de lo que hasta ahora ha sucedido. En efecto, la narración puede generar la continuidad entre el sonido fuera de campo y lo que se ve y se escucha en campo, pero esto no invalida el hecho de que desde la pura materialidad sonora no hay continuidad causal entre lo que suena en campo y lo que suena fuera del campo.

Se sigue de ello entonces que el sonido no viene simplemente a reforzar lo que la imagen visual está mostrando, sino que inaugura una dimensión nueva en la articulación con el espacio. Incluso el sonido invierte la dirección en que se articulan el campo y el fuera de campo; si en la imagen visual la dirección es de lo visible a lo no visible, es decir, desde adentro hacia fuera, con el dispositivo sonoro la articulación se invierte desde el fuera de campo hacia el campo, es decir, lo que se escucha no-visible a lo visible, o desde afuera hacia adentro.

¿Por qué decimos esto? Recuérdese que hemos sostenido que la extensión es una cualidad propia de los fenómenos espaciales, mientras que el sonido es un fenómeno puramente discontinuo y temporal, y por ende no extensivo.15 Si se admite esto (que la extensión es una propiedad del espacio y la discontinuidad, del tiempo) entonces se deduce perfectamente que un sonido fuera de campo (que no establece continuidad con los sonidos vistos en campo) sólo puede venir desde afuera hacia adentro, ya que no se sigue que lo escuchado en campo se continúe con lo escuchado fuera del campo. Hemos dicho que no puede anticiparse materialmente por lo escuchado en campo un sonido fuera de campo, como sí se puede anticipar la extensión del espacio en la continuidad de la imagen. Por lo tanto, el sonido fuera de campo sólo puede venir desde afuera hacia adentro y nunca ser resultado de una percepción del campo visual.

Page 103: En El Límite - Escritos sobre Arte y Tecnología

en el limite | 103

En síntesis, la llegada del sonido hizo posible establecer relaciones espaciales entre el campo y el fuera de campo en términos de distancia y proximidad, de un modo completamente diferente y propio de las cualidades significantes del sonido: si a través de la imagen visual el contracampo es apenas una continuidad espacial del campo, a través del elemento sonoro el contracampo se manifiesta en forma autónoma como puro espacio en sí.

Es importante mencionar que todas estas relaciones que hemos señalado hasta ahora son puramente intradiegéticas,16 es decir, son parte constitutiva de los recursos formales de la trama, sea que estén motivados a través de la auricularización de un personaje,17 o narrativamente como necesidad del argumento; es decir, que el sonido sea escuchado por el espectador para poder inferir alguna hipótesis de interpretación funcional al relato, aún cuando la escucha no esté motivada por la ubicación de ningún personaje, como es el caso del último ejemplo que hemos desarrollado. Sin embargo, en los últimos años hemos asistido a una interesante transformación de estas relaciones, debido a un cambio en la concepción de esas relaciones, acompañada por las innovaciones en los dispositivos digitales. Este último avance en el espectáculo presenta la particularidad de permitir establecer las relaciones sonido-espacio, pero no sólo entre el campo y el fuera de campo, sino –y más relevante aún- entre lo diegético y lo extradiegético, permitiendo

establecer una articulación fundamental e inequívoca entre el sistema narración y el sistema espectador.

El sistema de Sonido Envolvente (Surround System)del espacio auto referencial al espacio centrado en el espectadorEl desarrollo de los sistemas de Sonido Envolvente ha reforzado cualitativamente la ilusión de que todo se dirige hacia o se organiza desde el espectador18 agregando a la variable intensidad la variable de la direccionalidad de la fuente emisora, por medio de la coordinación secuenciada de los altavoces: aquí tiene importancia no sólo la intensidad, sino también la ubicación de la fuente respecto del espectador. El dispositivo otorga la ilusión de un sonido que recorre la sala a nuestro alrededor, generando una experiencia completamente diferente en el establecimiento de relaciones espaciales por medio del sonido, tal como se habían desarrollado en los primeros años del cine sonoro.

Si las relaciones que establece el sonido en aquellos primeros films son internas al relato, es decir, que las relaciones de proximidad se definen por elementos formales al interior del cuadro y motivados estrictamente por la narración, el nuevo sistema permite percibir relaciones espaciales al espectador, pero no ya motivadas exclusivamente –ni preponderantemente- por el relato, sino por la propia ubicación espectatorial. Ahora el sonido es discurso para el espectador, y los objetos y

sujetos fuera o dentro del campo son interpretados por él como más lejos o más cerca según la distancia que se establece entre sí mismo y la ubicación de los altavoces, y no ya en función de una motivación de personaje o de una supuesta instancia objetiva de la enunciación (el observador-auditor invisible). Esto significa que las relaciones espaciales ya no siguen sólo una lógica interna (del personaje o del enunciador), sino que agrega una motivación extradiegética al definirse la relación espacial en la relación directa con el espectador.

En este sentido, el efecto del Sonido Envolvente pareciera constituirse como una inversión del centrado de la imagen en el modelo de representación institucional, tal como la ha propuesto Burch;19 si el centrado de la imagen consistió en interiorizar lo externo (el espectador en la sala fue atraído hacia el centro de la acción), el sonido envolvente generaría entonces el efecto contrario al exteriorizar el espacio interno de la diégesis a una espacialidad exteriorizada y descentrada de la narración al centro de la espectación.

Sorround System, efecto bullett time y 3D la tríada de la interpelaciónEntre los principales efectos de la atracción cinematográfica contemporánea, la interpelación espacial es la que más se ha desarrollado en las últimas décadas, tras la aparición sistemática de la tecnología 3D en el espectáculo público del cine.20

Page 104: En El Límite - Escritos sobre Arte y Tecnología

104 | en el limite

Sin embargo, este efecto de interpelación no podía completarse sin el refuerzo sonoro que hizo posible el dispositivo del sonido envolvente. De hecho, en la última década se perfeccionaron diversos dispositivos que permiten combinar la ilusión de la profundidad espacial (con o sin la teconolgía 3D)21 y la ilusión del movimiento sonoro, incrementándose de este modo el efecto realista de la interpelación; la más resonante de estas tecnologías ha sido la del efecto Bullet Time,22 dispositivo desarrollado por los

hermanos Wachowski para el film futurista The Matrix (1999). Hacemos mención de este dispositivo porque las trayectorias lentificadas (audiovisualmente) enfatizan de manera notable el efecto realista de la interpelación, ya que las trayectorias visuales y sonoras son organizadas para dirigirse hacia el espectador, quien deviene en centro de convergencia de dichas trayectorias.

Veamos dos ejemplos actuales de esta interpelación espacial: el primero caso se trata

La interpelación en el cine.Se denomina tradicionalmente interpelación a todo recurso (diálogo, o elementos audiovisuales) que se refiera de manera directa y explícita al espectador; es el momento en el que la diégesis del film se torna consciente de su presencia en la sala y entonces puede dirigirse a él o hacerlo participar de algún modo.

La interpelación como recurso narrativo es bastante antigua en el espectáculo cinematográfico, y sus primeras manifestaciones se remontan a los films de voyeur de comienzos del siglo XX; en el film Per le trou de serrure (Pathé; 1901) vemos a un personaje que mira entusiasmado a través de una cerradura, para luego dirigirse a la cámara e invitarnos a mirar. También en el film inglés Mary Jane´s Mishap (Smith; 1903) la protagonista mira a cámara y guiña un ojo en gesto de complicidad, etc. Las miradas al espectador fueron un hecho frecuente a comienzos del siglo XX, sea buscando algún tipo de complicidad, o como puro efecto atraccional, por ejemplo en el film ingleses How to be run over? O The big swallow. Este recurso desapareció casi completamente en el pasaje hacia la institucionalización (con excepción de los avances cinematográficos que se caracterizan precisamente por una interpelación directa “Ud. Debe ver esta película” “No ser la pierda”, etc.), y recién reaparece a comienzos del ´60, con el movimiento denominado nouvelle vague. En los films de Pasolini y Godard los personajes no sólo miran al espectador, sino que además le hablan, transgrediendo completamente el contrato de invisibilidad.

Si bien este concepto apunta casi exclusivamente a una función enunciativa, a través de la cual “se le habla” al espectador y/o “se lo mira”, creemos que también es factible emplear esta noción en aquellos casos en donde los elementos formales del relato (en este caso la organización del sonido y de la imagen) lo hacen partícipe de algún modo. Es decir que, aún respetando su institucional invisibilidad (él mira todo pero nadie lo mira a él, nadie sabe que existe y nadie habla con él) el relato se hace consciente de la presencia del observador en la sala y su forma de hacérselo saber es arrojándole sonidos y objetos a la cara.

de un producto televisivo, el primer episodio de la 10ª temporada de la serie norteamericana CSI Las Vegas, y el segundo, del film argentino Boggie el aceitoso, ambas producciones del 2009.

La serie norteamericana presenta una extensa secuencia tratada con la tecnología del bullet time, destacándose los momentos en donde diversos tipos de entidades son proyectadas hacia el centro de la espectación: gotas de agua, objetos punzantes y proyectiles de cañón de armas automáticas. Estas trayectorias se hallan reforzadas con el

Page 105: En El Límite - Escritos sobre Arte y Tecnología

en el limite | 105

tratamiento sonoro modificado que se presenta en frecuencias muy bajas que van aumentando y reforzando el efecto de movimiento por el espacio: las frecuencias más bajas quedan asociadas al objeto menos próximo, y la más alta al objeto que se aproxima. Aunque el sonido no parece ser estrictamente referencial (o al menos no es fácil reconocerlo como tal), pretende ser el correlato de la trayectoria visual, y en este sentido, la organización sonora, trabajada con la tecnología de sonido envolvente, permite incrementar el efecto realista del centrado en el espectador.

El caso del film argentino, no está tratado con la tecnología del bullet time, pero simula digitalmente una trayectoria lentificada de proyectiles de cañón en las escenas de tiroteos donde numerosas balas son disparadas en dirección hacia el espectador, realizando un movimiento que, en lo esencial evoca explícitamente, y quizás hasta paródicamente, la tecnología mencionada. Sin embargo, este caso sí emplea la tecnología 3D que es la que permite el efecto de que las trayectorias sean percibidas como saliendo de la pantalla y en dirección hacia el espectador. Y lo que resulta interesante destacar, es que tanto en este caso, como en la secuencia de CSI, los elementos proyectados visualmente hacia los espectadores van acompañados de una proyección sonora (que opera como equivalente visual) articulada por un sistema de parlantes que rodean al espectador (sea en la sala de cine, o en el hogar, por medio del dispositivo de home theather) generando de este modo la ilusión de un bloque audiovisual que se dirige desde la diégesis del relato hacia cada

uno de los espectadores23. Si por el sistema 3D el objeto se percibe como escapando de la pantalla, el sistema de sonido envolvente permite percibir al sonido de manera equivalente, de modo tal que los sonidos discontinuos dispuestos en cada parlante son percibidos por el espectador como una única trayectoria sintética que escapa desde la pantalla hasta el centro de la butaca.

En función de esto sostenemos que el dispositivo surround o sistema de Sonido Envolvente tiene como función principal reforzar la percepción espacial de los objetos y de las relaciones entre ellos respecto de la ubicación privilegiada del espectador, en otros términos: conforma un sistema de percepción espacial a través del sonido; y es esta disposición espacializada del elemento sonoro, y sobre todo en combinación con los recursos visuales mencionados, lo que permite articular los sistemas involucrados: el del relato y el del espectador. De este modo el Sonido Envolvente termina conformando un sistema complejo de interpelación espacial, descentrada de la lógica pura de la imagen, pero centrada sistemáticamente en el espectador

Podría discutirse aquí la preeminencia del sonido como nexo de articulación entre sistemas sosteniéndose que ya el sistema 3D realiza esta misma articulación. Sin embargo estamos convencidos del privilegio del sonido a este respecto debido a dos razones: 1) el 3D, incluso hasta la actualidad, no ha logrado convertirse en un recurso sistemático de la producción,

manifestándose de manera muy irregular. Es incluso sintomático de su carácter accidental el hecho de que las versiones realizadas se distribuyan para los dos formatos: con o sin el sistema 3D. Esto no ha ocurrido con el sistema de sonido estéreo, envolvente, y digital, que ha logrado precisamente instalarse de modo invariante. Pero al margen de esto, el mero recurso al 3D no establece, sino de manera problemática, el centrado real en el espectador, ya que siempre puede aducirse que no es alrededor del espectador que se organizan las relaciones espaciales, sino de la cámara, o de un observador invisible, etc. Este tema será tratado especialmente en el apartado siguiente.

Los planos visuales y los indicadores de espacio en la imagen cinematográficaEs posible que el lector se sienta tentado de pensar que los planos visuales producen el mismo efecto que señalamos respecto del sonido, a saber: que la escala del plano está en relación directa con el punto de vista del espectador, y que por él se justifica; en otras palabras, pareciera que la forma de los planos se remite siempre a un criterio idéntico que al del sonido. Sin embargo, los diversos planos visuales24 son preponderantemente intra-referenciales, es decir que denotan relaciones de proximidad entre los componentes internos de la diégesis y no en relación con el sujeto observante. De este modo las relaciones espaciales se establecen tanto entre los elementos internos entre sí (representados en el campo), como entre los elementos y el

Page 106: En El Límite - Escritos sobre Arte y Tecnología

106 | en el limite

punto de vista que asume la instancia de la enunciación, y esto es cierto, sobre todo, en el marco del cine institucional, aunque no exclusivo de éste.

Por lo tanto, el hecho de que el espectador pueda asumir como suyo el punto de vista del enunciador no invalida el hecho de que la mayoría de las veces tales planos están justificados diegéticamente, sea por la mirada de un personaje o por la necesidad misma del relato.25 En última instancia, la identificación del espectador con el punto de vista del plano (subjetivo o no) es un hecho secundario. Cabe recordar que en los manuales tradicionales de cine se pide al realizador que los encuadres estén siempre justificado por la trama, sea como punto de vista de un personaje o para resaltar ciertos elementos del cuadro y dirigir el recorrido de la acción.26

Se nos dirá que también las intensidades del sonido deben respetar esta motivación narrativa, que lo lleva a justificarse en términos de lo que un personaje está en condiciones de escuchar (ejemplo 2 propuesto por nosotros), o bien en función de las necesidades dramáticas del relato, como aquello que el espectador necesita oír para participar de la trama (el caso del ejemplo hipotético 3). Esto es cierto, pero hay que hacer dos importantes salvedades: la primera es que el papel del sonido, a diferencia de la imagen, o en mucho mayor medida que la imagen, puede tener una motivación puramente expresiva (no narrativa

en sentido estricto), con el objeto de generar en el espectador la emoción adecuada con que debe interpretar el sentido de la imagen.27 La segunda, y la más importante, es que los desarrollos en los sistemas de sonido (analógico y digital) se desarrollan precisamente en la dirección del vínculo sonido-espectador como elemento de la atracción, esto es, extradiegéticos. Independizándose de este modo de toda motivación estrictamente diegética.

En otras palabras: si el recurso aislado de la intensidad de los primeros años no puede ser concebido más que problemáticamente como un centrado en el espectador, las experiencias con el sonido envolvente que operan sobre la variable recorrido sonoro sobre la sala, en cambio, son fenómenos indudablemente extrarreferenciales. Esto no significa que el espacio imaginario desarrollado por el sistema envolvente sea completamente no referencial respecto de la imagen, y por ende extradiegético, significa en cambio que la percepción del espacio no resulta sólo de un descentramiento del espectador y recentramiento sobre el eje de un personaje o de un observador invisible etéreo (la identidad del punto de vista/escucha narrativo) sino más bien de una dinámica móvil entre el posicionamiento del espectador sobre la diégesis, pero también de la diégesis sobre el espectador. Consideraciones finales y discusionesHemos comenzado el trabajo afirmando que la consideración privilegiada del eje temporal

en relación con el sonido deja de lado las posibilidades propias y singulares que el sonido puede estimular en la percepción del espacio. Sin embargo, debemos mencionar que Chion dedica algunas reflexiones sobre el tema del espacio, particularmente sobre el fuera de campo.28

A este respecto comienza diciendo que el fuera de campo no puede considerarse en modo alguno como una propiedad singular de éste, sino en correlación con la imagen, es decir, con el campo visual. Esto es correcto y no es difícil comprenderlo: el campo sonoro, al no ser en sí mismo espacial, como la imagen, no puede definir un fuera de campo sonoro en sus propios términos. Incluso los silencios, es decir, el no sonido, no puede definir un fuera de campo respecto del sonido que sí resuena, puesto que el sonido y el silencio no pertenecen de manera necesaria a campos distintos, como sí ocurre con lo que se ve respecto de lo que no se ve. En este sentido, Chion acierta cuando afirma que el fuera de campo al que refiere el sonido es una propiedad de la relación entre imagen y sonido.

Sin embargo, es necesario advertir dos cosas: la primera es que la imagen sola no puede remitir a un fuera de campo en los términos en los que el sonido lo permite, como ya ha sido sostenido en este trabajo. De modo tal que si el fuera de campo no es producido por el sonido, sí es redefinido por éste. En segundo lugar, admitir que el fuera de campo sonoro implica una relación con el espacio

Page 107: En El Límite - Escritos sobre Arte y Tecnología

en el limite | 107

visual, no implica rechazar la afirmación de que la forma en la que el sonido articula el campo con el fuera de campo es subsidiaria de las cualidades inherentes al sonido. Por supuesto que el sonido solo y en ausencia de la imagen no puede generar el fuera de campo, pero la asociación no es una mera suma de elementos, sino una organización que correlaciona propiedades inherentes de uno y de otro hasta generar un producto que ya no es la suma de ambos, sino el resultado de la asociación: el todo audiovisual. El concepto de valor añadido cobra relevancia cuando se advierte que la información que ofrecen las dos fuentes de información (en este caso, la imagen visual y sonora) da como producto una información nueva que no está de manera aislada en ninguna de ellas, pero que depende de las cualidades combinadas e inherentes de las partes interactuantes.29 En otras palabras: es cierto que el sonido aislado no puede generar un fuera de campo, pero es igual de cierto, en todo caso, que la imagen visual no puede articular el fuera de campo del mismo modo que el sonido. Ambas se necesitan para producir esa experiencia espacial audiovisual.

A todo esto debe agregarse algo que Chion parece no considerar, y es que si bien es cierto que el sonido solo no puede establecer relaciones espaciales en términos de campo y contracampo, no es cierto en cambio que el sonido no tenga la capacidad de sugerir relación espacial alguna. De hecho, y sólo con la banda sonora, pueden sugerirse relaciones de distancia entre el sonido

producido y quien escucha: así si cierro mis ojos y sólo se escuchan débilmente unos pasos, cuya intensidad se incrementa gradualmente, estaré motivado a interpretar ese aumento en la intensidad como una aproximación espacial, es decir, como recorrido. De esto último se desprende entonces que es una propiedad inherente del sonido la representación de las proximidades por medio de la intensidad.

Por otra parte, Chion menciona en su trabajo el caso de los sonidos fuera de campo en los dispositivos mono, sosteniendo que cuando la fuente sonora es única y no diferenciada, la interpretación de la percepción es meramente mental en función de los indicios que nos ofrece la imagen en campo. De este modo, la ubicación espacial de los sonidos (de campo como fuera de campo) es –para Chion- una representación puramente mental, puesto que oímos el sonido de la misma fuente y desde una dirección completamente indiferenciada y desjerarquizada.

Un sonido percibido como fuera de campo o localizado a la derecha de la pantalla lo es pues sobre todo mentalmente, al menos si nos encontramos ante una proyección mono.30

Pero esto sólo resulta cierto para los sonidos cuyas fuentes se ubican en un mismo plano, pero desplazados sensiblemente en el espacio, tal es el caso del lado derecho de la pantalla, respecto del centro. En cambio, en los casos de sonidos cuyas fuentes no se hayan en un mismo plano visual (tanto en campo como en

fuera de campo) esto es definitivamente falaz; la percepción del espacio imaginario sucede como operación en la mente del espectador, pero es motivada por indicios reales en el producto. La intensidad de los sonidos es en sí un principio de diferenciación del todo sonoro en sus diversos planos, de modo tal que cuando el espectador escucha, aún en un dispositivo mono, un sonido de menor intensidad se ve motivado por su competencia cultural a identificarlo (sobre todo si tiene referente visual) en una relación de proximidad determinada más lejos-más cerca.

Pero hay que reconocer que Chion tiene razón en esto: no se pueden establecer, ni real ni mentalmente, relaciones espaciales por medio del sonido allí donde no haya jerarquía entre los sonidos. Del mismo modo que, desde el punto de vista narrativo, no se puede saber qué es importante y qué secundario cuando la imagen visual carece de jerarquía, y todo se presenta en un mismo nivel indiferenciado, cuando el sistema sonoro carece de jerarquías funcionales, es imposible determinar ningún tipo de plano ni de relación entre los planos. Sin embargo, no es correcta la apreciación de que en los sistemas mono no exista jerarquización, y que dicha organización de la materia sonora se inaugura con los dispositivos multicanal. Las diferencias entre intensidades en un mismo objeto en el tiempo, así como entre dos objetos en el espacio, implican una jerarquía evidente, y ambas permiten interpretar estas diferencias de plano como relaciones en el espacio.

Page 108: En El Límite - Escritos sobre Arte y Tecnología

108 | en el limite

En función de estos desacuerdos teóricos y empíricos que tenemos con Chion, creemos que es importante destacar entonces la articulación particular que el sonido puede establecer entre el campo y el fuera de campo (en tanto irrupción y no continuidad del espacio, como ocurre en el caso del campo visual), pero, sobre todo, la articulación específica y singular que, de manera inequívoca, establece el sonido entre los dos sistemas: el sistema narración y el sistema espectador.

Considérese que ningún recurso visual puede conseguir exteriorizar el espacio hasta centrarlo de modo inequívoco en el espectador, puesto que, en última instancia todo plano visual objetivo puede siempre remitirse al enunciador invisible y omnisciente, desde el punto de vista de la narración, y al artefacto de la cámara, desde la perspectiva del rodaje. Así, toda consustanciación entre el plano visual y el espectador es siempre oscura y problemática. Por el contrario, las relaciones espaciales que establece el sonido por las diferencias de intensidad y la direccionalidad en los sistemas multicanal, son un fenómeno indudablemente centrado en el espectador, y en su ubicación en relación con la fuente emisora. Y aquí ya no es posible presumir de una motivación narrativa, puesto que ningún personaje ni enunciador puede ocupar el lugar de la espectación en nuestra butaca, y esto implica que aquí es el espectador quien funda las condiciones de posibilidad del sentido espacial cinematográfico.

Referencias1 Cfr. Chion, M. La Audiovisión. Introducción a un análisis conjunto de la imagen y el sonido, 1993. p. 24.

2 Empleamos el adjetivo visual ya que es sabido que la imagen puede ser visual o acústica. La imagen es una representación sintética, y como tal puede ser figurativa-visual o sonora configurada. Recuérdese que Saussure emplea para definir al significante el neologismo imagen acústica.

3 Cfr. Chion, M Op. Cit. P. 21

4 Denominamos realismo, en un sentido amplio, a la corriente estética moderno burguesa que pretende utilizar el arte figurativo con el objeto de reflejar fielmente el objeto de referencia, en términos de tal cual como es y no cómo debiera ser. Así, lo opuesto al realismo no es el irrealismo (surrealismo, dadaísmo, expresionismo, etc.), sino la estética heroica. Sin embargo, Samaja (2004) ha sostenido que en un sentido riguroso es necesario distinguir naturalismo de realismo; el naturalismo se manifiesta como copia fiel de la naturaleza, como puro reflejo pasivo de ella, mientras que el realismo se presenta como una ontología de lo real. En este último caso, el realismo no se reduce a la copia fiel, sino a la construcción de la realidad, o mejor aún, al desentrañamiento de lo real a partir de los elementos de superficie. El naturalismo es pasivo, el realismo es fruto de la actividad constructiva; el naturalismo es positivismo, el realismo entronca con la con-cepción dialéctica del materialismo. (Para una ampliación de este tema consúltese lo referido a las vanguardias estéticas en El nacimiento del espectáculo cinematográfico, 2004.)

5 Adviértase que en este último caso la entidad se le presenta al espectador como inmóvil en el relato porque la secuencia de fotogramas en movimiento ofrecidas al espectador se le manifiestan como un fenómeno cuya modificación es imperceptible, o dicho de modo más preciso, cuya modificación está por debajo del umbral de percepción. Sobre los umbrales de la percepción Cfr. Bateson, Gregory, Espíritu y naturaleza, 1993.

6 Véanse los experimentos sonoros sobre la imagen del realizador francés René Clair en Sous les toits de Paris (1930), A nous la liberté (1931), y los del realizador argentino Arturo S. Mom en Monte Criollo (1935).

7 Denominamos realismo, en un sentido amplio, a la corriente estética moderno burguesa que pretende utilizar el arte figurativo con el objeto de reflejar fielmente el objeto de referencia, en términos de tal cual como es y no cómo debiera ser. Así, lo opuesto al realismo no es el irrealismo (su-rrealismo, dadaísmo, expresionismo, etc.), sino la estética heroica. Sin embargo, Samaja (2004) ha sostenido que en un sentido riguroso es necesario distinguir naturalismo de realismo; el naturalismo se manifiesta como copia fiel de la naturaleza, como puro reflejo pasivo de ella, mientras que el realismo se presenta como una ontología de lo real. En este último caso, el realismo no se reduce a la copia fiel, sino a la construcción de la realidad, o mejor aún, al desentrañamiento de lo real a partir de los elementos de superficie. El naturalismo es pasivo, el realismo es fruto de la actividad constructiva; el naturalismo es positivismo, el realismo entronca con la concepción dialéctica del ma-terialismo. (Para una ampliación de este tema consúltese lo referido a las vanguardias estéticas en El nacimiento del espectáculo cinematográfico, 2004.)

8 Sobre la codificación simbólica del espacio a través de la edición y el montaje, Cfr. Burch, Noel en El tragaluz del infinito, 1999.

9 Esto último permite advertir que ninguna convención es completamente insensible a la lógica del referente, al menos desde el punto de vista del fenómeno perceptivo, y que, por el contrario, la convención misma se fundamenta en ciertos indicios basados en la experiencia real de los sujetos con el sonido; tal es el caso de las diferencias en la intensidad sonora para de elementos internos al campo como del fuera de campo, que tiene por objeto connotar la distancia o proximidad respecto de los elementos representados como sugeridos.

Page 109: En El Límite - Escritos sobre Arte y Tecnología

en el limite | 109

10 Sugerir con el sonido una presencia invisible implica darle espacialidad y forma a algo incorpóreo, tal es el caso del film de James Whale (1933) The Invisible Man. En cambio, anticipar una presencia no-visible es sugerir que la cosa que después en el tiempo se verá, en este momento todavía no se puede ver.

11 Cfr. Bordwell, David. La narración en el cine de ficción, 1996.

12 Este ejemplo y el que sigue son puramente hipotéticos. Qui-zás se tenga la tentación de acusarnos de cometer un acto ilícito al pretender argumentar una idea con ejemplos inventados por nosotros. Se nos diría entonces que el argumento no es válido porque es circular. Sin embargo caben dos observacio-nes_ en primero lugar, no estamos seguros de que no existan ejemplos como estos; no sería extraño que en la historia del cine se encuentren casos semejantes, dado que los ejemplos que proponemos no tienen nada de exóticos, ni de rebuscados. Pero además, y más importante aún, estos ejemplos hipotéticos están justificados en que son teóricamente posibles en función de la tecnología que los sustenta. Es decir, que aún cuando no fueran positivamente reales porque nadie los haya filmado aún, el hecho mismo de que sean lógica, teórica y empíricamente po-sibles alcanza a los fines de nuestra argumentación. En última instancia se trata de mostrar lo que implica y hace posible una cierta tecnología respecto de otra.

13 Aumont, Jacques, Bergala, Alain, Marie, Michelle, Vernet, Marc. Estética del Cine, 1995. P. 25

14 Cfr. Samaja, Juan, El nacimiento del espectáculo cinematográfico, 2004.

15 Cfr. Kant, Immanuel, Crítica de la razón pura, 1973.

16 Se denomina intra diegético a todos aquellos elementos que forman parte del mundo interno del relato, y extra diegético a los aspectos que si bien forman parte del espectáculo audiovisual, no son parte del mundo representado por el relato. Por ejemplo la tecnología del I-Max o el 3D, el sistema de sonido envolvente que aparecen constituyendo sistema no con la diégesis sino con el espectador.

17 André Gaudreault y Francois Jost denominan auricularización y ocularización al punto de audición o de vista que coincide con el del personaje diegético; es decir, aquello que escucha y mira un personaje (y por ende es compartido por el espectador). Cfr. El relato cinematográfico pp. 137-154, 1995.

18 Este efecto ya se había producido por medio de la imagen con la codificación del dispositivo que hizo posible colocar al espectador en el centro de la diégesis. Cfr. Burch, Nöel, Op. Cit.

19 Burch, en su genealogía del lenguaje cinematográfico propone clasificar las formas de organización formal de la imagen en dos categorías: modo de representación primitivo y modo de representación institucional. El primero se manifiesta desde los primeros años del cine narrativo-representativo y desaparece definitivamente hacia 1910. Lo que precisamente distingue un modo de representación del otro es la jerarquización formal de los elementos del cuadro, que hace posible funcionalizar los elementos de éste respecto de un centro narrativo. Esta organización jerárquica de los diversos componentes de la imagen, cuyo fin es la organización de la lectura del cuadro, es denominado por Burch el centrado de la imagen. Cfr. Burch, N. Op. Cit.

20 Las primeras experimentaciones con el 3D son muy antiguas, y su desarrollo es contemporáneo con el del cinematógrafo. A fines de 1890 Williams Freese-Greene patentó un dispositivo de filmación cinematográfica en 3D. En la primera década del siglo XX se hicieron algunos intentos de filmar con una cámara estereoscópica, pero las complicaciones técnicas aplazo la incorporación normal en el espectáculo. Recién en 1922 se comercializó la primera producción realizada con tecnología 3D (The Power of Love; EE.UU.) Sin embargo, estos intentos aislados no tuvieron demasiado impacto en el espectáculo tradicional que siguió realizándose con el sistema estándar. La competencia con la televisión, a partir de la década del ´50 hizo reflotar varias innovaciones sobre la imagen que se habían realizado a comienzos de siglo, entre ellos el cinerama, el 3D, etc.

21 Aquí hay que hacer una distinción importante: cuando se habla del efecto de tridimensionalidad se está haciendo referencia en sentido riguroso a una imagen estereoscópica obtenida –en el origen- con una cámara de doble lente; para que el espectador sintetice las dos imágenes debe colocarse un dispositivo en forme de anteojo que unifica las dos represen-taciones generando el efecto de profundidad. Sin embargo, la profundidad tridimensional puede ser simulada a través de las posiciones relativas de la cámara por medio del movimiento del artefacto sobre la toma, o por medio de una superposición de diversas cámaras dispuestas en forma circular que fotogra-fían en diversas tomas un mismo objeto en movimiento. Por lo tanto, aunque la tecnología 3D supone la maximización del efecto de profundidad, se puede producir la ilusión de la profundidad sin esta tecnología específica. De hecho, en los dos casos que analizamos se manifiesta una idéntica ilusión de profundidad, enfatizada por la referencia explícita al espectador como centro de convergencia de las trayectorias de los objetos, pero en un caso se articula con la tecnología 3D (Boggie el aceitoso) y en el otro, no.

22 El efecto bullet time resulta de una manipulación eficiente de dos variables: la duración de las trayectorias sobre el plano visual y de las frecuencias sonoras que representan esa misma trayectoria sobre un plano sonoro equivalente.

23 Aunque la serie norteamericana no trabaja con el sistema 3D, las trayectorias de los objetos también producen el efecto de interpelación directa ya que al coordinar las 24 cámaras, no sólo ocupando una fracción del segundo total, sino además disponiéndolas en posiciones relativas de proximidad respecto del objeto registrado, las imágenes tomadas al ser editadas en una secuencia de 24 imágenes por segundo producen un efecto semejante al de la profundidad espacial, gracias al denominado efecto phy. (Sobre este concepto, Cfr. Aumont, J. y Marie, M. Diccionario teóricoy crítico del cine, 2006).

24 Definimos al plano como la relación de proximidad entre lo representado y el punto de observación de la instancia de enunciación.

Page 110: En El Límite - Escritos sobre Arte y Tecnología

110 | en el limite

25 Pensamos sobre todo en recursos como al que apela Hitchcock cuando pone en primerísimo plano un objeto significativo para que sea percibido por el espectador a los efectos de reforzar el suspenso de la trama. Tal es el caso de la taza con veneno en Notorius.

26 Cfr. Kulechov, Lev. Tratado de realización cinematográfica, 1956.

27 Si bien la imagen no está completamente exenta y privada de este tipo de funciones puramente expresivas, éstas son del todo excepcionales en los marcos regulares de la producción cinematográfica, quizás debido al carácter eminentemente denotativo que presenta la cualidad de la imagen fotográfica.

28 Op.Cit. p. 75 y siguientes.

29 Cfr. Bateson, G. Op. Cit. Pp-80-102.

30 Chion, M. Op. Cit. “Imantación espacial del sonido por la imagen” P. 72.

Bibliografía

Albano, Sergio, Levit, Ariel, Rosenberg, Lucio. Diccionario de semiótica, Buenos Aires, Quadrata, 2005.

Aumont, Jacques, Bergala, Alain, Marie, Michelle, Vernet, Marc. Estética del Cine, Barcelona, Paidos, 1995.

Aumont, Jacques; Marie, Michelle. Diccionario teórico y crítico del cine, Paidos, Buenos Aires, 2006

Bateson, Gregory, Espíritu y naturaleza, Buenos Aires, Amorrortu, 1993.

Bordwell, David. La narración en el cine de ficción. Barcelona, Paidos, 1996.

Bordwell, David; Staiger, Janet; Thompsom, Kristin. El estilo clásico de Hollywood. Estilo cinematográfico y modo de producción hasta 1960, Barcelona, Paidos, 1997.

Bruch, Nöel. El Tragaluz del infinito. (Contribución a la Genealogía del Lenguaje Cinematográfico). Madrid. Edit. Cátedra; 1999.

Casetti, Francesco, El film y su espectador, Cátedra, Madrid, 1996.

Chion, Michelle. La Audiovisión. Introducción a un análisis conjunto de la imagen y el sonido, Barcelona, Paidos, 1993.

España, Claudio, Argentina Sono Film, Buenos Aires, 1984.

Albano, S, Levit, A, Rosenberg, L. Diccionario de semiótica, 2005.

Gaudreault, André, José Francois, El relato cinematográfico, Barcelona, Paidos, 1995.

Kant, Immanuel, Crítica de la razón pura, México, Porrúa, 1973.

Kulechov, Lev, Tratado de realización cinematográfica, Buenos Aires, Futuro, 1956

Palacios, Manuel y Santos Pedro(Coordinadores), Historia general del cine. Volumen VI, Madrid, Cátedra, 1995.

Sadoul, Georges, Historia del cine mundial, México, Siglo XXI, 1979.

Samaja, Juan Alfonso. El nacimiento del espectáculo cinematográfico, Buenos Aires, Centro de Estudios sobre Cinematografía de la Sociedad Argentina de Información, 2004.

Page 111: En El Límite - Escritos sobre Arte y Tecnología
Page 112: En El Límite - Escritos sobre Arte y Tecnología