capítulo 2 - el software toma el mando (manovich)
Post on 24-Oct-2015
853 Views
Preview:
DESCRIPTION
TRANSCRIPT
Manovich. Capítulo 2 – El Software Toma el Mando 1 / 36
Capítulo 2. Para entender los metamedios1
Lev Manovich
“[el libro electrónico] no debe ser visto como una simulación del libro de papel porque se trata de una
nuevo medio con nuevas propiedades”.
Kay & Goldberg, “Personal Dynamic Media,” 1977.
Hoy, Popular Science, editada por Bonnier, la más grande revista de ciencia y tecnología del mundo,
lanzó Popular Science+ (la primera revista en la plataforma Mag+, disponible para el iPad a partir de
mañana)… Lo que me emociona es que no se siente como si usáramos un sitio Web, o un lector de
las nuevas tableta portátiles sino que, técnicamente, es lo que es. Se siente como leer una revista.
Popular Science+, publicado el 2 de abril, 2010.
http://berglondon.com/blog/2010/04/02/popularscienceplus/
Los componentes básicos
Empecé a construir este libro en 2007. Hoy es 3 de abril de 2010 y estoy escribiendo este capítulo.
Hoy es también un día importante para la historia de la computación de medios (que empieza
exactamente 40 años antes con Sketchpad, de Ivan Sutherland): Apple lanzó a la venta en EUA su
nueva tableta iPad. Durante el tiempo en que he estado trabajando en este libro, muchos desarrollos
han hecho más real la visión de Kay, la computadora como primer metamedio, pero también la han
hecho más distante.
La dramática reducción de precios de laptops y el surgimiento de tabletas baratas ha acercado la
computación de medios a más y más personas (aunado al continuo incremento de capacidades y bajo
costo de dispositivos electrónicos: cámaras digitales, video cámaras, pantallas, discos duros, etc.).
Con el precio de una notebook 10 ó 20 menor que una TV digital, el argumento de la “brecha digital”
de los 90s se ha vuelto menos relevante. Se ha vuelto más económico crear tus propios medio que
consumir programas profesionales de TV vía los modos estándares de la industria de masas. Cada
vez hay más estudiantes, diseñadores y artistas que aprenden Processing y otros lenguajes de script y
programación adaptados a sus necesidades (lo que hace del arte y diseño con software algo más
familiar). Quizá, aún más importante, muchos teléfonos portátiles se volvieron “teléfonos inteligentes”
o “smart phones”, con acceso a Internet, navegación Web, email, cámara de foto y video y demás
capacidades de creación de medios (incluyendo nuevas plataformas para el desarrollo de software).
1 Fragmento del libro Software Takes Command, versión del 30 de septiembre de 2012, publicada bajo licencia Creative Commons en manovich.net. Traducción de Everardo Reyes-García. Este documento tiene únicamente intenciones educativas, artísticas y científicas.
Manovich. Capítulo 2 – El Software Toma el Mando 2 / 36
Por ejemplo, el iPhone de Apple salío a la venta el 29 de junio de 2007; el 10 de julio, cuando abrió la
App Store, ya habían casi 500 aplicaciones desarrolladas por terceras personas. Según las
estadísticas de Apple, el 20 de marzo de 2010 la tienda llegó a 150 mil aplicaciones diferentes y el
número total de apps descargadas ascendía a 3 mil millones. En febrero 2012, el número de apps
iOS llegó a 500 mil (sin considerar todas aquellas que Apple rechaza diariamente), y las descargas
totales fueron 25 mil millones2.
Al mismo tiempo, algunos de los mismos desarrollos fortalecieron una visión diferente de la
computación de medios (la computadora como aparato para comprar y consumir medios
profesionales, organizar archivos de medios personales y uso de GUI para creación y producción de
medios) pero no para crear e imaginar “medio aún no inventados”. Las primer computadora Mac
introducida en 1984 no permitía escribir nuevos programas para sacar provecho de sus capacidades
mediáticas. La adopción de la interfaz GUI en todas las aplicaciones PC, por parte de la industria del
software, hizo que las computadoras fueran fáciles de usar pero también dejó sin sentido el hecho de
aprender a programar. En los 2000, el nuevo paradigma de Apple de la computadora como “centro de
medios” (una plataforma para gestionar todos los medios creados personalmente) borró la parte
“computacional” de la PC. En la siguiente década, el surgimiento gradual de canales de distribución
profesionales basados en el Web, como la Apple iTunes Store (2003), TV por Internet (en EUA, Hulu
salió al mercado el 12 de marzo de 2008), tiendas de e-book (Random House y Harper Collins
empezaron a vender libros digitales en 2002) y la Apple iBook Store (3 de abril de 2010), de la mano
con lectores especializados como el Kindle de Amazon (noviembre 2007) han ampliado una parte
crucial de este paradigma. Una computadora se volvió una “máquina universal de medios” como
nunca antes (con acento en el consumo de medios creados por otros).
Así que si en 1984, la primera computadora de Apple fue criticada por sus aplicaciones GUI y la falta
de herramientas de programación para sus usuarios, el iPad de 2010 fue criticado por no incluir
suficientes herramientas GUI para el trabajo pesado de creación y producción de medios (lo que es un
retroceso en la visión del Dynabook de Kay). La siguiente reseña del iPad, del periodista Walter S.
Mossberg del Wall Street Journal, era típica de las reacciones del nuevo aparato: “si usted navega de
Web, toma notas, usa redes sociales, manda correos electrónicos y consume fotos, videos, libros,
revistas, periódicos y música, entonces éste aparato puede ser para usted” 3. David Pogue, del New
York Times, hace eco: “el iPad no es una laptop. No es muy buena para crear cosas. Pero, por otro
lado, es infinitamente mejor para consumir contenidos (libros, música, video, fotos, Web, correo
electrónico y demás)” 4.
2 http://www.apple.com/itunes/25-billion-app-countdown/, consultado el 5 de marzo, 2012. 3 http://ptech.allthingsd.com/20100331/apple-ipad-review/, consultado el 3 de abril, 2010. 4 http://gizmodo.com/5506824/first-ipad-reviews-are-in, consultado el 3 de abril, 2010.
Manovich. Capítulo 2 – El Software Toma el Mando 3 / 36
Sin importar qué tanto las contemporáneas “máquinas universales de medios” cumplen o traicionan
la visión original de Kay, sólo son posibles gracias a ellos. Kay y Xerox PARC construyeron la primera
máquina de medios al crear un número de aplicaciones para producirlos con una interfaz unificada y
la tecnología para que fueron amplificadas por los usuarios. Este capítulo retoma la noción de la
computadora como “metamedio” para investigar de qué manera la ha redefinido. Profundizaremos en
la pregunta: ¿qué son exactamente los medios después del software?
Desde el punto de vista de la historia de los medios, se pueden distinguir dos diferentes tipos de
medios en el metamedio computacional. El primero es la simulación antes medios físicos existentes
con nuevas propiedades, por ejemplo el “papel electrónico”. El segundo tipo es un número de nuevos
medios computacionales sin precedentes físicos. Aquí caben los ejemplos de aquellos “verdaderos
nuevos medios” enlistados con nombre y/o lugar de invención: hipertexto e hipermedios (Ted Nelson);
espacios 3D navegables (Ivan Sutherland); multimedios interactivos ( “Aspen Movie Map” del
Architecture Machine Group).
Esta taxonomía es consistente con la definición de metamedio computacional anotada al final del
artículo de Kay y Goldberg. Pero hagámonos otra pregunta: ¿cuáles son los componentes básicos de
estas simulaciones de medios existentes y de nuevos medios? De hecho, ya hemos encontrado
algunos de estos componentes pero no me he referido a ellos explícitamente.
Los componentes básicos usados en el metamedio computacional son los diferentes tipos de datos
de medios y las técnicas para generar, modificar y visualizar estos datos. Actualmente, los tipos de
datos que son más usados son los textos, las imágenes vectoriales, las imágenes en secuencia
(animaciones vectoriales), imágenes de tonos continuos y secuencias de dichas imágenes (es decir,
fotografías y video digital), modelos 3D y audio. Estoy seguro que algunos lectores preferirían una lista
diferente, y no los culpo. Lo que es importante en este punto de la discusión es establecer que hay
muchos tipos de datos y no sólo uno.
Este punto nos lleva al siguiente: las técnicas de manipulación de datos pueden ser, a su vez,
divididas en dos tipos, según el tipo de datos que pueden manejar:
A) el primer tipo son las técnicas de creación, manipulación y acceso especificas a un tipo de
datos. O sea, estas técnicas sólo se pueden usar en un tipo de datos o tipo de “contenido de
medios” en particular. Me referiré a estas técnicas como “específicas a un medio” (aquí, la
palabra “medio” significa en realidad “tipo de dato”). Por ejemplo, la técnica de “satisfacción
de restricciones geométrica” inventada por Sutherland sólo puede actuar en data gráficos
definidos por puntos y líneas. Sin embargo, no tendría sentido aplicar esta técnica al texto.
Manovich. Capítulo 2 – El Software Toma el Mando 4 / 36
Otro ejemplo, los programas de edición de imágenes incluyen generalmente varios filtros
como “enfoque” y “desenfoque” que pueden ejecutarse en imágenes de tonos continuos.
Pero normalmente no podríamos enfocar o desenfocar un modelo 3D. Y los ejemplos siguen:
no tendría sentido la “extrusión” de un texto o su “interpolación”, así como tampoco lo sería
definir un cierto número de columnas en una imagen o una composición de audio.
Parece que algunas de estas técnicas de manipulación de datos no tienen precedente
histórico en otros medios (la “satisfacción de restricciones geométricas” puede ser una). Otro
caso son los algoritmos evolutivos usados para generar imágenes estáticas, animaciones y
formas 3D. Pero existen técnicas específicas de medios que sí hacen referencia a
herramientas y máquinas precedentes (por ejemplo, los pinceles en aplicaciones de edición
de imágenes, comandos de zoom en software gráficos o comandos de recorte/alargamiento
en software de edición de video). En otras palabras, la misma división entre simulaciones y
“verdaderamente nuevos” medios también aplica para las técnicas individuales detrás del
“metamedio computacional”.
B) el segundo tipo son las técnicas del nuevo software que funcionan con datos digitales en
general (es decir que no son particulares a un medio). Entre los ejemplos tenemos: “control
de vistas”, hipervínculos, ordenar, buscar, protocolos de red como HTTP, las técnicas de
áreas como Inteligencia Artificial, Aprendizaje de Máquinas, Descubrimiento de Información y
demás sub-ramas de las ciencias computacionales. De hecho, gran parte de las ciencias
computacionales, ciencias de la información e ingeniería computacional tratan sobre estas
técnicas (debido a que se enfocan en el diseño algoritmos para procesar información en
general). Estas técnicas son formas generales para manipular datos, sin importar su
contenido (valores de pixeles, caracteres de texto, sonidos, etc.). Me referiré a estas técnicas
como independientes de los medios. Por ejemplo, como ya lo vimos, el “control de vistas” de
Engelbart (la idea que una misma información pueda ser vista de diferentes maneras) ha
sido implementada en casi todos los editores, por consiguiente actúa sobre imágenes,
modelos 3D, archivos de video, proyectos de animación, diseño gráfico y composiciones
sonoras. El “control de vistas” también ya es parte integral de los modernos sistemas
operativos (Mac OSX, Microsoft Windows, Google Chrome OS). Diario usamos control de
vistas de nuestros archivos: cambiando entre “listas” a “íconos” y “columnas”. Las técnicas
generales que son independientes de los medios también incluyen comandos de interfaz
como cortar, copiar y pegar. Por ejemplo, puedes seleccionar el nombre de un archivo de
algún directorio, un grupo de pixeles en una imagen o un conjunto de polígonos en un modelo
3D, para después cortarlos, copiarlos y pegarlos.
Manovich. Capítulo 2 – El Software Toma el Mando 5 / 36
Muy bien. Tenemos dos formas diferentes de “dividir” un metamedio computacional. Si queremos
seguir usando el concepto de “medio”, diremos que la computadora simula medios precedentes y
permite definir nuevos. Alternativamente, podemos pensar en el metamedio computacional como una
colección de tipos de datos, técnicas específicas de medios que sólo funcionan en tipos particulares,
y en técnicas independientes a los medios que pueden funcionar con cualquier tipo de dato. Cada uno
de los medios del metamedio computacional está hecho de estos componentes básicos. Por ejemplo,
los elementos del medio “espacio navegable 3D” son los modelos 3D y las técnicas para
representarlo en perspectiva, el mapeo de texturas, la simulación de varios efectos de iluminación,
mapeo de sombras, etc. Otro ejemplo: los elementos de la “fotografía digital” son las imágenes de
tonos continuos capturadas por sensores del lente y una variedad de técnicas para manipular dichas
imágenes: cambiar contraste y saturación, tamaño, composición, etc.
Un comentario más sobre la distinción entre técnicas específicas y técnicas independientes de los
medios. Todo esto funciona muy bien en teoría pero en la práctica, sin embargo, es muy difícil decir en
cuál categoría debe situarse un medio o una técnica. Por ejemplo, ¿se puede decir que la posibilidad
de Sketchpad para trabajar en cualquiera de sus 2,000 niveles de acercamiento es una extensión de
técnicas precedentes (como lo es acercar el cuerpo al lienzo o usar lupas) o más bien algo nuevo? ¿o
qué podemos decir del espacio navegable 3D que usamos como ejemplo de nuevo medio sólo posible
con la computadora (que se remonta a la realidad virtual de Sutherland en 1966)? ¿es algo nuevo o
es una extensión de medios físicos como la arquitectura, que permiten caminar al interior de sus
estructuras?
Las fronteras en “medios simulados” y “nuevos medios”, o entre técnicas “específicas a un medio” e
“independientes a un medio” no debe tomarse de forma estricta. En lugar de pensar en ellas como
categorías sólidas, es mejor imaginarlas como coordenadas del mapa del metamedio computacional.
Como cualquier primer boceto, sin importar lo impreciso, este mapa es útil porque nos sirve como
base para irlo modificando a medida que avanzamos el estudio.
Técnicas independientes y específ icas a los medios
Ahora que tenemos nuestro primer mapa del metamedio computacional, veamos si podemos detectar
cosas que no hayamos notado antes. Primero, observamos cierto número de medios, viejos y nuevos,
que corresponden a nuestro entendimiento de la historia de medios (por ejemplo, si echamos un
vistazo al sumario de Understanding Media de McLuhan, encontraremos un par de docenas de
capítulos dedicados a un tipo particular de medio, de la escritura y los caminos a los carros y la TV).
Segundo, vemos varias técnicas específicas a ciertos medios, algo que también nos es familiar:
pensemos en técnicas de edición de cine, formas de bocetar un dibujo, creación de rimas en poesía, o
Manovich. Capítulo 2 – El Software Toma el Mando 6 / 36
formas de dar narrativa a eventos cronológicos en la literatura. Pero una zona del mapa se ve nueva y
diferente con relación a nuestra previa historia cultural. Ésta es el área en donde se hayan las
“técnicas independientes a los medios”. ¿Qué son estás técnicas y cómo pueden funcionar de
manera transversal en los medios, es decir, a lo largo de diferentes tipos de datos?
Argumentaré que la “independencia de medios” no sucede porque sí. Para que una técnica funcione
en varios tipos, los programadores deben implementar distintos métodos apropiados para cada medio
pero de forma separada. Entonces, las técnicas independientes de los medios son conceptos
generales traducidos en algoritmos que, en efecto, funcionan en tipos de datos particulares.
Exploremos algunos ejemplos.
Pensemos en el omnipresente copiar-pegar. El algoritmo para seleccionar una palabra en un
documento es diferente al algoritmo para seleccionar una curva en un dibujo vectorial, o del algoritmo
para seleccionar una parte de un imagen de tonos continuos. En otros palabras, “copiar-pegar” es un
concepto general que se implementa de forma diferente en el software de medios, según el tipo de
datos que dicho software está diseñado a soportar (la implementación original de Larry Tesler, entre
1974 y 1975 en PARC, estaba dedicada únicamente al texto). Aunque copiar-cortar-pegar sean
comandos comunes a muchas aplicaciones, éstos son implementados de formas diferente.
Buscar funciona de manera similar. El algoritmo para buscar una frase en un documento de texto es
diferentes al algoritmo que busca un rostro en una foto o clip de video (aquí estoy hablando de
“búsquedas basadas en el contenido”, es decir, búsquedas en el contenido mismo y no en los
metadatos, como los títulos, autores, etc.). Sin embargo, a pesar de estas diferencias el concepto
general de “búsqueda” es el mismo: localizar cualquier elemento, dentro de uno o varios objetos
mediáticos, que cumpla con cierto criterio definido por el usuario. Entonces, podemos pedir a los
motores de búsqueda que no localicen aquellas páginas Web en donde existe cierta palabra, o
conjunto de palabras clave, o imágenes similares a cierta composición dada.
Como consecuencia del popular paradigma de búsqueda en el Web, podemos asumir que podremos,
en principio, hacer búsquedas en cualquier medio. En realidad es mucho más fácil buscar datos con
cierta organización modular (como texto o modelos 3D) que en los demás (video, imágenes bitmap,
audio). Pero, para al usuario, estas diferencias no son importantes. Lo que importa es que todo tipo
de medio haya adquirido la nueva propiedad de “rastreabilidad” o “buscabilidad”.
Igualmente, a mediados de los 2000s, la foto y el video empezaron a mostrar otras propiedades de su
“encontrabilidad” (aquí tomo prestado el término “encontrabilidad” del libro Ambient findability: what
Manovich. Capítulo 2 – El Software Toma el Mando 7 / 36
we find changes who we become5, 2005, de Peter Morville). La apariencia para los consumidores de
un medio con soporte GPS incluye: geo-etiquetas, geo-búsqueda, servicios de localización,
intercambio de contenidos geográficos (como Flickr en 2006) y aplicaciones para su gestión (como lo
introdujo iPhoto en 2009). Esto ha añadido la propiedad de “localizabilidad”.
Otra noción que se convertido, gracias al esfuerzo de muchas personas, en una técnica
“independiente de los medios” es la visualización de la información (que algunos abrevian infovis). El
mero nombre “infovis” connota que no se trata de una técnicas específica, sino un método general
que puede aplicar potencialmente a cualquier tipo de dato. Su nombre implica que podemos usar
cualquier dato de entrada (números, texto, redes, sonido, video, etc.) y mapearlo u componerlo en una
organización espacial para identificar patrones y relaciones. Algo similar puede ser la sonificación de
datos, que hace lo mismo pero nos da como resultado sonidos.
Sin embargo, hay que decir que tomó décadas inventar técnicas que hicieron real esta posibilidad. En
los 80’s, el campo de la visualización científica se enfocaba en la visualización 3D de datos
numéricos. En la segunda parte de los 90’s, las crecientes capacidades gráficas de las PC facilitaron
que más personas experimentaran con la visualización (llevando, al final, a diversas técnicas para
visualizar medios). Las primeras visualizaciones exitosas de grandes cuerpos textuales fueron
alrededor de 1998 (Text Arc, de W. Bradford Paley en 2002; Valence, de Ben Fry en 1999; Rethinking
the Book, de David Small en19986), de estructuras musicales en el 2001 (The Shape of Song, de
Martin Wattenberg), y de películas en 2000 (The Top Grossing Film of All Time, 1 x 1 de Jason
Salavon).
La infovis es un ejemplo particularmente interesante técnicas independiente de los nuevos medios
debido a la variedad de algoritmos y a las estrategias de qué y cómo visualizar. Por ejemplo, Martin
Wattenberg, cuyo trabajo “se enfoca en exploraciones visuales de datos culturalmente significativos”
7, ha creado visualizaciones de la historia del net art, de composiciones de Bach o de Philip Glass y de
procesos de razonamiento de un programa computacional de ajedrez. Para cada caso ha debido
tomar decisiones sobre qué dimensiones de los datos debe elegir y cómo traducirlas en forma visual.
Y a pesar de esas diferencias, reconocemos dichos proyectos como visualizaciones de información.
Todas son realizaciones de un mismo concepto general: elegir ciertas dimensiones y representarlas
5 Peter Morville. Ambient Findability: What We Find Changes Who We Become. O'Reilly Media, Inc., 2005. 6 W. Bradford Paley, TextArc, 2002, http://www.textarc.org/; Ben Fry, Valence, 1999,
http://benfry.com/valence/; David Small, Rethinking the Book, tesis doctoral, 1999,
http://acg.media.mit.edu/projects/thesis/DSThesis.pdf. 7 http://www.bewitched.com/about.html, 23 de julio, 2006.
Manovich. Capítulo 2 – El Software Toma el Mando 8 / 36
con elementos gráficos8. Todas están basadas en las capacidades del software para manipular datos
numéricos y mapearlos de un formato a otro. Finalmente, todas pueden ser consideradas
aplicaciones de los gráficos computacionales de los nuevos medios (piensa en la afinidad que existe
entre un modelo 3D de un rostro escaneado y una visualización vectorial de un rostro sobre datos
temporales dinámicos de un video).
Como resultado del trabajo de Wattenberg en infovis, y de muchos otros más en las últimas dos
décadas, los datos han adquirido una nueva propiedad común: su estructura puede ser visualizada.
Esta nueva propiedad de los medios está presente en diferentes aplicaciones, librerías de software,
proyectos de arte y diseño, prototipos y artículos de investigación. Hoy en día, algunas herramientas
de visualización vienen incluidas en software de producción de medios, por ejemplo, editores como
Photoshop pueden mostrar el histograma de una imagen, Final Cut puede visualizar el contenido
cromático de un clip de video y, algunos reproductores de música como iTunes tienen la opción de
visualizar música. El servicio Google Trends visualiza patrones de búsqueda; YouTube y Flickr
visualizan estadísticas de visitas por video y foto. Un recorrido a los miles de proyectos recolectados
por infosthetics.com, visualcomplexity.com, entre otros blogs, nos deja ver una amplia variedad de
experimentos en visualización de medios como canciones, poemas y novelas, y todo tipo de datos,
desde los movimientos en un cuarto, durante una hora, de los hijos y el gato de un artista (1hr in front
of the TV by umblebee, 2008) hasta la red de citas de una revista científica (Eigenfactor.org by Moritz
Stefaner, 20099). Además, es posible encontrar esos mismos proyectos en exhibiciones de arte como
Info-Aesthetics10 en SIGGRAPH 2009 o Design and Elastic Mind (2008)11 y Talk to Me (2011) en el
MOMA.
Visualización, rastreabilidad y localizabilidad: éstas y muchas otras nuevas técnicas de
independientes de los medios destacan en el mapa de los medios computacionales precisamente
porque van contra nuestra comprensión habitual de los medios (entendidos en plural, como medios
separados). Si podemos usar las mismas técnicas en diferentes tipos de medios, ¿qué pasa con las
distinciones entre medios?
La idea que las obras de arte usan distintos medios, cada uno con sus propias técnicas y formas de
representación, fue central para la estética y el arte moderno. En su Laokoon oder Über die Grenzen
8 Para un estudio detallado sobre infovis, sus principios generales y nuevos desarrollos, consultar mi artículo:
“What is Visualization?” (2010), Visual Studies 26, no. 1 (Marzo, 2011). 9 http://well-formed.eigenfactor.org/; http://www.flickr.com/photos/the_bumblebee/2229041742/in/pool-
datavisualization. 10 http://www.siggraph.org/s2009/galleries_experiences/information_aesthetics/. 11 http://www.moma.org/interactives/exhibitions/2008/elasticmind/.
Manovich. Capítulo 2 – El Software Toma el Mando 9 / 36
der Malerei und Poesie (Laocoon: ensayo sobre los límites de la pintura y la poesía), el filósofo
alemán Gotthold Ephraim Lessing recalcaba la diferencia radical entre pintura y poesía debido a que
una se “extiende” en el tiempo y, la otra, en el espacio. Esta idea llega a su clímax a inicios del siglo
XX, cuando los modernistas dedicaron sus fuerzas al descubrimiento de un lenguaje único a cada
medio artístico. El siguiente postulado, hecho en 1924 por Jean Epstein, un cineasta y teórico francés
de la vanguardia, es un típico ejemplo de la retórica modernista de la pureza (innumerables
postulados como ese aparecieron en publicaciones vanguardistas de ese tiempo):
Cada arte construye su ciudad prohibida, su propio territorio exclusivo, autónomo, específico
y hostil a cualquier cosa que no le pertenezca. Tan sorprendente como parezca, la literatura
debe ser primero y sobretodo, literaria; el teatro, teatral; la pintura, pictórica; y, el cine,
fílmico. Hoy la pintura se está liberando de muchas de sus preocupaciones narrativas y
representacionales… el cine debe buscar convertirse, gradualmente y, al final, únicamente,
en fílmico, usando solamente elementos fotogénicos12.
En relación a la pintura, la doctrina de la pureza de medios alcanza su expresión máxima con el
famoso argumento de Clement Greenberg: “debido a que la superficie plana era la única condición
que la pintura no compartía con nadie más, la pintura modernista se orientó hacia lo plano como a
ninguna otra cosa” 13. Notemos que Greenberg no abogaba esta postura como justificación del arte
abstracto de sus contemporáneos, sólo hacía un análisis del modernismo emergente.
No fue hasta después de los 60s, cuando la instalación (una nueva forma de arte que combina
medios y materiales) es aceptada y se vuelve popular, que la obsesión con la especificidad de los
medios pierde importancia.
Sin embargo, aún en su apogeo, la especificidad de medios siempre tuvo su contraparte. Durante el
periodo moderno también encontramos intentos “locales” (es decir, momentos históricos particulares
y escuelas artísticas) para formular principios estéticos que puedan relacionar diferentes medios
entre sí. Pensemos en los esfuerzos de muchos modernistas para establecer líneas paralelas entre
composiciones visuales y musicales. Esta trabajo ha estado comúnmente asociado con la idea de
sinestesia y Gesamtkunstwerk, con teorías, composiciones y tecnologías de Scriabin, The Whitneys
(que fueron pioneros en la animación computacional) y varios artistas más.
12 Jean Epstein, "On Certain Characteristics of Photogénie," in French Film Theory and Criticism, Volumen 1:
1907-1929, ed. Richard Abel (Princeton: University of Princeton Press, 1988). 13 Clement Greenberg, “Modern Painting,” Forum Lectures (Washington, D.C.: Voice of America: 1960),
http://www.sharecom.ca/greenberg/modernism.html.
Manovich. Capítulo 2 – El Software Toma el Mando 10 / 36
Aunque los paradigmas artísticos modernistas (clasicismo, romanticismo, naturalismo,
impresionismos, realismo social, suprematismo, cubismo, surrealismo, etc.) no teorizaron de forma
explícita la estética de los medios transversales, sí se les puede considerar como sistemas que dieron
“propiedades comunes” a varios trabajos de medios. Así, novelas de Émile Zola y pinturas de Manet
fueron agrupadas en una representación “naturalista” y científica de la vida cotidiana; el
constructivismo en la pintura, la gráfica, el diseño industrial, el diseño teatral, la arquitectura y la
moda, compartieron la estética de la “estructura expresada” (el énfasis en la composición estructural
mediante su exageración); la estética de De Stijl, con formas rectangulares, sin intersecciones, en
colores primarios, fue aplicada en la pintura, los muebles, la arquitectura y la tipografía.
¿Cuál es la diferencia entre estos trabajos artísticos, que establecieron correspondencias mediáticas,
y las técnicas de software, que funcionan en diferentes medios? Está claro que los sistemas artísticos
y la producción, edición e interacción de técnicas de medios con software funcionan en niveles
diferentes. Los primeros son responsables del contenido y el estilo de las obras creadas (esto es,
aquello que será creado en primera instancia). Los segundos no sólo son usados para crear, sino
también para interactuar con lo ha sido previamente creado, por ejemplo blogs, fotos y videos en el
Web creados por otros.
Dicho de otra forma, los esfuerzos de los modernistas por crear similitudes entre medios fueron
prescriptivos y especulativos14. Las “propiedades comunes de los medios” podían ser aplicadas a
determinadas obras creadas por ciertos artistas, o grupos. Por el contrario, el software impone las
“propiedades” comunes de los medios en cualquier medio. Entonces, el software determina nuestra
comprensión de los medios en general. Por ejemplo, las aplicaciones y servicios Web incluyen
métodos de navegación, lectura, escucha o visión de objetos mediáticos: añadiendo informaciones
(comentarios, etiquetas, geo-etiquetas) o encontrándolos en conjuntos más grandes (o sea, motores y
comandos de búsqueda). Esto aplica a videos, imágenes, textos, mapas, etc. De esta manera,
podemos decir que el software de medios “interpreta” cualquier medio que toca, y dichas
“interpretaciones” siempre vienen con algunos postulados.
Por supuesto que los sistemas estéticos “independientes de los medios” propuestos por los
modernistas no sólo fueron generativos, pero también interpretativos. Los artistas y teóricos
modernistas siempre querían cambiar la comprensión del arte antiguo y contemporáneo (usualmente
de forma crítica o negativa: cada nuevo grupo quería desacreditar a sus predecesores o a sus
14 Entiéndase que aquí, en lo especulativo, sucede que en muchos casos los sistemas estéticos propuestos no
siempre vieron el día en la práctica. Por ejemplo, ninguna arquitectura supremalista de Kasimir Malevich fue
construida; lo mismo para la arquitectura futurista de Antonio Sant'Elia, tal como la presentó en sus bocetos para
La Città Nuova, 1912-1914.
Manovich. Capítulo 2 – El Software Toma el Mando 11 / 36
competidores). Sin embargo, como sus programas eran teorías y no software, no tenían ningún efecto
material en la interacción de los usuarios con las obras. En contraste, las técnicas de software
afectan nuestra comprensión de los medios mediante operaciones para producir, crear, interactuar y
compartir artefactos mediáticos.
Adicionalmente, los paradigmas artísticos y estéticos, en la práctica, se podían hacer con dos, tres o
quizá cuatro medios (pero definitivamente no todos). El naturalismo se podía ver en la literatura y
artes visuales, pero no en la arquitectura; el constructivismo, por su parte, no se expandió a la música
o a la literatura. Sin embargo, los comandos cortar, copiar y pegar se hallan en todas las aplicaciones
de medios; cualquier objeto de medios puede ser geo-etiquetado; el principio de control de vistas
puede ser implementado en cualquier tipo de medios. Para citar más ejemplos, recordemos cómo los
medios adquieren nuevas propiedades, como la “localizabilidad” y la “buscabilidad”. Cualquier texto
puede ser buscado, sin importar si fuiste tú quien lo escribió o si está repertoriado en las novelas
clásicas del Proyecto Gutenberg. De igual forma, una parte de una imagen puede ser cortada y
pegada en otra imagen, sin importar el estilo de ellas. O sea que el software de medios afecta de igual
forma todos los contenidos de medios, sin importar la estética, la semántica, la autoría o el origen
histórico.
Para resumir esta discusión diremos que, en contraste con los programas artísticos modernos que
creaban diferentes medios con principios similares, las técnicas de software, independientes de los
medios, son ubicuas y “universales”. Por ejemplo, ya vimos que cortar y pegar está presentes en
todos los software de producción (ya sean profesionales o para el público masivo). Además, éstas
técnicas se pueden usar en cualquier obra sin importar su estética o su autoría, es decir, sin importar
que haya sido hecha por un usuario especializado o cualquier persona. De hecho, la posibilidad
técnica de samplear un trabajo mediático creado por otros se ha vuelto la clave de la estética de
nuestra época: el remix.
Claro que no todas las aplicaciones y dispositivos de medios nos ofrecen todas estas posibilidades de
la misma manera. Por ejemplo, Google Books no permite seleccionar y pegar texto de sus páginas.
Así, aunque nuestro análisis aplique a principios técnicos y conceptuales del software y sus
implicaciones culturales, es necesario tener en mente que, en la práctica, estos principios se borran
debido a limitantes comerciales o de derechos de autor, principalmente. Pero hasta el software más
restrictivo incluye algunas operaciones básicas de medios. Al estar presentes en todos los software
diseñados para funcionar en diferentes tipos de medios, estas operaciones establecen un
entendimiento compartido de los medios de hoy. Estas operaciones dan la experiencia al usuario de
“principios comunes a todos los contenidos de los medios”.
Manovich. Capítulo 2 – El Software Toma el Mando 12 / 36
Para concluir, recordemos lo que decía hace unos párrafos: la digitalización de los medios no pone en
riesgo la diferencia entre ellos, pero sí los une de diferentes formas. Además de mis ejemplos
inspirados de Kay y Goldberg, ahora puedo nombrar unos de los desarrollos clave al centro de esta
“atracción de medios” (o sea, técnicas comunes de software que operan a través de diferentes tipos
de medios). Si recordamos que la definición de metamedio incluye una variedad de medios existentes
y nuevos, podemos parafrasearle así: en el metamedio computacional, todos los medios, precedentes
y nuevos, comparten propiedades comunes, es decir, se basan en ciertas técnicas de software para
la gestión, producción y comunicación de datos.
Es difícil sobrevaluar la importancia histórica del desarrollo de estas técnicas mediáticas. Los
humanos siempre hemos usado estrategias generales para organizar nuestras representaciones,
experiencias y acciones culturales. Hemos usado la narrativa, la simetría, el ritmo, la repetición de
estructuras (decoraciones), los colores complementarios, entre otras. Estas estrategias fueron muy
importantes para la percepción, cognición y memoria humana, y es por eso que las encontramos en
toda cultura y todo medio, de la poesía a la arquitectura, de la música a la poesía. Sin embargo, estas
estrategias no siempre estuvieron presentes en materiales y herramientas tecnológicas, sino en la
mente y cuerpo de artesanos que pasaban mensajes de una generación a otra. Los medios modernos
de representación y comunicación nos llevan a otro estado. Generalmente, traen consigo ciertas
técnicas que aplican a cualquier medio que puede ser generado o capturado con ellos mismos
(pensemos en la perspectiva lineal de un solo punto, impuesta por las tecnologías de captura
basadas en lentes, como la fotografía, el cine y el video analógico). Pero esta técnicas sólo podían
aplicar a un cierto tipo de medios. Frente a estos desarrollos, la innovación en el software de medios
claramente se impone. Éstos traen un nuevo conjunto de técnicas que se usan en todos los medios.
Localizabilidad, buscabilidad, conectividad, compartir y “mensajear” contenidos multimedia,
producción, control de vistas, zoom y demás técnicas “independientes de los medios” son virus que
infectan todo lo que toca el software. Por esta simple razón los podemos comprar con los principios
básicos de organización de medios y artefactos que han existido durante miles de años.
Adentro de Photoshop
Los medios contemporáneos son creados, editados, combinados, vividos y organizados con software.
Este software incluye aplicaciones profesionales de diseño, producción y gestión de medios
(Photoshop, Illustrator, Flash, Dreamweaver, Final Cut, After Effects, Aperture, Maya); aplicaciones
para el público masivo (iPhoto, iMovie, Picassa); herramientas de los medios sociales compartir,
comentar y editar (Facebook, YouTube, Video, Photobucket); y, las numerosas apps de los dispositivos
móviles. Para entender a los medios de hoy necesitamos entender el software de los medios: su
genealogía (de dónde viene); su anatomía (interfaces y operaciones); y sus efectos teórico-prácticos.
Manovich. Capítulo 2 – El Software Toma el Mando 13 / 36
¿De qué manera el software de producción de medios modela los medios que crea? Tomar ciertas
decisiones de diseño parece natural y fácil de ejecutar, peo al mismo tiempo otras más quedan
ocultas. ¿De qué manera el software para visualizar, gestionar y combinar medios afecta nuestra
experiencia con el medio y con las acciones que podemos ejercer sobre ellos? ¿De qué manera el
software cambia conceptualmente a los “medios”?
Esta sección continúa la investigación de estas cuestiones mediante el análisis de una aplicación de
software que se ha vuelto sinónimo de “medios digitales”: Adobe Photoshop. Como otros programas
profesionales para la producción y diseño de medios, los menús de Photoshop vienen con una docena
de comandos separados. Si consideramos que cada comando tiene múltiples opciones que le
permiten hacer diferentes cosas, el número completo puede oscilar fácilmente alrededor de los miles.
Esta multiplicidad de operaciones del software contemporáneo es un reto para los Estudios de
Software. Si queremos entender cómo participa el software en la modelación de nuestros mundos e
imaginaciones (todo lo que la gente imagina puede ser hecho con software), necesitamos alguna
manera de organizar estas operaciones según pequeñas categorías para empezar a construir una
teoría del software de aplicaciones. Esto no se puede lograr si sólo nos enfocamos en las categorías
de los menús superiores de las aplicaciones; éstas son, en Photoshop CS6, Archivo, Edición, Imagen,
Capa, Tipo, Selección, Filtro, 3D, Vista, Ventana y Ayuda. Como cada aplicación tiene sus propias
categorías, cualquier lista que combine todas las opciones sería muy larga. Lo que más bien
necesitamos es un sistema más general.
El mapa provisional del metamedio computacional que desarrollamos en secciones previas nos da
una pista de dicho sistema. En esta sección probaremos la eficacidad de este mapa mediante el
análisis de un subconjunto de comandos de Photoshop que, de cierto modo, definen esta aplicación
en nuestro imaginario cultural: los filtros. Igualmente, también revisaremos otra propiedad de
Photoshop: las capas.
Nuestro mapa organiza las técnicas del software según dos esquemas. El primer esquema divide
estas técnicas en dos, dependiendo del tipo de datos que puede leer: 1) técnicas de creación,
manipulación y acceso a medios que son específicas a tipos particulares de datos; 2) técnicas del
nuevo software que funcionan en datos digitales en general (es decir que no son específicas a tipos
particulares de datos). El segundo esquema también divide las técnicas en dos tipos pero bajo un
criterio diferente. Lo que importa aquí son las relaciones entre técnicas de software y las tecnologías
de medios pre-digitales. En esta taxonomía, algunas técnicas son las simulaciones de técnicas de
medios precedentes pero aumentados con nuevas propiedades y funciones. Otras técnicas, por el
contrario, no tiene equivalente previo en los medios físicos o electrónicos.
Manovich. Capítulo 2 – El Software Toma el Mando 14 / 36
Puede ser que para un historiador de medios el segundo esquema sea más significativo, pero ¿qué
hay acerca de los usuarios que son “nativos digitales”? Estos usuarios de software puede que nunca
hayan usado otro medio que tablets, laptops o dispositivos móviles (celulares, cámaras,
reproductores MP3). También se puede que estos usuarios no conozcan los detalles de la animación
con acetatos del siglo XX, o el equipo de edición de cine o cualquier otra tecnología de medios pre-
digitales. ¿Significa esto que la distinción entre simulaciones de herramientas de medios precedentes
y las nuevas técnicas “nacidas en lo digital” no tiene sentido para los nativos digitales y que sólo son
importantes para los historiadores de medios como yo?
Pienso que, mientras la semántica de esta distinción (es decir, la referencia a tecnologías y prácticas
previas) puede que no sea significativa para los nativos digitales, la distinción, en sí, es algo que los
usuarios viven en la práctica. Para entender este caso, preguntemos si todas las técnicas de medios
“nacidas en lo digital” disponibles en el software tienen algo en común (además del hecho de haber
existido antes del software, claro está).
Unos de los principales usos de las computadoras digitales, desde sus inicios, ha sido la
automatización. A partir del momento en que un proceso puede ser definido como un conjunto finito
de pasos simples (es decir, un algoritmo), una computadora puede ser programada para ejecutar
dichos pasos sin la intervención de un humano. En el caso del software, la ejecución de cualquier
comando implica una automatización de “bajo nivel” (debido a que la computadora ejecuta
automáticamente una secuencia de pasos del algoritmo datrás del comando). No obstante, lo que es
importante para el usuario es el nivel de automatización que le ofrece la interface del comando.
Muchas técnicas de software que simulan herramientas físicas comparten una propiedad
fundamental con ellas: necesitan que el usuario las controle “manualmente”. El usuario debe micro-
manejar la herramienta, por así decirlo, dirigiéndola, paso por paso, hasta producir el efecto deseado.
Por ejemplo, debemos explícitamente mover el cursor de cierta manera para producir una
determinada pincelada con la herramienta Brocha; también, es necesario teclear cada letra para
producir una oración determinada. Por el contrario, muchas de las técnicas que no simulan nada que
existía previamente (por lo menos no de manera obvia), ofrecen un nivel mayor de automatización del
proceso creativo. Por ejemplo, en lugar de controlar cada detalle, un usuario especifica parámetros y
controles y pone la herramienta en acción. Todas las técnicas generativas, también llamadas
“procedurales”, disponibles en el software de medio caen en esta categoría. En lugar de crear una
cuadrícula de rectángulos a mano, trazando miles de líneas, un usuario puede especificar el alto y
ancho de la cuadrícula y el tamaño de la celda, entonces el programa se encarga de generar el
resultado deseado. Otro ejemplo de alto nivel de automatización es la interpolación de valores clave
en software de animación. En una producción de animación del siglo XX, un animador experimentado
dibujaba los fotogramas clave, y después los asistentes completaban los cuadros de en medio. El
Manovich. Capítulo 2 – El Software Toma el Mando 15 / 36
software de animación automatiza este proceso con la interpolación automática de valores entre dos
fotogramas clave.
De esta manera, aunque sea de poca importancia para los usuarios que existan herramientas que
hagan cosas que antes no eran posibles u otras que simulen medios físicos previos, la distinción es
en sí algo que los usuarios viven diario. Las herramientas que pertenecen al primer grupo muestran la
posibilidad de las computadoras para automatizar procesos; las herramientas del otro grupo usan
automatización invisible de bajo nivel tras bambalinas, pero piden al usuario una manipulación
directa.
Filtro > Estilizar > Viento…
Una vez establecidos nuestros dos conjuntos de categorías de las técnicas del software
(independientes vs. específicas; simulación de lo previo vs. lo nuevo), intentemos ahora aplicarlas a
los comandos de Photoshop. Pero antes de empezar, es importante resaltar que ambos esquemas
tienen la intención de ser únicamente categorías provisionales. Sólo nos dan un camino posible, como
lo sería el norte, sur, este y oeste en un mapa en donde podemos ubicar múltiples operaciones del
diseño de software de medios. Como todo primer boceto, no importa qué tan impreciso sea este
mapa, su utilidad es que podemos irlo modificando conforme vayamos avanzando. No se trata de que
todo quepa en las categorías de este mapa, sino de descubrir sus límites lo más pronto posible para
ajustar cambios.
Empezaremos con los filtros de Photoshop, esos comandos que están bajo el menú Filtro. Es
interesante hacer notar que una gran parte de los filtros de Photoshop también existe en otros
programas de edición de imágenes, animaciones y video, aunque a veces con nombres diferentes.
Para evitar cualquier malentendido, aquí haré referencia a los comandos de la versión CS4 de
Photoshop15.
La primer cosa que sobresale es que los nombres de muchos filtros de Photoshop hacen referencia a
técnicas de manipulación y creación de imágenes, así como a materiales que existían antes del
desarrollo de la aplicaciones de software de los 90s (pintura, dibujo, bocetos, fotografía, vidrio, neón,
fotocopia). Cada filtro tiene sus opciones particulares, que pueden ser controladas con barras de
progresión interactivas o con un campo de texto, en donde insertamos el valor deseado. Estas
15 Para una historia de las versiones de Photoshop, consultar:
http://en.wikipedia.org/wiki/Adobe_Photoshop_release_history.
Manovich. Capítulo 2 – El Software Toma el Mando 16 / 36
opciones permiten controlar los efectos visuales del filtro con un grado de precisión tal que sería muy
difícil de lograr con su herramienta equivalente física.
Este es un buen ejemplo de mi argumento anterior: las simulaciones de medios físicos precedentes
son aumentadas con nuevas propiedades. En este caso, la nueva propiedad son los controles de
filtro. Por ejemplo, el filtro Espátula ofrece tres opciones: Tamaño del trazo, Detalle del trazo y
Suavidad. Los tres toman valores del 1 al 50. Al mismo tiempo, es importante señalar que los
usuarios expertos de muchas herramientas físicas, como los aerosoles, pueden lograr efectos
imposibles para la simulación con software. Entonces, las simulaciones de software no se deben ver
como mejoras lineales sobre tecnologías de medios precedentes.
Es posible relaciones algunos de estos filtros con medios físicos y mecánicos, como la pintura y la
fotografía, pero otros hacen referencia a acciones y fenómenos del mundo físico que, en primera
instancia, parecería que no tienen nada que ver con los medios. Por ejemplo, el filtro Extrusión genera
conjuntos de bloques o pirámides 3D, con partes de la imagen mapeadas en sus caras. Y el filtro
Onda crea un efecto de arrugas en la superficie de una imagen.
Sin embargo, si examinamos a detalles cualquiera de estos filtros nos daremos cuenta que las cosas
no son tan simples. Tomemos, como ejemplo, el filtro Viento (en el submenú Estilizar). Así es como la
ayuda de Photoshop lo describe: “pone pequeñas líneas horizontales en la imagen para dar el efecto
de soplo de viento. Sus métodos incluyen Viento; Ráfaga, para un efecto más dramático, y Escalonar,
que compensa las líneas en la imagen”. Todos conocemos el efecto visual de un viento fuerte sobre
un ambiente (por ejemplo, sobre un árbol o un césped), pero antes de hallar este filtro probablemente
no nos imaginábamos que podíamos “ventiscar” una imagen. ¿Debemos entender el nombre de este
filtro como una metáfora? ¿o más bien debemos pensar en él como un ejemplo de “doblez”
conceptual (que es la forma en como varios conceptos del lenguaje natural se forman, según la teoría
de la Flexión de conceptos16 ) en donde “viento” más “imagen” dan como resultado un nuevo
concepto actualizado en las operaciones dl filtro Viento?
Esta situación se complica aún más con el hecho de que, al aplicar un filtro Viento a una imagen, el
resultado se vea muy diferentes a lo que realmente pasa con el viento sobre un árbol o césped. Sin
embargo, sí es similar a la fotografía de una escena ventosa, a condición que haya tenido una larga
exposición. Entonces, podemos pensar en el nombre de Viento tanto como metáfora (para imaginar lo
que un algoritmo de transformación puede hacer a una imagen) como simulación de una técnica
16 Consultar Mark Turner y Gilles Fauconnier, The Way We Think: Conceptual Blending and the Mind's Hidden
Complexities (New York: Basic Books 2002).
Manovich. Capítulo 2 – El Software Toma el Mando 17 / 36
fotográfica particular (la larga exposición). O sea que, aunque su nombre haga referencia al mundo
físico, sus operaciones actuales pueden referirse a tecnologías de medios pre-digitales.
¿Existen filtros “nacidos en lo digital”?
Sigamos con la exploración de los filtros de Photoshop. La gran mayoría de ellos hace referencia a
medios físicos previos o a experiencias del mundo físico (por lo menos en lo que respecta a su
nombre). Sólo algunos no lo son. Entre otros, estos filtros serían: Paso alto, Mediana, Reducir ruido,
Enfocar y Ecualizar. ¿Estamos frente filtros “nacidos en lo digital”? En otras palabras, hemos llegado a
ejemplos de “nuevas” técnicas de medios? La respuesta es: no. Como resulta, todos estos filtros son
también simulaciones de software que se refieren a cosas que ya existían antes de las computadoras
digitales.
A pesar de que se trata de un conjunto relativamente pequeño, comparado con la extensa colección
de filtros de Photoshop, se trata de filtros clave para las tecnologías electrónicas, informáticas y de
telecomunicaciones. Además, no sólo se pueden usar en imágenes digitales sino también en
cualquier tipo de datos: sonidos, transmisiones de TV, datos capturados por un sensor ambiental,
datos de un aparatos de imagen médica, etc.
En su versión Photoshop, estos filtros trabajan en imágenes de tonos continuos (bitmaps), pero como
pueden ser usados en otros tipos de señales, en realidad pertenecen a la categoría técnicas
“independientes de los medios”. Son técnicas generales que se desarrollaron primero en la ingeniería
y luego en las ciencias computacionales para el procesamiento de información. La aplicación de estas
técnicas en las imágenes forma parte del campo del procesamiento de imágenes, definido como
“cualquier forma de procesamiento de información que tiene como entrada una imagen, como las
fotografías y el video” 17 . Esta relación conceptual entre procesamiento de “información” y de
“imágenes” ejemplifica un argumento de este libro: en la cultura del software, los “medios digitales”
son un conjunto particular de una categoría más amplia, que es la “información”.
Como estos filtros, muchas de las “nuevas” técnicas para la creación, producción y análisis de
medios implementadas en el software no fueron hechas para funcionar en datos de medios. Más
bien, fueron hechas para el procesamiento de información y de señales en general, y después fueron
adaptadas o heredadas en los medios. Entonces, el desarrollo de software acerca diferentes tipos de
medios debido a que las mismas técnicas son usadas por todos ellos. Al mismo tiempo, hoy los
17 Ibid.
Manovich. Capítulo 2 – El Software Toma el Mando 18 / 36
“medios” están relacionados con todos los demás tipos de información, ya sean datos financieros,
patentes, resultados de experimentos científicos, etc.
Ésta es una de las dimensiones teóricas más importantes en el paso de los tecnologías de medios
físicos y mecánicos a los medios electrónicos y al software digital. Antes, los herramientas de medios
físicos y mecánicos eran usadas para crear contenidos accesibles directamente mediante los
sentidos humanos (con excepciones notables, como el código Morse) y por ello las posibilidades de
cada herramienta estaban determinadas por aquello que era significativo a un sentido dado. Un
pincel podía hacer trazos con color, grosor y forma (propiedades directamente asociadas con la vista y
el tacto). De forma similar, los ajustes de una cámara fotográfica afectaban el enfoque y contraste de
las fotos capturadas (visión humana). Una forma diferente de expresar esto era decir que el
“mensaje” no estaba codificado de ninguna manera: era creado, almacenado y accesado en su forma
nativa. Así que, si tuviéramos que redibujar el famoso diagrama del sistema de comunicación de
Claude Shannon (1948) para la era pre-electrónica, deberíamos borrar las etapas de codificación y
decodificación18.
Las tecnologías de medios basadas en la electrónica, como el telégrafo, el teléfono, la radio, la
televisión y, más tarde, las computadoras digitales, usan la codificación de mensajes (o “contenido”).
Y esto hace posible la idea de “información”: una dimensión abstracta y universal de cualquier
mensaje, separado de su contenido. En lugar de aplicarse directamente en sonidos, imágenes, cine o
texto, los aparatos electrónicos y digitales operan en el continuo de señales y datos numéricos
discretos. Algunos ejemplos son: modulación, suavidad (reducción de diferencias en los datos) y
enfoque (exageración de las diferencias). Si los datos son discretos, se pueden hacer otras
operaciones como búsqueda y clasificación.
Con la llegada de la codificación, tenemos un nuevo nivel de eficiencia y velocidad en el
procesamiento, transmisión e interacción con los datos de medios y el contenido de la comunicación.
Así se explica en parte porque los medios electrónicos y digitales remplazaron otras herramientas
específicas a ciertos medios y máquinas. Éstas operaciones automatizan procesos que van desde la
reducción de tamaño y la banda pasante, la mejora de la calidad y la distribución en redes de
comunicación.
El campos del procesamiento de imágenes digitales se empezó a desarrollar en la segunda parte de
los 50’s, cuando científicos y militares se dieron cuenta que las computadoras podían analizar e
mejorar automáticamente la calidad de imágenes aéreas y satelitales. Otros usos pioneros incluyen el
18 C.E. Shannon, "A Mathematical Theory of Communication", Bell System Technical Journal 27 (Julio, 1948):
379-423; (Octubre, 1948): 623-656.
Manovich. Capítulo 2 – El Software Toma el Mando 19 / 36
reconocimiento de caracteres y la conversiones estándares de telefotografías19. Como parte de este
desarrollo, ésta área tomó filtros básicos que eran comunes en las electrónica y los adaptó en las
imágenes digitales. Los filtros Photoshop que automáticamente mejoran la apariencia de una imagen
(por ejemplo, aumentar el contraste o reducir ruido), vienen directamente de este periodo (finales de
los 50’s e inicios de los 60’s).
En resumen, los filtros de Photoshop que parecen “nacidos en lo digital” (o “nativos del software”)
tienen sus predecesores físicos en los filtros análogos, que fueron usados en el teléfono, la radio, el
telégrafo, los instrumentos de música electrónica y demás tecnologías de la primera mitad del siglo
XX. Y todo esto ya estaba siendo estudiado en el procesamiento de señales antes de pasar a la
imagen digital.
Filtro > Distorsionar > Onda…
El reto que implica decidir en qué categoría debemos ubicar los filtros de Photoshop sigue vivo si
continuamos explorando dicho menú. Como lo dijimos anteriormente, los esquemas para clasificar
técnicas de software son un mapa inicial para empezar la discusión.
Las dificultades para categorizar tal o tal técnica están directamente relacionadas con la historia de
las computadoras digitales, vistas como máquinas de simulación. Cada componente de los medios
computacionales viene de algún lugar fuera de las computadoras. Esto es cierto no sólo para una
parte significante de técnicas de producción de medios (filtros, lápices y pinceles digitales, Diseño
Asistido por Computadora, instrumentos musicales virtuales, teclados, etc.), sino también para las
operaciones computacionales más básicas (clasificar, buscar, organizar). Cada una de estas
operaciones y estructuras puede, conceptual e históricamente, remontarse a operaciones físicas y
mecánicas de datos, conocimiento y gestión de memoria, que ya existían antes de los años 40. Por
ejemplo, los “archivos” y “fólder” de computadora hacen referencia a sus predecesores de papel, que
ya eran un estándar en las oficinas. Las primeras computadoras comerciales de IBM fueron
promocionadas como equivalentes más rápidos de otros equipos de IBM vendían desde hace
décadas: calculadoras electro-mecánicas, tabuladoras, clasificadores, etc. Sin embargo, cuando
cualquier operación o estructura fue simulada por la computadora, también fue mejorada y
aumentada. Este proceso de transferencia, del mundo físico al computacional, sigue existiendo,
pensemos en la interfaz táctil popularizada por el iPhone (2007). Entonces, mientras Alan Turing
19 A pesar de que el procesamiento de imágenes es un área muy activa de las ciencias computacionales, no
conozco algún libro o artículo que trace su historia. El primer libro sobre procesamiento de imágenes fue Azriel
Rosenfeld, Picture Processing by Computer (New York: Academic Press, 1969).
Manovich. Capítulo 2 – El Software Toma el Mando 20 / 36
definió la computadora como una máquina general de simulación, si consideramos sus usos y
desarrollos subsecuentes, es más apropiado pensar en la computadora como una máquina de
simulación y de aumento. La dificultad de clasificar diferentes técnicas del software de medios es
resultado directo de este paradigma subyacente al desarrollo de software desde sus inicios.
El cambio de herramientas y materiales de medios físicos en algoritmos diseñados para simular sus
efectos tiene otra consecuencia importante. Como hemos visto, algunos filtros de Photoshop hacen
referencia explícita a medios artísticos previos; otros hace referencia a diversas efectos, acciones y
objetos físicos (Molinete, Extrusión, Viento, Resplandor difuso, Rizo, Vidriera, Onda, Grano, Retazos,
Encoger, etc.). Pero en ambos casos, al cambiar los valores de los controles de cada filtro, podemos
alterar significativamente el efecto visual, yendo a una dimensión que ya no es familiar. Podemos
usar un mismo filtro para lograr un efecto parecido a su contraparte física, pero también para lograr
algo completamente diferente a lo que existe en la naturaleza o en los medios viejos, sólo posible con
algoritmos de manipulación de pixeles. Lo que empieza con una referencia al mundo físico, usando
los ajuste por default, se vuelve en algo extraño si alteramos los ajustes de un simple parámetro. En
otras palabras, muchos algoritmos simulan los efectos de herramientas, máquinas, materiales y
fenómenos físicos con sus ajustes predefinidos, pero cuando los cambiamos, ya no funcionan como
simulaciones.
Por ejemplo, analicemos el comportamiento del filtro Onda (en el submenú Distorsionar). Este filtro
hace referencia a un fenómeno físico conocido y, de hecho, puede producir efectos visuales que
podemos llamar “ondas”. Esto no quiere decir que el efecto de este filtro deba tener una similitud
exacta con el significado literal de la palabra onda, definida según el diccionario como: “un disturbio
en la superficie de un cuerpo líquido, como el mar o los lagos, en forma de cadena en incremento” 20.
En nuestro lenguaje coloquial, usamos la palabra “ondear” metafóricamente para referirnos a algún
movimiento periódico (“ondear la bandera”) o a alguna forma estática que asemeje una onda o
turbulencia (“hacer ondas”). Según la influyente teoría del lingüista cognitivo George Lakoff, éste uso
metafórico no es una excepción sino la norma en el lenguaje y pensamiento humano. Lakoff propuso
que la mayoría de nuestros conceptos abstractos son proyecciones metafóricas de experiencias
sensomotoras de nuestro cuerpo y el mundo físico21. “Hacer ondas”, y otras metáforas derivadas de
nuestra experiencia perceptiva de ver ondas reales, ejemplifica este mecanismo general del lenguaje.
De acuerdo con la teoría de metáforas de Lakoff, algunos detalles del filtro Onda (así como demás
filtros inspirados del mundo físico) se pueden entender como proyecciones metafóricas similares.
Dependiendo de la selección de valores en los parámetros, este filtro puede producir efectos que
20 http://dictionary.reference.com/browse/wave, Agosto 1, 2012. 21 George Lakoff y Mark Johnson, Metaphors We Live By (Chicago: University of Chicago Press, 1980).
Manovich. Capítulo 2 – El Software Toma el Mando 21 / 36
asemejan nuestra experiencia perceptiva de ondas física reales o nuevos efectos relacionados con las
ondas, metafóricamente.
El filtro genera ondas según la función del seno (y = seno x); luego las añade y usa el resultado para
distorsionar una imagen. El usuario puede controlar el número de ondas con el parámetro Número de
generadores. Si este número es 1, el filtro genera una sola onda seno. Al aplicar esta función a una
imagen, la distorsiona siguiendo un patrón de variación periódico. O sea que el filtro genera un efecto
que, efectivamente, parece una onda.
Sin embargo, en algún punto, la conexión metafórica con el mundo real se rompe y en este caso la
teoría de Lakoff ya no nos ayuda. Si aumentamos el número de generadores (podemos ir hasta 999),
el patrón que produce el filtro ya no parece periódico y ya no se puede relacionar con las ondas
reales, ni siquiera metafóricamente.
La razón del comportamiento de esta filtro está en su implementación. Como ya lo hemos explicado,
cuando el generador está puesto en 1, el algoritmo genera una sola función seno. Si está en 2, se
generan dos funciones y así sucesivamente. Los parámetros de cada función son seleccionados de
forma aleatoria dentro de la selección del usuario.
Si seleccionamos un número bajo de generadores (del 2 al 5, por ejemplo), a veces los valores
aleatorios que se añaden al resultado siguen haciendo que parezca una onda, pero en otros casos no.
Y si incrementamos el número de funciones, el resultado nunca parece una onda.
El filtro Onda puede crear prácticamente una variedad infinita de patrones abstractos, y muchos de
ellos no son periódicos de forma obvia, es decir que ya no son reconocidos visualmente como
“ondas”. Lo que son es el resultado de un algoritmo computacional que usa fórmulas y operaciones
matemáticas (generar y añadir funciones seno) para crear un vasto espacio de posibilidades visuales.
Así, aunque el filtro se llama “Onda”, sólo una pequeña parte de su espacio corresponde a efectos
semejantes al mundo físico.
Lo mismo puede decirse de muchos otros filtros que remiten a medios físicos. Los filtros del submenú
Artístico y del submenú Textura producen simulaciones bastante precisas con sus ajustes pre-
definidos pero, cuando los alteramos, el resultado puede ser patrones muy abstractos.
La operación de filtros de Photoshop tiene consecuencias teóricas importantes. Mencionamos antes
que las herramientas de software que simulan instrumentos físicos (pinceles, plumas, reglas, gomas,
etc.) necesitan un control manual, mientras que las otras, que no tienen referente previo, permiten un
Manovich. Capítulo 2 – El Software Toma el Mando 22 / 36
nivel mayor de automatización. Un usuario introduce los valores del parámetro y el algoritmo crea el
resultado deseado.
El mismo “alto nivel” de automatización se halla en las técnicas de software “generativo” (o
“procedural”) que se usan actualmente. Estos trabajos generados con algoritmos van de los gráficos
fijos y animados a la arquitectura y los juegos (de las visualizaciones y animaciones en tiempo real de
la artista de software Lia22 a los mundos masivos generados proceduralmente en el videojuego
Minecraft). Otros proyectos generativos usan algoritmos ara crear automáticamente formas
complejas, animaciones, formas espaciales, música, planos arquitectónicos, etc. (una buena
selección de trabajos generativos e interactivos puede verse aquí:
http://www.processing.org/exhibition/). Debido a que muchas obras creadas con algoritmos
generativos son abstractas, los artistas y teóricos las oponen a aquellas hechas con Photoshop y
Painter, usados por ilustradores y fotógrafos comerciales para lograr realismo y figuración. Además,
como éstas últimas aplicaciones simulan modelos de creación que son más manuales, también son
vistas como menos “específicas a los nuevos medios” que el software generativo. Al final, ambas
críticas llevan a decir que el software que simula “medios viejos” es más conservador, mientras que
los algoritmos y obras generativas son vistas como progresistas debido a que son única a los “nuevos
medios”. Cuando la gente dice que las obras que requieren escribir código computacional califican
como “arte digital” y aquellas que sólo usan Photoshop, evocan los mismos argumentos anteriores.
Sin embargo, las técnicas de software que simulan medios previos y aquellas que son explícitamente
procedurales son parte del mismo continuo al momento en que se implementan en aplicaciones
como Photoshop. Como vimos con el filtro Onda, el mismo algoritmo puede generar una imagen
abstracta o realista. De igual forma, los algoritmos de sistemas de partículas son usados
ampliamente la producción de películas para generar explosiones realistas, fuegos artificiales,
parvadas de pájaros y demás fenómenos físicos. Otro ejemplo: técnicas procedurales usadas en
diseño arquitectónico para crear estructuras espaciales abstractas también son usadas en
videojuegos para generar ambientes 3D realistas.
Menús Historia y Acciones
Esta discusión sobre filtros Photoshop empezó con la intención de comprobar la utilidad de los dos
esquemas de clasificación de técnicas de software en software de medios: 1) técnicas
independientes vs específicas de los medios; 2) las simulaciones de herramientas previas vs técnicas
que no simulan explícitamente medios previos. El primer esquema llama nuestra atención porque las
22 http://www.liaworks.com/category/theprojects/.
Manovich. Capítulo 2 – El Software Toma el Mando 23 / 36
aplicaciones de medios comparten algunos géneros, por así decirlo, mientras que también ofrecen
técnicas que funcionan en tipos particulares de datos. El segundo esquema es útil si queremos
entender las técnicas de software en términos de su genealogía y su relación con medios previos,
físicos, mecánicos y electrónicos.
La discusión anterior resaltó casos difíciles de distinguir y otros en donde las divisiones son claras.
Para recordar, el filtro Trazos de pincel se inspira claramente de herramientas de medios físicas,
mientras que Añadir ruido no. Los comandos Copiar y Pegar son ejemplos de técnicas independientes
de los medios. Auto-contraste y Reemplazar color son ejemplos de técnicas específicas a ciertos
medios.
Pero a pesar de éstas distinciones, todas las técnicas de creación, producción e interacción de
medios comparten rasgos adicionales que no hemos discutido. Conceptualmente, estos rasgos son
diferentes a las técnicas independientes de los medios, como copiar y pegar. ¿Qué son entonces?
Sin importar si hacen referencia o no a instrumentos, acciones o fenómenos previos, las técnicas de
medios disponibles en el software son implementadas como funciones y programas de software. En
consecuencia, siguen los principios generales de la ingeniería de software moderna. Adicionalmente,
sus interfaces siguen convenciones establecidas en todos los demás software de aplicación (ya sean
hojas de cálculo, gestión de inventarios, análisis financieros o diseño Web). Se les dan amplios
controles numéricos, sus preferencias se pueden guardar y volver a cargar después, su uso queda
grabado en la ventana de Historia, se pueden usar automáticamente mediante la grabación y
reproducción de Acciones. Dicho de otra forma, adquieren completa funcionalidad del ambiente de
software moderno, que es muy diferente a los medios y máquinas físicas previas. Debido a estos
principios compartidos de implementación, todas las aplicaciones de software son como especies que
pertenecen a la misma familia evolutiva, siendo el software de medios una rama del árbol23.
Los pioneros del software de medios querían extender las propiedades de las tecnologías y
herramientas de medios que estaban simulando en la computadora. Se trataba de crear un “un
nuevo medio con nuevas propiedades”, como lo dijeron Kay y Goldberg. Así, las técnicas de software
que se refieren a procesos y técnicas previas son también “nuevos medios” porque se comportan de
forma muy diferente a sus predecesores. Hoy tenemos una razón de más para apoyar esta
conclusión. Las nuevas funcionalidades (múltiples niveles de zoom, copiar, pegar, buscar, etc.) y las
convenciones estándar de la interfaz (controles, pre-visualización, historia) distinguen entre la
herramienta de simulación de medios más “realista” de medios de su predecesor.
23 La biología contemporánea ya no emplea la idea un árbol evolutivo. El concepto de “especie” se ha vuelto
también problemático. Aquí sólo usamos estos términos como metáfora.
Manovich. Capítulo 2 – El Software Toma el Mando 24 / 36
Esto significa que usar cualquier software de creación y producción de medios es usar “nuevos
medios”. O, para desarrollar mejor esta frase: todas las técnicas y herramientas de medios
disponibles en el software de aplicación son “nuevos medios”, sin importar que alguna de ellas haga
referencia a medios, fenómenos o tareas comunes que existían antes de convertirse en software.
Escribir con Microsoft Word es usar nuevos medios. Tomar fotos con una cámara digital es usar
nuevos medios. Aplicar el filtro Nubes (en el submenú Interpretar), que usa un algoritmo automático
para generar texturas similares a las nubes, es usar nuevos medios. Dibujar trazos con la herramienta
Pincel es usar nuevos medios.
En otras palabras, no importa en dónde cataloguemos las técnicas, todas ellas son instancias de un
tipo de tecnología: el software de aplicaciones interactivas. Como ya lo dijeron Kay y Goldberg en
1977, el software interactivo es cualitativamente diferente de todos los medios previos. En los últimos
30 años, éstas diferencias se han vuelto más claras. La interactividad; la personalización; la
posibilidad de simular y crear nuevos medios y tecnologías de información; el procesamiento en
tiempo real de grandes cantidades de datos; el control e interacción con sensores y otras máquinas;
el soporte de colaboración asincrónica en tiempo real… éstas, y muchas más, son las posibilidades
que abre el software moderno (de la mano con el middleware, hardware y las redes) y que lo separan
de todos los medios precedentes.
La paleta de las Capas
Para nuestro análisis final, nos moveremos fuera del menú de Filtro y examinaremos una de las
características clave de Photoshop, que originalmente lo diferenció de otros editores de medios para
“consumidores”: la paleta de Capas. Las propiedad de las Capas fue introducida en Photoshop 3.0,
en 199424. Citando la Ayuda de Photohsop, “las Capas permiten trabajar con un elemento de una
imagen si interrumpir los demás” 25. Desde la perspectiva de las teoría de medios, sin embargo, las
Capas son mucho más que eso. Han redefinido cómo se crean las imágenes e incluso el significado
mismo de “imagen”. Lo que antes era un todo indivisible se ha vuelto una composición hecha de
partes separadas. Esto es un apunte teórico y, al mismo tiempo, la realidad del diseño profesional y
edición de imágenes en nuestra sociedad de software. Cualquier diseño profesional creado con
Photoshop usa múltiples capas (en Photoshop CS4, una imagen puede tener potencialmente miles de
capas). Las capas pueden ser invisibles, pueden jugar el rol de contenedores de otros elementos y
24 http://en.wikipedia.org/wiki/Adobe_Photoshop_release_history. 25 http://help.adobe.com/en_US/Photoshop/11.0/, Octubre 9, 2011.
Manovich. Capítulo 2 – El Software Toma el Mando 25 / 36
pueden ser diferentes versiones de un mismo elemento. Un diseñador puede controlar la
transparencia de cada capa, agruparlas, cambiar su orden, etc.
Las capas modifican la manera en que un diseñador o ilustrador piensan las imágenes. En lugar de
trabajar en un solo diseño (que se altera inmediatamente de manera irreversible), ahora trabaja con
una colección de elementos independientes. Puede jugar con ellos, borrarlos, editarlos, importar
otros, etc., hasta que obtenga un composición final que le satisfaga (o un grupo de versiones
ordenadas en grupos de capas). El contenido y las preferencias de todas las capas queda guardado
en un archivo de imagen, así puede cerrarlo y regresar más tarde para seguir trabajando.
Las capas también tienen otras funciones. Citando una vez más la Ayuda en línea de Photoshop: “En
ocasiones, las capas no tienen un contenido aparente. Por ejemplo, una capa de ajustes tiene
preferencias de color y tono que afectan a las capas que se encuentran abajo. En lugar de modificar
directamente los pixeles, es posible editar una capa de ajuste y dejar los pixeles intactos” 26. En otras
palabras, las capas pueden tener operaciones de edición, que se pueden activar o desactivar, o
reorganizar en otro orden. Una imagen queda entonces redefinida como una composición provisional
de elementos y operaciones de modificación, conceptualmente separadas entre sí.
Podemos comparar este cambio fundamental en el concepto y práctica de la creación de imágenes
con un cambio similar que tuvo lugar en los mapas; de los mapas en papel los Sistemas de
Información Geográfica (GIS). Así como todos los profesionales de los medios usan Photoshop, hoy la
mayoría de los profesionales en contacto con espacios físicos (oficiales, compañías de petróleo,
mercadólogos, equipos de emergencia, geólogos, oceanógrafos, agencias de seguridad, policía, etc.)
usa sistemas GIS. El software de mapas disponible al público, como Google Maps, MapQuest y Google
Earth, puede ser visto como una versión simplificada de los GIS ya que no ofrecen opciones cruciales
para el análisis profesional de espacios (por ejemplo, cruzar datos demográficos, de viaje, de gastos,
para determinar la mejor ubicación de un nuevo supermercado).
Los GIS “capturan, almacenan, analizan, gestionan y presentan datos relacionados con la ubicación”
27 . El concepto central de los GIS son paquetes de capas de datos unidos por coordenadas
espaciales. Queda obvia la conexión conceptual entre el uso de capas en Photoshop y el de otras
aplicaciones de software (aunque los GIS funcionan con cualquier dato que tenga coordenadas
geoespaciales, en lugar de imágenes exclusivamente). Las coordenadas geoespaciales alinean
diferentes conjuntos de datos. Los profesionales construyen “mapas” con software GIS que tienen
cientos o incluso miles de capas. La representación de capas también existe en aplicaciones para el
26 Ibid. 27 http://en.wikipedia.org/wiki/GIS, Octubre 9, 2011.
Manovich. Capítulo 2 – El Software Toma el Mando 26 / 36
público como Google Earth, pero la diferencia es que las aplicaciones profesionales, como ArcGIS, el
usuario puede crear su propio mapa de capas a partir de cualquier fuente de datos, mientras que en
Google Earth los usuarios sólo pueden añadir sus propios datos a la representación de base de la
Tierra, que Google provee y que no puede ser modificada.
Para los GIS, el espacio funciona como una plataforma de medios que puede contener todo tipo de
datos al mismo tiempo: puntos, líneas 2D, mapas, imágenes, video, datos numéricos, texto, ligas.
Otros tipos de estas plataformas también incluyen bases de datos, páginas Web y espacios digitales
3D. En Photoshop, las capas siguen subordinadas conceptualmente a la imagen final (cuando usas la
aplicación, continuamente interpreta todos las capas visibles para mostrar ésta imagen). Así que, a
pesar de que podemos usar un documento Photoshop como una especia de base de datos (una
manera de coleccionar diferentes elementos de imágenes), éste no es el uso ideal (se supone que
debes usar otros programas como Adobe Bridge o Aperture). Los GIS llevan la idea de la
representación basada en capas un paso más allá. Puede ocurrir que las aplicaciones GIS
profesionales no produzcan un mapa con todos los datos. Más bien, un usuario elige los datos que
necesita para trabajar y realiza diversas operaciones con ellos (prácticamente esto significa
seleccionar un subconjunto de capas de datos disponibles). Si un mapa tradicional ofrece una
representación fija, los GIS son un sistema de información: una manera de manejar y trabajar con
grandes cantidades de datos separados pero vinculados (vía un sistema compartido de coordenadas).
De las técnicas de programación a la composición digital
¿Cuál es el origen conceptual de las capas en Photoshop? ¿a cuál categoría pertenecen las capas,
según nuestra taxonomía de técnicas de medios basadas en software? Al pensar en los orígenes de
este concepto y la manera en que se relaciona con otras técnicas de producción de medios, me lleva
a varias direcciones. Primero, las capas no son específicas a editores de imágenes bitmap, como
Photoshop; ésta técnica también se usa en software de imágenes vectoriales (Illustrator), gráficos
animados y composición (After Effects), editores de video (Final Cut), y editores de audio (Pro Tools).
En programas orientados a datos de tiempo (audio, video, animación), las capas son conocidas como
“canales” o “pistas”. Dichos términos indican medios físicos y electrónicos que han sido
implementados en software (switcher análogos de video, grabadoras multi-pista de audio). A pesar del
cambio de vocabulario, las funcionalidad de la técnicas es la misma: una composición final es el
resultado de “añadir” datos (componerlos, técnicamente) almacenados en diferentes capas, canales
o pistas.
La Ayuda de Photoshop explica las Capas de la siguiente manera: “son como hojas de acetato
apiladas. Se puede, ver a través de las áreas transparentes de una capa, las otras capas que están
Manovich. Capítulo 2 – El Software Toma el Mando 27 / 36
abajo” 28. Aunque no se haga referencia explícita, se trata de la técnica estándar de la animación
comercial del siglo XX conocida como animación de celdas (o tradicional, o a mano). De la misma
manera que una cámara montada sobre su trípode, Photoshop está “grabando” continuamente la
imagen a través de la yuxtaposición de los elementos visuales de las capas individuales.
No es asombroso que las Capas de Photoshop estén relacionadas con las técnicas de animación
tradicional de inicios del siglo XX, así como con otras prácticas tales como exposición, proyección de
fondo, mates de cine, perforación de video29. De la misma forma, hay un fuerte vínculo entre las
Capas y la tecnología musical, como son las pistas y la grabación en múltiples de ellas. El inventor de
esta técnicas fue el guitarrista Les Paul, que en 1953 fue comisionado por Ampex para construir el
primer grabador de 8 canales. En los 60’s, las grabadoras multi-pista ya eran usadas por Frank
Zappa, los Beach Boys y The Beatles. Desde ese momento, el uso de múltiples pistas se volvió un
estándar en la grabación y arreglo musical30. Cuando las grabadoras se simularon en software
dejaron de ser caras y espaciosas pero sobretodo se volvieron disponibles en muchas aplicaciones.
Por ejemplo, desde 2004, todas las computadoras Apple vienen con el grabador y editor multi-pista
Garage Band. Otras implementaciones populares son Audacity (libre) y Pro Tools (comercial y
profesional).
Finalmente, hay un indicio que une las Capas con el principio general de la programación de
computadoras modernas. En 1984, dos computólogos, Thomas Porter y Thomas Duff, que trabajan
para Industrial Light and Magic (ILM), la filial de efectos especiales de Lucasfilm, definieron
formalmente el concepto de composición digital en un artículo presentado en SIGGRAPH 31 . El
concepto surgió del trabajo en curso en Star Trek II: The Wrath of Khan (1982). La idea clave era
interpretar cada elemento independiente con un canal mate que tuviera información de valores de
transparencia. Esto permitía a los cineastas trabajar en cada elemento de forma separada y luego
combinarlos en una escena 3D realista.
El artículo de Porter y Duff hace la analogía entre crear una escena final mediante la composición de
elementos 3D y ensamblar módulos de códigos independientes para completar un programa
computacional. Como Porter y Duff lo explican, la experiencia de escribir software de esta manera los
28 http://help.adobe.com/en_US/Photoshop/11.0/, Octubre 9, 2011. 29 El capítulo “Compositing”, de mi libro anterior, presenta una “arqueología” de la composición digital y discute
los vínculos entre ellas. Lev Manovich, The Language of New Media (The MIT Press, 2001). 30 Ver http://en.wikipedia.org/wiki/Multitrack_tape_recorder y
http://en.wikipedia.org/wiki/History_of_multitrack_recording. 31 Thomas Porter y Tom Duff, “Compositing Digital Images,” Computer Graphics vol. 18, no. 3 (Julio, 1984): 253-
259.
Manovich. Capítulo 2 – El Software Toma el Mando 28 / 36
llevó a considerar la misma estrategia para hacer imágenes y animaciones. En ambos casos, las
partes pueden ser re-usadas para hacer nuevas producciones:
La experiencia nos ha enseñado a descomponer grandes cuerpos de código fuente en módulos
separados con el fin de ahorrar tiempo de compilación. Un error en alguna rutina obliga únicamente a
recompilar ese módulo y rápidamente volver a cargar el programa completo. Igualmente, pequeños
errores en coloración o diseño en algún objeto no deben obligar a “recompilar” la imagen completa32.
La misma idea de tratar una imagen como una colección de elementos que pueden ser cambiados
independientemente y re-ensamblados en nuevas imágenes está al fondo de las Capas de Photoshop.
Es importante ver que Photoshop fue desarrollado en el mismo lugar en que había sido definida la
composición digital años antes. Los hermanos Thomas y John Knoll escribieron la primera versión del
programa cuando Thomas hizo una pausa de seis meses de sus estudios doctorales en la Universidad
de Michigan en 1988 y se unió a hermano que estaba trabajando en ILM.
Este vínculo entre una popular técnica de software para la manipulación de imágenes y un principio
general de la programación es muy notable. Es un ejemplo perfecto de cómo los elementos de un
ecosistema de software de medios modernos (aplicaciones, formatos de archivos, interfaces,
técnicas, herramientas, algoritmos usados para crear, visualizar y compartir contenido mediático) no
tienen un solo padre sino dos, cada uno su propio DNA. Por un lado las prácticas culturales y
mediáticas. Por otro, el desarrollo de software.
En resumen, a través del trabajo de muchas personas, de Ivan Sutherland a inicios de los 60’s a los
equipos de ILM, Macromedia, Adobe, Apple y otras compañías de los 80’s y 90’s, los medios se
vuelven software (con todas las implicaciones teórico-prácticas que esta transición implica). Aquí
hemos hablado de los filtros de Photoshop y el menú de Capas para discutir algunas consecuencias,
pero hay mucho más que debe ser descubierto.
Solamente hay software
¿Qué son exactamente los “nuevos medios” y qué medida son diferentes de los “viejos medios”?
Académicos, artistas y periodistas han escrito ampliamente sobre el tema desde los 90’s. En muchas
discusiones, un solo término ha representado todo el rango de las nuevas tecnologías, de las nuevas
posibilidades de expresión y comunicación, de las nuevas formas de comunidad y socialización que
surgen con las computadoras e Internet. Éste término ha sido “lo digital”, que recibió su aprobación
32 Ibid.
Manovich. Capítulo 2 – El Software Toma el Mando 29 / 36
en 1996, cuando el entonces director del MediaLab del MIT , Nicholas Negroponte, compiló sus
columnas en la revista Wired en un libro titulado Being Digital33. Hoy, “lo digital” sigue dominando
nuestra comprensión sobre lo que son los nuevos medios.
Cuando hice búsquedas en Google sobre “digital”, “interactividad” y “multimedia”, el 28 de agosto de
2009, los resultados fueron entre 230 y 240 millones de resultados para cada uno. Una búsqueda en
Google Scholar produce resultados similares: 10,800,00 para “digital”; 4,150,000 para “web”;
3,920.00 para “software”; 2,760,000 para “interactividad”; y, 1,870,000 para “multimedia”.
Claramente, Negroponte estaba en lo cierto, nos hemos vuelto digitales.
Hoy, no es necesario convencer a nadie sobre los efectos transformadores de Internet, el Web y
demás redes tecnológicas en la cultura y sociedad. Sin embargo, sí pretendo convencernos de otro
factor crucial en la revolución computacional y que ha sido menos discutido. Esto es importante para
entender las formas de los medios contemporáneos y lo que son los “medios” actualmente. Ésta es la
cuestión del software.
Ninguna de las técnicas de creación y producción de medios que están asociadas con la computadora
es el resultado directo de los medios “se volvieron digitales”. Todas las nuevas formas de acceso,
distribución, análisis, generación y manipulación vienen del software. Lo que también significa que
son el resultado de decisiones particulares de individuos, compañías y consorcios que desarrollan
software (aplicaciones, codecs de compresión, formatos de archivo, lenguajes de programación).
Algunas de estas decisiones tienen que ver con principios básicos y protocolos que rigen los
ambientes de software modernos: por ejemplo, los comandos “copiar” y “pegar” que vienen con
software basado en GUI, y sus nuevas versiones móviles; o los hipervínculos direccionales
implementados por las tecnologías Web. Otras decisiones son específicas a tipos particulares de
software.
Si alguna técnica particular del software, o una metáfora de interfaz, que se implementa en alguna
aplicación (de escritorio, Web o móvil) se vuelve popular entre los usuarios, ésta aparece rápidamente
en otras aplicaciones. Por ejemplo, después de que Flickr añadió su interfaz de nube de etiquetas,
muchos otros sitios la empezaron a añadir también. La apariencia de ciertas técnicas en las
aplicaciones está, además, relacionada con la economía de la industria del software. Esto se observa
cuando una compañía de software compra otra; se tienden a unificar los paquetes de ambas
compañías. Por ejemplo, en 1995 Silicon Graphics compró dos programas de gráficos 3D (Wavefront
y Alias), y unificó ambas en un nuevo producto Alias|Wavefront. Grandes compañías como Google
compran constantemente software pequeño para añadirlo a la oferta de sus productos. Una de sus
33 Nicholas Negroponte, Being Digital (Vintage, 1996).
Manovich. Capítulo 2 – El Software Toma el Mando 30 / 36
aplicaciones más populares, Google Earth, está basada en software original desarrollado por Keyhole,
Inc. que Google compró en 2004.
A menudo, algunas técnicas desarrolladas con cierto fin, emigran a otras áreas. Las técnicas de
procesamiento de imágenes desarrolladas en segunda parte de los 50’s, para el análisis de
reconocimiento de fotografías, llegó a Photoshop a finales de los 80’s, usadas hoy de manera más
creativa para dar un aspecto más “artístico” a las fotografías.
Todas estas mutaciones de software y “nuevas especies” de software son profundamente sociales, en
el sentido que no surgen de mentes individuales o de algunas cuantas propiedades “esenciales” de
las computadoras digitales. Se trata de software desarrollado por grupos de personas,
comercializados a un gran número de usuarios y, por lo tanto, en mantenimiento constante para
mantenerse competitivos respecto de otros productos del mismo mercado.
En suma: las técnicas, herramientas y convenciones del software de medios no son el resultado de un
cambio tecnológico que va de los medios “análogos” a los “digitales”. El cambio a lo digital permite el
desarrollo posterior de software de medios, pero no determina las direcciones de su evolución. Esto
es el resultado de las ideas intelectuales de diseñadores (Sutherland, Engelbart, etc.); de los
productos reales creados por las empresas de software y de las comunidades open source; de los
procesos culturales y sociales que se establecen cuando la gente las empieza a usar; y, de las fuerzas
del mercado de software.
Esto nos lleva a pensar que los términos “medios digitales” y “nuevos medios” no abarcan de manera
suficiente la unicidad de la “revolución digital”. (Yo prefiero el término “medios computacionales”,
aunque no es muy usado fuera de algunas comunidades de computólogos europeos) ¿Por qué no
funcionan estos términos? Porque todas las nuevas cualidades de los “medios digitales” no están
“adentro” de los objetos media. Más bien, todas ellas existen “afuera” (como comandos y técnicas de
visualizadores de medios, software de producción, animación, composición y edición, motores de
juegos, software de wikis y demás “especies” de software). Mientras la representación digital permite
a las computadoras trabajar con imágenes, texto, formas, sonidos y otros medios, en principio, es el
software el que determina lo que podemos hacer con ellos. Así que en realidad “estamos siendo
digitales”, pero las formas vienen del software.
Al aceptar la centralidad del software debemos cuestionar otro concepto fundamental de la teoría
estética y de medios: las “propiedades de un medio”. ¿Qué significa hacer referencia a un “medio
digital” que tiene “propiedades”? Por ejemplo, ¿es significativo hablar de propiedades únicas en las
fotografías digitales, los textos electrónicos o los sitios Web? En el artículo de Kay y Goldberg, se
establece una similitud entre las palabras “propiedad” y “medio”: “el (texto electrónico) no debe ser
Manovich. Capítulo 2 – El Software Toma el Mando 31 / 36
considerado como una simulación de libro de papel debido a que es un nuevo medios con nuevas
propiedades”. Yo también he usado esta combinación de palabras pero es el momento de indagar
sobre conceptos más precisos.
En sentido estricto, es pertinente, pero no exacto, hablar de propiedades de sitios Web, imágenes
digitales, modelos 3D, representaciones GIS. Los diferentes tipos de contenido digital no tienen
propiedades en sí. Lo que experimentamos como propiedades del contenido de los medios viene del
software usado para acceder, crear, editar y presentar este contenido.
Esto incluye todo el software para crear y visualizar medios, tanto profesional como para el público en
general. El software en cuestión también puede ser el código que hace correr una aplicación en donde
el usuario interactúa o genera directamente el contenido a través de la interfaz (un menú DVD, un
kiosco interactivo, un proyecto de art basado en software). Así, seguiré usando el término
“propiedades” de forma amplia, pero mentalmente se deberá interpretar como “técnicas de software
definidas para trabajar en tipos particulares de ecologías de medios, contenido y datos de medios”
(un ejemplo de “ecología de medios” es el sistema Flickr que incluye subir, etiquetar, organizar,
comentar y compartir imágenes. Un ejemplo de “datos de medios” es una imagen bitmap de 24 bits
almacenada en formato JPG).
Es importante dejar claro que no estamos diciendo que las diferencias entre los distintos tipos de
medios (imágenes bitmap, vectoriales, modelos 3D, texto sin y con formato, animaciones, video,
mapas, sonidos, olores, etc.) quedan completamente determinadas por el software. Obviamente,
éstos tipos de datos de medios tienen varias posibilidades de expresión y representación; pueden
producir diferentes efectos emocionales; son procesados por diferentes redes neuronales en el
cerebro; y corresponden a diferentes procesos y representaciones mentales. Estas diferencias han
sido discutidas durante miles de años (de la filosofía antigua a la teoría estética clásica, al arte
moderno y a la neurociencia contemporánea). Lo que quiero decir en esta libro es algo otra cosa. Por
un lado, el software interactivo añade un nuevo conjunto de operaciones que pueden aplicarse a
todos estos tipos de medios (que, como usuarios, experimentamos como sus nuevas “propiedades”
(editar mediante la selección de partes discretas, distinción entre estructura de datos y su
representación, hipervínculos, visualización, búsqueda, etc.)). Por otro lado, las “propiedades” de un
tipo particular de medio pueden variar drásticamente dependiendo de la aplicación que usamos para
interactuar con él.
Veamos un ejemplo en detalle. Tomemos a la fotografía como tipo de medio. En la era análoga, una
vez que la fotografía quedaba impresa, la información quedaba “fija”. El que viéramos esta fotografía
en casa o en una exhibición, no era gran diferencia. Claro que un fotógrafo podría hacer otra
impresión con mayor o menor contraste o con un papel diferente, pero esto resultaría en un objeto
Manovich. Capítulo 2 – El Software Toma el Mando 32 / 36
físico diferente, es decir, una nueva impresión fotográfica con diferente información (por ejemplo,
algunos detalles se perderían con un mayor contraste).
¿Entonces qué pasa con una fotografía digital? Podemos tomar una foto con una cámara digital
compacta o con una DSLR profesional, o capturarla con un teléfono móvil, o escanearla de un libro.
En cada caso, acabamos con un archivo que contienen un arreglo de pixeles con información de color
(o escala de grises) y metadatos que especifican las dimensiones, el modelo de cámara y demás
datos sobre el disparo. En otras palabras, al final, terminamos con algo que se llama normalmente
“medio digital”: un archivo que contiene números que representan detalles de una escena o de un
objeto.
Sin embargo, a menos que seamos programadores, en realidad nunca interactuamos con estos
números. La mayoría de los usuarios interactúa con archivos de medios digitales usando software. Y
con base en el software, el uso que podemos hacer del medio cambia dramáticamente. El software de
mensajes multimedia (MMS) en los teléfonos portátiles permite visualizar la foto que nos envió un
amigo e incluso reenviarla a otra persona, pero nada más. Los visualizadores gratuitos que tenemos
en las computadoras de escritorios nos permiten más funciones. Por ejemplo, Google Picasa 3.9
(2013) nos deja recortar, colorear automáticamente, reducir ojos rojos, usar varios filtros, etc. En
Picasa también podemos ver la foto en blanco y negro, sin modificar el archivo original, y hacer
acercamientos para examinar detalles. Finalmente, si abrimos la misma foto en Photoshop CS5,
tenemos aún más funciones. Por ejemplo, podemos reemplazar automáticamente los colores o hacer
visible su estructura linear mediante la detección de bordes, etc.
Para resumir, haré un comentario directo. No existe tal cosa como “medios digitales”. Solamente hay
software, aplicado a los medios (o al “contenido”). Dicho de otra manera: para los usuarios que
interactúan con el contenido de medios solamente a través del software, todas las “propiedades de
los medios digitales” quedan definidas por el software, y no están incluidas en el contenido mismo, es
decir, en los archivos digitales. El hecho que los medios sean usados y entendidos de forma diferente
tiene que ver con el desarrollo de un gran número de técnicas, algoritmos, estructuras de datos,
convenciones y metáforas del software. Estas técnicas existen a diferentes niveles: yendo de un
reducido número que son muy generales (“independientes de los medios”), a miles de ellas que son
muy particulares (por ejemplo, algoritmos usados para generar paisajes realistas o software que
extraen la posición de la cámara en secuencias de video para alinear correctamente la composición
de un modelo 3D).
Debido a la multiplicidad y variedad de técnicas de software, no es muy productivo reducir los
“medios digitales” a un pequeño número de nuevas propiedades. Esta reducción solamente sería
posible si pudiéramos organizar estas técnicas jerárquicamente, como diferentes aplicaciones de
Manovich. Capítulo 2 – El Software Toma el Mando 33 / 36
unos cuantos principios generales. Después de trabajar en la cuestión durante diez años (en 1999,
redacté un artículo llamado Software como vanguardia en donde intenté dar una primera taxonomía
de estas nuevas técnicas) me doy cuenta que cualquier jerarquía nos llevaría a una dirección
equivocada. Todas las técnicas cambian la identidad del “medio” (o “dato”), o conjunto de ellos, en
donde se puedan aplicar.
No es porque una técnica aparece en diversos software (diseñados para funcionar en diferentes tipos
de medios) o que otra es específica a un tipo particular, que se vuelve más o menos importante que
las demás. Por ejemplo, ¿se podría decir que la operación de zoom, que existe en procesadores de
texto, visualizadores de medios, software de animación, modelado 3D, navegadores Web, etc. es más
radical que un algoritmo para “esferizar” un modelo 3D, es decir que solo se aplica dicho tipo con
cierto software especial? No creo que podamos medir cualitativamente los efectos prácticos de
ambos tipos de operación en la producción cultural y concluir si una es más importante que otra.
Ambas operaciones alteran cualitativamente el medio sobre el que actúan, y no cuantitativamente. Es
decir, ambas añaden a los medios nuevas cualidades (o “potencialidades”) que no existían
previamente. Un documento de texto en donde nos podemos alejar al grado de ver diferentes páginas
al mismo tiempo tiene una “identidad mediática” diferente de otro en donde no podemos. De forma
similar, la posibilidad, precisamente, de esferizar un modelo virtual 3D es una nueva manera de
trabajar con formas espaciales.
En Software como vanguardia, agrupé las nuevas funciones de los medios digitales en cuatro tipos
según sus funciones: acceso, generación, manipulación y análisis. Hoy, incluso esta simple
clasificación parece problemática, en parte debido a la evolución del software desde 1999 que ha
llevado a una integración gradual de estas funciones. Por ejemplo, cuando un usuario selecciona un
archivo que contiene medios (imágenes, video, música, texto, etc.) el archivo automáticamente se
abre en un programa de visualización/reproducción de medios. Y hoy, todos los estos programas
(Windows Media Player, Apple Quicktime, etc.) vienen con otras funciones básicas de edición.
Entonces, en términos prácticos, no hablamos simplemente de “acceder” a los medios, sin que
tengamos a la mano algunas maneras de “modificarlo (para aclarar las cosas, estoy haciendo
referencia a computadoras personales y aparatos portátiles que no están especializados en la oferta
de contenido digital, como los lectores DVD y los reproductores MP3). Este desvanecimiento de
fronteras entre tipos de funciones es una característica muy importante de los medios basados en
software.
¿Cómo fue que llegamos a esta nueva situación en donde, en lugar de ver/leer el contenido, la
mayoría experimentamos con las capas de las aplicaciones? La respuesta más obvia sería la
adopción de formato numérico como el intermediario universal. Lo llamo intermediario porque al final
del día, los medios deben ser accesibles a nuestros sentidos, es decir, análogos (la onda de presión
Manovich. Capítulo 2 – El Software Toma el Mando 34 / 36
oscilatoria que percibimos como sonido, los niveles de voltaje aplicados a pixeles del LCD que los
hacen aparecer como diferentes tonos y colores, las diferentes cantidades de teñido depositadas en
el papel por las impresoras, etc.). Por esto, los medios de software son una conversión constante de A
a D (análogo a digital) y de D a A (digital a análogo): por ejemplo, de las ondas luminosas a los
números guardados en un archivo, que representa una imagen, y después de vuelta a los niveles de
voltaje que controlan el monitor.
Hay dos niveles de codificación, primero la cuantificación de una señal análoga continua, que resulta
en su representación usando una escala discreta de números (por ejemplo, los 255 niveles usados
comúnmente para representan tonos grises en las imágenes). Después, viene la traducción de esta
representación discreta en un sistema numérico binario (que hace a los medios “incomprensibles” a
la observación directa). La principal razón no es el código binario per se (inventado por el académico
hindú Pingala alrededor de los siglos 5 al 2 AC), ya que es posible aprender cómo convertir una
notación binaria en decimal mentalmente. El problema es la descripción de una imagen, por simple
que sea, conlleva muchos números. Por ejemplo, una imagen 1024 x 768 contiene 786,432 pixeles,
o 2,359,296 valores RGB, lo que hace muy difícil de comprender lo que estos números representan si
los examinamos directamente (diciendo de paso, en parte por estas consideraciones, cualquier
imagen digital puede ser entendida como visualización de información, mediante la visualización de
estos patrones representados numéricamente). Así, usamos constantemente tecnologías para
traducir estos conjuntos de números en representaciones significativas para nuestros sentidos, ya
sea la imagen original que codifican o cualquier otra señal análoga (por ejemplo los valores visuales
que controlan el sonido en performances audiovisuales contemporáneos). Es interesante notar que el
precursor del fonógrafo de Edison en 1877 (el primer aparato para grabar y reproducir sonido) fue el
fonautógrafo de Édouard-Léon Scott de Matinville en 1857 que transcribía sonido en un medio visual.
O sea: la visualización de sonido fue inventada antes que su grabación y reproducción.
Desde sus inicios, las tecnologías que generan y transmiten señales electromagnéticas (como el
gramófono) incluían por lo menos algunos controles para modificarlas (por ejemplo, modificar la
amplitud de una señal). El primer instrumento electrónico popular, inventado por Leon Theremin en
1920, convirtió esos controles en un nuevo paradigma para la ejecución musical. El artista controlaba
la amplitud (el volumen) y la frecuencia (tono) de un sonido acercando o alejando sus manos de las
antenas del aparato.
El software extiende significativamente este principio, añadiendo más controles y más formas de
representar los datos. Por ejemplo, con Word, es posible ver el texto que estoy escribiendo en este
momento como bosquejo o como versión preliminar a su impresión, etc., puedo ver u ocultar notas de
pié de página, puedo hacer un resumen automático, puedo cambiar tamaño y fuente de la tipografía.
Mientras los datos, tal como son representados y guardados en la computadora, no pueden ser
Manovich. Capítulo 2 – El Software Toma el Mando 35 / 36
accedidos directamente con nuestros sentidos, el nuevo modelo tiene ventajas significativas debido a
que los datos pueden ser formateados de diferentes maneras. Este formato puede ser modificado
interactivamente, puede ser guardado junto con los datos e invocado más tarde.
Es posible articular las relaciones entre tecnologías pioneras de grabación y reproducción
electromagnética, desarrolladas a finales del siglo XIX, y el software de medios desarrollado 100 años
después (teléfono: Bell, 1875; fonógrafo: Edison, 1878; televisión: 1884; radio: Fesseden: 1900). Las
primeras tecnologías mantenían la forma original de la representación de los medios: impresión en
bloques de madera, la impresión con tipografía móvil, la imprenta, la litografía, la fotografía. Las
tecnologías del siglo XIX favorecieron la forma de la señal eléctrica, introduciendo una fundamental
nueva capa de medios: la interfaz, es decir, formas de representar (“dar formato”) y controlar la señal.
Y esto cambia la manera en que los medios funcionan: sus “propiedades” ya no están únicamente en
los datos sino también en la interfaz disponible.
El cambio a datos digitales y software de medios, 100 años después, generaliza este principio a todos
los medios. Con todos los tipos de datos codificados como números, sólo pueden ser accedidos
eficientemente por los usuarios mediante aplicaciones. La consecuencia de esto ya la hemos
discutido: todas las “propiedades de los medios digitales” están ahora definidas por el software en
lugar de estar únicamente en el contenido mismo, es decir, los archivos digitales. De esta manera, lo
que es cierto para la grabación de audio, la radio, la televisión, el video, también aplica al texto, las
imágenes y la 3D.
En pocas palabras: los medios se vuelven software.
Podríamos concluir este capítulo aquí, pero es necesario hacer una cosa más. Sería injusto poner
toda la atención en el término “medios digitales” sin tomar en cuenta otro término relacionado.
Actualmente, éste otro término se usa ampliamente y se estudia críticamente: me refiero a “nuevos
medios”.
Ahora que hemos entendido que los “medios” de hoy son en realidad un conjunto de técnicas de
software en constante desarrollo, esto da un nuevo significado al segundo término. No hay un límite
lógico al número de algoritmos que pueden ser inventados; las personas siempre pueden desarrollar
nuevas técnicas de software para trabajar con los medios. Desde esta perspectiva, el término “nuevos
medios” captura adecuadamente esta lógica fundamental del “metamedio computacional”. Los
medios basados en software siempre serán “nuevos”, siempre y cuando se sigan inventando y
añadiendo nuevas técnicas a las que ya existen. Quizá se pueda pensar que no todas las técnicas
Manovich. Capítulo 2 – El Software Toma el Mando 36 / 36
cambiarán profundamente las forma o función de los medios, pero algunas definitivamente sí lo
harán.
Esta lógica de “expansión permanente” del software de medios sigue la lógica de la ingeniería del
software en su conjunto. Los computólogos de la academia y las empresas de software trabajan con
algoritmos para modificarlos constantemente, llevarlos de un área a otra y diseñar nuevos. Esta
lógica, que también puede llamarse “innovación permanente”, es diferente de la lógica que gobernó
el desarrollo de tecnologías de medios en la era industrial. Tomemos el cine como ejemplo, entre
1890-1900 y la adopción de herramientas de software por la industria cinematográfica. A pesar de
que hubo cambios dramáticos durante el siglo XX en lo que respecta a la construcción de lentes, a las
propiedades y formas de almacenar el celuloide, a las operaciones la cámara y demás elementos de
tecnología cinematográfica, la “capacidad básica de representación” de éstas imágenes fue la misma.
De Edison a George Lucas, las imágenes del cine se han hecho de la misma manera: mediante el
reflejo de la luz de los objetos, vía un lente, sobre una superficie plana. Este proceso de captura crea
tipos particulares de imágenes de la realidad visible. Los objetos son interpretados en una
perspectiva lineal con un punto de fuga; o sea que las propiedades geométricas de cualquier escena,
sin importar su contenido, están sujetas al mismo tipo de transformación: el mismo mapeo que
preserva algunas propiedades de los visible (distorsión de la perspectiva con base en la distancia
entre objetos y observador), en oposición a otras perspectivas (por ejemplo, las proporciones reales
del tamaño de los objetos). Adicionalmente, una vez que la grabación era hecha, la geometría de la
imagen ya no se podía modificar.
Cuando el software llega a la imagen, estas constantes del medio fílmico se vuelven variables.
Aunque parezca menos “real”, la imagen del cine ahora tiene múltiples relaciones con el mundo que
está siendo visualizado. La composición digital permite la inserción de modelos 3D generados a
computadora que no estaba presentes en la escena original. Igualmente, los objetos que estaban
presentes pueden ser borrados. Los panoramas virtuales interactivos, que permiten a los usuarios
moverse en el espacio, se pueden construir automáticamente. En algunos casos, es incluso posible
re-interpretar una secuencia del film como si fuera vista de diferentes perspectivas. Y éstas son sólo
algunas de las nuevas formas en que el software cambian la identidad del cine (estas nuevas
identidades aplican al video también).
top related