archivo

Archivo de la etiqueta: Investigación

En la entrega anterior nos ocupamos de todos los aspectos técnicos que permiten preparar el espacio de trabajo de cara a la etapa creativa. Cargamos los clips de audio en el programa de edición multipista y los separamos por su procedencia o contenido. Además, emprolijamos con fundidos todos los clips para que sus entradas y salidas no generen saturaciones o clicks indeseados.

Vamos a comenzar la mezcla y es necesario retomar el tipo de paisaje sonoro que hemos decidido crear, ya que como decíamos anteriormente, la elección por un paisaje sonoro real o virtual define las reglas de nuestro trabajo, que en el primer caso se verán limitadas por el realismo y la verosimilitud con lo que conocemos como mundo real –desde la acústica hasta la ley de gravedad–, mientras que en el segundo, el sistema de reglas es definido por el proceso creativo en sí mismo.
Entonces, a partir de nuestra elección, el primer paso es imaginarnos esa sonoridad. ¿Es un espacio abierto? ¿Es un espacio cerrado? Si es así, ¿es resonante o más bien seco? ¿hay muchos objetos o es una sala vacía? Si tuviéramos que imaginarnos cómo suenan un depósito fabril vacío, una playa con o sin gente, una autopista transitada de noche o de día, la habitación de un cosmonauta en su estación espacial o la fiesta de cumpleaños de una raza alienígena, de inmediato vienen ideas a nuestra cabeza que provienen de nuestras experiencias previas y por supuesto, de nuestra creatividad que le otorgan cierta lógica a esos retratos sonoros –por ahora– imaginarios.

La ubicación de las fuentes sonoras en el entorno que construyamos es fundamental para que el paisaje sonoro funcione en los términos que estamos esperando y a eso nos abocaremos en esta entrega atendiendo al funcionamiento de cuatro variables fundamentales que son la intensidad, la posición estéreo, la proporción de campo directo y campo reverberante y el comportamiento espectral, que en su combinación dan por resultado los distintos planos sonoros que conformarán nuestro espacio.
En este momento, el trabajo por capas que propusimos desde la entrega anterior  [link] comienza a subdividirse, por las necesidades propias de cada clip en particular, en más y más canales, llegando a tener típicamente un canal por cada fuente sonora.

Intensidad
La variable de intensidad es clave para la primera aproximación de una fuente sonora al lugar que le queremos otorgar en el espacio sonoro que estemos construyendo. En una primera instancia, podríamos decir que los sonidos más fuertes corresponden a fuentes sonoras más cercanas y los más débiles a fuentes sonoras más alejadas al punto de escucha. Sin embargo la generalización no es posible, ya que podríamos contar con un susurro íntimo en comparación a la explosión de un motor puesto en marcha y las relaciones quedarían invertidas. También debemos considerar que si es una fuente que está en movimiento, mientras se acerca o se aleja su intensidad también aumenta y disminuye respectivamente.
En conclusión, si tomamos un clip de audio y variamos su intensidad, estaremos alterando la percepción de la distancia del mismo respecto al punto de escucha.
Desde su aspecto narrativo, el cambio de intensidad de una misma fuente sonora, o la intervención de una nueva con una intensidad por encima de la media, son útiles para focalizar la atención de la audiencia y suelen ser utilizados para aumentar la tensión y generar expectativa.
La intensidad se mide en dBfs, y aunque generalmente 0 dBfs es el nivel más alto que maneja un sistema digital, los programas de edición multipista suelen trabajar hasta +6 dBfs, a riesgo de nuestra parte de saturar la salida.

Fader_intensidad

Posición estéreo
Si bien la percepción de nuestro sistema auditivo funciona en 360º, al pensar en la construcción de un espacio sonoro tenemos la limitación del sistema de reproducción para el cual estamos pensando el paisaje sonoro: típicamente estéreo y en menor medida algún formato de sonido envolvente. Aunque las posibilidades de trabajar en formatos envolventes existen, tomaremos la generalidad y pensaremos en un espacio sonoro que será reproducido por dos parlantes, que suele ser lo más extendido.
El campo estéreo, es un espacio tridimensional creado a partir de la reproducción en dos parlantes en el que se puede percibir la ubicación de las distintas fuentes sonoras provenientes de la izquierda o de la derecha.
En la cabecera del canal de todo programa de edición multipista encontramos la herramienta de paneo –también llamado panoramizador o ubicación panorámica– que permite cambiar proporcionalmente cuánta señal –de los clips que están montados en dicho canal– saldrá por el parlante izquierdo y cuánta por el derecho, generando la ilusión de ubicación.
Por ejemplo, si un canal estuviera paneado completamente a la derecha, nada saldría por el parlante izquierdo, y viceversa. Por otro lado, si el paneo no es completo se obtienen distintas proporciones en las que un sonido suena más fuerte por un parlante que el otro.
Aquellos clips que no estén paneados –o mejor dicho estén paneados al centro– darán la sensación de omnidireccionalidad, motivo por el cual, por lo general los sonidos ambiente se trabajan de esta manera. Así, mediante esta herramienta intentamos replicar la procedencia espacial de las fuentes sonoras con las que estamos trabajando.
La combinatoria entre intensidad y posición estéreo permite la ubicación parcial de las fuentes sonoras en el espacio constituyendo el primer paso hacia su construcción.
El paneo se mide en unidades propias de cada programa, pudiendo ser valores entre -100 –izquierda total– y +100 –derecha total–, valores entre -64 y +63 –heredados de los 128 valores típicos de los sistemas MIDI–, o cualquier escala que nos permita diferenciar la proporción entre la izquierda total y la derecha total.

Paneo

Campo directo / reverberante
Llamamos reverberación al sonido residual que continúa sonando mientras la fuente que lo originó ya no lo hace. El ejemplo típico lo podemos poner con una palmada: si aplaudimos en el depósito fabril vacío del que hablábamos antes, podemos imaginar que una vez extinguido el sonido de la fuente –las manos dando la palmada– habrá un residuo sonoro por los diversos rebotes que se generen en ese espacio; si la misma palmada la hacemos en el medio del campo, al no rebotar en ningún lado, no habrá residuo; o si la hacemos en alguna habitación de nuestra casa habrá un residuo moderado, dependiendo de la composición de los elementos que absorban y reboten el sonido.
Atendiendo a este fenómeno, cuando escuchamos los entornos sonoros de nuestra realidad, escuchamos campo directo y campo reverberante en alguna proporción. Esto se da por la combinatoria de sonidos directos y difusos, es decir, aquellos que escuchamos directamente de su fuente, y aquellos rebotes que escuchamos de la fuente en ese espacio, tal como se observa en la imagen de más abajo.
El campo directo se define como aquella zona del entorno en la que predominan los sonidos directos, sin intervención de rebotes; el campo reverberante, por el contrario, está compuesto por todos los rebotes que tengan lugar en ese espacio.
Cuando anteriormente hablamos de técnicas de microfoneo [link], marcamos la
diferencia entre registros puntuales y ambientales. Esto toma especial relevancia en este momento, ya que al escuchar un clip proveniente de nuestro registro de campo pueden suceder dos cosas: que esa fuente sonora la hayamos grabado a distancia y, por lo tanto, tenga incluida una reverberación correspondiente a su espacio –registro ambiental–; o que la hayamos grabado de cerca y no brinde información del tipo de espacio –registro puntual– careciendo absolutamente de reverberación.
Si queremos entonces generar una sensación de naturalidad al momento de ubicar dicho sonido en el campo estéreo, debemos considerar este parámetro y añadir artificialmente la reverberación a los sonidos registrados de forma puntual, mediante algún programa especializado o bien con alguno de los presets que incluyen los programas de edición multipista, para imitar la ubicación real de la fuente sonora en ese espacio determinado.

Reverb

Ecualización
El último ajuste, el toque detallista en esta combinatoria de variables que otorga verosimilitud a la construcción del espacio sonoro, es el comportamiento espectral, es decir, la riqueza o carencia de frecuencias de las fuentes sonoras con las que estemos trabajando.
Siempre recurrimos a la naturaleza de la escucha en un entorno real: sabemos así que a mayor cercanía entre la la fuente y el punto de escucha, mayor riqueza en graves y de detalle espectral general; o que la misma fuente escuchada de forma directa o de forma difusa no son lo mismo. Imaginemos que hablamos con una persona que está de frente a nosotros: escuchamos su voz con riqueza de frecuencias. De pronto, por algún motivo esa persona nos da la espalda y nos sigue hablando: de inmediato perdemos resolución en frecuencias agudas por la sombra acústica que genera la propia cabeza del hablante.
Estos comportamientos pueden ser replicados mediante el uso de ecualizadores, enfatizando o atenuando distintos rangos frecuenciales.
Típicamente, vemos el espectro de la señal de audio con la que estamos trabajando y superpuesta la curva de ecualización que queda conformada a partir de los filtros que apliquemos en pos del resultado deseado.
Nuevamente podemos encontrarnos registros puntuales o ambientales. Mientras que en los últimos no habrá mucho por hacer, con los primeros podemos trabajar libremente, incluso lograr que se perciban como ambientales a partir de su procesamiento.

Eq

Otros efectos y procesos
Por supuesto, existen otras opciones de transformación para aplicar a los clips de audio y obtener diversos resultados: efectos como delay, flanger, chorus pueden ser utilizados creativamente en el proceso de construcción del espacio sonoro. Las opciones disponibles para trabajar son infinitas, sin embargo debemos considerar que con su uso, nos alejaremos cada vez más de la idea de paisaje sonoro real y estaremos más cerca de un paisaje sonoro virtual.

¿Qué variable priorizás cuando construís tus paisajes sonoros? ¿habías pensado en la combinatoria de estas cuatro? la próxima entrega tratará sobre la etapa de finalización, ¡quédense pendientes!

¡Gracias por pasar y compartir!

Cuando hablamos de composición de paisajes sonoros estamos inexorablemente hablando de postproducción de audio o bien edición digital de sonido.
Nos encontramos frente a la computadora, con el programa de edición multipista –DAW ó digital audio workstation, en su denominación en inglés– abierto y los archivos de grabaciones de audio en una carpeta, listos para ser utilizados.
El momento del lienzo en blanco es un momento decisivo, en el que romper la inercia de la inacción nunca es fácil, pero que con un poco de método y disciplina –o indisciplina también, por qué no– podemos convertir en un paisaje sonoro de calidad.
Este texto propone algunas recomendaciones para ordenar el trabajo y no nos quedemos sin ganas en el intento.

Qué paisaje queremos
Lo primero será definir si estamos buscando obtener un paisaje sonoro real o virtual. Estas dos opciones fueron definidas por Barry Truax: el primero, como aquel que buscará desde su cualidad documental, mantener la objetividad del registro mediante una intervención mínima que asegure una presentación prolija para su posterior reproducción; el segundo, como la suma de las posibilidades de aplicación de todas las herramientas de edición existentes para permitir la expresión artística de quien está componiendo en su máxima expresión.
Estas dos opciones, a su vez podríamos considerarlas como dos extremos o polos entre los cuales encontramos infinitas posibilidades intermedias, donde podríamos encontrar por ejemplo un paisaje sonoro documental pero con una intervención final que a modo de guiño sea ficticia; un ave costera montada sobre un paisaje de estepa desértica; un golpe altamente reverberante sonando en un espacio abierto; una carreta tirada por caballos circulando en una ciudad moderna.
La elección por un paisaje sonoro real o virtual nos define las reglas de nuestro trabajo, que en el primer caso se verán limitadas por el realismo y la verosimilitud con lo que conocemos como mundo real –desde la acústica hasta la ley de gravedad–, mientras que en el segundo, el sistema de reglas es definido por el proceso creativo en sí mismo.

Escucha, orden y selección del material
Tenemos el o los archivos de audio crudos, tal como vienen de la grabadora, celular o sistema que hayamos utilizado.
En general, contaremos con audios de extensa duración en los que encontramos de forma continua, una multiplicidad de situaciones y objetos sonoros. Lo primero que necesitamos hacer es conocer en profundidad el material con el que contamos y eso lo logramos mediante la escucha. Podemos implementar el uso de planillas –en general con tiempo exacto y objeto sonoro interviniente– en donde vayamos tomando notas de ciertas eventualidades que nos llamen la atención, o bien en relación con algún objetivo que tengamos en relación a la composición del paisaje sonoro, como puede ser identificar voces, máquinas o algún sonido o situación particular. Un par de escuchas, nos familiarizarán con el material de forma tal que tengamos un panorama general del registro.

Una segunda instancia implica ordenar el material y esto nos indica que es el momento de abrir el programa de edición multipista. Si bien hay muchas formas de hacerlo, en lo particular me gusta comenzar dividiendo los clips en cuatro categorías: ambientes, efectos sonoros, diálogos y música, generando cortes sobre una copia del crudo original y llevando a distintos canales los nuevos clips de audio obtenidos de tales recortes.
Sea cual sea el programa con el que trabajemos –Logic Pro, Nuendo, Pro Tools, Cubase, Reaper, u otro–, iniciamos un nuevo proyecto y generamos cuatro canales que encabezamos con los nombres estas categorías, en los que iremos ordenando todo lo que tenemos.

Cabeceras

Como el trabajo en un programa de edición multipista es por canales, resulta muy útil tener diferenciado el material en estas categorías generales, que por supuesto, pueden y deben volverse más particulares aún en lo sucesivo del trabajo.
En esta instancia, advertimos también si todo el registro sirve, si hay partes defectuosas que no pueden ser utilizadas –típicamente viento fuerte, ruidos molestos, saturación de niveles– y nos quedamos con aquellos clips o fragmentos de clips que pensamos que utilizaremos.
Es esperable que una vez que estos clips estén categorizados sean divididos en distintos canales en el editor multipista, ya que esto es lo que permitirá trabajar con mayor comodidad en vistas del montaje que se realizará.
La lógica del trabajo por canales, implica que todos los efectos y procesos insertados en un canal se aplicarán para todos los clips de audio que estén en ese canal. Sin embargo, tenemos que tener presente que todos estos cambios se aplican al canal y no al clip: si movemos el clip a otro canal sin efectos, el audio volverá a sonar en su estado original.
En general, haber distinguido y asociado los clips según nuestras necesidades, nos ahorrará también tiempo de proceso, ya que si hicimos bien la división, los ajustes generales que apliquemos por canal en cuanto a ecualización, niveles, compresión, y cualquier otro efecto o proceso, al aplicarse a todos los clips presentes en ese canal, nos dan un punto de partida para un posterior trabajo más detallado, que puede obtenerse trabajando con diversas automatizaciones de valores, por ejemplo.
Una vez tengamos los clips separados y diferenciados en canales según el criterio que nos sea útil para trabajar, hay que aplicarles fundidos de entrada y de salida para emprolijar los cortes que hemos realizado. Pero, ¿qué son los fundidos?

Clip con fades

Un fundido de entrada es una transición inicial que se le puede aplicar a un clip de audio, respecto a su amplitud, para que su aparición no sea abrupta. Por el contrario un fundido de salida es el fragmento de desvanecimiento del mismo. En los programas de edición digital, suelen verse como líneas gruesas que están sobre el audio, tal como se ve en la ilustración que aquí arriba lo ejemplifica.
Existen distintas curvas aplicables a la intensidad del fundido, que generan distintos resultados perceptivos. Las curvas más comunes son las que generan fundidos, sinusoidales, exponenciales, lineales o logarítmicos, tal como vemos en ese mismo orden, en la ilustración de aquí debajo. 

Tipos de fundidos

Entendemos entonces que, por ejemplo, para un fundido de entrada, el proceso lleva la intensidad de la primera muestra del clip a una intensidad de -∞, mantiene la intensidad de la última muestra seleccionada y atenúa las muestras intermedias en relación a la curva elegida.
Los fundidos de entrada y salida cumplen dos funciones respecto al objeto sonoro sobre el que están aplicados: una estrictamente técnica que implica que la aparición de un sonido no genere un click indeseado; y una función estética o narrativa que nos ayuda a poner en plano o brindar cierta naturalidad al lugar que está ocupando dicho objeto sonoro en nuestra mezcla.

A su vez, la combinación de ambos fundidos se la conoce como fundido cruzado. Este puede funcionar en un mismo canal, superponiéndose el final de un clip de audio con el inicio de otro y teniendo el fundido la extensión correspondiente a esa superposición. En la ilustración vemos además dos líneas indicativas para entender cuál es la real extensión de cada uno de los dos clips superpuestos.

Crossfade mismo canal

También puede funcionar entre clips que estén en distintos canales, como fundidos de entrada y salida independientes, que pueden o no coincidir con la superposición de los clips. Esta última opción permite un mayor control del proceso, otorgando mayor precisión en las curvas de entrada y salida de los clips y la posibilidad de fundir más de dos clips a la vez, herramienta que en montajes de audio complejos, resulta muy útil.

Crossfade multipleLlegando a este punto, hemos tomado todos los recaudos técnicos para no tener problemas con la saturación de audio por la entrada o salida de un clip, como también ordenado de una manera lógica según nuestros objetivos compositivos los materiales con los que disponemos.
Estamos en condiciones de pasar a la etapa creativa del trabajo, que será abordada desde sus posibilidades técnicas en la próxima entrega.

¿Cómo organizás tu espacio de trabajo? la próxima entrega tratará sobre posibilidades y criterios de mezcla, ¡quédense pendientes!

Y como siempre, gracias por leer y compartir.

Metrolima_header

La ciudad de Lima padece hace años una contaminación sonora apabullante, principalmente a causa de las bocinas de autos, taxis y colectivos. Los taxis no tienen ningún sistema visual de cartelería que indiquen si están disponibles u ocupados, y es por eso que utilizan bocinazos para “atraer clientes”: sencillamente cuando ven a alguien bajan la velocidad y tocan repetidamente la bocina para hacerse oír. Claro que en la mayoría de los casos, esto no resulta porque quien caminaba era solamente eso, alguien que iba caminando.
Además, la mayoría de los taxistas realizan adaptaciones en sus autos para que la bocina sea un pequeño pulsador ubicado en el volante, con lo cual se convierte en una acción muy fácil de realizar con un solo dedo mientras se maneja, funcionando casi como un acto reflejo al ver a alguien caminar.
Los colectivos, que salvo algunas nuevas unidades de líneas específicas tampoco cuentan con señalización de cartelería iluminada, también entran en el juego. Y a todo se le suma la poca paciencia de quienes conducen autos en general, que ante la menor detención también tocan bocina, como si esto solucionara algo.
Algunos estudios que investigan el tema, afirman que el 80% de la polución sonora de la ciudad, proviene del parque automotor, e incluso existen campañas que –sin resultados– buscan aplacar el fenómeno.

Podemos imaginarnos que caminar por Lima, esquivando o conviviendo con los bocinazos es poco amigable. Pero por el contrario, la experiencia de viajar en metro propone otra dinámica: los bocinazos contrastan con la dulce voz del metro que pregona “cada día más personas observan y reconocen nuestra amabilidad”, refiriéndose a ceder el asiento y otras formas de mantener un buen comportamiento en el transporte.
Así y todo, este contraste se siente fuertemente entre el adentro y el afuera del metro. En Lima el sistema no es subterráneo sino elevado y cada vez que la formación aborda una nueva estación, al abrir sus puertas es notoria la invasión sonora de parte de esos bocinazos, de esos taxis, colectivos y camiones de los que hablaba más arriba.
Les comparto entonces la escucha, caracterizada por esta dualidad, ese adentro y afuera,  esa contaminación y resguardo, amabilidad y bocinazos.

El paisaje sonoro final que escuchamos parte de grabaciones de campo realizadas entre las estaciones La Cultura y El Ángel, que luego fueron intervenidas para dar continuidad al relato.

Metrolima_footer

Este jueves 24 de octubre voy a estar participando del séptimo concierto del ciclo 2museos[in]sonoros, en la ciudad de Bahía Blanca.
Las actividades son coordinadas por Bahía[in]sonora y tienen lugar el cuarto jueves de cada mes, presentando obras de creadores que experimentan con las artes sonoras, las imágenes en movimiento y la expansión desde el sonido hacia otros lenguajes estéticos. En esta oportunidad se presentarán obras de danza, acusmática, y creaciones en tiempo real.
A las 20hs estaré presentando el proyecto Paisajes sonoros subterráneos en formato charla y luego en el concierto, que comienza a las 21hs, la pieza acusmática Fútbol.

La entrada al ciclo –que tiene lugar en 2Museos, Sarmiento 450, Bahía Blanca– es libre y gratuita.
¿Nos vemos por allá?

2museos

La semana que viene voy a estar en la ciudad de Lima realizando distintas actividades que me gustaría compartirles.

Los días martes 17 y viernes 20, invitado por el el Medialab de la Universidad Nacional Mayor San Marcos [UNMSM], estaré brindando el taller Paisaje sonoro: redescubriendo los espacios urbanos. Será la cuarta vez que se dicta, habiendo tenido muy buenos resultados en Colombia, Ecuador y Argentina.
El Medialab es uno de los cinco núcleos de investigación e innovación tecnológica [NIT] del Vicerrectorado de Investigación y Posgrado de la Universidad Nacional Mayor de San Marcos de Lima, Perú y a la vez funciona como grupo de investigación adscrito a la Unidad de Investigación de la Facultad de Letras y Ciencias Humanas de la UNMSM.

El mismo martes por la tarde participaré de dentro de la programación de RDN Perú, contando en formato entrevista, un poco acerca de mi trabajo y de qué trata mi paso por la ciudad de Lima.

El viernes, luego del segundo día del taller de Paisaje Sonoro, estaré en la Escuela Nacional Superior Autónoma de Bellas Artes del Perú [ENSABAP] charlando acerca de la relación entre audiovisión e inteligencia artificial, presentando el proyecto que lleva ese mismo nombre y que desde este año me encuentro dirigiendo en la Universidad del Salvador.

El cierre de todo será en Noir, el viernes 20 a las 21hs, donde compartiremos un concierto llamado La escucha en acción, junto a Oscar Recarte, Árbol, Gianni Benchich y Silvana Tello. Luego de las presentaciones hay DJ sets de Aristidez y César Aguirre.

Como siempre, les agradezco por leer y compartir.
¡Nos vemos pronto!

Lima