archivo

Investigación

Finalización
Ya hemos dedicado tiempo a atender los aspectos técnicos que permiten preparar el espacio de trabajo [link], cargamos los clips de audio en el programa de edición multipista, los separamos por su procedencia o contenido con sus fundidos para que sus entradas y salidas no generen saturaciones o clicks indeseados.
Trabajamos sobre el concepto de espacio sonoro [link], basando su construcción en cuatro pilares fundamentales que son la intensidad, la posición estéreo, la proporción de campo directo y campo reverberante y el comportamiento espectral, que en su combinación nos dieron por resultado los distintos planos sonoros que conforman el paisaje sonoro buscado.
Trabajamos y compusimos. Tenemos –o pensamos que está– todo listo. Repasaremos aquí una serie de recomendaciones para la última etapa de trabajo, que nos recompensará con el paisaje sonoro en un archivo de audio independiente, listo para ser publicado, difundido y escuchado.

Coherencia de la mezcla
Después de dar por terminado el trabajo y de habernos tomado un debido descanso que nos evite la fatiga auditiva, es normal que nos dispongamos a realizar repetidas escuchas hasta estar en pleno (auto)convencimiento de que efectivamente el trabajo está listo.

Hay algunos puntos que son importantes a cuidar en estas escuchas finales y que nos aseguran un ordenado final para el proceso compositivo.
La primera es que haya una coherencia espacial entre la mezcla de ambientes y fuentes sonoras puntuales, respecto al espacio sonoro que hayamos querido construir. Es decir, que cada cosa esté en su lugar del espacio estéreo, en su plano de lejanía o cercanía y con su reverberación correspondiente.

En segundo orden, verificaremos que exista cierta riqueza o variedad en las fuentes sonoras que estamos haciendo interactuar, ya que esto –a no ser que se trate de un espacio notoriamente desierto– es lo que tornará interesante el paisaje sonoro en la mayoría de los casos.

Por último, chequearemos que en esa variedad de elementos, no tengamos zonas con abundancia y otras zonas más vacías, sobre todo evitando las coincidencias de vacíos entre fuentes sonoras que volverían poco natural al paisaje.
Por otro lado, muchas veces para conseguir la extensión deseada duplicamos clips de ambientes y los utilizamos uno a continuación del otro. Esto es un buen recurso, siempre y cuando ese bucle que estamos generando de manera artesanal quede enmascarado y desapercibido por todo lo que suceda de mayor relevancia en la mezcla.

Automatizaciones
Es muy probable que los parámetros que configuramos para el funcionamiento y procesamiento de un canal cambien de manera total o parcial, no funcionen de manera orgánica para todo el proyecto: determinado clip de audio está en el plano que queremos pero de pronto el nivel sube abruptamente; o algo que quisimos que esté paneado a la derecha lo queremos sonando por la izquierda. Cuando esto sucede, recurrimos a las automatizaciones.
Al activar la vista de automatizaciones vemos de inmediato distintas líneas superpuestas a los clips de audio. Estas líneas representan los valores que toman los parámetros del audio teniendo por defecto a la intensidad y la posición estéreo, pero con posibilidades de alterar cualquier instancia de todos los procesos que hayamos insertado en ese canal.
Si es la primera vez que abrimos esta vista, nos encontraremos típicamente con líneas horizontales en el valor que esté funcionando, por ejemplo, la intensidad. La forma de modificar esto, es agregando nodos a esas líneas, lo que permite cambiar los valores de esa variable y obtener, por ejemplo un aumento de 3 dB en un punto determinado y una disminución a -6dB en lo sucesivo. Cada nodo es un punto de inflexión para la línea de automatización, que es absolutamente flexible a nuestras necesidades incluso sirviendo para encender o apagar un proceso en determinada sección del proyecto.

Automatizacion

Niveles de sonoridad
Una de nuestras últimas escuchas debería estar dedicada a poner atención en los niveles de sonoridad. Con la ayuda de un vúmetro, un medidor de picos, de RMS o de LUFS podemos hacer este trabajo.
Lo importante es en primer lugar que los canales –siguiendo nuestro caso, el izquierdo y el derecho– estén equiparados en niveles. Esto quiere decir que al construir el espacio estéreo hemos destinado la misma cantidad proporcional de fuentes sonoras y niveles a un lado y al otro y perceptivamente se escucha pareja la mezcla en su utilización del estéreo.
Si identificamos alguna anomalía de niveles, la opción más prolija es volver a la etapa de mezcla y re elaborar las secciones desparejas, volviendo a ubicar en nuevos planos aquellas fuentes sonoras que hubieran quedado desencajadas y nos estén “volcando” la mezcla hacia un lado.
También puede suceder que identifiquemos algún sonido que por la combinación entre su intensidad la tonalidad y el lugar que le hemos otorgado en la mezcla, suene hiriente a la escucha. También podemos volver a la etapa de mezcla para buscar dicho clip y atenuar mediante la utilización de un ecualizador la porción del espectro en cuestión.
Respecto al nivel de sonoridad de salida –que puede estar medido en RMS o en LUFS– podríamos discutir ampliamente en relación a qué rango de niveles son aceptables para la finalización de un archivo de audio. Las posturas son divergentes cuando además se supone que estamos transitando la salida de la llamada guerra del volumen, que comenzó en la década de los 90 con el auge del CD llevando al rango dinámico a valores cada vez más chatos y acortando las posibilidades de que múltiples planos sonoros convivan en cualquier producción sonora comercial.

Los nuevos paradigmas apuntan a una inteligibilidad mayor, a una riqueza de planos que permita disfrutar de sonidos fuertes como tenues. Entonces, con esto presente, podemos destinar algunas escuchas con nuestro sistema de reproducción sonando a un nivel considerable y verificar que todos los planos de nuestra mezcla se escuchan con claridad en los niveles que les quisimos otorgar. Si podemos escuchar con inteligibilidad todos los planos que hemos construido y suenan perceptivamente parejos estamos en condiciones  de dar por terminada la etapa de mezcla.


Obteniendo el archivo final

Esta opción, dependiendo el programa de edición multipista sobre el que hayamos trabajado puede aparecer bajo el nombre de bounce, render, mixdown, export o de alguna otra manera. En líneas generales la operación consiste en reproducir y grabar todas las órdenes que hayamos configurado a lo largo y ancho de nuestro proyecto. Tenemos que tener especial cuidado en este momento en no haber dejado canales en solo o muteados, ya que el archivo que obtendremos es una fiel réplica de lo que esté configurado en el proyecto en ese preciso momento.
En general, podemos elegir diversas opciones para el formato del archivo que nos entregará la operación. Lo recomendable es elegir wav o aif, que son formatos de audio sin compresión. En todo caso, esos archivos pueden convertirse posteriormente a mp3 u otros formatos más livianos para ser enviados o compartidos por internet.

Una vez obtenido el archivo, lo recomendable es abrirlo en un editor de audio para los últimos retoques.
Así como en su momento realizamos fundidos de entrada y de salida a cada clip, nos toca ahora hacerlo de manera técnica en el archivo completo, para asegurarnos una vez más no generar ningún click indebido al iniciar o terminar la reproducción. También es conveniente agregar un segundo de silencio al inicio y al final del clip, para asegurarnos que si en el futuro forma parte de un album, compilación o lista de reproducción, estará debidamente separado de las pistas que lo antecedan y precedan.

Sigue la normalización a pico, un proceso mediante el cual el programa escanea la totalidad del archivo con el que estamos trabajando para encontrar el pico más alto y llevarlo al valor que le hemos ordenado –generalmente 0 dBfs, el nivel más alto que maneja un sistema digital–, ajustando cada una de las demás muestras en proporción. Es importante entender que la normalización a pico no altera los valores proporcionales de una señal de audio, solamente optimiza la relación señal – ruido, permitiendo que la reproducción del audio esté lo más alejada posible del piso de ruido del sistema sin alterar los planos de la mezcla.

Normalizacion

Por último, chequeamos el eje del cero absoluto, también llamado eje de la contínua o DC offset –en los programas que estén en inglés–. El desvío de este es eje es un error muy común, presente en algunos clips de audio a raíz de los múltiples procesamientos que ha recibido hasta llegar a esta etapa, manifiesto por las desigualdades que tiene la señal, en los dominios positivos y negativos con respecto al eje de cero absoluto, donde la amplitud es -∞. La señal debe oscilar con su eje en -∞ y con este chequeo lo corroboramos.

Offset

¡Al fin tenemos nuestro archivo listo! es hora de subirlo, compartirlo y hacerlo rodar para que llegue a la mayor cantidad de escuchas posibles.

¿Cómo finalizás tus audios? ¿Te sirvieron estos tutoriales? Sentite libre de compartirlo con quien quieras para seguir intercambiando técnicas y métodos de trabajo con audio.
¡Gracias por pasar!

En mi tesis de maestría, titulada La investigación – creación en música, y su relación con la investigación científica en el contexto actual latinoamericano, estudié precisamente el estado conocimiento y puesta en práctica de distintas metodologías de investigación artística en la región, especialmente de estrategias para investigación – creación en música.

Poco tiempo después de entregar mi tesis, Paulo de Assis, un investigador del Orpheus Institut de Bélgica publicó su libro Logic of Experimentation: rethinking music performance through artistic research, que aporta una mirada fundamental sobre el tema.

Aunque no fue incluído en el marco de mi investigación por ese desfasaje temporal, leí el libro y escribí una reseña en español del mismo para quienes quieran saber de qué se trata, que se acaba de publicar en la revista Perspectivas Metodológicas. Pueden encontrar en la sección de artículos de esta misma web, pero también en la web de la revista Perspectivas Metodológicas, donde también hay otros artículos de colegas que trabajan en temáticas relativas a la filosofía, epistemología y metodología.

Gracias por leer y compartir!

Logic of experimentation

Metrolima_header

La ciudad de Lima padece hace años una contaminación sonora apabullante, principalmente a causa de las bocinas de autos, taxis y colectivos. Los taxis no tienen ningún sistema visual de cartelería que indiquen si están disponibles u ocupados, y es por eso que utilizan bocinazos para “atraer clientes”: sencillamente cuando ven a alguien bajan la velocidad y tocan repetidamente la bocina para hacerse oír. Claro que en la mayoría de los casos, esto no resulta porque quien caminaba era solamente eso, alguien que iba caminando.
Además, la mayoría de los taxistas realizan adaptaciones en sus autos para que la bocina sea un pequeño pulsador ubicado en el volante, con lo cual se convierte en una acción muy fácil de realizar con un solo dedo mientras se maneja, funcionando casi como un acto reflejo al ver a alguien caminar.
Los colectivos, que salvo algunas nuevas unidades de líneas específicas tampoco cuentan con señalización de cartelería iluminada, también entran en el juego. Y a todo se le suma la poca paciencia de quienes conducen autos en general, que ante la menor detención también tocan bocina, como si esto solucionara algo.
Algunos estudios que investigan el tema, afirman que el 80% de la polución sonora de la ciudad, proviene del parque automotor, e incluso existen campañas que –sin resultados– buscan aplacar el fenómeno.

Podemos imaginarnos que caminar por Lima, esquivando o conviviendo con los bocinazos es poco amigable. Pero por el contrario, la experiencia de viajar en metro propone otra dinámica: los bocinazos contrastan con la dulce voz del metro que pregona “cada día más personas observan y reconocen nuestra amabilidad”, refiriéndose a ceder el asiento y otras formas mantener un buen comportamiento en el transporte.
Así y todo, este contraste se siente fuertemente entre el adentro y el afuera del metro. En Lima el sistema no es subterráneo sino elevado y cada vez que la formación aborda una nueva estación, al abrir sus puertas es notoria la invasión sonora de parte de esos bocinazos, de esos taxis, colectivos y camiones de los que hablaba más arriba.
Les comparto entonces la escucha, caracterizada por esta dualidad, ese adentro y afuera,  esa contaminación y resguardo, amabilidad y bocinazos.

El paisaje sonoro final que escuchamos parte de grabaciones de campo realizadas entre las estaciones La Cultura y El Ángel, que luego fueron intervenidas para dar continuidad al relato.

Metrolima_footer

La semana que viene voy a estar en la ciudad de Lima realizando distintas actividades que me gustaría compartirles.

Los días martes 17 y viernes 20, invitado por el el Medialab de la Universidad Nacional Mayor San Marcos [UNMSM], estaré brindando el taller Paisaje sonoro: redescubriendo los espacios urbanos. Será la cuarta vez que se dicta, habiendo tenido muy buenos resultados en Colombia, Ecuador y Argentina.
El Medialab es uno de los cinco núcleos de investigación e innovación tecnológica [NIT] del Vicerrectorado de Investigación y Posgrado de la Universidad Nacional Mayor de San Marcos de Lima, Perú y a la vez funciona como grupo de investigación adscrito a la Unidad de Investigación de la Facultad de Letras y Ciencias Humanas de la UNMSM.

El mismo martes por la tarde participaré de dentro de la programación de RDN Perú, contando en formato entrevista, un poco acerca de mi trabajo y de qué trata mi paso por la ciudad de Lima.

El viernes, luego del segundo día del taller de Paisaje Sonoro, estaré en la Escuela Nacional Superior Autónoma de Bellas Artes del Perú [ENSABAP] charlando acerca de la relación entre audiovisión e inteligencia artificial, presentando el proyecto que lleva ese mismo nombre y que desde este año me encuentro dirigiendo en la Universidad del Salvador.

El cierre de todo será en Noir, el viernes 20 a las 21hs, donde compartiremos un concierto llamado La escucha en acción, junto a Oscar Recarte, Árbol, Gianni Benchich y Silvana Tello. Luego de las presentaciones hay DJ sets de Aristidez y César Aguirre.

Como siempre, les agradezco por leer y compartir.
¡Nos vemos pronto!

Lima

Los días jueves 5, viernes 6 y sábado 7 de septiembre voy a estar en la Universidad Nacional de San Juan brindando este curso de posgrado que se titula Epistemología y metodología de la investigación – creación.
Pensado para artistas, docentes e investigadores de diversas carreras artísticas –música, audiovisuales, diseño, teatro–, trabajaremos de manera intensiva sobre diversos conceptos y cuestiones inherentes a la práctica artística en relación a los procesos de investigación institucionales.
Además, con quienes estén realizando sus propios proyectos de investigación, trabajaremos implementando distintos métodos de sistematización sobre la propia práctica artística, para conseguir documentarla y volverla una fuente de la propia investigación.
Las consultas e inscripción se realizan en Posgrado de la Facultad de Filosofía Humanidades y Artes de la Universidad Nacional de San Juan [Santa Fe 205 oeste].

Además, el día viernes por la noche estaré en Patricias Espacio presentando mi proyecto Paisajes sonoros subterráneos y compartiendo concierto con Lorenzo Gomez Oviedo, artista sonoro local. Dimos por llamar al evento Paisajes irreales: vamos a construir un paisaje sonoro en tiempo real, a partir de grabaciones y objetos sonoros de los dos.

¿Nos vemos por allá? ¡gracias por leer y compartir!

Curso UNSJ

Esta semana estaré participando una vez más del Festival Internacional de la Imagen que organiza la Universidad de Caldas en Manizales, Colombia.
En esta oportunidad estaré dictando el taller “Remix. Herramientas de reapropiación para la creación sonora y audiovisual desde el reciclaje digital” en el que repensaremos las posibilidades de creación a partir de materiales pre-existentes; y también presentando en el Foro Académico una ponencia titulada Audiovisión e inteligencia artificial, que es el resultado parcial del proyecto de investigación homónimo que tengo el placer de dirigir, y que está radicado en la Universidad del Salvador.

Como siempre, si quieren saber un poquito más, en el texto hay links para seguir.
¡Gracias por leer y compartir!

ImagenFest2019banner.png

Ya sea que estemos trabajando en algún proyecto en particular, o estemos haciendo registro sonoro por el solo placer de hacerlo y guardarlo, tenemos la posibilidad de preguntarnos cuál es la mejor manera de lograr aquello que estemos buscando.
En este sentido, si la tarea está ligada al registro fonográfico, objetivo, con énfasis en la documentación sonora de un espacio determinado, tendrá unas características que no serán las mismas que si salimos a grabar en el marco de un trabajo creativo, sea un paisaje sonoro u otro producto relacionado al diseño de sonido.
Ya hemos repasado las distintas características de diversos equipos que nos sirven para salir a grabar. Si no lo viste, acá está el link.

En esta segunda parte, continuaremos con tipos de micrófonos y sus características y posibilidades de uso.

Un micrófono es un transductor, que convierte una onda sonora –un sonido– en una señal eléctrica, permitiendo así su grabación, transmisión y amplificación.
Hoy en día, los podemos diferenciar en primera instancia por su tipo: dinámicos, si el transductor funciona a partir de una bobina o una cinta móvil; de condensador, si lo hace a partir de una placa; y piezoeléctricos, si generan la señal a partir de variaciones del material con el que están construidos en relación al medio elástico, o con algún otro material u objeto al que estén unidos –motivo por el que también se los conoce como micrófonos de contacto–.

Haciendo un repaso histórico, todo comienza con la invención del micrófono de carbón, un piezoeléctrico que aunque patentado en 1877 por Thomas Edison en una traicionera maniobra, fue un desarrollo conjunto de David Hughes, Emile Berliner y el mismo Edison. Fue el primer desarrollo que posibilitó una transducción de calidad, utilizando unos granitos de carbón entre un diafragma y una placa metálica. Aunque era muy eficiente, los carboncitos se pegaban después de un tiempo, perdiendo su sensibilidad y transmitiendo cada vez peor.
A partir del primer modelo derivaron otros de la continuación del proyecto, por parte de Edison y de Henry Hunnings como iniciativas separadas: Edison lo volvió más barato y logró posicionarlo en la mayoría de los teléfonos que comenzaban a masificarse para la época. Hunnings, por su parte mejoró los materiales volviéndolo más duradero. Sin embargo, tanto uno como el otro camino devinieron en las tecnologías que utilizan los micrófonos actualmente.

Volviendo a la actualidad, comenzaremos hablando de los micrófonos electrodinámicos, más conocidos como dinámicos.
Entran en esta tipología los típicos micrófonos de cinta, que funcionan utilizando como transductor una lámina delgada de metal corrugado. Son de alta sensibilidad pero también extremadamente frágiles a la manipulación y a la exposición a sonidos transitorios –golpes de percusión por ejemplo– o de alta intensidad.
Por el contrario, los de bobina, ofrecen en general menor calidad y sensibilidad pero a cambio de ser altamente robustos, convirtiéndose así en micrófonos de batalla y siendo utilizados en shows en vivo sin tener la preocupación de su desgaste.
Las vibraciones del ambiente provocan el movimiento de la bobina o la cinta, que funcionan junto a un imán generando un campo magnético. Este movimiento es transformado en tensión eléctrica, siendo esta la señal que entrega el micrófono.

Por otro lado, tenemos a los micrófonos electrostáticos. Aquí encontramos a los de condensador, en los cuales al moverse una placa metálica, se provoca una variación en la energía almacenada en un condensador. Esta variación se traduce en tensión una eléctrica que es la señal que entrega el micrófono. A diferencia de los micrófonos dinámicos –que no requieren alimentación eléctrica externa–, estos sí utilizan en general la estandarizada fuente Phantom de 48V, y una pequeña minoría otros voltajes que se consiguen con fuentes propias de la marca y modelo.
Los encontramos construidos en dos tamaños típicos definidos por sus placas: mientras más grande es la placa, más costoso se vuelve el dispositivo pero también, más calidad tendrá el registro. A su vez, los de placa grande también son sensibles a la deformación de la misma por su exposición a transitorios y sonidos fuertes.

Son electrostáticos también los micrófonos electret, que en lugar de alimentarse de una fuente de tensión externa, están construidos a partir de un imán electrostático que mantiene una carga de estática volviéndolos sumamente económicos.
Aunque en sus inicios utilizar un micrófono electret era sinónimo de baja calidad de audio, hoy en día las tecnologías se han superado a sí mismas ampliamente y pueden considerarse a la par de un micrófono de condensador de placa chica o incluso en algunos casos superarlos. Un dato no menor es que son los que mayormente encontramos integrados a las grabadoras de mano y celulares.
Los llamados micrófonos binaurales, también se valen de la tecnología electret. Aquí contamos con un sistema de grabación de dos micrófonos que están separados a la distancia promedio de los oídos humanos, con lo que se busca emular un registro realista que tenga las características de la escucha natural, tal como la conocemos.
También los micrófonos surround utilizan esta tecnología. En este caso, el dispositivo cuenta con un set de cuatro micrófonos ubicados de tal forma que pueden captar simultáneamente en los ejes X, Y y Z, intentando registrar el ambiente de forma tridimensional, especialmente para reproducir el registro en sistemas de sonido envolvente.

Fuera de esta división encontramos a los hidrófonos, que son micrófonos que están preparados para captar diferencias de presión sonora en el agua en lugar de hacerlo en el aire. Pudiendo medir desde 30 centímetros hasta 2 metros –los de gran formato–, se utilizan sobre todo en estudios relacionados a la geología y a la biología marina, pero también se aplican como tecnología militar permitiendo identificar el tránsito de submarinos y embarcaciones que están evitando ser visualizadas.

TresMics

En una segunda instancia de clasificación, podríamos diferenciarlos por su patrón polar, es decir, la forma y direccionalidad con la que registran y para la cual fueron construidos.

En este sentido, encontramos micrófonos omnidireccionales, que registran a 360º desde el punto en que esté ubicado el micrófono; bidireccionales, o figura de ocho; que registran por igual tanto por delante como por detrás del micrófono; y direccionales, entre los que encontramos a los cardioides, que registran de manera amplia y en forma de corazón invertido –de ahí su nombre– hacia el sentido de la orientación del micrófono; supercardioides e hipercaridoides, que cierran aún más el ángulo de captación de ese corazón invertido permitiendo hacer un registro puntual con menos contaminación de fuentes no deseadas. Aquí tenemos que tener presente que estas categorías no son absolutas y entre el patrón polar del cardioide y el hipercardioide pueden existir distintas configuraciones dependiendo de sus marcas y modelos.
Por último, los tipo boom o shotgun, que tienen un patrón polar sumamente estrecho y son altamente direccionales.
La elección del micrófono que utilicemos debería contemplar el patrón polar dependiendo del uso que queramos darle, del tipo de fuente que queramos capturar y el grado de aislación que podamos obtener.

PatronesPolaresCada micrófono tiene además, una curva de respuesta en frecuencia que nos indica en qué proporción y medida responde frente al espectro que está registrando.
Así, existen algunos micrófonos que están pensados para funcionar de manera óptima en el registro grave, en el registro medio y otros que intentan ofrecer una respuesta pareja para todo el espectro con la mayor precisión posible. Esta curva –distintiva de cada modelo– le otorga una ecualización particular, una personalidad específica, un color al registro. Tanto así, que algunos modelos de micrófonos se han vuelto paradigmáticos a partir de las frecuencias que enfatizan o atenúan.
La curva se representa con un gráfico en donde vemos decibeles en función de la frecuencia, tal como vemos en la siguiente ilustración.

Curva de respuesta en frecuencia

Todas estas características, se encuentran en la hoja técnica o data sheet, un documento generado por el fabricante del micrófono, donde además encontraremos información acerca del funcionamiento electrónico del mismo, voltajes e impedancias que soportan, sensibilidad y otros datos que la marca considere relevante.

¿Con qué micrófonos grabás vos? la próxima entrega tratará de técnicas de grabación y microfoneo, ¡quédense pendientes!

Gracias por leer y compartir.