Sie sind auf Seite 1von 38

1

Instituto Nacional de Cine y Artes Audiovisuales

Presidenta
Liliana Mazure

Vicepresidenta
Carolina Silvestre

Escuela Nacional de Realización y Experimentación Cinematográfica

Directora
Silvia Barales

Coordinador del Centro de Formación Continua y Producción


Carlos Macías

Autor
Gonzalo Guerra. Director de Sonido (ENERC, Escuela Nacional de Experimentación y Realización Cinematográfica) y Productor
Musical (EMBA, Escuela de Música de Buenos Aires). Trabajó en la posproducción y el diseño de sonido de las películas: El vestido
(2008. Dirección de Paula de Luque), Luca (2007. Dirección de Rodrigo Espina), La velocidad funda el olvido (2006. Dirección de
Marcelo Schapces), Soñar no cuesta nada (2006. Dirección de Rodrigo Triana. Colombia), Identidad perdida (2005. Dirección de
Nicolás Gil Lavedra; cortometraje), Tatuado (2005. Dirección de Eduardo Raspo), Parapalos (Dirección de Ana Poliak), Como pasan
las horas (2004. Dirección de Inés de Oliveira Cézar) y Pescadores (2004. Dirección de Silvana Jarmoluk; telefilme), de las series
documentales de TV: Historia de América Latina (2008. Maíz Producciones) y Revelaciones (2008. Maíz Producciones), de las
ficciones para TV: Epitafios (2008. Pol-ka Producciones) y Terminales (2008. México), entre otras, y de diversas publicidades para
Coca Cola, Bayer, Telecom, VW, entre otras.

Diseñadora didáctica
Ana Rúa

Diseñadora gráfica
Silvina Bezen

2
FONDO EDITORIAL ENERC

Publicaciones:
• Análisis del lenguaje cinematográfico
• Los procesos de negocios: Marketing cinematográfico
• Los contenidos de cine y de televisión dirigidos a niños y a jóvenes
• Stop-motion. Animación empleando modelos y muñecos articulados
• La era plateada
• Laboratorio para el desarrollo de proyectos audiovisuales
• La historieta y el cine
• Introducción al cine documental
• El cine argentino y sus tiempos: desarrollos paralelos, itinerarios cruzados
• Introducción a la cinematografía:
Realización
Historia del cine argentino
Guion
Producción
Fotografía
Actuación
La música en el cine
Montaje
• Subjetividad y documental contemporáneo
• Historias y leyendas del cine argentino
• Introducción a la crítica cinematográfica
• Promotor y coordinador de cineclubes
• Conferencia: “Pedagogía masiva audiovisual”
• Prácticas de guion
• El cine y sus autores
• El cine argentino, en cuatro clases
• Creadores de historias –La estrategia didáctica del laboratorio–
• Sonido para cine

Estas publicaciones están disponibles en:


www.enerc.gov.ar/cefopro/index_fondoeditorial.html

Todos los derechos reservados a los autores; Ley 11.723.


Escuela Nacional de Realización y Experimentación Cinematográfica
Moreno 1199 (CP 1009).
Ciudad Autónoma de Buenos Aires. Los contenidos desarrollados en esta serie de publicaciones no
República Argentina. necesariamente reflejan las ideas de la ENERC.
2009

3
Índice
FONDO EDITORIAL ENERC

Sonido para cine

1. Presentación 5

2. Producción de sonido cinematográfico 7

2.1. Preproducción 7

2.2. Producción 11

2.3. Posproducción 20

3. Un proyecto de sonido 26

4. Problemas a resolver 31

4
Sonido para cine
:: 1. Presentación ::
En este curso introductorio me propongo brindarles un pantallazo acerca del lugar del sonido en el cine que
–debo confesarles– suele ser en lo último en lo que se piensa al encarar una realización, como si no
resultara decisivo estar pendientes de qué va a oírse en esa obra o, incluso, como si la película no fuera una
obra audiovisual en la que lo que se ve y lo que se oye tienen igual importancia.

Para que ustedes comiencen a considerar de modo particular el lugar del sonido en el cine…

///// Actividad 1

Los invito a analizar una escena de una película, primero mirándola y oyéndola, y, luego, sin sonido:
– ¿Qué es lo que el sonido aporta a esa película?
– ¿Qué tipos de sonido reconocen? ¿Para qué están utilizados?
– ¿Qué sucede con el visionado sin sonido?

Durante nuestras clases en la ENERC1, convoqué a los participantes del curso a centrarse en:
– La velocidad funda el olvido (2006. Dirección de Marcelo Schapces. Dirección de sonido de
Nicolás Giusti, Julián Caparrós y Gonzalo Guerra. Argentina, España)

porque, como estuve a cargo del diseño de sonido de esta realización, pudimos analizar las distintas
versiones –con diálogos directos, con diálogos doblados, con el agregado de los sonidos de objetos,
con el agregado del sonido ambiente, con música, con la mezcla final–; pero, por supuesto, ustedes
pueden centrarse en otra pelìcula.

Seguramente, concluirán conmigo en que el sonido es parte fundamental en esa película. Porque, en tanto
producción audiovisual, un filme refiere al oído, a la vista, o los emplea a la vez.
Ahora bien, ¿qué es ese audio al que alude el calificativo? Si acudimos al diccionario de la Real Academia
Española, encontramos esta conceptualización:

Audio
(Del inglés audio, y este del latín audĭo, yo oigo).
-- Técnica relacionada con la reproducción, grabación y transmisión del sonido.

audio-
(Del lat. audīre, oír).
-- Significa 'sonido' o 'audición'. Audiómetro, audiovisual.

1
El curso cuya versión escrita ustedes está leyendo fue desarrollado durante cuatro clases, en la Escuela Nacional de Experimentación
y Realización Cinematográfica, entre agosto y setiembre de 2008.
5
Ese “Yo oigo” tiene que ver directamente con la percepción, con que una persona sienta… Porque el
sonido es la vibración de un cuerpo que se trasmite a través de un medio, el aire por ejemplo, que es un
medio elástico; así, llega al oído en forma de variaciones de presión y éste decodifica esas pequeñas
vibraciones a través de los tres huesitos que tiene en su parte interna, dándoles sentido según su
intensidad, su frecuencia… que generan sensaciones diferentes en la persona que oye.

Y cuando la persona no puede dar significado a un sonido porque lo


En la producción de cine es
está oyendo mal, cuando el espectador de cine no logra oír un
frecuente que todos los recursos
diálogo o no le llegan con claridad datos del espacio donde
se destinen a que la película se
transcurre una escena… ¡se está perdiendo nada más y nada menos
vea linda, dando poca
que la mitad de la obra! No pretendemos, por supuesto, que en cine
importancia a que se escuche
se le dé más importancia al sonido que a la imagen, pero sí que
bien. Considero que esto se debe
tengan igual valor (La idea no es que una película se escuche
a desconocimiento de cómo
bárbaro y que no se vea nada… porque para eso hacemos un
influye el sonido en un filme…
radioteatro, que funciona de esa manera, y no una obra audiovisual).

En una película debe entenderse cada sonido siempre; porque no hay una segunda oportunidad para
oír:
- el sonido no se puede “congelar” como una imagen, siempre está en movimiento; lo que no
escuchamos no se repite;
- no tenemos forma de bloquear la audición porque la oreja no tiene párpados; siempre pasa algo
sonoro frente a nosotros, por lo que, en cine, podemos contar con sonido muchísimas cosas que serán
recibidas por el espectador2.

Estas dos características de la percepción audiovisual son muy importantes, y marcan la diferencia entre
una imagen y un sonido: Podemos capturar la imagen de un paisaje y tenemos algo bello; pero, si
capturamos un sonido tenemos una porquería. Imaginen que un sonido “detenido” –aunque ya aclaramos
que esto no se puede hacer, por la misma concepción del sonido– sería algo similar al tono de ajuste de un
televisor, algo constante, sin variación y que al cabo de unos segundos se convierte en sumamente molesto.

Por otra parte, la conciencia de que el sonido te invade lleva a que seamos muy cuidadosos en su selección
como lenguaje fílmico (Si no… piensen qué provocó en ustedes la musiquita de Tiburón –1975. Dirección de
Steven Spielberg. EEUU- que hoy reconocerían entre cientos).

Estas dos características también nos ayudan a


La ENERC es una de las pocas escuelas de
concluir que una película tiene que entenderse en
cine –si no la única– que tiene una carrera
todos sus componentes; no puede ser que algo se
especial de Sonido para cine, en coincidencia
entienda mejor, que algo se entienda un poquito
con esta concepción del sonido como parte
menos y que algo no se entienda3, porque el
decisiva del lenguaje cinematográfico, como lo
espectador termina no teniendo ganas de seguir
son la edición o la fotografía.
asistiendo a la proyección. Si el sonido ocasiona
dificultades, se rompe el contrato audiovisual y se
pierde la ilusión del cine.

Por supuesto, dentro del sonido incluimos el silencio –que pertenece a él–. Los sonidistas combinamos
sonido y silencio, porque la ausencia de sonidos perceptibles también cuenta…

2
El sonido no debe molestar: Pienso en un rumble –el sonido muy grave similar al que se genera en un terremoto o por la explosión de
una bomba (rumble en inglés singifica estruendo)– o en un sonido muy muy agudo. Aún cuando me tape los oídos, como el sonido está
en el aire porque es variación de presión, puedo sentirlo con otras partes del cuerpo, con todo el cuerpo: puede recibirlo mi dedo y ser
transmitido de allí a mi cerebro causando angustia, fastidio o cualquier tipo de sensación, buscada o no.
3
En ocasiones, se pretende que una película que ha llevado tres meses de edición se resuelva en cuatro semanas en lo que a sonido
respecta. Y la realidad dice que el tiempo y la energía destinados a sonido marcan la diferencia entre una película y otra. Hace poco
aquí mismo, en la Escuela de Cine, Walter Murch, el famoso director de sonido –El padrino II, El padrino III, por ejemplo– contaba que
él tuvo ocho meses para hacer la posproducción de la película Tetro, que filmó con Francis Ford Coppola en Buenos Aires y como él se
dedica al montaje y al diseño de sonido es como si tuviese de entrada ocho meses para sonido. ¡Ocho meses! Y eso que él contaba
que no está en las tareas de edición sino sólo de diseño. Y yo considero que, mal que nos pese, debemos reconocer que las películas
norteamericanas suenan bien, más allá del diseño sonoro en sí, porque tienen dedicación, un trabajo coordinado, minucioso. En casos
bien opuestos, lamentablemente, se trabaja de modo estanco: el montajista te pasa la película ya armada para que le “hagas” o
“pongas” el sonido; y a vos, como sonidista, te hubiera gustado tener cinco cuadros más de imagen en una escena para que se
desarrolle bien un sonido, sea eficaz y sea creíble… pero es imposible porque la edición de imagen ya está hecha.
6
///// Actividad 2

Si ustedes reparan en la escena de Matrix I (1999. Dirección de Larry y Andy Wachowski. EEUU) en la
que Morfeo lleva por primera vez a Neo fuera de la matriz, advertirán de modo contundente el efecto
del silencio total.

En la escena hay dos sillones, un televisor, están ellos dos y absolutamente nada más. ¡Literalmente
nada más! Porque se trata de un no-lugar: allí no hay paredes ni esquinas que den cuenta de un
espacio real porque, como explica Morfeo, ese es el programa de una computadora no un lugar.

Y, para acentuar la irrealidad, el silencio es total; no se escucha ningún sonido ambiente, lo que
genera una extrañeza particular, una sensación antinatural –porque, en la realidad siempre hay
sonido4, un room tone –tono de la locación–que sólo es registrado cuando, como en esta escena, falta
y que es provocado por vibraciones de los cuerpos en el aire–. El de esta escena es un sonido que no
existe en un lugar que no existe; la nada misma.

:: 2. Producción de sonido cinematográfico ::

Voy a explicar, ahora, qué sucede con el sonido en las etapas de preproducción, producción y
posproducción de una película.

Como principio decisivo en mi profesión, mi opción es, siempre, tomar un


Las imágenes ► Se filman
buen sonido, cuidando al máximo las condiciones de registro. Después
Los sonidos ► Se graban
decidiré si quiero conservar o modificar el sonido registrado, pero tengo
que capturarlo en las mejores condiciones posibles. Porque el sonido que
se captura con fallas tiene que remediarse luego y, a veces, no puede
mejorarse de ningún modo.

2.1. Preproducción

Preproducción

Lectura del guión Técnica ► para desglose de necesidades


Comprensiva ►para propuesta estética

Propuesta estética
Diseño de sonido
Scouting de locaciones

4
Por esto es importante que, en cada locación de una filmación, se tome el room tone específico del sitio para registrar cómo suena
ese lugar cuando en él no pasa nada. Para captarlo, los sonidistas solemos esperar que se retiren todos los actores y técnicos, y
grabamos cómo se oye ese cuarto particular. Ese room tone nos servirá para emparchar, técnica en la que voy a detenerme en nuestra
próxima clase.
7
Cuando te proponen hacer una película, alguien te convoca y te dice: “Éste es el guión”. En la instancia de
preproducción –la previa al rodaje–, este guión es leído por el ingeniero en sonido con una finalidad técnica
y con una finalidad estética.

La lectura técnica del guion permite puntualizar qué equipos y qué personas involucra cada escena. A
ver… Si la escena transcurre en un salón donde un conferencista está disertando y se requiere registrar
sólo su voz sin la participación de los asistentes, es de fácil resolución técnica: necesito una caña y un
boom –un micrófono de aire para tomar lo que dicen los personajes, que se ubica en el extremo de una
caña–, un inalámbrico… y se acabó. En cambio, si la escena plantea que hable el conferencista y que cinco
personas ubicadas en la sala le respondan, para lo cual una cámara estará ubicada por detrás del expositor
enfocando al ámbito de doscientas butacas donde cinco levantarán la mano y hablarán… la cosa se
complica para el microfonista porque no va a poder ubicar una caña por arriba del público ya que, al ser un
plano general, el micrófono va a quedar muy alto, para evitar que entre en cuadro, y no va a registrar las
voces de quienes preguntan con la calidad necesaria; entonces, se van a tener que prever cinco micrófonos
inalámbricos; y, si cinco personas van a tener inalámbricos, tengo que contar con una consola mezcladora
que me lo permita y con un sistema de grabación que sea adecuado para registrar cinco canales separados.
Éstas son las cuestiones técnicas a definir, escena por escena, y surgen del desglose del guión.

Este desglose también permite prever requerimientos específicos. Pensemos otro caso… Si durante dos
semanas nos vamos a grabar a la puna argentina, a las Salinas Grandes, sin ninguna posibilidad de contar
con un enchufe para cargar una batería, tengo que preverlo porque o llevo cinco cajas de baterías para
estar cubierto o llevo un generador que, a la noche, me permita cargarlas para contar con los equipos
necesarios durante el siguiente día de filmación.

///// Actividad 3

Esto fue lo que sucedió con el corto:

− Blanco i negro (2007. Dirección de Fernando Santamarina. Argentina), que forma parte de
Historias breves V. (La “i” remite al castellano antiguo).Ho

Durante la filmación tuvimos sol de arriba y sol de abajo, y nos morimos de frío a la sombra (debajo de
un gazebo, yo estaba armando los equipos abrigado con una campera; y mi socio, fuera del gazebo,
con su remera atada en la cabeza…); además, como todo se resecaba, fue necesario un extremado
cuidado de los aparatos y proteger muchísimo las partes metálicas por la erosión de la sal: se caía
una pieza al suelo y debíamos sacarle las partículas inmediatamente con un aerosol de aire
comprimido y, luego, limpiarla con otro aerosol de alcohol isopropílico y secarla bien; otro cuidado que
tuvimos que tener era que, cada mañana, antes de salir del hospedaje, forrábamos todos los equipos
con film de cocina a fin de evitar que las partículas de sal en el viento ensuciasen los equipos.

El sonido directo no nos sirvió para nada porque se filmó con una cámara de 35 mm muy ruidosa –juro
que no a cuerda… tenía motor y sonaba exactamente igual que una máquina de coser–; y, como en
esas semanas no hubo viento, tampoco nos sirvieron los ambientes que no “sonaban” a nada: también
tuvimos que armarlos por completo, una vez en el estudio.

En las decisiones estéticas, trabajamos con velos de sonido que se correspondían con velos de
imagen. Incluso, esos sonidos rugosos que se oyen cada tanto, tienen como sentido agudizar la
sensación de tensión, de distancia imposible de franquear, entre el conquistador de Pablo Cedrón y el
esclavo de Lamín, un actor senegalés. También se decidió que Pablo inventara un idioma y que Lamín
hablara en el suyo (inentendible si no hablamos senegalés…), y que hubiera componentes sonoros
que para nosotros no se terminaran de entender, que es el único vínculo posible entre el blanco
perseguidor y el negro capturado. Por ejemplo, cuando el conquistador carga su arma se sienten
sonidos metálicos pero que no se corresponden exactamente con los de una pistola, pero sirven a
modo de enfatizar que ningún puente puede establecerse entre ellos.

A partir de la lectura comprensiva de este guión y de charlas con el director, se delinean los códigos
artísticos del tratamiento sonoro, conformando una propuesta estética. Piensen ustedes en que,
seguramente, cuando el sonidista de Matrix I leyó el guión, sugirió: ¿Por qué, en esta escena, no sacamos
el room tone ambiente para que sea diferente, para que suene raro, y dé idea de que Morfeo y Neo no
están en ningún lugar conocido por el hombre? Eso es una propuesta estética: analizar el contenido,

8
analizar los personajes, los lugares, los objetos que forman parte del relato para sugerir un sonido que hable
de la situación, de la psicología de quienes forman parte de la historia; porque, así como el director de arte
decide qué zapatos o qué ropa va a usar un personaje y qué ropa no va a usar de ninguna manera, el
director de sonido decide cómo se va a escuchar ese personaje. Este ajuste visual y sonoro a los rasgos
psicológicos de los roles viene de la ópera que, incluso, caracterizaba a cada personaje con una música
particular; en La flauta mágica, por ejemplo, aparece la serpiente o simplemente se esboza la idea de su
cercanía y con ella se escucha una música específica.

Les cuento un ejemplo que va a ilustrar qué es una propuesta estética. Trabajé en el sonido de dos series
de TV: Epitafios y Terminales; la segunda es para México y se llama así porque cuenta historias de
enfermos en la fase final de su vida; uno de los personajes de esta serie es una chica muy contundente,
muy segura, que no se deja avasallar, por lo que decidimos que siempre se supiera que va a intervenir en
una escena al escucharse las pisadas firmes de sus tacos altos en el piso de la redacción de la revista
donde transcurre la historia. Ésta es una propuesta artística desde el sonido.

///// Actividad 4

En ¿Conoces a Joe Black? (Meet Joe Black. 1998. Dirección de Martín Brest. EEUU) se escucha una
música cada vez que la muerte (Brad Pitt) y la chica (Claire Forlani) están juntos. Son siete notas que
pasan por distintas instrumentaciones y velocidades, y que a los espectadores nos llenan de la
sensación de idilio.

Piense usted qué pasaría si cada vez que se encuentran yo pusiera la música de Tiburón. Las
imágenes se mantendrían pero el espectador sentiría que hay un riesgo y que va a suceder algo malo
con ellos.

En esta propuesta estética se elige la paleta de sonidos –equivalente a la paleta de colores que define el
director de arte–: qué tipo de sonidos puede haber en esta película y qué tipo de sonidos no puede haber, si
van a usarse sonidos sintetizados o no, si van a ser todos realistas, si pueden integrarse sonidos
futuristas…

Y, también, se determina si el sonido se va a registrar en directo o a trabajarse en un estudio. Por ejemplo,


si estoy filmando un documental, lo más probable es que convenga el sonido directo porque puede resultar
imposible que los protagonistas sean convocados para un proceso de doblaje; y, por otra parte, sería muy
raro escuchar testimonios doblados, ya que perderían su testimonialidad; ésta es una decisión que debe
tomarse en este momento, ser meditada, prevista… porque la dinámica de trabajo va a cambiar si se opta
por un registro de sonido directo, o de un registro de referencia que será reemplazado, en la posproducción,
por voces y sonidos de estudio.

9
La siguiente etapa es la de diseño de sonido, que consiste en prever
Diseño de sonido
qué materiales es necesario crear para luego utilizar en la etapa de
- ambientes
posproducción. Esto requiere un estudio de los ambientes de cada
- sonidos
escena; porque, por ejemplo, uno puede proponer códigos sonoros
característicos
pensándolos para una escena que supone va a ser oscura y, luego, la
o identificatorios
escena se filma en un día soleado y en un parque, por lo que el sonido
pensado para enfatizar la oscuridad no va a tener nada que ver… Por
eso, las previsiones de esta preproducción siempre se terminan de
ajustar en la etapa de posproducción.

Los ambientes exigen las definiciones más decisivas porque integran los sonidos que más cuentan para
narrar una situación: El ambiente es el que sitúa una escena en un lugar, es el que lleva a creer o a no creer
lo que está pasando en la pantalla. Si la escena transcurre a las 17 en un barrio de Buenos Aires y yo no
escucho sonidos de fondo, sólo el diálogo perfecto de los protagonistas, sin voces de chicos que salen de la
escuela, sin ruido de autos que pasan por esa calle… me distancio de la escena porque no la creo; el
sonido tiene que dar idea de movimiento urbano. Y lo mismo pasaría en una escena de interiores; porque,
incluso en el living de una casa los autos de la calle se escuchan, se oye el viento; el sonido cuenta lo que
pasa afuera de la casa y no se registra en las imágenes, a modo de off gigante a cargo de los sonidistas.

Además de los ambientes, los sonidistas planificamos los sonidos que van a identificar personajes o
situaciones -como los tacos de la chica de Terminales o la musiquita de Joe Black–.

///// Actividad 5

En Sexto sentido (The Sixth Sense. 1999. Dirección de M. Night Shyamalan. EEUU) hay una escena
que hace sobresaltar a todos los espectadores a la que, nosotros solemos llamar “sensación sexto
sentido”.

El chico está en el baño con la puerta abierta; se escucha una música muy bajita de unos 20
decibeles. De pronto, se plantea el estruendo de un hit de orquesta a 100-110 decibeles y pasa la
sombra por delante de la puerta.

¿Nos asustó la presencia fugaz del fantasma? ¿O fue el sonido?

La etapa final de la preproducción es el scouting de locaciones, una exploración para evaluar el nivel de
ruido ambiente en cada lugar donde va a filmarse y para considerar si en estos sitios pueden producirse
complicaciones. Por ejemplo, si se prevé filmar cerca de vías de tren, de un aeropuerto, de una avenida…
va a ser muy complicado y el sonidista tendrá que proponer sitios alternativos en los que el ambiente esté
controlado y no deba suspenderse la filmación cada vez que pasa un tren, o proponer la alternativa de un
doblaje (¿Les conté que el sonidista es el segundo personaje más odiado del equipo de filmación? Ah… el
primero es el productor, que dice siempre “No”).

10
Centrémonos ahora en las decisiones de sonido involucradas en la producción de un filme, en su filmación.

2. 2. Producción

Producción

Sonido directo equipo de registro


micrófonos
sistemas inalámbricos
monturas
accesorios
Sonido de referencia para doblaje
Bajada del material

De acuerdo con la propuesta estética definida a partir del guión, se ha decidido si las voces y los sonidos del
ambiente se registrarán en forma directa, o si se irá a doblaje. Supongamos que vamos a filmar una
película de época con registro directo; en este caso, debe evitarse que cada sonido de la modernidad se
filtre en la escena, por lo que necesariamente se optará por lugares alejados de la ciudad.

Si la opción es por sonido directo, es necesario prever equipos específicos para el registro, micrófonos,
inalámbricos, monturas y accesorios.

Centrémonos, inicialmente, en los equipos de


registro. El equipo imbatible –el Ford Falcon del
sonido, la gloria absoluta…– es el Nagra, un equipo
analógico (el de la foto es un 4.2. estéreo) que
arranca en los ’70. Tiene un buen rango y no tiene
problemas de funcionamiento en condiciones
extremas: uno está en la Antártida y da vuelta la
manija que parece de una plancha vieja y el equipo
funciona; uno le pone las doce pilas gordas que lleva
y… ¡adelante, con la humedad y la temperatura que
sea! Por supuesto, también se pueden hacer
desastres con un Nagra, pero ese ya no es un
problema del equipo. Los digitales son muy lindos,
muy livianos, muy estables… pero no garantizan su Nagra
funcionamiento cuando hace mucho frío, por ejemplo.

Lo que hace tan poderoso al Nagra es un cuarzo que garantiza que, al ser estimulado eléctricamente, dé
una señal constante que hace que la velocidad de grabado sea absolutamente regular, que nunca varíe, de
ahí la estabilidad de que les hablaba. La cinta nunca va a distorsionar un sonido acelerándolo o
lentificándolo porque ese cuarzo garantiza que el sincro nunca se pierda.

Equipos de registro

Nagra
- Grabadores de cinta magnética de carrete abierto de 1/4”
- Mono, estéreo

Dat recorder
- Grabador digital de cinta magnética
- Estéreo

Hd recorder
- Grabador de disco rígido o memoria flash
- Mono, estéreo, multipista

11
Los primeros Nagra son mono; es decir que no se puede registrar una caña y un inalámbrico al mismo
tiempo en distintos canales, si se podría hacerlo en el mismo.

Grabación digital, un breve acercamiento

En un sistema analógico, el Nagra, el disco de vinilo o inclusive los casetes, la información que se
guarda es análoga al sonido que la genera. En cambio, cuando grabamos con equipos que digitalizan
el sonido, siempre tenemos que tener en cuenta que este proceso, queramos o no, deja afuera o
descarta información.

Como dijimos, un sonido es una variación de presión; si ésta se transmite a través del aire, esta
variación puede ser captada por un micrófono y traducidas en variaciones de potencial eléctrico
análogas al sonido. Estas diferencias de potencial eléctrico, en el caso de un casete, se traducen en
variaciones de campo magnético y, de esta forma, se almacenan en la cinta magnética. Los que
usaron casetes alguna vez recordarán que, si los dejaban cerca de un imán (un parlante o sobre la TV,
por ejemplo), éstos iban variando la calidad de su grabación; es más, con el tiempo, quisiésemos o no,
la cantidad de veces que se reproducía una cinta, hacía que se fuera deteriorando.

Ahora bien, la grabación digital es similar… ¡pero bastante diferente!

El mismo sonido que nosotros tomamos con el micrófono, en vez de ser convertido en una variación
de campo magnético para ser almacenado en la cinta, es convertido en lo que se llama una cadena de
bits o de información digital. Para esto, un ADC –analogical–digital conversor, que todas las
computadoras tienen en la placa de sonido inmediatamente después de Line In o de Mic In– toma los
valores instantáneos de la diferencia de potencial y los convierte en esta cadena de bits.

Si ustedes alguna vez leyeron sobre este tema –o están dispuestos a terminar de leer este escrito–, se
habrán encontrado con palabras como frecuencia de sampleo, profundidad de bits y otros términos
que tal vez resulten confusos, pero son los que le dicen al ADC cómo tiene que actuar en la
digitalización.

12
La frecuencia de sampleo es el valor de muestras por segundo que toma el ADC. O sea, si tenemos
una frecuencia de sampleo de 32 Hz, como en el gráfico, esto significa que vamos a tener 32 muestras
por cada segundo de audio y estas muestras van a tener una profundidad de palabra de 16 bits
generalmente (hablando de sonidos para calidad broadcast, la muestra es de 48 kHz a 16 bits). En
esos 16 bits, que no son más que 16 unos o ceros (que sólo entiende la computadora) se almacena el
valor de diferencia de potencia en ese instante preciso, con lo cual podemos deducir que la
profundidad de palabra nos está dividiendo el rango dinámico del sonido en 65536 diferentes
posibilidades por cada muestra que toma.

Ésta es la primera gran diferencia con el sistema analógico; en éste las diferentes posibilidades son
infinitas ya que las variaciones de campo magnético a ser almacenadas son análogas a las diferencias
de potencial eléctrico y éstas, a su vez, a las variaciones de presión.

La otra gran diferencia es que, en los sistemas digitales, estos valores instantáneos están en función
de la frecuencia de sampleo y en los sistemas analógicos son inmediatos. Por este motivo, en el
gráfico vemos que la onda representada en el cuadro anterior ha cambiado su forma continua por otra
nueva, escalonada.

Aquí aparece otro problema a tener en cuenta en lo que es la grabación digital y tiene que ver con los
niveles. Si observamos los dos gráficos vemos que hay marcada una amplitud máxima; porque, si bien
los sistemas analógicos tienen también un límite antes de saturar, cuando esto ocurre no es tan grave
como cuando sucede en los sistemas digitales.

Si se fijan, en el primer gráfico el sonido que se pasa del máximo no genera valores que lo
representen; es decir, siempre es el mismo valor máximo –como vemos en segundo gráfico,
representado por una línea recta–; esta nueva generación de valores sin respetar la dinámica, hace
que el sonido digitalizado se convierta en un ruido más que representar al sonido original.

A esta altura, ustedes deberán estar pensando para qué diablos se utilizan los sistemas digitales si
son tan malos con respecto a los analógicos. La respuesta es simple y radica en la pequeña gran
diferencia: En un método guardamos la analogía del sonido (y puede ser muy sensible al calor, la
humedad y los campos magnéticos) y en la otra guardamos una información que refiere a ese sonido

13
y, si tenemos un decodificador (una computadora, por ejemplo), el sonido va a sonar siempre igual, no
importa cuántas pasadas hagamos, no importa el bias de la cinta y nada de lo que pueda afectar a una
cinta analógica, ya que estos sistemas digitales, cuentan con dispositivos de corrección de errores en
caso de que un dato sea ilegible. Sin embargo, si el daño es muy grande, es muy probable que la
información se pierda igual y tengamos un sonido no deseado.

Otro equipo de registro es el Dat recorder –Dat es Digital Audio Tape– que funciona con casetes; en la
imagen pueden ver la tapa que cubre el casete con la cinta en la que va a grabarse digitalmente toda la
información. El problema que tienen estos grabadores es que, como todos los sistemas digitales de registro,
si me excedo de un determinado nivel de volumen, produce una distorsión de la grabación que los torna
inservibles; la cinta soporta determinados niveles de señal y no más allá de ellos, por lo que la información
que supera ese límite produce saturación digital y suena horrible. Sin embargo la relación señal-ruido es
muy buena y como el bias de la cinta no afecta por ser un registro de información ya digitalizada, el sonido
suele “sentirse” más limpio. Este equipo suscita la típica discusión entre las posibilidades de lo analógico
versus las de los digitales; puede suponerse que por ser digital registra mejor pero no es así totalmente.

Dat recorder

Los Hd recorder son otro tipo de equipo de registro que almacena la información ya no en una cinta sino en
un disco rígido o con la memoria Flash que tienen las cámaras de fotos, en un archivo que se puede bajar
muy rápidamente a una computadora; porque, mientras una cinta baja en tiempo real porque grabó 35, 65,
90, 120 minutos, en los Hd uno conecta el grabador a la computadora a través de un zocalito o directamente
desde conectores USB o FireWire, transfiere el archivo y listo. Y, como no graba en un soporte magnético,
nosotros podemos elegir la frecuencia de sampleo: cuánto puedo grabar del espectro de sonidos, de los
más graves a los más agudos –en el dat, la frecuencia máxima de sampleo es de 48 kHz; este equipo Hd
puede grabar hasta 192 kHz, cuatro veces más de lo que puede grabar el otro, por lo que puedo tener
sonidos más puros o menos recortados-. El equipo Hd puede ser mono, estéreo o multipistas; el de la
primera imagen es un modelo estándar mono/estéreo que graba hasta 192 kHz y el de la segunda imagen
es un modelo que graba en seis canales, una bestia de seis entradas para seis micrófonos diferentes.

Hd recorder

Un segundo grupo de equipamiento para sonido directo está constituido por los micrófonos. Si el micrófono
–que es el primer equipo del sistema en contacto con la voz humana y los sonidos– falla, es imposible
mejorar el registro, por lo que es un elemento fundamental en el proceso; después, puede ser

14
complementado por equipos más o menos eficaces… pero los micrófonos deben ser siempre mejores que
el resto del equipo para no tener un problema desde el comienzo mismo.

Micrófonos

Dinámicos
- Cardioides, omnidireccionales

De condensador
- Omnidireccionales, cardioides, supercardioides, hipercardioides

Piezoeléctricos
- Omnidireccionales, cardioides

La diferencia entre los tres tipos de micrófono tiene que ver con su construcción y su figura de captación del
sonido:

- Los dinámicos están integrados por una cápsula que en su interior tiene un solenoide, un bobinado de
alambre que, al moverse, transforma el movimiento en señal eléctrica (diferencia de potencial eléctrica).

- Los de condensador son dos placas que se polarizan con una diferencia de potencial constante
(phantom power + 48 V, usualmente), cuando una señal moviliza una de las placas se genera una
diferencia de potencial entre ellas que es análoga al sonido y es leída como señal. Éstos son mucho
más sensibles que los micrófonos dinámicos.

- Los piezoeléctricos no son muy usados; podemos verlos en algunos programas periodísticos, en la
mesa donde se reúnen varias personas, para tomar a todos con igual intensidad, con micrófonos
omnidireccionales.

Los micrófonos tienen distintas figuras de captación. Un micrófono omnidireccional capta sonidos que
provienen de todas las direcciones; así, independientemente de la ubicación del actor que habla dentro de
esa figura, su voz es tomada de la misma manera y suena siempre igual. Es el tipo de figura de captación
utilizada en los micrófonos inalámbricos; si así no fuera, el actor debería hablar dirigiéndose a ellos, lo que
resultaría un movimiento poco natural. Claro que estas posibilidades de captación omnidireccional
ocasionan un problema: el micrófono toma todo lo que sucede en ese radio, no sólo la voz que queremos
que aparezca sino absolutamente todos los sonidos que se producen en simultáneo.

Diagrama polar de un micrófono omnidireccional

Los micrófonos cardioides se denominan así porque su figura de captación tiene forma de corazón. Todo
sonido que venga de atrás –en la figura, de abajo– va a ser rechazado y todo lo que venga de adelante va a
ser captado. Estos micrófonos son interesantes si yo quiero tomar con un boom una manifestación de
cientos de personas, por ejemplo, ya que no sólo voy a tener el sonido que llegue directamente al eje del

15
micrófono, sino también el que llegue por sus lados, y porque puedo seleccionar qué información captar y
qué excluir (la exclusión no es total porque, aun con un nivel muy bajo, los sonidos van a registrarse).

Diagrama polar de un micrófono cardioide

Estas figuras de captación super e hipercardioide son muy eficaces porque para atrás y a los costados del
eje del micrófono casi no toman ningún sonido; así, son los más utilizados para registrar voces en una
filmación ya que tienden a suprimir los sonidos que no son a los que apuntan.

Diagrama polar de un micrófono supercardioide Diagrama polar de un micrófono hipercardioide

Es posible establecer un paralelo entre lentes y micrófonos: un teleobjetivo sirve para captar un detalle y un
gran angular para abarcar un grupo de cientos de personas; en nuestro caso, un omnidireccional es un
angular que capta mucho, todo… y el más tele de todos es el hipercardioide porque “enfoca” un sonido con
mucha precisión.

La elección de los micrófonos también tiene que ver con la situación. Para tomar voces lo más limpias
posible, es mejor un hipercardioide; pero, si estoy trabajando con un microfonista sin experiencia no se lo
voy a dar porque, si no mantiene el eje durante toda la toma, si mueve el micrófono, va a cambiar el
espectro de registro y el sonido va a quedar mal grabado. Si la escena se registra en una esquina de mucho
tránsito de Buenos Aires con dos personas hablando, aunque sea como sonido de referencia –y,
seguramente, va a terminar siéndolo– voy a preferir un hipercardioide. Si estoy registrando sonido en un
estudio con todo el mundo callado y sin que ningún utilero, vestuarista, maquillador… produzca ningún
ruido, con todo controlado, puedo usar un micrófono cardioide. Para grabar una manifestación voy a usar un
cardioide para que sea más amplio el espectro de gente a cubrir. Si estoy registrando el sonido de un arroyo
en el medio del campo, un omnidireccional sería bueno porque va a tomar todo lo que pasa alrededor;
excepto que tenga vacas a medio kilómetro y no quiera que esto se sepa, porque el sonido de ellas se va a
colar; entonces convendrá un hipercardioide porque va a registrar el arroyo y no tanto lo que está mucho
más allá de él.

16
Los micrófonos inalámbricos, por su parte, son los que se ubican entre la ropa de los personajes y, por
esto mismo –porque van a estar tapados por la vestimenta, y a estar afectados por la resonancia de la caja
torácica de los actores y por la ropa misma– no son preferibles respecto de un boom que cuelga de una
caña por sobre los actores de la escena. Ahora, cuando el plano es muy amplio y el boom va a verse, los
inalámbricos resultan la mejor solución. Un riesgo de los micrófonos sin cable es la interferencia, muy
común en un estudio o en una locación poblada de artefactos que podrían generarla. Y un sistema
inalámbrico con interferencia determina una grabación inservible, imposible de tapar.

Los VHF –Very High Frecuency– son los micrófonos más accesibles en cuanto a precio pero, también, son
los más problemáticos porque tienen interferencias casi constantemente. Los UHF –Ultra High Frecuency–
son profesionales y, como tienen una frecuencia más alta, son menos interferibles.

Los comunes –regular– tienen una antena y transmiten a una frecuencia determinada por lo que, cuando
ésta se corta, no hay remedio. En cambio, los diversity transmiten con dos canales y es posible evaluar con
cuál de las dos antenas se recibe mejor. Los true diversity transmiten a muy alta frecuencia, por encima de
los 900 MHz; así, son más estables y más confiables porque casi están libres de interferencias y porque
eliminan ruidos.

Micrófonos inalámbricos

Sistemas VHF
- Regular
- Diversity

Sistemas UHF
- Diversity
- True diversity

Las imágenes muestran el receptor y el emisor de un Lectrosonic 200 –no están en escala, el emisor tiene
menos de la mitad de tamaño–; el emisor es ubicado en lugares ocultos como alrededor del tobillo o a la
espalda del actor, o dentro de un bretel de corpiño –si la actriz tiene un vestido escotado y entallado–,
porque no deben verse. El receptor es portátil y puede ser montado, por ejemplo, en una cámara de video,
para un reportaje para un noticiero de TV o, simplemente, estar ubicado en el bolso de sonido.

Sistemas inalámbricos

Además de la tecnología de registro y los micrófonos, el equipo de registro de sonido directo incluye
montura y accesorios:

17
Montura y accesorios

- Caña
- Anti-shock mount
- Cinta transpore

La caña puede tener hasta cinco metros de longitud y es todo un arte del microfonista ejercitarse para que
sostenerla no le ocasione cansancio a lo largo de la toma –que suele durar unos tres minutos, aunque las
hay mucho más largas- y para que sus manos alzándola no produzcan ningún ruido que se cuele en el
registro. En general, las cañas son livianas, de fibra; existe un modelo estándar que no tiene cables para el
micrófono y un modelo con cables adentro, que no es recomendable porque estos cables producen ruidos
por roce que resultan amplificados y que suelen escucharse en la toma.

La caña sostiene al micrófono boom a través de una montura. Si ustedes analizan


Ruido es un
la imagen de la montura verán que el micrófono está suspendido con unas bandas
sonido que no se
que impiden toda fricción con otras partes del equipo (Si… ¡acertaron! Para que
puede controlar.
nada ocasione ruido). Nada en la montura vibra y el ajuste de los distintos
dispositivos es óptimo. Y es recomendable que el microfonista no lleve alpargatas
con suela de yute ni calzado muy duro porque va a generar ruido. Y otra cosa que
también puede ocasionar ruido es el desplazamiento veloz del micrófono, ya que el
aire influye sobre la cápsula y estos movimientos se va a registrar (Cuando el
sonidista dice: “Silencio, por favor”, es realmente Silencio).

Caña con montura para micrófono hipercardioide Senheiser MKH 60

En las imágenes siguientes se ve un zepelling, una estructura de plástico calada como una red para que el
sonido pase y para evitar que se grabe el viento; también se lo usa en situaciones comunes, para que el
micrófono no se rompa si llega a caerse. Y, en la otra, se ilustra una protección de micrófono windshield –
pariente cercano a Jazmín– para lluvia o vientos muy fuertes; sus pelos son tan tan finitos que permiten que
el agua se escurra por ellos sin afectar el sonido o afectándolo sólo un poco.

18
La cinta transpore es una cinta adhesiva hipoalergénica que sirve para pegar el micrófono al pecho del actor
para evitar que la ropa roce y haga ruido (hay que procurar que el pelo de algunos actores tampoco lo
genere).

Por supuesto que la disposición de este equipo requiere un ajuste a situaciones de filmación específicas.
Por ejemplo, ¿cómo registro un diálogo dentro de un auto? Ni aún siendo descapotable puedo usar caña
con boom, porque el ruido que genera el aire a la velocidad de desplazamiento del automóvil malograría
toda la grabación. Una solución puede ser la de poner a cada actor un micrófono inalámbrico y, aparte,
esconder micrófonos pequeños –también podrían ser inalámbricos, por su tamaño– dentro del auto,
cuidando que nada en el interior haga ruido. Y complementar este registro con un wild track que es el
grabado de los diálogos de los actores, luego de filmada la escena… 5, material que nos sirve para
reemplazarlos por si algo en el audio sale mal; y, finalmente, con una vuelta en el auto sin actores, para
grabar los sonidos del ambiente. Si estos registros no se hacen en el momento después, es muy difícil
lograr el mismo color de sonido… y empieza a resentirse la sensación de realidad; los actores están más
motivados, están juntos y eso puede ayudar a lograr un grabado de mejor calidad.

Hasta aquí me he referido al registro de sonido directo. Una segunda alternativa es registrar sonido de
referencia que sirve de ayuda para un doblaje y que se descarta luego. Así, al no necesitar tener las
mismas cualidades que el sonido directo, lleva un menor costo de producción porque no requiere tanto
cuidado en cada toma, no precisa estudios previos de locación y el equipo técnico es reducido, al igual que
la tecnología necesaria –con una caña y un boom es suficiente; en general, no son necesarios los
inalámbricos-.

De acuerdo con las características de la producción, la bajada de material de los equipos de registro a los
equipos de edición, se puede ir haciendo diariamente al finalizar la jornada –los dayly–; o, como alternativa,
una vez por semana o concluido el rodaje en el inicio de la etapa de posproducción.

///// Actividad 6

He descrito los grandes rasgos del equipamiento necesario para registrar el sonido de una película.
Ahora… No quisiera que ustedes se quedaran con la idea de que es imprescindible un equipamiento
ultrasofisticado para hacer una muy buena película.

Los invito a considerar un corto muy hermoso que, en lo que hace a sonido, sólo precisó de un
micrófono en caña:

− El murmullo de las venas (2003. Dirección de Sebastián D’Angelo. Argentina), una adaptación de
Bodas de sangre de Federico García Lorca.

5
Cuando registramos el sonido de Como pasan las horas (2004. Dirección de Inés de Oliveira Cézar. Argentina) sucedió algo así. En
esta escena, el auto etaba remolcado –a veces se opta por un camera car que es un planchón que carga al auto y lo transporta, y que
evita que el actor maneje–; pero, lamentablemente, en su interior una parte de plástico se movía: plac, plac, plac… y fue imposible
evitar este sonido. La actriz Susana Campos muere a las semanas de haber terminado la filmación; si no hubiéramos grabado esos
wild tracks, esa escena hubiera salido con los ruidos, dada la imposibilidad de doblarla en estudios.
19
Eleonora Wexler. Sebastián D’Angelo

Una vez bajado el material, comienza la tercera etapa el trabajo de un sonidista…

2. 3. Posproducción

Posproducción
Resincronización del sonido directo
Doblajes
Sonorización
Ambientes
Armado de bandas
Mezcla

Con la tecnología analógica anterior, los rollos de veinte


La sincronización imagen-audio es
minutos llegaban a la mesa de sonido y se sincronizaba la
parte del contrato audiovisual; si no
imagen con la banda de audio. Con la tecnología digital actual
está ajustado lo que se ve con lo que
ya no es necesario cortar con gillette la cinta para el sincro ni
se oye, nadie va a creer lo que está
pasar de cinta a cinta con la consiguiente degradación de
pasando en la pantalla.
calidad. Los medios digitales permiten que el sonidista reciba
un primer sincronizado sin que ningún paso anterior haya
malogrado algo.

La resincronización del sonido directo abarca:

- el armado de la banda de diálogos,


- la nivelación de estos diálogos,
- la inclusión de parches de ambientes.

La banda de diálogos es lo primero que se resuelve, porque la comunicación es vococentrista: la voz


humana es el componente central que condiciona todos los demás elementos de sonido –por supuesto hay
películas sin diálogo; pero, en un 99.99 %, es la variable más importante–. Supongamos que ponemos esa
voz a un nivel de presión sonora de 72 dB spl –decibeles spl sound preasure level (nivel de presión
sonora)– que garantiza una audición cómoda por el espectador, cuyo margen es entre 72 y 76; ese nivel es
el cero, y establece la medida de qué es lo bajo y qué es lo alto: debajo de ese nivel es lo que va a oírse
bajito –pasos en una habitación, por ejemplo– y por sobre él van los sonidos que taparán la voz –un disparo,
un tren que pasa al lado-. Este ajuste es lo que se llama nivelación. Un grito y un susurro, incluso a un
mismo nivel, podrán diferenciarse como tales, como grito y como susurro.

Los parches se usan para sonorizar planos que se han grabado sin sonido o para “emparchar” doblajes que
por ser grabados en un estudio, no tienen el room tone. Piensen, por ejemplo, que la escena del auto en
movimiento que describíamos hace un rato incluye un plano detalle del tablero; la filmación de ese plano no
necesita que los actores estén dentro del auto ni que éste se ubique en el camera car… puede registrárselo
20
en otro momento porque, seguramente, va a requerir otra lente y otra iluminación; pero va a suceder que
esa toma no tendrá sonido. Se ven los actores en el auto y se escuchan las voces de sus personajes y, de
pronto, se ve el tablero sin sonido. Para no distraer al espectador con ese silencio, es necesario incluir un
parche del sonido ambiente al plano detalle (¿Recuerdan que les conté del registro del ambiente durante
unos minutos, luego de la filmación, para conservar su room tone específico? De ese sonido surgen los
parches). Lo mismo va a suceder en un doblaje: puedo obtener un nuevo registro de la voz de los actores
pero deberá incluirse un parche del ambiente que remedie el silencio de fondo del estudio. Otra ocasión de
emparchar se da cuando un plano se ha grabado con la voz de un actor expresando un texto que, ahora, se
decide retirar de esa toma; el soft de edición me permite borrar la voz y nadie se va a enterar que alguna
vez allí se dijo algo, pero debo reemplazar el tiempo borrado con un parche de room tone del ambiente del
lugar.

Los doblajes, por su parte, se deciden de acuerdo con las necesidades estéticas del proyecto (Pensemos
en el ejemplo de Matrix donde las voces se grabaron en un estudio sin sonido ambiente) y, también, para la
corrección de errores del sonido directo.

En La velocidad funda el olvido, nuestro primer ejemplo, el personaje femenino, la madre de Olmo,
interpretado por la actriz española Uxia Blanco está doblado por una actriz argentina. La historia es la de
una mujer que abandona su vida y a su hijo, y se va a vivir a España. Inicialmente, se pensó que la actriz
podría copiar el acento del habla de nuestro país e, incluso, tuvo una coach para entrenarla; pero, no salió.
El productor me preguntó si se podía hacer algo con la voz y decidimos terminar de filmar con la actriz pero
doblarla por una argentina de voz similar en los tramos anteriores al exilio de su personaje. Y nadie se
enteró…

Les cuento otra anécdota de la historia del cine argentino: Luis Sandrini no se podía doblar a sí mismo; su
voz doblada era del sonidista Titón Castronuovo. A él debo el saber operar el Nagra y, cuando nos daba
clase nos imitaba la voz de Sandrini y le salía igual…

Y otra más: Película colombiana en la selva (Soñar


no cuesta nada. 2006. Dirección de Rodrigo Triana).
En Colombia fue un éxito de un millón setecientos mil
espectadores y acá pasó sin pena ni gloria. Un grupo
del ejército sigue un comando de las FARC y, en la
selva, encuentra cuarenta y seis millones de dólares
enterrados. ¿De quién es ese dinero? Ellos se lo
reparten y empiezan a gastarlo. Es un hecho real…
juicio incluido. En cada escena había cinco o seis
personajes, y entraban siempre los sonidos de la
selva… todo muy difícil. Entonces propusimos un
sonido de referencia y posterior doblaje. Pero, el
director no quiso aceptar la idea porque “no quería
perder la naturalidad de los actores” –que es lo que
dicen todos los directores–; entonces, le detallamos el equipamiento y el equipo de profesionales necesario
para registrar el sonido directo, y le sugerimos grabar a los actores por separado para resguardar cada voz
en un canal diferenciado. No hizo el registro con nosotros porque le pareció que resultábamos caros pero sí
nos encargó la posproducción de sonido. Termina la filmación y recibo los archivos. Cuando hago play en el
primer dat me quise morir porque estaba todo saturado y ese directo era imposible de usar. Finalmente, el
director –Rodrigo Triana un colombiano que estudió acá, en la ENERC– aceptó, luego de decir lo que
siempre dicen: “Pero… yo escucho bien” y se hizo el doblaje porque la gente de Dolby6 dijo que no servía
nada. Y, terminada la tarea, reconoció que el doblaje había quedado muy bien; incluso, se mejoraron
muchas actuaciones flojas que, en estudio, se lograron actuar mejor.

No hay que tenerle miedo al doblaje. Sí hay que tenerle paciencia al actor. Porque, si está acostumbrado, lo
va a sacar rápido; pero, si no es así, va a necesitar un poco de práctica. Yo hice un doblaje con un nene de
cuatro años que vive en Urribelarrea, cerca de Cañuelas; filmamos allí, en ese pueblo pequeño, y la parte

6
Que sea Dolby Digital significa que la cinta tiene una codificación entre perforaciones que será decodificada, leída sin distorsiones y
convertida a una señal sonora a transmitir por los parlantes. THX es una norma que se aplica tanto a Dolby como a DTS y otros
sistemas, inventada por George Lucas, que dice que si la película se proyecta en una sala THX, va a escucharse tal como se la
mezcló, porque ha de cumplirse con una determinada calidad de equipos en ese ámbito de proyección. También implica, por ejemplo,
que el aire acondicionado de la sala no molestará la audición del filme, que los parlantes serán los óptimos para las dimensiones
particulares de ese lugar, que la pantalla tendrá perforaciones para que por éstas salgan los tres canales de audio que se encuentran
en el frente de la sala, etc.
21
del nene quedó mal; pero, en el estudio, salió perfecta. En la segunda toma, Facundo ya había sacado qué
tenía que hacer y después hizo variantes de su texto. En él funcionó la no vergüenza…

¿En qué consiste el doblaje? En el estudio, una y otra vez, se escucha el audio de referencia de la partecita
a doblar (porque sin sonido de referencia sólo es posible doblar con profesionales que leen el movimiento
de los labios –como pasa con quienes hacen las voces en las series, con el plus del idioma distinto–, gente
con mucho oficio con quienes es buenísimo trabajar). Entonces, cuando el actor se ha familiarizado con qué
decir y entra en confianza, repite esa parte que se registra con las condiciones controladas del estudio,
superando esa vergüenza que el nene no experimentó y sin sentir presiones por tener que hacerlo rápido y
bien. Lo primero que tiene que lograr es el sincro; luego, con las repeticiones sucesivas, vendrán las
intenciones. Y a veces hacemos un engañito: “Hagamos una prueba más…”, le decimos, y allí grabamos y
es, finalmente, la voz que queda. Durante los ensayos, el sonidista va indicando “No te apures”, “Llegamos
tarde”… pacientemente, dándole seguridad.

El tercer momento de posproducción de sonido está dado por la sonorización y abarca:

- foley (sonorización en vivo),


- librerías de sonido.

Existen millones de librerías de sonidos; las hay muy buenas,


como la de la BBC de Londres, y muy completas como la
General 6000 Library –que hasta tiene el sonido de los anillos
de los Gemelos fantásticos–. Los grandes estudios como Sony
o Universal, por su parte, tienen sus librerías de sonidos menos
buenas pero útiles también.

Cuanto menos presupuesto se destina a sonidos originales en


vivo –foley–, más se deben usar los preformados; porque el
foley necesita una sala de grabación, un editor que vaya
mirando la escena y que vaya grabando todos los sonidos que
se producen en ella: un jean que viste el protagonista, sus
pasos, el roce de su espalda sobre un sillón, el apoyar de una
copa, etc (A propósito, ¿advirtieron que, en Matrix, el sobretodo
de Morfeo no suena? Imposible para un abrigo de cuero. O fue
una decisión estética o algo pasó con ese foley).

///// Actividad 7

En Réquiem por un sueño (Requiem for a dream. 2000. Dirección de Darren Aronofsky. EEUU) hay
una escena magnífica de fotomontaje que, en 15-20 segundos, cuenta con sonido qué pasa cuando
Harry, el protagonista, se inyecta heroína. Esta escena incluye sonido que no pertenece a la imagen
pero que se conecta o genera reminiscencias de lo que va viéndose.

22
El muchacho lleva a vender el televisor de su madre para lograr algún dinero con el que comprar
droga. A partir de aquí, las imágenes muestran células, una jeringa, un encendedor, un ojo que se
dilata. Mientras vemos las células de la sangre oímos el ruido de un torrente, que no es literalmente un
sonido del correr por las venas pero que se asocia con él. También otros sonidos que se
corresponden con movimientos de aire –el gas del encendedor– y de agua –la gota cayendo–, en
ataque eólico7 (los sonidos también podrían estar estructurados en función del timbre o en función del
ritmo… pero se optó por entramarlos por este ataque).

Terminada la narración del inyectado, vemos a su amigo Tyrone bailar; pero la música no arranca
exactamente con el baile: hay un aire de menos de un segundo que da idea de la heroína surgiendo
efecto. Incluso, el movimiento del muchacho no es al ritmo de la música, lo que redunda en la
representación de la droga haciendo efecto en él…

En este ejemplo podemos evaluar claramente que la función del sonidista es hacernos creer que está
pasando lo que pasa.

Si la visualizamos sin sonido… nos provoca algo muy diferente y limitado.

El trabajo de foley es muy creativo. Pienso en Ben Burtt, el sonidista de La guerra de las galaxias I (Star
Wars. 1977. Dirección de George Lucas. EEUU) y en cómo produjo el sonido de la navecita que usa Anakin
cuando es chico: descubrí que resultó ser el mecanismo de una grúa enrollando un cable de acero de dos
pulgadas. O cuando, en el segundo episodio, en una escena de persecución de naves espaciales en medio
de un campo de asteroides se escucha un magnífico sonido… que, estudiándolo, advertí que era el de un
guitarrazo con distorsión. También pienso en la primera persona que se puso a inventar cómo debía
escucharse un dinosaurio e hizo ensayos con un gruñido de un gato pasado a otra velocidad 8, o cómo se
oiría la piedra de una pirámide azteca de cuatrocientas toneladas al ser transportada, cuando ningún
contemporáneo escuchó nunca esos sonidos. Originalidad pura.

No se imaginan lo divertido que es hacer foley. En Epitafios sonoricé una escena en la que un médico
forense, Carlos Portaluppi, levanta una capa de piel en la autopsia de una persona a la que han,
literalmente, feteado. ¿Con qué sonido acompañar ese movimiento de sacar una capa de un cuerpo
muerto? Se nos ocurrió usar jabón líquido en mis manos que, al separarse, produjeron un sonido viscoso
que imaginamos como ajustado a un tejido humano que deja vísceras al descubierto. Se trató de probar,
probar, probar… Porque casi nunca el sonido que se escucha corresponde al objeto real; las pisadas reales
en el pasto se oyen feas: es más lindo hacer el ruido moviendo entre las manos la cinta que pertenecía a un
casete; y, para ruido de pisadas en hojarasca, nada mejor que sacar la cinta de un videocasete, formar un
bollo con ella y apretarlo. ¿Cómo suena un plano detalle de un encendedor que ocupa toda la pantalla?
Seguramente, la representación de semejante sonido no va a provenir de un encendedor real.

///// Actividad 8

Los invito a ver el corto de Claude Lelouch incluido en 11’-09’’-01. September 11 (2002. Francia, UK y
EEUU), película integrada por once cortos de alrededor de 11 minutos, a cargo de distintos
realizadores.

El corto de Lelouch me interesa muchísimo porque como la protagonista es casi totalmente sorda,
todos los sonidos del ambiente llegan al espectador del modo en que ella los escucharía. Así, el
ladrido del perro se oye como el ruido de una paloma y las notas del piano como sonarían en un
contrabajo.

7
Los sonidos de ataque eólico arrancan lentos y terminan con fuerza. En cambio, hay otros sonidos percusivos –como los de la tecla
de un piano–, que generan un sonido fuerte que va decayendo.
8
Supongamos que el maullido del gato es un sonido patrón. Puesto en el sampler, puede escucharse en do central del piano (C4),
pero también puede bajarse una octava (C3) o escucharse dos o tres octavas más abajo, convirtiéndose en un sonido tan tan grave
que remita… ¡a un dinosaurio! Esta posibilidad enorme está disponible en un Sampler.
23
También me resulta muy conmovedor cómo esta mujer percibe la música del piano con su cuerpo,
abrazándose al plano trasero del instrumento.

Y, finalmente, los invito a considerar aquí cómo el silencio resulta una herramienta importante para
generar sensaciones en nosotros, los espectadores.

En otro momento de posproducción corresponde trabajar sobre los ambientes, ya sea grabándolos –como
ya les expliqué, con caña en mano sin que haya ningún sonido extra– o creándolos en el estudio mediante
la combinación de diferentes materiales.

A ver… para crear el sonido ambiente de una escena que transcurre en una casa del conurbano, voy a
necesitar sonidos de ciudad pero menos presentes, con menos nivel, filtrados, porque suponemos que la
casa se encuentra sólo próxima a una avenida y no al lado; también voy a necesitar sonidos de árboles y de
vientos porque es probable que en una casa de este tipo se escuchen más; y, cada tanto, va a oírse un
auto. Así, mediante sonidos, contamos qué está pasando afuera, el off de esa escena, a cargo
exclusivamente del sonidista, porque esta información no está incluida visualmente en el cuadro.
24
La anteúltima tarea es el armado de bandas; en esta etapa se combinan los diálogos, la sonorización, los
ambientes, la música y los elementos generados en la etapa de diseño de sonidos. Ésta es la primera vez
estamos frente a la película más o menos acabada en lo que a sonido se refiere.

La etapa final es la de la mezcla de los diálogos, la


En general, la música no es tarea del sonidista,
sonorización, los ambientes, la música y los
excepto que el sonidista sea músico; la recibe
elementos generados en la etapa de diseño de
ya hecha y la incluye en la mezcla.
sonido. Aquí se termina de definir la nivelación final
de todos los componentes.

El equipo con el que trabajo tiene 32 canales; entonces, yo sé que no puedo tener más que esa cantidad de
componentes, pero, como por lo general una película lleva más de esa cantidad, lo que se suelen hacer son
submezclas: diálogos en un canal, foley en un par estéreo, ambientes en un par estéreo y la música. Estas
premezclas son para evaluar con el director y, si al director le parecen bien, armo una sesión con todos los
canales que, a veces, son 80 o 90 y pico, y los llevo a la sala de mezcla para una versión definitiva; en esta
versión, por ejemplo, ajusto la reverberancia de los doblajes que, como están hechos con un micrófono muy
cerca de la boca y en una sala especial, suenan de modo distinto que con un boom, también resuelvo los
paneos en tres dimensiones necesarios para su proyección en sala, la ecualización…

Entonces ponés play y cuando sabés que: Ésta es la película que yo quería, suena como yo quería que
sonara; hacés una bajada en un grabador multipista que registra la película de punta a punta en ocho
canales (6 para el surround y 2 para salas sin sistemas digitales o inclusive para TV) durante la duración en
tiempo real de la película, el DA-88.

Éste es el último proceso de sonido. Una vez entregado


Este sonido forma parte del campeón;
el DA-88, se transcribe a un disco magnético óptico para
porque la copia A, por lo general, no tiene
que el laboratorio haga un negativo de sonido y concluye
sonido.
el trabajo de posproducción de audio.

Hacia el borde izquierdo de cada fotograma, antes de las perforaciones, se encuentran las bandas de audio:
justamente dos líneas, dos bandas, que tienen “dibujado” todo el sonido en forma analógica. Y, entre las
perforaciones, se encuentra un cuadradito blanco lleno de puntos negros que es la información Dolby. Del
lado derecho hay una banda muy finita de time code, porque el sonido Sony viene en dos CD que están en
la sala de proyección que pasan información a la lectora respecto de a qué momento de la película
corresponde; en cambio el Dolby digital viene en la cinta.

25
Si la película tiene posibilidades de ser vendida a países de otras lenguas o fuese una coproducción entre
dos países de diferente idioma en los que se opta por el doblaje en el propio idioma y no por el subtitulado,
también se efectúa una banda internacional que reúne todas las bandas excepto la de diálogos (Les cuento
que el 95 % de las películas argentinas no tiene banda internacional).

:: 3. Un proyecto de sonido ::

Vamos a analizar un sistema de edición que se usa en la posproducción de sonido, el Pro tools©, que es el
que uso habitualmente (de todos modos, todos los software son muy similares entre sí, con sólo variaciones
mínimas en los nombres de los comandos. Mi preferencia radica en la sencillez y compatibilidad con los
estudios de mezcla).

La primera imagen en la que les recomiendo detenerse es la de “la consola” de un proyecto.

Intimida, ¿verdad? Todos los botones pueden hacer


Cada región de un canal contiene la imagen
pensar en un lío incomprensible; pero, si se fijan bien
del audio que nosotros tenemos en el
van a poder reconocer que la información está
proyecto, el gráfico de su señal sonora.
organizada por canales de audio donde vamos
incluyendo la información que ya hemos ido registrando.

Como éste es un sistema de edición no destructiva, siempre conservo el audio original que no va a
modificarse por ningún motivo. Si a ese audio le realizamos un proceso –le subo el nivel, le pongo un
compresor…-, se genera un nuevo archivo procesado pero guardando el archivo anterior. Por supuesto, si
es mi intención destruir un archivo innecesario –el de un sonido de referencia que ya se ha doblado, por
ejemplo–, también puedo hacerlo si le doy la indicación y si la confirmo.

Observen que, entre los canales es posible reconocer monos, identificados con una rayita, y estéreos,
señalados con dos rayitas. Estas rayitas son los boométros que nos permiten ver cómo oscila
dinámicamente la señal: Cuando el canal pasa del nivel cero, se marca en rojo para avisarlo y esta

26
indicación puede quedar prendida como alerta para que el sonidista realice un ajuste que evite una
saturación digital que arruinaría el registro.

Todos los canales tienen la posibilidad de automatizarse; así, cada acción que hagamos sobre el canal –por
ejemplo, subir o bajar el nivel– puede compensarse. Veamos un ejemplo de representación gráfica de la
señal eléctrica –que registramos en un disco digital– de los sonidos que escuchamos.

Esta curva es una locución: el registro de arriba, el violeta, es sumamente parejo porque corresponde a la
voz de un locutor profesional; en cambio, el verde grafica las palabras de su entrevistado, las que vemos
desarrollarse en un nivel regular pero que, en un punto determinado –porque le da vergüenza lo que va a
decir o porque está al final de una idea– cae. Entonces, es necesario compensar esa caída. Pensemos en
que el entrevistado tosa ruidosamente; por supuesto, no vamos a poder retirar el sonido porque en la
pantalla se lo va a ver tosiendo pero, cuando se pone rojo el peakómetro (peak meter o medidor de picos)
avisándonos que se superó el nivel máximo, podemos redibujar la curva, de modo tal que esos picos de la
tos se suavicen y no modifiquen el nivel de toda la escena.

Acá vemos el mismo texto hablado; en el primer caso, registrado con muy buena calidad; la forma de las
ondas es aleatoria porque eso tiene que ver con cómo vibra el sonido. Si, para retocar un sonido, cortamos
esta representación gráfica en cualquier nivel que no sea cero –que es la línea central–, vamos a generar un
ruido muy feo (que, tal vez, ustedes hayan escuchado si filman en video); es el sonido provocado por una
onda que no termina en cero: el ciclo de la onda empieza y termina en cero, siempre. En el segundo caso, el
mismo texto está registrado con saturación digital –nosotros le decimos Toblerone porque parece una barra
de ese chocolate–, con ondas que terminan de modo recto, abruptamente, porque más allá de allí no hay
más información registrada (¿Recuerdan que señalábamos a ésta como una de las debilidades del registro
por medios digitales? El equipo graba hasta cierto nivel pero, más allá de éste, ya no existe nada; si
digitaliza hasta diez, un nivel once no es tomado ni el quince, ni el doce… todos los sonidos son registrados
como pertenecientes a ese nivel diez, lo que genera armónicos impares que son los que nos dan como
resultante de su suma esta onda cuadrada).

27
Como ustedes pueden ver, en este tablero todo es cuestión de orden. La próxima imagen muestra el trabajo
de edición de sonido de un documental de 26 minutos, media hora televisiva; es probable que, a lo largo de
la etapa de posproducción de sonido, haya llegado a ver unas ochocientas veces este corto; entonces, en
un momento uno deja de percibir componentes, datos… Se hace importantísimo, entonces, que todo el
material esté ordenado aquí, para acceder rápidamente a él y que nada se pierda. Por ejemplo, uno de los
archivitos es sonido de agua golpeando la costa y yo tengo que ubicarlo muy bien para cuando tenga que
integrarlo.

28
Un canal celeste es de locuciones y entrevistas. Los canales azules dicen Fx, efectos de sonido. Los
amarillos son de música –tres tracks que me acercó el músico, y un cuarto que se llama sub-master que
sirve para bajar o subir el nivel general de ellos–. El séptimo y el octavo son ambientes. Dos canales
violetas son de instrumentos virtuales –es un canal relativamente nuevo en Pro tools– para utilizar con
sonidos sintetizados, es decir no reales o sampleados, inclusive emuladores de instrumentos reales.
Entonces, sé bien donde ubicar un registro de pasos o la rotura de una copa, y así con toda la información
que voy necesitando incluir en el corto.

La pantalla de herramientas permite lograr todo lo que necesito respecto del sonido de un filme (Les cuento
que todos los programas tienen las mismas herramientas).

La primera herramienta corresponde a los cuatro modos de operar:

- slip permite que tome cualquier región –los sonidos son representados en regiones que contienen la
imagen que los representa– y la mueva libremente, sin restricciones;
- shuffle; si reubico una región, todos los componentes que están a continuación de ella, también se
mueven; ésta es una herramienta con cierto riesgo porque, por ejemplo, si muevo un diálogo, con él se
van a mover los siguientes, hasta el fondo del canal y voy a desincronizar todo; se puede bloquear para
no utilizarla por error–;
- spot permite definir dónde se quiere ubicar un archivo y definir con precisión este sitio a través de, por
ejemplo, un tiempo absoluto, un compás o inclusive hasta en samples–;
- grid que restringe los movimientos a una escala en particular; si estoy trabajando en frames no me va a
permitir mover nada a menos de un frame; esto, al trabajar en música es muy cómodo, porque yo puedo
querer ajustar un compás y mover las regiones sin que se me vayan de tempo.
En la barra de herramientas siguen cinco números que indican cinco niveles de zoom preseteados y las
flechitas de los costados achican o agrandan la porción que yo veo del timeline (la línea de tiempo es donde
se compone todo el armado de bandas); existe también la posibilidad de ampliar una onda de un sonido que
se haya grabado muy bajito y cuya representación, por ende, nos dificulta cualquier edición, más allá de que

29
esa ampliación no implica que tenga más volumen… sólo amplío su visualización para trabajar mejor con
ella; y también la opción de ampliar o achicar notas, por ejemplo de los instrumentos virtuales de los que
hablábamos.

Y, luego, tengo disponibles herramientas agrupadas por un recuadro celeste. El trim me permite “recortar” la
región con la que estoy trabajando, ajustando ese campo de “imagen del sonido” para escuchar más o
menos de ola región. La segunda herramienta es un cursor con el cual indicar desde dónde quiero, por
ejemplo, que haga play la máquina, que se complementa con una manito que me permite abarcar una
región completa. Ustedes puede observar que de cada una de estas herramientas se despliegan otras; por
ejemplo, desde el trim se tiene acceso a un trim combinado con un parlantito que me permite escuchar
cómo suena el punto con el que estoy trabajando, similar a la herramienta del parlante para hacer scrub –
que es equivalente a cuando un disc jockey hacía girar el disco lentamente para ubicar el punto exacto
donde arrancar–. El lapicito me permite retocar ondas; por ejemplo, si el sonido viene mal cortado desde el
AVID –o desde cualquier otro sistema de edición, ya que en éstos no hay posibilidade de hacer cortes tan
finos–, los sonidos pueden venir bajando y, de pronto, cortarse abruptamente… entonces, con el lápiz
completo el trazo del flanco para que el sonido termine en cero.

En la imagen de abajo, a la izquierda, vemos una consola mezcladora, para armar la sesión cuando ya
dispongo de todos los archivos ordenados. Antes de este paso, los sonidos tienen mayor o menor nivel;
entonces, lo que necesito es que toda la obra suene homogénea, como requisito fundamental para que el
espectador crea que eso que está oyendo está pasando.

Lo principal de una consola mezcladora es lo


que se llama módulo, el canal por donde
pasa la información. Éste es un módulo en
cualquier consola de cualquier programa. ►

Tiene una entrada que provee información


respecto de dónde proviene una señal. Esta
entrada puede ser externa si, por ejemplo,
tengo conectado un micrófono y, en tal caso,
diría “Canal 1”, “Canal 2”; pero, aquí, como
estamos en una sesión de mezcla dice “No
input”.

Un módulo también tiene una salida. Yo,


como les contaba, para tener todo ordenado,
mando efectos y ambientes a un submáster,
y puedo controlar su volumen general; así, si
quiero que todos los efectos bajen, no tengo
que bajar el nivel canal por canal, de los ocho
canales que contienen efectos, sólo es
necesario que baje el submáster. O, si la
música está muy alta, con el track amarillo
que les contaba y que es el submáster de la
música, puedo controlar todo en un paso.
Entonces, esta salida me permite indicar a
dónde quiero mandar la información –a
efectos, por ejemplo–.

También tiene un botón para automatización


que tiene varios estados – en Pro Tools
todos los parámetros son automatizables,
desde el nivel de un canal, su paneo hasta
cualquier control de cualquier plug-in.

Para manejar esta opción, el sistema tiene varios modos: off –para que no preste atención a ninguna
modificación–, read –que nos indica que está leyendo toda la automatización y la ejecutará en el momento
en que yo ponga play–, touch, write y latch –que son los tres modos para grabar la automatización–. A
través de la automatización, puedo dar a los valores atuomatizables el efecto que quiero en el momento que

30
decido. Una manera es cargar la línea, y dibujar los puntos con el lapicito o con la mano, evaluando cómo
varía; otra manera es hacerlo con la consola física. Mientras voy tocando y moviendo puedo ir grabando en
play automáticamente –touch–; la automatización también puede grabarse borrando todo lo que quedó atrás
–write– o puede no pasar nada hasta que yo lo toco y, en ese momento, sí, grabarlo todo –latch–.

Otra decisión es la del paneo –pan– que me permite decidir en qué lugar del espacio estará el sonido que
estoy escuchando. En mono no existe esta posibilidad porque no puedo enviar un sonido a otro lugar,
porque tengo un solo canal; en cambio, en estéreo puedo decidir si se oirá a derecha o a izquierda. Y, en
surround o 5.1, puedo elegir un punto de un círculo que está representando la sala de proyección con sus
tres parlantes centrales y su línea de parlantes laterales; un punto rojo va a indicarme desde dónde llegará
al espectador ese sonido específico. Otro control es el “solo” que, como su nombre lo indica, sirve para
escuchar sólo ese canal –solo, que no es automatizable–; también, hay otro conrtrol que nos va a servir
para no escuchar algún canal o alguna región –mute, que sí puede automatizarse–. Y cuenta con la
herramienta fader –que algunos sonidistas llaman remo– que permite dar más o menos nivel a la región de
audio que se encuentre en el canal, como este valor es automatizable, puedo tener diferentes niveles a lo
largo del tiempo, ese 2,7.

Entonces, una señal ingresa en el módulo, entra en el procesador, es procesada y sigue por el canal.
Imagínense el canal como un caño de agua; si yo tengo un caño que entra, le pongo un codo, lo tapo;
el caño pasa por una ruedita con un motor, pega la vuelta y sigue… El agua llega debilitada porque
pasó algo en el medio; la señal de sonido no llega debilitada pero sí diferente y, desde allí, sigue su
trayecto por el canal. A este recorrido lo llamamos de asignaciones para envíos –buses–: La señal
llega y se copia en un determinado lugar.

Pensemos lo útil que es esto para entender el efecto de reverberancia –reverb–; si yo


pretendo que una voz grabada en un estudio se oiga como pronunciada en una sala de
mármol9, voy a tener que agregar un efecto reverb a esa señal, aplicarle un bus; entonces,
copio esa señal en un canal que tenga el efecto reverb cuyo fader me indica qué cantidad de
reverberancia puedo agregar al sonido.

Ahora, cuando no se trata de agregar sino de cambiar la dinámica de un sonido, uso esto: ►

Vemos cinco insert y cinco envíos. Los insert son para trabajar, justamente, sobre la dinámica
de la onda, sobre cuánto varía la onda en nivel: ►

:: 4. Problemas a resolver ::

¿Cuáles pueden ser las dificultades con que un sonidista se encuentra habitualmente? Uno de las más
comunes es que el registro contenga un ruido que no le interesa mantener. Supongamos que grabé un
ambiente residencial y, a unas siete cuadras, hay una avenida, por lo que se escuchan coches todo el
tiempo; además, cada tantos minutos pasa un tren. Mi registro se llena, entonces, de sonidos indeseados,
en general, graves.

Para resolver esta dificultad decido que no quiero escuchar todo lo que suene grave. Y, para esto, necesito
ecualizar:

9
Una pared de mármol refleja a full un sonido, por lo que decimos que es una superficie brillante; una pared de concreto normal sólo
refleja algo por su porosidad y una pared que adelante tiene un telón tiende a no reflejar. ¿Por qué? En este último caso –dicho muy
sencillamente– el sonido va hacia la pared y se queda chocando, rebotando, contra los pliegues del telón. En los estudios de grabación
se usan paredes que, en el medio, tienen lana de vidrio, para que el sonido ingrese en este material que, como es muy poroso, lo
retendrá, disminuyendo la fuerza del sonido para salir. Lo mismo sucede con un revestimiento de cajas de huevo o de madera blanda
(antiguos métodos de acustización…): el sonido se queda rebotando entre los huecos de la superficie, por lo que no sale con tanta
fuerza y, al no haber reflexiones, es como si se perdiese la reverberancia.
31
El ecualizador sirve para enfatizar o para disminuir frecuencias que yo quiero escuchar más o,
directamente, preferiría no escuchar. Si se fijan en la escala, advertirán que ésta va de 20 Hz a 20 kHz, es
decir que abarca el espectro audible y que se extiende de +18 decibeles a -18 decibeles, un amplísimo
rango que permite muchas variaciones al momento de ecualizar.

En este ejemplo, se trata de una locución a la que quise dar un poquito más de brillo en casi 3 kHz y le di
sólo 1,6 dB (Los 18 dB se usan para que tienda a desaparecer por completo algo que estoy filtrando). El
problema de esta locución era que estaba empastada en graves y, como yo sé que debajo de los 80-100 Hz
en la voz humana común no suele haber mucho y encima esto está predestinado a la televisión, que no
suele reproducir esas frecuencias, salvo que lo tengamos conectado a un sistema de audio –excepto el
“caño” de voz de un locutor profesional–, le puse un filtro HPF –High Pass Filter– que me atenúa los graves
que sobran. De un límite que yo fijo para abajo, todo sonido se atenúa muchísimo, casi hasta desaparecer.

Vamos a ver esto con más detalle en un HPF. Lo que está dibujado en violeta se modifica y deja de
escucharse porque se encuentra por debajo de los 420 Hz que fijé como cero. Como los filtros son
eléctricos no cortan en recto –los de primer orden cortan 6 dB por octava, los de segundo orden 12 dB por
octava y son comunes los de hasta cuarto grado–; así, para que corten recto tendrían que ser filtros de un
grado altísimo.

32
¿Para qué sirve un filtro como éste? Para eliminar la frecuencia grave que me está molestando, por
ejemplo. O para cuando grabo un lugar que viene con el típico ruido de la corriente eléctrica a 50 Hz;
entonces, si le pongo un filtro a 100 Hz, puedo “limpiar” el ruido de la estática, algunas molestias del
ambiente y no estaré modificando sustancialmente ninguna voz normal y podré evitar el ruido; ya a los 50
Hz me aseguraría limpiar el registro con ruido.

El filtro inverso es el LPF –Low Pass Filter–. Si el registro tiene un sonido brillante que no me aporta nada,
que no suma y que genera “fritura”, le pongo este filtro que atenúa todos los valores desde un punto que yo
fijo, para arriba –otra vez lo atenuado está definido con color violeta–, por lo que esos sonidos van a
desaparecer.

El Band Pass o Bell –por la forma de campana con la que opera– es un filtro “entonado” que permite
establecer en qué frecuencia se va a subir o bajar un sonido. Por ejemplo, cuando necesité dar un brillito
extra a la voz moví la frecuencia central hasta casi 3 kHz y la ganancia la puse en 1,6; esta acción me está
dando una campana un poco más bajita que la que se ve en la imagen, que es lo máximo que puede
trabajar un filtro.

33
Ahora, supongamos que yo necesito algo más angosto. Por ejemplo, tengo grabada una batería con un
micrófono registrando el tambor; pero, al lado del tambor está el high-hat (el platillo también conocido como
charleston), el redoblante, por lo que, por más que el micrófono apunte al tambor sale el sonido de al lado.
Lo que es preciso hacer, entonces, es incluir un filtro al micrófono del tambor y buscar el high-hat y bajarlo al
mínimo posible, para que su sonido sólo sea registrado por su micrófono particular –si no, también lo estaría
haciendo por el micrófono del tambor, sumando sonidos–. Como no quiero afectar al tambor, lo que tengo
que hacer es acortar el ancho de banda para excluir lo que realmente me molesta: la presencia del high-hat
en el micrófono del tambor10.
Por último, está el filtro Low y High shelving que permite subir o disminuir los sonidos graves, y subir o
disminuir los agudos. Es un filtro muy común, integrado a la mayor parte de los equipos de sonido; en
algunos de estos equipos, incluso, se puede definir a partir de qué frecuencia hacer los cambios: si yo subo
el low, de 1 kHz para abajo todo sube y todo baja. Así, enfatiza o disminuye todo un archivo sin tener
mayores requisitos de precisión.

10
Por supuesto, esto se logra con años y años de práctica. Como aquí estoy planteándole conceptos básicos, le recomiendo la lectura
de El arte de la ecualización.
34
Además de los ecualizadores, otra gran herramienta para la resolución de problemas de sonido son los
compresores, los que resultan muy útiles cuando es necesario trabajar sobre la dinámica de un sonido; por
ejemplo, cuando un actor habla bajito y, sin que el diálogo lo demande, de pronto alza la voz, se hace
necesario trabajar con este desnivel. De modo que lo que se ha dicho bajito se escuche y lo que está
hablado fuerte no sature.

Éste es un compresor estándar en el que es posible reconocer seis perillas. La más importante es la de
thresh –threshold, umbral– que indica a partir de dónde el compresor empieza a actuar (en el gráfico, este
umbral está indicado por la línea amarilla-naranja): Cuando un sonido pasa este nivel, el sistema va a
empezar a comprimir de acuerdo con una razón –ratio– determinada; por ejemplo 4:1, que quiere decir que
por 4 dB que el sonido sobrepasa ese umbral, el compresor nos va a entregar 1 dB; así, el sonido es
escalado con una razón fija.

En el gráfico puede verse que la curva viene subiendo recta, hace 45º y, luego, se aplana; éste es el
resultado de la acción del compresor: la curva se va a achicar para que quede parejo.

Consideremos este caso en el que se ilustran mezclas terminadas. El canal verdecito es el de la voz del
locutor; si ustedes analizan la dinámica, van a advertir que es muy pareja, ya que la mezcla se ha
comprimido para salir al aire y que no se registren momentos en que la voz se percibe más alta o más baja.

35
Ahora, ¿cuál es el problema del uso de un compresor? Si pongo muy bajo el umbral, el sonido alto se
comprime muchísimo y se podría escuchar como si estuviese distorsionado. Entonces, es necesario buscar
un punto intermedio que sepamos que va a bajar los picos muy altos y va a mantener el resto en un buen
nivel.

El otro riesgo es que, al comprimir varíe la cualidad del sonido. Porque los sonidos tienen un ataque y una
extinción que es necesario mantener. Por ejemplo, si yo escucho un bombo, este instrumento tiene un
ataque fuerte que se va extinguiendo rápidamente; si yo comprimo el sonido del bombo de tal manera que
ataque y extinción varíen a un mismo nivel, ya no va a sonar como bombo sino como algo raro;
seguramente, va a remitir a un bombo pero ya no va a serlo. Para que la cualidad de un sonido no varíe
existen las opciones attack y release; la primera permite ajustar cuán rápido va a actuar el compresor y la
segunda cuánto tiempo se dejó comprimiendo, una vez que bajó el umbral –porque, en el caso de un sonido
percusivo, si apenas volvió a bajar se deja de comprimir, todo el sonido que quedó abajo sube; entonces, la
sensación que queda es que la resonancia (que es lo que se va apagando más lentamente) es más fuerte
que el sonido en sí del golpe; lo que tengo que hacer es indicar con release que la liberación del compresor
sea más larga a pesar de que se haya bajado el umbral–.

La llavecita No key input resulta útil, por ejemplo, cuando tengo un locutor hablando y una música de fondo;
si se ubica la señal del locutor donde dice key, cada vez que el locutor hable va a comprimirse la música 11.
Esto sucede muy frecuentemente en los programas de radio; en cine, puede resultar útil para
despreocuparse por dar un nivel a la música de fondo porque aunque por lo general no se utiliza, cada vez
que alguien empieza a hablar, la música baja, y, cuando el personaje termina de hablar, la música vuelve a
subir al valor que estaba previsto.

11
Una recomendación al margen: Jamás de los jamases va a quedar bien una música cantada como fondo de una voz y mucho menos
si es una canción conocida; porque si la canción le resulta familiar al espectador, éste va a dejar de prestar atención al diálogo entre los
personajes para atender a la letra que conoce y al ser una melodía súperconocida, va a ser casi imposible editarla, imagínese que a la
tercena nota de la quinta sinfonía de Beethoven corto y le pego el principio del segundo movimiento...
Y también hay que tener cuidado en integrar una música conocida aún cuando no esté cantada. Me pasó en una ocasión en que el
director de la película propuso incluir la Marcha rusa –que ustedes identificarán seguramente, con el programa de TV Chachachá de
Alfredo Casero–. Cuando cerraba la secuencia que era necesario musicalizar, la música terminaba abruptamente. Y esa sensación de
“algo conocido inconcluso” resultaba tremendamente molesta y desconcentraba a los espectadores que pensaban que algo raro había
pasado con la edición –aún cuando ésta estaba bien hecha-.
36
La tercera herramienta en que deseo detenerme –
Recuerde que éstos son efectos de producción
además del ecualizador y del compresor– es la
sobre sonidos grabados. Lo que no se grabó no
reverb, que permite generar reverberancia,
existe, por lo que yo recomiendo grabar plano
simulando las reflexiones de un ambiente real para un
en las mejores condiciones posibles de registro.
sonido que tal vez está grabado en un estudio o,
simplemente, para dar un efecto.

Consideremos algunos controles: Input, por supuesto, es el nivel de entrada. Mix indica la relación de
mezcla entre el sonido limpio y aquel procesado; un sonido dry –seco– es un sonido sin reverberancia y un
sonido wet –mojado– es aquel que sí la tiene, porque ha rebotado en lugares específicos.

A diferencia de la ecualización y la compresión, esta herramienta opera con envíos; la diferencia radica, que
los procesadores dinámicos actúan sobre la dinámica de los sonidos y los procesadores de efectos como la
reverb entre otros. Para el envío, copio el sonido y lo mando a otro canal, donde tengo asignada la reverb,
para poder elegir si quiero más voz del personaje o más reverberancia del lugar: Si en la escena el
personaje se aleja hablando, la reverb del lugar se va a notar más y el espectador va a tener la sensación
de distancia –porque la voz va a chocar en otro lugar antes de llegar a sus oídos–. Como tengo una copia,
elijo cómo va a escucharse en envío con reverb y elijo la cantidad de rebote que necesito.

Hay dos bus a reverb, lo que implica que las señales pasan por esta herramienta. Por un lado tengo el
sonido –que puedo elegir poner más alto o más bajo– y, por otro lado, tengo reverb –que me permite elegir
más sonido directo, menos sonido directo–:

Mis decisiones pueden automatizarse: Supongamos que del minuto 2.50 al 3.40 tengo la misma esfera y,
por lo tanto, la misma reverberencia que he definido especificando los parámetros del sitio. Ahora, si la
siguiente escena es la de un actor hablando en un microcine, no va a necesitar reverb; pero, sigamos
suponiendo que el plano corta y el actor ha entrado en una gran sala con vidrios y sigue hablando… aquí
debo usar otro algoritmo (es el programa que le dice a la reverb cómo calcular las reflecciones) con las
nuevas cualidades de rebote del sonido en ese lugar –large porque es un espacio grande–. Todo esto

37
puede automatizarse al especificar los valores de reverberancia en cada uno de los lugares que la escena
va abarcando.

Para operar con la reverb, uno de los parámetros – que sin duda es automatizable – es la diffusion, que
define la brillantez de las paredes; como decíamos, una pared que difunde mucho un sonido es una pared
brillante y, cuando no lo difunde, es una pared opaca. Difussion, entonces, permite precisar la reflexión del
sonido en una pared.

Otro de los parámetros es el decay, que maneja el tiempo que tarda un sonido en dejar de reverberar, es
decir cuánto tiempo tarda en caer 60 dB –RT 60–: Si yo bato palmas en un lugar acondicionado como
auditórium, el decay va a ser muy corto; si lo hago en una catedral, el sonido va a quedar un ratito vibrando
en el aire. Este dato nos va a hablar, también, de las dimensiones del sitio donde ocurre el sonido y de la
brillantez de sus paredes. Entonces, si tiene un decay muy muy largo, voy a obtener un sonido que podría
transcurrir en una caverna donde quedó resonando (Un “Hola” que se escucha como “Holaaaaaaaaa”
porque esa última vocal queda colgada allí, por ejemplo).

También tenemos la posibilidad de ajustar un predelay, el tiempo de arribo de las reflexiones tempranas. A
ver… en un cuarto uno de los personajes habla y el sonido que emite golpea contra la pared y vuelve. El
sonido reflection es el primero que llega, lo hace de forma más directa; pero hay algunos sonidos que no
vuelven: se emiten, golpean contra la pared y no llegan. Entonces, este parámetro considera la distancia
que tenemos respecto de una pared y el tiempo de escucha.

Finalmente, tenemos dos filtros para manejar, por ejemplo, sonidos muy graves o muy agudos que quedan
resonando y que se escuchan muy feos, casi como ruidos.

Deseo mostrarles, para concluir, cómo se ve una sesión de master:

Aquí hay varios submaster: música, efectos, reverb, reason –que es el instrumento virtual que uso– y dos
master: bi, banda internacional, y full mix que es el programa completo. Usted puede advertir que tuve que
subir la música porque había quedado baja, bajar los efectos porque estaban muy fuertes…

38

Das könnte Ihnen auch gefallen