Sie sind auf Seite 1von 90

SONIDO 1 2016

Apuntes de clase de:

CÁTEDRA SONIDO 1

DEPARTAMENTO DE ARTES AUDIOVISUALES

FACULTAD DE BELLAS ARTES

UNLP

Autor: José “Pepe” Rusconi

Versión 5.1
SONIDO 1 2016

Clase Nº 1 del 4 de abril

Facebook: catedraoficialsonido1

El sonidista debe ver cuáles son los mejores sonidos para contar una
historia, transmitir emociones, etc.

Página 1 de 90
Apuntes de clase de Sonido 1 de José "Pepe" Rusconi - versión 5.1
SONIDO 1 2016

Clase Nº 2 del 8 de abril

Director de Sonido.

Es responsable de la totalidad de la banda sonora.

 Guión G / Gestación,
 Pre – Producción,
 Rodaje,
 Post – Producción.

Efectos (no son ambientes, ni Foley, ni música. Ej. Motor del auto)

 Ambientes
Efectos  Foley (en las acciones de los personajes)
 Efectos (no son los ambientes ni los Foley ni la música. Ej.
Motor de un auto
El sonido no es lo mismo que el ruido.

 Blanco,
Ruido  Rosa,
 Marrón.

Página 2 de 90
Apuntes de clase de Sonido 1 de José "Pepe" Rusconi - versión 5.1
SONIDO 1 2016

Clase Nº 3 del 11 de abril

Equipo Técnico.

Un jefe de sonido va a estar grabando fondos. El Microfonista selecciona


los micrófonos que se van a usar.

El micrófono principal debe ser el mejor de todos. También suele ser el


más caro. Además conviene usar corbateros.

Hay que grabar los sonidos de cada micrófono en un canal distinto.

Como conviene grabar? En un sistema simple o uno doble?

Sistema Simple: La cámara graba imagen y sonido. Esto no quiere decir


que se use el micrófono de la cámara.

Sistema Doble: La cámara captura imagen y hay un equipo de captura


de sonido.

Son distintas pero no se puede decir que uno es mejor que el otro. Existen
ventajas y desventajas.
Página 3 de 90
Apuntes de clase de Sonido 1 de José "Pepe" Rusconi - versión 5.1
SONIDO 1 2016
En el simple la ventaja es que hay sincro y no es tan caro. La desventaja
es que el equipo de sonido depende de la cámara (y, en todo caso, de la
buena voluntad del camarógrafo).

En el doble, el equipo de sonido, tiene independencia.

Hay que evaluar en cada situación que es lo que resulta más práctico. Si
se está haciendo una entrevista lo que resulta mejor es el simple. Si fuese una
escena donde hay un grupo y se acerca otro personaje, hay que ir al doble.

El Cableman es quien tiene que estar atenta a sacar las tarjetas,


identificar los sonidos con las escenas, arreglar cables, solucionar ruidos y
reemplazar.

Pre – Producción

Evaluación de locaciones:

 Insonorización (aislación de ruidos extremos)


 Acondicionamiento acústico (control de reverberación).

Este tema se analiza y soluciona en las locaciones.

Elección y prueba de equipos de sonido y metodología de trabajo.

El equipo debe ser probado para saber si anda bien. Se deben probar las
cámaras para ver si hacen ruido.

Post – Producción.

Una película se resuelve en la Post – Producción. Hay que tratar de hacer


el rodaje lo mejor posible. Todo lo que deba corregir en la Post –Producción
insume tiempo.

Page to Page

Es la interacción con las distintas áreas para ver las dificultades puntuales
a resolver.

Edición de diálogos:

Se hacen modificaciones para dejar más limpio el texto. La respiración, a


excepción de que sea importante como en una película de terror, se elimina.
Página 4 de 90
Apuntes de clase de Sonido 1 de José "Pepe" Rusconi - versión 5.1
SONIDO 1 2016
Hay películas que, aunque con ausencia de diálogo, hay mucho sonido.

Cuando se hace el casting, o sea, cuando se ven las locaciones,


conviene identificar y capturar sonidos.

Página 5 de 90
Apuntes de clase de Sonido 1 de José "Pepe" Rusconi - versión 5.1
SONIDO 1 2016

Clase Nº 4 del 18 de Abril

Para que exista sonido, necesito:

1. Cuerpo vibratorio,
2. Medio,
3. Receptor (en la percepción hay un actor interpretativo).

Se dice que cuando se encuadra se esconde. Esto es porque se deja


fuera de cuadro a muchas cosas.

En el sonido es diferente, no se puede esconder. No todo lo que vibra es


sonido ni todo sonido es vibración. El rango que puede escuchar el oído
humano se llama espectro audible.

El espectro audible del ser humano va desde las 20 a las 20.000


vibraciones por segundo.

Hay micrófonos que son hidrófugos para gravar debajo del agua.

En toda vibración hay un uso de energía.

Intensidad, volumen, nivel y sonoridad son sinónimos. Pero luego vamos a


ver que este último concepto es diferente.

Entender que el sonido es un conjunto de vibraciones nos permite


entender cómo debo grabarlo.

El oscilograma es un gráfico que muestra las vibraciones. Cuando se


golpea una pared se produce un sonido porque se mueven las partes que lo
componen. Lo hacen en forma ondulatoria.

Onda Senoidal o Sinusoidal

Página 6 de 90
Apuntes de clase de Sonido 1 de José "Pepe" Rusconi - versión 5.1
SONIDO 1 2016
La frecuencia es cuantas veces se repite el mismo evento en una
cantidad X de tiempo. En el sonido, cuantas vibraciones por segundo.

Herts estudia esto. Una vibración por seg. = 1 Hz

20.000 vibraciones x seg. = 20.000 Hz o, 20 KHz.

La amplitud es la máxima elongación de la onda sinusoidal.

La sonoridad es la sensación de volumen recibida.

El volumen es la cantidad de energía necesaria para llenar un recinto.

El nivel de señal se mide con instrumentos. La sonoridad no.

La frecuencia va asociada a la tonalidad (agudos, medios y graves).

Cuando más cerca de los 20 Hz, más graves. Si más cerca de los 20 KHz,
más agudos. En la zona media escuchamos mejor.

El ruido son todas las frecuencias del espectro en simultáneo. O sea,


sonando al unísono.

El largo de un ciclo, la longitud de onda, va relacionada con el ciclo.

Los sonidos graves son de onda larga y los agudos de onda corta.

Los graves son capaces de pasar una pared normal porque la longitud
de onda es más ancha que la pared...

SONIDOS SIMPLES Y COMPUESTOS O COMPLEJOS.

El compuesto tiene varias frecuencias.

Página 7 de 90
Apuntes de clase de Sonido 1 de José "Pepe" Rusconi - versión 5.1
SONIDO 1 2016
Si por ej., f= 100 Hz, 200 Hz, 215 Hz. Todos juntos forman un sonido
complejo donde, la menor de las frecuencias es el sonido fundamental. Es el
patrón organizativo del conjunto y define las tonalidades.

Todos los múltiplos de la fundamental se llaman armónicos. Los que no


son múltiplos son inarmónicos o parciales.

Los sonidos tienen fundamentales, un conjunto de armónicos y un grupo


de inarmónicos.

Para medir la fundamental se debe hacer con instrumentos de medición.

Página 8 de 90
Apuntes de clase de Sonido 1 de José "Pepe" Rusconi - versión 5.1
SONIDO 1 2016

Clase Nº 5 del 25 de abril

El sonido es aire en movimiento. Escuchamos entre los 20 Hz y 20 KHz. Se


propaga en todas las direcciones. Interactúa con todos los objetos que están
dentro del recinto en que se produce.

REFLEXIÓN.

El espectro de sonido tiene tres tipos de ondas. Las ondas cortas que
terminan primero, las medias que duran un poca más y las largan que son las
que más lejos llegan.
Página 9 de 90
Apuntes de clase de Sonido 1 de José "Pepe" Rusconi - versión 5.1
SONIDO 1 2016
Si tengo un material más ancho que la longitud de onda podría aislarlo.
Pero las ondas largas pueden tener longitudes de, por ej. 20 mts.

La reflexión podría llamarse rebote pero la llamaremos reverberación.


Esto es la sumatoria del sonido directo más las reflexiones.

Las reflexiones, como rebotan, llegan más tarde a la persona que el


directo. Se puede hacer que la reverberación llegue después mediante el uso
de un software.

En una iglesia católica se producen muchas reverberaciones. Aquí se


pueden hacer dos cosas. Planos cerrados para poner el micrófono muy cerca
o recurrir al doblaje.

La reverberación es el sonido directo más sus reflexiones. El eco no es la


reverberación. Cundo el tiempo de reflejo es mayor a 30 milisegundos
escuchamos dos sonidos, esto es el eco.

Otra forma de decirlo es la siguiente, si la distancia donde rebota el


sonido es a 20 mts o más, esto se llama eco. Efecto Hz es la frontera entre eco y
reverberancia.

Al ECO también se lo llama DELAY.

Puede suceder que no se escuche el eco porque otras fuentes de audio


lo enmascaran.

El efecto doppler es otra cosa.

De Google:

El efecto Doppler es la variación de la frecuencia de una onda producida por un móvil respecto
de un receptor estático o en movimiento. Es utilizado para medir flujos sanguíneos en medicina
(ecografía Doppler), movimientos de expansión de galaxias en astronomía (cambios Doppler) e
incluso velocidades de vehículos*.

(*) El efecto Doppler es la base física sobre la que funcionan los radares de velocidad,
denominados radares Doppler.

DIFRACCIÓN

Los sonidos rodean los objetos.

Página 10 de 90
Apuntes de clase de Sonido 1 de José "Pepe" Rusconi - versión 5.1
SONIDO 1 2016

FASE.

Es el tiempo en que tarda un sonido para llegar a un lugar.

Si dos sonidos describen los mismos movimientos, aumenta el nivel.

Página 11 de 90
Apuntes de clase de Sonido 1 de José "Pepe" Rusconi - versión 5.1
SONIDO 1 2016

Lo que sucede normalmente es una mezcla.

En la grabación tengo que preocuparme por hacerlo lo mejor posible. En


la post producción se deberán alinear los sonidos. Pero esto solo lo puedo
hacer hasta con dos elementos.

Página 12 de 90
Apuntes de clase de Sonido 1 de José "Pepe" Rusconi - versión 5.1
SONIDO 1 2016
SONIDOS SIMPLES Y COMPLEJOS

Timbre es un súper concepto.

Para definir timbre hay que definir armonicidad, impresión espectral y


definición auditiva.

Los sonidistas corrigen los sonidos a partir de los espectrogramas.

Es fundamentar verificar que las locaciones permitan un buen sonido.

DEFINICIÓN AUDITIVA.

El sistema auditivo puede entender cierta cantidad de sonidos.

CADENA DE AUDIO. (O CADENA ELECTROACÚSTICA DE AUDIO)

 Micrófonos.
 Conductores.
 Accesorios.
 Pre amplificadores / Mezcla.
 Grabadores.
 Monitoreo.

El sonido que se produce en un recinto hay que almacenarlo (a este aire


en movimiento).

Estos dispositivos se llaman transductores.

El micrófono convierte energía acústica en eléctrica. El parlante la


inversa, eléctrica en acústica.

Página 13 de 90
Apuntes de clase de Sonido 1 de José "Pepe" Rusconi - versión 5.1
SONIDO 1 2016
Micrófonos: Hay muchos, pero lo que hacen es transformar energía
acústica en eléctrica. La diferencia está en cómo lo hace. Todos los dispositivos
de la cadena distorsionan.

PROPIEDADES O PARÁMETROS DE LOS MICRÓFONOS.

1. Sensibilidad: Como responde ante los mínimos estímulos


provocando energía. Para un bombo de la batería necesito de
baja sensibilidad. Para voces, de media.

Los micrófonos traen una sensibilidad de fábrica. No son alterables y se


miden en voltios.

2. Respuesta en frecuencia: La representación que hace el micrófono


del espectro auditivo como todos los dispositivos de la cadena.

Denominamos respuesta en frecuencia a la reacción de un dispositivo de audio frente a las


distintas frecuencias que componen el espectro de audio (20 a 20.000 Hz). Todos los
dispositivos de audio cumplen una función determinada, los micrófonos recogen vibraciones
acústicas y las convierten en señales eléctricas (que igualmente tendrán módulo, fase y
frecuencia). Los altavoces convierten señales eléctricas en vibraciones acústicas.
Todos los dispositivos manejan frecuencias de audio, pero no reaccionan igual ante todas las
frecuencias. De igual forma que el oído humano no escucha igual todas las frecuencias, los
micrófonos tampoco, ni los amplificadores trabajan igual con todas igual, ni los altavoces son
capaces de reproducir todas las frecuencias por igual. Esta última es la razón por la que en la
mayoría de los equipos domésticos, hay por lo menos dos altavoces distintos por caja. Uno para
reproducir las frecuencias graves y otro para reproducir las frecuencias altas.
Estas variaciones de respuesta conforme varía la frecuencia se miden en dB (decibelios) y se
pueden representar gráficamente. La retícula sobre la que se suelen representar es la escala
logarítmica en el eje horizontal (frecuencia) y lineal en el vertical (dB).
En el eje horizontal se representan las frecuencias de forma logarítmica (similar a como el oído
escucha). La primera frecuencia marcada es la de 100 Hz, la marca anterior será la de 90 y la
siguiente la de 200 Hz, la siguiente de 300 Hz... y así hasta llegar a 1.0 K que son 1000 Hz. La
siguiente marca será de 2000 Hz. y así hasta 20.000 Hz. En este caso se representa el espectro
desde 90 Hz. a más 20.000 Hz, pero el rango de frecuencias que se tome variará según las
necesidades. Si por ejemplo se representa la respuesta en frecuencia de un altavoz de graves, la
gráfica deberá empezar en 20 Hz. y no será necesario que se extienda a más 1.000 o 2.000 Hz.
En el eje vertical se encuentran las variaciones de nivel expresadas en dB (10 Log
(medida/medida de referencia)), en esta representación cada salto es de 6 dB, pero las
representaciones pueden variar según el grado de definición.

Página 14 de 90
Apuntes de clase de Sonido 1 de José "Pepe" Rusconi - versión 5.1
SONIDO 1 2016
3. Direccionalidad o diagrama polar: Es el ángulo de captación. Hay
veces que necesito un micrófono que tenga ángulo de captación
cerrado.

Clase Nº 6 del 2 de mayo

CADENA DE AUDIO.

Es la cadena de los elementos que sirven para captar el sonido y


almacenarlo.

Los micrófonos: que no están puestos en cualquier lugar. A veces lo


acompañan accesorios como el peludo.

Los conductores: los que son balanceados no son permeables a captar


cosas diferentes a las que transportan. La característica es que en los extremos
van conectores XLR.

El mezclador: administra las entradas y salidas.

Los lugares donde se conectan los micrófonos son amplificadores. No


permiten que la señal que lega se contamine. Le dan al sonido mayor
contenido armónico. En realidad lo contaminan pero positivamente. Inventa
armónicos. En cualquier equipo que conecta un micrófono hay un pre.

Página 15 de 90
Apuntes de clase de Sonido 1 de José "Pepe" Rusconi - versión 5.1
SONIDO 1 2016
La caña debe cubrir a todos los actores y cada uno debe tener un
corbatero. Cuando un actor viene caminando la caña no lo cubrirá a
excepción de que haya una segunda caña.

Ambiente: En una película no es el sonido del rodaje, es una


construcción. No es el fondo (roomtone).

Si se está grabando en un bar, solo hablan los actores. Luego hacemos


hablar a los extras.

También debo tener en cuenta el lugar y la época porque sonará


distinto.

En el rodaje grabo ambiente, no fondo. El ambiente es una construcción


planificada.

PARÁMETROS DE LOS MICRÓFONOS.

El micrófono debe3 recibir el fanton power. También se le puede poner


una pila especial.

Se usa la pila o el fanton. No los dos porque, seguramente, se quemará


por un exceso de energía.

Para elegir un micrófono siempre se debe tener en cuenta tres factores:

1. sensibilidad,
2. respuesta en frecuencia,
3. direccionalidad – diagrama polar.

Se usan auriculares de respuesta plana. Los comunes no sirven porque


inventan sonidos que no existen. La respuesta en frecuencia debe tener entre
los 20 Hz y los 20.000 Hz.

El corbatero tiene una cápsula omnidireccional. De lo contrario, al girar la


cabeza, no tomaría el sonido.

Página 16 de 90
Apuntes de clase de Sonido 1 de José "Pepe" Rusconi - versión 5.1
SONIDO 1 2016
LA CLAQUETA.

La orden: luz, cámara, acción es propia del cine mudo. Hoy comienza
con la orden “sonido” y la contestación es “graba” o “anda”. Se debe indicar:
escena, plano y toma. La claqueta abierta indica que en la escena habrá
sonido.

La orden completa sería: sonido – graba o anda –

Se muestra la claqueta con escena/plano/toma – cámara – corre – se


cierra la claqueta – acción – corte.

Si por algún problema se corta, se retoma y se cambia el Nº de la toma.

AUDIO DIGITAL

El audio siempre es analógico. Lo digital son las tecnologías que me


permiten almacenar y procesar el sonido.

Es capturar atributos de las cosas y no las cosas en sí. Así los puedo
replicar sin necesidad de llevar lo que tengo que replicar.

Representar el Es más fácil Se utilizan Se evita la


sonido por medio almacenar estos algoritmos para degradación o
de Nº Nº que la realizar todos los causa del ruido
magnitud que procesos analógico.
estos representan. conocidos en el
audio digital.
Cuando se copiaba un casete, pasaba muchos ruidos. En el digital,
pocos atributos.

Hay procesos que son destructivos y que no se pueden arreglar.

Página 17 de 90
Apuntes de clase de Sonido 1 de José "Pepe" Rusconi - versión 5.1
SONIDO 1 2016

Clase Nº 6 del 2 de mayo

Cadena de Audio

Micrófonos:

Página 18 de 90
Apuntes de clase de Sonido 1 de José "Pepe" Rusconi - versión 5.1
SONIDO 1 2016

En la cadena de los elementos que sirven para capar el sonido y


almacenarlo, los micrófonos no están puestos en cualquier lugar. A veces los
acompañan accesorios como el peludo.

Conductores:

Los balanceados no son permeables s captar cosas diferentes a las que


transportan. La característica es que en los extremos van conectores XLR.

Mezcladores:

Son para administrar las entradas y las salidas.

Preamplificadores:

Página 19 de 90
Apuntes de clase de Sonido 1 de José "Pepe" Rusconi - versión 5.1
SONIDO 1 2016

A estos se conectan los micrófonos. Son para que la señal que llega no se
contamine.

Les dan al sonido mayor contenido armónico. Lo contaminan


positivamente. Inventa armónicos. En cualquier equipo en que se conecte un
micrófono, hay un pre.

Caña:

La caña debe cubrir a todos y cada uno debe tener un corbatero


excepto que el actor venga caminando donde solo tendrá el corbatero.

Página 20 de 90
Apuntes de clase de Sonido 1 de José "Pepe" Rusconi - versión 5.1
SONIDO 1 2016
Sonido ambiente:

En una película, no es el sonido del rodaje, es una construcción. No es el


fondo (roomtone).

Si se está grabando en un bar, solo hablan los actores. Luego hacemos


hablar a los extras.

También debo ver en qué lugar y época porque sonará distinto.

En el rodaje grabo ambiente no fondo.

El ambiente es una construcción planificada.

Parámetros de los micrófonos.

El micrófono debe recibir el fantonpawer. También se le puede poner


una pila especial.

Se usa uno u otro, no los dos porque seguramente se quemará.

Parámetros:

1. Sensibilidad
2. Respuesta en frecuencia
3. Direccionalidad – diagrama polar

Se usan auriculares de respuesta plana.

No puede ser uno común está inventando cosas que el sonido no tiene.

La respuesta en frecuencia debe tomar entre los 20 Hz y los 20.000 Hz.

El corbatero tiene una cápsula omni, de los contrario, al girar la cabeza,


no tomaría el sonido.

Página 21 de 90
Apuntes de clase de Sonido 1 de José "Pepe" Rusconi - versión 5.1
SONIDO 1 2016
La claqueta.

Cuando se decía “Luz, cámara, acción”, esto era propio del cine mudo.

Hoy se dice “sonido” y, cuando graba, se le contesta “graba”.

La claqueta abierta indica que hay sonido. Esta indicará escena, plano y
toma.

Los pasos son los siguientes:

Sonido, graba, claqueta, cámara, corre, cierra claqueta, acción, corte

Si por algún problema hay que cortar, se retoma y cambia el Nº de toma.

AUDIO DIGITAL

El audio siempre es analógico. Digital son las tecnologías que permiten


almacenar y procesar el sonido.

En digital es capturar los atributos de las cosas y no las cosas en sí. Así
puedo replicar sin llevar lo que quiero replicar.

Página 22 de 90
Apuntes de clase de Sonido 1 de José "Pepe" Rusconi - versión 5.1
SONIDO 1 2016

Representar el Es más fácil Se usan Se evita la


sonido por medio almacenar Nº algoritmos para degradación o
de Nº que la magnitud reflejar todos los causa del ruido
que este procesos analógico.
representa. conocidos en el
audio original.

Cuando se grababa un casete pasaba mucho ruido. En lo digital no


porque solo son atributos.

Hay procesos que son destructivos que no se puede arreglar.

Página 23 de 90
Apuntes de clase de Sonido 1 de José "Pepe" Rusconi - versión 5.1
SONIDO 1 2016

Clase Nº 7 del 16 de mayo

AUDIO DIGITAL

Técnicas para poder almacenar y técnicas para poder procesar. Digital


viene de dígitos. Sonido que se convierte en Nº.

En lo digital, guardo atributos de algo en lugar de almacenar ese algo.


Los Nº utilizados son del sistema binario, no decimal.

Lo digital es una representación y, para que sea buena, debe existir un


código.

Los que producen los cambios son los algoritmos. Cuando mejor o más
potentes estos, mejores resultados.

La degradación.

En lo analógico, cuando se hacen copias, se va perdiendo calidad. En lo


analógico no porque no se copian las cosas, se copian sus atributos.

Diferencias entre analógico y digital.

Los analógicos graban sobre cintas. El acceso a la información es lineal.


Esto es que se tiene que pasar por todo lo anterior antes de llegar al lugar
buscado.

Los dispositivos digitales son linealesy no lineales.

DAT es una tecnología que muchos creen que es la vigente pero ya no.
Hoy los soportes son no lineales.

Antes, cuando había reproductor y grabador, la edición era más fácil


que cuando solo se tenía uno. Era física, se cortaba.

Las ediciones son destructivas.

Pero en los procesos digitales, también puede haber destrucción.

MUESTREO

Como es que algo analógico lo convierto en digital?


Página 24 de 90
Apuntes de clase de Sonido 1 de José "Pepe" Rusconi - versión 5.1
SONIDO 1 2016
Todos los equipos tienen un conversor analógico-digital y digital-
analógico.

En el muestreo se toman muestras a intervalos regulares de tiempo.

Cuanto más muestras tomo, mejor.

Teorema de Nyquist – Shannon

Una señal analógica puede ser reconstruida, sin error, con muestras
tomadas en iguales intervalos de tiempo. La razón del muestreo debe ser igual
o mayor, al doble de un ancho de banda de la señal analógica.

El ingeniero sueco Harry Nyquist formuló el siguiente teorema para obtener una grabación
digital de calidad:

“La frecuencia de muestreo mínima requerida para realizar una grabación digital de calidad,
debe ser igual al doble de la frecuencia de audio de la señal analógica que se pretenda
digitalizar y grabar”.

Este teorema recibe también el nombre de “Condición de Nyquist”.

Es decir, que la tasa de muestreo se debe realizar, al menos, al doble de la frecuencia de los
sonidos más agudos que puede captar el oído humano que son 20 mil hertz por segundo (20
kHz). Por ese motivo se escogió la frecuencia de 44,1 kHz como tasa de muestreo para obtener
“calidad de CD”, pues al ser un poco más del doble de 20 kHz, incluye las frecuencias más
altas que el sentido del oído puede captar.

El teorema trata con el muestreo, que no debe ser confundido o asociado con la cuantificación,
proceso que sigue al de muestreo en la digitalización de una señal y que, al contrario del

Página 25 de 90
Apuntes de clase de Sonido 1 de José "Pepe" Rusconi - versión 5.1
SONIDO 1 2016
muestreo, no es reversible (se produce una pérdida de información en el proceso de
cuantificación, incluso en el caso ideal teórico, que se traduce en una distorsión conocida como
error o ruido de cuantificación y que establece un límite teórico superior a la relación señal-
ruido). Dicho de otro modo, desde el punto de vista del teorema, las muestras discretas de una
señal son valores exactos que aún no han sufrido redondeo o truncamiento alguno sobre una
precisión determinada, esto es, aún no han sido cuantificadas. El teorema demuestra que la
reconstrucción exacta de una señal periódica continua en banda base a partir de sus muestras
es matemáticamente posible si la señal está limitada en banda y la tasa de muestreo es superior
al doble de su ancho de banda.

TEOREMA DE NYSQUIST

Desarrollado por H. Nyquist, quien afirmaba que una señal analógica puede ser reconstruida,
sin error, de muestras tomadas en iguales intervalos de tiempo. La razón de muestreo debe ser
igual, o mayor, al doble de su ancho de banda de la señal analógica”.

La teoría del muestreo define que para una señal de ancho de banda limitado, la frecuencia de
muestreo, fm, debe ser mayor que dos veces su ancho de banda [B] medida en Hertz [Hz].fm >
2·B.

Supongamos que la señal a ser digitalizada es la voz…el ancho de banda de la voz es de 4,000
Hz aproximadamente. Entonces, su razón de muestreo será 2*B= 2*(4,000 Hz), es igual a 8000
Hz, equivalente a 8,000 muestras por segundo (1/8000). Entonces la razón de muestreo de la voz
debe ser de al menos 8000 Hz, para que pueda regenerarse sin error.

La frecuencia 2*B es llamada la razón de muestreo de Nyquist. La mitad de su valor, es llamada


algunas veces la frecuencia de Nyquist.

El teorema de muestreo fue desarrollado en 1928 por Nyquist y probado matemáticamente por
Claude Shannon en 1949.

Ejemplos prácticos:

El en área de la MÚSICA, a veces es necesario convertir material analógico [en acetato,


casetes, cintas magnéticas, etc] a formato digital [en CD, DVD]. Los ingenieros de sonido
pueden definir el rango de frecuencia de interés. Como resultado, los filtros analógicos son
algunas veces usados para remover los componentes de frecuencias fuera del rango de interés
antes de que la señal sea muestreada.

Página 26 de 90
Apuntes de clase de Sonido 1 de José "Pepe" Rusconi - versión 5.1
SONIDO 1 2016

Por ejemplo, el oído humano puede detectar sonidos en el rango de frecuencias de 20 Hz a 20


KHz. De acuerdo al teorema de muestreo, uno puede muestrear la señal al menos a 40 KHz para
reconstruir la señal de sonido aceptable al oído humano. Los componentes más arriba de 40
KHz no podrán ser detectados y podrían contaminar la señal. Estos componentes arriba de los
40 KHz son removidos a través de filtros pasa banda o filtros pasa bajas.

Algunos de las razones de muestreos utilizadas para grabar música digital son las siguientes:

Razón de muestreo/ Frecuencia de Nyquist 22,050 kHz = 11,025 kHz (Nyquist) 24,000 kHz =
12,000 kHz 30,000 kHz = 15,000 kHz 44,100 kHz = 22,050 kHz 48,000 kHz = 24,000 kHz

Es muy importante tomar en consideración que la frecuencia más alta del material de audio será
grabada. Si la frecuencia de 14,080 Hz es grabada, una razón de muestreo de 44.1 kHz deberá
ser la opción elegida. 14,080 Hz cae dentro del rango de Nyquist de 44.1 kHz el cual es 22.05
kHz.

La razón de muestreo elegida determina el ancho de banda del audio de la grabadora usada.
Considerando que el rango del oído es de 20 Hz a 20 kHz, una razón de muestreo de 44.1 kHz
teóricamente deberá satisfacer las necesidades de audio.

FRECUENCIA DEL MUESTREO Y RESOLUCIONES.

Relaciona frecuencia de muestreo con respuesta en frecuencia


(pregunta de parcial).

Ref.: capacidad que tienen los dispositivos de interpretar el espectro.

Página 27 de 90
Apuntes de clase de Sonido 1 de José "Pepe" Rusconi - versión 5.1
SONIDO 1 2016

X: amplitud, y: tiempo

El rango dinámico no es volumen. Cuando más grande la resolución,


mejora el rango dinámico.

El rango determina la escala de nivel (como los escalones de una


escalera).

Página 28 de 90
Apuntes de clase de Sonido 1 de José "Pepe" Rusconi - versión 5.1
SONIDO 1 2016

Clase Nº 8 del 23 de mayo

Vamos a trabajar en 24 bits.

De Google:

Rango dinámico y frecuencia de muestreo

Para empezar a trabajar mediante plataformas virtuales de edición y mezcla


de audio es necesario que aprendamos las características básicas de las
señales digitales ya que esto va a marcar la diferencia en cuanto a calidad de
audio.

Comencemos por definir de manera empírica lo que es el Audio. ¿Qué es? ¿Por
qué escuchamos un sonido? Como todos sabemos de una u otra forma, el
audio es la representación eléctrica de una onda sonora.

Entonces ¿qué es el audio digital? Es la representación digital de una señal de


audio, captada por un convertidor analógico-digital y transformado en unos y
ceros. La fidelidad de la representación digital de una forma analógica,
depende entonces de la cantidad de información captada y es medible, entre
otras características, por la famosa resolución en bits (bit depth) y la frecuencia
de muestreo (sample rate).

Figura 14. Señal análoga y digital

La resolución en bits no define la "calidad" de audio por sí sola. Los BITS nos
hablan sobre la cantidad de INFORMACION (¡la que sea!) que se capturará en
un dispositivo por unidad de tiempo, definida por la frecuencia de muestreo.

Página 29 de 90
Apuntes de clase de Sonido 1 de José "Pepe" Rusconi - versión 5.1
SONIDO 1 2016

Entonces, una mayor frecuencia de Muestreo, considerando que aquí estamos


hablando del rango de frecuencias que capta el oído humano (y un sistema
de grabación) SI nos habla directamente del contenido musical/armónico de
una señal, por lo que mientras más alta sea, más frecuencias y sus armónicos y
sub. Armónicos capturará nuestro conversor.

Bits

Un Bit es la unidad más elemental de un sistema digital. Su valor puede ser


únicamente 1 ó 0 y corresponde a un voltaje en un circuito electrónico.

Los BITS son usados para representar valores en el sistema binario los cuales en
el mundo digital del sampling, son usados para representar los valores de los
sonidos muestreados.

En el mundo del audio digital, entonces la Resolución en Bits de un sistema es


descrita como su exactitud potencial para representar una onda de audio
grabada o procesada por unidad de tiempo.

Cada bit representa incrementar en 6 dB el rango dinámico de nuestra señal,


por lo que 16 bits representan 96 dB. 24 Bits representa la posibilidad de grabar
con un rango dinámico de 144 dB.

Siendo un cálculo basado en una potencia de 2, es decir 2^n, cada BIT


aumentado en una resolución DUPLICA la resolución anterior, por lo que 17 bits
son el doble de la resolución a 16, 18 representa 4 veces y 20 bits son 16 veces
más que una resolución a 16.

¿Adivinen cuántas veces más son 32 bits contra 16 bits ? = ¡¡ 65,536 veces !!

1.bit =2^1 = 2 valores (0 y 1)

2.bits = 2^2 = 4 valores (00, 01, 10, 11)

3.bits = 2^3 = 8 valores (000, 001, 010, 011, 100, 101, 110, 111)

4.bits = 16 valores ....

5.bits = 32 valores ....

Página 30 de 90
Apuntes de clase de Sonido 1 de José "Pepe" Rusconi - versión 5.1
SONIDO 1 2016

6.bits = 64 valores.....

16 bits = 2^16 = 65,536 valores

Y entonces, ¡cuál es la diferencia entre 16 y 24 bits? ¿solo 8 bits? no... hagan el


cálculo...

24 bits = 2^24 = 16,777,216… o sea, se captan 256 veces más datos a 24 que a
16 bits.

Así que la cantidad de información muestreada por sample (porción / muestra)


es más que significativamente mayor a 24 y a 32 bits, que a 16 y por ende
nuestras grabaciones tendrán más fidelidad.

Frecuencia de Muestreo

Como base teórica, tomemos que el oído humano tiene un rango de escucha
a frecuencias de entre 20 y 20 mil Hertz.

La frecuencia de muestreo (medida en Hertz) determina el límite máximo de


ancho de banda de audio a ser digitalizado (es decir, el espacio en que
acomodarás los datos) y el número de bits en cada sample determina el rango
dinámico teórico MÁXIMO a pesar de la frecuencia de muestreo (es decir, la
calidad o resolución de cómo se graban los datos).

Cuando los conversores analógico/digital codifican una señal de audio, lo


hacen a una determinada velocidad. Imaginen una película de cine, que
toma fotografías a cierta velocidad. Al reproducir las fotografías (samples), se
verá el movimiento (sonido).

La velocidad es la frecuencia de muestreo (sample rate), que será


determinada por cantidad de muestras ("fotos") por segundo. Recordemos,
que Hertz es una unidad que representa ciclos por segundo.

Por ejemplo: los cd estándar tienen un frecuencia de muestreo de 44100 hz lo


que significa que toman 44100 muestras del sonido en cada segundo.

Página 31 de 90
Apuntes de clase de Sonido 1 de José "Pepe" Rusconi - versión 5.1
SONIDO 1 2016

Esta velocidad determina cuál es la frecuencia más aguda que se puede


muestrear... ¿cómo?

Teorema de NyQuist

Para reproducir una señal tiene que haber un valor positivo y otro negativo (o
sea 2 samples, al menos). La Teoría de NyQuist dice que la frecuencia MAS
AGUDA que será capaz de codificar o reproducir un conversor es LA MITAD DE
SU FRECUENCIA DE MUESTREO (porque necesita 2 samples...)

Es decir:

A 44.1 Khz., la frecuencia más aguda que podré grabar es 22.05 Khz. (límite del
oído humano).

A 96 Khz., la frecuencia más aguda será 48 Khz.

A 22.05 Khz. la frecuencia será 11 Khz. (se notará mucho la pérdida de agudos).

Entonces:

Frecuencia de NyQuist (más aguda) = 1/2 frecuencia de muestreo (sample


rate)

Ah, sí, un Sample es un número que indica la amplitud de una onda de audio
medida sobre el tiempo, por lo que la frecuencia de muestreo es el número de
samples (muestras) por segundo usadas para guardar un sonido.

Figura 15. Audio digitalizado

Rango Dinámico o Dynamic Range

Página 32 de 90
Apuntes de clase de Sonido 1 de José "Pepe" Rusconi - versión 5.1
SONIDO 1 2016

Una definición rápida y que no causa mucha polémica del "Rango Dinámico"
es aquel nivel de señal que un sistema puede soportar SIN generar distorsión
cuando hablamos de un aparato que grabe o reproduzca audio.

Formalmente, el Rango Dinámico describe la relación entre el sonido más


suave comparado contra el más alto de un instrumento o señal electrónica y
también es medido en decibeles (dB).

Podemos ahora comentar que por cada bit que se aumente de resolución, se
incrementa en 6 dB el Rango Dinámico, por lo cual con una resolución de 16
bits, la relación señal/ruido es de 96 dB. Entonces, incrementar la resolución en
bits nos aumentaría también el rango dinámico, es decir, alejando la señal
deseada del piso del ruido, lo que resulta en una grabación más limpia.

El Dynamic range es usado en el equipo de audio para indicar la salida


máxima de un equipo y para medir su "noise floor" (ruido de fondo). Como
referencia, el rango dinámico del oído humano es de alrededor 120 db.

Profundidad de bits y Frecuencia de Muestreo


Por Sergio Patiño

¿Por qué no más de 24 bits ni 48 KHz?

Si tuvieras un automóvil VW sedan y nos dijeran que alcanza 250 Km por hora ¿lo manejarías a
esa velocidad? Existen un millón de argumentos para no hacerlo pero todo se resume a una
sencilla razón y es que no está equipado para desarrollar esa velocidad, lo mismo ocurre con
nuestras interfaces o placas de sonido que nos ofrecen 32 bits y 192 KHz pues no están
equipadas para manejar estas altísimas resoluciones. Para explicar esto voy a dividir el tema en
dos grandes puntos: profundidad de bits ( bit depth o wordlength ) y frecuencia de muestreo (
sample rate ).

Lo primero que debemos considerar es que nuestras placas de sonido o interfaces son en
realidad convertidores analógico/digital/analógico y en términos simples lo que hacen es
convertir el sonido a datos ( bytes ) para poderlos procesar en nuestras computadoras y
después los regresan de datos a sonido para que los podamos escuchar.

Al sonido, como a cualquier otra cosa, para representarlo en términos digitales se le debe
asignar un tamaño de muestra ( bits, cada 8 de estos conforman un byte ) y un número de
muestras por segundo ( Hertz ).

Profundidad de Bits
Página 33 de 90
Apuntes de clase de Sonido 1 de José "Pepe" Rusconi - versión 5.1
SONIDO 1 2016

Lo que la profundidad de bits nos dice es: de qué tamaño será cada una de las muestras, entre
mayor sea el tamaño de muestra mayor cantidad de información podremos tener de cada una y
lógicamente nuestros archivos también serán más grandes. Las diferentes profundidades que
encontramos en audio son: 8, 16, 20, 24, 32 y 64 bits.

Si tenemos 24 bits para cada muestra ¿qué pasará al llegar al bit número 25? Cuando
rebasamos el número de espacios asignados para definir nuestra muestra (wordlength) significa
que ya no hay manera de interpretar datos para generar sonido y lo que obtenemos es lo que
se conoce como ‘cama de ruido' a este fenómeno en el que se crea ruido por ‘indefinición',
porque ya no tenemos manera de expresar algo más allá del número de bits asignado y se le
llama ‘truncado de muestra'. En términos prácticos esto es el ‘Hiss' y es equivalente al ruido
que encontramos en una cinta analógica, la diferencia es que en un entorno analógico el ruido
es producido por la fricción entre la cinta y la cabeza lectora mientras que en el entorno digital
el ruido es producto del ya mencionado truncado de muestra o wordlength truncation . Y entre
más bits de wordlength tengamos la cama de ruido estará más abajo en volumen. De esto
también se desprende el que entre más bits haya en el wordlength la información adicional que
podemos captar corresponderá a la parte más tenue del sonido. A este fenómeno se le conoce
como ‘rango señal a ruido' o signal to noise ratio

El volumen lo expresamos en deciBeles (dB) y contrario a lo que pudiéramos pensar esta


medida no corresponde a volumen sino a presión (fuerza sobre una superficie), en el caso
particular del sonido nos referimos a la presión del aire sobre nuestros oídos y se abrevian
dBSPL (en inglés deciBels Sound Pressure Level ) y sus valores van de 0 hacia (infinito). A su
vez los aparatos de audio tienen su propia manera de ‘medir' el volumen y lo hacen a partir de
0 como valor máximo hacia - o donde empiece la cama de ruido del sistema y siempre en
números negativos, esto representa el voltaje necesario para producir un cierto volumen o
mejor dicho una cierta potencia; estos valores corresponden a los deciBeles de escala completa
o dBFS ( deciBels Full Scale ). Dentro de nuestro tema los dBFS son lo que nos interesan pues así
podemos calcular la cama de ruido para cada profundidad de bits así como algunas
aproximaciones para entornos analógicos. En sistemas analógicos la cama de ruido es variable y
en el entorno digital la cama de ruido es exacta. Así obtenemos la siguiente tabla:

Página 34 de 90
Apuntes de clase de Sonido 1 de José "Pepe" Rusconi - versión 5.1
SONIDO 1 2016

Debemos tener en cuenta que estos son valores teóricos, debido a muchísimos factores en la
práctica en un convertidor profesional de mínimo 5,000 dls. el valor más bajo está alrededor de
-127 dBFS para 24 bits. Como podemos ver el término ‘profundidad de bits' es debido a que los
dBs van hacia abajo.

Hasta ahora entre más profundidad de bits mejor pero las cosas se complican cuando tenemos
que llevar nuestras grabaciones o masterizaciones a un medio de menor resolución, como lo
dice la tabla si establecemos una profundidad de 24 bits o grabamos en un DAT y su destino es
un CD entonces al terminar debemos ‘bajar' el sonido resultante a 16 bits el problema que esto
representa se ilustra en el siguiente ejemplo:

Si dividimos el número 23 entre 7 el cociente será 3.28, ahora, digamos que solo tenemos dos
dígitos para expresar este cociente. La manera más sencilla sería truncar el número a 3.2 pero
nos quedaríamos lejos del valor real, lo correcto sería redondear la cantidad y así obtenemos
3.3 que está mucho más cerca del cociente en cuestión.

Página 35 de 90
Apuntes de clase de Sonido 1 de José "Pepe" Rusconi - versión 5.1
SONIDO 1 2016

Supongamos ahora que los tres dígitos de 3.28 corresponden a un wordlength de 24 bits y los
dos dígitos corresponden a un wordlength de 16 bits, al truncar el número a 3.2 nos estamos
perdiendo una parte de la información y necesitaremos redondearla para obtener una mejor
aproximación, regresando a nuestro tema, en el audio lo que se utiliza para ‘redondear' la
información es conocido como dither que mediante la introducción de una señal aleatoria
(ruido) hace un promedio con la información ‘enterrada' en el ruido del truncado y ‘rescata'
parte de esa información, luego, para terminar de ‘redondear' se utiliza el noiseshaping el cual
introduce a la señal un ruido controlado y difícil de escuchar para el oído humano para
‘enmascarar' el ruido restante del truncado.

Cada vez que tenemos que bajar de profundidad de bits ( downsampling ) debemos realizar
este proceso pero como todo en este mundo lo bueno cuesta y aunque tengamos 24, 32 o
incluso 64 bits como nos lo ofrecen los fabricantes debemos contar con un muy buen dither y
noiseshaping que además de su elevado costo debemos tomar en cuenta que los detalles que
nos ofrecen las resoluciones de 24 y 32 bits se encuentran, como ya dijimos, en la parte más
tenue del sonido a la que no somos muy sensibles.

Si por el contrario tenemos el número del ejemplo, 3.3 (16 bits) y lo queremos regresar a los 3
dígitos (24 bits) no sabemos si provino de un 3.32 o de un 3.29 por lo que lo único que
podemos hacer es agregarle ceros, 3.30 los cuales no tienen ningún significado en cuanto a
información hasta que a ese 3.30 se le aplique algún proceso en el que se ‘llenen' esos ceros y
al regresar a 16 bits necesitaremos usar de nuevo el dither por lo que así como su explicación se
convierte en un ir y venir de ruido.

En conclusión, si no tienes un estudio profesional grabar o masterizar en 24 bits sin un buen


dither y noiseshaping quedará igual o peor que hacerlo directamente en 16. En los estudios
grandes se procesa el sonido en 24, 32 y 64 bits punto flotante y utilizan incluso módulos
específicos de dithering y NS pero para un estudio casero sin el monitoreo y acústica
apropiados no vale la pena gastar en placas que nos ofrecen tal profundidad.

Frecuencia de Resolución

Este es el otro componente crucial del dominio digital pero ¿qué significa 44.1, 48, 96 y 192
KHz? En términos sencillos esto quiere decir cuántas muestras se podrán analizar por segundo,
si tenemos una profundidad de 24 bits a 48 KHz (que es la resolución de un DAT) significa que
podremos procesar 48000 muestras por segundo de 24 bits cada una, entre mayor sea la
frecuencia de muestreo mayor número de muestras tendremos y por consiguiente podremos
analizar a mayor detalle.

Hasta ahora como en el caso de la profundidad de bits entre mayor resolución tengamos mejor
pero en nuestro caso no es así y es aquí donde vamos a resolver el mito de las altísimas
frecuencias de muestreo que no nos dan un beneficio y sin embargo entre mayor resolución
mayor costo para nosotros.

La primera razón es la limitación de la frecuencia más alta para analizar:

Cómo sabemos el sonido también posee frecuencias y por supuesto esta también se mide en
Hertz (Hz). La frecuencia se define en términos sencillos como el número de ciclos completos
por segundo que ocurren (un periodo positivo y uno negativo), veamos la siguiente figura.
Página 36 de 90
Apuntes de clase de Sonido 1 de José "Pepe" Rusconi - versión 5.1
SONIDO 1 2016

La línea horizontal del medio representa tiempo, en este caso fracciones de segundo, los
rectángulos representan una muestra de una resolución de supongamos 48 KHz, dentro de
cada cuadro encontramos la fase positiva de una onda y en el siguiente la fase negativa de la
misma onda, ahora haciendo aritmética sencilla podemos notar que necesitamos dos muestras
(rectángulos) para analizar la onda completa (fase positiva y negativa) por tanto podemos
concluir que la frecuencia más alta que podemos analizar en un muestreo de 48 KHz es 24 KHz
esto debido a que separar una onda es sus componentes positivo y negativo es el tamaño más
grande que podemos analizar; así obtenemos las siguiente imagen:

Si tuvieramos una frecuencia de 48 KHz para analizar en una frecuencia de muestreo de


igualmente 48 KHz obtendríamos algo así:

A todo esto debemos agregar que el oído humano promedio solo es sensible en un rango
comprendido entre 22 Hz y 16 KHz mientras que un oído entrenado logra escuchar entre 20 Hz
y 20 KHz por lo que aún la resolución de un CD (44.1 KHz) quedará muy por encima de la
frecuencia más alta que podemos oír, es decir puede analizar hasta 22.05 KHz. Con esto
podemos asumir que el beneficio se obtiene para frecuencias más bajas pues las puede dividir
en ‘rodajas' más pequeñas, el problema viene al momento de hacer la conversión analógico-
digital-analógico.

El sonido que producimos con nuestros instrumentos se transmite en forma de vibraciones


(Movimiento Armónico Simple) y lo podemos traducir a impulsos eléctricos y magnéticos, esto
es lo que corresponde al dominio analógico, en otras palabras es una especie de ‘fotografía'
electromagnética del sonido que escuchamos. Nuestras placas de sonido o interfaces se
encargan de traducir dichos impulsos en datos (1's y 0's). Es al momento de hacer esta
conversión analógico a digital ( A/D ) donde se presentan los problemas en resoluciones altas

Página 37 de 90
Apuntes de clase de Sonido 1 de José "Pepe" Rusconi - versión 5.1
SONIDO 1 2016
con equipo de bajo costo pues al entrar el sonido se realiza lo que se comoce como Noise
Reduction y que consiste en elevar a una frecuencia mucho más alta de la que se va a trabajar,
tomar el ruido y ‘subirlo' fuera del rango audible del ser humano una vez hecho esto el sonido
se regresa a la frecuencia de resolución establecida. En este tipo de convertidores ADC (
Analog-Digital-Converter ) baratos los filtros establecidos para esta reducción de ruido
introducen un sonido ‘cajoso' similar al de los reproductores de CD baratos lo malo es que no
podemos notar este sonido al momento de grabar y mezclar debido a que queda enmascarado
por efecto del jitter (estos conceptos se explicarán posteriormente) que es un fenómeno
pasajero y no se queda en nuestra grabación, sin embargo el sonido ‘cajoso' sí queda grabado y
se traduce en un sonido chico y apagado. El aliasing también producto de un mal filtrado
interviene y consiste en que una alta frecuencia introduce ‘fantasmas' en el rango de fracciones
de su valor o viceversa, estos fantasmas son puntos en la frecuencia de muestreo que pueden
corresponder a cualquiera de las dos frecuencias, la original o su fracción y al momento de
hacer la conversión D/A el convertidor no sabe de quién vino esta señal.

En este ejemplo la frecuencia alta (en color rojo) tiene los mismos puntos de muestreo que una
frecuencia baja (en color azul). Supongamos que la frecuencia alta vale 48 KHz (que sería la más
alta en un SR de 96 KHz) dado que por cada ciclo completo en azul caben 10 ciclos completos
en rojo tenemos que su valor es de un décimo de esta, es decir 4.8 KHz que ya está dentro de
nuestro rango audible, con un filtrado deficiente (que es justo lo que ocurre con placas de tan
altas resoluciones y bajos costos) el DAC no sabe a quién corresponde esa información y cada
vez que opte por los 4.8 KHz vamos a oír cosas (fantasmas) que no estaban ahí en un principio.

Por último tenemos el PLL ( Phase-Lock Loop ) que es el encargado de mover la información
dentro del convertidor bit por bit es decir, mueve los 0's y 1's uno a la vez y debe hacerlo a una
velocidad altísima para que no lo notemos, este chip está controlado por un cristal de cuarzo
que debe ser extremadamente preciso y debe estar sincronizado con el reloj que va a controlar
la frecuencia de muestreo, si el PLL no es de buena calidad vamos a tener un sonido muy malo
en la conversión D/A pero no afectará la información dentro de la computadora, es decir, no va
a distorsionar el sonido, por el contrario un mal PLL al momento de hacer la conversión de
entrada (A/D) va a afectar el sonido de manera permanente e irreversible.

En conclusión, el problema no es la alta resolución en sí sino la mala calidad de los


componentes del convertidor pues entre mayor resolución tengamos en una placa o interfaz de
bajo costo mayor será el número de ‘artefactos' que introducirán al sonido. Para darnos una
idea una placa de sonido de 10 x 10 I/O que conocemos cuesta entre 400 y 1000 dls. mientras
que un convertidor A/D de 8 entradas de la más alta calidad lo podemos comprar por la módica
cantidad de 8,500 dls. sin mencionar que nos hará falta un convertidor D/A del mismo precio,

Página 38 de 90
Apuntes de clase de Sonido 1 de José "Pepe" Rusconi - versión 5.1
SONIDO 1 2016
además necesitaríamos una interfaz para que ese sonido digitalizado entre a nuestra estación
de trabajo.

He ahí las razones de por qué no deberíamos pasar de una resolución de 48 KHz y de una
profundidad de 24 bits porque esas altísimas resoluciones nos son más que mercadotecnia
pues realmente nos entregan lo que dicen pero a costa de un gran daño a nuestro sonido.

Si trabajo con cuatro micrófonos puedo almacenar todo junto o por


separado. Si es separado, cada uno va en una carpeta diferente. Este método
se lo denomina “mono”. Si fuera todo en un único archivo, se llama “poly”.

Si se guardó todo en uno por equivocación, existe un programa para


separar.

Acá, cuando hablamos de “mono” no se trata de “mono o estéreo”. Eso


es otra cosa.

Hay que saber que tarjeta de memoria acepta el grabador. Cantidad y


velocidad.

Los drops son pequeños espacios sin grabación.

Time codec (código de tiempo) sirve para indicar el nombre a cada


fragmento de tiempo.

Hs. Min. Seg. cuadro

00 00 00 00

Si se necesitan 12 canales son tres grabadores en cascada. Uno de ellos


mandan y los otros dos responden. Pero esto solo si tiene código de tiempo.

También cuando tengo código de tiempo la sincronización se hace sin


necesidad de que estemos sobre ella.

Puede tener “Fanton” por canales. Siempre conviene control individual


por canal.

Cuando apretamos Pausa + REC queda preparado para grabar.

Página 39 de 90
Apuntes de clase de Sonido 1 de José "Pepe" Rusconi - versión 5.1
SONIDO 1 2016
Medidores de nivel.

Vúmetro es una forma análoga de medir.

Utilizaremos decibeles como unidad de medida.

NPS (nivel de presión sonora) mide la presión de aire que se mueve.

Se mide de 0 a 100 donde 0 es la ausencia de sonido aunque, tal


ausencia, no existe.

En 100 tenemos el umbral del dolor.

Db
FS
NPS

0 100 - inf 0

Peak Meter o “picómetro” mide la señal en su nivel más alto.

RMS es un cálculo promedio de la intensidad.

El rango dinámico está entre el techo y el piso.

Página 40 de 90
Apuntes de clase de Sonido 1 de José "Pepe" Rusconi - versión 5.1
SONIDO 1 2016

Página 41 de 90
Apuntes de clase de Sonido 1 de José "Pepe" Rusconi - versión 5.1
SONIDO 1 2016

Página 42 de 90
Apuntes de clase de Sonido 1 de José "Pepe" Rusconi - versión 5.1
SONIDO 1 2016

Niveles de grabación.

Por encima de – 24 Db FS con picos rondando -10 a – 6 Db FS.

Mono Estéreo.

Página 43 de 90
Apuntes de clase de Sonido 1 de José "Pepe" Rusconi - versión 5.1
SONIDO 1 2016
Mono se generó con un único micrófono que se puede grabar en
diferentes canales pero siempre es el mismo sonido.

En Mono es un micrófono y varios parlantes. En Estéreo, un micrófono


para cada parlante.

El estéreo no sirve para audio pero si para ambiente.

Técnicas de grabación Estéreo.

- Par AB
- X–Y
- M – S MID SIDE

Par AB

Dos micrófonos idénticos separados hasta 1 mts.

Esta técnica entra dentro de las técnicas no coincidentes. Quiere decir


que están separados.

El problema es que el tiempo de arribo es diferente para cada micrófono


(tiempo de arribo del sonido). Es decir, puede aparecer una cancelación de
fase.

Este par AB tiene problemas de fase solo cuando lo pasamos a mono.

Técnicas coincidentes.

M – S MID SIDE

Uno de los micrófonos es cardioide y el otro bidireccional.

Pero hay que informarle al grabador cual es cual.

El ancho de imagen es variable a diferencia del primero que es amplio y


el segundo que es más estrecho.

Página 44 de 90
Apuntes de clase de Sonido 1 de José "Pepe" Rusconi - versión 5.1
SONIDO 1 2016

Página 45 de 90
Apuntes de clase de Sonido 1 de José "Pepe" Rusconi - versión 5.1
SONIDO 1 2016

Página 46 de 90
Apuntes de clase de Sonido 1 de José "Pepe" Rusconi - versión 5.1
SONIDO 1 2016

Página 47 de 90
Apuntes de clase de Sonido 1 de José "Pepe" Rusconi - versión 5.1
SONIDO 1 2016

Página 48 de 90
Apuntes de clase de Sonido 1 de José "Pepe" Rusconi - versión 5.1
SONIDO 1 2016

Página 49 de 90
Apuntes de clase de Sonido 1 de José "Pepe" Rusconi - versión 5.1
SONIDO 1 2016

Página 50 de 90
Apuntes de clase de Sonido 1 de José "Pepe" Rusconi - versión 5.1
SONIDO 1 2016

Página 51 de 90
Apuntes de clase de Sonido 1 de José "Pepe" Rusconi - versión 5.1
SONIDO 1 2016

Página 52 de 90
Apuntes de clase de Sonido 1 de José "Pepe" Rusconi - versión 5.1
SONIDO 1 2016

Página 53 de 90
Apuntes de clase de Sonido 1 de José "Pepe" Rusconi - versión 5.1
SONIDO 1 2016

Página 54 de 90
Apuntes de clase de Sonido 1 de José "Pepe" Rusconi - versión 5.1
SONIDO 1 2016

Página 55 de 90
Apuntes de clase de Sonido 1 de José "Pepe" Rusconi - versión 5.1
SONIDO 1 2016

Página 56 de 90
Apuntes de clase de Sonido 1 de José "Pepe" Rusconi - versión 5.1
SONIDO 1 2016

Lección 29: Técnicas de Microfonía Estéreo Coincidentes/Xy y Ms

Una Técnica de microfonía coincidente genera una imagen estéreo gracias a las diferencias de
volumen capturado dos micrófonos ubicados en el mismo lugar. Según El efecto Haas, una
diferencia de 10 db en uno de los monitores de un sistema de reproducción estéreo es
suficiente para hacer sentir la precedencia de la fuente en el otro lado. Los pares coincidentes
se basan en este principio evitando diferencias de tiempo. Para esto la cápsula de los
micrófonos tienen que estar en el mismo punto.
Página 57 de 90
Apuntes de clase de Sonido 1 de José "Pepe" Rusconi - versión 5.1
SONIDO 1 2016

Técnica XY

La técnica XY consta de ubicar las capsulas de dos micrófonos direccionales idénticos en un


mismo punto. Como esto es físicamente imposible se ponen una encima de la otra. Son
ubicados al frente y centro de la fuente y son angulados entre ellos simétricamente. Es común
usar ángulos de 90° y 120° en XY.

Figura 22: Técnica XY Estéreo

Una fuente ubicada en el centro hace que ambos micrófonos perciban la misma cantidad de
señal haciendo que se cree una imagen fantasma en el centro de los dos parlantes. Si una
fuente está más hacia la derecha produce más volumen en el micrófono que apunta a la
derecha y menos en el que apunta a la izquierda, haciendo que la imagen se aleje del centro.

Técnica MS (MID SIDE/CENTRO LADO)

La técnica MS se lleva a cabo con dos micrófonos de condensador. El primer micrófono (m) se
apunta al centro de la fuente, sin importar su patrón polar (Comúnmente Cardiode). Con el
segundo micrófono (S) se alinean las cápsulas ubicándolo debajo del primero, luego se gira
sobre su eje para producir un ángulo de 90° entre los dos micrófonos. El segundo micrófono
debe tener patrón polar Bidireccional o figura ocho. Este se encarga tanto de la imagen
izquierda como la derecha.

Página 58 de 90
Apuntes de clase de Sonido 1 de José "Pepe" Rusconi - versión 5.1
SONIDO 1 2016

Figura 23: Técnica MS Estéreo

La particularidad de esta técnica está en el micrófono S (side) ya que debe reproducir ambos
lados de la grabación. A la hora de mezclar, lo grabado por el micrófono S es en principio la
señal de la izquierda. Esta se debe panear completamente para ese lado. Para producir la señal
de la derecha hay que duplicar la señal del S, cambiarle la fase, el paneo y subirle el volumen
hasta balancear la mezcla con las otras dos señales. También existe una maquina llamada
matrix que hace el proceso de mezcla.

La técnica MS es popular en el ámbito audiovisual pos su monocompatibilidad.

Página 59 de 90
Apuntes de clase de Sonido 1 de José "Pepe" Rusconi - versión 5.1
SONIDO 1 2016

Clase Nº 9 del 6 de junio

Seteos de equipos de grabación

Frecuencias de emisión.

Las frecuencias que se utilizan están por encima del muestreo. Espectro
audible (en el ej. 557.005 MHz). Es normal que ya vengan seteadas. La
frecuencia para el emisor y el receptor se encuentran en la misma.

Algunos aparatos tienen detectores infrarrojos que, si los enfrentamos, se


ajustan.

En el transmisor debemos comprobar la sensibilidad. Un valor


recomendable es -18 y de ahí ir ajustando. Si el audio entra saturado, luego no
se puede hacer nada.

Seteo de la grabadora.

Cuando es mono por cuatro dice que se hará un archivo por canal. Poly
es cuando va a un solo archivo pero luego se puede separar.

Como tipo de archivo conviene el WAV. Es un archivo en crudo.

Se le debe poner nombre a los archivos:

Project: name

Name 1: Scene 1

Name 2: Scene 2

Otros.

Pause más REC

Al volumen, lo mejor es ponerlo a las 12 hs. No hay que confiar solo en el


oído.

La grabadora, normalmente, permite determinar cómo navegar para


monitorear cada canal en particular.

Puede llegar a tener debajo de cada botón un “solo” para monitorear


por separado.
Página 60 de 90
Apuntes de clase de Sonido 1 de José "Pepe" Rusconi - versión 5.1
SONIDO 1 2016
Los botones pueden estar divididos y la parte de atrás es un anillo o rosca
para la ganancia y esto permite diferenciar el diálogo del fondo. O sea, si tiene
ambos controles, se puede separar volumen y ganancia.

Planilla de sonido

Canales

Esc. Plano Toma CH1 CH2 CH3 CH4 Observ.
arch.

Página 61 de 90
Apuntes de clase de Sonido 1 de José "Pepe" Rusconi - versión 5.1
SONIDO 1 2016

Clase Nº 10 del 13 de junio

Sonido para TV.

Lo importante en un estudio de TV es que esté acustizado. Hay que evitar


que entre sonido exterior.

 Estudio (set o pato)


 Control o controles.
 Sala de programación o Swichert master
 Estudio de grabaciones de voces.
 Oficinas.
 Racks de transmisión.

La intensidad siempre conviene entre -12 y -6 porque 0 es el techo.

SEGUNDO CUATRIMESTRE.

12/9:_ Entrega nuevos grupos

10/10: Entrega TP crudo.

21/11: Entrega corto terminado.

21/11 al 5/12: Segundo parcial.

El programa de la cátedra termina el 14/12.

Página 62 de 90
Apuntes de clase de Sonido 1 de José "Pepe" Rusconi - versión 5.1
SONIDO 1 2016

Clase Nº 11 del 5 de septiembre

COMO SE HACE UNA PELÍCULA.

Workflow o flujo de trabajo.

El resultado de hacer una película es un suceso de decisiones:

Lo primero que equipos usar, como hacer el montaje, donde exhibir.

Lo segundo es el elemento humano. No se hacen películas para las


herramientas sino al revés.

Lo tercero es como financio.

El productor es el que consigue los recursos y el que los administra.

También hay que lidiar con la exhibición. El exhibidor es el que tiene que
convencer a los propietarios de las salas de que pasen la película. Si la peícula
tiene un pobre lanzamiento, fracasa aunque buena.

Es normal que la película, primero haga su recorrido por cines y, luego,


por TV y Neflix. Aquí comienzan los conflictos.

Detrás de pantalla hay tres parlantes. Derecho, central e izquierdo.


Luego, en los laterales, están los surround.

Básicamente, según el número de canales podemos distinguir cuatro sistemas de


sonido: mono (sistema 1.0, la grabación y reproducción del sonido se lleva a cabo mediante un
solo canal), estéreo (sistema 2.0, el audio es grabado y reproducido en dos canales),
multicanal (el audio consta de tres o más canales) y surround (a partir de 4 canales 2/2).

Sistemas de sonido
Página 63 de 90
Apuntes de clase de Sonido 1 de José "Pepe" Rusconi - versión 5.1
SONIDO 1 2016
La nomenclatura utilizada en los sistemas de sonido para designar las diferentes
configuraciones consta de dos números, donde el primer número indica el número de canales
de rango completo (full-range) y el segundo el número de canales de graves (subwoofer),
siendo el número total de altavoces la suma de todos los canales.

En el sonido surround también se suele especificar el número de altavoces frontales y


traseros, utilizando por ejemplo la nomenclatura 3/2.1 en lugar de 5.1.

Según el número de canales podemos clasificar los sistemas de sonido en cuatro


grandes grupos:

 Mono o monoaural (sistema 1.0): la grabación y reproducción del sonido se lleva a cabo
mediante un solo canal, por lo que carece de sensación espacial.

 Estéreo o estereofónico (sistema 2.0): el audio es grabado y reproducido en dos canales,


típicamente canal derecho e izquierdo, creando una sensación espacial, con los altavoces
ubicados delante del oyente.

 Multicanal (sistema 2.1 en adelante): el audio consta de tres o más canales, generalmente
canal derecho e izquierdo y otro para los graves, más otros canales especializados. Por ello,
el equipo precisa tres o más altavoces para reproducir dicha pista.

 Surround (sistema 4.0 en adelante): cuando además de los canales frontales existen canales
traseros, el sonido se denomina sonido surround o sonido envolvente. La terminología
procede del Home Cinema y los videojuegos, siendo la configuración mínima a partir de 4
canales 2/2.

Veamos con más detalle las principales configuraciones de un sistema de sonido:

Página 64 de 90
Apuntes de clase de Sonido 1 de José "Pepe" Rusconi - versión 5.1
SONIDO 1 2016

Surround 4.0

Surround 5.0

Surround 6.1

Página 65 de 90
Apuntes de clase de Sonido 1 de José "Pepe" Rusconi - versión 5.1
SONIDO 1 2016

Surround 7.1

Surround 7.1

Vamos a estudiar Workflow, el camino de la imagen y el sonido desde su


nacimiento hasta su exhibición más las diferentes formas de exhibición.

Muchas veces el gran problema en las películas es el mal asesoramiento.

Por ej., si grabo bien evito costos de rodaje. Un sonido de película (sin
mezcla) puede salir unos $ 300.000.

Hay que preguntarse, como se rodó? Como se va a post-producir?

Filmar viene de film. Hoy se graba porque es digital. Rodaje viene de la


rueda de la cámara que gira.

Pensar en contenidos para cine no es lo mismo que para TV. Una imagen
HD no es solo el tamaño (1920 x 1080), es con que se graba.
Página 66 de 90
Apuntes de clase de Sonido 1 de José "Pepe" Rusconi - versión 5.1
SONIDO 1 2016
Un DNI tiene varios datos. El sistema de edición, cuando le entregamos un
archivo, va a ver la metadata. La cadencia de cuadros.

Si son 24 fotogramas por segundo, en la metadata va el nº de cuadros de


la cadencia, tamaño video, etc.

El sistema de edición, con la metadata, identifica que es un archivo de


video y no de otra cosa.

La imagen y sonido, en sistema doble, se logra por separado. Luego


viene la sincro y luego vuelven a separarse para su tratamiento por separado.

Una cámara ARRI genera imagen a 4K. Si se gasta todo el presupuesto en


producción y no queda nada para postproducción porque se grabó con
mucha calidad, luego corro el riesgo de no poder utilizar toda la tecnología de
post.

El proxy es una copia de baja calidad. Es un clon con modificaciones que


lo hace de baja calidad.

Al terminar una jornada de rodaje hay material de imagen y sonido que


se le entrega al asistente de montaje.

El proxy se puede hacer en el montaje Hay empresas que dan el servicio


de ir a los rodajes para realizar esta operación.

Entonces se puede hacer toda la edición en proxy y, luego el programa,


reemplaza por el original.

Página 67 de 90
Apuntes de clase de Sonido 1 de José "Pepe" Rusconi - versión 5.1
SONIDO 1 2016
Estas cámaras (ARRI por ej.), tienen la propiedad de comunicarse con el
equipo de sonido.

La cámara se linkea con el equipo de sonido para llamar igual al time


code.

Las cámaras red (valen aprox. U$S 1M)) tuvieron problemas con el disco
rígido.

Es importante que, cuando vemos que la tarjeta se llena, tiene que haber
un responsable de descargar el material.

Las xxxxx son las grabaciones de una jornada de rodaje. La película debe
tomar forma durante el rodaje. Es donde se pueden corregir errores que luego
es imposible hacerlo.

Parte del Workflow es disponer cuando debo tener material para


entregar.

4K: 4096 x 2304

2K: 2048 x 1152

1080P: 1920 x 1080

720P: 1280 x 720

DU: 720 x 576

Algunas veces hay que convertir el material para exhibir en lugares


diferentes a los que se pensó.

Las películas están diseñadas para ver y escuchar en un cine. En lugares


diferentes, es cualquier cosa.

Página 68 de 90
Apuntes de clase de Sonido 1 de José "Pepe" Rusconi - versión 5.1
SONIDO 1 2016

Hacer cine significa respetar ciertos estándares.

Si hago una película para cine, la hago en 24 FTS. Si hago un corto para
un TP, lo hago en 25 FTS.

Los países que utilizan la norma PAL usan 25 FTS.

NTSC utiliza lo que era a 30 FTS a 29,997 FTS y, en lo que queda,


pone información de color.

Esto no tiene nada que ver con frecuencia de muestreo, porque


este concepto es para sonido.

Lo mismo que en NTSC, en TV, dejo parte para la información.

Cuando cambio la imagen convirtiéndola, igual debo hacerlo con


el sonido por la sincro. Si saco o agrego cuadros, me tira errores. Lo que
se hace es estirar los cuadros.

Si tenemos 23,75, es más fácil convertirlo a 24 o a 29,97 que a 25.

Dependiendo de cómo la cámara arma los archivos, es como se


elige la cadencia de cuadros. Cada cámara da diferentes opciones.
Pero la resolución no cambia. Se usa 23,976 para registrar, no para
exhibir.

Página 69 de 90
Apuntes de clase de Sonido 1 de José "Pepe" Rusconi - versión 5.1
SONIDO 1 2016
En toda conversión de imagen, algún costo se paga. Algo de
degradación habrá.

El material registrado se lo debe nombrar de forma reconocible,


pero igual hay que hacer las planillas.

Página 70 de 90
Apuntes de clase de Sonido 1 de José "Pepe" Rusconi - versión 5.1
SONIDO 1 2016

Clase Nº 12 del 19 de septiembre

No todos los grabadores pueden registrar la velocidad de cuadros.


La sincronización se hace como si fueran dos relojes, ambos de excelente
calidad, que marcharan igual sin desfasajes. El time code permite
identificar cada cuadro en sonido e imagen.

Cuando se monta, se le indica al sistema que archivo se le está


dando, que profundidad en bits, cuantos FPS, si es poly o mono.

El montajista no puede tomar decisiones de audio. No puede quitar


micrófonos.

Montaje
(imagen)
Proxys
(copias en
menor
calidad de
Post producción
Rodaje la imagen proyección
(sonido)
original con
la misma
Metadata –
propiedades
de la
imagen)
En el montaje todo es diferente de acuerdo a la historia que quiero
contar.

Grabadora Sound Devices 788T


https://www.youtube.com/watch?v=EiJfkPIx5lY graba 8 track. Cada track se
llama ISO. Esto hace que el grabador de 8 archivos más el que mezcla a todos.

Esto se da solo con grabadores de audio que generan y entienden el


código de tiempo.

El montajista toma la mezcla para su trabajo. Luego el sonidista decide


cual es el micrófono que va a utilizar. Pero primero hay que indicarle al
grabador que haga la mezcla.

Página 71 de 90
Apuntes de clase de Sonido 1 de José "Pepe" Rusconi - versión 5.1
SONIDO 1 2016
Lo segundo es indicarle al grabador que sincronice con la cámara. El
tiempo de grabación cuenta HH/MM/SS/FF o CC

Los métodos de grabación pueden ser el Free Run donde el reloj corre sin
interrupción, el Record Run donde el reloj está parado y arranca con REC y
para con STOP y, por último, el Jam Sync donde, con un cable llamado Lemo,
se conecta la cámara con el grabador. De esta forma se sincroniza. Esto es
muy estable y solo se debe controlar un par de veces al día volviendo a hacer
la sincronización.

Se puede presentar un problema cuando, en algunos casos en que se


trabajó con micrófono incorporado a la cámara o exterior a esta, el editor
hace el montaje sincronizando este audio y dejando para la post de sonido el
montaje final.

Esto puede provocar inexactitud en la manera de sincronizar:

 Porque el sonidista ya no ve la claqueta porque le entregaron un


material montado.
 Porque las ondas de ambos sonidos, el captado por los micrófonos
de la cámara y de la grabadora, pueden no coincidir por haber
diferencia en su tiempo de llegada a cada uno de ellos.

También existe un soft llamado Plural Eyes que sincroniza


automáticamente. Pero, la claqueta, siempre se usa.

El montajista trabaja con la mezcla de los ISO. Pide todos los crudos de la
cámara, absolutamente todos.

MATERIALES PARA MONTAJE.

1. Todos los crudos de imagen.


2. Proxys (si no están hechos los hace el montajista)
3. Todos los audios, si se graba sin código de tiempo o, una mezcla
estéreo por toma realizada con todos sus ISO, en caso de que
grabe con código de tiempo).

Página 72 de 90
Apuntes de clase de Sonido 1 de José "Pepe" Rusconi - versión 5.1
SONIDO 1 2016
Etapas:

1. Workflow
2. Rodaje
3. Montaje que se divide en Off Line y On Line.
4. Post producción de sonido
5. Proyección

El Off Line está compuesto por:

 Organización del material


 Sincronización
 Búsqueda narrativa de la película
 Materiales temporarios para montar. Puede necesitar
música y efectos.
 Hacer versión temporal que no es la definitiva para
mostrarla

Si se prepara bien en el Off Line, se puede mostrar mejor y vender más


fácilmente. Esto permitirá tener recursos financieros para el On Line.

En la organización del material se le da nombre.

El Off Line termina cuando el director, montajista, productor y,


eventualmente sonidista, dan por finalizada la película y a esto se denomina
“copia cerrada”.

En montaje, cuando se comienza a trabajar, se le pone unas marquitas al


video.

Al final tengo un video con sonido en el comienzo y en el fin pero, como


sé que está sincronizado en el medio?

Página 73 de 90
Apuntes de clase de Sonido 1 de José "Pepe" Rusconi - versión 5.1
SONIDO 1 2016

Esto es lo primero que va a recibir sonido. Si sonido considera que


está mal, pide otra.

Página 74 de 90
Apuntes de clase de Sonido 1 de José "Pepe" Rusconi - versión 5.1
SONIDO 1 2016

Clase Nº 13 del 26 de septiembre

Off line es la búsqueda de la narrativa con mezclas temporarias. En


el on line ya entran los sonidistas. Se quitan los proxys y se reemplaza por
material original.

Los sistemas de edición tienen una forma de exportar el proyecto


para que otros soft sepan como reemplazar.

Cuando voy a armar la película, le doy el proyecto y le indico el


material original.

Lo primero que se hace es corregir el color. En el proxy no porque


no tiene sentido.

Cuando se hace una película no necesariamente se hace todo en


el mismo soft.

En la corrección del color se utiliza el croma (El croma, o clave de color (del inglés
chroma key) es una técnica audiovisual utilizada muy ampliamente tanto en cine, televisión y
fotografía, que consiste en extraer un color de la imagen (usualmente el verde o el azul) y
reemplazar el área que ocupaba ese color por otra imagen o video, con la ayuda de un equipo
especializado o un ordenador. Esto se hace cuando es demasiado costoso o inviable rodar al
personaje en el escenario deseado, o para evitar el laborioso recorte del personaje fotograma a
fotograma (rotoscopia). Para que esto funcione, la ropa del actor o lo que esté delante del fondo
no pueden ser del mismo color.)

Edición es duración de algo. La duración de un plano es temporal.


Lo que sucede dentro de él es espacial.

Los archivos de intercambio pueden ser OMF o AAF.

OMF: armado multitrack.

En el OMF quedan las instrucciones de cómo están organizadas las


cosas. Cuando exporto a otro sistema, replico.

OMF embebido o encapsulado: es un archivo de intercambio con


el material y las instrucciones de cómo están organizados. Es decir, tiene
media o midia (el sonido) y la metadata. El no embebido (o no

Página 75 de 90
Apuntes de clase de Sonido 1 de José "Pepe" Rusconi - versión 5.1
SONIDO 1 2016
encapsulado) son solo las decisiones de edición (practicamente
metadata pura).

Taglear los chips es cambiar los nombres raros de los archivos por
nombres más normales.

El AAF tiene la posibilidad de transportar imagen y sonido pero,


para que incluya la imagen, hay que pedirla.

OMF no embebido o no encapsulado: Acá hay un archivo con


metadata y otro con el sonido.

La diferencia es por el peso del archivo. El límite es de 2 Gb. En


otras épocas las películas daban para ese tamaño, ahora no es tan así.

El AAF también puede ser embebido o no embebido.

El primer material es la copia cerrada del video, la segunda el OMF


o AAF.

1 – CAPTURA/DIGITALIZACIÓN DEL AUDIO

La captura o digitalización de audio, consiste en pasar el sonido que tenemos grabado en un


formato y soporte determinado (DAT, MD, Cassette...) a un formato y soporte informático (Aiff, Wav,
Mp3..). Esta acción la realizamos, con el fin de poder editar dicho audio con cualquier tipo de software
informático (Protools, Nuendo, Cubase, Logic, etc). Las características tanto de frecuencia (44, 48KHz),
como de profundidad de bits (16, 24 bit), de los archivos de audio, vendrán predeterminadas por las
reuniones con montaje. Normalmente se suele trabajar con archivos AIFF-48 KHz-16 Bit.

Página 76 de 90
Apuntes de clase de Sonido 1 de José "Pepe" Rusconi - versión 5.1
SONIDO 1 2016
A la hora de realizar esta acción, en el archivo de audio final deberemos mantener el cante y el
sonido de la claqueta de los audios brutos, ya que será lo que utilicemos para sincronizar la imagen y el
sonido. Además, renombraremos los archivos resultantes de la forma que se haya acordado con el
montador, especificando secuencia, plano y toma, e incluso fuente si fuese necesario. Por ejemplo, el
fichero de audio correspondiente a la secuencia 3, plano 2, toma 5 grabada con percha, y digitalizada
como fichero aiff 48KHz 16 bit, podríamos nombrarlo: S03P02T05-PE.aif

Para realizar esta operación, necesitaremos varios elementos:

a. REPRODUCTOR DEL SOPORTE ORIGINAL

Si el sonido directo lo hemos grabado en DAT, lógicamente necesitaremos un reproductor de


DAT para que lea nuestras cintas originales; si el soporte de grabación es otro con MD, necesitaremos
un reproductor MD, etc. Es conveniente que dicho reproductor sea lo más profesional posible, ya que
nos dará mejor calidad y nos ofrecerá más y mejores alternativas de conexionado.

b. INTERFACE DE AUDIO Y CABLEADO.

Para pasar el sonido desde el DAT o cualquier otra fuente, al ordenador, necesitaremos una
máquina (hardware) que sea capaz de recibir y transformar en archivos informáticos el sonido que
recibe. Este hardware va desde una simple tarjeta de sonido interna del PC a interfaces de audio
profesionales como los de Digidesign o Motu. Lógicamente cuanto mejor sea dicho hardware, mayor
será la calidad de los archivos de audio. Si trabajamos con el 888 de Digidesign y un DAT profesional,
tendremos la posibilidad de no tener ningún tipo de pérdida de información, ya que ambos trabajan en
un entorno digital (unos y ceros) y mediante la conexión AES/EBU podremos capturar el sonido del DAT
al PC sin alterar las cualidades del archivo original. Si por el contrario, capturamos de forma analógica,
estaremos introduciendo varios elementos de riesgo, y la calidad del archivo informático, dependerá de
varios factores como la calidad de nuestras conexiones, nuestra habilidad a la hora de ajustar la
ganancia, las propiedades del cableado, etc. Lógicamente esto repercutirá en una menor calidad del
archivo informático resultante.

c. SOFTWARE INFORMÁTICO.

Una vez que tenemos conectado el reproductor al interface de audio y éste a su vez conectado
al ordenador, necesitaremos un programa (software) de audio, que nos permita grabar el sonido en el
pc/mac. Los programas que nos permiten realizar esta operación son diversos y van desde la simple
grabadora de sonidos de windows, a programas profesionales como Protools, Cubase, Nuendo, Logic,
etc. Pese a que el principio es el mismo: “Convertir el sonido que entra por el hardware en archivos de
audio informáticos que contienen un muestreo y cuantificación determinado”, el resultado final
lógicamente es bien distinto; los programas de audio profesionales nos ofrecen mucha mayor
Página 77 de 90
Apuntes de clase de Sonido 1 de José "Pepe" Rusconi - versión 5.1
SONIDO 1 2016
versatilidad y realizan el proceso de muestreo y cuantización de una forma mucho más exacta, teniendo
siempre como límite, las posibilidades que nos ofrece la máquina (hardware).

d. SOPORTE DE ALMACENAMIENTO.

Una vez que se ha digitalizado los archivos de audio, y los tenemos en nuestro ordenador,
debemos escoger donde almacenarlos. Si bien podemos mantenerlos en nuestro disco duro (HD),
siempre conviene hacer una copia de seguridad en otro tipo de soporte físico (CD, DVD). Además, esta
copia de seguridad, la utilizaremos para pasar nuestros archivos a montaje para que se encarguen de
sincronización.

La duración de este proceso, variará en función de la cantidad de material a digitalizar y de


nuestra habilidad para hacerlo. Considerando que es a tiempo real, y que no surga ningún
inconveniente, tendrá un ratio aproximado de 3:1. Es decir, para digitalizar 10 minutos de bruto,
tardaremos aproximadamente 30 minutos.

2 – SINCRONIZACIÓN Y MONTAJE

Mientras los encargados del sonido se ocupan de la captura del audio, los encargados del
montaje digitalizan la imagen. Una vez el sonido y la imagen están capturados, el siguiente proceso es la
sincronización de ambos; para ello, se buscará el punto de imagen que coincide con el cierre de la
claqueta, y se situará el golpe de sonido de dicha claqueta en ese punto.

Una vez se tienen sincronizados los planos, se procede al montaje. Es conveniente que haya una
relación fluida entre los responsables de postproducción, ya que esta fluidez nos permitirá ahorrar
mucho tiempo y nos facilitará el trabajo. Mientras se realiza el montaje, los responsables de sonido
pueden aprovechar para ir viendo que tipo de efectos va a necesitar, buscar ambientes, hacer pruebas
de limpieza, buscar sonidos específicos que se necesiten e incluso facilitar este material a montaje.

Concluido el montaje de la imagen, el montador pasará a los responsables de sonido un archivo


OMF, que contendrá los diferentes archivos de audio en sus posiciones dentro de una línea de tiempos.
Es conveniente que exporten este archivo sin ningún tipo de automatización ni efecto, ya que puede
ocasionar fallos de incompatibilidad. Junto con este archivo OMF, también se pasará un archivo de video
a baja calidad (Quicktime, codec Sorenson, compresión de 75% y resolución de “medio pal”), que servirá
como referencia de imagen para la edición de audio. El motivo de que dicho video tenga estas
cualidades, es que nos permita trabajar con el editor de audio, sin cargar en exceso la máquina y no de
ninguna incompatibilidad de formato.

IMPORTANTE: El OMF y el archivo de video que se pasa, se considera el montaje final, por lo que
no se modificarán ni planos, ni las duraciones de los mismos. Sólo se realizarán retoques de imagen en

Página 78 de 90
Apuntes de clase de Sonido 1 de José "Pepe" Rusconi - versión 5.1
SONIDO 1 2016
los planos ya existentes, sin modificar sus tiempos; es decir, se etalonarán los planos y se insertarán los
efectos especiales pertinentes en las imágenes ya existentes. También se pueden incluir los títulos de
crédito iniciales y el rodillo final, ya que no afectará a la edición de sonido; eso sí, el montador debe
informar de la duración de los planos insertados al comienzo y al final del montaje. Si por algún casual,
los títulos fueran intercalados, el montador debe notificar el código de tiempos donde comienza, y la
duración de dichos títulos.

3 – EDICIÓN DE SONIDO

En este proceso, el equipo de postproducción de sonido, se encargará de seleccionar y colocar


los diferentes archivos de sonido en diferentes pistas. Para ello, debe utilizarse un software que nos
permita trabajar con varias pistas dentro de una línea de tiempos, y que nos permita visualizar el video a
editar; es decir, debemos utilizar un secuenciador multipista de sonido (Protools, Nuendo, Cubase,
Logic...). Para facilitar la localización de los diferentes archivos, es fundamental la organización y
nomenclatura de las pistas. Un standard utilizado renombrando las pistas es:

SD1 En estas pistas, colocaremos el sonido directo. En caso de que

SD2 tengamos de rodaje a cada protagonista grabado en pistas diferentes,

SD3... podemos incluso nombrar las pistas por el nombre, en vez de SD1,2, etc.

DOB1

DOB2 Si fuera necesario el doblaje, lo insertaríamos en estas pistas.

DOB3...

AMB1

AMB2 Pistas destinadas a la colocación de ambientes

AMB3...

ATM1

ATM2 Aquí situaremos los diferentes archivos de atmósferas

ATM3..

FOL1

FOL2 Pistas dedicadas a efectos sala (Folley)

FOL3...

FX1

Página 79 de 90
Apuntes de clase de Sonido 1 de José "Pepe" Rusconi - versión 5.1
SONIDO 1 2016
FX2 En estas pistas insertaremos los efectos especiales de sonido

FX3...

MUS1

MUS2 En estas pistas colocaremos los diferentes pasajes musicales

MUS3...

El primer paso del proceso, es colocar la edición de sonido que proviene de montaje, en las
pistas de nuestro secuenciador. Puesto que montaje nos pasa un archivo OMF, deberemos utilizar un
programa que nos “traduzca” esa edición a una sesión de nuestro secuenciador. En el caso de que
utilizemos Protools, necesitaremos un plugin llamado “Digitranslator” o el “OMF Tool”, mientras que
otros programas como Nuendo, ya tienen esa función incluida en el propio programa.

Una vez que ya tenemos la edición de sonido de montaje (OMF), colocada en las pistas de
nuestro programa de sonido, el siguiente paso, es escoger los archivos válidos, recortar sonidos
innecesarios y afinar los puntos de corte, así como ir colocando los diferentes archivos en las pistas
oportunas (las pistas que nombraremos como SD para Sonido Directo). En el caso de que alguna
palabra, frase o sonido concreto, tenga algún fallo (bien ruido de fondo, bien esté saturada o cortada),
podemos buscar en los otros archivos de sonido de otras tomas de esa secuencia, esa palabra o sonido
concreto, y colocarla sustituyendo la correspondiente a la imagen (muchas veces la toma buena de
imagen no es la buena de sonido). En caso de que esta opción no sea posible, y no se pueda recuperar
de ninguna forma el diálogo o diferentes sonidos de la acción, tendremos que recurrir al doblaje o a los
efectos sala (folley) respectivamente. Por norma este tipo de pistas suelen ser mono, y las situaremos en
el centro (sin panoramizar) ya que de otro modo despistaríamos al espectador. Sólo se suelen
panoramizar las voces, si los personajes que hablan no salen dentro del plano, y lo haremos para ubicar
espacialmente al actor/actriz.

Cuando ya tenemos colocados, recortados y afinados los archivos de sonido de diálogos (directo
y doblaje), el siguiente paso es añadir los ambientes y atmósferas para unificarlos, para que no se noten
los cortes. Es preferible usar los archivos de ambientes y atmósferas reales, grabados en la propia
localización en la que se desarrolla la acción de la imagen. Si en rodaje no se grabaron, siempre se puede
recurrir a ambientes de bibliotecas de sonido, aunque son más irreales. Por norma, estos ambientes
“enlatados” los usaremos para enriquecer, más que para unificar. Estos archivos sí suelen ser stéreo, y
tendremos que tener especial cuidado a la hora de colocar los archivos L y R (Izquierda y Derecha).

Para enriquecer aún más nuestra edición de sonido, insertaremos los efectos especiales
oportunos. Estos efectos pueden ser sonidos reales grabados y/o tratados, o bien sonidos creados

Página 80 de 90
Apuntes de clase de Sonido 1 de José "Pepe" Rusconi - versión 5.1
SONIDO 1 2016
artificialmente mediante síntesis (sintetizador). Conviene no abusar de los efectos y usar los que
realmente sean necesarios para reforzar la imagen o darle a la misma un sentido determinado. Al igual
que los archivos de diálogo, la mayoría de los efectos se suelen trabajar en pistas mono, lo que nos
permitirá mayor versatilidad para jugar con la panoramización.

Finalmente, procederemos a añadir los diferentes pasajes musicales. En nuestra sesión de


edición audiovisual, incluiremos los archivos de las canciones finales (L y R); en caso de que la banda
sonora sea original, haremos diferentes sesiones para cada tema, incluyendo las diferentes pistas de los
instrumentos, las mezclaremos y el archivo resultante, es que el que incluiremos en la sesión de la
edición; así no utilizaremos un excesivo número de pistas en dicha edición. Estos pasajes musicales,
pueden realizar varias funciones, dependiendo de su intencionalidad (diegética, extradiegética).
Podemos usarlas a modo de enlace de secuencias, como propia parte de la acción o para transmitir o
resaltar un sentimiento determinado.

4 – POSTPRODUCCIÓN DE SONIDO

Esta fase puede ir intercalada con la edición. Mientras en la edición nos encargamos de ubicar
los diferentes archivos en la línea de tiempos, en la postproducción de sonido, modificaremos las
cualidades naturales de los mismos. Es decir, le aplicaremos una serie de procesos (efectos) que le
modificarán su frecuencia, su amplitud o su forma de onda, con el fin de mejorar la calidad del sonido de
nuestra edición.

Los efectos a utilizar, bien pueden ser externos (ecualizadores, compresores, reverbs) o bien
pueden ser simulados por software (plugins y programas informáticos). Los secuenciadores por norma,
suelen incluir un buen número de plugins (reverbs, delays, compresores, reverse, etc.) aunque suelen
ser insuficientes y bastante simples; por ese motivo, también suelen tener la opción de añadirles más
mediante Direct X, VST’s, RTA’s, TDM’s, etc. Otra opción, es utilizar otro programa más especializado
aparte de nuestro secuenciador, es decir, usar editores como Sound Forge, Wave Lab, etc. En ese caso,
los archivos tratados, tendremos que importarlos posteriormente a nuestra edición.

Los efectos más usados son:

ECUALIZACIÓN: Modifica la frecuencia para hacer el sonido más brillante, más oscuro, simular
telefonos, etc.

REVERB/DELAY: Simula las reflexiones que se producirían en locales cerrados o reproducir un


eco. Muy usado para dar credibilidad a los archivos de doblaje.

TIME COMPRESS-EXPAND: Para modificar la duración de los archivos de sonido. Muy útil para
ajustar los archivos de diálogo falseados (de otras tomas o doblaje).

Página 81 de 90
Apuntes de clase de Sonido 1 de José "Pepe" Rusconi - versión 5.1
SONIDO 1 2016
PITCH: Se usa para modificar el tono.

COMPRESOR/LIMITADOR: Para aumentar la señal, reducir distancias dinámicas y limitar el


volumen de salida.

EXPANSOR/PUERTA DE RUIDO: Para eliminar ruidos de fondo por debajo de un umbral


dinámico.

Aparte de aplicar distintos efectos a los archivos de sonido, una vez finalizada la edición, durante
la mezcla también se pueden aplicar distintos efectos a los diferentes subgrupos e incluso al archivo
final resultante.

5 – MEZCLA FINAL

En este proceso, ajustaremos los niveles de audio de las diferentes pistas, así como afinaremos
cuando proceda, la mezcla 5.1. Para ello, se usará un mesa de mezclas y unos monitores de escucha
reales. Para facilitar el proceso de mezcla cuando disponemos de pocos canales en nuestro mezclador,
primero se hará un premezcla entre las pistas de los diferentes grupos: (Una premezcla de Diálogos, otra
de Ambientes, otra de Efectos, otra de Músicas, etc), para posteriormente, sólo tener que afinar los
volúmenes de cada grupo, y trabajar únicamente con 5 o 6 pistas.

La mezcla final, puede grabarse desde las salidas de la mesa a un soporte analógico (Revox,
Cassette), digital (DAT, BTD, MD..) o magneto-óptico (Dolby); o por el contrario, si la mesa nos permite
controlar y modificar los parámetros de nuestro software (vía USB, MIDI, Firewire, etc), podremos
exportar una mezcla final en un archivo informático (Aiff, Wav, AC3..) desde nuestro propio
secuenciador, realizando una mezcla final simulada por el programa (Bounce).

Una vez realizada la mezcla final, se le pasará el archivo a montaje en el formato que hayamos
acordado (Aiff, Wav para stereo; AC3, múltiple mono para 5.1), que lo sincronizará con la imagen
mediante el bip de sincro (Es un tono de 1 KHz de 1 fotograma de duración, que se coloca 48 fotogramas
exactamente antes del primer fotograma de imagen).

Una vez que este sincronizado el sonido y la imagen, montaje exportará el fichero audiovisual
definitivo.

Página 82 de 90
Apuntes de clase de Sonido 1 de José "Pepe" Rusconi - versión 5.1
SONIDO 1 2016

Clase Nº 14 del 17 de octubre

Cuando comienza a trabajar sonido en la post, lo primero que


recibe es una copia. Esta copia tiene una marca de sonido.

Los montajistas montan, no la película de corrido, sino en actos.


Cada acto tiene 20 min. Esto es porque en la época de los 35 mm cada
rollo duraba 20 mm.

A sonido le interesa una imagen cerrada pero con sonido abierto.

Los métodos de intercambio OMF o AAF es porque montaje y


sonido trabajan con herramientas diferentes.

En video se habla de proyectos y en audio de secciones. Se usa,


generalmente, el soft Pro Tool. En este se comienza creando una sesión
en blanco y se indica que tipo de archivo de audio se utilizará, que
frecuencia de muestreo, que profundidad en bits, el nombre de la
película.

A continuación de cargar todos estos datos se abre una ventana.


Lo primero que se hace es tomar el OMF del montajista e importarlo.

En caso de que el montajista trabaje con mezclas, se recomponen


las ISO´s.

Mirar en apuntes “Depuración de OMF””.

Cada acto de una película dura un máximo de 20 mim. El sistema


en que se exhiben es DCP. Solo las lee ese sistema, en un equipo
hogareño no se puede.

Ya no se trabaja en 35 mm pero los actos son de 20 mm. o, el


montajista, puede mandar un “show continuo”.

El Nº de acto define la hora de inicio de cada acto, o sea, hora 1


es el acto. 1.

El montajista es quien decide si manda actos o show contínuo. Esto


lo hace de acuerdo a como maneja la organización con actos. Si hay

Página 83 de 90
Apuntes de clase de Sonido 1 de José "Pepe" Rusconi - versión 5.1
SONIDO 1 2016
cambios, no se modifica la organización del conjunto. También ayuda a
trabajar con el equipo más aliviado. Pero esta es una cuestión técnica y,
hoy día, no debería haber restricciones por limitaciones del equipo.

Algo importante es saber la cadencia de cuadros. Luego hay que


alinear el video.

La cuenta regresiva es el start, líder o marca de sincro.

En el Nº 2 de la misma debe haber el sonido de un bip. Ese bip


debe durar un fotograma. Hay que alinear el Nº 2 con el bip. Y todo
queda en sincro.

Todos los actos comienzan con una cuenta regresiva. Dos


segundos después del 1º bip, comienza la acción. Hay dos bip´s. Uno al
principio y, otro, al final.

El último bip va a estar 2 seg. Después del último fotograma de


acción.

La copia cerrada es la versión final.

Si por alguna razón hay cambios en el montaje, existen formas de


identificar y reemplazar.

Las etapas del montaje de sonido son las siguientes:

1º: Edición de diálogos.

2º: Grabación de ambientes.

3º: Grabación de foley.

4º: Música.

Hasta aquí se puede trabajar en simultáneo. En la siguiente ya no


porque es la final. Esta es:

5º: La mezcla.

Los datos que debe contener la copia que envía el montajista son:

 Nombre de la película

Página 84 de 90
Apuntes de clase de Sonido 1 de José "Pepe" Rusconi - versión 5.1
SONIDO 1 2016
 Nº de acto.
 Tiempo.
 Nº de fotograma.
 Fecha.

En show continuo:

 Nombre de la película,
 Cadencia de cuadros,
 Fecha.

Respecto a la música, no es lo mismo la música de una película


que la música que no se escucha en cine.

Cuando envían la música de una película, lo hacen en un track


donde contiene un sonido y la suma de los track debe componer el
stereo.

Con el Pro Tools se puede indicar por donde sale cada uno. El
músico puede enviar la música ya mezclada o la familia de sonidos. Igual
pasa con el room tone. Todo esto se maneja con la herramienta de
paneo. Con el sonido se amplía el encuadre pero hacia la sala.

Página 85 de 90
Apuntes de clase de Sonido 1 de José "Pepe" Rusconi - versión 5.1
SONIDO 1 2016

Clase Nº 15 del 24 de octubre

Evaluación de los crudos.

Clase Nº 16 del 31 de octubre

Demostrativa de montaje

Página 86 de 90
Apuntes de clase de Sonido 1 de José "Pepe" Rusconi - versión 5.1
SONIDO 1 2016

Clase Nº 17 del 7 de noviembre

EL AMBIENTE

Poner contexto sonoro.

El fondo de grabación nada tiene que ver con el ambiente.

Cuando grabo en un set, el fondo no va a aportar nada al relato.


Cuando grabo ambiente puedo darme cuenta donde transcurre el
relato aunque cierre los ojos.

El ambiente no es solo el sonido del plano. Debe ser invasivo. Con


el 5.1 los sourround envuelven, invaden.

 Mejorar la historia, el flujo narrativo estableciendo lugar y tiempo,


periodo histórico, a través de atmósferas y efectos.
 Agregar ritmo, emoción e impacto usando un total de rango
dinámico disponible según el formato de exhibición.
 Completar la ilusión de realidad y perspectiva a través del uso de
efectos y la reconstrucción del espacio acústico usando
ecualizadores y reverberación artificial. (Un ecualizador es un dispositivo
que modifica el volumen del contenido en frecuencias de la señal que procesa. Para ello
modifica las amplitudes de sus coeficientes de Fourier, lo que se traduce en diferentes
volúmenes para cada frecuencia) (Reverberación es el fenómeno acústico de reflexión
que se produce en un recinto cuando un frente de onda o campo directo incide contra las
paredes, suelo y techo del mismo. El conjunto de dichas reflexiones constituye lo que se
denomina campo reverberante).
 Completar la ilusión de no realidad y fantasía a través del diseño
de sonido y procesamiento del mismo.
 Cada decisión de sonido debe responder a un interrogante. Que
quiero transmitir con el sonido.
 Completar la ilusión de continuidad en escenas y planos que
fueron tomados discontinuamente.

Página 87 de 90
Apuntes de clase de Sonido 1 de José "Pepe" Rusconi - versión 5.1
SONIDO 1 2016
 Completar la ilusión de ancho / profundidad espacial
posicionando los elementos sonoros en el campo estéreo o
surround.
 Entregar el material final (stems) acorde a las condiciones técnicas
del formato de exhibición.
Los stems son los 5.1 de cada sonido. O sea, de diálogos, de
ambiente, etc.
 La banda internacional son todos los stems pero sin los diálogos.
Full mix 5.1 y estereo es todo el sonido de la película.

USO DE AMBIENTES.

Tomas de conjunto es cuando se toma todo el sonido y separadas


cuando se toma cada uno.

Página 88 de 90
Apuntes de clase de Sonido 1 de José "Pepe" Rusconi - versión 5.1
SONIDO 1 2016

Así es un 5.1. En caso que se independicen los del fondo y se


constituyan dos canales más, sería un 7.1.

FIN DE LA CURSADA.

Página 89 de 90
Apuntes de clase de Sonido 1 de José "Pepe" Rusconi - versión 5.1

Das könnte Ihnen auch gefallen