Material extraído del libro “Postproducción digital, cine y vídeo no lineal”.
Autores: José Luis Fernández Casado y Tirso Nohales Escribano. UT 11: POSTPRODUCCIÓN LINEAL
1. Introducción:
La edición de vídeo mediante el uso de un ordenador llamado
controlador de edición o editora comenzó a mediados de los años 70, tras aparecer el código de tiempo. La identificación del magnetoscopio como dispositivo periférico del ordenador fue el primer paso en la introducción informática o digital dentro del, hasta entonces, medio analógico que representaba el vídeo. En el camino hasta la actual grabación de audio y vídeo digital en disco de ordenador o en magnetoscopio digital, ha habido otros momentos importantes. La cadena tecnológica comenzó con la aparición del corrector de base de tiempos digital, el TBC, que permitía la manipulación de la forma de onda de la señal, y que abrió el camino a las memorias de cuadro, capaces de almacenar uno o varios fotogramas de vídeo. Estos sistemas, a su vez, dieron impulso a los generadores de efectos digitales, equipos revolucionarios que permitían manipular y mover la imagen de vídeo en tiempo real. Igualmente revolucionaria fue la salida al mercado de los primeros sistemas digitales de dibujo: las paletas gráficas, que utilizaban medios digitales y electrónicos para elaborar gráficos, acortando tiempos y facilitando procesos que se mantenían casi sin cambios desde el nacimiento del medio televisivo. A su vez, a mediados de los 80 se empezaron a introducir los archivos digitales, que permitían el almacenamiento y recuperación de imágenes. El paso siguiente fue el grabador de disco digital o grabador en estado sólido, que permitía leer imágenes, almacenarlas, o reproducir y grabar simultáneamente añadiendo una nueva información en cada caso. Paulatinamente se han seguido convirtiendo al medio digital diferentes equipos, y han ido saliendo al mercado, por ejemplo, magnetoscopios, y mezcladores de vídeo y audio digitales. Los sistemas se han abaratado y cada vez existen más estudios y más salas de postproducción digitales. Así hemos saltado de la sala de postproducción analógica a la sala digital, en algunos casos pasando por una convivencia de equipos analógicos y digitales en el mismo recinto.
2. TBC y Sincronizadores:
El corrector de base de tiempos (TBC) es un dispositivo electrónico que
puede procesar la forma de onda analógica de la señal de vídeo, y se utiliza para corregir y estabilizar la reproducción de las imágenes. Antes de su existencia ocurría con frecuencia que una cinta grabada en una máquina no se podía reproducir en otra, por variaciones mecánicas entre ellas. También creaba problemas el copiado de cintas, debido a que en el proceso se podían introducir degradaciones tanto en el vídeo como en los sincronismos, y los reproductores no eran capaces luego de estabilizar las imágenes. Se desarrollaron correctores de base de tiempos analógicos de ventana estrecha, para procesar y recolocar las señales de sincronismos inestables. El término "ventana estrecha" hace mención a la cantidad de tiempo que el corrector era capaz de corregir: sólo dos microsegundos. Reprocesando los Material extraído del libro “Postproducción digital, cine y vídeo no lineal”. Autores: José Luis Fernández Casado y Tirso Nohales Escribano. sincronismos hay una mayor probabilidad de reproducir correctamente una cinta donde éstos estén distorsionados. Los correctores de base de tiempo digitales de ventana ancha aparecieron a finales de los años 70, y proporcionaban de una a doce líneas de corrección de error. Esto era un gran avance y permitió utilizar en emisión algunos nuevos formatos como el Betacam. Cuando este tipo de cinta comenzó a utilizarse para las noticias de los informativos, se hizo necesario difundir directamente las cintas originales (por escasez de tiempo para su procesado). Era imprescindible, para asegurar que la cinta saliera al aire en buenas condiciones, la utilización de un TBC que pudiese corregir digitalmente las variaciones mecánicas entre la máquina de reproducción del estudio y el camcorder (cámara y grabador portátil, que resulta menos estable). Los correctores de base de tiempos dieron paso a las memorias de cuadro, dispositivos que pueden almacenar uno o varios cuadros de vídeo. Una de las razones por las que se desarrollaron las memorias de cuadro fue la necesidad de transmisión de señales remotas en directo. En el proceso de difusión televisiva, todas las fuentes que forman parte de un programa tienen que estar en fase, y así el vídeo de una noticia debe estar en sincronía con la cámara del presentador, y con la línea que llega de la conexión en directo. Si no hay sincronización entre las diferentes señales de vídeo que llegan al mezclador, alguna de las fuentes puede aparecer como una imagen inestable. El genlocking o enganche en fase es el nombre del proceso que proporciona esta sincronización. Cuando las fuentes se ponen en fase, un generador de sincronismos maestro ha de suministrar las señales básicas de estabilización: el patrón de sincronismos horizontales y verticales, y la subportadora de color. Cada fuente se ha de enganchar a estas señales de modo que los generadores de sincronismos internos de cada aparato generen la misma frecuencia y fase que el maestro. Sin embargo, cuando la señal es enviada a la emisora de televisión por medio de un enlace de microondas o por satélite, no hay manera de enganchar la cámara. En este caso se utilizan los sincronizadores, que introducen la señal recibida en una memoria de cuadro, la cual procesa y pone en fase la señal mediante un procedimiento simultáneo de escritura y lectura de diferentes posiciones de la memoria. Tras esto las imágenes ya pueden ser sacadas al aire. Si la transmisión suministrada por la cámara falla repentinamente, la memoria de cuadro normalmente entrega el último cuadro almacenado. Por eso en las retransmisiones deportivas por satélite, ocasionalmente se congela la imagen. Lo que ocurre es que la memoria de cuadro del sincronizador congela el último fotograma completo antes de perder la señal, mientras trata de volver a enganchar los siguientes cuadros que le van llegando. Un posterior planteamiento consistió en utilizar la señal ya almacenada en la memoria para realizar una serie de efectos muy sencillos, que constituían nuevas herramientas incorporadas en los sistemas mencionados. Así podía ser el manipular la luminancia, crominancia y otros parámetros de la señal de vídeo, en el caso del TBC; o por ejemplo la presentación de la imagen reducida de tamaño, en el caso de los sincronizadores. La introducción de estos equipos se potenció con la espectacularidad en aquellos momentos de dichos efectos, dada por ejemplo la facilidad con la que era posible cambiar el tamaño de la imagen en una época en que el único Material extraído del libro “Postproducción digital, cine y vídeo no lineal”. Autores: José Luis Fernández Casado y Tirso Nohales Escribano. tamaño era la pantalla completa. Además, los sincronizadores permitían conseguir efectos de mosaico, bordes coloreados en las imágenes reducidas, recorte o cropeado de la señal, etc.
Los avances en velocidad de proceso hicieron que se pensara en el
diseño de un equipo dedicado exclusivamente a la generación de efectos digitales, pasando del procesamiento dentro del plano de la pantalla a uno más complejo que introducía la apariencia de perspectiva, simulando así la colocación de la imagen en el espacio tridimensional.
3. Generador de efectos digitales:
Nacidos a partir de los avances conseguidos con el procesamiento de la
señal digital dentro de los TBCs, es con la introducción de la perspectiva con lo que los generadores de efectos digitales o DVEs alcanzan su mayoría de edad, rápidamente consolidada con nuevos efectos como la realimentación o las luces, que añaden mayor sensación de realismo. Además se pueden conectar varios canales de efectos para generar figuras como cubos, prismas, etc. Y, por supuesto, los efectos pueden ser almacenados en disquete y recuperarse posteriormente. También fue importante el desarrollo de los canales de key (key-channel), que posibilitan realizar efectos solamente sobre las zonas de la imagen definidas por la señal de llave o de key. En lugar de manipular mediante rotación o desplazamiento la imagen completa, por ejemplo un logotipo sobre un fondo, si disponemos de la señal de key de parte de ésta, la que definiría el contorno del logotipo o su silueta en blanco sobre negro (aunque también se podría utilizar al revés), podemos manipular sólo la zona de imagen que comprende exclusivamente al logotipo, desapareciendo el fondo. De igual manera, utilizando las salidas de vídeo y de key que proporciona un titulador, podemos animar los rótulos en el DVE para luego incrustarlos en el fondo deseado. La aparición de efectos curvilíneos supuso otro hito en la evolución de los DVEs, al pasar de trabajar sólo con imágenes planas a poder simular que se doblaban y moldeaban según unas formas determinadas.
4. Postproducción lineal:
La postproducción es la realización de todos los procesos que un
programa necesita tras su grabación para su perfecto acabado. Esta definición en algunas ocasiones no es precisa, ya que hay muchos procesos de postproducción que deberían estar terminados antes de la grabación, como la elaboración de la cabecera del programa. Hay que añadir que vamos a hablar casi en exclusiva de la postproducción de vídeo, ya que el tema del audio no es objetivo principal en este trabajo, de manera que cuando empleamos el término postproducción, sólo nos referimos a la postproducción de vídeo. En cualquier caso, la postproducción reúne todas las técnicas que tienden a hacer más atractivo el producto final, desde el montaje o la incrustación de un rótulo, a elaborados procesos tridimensionales. Hasta hace unos años esas técnicas implicaban la utilización de diversos equipos. Por tanto, un postproductor debía conocer y en muchos casos saber manejar todos Material extraído del libro “Postproducción digital, cine y vídeo no lineal”. Autores: José Luis Fernández Casado y Tirso Nohales Escribano. ellos: magnetoscopios de distintos formatos, mesas de edición, mezcladores, correctores de color, generadores de efectos, tituladores, grabadores de disco duro, paletas gráficas e incluso sistemas 3D. Esos conocimientos tan amplios eran precisos para poder hacer una planificación de los trabajos complicados, decidiendo los métodos de elaboración en cada caso, los equipos a emplear, el tiempo de utilización de cada uno, y el orden de cada proceso. Por otro lado, todos esos dispositivos resultaban muy caros y su integración podía ser compleja, siendo necesaria una gran destreza operativa. La estructura de las antiguas salas de postproducción venía definida por la tecnología analógica en la que se basaban los equipos. Había que controlar, y muchas veces limitar, el número de generaciones de las copias. Los ajustes técnicos eran complicados y requerían mucho tiempo, consistiendo no sólo en controlar los niveles sino que, además, había que ajustar la fase de las señales con márgenes de pocos nanosegundos para evitar problemas de sincronismos, o los feos y habituales bordes en las imágenes tratadas. Por otra parte, debido a la propia naturaleza de la cinta de vídeo, las operaciones se realizaban en tiempo real. La necesidad de operación síncrona obligó a requerimientos técnicos de enfasamiento de las señales que limitaban el número de operaciones que se podían realizar en una pasada. Si eran demasiadas se introducían retardos en la señal y la volvían asíncrona. Se podían llevar a cabo procesos más complejos grabando un resultado parcial y volviéndolo a pasar por el sistema tantas veces como fuera necesario, o sea haciendo varias generaciones. Pero esto introducía el problema de las pérdidas por generación, además de las dificultades prácticas para lograr buenos y sofisticados resultados construidos fragmento a fragmento. Todo ello dio como resultado instalaciones muy grandes diseñadas para conseguir ediciones y efectos de vídeo complicados en una o muy pocas pasadas. El puesto del operador, repleto de teclados, paneles y pantallas, parecía el de una nave espacial. Otro problema habitual era la variedad de monitores y su diferente respuesta, lo que provocaba situaciones en las que no se sabía cual de ellos era más fiable. En general, los sistemas de postproducción lineal basados en cinta fueron víctimas de su propio éxito y llegaron al límite de su desarrollo. Para ir más allá había que cambiar toda la estructura del sistema. Las salas de postproducción más grandes se diseñaron con una estructura en paralelo, que permitía realizar procesos simultáneamente en varios equipos. Aunque con varias personas operando los sistemas se podían reducir algunos problemas de tiempo, se necesitaban controladores de edición muy sofisticados para coordinar todas las herramientas. Puesto que los diferentes equipos tienen sus características propias, la editora sólo es capaz de manejar totalmente una parte de ellos, generalmente los VTRs, el mezclador, y a veces el DVE, que otras veces se acciona mediante impulsos de referencia o GPls (interfaces de propósito general), señales que disparan acciones o efectos previamente preparados. La evolución del medio digital y los continuos equipos salidos al mercado implicaban un continuo esfuerzo por estar al día. Material extraído del libro “Postproducción digital, cine y vídeo no lineal”. Autores: José Luis Fernández Casado y Tirso Nohales Escribano. La aparición de los mezcladores de vídeo y audio digitales, y del VTR digital en componentes D1, hizo posible trabajar de principio a fin en un entorno completamente digital, eliminando el problema de las pérdidas por generación, con el aumento de posibilidades que eso supuso. Así, durante cierto tiempo la postproducción de alto nivel se pasó a elaborar en salas de equipamiento digital. Se usaban máquinas digitales diferenciadas: del DVE al mezclador de audio y de vídeo, con magnetoscopios también digitales. También se probó el uso de grabadores en disco duro sustituyendo a los VTRs, lo cual presentaba ventajas frente al uso de la cinta, en concreto un acceso más rápido y menos mantenimiento. Pero así no se cambiaba el método general de operación ni el diagrama de bloques general de la sala de postproducción, que en vez de trabajar con magnetoscopios, utilizaba grabadores de disco. La sala seguía pareciendo una nave espacial. La tendencia actual al uso de una plataforma, el ordenador, que aglutina todo tipo de tareas, ha creado un enfoque nuevo de la postproducción digital: la postproducción integrada, que reúne en una estación de trabajo diferentes programas y herramientas compatibles entre sí, y permite todo tipo de procesos desde el mismo puesto. Para entenderlo mejor, pasemos a analizar la situación de las salas tradicionales de postproducción digital, sus problemas y sus posibles mejoras. Los sistemas lineales tienen muchos puntos fuertes. Durante años han definido lo que significa on-line, así que es inevitable que resulten idóneos para su aplicación. Los clientes y los usuarios entienden ya perfectamente los equipos lineales, que constituyen así un entorno de trabajo coherente y familiar. Cuando el grabador está funcionando todo ocurre en tiempo real, no hay tiempos de espera para los efectos. Sin embargo, cada uno de estos puntos fuertes oculta un inconveniente. Una comprensión clara de lo que se puede y no se puede hacer en un sistema lineal conlleva necesariamente reconocer que la tecnología está limitando la operación. Que todo ocurra en tiempo real puede ser una ventaja al crear efectos complejos, pero la dificultad de añadir un plano en medio de una edición constituye su mayor debilidad. Modificar los trabajos, hacer versiones diferentes o volver a empezar un trabajo que ha sido interrumpido, provoca muchos dolores de cabeza. La edición de vídeo basada en copiar restringe la flexibilidad: No es posible reordenar planos y reajustar puntos de edición de manera fácil y rápida, una vez que se han copiado en la cinta de grabación. Los controladores de edición han desarrollado estrategias para ocuparse de esto, como sistemas avanzados de gestión de EDLs y funciones de time-track de ediciones anteriores, pero en realidad sólo hay dos opciones para hacer cambios: repicar la secuencia editada o empezar de nuevo, y ambas llevan tiempo. Por otro lado no existe la posibilidad de acceso compartido a las imágenes sin hacer copias múltiples de las cintas fuente, o sea que no es fácil para otros sistemas acceder a una edición que se está efectuando.