Sie sind auf Seite 1von 5

FORMATOS DE VIDEO

Existen tres formatos de vídeo de gran implantación: el QuickTime Movie (MOV), el


AVI y el correspondiente al estándar MPEG. El formato QuickTime Movie (MOV),
creado por Apple, es multiplataforma y en sus versiones más recientes permite
interactuar con películas en 3D y realidad virtual. El AVI (Audio Video Interleaved,
audio vídeo intercalado) es un formato también multiplataforma. Tanto *.avi como
*.mov son contenedores de audio y vídeo con lo que son formatos de archivo, a este
archivo habría que especificarle el tipo de video o audio que está conteniendo y que
puede ser sin compresión o con la compresión soportada por dicho fichero como
pueden ser para los *.avi el divx, Dv-pal, etc y para *.mov el sorenson, H264, etc. El
formato correspondiente al estándar MPEG (Moving Pictures Experts Group) produce
una compresión de los datos con una pequeña pérdida de la calidad; desde su
creación, se ha definido el MPEG-1, utilizado en CD-ROM y Vídeo CD, el MPEG-2,
usado en los DVD de Vídeo y la televisión digital, y el MPEG-4, que se emplea para
transmitir vídeo e imágenes en ancho de banda reducido; es un formato adecuado
para distribuir multimedia en la Web. El formato MPEG4 es la base de actuales
formatos como el divx xvid o el H264 siendo este último (H264) un codec tan potente
que soporta vídeos de gran formato y calidad excelente con anchos de banda muy
reducidos.

FORMATOS DE MUESTREO

50 Hz Vídeo PAL.

60 Hz Vídeo NTSC.
PAL es la sigla de Phase Alternating Line (en español línea de fase alternada). Es el
nombre con el que se designa al sistema de codificación utilizado en la transmisión de
señales de televisión analógica en color en la mayor parte del mundo. Se utiliza en la
mayoría de los países africanos, asiáticos y europeos, además de Australia y algunos
paísesamericanos.

NTSC (National Television System Committee, en español Comisión Nacional de


Sistemas de Televisión) es un sistema de codificación y transmisión de Televisión en
coloranalógico desarrollado en Estados Unidos en torno a 1940, y que se emplea en la
actualidad en la mayor parte de América y Japón, entre otros países. Un derivado de
NTSC es el sistema PAL que se emplea en Europa y algunos países de Sudamérica.

SUB MUESTREO DE CROMA

Submuestreo del Chroma está la práctica de imágenes de codificación poniendo


más resolución en ejecución para luminiscenciainformación que
para color información. Se utiliza en muchos codificación del vídeo esquema-amba
análogo y digital-y también adentro JPEG codificación.
Sistemas y cocientes del muestreo

El esquema del submuestreo se expresa comúnmente como cociente de tres


partes (e.g. 4:2: 2), aunque está expresado a veces como cuatro porciones (e.g.
4:2: 2: 4). Las piezas son (en su orden respectiva):

• Luma referencia horizontal del muestreo (originalmente, como múltiplo de


3.579 megaciclos en el sistema de la televisión de NTSC)
• Cr factor horizontal (concerniente al primer dígito)
• Cbes factor horizontal (concerniente al primer dígito), a menos que cuando
cero. Cero indica eso Cbes el factor horizontal es igual al segundo dígito, y,
además, ambos Cr y Cbes sea subsampled 2:1 verticalmente. Cero se elige
para el fórmula del cálculo de la anchura de banda (véase abajo) para seguir
siendo correcto.
• Alfa factor horizontal (concerniente al primer dígito). Puede ser omitido si el
componente de la alfa no está presente.

13,5 MHxz

Ancho de banda de video.

24 PSF

Progressive segmented Frame (PsF, sF, SF) is a scheme designed to acquire, store,
modify, and distribute progressive-scan video using interlaced equipment and media.
With PsF, a progressive frame is divided into two segments, with the odd lines in one
segment and the even lines in the other segment. Technically, the segments are
equivalent to interlaced fields, but unlike native interlaced video, there is no motion
between the two fields that make up the video frame: both fields represent the same
instant in time. This technique allows for a progressive picture to be processed through
the same electronic circuitry that is used to store, process and route interlaced video.
The PsF technique is similar to 2:2 pulldown, which is widely used in 50 Hz television
systems to broadcast 25 frame/s progressive material, but is rarely employed in 60 Hz
systems as there is very little content of progressive 30 frame/s material. The 2:2
pulldown scheme had originally been designed for interlaced displays, so fine vertical
details are usually filtered out to minimize interline twitter. PsF has been designed for
transporting progressive content and therefore has no such filtering.
The term Progressive segmented frame is used predominantly in relation to high
definition video. In the world of standard definition video it is also known as quasi-
interlace[1] orprogressive recording.
24PsF (48sF, 1080sf24, 1920x1080/24/1:1SF) is the original PsF format, which is used
in professional equipment for film-to-video transfer, for high definition mastering
and for video exchange between networks. This may be the first universal video
standard which transcends continental boundaries, an area previously reserved for
film.

ANAMORFICO
Una anamorfosis o anamorfismo es una deformación reversible de una imagen
producida mediante un procedimiento óptico (como por ejemplo utilizando un espejo
curvo), o a través de un procedimiento matemático. Es un efecto perspectivo utilizado
en arte para forzar al observador a un determinado punto de vista preestablecido o
privilegiado, desde el que el elemento cobra una forma proporcionada y clara. La
anamorfosis fue un método descrito en los estudios de Piero della Francesca sobre
perspectiva.
Esta técnica ha sido utilizada ampliamente en el cine, con ejemplos como
el Cinemascope, en el que mediante lentes anamórficos se registran imágenes
comprimidas que producen una pantalla ancha al ser descomprimidas durante la
proyección.

ALIASING
En estadística, procesamiento de señales, computación gráfica y disciplinas relacionadas,
el aliasing es el efecto que causa que señales continuas distintas se tornen indistinguibles
cuando se les muestrea digitalmente. Cuando esto sucede, la señal original no puede ser
reconstruida de forma unívoca a partir de la señal digital. Una imagen limitada en banda y
muestreada por debajo de su frecuencia de Nyquist en las direcciones "x" e "y", resulta en
una superposición de las replicaciones periódicas del espectro G(fx, fy). Este fenómeno de
superposición periódica sucesiva es lo que se conoce como aliasing.
El aliasing es un motivo de preocupación mayor en lo que concierne a la conversión
analógica-digital de señales de audio y vídeo: el muestreo incorrecto de señales
analógicas puede provocar que señales de alta frecuencia presenten dicho aliasing con
respecto a señales de baja frecuencia. El aliasing es también una preocupación en el área
de lacomputación gráfica e infografía, donde puede dar origen a patrones de moiré (en las
imágenes con muchos detalles finos) y también a bordes dentados. El aliasing nos puede
traer problemas sobre todo en el campo de visión por computadores, ya que al procesar
imágenes, si no es correcta la imagen obtenida con la realidad, podemos tener problemas
con el hardware.

CIF
El Common Intermediate Format, más conocido por su acrónimo CIF es un formato
definido en la recomendación H.261 de la ITU, que utiliza para compatibilizar los diversos
formatos de vídeo digital. Es un formato normalizado que es utilizado por cualquier
codificador híbrido H.261. Éste estandariza la resolución, tanto vertical como horizontal de
los píxels de secuencias YCbCr de las imágenes de vídeo digital. Su objetivo es ofrecer un
formato de vídeo común reducido para los codificadores.
También se le conoce como Full CIF o FCIF para diferenciarlo del Quarter CIF o QCIF.

CUANTIZACION
Los dos principales causas que producen perdida de información cuando capturamos
una imagen son la naturaleza discreta de los pixeles de la imagen y el rango limitado
de valores de intensidad luminosa que somos capaces de medir en cada pixel.
El efecto de cuantización viene dado por la imposibilidad de tener un rango infinito de
valores de medida para la intensidad de brillo de los pixeles. Como ya hemos
comentado antes, la tecnología actual permite en casos extras llegar hasta 10 bits de
información, aunque lo general es tener 8 bit, o equivalentemente 256 niveles de gris
para codificar este valor lumínico.

FORMATO UNIVERSAL
El Formato Universal de SteadyFrame Scanner es el nuevo escáner digital de cine del
estado de la técnica-de 16 mm y 35 mm de acción de la película.El diseño intuitivo
cumple con las exigencias de una solución de alta calidad, pero rentable.
El Lector de SteadyFrame está diseñado principalmente para el archivo escaneado,
para la digitalización de grandes cantidades en poco tiempo en uno de alta calidad sin
dañar el material de película. También puede sido fácilmente utilizado para el
funcionamiento posterior al día.
El diseño y los materiales utilizados son duraderos y robustos, para garantizar la
estabilidad en la calidad y flujo de trabajo al mismo tiempo, como el procesamiento
cuidadoso de acción de la película más.
El escáner SteadyFrame es fiable y fácil de usar, así que no hay ningún operador
calificado necesario y los costes laborales pueden ser reducidos.

GAMA COLOR
En la teoría del color, la gama de color de un dispositivo, o proceso, usado para la
creación de un color, es la proporción del espacio de color que se puede representar
con ese dispositivo o proceso, ya que existen limitaciones físicas de estos que les
pueden impedir mostrar la gama completa del espacio de color. También se podría
definir como el lugar geométrico de los puntos del plano matiz-saturación que se
pueden representar mediante un dispositivo o técnica.
Generalmente, la gama de color se especifica en el plano de la gráfica matiz-
saturación. Muchos sistemas pueden producir colores con una amplia gama de
intensidades dentro de su gama de color. Además, para los sistemas de colores
sustractivos, tales como los sistemas usados en la impresión, el rango disponible de
intensidad, en la mayoría de las ocasiones no tiene sentido, fuera del contexto de su
iluminación.

ESPACIO DE COLOR
sRGB define el rojo, el verde y el azul como colores primarios, donde uno de los tres
canales está en su valor máximo y los otros dos a cero. En la coordenadas cromáticas
xy del Espacio de color CIE de 1931, el rojo está en [0.6400, 0.3300], el verde en
[0.3000, 0.6000] y el azul en [0.1500, 0.0600]. El punto blanco es el punto blanco D65
situado en la coordenadas [0.3127,0.3290]. El resto de valores producen el color
obtenido de multiplicar cada color primario por el valor de dicha curva y sumándolos
todos juntos. El espacio sRGB ha sido criticado por el mal emplazamiento de estos
colores primarios. Si limitas los valores del rango 0-1, no serás capaz de salir fuera del
espectro del espacio (el triangulo producido por ellos), el cual sí que está dentro del
conjunto de colores visibles por el ser humano. Sin embargo, los valores de estos
primarios son de menor importancia que los de dicha curva de luminancia en
reproducir una imagen lo mejor posible.
Es importante indicar que el espacio sRGB está diseñado para coincidir con el
utilizado actualmente por los monitores CRT. Muchos programas de ordenador, tanto
profesional como doméstico, asumen que una imagen de 8 bits dispuesta en una
pantalla con un buffer de 8 bits por canal se mostrará correctamente. Por esta razón
se puede asumir que cualquier imagen de 8 bits sacada de Internet está dentro del
espacio de color sRGB (en ausencia de cualquier perfil de color incluido en la imagen).
De la misma forma, aquellos dispositivos no CRT, como pantallas LCD, cámaras
digitaleso impresoras, aunque no producen por naturaleza una curva sRGB, están
construidos con sistemas de circuitos o programas de compensación que al final
obedecen este estándar (aunque esto es menos cierto en equipos profesionales). Por
esta razón se debe asumir que casi cualquier imagen que encuentres con 8 bits por
canal está dentro del sRGB.
Este espacio de color a parte ha sido criticado por los profesionales del campo
editorial, debido a su limitado espectro de color, lo que significa que algunos colores
que son visibles, incluso algunos colores que pueden ser reproducidos en CMYK, no
pueden ser representados en sRGB. En este sentido el espacio Adobe RGB es
preferido como estándar.

HD
La alta definición (abreviada en las siglas AD o HD, del inglés High Definition) es un
sistema de vídeo con una mayor resolución que la definición estándar, alcanzando
resoluciones de 1280 × 720 y 1920 × 1080 píxeles.

 Existen varias resoluciones; las más usadas son: 1920 x 1080 y 1280 x 720 píxeles.

 Tiene dualidad de barridos entre progresivo (p) y entrelazado (i).

 La frecuencia de repetición de cuadro o frame por segundo es variable para satisfacer la necesidad de los

diferentes usuarios. Sus valores pueden ser: 24, 25, 30, 50 ó 60.

 Su relación de aspecto es fija, siendo esta 16:9.

 Al ser digital elimina defectos del PAL y el NTSC, como el muaré.

 Suele estar acompañada de sonido envolvente 5.1 o superior.

IMAGEN ACTIVA

Das könnte Ihnen auch gefallen