no render

95
Por ROGER REIG GUÍA NORENDER.COM CÓDECS: DIFERENCIA ENTRE FORMATO, CÓDEC Y RESOLUCIÓN La increíble evolución de la tecnología audiovisual en los últimos años, ha propiciado la aparición de un sinfín de formatos, códecs y resoluciones en los que almacenar nuestros fotogramas de vídeo. Desde que apareció el vídeo digital, es realmente importante conocer y escoger las características de nuestros archivos de vídeo tanto en la fase de grabación, como en la de edición y almacenamiento. ¿Pero, en qué se diferencia el formato, del códec o la resolución de un archivo? ¿De que manera se relacionan? En esta guía introductoria intentaremos aclarar estos conceptos. El formato . Se puede definir el formato como el contenedor de las imágenes, es la “caja” para meter los “zapatos”, o la “bolsa” para el “pan”. Nos informa de que manera está empaquetada la información y viene definido por la extensión del archivo. Podemos clasificar los distintos formatos en dos tipos: los formatos de imagen en movimiento, y los formatos de still frame. En los dos tipos de formato podremos almacenar imágenes en

Upload: saul-briceno-banquez

Post on 26-Nov-2015

54 views

Category:

Documents


2 download

TRANSCRIPT

Page 1: No Render

Por ROGER REIG

GUÍA NORENDER.COM CÓDECS: DIFERENCIA ENTRE FORMATO, CÓDEC Y RESOLUCIÓN

La increíble evolución de la tecnología audiovisual en los últimos años, ha propiciado la aparición de un sinfín de formatos, códecs y resoluciones en los que almacenar nuestros fotogramas de vídeo. Desde que apareció el vídeo digital, es realmente importante conocer y escoger las características de nuestros archivos de vídeo tanto en la fase de grabación, como en la de edición y almacenamiento. ¿Pero, en qué se diferencia el formato, del códec o la resolución de un archivo? ¿De que manera se relacionan? En esta guía introductoria intentaremos aclarar estos conceptos.

El formato.

Se puede definir el formato como el contenedor de las imágenes, es la “caja” para meter los “zapatos”, o la “bolsa” para el “pan”. Nos informa de que manera está empaquetada la información y viene definido por la extensión del archivo. Podemos clasificar los distintos formatos en dos tipos: los formatos de imagen en movimiento, y los formatos de still frame. En los dos tipos de formato podremos almacenar imágenes en movimiento, pero de distinta manera. En el primer caso, formatos como QuickTime (.mov), Video for windows (.avi), Red (.r3d), etc., cada archivo o “caja de zapatos” puede contener una sucesión de fotogramas. En cambio, en el segundo caso, archivos como Targa (.tga), Digital Picture Exchange (.dpx), Tagged Image File Format (.tif), etc., solo pueden contener un fotograma en cada archivo, y para poder almacenar vídeo en ellos se utilizan secuencias de archivos still frame, numerados consecutivamente mediante la anexión de un contador en el nombre de cada archivo (nombre0001.dpx, nombre0002.dpx, nombre000n.dpx…). En este caso la animación se genera al reproducir en orden todos los archivos de la secuencia.

Page 2: No Render

El códec.

La abreviatura de codificador-decodificador nos muestra de que forma se debe comprimir o descomprimir un archivo, y será el principal responsable de la calidad de la imagen así cómo del espacio en disco que nuestras imágenes ocuparán. Los códecs están estrechamente relacionados con los formatos, ya que determinados códecs trabajan con determinados formatos, y dependiendo del formato en que estemos trabajando podremos optar a una lista u otra de codificaciones. Por lo tanto podemos decir que en la “bolsa del pan” podemos meter “pan”, pero este pan puede ser “pan de molde o pan integral, o pan sin gluten, o pan con corteza”. Los códecs tienen una serie de características, que veremos en las siguientes entregas de esta guía, que habrá que tener muy en cuenta para determinar cuál de ellos es más adecuado para nuestro trabajo concreto.

La resolución.

Finalmente, la resolución expresa el tamaño de nuestras imágenes en píxeles horizontales y verticales.  A este valor se le añade la relación de aspecto del píxel o Pixel Aspect Ratio,

Page 3: No Render

que nos indica si el píxel es cuadrado o ligeramente rectangular. Hasta hace solo unos años todos trabajábamos en PAL o NTSC y nadie se preocupaba por la resolución, ahora estamos todos embarcados en una carrera en la que nada es bastante, hemos dejado atrás el HD y el 2k y todo el mundo empieza hablar de 4k e incluso de ¡8k!  Aunque existen muchas más, algunas de las resoluciones más habituales son:

PAL 4:3 720×576 (1,09) o 788×576 (1) PAL 16:9 720×576 (1,46) o 1050×576 (1) HD 720 1280×720 (1) HD 1080 1920×1080 (1) 2K 2048×1556 (1) 4K 4096×3112 (1)

Si nos fijamos en el número de pixeles nos daremos cuenta de que una resolución 2k (la abreviatura de 2.000 para los americanos) no es, como podría sugerir, casi el doble que una resolución 1080 sino solo un poco mayor. ¿Y esto por qué? Pues porque 1080 es una nomenclatura que viene del mundo de la televisión, donde la resolución viene dada por la altura del fotograma. 2k, 4k o 8k son nomenclaturas del mundo del cine que vienen definidas por la anchura del fotograma.

En conclusión, podemos afirmar que existe una cantidad ingente de formatos, códecs y resoluciones, así cómo de relaciones entre estos. A modo de ejemplo, unas imágenes almacenadas en un archivo QuickTime Apple ProRes 422 (HQ) 1080 podemos estar seguros que se encuentran en formato .mov, codificadas en Apple ProRes 422(HQ) nativo de Final Cut, y con una resolución o tamaño en píxeles de 1920×1080 cumpliendo los estándares de HD1080. Como la evolución en el mundo del vídeo es constante e imparable, debemos estar atentos a esos nuevos “muffins” que aparecen por nuestra “panadería habitual”.

Page 4: No Render

Por LOLO LAVÍN

GUÍA NORENDER.COM CÓDECS: BITRATE

Siguiendo la serie de artículos sobre las especificaciones de los códec, hoy vamos a hablar del bitrate y de lo importante que es tener en cuenta esta característica cuando queremos evaluar la calidad y la eficiencia de un códec. El bitrate, en vídeo, es la cantidad de información por unidad de tiempo que se transfiere cuando se lee un archivo, o sea, bits, generalmente, por segundo.

Primero de todo y para no hacernos líos innecesarios vamos a diferenciar entre unidades de información y unidades de almacenamiento. La unidad de información es el bit (la unidad en que normalmente se miden los bitrate) y la unidad de almacenamiento es el byte (la unidad en la que medimos la capacidad de los discos duros y lo que “pesa” un archivo). Estas dos unidades tienen una equivalencia 1 Byte = 8 bits. Por tanto, si por ejemplo tenemos un archivo cuyo bitrate es de 8 Mbps, significa que cada segundo de vídeo de este archivo “pesa” 1 MB. Si el archivo dura 1 minuto (60 s) serán 60 MB. De esta forma, sabiendo el bitrate de un códec, podemos saber cuánto nos ocupará en nuestro disco duro un archivo.

Además, también tenemos que pensar que el bitrate no es un valor absoluto para un códec, dependerá de factores como la resolución y el frame rate. ¿Y por qué esto es así? Pues porque cuanto mayor es la resolución y el frame rate (nº de frames por segundo) mayor información tenemos que transferir cuando leemos un archivo. Así, un códec Apple ProRes 422 tendrá un bitrate de 39 Mbps para una resolución de 720×576 a 24 imágenes por segundo y este mismo códec tendrá un bitrate de 168 Mbps para una imagen 2k a 30 imágenes por segundo. Como vemos el bitrate se ha multiplicado por más de cuatro.

En cuanto a la calidad, cuanto mayor sea el bitrate mayor será la calidad. Si buscamos un códec de máxima calidad, buscaremos uno que tenga un bitrate muy alto porque

Page 5: No Render

transferirá más información; y si buscamos uno que sea fácil de transportar y de almacenar buscaremos uno que tenga un bitrate bajo. Como la realidad nos hace olvidarnos de maximalismos, la mayoría de las veces tendremos que buscar un bitrate de compromiso: una calidad aceptable para nuestro trabajo y un tamaño que nos permita manejarlo en las circunstancias en las que estemos. Habrá trabajos en los que el compromiso sea mucha calidad casi sin preocuparnos los problemas de almacenamiento y transferencia, por ejemplo el cine digital, y habrá momentos en los que busquemos una transferencia sencilla y archivos que no “pesen” aunque no sean de mucha calidad, por ejemplo vídeos para colgar en una página web. Entre estos dos extremos nos moveremos dependiendo de lo que hagamos. Si consideramos el mundo del vídeo profesional, nos moveremos en unos bitrates que estarán entre los 2 o 3 Mbps de ancho de banda de emisión de una canal en TDT en definición estándar,  hasta los 1.300 o incluso 2.000 de los códecs raw de los sistemas de cine digital de Arri o de Sony. Como vemos un espectro realmente amplio.Resaltar que ahora se están poniendo de moda cámaras con códecs que ofrecen resoluciones de 4k y grabación en raw, y que sus precios parecen cada vez más accesibles. Quizás nuestro presupuesto es suficiente para comprarnos o alquilar una cámara de estas características, pero es aquí donde no debemos olvidarnos nunca del bitrate de estos sistemas de grabación y de lo complicado y costoso que es manejar proyectos de 30 o 40 TB, a los que no es nada difícil llegar con estas cámaras. Simplemente tener en cuenta que igual tenemos dinero para comprar un Ferrari pero que después no podemos echar gasolina o cambiar los neumáticos.

GUÍA NORENDER.COM CÓDECS: FRAME RATE

A unos días del estreno de El Hobbit: Un viaje inesperado, próximo viernes día 14, y después de todo el ruido mediático que han producido sus 48 fps, parece un buen momento para explicar qué es el frame rate y hablar de los diferentes frame rates utilizados en el mundo del cine y la televisión.

El frame rate es el número de fotogramas por segundo al que se reproduce una imagen animada. Si no retrotraemos a los inicios del cine, vemos que la idea de proyectar

Page 6: No Render

varias imágenes fijas, de forma consecutiva, era conseguir la ilusión de movimiento. Se calcula que el cerebro, y nuestra persistencia retiniana, a partir de aproximadamente 10 o 12 imágenes deja de ver imágenes individuales y ve una imagen en movimiento. Las primeras películas mudas tenían una frame rate de entre 14 y 24 fps, con la llegada del cine sonoro éste se estableció en 24 fps y no ha variado hasta la actualidad.

En el mundo de la televisión originalmente había dos frame rate, 30 fps en aquellos países en que la frecuencia eléctrica era de 60 Hz (América del Norte y algunos países de Sudamérica) y 25 fps en los que la frecuencia eléctrica era de 50 Hz (resto del mundo). Esto se complica con la introducción del color en los países que utilizaban la frecuencia de 60 Hz y, para que no haya interferencias entre el sonido y la imagen, se reduce su frame rate a 29.97 fps. Por tanto, cuando hablamos actualmente de NTSC, no debemos hablar de un frame rate de 30 fps sino de 29.97, 30 fps es solo un intento de simplificación de una cifra más complicada.

Así, actualmente, nos encontramos con tres frame rate básicos: 24 fps en el mundo del cine, 25 fps en la televisión de los países que tienen un sistema PAL o SECAM ( frecuencia eléctrica de 50 Hz) y 29.97 fps en los países que utilizan el NTSC (frecuencia de 60 Hz). Además nos podemos encontrar con algunos frame rates inferiores a estos en el caso de animaciones simples que no necesitan gran realismo y que buscan crear archivos de vídeo ligeros, es el caso de las animaciones flash que pueden tener frame rate de alrededor de 10 fps. Los videojuegos, en su búsqueda de realismo, tienen frame rate muy superiores a los del cine y la televisión y pueden llegar a los 100 o 120 fps. También se alcanzan frame rates muy altos con las cámaras especializadas en slow motion, como la Phantom que puede llegar a los 4000 fps.

El cine, en su búsqueda de nuevas tecnologías y en un intento de que la gente vuelva a las salas, también se apunta al incremento del frame rate, es el caso que comentábamos al comienzo del artículo, El Hobbit: Un viaje inesperado. Habrá que esperar para saber si el aumento del frame rate en el cine es una innovación tecnológica que beneficia al espectador o se queda en una simple operación de marketing, y esto tampoco parece que va ser fácil de momento, ya que solo unos pocos cines están preparados para mostrarnos está película en su auténtico frame rate.

En el próximo post de la Guía Norender.com códecs hablaremos de progresivo y entrelazado, característica de los códecs también muy ligada al frame rate.

Guía norender.com códecs: progresivo y entrelazado

Page 7: No Render

Uno de los problemas a los que tuvo que enfrentarse el cine en sus primeros años es que la imagen parpadeaba y no era agradable a la vista, para solucionarlo inventaron un obturador que hacía que cada fotograma se expusiera dos veces, por tanto los 24 fps del cine se veían dos veces, dando la sensación de 48 imágenes por segundo y evitando este flicker de la imagen. Este sistema de proyección no era directamente exportable a la televisión porque la televisión no podía almacenar imágenes sobre las que hacer una obturación. La respuesta de la televisión es la señal entrelazada.   ¿Y cómo son las imágenes entrelazadas?

Una imagen entrelazada divide un fotograma en dos campos y cada uno de estos campos tiene la mitad de las líneas que definen un cuadro completo: un campo tendrá las líneas impares y el siguiente tendrá las líneas pares. Cada uno de los dos campos no representa el mismo momento de la imagen, el primero registra un tiempo de la imagen anterior al segundo. Por tanto, en los típicos 25 cuadros por segundo que tiene una imagen de televisión tenemos 50 subimágenes o 50 campos que representan un momento distinto del movimiento.

Apple Final Cut documentation

Page 8: No Render

¿Qué es entonces el progresivo? Pues digamos que un escaneado de la imagen mucho más simple en el que los fotogramas no son divididos en campos y por tanto cada fotograma tiene todas las líneas de la imagen. Un sistema progresivo tiene el doble de resolución en cada unidad de imagen que un entrelazado y por tanto mucha más definición, además de que de esta manera se evitan muchas de las interferencias que ocurren entre las líneas horizontales de los dos campos (twittering). Para reducir el parpadeo se han aumentado las frecuencias de los televisores y también ha ayudado notablemente la llegada de los sistemas LCD. El inconveniente de los progresivos es que, en general, tienen menos imágenes por segundo y por tanto el movimiento es menos fluido.

Ahora mismo estamos en un momento de transición en el que cada vez se graba más en progresivo y dejamos atrás el entrelazado, aunque la mayoría de los códecs soporten los dos sistemas de escaneado de la imagen. La tendencia es a grabar a mayores frame rate y en progresivo. ¿Entonces, puede ser la solución total un sistema progresivo con el mismo número de imágenes que un entrelazado? En teoría de esta forma tendríamos máxima resolución y movimientos más fluidos, es lo que han intentado con El Hobbit: Un viaje inesperado, rodada a 48 fps frente a los habituales 24; lo que ocurre es que el cine nos tiene acostumbrados a una cadencia de movimiento propia que puede que no sea realista, como tampoco lo es el blanco y negro, pero a la que estamos acostumbrados y que identificamos con calidad, frente al movimiento más realista de la imagen de televisión que consideramos inferior. Habrá que esperar a ver si el tiempo cambia esta percepción del espectador.

Guía norender.com códecs: dominancia de campo

Page 9: No Render

Cuando hablamos de códecs, una de las cuestiones más conflictivas es la dominancia de campo aunque ésta no afecta a todos los archivos de vídeo, solo afecta a aquellos cuya señal de vídeo va entrelazada. Como veíamos en el anterior artículo de la Guía norender.com códecs: progresivo y entrelazado, en una imagen entrelazada cada fotograma se divide en dos campos y cada uno de estos campos tiene la mitad de las líneas: un campo tendrá las líneas impares y otro tendrá las líneas pares. Dependiendo  de cuál se lea primero, el campo tendrá una dominancia u otra.

Si el campo que se lee primero es el de las líneas impares, la dominancia de campo será impar, o como estamos acostumbrados a encontrárnoslo en inglés odd o también upper. Si lo que lee primero son las líneas pares, entonces la dominancia de campo será par, o en inglés, even o lower.

Hasta que salieron los códecs de vídeo DV, la dominancia de campo no había dado demasiados problemas, se sabía que todos los códecs de vídeo digitales que heredaban las características del PAL heredaban también su dominancia de campo: impar o upper. Si el códec de vídeo tenía las características del NTSC entonces su dominancia de campo era par o lower. Hasta aquí, como he dicho, no había demasiado problema. El caos llega cuando los ingenieros japoneses que escriben las características técnicas del códec DV se equivocan al interpretar cuál era la dominancia del PAL y le asignan la misma dominancia que al NTSC, por tanto le dan a todos los códecs DV dominancia de campo par o lower independientemente de que sean PAL o NTSC. El problema se agrava porque no se dan cuenta del error hasta que han pasado meses y para entonces ya es demasiado tarde para cambiarlo.

Cuando salen los formatos HD se intenta simplificar el asunto, no se sabe ya si con buen tino, y se decide que todos los códecs HD independientemente de que sean PAL o NTSC serán de dominancia impar o upper. Por tanto ahora nos encontramos que si utilizamos un códec para PAL (o sea 25 fps entrelazado) la dominancia de campo será siempre impar o upper con las excepciones de los códecs DV, DVCPRO y MPEG2 para vídeo DVD. En el caso de los códecs para NTSC serán par o lower para SD e impar o upper para HD.

Page 10: No Render

Si todo esto os parece un auténtico galimatías no os puedo quitar la razón. Al menos la razón no ha sido, como tantas veces en las historia de la tecnología,  la voluntad de una marca de imponer sus normas para controlar un mercado. Yo ahora siempre que tengo un problema de dominancia de campo me acuerdo del ingeniero japonés que metió la pata y entonces todo este asunto me resulta bastante entrañable.

Por LOLO LAVÍN

Guía norender.com códecs: Muestreo de color o color sampling

En este nuevo capítulo de la Guía norender.com códecs vamos a hablar del muestreo de color o si lo preferís en inglés color sampling. Posteriormente dedicaremos otro capítulo a la profundidad de color y otro a los espacios de color. De esta forma quedarán tratadas las propiedades del color en los códecs.

Como definición rápida podemos decir que el muestreo de color es una reducción de datos de la crominancia de una imagen mientras que los datos de luminancia se mantienen intactos.

En una imagen RGB cada pixel tiene una coordenada R (rojo), G (verde) y B (azul), a partir de de estas tres coordenadas podemos reconstruir cualquier color, ya que todos los colores son una mezcla de estos tres. Esta forma de descomponer las imágenes en sus tres componentes de color es muy adecuada y muy válida en el sector gráfico y la fotografía en los que tratamos con imágenes únicas, pero no tanto para el vídeo, en el que tenemos que procesar ingentes cantidades de imágenes: 24, 25 o 30 imágenes en cada segundo. Cuando trabajamos con vídeo se nos plantea la imperiosa necesidad de reducir el número de datos de nuestras imágenes.

Por tanto, mientras que el mundo gráfico y la fotografía se aproximan a la reproducción del color de una forma física, todos los colores se pueden descomponer en rojo verde y azul; la imagen videográfica se ve obligada a tomar una nueva aproximación, una aproximación fisiológica: el ojo humano es mucho sensible a los cambios de luz que a los cambios de

Page 11: No Render

color, por tanto en cada pixel reproduciremos todos los datos de luminancia de la imagen y haremos un muestreo (reducción de datos) de crominancia. Es la manera de reproducir el color de los  espacios de color YCbCr, frente a los RGB de los que habíamos hablado anteriormente. “Y” es la luminancia y, “Cb” y “Cr” son los vectores de color.

Por tanto, cuando veamos cifras del tipo 4:4:2 o 4:1.1, estamos viendo muestreos de color de imágenes que son YCbCr, no RGB. ¿Y, que significado tienen estas cifras? Pues describen una región geográfica del vídeo y el número de muestras de color que se toman en esa región geográfica. Veámoslo con ejemplos:

4:1:1. De cada 4 muestras horizontales que tenemos en nuestra región de vídeo, en la primera línea horizontal solo cogemos una de cada una de las componentes de color, y en la segunda línea horizontal volveremos a coger otra muestra de cada una de las componentes de color. Este es el tipo de muestreo que se utiliza en DV NTSC.

4:2:0. Por cada 4 muestras horizontales que tenemos en nuestra región de vídeo, en la primera línea horizontal cogemos dos de cada una de los componentes de color, y en la segunda línea horizontal no cogemos ninguna. Este tipo de muestreo es muy frecuente actualmente y se utiliza en el h264 de las DSLR de Nikon y Canon, y en el AVCHD de Sony y Panasonic. También se utiliza en DV PAL. El número de muestras de color es el mismo que en el 4:1:1, pero con otra distribución geográfica.

4:2:2. Por cada 4 muestras horizontales, en la primera línea  cogemos dos de cada una de los componentes de color y en la segunda línea volvemos a hacer lo mismo. Tenemos el doble de muestras de color que en el 4:1:1 y el  4:2:0. Este tipo de muestreo se hizo frecuente con el Betacam Digital y DVC Pro 50. Hoy es frecuente en códecs de buena calidad como el XF de Canon o algunos Apple ProRes y DnxHD, muy conocidos en el mundo de la edición.

Page 12: No Render

4:4:4. Por cada 4 muestras horizontales cogemos otras cuatro de cada una de las componentes de color en las dos líneas sucesivas. Este tipo de muestreo tendría la misma cantidad de información y por tanto la misma calidad que un RGB, por eso de algunos espacios de color RGB se dice que son 4:4:4, aunque el muestreo de color sea diferente.

Es muy importante que desterremos la falsa idea de que el primer número son las muestras de luminancia y los siguientes se corresponden con el Cb y el Cr (los vectores de crominancia). Fijaros si es falsa la idea que en el caso de un muestreo 4:2:0 nos vendría a decir que no tiene información de Cr, o sea, que le falta la información de rojo, auténtica barbaridad.

El muestreo de color o color sampling es, por tanto, una alternativa a la compresión de datos y la mayoría de las veces más efectiva. Lo que no quita que tengamos muy en cuenta cuál es el muestreo de color, sobre todo cuando tenemos que hacer un chroma key o una corrección de color intensa. Es muy importante que en estos casos evitemos códecs con un sampleado inferior al 4:2:2; hacer un chroma key con una imagen en un códec 4:2:0 es complicado y muchas veces los resultados no serán satisfactorios. Lo mismo vale para las correcciones de color agresivas, nos faltarán datos de color y se verán artefactos que estropearán nuestro trabajo.

Guía norender.com códecs: Profundidad de color

Page 13: No Render

En esta nueva entrega de la Guía norender.com códecs, vamos a seguir hablando de las propiedades de color de un archivo de vídeo. Si en la anterior entrega hablabamos del muestreo de color o color sampling , ahora toca hablar de la profundidad de color. La profundidad de color se refiere a la cantidad de datos binarios, bits, utilizados para representar cada pixel de una imagen. Cuanto mayor sea el número de bits, más definido quedará el color en una imagen.

¿Qué significa, por ejemplo, que una imagen tiene una profundidad de color de 8 bits? Pues como trabajamos en un sistema binario supone que cada pixel tiene 2 elevado a la 8ª potencia, o sea 256, posibilidades de color en cada una de sus componentes, R, G y B. Si tenemos en cuenta las tres componentes será 256 x 256 x 256, o lo que es lo mismo 16.777.216 posibilidades de color. Si en vez de 8 bits, nuestra profundidad de color es de 10 bits, entonces pasamos a tener 2 elevado a la 10ª potencia posibilidades de color para cada pixel en cada componente; lo que considerando las tres componentes nos da 2 elevado a la 30ª posibilidades de color (1.073.741.824, más de un billón de colores). Así, lo que parecía una pequeña diferencia en profundidad de color, de 8 a 10, se ha convertido en una enorme diferencia cuando vemos la información de color que guarda un archivo de 8 bits (16,7 millones de colores) frente a un archivo de 10 bits (más de un billón de colores). Tenemos que tener en cuenta que la profundidad de color se mueve en progresión exponencial y que por tanto un salto de 8 a 10, es un salto mucho más grande de lo que a simple vista pudiera parecer.

Ahora ya sabemos qué es la profundidad de color, pero, ¿cómo nos afecta la profundidad de color en el mundo real?, ¿qué puedo hacer cuando trabajo con una profundidad de color de 10,12 o 16 bits en lugar de los 8 bits habituales? Pues bien, cuando trabajamos con una mayor profundidad de color vamos a tener más datos que nos definen cada color y la diferencia la vamos a notar rápidamente, sobre todo, en algunas tipos de imágenes como, por ejemplo, los degradados. En las imágenes posteriores vemos un mismo degradado con una profundidad de color de 8 y de 16 bits.

 

Page 14: No Render

Si nos fijamos en el histograma de la imagen de 16 bits, es un histograma continuo, un auténtico degradado. No existen huecos ni faltas de información en la definición del color.

 

Histograma imagen 16 bits

 

Sin embargo el histograma de la imagen de 8 bits tiene forma de peine, las púas del peine se corresponden con partes de la imagen donde si hay información de color, los huecos es donde no la hay. La imagen no aparecerá como un degradado continuo sino como bandas de color, lo que frecuentemente se conoce como banding.

 

Histograma imagen 8 bits

 

Page 15: No Render

Si queremos aplicar a nuestra imagen una corrección de color, con un programa como Davinci Resolve, será muy importante que tengamos una imagen con la mayor profundidad de color posible, ya que cuando aplicamos correcciones de color es cuando más notamos la riqueza de información de los colores. Es mucho más fácil hacer una corrección de color, y que no surjan artefactos, en una imagen de 10 o 12 bits que no en una imagen de 8 bits. Por eso es importante que nos fijemos en la profundidad de color de cada códec y si en nuestro proceso de trabajo hay una corrección de color, intentar trabajar con un códec de 10 o 12 bits.

Guía norender.com códecs: Espacios de color

Después de haber hablado en anteriores entregas del muestreo de color y de la profundidad de color, en esta entrega de la Guía norender.com códecs toca hablar de los espacios de color en vídeo; cerrando así el tratamiento de las propiedades de color en los códecs.

Como definición, podemos decir que, un espacio de color es la representación matemática, a través de un determinado tipo de coordenadas (RGB, CMYK, YCbCr…) de una determinada gama de colores (hay espacios más amplios y más reducidos, con más colores y con menos colores).

En el mundo del vídeo nos encontramos con dos tipos de espacio de color: los YCbCr, que son los más frecuentes y los RGB, que aunque más conocidos en el mundo de la fotografía, dentro de los códecs de vídeo son solo raras excepciones. Por tanto, cuando veamos que el espacio de color de una cámara, digamos Canon 5D Mark III, es sRGB  o Adobe RGB, estos espacios de color son los usados solo en fotografía, cuando graba vídeo lo hace en Rec. 709, que es un espacio YCbCr. ¿A qué se debe esto? Pues a que para definir un color con coordenadas RGB se necesita más información que con coordenadas YCbCr  (para una explicación más detallada podéis ver la Guía norender.com códecs: muestreo de color).

Page 16: No Render

Dentro de los espacios de color YCbCr los dos estándares más utilizados son el Rec. 601 para definición estándar (SD) y el Rec. 709 para alta definición (HD). Ambos comparten características similares y tienen la peculiaridad de que en un sistema de 8 bits el negro tiene un valor de 16 y el blanco de 235, frente al 0 y el 255 de los espacios de color RGB; esto es así porque en la transmisión de la señal de vídeo se requiere espacio para otros elementos técnicos de la señal. Cuando un archivo Rec. 709 es visto en televisión, la televisión expande los niveles de vídeo y los hace coincidir con el 0 y el 255 de un RGB, pero si vemos un archivo de vídeo Rec. 709 en un monitor RGB, el típico de los ordenadores, estos no expanden la señal y vemos unos negros que no llegan a ser  negros y unos blancos que se quedan en grises. Por eso muchas veces vemos vídeos en nuestros ordenador con una cierta falta de contraste.

También dentro de los espacios de color YCbCr están los cada vez más usados espacios de color log. Arri tiene su c-log, Sony tiene el s-log y Canon y Blackmagic también tienen su propio espacio de color log. Estos tipos de espacios de color intentan replicar la respuesta del negativo de película a la luz, una respuesta logarítmica frente a la respuesta de color lineal de los Rec. 709. Son utilizados para hacer la corrección de color porque tienen un tipo de gama que preserva más información de luz en determinadas zonas, las sombras, en  las que el ojo es más sensible, aunque después de hacer la corrección de color hay que convertirlos a Rec. 709 para verlos correctamente.

Page 17: No Render

Finalmente decir que los espacios de color en vídeo son bastante problemáticos. Digamos que el concepto en sí ya es un poco difícil de entender y que muchas veces se confunde con otros conceptos como el de muestreo de color o profundidad de color.  Pero no todo es culpa de la falta de conocimientos del usuario,  el color management en los software de edición o en los programas de conversión es muy limitado o directamente se obvia. Y además, los responsables de los códecs tampoco se preocupan de este tema en sus especificaciones y no es raro que un archivo de vídeo cambie de gama o de color cuando lo pasamos por un programa conversor, para cambiar de códec, o, simplemente, cuando lo editamos en un programa de edición no lineal. Sería, por tanto, necesario que los usuarios ampliáramos nuestros conocimientos al respecto pero también que los fabricantes de software se pusieran las pilas e hicieran un trabajo serio, como el que ya hacen los programas de fotografía.

Guía norender.com códecs: compresión

Page 18: No Render

En este nuevo capítulo de la Guía norender.com códecs vamos a hablar de una de las propiedades de los códecs más importantes pero quizás de las menos resultonas, de las que menos venden: la compresión. En el marketing de los códecs de vídeo vemos referencias continuas a la resolución (4k, 5k, ¡8k!), al frame rate (30, 60, 120, 200 fps), a la profundidad de color (10, 12, 16 bits) pero pocas veces hacen referencia a la compresión o al bitrate que son las propiedades que mejor definen la calidad de un códec.

La compresión supone codificar la información utilizando menos bits, menos datos de información, que la representación original. La compresión puede ser sin pérdida, lossless, o con perdida, lossy. Sin pérdida es aquella en la que se reduce la información eliminando solo aquellos datos que son redundantes, no se elimina, por tanto, ninguna información que sea relevante. En la compresión con pérdida o lossy se intenta eliminar la información que es menos relevante y que afecta menos a la calidad del archivo. Casi todas las compresiones de vídeo son con pérdida, el bitrate de los archivos de vídeo es muy elevado (pensad que cada segundo de vídeo ocupa lo mismo que 24, 25, o 30 imágenes) y necesitamos reducir estos altos bitrate mediante una compresión.

Una de las formas más potentes de reducir datos de un archivo de vídeo es la compresión interframe. Frente a la compresión interframe la compresión intraframe considera el vídeo como una sucesión de imágenes estáticas e independientes, con lo cual la compresión se hace dentro de cada imagen sin tener en cuenta las imágenes anteriores y las posteriores. En la compresión interframe, sin embargo,  no se consideran las imágenes independientemente  sino que se compara cada imagen con las imágenes que la proceden; si la imagen contiene áreas donde nada ha cambiado respecto a la imagen anterior, en vez de repetir todos los valores de información de ese área, escribirá un pequeño comando que dirá que la información de ese área es igual que la de la imagen anterior, lo que reduce enormemente el flujo de datos o bitrate.

¿Por qué si es tan eficiente este tipo de compresión no se utiliza siempre? La compresión interframe es muy eficiente y no da problemas si lo único que necesitamos es reproducir un archivo de vídeo. La cosa cambia radicalmente si lo que queremos es editar el vídeo, cortar un archivo. Al hacer el corte, puedes eliminar una imagen que contiene información

Page 19: No Render

clave y a la que otras imágenes están referenciadas. El editor de vídeo no sabrá recomponer la información de esas imágenes porque su fotograma de referencia se ha eliminado. Actualmente se ha conseguido solventar estos problemas y poder editar con códecs de vídeo que tienen una compresión interframe,  pero este proceso de datos sigue siendo muy intensivo, tanto, que esta posibilidad teórica se convierte, muchas veces, en imposibilidad real. Es el caso, por ejemplo, de Final Cut Pro 7, y también, en la mayoría de los casos, el de Avid Media Composer,  editando los archivos h.264 o AVCHD de las DSLR; en teoría podría editarlos, pero en la práctica nuestros software no saben solventar el enorme proceso de datos que se les requiere. En estas circunstancias la solución pasa por convertir nuestros archivos con códec interframe a otros cuya compresión sea intraframe (en el caso de Final Cut Pro 7, convertirlos a Apple ProRes y en el caso de Avid a DnxHD).  Programas de edición como Premiere Pro o Final Cut Pro X tienen un mejor rendimiento con vídeos que utilizan códecs interframe.

Otra forma de clasificar las compresiones es por el tipo de algoritmo matemático utilizado en su codificación. Desde este punto de vista tenemos fundamentalmente dos tipos: DCT  (Discrete Cosine Transform) y Wavelet. La primera es la que se ha estado utilizando mayoritariamente durante muchos años (típica de todas las versiones de códecs mpeg y de sus derivados) y que se caracteriza por analizar muestras discretas de la imagen, bloques de pixeles. La compresión wavelet se ha puesto de moda porque fabricantes como Red y Sony la utilizan para comprimir sus archivos raw. Este tipo de compresión no analiza la imagen por zonas o bloques sino que analiza la imagen en su conjunto, lo que le da una ventaja a la hora de crear archivos multiresolución. Además, al no dividir la imagen en bloques para realizar la compresión no nos encontramos con el típico blocking de las compresiones DCT. Por otro lado, sí que pueden ser visibles artefactos de ruido en forma de anillos y un cierto desenfoque. Además,  las necesidades computacionales para generar y leer archivos Wavelet son mucho mayores que para los archivos DCT, lo que explica, por ejemplo, la dificultad de editar archivos nativos Red.

El muestreo de color o color sampling , que ya vimos  en otra entrega de la Guía norender.com códecs, también sería una forma de compresión, y además con pérdida, ya que lo que hace es reducir datos de crominancia en la señal de vídeo, manteniendo los datos de luminancia, a los que el ojo es más sensible. Sin embargo, se suele estudiar como una propiedad propia de los códecs  y no dentro de las compresiones.

Para acabar, decir que, aunque la compresión de vídeo no suele ser un argumento de ventas sí que es algo que los profesionales del sector debemos tener en cuenta a la hora de evaluar un códec de vídeo; debemos valorar el tipo de compresión y la cantidad para hacernos una idea de la calidad de un códec de vídeo. Son más fáciles de interpretar los grandes números ¡5k!, ¡16 bits!, ¡120 fps!, que la compresión de un códec, pero estos grandes números muchas veces ocultan parte de la verdad. Considerando la compresión de los códecs quizás podamos entender que, por ejemplo,  Arri, con unos números en las especificaciones de su códec bastante inferiores a los de Red, es últimamente más valorada por los profesionales y se ha hecho con la producción de la mayoría de las películas de Hollywood.

Page 20: No Render

Guía norender.com códecs: Lista de códecs

Como entrega final de la Guía norender.com códecs tenemos una lista de los códecs más frecuentes en HD y cine digital, y sus características. Todas las propiedades que aparecen en el encabezado de la lista (espacio de color, color sampling, profundidad de color, compresión, bitrate y resolución)  están explicadas en la Guía norender.com códecs. No están todos los que son, pero sí que son todos los que están. Podíamos haber añadido más, pero hemos creído que era más interesante una tabla en la que poder encontrar rápidamente aquello que buscamos que no un listado exhaustivo y farragoso.

LISTA DE CÓDECS DE VÍDEO HD Y CINE DIGITAL

Page 21: No Render

 

(1). Máximos bitrate considerados a máxima resolución y frame rate.(2). Resolución máxima. “I” es de entrelazado y “P” de progresivo.(3). 44 Mbps en el caso de Canon y 24 Mbps en el de Nikon

Page 22: No Render

Esta clasificación de códecs va de menos a más, de menos calidad a más calidad. Como la calidad de un códec no es un valor objetivo y cuantificable, el orden es solo orientativo y sujeto a cualquier discusión.Además, las características de los códecs no son inalterables, los fabricantes van evolucionando los códecs y éstas cambian. Si visitáis esta lista dentro de un tiempo, que puede que no sea largo, algunas características han podido variar.

RAW I: ¿ME PUEDE DECIR ALGUIEN QUÉ ES UN ARCHIVO RAW?

Éste es el primer artículo, de una serie de tres, sobre los formatos raw. Intentaremos aclarar en él, de una vez por todas, qué es un archivo raw. En el segundo, RAW II: RED, ARRI, SONY, BLACKMAGIC: VENTAJAS E INCONVENIENTES DE LOS DIFERENTES SISTEMAS DE GRABACIÓN,  indagaremos en las opciones que tenemos si queremos grabar en raw y en el tercero, RAW III: ¡CÓMO ESTÁ EL MERCADO!, veremos cómo estas opciones se reparten el mercado. Cuando oímos la palabra raw, todos la asociamos a un archivo  de máxima calidad, pero también a un término oscuro, a algo de lo que todo el mundo habla pero nadie sabe exactamente qué es. Tenemos más o menos claro claro qué es un archivo convencional, digamos un RGB o un YCbCr, pero nos resulta difícil imaginar cómo funciona un archivo raw.

Antes de entrar en complejidades técnicas, voy a hacer una analogía entre la grabación de un vídeo y la cocción de un pan, que quizás nos permita visualizar más claramente qué es un archivo raw. El archivo raw sería la masa del panadero antes de cocer (raw significa crudo en inglés): Es algo plenamente modificable y que dependiendo del tiempo de cocción, de la fermentación, de la forma que le demos, va a dar lugar a diferentes tipos de pan. Lo mismo sucede con el archivo raw, es un archivo muy manipulable (balance de blancos, exposición, detalle, gamma..) y que nos puede dar como resultado vídeos con una apariencia muy diferente, dependiendo de cómo los tratemos. El pan ya cocido, sería el archivo RGB. Lo podemos servir más caliente o más frío pero el pan en sí, seguirá siendo el mismo. Lo mismo ocurre con un archivo RGB, es un archivo acabado que no permite muchas modificaciones. ¿Y cómo lo explicamos técnicamente? Para explicar las diferencias entre un archivo convencional y un archivo raw, tenemos que ir a la cámara y ver cómo se forma una imagen. De una forma sencilla, podemos decir que la luz pasa a través de la lente e incide en un sensor y éste genera una corriente eléctrica que, interpretada por un algoritmo, da lugar a la imagen de vídeo tal como estamos

Page 23: No Render

acostumbrados (un archivo de vídeo en un espacio de color RGB o YCbCr). Si la corriente eléctrica que genera el sensor no la interpretamos con un algoritmo, sino que la convertimos a datos binarios y la almacenamos en un archivo informático, es entonces cuando tenemos el archivo raw. La aplicación de un algoritmo a los datos recogidos por el sensor es lo que se suele llamar en las cámaras actuales demosaico o de-Bayer. Este nombre viene de que la inmensa mayoría de los sensores utilizados son sensores con un patrón de mosaico inventado por Bryce E. Bayer.  

Sensor Bayer

  En el demosaico se interpretan los datos que nos proporciona el sensor siguiendo un patrón válido para el ojo humano. Es en este momento donde se valora la información generada por las partes del sensor sensibles al rojo, al verde y al azul, se hace un balance de blancos, se refuerza el detalle de la imagen y se aplica un tipo de gamma. En un archivo raw, este proceso todavía no está hecho, se hace a posteriori, fuera de la cámara. Las

Page 24: No Render

cámaras que graban archivos RGB o YCbCr hacen el demosaico en la cámara, en el

momento de la grabación.  

Imagen directa del sensor Bayer, sin demosaico

 

¿Y cuáles son las ventajas de hacer el demosaico fuera de la cámara, o sea, de trabajar con archivos raw? Pues que el demosaico es un proceso computacional intensivo y por tanto puede ser interesante hacerlo con un procesador y un programa potente que puede ser difícil de implementar en la cámara. Además, al hacer el demosaico a posteriori, no tenemos que tomar decisiones definitivas acerca del balance de blancos, corrección de gamma, realce del detalle y exposición, cuando estamos rodando. Y la última ventaja, (last but not least) todos los ajustes de colorimetría son modificables infinitamente sin degradar el archivo. Esto es así porque los ajustes no se hacen sobre los valores RGB del archivo, sino que se hacen añadiendo unos metadatos que van adjuntos al propio archivo, el archivo en sí no se toca. Por muchos cambios que hayamos hecho, siempre podemos volver a los metadatos originales, la colorimetría original, sin haber perdido calidad.

Entonces, ¿Por qué no graban todas las cámaras archivos raw y nos olvidamos de grabar RGB? Pues porque son archivos muy grandes, que generan bitrates enormes y que exigen las últimas tecnologías para la grabación. Debemos tener en cuenta que en fotografía es fácil generar archivos raw porque es solo una imagen, pero en vídeo son 24, 25 o 30 imágenes por segundo. Además, existe el problema añadido de que trabajar con estos archivos nos cambia el flujo de trabajo al que estábamos acostumbrados de toda la vida y, normalmente, los cambios drásticos nos resultan bastante antipáticos.

Page 25: No Render

RAW II: RED, ARRI, SONY, BLACKMAGIC: VENTAJAS E INCONVENIENTES DE LOS DIFERENTES SISTEMAS DE GRABACIÓN

En el primer artículo, RAW I: ¿ME PUEDE DECIR ALGUIEN QUÉ ES UN ARCHIVO RAW?, intentamos aclarar el concepto de raw, en éste veremos cuáles son las opciones que tenemos en el mercado para grabar en raw y estudiaremos no solo las especificaciones técnicas sino también los precios y su facilidad de uso. Vamos a fijarnos también en  los flujos de trabajo: la facilidad para grabar, editar o, por ejemplo, hacer una corrección de color y llevarnos nuestro proyecto de una aplicación a otra. Tendremos un último artículo, RAW III: ¡CÓMO ESTÁ EL MERCADO!

 

Red fue la primera cámara capaz de grabar archivos de vídeo en raw y sus especificaciones técnicas son bastante potentes. El sensor de las cámaras Red es un 5k y es capaz también de grabar archivos a esta resolución, pero su bitrate máximo es de “solo” (el entrecomillado es porque aunque sea un bitrate alto, no lo es para un archivo raw) 336 Mbps. Esto quiere decir que graba archivos de una resolución enorme pero bastante comprimidos. La resolución de los archivos de Arri es de  2.8k, bastante más pequeños que los de Red, a un bitrate de 1.350 Mbps, bastante mayor que el de Red, porque graba sin compresión. La otra cámara que también graba sin compresión es Blackmagic Cinema. En este caso su bitrate es más pequeño porque su resolución también lo es (960 Mbps y 2.5k). La más potente en cuanto a especificaciones es la Sony F65. Según ellos, su sensor es de 8k (llegan a esta cifra cambiando las convenciones que determinan la resolución de un sensor), graba 4k y su bitrate llega hasta los 2 Gbps. Graba con compresión, pero más ligera que la de Red. Además de grabar en raw, Arri, Blackmagic Cinema y Sony graban en otros formatos

Page 26: No Render

con espacio de color RGB o YCbCr. Red solo graba en raw, pero podemos hacer una conversión a cualquiera de estos formatos a través de su software Redcine-X.

En cuanto a precios, nos movemos en terreno pantanoso. Es difícil comparar el precio de una cámara con el de otra porque los accesorios con los que viene cada cámara son diferentes y muchas veces el precio de los accesorios es mayor que el de la misma cámara. Una Red Epic básica rondaría ahora los $21.200 (después de la bajada de precios), la Arri Alexa estaría sobre los ¿$50.000?, no hay un precio oficial, la Sony F65 se iría a los $65.000, y la Blackmagic Cinema, que juega en otra liga, valdría $2.999. Si buscamos un equipo completo para alquilar, las cosas cambian y nos podemos encontrar con que el precio de Red se equipare al de Arri o incluso lo supere (entre 1.000 y 1.500 euros por día en Digital Cine Rent). Sony puede duplicar los precios de Red y Arri (sus accesorios son muy caros) si alquilamos un equipo completo ($2.500 en Abel Cine). De Blackmagic Cinema no encontramos precios de alquiler porque todavía no se ha distribuido, lo que sí que sabemos es que necesita bastantes accesorios (podéis ver esta videoreview de Philip Bloom) para poder grabar con ella de una forma cómoda (batería externa y visor obligatorios, aparte de lentes, follow focus y diferentes soportes).

Page 27: No Render

En cuanto a flujos de trabajo, estos están ya bastante establecidos en Red y Arri, aunque hasta ahora han dado bastantes quebraderos de cabeza. La forma de trabajar de Red y la de Arri es bastante diferente. Red permite editar sus archivos raw con algunos software, Arri no lo permite, su forma de trabajar es crear unos proxies, conversiones a DnxHD o ProRes de los archivos raw originales, con los que trabajaremos en nuestro programa de edición. Lo que, en principio, parece una ventaja por parte de Red puede ser una complicación, ya que dependiendo de qué programa de edición usemos, nuestra labor se puede convertir en un infierno. Con los proxies de Arri nunca tendremos problemas, son archivos ProRes o DnxHD que no ofrecen ningún dificultad a los software de edición. Cuando la edición está acabada, obtenemos un offline y con este offline ya podemos atacar a los archivos raw en un programa de corrección de color. Red también genera proxies, además automáticamente, pero son proxies difíciles de manejar por los programas de edición. Digamos que las dos marcas tienen  flujos de trabajo perfectamente válidos, pero que con Red se tiene que saber muy bien lo que se hace. ¿Y qué podemos decir de Sony y Blackmagic? Pues siguen un poco el modelo de Arri, los programas de edición no permiten trabajar con sus archivos raw y hay que trabajar con proxies. En el caso de Sony como en de Arri podemos grabar a la vez los archivos raw y los proxies, aunque hemos de decir que sus flujos de trabajo todavía están un poco verdes y no ofrecen posibilidades fuera de su propia tecnología. Blackmagic no genera su proxies durante la grabación, tendremos que hacerlo a posteriori con el programa de corrección de color que ellos mismos distribuyen gratuitamente, Davinci Resolve.

Page 28: No Render

Éstas son, en resumen, las características, los precios y los flujos de trabajo de las cámaras que graban archivos raw actualmente en el mercado. Hemos intentado resumir lo fundamental, aunque somos conscientes de que de este tema podríamos escribir y hablar durante horas. Esperamos haber puesto un poco de luz si tenéis que decidir con qué cámara grabar un proyecto o qué cámara comprar.

Tags | ARRI, BLACKMAGIC, F65, PROXIES, RAW, RED, RGB, YCbCr

RAW III: ¡CÓMO ESTÁ EL MERCADO!

Page 29: No Render

En el primer artículo, RAW I: ¿ME PUEDE DECIR ALGUIEN QUÉ ES UN ARCHIVO RAW ? , hablamos del concepto de raw, en el segundo, RAW II: RED, ARRI, SONY, BLACKMAGIC: VENTAJAS E INCONVENIENTES DE LOS DIFERENTES SISTEMAS DE GRABACIÓN, vimos las opciones que teníamos en el mercado para grabar en raw . En este último artículo, veremos cómo se reparten el mercado y qué ofrece cada una para ocupar su posición

Fue allá en el 2007, cuando unos chicos del sur de California, inspirándose en la evolución que había acontecido en el mundo de la fotografía, sacaron al mercado una cámara de vídeo capaz de grabar con calidad de cine. Muchos les llamaron locos y dijeron que su proyecto no tenía ningún futuro. Hoy vemos como su formato raw y  su grabación en 4k se adelantaron a todos. ¿Siguen siendo los mejores en 2012? Durante estos cinco últimos años, Red se ha consolidado y ha pasado de ser un proyecto innovador a ser uno de los principales actores del mundo del cine y la televisión.  Pero ya no están solos. Arri, Sony y Blackmagic Design se han sumado a la fiesta. ¿Qué rol juega cada uno dentro de la industria del cine y la TV?

Page 30: No Render

Arri entró en el mundo del cine digital en el año 2008, el mismo año en que se produjeron las primeras películas con Red, pero su entrada fue notablemente distinta. Si Red entró rompiendo esquemas con una cámara “barata” que rodaba en raw y 4k, Arri se dedicaba al mundo profesional y las especificaciones de sus cámaras no eran nada del otro mundo: 1080 y nada de raw (en el año 2008). Digamos que tuvieron una entrada tranquila, que con el tiempo quizás sea la que más ha gustado a la industria del cine y la TV. El hecho de que fueran más caras que las Red tampoco ha sido motivo de preocupación para una industria que cree que el precio de una cámara es “el chocolate del loro” de su presupuesto. Así, llegamos al año 2011 y vemos que Arri, por primera vez, supera a Red  en número de grandes películas rodadas con sus cámaras. En 2012 la diferencia es mayor: Grandes producciones como Skyfall, Sin ley o Argo han sido rodadas con la Arri Alexa. Parece que a Red, el chico valiente que va por libre, le empiezan a hacer pagar su osadía. Ya no son los preferidos de la élite del mercado. Arri también se impone en el mundo de la televisión, Red sigue manteniendo el mercado de la publicidad.

Page 31: No Render

Sony y Panasonic fueron los pioneros en los primeros años de este siglo. Las primeras películas rodadas en digital fueron  de ellos, pero el último lustro no ha sido el suyo. No sabemos si no creyeron en el cine digital más que como un experimento o pensaron que no les interesaba un mercado a los precios que marcaba Red; el caso es que desde el año 2005 hasta ahora, su sistema CineAlta de cine profesional, no ha sido protagonista del mercado. El año pasado lanzaron la cámara F65 y un nuevo sistema de grabación en raw que parece el más avanzado de todos los que hay en el mercado. Habrá que ver si sabe encontrar su hueco ofreciendo un servicio flexible y facilitando los flujos de trabajo (en esto último están todavía un poco verdes).

Blackmagic Design  juega un poco el papel de Red en 2007. Es una cámara que quiere revolucionar el mercado con su precio (3.000 €) y características (grabación en raw, 2.5k) y también producida por una compañía que se estrena en la fabricación de cámaras. De momento están teniendo problemas para servir sus pedidos, y es que, es difícil hacer una

Page 32: No Render

cámara desde cero para una empresa que es nueva en estos menesteres. Si no se dan prisa, Canon, Sony y Panasonic no les van a dar una segunda oportunidad.

¿Y Red? ¿Volverán a reinar en el mercado como lo hicieron en los años 2009 y 2010? No tenemos bola de cristal, pero su posición actual es ahora bastante más difícil. Ya no son baratos como lo eran en el año 2008 o 2009, su tecnología tampoco es ya revolucionaria y su asistencia técnica recibe bastantes críticas. Quizás su salida sea la que parece que están intentando ahora: bajar los precios, ir dejando los mercados más profesionales y dedicarse al mercado “indie”, que es un mercado más amplio.

Tags | ALEXA, ARRI, BLACKMAGIC, EPIC, F65, RAW, RED

Raw vs log. Cuestiones prácticas

En este post no vamos a tratar tanto los conceptos teóricos de raw y de log (podéis encontrar amplias explicaciones de estos conceptos en la Guía norender.com raw y en la Guía norender.com códecs, respectivamente), sino que vamos a fijarnos en las implicaciones prácticas que tiene grabar nuestro proyecto de una manera o de otra. Estas implicaciones serán de tipo económico, de tiempo dedicado a la postproducción y de

Page 33: No Render

mayores o menores posibilidades creativas y de calidad de imagen.Vamos a empezar esta comparativa práctica estudiando las ventajas de grabar en raw, después estudiaremos las ventajas de grabar en log y al final sacaremos una serie de conclusiones dependiendo del proyecto que queramos realizar.

VENTAJAS DE GRABAR EN RAW

En líneas generales podemos decir que grabar en raw siempre nos dará mayores posibilidades creativas y mayor calidad de imagen. También el proceso de postproducción será siempre más caro y nos llevará más tiempo. Vamos a verlo detalladamente:

 

Así es cómo se vería un archivo raw sin procesar

Page 34: No Render

Imagen producto de un archivo raw procesado

- Una de las grandes ventajas del raw ha sido siempre su gran rango dinámico, el aprovechar todo el rango dinámico del sensor de nuestra cámara y no reducirlo en la conversión a vídeo. Esto es cierto si lo comparamos con el vídeo en un espacio de color final, por ejemplo Rec. 709, lo que no es tan cierto si lo comparamos con un espacio de color logarítmico. En este caso las ventajas se acortan notablemente, e incluso, hay especialistas, como Charles Poynton, que dicen que un archivo log contiene el 99% de información de rango dinámico de un raw. Parece que el rango dinámico, o latitud de exposición en terminología cine, no es determinante para decidirse por el raw.

- Profundidad de color o bit depth, para los que estáis acostumbrados a la terminología inglesa. Aquí la diferencia ya es mayor. Mientras los diferentes códecs de vídeo que graban en log tienen una profundidad de color que va desde los 8 bits (el XF de la Canon C300 por ejemplo) a un máximo de 12 bits (Arri Alexa grabando internamente en Apple ProRes 444), los archivos raw tienen una profundidad de color de entre 12 y 16 bits (12 en el caso de la Blackmagic Cinema Camera y Arri, y 16 en el caso de Red y Sony). Por tanto, una ventaja en el procesamiento del color de los archivos raw frente a los log.

- Muestreo o sampleo de color . Los archivos raw en ningún caso hacen una reducción de las muestras de color frente a las muestras de luminancia, sin embargo hay algunos códecs que al grabar nuestros archivos log nos reducen el número de muestras de color. La salida HD-SDI de una cámara de vídeo, salida que se llama sin compresión, graba con un muestreo 4:2:2, por tanto graba solo la mitad de la información de color. Para llegar a un 4:4:4 necesitaremos una doble salida HD-SDI. Un log de la Canon C300 o de la Blackmagic Cinema Camera será 4:2:2. Importante este dato en cuanto al procesamiento del color y más crítico todavía en los Chroma Key.

Page 35: No Render

-Resolución. La resolución de un archivo raw es, o se aproxima, a la de su sensor; la de un archivo log se ve reducida una resolución de 1080 por una limitación de los códecs o de las salidas HD-SDI. Por tanto si queremos tener una resolución de 5k, 4k, 2,8k o 2,5k (dependiendo de qué grabemos con Red, Sony, Arri o BMCC) solo tenemos una alternativa, grabar en raw. Las altas resoluciones son importantes tanto si queremos tener una gran definición, como si queremos aprovechar la resolución extra para estabilizar nuestros planos o movernos dentro del frame.

- Balance de blancos. Grabando en raw no es necesario hacer balance de blancos, lo podemos hacer como referencia pero siempre lo podemos modificar en postproducción. En un archivo log el balance de blancos no es modificable. Art Adams, en un artículo que por otro lado está muy bien, da un argumento un poco pueril para defender que esto no es una ventaja del raw. Dice que a un operador de cámara se le supone que tiene que hacer un balance de blancos correcto y que aquí se acaba la historia. Cualquiera sabe que esto no es siempre así, y además ésta no es la clave del asunto, ya no hablamos de un balance correcto o incorrecto sino de un balance de blancos que se adapte al look que queramos dar a nuestro proyecto que éste pueda variar en postproducción.

- Sharpness y denoise. La aplicación de más o menos detalle a una imagen y la eliminación del ruido siempre es preferible hacerla sobre un archivo raw, por más que el archivo log pueda tener un detalle suave y podamos realzarlo en postproducción. Con un archivo raw partimos de cero y siempre podemos modificar estos parámetros con mayor libertad.

VENTAJAS DE GRABAR EN LOG

 

Archivo log sin corrección de color

Page 36: No Render

Archivo log corregido de color

- Bitrate. Los archivos log necesitan un menor ancho de banda para su transferencia, su bitrate es mucho menor que el de los archivos raw. Veamos un ejemplo, la Blackmagic Cinema Camera. El bitrate de sus archivos raw es de 960 Mbps grabando a 24fps, si grabamos en log, también a 24 fps, en Apple ProRes HQ, su bitrate es de 176 Mbps, por tanto 5,45 veces mayor en el caso del raw. ¿Qué implicaciones tiene esto?

Las necesidades de almacenamiento se multiplicarán por 5,45 si grabamos en raw. Necesitaremos muchos más discos duros. Imaginaos un proyecto, no muy grande, con 10 horas de grabación. Si hacemos back up, cosa básica si apreciamos nuestro trabajo, serán 20 horas de vídeo, que traducido en almacenamiento serían 8,64 TB en el caso del raw; en el caso de la grabación en log necesitaríamos 1,58 TB. La diferencia es considerable, la última cifra no asusta, la primera comienza a hacerlo.El tiempo de transferencia de archivos también es una cosa a tener en cuenta. Si grabamos con un presupuesto reducido no tendremos muchas unidades de almacenamiento (tarjetas de memoria o discos SSD) y estas unidades de almacenamiento se nos llenarán rápidamente. Deberemos tener discos duros en raid conectadas por Thunderbolt o al menos USB 3.0, ya que la transferencia por USB 2.0 de un disco de 128 GB (que nos da para grabar 17 minutos de raw con la BMCC) tarda en el mejor de los casos 50 minutos. Probablemente también necesitaremos a alguien que se encargue de gestionar toda esta transferencia de archivos.

- Los archivos raw en la mayoría de los casos no se pueden editar directamente y en el caso de los que se pueden, Red, los workflows son complicados y los archivos no corren fluidamente en los software de edición. En el caso de Arri, BMCC y Sony no nos queda otra que realizar dailies (codificación generalmente a Apple ProRes o DnxHD para que puedan trabajar los editores). Este proceso de codificación es lento y requiere de un hardware bastante caro, por mucho que software como Davinci Resolve faciliten la labor.

Page 37: No Render

En el caso de los archivos log, estos son perfectamente editables y solo requerirán de un LUT (algoritmo para la conversión de espacio de color que puede ser incluso el corrector de color del editor) para verlos correctamente mientras montamos.

-Compresión. Cuando hablamos de archivos raw pensamos inmediatamente en archivos “puros”, sin comprimir, y eso, en la mitad de los casos no es cierto. Arri y BMCC graban a menor resolución pero sin comprimir, mientras que Red y Sony graban a más altas resoluciones pero comprimiendo los archivos. Red puede grabar con compresiones entre 3:1 y 18:1 y Sony entre 3:1 y 6:1. Las compresiones, por mucho que nos digan, siempre afectan a la calidad de la imagen, aunque evidentemente también hay compresiones mejores y peores. Así que los logs son archivos comprimidos, sí. Pero la mitad de los raw, también.

CONCLUSIONES

 

 

Si nuestro presupuesto es reducido o si tenemos poco tiempo , la opción debería ser grabar en log. Sin desechar en el caso de que la urgencia de tiempo sea grande grabar en Rec. 709 y evitarnos el proceso de corrección de color o hacer una corrección de color más sencilla. Los archivos raw y las prisas no se llevan nada bien.Si nuestro presupuesto no es agobiante es cuando nos entrarán las dudas, con el raw tendremos más opciones creativas y probablemente podemos conseguir una calidad final mayor, pero los procesos serán más lentos y ese extra de presupuesto lo podríamos también invertir en otro tipo de cosas.Cuando el presupuesto no es realmente un problema y cuando la calidad es la que manda, sobre todo en cuanto al tratamiento de color, es cuando se impone el raw. Los procesos de almacenamiento de imágenes serán más complicados, los workflows

Page 38: No Render

también, pero al final seguro que merecerá la pena.Como dice Adrian Jebef en su artículo Video vs. Raw : Log vs. Lin., si tienes que grabar y editar un spot en tres días, hazlo en Rec. 709; las series de televisión graban en log manteniendo un presupuesto ajustado, buena calidad y entregando los episodios a tiempo; y si eres David Fincher no habrá otra opción para ti que el raw.

FUENTES: THE DIGITAL PARADE, HDVIDEO PRO, PROVIDEOCOALITION

Tags | ARRI, BLACKMAGIC, BMCC, log, RAW, RED, SONY

Lista de cámaras que graban raw (actualizado 19-11-2013)

Hoy os presentamos esta lista de cámaras que graban raw, intentando recopilar características y especificaciones para que las comparaciones entre ellas sean más fáciles. Este listado podría haber sido más escueto o podíamos haberlo llevado hasta el infinito. Hemos mantenido una solución de compromiso y hemos focalizado nuestra atención sobre todo en los formatos de grabación y sus características. (Descarga PDF después del salto página).

El criterio de selección es que graben raw y que estén en el mercado a fecha de hoy. Alguno se sorprenderá de que por ejemplo no esté la Blackmagic Pocket, pero es que a fecha de hoy no graba raw. Tampoco están cámaras como la Blackmagic Cinema 4k o la Digital Bolex porque todavía no están en el mercado, ahora bien intentaremos ir actualizando la lista y seguro que integraremos a muchas de las que ahora son candidatas.

Hay una característica fundamental que no aparece en la tabla, el precio; y no aparece porque es extremadamente difícil dar un precio en las mismas condiciones para todas las cámaras. Algunas se venden con ópticas, otras con las ópticas aparte; en algunos casos el grabador forma parte de la cámara, en otros no. Hay algunas que venden por un lado el “cerebro” de la cámara y todo lo demás son accesorios. Además, habría que añadir, que en

Page 39: No Render

algunos casos solo tenemos precio en dólares y que también entre el precio recomendado por el importador y el real puede haber una notable diferencia.

Esperemos que os sea de utilidad y que ayude a evaluar lo que el mercado nos ofrece en cuanto a la calidad de grabación de cada cámara y también en cuanto a la facilidad de llevar a cabo un trabajo con cada una de ellas. También creemos que es útil cuando en un momento dado necesitamos un dato concreto que se nos escapa y que nos podría llevar bastante tiempo localizar.

Tabla cámaras raw

Tags | ARRI, BLACKMAGIC, DRAGON, F5, F55, F65, KINERAW, MAGIC LANTERN, RAW, RED, SONY

La importancia de la placa base en la configuración del ordenador

Cuando nos disponemos a comprar o configurar un ordenador nos fijamos en las especificaciones del procesador, de la memoria RAM, de la tarjeta gráfica; pero pocas veces profundizamos en las características de la placa base, y es ésta la que nos va a determinar las posibilidades de actualización de nuestro equipo en un futuro. La placa base nos limitará el tipo de procesador que podemos utilizar, la cantidad de RAM y su frecuencia, y también la cantidad y rapidez de las conexiones externas y de los módulos de expansión. Es probable que durante la vida del ordenador actualicemos muchos componentes, pero es muy raro que actualicemos la placa base, por eso la importancia de elegirla bien en un principio.

La placa base es el circuito principal del ordenador que interconecta todos los demás componentes de éste: procesador, memoria RAM, tarjeta gráfica, discos duros…Como todo va conectado a ella, es ella la que determina las características de los componentes que podemos utilizar en nuestro equipo, muchas veces por simples características físicas –tipos de conexiones- y otras por compatibilidad electrónica de los componentes.

Page 40: No Render

Las placas base tienen diferentes formas o tamaños estandarizados, que se corresponden también con el de las cajas del ordenador y las fuentes de alimentación, siendo las más conocidas, de más pequeña a más grande, la mini ITX, micro ATX y ATX -la típica torre de escritorio. Además, es interesante constatar que la placa base lleva un pequeño firmware llamado BIOS, almacenado en una memoria, que es el primer software que se pone en marcha cuando encendemos el ordenador y que chequea todos los componentes de hardware de éste y nos da acceso al sistema operativo.

Especificaciones que vienen determinadas por la placa base

El primer componente que viene determinado por la placa base es el procesador, no todas las placas base sirven para todos los procesadores. Los procesadores AMD llevan sus placas base y los Intel llevan las suyas, además cuando se cambia de generación de procesadores también se puede cambiar de placas base. Como ejemplo, los nuevos procesadores Intel Haswell llevan un socket LGA 1150 que solo es compatible con las placas base de ultimísima generación y estas placas base serán compatibles, además de con los procesadores Haswell, con la siguiente generación de procesadores, los Broadwell.

Page 41: No Render

También es la placa base la que determina el tipo de memoria RAM que se puede utilizar y su cantidad. El tipo de conector de la placa base determinará el de la memoria RAM. La máxima frecuencia de la RAM y la cantidad máxima de memoria son también especificaciones determinadas desde la placa base, al igual que si la memoria se puede utilizar en modo multi channel –esta especificación también está influenciada por el tipo de procesador que utilicemos.

A la hora de instalar nuestra tarjeta o tarjetas gráficas deberemos mirar que tipos de

Page 42: No Render

puertos de expansión PCI Express tiene nuestra placa base. La última actualización de este tipo de conexiones es la PCI Expres 3 (PCIe 3.0) que tiene un ancho de banda por línea de 985 MB/s y duplica el ancho de banda del PCIe 2.0. Las conexiones PCIe 3 pueden ser de 1 línea (PCIe 3.0 x1), o de varías líneas (x4, x8 o x16 son las más frecuentes). Para el máximo rendimiento de nuestras tarjetas gráficas deberemos buscar conexiones PCIe 3.0 x16 y si queremos poner más de una tarjeta gráfica en nuestro ordenador, lo mejor será que tenga varias conexiones de este tipo; aunque tampoco pensemos que nuestra gráfica va a ir el doble de rápido porque el ancho de banda sea doble, simplemente tendrá menos limitaciones de ancho de banda. Otra cuestión a tener en cuenta, si queremos trabajar con dos tarjetas gráficas, es que nuestra placa base soporte los protocolos multi GPU de Nvidia (SLI) o de AMD (CrossFireX), que permiten trabajar a dos tarjetas gráficas iguales en tándem.

En cuanto a la conexión de nuestros discos duros, deberemos tener en cuenta la cantidad de conexiones SATA que necesitamos y su capacidad de transferencia. Las conexiones actuales suelen ser SATA 3 Gb/s o SATA 6 Gb/s. También deberemos mirar las posibilidades de RAID, que nos serán muy interesantes para ganar velocidad de transferencia o para asegurarnos no tener problemas si se nos rompe un disco duro. Últimamente también suele aparecer una conexión denominada mSATA que permite tener conectada a la placa base una memoria SSD de menor tamaño que los discos SSD convencionales.

Page 43: No Render

También deberemos mirar las conexiones externas, tanto de monitorado como de periféricos y/o datos. Dentro de las de monitorado tendríamos las salidas VGA, DVI, Displayport o HDMI; nos interesará saber cuántas de éstas tiene, qué resolución nos ofrece cada una de ellas y también cuántas podemos utilizar a la vez. Dentro de las conexiones de datos nos fijaremos en los puertos USB, Thunderbolt –si los tuviera- y también nos pueden resultar interesantes el tipo de conexiones Ethernet. Por supuesto fijarnos el tipo de puertos USB o Thunderbolt, no es lo mismo un USB 3.0 que un 2.0; ni un Thunderbolt que un Thunderbolt 2.Éstas son, en general, las características de una placa base que deberemos tener en cuenta cuando compremos o configuremos nuestro ordenador –sobre todo teniendo en cuenta que queremos dedicarnos a trabajar con vídeo- pero no quiere decir que no haya otro tipo de especificaciones que también nos puedan resultar de interés y a las que no esté de más dar un repaso: bluetooth, wi-fi, audio, modo de funcionamiento de la BIOS, overclocking y muchas otras más particulares de cada fabricante.

Nuevos procesadores Intel Haswell, ¿revolución o evolución para los equipos de vídeo?

Page 44: No Render

Se acaba de presentar la nueva generación de procesadores Intel, los Intel Haswell que sustituyen a la antigua generación, los Ivy Bridge. Se ha hablado mucho de la reducción de consumo que traen consigo  y de cómo han mejorado su potencia gráfica pero, ¿son argumentos suficientemente relevantes cuando trabajamos con vídeo?, ¿deberíamos pensar en cambiar de procesador? Os explicamos las novedades de esta nueva generación de procesadores e intentamos responder a estas preguntas.

La nueva generación de procesadores de Intel se compondrá de las tres gamas a las que Intel ya nos tiene acostumbrados: i3, i5 e i7. De las cuales solo se han presentado por el momento los i5 e i7 -los i3 tardarán más en llegar al mercado. En total, tenemos trece nuevos procesadores para ordenadores de sobremesa, siete i5 y seis i7, siendo el modelo con más prestaciones el Intel Core i7 4770K. Las series K son las que vienen desbloqueadas de fábrica para poder hacer overclocking, después tenemos las series R que son los que tienen los gráficos Iris Pro (la tarjeta gráfica integrada más potente) y dos series de menor consumo la S (consumo intermedio) y la T (mínimo consumo).

Las dos áreas en las que estos procesadores suponen una notable mejora con respecto a sus predecesores son el consumo energético y la potencia gráfica. En cuanto a consumo energético, se ha llegado a decir que lo reducían en un 50%; por lo que se sabe hasta la fecha quizás sea así en los procesadores para portátiles y ultrabook, pero en los procesadores  de sobremesa las cifras son más modestas aunque no desdeñables. En pruebas realizadas hasta la fecha se observa una bajada de consumo, con poca carga de trabajo, de 89 vatios (con el Ivy Bridge i7 3370K) a 65 vatios (nuevo Haswell  i7 4770k). Cuando la carga de trabajo es máxima la diferencia ya no es tan grande  y pasa, de 339 vatios con el procesador de la generación anterior a 320 vatios con el procesador actual.

Page 45: No Render

Imagen de www.tested.com

En cuanto a potencia gráfica, los procesadores que llevan la gráfica integrada Iris Pro duplican en potencia a los de la generación anterior (según datos de Intel) y, además, tienen capacidad para dar señal hasta a tres monitores pudiendo ser uno de ellos 4k. Datos que son muy interesantes para un ultrabook, que no tiene una tarjeta gráfica dedicada, pero que tienen menos interés cuando trabajamos con vídeo y contamos con tarjetas gráficas mucho más potentes.

Page 46: No Render

 

La potencia de procesado se ha mejorado pero es una evolución, digamos, menor. Se calcula que ha mejorado entre un 5% y un 10%, más por la mejora de la caché que por las mejoras en el núcleo del procesador. No son, por tanto, unas cifras que por sí solas animen a cambiar de procesador o a descartar un procesador Ivy Bridge en la compra de un ordenador nuevo.

Otra consideración a tener en cuenta  es que el nuevo procesador supone un nuevo cambio de socket y que, por tanto, las antiguas placas base no son compatibles con los procesadores Haswell. Si alguien estaba pensando en cambiar de procesador manteniendo placa base, esta opción no es posible. Lo que sí que puede ser compatible son las nuevas placas base con procesadores de la anterior generación, los Ivy Bridge.

Page 47: No Render

 

Después de estudiar estos datos parece que el nuevo cambio de procesadores será una revolución para los  ultrabook, su autonomía mejorará notablemente, acercándose a la de los tablets; su potencia gráfica, se dulicará según cifras de Intel, será también muy importante. Ahora bien, el ahorro energético ni es tan grande ni es tan importante en un ordenador de sobremesa. La potencia gráfica dependerá más de la GPU dedicada que elijamos que de la propia integrada en nuestro procesador. Y en cuanto al procesado de datos, todas las mejoras son bienvenidas, pero una mejora de entre un 5% y un 10% no cambiará realmente nuestra manera de trabajar.

Por tanto, a la hora de comprar un nuevo ordenador también podemos estudiar la opción de comprarlo con un procesador de la anterior generación. Todo dependerá del ahorro económico que nos suponga y de la valoración que hagamos de los nuevos procesadores y de tener un ordenador con los últimos componentes. De todas formas no será una opción descartable de antemano, como parece en el caso de los ultrabook. Si estamos pensando simplemente en actualizar nuestro procesado, tenemos que tener en cuenta que también habrá que cambiar la placa base, con lo cual el desembolso económico se dispara y es muy difícil que los beneficios obtenidos compensen los gastos.

Tags | COMPOSICIÓN, CPU, EDICIÓN VÍDEO, GPU, HASWELL, IVY BRIDGE

Memoria RAM, funcionamiento y características a tener en cuenta

Page 48: No Render

Siguiendo con nuestros artículos sobre componentes de ordenador en una configuración para trabajar con vídeo, hoy vamos a hablar de la memoria RAM, uno de los componentes más importantes a la hora potenciar el rendimiento de nuestro equipo de trabajo. Para entender su importancia vamos a ver cómo están estructuradas las diferentes memorias dentro de un ordenador y cuáles son las diferentes características de la memoria RAM y cómo elegir la que mejor se adecúa a nuestras necesidades.

La memoria RAM es una memoria que se caracteriza por ser volátil, desaparece cuando apagamos el ordenador. Al contrario que esta memoria, los datos almacenados en el disco duro permanecen cuando apagamos nuestro sistema. Además de estos dos tipos de memorias, tenemos una tercero, la memoria caché del procesador. Si estudiamos la estructura de las memorias de nuestro ordenador, hay que tener en cuenta, que cuando éste necesita algún dato, no va inmediatamente a buscarlo al disco duro, ni siquiera a la memoria RAM; el primer lugar en el que busca si está almacenado ese dato es en la memoria caché del procesador. Por tanto podemos decir que la memoria de nuestro ordenador está estructurada en tres niveles. El primer nivel y el de más rápido acceso, también el más reducido en cuanto a tamaño, sería la cache del procesador. Si los datos no son encontrados en esta memoria caché, el ordenador los buscaría en la memoria RAM, que es una memoria de rápido acceso pero no tanto como la anterior. Y si los datos no están en ninguna de estas dos memorias, el ordenador los buscará en el disco duro.

Page 49: No Render

¿Y qué ocurre cuando el ordenador empieza a almacenar datos en la memoria RAM y está se llena? Pues que esos datos que ya no caben son transferidos al disco duro y entonces el disco duro empezará a funcionar como una extensión de la memoria RAM, por supuesto mucho más lenta, que recibe el nombre de memoria virtual. Muchos programas nos preguntarán que disco duro queremos utilizar como memoria virtual o cómo caché de disco -es el mismo concepto- que no hay que confundir con la caché del procesador.  Se recomienda para una mayor rapidez en el procesamiento de datos, situar este disco caché en un disco distinto al que utilizamos para almacenar nuestro sistema operativo.

En cuanto a las características a tener en cuenta a la hora de elegir nuestra memoria RAM, son varias y algunas de ellas nos vendrán determinadas por nuestra placa base. Tanto la interface como la frecuencia de nuestra memoria RAM las deberemos buscar en las especificaciones de nuestra placa base. La interface se refiere al tipo de slot que tenemos en nuestra placa base y si elegimos un módulo de memoria con una interface diferente a nuestro slot, sencillamente no encajará y no podremos usarlo. Puede ser interface DDR1 (ya en desuso), DDR2 o DDR3 (la más actual). No cometamos tampoco el error de pensar que las interfaces son retro compatibles, es decir, que la última en salir es compatible con las anteriores, no es así. En cuanto a la denominación de los módulos de memoria, los módulos DDR2 tienen un nombre que empieza con PC2 y la de las DDR3 con PC3. ¡Ah!, tampoco olvidar que los slot de los ordenadores portátiles son diferentes a los de escritorio y por tanto también los son las pastillas de memoria. En general los ordenadores portátiles llevan memoria SO DIMM y los de escritorio DIMM.

La frecuencia también nos vendrá determinada por nuestra placa base y tendremos que montar una memoria que tenga al menos la frecuencia que vienen indicada en la placa base, si es mayor no hay problema pero si es menor a la indicada podemos dañar tanto la

Page 50: No Render

memoria como la placa base. Como ejemplo, nunca montar en una placa base que tiene una frecuencia de memoria mínima de 1333 MHz una RAM de 800 MHz.

Si tenemos en cuenta la comunicación entre la memoria RAM y el controlador de memoria del procesador, podemos clasificar la memoria como single-channel o multi-channel. Y dentro de las multi-channel puede ser dual-channel, triple-channel o quadruple-channel. Cuantos más canales tengamos, mayor será el ancho de banda y por tanto más rápida será la respuesta de nuestra memoria RAM.  Para sacar todo el partido a las arquitecturas de memoria multi-channel es necesario que las especificaciones de los módulos de memoria que forman el múltiple canal e incluso las marcas sean las mismas. Si los módulos de memoria que trabajan en multi-channel son diferentes, funcionarán;  pero no sacarán todo el partido a este tipo de arquitectura. En cuanto a los beneficios reales de los modos multi-channel, los resultados son un poco contradictorios. Mientras algunas pruebas ven manifiestas ventajas en el rendimiento de la memoria, hay otras que dicen que, por ejemplo, un dual-channel tiene un rendimiento frente a un single-channel solo un 5% superior (Tom’s Hardware). Por último decir que así como los modos dual-channel son posibles con la mayoría de procesadores actuales, solo los procesadores de más alto nivel son capaces de trabajar con arquitecturas de memoria triple o quadruple-channel.

Page 51: No Render

Otra característica importante de la memoria RAM es la latencia. A menor latencia, más rápidamente reacciona nuestra memoria RAM a los requisitos del ordenador. El problema es que cuanto menor es la latencia de una RAM mayor es también su precio, y si tenemos que elegir entre mayor cantidad de RAM o menor latencia siempre es una mejor inversión optar por la cantidad. La latencia, en general, sería una opción a tener en cuenta siempre que la economía no nos restrinja la cantidad.

También deberemos tener en cuenta a la hora de elegir nuestra memoria RAM la marca, no todas las memorias RAM con las mismas especificaciones se comportan igual. La construcción de los módulos no es igual y, por ejemplo, nos podemos encontrar módulos RAM con y sin disipadores de calor. Los que tienen disipadores de calor ayudarán a enfriar este componente y a que trabaje con un mejor rendimiento. Entre las marcas más conocidas y de una fiabilidad probada tenemos Corsair, Kingston, OCZ y Muskin; sin menoscabo a otras que pueden ser tan buenas como éstas.

Esperamos que con este artículo os sea más fácil valorar las características de una memoria RAM y también elegir los módulos que tenéis que comprar en el caso de que tengáis que hacer una actualización.

 

I Tarjetas gráficas: ¿AMD o NVIDIA?

Page 52: No Render

Éste es el primer artículo, de una serie de tres, sobre las tarjetas gráficas en ordenadores destinados a trabajar con vídeo. En este primer artículo veremos la importancia creciente que tienen las tarjetas gráficas en la configuración de una estación de trabajo y estudiaremos las dos opciones del mercado en cuanto a chipset: AMD o Nvidia . La elección de un chipset un otro no será baladí,  tendrá consecuencias importantes a la hora de desarrollar nuestro trabajo.

Desde que yo recuerdo, la potencia y rapidez de un ordenador se medía fundamentalmente por la velocidad de su CPU, de su procesador. Me acuerdo de ir a comprar un Pentium II y tener que decidir entre un procesador de 333 MHz o uno de 450MHz, y esto ser la decisión básica de mi compra, lo demás prácticamente no importaba. Después empezó a hablarse de la memoria RAM, parecía que ya estábamos todos aburridos de procesadores y necesitábamos una nueva variable. Si alguien te hablaba de la velocidad de un procesador, decías: “Ya, ¿y la RAM?”. Ahora, los que nos dedicamos a trabajar con vídeo, solo hablamos de tarjetas gráficas: Nvidia, AMD, CUDA, Open CL…  ¿Significa esto que la velocidad del procesador y la memoria RAM ya no tienen importancia? Tajantemente no. Simplemente se ha añadido una nueva variable a la hora de configurar nuestro ordenador, y como veremos en el siguiente post de esta serie,  lo más importante es el equilibrio de todos los componentes de nuestra estación de trabajo. Si tenemos una tarjeta gráfica muy por encima de la media de nuestro equipo, ésta se morirá esperando que los demás componente de nuestro sistema realicen sus tareas.

Pero , ¿por qué tiene ahora tanta importancia las tarjetas gráficas y qué es el CUDA? Todo empezó cuando empezamos a oír hablar de Open GL y Open CL (aunque no sean conceptos equiparables) y como algunos programas, primero los de 3D y después los de vídeo en general, utilizaban estos protocolos para que las tarjetas gráficas aceleraran cierto tipo de tareas.  En los últimos años,  Nvidia se ha separado un poco del protocolo abierto Open CL (promovido por Apple) y ha creado su propio protocolo para que los programadores de software utilicen sus chipset en la aceleración de los procesos de imagen. Lo cual no quiere decir que Nvidia haya abandonado el Open CL, sino que soporta tanto el Open CL como el CUDA.

Page 53: No Render

¿Dónde quedan los chipset de su rival AMD en esta situación? Pues de momento y si no cambian las cosas en una posición difícil en cuanto a los programas de vídeo. AMD abandonó su protocolo propio (Close to Metal) en favor del estándar abierto Open CL y ahora resulta que CUDA, el protocolo de su rival, es el elegido preferentemente por software como Adobe Premiere, After Effects o Davinci Resolve. ¿No funcionan estos programas con tarjetas AMD? Sí y no.  En el caso de Premiere sí funciona  pero no tan bien, hay más efectos que permiten aceleración CUDA que Open CL y además Adobe solo da soporte a un par de tarjetas AMD y en configuración MacBook Pro. En el caso de After Effects, el Ray Traced Engine solo funciona con tarjetas CUDA. El caso de Davinci Resolve es todavía más claro. Si tienes Windows el software solo funciona con tarjetas gráficas que soportan CUDA y si tienes Mac hay algunas configuraciones con tarjetas AMD que funcionan, pero no al mismo nivel que con las tarjetas  compatibles con CUDA.

Page 54: No Render

La creación por parte de Nvidia del protocolo CUDA ,que se separa del Open CL, ha perjudicado más a los usuarios de Mac que a los de Windows. Los de Windows podríamos decir que han tenido que reducir sus opciones a la mitad cuando han querido cambiar su tarjeta gráfica. Los de Mac tienen el problema añadido de que su plataforma trabajaba fundamentalmente con AMD y si se quiere cambiar a una tarjeta con chipset Nvidia, son pocas las tarjetas gráficas que funcionan con un Mac que no sea de última generación, en algunos casos ninguna, además de ser éstas mucho más caras que las versiones equivalentes para Windows. Algunos usuarios han tenido que tomar la decisión, un tanto radical, de “flashear “, cambiar el firmware, de una tarjeta para Windows y que de esta forma funcione en su Mac.

Por último, quiero aclarar la diferencia entre chispset y tarjeta gráfica. El chipset es el corazón , el motor de la tarjeta gráfica, y cuando hablamos de chipset Nvidia, no hablamos de tarjetas gráficas Nvidia, lo mismo con los AMD. Los chipset Nvidia se montan también en tarjetas de otras fabricantes como MSI, Gygabyte o Asus. Por tanto si queréis comprar una tarjeta gráfica CUDA, no tiene por qué ser de la marca Nvidia, puede ser de cualquier otra marca,  pero su chipset sí debe serlo.

Como veis, que haya diferentes protocolos, diferentes formatos, que no haya una unificación del mercado en este sentido, siempre trae rompederos de cabeza para el usuario. Como esto no lo podemos cambiar, hemos intentado que con este artículo tengáis un poco más claro cuál es la situación actual en lo referente a las dos opciones de chipset en las tarjetas gráficas y que eso os pueda ayudar a elegir de una manera más coherente con vuestras necesidades.

III Tarjetas gráficas. Convertir nuestra tarjeta CUDA en tarjeta certificada por Adobe

 

Page 55: No Render

En el primer artículo de esta serie veíamos las ventajas e inconvenientes de las tarjetas AMD y Nvidia trabajando con vídeo. En el segundo tratábamos las especificaciones fundamentales de las tarjetas gráficas y buscábamos una configuración equilibrada para nuestro ordenador.  Éste es el tercer artículo sobre tarjetas y en el vamos a ver cómo conseguir que nuestra tarjeta CUDA tenga las ventajas de una tarjeta certificada por Adobe aunque no lo sea, lo que algunos han llegado a llamar hackear la tarjeta aunque simplemente es añadir nuestro modelo de tarjeta a la lista de tarjetas certificadas por Adobe.

Lo primero que vamos a explicar es qué ventajas obtiene nuestra tarjeta al ser identificada como una tarjeta Adobe certificada, y vamos a estudiar estas ventajas en dos programas, Premiere Pro y After Effects.

Premiere Pro

Premiere Pro puede trabajar en dos modos: Engine GPU Acceleration o Software only. Solo podremos  trabajar en el primer modo si tenemos una tarjeta certificada por Adobe.  La segunda opción es accesible para todo el mundo. ¿Cuáles son las ventajas de trabajar en el primer modo? Pues en primer lugar los efectos. Hay una serie de efectos en Premiere, con un icono que los representa,

Icono efectos acelerados por la GPU en Premiere Pro

que permiten la aceleración por GPU. También notamos la aceleración por GPU cuando utilizamos blending modes entre capas o convertimos un vídeo entrelazado en un vídeo progresivo. En los escalados, cambios de tamaño de nuestras imágenes, no solo ganamos en rapidez sino que también lo hacemos en calidad, ya que el algoritmo de escalado que utiliza Premiere cuando tiene aceleración por GPU da más calidad que el que utiliza cuando no la tiene. Todas estas ventajas las disfrutamos no solo cuando reproducimos nuestros time line si no también cuando hacemos render de nuestras secuencias y cuando hacemos la exportación final.

Page 56: No Render

El codificado y decodificado de vídeo no mejoran con la aceleración por GPU, ¡no es milagrosa! Por tanto si queremos cambiar de códec una secuencia o si utilizamos archivos con compresión interframe, esos archivos tan difíciles de reproducir por nuestros software de edición (AVCHD, h.264…), el tener aceleración por GPU no nos supondrá ninguna mejora. En este caso mejor invertir en un buen procesador.

After Effects

Adobe After Effects tiene un nuevo motor de render 3D, el ray-traced o trazo de rayo, que da más posibilidades de renderizado y mejor calidad pero que tiene la desventaja de que es realmente lento si tiene que trabajar solo con la CPU o procesador.  Es el caso de las tarjetas AMD que no tienen el protocolo CUDA sino el Open CL. Si tenemos una tarjeta CUDA, el proceso de renderizado lo lleva principalmente la tarjeta gráfica y es entonces cuando sentimos las ventajas de este motor de renderizado.

En el caso del Open GL, tanto las tarjetas AMD como las Nvidia utilizarán sus respectivos protocolos, Open CL y CUDA, para acelerar los procesos gráficos, no hay diferencias en este caso.

Método para configurar tu tarjeta como tarjeta certificada por Adobe

Adobe certifica una serie de tarjetas para trabajar con sus programas y en este proceso de certificación se comprueba que la tarjeta gráfica funciona perfectamente en todos los aspectos. ¿Por qué no todas las tarjetas CUDA están certificadas por Adobe? Pues porque el proceso de certificación es un proceso laborioso y el mercado de tarjetas gráficas es muy amplio. Por eso Adobe solo utiliza su tiempo certificando las tarjetas que hacen un gran trabajo con su software, lo que no implica que las tarjetas no certificadas no puedan acelerar los procesos de trabajo de sus programas, aunque igual no de una forma tan eficiente.

Ahora os exponemos el método, publicado por Studio1productions para añadir vuestra tarjeta a la lista de tarjetas certificadas por Adobe. Consiste en un pequeño programa que funciona en Windows Vista y Windows 7 y para las versiones CS6 de Premiere Pro y After Effects. Los pasos a seguir son los siguientes:

1. Descargar y descomprimir el archivo que aparece al final del post.

2. Copiarlo a la partición c, que tendrá que ser la partición dónde estén instalados nuestros programas de Adobe.

3. Ejecutar el archivo como administrador, botón derecho del ratón.

4. Seguir las instrucciones del programa para los diferentes software de Adobe.

En caso de duda o búsqueda de mayor información acerca de las tarjetas para las que sirve podéis ir a la página web  Studio1productions. No se conocen “efectos secundarios”

Page 57: No Render

debidos a la aplicación de este método, pero no podemos aseguraros que no los haya en ningún caso, por tanto, si lo utilizáis es bajo vuestra responsabilidad. Esperamos que este post además de informativo  sirva para que tanto Premiere Pro como After Effects “vuelen” con vuestras tarjetas CUDA no certificadas.

ARCHIVO PARA DESCARGAR

FUENTE:  Studio1productions

Tags | AFTER EFFECTS, AMD, CUDA, NVIDIA, OPEN CL, OPEN GL, PREMIERE PRO, RAY TRACED

Discos SSD, ventajas, inconvenientes y fiabilidad de las marcas

Continuando con nuestros artículos sobre componentes de ordenador y su funcionamiento en equipos de vídeo, hoy nos toca hablar de los SSD o discos de estado sólido, uno de los componentes más de moda por sus ventajas frente a los discos duros tradicionales. En las estaciones de trabajo para vídeo no parece que vayan a relevar definitivamente a los discos duros  tradicionales, pero sí que serán este tipo de discos los que se encarguen de almacenar el sistema operativo  y las aplicaciones principales de nuestro ordenador. Hacemos un análisis de las ventajas e inconvenientes frente a los discos duros tradicionales y también nos fijamos en las estadísticas de fiabilidad de las diferentes marcas.

En el funcionamiento de un disco SSD hay dos partes básicas, la memoria NAND y el controlador. La memoria NAND es el tipo de memoria de al que están compuestos los discos SSD en nuestros días. El controlador es un procesador que tiene el disco SSD y que se encarga de poner en contacto al resto del ordenador con la memoria NAND y gestionar el uso de ésta. El controlador y su firmware son los responsables del rendimiento de un disco SSD: de su rapidez, de su fiabilidad y también de su durabilidad.

Page 58: No Render

Para entender el funcionamiento de los discos SSD es importante conocer un par de limitaciones de las memorias NAND. En primer lugar que este tipo de memorias no pueden sobreescribir datos, los datos antiguos tienen que ser eliminados antes de que se puedan escribir en la misma localización los nuevos. En segundo lugar este proceso de vaciado de datos no se puede hacer un número infinito de veces, los discos SSD tienen un número limitado de vaciados en cada localización después de los cuales se deja de considerar fiable. Esto nos lleva a que la velocidad de escritura de los discos SSD varía con el tiempo, pierden velocidad de escritura según se va llenando el disco. Cuando el disco está vacío las operaciones de vaciado para luego escribir los datos no se dan y cuanto más lleno está el disco, más frecuentes  son este tipo de operaciones.

VENTAJAS DE LOS SSD FRENTE A LOS HDD (DISCOS DUROS TRADICIONALES)

Los discos de estado sólido no tienen partes móviles y es esa característica la que les da la mayoría de las ventajas frente a los HDD. Los SSD no sufren el desgaste  de los discos duros por no ser estructuras mecánicas con rozamientos, tampoco son susceptibles de roturas por caídas o golpes, lo que nos lleva a una durabilidad mucho mayor. También son más silenciosos y su consumo de energía es  mucho más bajo porque generan menos calor. Y la última ventaja, y principal, es su rapidez, el acceso a la información almacenada o el almacenamiento de ésta se realiza en mucho menos tiempo. Además, su puesta en marcha es inmediata, los HDD requieren de un cierto tiempo hasta que entran en funcionamiento.

INCONVENIENTES DE LOS SSD FRENTE A LOS HDD

El mayor inconveniente de los SSD frente a los HDD es el precio. Actualmente un SSD es entre 7 y 50 veces más caro que un HDD en cuanto a coste de almacenamiento por gigabyte. Como ejemplo,  podemos encontrar discos SSD de un terabyte por alrededor de 600€, estando la misma capacidad de almacenamiento en HDD en unos 60€.

El otro de los inconvenientes de los discos SSD, que ya hemos mencionado anteriormente, es que pierden velocidad de escritura según se va llenando el disco. Este problema va mejorando con la salida de nuevos controladores que gestionan mejor el vaciado de datos, pero de momento sigue estando ahí.

TIPOS DE DISCOS SSD

Podemos clasificar los discos SSD por su conexión y tendríamos SSD SATA y SSD PCIe. Los primeros son los más frecuentes por su economía,  pero esto puede cambiar en los próximos meses debido a la mayor velocidad de los PCIe y a que fabricantes como Apple se han decantado por este tipo de discos.

Las conexiones SATA pueden ser de tres tipos. En primer lugar estaría la SATA revisión 1 que alcanza unas velocidades de transferencia de 150 MB/s, la segunda revisión de la interface SATA alcanza unas velocidades de transferencia de datos de 300 MB/s y la tercera revisión, que es de 2009, alcanza los 600 MB/s. Hasta hace poco tiempo, este tipo de conexiones se consideraban suficientes para las velocidades de lectura y escritura de los

Page 59: No Render

SSD, pero cada vez más los fabricantes se encuentran con que podrían obtener mayores velocidades si no estuvieran limitados por la conexión. Una conexión PCIe 2.0 tiene una capacidad de transferencia de datos de 500 MB/s por cada línea y podemos tener configuraciones de una línea, de cuatro, de ocho y hasta de 16 líneas. Con un disco SSD conectado a cuatro líneas ya podríamos tener una capacidad de transferencia de 1,6 GB/s frente a los 600 MB/s de la conexión SATA revisión 3. El nuevo Mac Pro, por ejemplo, promete llegar a cifras de velocidad de 1250 MB/s, imposibles con conexiones SATA que tienen su limitación en los 600 MB/s. El problema de este tipo de SSD es de momento su precio, al menos tres veces más caro que el de los SSD SATA, y también nos encontramos que hay menos opciones en el mercado.

MARCAS Y FIABILIDAD

Existen en el mercado muchas marcas con discos SSD SATA y bastantes menos con discos SDD PCIe. Si queremos elegir nuestro disco será interesante que además de fijarnos en la velocidad de lectura y escritura de datos, nos fijemos también en algunas estadísticas de fiabilidad, un poco más difíciles de encontrar pero interesantes para no tener problemas con nuestra compra.

Nosotros hemos encontrado en hardware.fr una estadística de SSD devueltos a cada fabricante. Los SSD fueron vendidos entre el 1 de abril de 2012 y el 1 de octubre de este año, y fueron devueltos entre antes de abril de 2013. Las estadísticas son sobre una muestra de al menos 500 unidades vendidas  por fabricante y el % es el de devoluciones.

Samsung: 0,05%

Plextor: 0,16%

Intel: 0,37%

Crucial: 1,12%

Corsair: 1,61%

OCZ: 6,64%

Probablemente esta estadística no lo diga todo en cuanto a la fiabilidad de un SSD y puede que algunas cosas hayan cambiado desde el periodo analizado, pero seguramente en esta estadística podéis ver opiniones y problemas de algunos usuarios con algunas marcas de discos SSD que ya se habían visto reflejadas en internet. No siempre el SSD más rápido y el más barato es el mejor. Buscad información de usuarios y pruebas del producto antes de decidiros por uno u otro fabricante.

Tags | PCI EXPRESS, SATA 1, SATA 2, SATA 3, SATA. PCIe, SSD

Page 60: No Render

Opciones de RAID trabajando con vídeo. Ventajas e inconvenientes

Los discos duros son lentos, ruidosos  y poco fiables; por eso,  todos nos alegramos de la llegada de los discos SSD, rápidos y silenciosos. Los que trabajamos en el mundo del vídeo sabemos que no serán la solución para nosotros, al menos durante unos cuantos años. Las altas necesidades de almacenamiento cuando trabajamos con vídeo -más todavía con los archivos raw, las resoluciones 4k, el 3D y los high frame rate- hacen que tengamos que seguir confiando en soluciones RAID con discos duros. ¿Cuáles son las opciones RAID que tenemos? ¿Cuál es la más conveniente para cada uno de nosotros? Estas son las preguntas a las que intentaremos dar respuesta en este artículo.

RAID-1

Como hemos mencionado anteriormente uno de los problemas de los discos duros es su falta de fiabilidad y para dar solución a este problema se creó el RAID- 1. El RAID- 1 es una solución sencilla, tan sencilla como duplicar los datos en dos discos diferentes, cada operación de escritura se hace a la vez en dos discos diferentes y en las operaciones de lectura se comprueba que los datos son iguales en los dos discos, que no ha habido ningún problema y que los datos son iguales. Con esta solución ganamos enormemente en fiabilidad pero la velocidad de transferencia de datos es básicamente las misma, si queremos mejorar nuestra transferencia tenemos que buscar otra solución y aquí es dónde aparece el RAID-0.

Page 61: No Render

RAID-0

La solución para ganar velocidad de transferencia es tan sencilla como la anterior, escribimos simultáneamente la mitad de los datos en un disco duro y la otra mitad en otro disco duro. A la hora recomponer nuestra información haremos también una lectura simultánea de los datos que tenemos en  los discos duros. De esta manera conseguimos básicamente duplicar la velocidad de escritura y lectura de datos. Sin embargo con este sistema no ganamos en fiabilidad, sino todo lo contrario. Ahora tenemos el doble de posibilidades de que nos falle un disco duro, y si nos falla uno, perdemos toda la información.

 

RAID-10 y RAID-01

Page 62: No Render

Si conocemos las ventajas de fiabilidad de RAID-1 y las ventajas de rendimiento de RAID-0, ¿por qué no crear un sistema que aúne las ventajas de los dos? Es aquí cuando llegamos al RAID-10 y al RAID-01.

En el RAID-10 se genera un RAID-1 con dos unidades de disco –se duplican los datos y se gana fiabilidad- y estas dos unidades son tratadas como una sola y nueva unidad de disco duro y se separan sus datos en dos nuevas unidades de disco duro para aumentar su velocidad de transferencia, RAID-0; todo esto sigue este orden pero se hace de una forma simultánea. La combinación RAID-01, haciendo la separación de datos primero y después el duplicado de estos, sería menos fiable que la anterior y por eso mucho menos usada.

RAID-5 y RAID-06

El problema de RAID-10 es que utiliza mucho espacio, lo duplica. Ante esta necesidad de espacio del RAID-10 empiezan a surgir alternativas como  el RAID-5 que hacen una mejor gestión del espacio del disco duro, pero como veremos, no sin problemas.

Digamos que RAID-5 utiliza algoritmos mucho más complejos que RAID-10 para gestionar los datos y ganar a la vez fiabilidad y velocidad de transferencia, utilizando menos espacio en el disco duro. El problema es que para que estos algoritmos funcionen adecuadamente se necesita controladores de disco que suponen potentes implementaciones de software y hardware que impiden que esta solución sea más económica que el RAID-10 aunque ésta sea menos eficiente almacenando datos.

El otro problema grave del RAID-5 viene cuando el sistema de discos falla. Si nos falla un disco en un RAID-10 podemos seguir trabajando, con riesgos pero podemos trabajar. En un RAID-5 el rendimiento baja muchísimo cuando falla un disco y es muy probable que la

Page 63: No Render

velocidad de transferencia sea tan baja que sea imposible trabajar. Problemas, por tanto, si tenemos una entrega inmediata. Además, cambiar un disco que falla y recuperar un sistema de discos es mucho más complicado en un RAID-5, puede costarnos un día completo o incluso más. Un RAID-10 es mucho más fácil de reconstruir y solo implica reemplazar el disco que ha fallado y copiar en él el material del disco que ha sobrevivido.

El RAID-6 es un intento de solución para los problemas del RAID-5. RAID-6 sería aquel sistema RAID capaz de recuperarse aunque fallaran dos discos de forma simultánea. RAID-6 gana en fiabilidad a costa de ampliar sus necesidades de almacenamiento.

CONCLUSIÓN

Como vemos existen diferentes soluciones para trabajar en RAID con nuestros discos duros y ganar fiabilidad, velocidad de transferencia o las dos a la vez. Con RAID-1 ganaremos solo fiabilidad y con RAID-0 solo velocidad de transferencia. El RAID-10, RAID-5 y RAID-6 nos darán fiabilidad y velocidad de transferencia a la vez y aunque el RAID-5 nos pueda en un primer momento parecer mejor por su mayor implementación tecnológica y por menores necesidades de espacio, pensad que tiene algunos problemas serios cuando un disco falla y que el RAID-10, tecnológicamente más sencillo, puede ser mejor solución.

FUENTE: REDSHARK

Tags | DISCOS DUROS, DISCOS SSD, RAID, RAID-0, RAID-01, RAID-1, RAID-10, RAID-5, RAID-6

Conexiones de vídeo para nuestro ordenador. Análisis, ventajas e inconvenientes de cada una de ellas

Page 64: No Render

A la hora de dar entrada o salida a una señal de vídeo en nuestro ordenador nos podemos encontrar con varios tipos de conexiones. Algunas de ellas en claro desuso como la conexión de vídeo compuesto, otras muy superadas, pero que todavía conservan la ventaja de haber sido un estándar, el caso de las VGA, las más actuales (DVI, HDMI y Displayport) y por último las profesionales SDI en todas sus variantes que innovan ahora con la 6G-SDI. Vamos a ver cuáles son sus características y las ventajas e inconvenientes de cada una de ellas.

La primera distinción que podríamos hacer es entre conexiones de vídeo digital y conexiones de vídeo analógico, estas últimas en claro retroceso. Entre las conexiones de vídeo analógico tenemos las de vídeo compuesto que como decía anteriormente, ya están claramente superadas. Lo mismo nos sucederá con  las conexiones  S-Vídeo, de un poco mejor calidad. La única conexión de vídeo analógico que se mantiene es la VGA, el estándar más utilizado para conectar el ordenador a la pantalla y que no está nunca demás en nuestro equipo; no es difícil encontrarse con proyectores que no tienen otra conexión para el ordenador que la VGA. La conexión VGA tiene la ventaja sobre las anteriores de que transporta la señal RGB con cables independientes: un cable para el rojo, otro para el verde y otro para el azul.

Page 65: No Render

TArjeta gráfica con conexiones S-Video, DVI, VGA

Si entramos en conexiones digitales el estándar para la conexión de la pantalla durante los últimos años ha sido el DVI, pero como las cosas no podían ser tan sencillas, hay que aclarar que el conector DVI también puede ser analógico. Tenemos tres tipos de conectores DVI: DVI-D, digamos el DVI “normal” que es digital, DVI-A, que es el conector analógico y DVI-I que es el conector integrado, que sirve tanto para una señal analógica como para una digital. También es interesante saber, para que no nos líen, que no hay adaptadores de DVI-D a VGA (el primero es digital y el segundo es analógico), necesitaremos un conversor, más caro y más complicado electrónicamente. En cuanto a las características del DVI, su principal inconveniente para visualizar vídeo es que solo transmite vídeo en RGB y la mayoría de los formatos de vídeo son YCbCr, por tanto no veremos el vídeo en su verdadero espacio de color. También tiene limitaciones en cuanto a la profundidad de color, hasta 10 bits, no transporta audio, y la longitud del cable, máximo de 10m.

Page 66: No Render

La conexión HDMI podemos decir que mejora notablemente a la DVI y que acabará sustituyéndola. Trabaja en los dos espacios de color, RGB e YCbCr y llega hasta los 16 bits, frente a los 10 bits del DVI. También nos permite llegar a resoluciones  de 4096 x 2160 a 24 fps o Ultra HD (3840 x 2160) a 30 fps. También nos da la posibilidad de resolución HD con frame rates de 120 fps. La longitud máxima del cable está en los 15 m.

Si el HDMI es el estándar doméstico que también se usa profesionalmente, el Displayport , siendo muy similar en cuanto a características, pretende ser un poco más sofisticado y va más dirigido hacia los ordenadores. Nos ofrece mayores resoluciones y frame rates, puede llegar a una resolución de 3840 x 2160 y 60 fps o 2560 x1600 y 120 fps. La capacidad de transferencia de datos también es mayor, 21,6 Gbps frente a los 10,2 Gbps del HDMI. Con el Displayport sucede como con el Thunderbolt, se pueden conectar dispositivos en cadena, por tanto podemos tener varios monitores conectados a un solo puerto Displayport del ordenador. Quizás los mayores inconvenientes frente al HDMI son que a partir de 2m de longitud del cable se reducen las capacidades de resolución y sobre todo que no está tan introducido en el mercado como el HDMI.

Page 67: No Render

Después podemos hablar de las conexiones profesionales, las SDI (Standard Digital Interface) con todas sus actualizaciones, que no formarán parte de nuestra tarjeta gráfica sino que será necesario comprar una interface aparte para tener acceso a este tipo de entradas y salidas en nuestro ordenador. Fabricantes como Blackmagic,o Aja, se dedican a la fabricación de este tipo de interfaces. Estas conexiones trabajan con vídeo en el espacio de color YCbCr y permiten longitudes de cable de hasta 100 m con conectores robustos, el clásico BNC. Los bitrates y resoluciones de este tipo de conexiones depende de la evolución de este estándar SMPTE, así, tenemos las siguientes conexiones:

- SDI-SD (para PAL o NTSC) tiene unos bitrates máximos de 360 Mbps.

-HD-SDI, la conexión para 1080 de resolución, llega a unos bitrates de 1.485 Mbps y puede trabajar hasta 60 fps.

-Dual-Link HD-SDI, que como su propio nombre indica son dos conexiones HD-SDI y tiene un bitrate también doble que la conexión HD-SDI (2.970 Mbps). Aptas para trabajar con sampleos de color 4:4:4 y 12 bits de profundidad de color.

-3G-SDI, tiene las mismas características que el Dual-Link HD-SDI, pero con un solo cable.

Page 68: No Render

-6G-SDi, aparecida en el mercado de manera reciente y diseñada para las nuevas resoluciones 4k, soporta bitrates dobles que las 3G-SDI, o sea, 5.940 Mbps. Blackmagic ha sido el primer fabricante en presentar productos con este tipo de conexiones.

Como hemos podido ver, tenemos notable variedad de conexiones de vídeo en nuestro ordenador, habrá algunas que nos serán más útiles para ver la interface del ordenador y otras en las que podremos ver el vídeo en su verdadero espacio de color; unas serán más profesionales y robustas y otras tendrán la ventaja de que se han convertido en el estándar del mercado. Dependiendo de nuestras necesidades y sabiendo sus características será más fácil optar por una u otra.

HARDWARE: Dale una segunda juventud a tu viejo Mac ProPor Juan Ugarriza ⋅ diciembre 26, 2013 ⋅ Etiquetas gpu, hardware, mac pro, nvidia

Ahora que ya está a la venta el nuevo Mac Pro, puede que estés pensando en deshacerte de tu viejo equipo, que tantas alegrías y disgustos te ha dado. Es cierto que las nuevas

Page 69: No Render

máquinas pueden ser más potentes, pero también lo es que suponen una fuerte inversión inicial y que en algunos aspectos no vamos a notar una diferencia sustancial.

En este artículo te ofrecemos información básica para actualizar tu Mac Pro de forma sencilla y económica, para darle así un empujón en cuanto a rendimiento. Es importante destacar que las opciones dependen de cual sea tu modelo de Mac Pro, siendo mucho más fácil actualizar los equipos 3,1 (Early 2008) en adelante, ya que permiten sistemas operativos modernos y llevan EFI de 64bits. Antes de comprar nada, asegúrate de que es compatible con tu modelo de Mac, especialmente la tarjeta gráfica y la RAM.

1. Disco del sistema SSD

Probablemente el cambio que más feliz te va a hacer. Los SSD (solid-state drive) son discos que, en lugar de elementos giratorios magnéticos como los tradicionales, llevan en su interior memorias no volátiles. Esto hace que sean más rápidos y silenciosos que los convencionales. Si usas uno como disco del sistema y aplicaciones, notarás que tu ordenador arranca mucho más rápido, que las aplicaciones se abren casi inmediatamente y que, en general, todo va más fluido.

Page 70: No Render

A la hora de elegir el modelo, hay que tener en cuenta que el Mac Pro no será capaz de exprimir al máximo los discos de 6Gb/s puesto que sus bahías son de 3Gb/s, así que no te obsesiones con encontrar el más veloz ya que estará limitado a unos 270MB/s de lectura/escritura como máximo. Puedes encontrar modelos de 256 GB (de sobra para sistema y aplicaciones) por unos 150€. Para instalarlo en el Mac Pro necesitarás un adaptador (se puede pinchar directamente en el conector, pero es mejor que quede bien sujeto) para cambiar de 2.5″, el tamaño habitual de los SSD, a 3.5″. Nosotros hemos usado este, muy fácil de instalar y que cuesta unos 15€. Una vez metido el disco en el adaptador, se convierte en uno de 3.5″ que puedes colocar en cualquiera de las cuatro bahías para discos duros del Mac Pro.

Page 71: No Render

Si quieres que la velocidad de transferencia sea superior, y además no utilizar una de las cuatro bahías SATA 3,5″, existen adaptadores para pinchar los SSD directamente a un bus PCI-E a una velocidad de 6Gb/s.

2. Más RAM

Los programas de posproducción y los sistemas operativos modernos necesitan grandes cantidades de RAM para funcionar eficazmente. La cantidad máxima de memoria depende de cual sea tu modelo de Mac Pro, pero como norma general podríamos decir que actualmente tener menos de 8GB de RAM no es buena idea. A partir de ahí, lo que te permita el presupuesto y las bahías libres de tu equipo. Programas como After Effects o Resolve pueden utilizar cantidades ingentes de memoria. Así que, cuanta más, mejor.

Page 72: No Render

La memoria ha bajado mucho de precio en los últimos años. Crucial es un buen sitio para hacerte un primer presupuesto online y saber que tipo de memoria necesita tu máquina.

3. Nueva tarjeta gráfica

La evolución de los procesadores (CPU) no ha sido tan rápida en el último lustro como estaba previsto. Sin embargo, la de las tarjetas gráficas (GPU) está siendo espectacular. Así que muchos desarrolladores de software han apostado por apoyarse en la potencia de cálculo de las gráficas para disparar el rendimiento de sus aplicaciones. En el mundo Mac siempre hemos estado bastante limitados en este aspecto, ya que la oferta de tarjetas era escasa y muy cara. Sin embargo, este tema ha cambiado radicalmente en los últimos tiempos, ya que desde Mac OS 10.8.2 funciona casi cualquier tarjeta gráfica de PC sin necesidad de hacer prácticamente nada. Aquí hay una guía estupenda en inglés que conviene leer con atención antes de elegir el modelo, pero básicamente cualquier Nvidia 5xx, 6xx o 7xx que tenga conectores de 6 pins va a funcionar sin más. Hay que prestar atención a esto, ya que algunas tarjetas llevan conectores de 8 pins, por lo que pueden necesitar más energía de la que puede suministrar nuestra placa base.

Para alimentar la tarjeta necesitaremos cables adaptadores de   mini pci-e 6pin (conectores de la placa base) a pci-e 6pin (conectores de la tarjeta). Cuesta cada uno unos 5€ y necesitaremos tantos como lleve la gráfica, hasta un máximo de dos.

Page 73: No Render

En cuanto al modelo de tarjeta, una opción muy resultona es la Nvidia GTX 660Ti, que vale unos 250€ y nos proporcionará aceleración tanto CUDA (para After Effects, por ejemplo) como OpenCL (para FCPX, por ejemplo). Teóricamente la marca de la tarjeta no importa, pero nosotros hemos optado por EVGA por su excelente garantía post-venta.

Tenemos que tener en cuenta que si la tarjeta no es para Mac, la principal limitación es que no veremos el arranque del Mac, aparecerá directamente el escritorio, por lo que no podremos elegir disco duro de arranque pulsando opción, habrá que hacerlo desde el panel de control “arranque”. Así mismo, algunos programas necesitan pequeños apaños para reconocer estas tarjetas, aunque no suele ser nada complicado.

Si optamos por una tarjeta con EFI para Mac, podemos ir a por una Quadro de Nvidia (de 1.000€ en adelante y con un rendimiento cuestionable) a por la GTX 680 de EVGA (600€) u optar por una GPU “flasheada” como las que ofrece la tienda especializada Macvidcards.

4. Más discos duros internos

Los Mac Pro tienen la posibilidad de instalar hasta cuatro discos duros internos SATA de 3,5″. Además, podemos hacer muy fácilmente un RAID por software (con la utilidad de discos) para conseguir mayores velocidades de transferencia. Con 3 discos de 3TB (unos 100€ cada uno) podemos montar un “RAID 0″ de 9TB que de más de 300MB por segundo de transferencia sostenida, suficiente para mover casi cualquier archivo de cámara.

Page 74: No Render

5. Tarjeta USB 3

Una de las limitaciones de los viejos Mac Pro es el irritante puerto USB 2. Por apenas 25€ es posible instalar una tarjeta PCI-E con cuatro puertos USB 3, ideal para utilizar discos duros e incluso RAIDs externos. Tenemos que tener en cuenta que estas tarjetas necesitan alimentación si queremos usar discos duros sin fuente propia, por lo que tendremos que asegurarnos de que hay conectores libres suficientes en nuestra placa.

Como ves, con no mucho dinero podemos hacer que nuestro viejo Mac Pro tenga más tiempo de vida útil. Estas soluciones son fácilmente instalables por el usuario. Existen otras

Page 75: No Render

mucho más sofisticadas, como cambiar los procesadores, instalar discos internos en las bahías de 5,25″, usar chasis de expansión, combinar varias GPUs, utilizar tarjetas PCI-E para diversas opciones, etc, etc. Si se te ocurre alguna cosa más para que el viejo Mac Pro viva esa merecida “segunda juventud”, no dudes en aportar tu experiencia en los comentarios de esta entrada.

Comentarios

4 comentarios para “HARDWARE: Dale una segunda juventud a tu viejo Mac Pro”

1.

Uno de los ordenadores que tengo es un estupendo Macpro 2,1 de mayo de 2007, pero no se si puede actualizar la EFI de alguna manera, me necantaria actualizarlo para algunas cosas todavia tira mas que mi actual retina, y es una pena funcionando bien no poder ponerle ni el Mavericks, alguien sabe algo?

Publicado por pepe folgado | diciembre 27, 2013, 13:16

2.

Desde hace unos días es posible instalar Mavericks en los Mac Pro 1,1 y 2,1 de una manera muy fácil.http://forums.macrumors.com/showthread.php?t=1598176&page=2Lo más sencillo parece instalar la 10.9 en un Mac Pro soportado, cambiar el archivo boot y meter el disco en el Mac Pro no soportado.Ya nos contarás como te va si lo haces.

Publicado por Juan Ugarriza | diciembre 27, 2013, 13:23

3.

quisiera saber si es posible ponerle dos tarjetas graficas a mi mac pro early 2009 en especifico una nvidia geforce gt 120 y una nvidia quadro 4000 y en que slot pongo la 4000 para que me de el mayor rendimiento…solo quiero seguir manejando dos pantallas y que la quadro sirva para procesamiento

Publicado por radian | enero 4, 2014, 7:59