Desmontando los mitos sobre Cámaras RED

Red Digital Cinema acaba de celebrar el décimo aniversario de la entrega de su primera RED ONE. Desde entonces mucho se ha hablado del flujo de trabajo con los archivos que se generaban en cada grabación, comentarios que se han mantenido en el tiempo pese a que la tecnología, el hardware y el apoyo de la industria al ecosistema de RED han cambiado mucho desde entonces (y para bien). Echemos un vistazo a algunas de las ideas erróneas más habituales que aún persisten acerca del trabajo con cámaras RED y el contenido generado con ellas. Vamos a desmentir algunos mitos.

Nota: este artículo es la traducción del original escrito por Geoff Smith para Abelcine.com. Se puede consultar el texto original en inglés aquí.

 

Mito 1: “Como RED graba en raw, siempre hay que transcodificar los brutos y no tenemos tiempo ni presupuesto para ello”.

Esta es la visión antigua de los productores acosados por los siempre apretados presupuestos y calendarios. Vale, es verdad que los archivos raw requieren una transcodificación para poder reproducirse fluidamente en entornos de postproducción que se han estandarizado con un códec de vídeo, como puede ser DNx (de AVID), ProRes (de Apple), o incluso el XDCAM50 (que aún se utiliza ampliamente en la retransmisión de noticias y deportes), pero RED no es ni mucho menos la única marca con capacidad raw que cae en esta categoría. La transcodificación de los brutos para crear dailies o editar medios en un códec de vídeo tradicional es necesaria para una gran cantidad de cámaras y no está limitada a las que graban contenido en raw. Lo mismo se aplica cuando creamos contenidos en H.264 para revisiones en dispositivos móviles. Sin embargo, si no estamos limitados por la política de un estudio de grabación en particular, o una empresa de postproducción o retransmisión, a veces puede ser beneficioso mantenerse en raw hasta la exportación final, evitando de esta manera la pérdida de información y maximizando la cantidad de datos de imagen para poder hacer corrección de color e integración de efectos digitales.

Aunque, últimamente, esto es totalmente discutible, ya que aquellos con acceso a los cuerpos de cámara de la serie DSMC2 de RED tienen la posibilidad de grabar simultáneamente en REDCODE RAW más ProRes o DNxHD/HR desde hace más de dos años.

 

Mito 2: “RED sólo graba raw, ¡y los archivos en raw son ENORMES! Vamos a necesitar un montón de almacenamiento muy caro para guardar todos estos datos.”

Como ya decíamos, las cámaras del tipo DSMC2 pueden grabar simultáneamente (o exclusivamente) en ProRes o DNx. Pero la sorpresa llega cuando vemos que todos estos archivos de vídeo comprimido pueden ser incluso más pesados que los mismos archivos en R3D Raw. En la imagen inferior podemos ver un archivo raw y la misma versión del mismo archivo en ProRes. 

 

Comparativa archivo R3D vs ProRes
R3D Raw: 6K 23.98 fps, Redcode comprimido a 8:1 = 1.3GB | Quicktime: 4K ProRes4444 a partir del anterior = casi 20% mayor que en raw.

 

 

Mito 3: “Necesitas un ordenador muy, muy caro para trabajar con brutos de RED. ¿Editar archivos RED en un portátil? ¡Olvídalo!”

Las generaciones actuales (y la anterior) de portátiles Mac y PC no tienen nada que ver con las que había hace 5 años. Su rendimiento es muy competitivo y comparable con los sistemas de sobremesa, y la llegada de tarjetas de vídeo tipo eGPU (tarjetas PCI externas que pueden albergar tarjetas de vídeo muy potentes), significa que los portátiles pueden conseguir resultados verdaderamente sobresalientes en un formato reducido y portable. Y, optimizando la decodificación raw y la resolución de reproducción, por ejemplo, en Adobe Premiere (llamado De-Bayer y resolución Mercury Engine Playback en Premiere Pro), puedes encontrar un balance razonable entre la reproducción en tiempo real y calidad de imagen durante la edición. Premiere también vuelve a subir la calidad automáticamente cuando la imagen está en pausa. DaVinci Resolve y Final Cut Pro X tienen funcionalidades similares.

Para aquellos que usan PC, el rendimiento del hardware de un ordenador nunca ha sido tan alto. Máquinas que pueden configurarse por menos de 1.500 € pueden fácilmente superar a un Mac Pro de finales de 2013.

 

Mito 4: “¿8K? Eso es ridículo. ¿Quién necesita tal cantidad de píxeles? Lo hacen sólo para presumir.

Esto puede sonar razonable. ¿Quién podría usar de forma práctica tanta resolución? Y es más, ¿quién sería capaz de verlo? Las pantallas 8K son extremadamente raras a estas alturas. La respuesta está en cómo gestionan el color las cámaras con un chip. Casi todas utilizan una serie de filtros de color situados sobre una cuadrícula inferior de “fotositos”. Este sistema se llama “Patrón (o mosaico) de Bayer”, por el científico de Kodak que lo diseñó, Bryce Bayer, y en él la serie de filtros dejan pasar la luz recibida por cada fotosito a través de un filtro rojo, verde o azul. Por tanto, ningún fotosito individualmente ve más de un único color primario.

El enfoque original de este sistema era unificar los datos de un cuadrante de fotositos adyacentes en un solo valor RGB. Como los antecesores del píxel resultante habían recibido los 3 colores de la luz, un valor de color completo (4:4:4) con bajo margen de error podría derivarse de cada píxel resultante (con el coste del 75% de la resolución espacial del sensor). Muchas cámaras de cine digital de primera y segunda generación (como la Canon C100, C300 y Sony FS700) usaban un sensor 4K de esta forma para producir imágenes muy buenas en HD.

Por supuesto, el color puede interpolarse de otras formas más eficientes que sacrifican mucha menos resolución, pero no es realmente posible capturar color “no remuestreado” desde un sensor de chip único con un sistema de filtros primarios en resolución completa (también conocido como 1:1) en el sensor. Cuando consideramos que estamos yendo a un mundo donde los archivos 4K serán los preferidos para la mayoría de proyectos, los sensores 8K de RED empiezan a tener bastante sentido.

 

Mito 5: “No hay nada que escriba en formato R3D excepto la cámara. ¿Cómo puedo crear clips recortados sin abandonar el formato raw y sin tener que recomprimirlos en otro códec como ProRes?”

Tanto RedCineX-Pro como DaVinci Resolve exportan archivos recortados en R3D sin recompresión. El códec usado por los archivos raw de RED es completamente “intra-frame”, lo que significa que no existe dependencia de compresión en los cuadros anteriores o posteriores de un archivo. Y lo que es mejor, ambos programas mencionados están disponibles por el módico precio de… ¡Gratis!

Por todo lo anterior, las cámaras RED son una magnífica opción para cualquier tipo de producción, incluso aquellas con bajo presupuesto o más modestas. Echa un vistazo al catálogo de cámaras RED de Welab, seguro que alguna encaja perfectamente en tu proyecto.

 

Todos los modelos de RED Cameras están en Welab


Artículos relacionados

  • WeGuide: las guías de bolsillo de las cámaras de Welab

    leer más
  • Hydrogen ONE: el nuevo juguete de RED Digital Cinema

    leer más