Cine & Tec: La captura de movimiento


gollum andy serkis

Antes de hablar de la captura de movimiento como la conocemos hoy, tenemos que mencionar sus orígenes. En 1912 se inventó el Rotoscopio, un aparato que permitía filmar escenas reales y luego proyectarlas sobre un soporte semitransparente para calcar los personajes de la escena cuadro por cuadro y crear la animación. Así, se transmitía al dibujo la naturalidad y secuencialidad de movimientos, expresiones, luces, sombras y proporciones propias de una filmación, con un movimiento prácticamente igual al del mundo real.

roto_0
La película Blancanieves y los siete enanitos (1937) fue el primer largometraje animado de Walt Disney que se realizó con esta técnica. También, para la primera trilogía de Star Wars, se usaron técnicas rotoscópicas para dibujar el haz de láser de los sables de luz sobre las escenas ya filmadas con los actores, quienes portaron palos durante el rodaje de las luchas. Otro claro ejemplo de esta técnica lo podemos encontrar en el video Take On Me, del grupo noruego A-ha.


La rotoscopia se sigue utilizando hoy en día gracias a la rotoscopia 3D, que permite copiar las expresiones de los rostros humanos para luego traspasarlos a los de personajes tridimensionales. Esta tecnología se empleó para el personaje de Gollum en El señor de los anillos, cuyas expresiones faciales no se lograron con capturas de movimiento sino mediante animación. Para esto se utilizaron las tomas en las que había participado el actor Andy Serkis, ya que eran mejores que las tomas sin el actor, para luego borrarlo digitalmente y superponer a Gollum sobre los movimientos de Serkis, fotograma por fotograma.

En cuanto a la técnica de captura de movimiento, sirve para almacenar movimientos digitalmente. Su objetivo es grabar o registrar una acción o movimiento para posteriormente reproducirlo o modificarlo a través de la tecnología digital. La captura de movimiento puede ser tanto corporal como facial, ya que el concepto que se aplica es siempre el mismo: una cámara interpreta la información que trazan los sensores y traduce los datos a un formato digital. Los sensores, unas bolitas reflectoras conocidas como marcadores, se colocan estratégicamente en el cuerpo del actor, y las cámaras están ubicadas de forma tal que los marcadores pueden detectarse sin importar la posición del actor.

Aunque actualmente muchas películas implementan esta técnica, El Expreso Polar (2004) fue el primer film que se realizó completamente con captura de movimiento, mientras que Jar Jar Binks, de Star Wars Episodio 1 (1999), fue el primer personaje creado a partir de esta técnica. En Avatar (2009), se introdujeron varias innovaciones para su rodaje, ya que se inventó un sistema de captura facial en el cual los actores llevaban cascos con cámaras de vídeo de alta definición que apuntaban directamente a sus rostros.

roto_2

http://www.citytv.com.co/videos/38244/motion-capture-la-tecnica-empleada-para-la-realizacion-de-avatar

Cine & Tec: El Cine Digital


La tecnología digital se utiliza para grabar, distribuir y proyectar películas. La captura digital se puede producir en cinta de video, discos duros, memoria flash u otros medios que pueden grabar datos digitales.

En el cine digital, las resoluciones son representados por el número de píxeles horizontales, normalmente 2K (2048 × 1080 o 2,2 megapixeles) o 4K (4096 × 2160 o 8,8 megapíxeles) y para proyectar cine digital hay dos tecnologías que cumplen con las especificaciones, una es la tecnología DLP Cinema desarrollada por Texas Instruments y la otra SXRD de Sony.

Los inicios del cine digital: los podemos encontrar en los ’80 con varios proyectos cinematográficos experimentales. La primera película que utilizó secuencias generadas por computadora fue Tron, producida por Disney en 1982 en la cual se utilizaron casi treinta minutos de animación generada por computadora, en combinación con los personajes de la película. Pero no fue hasta los ’90 donde la industria cinematográfica tomó en cuenta esta tecnología con grandes producciones, como las nuevas películas de Star Wars o Matrix, hasta la películas hechas íntegramente en computadora, de la mano de Pixar (Toy Story 1995).

Steven Spielberg, fue uno de los primeros directores que utilizó estos recursos en grandes superproducciones, mas en concreto, en su film Jurassic Park (1993), donde se utilizaron  imágenes creadas por ordenador; y la compañía de efectos especiales de George Lucas, “Industrial Light and Magic”, introdujo la tecnología digital en todos sus ámbitos de trabajo, así, gran parte de las imágenes de Star Wars Episodio I: La amenaza fantasma (1999) fueron producidas por ordenador e integradas con otras filmadas en negativo de 35 mm.

En mayo de 2001 Erase una vez en Mexico de Robert Rodríguez  se convirtió en la primera película conocida que se rodará en alta definición de video digital a 24 cuadros por segundo con una resolución de 1920×1080, usando una cámara Sony CineAlta HDW-F900, pero en mayo de 2002 Star Wars Episodio II: El Ataque de los clones filmada con la misma cámara se convertiría en la primera película comercial que se creara a través de un proceso completamente digital, desde la filmación hasta la proyección.

Con el impulso del cine digital se creó en marzo del 2002 la Digital Cinema Initiative (DCI) un proyecto conjunto de muchos estudios de cine (Disney, Fox, MGM, Paramount, Sony Pictures Entertainment, Universal y Warner Bros) para desarrollar una especificación del sistema de cine digital.

Algunas diferencias entre cine digital y cine tradicional: El cine digital se graba utilizando una representación digital del brillo y el color en cada píxel de la imagen, en lugar de quedar fijada por emulsión química en el filme de celuloide tradicional. Utilizando los bits y los octetos bytes (cadenas de 1s y de 0s) para registrar, transmitir y reproducir imágenes y sonido, en vez de usar los átomos de los productos químicos de las películas.

Cuando se filma en formato de película celuloide, la respuesta a la luz es determinada por la  película que se elija, en contraste, cuando se graba digitalmente, la  respuesta a la luz se determina por el sensor CMOS o CCD de la cámara.

Las cámaras de cine tradicional no presentan dificultad para filmar en situaciones de alto contraste lumínico, como la luz del sol directa. Mientras que el cine digital ofrece un mejor rendimiento que la película en condiciones de poca luz, lo que permite menos luz y en algunos casos iluminación natural, práctico para rodar en interiores.  Algunos directores han optado por elegir la mejor opción para cada caso, usando el vídeo digital para las grabaciones nocturnas y en interiores, y la tradicional película cinematográfica para exteriores de día.

Las ventajas del cine digital frente al celuloide: La tecnología digital presenta una serie de ventajas en su procesamiento aunque principalmente la reducción de costos es su principal ventaja en relación con el cine de celuloide.

La visualización en el set es una ventaja ya que podemos ver las imágenes que se grabaron de inmediato, lo cual es imposible con la película fílmica ya que no se puede ver hasta que la película se procesa.

En el proceso de copiado para distribuir a las salas, las copias en fílmico pierden generaciones en cada copia ya que le introducen algo de degradación. En cambio las copias digitales son como copias de archivos de ordenador, no tienen pérdidas de generación. También al contrario que los rollos de película de 35 mm la calidad de la primera presentación en el cine es exactamente la misma que la centésima vez que es proyectada, no hay ralladuras ni deterioro de color o calidad de sonido.

Las películas fílmicas tienen que ser montadas y después manipuladas con cuidado para que no se deterioren demasiado, en digital su transporte y previsión de copias es infinitamente más sencillo, la película puede ser transportada con facilidad de unos cines a otros, ya que cada película se ingesta en el ordenador de cada proyector y con un simple play la película arranca.

Proyector Sony 4K

Proyector Sony 4K

Para el cine independiente, la invención a mediados de los ’90, de las cámaras digitales MiniDv de definición estándar,  junto a los softwares para edición en ordenadores personales, permitió a un gran número de personas empezar a hacer películas que antes no pudieron por los altos costos de rodaje, generalmente para proyectar circuitos más independientes y festivales de cine.

En cuanto al cine comercial, también presenta una gran diferencia de costos en el material para las cámaras en alta definición, a diferencia de la película de 35mm. Un ejemplo de esto lo menciona Rick McCallum, productor de Star Wars Episodio II: El Ataque de los clones  quien  comentó que la producción pasó $ 16.000 para 220 horas de cinta digital, donde una cantidad similar de película hubiera costado $ 1,8 millones.

Pero no solo en el rodaje se ahorra, en la post-producción el video digital permite una infinidad de posibilidades, impensables o extremadamente costosas usando técnicas fotoquímicas como el film óptico tradicional. También al distribuir y exhibir una película, la distribuidora en fílmico tiene que llevar su película a los laboratorios donde la copian con un costo bastante elevado, y, en el caso de que quisiera varios sistemas de sonido (Dolby Digital, DTS o SDDS), la copia se eleva muchísimo.

La tecnología de las cámaras: Sony se lanzó a comercializar el concepto de cine digital ya a finales de los 80, usando cámaras HDTV analógicas basadas en tubos, pero no fue hasta 1998 que la industria tomo en cuenta este medio cuando se comercializaron cámaras CCD de 1920×1080 pixeles que incluían grabadoras Hd Digital Betacam. También la posibilidad de grabar a 24P (progresivo) cuadros por segundo similar a los 24 fotogramas por segundo del cine, permitió un aspecto muy similar al que se obtiene con celuloide tradicional.

Hoy las cámaras logran resoluciones de 2K (2048 × 1080 pixeles) 4K (4096 × 2160pixeles) 5K ( 5120×2700)  y ya se comienzan a desarrollar cámaras a 8k (7.680 × 4.320 píxeles) como la Sony F65. Por esta razón el futuro de las cámaras parece digital. Debido a esto, en los últimos años las principales marcas de cine tradicional anunciaron que solo fabricarían cámaras para cine digital.

Los sensores de las cámaras: Las cámaras digitales cuentan por lo general con dos tecnologías de sensores. se trata de los CCD (Charge Coupled Device) o CMOS(Complementary Metal Oxide Semiconductor).

Su función es la de acumular una carga eléctrica en cada una de las celdas de esta matriz. Estas celdas son los llamados píxeles. La carga eléctrica almacenada en cada píxel, dependerá en todo momento de la cantidad de luz que incida sobre el mismo. Cuanta más luz incida sobre el píxel, mayor será la carga que este adquiera.

Aunque en su esencia, los CCD y CMOS funcionan de una manera muy similar, hay algunas diferencias entre ambas tecnologías: El CCD es una tecnología mejor desarrollada, por lo que ofrece mejor color, es más real en sus tonalidades y es totalmente confiable. El CMOS es una tecnología más nueva por lo que es menos confiable, es más económica, tiene menos nivel de ruido y ofrece mejor rango dinámico. La tecnología actual ha hecho que el sensor CMOS (en teoría, inferior al CCD) se acerque a una calidad muy semejante al CCD por lo que, para el ojo humano, las diferencias son casi imperceptibles.

Las cámaras pueden tener tres sensores de distintos tamaños, ya sea de 1/3 para cámaras semi profesionales y de “2/3 profesionales, menor a estos tamaños podemos considerarlas hogareñas. Su funcionamiento está dado por un prisma que descompone la luz en los tres colores primarios R,G,B, y cada sensor se encarga de capturar uno de estos colores

Estos diseños ofrecen beneficios en términos de separación de colores y persiana, pero son incompatibles con las lentes de cinematografía tradicionales y son incapaces de alcanzar 35 mm de profundidad de campo a menos que se utilize con adaptadores de profundidad de campo, que se traducen en una pérdida de luz. Nuevas líneas de gama alta, tales como las lentes DigiPrimes Zeiss se han desarrollado con estas cámaras en mente.

Los fabricantes de cámaras de cine digital han optado por utilizar un solo chip, que por lo general es un CMOS con filtro Bayer. La idea de utilizar un solo chip es para poder hacerlo compatible con los lentes de cine, reducir el tamaño de la información y aumentar el rango dinámico. Hay dos tamaños utilizados para los CMOS, de 16 y 35 mm. En realidad el sensor de 16mm mide lo que mide el cuadro en una película de 16 mm, es decir casi 12 mm y el sensor de 35 mm mide lo que mide el cuadro de 35mm, es decir 24mm.

Sensor CMOS

La configuración de 1CMOS funciona de una forma diferente a la de 3CCD. Para poder captar los colores, existe un filtro Bayer adelante del sensor. Este filtro esta dividido para que uno de cada 4 pixeles capte la luz roja(R), uno capte la luz azul(b) y dos capten la luz verde(g). Estos 4 pixeles de colores R,G,G,B son combinados para crear un solo pixel multicolor. Es decir que si una cámara como la RED ONE tiene un sensor con 12 millones de pixeles, 3 millones captaran la luz roja, 3 millones captaran la luz azul y 6 millones captaran la luz verde, para crear en total 3 millones de pixeles multicolores RGB. Es decir que de los 12 millones de píxeles que promete la RED ONE solo 3 millones son reales y los demás son “inventados”.

El desarrollo Digital en Star Wars: La producción de Episodio I: La Amenaza Fantasma fue un golpe de innovación en la tecnología digital ya que a partir de esta película se empezó a desarrollar en profundidad esta tecnología en la que tanto había trabajado George Lucas y su empresa.

En el Episodio I, el supervisor de efectos visuales, John Knoll opero un nuevo software de CGI  que permitió la creación de novedosos efectos visuales, decorados, e incluso personajes como es el caso del Jar Jar Binks. También varios de los personajes que aparecen en la pantalla son CGI (por ejemplo todos los pilotos de la carrera de vainas).

Sin embargo uno de los grandes desafíos del proceso no era solo la filmación, que empezaba a ser posible con nuevas cámaras de alta resolución, sino también el proceso de proyección. De nada valía producir una película totalmente digital, si luego había que pasarla a celuloide para visionarla, pero la siguiente película de Star Wars Episodio II: El Ataque de los Clones, se convertirá en el primer film comercial que se creara a través de un proceso completamente digital, desde la filmación hasta la proyección.

El proceso de filmación de Episodio II  se realizó con una nueva cámara digital desarrollada por Panavision y Sony a petición del propio George Lucas, la Panavision HD-900F High Definition Camera System, conocida también como Sony CineAlta.

Las posibilidades de visualizar en el set lo que se estaba filmando, junto a los escenarios generados digitalmente, así como algunos de los efectos, logro que George Lucas pudiera disfrutar de lo que había sido uno de sus objetivos durante varios años, poder visualizar en el propio momento de la filmación, la composición que tenía en su mente, y así poder corregirla en el momento. Esa inmediatez fue una ruptura total con los métodos tradicionales de filmación, ya que estos requerían la espera del revelado del celuloide, además de hacer imposible cualquier añadido digital hasta el momento de postproducción.

Esta entrega de Star Wars fue un gran avance en el CGI y los efectos visuales. Todos los efectos visuales fueron generados digitalmente, e incluso planetas y razas enteras (como Geonosis y sus habitantes) fueron creados por ordenador. En esta entrega incluso el Maestro Yoda fue creado de principio a fin por medio de las más novedosas técnicas de generación digital.


El Episodio III: La Venganza de los Sith, se grabó con una nueva cámara la HDC-F950 de la serie CineAlta de Sony. La preproducción fue con animaciones en lugar de los clásicos story board y una producción con una filmación en digital mucho más depurada y ágil.

Los espero en la próxima nota sobre cine y tecnología.

Cine & Tec: El Stop Motion


Con el estreno de Frankenweenie, realizada con la técnica de stop motion, el director Tim Burton vuelve a utilizar esta técnica en una de sus películas. En este informe comentaré de que se trata esta técnica y como se utilizó en esta cinta.

Los orígenes: El stop motion,  es una técnica de animación que consiste en aparentar el movimiento de objetos estáticos por medio de una serie de imágenes fijas sucesivas. Sus inicios en el cine los podemos encontrar a través del español Segundo de Chomón, quien recurrió a esta técnica en películas como La Casa Encantada (1906) y El Hotel Eléctrico (1908).

En el año 1912 el cineasta ruso Ladislaw Starewicz,  tuvo la original idea al realizar la película La Venganza del Camarógrafo, usando insectos reales para narrar la historia de una familia de escarabajos.

Otro destacado pionero en esta técnica fue Willis O Brien, quien animó a King Kong en 1933. Discípulo de él, Ray Harryhausen, no se cansaría de usar la lección de su ‘maestro’ para innumerables criaturas en películas como La isla misteriosa, 1961 o Jasón y los Argonautas, 1963.

En 1979 la compañía Industrial Light & Magic aplicó una variante al stop motion inventando el go motion para la película Star Wars Episodio V: El imperio Contraataca. El go-motion consiste en que al modelo u objeto al que se estaba animando se le aplicaba un movimiento mientras se lo estaba fotografiando. De este modo se obtenía en el fotograma una distorsión por movimiento (motion blur)

Un uso destacado del stop motion que les valió un par de Oscars lo podemos encontrar en los trabajos de Aardman Animations: Wallace and Gromit y Chicken Run.

La técnica del stop motion: En general se denomina animaciones de stop motion a las que no entran en la categoría de dibujo animado, ni en la de animación por ordenador; esto es, que no fueron dibujadas ni pintadas, sino que fueron creadas tomando imágenes de la realidad. Así pues, el stop motion se utiliza para producir movimientos animados de cualquier objeto, tanto rígido como maleable. Como los juguetes, bloques de construcción, muñecos articulados o personajes creados con plastilina, manipulando el muñeco con las propias manos, así como trabajando con otros materiales (plastilina,arcilla, arena, recortes de papel, tizas sobre suelos y muros…) de manera progresiva, hacia adelante, sin posibilidad alguna de retroceso.

Podríamos distinguir dos grandes variantes de animación en stop motion: la denominada claymation que es realizada con plastilina o cualquier otro material maleable y la realizada con objetos rígidos.

La animación realizada con material maleable (claymation): Existen dos variantes al usar este material uno es que las figuras se vayan transformando durante el proceso de animación (estilo libre) y la otra es que los personajes mantengan una figura consistente durante el transcurso de la animación esto lo podemos ver en los trabajos de la productora Aardman Animations. En este caso se fabrica un esqueleto articulado que se forra con la plastilina o arcilla permitiendo mover la figura, manteniendo la estructura desde principio a fin.

La animación realizada con objetos rígidos: Al trabajar con este material también podemos encontrar dos variantes. Una es cuando se utilizan personajes con rostros rígidos (parecidos a las marionetas) y articulaciones construidas generalmente con una armadura articulada interna como en el caso de El extraño mundo de Jack, 1993. La otra forma es cuando se utilizan objetos no articulados, generando movimientos mas toscos.

La técnica pixilación: Es una variante en la técnica del stop motion en la que los objetos animados son personas y objetos comunes (no modelos ni maquetas), Estos objetos son fotografiados repetidas veces, y desplazados ligeramente entre cada fotografía, Norman Mclaren fue pionero de esta técnica, empleada en su famoso corto animado Neighbours. Esta ténica también es ampliamente utilizada en videoclips.

Una variación más del stop motion consiste en realizar animaciones con material gráfico estático, como fotos o recortes de prensa (en su totalidad o en partes). Un ejemplo de esta técnica sería el corto ganador de un Oscar en 1973 Frank Film’s, de Frank Morris

x700s6_frank-film-frank-mouris-1973_creation?start=279

Tim Burton y el stop motion: Burton utilizó dicha técnica en su primer cortometraje para la compañía Walt Disney titulado Vincent (1982). Su siguiente proyecto Frankenweenie, lo hizo pensando en un largometraje con la misma técnica, pero debido a restricciones en el presupuesto, realizó un cortometraje de acción real, que se estrenó en 1984. Cabe destacar también que a principios de los noventa Tim Burton participó como productor de El extraño mundo de Jack, película basada en sus creaciones artísticas y dirigida por Henry Selick. Su tercera película con esta técnica fue  El cadáver de la novia 2005.

La realización de Frankenweenie: Para este film los animadores debieron detenerse y posicionar los personajes y cada objeto 24 veces para obtener un segundo de filmación . En promedio, un animador podía crear solamente cinco segundos de animación por semana. Terminar el filme les tomó dos años y requirió de las habilidades de 33 animadores, que en su mayoría trabajaron individualmente. Por otro lado, se contó con mas de 200 personajes. Hubo 18 ejemplares de Víctor y 15 de Sparky.

A continuación un extracto de declaraciones de Tim Burton:

“Lo que lo hace diferente de una película de acción real es que todo ocurre muy, muy lentamente. En la acción real uno debe tomar decisiones rápidas todo el tiempo; en stop-motion puede tomar un par de días, o hasta un par de semanas realizar una toma, dependiendo de su complejidad.

Podemos decir que una semana típica de un animador de stop motion empezaba con la asignación de una toma, cada uno de ellos era responsable de todos los personajes de esa toma. Una vez que revisaba la tarea, debía hacer un ensayo o repaso con el director de animación. Ese proceso ayudaba a decidir el movimiento de la cámara, la iluminación y dónde se colocarían los accesorios de la escena. Al día siguiente, el animador tenía tiempo para realizar un ensayo más adecuado, donde podría cerciorarse de los detalles de la actuación y el tiempo.

Gran parte de la investigación y preparación de la película fue para la animación de los dos perros, Sparky y Perséfone. El director de animación, Trey Thomas, junto con su equipo realizaron investigaciones acerca de cómo se mueven los perros, una tarea que incluyó una visita a la exposición Windsor Dog Show, donde pudieron grabar a los perros en acción. Además tuvieron la visita de un bull terrier al estudio y pudieron representar con él algunas escenas de la acción de Sparky, grabándola desde diferentes ángulos.

El animador también pasaba cierto tiempo tensando esa marioneta, lo que implica apretar los tornillos en las extremidades y las articulaciones, con el fin de encontrar lo que funcionaba mejor . Todas las marionetas tenían diferentes niveles de articulación, algunos animadores deseaban una absoluta precisión, por ello empleaban ajustes más apretados; otros preferían un toque suave y para ello buscaban un tensado más flojo. Víctor era el muñeco humano más complejo y el mecanismo de su cabeza contenía no sólo las palas de los labios y la frente, sino también un complicado sistema de llaves allen que permitía que el animador moviera sus mejillas y su mandíbula muy de a poco. Esto le concedió las más sutiles y variadas posibilidades de actuación a este personaje. Otros muñecos, como Elsa Van Helsing y su tío, el Sr. Burgemeister, tenían mucho menos tiempo en la pantalla y no era necesario exhibir la gama de emociones que Víctor requería, por lo tanto los animadores pudieron representar lo que precisaban de ellos sólo utilizando palancas para los labios y las cejas. Sparky también era un muñeco increíblemente complicado. Poseía más de 300 articulaciones en su cuerpo y, debido a la delgadez de sus patas, a menudo necesitaba ser apoyado con un equipo especial para que los animadores pudieran moverlo de manera realista.

Las voces se agregaron al movimiento mediante el uso de herramientas de planeación llamadas hojas de rodaje o dope sheets. que contenían cada fotograma con su diálogo correspondiente. Así, por ejemplo, cuando el personaje decía: “Por favor, siéntate”, el animador notaba que, tan pronto como el personaje finalizaba esta línea, hacía un gesto hacia una silla y luego el otro personaje tomaba asiento. Las hojas de rodaje ayudan a los animadores a organizar sus pensamientos, especialmente cuando hay múltiples personajes en una misma toma y la acción de cada uno de ellos debe ser rastreada, incluso si el personaje sólo parpadea.

El director de animación, Trey Thomas estuvo activamente involucrado. Cada día visitaba el set y ayudaba a los animadores cuando aparecía un desafío. El reto fue lograr que los muñecos se emocionaran y actuaran de manera creíble”.

Cine & Tec: Conociendo la tecnología IMAX


El sistema IMAX : El origen de dicha tecnología se produce en Montreal, Canadá, en 1967, y es creación por un grupo de cineastas, quienes diseñaron un potente proyector para una pantalla gigante.

Proyectar en una pantalla gigante se pudo lograr a partir de la utilización de una película de 70 mm con 15 perforaciones, a diferencia de los 35 mm del cine tradicional. La superficie de un fotograma IMAX es casi diez veces superior a la de un fotograma convencional de 35mm, y tres veces mayor que uno de 70mm, con este aumento de la  película se logra proyectar en una pantalla IMAX estándar que generalmente tiene una dimensiones de 22 m de ancho x 16 m de alto, aunque puede ser aun mayor. La clave de la claridad y nitidez de la proyección reside en la técnica de “bucle rodante” que conduce la película horizontalmente en lugar de verticalmente como el cine tradicional, logrando una imagen y una estabilidad de foco muy por encima de los estándares de proyección tradicionales.

El Sonido en IMAX : En cuanto al sonido, al contrario del cine tradicional que lo contiene en la misma película, en IMAX,  el sonido se reproduce desde un disco duro en un formato de audio no comprimido. También presenta una gran diferencia con el dolby surround de las salas de cine ya que es tres veces superior a este, debido a que genera mas de 12.000 vatios de potencia de sonido digital envolvente de seis canales con 16 amplificadores y 44 altavoces distribuidos en 6 cajas acústicas.                                                                                                                   

 

De película 35mm a formato IMAX:  Las películas pueden ser  filmadas en formato IMAX  o remasterizadas. El proceso de remasterización IMAX DMR® comienza con el escaneo de cada fotograma individual de la película en 35mm a la más alta resolución posible y continúa con su conversión en imágenes digitales, luego herramientas propias de IMAX de realce de imagen, optimizan cada imagen para proceder con su impresión en una película de formato de 70mm. La información útil contenida en un área pequeña del formato de 35mm es analizada. Algunas de las técnicas que se emplean para realzar la imagen incluyen afinamiento de la nitidez, corrección del color, remoción de granos y la eliminación de inestabilidades. La señal digital realzada es, entonces, grabada en una película de formato 15/70mm, para luego poder ser exhibida en salas IMAX.

IMAX 3D, Proyección y Filmación: Para crear la ilusión de las tres dimensiones, el proceso IMAX 3D utiliza dos lentes de cámara para representar los ojos izquierdo y derecho. Las dos lentes son separadas por una distancia ínter-ocular de unos 64mm, la distancia media de separación de los ojos humanos. Grabando un rollo de película independiente para cada ojo y proyectándolos simultáneamente, podemos percibir (artificialmente) una imagen 3D en una pantalla 2D.

Para la filmación se emplean dos películas que filman simultáneamente, existiendo dos métodos. El primer método consiste en dos cámaras, situando una cámara sobre la otra a unos 90º entre ellas. En el segundo caso una cámara especial IMAX 3D (“SOLIDO Camera”) dispone de dos objetivos separados conforme a la distancia ínter-ocular (60-70mm). El segundo método es el más utilizado ya que permite la filmación en lugares pequeños.

La tecnología IMAX aplicada al cine: Aunque en sus comienzos esta tecnología se aplicó solo a documentales propios de IMAX, hoy se empieza a emitir películas de cine convencional digitalmente transformadas a formato IMAX DMR®. La película Apolo 13 rodada en 2002 fue el primer film que recibió este proceso. La siguió Matrix Revolutions en el 2003. También debemos mencionar a El Expreso Polar como el primer largometraje remasterizado para IMAX 3D en 2004.

Pero pocos son los que se animan a filmar con esta tecnología ya que las cámaras son más grandes y complejas, lo que genera más tiempo a la hora de preparar las tomas, y por supuesto es una tecnología más costosa.

En el 2008 Warner Bros. Pictures y el director Christopher Nolan grabaron por primera vez con una cámara IMAX secuencias de Batman: The Dark Knight.

Nolan quería utilizar el IMAX como herramienta dramática, no como documental, normalmente el formato IMAX se utiliza para planos largos, con la cámara en un soporte estable, y nunca se había pensado para escenas de acción ya que las cámaras pesan hasta 6 veces más que una de 35 mm, que rondan en los 45kg.

Aunque se utilizó la cámara IMAX más ligera, la MSM, se montaron soportes especiales para poder utilizarla con la agilidad de una 35 mm. Otro problema que tuvieron que considerarse fue el tiempo de carga: las cargas son solo de tres minutos, por lo que se necesitó siempre otra Steadicam para tomar el relevo.

Aparte de los elementos físicos, también se tuvieron que solventar otro tipo de inconvenientes: la composición de las escenas es totalmente diferente, y se quería maximizar el uso del encuadre. Cuando las escenas son filmadas con cámaras IMAX, el rango de la película cambia de 1.43 a 1, expandiendo la imagen para llenar la pantalla completa y magnificando el efecto total. Al utilizar una pantalla de ocho pisos, la vista no va a la parte superior, así que se pierde gran parte de lo que hay allí. Además, el enfoque es mucho más importante porque la profundidad de campo es mucho menor, así que enfocar a los actores es mucho más difícil: el área del encuadre donde el actor está enfocado es mucho con una cámara de 35 mm (si un actor está a 3 metros de la cámara, el área donde esta enfocado es de 30 a 60 cm. Con IMAX el área de enfoque es de 10-12 cm).

Aún con tanto inconveniente, la respuesta del equipo es unánime: ha valido la pena, todo es más claro, tiene más resolución, más contraste, y mejor y más rica saturación. Mejora la imagen en general, ya sea que se mire en pantalla IMAX o en un cine común.