¿Por qué el cine se fotografía a 24 imágenes por segundo? ¿No es cierto que las películas antiguas utilizaban únicamente 16 o 18? ¿Y por qué en en televisión se usan 50 o 60? Todas estas preguntas tienen su respuesta técnica y John Hess del siempre recomendable videoblog Filmmaker IQ dedicó un minidocumental muy didáctico a explicarlo.
La explicación resumida es que hay que superar dos efectos físicos. El primero es el de engañar a nuestros ojos cuando se muestran fotografías en rápida sucesión, algo que se llama fenómeno phi y sucede a partir de 12 fps, lo que llevó a elegir 16 como un número conveniente. El segundo es persistencia de la visión que evita el parpadeo cuando se cambia de imagen, y que se consigue con 46 imágenes por segundo (lo calculó Edison). Utilizando una doble rejilla que muestre el mismo fotograma dos veces se puede reducir esa cantidad a la mitad, 23, pero para dejarlo en un número redondo y divisible se definió 24 fotogramas por segundo como lo más conveniente; además era un valor adecuado para la banda de sonido de las primeras películas.
En el cine mudo –que se proyectaba sin motor, a mano– la «velocidad» podía variar entre 14 y 26 fps – algo que vuelve loco a los historiadores que intentan recuperar cómo eran originalmente. 16 fps era el valor estándar pero podría ser cualquier otro; a veces se modificaba para dar dramatismo a ciertas escenas. Hess explica que a veces los propietarios de los cines proyectaban los cortometrajes «más rápido» para encajar alguna «sesión extra» en días de mucho público. Esto dejó de ser tan flexible con la llegada del sonido, pues las variaciones se notaban demasiado.
Con la televisión llegó el invento del entrelazado, consistente en dividir una imagen de vídeo en líneas pares e impares para no tener que usar tanto ancho de banda; en Estados Unidos el estándar del NTSC definió 30 fotogramas por segundo porque su corriente eléctrica funcionaba a 60 Hz; en Europa y el resto del mundo el estándar PAL marcó que 25 fps eran suficientes (la frecuencia de la corriente es de 50 Hz).
Cuando llegó el color a la televisión y el vídeo el NTSC redefinió los 60 campos por segundo como 59,94 (para dejar sitio a la información de color) y de ahí salen los 29,97 fotogramas efectivos que se ven a veces mencionados. Esa diferencia del 0,1% apenas se nota. En cambio al realizar ciertas converesiones entre cine y vídeo (de 24 fps a 60i usando telecine, por ejemplo) la diferencia es del 4% y se aprecia incluso en el sonido, que hay que corregir con un cambiador de frecuencia (pitch shifter).
Con la llegada del formato digital todo esto cambió y hoy las cámaras pueden grabar a cualquier número de fps aunque se siguen usando los valores tradicionales: 24, 25, 30… Muchas pueden incluso grabar a mayores frecuencias. Partes de el Hobbit de Peter Jackson se grabaron a 48 fps y YouTube admite vídeos de hasta 60 fps.
La técnica, sin embargo, causa cierta controversia: los personajes y ciertos paisajes son tan excesivos que «parecen irreales» e incluso «se diría que eso no es cine, sino un grabado en vídeo barato para televisión». Y es que podría argumentarse que nuestros cerebros están culturalmente acostumbrados a un formato, una frecuencia y un «aspecto» concretos: el de la película fotográfica a 24 fotogramas por segundo, con sus limitaciones, parpadeos e imperfecciones. Como concluye Hess: quizá para videojuegos, realidad virtual o la Generación Y esté muy bien, pero los «mayores» seguirán prefiriendo el formato tradicional.
No hay comentarios:
Publicar un comentario