Cámaras Time of Flight: Qué son? Cómo funcionan en un smartphone?

Las cámaras “Time of Flight” o Cámara de Tiempo de vuelo

El siguiente gran avance tecnológico que veremos en las cámaras de nuestros smartphones, vendrá a través de las cámaras Time of Flight, o cámaras de Tiempo de Vuelo. Pero cómo funcionan, qué hacen y qué es lo que podemos obtener de esta nueva tecnología? Es lo que investigaremos a través de este artículo.

Perfeccionando la percepción de profundidad

Cámaras duales: la tecnología actual

Hasta ahora, el intento de percibir la profundidad en una fotografía, para lograr, entre otras cosas, el “bokeh” o fondo desenfocado, se ha realizado a través de dos cámaras en el teléfono. Inicialmente implementado por una empresa ya casi desaparecida en el mundo de los smartphones, HTC, en el 2011, no sería sino hasta el lanzamiento del Huawei P9 y el iPhone 7 Plus, en el 2016, que el uso de dos cámaras llegaría a popularizarse. Desde entonces, incluso teléfonos de gama media y gama baja utilizan esta segunda cámara para obtener un efecto de fondo desenfocado.

Esto funciona imitando a nuestra vista; gracias a que nuestros dos ojos perciben la realidad desde una ligera variación de ángulo, es que podemos detectar la profundidad de los objetos.

Sin embargo, las cámaras y sensores que utilizan este sistema de cámaras estereoscópicas tienen sus limitaciones, como el no poder detectar adecuadamente el borde de algunos objetos demasiado detallados (cabello), translúcidos (vidrio, como vasos, botellas y otros) y simplemente no trabajar adecuadamente cuando hay poca luz.

Cámaras Time of Flight , o cámaras de tiempo de vuelo: una solución más precisa.

Cámaras Time of Flight

No sería sino hasta el 2017, en donde las cámaras Time of Flight alcanzarían un nivel de reducción lo suficientemente pequeño para ser aplicadas a un smartphone. La tecnología fue mostrada en el Mobile World Congress hace un par de años, y recién estamos viendo su implementación en smartphones.

Pero qué es una cámara Time of Flight? Pues se trata de una cámara que proyecta una luz infrarroja homogénea y luego mide, con un reloj sumamente preciso, el tiempo que le toma a la luz en ser reflejada a la cámara. Con esta información adicional que complementa a los sensores “tradicionales” de fotografía, podemos obtener un mapa tridimensional de una escena que mide la profundidad de cada objeto en pantalla.


Esto es lo que ve una cámara Time of Flight en combinación con data de una cámara regular

Esta tecnología es, en esencia, similar a la utilizada por Apple en su Face ID y en el Mate 20 Pro con reconocimiento facial. Pero en lugar de llenar una habitación con luz infrarroja homogénea, el Face ID y el Mate 20 Pro proyectan una serie de “puntos”. Esto les permite ser mucho más precisos (es necesario tener un mapa tridimensional muy detallado para usarlo como método de desbloqueo de smartphone, después de todo), pero debido al tipo de proyección, sólo sirve para objetos que estén a la distancia de un brazo; es decir, sólo sirve de cerca.

En contraste, las cámaras Time of Flight son menos detalladas en objetos cercanos, pero hacen un mejor trabajo en reconocer una variedad de objetos y sus distancias en escena. La diferencia con el uso de cámaras estereoscópicas, la tecnología utilizada hasta ahora, es enorme, y esto trae muchos usos nuevos.

Cómo se pueden aprovechar las Cámaras Time of Flight?

Un Gran Salto en Fotografía Computacional

Para empezar, el fondo desenfocado en imágenes es mucho más preciso, mucho más real. Podemos obtener un mejor fondo desenfocado y lo podemos hacer incluso en lugares oscuros. Pero esto es sólo el comienzo.

Podemos crear fondo desenfocado en video. Al simplificar el cálculo, el poder de procesamiento necesario para hacer un “fondo borroso” disminuye considerablemente. Y esto le permite a los smartphones conseguir el efecto de “bokeh” o fondo borroso en tiempo real, en video. Es impresionante, y algo que pude ver en uno de los teléfonos que implementa esta cámara, el Galaxy S10 5G (ojo: sólo la versión 5G tiene esta cámara)

Y si nos basamos en los rumores que conocemos hasta ahora, el P30 Pro tendría esta cámara Time of Flight:

Una implementación perfeccionada de Realidad Aumentada gracias a cámaras Time of Flight

Otro teléfono que lo ha implementado ya, pero de una manera totalmente diferente, es LG, con el G8 ThinQ. Pero en lugar de colocarlo en la parte trasera del teléfono, lo ha hecho en la parte frontal. Aquí, LG lo utiliza de dos maneras: puede sentir la profundidad y detectar nuestra mano para que podamos realizar “gestos” y así controlar el teléfono a distancia. Y gracias al sensor infrarrojo, puede tener un “mapa” de nuestras venas y así utilizarlo para desbloquear el teléfono

Y esto es sólo el inicio. Imagínense cómo serán las aplicaciones de AR, Realidad Aumentada, con una cámara capaz de medir de manera mucho más precisa las distancias entre objetos. Quizás estas cámaras Time of Flight es exactamente lo que el AR necesitaba para realmente despegar.

Y sí, ya hemos visto o veremos a LG, Samsung y Huawei implementar estas cámaras este año – haciéndolo, quizás, el gran avance tecnológico del 2019 – pero tampoco podemos descontar a Apple. Si podemos creer los rumores que circulan en la industria, Apple también será otra empresa que implemente el Time of Flight Camera este 2019, en su iPhone 11, cuando sean lanzados en la segunda mitad del año. Teniendo en cuenta que Apple es una empresa que más empeño le ha puesto al tema de fotografía, video y sobre todo, al de Realidad Aumentada, el 2019 bien podría ser el año donde este tipo de tecnología despega por completo.

Para los que usamos nuestros smartphones a diario para tomar fotos o capturar videos, sin embargo, el 2019 será un año muy interesante, con uno de los saltos más grandes en fotografía computacional.

Más Noticias
Microsoft adopta Chromium para Edge, su navegador.