El iPhone 12 Pro usa lidar. Que es y por que es importante

El sensor lidar del iPhone 12 Pro, un círculo negro en la parte inferior derecha de la unidad de la cámara, abre las opciones de RA.

manzana

los iPhone 12 y 12 Pro son ahora a la ventaPero una de las diferencias clave entre los modelos Pro y no Pro de este año es la tecnología de detección de profundidad. Si observa de cerca uno de los nuevos iPhone 12 Pros, o último iPad Pro, verá un pequeño punto negro cerca de la lente de la cámara, aproximadamente del mismo tamaño que el flash. Este es un sensor lidar. Apple habló del lidar como una forma de agregar detección de profundidad y nuevas funciones de realidad aumentada a sus tabletas y teléfonos profesionales. También podría ayudar mucho a enfocar la cámara.

Pero, ¿por qué Apple está haciendo un gran problema con lidar y qué podrá hacer cuando comprar iPhone 12 Pro o iPhone 12 Pro Max? Es un término que vas a escuchar mucho en este momento, así que echemos un vistazo a lo que sabemos, para qué lo usará Apple y hacia dónde podría ir la tecnología.

¿Qué significa lidar?

Lidar es la abreviatura de detección y rango de luz y existe desde hace algún tiempo. Utiliza láseres para hacer rebotar objetos y regresar a la fuente láser, midiendo la distancia cronometrando un viaje o un vuelo de pulso de luz.

¿Cómo funciona el lidar en la detección de profundidad?

Lidar es un tipo de cámara de tiempo. Ya en algunos otros teléfonos inteligentes, a menudo mide la profundidad con un solo pulso de luz, mientras que lidar emite ondas de pulsos de luz en una lluvia de puntos infrarrojos, y todos pueden medir con su propio sensor, creando conjuntos de puntos que mapean distancias y «conectan» las dimensiones del espacio y los objetos en él. Los pulsos de luz son invisibles para el ojo humano, pero pueden verse con una cámara de visión nocturna.

ipad-pro-aripad-pro-ar

El iPad Pro, lanzado en la primavera, también tiene un lidar.

Scott Stein / CNET

¿No es como un Face ID en un iPhone?

Lo es, pero con un mayor alcance. La idea es la misma: Apple Cámara TrueDepth con función Face ID también dispara una serie de láseres infrarrojos, pero solo puede funcionar a unos pocos pies. Los sensores de la tapa trasera del iPad Pro y del iPhone 12 Pro funcionan a una distancia de hasta 5 metros.

Lidar ya está en muchas otras tecnologías

Lidar es una tecnología que está creciendo en todas partes. Usado para coches autopropulsadoso conducción asistida. Usado para robótica y drones. Auriculares de realidad aumentada como HoloLens 2 tienen tecnología similar y mapean espacios espaciales antes de insertar objetos virtuales 3D en ellos. Pero también tiene una historia bastante larga.

Antiguo accesorio de detección de profundidad de Microsoft Xbox Kinect, era una cámara que también tenía un escaneo de profundidad infrarrojo. De hecho, Primesense, que ayudó a crear la tecnología Kinect, adquirida por Apple en 2013. Ahora tenemos un Apple TrueDepth para detección facial y un sensor lidar trasero.

XBox_One_35657846_03.jpgXBox_One_35657846_03.jpg

¿Te acuerdas de Kinect?

Sarah Tew / CNET

El iPhone 12 Pro podría funcionar mejor con lidar

Las cámaras con tiempo de vuelo en los teléfonos inteligentes tienden a usarse para mejorar la precisión y la velocidad de enfoque, y el iPhone 12 Pro hará lo mismo. Apple promete un mejor enfoque con poca luz: Apple dice que será hasta 6 veces más rápido con poca luz. La detección de profundidad Lidar también se utilizará para mejorar los efectos del modo de retrato nocturno.

La ventaja es un mejor enfoque y también existe la posibilidad de que el iPhone 12 Pro también pueda agregar más datos fotográficos en 3D a las imágenes. Aunque esta función aún no se ha descargado, la cámara de ángulo frontal Apple TrueDepth se usó de manera similar a la aplicación.

lente-snapchat-con-lidar.pnglente-snapchat-con-lidar.png

Snapchat ya habilita lentes AR usando el lidar iPhone 12 Pro.

Snapchat

También aumentará significativamente la realidad aumentada.

Lidar permite que el iPhone 12 Pro inicie aplicaciones de RA mucho más rápido y cree un mapa de habitación rápido que agrega más detalles. Un montón de Actualización de AR de Apple en iOS 14 utilizan lidar para ocultar objetos virtuales detrás de los reales (llamados oclusiones) y colocar objetos virtuales en mapeos de habitaciones más complejos, como una mesa o una silla.

Pero además, existe otro potencial con una cola más larga. Muchas empresas sueñan con auriculares que combinen objetos virtuales y reales: estas gafas AR, en qué Facebook está trabajando, Qualcomm, Snapchat, Microsoft, Salto mágico y muy probablemente Apple y otros, dependerán de tener mapas del mundo 3D avanzados en los que se colocarán los objetos virtuales en capas.

Estos mapas en 3D ahora se crean usando escáneres y equipos especiales, casi como la versión mundial de estos autos, Google Maps. Sin embargo, existe la posibilidad de que los propios dispositivos de las personas eventualmente ayuden al crowdsourcing de esta información o agreguen datos adicionales en tiempo de ejecución. Los auriculares AR como Magic Leap y HoloLens ya escanean previamente su entorno antes de poner cosas en él, y la tecnología AR de Apple equipada con un lidar funciona de la misma manera. En ese sentido, el iPhone 12 Pro y el iPad Pro son como audífonos AR sin una parte de audífonos … y podrían allanar el camino para que Apple eventualmente fabrique sus propias gafas.

occipital-canvas-ipad-pro-lidar.pngoccipital-canvas-ipad-pro-lidar.png

Escaneo 3D de una habitación desde Occipital’s Canvas, habilitado por el LIDAR de detección de profundidad en el iPad Pro. Espere lo mismo para el iPhone 12 Pro y tal vez más.

Occipital

El escaneo 3D puede ser una aplicación excelente

Lidar se puede utilizar para conectar objetos y habitaciones 3D y superponer imágenes fotográficas en la parte superior, una técnica llamada fotogrametría. Esta podría ser otra ola de tecnología que captura cosas prácticas como mejoras para el hogar o incluso redes sociales y periodismo. La capacidad de capturar datos 3D y compartir esta información con otros podría abrir estos teléfonos y tabletas LIDAR como herramientas para la captura de contenido 3D. Lidar también se puede utilizar sin un elemento de cámara para obtener medidas de objetos y espacios.

google-tango-lenovo-1905-001.jpggoogle-tango-lenovo-1905-001.jpg

¿Te acuerdas de Google Tango? También tenía detección de profundidad.

Josh Miller / CNET

Apple no es el primero en investigar dicha tecnología en el teléfono.

Google tenía la misma idea en mente cuando se creó Project Tango, una de las primeras plataformas de RA que solo estaba disponible en dos teléfonos. El campo de la cámara avanzada también tenía sensores infrarrojos y podía mapear habitaciones, crear escaneos 3D y mapas de profundidad para AR y mediciones en interiores. Los teléfonos Tango equipados con Google duraron poco y fueron reemplazados por algoritmos de visión por computadora que realizaban tomas de cámara estimadas en profundidad sin la necesidad del mismo hardware. Pero el Apple iPhone 12 Pro parece un sucesor mucho más avanzado.


Ahora mismo jugando:
Ver este:

Explicación para iPhone 12, iPhone 12 Mini, Pro y Pro Max

9:16

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *