El iPhone 12 Pro tiene un sensor lidar. Que es y por que es importante

El sensor lidar del iPhone 12 Pro, un círculo negro en la parte inferior derecha de la unidad de la cámara, abre las opciones de RA.

manzana

los iPhone 12 y 12 Pro son ahora a la ventaPero una de las diferencias clave entre los modelos Pro y no Pro de este año es un nuevo tipo de tecnología de levantamiento en profundidad llamado Lidar. Eche un vistazo más de cerca a uno de los nuevos modelos de iPhone 12 Pro o en último iPad Pro, y verá un pequeño punto negro cerca de la lente de la cámara, aproximadamente del mismo tamaño que el flash. Este es un sensor lidar.

Pero, ¿por qué Apple está haciendo un gran negocio con lidar y qué podrá hacer esta tecnología si comprar iPhone 12 Pro o iPhone 12 Pro Max? Es un término del que vas a escuchar mucho ahora, así que echemos un vistazo a lo que sabemos, para qué lo usará Apple y dónde podría ir esta tecnología a continuación.

¿Qué significa lidar?

Lidar es un acrónimo de detección de luz y alcance y existe desde hace algún tiempo. Utiliza láseres para hacer rebotar objetos y regresar a la fuente láser, midiendo la distancia cronometrando un viaje o haciendo volar un pulso de luz.

¿Cómo funciona el lidar en la detección de profundidad?

Lidar es un tipo de cámara de tiempo. Algunos otros teléfonos inteligentes miden la profundidad con un solo pulso de luz, mientras que un teléfono inteligente con este tipo de tecnología lidar emite ondas de pulsos de luz en una lluvia de puntos infrarrojos, y todos pueden medir con su propio sensor y crear una serie de puntos que mapean distancias y «conectan» las dimensiones del espacio y los objetos en él. . Los pulsos de luz son invisibles para el ojo humano, pero pueden verse con una cámara de visión nocturna.

ipad-for-aripad-pro-ar

El iPad Pro, lanzado en la primavera, también tiene un lidar.

Scott Stein / CNET

¿No es como un Face ID en un iPhone?

Lo es, pero con un mayor alcance. La idea es la misma: Apple Cámara TrueDepth con función Face ID también dispara una serie de láseres infrarrojos, pero solo puede funcionar a unos pocos pies. Los sensores de la tapa trasera del iPad Pro y del iPhone 12 Pro funcionan a una distancia de hasta 5 metros.

Lidar ya está en muchas otras tecnologías

Lidar es una tecnología que está creciendo en todas partes. Usado para coches autopropulsadoso conducción asistida. Usado para robótica y drones. Auriculares de realidad aumentada como HoloLens 2 tienen tecnología similar y mapean espacios espaciales antes de insertar objetos virtuales 3D en ellos. Pero también tiene una historia bastante larga.

Antiguo accesorio de detección de profundidad de Microsoft Xbox Kinect, era una cámara que también tenía un escaneo de profundidad infrarrojo. PrimeSense, la empresa que ayudó a crear la tecnología Kinect, adquirida por Apple en 2013. Ahora tenemos un Apple TrueDepth para detección facial y un sensor lidar trasero.

XBox_One_35657846_03.jpgXBox_One_35657846_03.jpg

¿Te acuerdas de Kinect?

Sarah Tew / CNET

El iPhone 12 Pro podría funcionar mejor con lidar

Las cámaras con tiempo de vuelo en los teléfonos inteligentes tienden a usarse para mejorar la precisión y la velocidad de enfoque, y el iPhone 12 Pro hará lo mismo. Apple promete un mejor enfoque con poca luz, hasta 6 veces más rápido con poca luz. La detección de profundidad Lidar también se utilizará para mejorar los efectos del modo de retrato nocturno.

La ventaja es un mejor enfoque y también existe la posibilidad de que el iPhone 12 Pro también pueda agregar más datos fotográficos en 3D a las imágenes. Aunque aún no se ha descargado, la cámara de ángulo frontal Apple TrueDepth se utilizó de manera similar a la aplicación.

lente-snapchat-con-lidar.pnglente-snapchat-con-lidar.png

Snapchat ya habilita lentes AR usando el lidar iPhone 12 Pro.

Snapchat

También aumentará significativamente la realidad aumentada.

Lidar permite que el iPhone 12 Pro inicie aplicaciones de RA mucho más rápido y cree un mapa de habitación rápido que agrega más detalles. Un montón de Actualización de AR de Apple en iOS 14 utilizan lidar para ocultar objetos virtuales detrás de los reales (las llamadas oclusiones) y colocar objetos virtuales en mapeos de habitaciones más complejas, como una mesa o una silla.

Pero además, existe otro potencial con una cola más larga. Muchas empresas sueñan con auriculares que combinen objetos virtuales y reales: gafas AR, en qué Facebook está trabajando, Qualcomm, Snapchat, Microsoft, Salto mágico y muy probablemente Apple y otros, dependerán de tener mapas del mundo 3D avanzados en los que se colocarán los objetos virtuales en capas.

Estos mapas en 3D ahora se crean usando escáneres y equipos especiales, casi como la versión mundial de estos autos, Google Maps. Sin embargo, existe la posibilidad de que los propios dispositivos de las personas puedan eventualmente ayudar al crowdsourcing de esta información, o agregar datos adicionales en tiempo de ejecución. Los audífonos AR como Magic Leap y HoloLens escanean previamente su entorno antes de poner cosas en él, y la tecnología AR impulsada por lidar de Apple funciona de la misma manera. En ese sentido, el iPhone 12 Pro y el iPad Pro son como auriculares de realidad aumentada sin una parte de auriculares … y podrían allanar el camino para que Apple eventualmente fabrique sus propias gafas.

occipital-canvas-ipad-pro-lidar.pngoccipital-canvas-ipad-pro-lidar.png

Escaneo 3D de una habitación desde Occipital’s Canvas, habilitado por el LIDAR de detección de profundidad en el iPad Pro. Espere lo mismo para el iPhone 12 Pro y tal vez más.

Occipital

El escaneo 3D puede ser una aplicación excelente

Lidar se puede utilizar para conectar objetos y habitaciones 3D y superponer imágenes fotográficas en la parte superior, una técnica llamada fotogrametría. Esta podría ser otra ola de tecnología de captura para uso práctico. mejoras para el hogar, o incluso las redes sociales y periodismo. La capacidad de capturar datos 3D y compartir esta información con otros podría abrir estos teléfonos y tabletas LIDAR como herramientas para capturar contenido 3D. Lidar también se puede utilizar sin un elemento de cámara para obtener medidas de objetos y espacios.

google-tango-lenovo-1905-001.jpggoogle-tango-lenovo-1905-001.jpg

¿Te acuerdas de Google Tango? También tenía detección de profundidad.

Josh Miller / CNET

Apple no es el primero en investigar dicha tecnología en el teléfono.

Google tenía la misma idea en mente cuando Proyecto Tango – una de las primeras plataformas de RA que solo en dos teléfonos — fue creado. El campo de la cámara avanzada también tenía sensores infrarrojos y podía mapear habitaciones, crear escaneos 3D y mapas de profundidad para AR y mediciones en interiores. Los teléfonos Tango equipados con Google duraron poco y fueron reemplazados por algoritmos de visión por computadora que realizaban tomas de cámara en profundidad estimadas sin la necesidad del mismo hardware. Pero el Apple iPhone 12 Pro parece un sucesor mucho más avanzado.


Ahora mismo jugando:
Ver este:

Explicación para iPhone 12, iPhone 12 Mini, Pro y Pro Max

9:16

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *