iPhone 12 Pro, iOS 14.2 permite que las personas ciegas detecten a otras personas a su alrededor

El escáner lidar de los nuevos iPhones 12 Pro y 12 Pro Max de Apple habilita nuevas funciones de RA y la capacidad de las personas ciegas o deficientes visuales para detectar a otras personas a su alrededor.

James Martin / CNET

El Apple iPhone 12 Pro y 12 Pro Max tienen una nueva función para usuarios ciegos o deficientes visuales: básicamente, la capacidad de ver venir a otras personas. Esta función se lanzó el jueves para usuarios de iPhone y iPad. con el lanzamiento de iOS 14.2.

Los dispositivos usan un nuevo sensor lidar en la parte posterior de los teléfonos para averiguar qué tan cerca están otras personas de los usuarios, lo que Apple llamó Detección de personas. Lidar es un tipo sensor de profundidad que ayuda con las aplicaciones de realidad aumentada y sirve como los ojos de los coches autónomos. Apple ahora lo está aplicando a la accesibilidad en un esfuerzo por ayudar a las personas con discapacidad visual a navegar mejor por el mundo que les rodea.

Por ejemplo, cuando una persona ciega está comprando en una tienda, podrá activar la detección de personas en su iPhone 12 Pro para avisarle cuándo debe ascender en la caja. O alguien que camine por la acera será notificado de lo cerca que están otras personas al pasar. Las personas ciegas o deficientes visuales pueden utilizar esta función para averiguar si hay un lugar disponible en una mesa o en el transporte público, y podrán mantener una distancia social adecuada al pasar por exámenes médicos o líneas de seguridad en el aeropuerto.

La detección de personas podrá detectar la distancia de una persona al usuario en pies o metros y funciona hasta una distancia de 5 pies. Esta función puede reconocer a cualquier persona en la vista gran angular del iPhone 12 Pro. Si hay más personas alrededor, la detección de personas indicará la distancia al usuario de iPhone más cercano.

Apple lanzó una versión beta del software iOS 14.2 para desarrolladores el viernes y lanzó la versión completa para todos los usuarios el jueves.

Según a. Al menos 2.200 millones de personas en todo el mundo tienen discapacidad visual o ceguera. Organización Mundial de la Salud informe del año pasado. En los Estados Unidos, más de 1 millón de personas mayores de 40 años son ciegas, según los ciegos Centros de Control y Prevención de Enfermedades. Para el 2050, ese número podría aumentar a unos 9 millones debido a «la creciente epidemia de diabetes y otras enfermedades crónicas y nuestra población estadounidense que envejece rápidamente», dijeron los CDC.

Apple se ha centrado en la accesibilidad durante décadas. Integra funciones en su tecnología que ayudan a las personas con discapacidad visual a navegar por la pantalla táctil del iPhone y permiten que las personas con discapacidades motoras toquen virtualmente los iconos de la interfaz. Hace cuatro años, Apple lanzó uno de sus espectaculares lanzamientos de productos hablando de accesibilidad y mostrando su nuevo sitio web dedicado.

«La tecnología debería ser accesible para todos», dijo en ese momento el CEO de Apple, Tim Cook.

En particular, Apple ha desarrollado durante mucho tiempo funciones que ayudan a las personas ciegas o deficientes visuales. Su nuevo detector de personas va un paso más allá.

Disparo Lidar

Esta tecnología utiliza un nuevo escáner lidar integrado en las series de cámaras iPhone 12 Pro y 12 Pro Max. Su también en el último iPad Pro y es probable que en el futuro vengan más equipos. El escáner en sí es un pequeño punto negro cerca de la lente de la cámara en la parte posterior de los nuevos iPhones de gama alta.

La detección humana no funcionará en iPhones más antiguos, iPhone 12, 12 Mini o incluso en el nuevo iPad Air. Ninguno de estos dispositivos está equipado con escáneres LIDAR, que es esencial para la tecnología de escaneo humano.


Jugando ahora:
Ver este:

Nuestra descripción detallada del iPhone 12 y 12 Pro

13:48

Detección de personas utiliza la función de oclusión de personas ARKit de Apple para detectar si alguien está en el campo de visión de la cámara y estimar qué tan lejos está una persona. El escáner lidar refina la estimación. Emite un breve destello de luz y mide cuánto tiempo tarda la luz en regresar al escáner Lidar. La nueva función no funciona en entornos oscuros o claros.

Todos los disparos se realizan en tiempo real para proporcionar comentarios sobre qué tan lejos está una persona del usuario del iPhone 12 Pro.

El usuario recibe comentarios de la detección humana de cuatro formas posibles y se puede utilizar en cualquier combinación. Todo se puede ajustar en la configuración. Una forma de obtener información sobre la proximidad de una persona es escuchar información audible. En cuanto a los pies, el teléfono dice en voz alta «15, 14, 13», etc. Indica la distancia en medio metro para las personas que eligen esta unidad de medida.

Los usuarios de iPhone 12 Pro también pueden establecer la distancia de umbral utilizando dos tonos de sonido significativamente diferentes. Uno es cuando las personas están fuera de esta distancia y el otro es cuando las personas están más cerca del usuario. La configuración de umbral predeterminada es 6 pies o 2 metros.

El tercer tipo de alerta es la retroalimentación háptica. Cuanto más lejos está una persona, más baja y lenta es la pulsación física del háptico. Cuanto más se acerca una persona, más rápida es la conmoción háptica. Actualmente, los hápticos son solo a través del teléfono, no a través de Apple Watch.

También existe la opción de obtener una lectura visual en la propia pantalla. En este caso, le dice qué tan lejos está la persona y la línea de puntos muestra dónde está la persona en la pantalla.

People Detection vive en Apple Magnifier. Los usuarios pueden iniciarlo usando la configuración de Apple Back Click o el botón Accesibilidad usando el botón Triple Click. Siri puede ejecutar Magnifier, pero los usuarios deben habilitar la detección humana desde allí.

Está diseñado para ser una herramienta situacional que la gente activa cuando la necesita, en lugar de una función que siempre está activa. Empezar durante mucho tiempo consume mucha batería.

Hasta ahora, el iPhone solo detecta humanos, pero los desarrolladores han podido utilizar la tecnología lidar para crear aplicaciones de detección de objetos.

Otras características de iOS 14.2 incluyen 13 nuevos caracteres emoji y funciones de reconocimiento de música Shazam en el Centro de control.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *