Transmisión de video de baja latencia: ¿Qué tan bajo puede llegar?

Tome la palabra y golpee a los técnicos y trabajadores de la industria del streaming. Los dispositivos tiemblan cuando escuchan su nombre. Hablemos de latencia, un tema en el que el debate y la definición de déficit son tan antiguos como la propia industria. Tomemos el partido de fútbol que vio el fin de semana pasado. Cuando Patrick Mahomes caminó alrededor del descenso de 25 yardas y usted sonrió y pensó: «¿Cómo lo hace este tipo, cada vez?», Estaba a unos 45 segundos del juego en sí. Cuando ingresó a la sala de estar y vio el mismo juego, se rascó la cabeza para ver qué tan atrás estaba en el teléfono.

Para comprender la latencia, debemos examinar los componentes en un flujo de trabajo de transmisión en vivo. Todo comienza con una señal en vivo, ya sea un canal completamente producido o una fuente única de una camioneta, un helicóptero o incluso una sola cámara. Esta señal luego se absorbe en el hardware, generalmente llamado codificador, donde la señal se digitaliza. A partir de ahí, la versión digitalizada generalmente toma dos caminos: al flujo de trabajo en la nube, donde el flujo de contribución se envuelve en otras variaciones del flujo, o se crean las mismas variantes (llamadas interpretaciones) en el codificador mismo. En ambos casos, las interpretaciones de las transmisiones se transfieren o se extraen a una red de entrega de contenido (CDN), donde los espectadores se conectan para ver las transmisiones a través de un reproductor en varios dispositivos. Estas diversas partes y partes generalmente entregaron transmisiones que están entre 30 y 60 segundos detrás de la transmisión en vivo. En comparación, los canales de cable y satélite se entregan a casa 5 segundos después de las transmisiones en vivo. Estos valores y la distancia desde la señal en vivo hasta su capacidad para ver el canal se denominan latencia.

Si bien no me meto en la historia de los formatos de transmisión, los protocolos y similares, basta con decir que con la llegada de HTTP Live Streaming (HLS) en 2009 y sus dependencias, que están contribuyendo al gran debate sobre la latencia, nos ha cambiado a todos. Esto proporcionó algo de latencia con el nuevo formato, ya que los segmentos de video eran un desafío de almacenamiento para los CDN más antiguos y un desafío de construcción para los jugadores. Para ser claros, esto ya no es un problema, y ​​las CDN como Fastly se han diseñado desde cero para manejar fragmentos más pequeños de archivos nativos de formatos como HLS. También ayudó a aliviar parte del costo de desarrollar e implementar Flash, el formato de video predominante en ese momento, y Steve Jobs tenía imágenes muy interesantes del formato en sí. Habla en otro momento.

Entonces, ¿qué es la latencia baja?

Entonces, como indiqué anteriormente, si unos segundos de latencia son normales, ¿qué significa cuando digo algo? baja latencia? En el mundo de la transmisión de video, la baja latencia provoca subjetivamente un retraso de cinco segundos o menos entre vasos de vidrio. Sin embargo, algunas organizaciones y aplicaciones requieren una entrega aún más rápida. Como resultado, algunos usan etiquetas nuevas como «latencia ultrabaja» y «casi en tiempo real», donde el video teóricamente se puede entregar en menos de 1 segundo. Este sector de aplicaciones de transmisión generalmente está reservado para casos de uso interactivo, chat bidireccional y control de dispositivos en tiempo real (esto es común con la transmisión de drones en vivo).

Así que avanza en tu reproductor (¿ves lo que hice allí?) Hasta 2020 y estamos a la vanguardia de muchos jugadores en la implementación del espacio de video. Nuevo HLS de baja latencia de Apple (LLHLS). Esta es una gran noticia para quienes publican noticias, deportes y contenido urgente, ya que la especificación proporciona una ruta con una latencia de 1 a 3 segundos. Su proveedor de servicios (cable / satélite) generalmente envía contenido a su televisor 5 segundos después de la transmisión en vivo. Pero LLHLS no es obligatorio para brindar una experiencia de transmisión sólida a sus clientes o espectadores. Un buen HLS antiguo le conviene para la mayoría de escenarios que no son urgentes.

Por qué es importante la baja latencia

Si su negocio incluye noticias, deportes o aplicaciones urgentes, necesita absolutamente una entrega de baja latencia hoy. ¿Por qué? Simplemente para que sus espectadores puedan estar en 2 segundos o menos de contenido en vivo.

Tomemos, por ejemplo, el trabajo reciente de Videon con Fastly. Este flujo de trabajo comienza con la creación de streams en nuestro Edgecaster, eliminando la latencia adicional introducida por los procesos en la nube como la transcodificación y el empaquetado. Si bien no hay nada de malo en los enfoques de la transcodificación en la nube, las compensaciones están claramente definidas en la latencia y el costo adicionales. Las representaciones de las transmisiones se descargan de un servidor web de alto rendimiento que reside en el dispositivo y se entregan a través de la nube de borde Fastly. El último paso es combinar el flujo de trabajo con un reproductor de baja latencia. Este enfoque funcionará para muchos jugadores. En este caso, Videon trabajó con la tecnología NexPlayer y registró excelentes resultados en varias plataformas. El flujo de trabajo completo se muestra en la siguiente figura.

Usando esta configuración y flujo de trabajo, monitoreamos la latencia de 1.2 a 1.7 segundos juntos. Este es un rendimiento excelente en todos los componentes del flujo de trabajo. Dima Kumets, director de gestión de productos, quedó rápidamente impresionado al ver las lecturas de latencia en tiempo real. «La rápida red global de 106 TB / s (al 30 de septiembre de 2020) proporciona video para algunos de los servicios de transmisión más grandes del mundo. Los resultados que vimos al trabajar con Videon fueron excepcionales «.

Nos asociamos con Fastly porque sabíamos que su red podía ofrecer un rendimiento excepcionalmente alto en este escenario. Si bien esta solución puede funcionar con la mayoría de las principales CDN, estamos muy satisfechos con el rendimiento y la experiencia general que proporciona Fastly. Sin embargo, una de las formas clave es que cada vez más organizaciones buscan este tipo de arquitectura de baja latencia, donde el video puede vivir en el borde, cerca de la fuente y de la red de borde. Esta podría ser una estrategia vital clave que crecerá en los próximos meses.

Un nuevo enfoque para el procesamiento de video

Para ser claros, no usamos ninguna «salsa especial» ni usamos un nuevo proceso o complemento propio. Como la vieja sal industrial que tengo, he visto demasiados enfoques muy interesantes para los nuevos procesos de video que requieren que el usuario y el procesador de video salten demasiados obstáculos para llegar al primer cuadro. En el mundo actual del video a hiperescala, donde el video crece exponencialmente cada hora, nos enfrentamos constantemente al desafío de subir el listón.

Subir el listón, al menos esta vez, significa utilizar un nuevo enfoque que se gasta en el chipset. Qualcomm Snapdragon es un chip de procesamiento ARM relativamente maduro y es bien conocido en el espacio de los teléfonos inteligentes, pero es una herramienta completamente nueva que se puede usar para crear y manipular medios y transmisiones. El chip Snapdragon en sí mismo proporciona características nativas de audio / video que se pueden usar, lo que resulta en un consumo de energía mucho menor al tiempo que aumenta exponencialmente la cantidad de video que se puede procesar. Esto significa que no se debe depender de los restos del pasado, como las unidades de procesamiento de gráficos (GPU) y muchos ventiladores de refrigeración. Claro, hay algunos enfoques similares al Edgecaster de Videon que usan diferentes conjuntos de chips, GPU y más «hierro pesado», pero por sus capacidades como la distribución de video y la plataforma informática a su precio, Edgecaster y este enfoque son altamente efectivos no solo para casos de uso de baja latencia. , pero muchos otros también. Esto es algo que consideramos una ventaja de mercado injusta: la relación única de Videon con Qualcomm y nuestra capacidad para desarrollar capacidades de procesamiento de medios y de borde potentes y avanzadas en dispositivos que nadie más en el mundo ha podido hacer.

En el horizonte

Entonces, no importa cómo use la frase: latencia ultra baja, latencia muy baja, fusión fría de baja latencia (bromeando, por supuesto), descubrimos lo que significa tener baja latencia y cómo hacerlo bien. A medida que Snapdragon de Qualcomm gana fuerza con los conjuntos de chips posteriores, la capacidad de procesar más medios en el borde y simplemente hacer más crecerá exponencialmente. Esto significa aumentar la resolución, la escala, el volumen y más. Además, también significa transferir varios procesos de procesamiento de video adicionales al dispositivo. Esto significa que la extracción y agregación de metadatos, el reconocimiento de imágenes y el análisis básico, y muchos otros procesos que se ejecutan en la nube en la actualidad, podrían ejecutarse de manera más rentable en el borde y en este dispositivo. Y solo estamos rascando la superficie. Resulta que puede ir bajo, muy bajo, y con otras funciones centradas en los medios, a lo largo y ancho.

[Editor’s note: This is a contributed article from Videon. Streaming Media accepts vendor bylines based solely on their value to our readers.]

Cubiertas de transmisión

Habilite JavaScript para ver los comentarios basados ​​en Disqus.

Artículos relacionados

Lista de verificación de transmisión de baja latencia

El CTO de VideoRx guía a los espectadores a través de una lista de verificación para priorizar y lograr la transmisión de baja latencia en este clip de su presentación en Streaming Media West Connect 2020.

¿Qué es la latencia baja y cómo medirla?

El CTO VideoRx Robert Reinhardt explica qué significa la transmisión de baja latencia en diferentes escenarios y cómo medirla de vidrio a vidrio en este clip de Streaming Media West Connect 2020.

CMAF y baja latencia en Disney y Hulu

Nick Brookins de Hulu y Bill Zurat de Disney discuten cómo sus servicios OTT abordan la latencia de transmisión y dónde encaja CMAF en la estrategia en este clip de su panel en Streaming Media West Connect 2020.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *