Latencia es una medida de los retardos en un sistema. La latencia de las redes es el tiempo que tardan los datos en recorrer de un punto a otro en una red. Una red con latencia elevada tendrá tiempos de respuesta más lentos, mientras que una red con baja latencia tendrá tiempos de respuesta más rápidos.
Aunque en principio, los datos deberían atravesar Internet casi a la velocidad de la luz, en la práctica, los paquetes de datos se mueven a través de Internet a un ritmo ligeramente más lento debido a los retrasos causados por la distancia, la infraestructura de Internet, el tamaño del paquete de datos, la congestión de la red y otras variables.1 La suma de estos retardos constituye la latencia de una red.
Las organizaciones pueden reducir la latencia y mejorar la productividad y la experiencia del usuario al:
Es importante mantener una red con baja latencia porque la latencia afecta directamente la productividad, la colaboración, el rendimiento de las aplicaciones y la experiencia del usuario. Cuanto más elevada es la latencia (y cuanto más lentos sean los tiempos de respuesta) más padecen estas áreas. La baja latencia es especialmente crucial a medida que las empresas persiguen la transformación digital y dependen cada vez más de las aplicaciones y servicios basados en la nube dentro del Internet de las cosas.
Comencemos con un ejemplo obvio. Si la alta latencia de la red provoca un rendimiento inadecuado de las aplicaciones o tiempos de carga lentos para los clientes de una organización, es probable que busquen soluciones alternativas. Ahora más que nunca, tanto los usuarios individuales como los empresariales esperan un rendimiento ultrarrápido. Si su organización utiliza aplicaciones empresariales que se basan en datos en tiempo real extraídos de diferentes fuentes para hacer recomendaciones de recursos, la latencia elevada puede crear ineficiencias, que a su vez, repercuten de manera negativa en el rendimiento y el valor de las aplicaciones.
Todas las empresas prefieren una baja latencia. Sin embargo, en industrias y casos de uso que dependen de los datos de sensores o de la informática de alto rendimiento, como la fabricación automatizada, las operaciones remotas con video (piense en las cámaras utilizadas en cirugías), la transmisión en directo o el comercio de alta frecuencia, la baja latencia es esencial para el éxito de la empresa.
Una latencia elevada también puede causar gastos inútiles. Supongamos que una organización quiere mejorar el rendimiento de las aplicaciones y la red aumentando o reasignando el gasto en recursos informáticos, de almacenamiento y de red. Si no soluciona la latencia existente, la organización podría terminar con una factura mayor sin lograr una mejora en el rendimiento, la productividad o la satisfacción del cliente.
La latencia de la red se mide en milisegundos, calculando el intervalo de tiempo entre el inicio de una operación de envío desde un sistema de origen y la finalización de la operación de recepción correspondiente por parte del sistema de destino.2
Una forma sencilla de medir la latencia es ejecutar un comando “ping”, que es una herramienta de diagnóstico de red utilizada para probar la conexión entre dos dispositivos o servidores. Durante estas pruebas de velocidad, la latencia suele denominarse tasa de ping.
En esta prueba, se envía un paquete de solicitud de eco del Protocolo de mensajes de control de Internet (ICMP, sigla en inglés de Internet Control Message Protocol) a un servidor de destino y se devuelve. Un comando ping calcula el tiempo que tarda en llegar el paquete del origen al destino y viceversa. Este tiempo total del recorrido se denomina tiempo de ida y vuelta (RTT, sigla en inglés de round-trip time) y equivale aproximadamente al doble de la latencia, ya que los datos deben viajar al servidor y volver. El ping no se considera una medida exacta de la latencia ni una prueba ideal para detectar problemas de latencia de la red. Esta limitación se debe a que los datos pueden viajar a través de diferentes rutas de la red y encontrar diferentes escenarios en cada tramo del recorrido.
La latencia, el ancho de banda y el throughput (tasa de transferencia efectiva) están relacionados, y a veces se confunden como sinónimos, pero en realidad se refieren a características distintas de la red. Como mencionamos anteriormente, la latencia es el tiempo que tarda un paquete de datos en llegar de un punto a otro en una conexión de red.
El ancho de banda es una medida del volumen de datos que pueden pasar por una red en un momento dado. Se mide en unidades de datos por segundo, como megabits por segundo (mbps) o gigabits por segundo (gbps). El ancho de banda es lo que está acostumbrado a escuchar de su proveedor de servicios al elegir las opciones de conexión para su hogar. Esto es una fuente de gran confusión, ya que el ancho de banda no es una medida de velocidad sino de capacidad. Si bien un ancho de banda elevado puede facilitar una alta velocidad de Internet, esa capacidad depende también de factores como la latencia y el throughput.
El throughput mide la cantidad promedio de datos querealmente pasa a través de una red en un período específico, teniendo en cuenta el impacto de la latencia. Refleja la cantidad de paquetes de datos que llegan correctamente y la cantidad de pérdida de paquetes de datos. Normalmente se mide en bits por segundo o, a veces, en datos por segundo.
Otro factor que influye en el rendimiento de la red es la fluctuación. Fluctuación se refiere a la variación en la latencia de flujos de paquetes a través de una red. Es preferible una latencia constante que una fluctuación elevada, que puede contribuir a la pérdida de paquetes (paquetes de datos que se pierden durante la transmisión y nunca llegan a su destino).
Una forma simplificada pero útil de recordar la relación entre latencia, ancho de banda y throughput es que el ancho de banda es la cantidad de datos que pueden viajar por una red, el throughput es la medida de la cantidad que realmente se transfiere por segundo y la latencia es el tiempo que se tarda en hacerlo.
Visualizar el trayecto que recorren los datos del cliente al servidor y de regreso ayuda a comprender la latencia y los diversos factores que contribuyen a ella. Las causas comunes de la latencia de la red incluyen:
En pocas palabras, cuanto mayor sea la distancia entre el cliente que inicia una petición y el servidor que responde, mayor será la latencia. La diferencia entre un servidor en Chicago y un servidor en Nueva York que responden a una solicitud de usuario en Los Ángeles puede ser solo de unos cuantos milisegundos. Pero en este juego, eso es demasiado, además de que esos milisegundos se acumulan.
A continuación, considere el medio a través del cual viajan los datos. ¿Se trata de una red de cables de fibra óptica (generalmente de latencia más baja) o de una red inalámbrica (generalmente de latencia elevada), o de un complejo entramado de redes con múltiples medios, como suele ser el caso?
El medio utilizado para la transmisión de datos afecta la latencia. al igual que la cantidad de veces que los datos deben pasar por dispositivos de red como los enrutadores para trasladarse de un segmento de red al siguiente (saltos de red) antes de llegar a su destino. Cuanto mayor sea el número de saltos, mayor será la latencia.
Tanto el tamaño de los paquetes de datos como el volumen total de datos en una red afectan la latencia. Los paquetes más grandes tardan más en transmitirse, y si el volumen de datos supera la capacidad informática de la infraestructura de red, es probable que se produzcan cuellos de botella y una mayor latencia.
Los servidores, enrutadores, concentradores, conmutadores y otro hardware de red obsoletos o con recursos insuficientes pueden causar tiempos de respuesta más lentos. Por ejemplo, si los servidores reciben más datos de los que pueden manejar, los paquetes se retrasarán, lo que ralentizará la carga de las páginas, la velocidad de descarga y el rendimiento de las aplicaciones.
Los activos de las páginas, tales como imágenes y videos con archivos de gran tamaño, recursos que bloquean el renderizado y caracteres innecesarios en código fuente pueden contribuir a una latencia elevada.
A veces, la latencia se debe a factores del lado del usuario, como un ancho de banda insuficiente, malas conexiones a Internet o equipamiento obsoleto.
Para reducir la latencia de la red, una organización podría comenzar con esta evaluación de la red:
-¿Nuestros datos viajan por la ruta más corta y eficiente?
-¿Nuestras aplicaciones cuentan con los recursos necesarios para un rendimiento óptimo?
- ¿Nuestra infraestructura de red está actualizada y es adecuada para el trabajo?
Empecemos con la cuestión de la distancia. ¿Dónde se encuentran los usuarios? ¿Y dónde están los servidores que responden a sus solicitudes? Al distribuir servidores y bases de datos geográficamente más cerca de los usuarios, una organización puede reducir la distancia física que los datos necesitan para viajar y reducir el enrutamiento ineficiente y los saltos de red.
Una forma de distribuir datos globalmente es a través de una red de distribución de contenidos o CDN. El uso de una red de servidores distribuidos permite a una organización almacenar contenido más cerca de los usuarios finales, lo que reduce la distancia que deben recorrer los paquetes de datos. Pero, ¿qué sucede si una organización quiere moverse más allá de servir contenido en caché?
La computación edge es una estrategia útil, que permite a las organizaciones ampliar su entorno de nube desde el centro de datos central a ubicaciones físicas más cercanas a sus usuarios y datos. Mediante la computación edge, las organizaciones pueden ejecutar aplicaciones más cerca de los usuarios finales y reducir la latencia.
Una subred es esencialmente una red más pequeña dentro de una red más grande. Las subredes agrupan end points que se comunican frecuentemente entre sí, lo que puede reducir tanto el enrutamiento ineficiente como la latencia.
Las herramientas de supervisión tradicionales no son lo suficientemente rápidas ni exhaustivas para detectar y contextualizar de forma proactiva los problemas de rendimiento en los complejos entornos actuales. Para adelantarse a los problemas, las organizaciones pueden utilizar soluciones avanzadas que proporcionan observabilidad de extremo a extremo y mapeo de dependencias en tiempo real. Estas capacidades permiten que los equipos localicen, contextualicen, aborden y prevengan los problemas de rendimiento de las aplicaciones que contribuyen a la latencia de la red.
Si las cargas de trabajo no disponen de los recursos informáticos, de almacenamiento y de red adecuados, la latencia aumenta y el rendimiento se ve afectado. Tratar de resolver este problema mediante el sobreaprovisionamiento es ineficaz y un desperdicio, e intentar ajustar manualmente la demanda dinámica a los recursos en infraestructuras modernas complejas es una tarea imposible.
Una solución de gestión de recursos de aplicaciones (ARM) que analiza continuamente la utilización de recursos y el rendimiento de las aplicaciones y los componentes de la infraestructura en tiempo real puede ayudar a resolver problemas de recursos y reducir la latencia.
Por ejemplo, si una plataforma ARM detecta una aplicación con latencia elevada debido a la contención de recursos en un servidor, puede asignar automáticamente los recursos necesarios a la aplicación o moverla a un servidor menos congestionado. Estas acciones automatizadas ayudan a reducir la latencia y mejorar el rendimiento.
Pruebas como el comando ping pueden proporcionar una medición sencilla de la latencia de la red, pero no son suficientes para precisar problemas, y mucho menos para abordarlos. Las organizaciones pueden utilizar una solución de gestión de rendimiento de red que proporciona una plataforma unificada para ayudar a los equipos a detectar, abordar y prevenir problemas de rendimiento de red y reducir la latencia.
Los equipos de TI pueden asegurarse de que están utilizando hardware, software y configuraciones de red actualizados y de que la infraestructura de la organización puede manejar las demandas actuales. Realizar comprobaciones y mantenimiento regulares de la red también puede ayudar a reducir los problemas de rendimiento y la latencia.
Los desarrolladores pueden tomar medidas para asegurarse de que la construcción de la página no aumente la latencia, como optimizar videos, imágenes y otros activos de la página para una carga más rápida y mediante la minimización del código.
Las soluciones de redes de IBM ofrecen conectividad centrada en aplicaciones y de alto rendimiento, que las hace ideales para las empresas digitales actuales.
Proteja su infraestructura en la nube y servidores de actividades maliciosas con la seguridad de red de IBM Cloud.
IBM Cloud es una plataforma en la nube diseñada para industrias reguladas, que proporciona soluciones abiertas, seguras, híbridas y preparadas para la IA.
1“Internet at the Speed of Light”, Yale.edu, 3 de mayo de 2022.
2“Effect of the network on performance”, IBM.com, 3 de marzo de 2021.