Publicado: 15 de agosto de 2023
Colaborador: Michael Goodwin
Latencia es una medida de los retardos en un sistema. La latencia de las redes es el tiempo que tardan los datos en recorrer de un punto a otro en una red. Una red con latencia elevada tendrá tiempos de respuesta más lentos, mientras que una red con baja latencia tendrá tiempos de respuesta más rápidos.
Aunque en principio los datos deberían atravesar la Internet casi a la velocidad de la luz, en la práctica los paquetes de datos se mueven por la red a una velocidad ligeramente inferior debido a los retrasos causados por la distancia, la infraestructura de Internet y otras variables.1 La suma de estos retardos constituye la latencia de una red.
Descubra la manera en que tanto el monitoreo del rendimiento de las aplicaciones (APM, siglas en inglés de application performance monitoring) como la gestión de los recursos de las aplicaciones (ARM, sigla en inglés de application resource management) pueden serle útiles para acelerar la toma de decisiones y la aplicación de los recursos.
Lea una guía de la automatización inteligente
Es importante mantener una red con baja latencia porque la latencia afecta directamente la productividad, la colaboración, el rendimiento de las aplicaciones y la experiencia del usuario. Cuanto más elevada es la latencia (y cuanto más lentos sean los tiempos de respuesta) más padecen estas áreas. La baja latencia es especialmente crucial a medida que las empresas persiguen la transformación digital y dependen cada vez más de las aplicaciones y los servicios basados en la nube dentro del Internet de las cosas.
Comencemos con un ejemplo obvio. Si la latencia elevada de la red provoca un rendimiento inadecuado de las aplicaciones o tiempos de carga lentos para sus clientes, es probable que estos busquen soluciones alternativas. Ahora más que nunca, tanto los usuarios individuales como los empresariales esperan un rendimiento ultrarrápido. Si su organización utiliza aplicaciones empresariales que se basan en datos en tiempo real extraídos de diferentes fuentes para hacer recomendaciones de recursos, la latencia elevada puede crear ineficiencias, que a su vez, repercuten de manera negativa en el rendimiento y el valor de las aplicaciones.
Todas las empresas prefieren una baja latencia. Sin embargo, en industrias y casos de uso que dependen de los datos de sensores o de la informática de alto rendimiento, como la fabricación automatizada, las operaciones remotas con video (piense en las cámaras utilizadas en cirugías), la transmisión en directo o el comercio de alta frecuencia, la baja latencia es esencial para el éxito de la empresa.
Una latencia elevada también puede causar gastos inútiles. Digamos que su objetivo es mejorar el rendimiento de las aplicaciones y de la red al aumentar o reasignar su gasto en recursos informáticos, de almacenamiento y de red. Si no aborda los problemas de latencia existentes, es posible que termine pagando una factura mayor sin mejorar el rendimiento, la productividad ni la satisfacción del cliente.
La latencia de la red se mide en milisegundos, calculando el intervalo de tiempo entre el inicio de una operación de envío desde un sistema de origen y la finalización de la operación de recepción correspondiente por parte del sistema de destino.2
Una forma sencilla de medir la latencia es ejecutar un comando “ping”, que es una herramienta de diagnóstico de red utilizada para probar la conexión entre dos dispositivos o servidores. Durante estas pruebas de velocidad, la latencia suele denominarse tasa de ping.
En esta prueba, se envía un paquete de solicitud de eco del Protocolo de mensajes de control de Internet (ICMP, sigla en inglés de Internet Control Message Protocol) a un servidor de destino y se devuelve. Un comando ping calcula el tiempo que tarda en llegar el paquete del origen al destino y viceversa. Este tiempo total del recorrido se denomina tiempo de ida y vuelta (RTT, sigla en inglés de round-trip time) y equivale aproximadamente al doble de la latencia, ya que los datos deben viajar al servidor y volver. El ping no se considera una medida exacta de la latencia ni una prueba ideal para detectar problemas de latencia de la red. Esta limitación se debe a que los datos pueden viajar a través de diferentes rutas de la red y encontrar diferentes escenarios en cada tramo del recorrido.
La latencia, el ancho de banda y el throughput (tasa de transferencia efectiva) están relacionados, y a veces se confunden como sinónimos, pero en realidad se refieren a características distintas de la red. Como mencionamos anteriormente, la latencia es el tiempo que tarda un paquete de datos en llegar de un punto a otro en una conexión de red.
El ancho de banda es una medida del volumen de datos que pueden pasar por una red en un momento dado. Se mide en unidades de datos por segundo, como megabits por segundo (mbps) o gigabits por segundo (gbps). Esta medida es lo que está acostumbrado a escuchar de su proveedor de servicios a la hora de elegir las opciones de conexión para su hogar. Esto es una fuente de gran confusión, ya que el ancho de banda no es una medida de velocidad sino de capacidad. Si bien un ancho de banda elevado puede facilitar una alta velocidad de Internet, esa capacidad depende también de factores como la latencia y el throughput.
El throughput mide la cantidad promedio de datos querealmente pasa a través de una red en un período específico, teniendo en cuenta el impacto de la latencia. Refleja la cantidad de paquetes de datos que llegan correctamente y la cantidad de pérdida de paquetes de datos. Normalmente se mide en bits por segundo o, a veces, en datos por segundo.
Otro factor que influye en el rendimiento de la red es la fluctuación. Fluctuación se refiere a la variación en la latencia de flujos de paquetes a través de una red. Es preferible una latencia constante que una fluctuación elevada, que puede contribuir a la pérdida de paquetes (paquetes de datos que se pierden durante la transmisión y nunca llegan a su destino).
Una forma simplificada pero útil de recordar la relación entre latencia, ancho de banda y throughput es que el ancho de banda es la cantidad de datos que pueden viajar por una red, el throughput es la medida de la cantidad que realmente se transfiere por segundo y la latencia es el tiempo que se tarda en hacerlo.
Visualizar el trayecto que recorren los datos del cliente al servidor y de regreso ayuda a comprender la latencia y los diversos factores que contribuyen a ella. Las causas más comunes de latencia en la red son:
En pocas palabras, cuanto mayor sea la distancia entre el cliente que inicia una petición y el servidor que responde, mayor será la latencia. La diferencia entre un servidor en Chicago y un servidor en Nueva York que responden a una solicitud de usuario en Los Ángeles puede ser solo de unos cuantos milisegundos. Pero en este juego, eso es demasiado, además de que esos milisegundos se acumulan.
A continuación, considere el medio a través del cual viajarán sus datos. ¿Se trata de una red de cables de fibra óptica (generalmente de latencia más baja) o de una red inalámbrica (generalmente de latencia elevada), o de un complejo entramado de redes con múltiples medios, como suele ser el caso?
El medio por el que se desplazan los datos afecta la latencia, al igual que la cantidad de veces que los datos deben pasar por dispositivos de red como los enrutadores para trasladarse de un segmento de red al siguiente (saltos de red) antes de llegar a su destino. Cuanto mayor sea el número de saltos, mayor será la latencia.
Tanto el tamaño de los paquetes de datos como el volumen total de datos en una red afectan la latencia. Los paquetes más grandes tardan más en transmitirse, y si el volumen de datos supera la capacidad de cálculo de la infraestructura de red, es probable que se produzcan cuellos de botella y aumente la latencia.
Los servidores, enrutadores, concentradores, conmutadores y otro hardware de red obsoletos o con recursos insuficientes pueden causar tiempos de respuesta más lentos. Por ejemplo, si los servidores reciben más datos de los que pueden manejar, los paquetes se retrasarán, lo que ralentizará la carga de las páginas, la velocidad de descarga y el rendimiento de las aplicaciones.
Los activos de las páginas, tales como imágenes y videos con archivos de gran tamaño, recursos que bloquean el renderizado y caracteres innecesarios en código fuente pueden contribuir a una latencia elevada.
A veces, la latencia se debe a factores del lado del usuario, como un ancho de banda insuficiente, malas conexiones a Internet o equipamiento obsoleto.
Para reducir la latencia en su red, puede empezar por evaluar lo siguiente:
- ¿Viajan nuestros datos por la ruta más corta y eficiente?
- ¿Disponen nuestras aplicaciones de los recursos necesarios para tener un rendimiento óptimo?
- ¿Nuestra infraestructura de red está actualizada y es adecuada para el trabajo?
Empecemos con la cuestión de la distancia. ¿Dónde se encuentran sus usuarios? ¿Y dónde están los servidores que responden a sus solicitudes? Al distribuir sus servidores y bases de datos geográficamente más cerca de sus usuarios, puede reducir la distancia física que deben recorrer los datos, así como un enrutamiento ineficiente y los saltos de red.
Una forma de distribuir datos globalmente es a través de una Content Delivery Network o CDN (red de distribución de contenidos). El uso de una red de servidores distribuidos permite almacenar contenidos más cerca de los usuarios finales, reduciendo así la distancia que deben recorrer los paquetes de datos. Pero, ¿y si quiere ir más allá de difundir contenidos en caché?
La computación edge es una estrategia útil, que habilita a las organizaciones para que amplíen su entorno de la nube desde el centro de datos principal hasta ubicaciones físicas más cercanas a sus usuarios y datos. Mediante la computación edge, las organizaciones pueden ejecutar aplicaciones más cerca de los usuarios finales y reducir la latencia.
Básicamente, una subred es una red más pequeña dentro de su red. Las subredes agrupan end points que se comunican frecuentemente entre sí, lo que puede reducir tanto el enrutamiento ineficiente como la latencia.
Las herramientas de supervisión tradicionales no son lo suficientemente rápidas ni exhaustivas para detectar y contextualizar de forma proactiva los problemas de rendimiento en los complejos entornos actuales. Para anticiparse a los problemas, puede utilizar una solución como la plataforma Instana Observability, que proporciona observabilidad y asignación de dependencias de extremo a extremo en tiempo real. Estas capacidades permiten que los equipos localicen, contextualicen, aborden y prevengan los problemas de rendimiento de las aplicaciones que contribuyen a la latencia de la red.
Si las cargas de trabajo no disponen de los recursos informáticos, de almacenamiento y de red adecuados, la latencia aumenta y el rendimiento se ve afectado. Tratar de resolver este problema mediante el sobreaprovisionamiento es ineficaz y un desperdicio, e intentar ajustar manualmente la demanda dinámica a los recursos en infraestructuras modernas complejas es una tarea imposible.
Una solución de ARM como la plataforma IBM Turbonomic, que analiza continuamente la utilización de recursos y el rendimiento de los componentes de las aplicaciones e infraestructura en tiempo real, puede ayudar a resolver problemas de recursos y reducir la latencia.
Por ejemplo, si la plataforma detecta una aplicación con latencia elevada debido a la contención de recursos en un servidor, puede reducir la latencia al asignar automáticamente los recursos necesarios para la aplicación o moverla a un servidor menos congestionado.
Pruebas como el comando ping pueden proporcionar una medición sencilla de la latencia de la red, pero no son suficientes para precisar problemas, y mucho menos para abordarlos. Puede utilizar una solución de gestión del rendimiento de la red como IBM SevOne NPM que proporciona una plataforma unificada para ayudar a sus equipos a detectar, abordar y prevenir los problemas de rendimiento de la red y reducir la latencia.
Asegúrese de utilizar hardware, software y configuraciones de red actualizados, así como de que su infraestructura puede manejar lo que le está pidiendo. Realizar comprobaciones y tareas de mantenimiento periódicas en su red también le ayudará a reducir los problemas de rendimiento y latencia.
Los desarrolladores pueden tomar medidas para asegurarse de que la construcción de la página no aumente la latencia, como optimizar los videos, las imágenes y otros activos de la página para que se carguen más rápido, y mediante la minificación de código.
La plataforma IBM Instana Observability proporciona una supervisión mejorada del rendimiento de las aplicaciones con visibilidad de la pila completa automatizada, granularidad de 1 segundo y 3 segundos para notificar.
La plataforma de optimización de costos de la nube híbrida IBM Turbonomic le permite automatizar continuamente las acciones críticas en tiempo real que brindan de manera proactiva el uso más eficiente de los recursos de computación, almacenamiento y red a sus aplicaciones en cada capa de la pila.
Diseñado para redes modernas, IBM SevOne Network Performance Management (NPM) le ayuda a detectar, abordar y prevenir problemas de rendimiento de la red de manera proactiva con la observabilidad de la red híbrida.
Benefíciese de las modernas capacidades NPM que son dinámicas, flexibles y escalables.
Descubra las capacidades avanzadas para impulsar la visibilidad, los insights y la acción de la red y las aplicaciones.
Conozca cinco pasos que ayudarán a los operadores e ingenieros de redes a medir rápidamente sus capacidades de gestión del rendimiento de la red frente a lo que realmente se necesita en los entornos de TI modernos.
Descubra cómo el proveedor de información crediticia líder en los países nórdicos utilizó Instana Observability para permitir la rápida identificación de errores, reducir la latencia existente y proporcionar visibilidad en tiempo real de cada solicitud de servicio (sin muestreo).
Descubra cómo el equipo de DevOps de Dealerware utilizó Instana Observability para reducir la latencia de entrega en un 98 % durante un periodo de crecimiento exponencial.
1“Internet at the Speed of Light”, (enlace externo a ibm.com), Yale.edu, 3 de mayo de 2022
2“Effect of the network on performance”, IBM.com, 3 de marzo de 2021