¿Qué es la latencia?

Programadores informáticos trabajando en una oficina moderna

Autores

Michael Goodwin

Staff Editor, Automation & ITOps

IBM Think

¿Qué es la latencia?

La latencia mide el retraso de un sistema. La latencia de red es el tiempo que tardan los datos en viajar de un punto a otro a través de una red. Una red con una latencia alta tendrá tiempos de respuesta más lentos, mientras que una red con una latencia baja tendrá tiempos de respuesta más rápidos.

En principio, los datos deberían viajar por Internet a una velocidad cercana a la de la luz, pero en la práctica los paquetes de datos se mueven a una velocidad ligeramente inferior debido a los retrasos causados por la distancia, la infraestructura de Internet, el tamaño de los paquetes de datos, la congestión de la red y otras variables.1 La suma de estos retrasos es la latencia de una red.

Las organizaciones pueden reducir la latencia y mejorar la productividad y la experiencia del usuario mediante:

  • El uso de redes de entrega de contenido, edge computing y subredes para distribuir datos y enrutar el tráfico

  • El mantenimiento de una infraestructura capaz y actualizada

  • El uso de soluciones de gestión del rendimiento de las aplicaciones, de asignación de recursos y de ubicación de cargas de trabajo
Vista aérea de autopista

Mantenga su cabeza en la nube

Reciba el boletín semanal Think para obtener orientación de expertos sobre cómo optimizar la configuración multinube en la era de la IA.

¿Por qué es importante la latencia de una red?

Mantener baja la latencia de una red es importante porque afecta directamente a la productividad, la colaboración, el rendimiento de las aplicaciones y la experiencia del usuario. Cuanto mayor es la latencia (y más lentos los tiempos de respuesta), más se resienten estos aspectos. La baja latencia es especialmente crucial a medida que las empresas persiguen la transformación digital y dependen cada vez más de las aplicaciones y servicios basados en la nube dentro del Internet de las cosas.

Comencemos con un ejemplo sencillo. Si la latencia de la red provoca un rendimiento inadecuado de las aplicaciones o tiempos de carga lentos para los clientes de una organización, es probable que estos busquen soluciones alternativas. Ahora más que nunca, tanto los usuarios particulares como las empresas esperan un rendimiento rapidísimo. Si su organización utiliza aplicaciones empresariales que se basan en datos en tiempo real extraídos de distintas fuentes para hacer recomendaciones sobre la dotación de recursos, una latencia alta puede provocar ineficiencias. Estas ineficiencias pueden repercutir negativamente en el rendimiento y el valor de las aplicaciones.

Todas las empresas prefieren una latencia baja. No obstante, existen sectores y casos de uso para los cuales una latencia baja es especialmente fundamental porque dependen de datos de sensores o funcionan con computación de alto rendimiento. Por ejemplo, la fabricación automatizada, las operaciones remotas por vídeo (piense en las cámaras que se usan en las operaciones médicas), el streaming en vivo o el comercio de alta frecuencia.

Una latencia alta puede generar sobrecostes. Supongamos que una organización quiere mejorar el rendimiento de las aplicaciones y la red aumentando o reasignando el gasto en recursos informáticos, de almacenamiento y de red. Si no se resuelven los problemas de latencia existentes, la organización podría acabar pagando una factura más elevada sin que esto suponga una mejora en el rendimiento, la productividad o la satisfacción de los clientes.

NS1 Connect

IBM NS1 Connect

Refuerce la resiliencia de su red con IBM NS1 Connect. En este vídeo, analizamos el valor de IBM NS1 Connect para la resiliencia y el rendimiento de las aplicaciones.

¿Cómo se mide la latencia?

La latencia de una red se mide en milisegundos calculando el intervalo de tiempo entre el inicio de una operación de envío desde un sistema de origen y la finalización de la operación de recepción correspondiente por parte del sistema de destino.2

Una forma sencilla de medir la latencia es ejecutar un comando "ping", que es una herramienta de diagnóstico de red usada para probar la conexión entre dos dispositivos o servidores. Durante estas pruebas de velocidad, muchas veces nos referimos a la latencia simplemente como "ping".

En esta prueba, se envía un paquete de solicitud de eco del Protocolo de Mensajes de Control de Internet (ICMP) a un servidor de destino y luego se manda el paquete de vuelta. El comando ping calcula el tiempo que tarda el paquete en viajar desde el origen al destino y volver. Este tiempo total de viaje se denomina tiempo de ida y vuelta (RTT) y equivale aproximadamente al doble de la latencia, ya que los datos van y vuelven al servidor. El ping no se considera una medida exacta de la latencia ni una prueba ideal para detectar problemas de latencia direccional de la red. Esta limitación se debe a que los datos pueden viajar por distintas rutas de la red y encontrarse con distintos escenarios en cada una de las etapas del viaje.

Latencia, ancho de banda y rendimiento

La latencia, el ancho de banda y el rendimiento están relacionados y a veces se confunden como sinónimos, pero en realidad se refieren a características distintas de la red. Como se ha señalado, la latencia es el tiempo que tarda un paquete de datos en viajar entre dos puntos a través de una conexión de red.

Ancho de banda

El ancho de banda mide el volumen de datos que pueden transmitirse a través de una red en un momento determinado. Se mide en unidades de datos por segundo, como megabits por segundo (mbps) o gigabits por segundo (gbps). El ancho de banda es lo que suele mencionar su proveedor de servicios cuando elige las opciones de conexión para su hogar. Esto genera una gran confusión, ya que el ancho de banda no es una medida de velocidad, sino de capacidad. Aunque un ancho de banda alto puede contribuir a la velocidad de Internet, esta capacidad también depende de factores como la latencia y el rendimiento.

Rendimiento

El rendimiento es la cantidad media de datos que pasan realmente a través de una red en un periodo de tiempo determinado, teniendo en cuenta el impacto de la latencia. Refleja el número de paquetes de datos que llegan correctamente y la cantidad de paquetes de datos perdidos. Por lo general, se mide en bits por segundo o, a veces, en datos por segundo.

Jitter

Otro factor que influye en el rendimiento de la red es el jitter o fluctuación. El jitter, también conocido como fluctuación, es la variación de la latencia de los flujos de paquetes en una red. Es preferible una latencia constante a un jitter elevado, porque el jitter puede provocar pérdida de paquetes, es decir, paquetes de datos que nunca llegan a su destino.

Una forma sencilla, pero útil, de recordar la relación entre latencia, ancho de banda y rendimiento es que el ancho de banda es la cantidad de datos que pueden viajar por una red, el rendimiento es la medida de la cantidad que se transfiere realmente por segundo y la latencia es el tiempo que se tarda en hacerlo.

¿Qué causa la latencia de una red?

Visualizar el trayecto que recorren los datos del cliente al servidor y viceversa sirve para comprender la latencia y los diversos factores que influyen en ella. Entre las causas comunes de la latencia de la red se incluyen:

La distancia que tienen que recorrer los datos

En pocas palabras, cuanto mayor sea la distancia entre el cliente que inicia una solicitud y el servidor que responde, mayor será la latencia. La diferencia entre un servidor de Chicago y otro de Nueva York a la hora de responder a una petición de un usuario de Los Ángeles puede ser sólo de unos pocos milisegundos. Pero en esta industria, cada milisegundo cuenta.

Medio de transmisión y saltos de red

En segundo lugar, hay que tener en cuenta el medio por el cual viajan los datos. ¿Es una red de cables de fibra óptica (generalmente menor latencia) o una red inalámbrica (generalmente mayor latencia), o un complejo entramado de redes con múltiples medios, como suele ser habitual?

El medio utilizado para la transmisión de datos afecta a la latencia. Lo mismo ocurre con la cantidad de veces que los datos pasan por dispositivos de red, como los routers, para desplazarse de un segmento de red al siguiente (saltos de red) antes de llegar a su destino. Cuanto mayor sea el número de saltos, mayor será la latencia.

Tamaño del paquete de datos y congestión de la red

Tanto el tamaño de los paquetes de datos como la cantidad total de datos en una red afectan a la latencia. Los paquetes de mayor tamaño tardan más en transmitirse y, si el volumen de datos supera la capacidad de cálculo de la infraestructura de red, es probable que se produzcan cuellos de botella y un aumento de la latencia.

Rendimiento del hardware

Los servidores, routers, hubs, switches y demás hardware de red anticuados o con recursos insuficientes pueden provocar tiempos de respuesta más lentos. Por ejemplo, si los servidores reciben más datos de los que pueden manejar, los paquetes se retrasarán, lo que ralentizará la carga de páginas, la velocidad de descarga y el rendimiento de las aplicaciones.

Estructura de las páginas web

Los elementos como archivos grandes de imagen y video, recursos que dificultan el renderizado o caracteres innecesarios en el código fuente también suelen aumentar la latencia.

Factores relacionados con los usuarios

A veces el origen de la latencia está en factores relacionados con el usuario, como un ancho de banda insuficiente, malas conexiones a Internet o equipos anticuados.

¿Cómo reducir la latencia?

Para reducir la latencia de la red, una organización podría comenzar con esta evaluación de la red:

-¿Viajan nuestros datos por la ruta más corta y eficiente?

-¿Disponen nuestras aplicaciones de los recursos necesarios para un rendimiento óptimo?

-¿Nuestra infraestructura de red está actualizada y es adecuada para el trabajo?

Comparta datos a nivel mundial

Empecemos con la cuestión de la distancia. ¿Dónde se encuentran los usuarios? ¿Y dónde están los servidores que responden a sus solicitudes? Al distribuir servidores y bases de datos geográficamente más cerca de los usuarios, una organización puede reducir la distancia física que deben recorrer los datos y reducir el enrutamiento ineficiente y los saltos de red.

Una forma de compartir datos a nivel global es con una red de entrega de contenido o CDN. El uso de una red de servidores distribuidos permite a una organización almacenar contenido más cerca de los usuarios finales, lo que reduce la distancia que deben recorrer los paquetes de datos. Pero, ¿qué sucede si una organización quiere hacer algo más que servir contenido almacenado en caché?

El edge computing es una estrategia útil, que permite a las organizaciones ampliar su entorno de nube desde el centro de datos central a ubicaciones físicas más cercanas a sus usuarios y datos. Mediante edge computing, las organizaciones pueden ejecutar aplicaciones más cerca de sus usuarios y así reducir la latencia.

Subredes

Una subred es esencialmente una red más pequeña dentro de una red más grande. Las subredes agrupan puntos finales que se comunican frecuentemente entre sí, lo que evita enrutamientos ineficaces y reduce la latencia.

Use una solución de gestión del rendimiento de las aplicaciones

Las herramientas de monitorización tradicionales no son lo suficientemente rápidas ni detalladas como para detectar y contextualizar de forma proactiva los problemas de rendimiento en los complejos entornos actuales. Para adelantarse a los problemas, las organizaciones pueden utilizar soluciones avanzadas que proporcionan observabilidad de extremo a extremo y mapeo de dependencias en tiempo real. Estas funciones permiten a los equipos localizar, contextualizar, abordar y prevenir los problemas de rendimiento de las aplicaciones que afectan a la latencia de la red.

Optimize la asignación de recursos y la distribución de la carga de trabajo

Si las cargas de trabajo no disponen de los recursos informáticos, de almacenamiento y de red adecuados, la latencia aumenta y el rendimiento se resiente. Intentar resolver este problema mediante el sobreaprovisionamiento es ineficaz y un despilfarro, e intentar ajustar manualmente la demanda a los recursos en las complejas infraestructuras modernas es una tarea imposible.

Una solución de gestión de recursos de aplicaciones (ARM) que analiza continuamente el uso de los recursos y el rendimiento de las aplicaciones y los componentes de la infraestructura en tiempo real puede ayudar a resolver los problemas de recursos y reducir la latencia.

Por ejemplo, si una plataforma ARM detecta una aplicación con alta latencia debido a la contienda de recursos en un servidor, puede asignarle automáticamente los recursos necesarios o trasladarla a un servidor menos congestionado. Estas acciones automatizadas ayudan a reducir la latencia y a mejorar el rendimiento.

Monitorice el rendimiento de la red

Las pruebas como el comando ping ofrecen una medición sencilla de la latencia de la red, pero son insuficientes para detectar problemas, y más aún para resolverlos. Las organizaciones pueden utilizar una solución de gestión del rendimiento (o performance management solution) de la red que proporcione una plataforma unificada para ayudar a los equipos a detectar, abordar y prevenir problemas de rendimiento y a reducir la latencia.

Mantenga su infraestructura actualizada

Los equipos de TI pueden asegurarse de que están utilizando hardware, software y configuraciones de red actualizados y de que la infraestructura de la organización puede manejar las demandas actuales. Realizar comprobaciones y mantenimiento regulares de la red también puede ayudar a reducir los problemas de rendimiento y la latencia.

Optimice los activos y la codificación de las páginas

Los desarrolladores pueden tomar medidas para asegurarse de que la construcción de la página no aumente la latencia, como optimizar los vídeos, las imágenes y otros activos de la página para que se carguen más rápido y minificar el código.

Soluciones relacionadas
IBM Cloud Pak for Network Automation 

IBM Cloud Pak for Network Automation es un Cloud Pak que permite automatizar y orquestar las operaciones de infraestructura de redes.

Explore Cloud Pak Automation
Soluciones de red

Las soluciones de redes en la nube de IBM proporcionan conectividad de alto rendimiento para potenciar sus aplicaciones y su negocio.

Explore las soluciones de red en la nube
Servicios de soporte de redes

Consolide el soporte de los centros de datos con IBM Technology Lifecycle Services para redes en la nube y más.

Servicios de redes en la nube
Dé el siguiente paso

Potencie su negocio con soluciones punteras de gestión de DNS y redes en la nube. Mejore la fiabilidad de sus aplicaciones y optimice el rendimiento de la red con los servicios líderes de IBM.

Explore las soluciones de red en la nube Descubra los servicios DNS gestionados
Notas a pie de página

1Internet at the Speed of Light”. Yale.edu. 3 de mayo de 2022.

2Effect of the network on performance”. IBM.com. 3 de marzo de 2021.