Inicio topics Latencia ¿Qué es la latencia?
Explore la solución de IBM para la latencia Suscríbase a las actualizaciones sobre la IA
Ilustración con collage de pictogramas de engranaje, brazo robótico, teléfono móvil

Publicado: 15 de agosto de 2023
Colaborador: Michael Goodwin

¿Qué es la latencia?

Latencia es una medida de los retardos en un sistema. La latencia de las redes es el tiempo que tardan los datos en recorrer de un punto a otro en una red. Una red con latencia elevada tendrá tiempos de respuesta más lentos, mientras que una red con baja latencia tendrá tiempos de respuesta más rápidos.

Aunque en principio los datos deberían atravesar la Internet casi a la velocidad de la luz, en la práctica los paquetes de datos se mueven por la red a una velocidad ligeramente inferior debido a los retrasos causados por la distancia, la infraestructura de Internet y otras variables.1 La suma de estos retardos constituye la latencia de una red.

Inteligencia artificial más inteligente para operaciones de TI (AIOps)

Descubra la manera en que tanto el monitoreo del rendimiento de las aplicaciones (APM, siglas en inglés de application performance monitoring) como la gestión de los recursos de las aplicaciones (ARM, sigla en inglés de application resource management) pueden serle útiles para acelerar la toma de decisiones y la aplicación de los recursos.

Contenido relacionado

Lea una guía de la automatización inteligente

¿Por qué es importante la latencia de las redes?

Es importante mantener una red con baja latencia porque la latencia afecta directamente la productividad, la colaboración, el rendimiento de las aplicaciones y la experiencia del usuario. Cuanto más elevada es la latencia (y cuanto más lentos sean los tiempos de respuesta) más padecen estas áreas. La baja latencia es especialmente crucial a medida que las empresas persiguen la transformación digital y dependen cada vez más de las aplicaciones y los servicios basados en la nube dentro del Internet de las cosas.

Comencemos con un ejemplo obvio. Si la latencia elevada de la red provoca un rendimiento inadecuado de las aplicaciones o tiempos de carga lentos para sus clientes, es probable que estos busquen soluciones alternativas. Ahora más que nunca, tanto los usuarios individuales como los empresariales esperan un rendimiento ultrarrápido. Si su organización utiliza aplicaciones empresariales que se basan en datos en tiempo real extraídos de diferentes fuentes para hacer recomendaciones de recursos, la latencia elevada puede crear ineficiencias, que a su vez, repercuten de manera negativa en el rendimiento y el valor de las aplicaciones.

Todas las empresas prefieren una baja latencia. Sin embargo, en industrias y casos de uso que dependen de los datos de sensores o de la informática de alto rendimiento, como la fabricación automatizada, las operaciones remotas con video (piense en las cámaras utilizadas en cirugías), la transmisión en directo o el comercio de alta frecuencia, la baja latencia es esencial para el éxito de la empresa.

Una latencia elevada también puede causar gastos inútiles. Digamos que su objetivo es mejorar el rendimiento de las aplicaciones y de la red al aumentar o reasignar su gasto en recursos informáticos, de almacenamiento y de red. Si no aborda los problemas de latencia existentes, es posible que termine pagando una factura mayor sin mejorar el rendimiento, la productividad ni la satisfacción del cliente.

¿Cómo se mide la latencia?

La latencia de la red se mide en milisegundos, calculando el intervalo de tiempo entre el inicio de una operación de envío desde un sistema de origen y la finalización de la operación de recepción correspondiente por parte del sistema de destino.2

Una forma sencilla de medir la latencia es ejecutar un comando “ping”, que es una herramienta de diagnóstico de red utilizada para probar la conexión entre dos dispositivos o servidores. Durante estas pruebas de velocidad, la latencia suele denominarse tasa de ping.

En esta prueba, se envía un paquete de solicitud de eco del Protocolo de mensajes de control de Internet (ICMP, sigla en inglés de Internet Control Message Protocol) a un servidor de destino y se devuelve. Un comando ping calcula el tiempo que tarda en llegar el paquete del origen al destino y viceversa. Este tiempo total del recorrido se denomina tiempo de ida y vuelta (RTT, sigla en inglés de round-trip time) y equivale aproximadamente al doble de la latencia, ya que los datos deben viajar al servidor y volver. El ping no se considera una medida exacta de la latencia ni una prueba ideal para detectar problemas de latencia de la red. Esta limitación se debe a que los datos pueden viajar a través de diferentes rutas de la red y encontrar diferentes escenarios en cada tramo del recorrido.

 

Latencia, ancho de banda y throughput

La latencia, el ancho de banda y el throughput (tasa de transferencia efectiva) están relacionados, y a veces se confunden como sinónimos, pero en realidad se refieren a características distintas de la red. Como mencionamos anteriormente, la latencia es el tiempo que tarda un paquete de datos en llegar de un punto a otro en una conexión de red.

Ancho de banda

El ancho de banda es una medida del volumen de datos que pueden pasar por una red en un momento dado. Se mide en unidades de datos por segundo, como megabits por segundo (mbps) o gigabits por segundo (gbps). Esta medida es lo que está acostumbrado a escuchar de su proveedor de servicios a la hora de elegir las opciones de conexión para su hogar. Esto es una fuente de gran confusión, ya que el ancho de banda no es una medida de velocidad sino de capacidad. Si bien un ancho de banda elevado puede facilitar una alta velocidad de Internet, esa capacidad depende también de factores como la latencia y el throughput.

Rendimiento

El throughput mide la cantidad promedio de datos querealmente pasa a través de una red en un período específico, teniendo en cuenta el impacto de la latencia. Refleja la cantidad de paquetes de datos que llegan correctamente y la cantidad de pérdida de paquetes de datos. Normalmente se mide en bits por segundo o, a veces, en datos por segundo.

Fluctuación

Otro factor que influye en el rendimiento de la red es la fluctuación. Fluctuación se refiere a la variación en la latencia de flujos de paquetes a través de una red. Es preferible una latencia constante que una fluctuación elevada, que puede contribuir a la pérdida de paquetes (paquetes de datos que se pierden durante la transmisión y nunca llegan a su destino).

Una forma simplificada pero útil de recordar la relación entre latencia, ancho de banda y throughput es que el ancho de banda es la cantidad de datos que pueden  viajar por una red, el throughput es la medida de la cantidad que realmente se transfiere por segundo y la latencia es el tiempo que se tarda en hacerlo.

¿Qué causa la latencia?

Visualizar el trayecto que recorren los datos del cliente al servidor y de regreso ayuda a comprender la latencia y los diversos factores que contribuyen a ella. Las causas más comunes de latencia en la red son:

La distancia que deben recorrer los datos

En pocas palabras, cuanto mayor sea la distancia entre el cliente que inicia una petición y el servidor que responde, mayor será la latencia. La diferencia entre un servidor en Chicago y un servidor en Nueva York que responden a una solicitud de usuario en Los Ángeles puede ser solo de unos cuantos milisegundos. Pero en este juego, eso es demasiado, además de que esos milisegundos se acumulan.

El medio de transmisión y los saltos de la red

A continuación, considere el medio a través del cual viajarán sus datos. ¿Se trata de una red de cables de fibra óptica (generalmente de latencia más baja) o de una red inalámbrica (generalmente de latencia elevada), o de un complejo entramado de redes con múltiples medios, como suele ser el caso?

El medio por el que se desplazan los datos afecta la latencia, al igual que la cantidad de veces que los datos deben pasar por dispositivos de red como los enrutadores para trasladarse de un segmento de red al siguiente (saltos de red) antes de llegar a su destino. Cuanto mayor sea el número de saltos, mayor será la latencia.

Tamaño de los paquetes de datos y congestión de la red

Tanto el tamaño de los paquetes de datos como el volumen total de datos en una red afectan la latencia. Los paquetes más grandes tardan más en transmitirse, y si el volumen de datos supera la capacidad de cálculo de la infraestructura de red, es probable que se produzcan cuellos de botella y aumente la latencia.

Rendimiento del hardware

Los servidores, enrutadores, concentradores, conmutadores y otro hardware de red obsoletos o con recursos insuficientes pueden causar tiempos de respuesta más lentos. Por ejemplo, si los servidores reciben más datos de los que pueden manejar, los paquetes se retrasarán, lo que ralentizará la carga de las páginas, la velocidad de descarga y el rendimiento de las aplicaciones.

Construcción de páginas web

Los activos de las páginas, tales como imágenes y videos con archivos de gran tamaño, recursos que bloquean el renderizado y caracteres innecesarios en código fuente pueden contribuir a una latencia elevada.

Factores del lado del usuario

A veces, la latencia se debe a factores del lado del usuario, como un ancho de banda insuficiente, malas conexiones a Internet o equipamiento obsoleto.

¿Cómo se puede reducir la latencia?

Para reducir la latencia en su red, puede empezar por evaluar lo siguiente:

-       ¿Viajan nuestros datos por la ruta más corta y eficiente?

-       ¿Disponen nuestras aplicaciones de los recursos necesarios para tener un rendimiento óptimo?

-       ¿Nuestra infraestructura de red está actualizada y es adecuada para el trabajo?

Distribuya los datos a nivel mundial

Empecemos con la cuestión de la distancia. ¿Dónde se encuentran sus usuarios? ¿Y dónde están los servidores que responden a sus solicitudes? Al distribuir sus servidores y bases de datos geográficamente más cerca de sus usuarios, puede reducir la distancia física que deben recorrer los datos, así como un enrutamiento ineficiente y los saltos de red.

Una forma de distribuir datos globalmente es a través de una Content Delivery Network o CDN (red de distribución de contenidos). El uso de una red de servidores distribuidos permite almacenar contenidos más cerca de los usuarios finales, reduciendo así la distancia que deben recorrer los paquetes de datos. Pero, ¿y si quiere ir más allá de difundir contenidos en caché?

La computación edge es una estrategia útil, que habilita a las organizaciones para que amplíen su entorno de la nube desde el centro de datos principal hasta ubicaciones físicas más cercanas a sus usuarios y datos. Mediante la computación edge, las organizaciones pueden ejecutar aplicaciones más cerca de los usuarios finales y reducir la latencia.

Creación de subredes

Básicamente, una subred es una red más pequeña dentro de su red. Las subredes agrupan end points que se comunican frecuentemente entre sí, lo que puede reducir tanto el enrutamiento ineficiente como la latencia.

Utilice una solución de gestión del rendimiento de aplicaciones

Las herramientas de supervisión tradicionales no son lo suficientemente rápidas ni exhaustivas para detectar y contextualizar de forma proactiva los problemas de rendimiento en los complejos entornos actuales. Para anticiparse a los problemas, puede utilizar una solución como la plataforma Instana Observability, que proporciona observabilidad y asignación de dependencias de extremo a extremo en tiempo real. Estas capacidades permiten que los equipos localicen, contextualicen, aborden y prevengan los problemas de rendimiento de las aplicaciones que contribuyen a la latencia de la red.

Optimice la asignación de recursos y la colocación de la carga de trabajo

Si las cargas de trabajo no disponen de los recursos informáticos, de almacenamiento y de red adecuados, la latencia aumenta y el rendimiento se ve afectado. Tratar de resolver este problema mediante el sobreaprovisionamiento es ineficaz y un desperdicio, e intentar ajustar manualmente la demanda dinámica a los recursos en infraestructuras modernas complejas es una tarea imposible.

Una solución de ARM como la plataforma IBM Turbonomic, que analiza continuamente la utilización de recursos y el rendimiento de los componentes de las aplicaciones e infraestructura en tiempo real, puede ayudar a resolver problemas de recursos y reducir la latencia.

Por ejemplo, si la plataforma detecta una aplicación con latencia elevada debido a la contención de recursos en un servidor, puede reducir la latencia al asignar automáticamente los recursos necesarios para la aplicación o moverla a un servidor menos congestionado.

Monitoree el rendimiento de la red

Pruebas como el comando ping pueden proporcionar una medición sencilla de la latencia de la red, pero no son suficientes para precisar problemas, y mucho menos para abordarlos. Puede utilizar una solución de gestión del rendimiento de la red como IBM SevOne NPM que proporciona una plataforma unificada para ayudar a sus equipos a detectar, abordar y prevenir los problemas de rendimiento de la red y reducir la latencia.

Mantenga una infraestructura capaz y actualizada

Asegúrese de utilizar hardware, software y configuraciones de red actualizados, así como de que su infraestructura puede manejar lo que le está pidiendo. Realizar comprobaciones y tareas de mantenimiento periódicas en su red también le ayudará a reducir los problemas de rendimiento y latencia.

Optimice los activos y la programación de la página

Los desarrolladores pueden tomar medidas para asegurarse de que la construcción de la página no aumente la latencia, como optimizar los videos, las imágenes y otros activos de la página para que se carguen más rápido, y mediante la minificación de código.

Soluciones relacionadas
Observabilidad IBM Instana Observability

La plataforma IBM Instana Observability proporciona una supervisión mejorada del rendimiento de las aplicaciones con visibilidad de la pila completa automatizada, granularidad de 1 segundo y 3 segundos para notificar.

Aprenda más sobre Instana Observability Solicite una demostración de observabilidad de Instana

Optimización de costos de nube híbrida IBM Turbonomic

La plataforma de optimización de costos de la nube híbrida IBM Turbonomic le permite automatizar continuamente las acciones críticas en tiempo real que brindan de manera proactiva el uso más eficiente de los recursos de computación, almacenamiento y red a sus aplicaciones en cada capa de la pila. 

Más información sobre Turbonomic Explorar la demostración interactiva

Gestión del rendimiento de la red IBM® SevOne® Network Performance Management

Diseñado para redes modernas, IBM SevOne Network Performance Management (NPM) le ayuda a detectar, abordar y prevenir problemas de rendimiento de la red de manera proactiva con la observabilidad de la red híbrida.

Aprenda más sobre SevOne NPM
Recursos Modernice el monitoreo del performance de su red

Benefíciese de las modernas capacidades NPM que son dinámicas, flexibles y escalables.

Aborde la creciente complejidad de la supervisión del rendimiento de la red

Descubra las capacidades avanzadas para impulsar la visibilidad, los insights y la acción de la red y las aplicaciones.

Cinco pasos para impulsar la gestión del rendimiento de su red

Conozca cinco pasos que ayudarán a los operadores e ingenieros de redes a medir rápidamente sus capacidades de gestión del rendimiento de la red frente a lo que realmente se necesita en los entornos de TI modernos.

Enento Group

Descubra cómo el proveedor de información crediticia líder en los países nórdicos utilizó Instana Observability para permitir la rápida identificación de errores, reducir la latencia existente y proporcionar visibilidad en tiempo real de cada solicitud de servicio (sin muestreo).

Dealerware

Descubra cómo el equipo de DevOps de Dealerware utilizó Instana Observability para reducir la latencia de entrega en un 98 % durante un periodo de crecimiento exponencial.

Dé el siguiente paso

IBM Instana proporciona observabilidad en tiempo real que todos y cualquiera pueden usar. Ofrece una rápida obtención de valor y al mismo tiempo verifica que su estrategia de observabilidad pueda mantenerse al día con la complejidad dinámica de los entornos actuales y futuros. Desde dispositivos móviles hasta mainframe, Instana es compatible con más de 250 tecnologías y sigue creciendo. 

Explore IBM Instana Reserve una demostración en vivo
Notas de pie de página

1Internet at the Speed of Light”, (enlace externo a ibm.com), Yale.edu, 3 de mayo de 2022

2Effect of the network on performance”, IBM.com, 3 de marzo de 2021