Home topics Latenza Cos'è la latenza?
Esplora la soluzione di IBM per la latenza Iscriviti agli aggiornamenti sugli argomenti dell'AI
Illustrazione con collage di pittogrammi di ingranaggi, braccio robotico, telefono cellulare

Data di pubblicazione: 15 agosto 2023
Collaboratore: Michael Goodwin

Cos'è la latenza?

La latenza è la misurazione del ritardo in un sistema. La latenza di rete è la quantità di tempo necessaria affinché i dati si spostino da un punto all'altro attraverso una rete. Una rete ad alta latenza avrà tempi di risposta più lenti, mentre una rete a bassa latenza avrà tempi di risposta più rapidi.

Sebbene in linea di principio i dati dovrebbero attraversare la rete Internet quasi alla velocità della luce, in pratica i pacchetti di dati si spostano su Internet a una velocità leggermente inferiore a causa dei ritardi dovuti alla distanza, all'infrastruttura Internet e ad altre variabili.1 La somma di questi ritardi costituisce la latenza di una rete.

Intelligenza artificiale più smart per le operazioni IT (AIOps)

Scopri come sia APM, che ARM possono consentire applicazioni per decisioni e risorse più rapide.

Contenuti correlati

Leggi una guida all'automazione intelligente

Perché la latenza di rete è importante?

Mantenere una rete a bassa latenza è importante perché la latenza influisce direttamente su produttività, collaborazione e prestazioni dell'applicazione, nonché sull'esperienza utente. Più la latenza è alta (e più sono lenti i tempi di risposta), più queste aree ne risentono. La bassa latenza è particolarmente importante in quanto le aziende perseguono la trasformazione digitale e fanno sempre più affidamento su applicazioni e servizi basati su cloud nell'ambito dell'Internet of Things.

Partiamo da un esempio ovvio. Se l'alta latenza della rete causa prestazioni dell'applicazione inadeguate o tempi di caricamento lenti per i tuoi clienti, è probabile che questi cerchino soluzioni alternative. Ora più che mai, sia gli utenti individuali che quelli aziendali si aspettano prestazioni fulminee. Se la tua organizzazione usa applicazioni aziendali che si basano su dati in tempo reale estratti da diverse fonti per fornire raccomandazioni sulle risorse, un'alta latenza può creare inefficienze. Queste inefficienze possono avere un impatto negativo sulle prestazioni e sul valore delle applicazioni.

Tutte le aziende preferiscono una bassa latenza. Tuttavia, in settori e casi d'uso che dipendono dai dati dei sensori o dal calcolo ad alte prestazioni, come la produzione automatizzata, le operazioni da remoto con abilitazione per video (come le telecamere utilizzate in ambito chirurgico), lo streaming live o il trading ad alta frequenza, la bassa latenza è fondamentale per il successo dell'azienda.

Un'alta latenza può anche causare spese inutili. Supponiamo che il tuo obiettivo sia migliorare le prestazioni dell'applicazione e della rete aumentando o riallocando la spesa per quanto riguarda le risorse di elaborazione, storage e rete. Se non risolvi gli attuali problemi di latenza, potresti trovarti con una bolletta più alta senza alcun miglioramento in termini di prestazioni, produttività o soddisfazione del cliente.

Come si misura la latenza?

La latenza della rete viene misurata in millisecondi calcolando l'intervallo di tempo tra l'inizio di un'operazione di invio da un sistema sorgente e il completamento dell'operazione di ricezione corrispondente da parte del sistema di destinazione.2

Un modo semplice per misurare la latenza è eseguire un comando "ping", ossia uno strumento diagnostico di rete usato per testare la connessione tra due dispositivi o server. Durante questi test di velocità, la latenza viene spesso definita frequenza di ping.

In questo test, un pacchetto di richiesta echo ICMP (Internet Control Message Protocol) viene inviato a un server di destinazione e poi restituito. Un comando ping calcola il tempo necessario al pacchetto per spostarsi dall'origine alla destinazione e viceversa. Questo tempo di spostamento totale viene definito come il tempo di andata e ritorno (RTT), pari a circa il doppio della latenza, in quanto i dati devono viaggiare verso il server e viceversa. Il ping non è considerata una misurazione esatta della latenza né un test ideale per rilevare problemi di latenza della rete direzionale. Questa limitazione è dovuta al fatto che i dati possono viaggiare su percorsi di rete diversi e incontrare scenari diversi in ogni tratta dello spostamento.

 

Latenza, larghezza di banda e throughput

Latenza, larghezza di banda e throughput sono tra loro correlati e talvolta scambiati per sinonimi, ma si riferiscono in realtà a funzioni di rete distinte. Come abbiamo notato, la latenza è la quantità di tempo necessaria affinché un pacchetto di dati si sposti tra due punti attraverso una connessione di rete.

Larghezza di banda

La larghezza di banda è una misura del volume di dati che può passare attraverso una rete in un determinato momento. Viene misurata in unità di dati al secondo, come megabit al secondo (mbps) o gigabit al secondo (gbps). Questa misurazione è solitamente impiegata dai fornitori di servizi quando scegli le opzioni di connessione per casa ed è motivo di grande confusione, in quanto la larghezza di banda non è una misura della velocità ma della capacità. Sebbene un'elevata larghezza di banda possa facilitare un'elevata velocità di Internet, tale funzionalità dipende anche da fattori come la latenza e il throughput.

Velocità effettiva

Il throughput è una misurazione della quantità media di dati che attraversa effettivamente una rete in uno specifico intervallo di tempo, tenendo conto dell'impatto della latenza. Riflette il numero di pacchetti di dati che arrivano con successo e la quantità di pacchetti di dati perduta. Di solito viene misurato in bit al secondo o, anche, in dati al secondo.

Jitter

Un altro fattore che influisce sulle prestazioni della rete è il jitter. Il jitter si riferisce alla variazione della latenza dei flussi di pacchetti attraverso una rete. Una latenza costante è preferibile a un jitter alto, che può contribuire alla perdita di pacchetti, vale a dire pacchetti di dati perduti durante la trasmissione che non arrivano mai a destinazione.

Un modo semplificato ma utile per ricordare la relazione tra latenza, larghezza di banda e throughput è che la larghezza di banda è la quantità di dati che può viaggiare su una rete, il throughput è la misura di quanto viene effettivamente trasferito al secondo e la latenza è il tempo impiegato per questa operazione.

Cosa causa la latenza della rete?

Visualizzare il percorso dei dati dal client al server e viceversa aiuta a conoscere la latenza e i vari fattori che vi contribuiscono. Cause comuni della latenza di rete sono:

La distanza che i dati devono percorrere

In parole povere, maggiore è la distanza tra il client che avvia una richiesta e il server che risponde, maggiore è la latenza. La differenza tra un server a Chicago e un server a New York che risponde a una richiesta di un utente a Los Angeles può essere al massimo di una manciata di millisecondi. Ma in questo contesto è una differenza notevole e quei millisecondi si sommano.

Mezzo di trasmissione e salti di rete

Successivamente, considera il mezzo attraverso il quale viaggiano i tuoi dati. Si tratta di una rete di cavi in fibra ottica (generalmente a bassa latenza), di una rete wireless (generalmente ad alta latenza), oppure di un sistema complesso di reti con più mezzi, come spesso accade?

Il mezzo usato per lo spostamento dei dati influisce sulla latenza. Così come il numero di volte in cui i dati devono passare attraverso dispositivi di rete come i router per spostarsi da un segmento di rete a quello successivo (salti di rete) prima di raggiungere la loro destinazione. Maggiore è il numero di salti, più alta è la latenza.

Dimensioni dei pacchetti di dati e congestione di rete

Sia la dimensione dei pacchetti di dati che il volume complessivo dei dati su una rete influiscono sulla latenza. I pacchetti più grandi richiedono più tempo per essere trasmessi e, se il volume dei dati supera la capacità di elaborazione dell'infrastruttura di rete, è probabile che si verifichino colli di bottiglia e che aumenti la latenza.

Prestazioni hardware

Server, router, hub, switch e altro hardware di rete obsoleti o con risorse insufficienti possono causare tempi di risposta più lenti. Ad esempio, se i server ricevono più dati di quelli che sono in grado di gestire, i pacchetti subiranno ritardi, con conseguente rallentamento del caricamento delle pagine, della velocità di download e delle prestazioni dell'applicazione.

Creazione di pagine web

Asset delle pagine come immagini e video con file di grandi dimensioni, risorse che bloccano il rendering e caratteri non necessari nel codice sorgente possono tutti contribuire ad un'alta latenza.

Fattori lato utente

A volte la latenza è causata da fattori lato utente, come larghezza di banda insufficiente, connessioni Internet scadenti o attrezzatura obsoleta.

Come ridurre la latenza?

Per ridurre la latenza sulla tua rete, potresti iniziare con questa valutazione della rete:

-       I dati si spostano lungo il percorso più breve ed efficiente?

-       Le applicazioni dispongono delle risorse necessarie per ottenere prestazioni ottimali?

-       L'infrastruttura di rete è aggiornata e adatta al lavoro?

Distribuisci i dati a livello globale

Iniziamo con il problema della distanza. Dove si trovano i tuoi utenti? E dove sono i server che rispondono alle loro richieste? Distribuendo i server e i database geograficamente più vicino agli utenti, è possibile ridurre la distanza fisica necessaria per i dati e ridurre il routing inefficiente e i salti di rete.

Un modo per distribuire i dati a livello globale è attraverso una Content Delivery Network o CDN. L'uso di una rete di server distribuiti ti consente di memorizzare i contenuti più vicino ai tuoi utenti finali, riducendo la distanza che i pacchetti di dati devono percorrere. E se volessi offrire di più della semplice fornitura di contenuti memorizzati nella cache?

L'edge computing è una strategia utile che consente all'organizzazione di estendere il proprio ambiente cloud dal data center principale a luoghi fisici più vicini ai propri utenti e dati. Attraverso l'edge computing, le organizzazioni possono eseguire l'applicazione più vicino agli utenti finali e ridurre quindi la latenza.

Sottoreti

Una sottorete è essenzialmente una rete più piccola all'interno della rete. La sottorete raggruppa end point che comunicano frequentemente tra loro, il che può ridurre un routing inefficiente e la latenza.

Usa una soluzione di gestione delle prestazioni dell'applicazione

Gli strumenti di monitoraggio tradizionali non sono sufficientemente rapidi o approfonditi per individuare e contestualizzare in modo proattivo i problemi di prestazioni negli ambienti complessi di oggi. Per non farti trovare impreparato in caso di problemi, puoi usare una soluzione come la piattaforma Instana Observability che offre osservabilità end-to-end in tempo reale e mappatura delle dipendenze. Queste funzionalità consentono ai team di individuare, contestualizzare, risolvere e prevenire problemi di prestazioni delle applicazioni che contribuiscono alla latenza di rete.

Ottimizza l'allocazione delle risorse e il posizionamento dei workload

Se i workload non dispongono delle risorse di elaborazione, storage e rete adeguate, la latenza aumenta e le prestazioni ne risentono. Tentare di risolvere questo problema attraverso un provisioning eccessivo è inefficiente e dispendioso, e cercare di abbinare manualmente la domanda dinamica con le risorse in infrastrutture moderne e complesse è un compito impossibile.

Una soluzione di gestione delle risorse delle applicazioni come la piattaforma IBM® Turbonomic che analizza costantemente l'uso delle risorse e le prestazioni dei componenti delle applicazioni e dell'infrastruttura in tempo reale può aiutare a risolvere i problemi di risorse e ridurre la latenza.

Ad esempio, se la piattaforma rileva un'applicazione con alta latenza dovuta alla contesa di risorse su un server, è in grado di ridurre la latenza allocando automaticamente le risorse necessarie all'applicazione o con uno spostamento su un server meno congestionato.

Monitora le prestazioni della rete

Test come il comando ping possono fornire una semplice misurazione della latenza di rete ma non sono sufficienti per individuare i problemi, tanto meno risolverli. Puoi usare una soluzione di gestione delle prestazioni della rete come IBM® SevOne NPMche offre una piattaforma unificata per aiutare i tuoi team a individuare, risolvere e prevenire problemi di prestazioni di rete e ridurre la latenza.

Mantieni un'infrastruttura efficiente e aggiornata

Assicurati di usare configurazioni aggiornate per hardware, software e rete e che la tua infrastruttura sia in grado di gestire ciò che le stai chiedendo. L'esecuzione di controlli e interventi di manutenzione regolari sulla tua rete servirà anche a ridurre i problemi di prestazioni e la latenza.

Ottimizza asset e codifica delle pagine

Gli sviluppatori possono adottare misure per garantire che la costruzione della pagina non aumenti la latenza, come l'ottimizzazione di video, immagini e altre risorse della pagina per un caricamento più rapido e attraverso la minimizzazione del codice.

Soluzioni correlate
Osservabilità IBM Instana Observability

La piattaforma IBM Instana Observability offre un monitoraggio migliorato delle prestazioni dell'applicazione con visibilità automatizzata full stack, granularità di 1 secondo e 3 secondi per la notifica.

Maggiori informazioni su IBM Instana Observability Richiedi una demo di Instana Observability

Ottimizzazione dei costi del cloud ibrido IBM Turbonomic

La piattaforma di ottimizzazione dei costi hybrid cloud Turbonomic consente di automatizzare continuamente le azioni critiche in tempo reale che offrono proattivamente un uso più efficiente delle risorse di calcolo, di storage e di rete per le app a ogni livello dello stack. 

Scopri di più su Turbonomic Guarda la demo interattiva

Gestione delle prestazioni di rete IBM SevOne Network Performance Management

Progettato per le reti moderne, IBM SevOne Network Performance Management (NPM) ti aiuta a individuare, risolvere e prevenire in modo proattivo i problemi di prestazioni di rete con osservabilità della rete ibrida. 

Maggiori informazioni su SevOne NPM
Risorse Modernizza il monitoraggio delle prestazioni di rete

Sfrutta le moderne funzionalità NPM dinamiche, flessibili e scalabili.

Affronta la crescente complessità del monitoraggio delle prestazioni di rete

Scopri le funzionalità avanzate per la rete e visibilità, insight e azione delle applicazioni.

Cinque passaggi per potenziare la gestione delle prestazioni di rete

Scopri cinque passaggi che aiuteranno rapidamente gli ingegneri e gli operatori di rete a misurare la funzionalità di gestione delle prestazioni di rete rispetto a quanto effettivamente richiesto nei moderni ambienti IT.

Enento Group

Scopri come il principale fornitore di informazioni sul credito nei paesi nordici ha usato Instana Observability per consentire la rapida identificazione dei bug, ridurre la latenza esistente e fornire visibilità in tempo reale su ogni richiesta di servizio (senza campionamento).

Dealerware

Scopri come il team DevOps di Dealerware ha usato Instana Observability per ridurre la latenza di consegna del 98% durante un periodo di crescita esponenziale.

Fai il passo successivo

IBM Instana consente osservabilità in tempo reale che tutti, e chiunque, possono utilizzare. Offre un rapido time to value, verificando al contempo che la strategia di osservabilità possa tenere il passo con la complessità dinamica degli ambienti di oggi e di domani. Dal mobile al mainframe, Instana supporta oltre 250 tecnologie ed è in continua crescita. 

Esplora IBM Instana Prenota una demo live
Note a piè di pagina

1"Internet at the Speed of Light", (link esterno a ibm.com), Yale.edu, 3 maggio 2022

2"Effect of the network on performance," IBM.com, 3 marzo 2021