BANDA ULTRALARGA

Fibra ottica, con i digital twin si accelera progettazione ed execution

Le reti si fanno sempre più complesse e sempre più funzionalità si spostano sul backbone. Creando un gemello digitale dell’infrastruttura, che incorpori tutti i componenti, e integrando man mano le informazioni sulle criticità che emergono in fase di cantiere è possibile aggiustare il tiro in real time abbattendo costi e tempistiche. Le “istruzioni” in un whitepaper dell’Ftth Council Europe visionato da CorCom

Pubblicato il 07 Set 2023

banda-ultralarga-cantiere-fibra

Le telco possono aumentare la loro capacità di attivazione delle linee in fibra ottica in modo significativo e sostenibile grazie ai dati, ai digital twin e all’intelligenza artificiale. Lo afferma il whitepaper “The role of It in accelerating Ftth deployments and operations” redatto dall’Ftth Council Europe (D&O Committee) e visionato da CorCom.

Le reti diventano più complesse, vengono aggiunti enormi quantità di dispositivi connessi e sempre più funzionalità si spostano sul backbone in fibra ottica, si legge nel report. Di conseguenza, analytics e automazione stanno diventando sempre più importanti. La pianificazione integrata delle reti e l’integrazione tra strumenti di rete e gestionali avanzati come Erp (Enterprise resource planning), Crm o Business information, possibilmente con il supporto dell’intelligenza artificiale (Ai), sono essenziali.

In questa gestione avanzata, inventario delle reti fisiche, Lidar, Oss/Bss (Operation support systems/ Business support systems), realtà aumentata e virtuale (Ar/Vr) e Ai hanno tutti un ruolo da svolgere. In particolare, creando un gemello digitale completo della rete, incorporando tutti i componenti e integrando continuamente dati riguardanti cambiamenti e sviluppi del “mondo reale”, viene prodotto un modello che può essere utilizzato per inserire variabili e ottenere risultati su cui basare azioni concrete.

Non solo le telco aumentano al capacità di attivare nuove connessioni in banda ultra-larga, ma riducono il tasso di errore e migliorano la user experience, ottenendo una riduzione dei costi e una crescita della loyalty.

BETA 80 S.P.A._wp_landscape monitoring

Come funziona il digital twin delle reti

Nel digital twin è possibile ottenere rapidamente viste molto dettagliate sulle aree che causano problemi, spesso prima che un qualsiasi cliente se ne accorga. Un operatore di linea fissa di primo livello ha descritto come l’introduzione di un simile Troubleshooting proattivo come parte di un programma di trasformazione del Noc abbia ridotto il tempo da 60 a 0 minuti per risolvere i problemi in modo proattivo e ridotto il numero di clic necessari da 65 a 2 per valutare le informazioni.

Il modello descritto dall’Ftth Council per il gemello digitale include una serie di elementi indispensabili. Tra questi, il Time series analysis and forecasting traccia i modelli nel tempo e li utilizza per prevedere comportamenti futuri in aree come i requisiti di capacità e gli impatti meteorologici.

Gli algoritmi di clustering categorizzano migliaia di Kpi in gruppi o cluster e determinano a quale nodo appartiene ciascun cluster in base al comportamento del Kpi. Si possono così fare supposizioni sul comportamento di tutti i nodi basandosi sul comportamento di uno. Questo è utile quando si analizza o si tracciano previsioni sul comportamento di migliaia di nodi.

La correlazione può misurare come gli oggetti sono correlati e rivelare relazioni significative tra (gruppi di) metriche. Le informazioni sulle connessioni possono fornire nuove conoscenze e rivelare interdipendenze, anche se le metriche provengono da diverse parti dell’azienda.

L’analisi dei modelli, come l’osservazione dei problemi fissi dei consumatori e l’individuazione di modelli nei log degli errori di sessione che evidenziano aree di user experience insoddisfacente, rende possibile normalizzare i tassi di errore e calcolare un “tasso di errore atteso” per tutti gli scambi di linee fisse.

La rilevazione delle anomalie (analisi degli outlier) identifica data point, eventi e/o osservazioni che si discostano dal comportamento normale di un set di dati. I dati anomali possono indicare incidenti critici (come problemi tecnici) o opportunità potenziali (come cambiamenti nel comportamento dei consumatori). L’anomaly detection consente di individuare pattern insoliti, spesso prevenendo un più ampio malfunzionamento.

L’analisi del “what-if” può essere utilizzata per determinare come le prestazioni previste sono influenzate da cambiamenti nelle ipotesi su cui si basano le proiezioni. Viene usata per modellare e confrontare diversi scenari e risultati potenziali basati su condizioni fluttuanti.

Case study: buona la prima solo nel 70% dei casi

Il punto cruciale è che, nell’implementazione delle reti in fibra ottica, tradizionalmente le telco ragionano in termini di case che sono teoricamente raggiunte. Nella case study esaminata dall’Ftth Council, però, il roll-out dell’Fttx ha avuto un tasso di successo del 70%: il restante 30% si riferisce alle abitazioni che non riescono a connettersi al primo tentativo, per problemi fisici o  logistici.

Idealmente, per avere l’obiettivo del 100% delle abitazioni collegate con una connessione verificata fin dal primo tentativo, viene inviato sul posto un tecnico per effettuare i collegamenti e avere la certezza che le connessioni siano corrette. Tuttavia, nel mondo reale, ci sono molte ragioni per cui una connessione potrebbe non essere stabilita: la fibra potrebbe essere rotta o troppo corta, potrebbero esserci problemi con le condutture, le risorse potrebbero non essere pronte, i collegamenti delle porte potrebbero essere invertiti, l’etichettatura potrebbe essere errata, problemi di interferenza sulle linee, eccetera.

Il supporto dell’It e dell’automazione migliorano nettamente il tasso di successo. Per esempio, il test automatizzato può rendere possibile la certificazione dei collegamenti e la risoluzione dei problemi a distanza. Inoltre, dando ai tecnici la capacità di interrogare il Gis è possibile individuare porte in fibra alternative ogni volta che ci sono problemi di capacità. Intanto, l’inventario e il piano di rete vengono aggiornati contemporaneamente.

Non solo è possibile trovare i collegamenti più facilmente, ma diventa anche possibile individuare (potenziali) abbonati e adattare di conseguenza la pianificazione della capacità.

L’It risponde alle sfide delle telco

Per soddisfare la domanda degli utenti, raggiungere gli obiettivi digitali dell’Unione europea e attuare i piani industriali delle telco, oggi l’obiettivo su cui l’industria si deve concentrare è l’ottimizzazione efficace del numero di connessioni realmente attivate, afferma il report.

Abbiamo bisogno di reti che funzionino senza problemi, offrano più connessioni più veloci e opzioni di configurazione flessibili. Inoltre, dobbiamo fornire a tutte le parti interessate aggiornamenti, garanzie e informazioni relative alla pianificazione e ai budget. Quindi, come possiamo realizzare reti più complesse più rapidamente, eliminando gli errori umani, senza introdurre enormi costi aggiuntivi e inefficienze?”, si legge nel whitepaper. La risposta è nell’It e, in particolare, nell’automazione della progettazione, nei test remoti, nei digital twin per le simulazioni e le analisi predittive. Queste soluzioni aiutano a superare sfide specifiche durante le fasi di pianificazione, progettazione, costruzione e operatività dell’implementazione di una rete, aumentando il numero di abitazioni collegate fin del +30%.

Le telco che hanno intrapreso l’implementazione di una strategia It completa che copre l’intero ciclo di vita di pianificazione, progettazione, costruzione e operatività hanno ottenuto chiari benefici, dimostrando che investire in It crea un ambiente molto più efficiente, conclude lo studio.

Valuta la qualità di questo articolo

La tua opinione è importante per noi!

Articoli correlati