REPORT TELCO PER L'ITALIA

Vatalaro: “Le reti in rame obsolete? Niente affatto. Assisteremo a un vero e proprio copper revamping”

Le grandi infrastrutture di rame a copertura nazionale vivranno una fase di riscoperta, sia perché le tecnologie si dimostrano sempre più potenti e promettenti, sia perché ben presto ci si renderà pienamente conto che l’uso della fibra ottica “deep into the network” si potrà giustificare volta per volta nelle condizioni in cui essa sia davvero la soluzione necessaria

Pubblicato il 19 Gen 2018

Francesco Vatalaro

professore ordinario di Telecomunicazioni, Università di Roma Tor Vergata

vatalaro-151124165159

A seguire l’analisi di Francesco Vatalaro, professore ordinario di Telecomunicazioni Università di Roma Tor Vergata, su  “Telco4Italy Report 2017”, l’iniziativa editoriale CorCom-Digital360 che fa il punto sullo stato delle Tlc in Italia. L’annuario – pubblicato a dicembre 2017 e distribuito in occasione degli Stati Generali delle Telecomunicazioni – raccoglie in sintesi i più importanti avvenimenti dell’anno e soprattutto dà la parola alla community del settore e ai suoi protagonisti. La pubblicazione rappresenta inoltre una sorta di staffetta ideale con Telco4Italy, il più importante evento italiano dedicato al mondo delle Tlc che come da tradizione si tiene a Roma prima dell’estate e che quest’anno è in calendario per metà giugno.

Nel dibattito italiano sull’innovazione delle reti di telecomunicazioni alcuni temi che ritengo siano centrali sono purtroppo quasi completamente assenti o trascurati. Si tratta delle prospettive tecnologiche a breve-medio termine (2020-2022) sullo sviluppo delle tecnologie del trasporto IP, per dotare il paese di infrastrutture moderne che siano in grado di utilizzare in modo efficiente le reti di accesso (rame, wireless, fibra, satellite) sulle quali, viceversa, trovo che la discussione sia spesso anche fin troppo accesa. Cerchiamo di mettere in ordine alcuni dei “paradigm shift” che ci possiamo attendere sulla base di segnali già ben visibili.

Rallentamento della legge di Moore

Un primo fenomeno da non trascurare si è già manifestato a partire da metà degli anni 2000 e negli anni 2020 farà sentire i suoi effetti pratici. La legge di Moore rallenta; o per meglio dire, si è fermata una componente tecnologica su cui essa si basa e che va sotto il nome di “scalatura di Dennard”. Dopo che Gordon Moore aveva introdotto la sua famosa “Legge” che per decenni ha fatto da metronomo per l’industria dei chipmaker, con il raddoppio della densità dei transistori nei wafer a semiconduttore ogni 18-24 mesi, Robert Dennard e coautori nel 1974 pubblicano un articolo scientifico per spiegare che a mano a mano che i transistori diventano più piccoli la densità di potenza rimane costante, in modo da ridurre il consumo di energia in proporzione all’area: inoltre, affinché tutto si mantenga in equilibrio, sia le tensioni che le correnti scalano in basso con le dimensioni lineari delle piste.

Numero di transistori, frequenza del clock, potenza attiva, velocità computazionale relativa e numero di core fra il 1985 e il 2010 (da rapporto CNR americano): si nota la saturazione della velocità del clock, della potenza in uscita e della performance a partire da 2005

A partire circa dal 2005 (vedi grafico) si nota un evidente rallentamento della crescita di velocità del clock dei semiconduttori e questo è la conseguenza dell’aver raggiunto una soglia critica della densità dei dispositivi nei microcircuiti: le perdite nel circuito a riposo pongono maggiori sfide e provocano anche il riscaldamento del chip, con conseguente minaccia di instabilità termica.

Le industrie dei semiconduttori formalmente rispettano ancora la Legge di Moore, ossia il numero di dispositivi per wafer raddoppia ancora circa allo stesso ritmo, ma la crescita rallentata della velocità del clock porta con sé conseguenze legate all’impossibilità di continuare a fare funzionare le CPU a velocità di elaborazione esponenzialmente più elevate. In futuro, i dispositivi che usiamo continueranno ancora a restringersi, e questo ci consentirà di rispettare la vision tecnologica della Società dell’Internet degli oggetti, come pure quella della continua riduzione di dimensioni degli smartphone et similia, ma le velocità di calcolo cresceranno più lentamente (salvo nuove scoperte oggi non in vista); ciò sta già avendo effetto sulle prestazioni dei grandi Data Center remoti e preoccupa gli OTT che provano a correre ai ripari.

Tutto ciò metterà a dura prova le classiche architetture informatiche di tipo client-server e detterà la necessità di promuovere nelle periferie delle reti architetture sempre più distribuite, anche suddividendo le funzionalità per sfruttare al meglio le capacità locali attraverso le architetture peer-to-peer.

Latenza ridotta e capillarità di banda

Fortunatamente, questa rivoluzione nelle architetture di rete non ci trova del tutto impreparati. Infatti, è in linea con le esigenze già da tempo emerse per i nuovi servizi di fornitura dei contenuti in rete che richiedono un’attenzione crescente ai valori di “round trip time” (bassissima latenza) in quanto anche gli stessi protocolli per risolvere il problema della congestione nel trasporto dei pacchetti IP (primo fra tutti il TCP) impongono l’avvicinamento selettivo dei contenuti (video e non solo) al punto di fruizione.

Non si tratta tanto e soltanto delle vecchie ma sempre gloriose architetture CDN (Content Delivery Network) da tempo realizzate per lo più al bordo delle reti dei Telco, ma di architetture innovative (transparent caching, TCP accelerator, etc.) che penetrano in profondità, sempre più in prossimità del cliente finale. A questa tendenza in atto sia nel settore del Content Delivery che in quello del Cloud Computing, ben presto si affiancheranno le esigenze imposte dalla ridottissima latenza per i nuovi servizi (anche 1 millisecondo o addirittura meno) primo fra tutti quello della “autonomobile”, ossia della guida autonoma. Necessità di latenze così piccole si giustificano per l’interazione in tempo reale che i servizi futuri imporranno per evitare le instabilità negli anelli di controllo fra gli attuatori in locale e le operazioni di calcolo veloce (o parte di esse) dei processori remotizzati nel nodo più vicino.

Questa è la vision tecnologica che affianca alla “Comunicazione di contenuti” sia la “Comunicazione delle azioni di controllo” che l’entrata in scena di nuove forme di interazione fra essere umano e ambiente preconizzate con l’avvento del paradigma della “Internet tattile”. Tutto questo sarà anche accompagnato da un altro importante paradigm shift: quello del passaggio dagli “interactive media” di oggi ai “responsive media” (VR goggles, algoritmi emotion-sensing, sistemi multi-telecamera): si va cioè verso architetture in cui i media rispondono dinamicamente prestando attenzione, partecipando all’azione, e contestualizzando il loro ruolo. Se non si ponesse mano alle attuali architetture di rete IP l’enorme quantità di banda distribuita richiesta per una piena esperienza di mondo reale/virtuale (c’è chi dice anche oltre 5 Gbit/s) non potrebbe avverarsi o – ma l’effetto sarebbe lo stesso – le reti di trasporto entrerebbero in crisi divenendo il vero “collo di bottiglia” del sistema.

Se oggi vediamo una rete in cui ancora enormi flussi di traffico vengono trasportati per essere elaborati in pochi grandi Data Center (e nelle CDN ai bordi delle reti dei Telco), sia per le esigenze sempre più locali dei servizi del futuro che per le limitazioni tecnologiche indotte dalla rivoluzione indotta dal rallentamento delle leggi di Moore/Dennard, molto del traffico sarà trattato in area locale con connessioni trasversali oggi inesistenti (l’armadio telefonico di strada, il Mobile Edge Server, il Mini Cloud distribuito, i lampioni e i cartelli stradali,  il server nel giardino del vicino, etc.).

Quali scenari futuri per l’accesso?

La riconfigurabilità dei sistemi e la capillarità della diffusione dell’informazione saranno i bisogni a cui dare risposta, molto più di spingere su ipotesi, prevedibilmente realistiche solo in un numero limitato di nodi (grandi impianti, sedi business, etc.), con esigenze di grandissime concentrazioni e scambi di dati massivi. Le reti del futuro saranno sempre più ad intelligenza distribuita e cooperativa.

Nell’accesso farà premio la grande flessibilità delle comunicazioni, specialmente in tecnica wireless, anche per dare risposta alle funzionalità di elaborazione e memorizzazione distribuite. Le grandi infrastrutture di rame a copertura nazionale lungi dal potersi considerare obsolete vivranno una fase di riscoperta, un vero e proprio “copper revamping”, sia perché le tecnologie attive su rame si dimostrano sempre più potenti e promettenti, sia perché ben presto ci si renderà pienamente conto che l’uso della fibra ottica “deep into the network” si potrà giustificare volta per volta nelle condizioni in cui essa sia davvero la soluzione necessaria in virtù delle altissime prestazioni che fornisce.

Valuta la qualità di questo articolo

La tua opinione è importante per noi!

Articoli correlati