La trasformazione digitale della PA offre opportunità inedite per erogare servizi più efficienti e user friendly a cittadini e imprese. Ma oggi il salto da fare non è tanto nell’hardware o nel software ma nell’intelligence attraverso cui rendere i dati pubblici fruibili e intellegibili per essere utilizzati in ottica data driven.
L’Italia però sembra essere ancora indietro su questo fronte. Secondo i dati dell’ultimo Digital Government Index (Dgi) dell’Ocse, il nostro Paese è sotto la media per quanto riguarda l’utilizzo di strumenti di business intelligence in grado di leggere, classificare e mettere a valore i dati.
In particolare l’indice che registra la maturità data driven è 0.534, contro un 1 di Corea, 0.833 di Danimarca e 0.598 di Regno Unito. In questo ambito i primi dieci classificati sono Corea, Estonia, Irlanda, Norvegia, Danimarca, Francia, Colombia, Australia, Lituania e Svezia: in tutti questi Paesi, la gestione e l’utilizzo dei dati governativi sono una priorità strategica, che si riflette in sforzi globali per rafforzare la governance dei dati nel settore pubblico e migliorare l’accesso e la condivisione dei dati.
Ma basare le scelte, l’organizzazione del lavoro, l’evoluzione dei progetti e i servizi su un uso consapevole e attento dei dati è qualcosa che la pubblica amministrazione deve fare se vuole vincere la sfida dell’efficienza e della digitalizzazione. E per farlo deve sfruttare la potenza della business intelligence (BI).
Per contribuire a diffondere l’adozione della BI nella pubblica amministrazione una spinta può arrivare dall’intelligenza artificiale, come precisa anche il report Ocse.
La strategia di Istat: un di mix BI e AI
In Italia Istat è uno degli enti pubblici che sta utilizzando la business intelligence sia per migliorare la produzione della statistica ufficiale sia per migliorare l’accessibilità e la fruizione dei dati. In tandem appunto con l’uso dell’intelligenza artificiale.
Si tratta di tecnologie diverse che, però spesso vanno a braccetto, e possono aiutare la strutturazione di una PA data driven, come spiega Stefania Schipani di Istat.
“Occorre in primo luogo cercare di definire il concetto di Business Intelligence, per evitare di confonderlo, come spesso avviene, con quello di Intelligenza Artificiale – puntualizza Schipani – Genericamente si può dire che la BI si concentra sulla raccolta e analisi descrittiva dei dati storici, con l’obiettivo di comprendere l’andamento dei dati nel corso del tempo per migliorare e supportare le decisioni e renderne più efficiente l’applicazione, principalmente attraverso il coinvolgimento umano. L’analisi di BI genera report, dashboard e insights utili alle decisioni”.
“L’AI, invece, è una tecnologia informatica che, partendo da dati disponibili e basandosi sull’apprendimento automatico, consente di elaborare modelli di previsione per l’elaborazione di scenari futuri, automatizzando i processi. Fa uso di algoritmi complessi e può essere applicata a molteplici situazioni”.
È dunque evidente che le due modalità vanno “a braccetto” e che l’AI può essere considerata parte della BI. Entrambe perseguono lo stesso obiettivo: favorire attraverso la conoscenza dei dati decisioni migliori, con la differenza che l’IA si caratterizza per i processi di automatizzazione e di autoapprendimento.
“Nonostante gli sviluppi tecnologici immensi degli ultimi decenni, si può dire che l’Intelligenza Artificiale è utilizzata già dagli anni Cinquanta, attraverso l’uso dei computer – conclude Schipani – La sua applicazione si è diffusa in ambito pubblico grazie alla trasformazione digitale della Pubblica Amministrazione e il crescente approccio data driven che ormai caratterizza tutti i livelli delle PA anche territoriali, sia nazionale che locale”.
Istat sta dunque facendo un uso massiccio della BI e dell’AI sia sulla produzione della statistica ufficiale che sulla migliore accessibilità di fruizione dei dati, con il vantaggio che “l’Istituto può applicare le innovazioni senza mai venir meno al rigore scientifico che lo caratterizza nel controllo della qualità del dato”, spiega Schipani.
L’obiettivo è di migliorare l’accesso e la fruizione del grande patrimonio informativo di dati da parte dell’utente, con modalità come il motore di ricerca semantico e il chatbot che possono facilitare la ricerca di dati ma anche l’informazione sulle fonti, il ricorso al contact center o le istruzioni sulla compilazione dei moduli.
Le PA locali: Parma il pole position
Sul fronte delle amministrazioni locali, il Comune di Parma ha fatto evolvere il concetto di smart city passando da “semplice” città digitale a una visione più ampia e inclusiva, orientata a migliorare la qualità della vita e soddisfare le esigenze di cittadini, imprese ed istituzioni.
In questo contesto si inserisce il progetto “Business Intelligence per le Politiche Locali”, che mira a potenziare l’attività statistica attraverso l’adozione della data science come strumento guida per le politiche pubbliche. L’iniziativa, che verrà presentato venerdì 9 febbraio, prevede la collaborazione del Centro Interdipartimentale di Ricerca “Robust Statistics Academy” (Ro.S.A.) dell’Università degli Studi di Parma. Il Ro.S.A., esperto nello sviluppo di modelli statistici avanzati, contribuirà a raccogliere i dati e convertirli in strumenti decisionali efficaci per le attività dell’ente.
“In una smart city, le problematiche non sono affrontate singolarmente, ma sono parte di un sistema complessivo integrato in una nuova visione globale di città – spiega Pasquale Criscuolo, direttore generale del Comune di Parma – Rendere smart una città implica una serie coordinata di interventi finalizzati a renderla più sostenibile, migliorare i servizi per i cittadini, promuovere la partecipazione e la cittadinanza attiva, nonché stimolare lo sviluppo economico incrementandone l’attrattività e la competitività”.
“In questo senso è necessario rendere efficace l’analisi in tempo reale di tutte le dinamiche d’interesse generale della città, incrementando la disponibilità di dati nell’ottica della interoperabilità, e migliorando la qualità dell’informazione statistica sul territorio ai fini del migliore svolgimento delle funzioni affidate alle Istituzioni locali”, puntualizza Criscuolo.
Le fasi del progetto
A tal scopo, il progetto prevede una prima fase di raccolta dati ed integrazione degli stessi in insiemi di indicatori per la programmazione e la gestione delle attività. Nella fase successiva, si procederà alla creazione di banche dati specifiche a cui poter attingere. Il fulcro dell’operazione consiste nella sviluppo di routine e applicativi per l’analisi dati e la generazione di report, agevolmente accessibili al personale competente. Questo staff avrà la possibilità di generare report automatizzati destinati in primo luogo ai policy maker, supportando le attività di pianificazione a lungo termine in ambito di urban policy, ma resi poi disponibili per tutta la cittadinanza.
“Puntiamo a creare un ecosistema avanzato di dati, denominato datalake, che combina informazioni interne ed esterne attraverso diverse piattaforme web – svela Criscuolo – Questo sistema consentirà l’accesso a dashboard grafiche, report e utilizzo di tecnologie all’avanguardia, inclusa l’intelligenza artificiale. L’obiettivo è non solo rendere disponibili i dati rilevati, ma anche integrarli con le attuali piattaforme software dell’Amministrazione Comunale per condividere le informazioni in modo ampio e dinamico. Questa iniziativa coinvolgerà gli stakeholder della città e si integrerà con il già avviato progetto del “Digital Twin”, una replica digitale dettagliata e tridimensionale della città, utilizzata per pianificare la gestione del territorio e valutarne gli impatti in anticipo”.
Il cuore dell’attività riguarda la creazione di routine e applicativi di analisi di dati e reportistica facilmente fruibili dal personale competente che avrà la possibilità di creare report automatizzati da inoltrare ai policy maker per le attivazioni di pianificazioni di lungo periodo di urban policy. Gli algoritmi saranno scritti in diversi linguaggi per il data science e funzioneranno sui computer (server e client) del committente. Il data warehouse resta di proprietà del committente (Comune). Sono previste sessioni e giornate formative specializzate mirate alla formazione del personale addetto del Comune sia per aspetti di novità metodologiche che abbinate implementazione software. In questo modo il Comune potrà dotarsi di piattaforme web per la consultazione di dashboard grafiche e reportistica.
“L’intenzione di questa amministrazione è quella di rafforzare l’attività di analisi statistica come strumento di data science funzionale all’adozione di decisioni lungimiranti – sottolinea il dg – promuovendo la cultura della generazione di valore pubblico nell’organizzazione e nell’intera collettività”.