“Il 2022 è stato l’anno in cui nuovi prodotti della ricerca sull’AI hanno fatto il loro ingresso nel mercato, affascinando e sorprendendo anche le persone comuni. Con ChatGpt che ha raggiunto un milione di utenti dopo solo 2 giorni e Dall-E 2 che generato 2 milioni di immagini al giorno, si è sancita la definitiva affermazione dell’AI Generativa. Di pari passo con l’evoluzione applicativa, è nata l’esigenza delle istituzioni internazionali di tutelare i cittadini dalle possibili implicazioni negative derivanti dallo sviluppo e dall’utilizzo dei sistemi AI”.
Lo ha affermato Giovanni Miragliotta, direttore dell’Osservatorio Artificial Intelligence della School of Management del Politecnico di Milano, presentando i dati che fotografano il 2022 del comparto dell’intelligenza artificiale, un mercato che in Italia ha raggiunto 500 milioni di euro, con una crescita di ben il 32% in un solo anno, di cui il 73% commissionato da imprese italiane (365 milioni di euro) e il 27% rappresentato da export di progetti (135 milioni di euro).
A dimostrazione dell’ormai ampia diffusione di questa tecnologia, rivela il report, oggi il 61% delle grandi imprese italiane ha già avviato almeno un progetto di AI, 10 punti percentuali in più rispetto a cinque anni fa. E tra queste, il 42% ne ha più di uno operativo. Tra le pmi, invece, il 15% ha almeno un progetto di AI avviato (nel 2021 era il 6%), quasi sempre uno solo, ma una su tre ha in programma di avviarne di nuovi nei prossimi due anni.
All’Intelligent Data Processing la “parte del leone”
Secondo la ricerca dell’Osservatorio, la quota più significativa del mercato (34%) è legata a soluzioni per analizzare ed estrarre informazioni dai dati (Intelligent Data Processing), soprattutto per realizzare previsioni in ambiti come la pianificazione aziendale, la gestione degli investimenti e le attività di budgeting. Ma è importante anche l’area di interpretazione del linguaggio, scritto o parlato, la cosiddetta Language AI (28%) a cui afferiscono le classi di soluzioni Nlp e Chatbot. In quest’area vi sono, ad esempio, le applicazioni di Generative AI come ChatGpt o Dall-E2, che consentono di estrarre ed elaborare automaticamente informazioni anche da documenti come atti giudiziari, contratti o polizze, o per analizzare le comunicazioni interne o esterne (es. mail, social network, web). Al 19% si segnala poi l’area degli algoritmi che suggeriscono ai clienti contenuti in linea con le singole preferenze (Recommendation System). Infine, il 10% del mercato va alle iniziative di Computer Vision, che analizzano il contenuto di un’immagine in contesti come la sorveglianza in luoghi pubblici o il monitoraggio di una linea di produzione, e il 9% alle soluzioni con cui l’AI automatizza alcune attività di un progetto e ne governa le varie fasi (Intelligent Robotic Process Automation).
Gli avanguardisti sono il 9%, il 34% è in fase di implementazione
L’Osservatorio ha analizzato la maturità delle grandi organizzazioni nel percorso di adozione dell’AI, arrivando ad individuare cinque diversi profili di maturità. Il 34% delle grandi aziende si trova nell’era dell’implementazione, ossia dispone delle risorse tecnologiche e delle competenze necessarie per sviluppare e portare in produzione le iniziative di AI. Tra questi, il livello più elevato è composto da Avanguardisti (9%), che gestiscono correttamente l’intera catena del valore dei progetti di AI. In seconda battuta, con una maggiore diffusione, gli Apprendisti (25%) che hanno numerosi progetti a regime diffusi nell’organizzazione e iniziano a ragionare sui potenziali rischi etici delle soluzioni di AI. Per compiere un ulteriore passo in avanti, queste aziende dovranno lavorare sulla creazione di meccanismi di coordinamento strutturato tra le competenze interne e sull’incremento di pervasività dell’intelligenza artificiale, coinvolgendo tutti gli stakeholder aziendali. Nel restante 66% vi sono situazioni eterogenee, a partire dalle organizzazioni In cammino (33%), ovvero già dotate degli elementi abilitanti, ma anche aziende che non percepiscono il tema dell’intelligenza artificiale come rilevante, e non dispongono di un’infrastruttura IT adeguata.
Stop all’app Replika: “Rischi per i minori”
Nonostante l’impennata del business AI, restano comunque sul piatto rischi e criticità. L’ultima notizia riguarda l’app Replika, il chatbot dotato di una interfaccia scritta e vocale che basandosi sull’intelligenza artificiale genera un “amico virtuale”: il Garante della privacy ha infatti disposto con effetto immediato, nei confronti della società statunitense che sviluppa e gestisce l’applicazione, la limitazione provvisoria del trattamento dei dati degli utenti italiani.
Alla base della decisione vi sono anche le prove condotte dall’Autorità su Replika, dalle quali emerge che l’applicazione “presenta concreti rischi per i minori d’età, a partire dalla proposizione ad essi di risposte assolutamente inidonee al loro grado di sviluppo”. “L’’amico virtuale’ – scrive l’Authority -, presentato come in grado di migliorare il benessere emotivo dell’utente, aiuterebbe l’utente a comprendere i propri pensieri e calmare l’ansia, attraverso la gestione dello stress, la socializzazione e la ricerca dell’amore, ha caratteristiche che, intervenendo sull’umore della persona, possono accrescere i rischi per i soggetti ancora in una fase di sviluppo o in stato di fragilità emotiva. Manca peraltro ogni meccanismo di verifica dell’età: filtri per i minori, ma anche blocchi dell’app di fronte a dichiarazioni in cui l’utente espliciti la propria minore età. Durante la fase di creazione di un account la piattaforma si limita a richiedere solo nome, e-mail e genere. E la proposizione di “risposte” da parte del chatbot risultano spesso palesemente in contrasto con le tutele rafforzate che vanno assicurate ai minori e a tutti i soggetti più fragili. Diverse recensioni pubblicate nei due principali ‘app store’, peraltro, contengono commenti di utenti che lamentano contenuti sessualmente inopportuni”.
Il Garante fa poi sapere che Replika “viola il Regolamento europeo sulla privacy, non rispetta il principio di trasparenza ed effettua un trattamento di dati personali illecito, in quanto non può essere basato, anche solo implicitamente, su un contratto che il minorenne è incapace di concludere”. Alla luce di queste conclusioni, la società sviluppatrice statunitense, Luka, oltre a dover interrompere il trattamento dei dati degli utenti italiani, dovrà comunicare entro 20 giorni le misure intraprese in attuazione di quanto richiesto dal Garante, pena una sanzione fino a 20 milioni di euro o fino al 4% del fatturato globale annuo.