Il nuovo regolamento europeo sull’intelligenza artificiale, noto come AI Act, si presenta come il quadro giuridico più completo al mondo per la regolamentazione dell’AI. Questo regolamento, che verrà implementato gradualmente fino ad agosto 2027, impone requisiti stringenti di conformità ai sviluppatori e utenti di AI, obbligando le telecomunicazioni europee ad aumentare le attività di compliance e a sostenere maggiori costi per soddisfare gli standard di sicurezza. Ma quali saranno i concreti impatti su questo settore?
AI Act: 4 categorie di rischio
L’AI Act ha l’obiettivo di proteggere i cittadini dai rischi dell’AI e promuovere lo sviluppo di sistemi di AI sicuri e affidabili. La normativa classifica l’uso dell’AI in quattro categorie di rischio: inaccettabile, alto, limitato e minimo. A partire da febbraio 2025, un insieme “molto limitato” di usi dannosi dell’AI sarà vietato: l’elenco della Commissione europea comprende lo sfruttamento di persone vulnerabili, lo scraping non mirato di immagini facciali e il riconoscimento delle emozioni negli uffici o nelle scuole.
Gli impatti sulle telco: crescono i requisiti legali
Un approfondimento di TmForum spiega che, per le telecomunicazioni, il regolamento non cambierà la loro strategia sull’AI, ma aumenterà il lavoro di compliance e i costi per soddisfare i nuovi requisiti legali. I casi d’uso con AI come i chatbot per il servizio clienti, sebbene a basso rischio, richiederanno trasparenza, mentre altri potrebbero rientrare nella categoria ad alto rischio, comportando obblighi normativi aggiuntivi. Il regolamento inoltre si applica anche alle aziende al di fuori dell’Europa, il che significa che le telco mondiali devono essere consapevoli degli impatti potenziali.
Le telco si stanno già preparando per le nuove regole, adattando le loro strategie di governance e incorporando la compliance normativa nello sviluppo e nei casi d’uso dell’AI. Diverse compagnie, tra cui Deutsche Telekom, Kpn e Orange, fanno parte delle prime cento che hanno aderito all’AI Pact europeo, un insieme di impegni volontari per anticipare il rispetto dei requisiti dell’AI Act.
Nonostante l’Europa abbia adottato un approccio basato sul rischio, il dibattito su quanto regolamentare l’AI continua a livello internazionale. Alcuni Paesi, come Stati Uniti e Cina, hanno adottato approcci diversi, ma l’AI Act dell’Ue è destinato a diventare uno standard globale per la conformità dei sistemi di AI.
Da Anitec-Assinform supporto nell’adeguamento all’AI Act
Intanto Anitec-Assinform, l’Associazione di Confindustria che rappresenta le imprese Ict in Italia, in collaborazione con Qubit Law Firm & Partners, ha avviato una campagna di divulgazione per supportare le imprese nell’adeguamento proprio all’AI Act. Si inizia con la pubblicazione di un Policy Paper di approfondimento sui contenuti del Regolamento. Il documento ha l’obiettivo di fornire alle figure “non-legal” delle aziende IT una panoramica del Regolamento e degli obblighi che comporta per le imprese.
La seconda fase dell’iniziativa prevede l’organizzazione di workshop specifici focalizzati su temi di maggiore rilevanza per le imprese, come i percorsi per certificare i sistemi di intelligenza artificiale prodotti o utilizzati. Il progetto proseguirà con la pubblicazione di casi pratici sul sito di Anitec-Assinform, dove verranno illustrati problemi concreti di compliance e le relative soluzioni. Il programma prevede anche la realizzazione di webinar informativi per fornire un supporto continuativo alle imprese nel loro percorso di adeguamento alla normativa.