L’intelligenza artificiale generativa è percepita dalle imprese come il secondo maggior fattore di rischio aziendale: è quanto emerge dal sondaggio condotto da Gartner lo scorso maggio su un campione di dirigenti senior della aree Legali, Compliance e Risk management. La disponibilità su ampia scala di prodotti come ChatGpt e Google Bard balzano per la prima volta al vertice delle grandi preoccupazioni per i leader, con un 66% di frequenza nelle risposte. Solo la viability di terze parti (67%) preoccupa di più, perché il deterioramento delle condizioni economiche può comportare un ulteriore calo della domanda e influire sulla tenuta finanziaria di fornitori e partner o sulla loro capacità di fornire beni e servizi in modo tempestivo.
“La disponibilità di massa dell’Ai generativa compare nella top ten per la prima volta come secondo rischio più frequentemente citato nel nostro sondaggio del secondo trimestre”, commenta Ran Xu, direttore della ricerca, Gartner Risk & Audit Practice. “Ciò riflette sia la rapida crescita della consapevolezza pubblica e dell’uso di strumenti di intelligenza artificiale generativa, sia l’ampiezza dei potenziali casi d’uso, e quindi i potenziali rischi, che questi strumenti generano”.
Ai generativa, cloud, Cina preoccupano le imprese
Gartner ha intervistato 249 dirigenti senior del rischio aziendale per fornire una visione di riferimento di 20 rischi emergenti. I rischi vengono valutati in base al possibile impatto, le tempistiche, il livello di attenzione richiesta e le opportunità percepite. Come sottolineato da Xu, l’intelligenza artificiale generativa ha così tanti casi d’uso, ancora non esattamente circoscritti e valutati, da richiedere la massima attenzione.
La third-party viability è, nel secondo trimestre, il principale rischio, e a più rapida crescita, che le organizzazioni stanno monitorando. “L’inflazione persistente che è meno reattiva agli aumenti dei tassi di interesse ha aumentato i costi e le pressioni sui margini delle terze parti”, spiega Xu. “La stretta sul credito può costringere i fornitori a sospendere le operazioni o diventare insolventi“.
L’incertezza della pianificazione finanziaria è il terzo maggior rischio percepito (62%), seguito da vicino dal rischio di concentrazione del cloud (62%). Le tensioni commerciali con la Cina (56%) completano la top five. I cinque maggiori rischi sotto la lente delle imprese si dividono, dunque, tra questioni legate all’attuale volatilità macroeconomica e geopolitica e preoccupazioni di ordine tecnologico.
Tre rischi della Generative Ai
Secondo Gartner, in termini di gestione del rischio aziendale, devono essere affrontati tre aspetti principali dell’Ai generativa: proprietà intellettuale; privacy dei dati; e cybersicurezza.
“Le informazioni inserite in uno strumento di intelligenza artificiale generativa possono diventare parte del suo insieme di dati per l’apprendimento, il che significa che le informazioni sensibili o riservate potrebbero finire nell’output di altri utenti”, evidenzia Xu. “Inoltre, l’utilizzo dei risultati di questi strumenti potrebbe finire per violare inavvertitamente i diritti di proprietà intellettuale di altri che lo hanno utilizzato”. È, dunque, importante rendere i top manager consapevoli della necessità di cautela e trasparenza sull’uso di tali strumenti in modo che i rischi di proprietà intellettuale possano essere adeguatamente mitigati sia in termini di input che di output dagli strumenti di intelligenza artificiale generativa.
Sulla privacy dei dati, va tenuto conto che gli strumenti di intelligenza artificiale generativa possono finire col condividere le informazioni degli utenti con terze parti senza preavviso o consenso e questo potrebbe volare le norme sulla privacy di diversi Paesi e giurisdizioni, dall’Ue alla Cina.
Infine, “Gli hacker testano sempre nuove tecnologie per trovare modi per sovvertirle per i propri fini, e l’Ai generativa non è diversa”, sottolinea Xu. “Abbiamo visto esempi di codice malware e ransomware che l’Ai generativa è stata indotta a produrre, così come attacchi del tipo prompt injections che possono indurre questi strumenti a fornire informazioni che non dovrebbero. Ciò sta portando all’industrializzazione degli attacchi di phishing avanzati”.
Lo studio Mit Sur/Bcg: Rischi nell’Ai di terze parti”
Lo scenario in tema di Ai è in continua trasformazione e, con l’adozione dell’Ai generativa (GenAi) e la corsa all’adozione di nuovi programmi di Ai, lo sviluppo di un approccio responsabile diventa sempre più difficile da implementare per molte aziende, evidenzia la ricerca “Building Robust RAI Programs as Third-Party AI Tools Proliferate” a cura del Mit Sloan Management Review (Mit Smr) e Boston Consulting Group (Bcg). Più della metà (53%) delle organizzazioni indagate si affidano esclusivamente a prodotti di Ai di terze parti, esponendosi così a una serie di rischi, tra cui danni reputazionali, perdita di fiducia dei clienti, perdite finanziarie e problemi sul versante normativo.
Roberto Ventura, Managing director and partner di Bcg, spiega: “L’avvento della nuova classe di algoritmi di intelligenza artificiale generativa ha permesso l’introduzione di nuove e rivoluzionarie applicazioni in molti ambiti, ma soprattutto ha determinato la “democratizzazione” dell’utilizzo dell’Ia, rendendo l’utilizzo di tale tecnologia molto più semplice anche per i non addetti ai lavori. Ciò ha permesso un’improvvisa e rapida accelerazione nella adozione dell’Ai da parte sia dei singoli che di molte aziende. Tuttavia, questa tecnologia porta con sé alcune aree di attenzione, come per esempio il rischio di generare informazioni sbagliate – di “allucinazione”, come viene chiamato in gergo tecnico, oppure il rischio di divulgazione di dati sensibili nel caso di utilizzo improprio dei tool commerciali disponibili online. È proprio per questo motivo che un approccio “responsabile” all’espansione dei programmi di Ai è quanto mai urgente per le aziende, per essere pronte ad affrontare i crescenti rischi legati al suo utilizzo”.
L’approccio Responsible Ai (Rai)
Per mitigare tali rischi è importante adottare approcci e metodi di valutazione degli strumenti di terze parti: le organizzazioni che riescono ad impiegare almeno 5 metodi diversi di valutazione hanno più del doppio delle probabilità di individuare gli errori rispetto a quelle che ne utilizzano meno di 5 (il 51% contro il 24%).
Tra gli approcci non possono mancare dei termini contrattuali che impongano l’adesione ai principi di Responsible Ai (Rai), la pre-certificazione dei fornitori, le revisioni interne e di prodotto e il rispetto dei requisiti normativi e degli standard di settore.
Circa la metà (51%) delle organizzazioni intervistate nello studio Mit Smr/Bcg, afferenti in particolare al settore finanziario, assicurativo, sanitario e pubblico, dichiara di non essere soggetta a normative specifiche in merito all’uso dell’Ai, ma di applicarle comunque ai vari utilizzi. Le organizzazioni soggette a normative specifiche contano il 13% in più di figure specializzate in Rai rispetto alle organizzazioni non soggette a tali normative, oltre a rilevare meno insuccessi nell’implementazione dell’Ai rispetto alle controparti, non soggette alle stesse pressioni normative (il 32% contro il 38%).
È qui che entrano in campo gli amministratori delegati: le organizzazioni con un ceo capace di assumere un ruolo pratico nei processi di adozione della Rai (ad esempio impegnandosi direttamente nello sviluppo dei prodotti e fissando obiettivi di performance legati alla Rai) riportano il 58% in più di vantaggi aziendali rispetto alle organizzazioni con ceo meno partecipi. Inoltre, sempre le prime hanno maggiori probabilità di investire in essa rispetto alle seconde (39% contro 22%).