Il 34% delle organizzazioni sta già utilizzando o sta implementando strumenti di sicurezza delle applicazioni di intelligenza artificiale (AI) per mitigare i rischi associati all’intelligenza artificiale generativa (GenAI). E il 56% dichiara di essere comunque interessata a tali soluzioni.
Lo afferma un nuovo sondaggio della Gartner Peer Community, condotto tra 150 leader dell’IT e della sicurezza delle informazioni presso organizzazioni che utilizzano, pianificano di utilizzare o stanno esplorando GenAI o modelli fondamentali. Secondo l’indagine, il 26% delle aziende afferma di essere attualmente in fase di implementazione o utilizzo di tecnologie per la protezione della privacy (Pets), ModelOps (25%) o monitoraggio dei modelli (24%).
Rischi significativi per le organizzazioni
I rischi associati a GenAI sono significativi, continui e in costante evoluzione. I partecipanti al sondaggio hanno indicato che gli output indesiderati e il codice insicuro sono tra i principali rischi che tengono a mente quando utilizzano GenAI. In questo quadro, il 57% dei partecipanti è preoccupato per la divulgazione di segreti nel codice generato dall’AI, mentre il 58% è preoccupato per output errati o tendenziosi.
“Le organizzazioni che non gestiscono il rischio dell’AI vedranno i loro modelli che non si comportano come previsto e, nel peggiore dei casi, possono causare danni umani o materiali”, ha dichiarato Litan. “Ciò comporterà fallimenti nella sicurezza, perdite finanziarie e di reputazione e danni agli individui a causa di risultati errati, manipolati, non etici o tendenziosi. La cattiva performance dell’AI può anche portare le organizzazioni a prendere decisioni aziendali sbagliate”.
L’importanza di una strategia AI Trism
“IT e i leader della sicurezza e della gestione dei rischi devono, oltre a implementare strumenti di sicurezza, considerare il supporto a una strategia aziendale per la gestione della fiducia, dei rischi e della sicurezza dell’AI (AI Trism)”, dichiara Avivah Litan, Distinguished VP Analyst di Gartner. “L’AI Trism gestisce i flussi di dati e processi tra gli utenti e le aziende che ospitano modelli fondamentali di intelligenza artificiale generativa e deve essere un impegno continuo, non un esercizio singolo per proteggere costantemente un’organizzazione”.
L’IT come responsabile della sicurezza AI, o no?
Sebbene il 93% dei leader dell’IT e della sicurezza intervistati abbia dichiarato di essere almeno in parte coinvolti negli sforzi di sicurezza e gestione dei rischi di GenAI all’interno delle loro organizzazioni, solo il 24% ha affermato di sentire come propria questa responsabilità. Il 44% afferma che la responsabilità ultima della sicurezza di GenAI spetta all’IT, ma per il 20% dei partecipanti, i dipartimenti di governance, rischio e conformità dell’organizzazione sono responsabili della questione.
In campo anche la Cma britannica
Intanto la Competition and Markets Authority ha pubblicato in set di principi che mirano a garantire la protezione dei consumatori e una sana concorrenza al centro dello sviluppo e dell’utilizzo responsabile dei foundation model (Fm), i modelli di machine learning pre-addestrati su grandi quantità di dati utilizzati come punto di partenza per addestrare modelli specifici per compiti particolari. c
Ecco i principi proposti:
Accountability: gli sviluppatori e i distributori di Fm sono responsabili dei risultati forniti ai consumatori.
- Accesso: accesso continuo e immediato ai fattori di produzione chiave, senza inutili restrizioni.
- Diversità: una diversità sostenuta di modelli di business, sia aperti che chiusi.
- Scelta: scelta ampia per le aziende, in modo che possano decidere come utilizzare i Fm.
- Flessibilità: possibilità di cambiare e/o utilizzare più Fm a seconda delle esigenze.
- Correttezza: assenza di comportamenti anticoncorrenziali, tra cui l’autoreferenzialità, la vendita abbinata o il bundling.
- Trasparenza: i consumatori e le aziende devono essere informati sui rischi e sui limiti dei contenuti generati dai Fm, in modo da poter fare scelte consapevoli.
“Nei prossimi mesi, la Cma intraprenderà un programma significativo di impegno con gli stakeholder nazionali e internazionali per sviluppare ulteriormente questi principi, con l’obiettivo di promuovere una concorrenza efficace e la protezione dei consumatori a beneficio delle persone, delle imprese e dell’economia”, fa sapere una nota della Cma.