L’APPROFONDIMENTO

Intelligenza artificiale, ecco perché alle aziende serve un sistema certificato



Indirizzo copiato

Individuate 9 tipologie di rischio che vanno analizzate e prese in considerazione se non si vuole incappare in problemi lungo il cammino degli investimenti e delle strategie. L’analisi di Massimo Alvaro di Dnv, ente di certificazione leader a livello internazionale

Pubblicato il 11 set 2024



intelligenza artificiale, AI, collaboration, competenze, skills

L’intelligenza artificiale è “l’abilità di una macchina di mostrare capacità umane quali il ragionamento, l’apprendimento, la pianificazione e la creatività”. È la definizione che ne dà il Parlamento Europeo. Sta trasformando il nostro mondo, dando un’accelerazione digitale senza precedenti ai processi e aprendo nuove opportunità per le imprese e per le persone. È una innovazione potente, in grado di migliorare la vita dell’uomo e che, insieme a grandi vantaggi, comporta anche una serie di rischi e sfide. Utilizzare l’IA senza le dovute precauzioni può esporre, infatti, a criticità significative: dalla violazione della privacy dei dati, al favorire il perpetrarsi di specifici bias sino all’interruzione della continuità operativa. Rischi che, per un’azienda, potrebbero arrivare a compromettere i risultati di un intero progetto o, peggio, minare la credibilità. Adottare un sistema di gestione per l’intelligenza artificiale certificato può aiutare le aziende a governare questi rischi e a sfruttare appieno il potenziale di questa nuova rivoluzione.

Pregiudizi, sicurezza, tutela della privacy: i rischi da affrontare

Ma quali sono i rischi a cui le aziende sono esposte? Non si tratta più solo del furto di dati. Ne abbiamo raggruppati 9, di diverse tipologie. Un sistema di gestione IA certificato può aiutare a mitigarli:

  • Pregiudizi e ingiustizie

Un sistema AI riceve i dati, li analizza per poi rigenerarli. Se i dati inseriti non sono corretti o sono incoerenti, anche l’output sarà incoerente. Pensiamo a questo modello di funzionamento, per esempio, applicato a un processo di selezione del personale; se il set di dati iniziali contiene degli errori, si corre il rischio che i candidati siano soggetti a discriminazioni, magari in base all’età o alla provenienza geografica.

  • Responsabilità poco chiare

L’intelligenza artificiale è una tecnologia complessa, con team che lavorano su sezioni diverse. Una complessità che, in caso di problemi, rende difficile risalire alle responsabilità. Definire ruoli e aree di competenza in modo chiaro è un passaggio quanto mai fondamentale.

  • Sicurezza

Come ogni sistema informatico, anche l’AI è vulnerabile ad attacchi hacker con rischi altissimi se la si pensa applicata a settori rilevanti come la sanità, la finanza o le infrastrutture. Se un hacker fosse in grado di manipolare i dati di addestramento di un sistema di intelligenza artificiale utilizzato per la diagnosi medica, il sistema arriverebbe a fornire diagnosi errate, mettendo così a rischio la salute dei pazienti.

  • Privacy

L’importante mole di dati gestita dall’IA solleva preoccupazioni per la privacy dei dati di cui dispone, oltre a preoccupazioni circa la possibilità che vangano usati in modo improprio. Impedire i data breach rimane in cima alla lista dei doveri dell’azienda che custodisce o utilizza le informazioni.

  • Impatto ambientale

L’enorme potenza di calcolo richiesta dall’IA ha un impatto ambientale significativo, aumentando di conseguenza il consumo energetico e di emissioni. Anche questi sono aspetti da tenersi in considerazione quando si decide di ricorrere a strumenti di questo tipo.

  • Comprensione limitata

La complessità dell’AI rende difficile la piena comprensione del suo funzionamento e delle sue potenzialità. Si tratta di aspetti che limitano la capacità di controllo e da tenere presente nel definire adeguati step di monitoraggio degli sviluppi nel loro divenire.

  • Considerazioni etiche

È importante considerare le implicazioni etiche delle decisioni prese dall’IA. Si pensi per esempio ai sistemi autonomi come i veicoli senza conducente che, per rispettare i parametri di efficienza, ad esempio i tempi di esecuzione di una data attività, decidano di mettere in secondo piano aspetti come la sicurezza delle persone.

  • Impatto sull’occupazione e sulle mansioni in azienda

L’automazione, o più in generale l’utilizzo dell’IA, potrebbe portare alla modifica di alcune mansioni e alla revisione dei ruoli aziendali. Così come a livello macro si considerano gli impatti dell’IA sull’occupazione, anche l’impatto dell’implementazione di strumenti di IA sulla propria forza lavoro è una questione che richiede una gestione attenta e lungimirante.

  • Mancanza di trasparenza e chiarezza

La mancanza di trasparenza nel funzionamento dell’IA può minare i rapporti di fiducia. Una banca che utilizza un algoritmo di intelligenza artificiale per valutare l’affidabilità dei clienti deve essere in grado di dare spiegazioni chiare e comprensibili su come funziona e quali criteri vengono considerati nel caso in cui, per esempio, venga rifiutata la richiesta di prestito di una persona.

Quali strumenti mettere in campo per essere compliant

Gli strumenti per la mitigazione del rischio possono essere legislativi o normativi. L’aspetto legislativo lo osserviamo sempre con estrema attenzione e curiosità e spetta ai Governi centrali.

In tal senso il Parlamento Europeo ha approvato di recente l’AI ACT, la legge sull’intelligenza artificiale che garantisce sicurezza e rispetto dei diritti fondamentali e promuove l’innovazione. Essere compliant con le normative è un aspetto tutt’altro che trascurabile quando si decide di avvicinarsi a queste tematiche.

Sotto il profilo normativo è stato introdotto nel 2023 lo standard ISO/IEC 42001. Si tratta della prima norma internazionale che definisce i requisiti per l’implementazione di un sistema di gestione che possa essere regia dell’utilizzo dell’IA in azienda in ogni sua fase: dal momento in cui se ne progetta l’utilizzo, sino alla sua implementazione e oltre, nelle fasi di continuo adeguamento.

Un sistema di gestione, quale che sia il campo di applicazione, non è altro che un insieme di procedure e processi finalizzati a delineare e tenere sotto controllo le performance aziendali in un’ottica di miglioramento continuo. È esattamente quello che fa anche un sistema di gestione dell’intelligenza artificiale in linea con i requisiti ISO/IEC 42001.

Se parliamo di recruitment, per esempio, le aziende assumono personale sulla base di esperienze e competenze che verranno poi consolidate attraverso un percorso di formazione, in azienda. Nel futuro è probabile che i nuovi assunti, per esempio, arrivino muniti di una loro “personale” IA .

Come intende gestire l’opportunità e mitigare questo rischio l’organizzazione? Preferisce lasciare libertà di utilizzo di IA esterne o opta per imporre l’utilizzo della propria? Come vengono catalogati i dati e le informazioni? Può transitare tutto nell’IA o non è consentito “caricare” documentazione confidenziale? Esistono o esisteranno ruoli organizzativi dedicati alla gestione dell’IA?

Un sistema di gestione dell’IA dedicato consentirà di dare risposta a questi dubbi, mitigando i rischi e impostando azioni mirate e oggettive finalizzate al miglioramento continuo dell’organizzazione su questi temi.

Credo che le aziende non possano precludersi le opportunità della nuova grande rivoluzione introdotta dall’IA. Basti pensare a quanti ne paragonano le potenzialità a quelle derivanti dall’introduzione della ruota. Certo è che approcciare uno strumento così potente senza la giusta consapevolezza, significherebbe peccare di ingenuità. Con un sistema di gestione certificato ISO 42001, le aziende applicheranno una metodologia organizzativa in grado di accompagnarle verso il progresso e potranno, allo stesso tempo, comunicare ai propri stakeholder di aver implementato tutta una serie di processi per gestire l’innovazione in modo etico, sicuro e responsabile.

Articoli correlati

Articolo 1 di 5