Intelligenza artificiale ed etica: ormai è un binomio necessario e riconosciuto da tutti, anche dalle aziende che implementano nuove soluzioni. Però, dice un rapporto di Capgemini, i progressi nell’implementazione di una intelligenza artificiale etica sono stati inconsistenti nell’ultimo anno.
Infatti, secondo il rapporto “Ai and the ethical conundrum: How organizations can build ethically robust Ai systems and gAin trust”, mentre il 65% dei dirigenti dichiara di essere a conoscenza di un problema di bias discriminatori relativi ai sistemi di intelligenza artificiale, quasi il 60% delle organizzazioni è finito sotto esame dal punto di vista giuridico, mentre il 22% ha dovuto far fronte a un calo di clienti negli ultimi due o tre anni a causa delle decisioni prese dai sistemi di Ai.
In particolare, secondo la ricerca, il 45% dei clienti ha affermato di voler condividere le proprie esperienze negative con familiari e amici e consigliare loro di non rivolgersi a una data organizzazione, il 39% ha sostenuto che condividerà le proprie preoccupazioni con l’azienda in questione esigendo una spiegazione, e un altro 39% ha ribadito che lascerà il canale di intelligenza artificiale a favore di una più costosa interazione umana. Più di un quarto dei consumatori (27%) ha affermato di essere disposto a interrompere completamente i rapporti con una data organizzazione in seguito a un’esperienza negativa. La percentuale di clienti che credono che le organizzazioni siano completamente trasparenti riguardo a come usano i loro dati personali è scesa dal 76% del 2019 al 62% di oggi. Solo il 53% delle organizzazioni presenta una figura dedicata alle questioni etiche relative Ai sistemi di intelligenza artificiale.
Infine, la necessità per le organizzazioni di implementare un codice etico è dettata anche da un quadro regolamentare più stringente. Tuttavia, mentre nel 2019 il 73% delle organizzazioni globali aveva informato gli utenti sui diversi modi in cui le decisioni supportate dall’Ai possono avere un impatto sui clienti, oggi questa percentuale è scesa al 59%.
Lo studio di Capgemini mette in evidenza sette azioni chiave che le organizzazioni possono implementare per costruire un sistema di Ai eticamente solido. La prima è delineare chiaramente lo scopo dei sistemi di Ai e valutarne l’impatto potenziale complessivo. La seconda è implementare in modo proattivo l’Ai, a beneficio della società e dell’ambiente. La terza è incorporare proattivamente la diversità e i principi di inclusione nel ciclo di vita dei sistemi di Ai. Al quarto posto c’è l’aumento della trasparenza con l’aiuto di strumenti tecnologici. Al quinto umanizzare l’esperienza delle Ai e garantire la supervisione umana dei sistemi di Ai. Al sesto garantire la robustezza tecnologica dei sistemi di Ai. Infine, al settimo proteggere la privacy individuale delle persone, responsabilizzandole e incaricandole delle interazioni con l’Ai.