L’intelligenza artificiale è una forza positiva, che ha innescato una nuova rivoluzione industriale e permette di risolvere problemi dell’umanità di vasta portata – dal cambiamento climatico alle cure mediche personalizzate. Ma non possiamo guardare all’AI senza chiederci dove fissare il limite tra ciò che è accettabile, perché non intacca i diritti e le libertà individuali, e ciò che non lo è. In sintesi, dobbiamo capire come fare incontrare AI e etica. È quanto ci ha detto Jeff Bullwinkel, Associate General Counsel and Director of Corporate, External and legal Affairs di Microsoft Europe, che CorCom ha incontrato in esclusiva a Roma.
Per lei l’AI non è una tecnologia da temere, magari da mettere in stand-by per capire quali implicazioni e impatti indesiderati può avere?
Questo è già il mondo dell’AI, i benefici che porta sono entusiasmanti. Ma le capacità di questa tecnologia aumenteranno esponenzialmente e noi di Microsoft siamo convinti che si debba avere uno sguardo critico. Microsoft crea prodotti che incidono sul mondo e sulle persone e ha una responsabilità. Per questo abbiamo individuato sei principi guida per un AI etico su cui improntiamo il nostro modo di fare.
Ce li può descrivere?
Si riassumono nei concetti di “fairness” (equità e correttezza, in contrapposizione con discriminazione e pregiudizio) “reliability and safety” (affidabilità e sicurezza, a prova di manipolazioni e esiti non previsti), “privacy and security” (protezione del dato personale e della proprietà intellettuale), “inclusiveness” (nessuna esclusione per le persone con disabilità), “transparency” (il funzionamento degli algoritmi di AI deve essere noto e chiaro) e “accountability” (definizione delle responsabilità).
Però dall’impegno su carta bisogna passare all’attuazione pratica.
Certo. Microsoft ha istituito una commissione multidisciplinare, chiamata Aether, che studia questi temi e le implicazioni pratiche e che include non solo tecnici e informatici, ma filosofi, psicologi, sociologi e esperti di ogni settore. Capire come coniugare etica e AI non è un problema semplice. Di due cose però siamo convinti: i prodotti di AI devono essere etici by design, ovvero i principi di responsabilità etica devono essere incorporati in partenza. Inoltre, lo sforzo per trovare il giusto equilibrio è di tutta la catena del valore, l’intera supply chain deve lavorare per l’AI etico.
Alcune applicazioni, come il riconoscimento facciale restano molto controverse. La Commissione europea potrebbe persino valutare uno stop di 5 anni alle implementazioni di questa tecnologia nei paesi Ue.
Infatti i progetti che ci vengono proposti e non rispettano i nostri principi non li accettiamo. Anche se vuol dire perdere un potenziale guadagno.
Per esempio?
Un’agenzia di pubblica sicurezza ci ha proposto di usare la nostra tecnologia per il riconoscimento facciale in un carcere per verificare gli accessi. Abbiamo acconsentito. Poi ci ha chiesto di usare la stessa tecnologia per controllare i movimenti all’interno dei vari edifici della struttura carceraria, e anche qui ci è sembrata un’applicazione corretta. Ma quando ci ha proposto di far indossare agli agenti di polizia dei dispositivi capaci di svolgere il riconoscimento facciale in qualunque punto si trovassero durante il loro lavoro, abbiamo rifiutato. Troppi rischi di falsi positivi e risultati discriminatori. Qui è dove mettiamo il confine. C’è di più: quando Microsoft lavora con un cliente che usa i suoi prodotti di AI conduce delle audit periodiche per verificare che il cliente rispetti i principi di un utilizzo “etico”.
A parte le linee guida che si possono dare le singole aziende, sarebbe utile un intervento legislativo sull’AI? Le aziende americane sono solitamente scettiche sulla regulation, la considerano un ostacolo all’innovazione. È così?
No, per Microsoft ci deve essere una base di regole su certi temi e quando si parla di AI o di privacy è inevitabile. Pensiamo al Gdpr nell’Unione europea: Microsoft ha dato fin da subito il suo supporto a questa regulation e ora ne applica le disposizioni su scala globale. Anche l’AI avrebbe bisogno di una regulation simile. È vero che la tecnologia si è sviluppata in un mondo con poche regole e questo è stato utile per favorire la crescita. Ora però le regole servono, perché in questa fase sono garanzia di certezza, sicurezza e innovazione.
Microsoft è uno dei maggiori player del cloud: le aziende in Europa abbracciano con convinzione le soluzioni di cloud computing o hanno timori legati alla sicurezza?
Nel cloud applichiamo gli stessi principi che usiamo per l’AI: sicurezza e privacy by design e lavoro congiunto per la co-creazione del software. L’Europa e l’Italia sul cloud stanno crescendo tantissimo e vediamo un futuro tutto in positivo. È vero, alcune aziende o settori industriali sono più restii a cedere il controllo dei loro dati. Ma spesso non si rendono conto che i loro ambienti e data center interni non sono sicuri come pensano, mentre Microsoft e il suo cloud possono fare molto per garantire il massimo della protezione.
Stati Uniti e Europa non sempre si trovano sulla stessa lunghezza d’onda riguardo a temi come privacy e regole. Dopo l’annullamento del Safe Harbor – il quadro normativo per lo scambio transatlantico di dati – ora c’è il Privacy Shield in cui però Bruxelles continua a rilevare criticità. L’Ue chiede a Washington uno sforzo in più.
Sì, è giusto. Ma penso anche che lo sguardo debba essere globale. Abbiamo presentato un approccio simile in tema di cybersecurity: gli attacchi cibernetici sono sempre più spesso pilotati da governi nazionali e abbiamo lanciato la proposta della Convenzione di Ginevra sul digitale per portare governi, aziende hitech e rappresentanti della società civile a collaborare su un accordo vincolante che crea un cyberspazio stabile e sicuro. Lo stesso dovrebbe valere per la privacy e sull’AI: il mondo è uno e sempre più interconnesso e solo un accordo globale può dare certezza e assicurare la crescita.