STRATEGIE

Intelligenza artificiale “umano-centrica”, l’Europa detta le linee guida

Algoritmi sicuri, controllo dati in mano agli utenti, accountability dei sistemi fra i requisiti richiesti dalla Commissione Ue a industria e ricerca. Via a giugno alla fase pilota. Ansip: “Dimensione etica cruciale per le prossime sfide”

Pubblicato il 08 Apr 2019

artificiale-intelligenza-AI-robotica

Algoritmi sicuri e affidabili, controllo dei dati in mano agli utenti, accountability dei sistemi. Sono alcuni dei principi cui dovranno attenersi industria e ricerca per mettere a punto soluzioni di Intelligenza artificiale in grado di superare le sfide etiche del futuro.

Lo dice la Commissione europea che annuncia una serie di linee guida e pianifica per giugno l’apertura di una fase pilota basata sulle indicazioni del gruppo di esperti di alto livello nominati a giugno 2018. L’Europa punta a spingere investimenti pubblici e privati ​​sulla AI di almeno 20 miliardi l’anno nel prossimo decennio.

La AI può aiutare a individuare  frodi e minacce alla cybersicurezza – spiega la Commissione – migliorare la gestione dei rischi sanitari e affrontare i cambiamenti climatici, “ma può anche essere usata per supportare pratiche commerciali senza scrupoli e governi autoritari”.

“La dimensione etica dell’IA non è un accessorio – avverte il vp per il mercato unico digitale Andrus Ansip -. È solo con la fiducia che la nostra società può trarre pieno beneficio dalle tecnologie. Un’Intelligenza artificiale etica può diventare un vantaggio competitivo per l’Europa: puntiamo a una AI umanocentrica”.

“Ora disponiamo delle fondamenta grazie all’impegno di molti stakeholder comprese imprese, mondo accademico e società civile – dice la commissaria per l’economia e la società digitale Mariya Gabriel -. Applicheremo questi requisiti alla pratica”.

Già entro giugno aziende, amministrazioni pubbliche e organizzazioni possono iscriversi alla fase pilota (i dettagli saranno illustrati domani nel corso del terzo Digital Day di Bruxelles). Dopo di che gli esperti esamineranno i risultati e la Commissione deciderà i prossimi passi.

Fra gli altri requisiti richiesti una AI in grado di rispettare tutte le leggi e i regolamenti, sistemi orientati al raggiungimento di una società equa senza limitare o fuorviare l’autonomia umana, algoritmi siano sicuri, affidabili e robusti, controllo dei dati in mano ai cittadini, tracciabilità dei sistemi, adesione a principi di non discriminazione ed equità, accountability dei meccanismi.

Entro l’autunno 2019 la Commissione avvierà una serie di network di centri di eccellenza sulla ricerca nel settore.

Valuta la qualità di questo articolo

La tua opinione è importante per noi!

Articoli correlati

Articolo 1 di 2