All’indomani della fase acuta dell’emergenza coronavirus nel vecchio continente, Google ha condiviso con la Commissione europea la propria vision sullo sviluppo e suo ruolo delle soluzioni di intelligenza artificiale. Secondo l’azienda, è evidente che l’emergenza Covid-19 abbia cambiato molte cose nel mondo. Ma a prescindere da questo l’impegno di Google verso il potenziale della rete di partnership in Europa sull’intelligenza artificiale, in particolare quelle partnership utili per affrontare la pandemia e per supportare le persone e in generale l’economia a rialzarsi, rimarrà lo stesso.
Google conferma il sostegno ai progetti europei sull’Ai
A gennaio, il Ceo del gruppo Sundar Pichai era stato a Bruxelles per parlare di come Google stia promuovendo l’uso di questa tecnologia “a beneficio delle persone e delle aziende attraverso una serie di partnership”. A seguito di questi primi contatti, Google ha presentato ieri la propria risposta alla consultazione sull’intelligenza artificiale della Commissione europea, portando il proprio contributo per valorizzare l’iniziale proposta della Commissione su come regolare e accelerare l’adozione dell’Intelligenza artificiale.
“Google, si legge in una nota del gruppo, “sostiene l’obiettivo della Commissione di costruire un ‘ecosistema di eccellenza europeo‘. Le partnership con le università europee e i centri di ricerca sull’Ai a Zurigo, Amsterdam, Berlino, Parigi e Londra sono un esempio di come la società confermi questo impegno”. Il prossimo mese, Google estenderà il Machine Learning Checkup, avviato per la prima volta in Italia, a 11 paesi europei. Google Cloud collabora già strettamente con decine di aziende in tutta Europa per aiutarle a innovare utilizzando l’Ai. Mountain View sostiene inoltre “l’obiettivo della Commissione di creare un quadro per l’innovazione dell’Ai che creerà fiducia e guiderà lo sviluppo etico e l’uso di questa tecnologia ampiamente applicabile”.
Se le applicazioni Ai possono essere ad alto rischio
Il processo di sviluppo dell’Ai, inoltre, deve dare alle persone la sicurezza che il sistema di intelligenza artificiale che stanno utilizzando sia affidabile e sicuro. Ciò è particolarmente vero, rimarca Google, per applicazioni come le nuove tecniche diagnostiche mediche, che potenzialmente consentono ai medici qualificati di offrire diagnosi più accurate, interventi precedenti e migliori risultati per i pazienti. “Tuttavia, i requisiti devono essere proporzionati al rischio e non dovrebbero limitare indebitamente l’innovazione, l’adozione e l’impatto. Alcuni usi richiedono un controllo e garanzie supplementari per affrontare sfide autentiche e complesse in materia di sicurezza, equità, spiegabilità, responsabilità e interazioni umane. Per i (probabilmente) rari casi in cui le applicazioni ad alto rischio dell’Ai non sono coperte dalle normative esistenti, Google è a favore di linee guida chiare sui criteri di due diligence che le aziende dovrebbero usare nei loro processi di sviluppo”.
L’aggiornamento dei principi etici interni a Google
Nel 2018 Google ha pubblicato i principi di intelligenza artificiale per aiutare a guidare lo sviluppo etico e l’uso dell’Ai all’interno dell’organizzazione, e anche stabilito processi di revisione per poter evitare distorsioni ed effettuare test rigorosi per la sicurezza. Questi principi specificano anche aree in cui Google non progetterà né implementerà l’intelligenza artificiale, come per esempio la sorveglianza di massa e possibili violazioni dei diritti umani. Nelle prossime settimane, annuncia l’azienda, ci sarà un aggiornamento per quanto riguarda questi principi.