L’intelligenza artificiale potrebbe portare all’estinzione umana, e la riduzione dei rischi associati a questa tecnologia dovrebbe essere una priorità globale. L’hanno dichiarato in una breve open letter (sottoscrivibile online dai membri della comunità scientifica internazionale) alcuni esperti del settore e leader tecnologici, tra cui lo stesso Sam Altman, ceo di OpenAI, che ha dato vita alla piattaforma di intelligenza artificiale generativa ChatGpt.
Il dibattito sui rischi dell’intelligenza artificiale
“Mitigare il rischio di estinzione dell’intelligenza artificiale dovrebbe essere una priorità globale, insieme ad altri rischi a livello di società come le pandemie e la guerra nucleare”, si legge nella dichiarazione. Altman e i dirigenti del ramo AI di Google DeepMind e di Microsoft sono stati tra coloro che hanno sostenuto e firmato la dichiarazione del Center for AI Safety.
La tecnologia, come ormai tutti sanno, ha conosciuto un exploit negli ultimi mesi, dopo che il chatbot ChatGpt è stato rilasciato per l’uso pubblico a novembre diventando immediatamente virale. In soli due mesi dal lancio, ha raggiunto 100 milioni di utenti. ChatGpt ha stupito anche gli addetti ai lavori per la sua capacità di generare risposte simili a quelle umane alle richieste degli utenti, suggerendo che l’AI potrebbe sostituire il lavoro e imitare gli esseri umani.
La open letter afferma che si discute sempre più spesso di un “ampio spettro di rischi importanti e urgenti legati all’AI”. Ma può essere “difficile esprimere preoccupazioni su alcuni dei rischi più gravi dell’AI avanzata“. L’obiettivo dunque è superare questo ostacolo e aprire il confronto.
Già a marzo Altman aveva ammesso di essere “un po’ spaventato” dall’AI perché teme che governi autoritari possano sviluppare questa tecnologia. Altri leader tecnologici, come Elon Musk e l’ex ceo di Google Eric Schmidt, hanno messo in guardia sui rischi che l’AI comporta per la società.
In una lettera aperta di marzo, Elon Musk, il cofondatore di Apple Steve Wozniak e diversi leader tecnologici hanno esortato i laboratori di intelligenza artificiale a smettere di addestrare sistemi più potenti del Gpt-4, l’ultimo modello linguistico di OpenAI. Hanno anche chiesto una pausa di sei mesi per lo sviluppo avanzato.