I recenti progressi dell’intelligenza artificiale (AI) rappresentano una grave minaccia per i diritti umani. Lo afferma l’Alto Commissario delle Nazioni Unite per i Diritti Umani, chiedendo che vengano messe in atto “efficaci misure di salvaguardia”. “Sono profondamente turbato dai potenziali danni derivanti dai recenti progressi dell‘intelligenza artificiale“, ha dichiarato Volker Turk in una breve dichiarazione. “La dignità umana e tutti i diritti umani sono seriamente minacciati”, ha aggiunto.
Turk ha lanciato “un appello urgente alle aziende e ai governi affinché sviluppino rapidamente misure di salvaguardia efficaci”. “Seguiremo da vicino la questione, apporteremo la nostra esperienza specifica e faremo in modo che la dimensione dei diritti umani rimanga centrale nell’evoluzione della questione”, ha chiarito.
Oltre 60 i Paesi che chiedono una regolamentazione in campo militare
Decine di Paesi, tra cui gli Stati Uniti e la Cina, hanno sollecitato in questi giorni la regolamentazione dello sviluppo e dell’uso dell’intelligenza artificiale in campo militare, citando il rischio di “conseguenze indesiderate”. Il testo, firmato da più di 60 Paesi, solleva anche preoccupazioni sulla “questione del coinvolgimento umano, nonché sulla mancanza di chiarezza in materia di responsabilità” e sulle “potenziali conseguenze indesiderate”.
Unione Europea verso l’AI Act
Ma l’AI si sta diffondendo anche nella vita quotidiana, dagli smartphone alla salute e alla sicurezza. E’ diventata il nuovo campo di battaglia per i giganti di Internet, con Microsoft che ha iniziato a puntare miliardi su ChatGpt. L’intelligenza artificiale promette una rivoluzione nella ricerca su Internet e in altri usi ancora da inventare. Ma gli esperti avvertono che presenta anche dei rischi (violazione della privacy, algoritmi distorti, ecc.) che richiederanno una regolamentazione, difficile da mettere in atto dato il rapido progresso di queste tecnologie. Diversi Paesi democratici vogliono quindi regolamentare il settore: la stessa Unione Europea è al centro di questi sforzi normativi e il suo progetto di legge “AI Act”, che dovrebbe incoraggiare l’innovazione e prevenire gli abusi, potrebbe essere finalizzato alla fine del 2023 o all’inizio del 2024, per entrare in vigore nel giro di qualche anno.
Chat più brevi con la chatbot di Bing AI
Intanto, in casa Microsoft, sono in arrivo novità per la chatbot di Bing AI: l’utilizzo sarà infatti limitato a 50 domande al giorno e cinque domande e risposte per singola sessione. La mossa limiterà alcuni scenari in cui lunghe sessioni di chat possono “confondere” il modello.
Il cambiamento arriva dopo che i primi beta tester del chatbot, progettato per migliorare il motore di ricerca Bing, hanno scoperto che poteva “andare fuori dai binari e discutere di violenza, dichiarare amore e insistere sul fatto che qualcosa era giusto quando era sbagliato”, spiega Microsoft. In un post sul blog aziendale, la big tech ha attribuito le colpe dei possibili malfunzionamenti, con il bot che si è ripetuto o ha dato risposte inquietanti, alle lunghe sessioni di chat di oltre 15 o più domande. Ora, quindi, la società interromperà i lunghi scambi di chat con il bot.
Il bot Microsoft “in pasto” al pubblico, Google più “prudente” con Bard
La drastica soluzione di Microsoft al problema evidenzia che il modo in cui funzionano questi nuovi modelli di linguaggio è ancora in fase di evoluzione. La società ha quindi sollecitato idee dai suoi tester, affermando che l’unico modo per migliorare i prodotti di intelligenza artificiale è renderli pubblici e imparare dalle interazioni degli utenti.
L’approccio aggressivo di Microsoft all’implementazione della nuova tecnologia AI contrasta con quello di Google, che ha sviluppato un chatbot concorrente chiamato Bard, ma non lo ha rilasciato al pubblico per timore di “rischi di reputazione e problemi di sicurezza” con l’attuale stato della tecnologia.