L’INTERVENTO

Intelligenza artificiale, allarme Onu: “Grave minaccia per i diritti umani”

L’Alto Commissario delle Nazioni Unite mette in guardia sui rischi e invoca “efficaci misure di salvaguardia”. Intanto Microsoft limita le chat di Bing AI dopo alcune conversazioni “inquietanti” del chatbot

Pubblicato il 20 Feb 2023

intelligenza artificiale 2

I recenti progressi dell’intelligenza artificiale (AI) rappresentano una grave minaccia per i diritti umani. Lo afferma l’Alto Commissario delle Nazioni Unite per i Diritti Umani, chiedendo che vengano messe in atto “efficaci misure di salvaguardia”. “Sono profondamente turbato dai potenziali danni derivanti dai recenti progressi dell‘intelligenza artificiale“, ha dichiarato Volker Turk in una breve dichiarazione. “La dignità umana e tutti i diritti umani sono seriamente minacciati”, ha aggiunto.

Turk ha lanciato “un appello urgente alle aziende e ai governi affinché sviluppino rapidamente misure di salvaguardia efficaci”. “Seguiremo da vicino la questione, apporteremo la nostra esperienza specifica e faremo in modo che la dimensione dei diritti umani rimanga centrale nell’evoluzione della questione”, ha chiarito.

Oltre 60 i Paesi che chiedono una regolamentazione in campo militare

Decine di Paesi, tra cui gli Stati Uniti e la Cina, hanno sollecitato in questi giorni la regolamentazione dello sviluppo e dell’uso dell’intelligenza artificiale in campo militare, citando il rischio di “conseguenze indesiderate”. Il testo, firmato da più di 60 Paesi, solleva anche preoccupazioni sulla “questione del coinvolgimento umano, nonché sulla mancanza di chiarezza in materia di responsabilità” e sulle “potenziali conseguenze indesiderate”.

Unione Europea verso l’AI Act

Ma l’AI si sta diffondendo anche nella vita quotidiana, dagli smartphone alla salute e alla sicurezza. E’ diventata il nuovo campo di battaglia per i giganti di Internet, con Microsoft che ha iniziato a puntare miliardi su ChatGpt. L’intelligenza artificiale promette una rivoluzione nella ricerca su Internet e in altri usi ancora da inventare. Ma gli esperti avvertono che presenta anche dei rischi (violazione della privacy, algoritmi distorti, ecc.) che richiederanno una regolamentazione, difficile da mettere in atto dato il rapido progresso di queste tecnologie. Diversi Paesi democratici vogliono quindi regolamentare il settore: la stessa Unione Europea è al centro di questi sforzi normativi e il suo progetto di legge “AI Act”, che dovrebbe incoraggiare l’innovazione e prevenire gli abusi, potrebbe essere finalizzato alla fine del 2023 o all’inizio del 2024, per entrare in vigore nel giro di qualche anno.

Chat più brevi con la chatbot di Bing AI

Intanto, in casa Microsoft, sono in arrivo novità per la chatbot di Bing AI: l’utilizzo sarà infatti limitato a 50 domande al giorno e cinque domande e risposte per singola sessione. La mossa limiterà alcuni scenari in cui lunghe sessioni di chat possono “confondere” il modello.
Il cambiamento arriva dopo che i primi beta tester del chatbot, progettato per migliorare il motore di ricerca Binghanno scoperto che poteva “andare fuori dai binari e discutere di violenza, dichiarare amore e insistere sul fatto che qualcosa era giusto quando era sbagliato”, spiega Microsoft. In un post sul blog aziendale, la big tech ha  attribuito le colpe dei possibili malfunzionamenti, con il bot che si è ripetuto o ha dato risposte inquietanti, alle lunghe sessioni di chat di oltre 15 o più domande. Ora, quindi, la società interromperà i lunghi scambi di chat con il bot.

Il bot Microsoft “in pasto” al pubblico, Google più “prudente” con Bard

La drastica soluzione di Microsoft al problema evidenzia che il modo in cui funzionano questi nuovi modelli di linguaggio è ancora in fase di evoluzione. La società ha quindi sollecitato idee dai suoi tester, affermando che l’unico modo per migliorare i prodotti di intelligenza artificiale è renderli pubblici e imparare dalle interazioni degli utenti.
L’approccio aggressivo di Microsoft all’implementazione della nuova tecnologia AI contrasta con quello di Google, che ha sviluppato un chatbot concorrente chiamato Bard, ma non lo ha rilasciato al pubblico per timore di “rischi di reputazione e problemi di sicurezza” con l’attuale stato della tecnologia.

Valuta la qualità di questo articolo

La tua opinione è importante per noi!

Articoli correlati