INTELLIGENZA ARTIFICIALE

ChatGpt, la Germania punta il dito contro l’Italia

Il ministro per il digitale Volker Wissing si appella alla Ue per una regolamentazione comune e critica il Garante Privacy per la decisione di bloccare la piattaforma. Ma il presidente Stanzione difende il provvedimento: “Indichiamo una terza via fra Usa e Cina”. Il dibattito continua a montare e proliferano le iniziative. Il ceo di Google Pichai chiede linee guida “vicine a valore umani”, Musk pronto a lanciare il guanto di sfida a Microsoft con TruthGpt

Pubblicato il 18 Apr 2023

intelligenza artificiale 2

“Se tutti i Paesi in Europa seguiranno questo esempio, non svilupperemo alcuna applicazione AI. Quindi in futuro dovremo occuparci solo di sistemi cinesi e americani”. A parlare è il ministro tedesco dei Trasporti e delle Infrastrutture Digitali, Volker Wissing, che in un’intervista a Bild am Sonntag, ha risposto a una domanda sul divieto di utilizzare ChatGpt imposto in Italia.

“Le persone non vorranno fare a meno di questa tecnologia. Un divieto è completamente nella direzione sbagliata“, ha affermato Wissing, aggiungendo che “dobbiamo reagire con saggezza ora e regolare l’intelligenza artificiale in modo sensato prima che sia troppo tardi. Mi impegno quindi a sostenere la rapida creazione di un quadro giuridico per l’uso dell’intelligenza artificiale in Europa che garantisca che questa nuova tecnologia possa essere utilizzata solo se aderisce ai valori europei come la democrazia, la trasparenza e la neutralità. I sistemi di intelligenza artificiale non devono manipolarci, devono supportarci”, ha chiosato Wissing.

La vision di Stanzione

Ma il presidente dell’Autorità garante della privacy Pasquale Stanzione, parlando con Repubblica, difende il provvedimento “È la pluralità, la convergenza e la gravità delle implicazioni delle possibili violazioni ad avermi indotto a procedere in via cautelare, provvisoria e d’urgenza”, ha dichiarato Stanzione. “La verifica dell’età dell’utente è un aspetto rilevante e abbiamo chiesto alla piattaforma di indicare un metodo che riduca il rischio di false dichiarazioni. E soprattutto che gli utenti siano chiaramente informati che i loro dati vengono usati per un preciso scopo, l’addestramento dell’algoritmo. Noi siamo pronti a riaprire a ChatGpt il 30 aprile, se c’è disponibilità da parte di OpenAI a fare utili passi. Mi pare che da parte dell’azienda ci sia, vediamo“.

Il presidente dell’Autorità ha precisato che “la nostra è una limitazione provvisoria. Siamo di fronte a una multinazionale che supera i confini geografici e i divieti dei singoli Paesi. Ma le regole europee, come il Gdpr, stanno facendo scuola nel mondo. Come Italia indichiamo una via europea all’intelligenza artificiale, che prescinde dal liberismo accentuato statunitense come dal sovranismo autarchico della Cina o della Corea del Nord e si situa nel bel mezzo di questa nuova guerra fredda. La nostra è una strada intermedia, faticosa, per la libertà, la democrazia e la dignità della persona in Europa“.

Pichai chiede una regolamentazione per allineare l’AI ai valori umani

Il dibattito, del resto, va ben oltre i confini europei: il Ceo di Google, Sundar Pichai, intervenendo domenica su Cbs ha chiesto regolamenti e linee guida sull’intelligenza artificiale per garantire che la tecnologia sia “allineata ai valori umani”. L’intelligenza artificiale avrà presto un impatto su “ogni prodotto di ogni azienda” e minaccerà i posti di lavoro, ha spiegato Pichai, chiarendo che scrittori, contabili, architetti, ingegneri del software e altri “lavoratori della conoscenza” subiranno gli impatti maggiori. Pichai ha aggiunto che senza linee guida, l’intelligenza artificiale potrebbe essere oggetto di abusi e potrebbe essere utilizzata per creare rapidamente video deepfake per diffondere disinformazione e potrebbe “causare molti danni” a livello sociale. Per il Ceo di Google lo sviluppo di queste linee guida “non deve includere solo ingegneri, ma scienziati sociali, esperti di etica, filosofi e così via, e penso che dobbiamo agire molto in fretta”. Pichai ha aggiunto che la società deve decidere collettivamente come integrare l’intelligenza artificiale, aggiungendo che “non spetta a un’azienda decidere”, ma la società potrebbe non essere pronta per il ritmo fulmineo dei progressi dell’AI.

E Musk lancia il guanto di sfida con il suo TruthGpt

Mentre Elon Musk ha dichiarato ieri sera al conduttore televisivo conservatore Tucker Carlson che intende creare un’alternativa a ChatGpt che chiamerà “TruthGpt”. L’idea, ha detto Musk, è che un’AI che vuole capire l’umanità è meno probabile che la distrugga. Sarà una “AI alla massima ricerca della verità che cerca di capire la natura dell’universo”. Musk ha anche detto di essere preoccupato che ChatGpt “venga addestrato per essere politicamente corretto“.

Musk si è comunque espresso a favore della regolamentazione dell’intelligenza artificiale, affermando di esserne un “grande fan”. Ha definito l’intelligenza artificiale “più pericolosa” delle automobili o dei razzi e ha detto che ha il potenziale per distruggere l’umanità.

Valuta la qualità di questo articolo

La tua opinione è importante per noi!

Articoli correlati