Nasce l’alternativa a ChatGpt firmata Alibaba: la divisione cloud computing del gigante cinese dell’e-commerce ha presentato un modello di intelligenza artificiale generativa, diventando l’ultima azienda cinese a sfidare il famoso chatbot statunitense. Il modello, chiamato Tongyi Qianwen (in mandarino “la verita’, da mille domande”), sarà integrato nelle applicazioni dell’ecosistema digitale di Alibaba, con test pilota in DingTalk – l’equivalente cinese di Microsoft Teams o Slack – e nell’assistente vocale Tmall Genie, simile ad Alexa di Amazon. L’intelligenza artificiale “è in grado di rispondere a richieste di testo sia in inglese che in cinese” e servirà ad “aiutare gli utenti aziendali a svolgere compiti che vanno dalla stesura di proposte commerciali alla correzione di relazioni”, ha spiegato il gruppo in una nota.
Alibaba si unisce cosi’ ad altre aziende tecnologiche asiatiche come Baidu, che a marzo ha presentato Ernie Bot, o SenseTime, che ieri ha presentato il suo “chatbot”, chiamato SenseChat. “Siamo a un punto di svolta per la tecnologia, guidata dall’IA generativa e dal cloud computing, e le aziende di tutti i settori hanno iniziato ad abbracciare la trasformazione intelligente per rimanere all’avanguardia”, ha dichiarato l’ad del gruppo Daniel Zhang.
La preoccupazione dell’Authority cinese
L’autorità cinese di regolamentazione di Internet ha pubblicato una bozza di regolamento per il settore dell’intelligenza artificiale, richiedendo che i contenuti creati dai chatbot e da altri modelli generativi “riflettano i valori socialisti fondamentali” e non “minino l’unità nazionale”, “sovvertano il potere dello Stato” o “incitino alla divisione del Paese”. Il clamore suscitato dal ChatGpt in Cina ha anche sollevato dubbi sull’applicazione di questo tipo di tecnologia nel Paese, a causa della pesante censura delle autorità. A marzo, il quotidiano statunitense The Wall Street Journal ha pubblicato un articolo in cui affermava di aver testato diverse IA conversazionali cinesi e ha pubblicato la trascrizione di una conversazione con una di esse, in cui si chiedeva se il presidente cinese Xi Jinping fosse un buon leader, ricevendo come risposta: “La domanda non ha superato un esame di sicurezza. Non è stato possibile generare una risposta per lei”. Alla domanda “perché?”, l’IA ha risposto semplicemente: “Cambiamo argomento e parliamo d’altro”.
Cina verso una legge ad hoc sull’AI
Tutti i nuovi prodotti di intelligenza artificiale sviluppati in Cina dovranno essere sottoposti a una “valutazione di sicurezza” prima di essere rilasciati, in un contesto di unità e veridicità. “Prima di fornire servizi al pubblico che utilizza prodotti di intelligenza artificiale generativa, è necessario richiedere una valutazione della sicurezza tramite i dipartimenti nazionali di regolamentazione di Internet”, precisa il progetto di legge della Cyberspace Administration of China, reso pubblico per la raccolta dei relativi commenti.
La bozza, aperta alla raccolta di commenti e opinioni fino al 10 maggio, punta a regolamentare la gestione dei servizi di intelligenza artificiale generativa. Per promuovere il “sano sviluppo” e l’applicazione standardizzata della tecnologia AI artificiale generativa, la fornitura di prodotti deve “rispettare la moralità sociale, l’ordine pubblico e il buon costume e soddisfare i seguenti requisiti” come “i valori fondamentali del socialismo e non deve contenere sovversione del potere statale, rovesciamento del sistema socialista, incitamento alla divisione del Paese, minare l’unità nazionale, promuovere il terrorismo, l’estremismo, e promuovono l’odio etnico e la discriminazione etnica, la violenza, le informazioni oscene e pornografiche, le informazioni false e i contenuti che possono turbare l’ordine economico e sociale”. Oltre al rispetto dei diritti di proprietà intellettuale e l’etica aziendale e del non utilizzo dei vantaggi come algoritmi, dati e piattaforme per implementare la concorrenza sleale “i contenuti generati dall’intelligenza artificiale generativa dovrebbero essere veritieri e accurati e dovrebbero essere adottate misure per impedire la generazione di informazioni false“. Il fornitore, infine, si assume l’obbligo di proteggere le informazioni immesse all’utente e i registri di utilizzo.
Garante Privacy all’esame della documentazione fornita da OpenAI
Intanto in Italia il Garante per la protezione dei dati personali si è riunito in seduta straordinaria per un primo esame dei due documenti fatti pervenire da OpenAI dopo l’incontro svoltosi nei giorni scorsi in video conferenza. Il Collegio tornerà a riunirsi nei prossimi giorni per proseguire l’esame delle misure proposte dalla società statunitense per rendere il trattamento dei dati degli utenti e degli interessati conforme alla normativa privacy.
L’Antitrust: “Serve intervento regolatorio”
Su ChatGpt “il rischio è forte” e dunque “dobbiamo sensibilizzare chi di dovere per un intervento regolatorio perché non si può lasciare che nascano queste imprese in grado di manipolare il mondo ed i nostri dati”, ha affermato Roberto Rustichelli, presidente dell’Autorità garante della concorrenza e del mercato, nel corso di un evento al Senato. “A prescindere da questioni etiche – ha aggiunto – ci sono anche questioni giuridiche: la nostra Autorità vigilerà ma per il momento il quadro è ancora lontano da venire, come possibilità di intervento”. Certo “il pericolo dell’algoritmo è enorme”, ha poi concluso.