Tra gli use case più interessanti e più semplicemente implementabili attraverso la tecnologia ChatGpt, un nuovo modello di inteligenza artificiale conversazionale lanciato da OpenAI, ci sono quelle che fanno parte dell’ambito della computer vision, del software engineering e della ricerca e sviluppo in ambito scientifico. A sottolinearlo sul sito aziendale è Bern Elliott, vice president e distinguished analyst in Gartner Research.
Nel gruppo dei modelli che varrebbe la pena di citare, secondo lo studioso, ci sono quelli per creare immagini partendo da testi, o per generare, revisionare e valutare codici per il linguaggio naturale, ad esempio nel campo degli smart contract. Fino ad arrivare all’healthcare e alla creazione di nuovi farmaci o alla decifrazione di sequenze genomiche per la classificazione delle malattie.
Chatbot e ChatGpt
A livello generale le chatbot, o assistenti conversazionali, sono in grado di fornire un’interazione accurata con una fonte di informazioni, e trovano principalmente applicazione, ad esempio, nei rapporti con la clientela. Quanto alle ChatGpt, sono un tipo specifico di chatbot dove la tecnologia è utilizzata per interagire con una fonte di informazioni Gpt3, un modello linguistico autoregressivo che utilizza il deep learning e un modello di training specifico per produrre testi simili al linguaggio naturale. I dati utilizzati per il training determinano il modo in cui vengono fornite le risposte. Ma dal momento che le ChatGpt si distinguono per la capacità di generare “autonomamente” informazioni, e che quindi hanno un margine d’errore più alto, vanno utilizzate secondo Elliott in frangenti in cui gli errori possano essere tollerati o corretti.
Perché ChatGpt suscita tanto interesse
L’aspetto più interessante di ChatGpt, secondo l’analisi di Bern Elliott, è il fatto che sia una fusione “perfetta” tra la tecnologia delle chatbot e il Gpt3: il risultato è quello di abilitare un nuovo modello di interazione e la capacità di produrre autonomamente contenuti che hanno sempre più caratteristiche simili a quelli “umani”, grazie a una serie di progressi compiuti negli ultimi anni su entrambi i fronti.
Interazioni smart e “comprensione” dei temi
Da una parte infatti i chatbot consentono interazioni sempre più smart attraverso il modello conversazionale, e dall’altra Gpt3 è in grado di produrre testi e contenuti che danno la percezione di aver “compreso” il tema, il contenuto e il contesto. Mettendo insieme queste due caratteristiche l’utente avrà la percezione di trovarsi di fronte a un interlocutore che reagisce come un umano, ad esempio modulando toni o stati d’animo.
I margini di errore di ChatGpt
“Sfortunatamente – sottolinea però Elliott – i contenuti non sono a volte corretti, e in ogni caso non sono mai basati su una capacità di comprensione o su un’intelligenza paragonabile a quella umana. Il problema anzi può essere proprio il significato che diamo ai termini ‘comprensione’ e ‘intelligenza’, che racchiudono già in sé una componente umana”.
Il campo d’azione ideale di ChatGpt
Partendo da questa base, secondo l’analisi di Elliott le prospettive più utili per considerare chatbot e large language models come potenziali campi di applicazione della tecnologia Gpt devono essere limitate a situazioni specifiche: “Il loro successo – spiega lo studioso – è strettamente legato all’identificazione delle applicazioni che offrono i benefici più grandi a seconda delle organizzazioni”.
Le preoccupazioni etiche
Accanto ai benefici che derivano dall’applicazione di questo nuovo livello nel campo dell’intelligenza artificiale, secondo Elliott, come la riduzione dei costi e di tempi per creare nuovi modelli, si propongono anche una serie di rischi e preoccupazioni dal punto di vista etico. Dal punto di vista della complessità – che potrebbe essere a un livello troppo alto e tagliare fuori alcuni player – alla concentrazione di potere che potrebbe rimanere nelle mani di pochi grandi produttori e imprese tecnologiche, le sole a potersi permettere grandi investimenti anche per l’acquisizione di talenti e potrebbero creare squilibri sul mercato del futuro.
Il rischio di utilizzi impropri di ChatGpt
C’è poi la preoccupazione degli eventuali utilizzi impropri di queste tecnologie: potrebbe infatti diventare progressivamente più semplice creare dei fake in tutto e per tutto simili agli originali, fino a causare gravi danni gravi in termini di reputazione alle vittime o a contribuire a generare tensioni geopolitiche. Oltre all’utilizzo in malafede, poi, ci sono i rischi che potrebbero derivare da un training non accurato che possa portare a risultati errati o inaccettabili. E infine un ultimo problema potrebbe essere legato alla proprietà intellettuale: “Non è chiaro – argomenta Elliott – come debba essere considerato dal punto di vista legale il riuso di contenuti creati attraverso questi strumenti quando questi si basano per il proprio training su contenuti protetti dalla proprietà intellettuale.
Integrare i modelli in modo etico
Per i responsabili dei comparti data&analytics che vogliano implementare le nuove tecnologie di ChatGpt Elliott fornisce alcuni consigli utili, a partire dall’utilizzo di strumenti di natural language processing – inizialmente – per applicazioni che non si rivolgano agli utenti finali e che si concentrino su ambiti specifici, prediligendo le situazioni in cui gli output passino dalla revisione di operatori umani. Sarà importante inoltre creare un documento strategico che sottolinei benefici, rischi, opportunità e un percorso di sviluppo dell’implementazione della tecnologia Gpt.
Dare priorità ai vendor “reponsabili”
Elliot consiglia inoltre di utilizzare modelli Api basati sul cloud, e di scegliere soluzioni in grado di fornire le performace e l’accuratezza di cui si ha bisogno per snellire le complessità operative, consumare meno energia e ottimizzare il costo complessivo delle soluzioni. Tutto questo dando la priorità ai vendor che promuovono uno sviluppo responsabile dei modelli pubblicando le loro linee guida e documentando i punti deboli e le vulnerabilità, in un clima collaborativo per condividere e scoprire i casi di uso improprio o pericoloso della tecnologia.