CYBERSECURITY

Chatgpt, per i responsabili legal nuove gatte da pelare

L’avvento dell’intelligenza artificiale espone le aziende a nuovi rischi: servono misure appropriate anche in termini di compliance per un uso responsabile delle piattaforme. Gartner identifica le sei aree d’azione

Pubblicato il 26 Mag 2023

chatgpt

Sono sei le tipologie di rischio sulle quali i responsabili legal delle imprese dovrebbero tenere gli occhi aperti nel loro rapporto con ChatGpt. Ad affermarlo, proponendo un’analisi delle varie aree d’azione, è Gartner, che mira così a fornire nuovi strumenti per garantire un uso responsabile degli strumenti di AI generativa da parte delle aziende.

Possibili conseguenze legali, reputazionali e finanziarie

“L’output generato da ChatGpt e da altri strumenti Llm (Large language model) è soggetto a diversi rischi – dichiara Ron Friedmann, analista senior director della Legal & Compliance Practice di Gartner -. I responsabili legali e della conformità dovrebbero valutare se questi problemi rappresentano un rischio rilevante per la loro azienda e quali controlli sono necessari. In caso contrario, le aziende potrebbero essere esposte a conseguenze legali, reputazionali e finanziarie”.

I sei rischi di ChatGpt che i responsabili legali e della compliance dovrebbero valutare includono:

Rischio 1 – Risposte false e imprecise

Il problema più comune di ChatGpt e di altri strumenti di Llm è la tendenza a fornire informazioni non corrette, anche se superficialmente plausibili.

ChatGpt è anche incline alle “allucinazioni”, tra cui risposte inventate e sbagliate e citazioni legali o scientifiche inesistenti”, ha dichiarato Friedmann. “I responsabili legali e della compliance dovrebbero emanare delle linee guida che richiedano ai dipendenti di verificare l’accuratezza, l’adeguatezza e l’effettiva utilità di qualsiasi risultato generato da ChatGpt prima di accettarlo”.

Rischio 2 – Privacy e riservatezza dei dati

I responsabili legali e della compliance devono essere consapevoli del fatto che tutte le informazioni inserite in ChatGpt, se la cronologia delle chat non è disabilitata, possono entrare a far parte del set di dati di formazione.

“Le informazioni sensibili, proprietarie o riservate utilizzate nei prompt possono essere incorporate nelle risposte per gli utenti esterni all’azienda”, ha dichiarato Friedmann. “L’ufficio legale e la conformità devono stabilire un quadro di conformità per l’uso di ChatGpt e proibire chiaramente l’inserimento di dati sensibili dell’organizzazione o personali in strumenti Llm pubblici”.

Rischio 3 – Distorsione del modello e dell’output

Nonostante gli sforzi di OpenAI per ridurre al minimo i pregiudizi e le discriminazioni in ChatGpt, si sono già verificati casi noti di questi problemi ed è probabile che persistano nonostante gli sforzi.

“L’eliminazione completa dei pregiudizi è probabilmente impossibile, ma le autorità legali e di conformità devono rimanere al corrente delle leggi che regolano i pregiudizi dell’AI e assicurarsi che le loro linee guida siano conformi”, ha dichiarato Friedmann. “Questo può comportare la collaborazione con gli esperti in materia per garantire che l’output sia affidabile e con le funzioni di revisione e tecnologia per stabilire controlli sulla qualità dei dati”.

Rischio 4 – Rischi legati alla proprietà intellettuale (IP) e al copyright

ChatGpt, in particolare, si basa su una grande quantità di dati internet che probabilmente includono materiale protetto da copyright. Pertanto, i suoi output possono potenzialmente violare le protezioni del copyright o della proprietà intellettuale.

ChatGpt non offre riferimenti alle fonti o spiegazioni su come viene generato il suo output”, ha dichiarato Friedmann. “I responsabili legali e della compliance dovrebbero tenere d’occhio qualsiasi modifica alla legge sul copyright che si applichi all’output di ChatGpt e richiedere agli utenti di controllare qualsiasi output generato per assicurarsi che non violi i diritti di copyright o di proprietà intellettuale”.

Rischio 5 – Rischi di frode informatica

I malintenzionati stanno già abusando di ChatGpt per generare informazioni false (ad esempio, recensioni fake). Inoltre, le applicazioni che utilizzano modelli Llm, tra cui ChatGpt, sono anche suscettibili di prompt injection, una tecnica di hacking in cui vengono utilizzati prompt avversari dannosi per ingannare il modello e fargli eseguire compiti non previsti, come scrivere codici malware o sviluppare siti di phishing che assomigliano a siti noti.

“I responsabili legali e della compliance dovrebbero coordinarsi con i proprietari dei rischi informatici per valutare se e quando emettere dei promemoria al personale della cybersecurity aziendale su questo tema”, ha dichiarato Friedmann. “Dovrebbero inoltre condurre un audit delle fonti di due diligence per verificare la qualità delle loro informazioni”.

Rischio 6 – Rischi per la protezione dei consumatori

Le aziende che non rivelano ai consumatori l’utilizzo di ChatGpt (ad esempio, sotto forma di chatbot per l’assistenza clienti) rischiano di perdere la fiducia dei clienti e di essere accusate di pratiche sleali ai sensi di varie leggi. Ad esempio, la legge sui chatbot della California prevede che in determinate interazioni con i consumatori, le organizzazioni debbano comunicare in modo chiaro e visibile che il consumatore sta comunicando con un bot.

“I responsabili legali e della conformità devono assicurarsi che l’uso di ChatGpt da parte delle loro organizzazioni sia conforme a tutte le normative e leggi pertinenti e che siano state fornite ai clienti le informazioni appropriate”, ha dichiarato Friedmann.

Valuta la qualità di questo articolo

La tua opinione è importante per noi!

Articoli correlati