La ricerca che presentiamo oggi, ci mostra in modo cristallino come i social network costituiscono una rivoluzionaria opportunità di contatto sociale, apprezzatissima dalle diverse fasce di età della fascia giovane della popolazione, che permette non solo di cercare informazioni ma anche di condividere idee ed emozioni. A fronte delle enormi opportunità offerte, l’uso dei social network comporta tuttavia considerevoli rischi connessi all’eccessiva condivisione di informazioni personali di facile strumentalizzazione.
Le ricerca offre moltissimi punti d’interesse, ad esempio trovo molto significativo il dato relativo al fatto che il 65% degli intervistati adotti strategie di limitazione dell’accesso a propri dati scegliendo l’opzione di un profilo privato, a testimonianza che vi è una crescita di consapevolezza nell’utilizzo dei social network.
Come trovo molto interessante, e devo confessare per me nuova, la correlazione fra rischio e danno ove “una maggiore esposizione al rischio non implica sempre e necessariamente una maggiore probabilità di danno; anzi, proprio un comportamento più prudente (tipico, per esempio, delle femmine e – sotto alcuni aspetti – dei preadolescenti) si accompagna spesso con una maggiore probabilità di danno”. Questo dato è sintomatico perché ci mostra che probabilmente il tema della sicurezza della rete non risiede tanto nel limitarne l’uso dei social attraverso comportamenti “prudenziali” – del tipo non pubblico determinate informazioni – ma risiede piuttosto in un uso consapevole della rete che implica una capacità di gestione dei rischi.
Importante è anche la classifica dei rischi che pone il bullismo al primo posto subito dal 29% degli intervistati, seguito dal sexting (23%) e dall’abuso dei dati personali con percentuali variabili intorno al 25%. Questa classifica fornisce, infatti, a noi operatori un ordine delle priorità.
Dal punto di vista del regolatore, bisogna dunque analizzare se a livello nazionale o comunitario, i pubblici poteri sono andati incontro alla casistica dei rischi che la ricerca ci ha illustrato e viceversa quali risposte possono essere date.
Analisi di benchmark internazionale
Nel 2009, i principali fornitori di social network online hanno firmato la Carta “Safer Social Networking Principles”, con cui si sono impegnati a perseguire l’obiettivo comune di massimizzazione dei benefici di Internet, attraverso la predisposizione di strategie di sicurezza che minimizzano il danno potenziale derivante da un uso improprio di internet per bambini e ragazzi. Questi principi sono stati sviluppati dai fornitori di social network online, in consultazione con la Commissione europea, come parte del suo programma Safer Internet Plus, e con un certo numero di organizzazioni non governative.
La Commissione europea ha avviato dal maggio 2012 una “Strategia europea per un Internet migliore per i ragazzi”, nella quale sostiene la necessità di elaborare più contenuti di qualità per i minori e di proteggerli quando sono connessi ad Internet. Per la realizzazione del progetto la Commissione ha dato vita ad una coalizione di imprese leader del settore, allo scopo di sviluppare attraverso procedure di autoregolamentazione le misure adeguate per realizzare cinque azioni strategiche:
a. strumenti di segnalazione semplici ed affidabili per l’utente;
b. impostazioni di privacy adatte all’età;
c. maggior ricorso alla classificazione dei contenuti;
d. maggior diffusione e disponibilità dei controlli parentali;
e. effettiva rimozione dei materiali nocivi.
Il modello è quello dell’autoregolamentazione “guidata” nell’ambito di una strategia che fa leva sulla “la responsabilità delle imprese per il loro impatto sulla società” (RSI – Responsabilità sociale delle imprese).
Sulla stessa linea si è posto il Parlamento Europeo il quale, oltre ad aver invitato la Commissione a riflettere sulle modalità per estendere le disposizioni applicabili ai servizi televisivi ai servizi online, che attualmente non rientrano nel suo campo di applicazione, ha sottolineato come le iniziative di autoregolamentazione e co-regolamentazione rappresentino un passo avanti perché permettono di “reagire con maggior prontezza agli sviluppi nel mondo in rapida evoluzione dei media”. Il Parlamento europeo non ha mancato di evidenziare che è essenziale, a tale proposito, “trovare il giusto equilibrio tra misure volontarie e norme obbligatorie”.
In generale, l’azione a livello europeo si focalizza primariamente sulla prevenzione della pedopornografia e dell’abuso sessuale; risultano ancora poche le azioni vote a risolvere specificatamente il problema del bullismo e della violenza tra i giovani. A livello dei singoli paesi, sono stati intrapresi e sono tutt’ora in atto diverse azioni e dibattiti circa il quadro giuridico atto a prevenire ed affrontare il fenomeno della cyberviolenza.
In assenza di una legislazione specifica, gli Stati membri della Commissione europea hanno provveduto ad affrontare gli aspetti legali relativi al cyberbullismo con normative già esistenti, come le convenzioni sui diritti umani o le leggi contro la discriminazione, il bullismo tradizionale e la libertà di espressione.
A differenza degli Stati Uniti, in cui molti Stati hanno leggi contro il bullismo e il cyberbullismo, in Europa sono state emanate pochissime leggi specifiche sul fenomeno.
· In Italia è stato emanato un regolamento dal Ministero della Pubblica Istruzione nel marzo 2007 teso a disciplinare l’uso dei telefoni cellulari e dei personal computer nelle scuole
· In Francia, diversi casi di violenza sono all’origine della legge del 5 marzo 2007 contro la delinquenza giovanile (227-33-3 del codice penale): le riprese o le foto di violenza possono essere punite con 5 anni di prigionia e una multa di € 75,000.
· Nel Regno Unito, si segnala la sezione 127 del Communication act del 2003, secondo la quale è ritenuto reato l’invio di un messaggio o di altro tipo di comunicazione il cui scopo è insultare, umiliare, minacciare gli altri o il cui contenuto venga considerato osceno e sconveniente attraverso una rete pubblica di comunicazione elettronica.
· In Finlandia le leggi che regolano l’uso delle tecnologie di comunicazione sono poche e si incentrano principalmente sull’uso illegale dei contenuti privati o l’uso di fotografie senza il preventivo consenso.
Come si nota ci troviamo di fronte ad approcci normativi e regolamentari molto eterogenei. Una delle difficoltà nel confrontare l’inquadramento giuridico del cyberbullismo all’interno dei differenti paesi è dovuta alla mancanza di una armonizzazione delle definizioni utilizzate nella descrizione del fenomeno. In Belgio, ad esempio, uno studio evidenzia che la maggior parte degli incidenti segnalati su e-Cops, un sito internet gestito dalla polizia belga per segnalazione di reati, riguardano soltanto i litigi. Il problema è come distinguere litigi e scherzi dal cyberbullismo vero e proprio. Un’altra difficoltà si riscontra nell’individuare le prove dell’intento lesivo come per il bullismo tradizionale. Inoltre, risulta complesso perseguire ragazzi minori e dimostrare la loro responsabilità giuridica. Nel nostro sistema ordinamentale, ad esempio, il minore di quattordici anni non è imputabile (art. 97 c.p.) e quindi non può essere chiamato a rispondere, con l’applicazione delle normali norme di natura sostanziale e processuale, di fatti da lui commessi che costituiscano eventuali ipotesi di reato.
La conseguenza di tali difficoltà e problematiche è l’assenza a livello europeo di una normativa specificatamente legata al cyberbullismo. Ad eccezione del Regno Unito, della Finlandia e, in misura minore, della Francia, che hanno leggi specifiche tese a penalizzare l’uso negativo di dispositivi elettronici, negli altri paesi la cyberviolenza e il cyberbullismo sono trattati attraverso precetti normativi di carattere generale.
La (ir) responsabilità dei provider
Se come evidenziato nei casi di cyberbullismo è complesso svolgere azioni nei confronti dei minori, è diversamente possibile compiere azioni nei confronti dei gestori delle piattaforme? Vediamo alcuni precedenti giurisprudenziali in materia. Nella cornice normativa sulla responsabilità e sulle condotte giuridicamente rilevanti poste in essere dagli Internet Service Provider, la giurisprudenza ha tentato infatti di sopperire alle riscontrate criticità applicative delle norme in esame.
Nel 2013 la Corte europea dei diritti dell’uomo si è pronunciata nella causa Delfi vs Estonia, che riguardava la compatibilità con il principio della libertà di espressione della responsabilità di un portale internet per i commenti diffamatori pubblicati dagli utenti. Questo caso è importante poiché costituisce un precedente che in analogia può essere applicato anche a casi di diffamazione afferenti i minori.
Segnatamente, la Corte ha assolto l’Estonia per aver multato uno dei più grandi portali d’informazione del Paese a seguito della pubblicazione di commenti ritenuti estremamente offensivi e diffamatori in merito ad alcune scelte controverse operate da una compagnia di navigazione marittima. La Corte, in particolare, ha ritenuto che, in ragione della natura dell’articolo, la società avrebbe potuto prevedere la pubblicazione di messaggi offensivi e prestare maggiore attenzione nella fase di monitoraggio al fine di sottrarsi alla possibilità di essere ritenuta responsabile di danno alla reputazione altrui. Dunque, nella sentenza la Corte ha riconosciuto che la responsabilità per i commenti pubblicati sul portale è dei gestori del sito per il fatto di essere gli unici che potevano impedire o cancellare i commenti in questione, cosa che non poteva essere fatta né dagli utenti, né dalla parte offesa, avendo gli stessi gestori fissato le regole per postare i commenti.
Con riferimento all’Italia, è utile ricordare la posizione assunta dalla giurisprudenza nei confronti di un grave episodio di cyberbullismo, ovvero l’upload sul sito di Google di un video che mostra un ragazzino affetto da sindrome di Down malmenato ed ingiuriato da alcuni coetanei.
A seguito di una prima pronuncia di condanna nei confronti di Google per l’insufficiente comunicazione degli obblighi di legge nei confronti degli uploaders, la società ha concluso un accordo stragiudiziale con l’Associazione Vividown (cui era iscritta anche la vittima dell’episodio di pestaggio ripreso dal video incriminato) offrendo ad essa un canale privilegiato per la segnalazione di contenuti lesivi, riconoscendola in sostanza come “trusted user” (utente certificato).
L’applicazione concreta dell’accordo prevede la possibilità di segnalare i video offensivi attraverso una casella di posta privilegiata a cui indirizzare le segnalazioni che potranno divenire nelle successive 24 ore richieste di rimozione concreta del materiale, sulla base dell’istituto del notice and take-down, inteso come rimozione selettiva di un contenuto su segnalazione circostanziata da parte degli utenti.
Nel caso Vividown c. Google il giudice di Milano ha sostenuto che “La distinzione tra content provider e service provider è sicuramente significativa ma, allo stato ed in carenza di una normativa specifica in materia, non può costituire l’unico parametro di riferimento ai fini della costruzione di una responsabilità penale degli internet providers”.
In sede di impugnazione, tuttavia, la Corte d’Appello di Milano ha assolto, con formula piena, i tre dirigenti di Google perché il fatto non sussiste, individuano la responsabilità del trattamento dei dati non nella piattaforma di hosting ma nell’uploader del video. La violazione, dunque, è da ravvisarsi non in capo a Google, ma ai responsabili della pubblicazione online del video.
In particolare la Corte ha affermato che “…demandare ad un internet provider un dovere/potere di verifica preventiva [n.d.r. dei contenuti prodotti e caricati dagli utenti] appare una scelta da valutare con particolare attenzione in quanto non scevra da rischi, poiché potrebbe finire per collidere con forme di libera manifestazione del pensiero”.
Il 17 dicembre 2013 la Terza sezione penale della Corte di Cassazione ha confermato la sentenza assolutoria di appello. Ciò che vale la pena rilevare dopo detta pronuncia, pertanto, è la netta affermazione di un principio di diritto molto chiaro in tema di (ir)responsabilità dell’Internet Service Provider, punto di partenza per un auspicato intervento legislativo in materia.
Linee di policy: proposte
La carenza di norme primarie, spinge il regolatore a delle soluzioni che siano incentrate su due binari:
a) Media education
b) Codici di autoregolamentazione
Non si può pensare di regolare internet come si regolavano i media classici. Nel caso dei giornali o della TV i poteri pubblici potevano esercitare un controllo e dunque una tutela attraverso l’imposizione di regole ad un numero limitato di soggetti che gestivano la veicolazione di informazioni e dei contenuti agli utenti finali. Internet ha cambiato questo paradigma poiché la rete si fonda sull’interazione di milioni di persone, risulta dunque complesso regolare una platea di utenti così vasta.
Ne deriva che è importante insegnare ai giovani ad utilizzare la rete in modo consapevole, dando essi gli strumenti cognitivi per comprenderne i rischi e le opportunità del Web. Le meda education, non a caso, è uno dei punti qualificanti dell’Agenda europea 2020, ed è già stata utilizzata da Agcom come leva di regolazione per i servizi Internet.
Posso citare il caso del Regolamento sulla tutela del diritto d’autore sulle reti di comunicazione elettronica, che prevede importanti misure di education volte a favorire un uso consapevole della rete da parte dei minori, considero questo atto, una significativa innovazione sul piano del metodo. Ad esempio, il regolamento istituisce un apposito Comitato per la promozione dell’offerta legale, dove sono rappresentate tutte le categorie interessate: tra le quali il Comitato media e minori. Il Comitato Agcom, tra i vari compiti, incoraggia l’adozione di codici di condotta da parte degli operatori e promuove misure di educazione alla legalità nella fruizione di opere digitali.
Inoltre in concomitanza all’entrata in vigore del regolamento, come prima azione, l’Agcom ha prodotto uno spot che ha diffuso gratuitamente sulle reti televisive nazionali, il cui claim è “Informati, divertiti e condividi esperienze con opere digitali legali: permetterai alla cultura di continuare a fiorire”. Il target privilegiato di questa campagna educativa erano i giovani in qualità di utilizzatori massivi di internet. L’educazione alla legalità, nella strategia del Consiglio di Agcom è dunque una leva su cui puntare.
Passiamo al secondo punto: codici di autodisciplina e codici di autoregolamentazione rappresentano il risultato del fenomeno della formazione negoziale del diritto, nella quale l’autonomia privata diviene collettiva e funzionale all’esecuzione o all’integrazione della norma. Il fenomeno ha assunto una dimensione ampia e omogenea in Europa nell’ultimo decennio grazie all’azione dell’Unione Europea, che ha incoraggiato l’autonomia collettiva quale forma consentita agli Stati membri per raggiungere gli obiettivi individuati dalle direttive.
L’evoluzione dei fenomeni di produzione negoziata del diritto assume un interesse particolare in relazione all’ambiente internet. Lo strumento dell’autoregolamentazione e dell’autodisciplina nel campo della rete, incoraggiato dalle fonti comunitarie e nazionali, è ritenuto tra i più adatti alla gestione dei fenomeni della società dell’informazione, in condizioni che garantiscano la sicurezza dei navigatori, soprattutto se appartenenti a categorie meritevoli di specifica protezione. Secondo il dato che emerge, ad esempio, dal Libro Bianco Media e Minori, l’autoregolamentazione di Internet è più sviluppata nel Nord Europa, dove il tasso di penetrazione della larga banda è più alto, rispetto al Sud d’Europa.
Naturalmente non bisogna approcciare a questi temi con una visione ingenua, poiché sappiamo che spesso gli interessi dei gestori della piattaforme possono confliggere con quelle dei minori. Facciamo un esempio concreto in tema di pedofilia: è noto che la rete è utilizzata da pediofili per adescare minori, l’adescamento avviene il più delle volte attraverso profili fake. Se si vuole realmente combattere la pedofilia su internet, un passo importante sarebbe la cancellazione di tutti i profili fake dalla piattaforme social.
Ne discutevo qualche girono fa con uno dei massimi esperti mondiali dell’ingegneria di internet (l’ing. Agostino Sibillo), il quale mi spiegava che da un punto di vista tecnico scoprire un profilo fake è un’attività relativamente semplice.
Se è così facile, perché non si fa? Semplice, il valore di un social network è basato sul numero degli iscritti, il numero dei profili fake è estremante rilevante in termini percentuali e cancellare iscritti vuol dire perdere di valore.
Qual è la morale? Le misure di soft regulation sono necessarie perché hanno la flessibilità necessaria per adattarsi alle caratteristiche di internet, ma esse da sole non sono sufficienti, è comunque imprescindibile un intervento di rango primario che tuteli i diritti fondamentali della persona su internet come sugli altri media. In tale senso la ricerca che presentiamo aggi, rappresenta sicuramente un importante passo in avanti verso la consapevolezza dei problemi che è la base per spronare il legislatore ad adottare misure positive ed efficaci.
In questa ottica, come AGCOM, monitoreremo con attenzione gli esiti del percorso di approvazione del disegno di legge n. 1261, recante “Disposizioni a tutela a dei minori per la prevenzione e il contrasto del fenomeno del cyberbullismo” che attualmente è all’esame della Commissione Affari Sociali della Camera.