TikTok si adegua alle richieste del Garante Privacy. Il 9 febbraio scatterà il “D-Day”: blocco di tutti gli utenti italiani, che dovranno indicare di nuovo la data di nascita per permettere alla piattaforma di escludere gli under13: successivamente sarà un sistema di Intelligenza artificiale a innescare il processo di “age verification”.
Lo comunica la società dopo il provvedimento di stop imposto nei giorni scorsi dall’Autorità che, in ogni caso, si riserva “di verificare l’effettiva efficacia delle misure annunciate”.
Da domani prende inoltre il via una campagna di sensibilizzazione sulla sicurezza all’interno dell’app e su altri canali media in Italia per aumentare, fa sapere una nota della società, “la consapevolezza e l’educazione sugli strumenti e le funzionalità di sicurezza disponibili su TikTok per tutti”.
Il blocco degli utenti italiani
A partire dal 9 febbraio, dando attuazione alle richieste del Garante, Tik Tok bloccherà tutti gli utenti italiani e chiederà di indicare di nuovo la data di nascita prima di continuare ad utilizzare l’app. Una volta identificato un utente al di sotto dei 13 anni, il suo account verrà rimosso.
Per identificare con ragionevole certezza gli utenti sotto i 13 anni, successivamente a questa prima verifica, la società si è impegnata a valutare ulteriormente l’uso di sistemi di intelligenza artificiale. Poiché l’individuazione di tali soluzioni richiede un bilanciamento tra la necessità di accurate verifiche e il diritto alla protezione dei dati dei minori, la società si è impegnata ad avviare con l’Autorità privacy dell’Irlanda – Paese nel quale la piattaforma ha fissato il proprio stabilimento principale – una discussione sull’utilizzo dell’intelligenza artificiale a fini di “age verification”.
A seguito dell’intervento del Garante, dal 25 gennaio Tik Tok ha anticipato l’introduzione direttamente nell’app di un pulsante che permette agli utenti di segnalare rapidamente e facilmente altri utenti che sembrano avere meno di 13 anni. Tutto ciò sarà in aggiunta alle attuali misure esistenti. TikTok si è anche impegnata a duplicare il numero dei moderatori di lingua italiana dei contenuti presenti sulla piattaforma.
Più informazioni agli utenti
La campagna informativa – sia sulla app che su altri canali – prevede che sulla app, la società invierà notifiche push agli utenti prima di bloccarli, e li informerà sul requisito dell’inserimento dell’età. Verranno pubblicati anche dei banner per fornire link con informazioni sugli strumenti di sicurezza e su come cambiare le impostazioni del profilo da “pubblico” a “privato”. Sul web e sulla carta stampata la campagna si rivolgerà specificamente ai genitori, ribadendo, tra l’altro, il limite di età per l’iscrizione alla piattaforma.
L’informativa per i minori
Infine, a beneficio degli utenti minori, Tik Tok migliorerà il riassunto della propria Informativa Privacy sull’app per gli utenti minori di 18 anni, in modo tale da spiegare, in modo accessibile e coinvolgente, i tipi di dati che raccoglie e come essi vengono trattati.
Inoltre, allo scopo di rafforzare l’azione di tutela nei confronti dei più piccoli, il Garante per la privacy avvierà sulle tv nazionali, in collaborazione con Telefono Azzurro, una campagna di sensibilizzazione con l’obiettivo di richiamare i genitori a svolgere un ruolo attivo di vigilanza e a prestare particolare attenzione al momento in cui verrà richiesto ai figli di indicare la loro età per accedere a TikTok.
“La sicurezza delle persone che fanno parte della community TikTok è la nostra priorità assoluta – dice Alexandra Evans, Head of Child Safety, TikTok – Europe –. Abbiamo raggiunto un accordo con il Garante, l’autorità italiana per la protezione dei dati, e oggi stiamo adottando ulteriori misure per supportare la nostra community in Italia. A partire dal 9 febbraio, faremo passare nuovamente ogni utente in Italia attraverso il nostro processo di verifica dell’età e solo gli utenti di età pari o superiore a 13 anni potranno continuare a utilizzare l’app dopo aver eseguito questo processo. Quando si parla di proteggere i nostri utenti, specialmente quelli più giovani, non esiste un traguardo finale e, di conseguenza, il nostro lavoro in questo ambito non si fermerà. Ecco perché continuiamo a investire nelle persone, nei processi e nelle tecnologie che aiutano a mantenere la nostra comunità uno spazio sicuro per un’espressione positiva e creativa”.
Garante Infanzia: più controlli per tutti i social
Alza il tiro il Garante per l’infanzia e l’adolescenza: “I bambini con meno di 14 anni non devono iscriversi da soli ai social network – dice Carla Garlatti -, urgente che sia data attuazione alle misure previste dalla direttiva europea sui servizi dei media audiovisivi. I gestori delle piattaforme devono essere costretti ad accertare seriamente l’età degli utenti: non basta un’autodichiarazione o un documento. Vanno attivati sistemi che la tecnologia consente già di utilizzare. Inoltre devono essere resi operativi meccanismi efficaci di blocco dei contenuti non appropriati”.
La rete è “un mezzo prezioso per esprimersi, informarsi, apprendere e giocare – dice Garlatti -: per questo è importante che madri e padri conoscano il mondo online e che non tengano in rete comportamenti che trasmettono ai ragazzi esempi negativi”.
I nuovi limiti su TikTok
Quando un nuovo profilo utente viene creato da un minore tra i 13 e i 15 anni, l’account – si legge nelle note di TikTok – sarà privato di default.
Ci saranno limitazioni a chi può commentare i video creati da utenti dai 13 ai 15 anni. Questi ultimi possono scegliere tra ‘Amici’ o ‘Nessuno’, mentre è esclusa l’opzione ‘Tutti’.
Inoltre gli utenti tra i 13 e i 15 anni non potranno utilizzare i Messaggi Diretti. Per tutti gli altri la funzione non consente comunque di allegare foto o video e non permette di inviare messaggi spontanei/non richiesti ad altri utenti.
Non basta: gli utenti tra i 13 e i 15 anni non possono ospitare una diretta streaming. La funzione “Collegamento Famigliare” permette a un genitore di collegare il proprio profilo TikTok a quello dei figli minorenni, consentendo una maggiore visibilità e possibilità di supervisione sul modo in cui questi ultimi utilizzano la piattaforma. I genitori possono decidere se il minore può introdurre una determinata stringa di ricerca per contenuti, utenti, hashtag o suoni. E anche decidere di limitare gli utenti in grado di inviare messaggi o disattivare del tutto il servizio.