Agcom avvia una consultazione pubblica su uno schema di regolamento che riguarda i fornitori di servizi di video-sharing online per il pubblico italiano, anche se la sede è stabilita in altri paesi dell’Ue. Si tratta di aziende dei social media come Youtube di Google, Facebook e Instagram di Meta, Tik-Tok di ByteDance e Twitch di Amazon. L’obiettivo del regolamento è contrastare fenomeni nocivi e illeciti, incluso l’hate speech, e tutelare, innanzitutto, i minori, imponendo – in casi specifici – la rimozione immediata dei contenuti dannosi.
Come comunicato dall’autorità, il Consiglio dell’Agcom, con Delibera n. 76/23/Cons, ha approvato l’avvio di una consultazione pubblica sullo schema di regolamento in materia di programmi, video generati dagli utenti o comunicazioni commerciali audiovisive dirette al pubblico italiano e veicolate da una piattaforma il cui fornitore è stabilito in un altro Stato membro.
La proposta di regole sulla rimozione dei contenuti
La consultazione riguarda il regolamento di procedura per la rimozione di contenuti audiovisivi diffusi presso una piattaforma di condivisione video (c.d. video sharing platform) per la tutela dei minori; la lotta contro l’incitamento all’odio razziale, sessuale, religioso o etnico, nonché contro la violazione della dignità umana, e della tutela dei consumatori, ivi inclusi gli investitori.
Nel regolamento sottoposto a consultazione, nel caso siano riscontrati requisiti di gravità e urgenza, si prevede che Agcom possa ordinare alla piattaforma la rimozione tempestiva del contenuto lesivo. Qualora non sussistano i requisiti di gravità ed urgenza, l’Autorità potrà comunque chiedere all’autorità dello Stato membro in cui è stabilito il fornitore della piattaforma di video sharing di adoperarsi affinché il contenuto lesivo venga rimosso.
Giomi: “Riconosciuto uno speciale potere all’Autorità”
“Dal momento che nella stragrande maggioranza dei casi queste società non sono localizzate in Italia, è stato riconosciuto uno speciale potere dell’Autorità ad intervenire per limitare la circolazione di video e comunicazioni commerciali, che le consente di intervenire a condizione che il pubblico italiano ne sia destinatario” commenta la Commissaria Elisa Giomi. “Si tratta di un compito molto delicato, sia perché il carattere transnazionale di internet rende difficile individuare territori definiti, sia perché l’esercizio di questo potere incide direttamente su questioni cruciali come la tutela dei minori e della dignità umana, sulla lotta contro l’hate speech ovvero contro l’incitamento all’odio razziale, di genere, religioso o etnico”.
Il regolamento da oggi in consultazione ha il preciso scopo di proporre criteri per l’individuazione del pubblico italiano e di disciplinare le forme ed i tempi di intervento dell’Autorità, nei limiti dell’art. 41 del Tusma. “Va ricordato che tutte le piattaforme di condivisione di video già vietano condotte lesive degli interessi dei minori e violative della dignità umana, incluso l’hate speech, tramite apposite previsioni delle loro condizioni d’uso e appositi strumenti di rapido intervento” conclude la Commissaria.
La consultazione Agcom
Il regolamento sulle video sharing platform dà attuazione all’art. 41, comma 9, del d. lgs. 8 novembre 2021, n. 208 (c.d. Tumsa), al fine di assicurare una tutela effettiva di diritti fondamentali degli utenti nei confronti dei fornitori delle video sharing platform stabiliti in un altro Stato membro, ma che si rivolgono al pubblico italiano (come, ad esempio, Youtube di Google, Facebook e Instagram di Meta, Tik-Tok di ByteDance e Twitch di Amazon).
La consultazione pubblica avrà una durata di 30 giorni a partire dalla data di pubblicazione del provvedimento sul sito internet istituzionale dell’Autorità.
Il provvedimento verrà contestualmente notificato alla Commissione europea ai sensi della Direttiva 2015/1535, trattandosi di un progetto di regolamentazione tecnica italiana riguardante i servizi della società dell’informazione.