DIGITAL SERVICES ACT

Elezioni europee 2024, scattano le regole per le big tech

La Commissione Ue pubblica le linee guida per abbattere i rischi legati alla disinformazione online anche e soprattutto derivanti dall’uso dell’AI generativa. Le very large platform dovranno dotarsi di misure adeguate attraverso il rafforzamento dei team per arginare deepfake e interferenze

Pubblicato il 26 Mar 2024

europa-commissione-170828155452

Rinforzare i processi interni, implementare misure di mitigazione dei rischi attraverso la cooperazione con le autorità a livello dell’UE e nazionali, adottare misure di mitigazione legate all’AI generativa e valutare l’efficacia delle misure attraverso revisioni post-elettorali: queste le azioni chiave a carico delle big tech e delle grandi piattaforme online a garanzia delle elezioni europee di giugno messe nero su bianco dalla Commissione europea (SCARICA QUI LE LINEE GUIDA).

Nell’ambito del Digital Services Act le aziende che vantano più di 45 milioni di utenti attivi nell’UE hanno l’obbligo di mitigare i rischi legati ai processi elettorali, proteggendo allo stesso tempo i diritti fondamentali, inclusi il diritto alla libertà di espressione. Le linee guida incoraggiano anche una stretta cooperazione con la Task Force dell’Osservatorio Digitale dei Media Europei (Edmo) sulle elezioni europee del 2024.

Cosa dovranno fare le aziende

  • Rinforzare i processi interni, inclusa la creazione di team interni con risorse adeguate, utilizzando analisi e informazioni disponibili sui rischi specifici del contesto locale e sull’uso dei loro servizi da parte degli utenti per cercare e ottenere informazioni prima, durante e dopo le elezioni, per migliorare le loro misure di mitigazione.
  • Implementare misure di mitigazione dei rischi specifiche per le elezioni, personalizzate per ogni singolo periodo elettorale e contesto locale. Tra le misure di mitigazione incluse nelle linee guida la promozione di informazioni ufficiali sui processi elettorali, la messa a punto di iniziative di alfabetizzazione mediatica per abbattere la viralità dei contenuti che minacciano l’integrità dei processi elettorali. Inoltre, la pubblicità politica dovrebbe essere chiaramente etichettata come tale, in previsione del nuovo regolamento sulla trasparenza e il targeting della pubblicità politica.
  • Adottare misure di mitigazione specifiche legate all’AI generativa ad esempio etichettando chiaramente i contenuti generati dall’AI (come i deepfake).
  • Cooperare con le autorità a livello dell’UE e nazionali, esperti indipendenti e organizzazioni della società civile per favorire uno scambio efficiente di informazioni prima, durante e dopo l’elezione e facilitare l’uso di misure di mitigazione adeguate
  • Adottare misure specifiche, inclusi un meccanismo di risposta agli incidenti, durante il periodo elettorale per ridurre l’impatto degli incidenti che potrebbero avere un effetto significativo sul risultato delle elezioni o sulla partecipazione.
  • Valutare l’efficacia delle misure attraverso revisioni post-elettorali

Valuta la qualità di questo articolo

La tua opinione è importante per noi!

Articoli correlati

Articolo 1 di 5