le nuova legge

In vigore l’AI Act, ma la maggior parte delle regole in execution dal 2026



Indirizzo copiato

Prima stretta da qui a sei mesi: stop ai sistemi considerati a “rischio inaccettabile”. Ed entro 12 mesi si applicheranno le norme per i cosiddetti “modelli per finalità generali”. La presidente della Commissione Ue Von der Leyen: “L’Europa porterà sul mercato soluzioni all’avanguardia”

Pubblicato il 1 ago 2024

Federica Meta

Giornalista



intelligenza artificiale 4

In vigore a partire da oggi il regolamento europeo sull’intelligenza artificiale (AI). L’Artificial Intelligence Act è il primo atto legislativo comprensivo sull’intelligenza artificiale al mondo, concepito per garantire che l’AI sviluppata e utilizzata nell’Ue sia affidabile e offra garanzie per proteggere i diritti fondamentali dei cittadini.

Il regolamento mira a istituire un mercato interno armonizzato, incoraggiandone l’adozione e creando un ambiente favorevole all’innovazione e agli investimenti.

“La legge guiderà lo sviluppo dell’AI di cui gli europei possono fidarsi. E fornirà supporto alle pmi e alle startup europee per portare sul mercato soluzioni di intelligenza artificiale all’avanguardia”, ha scritto sui social la presidente della Commissione europea Ursula von der Leyen.

Vestager: “Rispetto dei diritti al primo posto”

“L’AI ha il potenziale per cambiare il nostro modo di lavorare e vivere e promette enormi benefici per i cittadini, la nostra società e l’economia europea – sottolinea Margrethe Vestager, vicepresidente esecutiva per Un’Europa pronta per l’era digitale – L’approccio europeo alla tecnologia mette l’interesse dei cittadini al primo posto e garantisce il rispetto dei diritti di tutti. Grazie al regolamento sull’AI, l’Ue ha compiuto un passo importante per garantire che in Europa l’adozione delle tecnologie in materia di IA sia conforme alle norme dell’Ue”.

“Oggi l’Europa compie un importante passo che assicura la leadership dell’Europa in materia di IA affidabile – dice Thierry Breton, Commissario per il Mercato interno – Con l’entrata in vigore del regolamento sull’AI, la democrazia europea pone in atto un quadro efficace, proporzionato e all’avanguardia nel mondo riguardo all’IA, contrastando i rischi che ne possono derivare e favorendo la fioritura delle start-up europee nel settore dell’AI”.

Quando saranno applicate le norme

La maggior parte delle norme verrà applicata a partire dal 2 agosto 2026. Tuttavia, i divieti sui sistemi di AI che si ritiene rappresentino un rischio inaccettabile si applicheranno già dopo sei mesi, mentre le norme per i cosiddetti “modelli di AI per finalità generali” si applicheranno dopo 12 mesi.

Come “ponte” durante il periodo transitorio che precederà la piena attuazione del regolamento, la Commissione ha varato il patto per l’AI. Tale iniziativa invita gli sviluppatori di AI ad adottare volontariamente gli obblighi fondamentali del regolamento sull’IA prima dei termini legali.

Gli Stati membri hanno ora tempo fino al 2 agosto 2025 per designare autorità nazionali competenti che vigilino sull’applicazione delle norme relative ai sistemi di AI e svolgano attività di vigilanza del mercato. L’ufficio per l’AI della Commissione sarà il principale organo di attuazione del regolamento sull’IA a livello dell’Ue, oltre a monitorare le norme per i cosiddetti modelli per finalità generali.

AI Act, cosa prevede il regolamento

L’AI Act dell’Ue si basa su 4 approcci di rischio:

I quattro tipi di rischio sono:

  1. nessun rischio;
  2. rischio minimo,
  3. rischio elevato,
  4. sistemi di AI vietati.

L’Ue vieterà completamente alcune pratiche a partire dal febbraio 2025. Tra queste, quelle che manipolano il processo decisionale dell’utente o espandono i database di riconoscimento facciale attraverso lo scraping di Internet.

Altri sistemi di AI ritenuti ad alto rischio, come le AI che raccolgono dati biometrici e quelle utilizzate per le infrastrutture critiche o per le decisioni in materia di occupazione, saranno soggetti a norme più severe.

Le aziende che sviluppano questo tipo di sistemi dovranno rendere noti i dati di addestramento e fornire la prova della supervisione umana.

Secondo Thomas Regnier, portavoce della Commissione europea, circa l’85% delle aziende di AI rientra nella seconda categoria, quella del “rischio minimo”, che richiede una regolamentazione minima.

Articoli correlati

Articolo 1 di 4