Il Regolamento UE 2024/1689 sull’intelligenza artificiale (AI ACT) introduce una serie di scadenze vincolanti dal 2025 al 2028, ciascuna con obblighi specifici per sviluppatori, fornitori, utilizzatori e distributori di strumenti AI, in base al livello di rischio dei sistemi utilizzati.
Le date da rispettare per operare in conformità all’AI Act, sono riportate nell’art. 113 del Regolamento 2024/1689, l’ultima è stata quella del 2 agosto 2025, la prossima è fissata per il 2 agosto 2026.
Ma vediamo di fare il punto sulle disposizioni dell’AI Act con questa news.
QUAL È LA NORMATIVA DI RIFERIMENTO CHE STABILISCE LE SCADENZE PER L’AI?
La normativa di riferimento è il Regolamento (UE) 2024/1689, noto come AI ACT, pubblicato sulla Gazzetta Ufficiale dell’Unione Europea il 12 luglio 2024 ed entrato in vigore il 1° agosto dello stesso anno. Il Regolamento stabilisce una serie di scadenze progressive che impongono obblighi differenziati in base alla tipologia e al rischio del sistema di Intelligenza Artificiale impiegato.
CHI È COINVOLTO NEGLI OBBLIGHI DEL REGOLAMENTO?
Le categorie coinvolte includono:
- Fornitori di sistemi di IA;
- Utenti professionali o enti pubblici che integrano IA in processi decisionali (Deployer);
- Sviluppatori di sistemi IA ad alto rischio, secondo l’Allegato III del Regolamento;
- Importatori e distributori di sistemi di IA;
- Fabbricanti di prodotti che immettono sul mercato o mettono in servizio un sistema di IA insieme al loro prodotto e con il loro nome o marchio.
LE SCADENZE DELL’AI ACT PUNTO PER PUNTO
Dal 2 febbraio 2025, con l’entrata in vigore del divieto delle pratiche di IA a rischio inaccettabile e dell’obbligo di alfabetizzazione AI per operatori e utenti, ha preso avvio il percorso di applicazione dell’AI Act.
L’art. 113 del Regolamento prevede una serie di scadenze annuali che introducono nuovi obblighi per fornitori, sviluppatori e utilizzatori di AI:
- 2 AGOSTO 2025 – Avvio della responsabilità operativa e delle prime sanzioni:
- è entrata in vigore la disciplina sulle autorità di notifica e sugli organismi notificati incaricati della valutazione dei sistemi di intelligenza artificiale ad alto rischio
- sono scattati gli obblighi specifici per i fornitori di modelli di intelligenza artificiale a finalità generali (General Purpose Artificial Intelligence – GPAI): i fornitori dovranno dichiarare quando un contenuto è generato dall’AI
- attivazione del sistema sanzionatorio;
- istituzione della governance europea multilivello: un Ufficio AI, con sede a Bruxelles, incaricato di garantire l’applicazione del regolamento in tutta l’UE vigilando sull’intera filiera dell’intelligenza artificiale.
- Per i modelli AI immessi sul mercato antecedentemente al 2 agosto 2025, i fornitori disporranno di un periodo di adeguamento fino al 2 agosto 2027.
- 2 AGOSTO 2026 – Obblighi per i sistemi “ad alto rischio”:
- istituire il sistema di Gestione del rischio che accompagni l’intero ciclo di vita del prodotto al fine di identificare e mitigare i potenziali impatti negativi su salute, sicurezza, diritti fondamentali e dignità delle persone;
- garantire la qualità dei dati che dovranno essere adeguati e privi di bias;
- consentire alla supervisione umana di intervenire nei sistemi ad alto rischio ed implementare misure adeguate sul piano della Cybersecurity;
- predisporre la documentazione tecnica necessaria per ottenere la marcatura CE, previa valutazione di conformità da parte di organismo esterno;
- obbligo di Valutazione di Impatto sui Diritti Fondamentali (FRIA) per i sistemi utilizzati nel settore pubblico;
- registrazione di tutti i sistemi ad alto rischio in un database europeo pubblico.
- 2 AGOSTO 2027 – Estensione dell’elenco dei sistemi ad alto rischio: Entra in vigore l’art. 6, par. 1 del Regolamento AI ACT, che consente alla Commissione Europea di monitorare costantemente la realtà dell’intelligenza artificiale con lo scopo di modificare o integrare l’elenco dei sistemi di AI ad alto rischio in base a dei criteri predisposti per la loro identificazione;
- 2 AGOSTO 2028 – Revisione generale del Regolamento AI: entro questa data la Commissione Europea dovrà pubblicare una valutazione complessiva sull’efficacia e sull’impatto del Regolamento (Art. 112 “Valutazione e Riesame”).
QUALI SONO LE SANZIONI PER CHI NON È CONFORME?
In base a quanto previsto dall’Art. 99 “Sanzioni” del Regolamento (UE) 2024/1689, l’AI ACT introduce un sistema sanzionatorio severo per chi non rispetta le disposizioni normative con ammende fino a:
- 35 milioni di euro o al 7% del fatturato mondiale annuo (se superiore) in caso di violazioni delle pratiche vietate in quanto a rischio inaccettabile (art.5).
- 15 milioni di euro o al 3% del fatturato mondiale annuo (se superiore), per la violazione di altri obblighi previsti dal Regolamento diversi da quelle di cui all’Art 5 “Pratiche di IA vietate”;
- 7,5 milioni di euro o all’1% del fatturato mondiale annuo (se superiore), per la comunicazione di informazioni false, incomplete o fuorvianti alle autorità competenti o agli organismi notificati.
Nel caso di PMI o startup, la sanzione applicabile sarà quella più bassa tra gli importi assoluti e le percentuali sul fatturato, in base al principio di proporzionalità.
PER APPROFONDIRE
Vega Formazione mette a disposizione gratuitamente il seminario SEMINARIO “REGOLAMENTO EUROPEO AI ACT SULL’INTELLIGENZA ARTIFICIALE: TUTTI GLI OBBLIGHI PER LE AZIENDE CHE UTILIZZANO L’INTELLIGENZA ARTIFICIALE (AI)”
L’articolo AI ACT: TUTTE LE SCADENZE DA RISPETTARE DAL 2025 AL 2028 proviene da Vega Engineering.
Autore: Vega Engineering
Powered by WPeMatico
_________________________________
CFD FEA Service SRL è una società di servizi che offre consulenza e formazione in ambito ingegneria e IT. Se questo post/prodotto ti è piaciuto ti invitiamo a:
- visionare il nostro blog
- visionare i software disponibili - anche per la formazione
- iscriverti alla nostra newsletter
- entrare in contatto con noi attraverso la pagina contatti
Saremo lieti di seguire le tue richieste e fornire risposte alle tue domande.