Intelligenza Artificiale: dal 2 agosto nuove regole UE

1 Agosto 2025, diย Barbara Weisz – PMI.it

Operativo dal 2 agosto 2025 un nuovo set di disposizioni nellโ€™ambito della graduale applicazione del Regolamento Europeo sullโ€™Intelligenza Artificiale (AI Act), pienamente operativo dal 2027. Le novitร  riguardano in primis i grandi modelli generalisti di IA generativa: le aziende che li sviluppano e addestrano devono rispettare una serie di nuovi requisiti e procedure.

In parallelo, gli Stati Membri della UE devono adeguare i propri meccanismi di governance in materia. Nello specifico, i Governi devono nominare gli organi competenti per la vigilanza sul rispetto dellโ€™AI Act e la definizione delle sanzioni per gli inadempienti.

In questo contesto, ricordiamo che in Italia รจ ancor in Parlamento il Ddl sullโ€™Intelligenza Artificiale, che indica come autoritร  competenti lโ€™Agenzia per lโ€™Italia digitale (AgID) e lโ€™Agenzia per la cybersicurezza nazionale (ACN). La Camera ha approvato a giugno un testo modificato rispetto a quello giร  passato in Senato, dove la legge รจ tornata in terza lettura.

I nuovi obblighi UE per i fornitori di GPAI

I sistemi GPAI (General Purpose Artificial Intelligence) sono modelli di intelligenza artificiale non specializzati e di grandi dimensioni (come ad esempio ChatGpt, Gemini e Deepseek), che impiegano piรน di 10^23 FLOPS (operazioni in virgola mobile al secondo) e sono in grado di generare linguaggio sotto forma di testo scritto o contenuti audio, nonchรฉ di trasformare testi in immagini o video.

Perchรฉ si possa parlare di GPAI devono coesistere tutte queste caratteristiche: ad esempio, se il modello รจ addestrato con una capacitร  computazionale superiore a quella prevista ma รจ specializzato in una determinata funzione allora non rientra nella definizione che li riconduce ai nuovi obblighi. La definizione di GPAI e le istruzioni per gli sviluppatori e fornitori sono contenute nelle Linee Guida pubblicate dalla Commissione Europea.

I nuovi obblighi sono piรน o meno rigidi a seconda che il sistema sia considerato o meno ad alto rischio.

  • Nel primo caso, gli sviluppatori e fornitori devono rendere disponibile e aggiornare costantemente laย documentazioneย tecnica, fornire tutte le informazioni necessarie ai soggetti che integrano i modelli nei propri sistemi, rispettare le normative europee sulย diritto dโ€™autoreย e sullaย riservatezza, pubblicare i dati suiย contenuti utilizzatiย per addestrare gli algoritmi.
  • Se poi il modello di IA รจ a rischio sistemico, le imprese che li sviluppano devono anche effettuare specifiche valutazioni, garantire elevati livelli diย protezione, segnalare eventuali incidenti.ย Ci sono infine obblighi specifici per lโ€™immissione sul mercatoย di questo modelli, operazione che richiede documentazione e procedure specifiche.

Possono adempiere a questi obblighi attraverso lโ€™adesione al Codice di Conformitร  previsto dallโ€™AI Act, che rappresenta una sorta di certificazione di compliance. Altrimenti, devono autonomamente dimostrare il rispetto delle sopra citate regole (disponibile anche un modello per i fornitori di GPAI da utilizzare a tale scopo).

NB: queste norme non si applicano ai modelli open source, che rendono pubblici per definizione tutti i parametri.

Carrello