1 Agosto 2025, diย Barbara Weisz – PMI.it
Operativo dal 2 agosto 2025 un nuovo set di disposizioni nellโambito della graduale applicazione del Regolamento Europeo sullโIntelligenza Artificiale (AI Act), pienamente operativo dal 2027. Le novitร riguardano in primis i grandi modelli generalisti di IA generativa: le aziende che li sviluppano e addestrano devono rispettare una serie di nuovi requisiti e procedure.
In parallelo, gli Stati Membri della UE devono adeguare i propri meccanismi di governance in materia. Nello specifico, i Governi devono nominare gli organi competenti per la vigilanza sul rispetto dellโAI Act e la definizione delle sanzioni per gli inadempienti.
In questo contesto, ricordiamo che in Italia รจ ancor in Parlamento il Ddl sullโIntelligenza Artificiale, che indica come autoritร competenti lโAgenzia per lโItalia digitale (AgID) e lโAgenzia per la cybersicurezza nazionale (ACN). La Camera ha approvato a giugno un testo modificato rispetto a quello giร passato in Senato, dove la legge รจ tornata in terza lettura.
I nuovi obblighi UE per i fornitori di GPAI
I sistemi GPAI (General Purpose Artificial Intelligence) sono modelli di intelligenza artificiale non specializzati e di grandi dimensioni (come ad esempio ChatGpt, Gemini e Deepseek), che impiegano piรน di 10^23 FLOPS (operazioni in virgola mobile al secondo) e sono in grado di generare linguaggio sotto forma di testo scritto o contenuti audio, nonchรฉ di trasformare testi in immagini o video.
Perchรฉ si possa parlare di GPAI devono coesistere tutte queste caratteristiche: ad esempio, se il modello รจ addestrato con una capacitร computazionale superiore a quella prevista ma รจ specializzato in una determinata funzione allora non rientra nella definizione che li riconduce ai nuovi obblighi. La definizione di GPAI e le istruzioni per gli sviluppatori e fornitori sono contenute nelle Linee Guida pubblicate dalla Commissione Europea.
I nuovi obblighi sono piรน o meno rigidi a seconda che il sistema sia considerato o meno ad alto rischio.
- Nel primo caso, gli sviluppatori e fornitori devono rendere disponibile e aggiornare costantemente laย documentazioneย tecnica, fornire tutte le informazioni necessarie ai soggetti che integrano i modelli nei propri sistemi, rispettare le normative europee sulย diritto dโautoreย e sullaย riservatezza, pubblicare i dati suiย contenuti utilizzatiย per addestrare gli algoritmi.
- Se poi il modello di IA รจ a rischio sistemico, le imprese che li sviluppano devono anche effettuare specifiche valutazioni, garantire elevati livelli diย protezione, segnalare eventuali incidenti.ย Ci sono infine obblighi specifici per lโimmissione sul mercatoย di questo modelli, operazione che richiede documentazione e procedure specifiche.
Possono adempiere a questi obblighi attraverso lโadesione al Codice di Conformitร previsto dallโAI Act, che rappresenta una sorta di certificazione di compliance. Altrimenti, devono autonomamente dimostrare il rispetto delle sopra citate regole (disponibile anche un modello per i fornitori di GPAI da utilizzare a tale scopo).
NB: queste norme non si applicano ai modelli open source, che rendono pubblici per definizione tutti i parametri.