Rinvio dell’AI Act chiesto da Draghi
ANDREA BOSCARO – MARCO LEONARDI
Comprensibilmente, visto tutti i rischi che sta correndo l’Europa, in questi gironi è passata in silenzio una notizia potenzialmente importante per il futuro industriale e tecnologico della UE. Mario Draghi aveva chiesto un rinvio dell’AI Act europeo, limitatamente alla parte sui sistemi ad alto rischio, per evitare che regole troppo premature finissero per ostacolare proprio quelle applicazioni industriali che potrebbero rappresentare l’unica leva competitiva dell’Europa nei prossimi anni.
Bruxelles ha accolto la richiesta, spostando l’entrata in vigore sostanziale alla fine del 2027. In questo nuovo scenario, può generare confusione il disegno di legge italiano sull’intelligenza artificiale. Non solo arriva prima dell’AI Act europeo, ma anticipa obblighi e principi che rischiano di produrre incertezza, frammentazione e un carico regolatorio senza alcun vantaggio competitivo. Soprattutto perché non richiesti dalla UE e non condivisi da altri paesi europei. Si chiama tecnicamente gold plating. Lo abbiamo già fatto molte volte noi italiani. È il caso della direttiva sui mercati finanziari, quella su appalti e altre. Ce ne siamo sempre pentiti.
Nelle intenzioni del legislatore, la legge italiana si presenta come il primo tentativo organico di disciplinare l’uso dell’IA a livello nazionale. In realtà, più che una svolta sostanziale, sembra un provvedimento simbolico. Afferma valori condivisibili – centralità dell’uomo, trasparenza, tutela della persona. Rimanda però ai futuri decreti previsti dall’articolo 16 la definizione degli strumenti operativi, degli standard tecnici e delle indicazioni applicative.
Il testo nasce in un momento sbagliato. La prima bozza era stata approvata quando l’AI Act europeo non era ancora definitivo. Aveva prodotto disallineamenti solo in parte corretti durante l’iter parlamentare. Il rischio è creare un doppio livello normativo proprio nel periodo più delicato della transizione, con sovrapposizioni e incertezze per imprese, pubbliche amministrazioni e autorità di controllo.
Dall’Italia solo dichiarazioni di principio
Il punto più evidente riguarda la governance. La legge attribuisce i poteri ad AgID e ACN, che però non sono autorità indipendenti come richiesto dalla riforma europea. Ne derivano ambiguità di ruolo e possibili conflitti di competenza, in particolare con il Garante Privacy, proprio mentre l’Europa chiede un sistema di vigilanza omogeneo e indipendente.
Molte norme restano dichiarazioni di principio. Si afferma che l’IA non potrà sostituire le decisioni umane in sanità e giustizia. Non si definisce come ciò debba essere garantito. Si riconosce il diritto alla trasparenza, senza stabilire soglie minime o modalità di notifica. Le imprese dovranno dichiarare quando e come l’automazione interviene nei processi decisionali. Resta non chiaro quale sia il confine tra supporto e sostituzione, né quali siano gli obblighi documentali.
Anche il rapporto con i fornitori è lasciato in sospeso. Le organizzazioni dovranno verificare la conformità di software e servizi a requisiti di sicurezza, accuratezza, non discriminazione e tracciabilità, ma senza standard definiti né clausole operative. In sanità, la possibilità di utilizzare dati per ricerca IA senza consenso esplicito apre benefici potenziali. Lascia anche dubbi sulla compatibilità con i futuri assetti europei e sull’assenza di un opt-out chiaro.
Nel diritto d’autore, il provvedimento ribadisce che un’opera generata con IA è tutelabile solo se esiste un contributo umano creativo, rilevante e dimostrabile. Non chiarisce però come misurarlo né chi abbia l’onere della prova. Tutto rimane sospeso in attesa dei decreti attuativi, che dovranno indicare requisiti tecnici, responsabilità e sanzioni nei prossimi dodici mesi.
Risorse molto più consistenti da Francia e Germania
Il risultato è una legge che occupa il campo ma rischia di aggiungere complessità a un sistema già fragile. Francia e Germania investono risorse molto più consistenti. In un contesto in cui l’Europa ha scelto di fermare il conto alla rovescia imposto dall’AI Act per favorire l’adozione industriale e, a detta di alcuni, fare un passo indietro sulla sua attenzione a regolamentare l’intelligenza artificiale, l’Italia rischia di rimanere con il cerino in mano.
L’unico elemento potenzialmente utile riguarda il contrasto alle fake news generate dall’IA, tema su cui servono strumenti rapidi e coordinati. Ma per il resto, senza una strategia industriale, investimenti e coerenza con la cornice europea, una legge nazionale rischia di non proteggere nessuno e frenare tutti.
Pubblicato su Il Foglio il 25.11.25
