Settantatré settimane: il tempo che serve in Italia per trasformare un’idea in legge. Il tempo in cui l’intelligenza artificiale ha fatto un balzo quantico.
C’è qualcosa su cui riflettere in questo autunno del 2025. Così come le temperature continuano a rimanere nella fascia alta delle statistiche stagionali, anche il panorama tecnologico continua a vivere un’estate prolungata. E, proprio in questo periodo, l’Italia mette nero su bianco la sua prima legge quadro sull’intelligenza artificiale.
La tempistica racconta tutto. Dal disegno di legge del 23 aprile 2024 alla promulgazione del 17 settembre 2025 sono trascorse 73 settimane. Un anno e mezzo che, nel mondo dell’IA, equivale a un’era geologica. In questo periodo sono stati rilasciati circa 60 modelli rilevanti – da ChatGPT-5 a Deepseek – che hanno fatto passare il mio giudizio personale da “non ci siamo ancora” a “ok, forse ci siamo”.
Ma il punto non è fare la cronaca sullo stato dell’arte dell’IA. Il punto è capire se ha ancora senso ragionare con i tempi della burocrazia quando si legifera su una tecnologia che cresce in modo esponenziale.
Il paradosso delle PMI italiane
Prendiamo le piccole e medie imprese, la spina dorsale del nostro tessuto produttivo. Meno del 10% ha adottato sistemi di IA nella propria gestione. Le barriere? Investimenti e competenze. Esattamente i due ambiti dove lo Stato potrebbe fare la differenza con normative, incentivi mirati e formazione.
La legge quadro prevede supporti per facilitare questa transizione per PMI e Start-Up. Peccato che per vedere i decreti attuativi serviranno altri 12 mesi. Facendo due conti: un’impresa che oggi vorrebbe innovarsi con l’IA, contando sull’aiuto pubblico promesso da questa legge, potrebbe vedere le risorse nel 2027, se va bene.
E qui il discorso si fa amaro: con le tempistiche attuali, chi chiede allo Stato di favorire lo sviluppo tecnologico attraverso la legislazione sta praticamente programmando benefici per il 2030: tra cinque anni. Provate a immaginare cosa sarà l’IA tra cinque anni, considerando cos’è successo nelle ultime 73 settimane.
Una legge comunque necessaria
Detto questo, sarebbe ingeneroso non riconoscere i meriti del provvedimento. La legge quadro tocca tutti i punti sensibili, con un approccio, voglio ricordare, trasmesso da Papa Francesco con il termine “antropocentrico”.
In sanità, l’IA viene definita come supporto al medico, mai come sostituto. Si crea una piattaforma nazionale gestita da AGENAS per coordinare gli usi clinici. Un’impostazione saggia, che riconosce le potenzialità senza cedere alla tentazione del tutto-automatico.
Sul lavoro, si introduce l’obbligo per le aziende di informare i dipendenti quando vengono utilizzati sistemi di IA: si istituisce un Osservatorio dedicato. Piccoli passi verso una trasparenza che nei prossimi anni diventerà cruciale, quando l’IA inizierà davvero a ridisegnare mansioni e ruoli.
Anche le professioni intellettuali – avvocati, ingegneri, architetti – dovranno dichiarare quando si affidano all’IA. Un principio di trasparenza che sembra banale ma che, in ambiti dove la responsabilità professionale è tutto, segna un precedente importante.
Nella pubblica amministrazione e nella giustizia, la linea è ancora più netta: l’IA può assistere, mai decidere. Nessun algoritmo potrà mai emettere una sentenza o prendere decisioni che riguardano i diritti fondamentali dei cittadini.
La questione dei minori
Particolarmente articolato è il capitolo sulla tutela dei minori. Si stabilisce che solo dai 14 anni in su si possa dare consenso autonomo all’uso dell’IA. Tra i 14 e i 18 anni le informative devono essere calibrate per essere comprensibili dai giovani utenti.
Sono dettagli che dimostrano una particolare attenzione, anche se resta il dubbio su quanto queste norme possano essere effettivamente applicate in un ecosistema digitale dove i confini nazionali e i divieti digitali non sempre sono invalicabili.
Deepfake: finalmente si punisce
Un merito innegabile della legge è aver introdotto sanzioni specifiche per i deepfake. Finalmente si parla di punizioni concrete per chi diffonde contenuti falsi generati dall’IA, con particolare attenzione agli abusi che colpiscono le donne – un fenomeno che negli ultimi mesi ha assunto proporzioni allarmanti.
Si introducono aggravanti per reati commessi con l’ausilio dell’IA: truffe, frodi, phishing. E sanzioni per chi viola le regole sull’addestramento e l’uso dei dati. Sono norme che rispondono a emergenze reali, tangibili.
La domanda che resta
Eppure, chiuso il fascicolo della legge, resta la domanda di fondo. Può una democrazia moderna permettersi tempi di reazione così dilatati su tecnologie che corrono alla velocità della luce?
Non si tratta di fare leggi frettolose o approssimative. Si tratta di ripensare il processo stesso. Servono meccanismi più agili, tavoli permanenti che possano intervenire rapidamente, clausole di revisione automatica che impongano un aggiornamento periodico. Perché il vero rischio, oggi, non è legiferare male. È scrivere norme che nascono già vecchie, che tentano di regolare un presente che è già passato.




