
Con la Legge n. 132 del 23 settembre 2025, che è entrata in vigore il 10 ottobre, l’Italia ha finalmente una normativa nazionale sull’intelligenza artificiale. È il primo Paese dell’Unione Europea a fare questo passo, anticipando l’AI Act europeo e creando una disciplina autonoma che si concentra su tre aree fondamentali: i profili penali, la responsabilità dei professionisti e della Pubblica Amministrazione, e la sostenibilità digitale.
Questo nuovo quadro normativo non sostituisce l’AI Act, ma lo arricchisce, adattandolo alle peculiarità italiane e introducendo principi che pongono l’essere umano al centro del progresso tecnologico. È una legge che cerca di rispondere a una domanda sempre più urgente: come possiamo bilanciare l’innovazione con la protezione dei diritti fondamentali?
I profili penali dell’intelligenza artificiale: la sfida della responsabilità
Uno degli aspetti più innovativi di questa legge è l’introduzione di nuove fattispecie penali legate all’uso improprio dei sistemi di intelligenza artificiale. Il nuovo articolo 612-quater del Codice penale punisce la diffusione, senza consenso, di contenuti falsificati o manipolati tramite IA (come immagini, video o audio deepfake) se tali contenuti possono danneggiare la reputazione o i diritti di una persona. Le pene previste variano da uno a cinque anni di reclusione.
Non si tratta solo di una norma simbolica: è una risposta a un fenomeno in rapida crescita, legato all’uso di modelli generativi capaci di creare contenuti indistinguibili dalla realtà. Oltre a questo nuovo reato, la legge introduce una circostanza aggravante generale per tutti i reati commessi “mediante l’impiego di sistemi di intelligenza artificiale”. Le pene aumentano quando la tecnologia viene utilizzata per truffe, manipolazioni finanziarie, propaganda politica o violazioni del diritto d’autore.
È comunque una sfida stabilire concretamente chi sia responsabile penalmente quando si utilizza un sistema automatizzato. Il legislatore ha lasciato ai futuri decreti attuativi il compito di definire come accertare il legame tra il comportamento dell’operatore e l’uso del sistema di intelligenza artificiale, per evitare responsabilità oggettive.
Trasparenza e limiti per i professionisti
Un altro aspetto fondamentale della legge riguarda la trasparenza nell’uso dell’intelligenza artificiale da parte dei professionisti. Avvocati, medici, consulenti e altri professionisti che utilizzano strumenti di IA devono informare i propri clienti che il servizio è supportato da sistemi automatizzati, specificando il tipo di sistema, le sue finalità e i limiti di utilizzo. Questo è un obbligo di chiarezza e correttezza professionale, pensato per tutelare i cittadini da decisioni poco trasparenti.
Lo stesso principio vale per la Pubblica Amministrazione. L’intelligenza artificiale può essere utilizzata come supporto, ma la decisione finale deve sempre rimanere in mano a un essere umano. Questo principio, conosciuto come “human in the loop”, è fondamentale per evitare che l’automazione sostituisca il giudizio umano in settori delicati come la giustizia, la sanità o gli appalti pubblici. Ogni decisione assistita da IA dovrà essere accompagnata da informazioni chiare sull’uso della tecnologia e da una certificazione che attesti la conformità ai requisiti di sicurezza e trasparenza.
L’intelligenza artificiale come strumento di sostenibilità
Oltre alle norme penali e deontologiche, la legge italiana affronta un tema ancora poco esplorato: la sostenibilità dell’intelligenza artificiale. Negli ultimi anni, è cresciuta la consapevolezza che i sistemi di IA, in particolare quelli basati su modelli di grandi dimensioni, hanno un impatto energetico e ambientale notevole. La Legge 132/2025 si inserisce in una nuova visione che unisce la trasformazione digitale agli obiettivi ambientali e sociali.
Il legislatore non ha ancora stabilito obblighi specifici in questo ambito, ma ha aperto la porta a misure che saranno definite dai decreti attuativi: si parla di rendicontazione del consumo energetico per i sistemi più complessi, incentivi per migliorare l’efficienza dei data center e l’integrazione di criteri ESG nei contratti pubblici che coinvolgono l’uso dell’IA.
Tuttavia, la sostenibilità non si limita solo all’ambiente. La legge sottolinea l’importanza dell’accessibilità universale delle tecnologie digitali, con un occhio di riguardo per le persone con disabilità. L’IA deve essere un mezzo di inclusione, non di esclusione. Lo stesso principio vale per la protezione dei minori: i loro dati possono essere trattati solo con il consenso esplicito dei genitori o di chi ha la responsabilità genitoriale.
Privacy, tracciabilità e obblighi di informazione
La legge potenzia il rispetto del GDPR: l’IA deve sempre rispettare i principi fondamentali della protezione dei dati, come la trasparenza, la minimizzazione e la finalità.
Ecco alcune previsioni importanti:
- Tracciabilità degli algoritmi: ogni sistema di intelligenza artificiale dovrà mantenere un registro di log e metadati utili per eventuali audit
- Obbligo di informare le persone coinvolte quando le decisioni o i supporti sono influenzati dall’IA
- L’uso dell’IA sui dati dei minori (sotto i 14 anni) richiede il consenso esplicito dei genitori o dei tutori
- L’impiego di sistemi di IA non richiede che i server siano fisicamente in Italia, a patto che vengano rispettate le norme di sicurezza e protezione dei dati (ad esempio, misure tecniche e contrattuali).
Un approccio incentrato sull’essere umano
Ciò che distingue la normativa italiana è la sua impostazione antropocentrica. L’intelligenza artificiale è vista come una risorsa, ma il suo sviluppo deve sempre rispettare la dignità umana, la libertà e l’uguaglianza. La legge, quindi, mette l’individuo al centro, ribadendo che la tecnologia non può sostituire la responsabilità personale né compromettere i principi fondamentali del diritto.
Questo orientamento si traduce in una richiesta di maggiore trasparenza, nella protezione dei dati personali e nella promozione di un uso consapevole dell’IA sia nei contesti pubblici che privati. È un equilibrio delicato, ma essenziale per garantire che l’innovazione non si trasformi in un dominio tecnologico.
Prospettive e sfide future
Molte delle disposizioni presenti nella legge necessiteranno di ulteriori chiarimenti attraverso i decreti attuativi che il Governo dovrà emettere entro un anno. Le principali sfide riguardano la definizione di criteri di certificazione, la creazione di un’autorità di vigilanza e la formazione di competenze tecniche per la verifica dei sistemi di intelligenza artificiale.
Il coordinamento con l’AI Act europeo sarà fondamentale per evitare sovrapposizioni normative e garantire coerenza a livello comunitario. Tuttavia, la vera prova sarà nell’attuazione pratica: fornire alle istituzioni e alle imprese strumenti concreti per applicare i principi di trasparenza, responsabilità e sostenibilità stabiliti dalla legge.
Intelligenza artificiale: un passo in avanti
La Legge 132/2025 segna un passo importante verso una regolamentazione equilibrata dell’intelligenza artificiale. Introduce tutele penali e garanzie etiche, promuove la trasparenza professionale e getta le basi per un modello di sviluppo tecnologico sostenibile e incentrato sulla persona.
Ora, la sfida più complessa è trasformare questi principi in prassi, rendendo l’IA non solo innovativa, ma anche giusta, sicura e umana.