L’AI Act Italiano sarà un freno o un faro? La risposta non è nel testo della legge, ma nel nostro modo di implementarla.
Premetto che non ho mai amato scrivere di regolamenti e norme: è un tema che in genere non mi appassiona, ma nel caso dell’AI questo aspetto è centrale.
Siamo abituati a un iter facilmente prevedibile : quando la politica interviene a disciplinare un’evoluzione tecnologica in corso produce un nuovo impianto burocratico che diventa un freno allo sviluppo e un generatore di nuove tasse che non favoriscono certo la crescita e lo svilupo di un nuovo settore.
In Italia siamo dei fuoriclasse della burocrazia e cito solo alcuni esempi recenti, dove la politica e la macchina amministrativa hanno trasformato un’innovazione in un percorso a ostacoli:
- Banda larga e 5G: tra gare complicate e permessi edilizi frammentati, l’Italia è arrivata ultima in Europa sulla fibra ottica, con ricadute sulla competitività digitale.
- Comunità energetiche: il potenziale delle rinnovabili è rimasto bloccato per mesi in attesa dei decreti attuativi, rallentando la diffusione di solare e sistemi di autoconsumo.
- Startup innovative: la prima legge che avrebbe dovuto favorire i nuovi imprenditori digitali si è arenata in procedure camerali complesse e tempi incompatibili con l’agilità delle imprese.
- PagoPA e SPID: pensati per semplificare i rapporti con la PA, hanno visto un’adozione molto lenta e frammentata per colpa di sistemi incredibilmente non interconnessi.
- Colonnine di ricarica elettrica: l’installazione spesso richiede oltre un anno di iter autorizzativi, rallentando di fatto lo sviluppo della mobilità sostenibile.
Ogni volta, lo schema si ripete: norme pensate per regolare o proteggere finiscono per frenare.
In questo caso però siamo di fronte forse alla più grande rivoluzione tecnologica che sia mai esistita, perchè l’intelligenza artificiale AI sta permeando ogni aspetto della nostra vita quotidiana, dalla sanità alla giustizia, dal lavoro alla formazione.
In questo scenario dirompente, l‘Italia ha fatto un passo significativo attraverso l’approvazione del disegno di legge da parte del Parlamento per l’AI ACT, un testo che si propone di regolare, tutelare e, allo stesso tempo, promuovere l’innovazione.
Eppure, questa mossa, pur necessaria, solleva immediatamente una serie di domande cruciali e mette in luce un dilemma profondo:
Come si governa una tecnologia che evolve a una velocità inaudita senza soffocare il suo potenziale?
L’articolo che ho scritto intende proporre un punto di vista critico, costruttivo e consapevole, su quella che non è solo una svolta normativa ma uno snodo di civiltà.
Perché parlo di AI
Negli ultimi 2 anni ho approfondito diversi temi sull’adozione dell’Intelligenza Artificiale in ambito business con particolare focus sul settore del Franchising Retail, su cui ho anche pubblicato un set di articoli divulgativi, che ripropongo a chi fosse interessato:
Come l’AI supporterà il franchising retail
L’AI sta trasformando il Franchising Retail, offrendo strumenti innovativi per analizzare e monitorare il rapporto con i clienti, per migliorare l’efficienza operativa, personalizzare l’esperienza del cliente e aumentare la sicurezza.
AI Revolution nel Franchising Retail: SFX + Strategia
AI Revolution nel settore del Franchising Retail: meno effetti speciali e più strategia ovvero come costruire una strategia che funziona.
Recentemente inoltre, sono stato coinvolto in un nuovo coinvolgente progetto proprio sul miglioramento nell’adozione dell’AI che si basa sulla creazione di un nuovo Framework innovativo per superare i limiti delle piattaforme LLM generaliste e che presto vedrà la luce (non vedo l’ora!).
Pertanto sia per passione che per necessità professionale vista la mia attività di consulente strategico, ho analizzato e approfondito con le persone del mio team diversi temi molto interessanti legati all’implementazione dell’AI in azienda.
Torniamo però al tema dell’articolo e vediamo una serie di esempi per comprenderne la complessità.
Perchè è importante la regolamentazione dell’AI
La teoria della regolamentazione incontra la realtà della sua applicazione quotidiana, generando una serie di sfide molto complesse che la legge dovrà affrontare.
La regolamentazione dell’AI è molto importante e di seguito 5 esempi significativi che mettono in evidenza proprio la molteplicità delle soluzioni applicative.
1. Sistemi di selezione del personale:
Un’azienda utilizza un algoritmo per scremare i curricula.
Il sistema, addestrato su dati storici, potrebbe inconsapevolmente replicare i pregiudizi di genere o etnici presenti nel passato, scartando candidati qualificati solo perché non corrispondono a un profilo “storicamente” vincente.
- La legge impone una valutazione di impatto, ma come si misura oggettivamente una distorsione così sottile?
2. Diagnostica medica avanzata:
Un sistema di AI sarà in grado di analizzare radiografie per individuare tumori in una fase iniziale. Il medico si affida alla diagnosi suggerita dall’algoritmo, ma quest’ultimo commette un errore e il tumore non viene rilevato.
A chi viene attribuita la responsabilità legale? Al medico, al produttore del software o all’ente ospedaliero che lo ha implementato?
- La legge dovrà definire chiaramente questo confine.
3. Algoritmi di giustizia predittiva:
Un algoritmo potrà essere usato per stimare la probabilità di recidiva di un imputato, influenzando la decisione del giudice sulla concessione della libertà vigilata. Se il sistema si basa su dati parziali o stereotipati, può perpetuare le disuguaglianze sociali, portando a giudizi non equi.
- La regolamentazione deve garantire la “trasparenza del dato”, ma il funzionamento di molti algoritmi è una “scatola nera”.
4. Auto a guida autonoma:
Un’auto senza conducente si trova di fronte a una situazione di emergenza inevitabile:
deve scegliere se colpire un pedone o sbandare contro un muro, mettendo a rischio la vita del passeggero.
- In questo caso, il dilemma etico non è teorico, ma deve essere programmato in anticipo.
- Quali principi morali deve applicare l’AI? E chi decide quale vita ha la priorità?
5. Monitoraggio dei lavoratori:
Un’azienda usa l’AI per monitorare la produttività dei dipendenti, analizzando i dati dei computer e delle attività.
Questo può portare a un controllo eccessivo, violando la privacy e la dignità del lavoratore, e solleva interrogativi su quali limiti imporre al “diritto di controllo” del datore di lavoro.
- Anche in questo caso la legge dovrà definire chiaramente questo confine e specialmente in Italia non sarà semplice perchè esistono delle tutele dei lavoratori molto più stringenti che in altri paesi
6. Piattaforme di e-commerce:
Un sistema di raccomandazione basato sull’AI può discriminare un piccolo venditore, rendendo i suoi prodotti meno visibili rispetto a quelli di un concorrente più grande.
Non c’è una “scelta umana” dietro questa decisione, ma il risultato crea un danno economico.
Come si può chiedere un risarcimento se la decisione è stata presa da un algoritmo?
- La legge deve prevedere un meccanismo di responsabilità per le decisioni algoritmiche.
Scenario dell’adozione dell’AI – cosa succede in Europa
La corsa dell’intelligenza artificiale, partita già oramai da almeno un decennio, ma esplosa nell’immaginario e nei mercati globali negli ultimi 3 anni, ha costretto l’Europa a trovare risposte comuni prima di ogni altro attore economico.
L’Unione Europea ha risposto a questa sfida con l’AI Act, un regolamento entrato in vigore nel 2024.
Il principio guida è semplice e impegnativo:
assicurare la “centralità dell’uomo” di fronte a macchine sempre più autonome, dettando regole graduate sul rischio.
Il regolamento classifica i sistemi di AI in base al loro livello di rischio (da inaccettabile a minimo) e mira a creare un quadro normativo armonizzato su trasparenza, sicurezza, responsabilità e protezione dei dati.
L’obiettivo è chiaro: proteggere i cittadini e costruire fiducia, senza però frenare eccessivamente l’innovazione.
La normativa UE tutela diritti fondamentali, impone trasparenza e sicurezza, e prevede sanzioni pesanti per chi viola i paletti.
Ma i primi quesiti che mi vengono in mente sono:
Si può, davvero, normare il futuribile e una tecnologia come l’AI che non ha confini?
Non rischiamo, nel mettere recinti, di delimitare qualcosa di ancora sconosciuto?
Siamo di fronte a un cambio di paradigma epocale perchè non si limita a un semplice aggiornamento tecnologico, ma inaugura una nuova era in cui l’intelligenza computazionale diventa un fattore di produzione fondamentale, alterando la natura stessa del lavoro, della creatività e della società.
Il quadro europeo: un puzzle di approcci nazionali
Mentre l’AI Act europeo fornisce una cornice comune, molti paesi non hanno aspettato Bruxelles per muoversi.
L’Italia, come altri paesi europei tra cui Francia, Germania, Spagna e Olanda, ha scelto di non aspettare la piena operatività del regolamento sovranazionale, legiferando a livello nazionale.
Questo mosaico mette in evidenza un problema cronico nell’Unione Europea: se ogni paese affronta da solo la sfida, il rischio è la frammentazione.
Le aziende che operano in più stati dovranno destreggiarsi tra norme diverse, con costi e tempi di implementazione che si dilateranno fisiologicamente, a scapito della competitività con aziende globali che opereranno con normative più superficiali e meno stringenti.
Quindi serve assolutmente una regia europea che sia in grado di avere una visione a lungo termine per garantire coerenza e competitività.
Francia: sandbox e governance “sovrana” (prevedibile come sempre)
La Francia ha creato una sandbox nazionale per permettere a imprese e PA di testare soluzioni AI in un contesto regolato.
Ha investito miliardi nel piano “France 2030” con focus su AI e semiconduttori, spingendo anche su un approccio “sovrano”: sviluppare modelli europei alternativi ai big americani e cinesi.
Tuttavia, il dibattito francese è segnato da tensioni sul riconoscimento facciale e la sorveglianza di massa, con ONG molto critiche.
Germania: il peso della giustizia e della privacy
La Germania ha istituito linee guida per l’uso dell’AI in giustizia e forze dell’ordine, con forte attenzione a trasparenza e diritti fondamentali.
Berlino ha inoltre finanziato centri di eccellenza sull’AI etica e applicata alla manifattura.
L’approccio è prudente: sì all’AI come strumento di efficienza, ma solo se non mette a rischio i principi del GDPR e la tutela dei cittadini.
Spagna: un’autorità dedicata
Madrid è stata tra i primi paesi a creare un’Agenzia nazionale per la supervisione dell’AI (AESIA), incaricata di vigilare e certificare sistemi AI in linea con le norme europee.
È un segnale forte: non solo principi, ma un’istituzione dedicata con compiti operativi.
La Spagna punta a diventare hub mediterraneo di regolamentazione e innovazione AI.
Olanda: valutazione preventiva obbligatoria
L’Olanda ha introdotto l’Algoritme Impact Assessment, un processo obbligatorio di valutazione dei rischi prima che un ente pubblico possa adottare sistemi AI.
È un approccio molto pratico: non basta avere regole generali, ogni progetto deve dimostrare ex ante di non violare diritti e non introdurre discriminazioni.
Regno Unito: libertà vigilata (fuori dall’UE)
Il Regno Unito, pur non essendo più parte dell’UE, offre un confronto utile.
Ha scelto un modello meno prescrittivo: non un’unica legge, ma linee guida affidate a regulator di settore (sanità, finanza, trasporti).
È un approccio flessibile, che punta a non frenare l’innovazione.
Ma molti denunciano il rischio di frammentazione e di vuoti di tutela.
Quindi riassumo con questa tabella il confronto con gli altri Paesi dell’UE e con il Regno Unito:
Paese | Strumento principale | Focus regolatorio | Punti di forza | Criticità |
---|---|---|---|---|
Italia | Legge nazionale (28 articoli, delega al Governo per decreti attuativi) | Principi antropocentrici, trasparenza, tracciabilità, settori sensibili (sanità, PA, giustizia, lavoro) | Prima legge organica in UE, quadro giuridico chiaro, integrazione con AI Act | Rischio sovrapposizione con AI Act UE, decreti attuativi mancanti, governance centralizzata |
Francia | Sandbox nazionale + piano “France 2030” | Test controllato di soluzioni AI, sviluppo modelli “sovrani” | Forte investimento pubblico, centralità nello sviluppo tecnologico | Critiche su uso AI per sorveglianza e riconoscimento facciale |
Germania | Linee guida settoriali (giustizia, forze dell’ordine), centri di eccellenza | Etica, privacy, applicazioni industriali | Approccio prudente, forte attenzione ai diritti | Rischio eccesso di cautela che rallenta adozione pratica |
Spagna | Agenzia nazionale AESIA | Vigilanza, certificazione, compliance AI | Autorità indipendente operativa, ruolo di hub regolatorio | Struttura ancora giovane, capacità di enforcement da verificare |
Olanda | Algoritme Impact Assessment (obbligatorio per PA) | Valutazione preventiva dei rischi etici e sociali | Strumento pratico e preventivo, trasparenza per i cittadini | Onere burocratico alto, rischio rallentamenti nelle PA |
Regno Unito (fuori UE) | Linee guida settoriali affidate ai regulator | Innovazione con libertà vigilata | Flessibilità, ridotta burocrazia, attrattivo per investitori | Frammentazione normativa, rischi di vuoti di tutela |
Il rischio evidente è che l’Europa, pur avendo varato un regolamento comune, si muova a velocità diverse e perda di coerenza.
È proprio l’opposto di ciò che servirebbe:
una visione unitaria capace di rendere l’AI europea competitiva e affidabile.
Cosa sta succedendo in Italia – la regolamentazione dell’AI è necessaria?
L’Italia, quando si parla di regolamentazione, questa volta non si è limitata a seguire: ha anticipato molti partner europei con una legge nazionale (DDL 1146/24) che non si limita ad applicare l’AI Act europeo, ma ambisce a esaltare le peculiarità e le priorità del nostro sistema sociale, istituzionale, produttivo.
Il parlamento italiano ha approvato una legge quadro con 28 articoli, che stabilisce principi fondamentali come l’uso antropocentrico e trasparente dell’AI, la tutela della privacy, la tracciabilità e la responsabilità umana.
Il testo affronta, con declinazioni proprie, temi cruciali come: cybersicurezza, responsabilità penale e civile, tutela dell’informazione, gestione dei dati sanitari, uso nell’amministrazione pubblica e nel lavoro, limiti alla discriminazione algoritmica, protezione della creatività.
La regolamentazione è indubbiamente necessaria per dare certezza legale alle imprese e tutelare i diritti dei cittadini.
Tuttavia, il vero nodo della legge italiana sta nella sua natura di “legge delega”, ed è questo il nodo applicativo.
La stragrande maggioranza delle regole operative sarà definita in decreti attuativi, la cui tempestività e precisione saranno cruciali per l’efficacia della legge stessa.
Sottotraccia emerge la tensione tra la necessità di mantenere la “sovranità digitale” e il rischio di chiudere troppo il recinto, sacrificando la capacità di attrarre investimenti e innovazione, e questo è uno dei rischi maggiori.
Alcune testimonianze
Il dibattito sulla legge italiana riflette tensioni simili a quelle europee, dividendo il fronte tra chi teme una burocrazia eccessiva e chi invoca maggiori tutele, ma appare segnato dalla consapevolezza che nessuna regola tecnica potrà mai anticipare l’impatto complessivo dell’IA.
- Alessio Butti, sottosegretario con delega all’Innovazione, esprime una visione proattiva, sostenendo che la legge non deve “diventare paralizzante” e che l’Italia deve cogliere l’occasione per diventare protagonista tecnologica.
- “L’innovazione non si può fermare.”
- “Bene la sperimentazione della verifica dell’età online in Italia, ma evitare troppi divieti.”
- “Più ricercatori e campioni nazionali, con il nostro piano l’AI parlerà italiano.”
- In sintesi: Butti riconosce i rischi ma insiste sul fatto che il regolamento non diventi paralizzante. Vuole che l’Italia diventi protagonista tecnologica, non spettatrice.
- Stefan Hartung, CEO di Bosch, critica la regolamentazione europea, avvertendo che norme troppo rigide o lente rischiano di far perdere terreno all’Europa rispetto a Stati Uniti e Cina.
- “Europe is unnecessarily delaying its AI future with excessive regulation.”
- “We will regulate ourselves to death, because we are trying to regulate against technological progress.”
- In sintesi: Dal punto di vista dell’industria tecnologica, norme troppo rigide o troppo lente rischiano di far perdere terreno rispetto a USA, Cina o altri paesi. I costi di adeguamento, compliance, certificazione possono diventare barriera all’ingresso.
- Le Organizzazioni per i diritti digitali e la società civile, come Amnesty International Italia, esprimono la preoccupazione che la legge italiana possa concentrare troppo potere nelle mani del governo, indebolendo la protezione dei diritti dei cittadini.
- “Ci opponiamo a qualsiasi affiliazione politica delle autorità preposte alla governance dell’intelligenza artificiale, una tecnologia che offre enormi opportunità di sviluppo economico e sociale, ma che comporta anche gravi rischi per la libertà e i diritti delle persone.”
- “La legge sull’intelligenza artificiale approvata oggi … conferisce un potere eccessivo al governo, privo di adeguati contrappesi democratici, lasciando scoperta la protezione dei diritti.”
- In sintesi: Preoccupazione che la governance sia troppo concentrata, che le autorità non siano sufficientemente indipendenti, che le eccezioni (soprattutto per sicurezza e polizia) possano essere ampie e indebolire le tutela.
Queste tre visioni mostrano che: non basta legiferare – serve capire come.
La regolamentazione di un’evoluzione così dirompente è complessa
Due rischi opposti pendono come spada di Damocle:
- Regolamentazione superata in fretta: l’AI evolve veloce; modelli nuovi, tecniche nuove. Un testo normativo può restare valido solo pochi anni se non prevede meccanismi di aggiornamento agile, sperimentazione, feed-back continuo.
- Rallentamento o blocco dell’innovazione: se norme troppe rigide, costi alti, incertezze, le startup piccole possono restare escluse; anche grandi enti pubblici possono rinviare progetti per timore di non essere conformi.
Aspetti positivi e negativi dell’AI Act
La legge italiana, pur essendo un testo organico e innovativo, presenta luci e ombre.
Aspetti Positivi
- Fornisce un quadro giuridico per la responsabilità, la tracciabilità e il controllo umano sulle decisioni prese dall’AI.
- Introduzione di garanzie contro l’opacità e le distorsioni discriminatorie dei sistemi automatizzati, rafforzando la fiducia pubblica
- Estende la regolamentazione a settori sensibili come sanità e giustizia, risposta forte ai rischi sul trattamento dei dati, all’uso illecito dell’IA in questi settori sensibili dove i rischi sono maggiori.
- Prevede un Comitato di coordinamento e designa l’AgID (Agenzia per l’Italia Digitale) e l’ACN (Agenzia per la Cybersicurezza Nazionale) come autorità nazionali per l’AI, assegnando loro compiti di promozione, vigilanza e sanzione.
- Garantisce che l’uso dell’AI non pregiudichi la vita democratica e la libertà del dibattito, tutelando la sovranità dello Stato.
Aspetti Critici
- Regole troppo dettagliate rischiano di diventare obsolete già oggi, mentre la tecnologia corre.
- La delega al Governo per i decreti attuativi rende l’efficacia della legge dipendente dalla tempestività e precisione di tali decreti.
- Rischio di sovrapposizioni o conflitti con il regolamento europeo se le norme nazionali non sono ben allineate.
- L’impianto penalizza spesso le imprese minori: chi non ha risorse per affrontare la burocrazia, ancor meno ne avrà per innovare.
- Le critiche da parte dei gruppi per i diritti digitali suggeriscono che la legge potrebbe essere sbilanciata verso il controllo statale, con garanzie insufficienti su biometria e trasparenza.
Un’opportunità da cogliere
Il paradosso è che la vera grande opportunità è sociopolitica, non solo tecnologica.
L’AI Act italiano, se usato con intelligenza, potrebbe diventare uno straordinario laboratorio per sperimentare modelli di governance algoritmica “aperti”, trasparenti, a coinvolgimento multiplo (imprese, enti di ricerca, società civile).
Questo significa implementare i decreti attuativi con intelligenza, assegnare risorse adeguate alle autorità di controllo e promuovere una cultura della responsabilità a tutti i livelli.
Se fatto bene, il quadro normativo può diventare un modello per l’Europa, creando fiducia nei cittadini, attirando investimenti e favorendo la nascita di startup specializzate in AI etica e trasparente.
Ma siamo sicuri di essere già pronti per l’adozione sistematica dell’AI?
Ed è qui la provocazione chiave: esiste un rischio ancora poco discusso, quello che la regolamentazione possa accelerare il divario tra chi è pronto (grandi attori, multinazionali, lobby legali) e chi rincorre (PMI, sistema della conoscenza diffusa, PA stesse).
Una regolamento tecnocratico rischia di creare “zone di comfort” per i già forti.
Eppure l’AI non è una questione di rispetto di una normativa, ma una questione culturale e di maturità sociale: serve educazione diffusa, dialogo continuo tra chi sviluppa, chi usa, chi subisce, e chi decide.
Nonostante il passo legislativo, l’Italia non è ancora pienamente pronta per l’adozione sistematica dell’AI.
Le principali criticità riguardano:
- Infrastrutture digitali: la mancanza di capacità tecnologiche uniformi su tutto il territorio nazionale.
- Competenze: la carenza di personale formato per comprendere i rischi e le criticità e le distorsioni degli algoritmi.
- Cultura organizzativa: la necessità di un cambiamento nelle istituzioni pubbliche per accettare controlli e audit esterni.
L’innovazione non si può fermare, ma deve essere governata con buonsenso, evitando che l’AI diventi uno strumento di potere incontrollabile.
Il vero rischio è che la legislazione, anziché fornire un faro, diventi un freno per le imprese e le startup, spingendo l’innovazione altrove.
Evoluzioni future
Sarà necessario monitorare attentamente e con flessibilità l’evoluzione tecnologica, ma anche i suoi impatti sociali, normativi, persino linguistici.
La legge italiana non può essere statica, deve prevedere meccanismi agili di aggiornamento, ed è su questo punto che sono abbastanza scettico e critico.
Non siamo ancora pienamente pronti e in futuro sarà necessario:
- Monitorare l’efficacia dei decreti attuativi e procedere con aggiustamenti normativi, soprattutto su temi emergenti come biometria e deepfake.
- Investire in infrastrutture, formazione e competenze per garantire che l’adozione dell’AI sia etica e sicura.
- Collaborare a livello europeo per evitare la frammentazione e creare standard tecnici condivisi che favoriscano la competitività.
- Coinvolgere attivamente la società civile, i lavoratori e le associazioni per garantire che i diritti non restino solo sulla carta.
L’approccio migliore, a mio giudizio, dovrebbe essere forse quello “incrementale”, dove legge e applicazione e adozione si dovranno influenzare a vicenda ed evolvere insieme.
Tornando alla domanda del titolo: L’AI Act Italiano sarà un freno o un faro? La risposta non è nel testo della legge, ma nel nostro modo di Implementarla.
L’AI Act italiano è un primo coraggioso passo avanti, ma è solo l’inizio di un percorso molto complesso e pieno di ostacoli.
L’unica via per governare questa rivoluzione è un approccio “illuministico“ coordinato, dinamico e proattivo, che sappia coniugare rigore e pragmatismo, trasformando ogni sfida in un’opportunità di crescita.
Senza di esso, la legge rischia di rimanere un guscio vuoto, una “carta bella ma fragile”.
Chiudo con una domanda aperta:
“perchè non utilizzare quest’evoluzione epocale per avviare un percorso di sperimentazione e di “prototipazione della normativa” ovvero regole temporanee, adattative, capaci di cambiare insieme alle tecnologie?“
Con il mio team di Avriolab, proponiamo un set di servizi mirati per offrire una consulenza professionale per l’adozione di soluzioni AI.
Per informazioni e una consulenza personalizzata, puoi contattarmi scrivendo una mail a: sergio.curadi@avriolab.com
di Sergio Curadi Naumann
Leggi anche questo articolo:
ANSIA DA AI: LA NUOVA FOMO CONTAGIA IMPRENDITORI E MANAGER
L’Intelligenza Artificiale sta entrando in modo dirompente nella vita delle persone e nel mondo delle imprese.
Tra opportunità concrete e messaggi aggressivi, cresce la sensazione di FOMO (Fear of Missing Out): la paura di rimanere indietro, di perdere occasioni, di non adottare subito l’AI nei processi aziendali.