Con l’inizio del 2026, il Regolamento europeo sull’Intelligenza Artificiale (AI Act) entra nella sua fase decisiva. Adottato ufficialmente nel giugno 2024, l’AI Act rappresenta la prima legislazione organica al mondo dedicata all’intelligenza artificiale e segna un passaggio cruciale nel tentativo di coniugare innovazione tecnologica, tutela dei diritti fondamentali, sicurezza ed etica.
Il principio guida del Regolamento resta l’approccio basato sul rischio: non viene regolata l’intelligenza artificiale in quanto tecnologia, ma l’uso concreto che se ne fa e l’impatto che può avere sulle persone e sulla società.
L’AI Act distingue i sistemi di IA in quattro grandi categorie, cui corrispondono livelli crescenti di obblighi e responsabilità.
Rischio inaccettabile
I sistemi considerati una minaccia per i diritti fondamentali sono vietati nell’Unione Europea dal 2 febbraio 2025. Rientrano in questa categoria le tecniche subliminali volte a manipolare il comportamento, i sistemi di classificazione sociale delle persone, le valutazioni predittive del rischio criminale basate esclusivamente su profilazione e l’identificazione biometrica in tempo reale negli spazi pubblici da parte delle forze dell’ordine, consentita solo in casi eccezionali come terrorismo o ricerca di vittime di gravi reati.
Alto rischio
Dal 2026 entrano nel vivo gli obblighi per i sistemi che incidono in modo significativo sulla vita dei cittadini: infrastrutture critiche, istruzione, lavoro e selezione del personale, accesso a servizi essenziali come banche e welfare, giustizia e controllo delle frontiere.
Questi sistemi restano ammessi, ma sono sottoposti a requisiti stringenti: valutazioni di conformità, tracciabilità dei processi decisionali, gestione del rischio, qualità dei dati e supervisione umana obbligatoria.
Rischio limitato
Comprende applicazioni come chatbot e generatori di immagini o testi. Qui il fulcro è la trasparenza: gli utenti devono essere informati quando interagiscono con un sistema di IA e i contenuti generati artificialmente – inclusi i deepfake – devono essere chiaramente segnalati.
Rischio minimo
La maggior parte delle applicazioni quotidiane, come filtri antispam o videogiochi, rientra in questa categoria e non è soggetta a nuovi obblighi oltre alla normativa già esistente.
Un capitolo specifico riguarda l’intelligenza artificiale generativa. Pur non essendo sempre classificata come ad alto rischio, deve rispettare obblighi mirati: tutela del diritto d’autore, pubblicazione di un riepilogo dei dati utilizzati per l’addestramento dei modelli e misure di sicurezza per prevenire la produzione di contenuti illegali.
L’AI Act è stato pensato con un’entrata in vigore graduale per consentire l’adeguamento di imprese e istituzioni:
- Agosto 2024: entrata in vigore formale del Regolamento
- Febbraio 2025: applicazione dei divieti per i sistemi a rischio inaccettabile
- Agosto 2025: avvio delle regole per i modelli di IA a uso generale
- Agosto 2026: piena applicazione della maggior parte delle disposizioni, in particolare per i sistemi ad alto rischio
- Agosto 2027: estensione degli obblighi ai sistemi ad alto rischio integrati in prodotti regolamentati, come dispositivi medici e veicoli
Nel 2026 l’AI Act smette di essere solo una cornice normativa e diventa una realtà operativa. Per l’Europa si tratta di una scommessa ambiziosa: governare una tecnologia in rapida evoluzione senza soffocare l’innovazione, ma ponendo limiti chiari quando sono in gioco diritti, libertà e sicurezza dei cittadini. Un modello che, non a caso, è già osservato con attenzione ben oltre i confini dell’Unione.
