Skip links
UE: regole sull’AI ad alto rischio rinviate al 2027. Che cosa significa davvero

Ai Act, le regole sull’AI ad alto rischio rinviate al 2027. Che cosa significa davvero

L’Unione Europea ha deciso di rallentare, almeno in parte. Con un pacchetto di modifiche battezzato Digital Omnibus, la Commissione ha proposto di rinviare al dicembre 2027 alcune delle regole più rigide dell’AI Act, quelle che riguardano gli usi considerati ad alto rischio: selezione del personale, valutazione del credito, sanità, biometria, infrastrutture critiche. In parallelo, vengono alleggeriti anche alcuni aspetti di GDPR ed e-Privacy per facilitare l’uso dei dati nell’addestramento dei modelli.

Che cosa è stato rinviato

Nel testo presentato a Bruxelles, la Commissione propone di spostare di oltre un anno l’entrata in vigore delle regole più dure per l’uso dell’AI in contesti come riconoscimento biometrico, gestione del traffico, utilities, esami e assunzioni, servizi sanitari, controlli sul credito e law enforcement. Queste aree erano inizialmente soggette a obblighi stringenti già dal 2026; ora la scadenza viene spostata a fine 2027.

La motivazione ufficiale è ridurre burocrazia, evitare di soffocare l’innovazione e aumentare la competitività europea. La Commissione insiste sul fatto che semplificazione non significa deregolamentazione, ma il segnale politico è chiaro: dopo mesi di pressioni da parte dei big tech e di alcune capitali, la linea si è ammorbidita.

Più margine sull’uso dei dati per l’addestramento

Tra le modifiche proposte ci sono anche aggiustamenti al GDPR e alla normativa sui cookie. In particolare, alcune formulazioni aprono alla possibilità per aziende come Google, Meta, OpenAI e altri grandi operatori di utilizzare in modo più ampio i dati personali europei per addestrare i modelli, ovviamente entro un quadro regolatorio rivisto.

La logica è quella di evitare che l’Europa rimanga indietro nella corsa ai modelli avanzati per mancanza di dati, ma le associazioni per i diritti digitali parlano già di regalo ai big tech e di arretramento sul fronte privacy.

Impatto per chi sviluppa e usa AI in Europa

Per startup, agenzie e aziende europee che lavorano con l’AI, il rinvio è un’arma a doppio taglio. Da un lato concede più tempo per adeguare processi, documentazione, valutazioni del rischio e logiche di auditing. Dall’altro sposta in avanti la certezza regolatoria: per qualche anno ancora vivremo in una zona grigia, con regole in evoluzione e margini interpretativi che non aiutano chi vuole investire seriamente.

Chi costruisce sistemi per ambiti sensibili non può permettersi di aspettare il 2027: deve già oggi comportarsi come se l’AI Act duro fosse pienamente operativo. Questo significa tracciabilità dei dataset, spiegabilità dei modelli dove possibile, controllo dei bias, procedure per l’intervento umano e meccanismi di reclamo chiari.

Come dovrebbe muoversi chi lavora nel digitale

Per realtà che progettano piattaforme, integrazioni e prodotti digitali anche con componenti di AI, la strategia più sana è semplice, cioè puntare a standard più alti della legge minima. Non inseguire l’ultima concessione regolatoria, ma costruire sistemi che sarebbero accettabili anche in uno scenario più rigido.

Questo vuol dire scegliere con cura dove usare l’AI, quali dati alimentano i modelli, come vengono gestiti i log, quali consensi vengono chiesti agli utenti. Il rinvio delle regole ad alto rischio è una finestra di tempo e chi la usa per prepararsi arriverà al 2027 tranquillo. Chi la usa per fare finta di niente, no.

Explore
Drag