L’AI Act, la legge sull’intelligenza artificiale che disciplina lo sviluppo, l’immissione sul mercato e l’uso dei sistemi di IA in Ue, approvato all’unanimità dal Consiglio Europeo è la prima al mondo in materia.
Un impianto normativo che, sulla base dei diversi livelli di rischio, detta una serie di obblighi a fornitori e sviluppatori di sistemi di intelligenza artificiale. I diversi tipi di IA sono infatti classificati in base al rischio. Quando il rischio è inaccettabile (tecniche manipolative, pratiche di polizia predittiva, riconoscimento delle emozioni vietato sul posto di lavoro e nelle scuole, riconoscimento facciale ad esclusione delle forze dell’ordine) scattano i divieti. Questi saranno operativi dopo sei mesi dall’entrata in vigore della legge, un anno per i i controlli sulle attività per finalità generali e tre anni per i sistemi ad altro rischio. Tutte le altre regole saranno applicabili tra due anni.
IA nel pubblico impiego, il rapporto
Altra novità è il capitolo dedicato all’IA generativa, inserito in corso d’opera con l’obiettivo di dare una prima risposta alla diffusione di sistemi come ChatGPT.
I modelli di IA per scopi generali (come ChatGpt) che non presentano rischi sistemici saranno soggetti ad alcuni requisiti limitati, mentre quelli con rischi sistemici dovranno rispettare regole più stringenti.
A seconda della violazione e delle dimensioni dell’azienda, saranno comminate multe da 7,5 milioni di euro o l’1,5% del fatturato fino a 35 milioni di euro o il 7% del fatturato.