L’Unione europea approva l’AI Act: la prima legislazione globale sulla regolamentazione dell'Intelligenza Artificiale

L'Unione Europea ha compiuto un passo storico nella regolamentazione dell'Intelligenza Artificiale (AI) con l'approvazione dell'AI Act (Regolamento (UE) 2024/1689), la prima legislazione globale in materia.

L'Unione europea ha compiuto un passo storico nella regolamentazione dell'Intelligenza Artificiale (AI) con l'approvazione dell'AI Act (Regolamento (UE) 2024/1689), la prima legislazione globale in materia. L'obiettivo è duplice: promuovere un'AI affidabile e sicura in Europa, e al contempo posizionare l'UE come leader mondiale in questo settore cruciale.
L'AI Act adotta un approccio basato sul rischio, classificando i sistemi di AI in quattro categorie:

  • Rischio inaccettabile: Sistemi di AI che rappresentano una chiara minaccia per la sicurezza, i mezzi di sussistenza e i diritti delle persone sono vietati.
  • Alto rischio: Sistemi di AI che possono comportare rischi seri per la salute, la sicurezza o i diritti fondamentali. Questi sistemi sono soggetti a rigidi obblighi, tra cui valutazione e mitigazione dei rischi, dati di alta qualità, registrazione delle attività, documentazione dettagliata, informazioni chiare, supervisione umana e elevata robustezza e accuratezza.
  • Rischio di trasparenza: Sistemi di AI che richiedono trasparenza per preservare la fiducia. Ad esempio, chatbot e AI generativa devono indicare chiaramente che l'interazione avviene con una macchina e i contenuti generati dall'AI devono essere identificabili ed etichettati, soprattutto nel caso di deep fake e testi pubblicati con finalità di informazione pubblica.
  • Rischio minimo o nullo: Sistemi di AI che non presentano rischi significativi, come videogiochi con AI o filtri antispam, non sono soggetti a regole specifiche.

Per i fornitori di sistemi di AI ad alto rischio, è previsto un sistema di controllo del mercato, supervisione umana e monitoraggio post-commercializzazione. Particolare attenzione è rivolta ai modelli di AI generici, che potrebbero comportare rischi sistemici. Per questi, sono previste regole specifiche, tra cui trasparenza e rispetto del copyright, e per i modelli più potenti, valutazione e mitigazione dei rischi.
L'attuazione dell'AI Act sarà supervisionata dall'Ufficio Europeo per l'Intelligenza Artificiale, istituito presso la Commissione, che si occuperà anche dei modelli di AI più potenti.
L'AI Act è entrato in vigore il 1° agosto 2024 e sarà pienamente applicabile dal 2 agosto 2026.
Per maggiori informazioni consulta la notizia originaria.
 
 

Progetto di riferimento: