Il 13 marzo 2024 è stato approvato dal Parlamento europeo l’AI ACT – Regolamento sull’intelligenza artificiale. Il Regolamento ha l’obiettivo di creare un quadro normativo armonizzato e proporzionato per l’intelligenza artificiale (IA) nell’Unione Europea.
L’IA deve essere sviluppata e utilizzata in modo sicuro, etico e rispettoso dei diritti fondamentali e dei valori europei. Per questo motivo, la normativa prevede una classificazione dei sistemi di IA in base al loro livello di rischio per la sicurezza e i diritti delle persone, e stabilisce una serie di requisiti e obblighi per i fornitori e gli utenti di tali sistemi.
Definizione di intelligenza artificiale
L’IA è intesa come “un sistema automatizzato progettato per funzionare con diversi livelli di autonomia e che può mostrare capacità di adattamento dopo l’installazione e che, per obiettivi espliciti o impliciti, deduce, dagli input che riceve, come generare output quali previsioni, contenuti, raccomandazioni o decisioni che possono influenzare ambienti fisici o virtuali” (articolo 3)
Il Regolamento, si applicherà a tutti i soggetti pubblici e privati che producono strumenti con tecnologia di intelligenza artificiale rivolti al mercato europeo. Non solo i fornitori, ma anche gli utilizzatori dovranno assicurarsi che il prodotto sia conforme.
Gli obiettivi dell’Ai Act
L’Ai Act si propone di creare un mercato unico per l’IA, facilitando la libera circolazione e il riconoscimento dei sistemi di IA conformi alle norme dell’UE. Si vuole aumentare la fiducia nell’IA, assicurando che i sistemi di IA siano affidabili, trasparenti e responsabili, e che rispettino i principi etici e i diritti fondamentali. Si vuole vietare o limitare l’uso di sistemi di IA che presentano un rischio inaccettabile per la sicurezza, la salute, la dignità o l’autonomia delle persone, o che violano i valori democratici. Inoltre, si introduce il sostegno all’innovazione nell’IA fornendo incentivi, finanziamenti e orientamenti per lo sviluppo e il dispiegamento di sistemi di IA sicuri ed etici.
Approccio basato sul rischio
L’AI Act è stato pensato con un approccio basato sul rischio. La normativa prevede quindi una classificazione dei sistemi di IA in base al livello di rischio che presentano per le persone e per la società. Il quadro distingue tra quattro categorie di rischio:
inaccettabile: questi sistemi sono vietati o soggetti a severe restrizioni. Ad esempio, sono proibiti i sistemi di IA che manipolano il comportamento umano in modo da eludere la volontà degli utenti
alto: possono avere un impatto “sistemico”, ossia significativo sui diritti fondamentali o sulla sicurezza delle persone. Questi sistemi sono soggetti a rigorosi obblighi e requisiti prima di poter essere immessi sul mercato o utilizzati.
limitato: sono quelli che possono influenzare i diritti o le volontà degli utenti, ma in misura minore rispetto ai sistemi ad alto rischio. Questi sistemi sono soggetti a requisiti di trasparenza, che consentono agli utenti di essere consapevoli del fatto che interagiscono con un sistema di IA e di comprenderne le caratteristiche e le limitazioni.
minimo: sono quelli che non hanno alcun impatto diretto sui diritti fondamentali o sulla sicurezza delle persone, e che offrono ampi margini di scelta e controllo agli utenti.
Maggiore è il rischio insito nell’utilizzo di un determinato sistema intelligenza artificiale, maggiori saranno le responsabilità di chi sviluppa e usa quel sistema, sino a giungere a un divieto di utilizzo.
I criteri per la qualificazione di un sistema di IA come “ad alto rischio” sono riportati all’articolo 6, mentre un elenco più ampio è inserito fra gli allegati al regolamento.
Ambito di applicazione
L’IA Act non si applicherà ai sistemi di IA che hanno scopi militari, di difesa o di sicurezza nazionale, indipendentemente dal tipo di entità che svolge tali attività, nonché ai sistemi di IA utilizzati esclusivamente per scopi di ricerca e innovazione, né alle persone che utilizzano l’IA per scopi non professionali (articolo 2 ).
Concludendo, l’IA Act rappresenta un passo fondamentale per la regolamentazione delle applicazioni di intelligenza artificiale verso un utilizzo responsabile e sicuro di questa potente tecnologia.