Il Parlamento europeo ha approvato l’AI Act, il regolamento UE sull’intelligenza artificiale, con l’obiettivo di creare un quadro normativo armonizzato e proporzionato. La normativa definisce come sviluppare e utilizzare sistemi di IA in modo sicuro, etico e rispettoso dei diritti fondamentali, classificando i sistemi di IA in base al loro livello di rischio e stabilendo obblighi per fornitori e utenti, al fine di aumentare la fiducia, garantire trasparenza e tutelare i cittadini europei.
Definizione di intelligenza artificiale
L’IA è intesa
come “un sistema automatizzato progettato per funzionare con diversi livelli di autonomia e che può mostrare capacità di adattamento dopo l’installazione e che, per obiettivi espliciti o impliciti, deduce, dagli input che riceve, come generare output quali previsioni, contenuti, raccomandazioni o decisioni che possono influenzare ambienti fisici o virtuali” (articolo 3)
Il Regolamento, si applicherà a tutti i soggetti pubblici e privati che producono strumenti con tecnologia di intelligenza artificiale rivolti al mercato europeo. Non solo i fornitori, ma anche gli utilizzatori dovranno assicurarsi che il prodotto sia conforme.
Gli obiettivi principali dell’Ai Act
L’Ai Act si propone di creare un mercato unico per l’IA, facilitando la libera circolazione e il riconoscimento dei sistemi di IA conformi alle norme dell’UE. Aumentare la fiducia nell’IA, assicurando che i sistemi di IA siano affidabili, trasparenti e responsabili, e che rispettino i principi etici e i diritti fondamentali. Vietare o limitare l’uso di sistemi di IA che presentano un rischio inaccettabile per la sicurezza, la salute, la dignità o l’autonomia delle persone, o che violano i valori democratici.
Approccio basato sul rischio
L’AI Act è stato pensato con un approccio basato sul rischio.
Classificazione dei sistemi IA:
- inaccettabile: questi sistemi sono vietati o soggetti a severe restrizioni. Ad esempio, sono proibiti i sistemi di IA che manipolano il comportamento umano in modo da eludere la volontà degli utenti
- alto: possono avere un impatto “sistemico”, ossia significativo sui diritti fondamentali o sulla sicurezza delle persone. Questi sistemi sono soggetti a rigorosi obblighi e requisiti prima di poter essere immessi sul mercato o utilizzati.
- limitato: sono quelli che possono influenzare i diritti o le volontà degli utenti, ma in misura minore rispetto ai sistemi ad alto rischio. Questi sistemi sono soggetti a requisiti di trasparenza, che consentono agli utenti di essere consapevoli del fatto che interagiscono con un sistema di IA e di comprenderne le caratteristiche e le limitazioni.
- minimo: sono quelli che non hanno alcun impatto diretto sui diritti fondamentali o sulla sicurezza delle persone, e che offrono ampi margini di scelta e controllo agli utenti.
Maggiore rischio implica maggiori responsabilità per sviluppatori e utilizzatori.
I criteri per la qualificazione di un sistema di IA come “ad alto rischio” sono riportati all’articolo 6. Mentre un elenco più ampio è inserito fra gli allegati al regolamento.
Ambito di applicazione
L’IA Act non si applicherà ai sistemi di IA che hanno scopi militari, di difesa o di sicurezza nazionale.
Concludendo, l’IA Act rappresenta un passo decisivo per la regolamentazione delle applicazioni di intelligenza artificiale verso un utilizzo responsabile e sicuro di questa tecnologia avanzata.
Il nostro studio può aiutare la tua azienda a gestire correttamente i sistemi di IA. Contattaci