L’UE è la prima a dotarsi di una legge sull’Intelligenza Artificiale, in difesa dei diritti fondamentali delle persone senza accantonare la spinta all’innovazione con l’AI Act.
![](https://www.danieleproietto.com/wp-content/uploads/2024/02/image-2.gif)
L’Unione Europea ha compiuto un passo significativo nel mondo dell’intelligenza artificiale (IA) con l’introduzione dell’AI Act. Questo regolamento, adottato per affrontare le sfide e massimizzare i benefici dell’IA, rappresenta un punto di svolta ed è la prima regolamentazione di questa tecnologia avanzata. Tuttavia, l’adozione non è stata priva di discussioni e controversie, in particolare sulla questione dell’utilizzo dell’IA per la sorveglianza e la sicurezza.
L’AI Act è un quadro legislativo che mira a creare un ambiente normativo chiaro e coerente per l’uso dell’IA all’interno dell’Unione. Esso si basa su valori fondamentali come la trasparenza, la responsabilità, la non discriminazione e la sicurezza. Il regolamento stabilisce regole specifiche per i sistemi di IA ad alto rischio, come quelli utilizzati nei settori della salute, dell’istruzione, dei trasporti e della giustizia.
Durante i negoziati per l’approvazione dell’AI Act, si è verificato un impasse significativo riguardo all’uso dell’IA per la sorveglianza e la sicurezza. Semplificando: Il Parlamento Europeo temeva che l’ampio utilizzo di sistemi di sorveglianza basati sull’IA potesse minare la privacy e i diritti fondamentali dell’individuo e ha proposto così un blocco totale, mentre il Consiglio Europeo, che è l’espressione dei singoli stati, ha avuto un approccio più permissivo (senza contare l’intervento a gamba tesa di Italia, Francia e Germania per escludere i foundational models, i sistemi di addestramento alla base dei prodotti finali, dalla regolamentazione).
Dopo qualche settimana di negoziazione, gli stati hanno ceduto e l’AI Act ha quindi introdotto restrizioni sull’uso di sistemi di riconoscimento facciale e di altre tecnologie di sorveglianza in luoghi pubblici, affermando la necessità di rispettare i principi di proporzionalità e necessità.
Anche la questione dei foundational models è stata risolta grazie all’individuazione delle AI ad alto impatto (con un potere di calcolo di 10^25 FLOPs) che dovranno applicare ex ante la legislazione rispettando sicurezza informatica, trasparenza dei processi di addestramento e condivisione della documentazione tecnica prima della commercializzazione. Per i modelli inferiori, la legislazione viene applicata al momento della commercializzazione dei prodotti.
Questo approccio mira a garantire che le tecnologie di sorveglianza siano utilizzate solo quando è assolutamente necessario e nel rispetto dei diritti fondamentali.