Le nuove regole Ue sull’intelligenza artificiale, i dubbi sui controlli di massa concessi alla polizia: cosa prevede l’AI Act
Dal 2 febbraio sono entrate ufficialmente in vigore le prime misure dell’AI Act, il regolamento dell’Unione Europea sull’uso e lo sviluppo dell’intelligenza artificiale. Il pacchetto normativo divide i sistemi basati sull’intelligenza artificiale in varie categorie in base al rischio che questi comportano: minimo, limitato, alto e inaccettabile. A essere valide da questo mese sono le misure che regolano le AI considerate inaccettabili. L’intero provvedimento entrerà in vigore nel corso dei prossimi 18 mesi, e gli Stati membri devono individuare entro agosto le autorità responsabili del controllo. Ma alcune eccezioni previste da regolamento hanno sollevato dubbi tra gli osservatori, che parlano esplicitamente di «controllo di massa».
Gli usi dell’intelligenza artificiale vietati dall’AI Act
Tra gli usi dell’intelligenza artificiale a massimo rischio ci sono quelli che usano tecniche subliminali, manipolative o ingannevoli per influenzare il comportamento e modificare le decisioni delle persone; quelli che rilevano dati biometrici per classificare gli individui in base alle caratteristiche sensibili – razza, opinioni politiche, appartenenza a sindacati, credenze religiose o filosofiche, preferenze sessuali. Quelli che classificano le persone in base al comportamento sociale per poi trattarle diversamente. Che valutano il rischio che un individuo commetta reati basandosi esclusivamente sulla profilazione o sui tratti della personalità. Vietata anche la compilazione di database di riconoscimento facciale attraverso l’acquisizione generica di immagini facciali da internet o da filmati di telecamere a circuito chiuso. Tra gli usi vietat c’è anche l’Interpretazione delle emozioni nei luoghi di lavoro e nelle scuole sulla base di rilevazioni biometriche. Infine, vietato anche il riconoscimento facciale delle persone «in tempo reale» in spazi aperti al pubblico.
Le eccezioni per le forze dell’ordine
Tuttavia, l’Unione Europea ha previsto una serie di eccezioni che si applicano quanto questi sistemi sono necessari alla «sicurezza nazionale». Una definizione ampia in cui rientrano molte pratiche tipiche di un fenomeno noto come predictive policing. Ad esempio, la possibilità per le forze dell’ordine di usare l’identificazione biometrica in tempo reale in caso di indagini su 16 reati particolarmente gravi – tra cui omicidio, stupro, rapina a mano armata, traffico di stupefacenti e di armi illegali, crimine organizzato, crimine ambientale. Ma anche quando sono ricercate persone scomparse, vittime di rapimenti e di traffico di esseri umani o di sfruttamento sessuale. Inoltre, l’identificazione è consentita se si teme una concreta minaccia di attacco terroristico. Altre eccezioni concesse alle forze dell’ordine sono l’identificazione delle emozioni per motivi di sicurezza nei posti di frontiera o nei centri di controllo dell’immigrazione. E di usare di algoritmi predittivi per individuare chi potrebbe compiere crimini.
Le critiche: «Rischio di controllo di massa»
Tra chi critica le eccezioni c’è l’organizzazione senza scopo di lucro Center for Democracy & Technology. «L’esenzione dall’AI Act per la sicurezza nazionale – scrive l’associazione statunitense – consentirebbe la creazione e l’utilizzo di tecnologie invasive e contrarie all’etica che altrimenti sarebbero illegali». Per questo, «un ente preposto all’applicazione della legge potrebbe cercare di evitare le restrizioni sull’identificazione biometrica in tempo reale effettuata in spazi pubblici semplicemente alludendo a uno scopo di sicurezza nazionale». Inoltre, fa notare la testata d’indagine Investigate Europe in un articolo da titolo AI ACT: Parte il controllo di massa nei luoghi pubblici: «Queste esenzioni riguarderanno anche le aziende private, o eventualmente i Paesi terzi, che forniscono la tecnologia AI alla polizia e alle forze dell’ordine. Il testo stabilisce che la sorveglianza è consentita «indipendentemente dall’entità che svolge tali attività».