Estero

L'Ue mette un freno all'intelligenza artificiale

Il Parlamento europeo ha varato le nuove regole: vietato, fra l'altro, il riconoscimento facciale in luoghi pubblici e determinate profilazioni

In sintesi:
  • Posti limiti ai sistemi di identificazione e categorizzazione biometrica
  • Imposti dei requisiti di trasparenza: andrà dichiarato che il contenuto è generato da un'IA
(Keystone)
14 giugno 2023
|

Via libera dall'eurocamera all'AIAct, il testo che racchiude le nuove regole dell'Ue per l'intelligenza artificiale (IA). L'aula di Strasburgo ha approvato con 499 voti a favore 28 contrari e 93 astenuti la prima regolamentazione al mondo pensata per imprimere alle tecnologie come ChatGPT il rispetto delle leggi dell'Ue e dei valori fondamentali e per combattere la discriminazione digitale e prevenire la disinformazione e l'utilizzo di deep fakes. Il voto apre la strada ai dialoghi con i Paesi membri e la Commissione europea, il primo negoziato è previsto già per questa sera.

Le norme seguono un approccio basato sul rischio e stabiliscono obblighi per fornitori e operatori dei sistemi di IA a seconda del livello di rischio che può essere generato. Saranno quindi vietati i sistemi di IA che presentano un livello di rischio inaccettabile per la sicurezza delle persone, come quelli utilizzati per il punteggio sociale (classificare le persone in base al loro comportamento sociale o alle loro caratteristiche personali).

I deputati, rispetto al testo iniziale, hanno ampliato l'elenco per includere divieti sugli usi intrusivi e discriminatori dell'IA, come l'uso di sistemi di identificazione biometrica remota "in tempo reale" e "a posteriori" in spazi accessibili al pubblico; i sistemi di categorizzazione biometrica basati su caratteristiche sensibili (ad esempio genere, razza, etnia, cittadinanza, religione, orientamento politico); i sistemi di polizia predittiva (basati su profilazione, ubicazione o comportamenti criminali passati); i sistemi di riconoscimento delle emozioni utilizzati dalle forze dell'ordine, nella gestione delle frontiere, nel luogo di lavoro e negli istituti d'istruzione; e l'estrazione non mirata di dati biometrici da internet o da filmati di telecamere a circuito chiuso per creare database di riconoscimento facciale (in violazione dei diritti umani e del diritto alla protezione della sfera privata).

Il testo approvato dal parlamento europeo prevede che la classificazione delle applicazioni ad alto rischio includa anche i sistemi di IA che comportano danni significativi per la salute, la sicurezza, i diritti fondamentali delle persone o l'ambiente. Sono stati aggiunti alla lista ad alto rischio i sistemi di intelligenza artificiale utilizzati per influenzare gli elettori e l'esito delle elezioni e i sistemi di raccomandazione utilizzati dalle piattaforme delle reti sociali (con oltre 45 milioni di utenti).

I sistemi di IA generativa che si basano su tali modelli, quali ChatGPT, secondo il testo, dovrebbero rispettare i requisiti di trasparenza (dichiarando che il contenuto è stato generato dall'IA), aiutando anche a distinguere le cosiddette immagini deep fake da quelle reali, e fornire salvaguardie per evitare la generazione di contenuti illegali. Dovrebbero inoltre essere pubblicate le sintesi dettagliate dei dati protetti dal diritto d'autore utilizzati per l'addestramento.

Resta connesso con la tua comunità leggendo laRegione: ora siamo anche su Whatsapp! Clicca qui e ricorda di attivare le notifiche 🔔