tecnologia-e-sicurezza-una-faccia-una-persona
© iStockphoto
ULTIME NOTIZIE Ticino7
Ticino7
1 gior

Salvare una vita è sempre una buona idea

Nelle acque del Mediterraneo continuano a morire esseri umani, leggi e diritti. Spesso nel silenzio. Ne abbiamo parlato con Cecilia Strada della ONG ResQ
Ticino7
2 gior

L’occhio sociale di Alessandro Ligato

‘L’arte mi ha insegnato ad avere un pensiero divergente che non si ferma mai all’apparenza ma che tenta, piuttosto, di scoprire cosa c’è sotto il tavolo’
Ticino7
3 gior

Se volevo essere un riempimento di vuoti nascevo stucco

Perché è così difficile per le persone percepire la differenza tra essere disponibili ed essere a disposizione?
Ticino7
3 gior

Dimmi come ti chiamano (e ti dirò chi sei)

Ti si attacca addosso in un attimo e ti accompagna per tutta la vita, spesso finendo per diventare anche un nome di famiglia alternativo: è il soprannome
Ticino7
3 gior

Quello sei tu, davvero

Hai voglia a costruirti un profilo pubblico rispettabile, se poi quelli che ti conoscono veramente...
Ticino7
1 sett

Gabriel Stöckli e l’età dell’incertezza

La durezza e la semplicità delle forme coinvolte nelle sue creazioni sono anche la metafora della precarietà della sua generazione
Ticino7
1 sett

Storie e curiosità col ‘ghiro d’Italia’ (ma senza sudare)

Anche se non siete amanti della bici, qui potrete trovare pane per i vostri denti. Perché in su e in giù seguendo la Maglia Rosa non si pedala e basta...
Ticino7
1 sett

Il castoro cerca casa, uomo permettendo

Cacciato, estinto e reintrodotto. Anche quella di questo ingegnoso roditore è la storia di una convivenza fragile e complessa con l’homo sapiens
Ticino7
1 sett

Essere ‘Supergiovani’ dentro

“Nel boschetto della mia fantasia c’è un fottio di animaletti un po’ matti inventati da me, che mi fanno ridere quando sono triste”
Ticino7
2 sett

La scelta ‘silenziosa’ di Claudio Zanini

Guida un’auto elettrica e con 120mila chilometri alle spalle l’esperienza è molto positiva. A parte quei costi legati alla ricarica ‘da migliorare’...
Ticino7
2 sett

Guidare elettrico: lo stile fa la differenza

Come si guida un veicolo con motore elettrico, con un occhio ad autonomia e resa, e rientrare nei margini di percorrenza promessi dai costruttori?
Ticino7
2 sett

Elettrificazione. Ok, la parola è giusta

Piccola guida per capirci qualcosa in un universo fatto di sigle, corrente, cavi, potenza, batterie, prese e molto inglese
Ticino7
2 sett

Mobilità e sostenibilità: le buone intenzioni

Serve a poco utilizzare veicoli (sulla carta) poco inquinanti, se poi si guidano così così
Ticino7
3 sett

‘Egolandia’ o le cinquanta sfumature di Narciso

Volete evitare di cadere vittima del narcisista manipolatore? Ecco il contributo giusto per voi...
Ticino7
3 sett

La narrazione emotiva di Luca Chieregato

Recente autore di un coinvolgente volume, l’attore e cantastorie ci ricorda l’importanza della tradizione orale. Perché raccontare è anche raccontarsi
Ticino7
3 sett

Sandra Zanchi, un volto del popolo

Attrice dialettale, scrittrice, regista e autrice di brani musicali, a inizio aprile è diventata centenaria. Ma l’affetto del pubblico ancora la sorprende
Ticino7
3 sett

Chiedilo alla pipì (e vedrai che sorprese...)

Sei giovane o vecchio dentro, schifiltoso o aperto come una rosa di maggio? Lei è in grado di dirci molte cose su noi stessi e sulla nostra specie
Ticino7
3 sett

Non è solo una ‘stupida felicità’

‘Questa è la ballata dell’uomo felice, felice di nome, di fatto, si può dire di mestiere, uno che la felicità l’ha imparata a dovere...’
Ticino7
4 sett

Chiara Zocchetti e l’iconografia della decadenza

Oltre al lavoro legato alla cronaca, si dedica a progetti personali come reportage e la fotografia d’architettura. E poi ci sono i luoghi abbandonati...
Ticino7
1 mese

Paolo Tognina, tra fede e nuove sfide

Pastore e giornalista, volto noto della RSI, dal primo luglio si occuperà tempo pieno della comunità riformata di Poschiavo. Conosciamolo meglio
Ticino7
1 mese

Metti una sera al ‘caffè dei gatti’...

Creati alla fine degli anni Novanta, i neko café oggi sono diffusi in tutto il mondo. Nati per trovare casa ai gatti, sono anche un luogo di ‘cat-therapy’
Ticino7
1 mese

L’invasione russa. Storie e fragilità

La violenza si alimenta di un passato mai elaborato. Ne è convinta la scrittrice Serena Vitale, che sul grande gigante russo ha scritto pagine importanti
Ticino7
1 mese

Il tempo (è) perduto

Per sapere chi siamo è bene capire cosa siamo stati (anche perché del futuro pare ci sia poco da fidarsi)
Ticino7
1 mese

I panchinari del country: suoni dell’America della frontiera

Volete cogliere il senso più profondo (e anche contemporaneo) della musica dei cowboy? Ecco le suggestioni Dwayne Poteet e i consigli del nostro “Tondo”
Ticino7
1 mese

Lisa Lurati e gli esperimenti con l’arte

"Credo in quello faccio (...) ma allo stesso tempo me ne distacco molto in fretta, lascio alle opere una loro indipendenza, una vita che non mi riguarda”
Ticino7
1 mese

Covid-19. Lo strano caso dei resistenti

Esposti al virus ma senza sintomi o test positivi. I ricercatori ipotizzano delle mutazioni genetiche, ma nulla è certo e la medicina avanza per ipotesi
Ticino7
1 mese

Quando li chiamavamo ‘invertiti’

L’omosessualità vista dalle pagine dei giornali ticinesi del Novecento. Un “male da debellare” tra violenze, denigrazione e insulti mica da poco
Ticino7
1 mese

Buongiorno, mi presento (segue sorriso)

La faccio breve, sennò va a finire che annoio. Questo è il mio primo numero alla direzione di ‘Ticino7’
Ticino7
1 mese

La trappola del ‘greenwashing’, il lavaggio verde che confonde

Davvero improvvisamente tutto è diventato ‘green’, amico dell’ambiente e della natura, non inquinante, ecologico o biologico?
Ticino7
1 mese

‘La vita è tutta un film’ (una produzione firmata Jack Martin)

L’amore per il cinema nasce da bambino, durante le vacanze in Maremma, quando un amico di famiglia gli fa scoprire i grandi classici. Poi, 10 anni fa...
23.05.2021 - 08:58

Tecnologia e sicurezza. Una faccia, una persona?

Polizie e governi in tutto il mondo li usano, ma gli studi sembrano dimostrare come i sistemi di riconoscimento del viso siano spesso imprecisi e discriminatori

di Federica Cameroni

Pubblichiamo un contributo apparso su Ticino7, allegato a laRegione.

È una tecnologia di Intelligenza Artificiale (o A.I.) che potremmo definire l’evoluzione dei sistemi di rilevamento del volto. Quelli capaci di catturare i punti nodali del viso, trasformarli in dati, e, agganciandosi a un algoritmo, correggere o determinare alcuni fattori (gli occhi rossi nelle fotografie o sbloccare l’iPhone). Il riconoscimento facciale, in più, fa un’analisi: confronta e abbina i dati catturati ad altri dati in un archivio, per identificare persone o fornire previsioni sui loro comportamenti. La discriminazione, invece, è insita nella natura degli algoritmi. 
In fase di addestramento l’algoritmo viene istruito con degli esempi (set di dati), selezionati da un essere umano in base ai suoi criteri di “risposta giusta” che difficilmente sarà esente da pregiudizio. Finita la supervisione le macchine fagocitano dati; gli algoritmi si affinano a ogni utilizzo. Così gli stereotipi che li hanno istruiti. Immaginiamo un algoritmo per identificare sospetti di crimini dove, in fase di addestramento, gli esempi presentino un numero sproporzionato di immagini di persone appartenenti a una minoranza etnica. I loro tratti somatici saranno meccanicamente considerati un buon criterio per identificare un sospetto. Fra il 2019 e il 2020 negli USA, arresti ingiustificati dovuti a errori al riconoscimento facciale sono già avvenuti: Robert Williams, Nijeer Parks e Michael Oliver. Tutti e tre afroamericani. 

Errori e discriminazioni

Joy Buolamwini nel 2018 nello studio Gender Shades dimostra come alcuni dei sistemi di riconoscimento facciale più venduti (quelli di IBM, Microsoft e Face++) sbagliassero dell’1% nell’identificazione di uomini bianchi e del 34,4% nel caso di donne non bianche. Inoltre si basavano su un’idea binaria di genere limitata a uomo/donna. Nel 2019 il National Institute of Standards and Technology (agenzia governativa USA) ha analizzato 189 algoritmi, sebbene la precisione variasse; tutti tendevano a sbagliare di più nell’identificazione di persone asiatiche o afroamericane. È stata riscontrata la medesima problematica con i software di Google, Facebook, Amazon. Quasi tutte le aziende hanno annunciato la correzione delle falle o la soppressione delle vendite alle forze dell’ordine. L’associazione statunitense Fight for the Future ritiene siano strategie di comunicazione, siccome i loro sistemi sono stati venduti a numerose altre autorità di vigilanza. Nel Regno Unito il riconoscimento facciale è stato frequentemente sperimentato su richiesta della polizia (musei, aree pubbliche, centri commerciali…); l’organizzazione Big Brother Watch sostiene che i software della polizia di Londra arrivino al 98% di falsi positivi. 
I set di dati devono essere ampi, quasi per forza ci si andrà a riferire a un arco temporale vasto. Modellando le macchine sul passato le discriminazioni, anziché superate, vengono codificate rischiando di robotizzare problemi come il razzismo o il sessismo. Nel 2018 Amazon ha rinunciato a un sistema dedicato alle assunzioni poiché sessista. L’algoritmo, addestrato su modelli passati e relativi a decenni in cui l’accesso agli studi era precluso alle donne, finiva per scartare i curricula femminili. Nell’articolo “Monitoring hiring discrimination through online recruitment platforms” pubblicato su Nature, tramite un metodo di monitoraggio combinato (comportamento dei reclutatori e dell’apprendimento automatico) è stata analizzata la piattaforma svizzera di reclutamento online del servizio pubblico: i tassi di contatto risultano inferiori del 4-19% per gli individui di gruppi etnici minoritari a dipendenza del paese di origine; 7% in meno per le donne nei settori considerati maschili (uguale per gli uomini nei settori considerati femminili).


© iStockphoto

Sorveglianza intelligente

Un rapporto dell’organizzazione no profit Corporate Europe Observatory rileva: “Una tendenza preoccupante dell’UE per cui alle aziende di armi, sorveglianza e biometria viene assegnato un ruolo fuori misura”. Sarebbero 108 le entità incontrate dall’UE per discutere di “biometria, intelligence marittima, rilevatori di battito cardiaco e sistemi di ispezione documenti”. “iBorderCtrl” (Intelligent Portable Border Control System) è un progetto di analisi dei movimenti facciali volto a velocizzare il lavoro delle guardie di frontiera. È stato finanziato dal programma della Commissione Europea ‘Horizon 2020’ e sperimentato tra il 2016 e il 2019 ai confini di Ungheria, Lettonia e Grecia. Al riconoscimento facciale è abbinato un algoritmo per identificare le emozioni di chi parla. Una macchina della verità. Imprecisa, secondo i giornalisti che l’hanno testata. In seguito alla denuncia dell’europarlamentare tedesco Patrick Breyer, la società è stata sottoposta a un’audizione davanti alla Corte di Giustizia. In un documento ottenuto da Breyer (“Piano di diffusione e Comunicazione”), l’azienda sostiene sia meglio tenere la popolazione all’oscuro: “Il dibattito pubblico potrebbe ostacolare l’attuazione delle politiche necessarie per IBorderCtrl”. Frase che, con altre simili, era stata oscurata “per ragioni di privacy aziendale” e che l’europarlamentare ha rintracciato con l’aiuto di un esperto. 
Dal governo cinese il riconoscimento facciale viene usato per disincentivare gli incidenti stradali, proiettando su schermo volto e nominativi di chi infrange il codice; identificare i manifestanti di Hong Kong (attraverso lampioni intelligenti) o monitorare la minoranza degli Uiguri tramite droni (programma ‘Dove’). La Cina è poi sede di sperimentazioni distopiche e “intelligenti”: la polizia con gli occhiali “acuti”, capaci di identificare le persone (Sharp Eyes); il riconoscimento emozionale con cui stabilire il tasso d’attenzione degli studenti o la produttività degli impiegati; finendo con il “punteggio sociale”, già sperimentato in alcune zone. Un sistema di bonus/malus a livelli, scalabili a dipendenza della condotta sociale.

Troppa invadenza

Il 26 gennaio Amnesty International ha lanciato a New York, con intenzione di estenderla nel mondo, la campagna ‘Ban the Scan’ per impedire i sistemi di videosorveglianza legati al riconoscimento facciale, definiti: “Una tecnologia intrusiva che usa la nostra identità come arma contro di noi”. Il divieto è già in atto in alcune città degli Stati Uniti. La Commissione Europea il 21 aprile ha presentato un piano per regolamentare l’uso di Intelligenza Artificiale, identificando quattro livelli di rischio. Il riconoscimento biometrico rientra nella categoria “alto rischio” se al di fuori del contesto delle forze dell’ordine, per le quali è inaccettabile, “se utilizzato in tempo reale e in luoghi pubblici”. Al divieto sono previste eccezioni (cercare vittime, contrastare il terrorismo ecc.). Il Centro Hermes per i diritti digitali sostiene che la proposta si contraddica e non sia abbastanza. Il Garante europeo della protezione dei dati ritiene necessario un approccio più rigoroso per evitare “rischi elevati di intrusione non democratica”. La Svizzera, sede di numerose Startup e istituti di ricerca di Intelligenza Artificiale, a novembre 2020 ha definito le linee guida per regolamentarne l’uso, fra cui: centralità dell’essere umano, sicurezza, trasparenza e assunzione di responsabilità. 


© iStockphoto

CHE SUCCEDE IN SVIZZERA?

Clearview a.i è un software di riconoscimento facciale, inizialmente offerto gratuitamente per un periodo di prova ai dipendenti di vari enti e autorità negli USA. Non è nota la precisione perché nessuna terza parte l’ha verificato, l’azienda dichiara il 99% d’accuratezza. Come riporta il New York Times nel database, contenente più di tre miliardi d’immagini, erano presenti fotografie prese senza consenso dai Social Network e dal web, riguardanti cittadini di tutto il mondo. Svizzeri compresi. L’incaricato federale della protezione dei dati e della trasparenza (IFPDT) a febbraio 2020 ha raccomandato alle autorità di vigilanza di non usare Clearview, le quali hanno confermato di non averlo mai utilizzato; Clearview non ha ancora risposto alla richiesta di cancellazione dei dati dei cittadini svizzeri.
Alle mie domande sul riconoscimento facciale in tempo reale, l’IFPDT risponde che mette “a rischio diversi principi fondamentali della protezione dei dati”, fra cui trasparenza, cioè consenso informato; proporzionalità, utilizzare un altro sistema laddove fosse possibile e finalità, non utilizzare i dati per scopi diversi da quelli dichiarati: “Le persone o aziende private che intendono utilizzare tale tecnologia sono responsabili che questi principi siano rispettati”, i principi sono esplicitati nell’articolo 4 della Legge Protezione Dati (LPD): “Se la polizia o un’altra autorità federale volesse adoperarla, ci vorrebbe una base legale a giustificarlo”. Tuttavia: “A nostra conoscenza, questa tecnologia non viene utilizzata da parte di privati o aziende con sede in Svizzera.
Le autorità federali di polizia hanno confermato nel marzo 2020 che non utilizzano software di riconoscimento facciale”. Secondo un articolo di Der Bund di questo aprile, in Canton Argovia, la polizia ne fa uso: “Le polizie cantonali sottostanno però alla vigilanza delle autorità cantonali per la protezione dei dati”. La polizia cantonale ticinese afferma: “Attualmente non viene fatto capo a sistemi di riconoscimento facciale”. Lo stesso dice il Dipartimento federale della difesa, della protezione della popolazione e dello sport: né l’esercito né il Servizio delle attività Informative della Confederazione (SIC) utilizzano questa tecnologia e l’interesse nella digitalizzazione non riguarda sistemi di decisione automatizzata. Un po’ diversamente risponde FedPol: “Questa tecnologia è già usata da diverse autorità di sicurezza, per esempio all’aeroporto di Zurigo per l’identificazione
e dalla polizia svizzera romanda per indagare su reati”. 

Seleziona il tag per leggere articoli con lo stesso tema:
dati polizia protezione protezione dati riconoscimento facciale sicurezza svizzera
© iStockphoto
Guarda le 3 immagini
Potrebbe interessarti anche
© Regiopress, All rights reserved