laR+ Ticino

‘Deepfake e immagini intime contraffatte, serve una strategia’

Il consigliere agli Stati Regazzi inoltra una mozione al Consiglio federale: ‘Siamo indietro’. Attivissimo: ‘Già visti alcuni casi nelle scuole ticinesi’

Un problema sempre più diffuso
(Keystone)
13 gennaio 2025
|

L’intelligenza artificiale rappresenta un grandissimo potenziale di sviluppo in moltissimi campi? Certo, ma nasconde anche molte insidie. Alcune delle quali sono già dilagate nei vari social network come immagini create al solo fine di disinformare. Finché c’è Donald Trump che abbraccia Kim Jong-un ci si può limitare a chiedersi dove stia finendo il mondo, preoccuparsi per quanto vengono intorbidite certe acque e poi tornare ai propri affari quotidiani. Quando si parla invece di violazione della sfera intima, ricatti e situazioni dolorose il discorso cambia.

Proprio considerando ciò, il consigliere agli Stati ticinese Fabio Regazzi (Centro) chiede al Consiglio federale di agire. Lo fa con una mozione che parte da un assunto: “Siamo sommersi da immagini e video falsi grazie alle nuove tecniche che permettono di generare e manipolare le foto utilizzando l’intelligenza artificiale”. E la richiesta, sottoscritta da ben 16 cofirmatari di moltissimi partiti, è quella di “presentare una strategia che permetta di procedere in maniera coordinata contro l’uso abusivo delle immagini e il ricatto tramite immagini intime, accordando particolare attenzione alla protezione dei bambini e dei giovani”.

Anche dei minori coinvolti

Le motivazioni di Regazzi sono presto dette. “Alcune questioni urgenti che si pongono nella nostra epoca sono: chi fa cosa delle nostre immagini e di quelle dei nostri bambini? Di quali immagini ci si può ancora fidare? Come impedire la produzione e l’utilizzo di immagini false (deepfake)?”. Ebbene, la situazione è questa. Cioè che l’intelligenza artificiale “permette di trasformare una semplice immagine in una foto di nudo o di generare un video a partire da poche immagini”. Un dramma, quando si va a colpire la sfera intima di una persona. Anche perché “le false foto di nudo o i video porno deepfake sono utilizzati per estorcere denaro o vere immagini sessualmente esplicite”. Il dramma, nel dramma, è che “le vittime sono spesso anche minorenni. I genitori sono ricattati con video porno deepfake in cui riconoscono i loro figli”. Va da sé che “tutte le persone le cui immagini sono liberamente accessibili sono potenziali vittime di sextortion o di frode, come pure i loro familiari”. Un rischio che negli ultimi tempi è aumentato per almeno due fattori, spiega ancora Regazzi nella sua mozione: “Sia a causa delle nuove tecnologie, sia perché manipolazione e messa in circolazione non sono mai state tanto semplici: i mezzi per farlo sono facili da ottenere e da utilizzare”.

Pertanto secondo il consigliere agli Stati ticinese e i suoi sedici colleghi, “è necessario elaborare un approccio globale per la protezione dalle massicce violazioni della personalità e dalla violenza pedocriminale in rete tramite immagini manipolate”. Come? “Prevenzione, misure regolatorie e perseguimento penale devono andare di pari passo”, indica Regazzi. E attualmente “la Svizzera ne è ben lontana”. Grande problema, perché “la ciberstrategia nazionale non tratta né il problema delle immagini manipolate, che sta diventando un fenomeno di massa, né la ciberpedocriminalità”. Per tutti questi motivi, non da poco, per Regazzi “è necessaria una strategia globale per fermare l’ondata di video porno deepfake e di sextortion”.

L’ESPERTO

‘Aiuto da tecnologia e educazione’

«Non parliamo di casi solo a livello internazionale, qualcuno in Ticino e in Svizzera si è già visto. Anche nelle scuole, con condivisioni di foto false create con l’intelligenza artificiale all’interno delle classi». L’allarme di Paolo Attivissimo, giornalista informatico ed esperto del tema Ai, suona forte e fa trovar fondamento alle motivazioni portate da Regazzi. «Abbiamo saputo che succede già, anche con minori coinvolti, con il preciso scopo di creare umiliazione e molestie con strumenti che sono facilmente accessibili, ormai è sufficiente scaricare un’app», continua Attivissimo. Al quale chiediamo, a fronte di questa richiesta di una strategia al Consiglio federale, se non sia tardi. Se, insomma, i buoi non siano già scappati. «I buoi sono in gran parte scappati – risponde –, ma ci sono interventi sia dal punto di vista tecnico, sia dal punto di vista meramente educativo che possono essere messi a punto e che possono aiutare».

Sui social si riesce a controllare, nella messaggistica no

Partendo da quelli tecnici, Attivissimo parte da un esempio concreto: «Esattamente come si fa già per contrastare la pedopornografia online, esiste già una tecnologia che quando intercetta un’immagine con un abuso sessuale su un minore la segnala all’Interpol, che emette una sorta di impronta digitale e che porta al blocco immediato su tutti i social network di quella immagine». Sistema adattabile anche ai deepfake quindi, anche se non è tutto così in discesa. Già, «perché questo sistema può funzionare su piattaforme come Instagram o Facebook, dove abbiamo già visto agire questo meccanismo e la cancellazione immediata delle immagini». Già su X di Elon Musk «lo fanno quando ne hanno voglia», per poi passare alla vera giungla: le piattaforme di messaggistica criptate. Banalmente: Whatsapp, Telegram, Signal: «Sono tutti servizi chiusi, protetti nella crittografia e difficili da pattugliare. Ci sono i metodi tradizionali – spiega Attivissimo –, con una persona che si infiltra nei gruppi e stana certe situazioni per denunciarle. Si prova ad automatizzare, magari con un’intelligenza artificiale apposita che può entrare spacciandosi per una persona ma è molto, molto difficile».

‘Serve una vera formazione sulla materia’

E quindi? E quindi si passa al secondo aspetto del ragionamento di Attivissimo. Vale a dire che, mai come ora, tutto passa dall’educazione e dalla formazione in materia. Il vero problema, infatti, «è che molto di questo materiale deepfake circola tra amici attraverso il Bluetooth o Airdrop, e sfugge completamente a ogni controllo. Quindi l’approccio non deve essere solo tecnologico, ma anche umano». Strategicamente, arrivati a questo punto, «ha molto più senso affiancare a queste attività di indagine, un’approfondita attività di educazione». Nel senso che l’autorità, attraverso le sue antenne, i suoi servizi, ma anche le famiglie, «è meglio che formino, spieghino il prima possibile ai giovani che esiste il deepfake, cosa è, che esistono modi e sistemi molto semplici per creare foto false che possono portare a ricatti o bullismo». Il paradosso, nota Attivissimo, «è che se si riesce veramente a far passare questo concetto, che possono girare immagini praticamente indistinguibili da quelle reali, la vittima ha tutti gli elementi per dire che no, quell’immagine non è vera. Se so che possono esistere, so come smascherarle e so come controbattere».

‘Il riconoscimento del reale è sempre più fondamentale’

Fondamentalmente, riprende Attivissimo, «si tratta di insegnare il riconoscimento del reale. Oggi viviamo in un’epoca in cui non ci si può fidare di nessuna immagine che arrivi da un telefonino se non si è certi della fonte originale, non basta che sia pubblicata da un canale televisivo o un giornale. È un completo ribaltamento del comportamento istintivo». Quindi sia diffidare, sia rendersi conto davvero di cosa sta parlando.

Il consiglio di non condividere alcuna foto intima, a maggior ragione con sconosciuti, resta sempre valido «e ci mancherebbe altro». Ma oggi, con sistemi capaci di prendere un volto e sovrapporlo a un’attrice in un film porno, «la vera prevenzione è la formazione» insiste Attivissimo. A partire dalla famiglia: «Se i genitori riescono a far arrivare alle figli e ai figli il messaggio che se qualcuno falsifica delle sue foto facendole diventare di nudo o pornografiche loro gli credono, lo aiutano a fronteggiare e denunciare, si otterrà un buon risultato». La preoccupazione di Attivissimo, in questo ambito, non è tanto verso la Svizzera, perché «da noi, una conoscenza almeno di base della realtà di queste tecnologie c’è». Ma verso Paesi «che hanno una formazione culturale diversa dalla nostra, con culture molto restrittive nei confronti della sessualità che non hanno alcuna idea di cosa sia questa tecnologia. Finendo poi per risolverla nel modo peggiore, e la famiglia da appoggio e aiuto può diventare un ostacolo».

C’è una «barriera di ignoranza» da superare, conclude Attivissimo. Ma qualche strumento, in attesa dei passi del Consiglio federale, c’è già.