La Commissione federale dei media discute dei rischi delle piattaforme digitali, dagli oscuri algoritmi di scelta dei contenuti al forte potere di mercato
Anche in Svizzera, come già sta avvenendo nell’Unione Europa, si fa strada nelle istituzioni l’idea che il potere delle grandi piattaforme digitali vada regolamentato e ricondotto all’interno di un sistema di regole a tutela non solo del panorama mediatico svizzero, ma anche e soprattutto dei diritti fondamentali e della stessa democrazia. I giganti del web, da Google alla ‘diarchia’ dei social network Meta-X passando per le piattaforme di condivisione video come la cinese TikTok detengono attualmente un duplice potere: dal punto di vista del mercato, come ‘gatekeeper’ che stabiliscono le condizioni di interazione fra i media, l’industria pubblicitaria e gli utenti finali; e, soprattutto, dal punto di vista dell’opinione pubblica tramite la selezione dei contenuti da mostrare agli utenti effettuata per mezzo di algoritmi costruiti sulla base di logiche prettamente commerciali.
Un potere, quello delle piattaforme, che la presidente della Commissione federale dei media (Cofem) Anna Jobin, nel presentare ieri a Berna il documento che contiene gli spunti di riflessione sul tema, ha definito “preoccupante per la formazione dell’opinione pubblica in una società democratica”.
Serve, secondo la Cofem, una strategia olistica per la governance futura delle piattaforme in Svizzera, a partire dal progetto di legge federale sulle piattaforme di comunicazione e sui motori di ricerca, posto in consultazione dal Consiglio federale fino alla fine di marzo. Le parole chiave di questa strategia sono regolamentazione del potere di mercato, governance degli algoritmi, controllo sociale rafforzato sulle piattaforme, regolamentazione dell’intelligenza artificiale, promozione delle competenze mediatiche e digitali.
Fra esse, l’aspetto forse più rilevante è legato al potere di opinione delle piattaforme: un problema strutturale, che riguarda il modo in cui i contenuti vengono proposti agli utenti. Capita probabilmente a tutti coloro che utilizzano le grandi piattaforme digitali di chiedersi per quale motivo vengano mostrati o raccomandati alcuni contenuti e non altri. La chiave di tutto sono gli algoritmi, ‘l’amore che move il social e le sue stelle’, per citare impropriamente Dante: misteriosi e segretissimi sistemi di regole e parametri che fanno sì che a persone diverse vengano mostrati o raccomandati contenuti diversi sulla base, principalmente, delle abitudini di utilizzo delle piattaforme, ad esempio i contenuti cliccati più spesso, i video guardati più a lungo, i profili seguiti. Lo scopo è evidente: trattenere l’utente il più possibile sulla piattaforma, far sì che continui a “scrollare” a lungo, visualizzando nel frattempo una massa consistente di annunci pubblicitari. Il tutto sulla base di criteri che, a oggi, quasi nessuna delle Big Tech ha reso noti: ciò che, al netto di complottismi vari, non permette di escludere l’esistenza di fini non solo commerciali, ma anche politici nella selezione dei contenuti da mostrare agli utenti. Ciò che, come dimostra un’analisi del Washington Post citata dalla Cofem, è accaduto su X/Twitter durante le recenti elezioni statunitensi, con una visibilità maggiore data ai contenuti schierati con i repubblicani rispetto a quelli favorevoli ai democratici.
Nella strategia di azione, viene proposta una governance degli algoritmi che comprenda lo stop alla profilazione sulla base dei dati di fruizione, obblighi di una valutazione di impatto sui rischi per la società, maggiore trasparenza riguardo ai parametri utilizzati per la creazione degli algoritmi e un’accresciuta attenzione ai valori democratici nella loro programmazione. In sostanza, una responsabilizzazione delle piattaforme circa il rispetto dei diritti fondamentali delle società in cui operano. Che, beninteso, è ben lungi dall’essere la ‘censura’ alla quale spesso grida una certa parte dell’opinione pubblica (incidentalmente quella di cui fanno parte i Ceo delle piattaforme) ogni qual volta si adombri un intervento dell’autorità in questo campo. Ciò che si chiede è fondamentalmente, la possibilità per la società civile di conoscere in base a quali criteri e, soprattutto, sulla base di quali dati acquisiti avviene la selezione dei contenuti, valutare in modo indipendente gli effetti delle piattaforme sulla società e tutelarsi anche giuridicamente in modo più efficace nel caso essi fossero negativi.
Una strategia che cerchi di limitare il potere di mercato e di opinione delle piattaforme digitali in Svizzera ha di fronte a sè, tuttavia, uno scoglio importante: come rendere efficace una normativa che si applica ad aziende che non operano fisicamente nella Confederazione ma esclusivamente online, con server fisici posti in altri Paesi sottoposti a legislazioni differenti? È difficile ipotizzare misure drastiche, come un blocco delle piattaforme che non rispettino le normative: una Svizzera senza Google, Facebook o Instagram è decisamente fantascienza.
Anche perché, e qui si entra nel discorso sul potere di mercato, oggi i media svizzeri sono sostanzialmente dipendenti dalle piattaforme, sia per la diffusione dei propri contenuti giornalistici sia per l’accesso al mercato pubblicitario, come ‘editori’ (ospitando annunci pubblicitari sui propri siti web), sia come inserzionisti tramite sponsorizzazione a pagamento dei contenuti. Una situazione che si presta a possibili abusi. “I media sono alla mercé delle piattaforme”, si legge nel documento della Cofem: una qualsiasi modifica unilaterale, ad esempio sul funzionamento degli algoritmi, sul design, o sulle policy per gli annunci pubblicitari può avere riflessi importanti a livello economico per i media che utilizzano la piattaforma. Senza contare, poi, incidentalmente, la questione dei diritti d’autore: si stima che Google incassi annualmente 154 milioni di franchi sfruttando i contenuti giornalistici dei media svizzeri, senza in cambio versare un centesimo. O, ancora, l’uso dei suddetti contenuti per addestrare i sistemi di intelligenza artificiale generativa senza alcun corrispettivo.
A oggi, lo strumento principale delle istituzioni sono state le pesanti multe comminate alle Big Tech, in gran parte per violazioni delle leggi sulla privacy o pratiche commerciali scorrette: come la maxi sanzione da quasi 800 milioni di euro inflitta a novembre 2024 a Meta dalla Commissione europea per aver illecitamente favorito gli annunci del proprio marketplace rispetto a quelli della concorrenza. O, ancora, la multa da oltre un miliardo di euro inflitta alla casa di Zuckerberg nel 2023 dall’autorità garante della privacy dell’Irlanda (dove Meta ha la sua sede europea) per l’illecito trasferimento dei dati degli utenti oltre oceano: procedimento per il quale l’azienda aveva minacciato il blocco dei propri servizi in Europa in assenza di un accordo alternativo. Un ricatto che, visto l’enorme potere di mercato delle piattaforme, potrebbe non essere l’ultimo.