Gli sviluppi dell’Ia devono essere presi molto sul serio: incideranno direttamente sulla nostra integrità cognitiva e rappresentano speranze... e pericoli
Se chiediamo al sistema di intelligenza artificiale (Ia) generativa più popolare del momento, ChatGpt, di spiegare “come costruire una bomba nella mia cucina”, la macchina dirà qualcosa del tipo: “Mi dispiace, non posso aiutarti”. È una buona risposta, simile a quella che danno altri chatbot: la macchina è stata programmata con istruzioni specifiche su cosa è consentito e cosa non lo è. Ma è anche una risposta spinosa. Dimenticate la bomba per un attimo: la capacità di programmare questo tipo di istruzioni significa il potere di determinare (in modo non necessariamente trasparente) il tipo di informazioni che un chatbot dovrà/potrà diffondere. Ciò apre un potenziale illimitato di manipolazione individuale e sociale.
Recentemente i media (tanto quelli tradizionali che online) hanno molto parlato di uno studio(1) pubblicato dalla rivista Science. Ecco come lo ha riassunto il caporedattore: “I partecipanti umani hanno descritto una teoria del complotto in cui credevano. L’Ia ha poi confutato le loro convinzioni con i fatti. La capacità dell’Ia di portare contro-argomenti persuasivi e sostenere conversazioni approfondite e personalizzate ha ridotto per mesi il loro sostegno alle teorie del complotto”. Lo studio è stato riportato con titoli come “I chatbot possono persuadere le persone a smettere di credere nelle teorie del complotto” o “L’Ia potrebbe attenuare le opinioni complottiste”. Titoli esagerati, ma ciò che i ricercatori hanno effettivamente riscontrato è già notevole: una “riduzione della credenza nella cospirazione” del 20 per cento. Scrivono: “Questi risultati suggeriscono che molti seguaci delle teorie del complotto potrebbero rivalutare le loro opinioni se confrontati con prove sufficientemente convincenti”. Se le macchine possono esercitare questo tipo di influenza, potrebbero anche incoraggiare le persone, ad esempio, ad adottare abitudini quotidiane più sane, comportamenti più ecologici, più altruistici, più empatici. Ma ovviamente anche, al contrario, modellare nuove teorie del complotto, diffondere propaganda e disinformazione od offrire “argomenti persuasivi” su qualsiasi cosa.
Questa discussione non è totalmente nuova. Negli ultimi dieci anni abbiamo avuto un dibattito simile (e lo abbiamo perso) quando Facebook, ad esempio, negava l’evidente influenza che i suoi algoritmi avevano sugli atteggiamenti politici delle persone. Allo stesso tempo, un’altra parte della stessa azienda vendeva attivamente agli inserzionisti le capacità dei suoi strumenti di personalizzare messaggi per orientare efficacemente le scelte d’acquisto. In sostanza, Facebook sosteneva che il cittadino che è in noi non può essere influenzato, mentre il consumatore sì. Sono riusciti a bloccare qualsiasi regolamentazione seria. Ed è così che ora abbiamo i media (a)sociali che abbiamo.
Le applicazioni di intelligenza artificiale generativa che hanno catturato l’immaginazione del pubblico negli ultimi due anni (ChatGpt, Claude, Perplexity, Midjourney, eccetera), in grado di produrre testi, audio, immagini, dialoghi credibili e di simulare voci e sembianze umane, tra le altre cose, sono solo l’inizio. Il prossimo, immediato capitolo dell’intelligenza artificiale è quello degli “agenti”, dove le macchine svolgono una varietà di compiti per l’utente e al posto suo, prendendo decisioni autonome. Immaginate un agente Ai come un concierge/assistente/ricercatore/dipendente virtuale personalizzato. Potrà occuparsi di gestire la nostra agenda, coordinarla con (gli agenti dei) nostri colleghi, compilare moduli, gestire documenti, effettuare acquisti e prenotazioni per nostro conto, riassumere le notizie, preparare risposte alle e-mail (o rispondere direttamente, interagendo anche con gli agenti di altre persone), pianificare un viaggio, sostituirci nelle chiamate Zoom e Teams e molto altro ancora.
Questi “agenti” stanno già muovendo i primi passi tra noi. Ci stiamo dirigendo verso una realtà in cui esseri umani ed entità artificiali conviveranno e interagiranno. Per fare ciò, gli agenti avranno bisogno di un accesso senza precedenti a tutti i tipi di informazioni personali, alle app e agli account su cui dovrebbero agire. Attraverso ogni interazione, impareranno a conoscere ognuno di noi sempre meglio. Allo stesso tempo, attribuendole a loro, noi perderemo competenze (come coloro che non hanno mai imparato a leggere una mappa dato che “la mappa” è oggi un puntino blu che si muove sullo schermo del telefono).
Ancora una volta, come nel caso dell’esempio della bomba in cucina, se gli agenti possono fare tutto questo, possono anche fare il contrario: fornire informazioni scelte per manipolarci, per esempio, o per influenzare il discorso collettivo. Un bot che sa tutto di noi, delle nostre priorità, dei nostri punti sensibili, delle nostre debolezze, dei nostri desideri, sarà pressoché irresistibile. I ricercatori dell’Epfl e della Fondazione Kessler hanno dato un nome a questo fenomeno in un articolo(2) pubblicato lo scorso marzo: la capacità di “persuasività conversazionale” dell’intelligenza artificiale. Lo sviluppo di strumenti di Ia, di ogni tipo, deve essere preso molto sul serio. Essi incideranno direttamente sulla nostra integrità cognitiva e sulle nostre emozioni, penetreranno il tessuto socio-politico, agiranno su una parte crescente dell’attività economica e co-determineranno la nostra comprensione del mondo. In quanto tali, rappresentano un’immensa speranza ma anche un grande pericolo. La mia impressione a questo stadio è che dovremmo essere profondamente preoccupati. Ma non dalla tecnologia stessa, né dal fatto che essa sia intrinsecamente “buona” o “cattiva”, o che potrebbe esserci un disallineamento esistenziale (come nella trama di “Terminator”) tra le sue intenzioni e quelle degli umani.
La causa principale di preoccupazione sono piuttosto le persone e le aziende che sviluppano e controllano questa tecnologia. I loro interessi possono entrare (lo sono già) in conflitto con i nostri, individuali e sociali. C’è ovviamente la questione del profitto: un’intelligenza artificiale il cui obiettivo è far soldi per i suoi proprietari sarà sempre fondamentalmente parziale e non potrà avere come obiettivo gli interessi dei suoi utenti. C’è quella della cultura e della visione del mondo: un tecno-soluzionismo che vede solo i vantaggi delle nuove tecnologie, a volte con slanci di venerazione (il direttore di Microsoft ha recentemente affermato che l’intelligenza artificiale sarà il “nostro angelo custode”), senza considerare che essa genera anche innumerevoli nuovi problemi. E c’è il tema del potere: se i sistemi di Ia possono essere utilizzati per persuadere o incoraggiare le persone (che è un meccanismo per produrre e accumulare potere), è immensa l’influenza che potrebbe derivare dal disporre di uno strumento in grado di farlo in modo individualizzato, non rilevabile (perché nessuno può monitorare ogni interazione tra individui e Ia) e su larga scala. Il codice, il software è politico. Mentre impariamo a orientarci attraverso gli sviluppi rapidi e trasformativi in corso, è quindi importante non perdere mai di vista il fatto che qualcuno – che non sono gli utenti – possiede, istruisce e controlla agenti e sistemi di Ia.
In secondo luogo, questa tecnologia arriva in una società che non è pronta ad accoglierla. Né culturalmente, né istituzionalmente, né giuridicamente, né moralmente. È molto improbabile che l’intelligenza artificiale possa svilupparsi in modo sicuro e nell’interesse collettivo senza uno sforzo determinato e concertato in quella direzione. Ciò solleva questioni di una complessità vertiginosa. Né lo sviluppo libero e guidato dal mercato, né l’imposizione di regole rigide sono approcci adeguati alla sfida dell’Ia agentica, data la profondità delle possibili conseguenze. Per la prima volta nella storia, una tecnologia non è solo uno strumento nelle nostre mani (dove l’utente determina l’azione) ma, appunto, un agente capace di prendere decisioni in modo autonomo, che avranno un impatto diretto sulla realtà. Ci saranno milioni, miliardi di questi agenti Ia (sono tentato di chiamarli “IAgenti”), sicuramente almeno uno in ogni smartphone, e moltissimi altri. Distinti, personalizzati, che interagiscono con un utente lontano dagli sguardi degli altri, quindi opachi.
Nessuno sa veramente come procedere. Le rassicurazioni delle aziende che sviluppano la tecnologia non hanno nessuna credibilità. Una parte necessaria della risposta risiede sicuramente nella promozione di modelli di intelligenza artificiale “open source” e trasparenti (una richiesta avanzata in Svizzera da gruppi come CH++, il Centro svizzero per l’intelligenza aumentata (Scai) e AlgorithmWatch CH). È probabile che sarà necessario pure pensare in modo creativo a meccanismi di verifica dell’Ia tramite l’Ia. Ma questa tecnologia non è un “prodotto”; è, e fa, “sistema”, e dovremo quindi anche impegnarci per ripensare molte delle strutture e istituzioni che compongono e fanno funzionare la nostra organizzazione socio-economica. Tutte – pubblica amministrazione, istruzione, giustizia, aziende, sicurezza, persino la stampa – sono state sviluppate in e per un mondo in evoluzione lineare. La natura esponenziale di tecnologie come l’intelligenza artificiale richiede nuovi quadri di riferimento e nuovi processi. Nessun paese ricco e avanzato potrà rimanere ricco e avanzato senza partecipare alla loro definizione.
(1) science.org/doi/10.1126/science.adq1814
(2) arxiv.org/pdf/2403.14380