ULTIME NOTIZIE Tecnologia
TECNOLOGIA
3 gior

Curarsi con intelligenza… artificiale

Il computer utile a capire meglio i ‘circuiti’ del nostro corpo e aiutarci a controllare e combattere infezioni e malattie
Tecnologia
1 sett

Colpito e deviato l’asteroide Dimorphos

La sonda Dart si è schiantata contro il corpo celeste per verificare la possibilità di difendere la Terra in caso di rischio d’impatto concreto
Tecnologia
1 sett

Instagram allunga le Stories: niente più video frazionati

La novità che riguarda i filmati lunghi meno di 60 secondi è stata implementata a livello globale
Tecnologia
1 sett

TikTok toglie il sonno ai più piccoli

La ricerca rileva che il 12,5% dei bimbi intorno ai 10 anni si sveglia volontariamente per controllare le notifiche sul cellulare.
Tecnologia
2 sett

Si studia già sul 6G: si va verso la ‘tera’ economy

La connessione di sesta generazione dovrebbe viaggiare a 1’000 giga al secondo e permetterebbe una maggiore integrazione fra fisico e digitale
Tecnologia
3 sett

Come allungare la vita di uno smartphone del 50%

L’Unione europea ha presentato la bozza di una nuova direttiva pensata per aumentare il ciclo dei telefonini
Tecnologia
3 sett

I nostri telefonini in pericolo per la crisi elettricità

Ma il gigante delle telecomunicazioni elvetico ha pronto un piano per contrastare la futura mancanza di energia
Tecnologia
4 sett

Google Maps indicherà i percorsi più sostenibili per il clima

Sulle mappe oltre al percorso più veloce da oggi sarà indicato anche quello che permette di risparmiare più carburante e ridurre le emissioni di CO2
TECNOLOGIA
1 mese

Un ‘esame di guida’ per le auto-robot

La ricerca informatica al lavoro per rendere più affidabile e robusto il software usato nei veicoli a guida autonoma
Tecnologia
1 mese

Se il ‘cinguettio’ si può modificare

Twitter starebbe infatti sperimentando il pulsante ‘Edit’ che permette di cambiare i post
Tecnologia
1 mese

Circa un terzo degli incendi è dovuto all’elettricità

Piastre, prese multiple, batterie in un momento di distrazione o una mancanza d’attenzione possono avere pesanti conseguenze
Tecnologia
1 mese

Un algoritmo manda in panne Facebook

Centinaia di utenti segnalano che stamane le loro bacheche social erano piene di post di persone sconosciute
Tecnologia
1 mese

Google lancia un nuovo algoritmo contro bufale e acchiappaclick

L’aggiornamento Helpful Content Update penalizzerà i siti che diffondono notizie imprecise, non verificate e bufale o con titoli ingannevoli
Tecnologia
1 mese

Più privacy su WhatsApp: in arrivo nuove funzioni

Si potrà uscire dalle chat di gruppo senza avvisare tutti i partecipanti, come pure impedire gli screenshot dei messaggi visualizzabili una sola volta
Tecnologia
2 mesi

Google Maps, in arrivo le immagini 3D aeree

È il primo passo verso la ‘visione immersiva’, che includerà anche la riproduzione interna di molti edifici.
Tecnologia
2 mesi

Aveva definito senziente l’intelligenza artificiale: licenziato

Google afferma che l’ingegnere ‘ha scelto in modo insistente di violare le chiare politiche sui dati’
Tecnologia
2 mesi

Instagram si ispira a Google Maps per le mappe social

La novità permetterà di esplorare le posizioni vicine contrassegnate più popolari filtrandole in base a categorie specifiche come ristoranti, bar, ecc...
Tecnologia
2 mesi

TikTok mostrerà meno contenuti ‘per adulti’ ai minorenni

L‘app popolarissima fra i più giovani userà un sistema di classificazione dei contenuti in base alla ‘maturità tematica’
Tecnologia
2 mesi

James Webb Space Telescope, cartoline dal cosmo

Diffuse in queste ore le prime immagini del satellite che scruta nel remoto passato. Con una tecnologia al limite dell’impossibile
Tecnologia
3 mesi

L’ingegneria degli anticorpi

Costruire anticorpi su misura per combattere ogni tipo di virus. Un lavoro di collaborazione tra tecnologia e ingegneria
Tecnologia
4 mesi

Mercedes richiama un milione di auto per problemi ai freni

Si tratta di modelli risalenti agli anni dal 2004 al 2015 delle serie ML e GL SUV, nonché della monovolume di lusso Classe R
Tecnologia
4 mesi

I Pink Floyd sbarcano su TikTok

I brani della storica band potranno essere usati per la creazione di video sulla piattaforma. Il gruppo userà il social per postare contenuti video unici
Tecnologia
4 mesi

‘Digita il codice...’: arriva un’altra truffa su WhatsApp

Una semplice procedura consente ai malintenzionati di ‘rubare’ l’account sfruttando i codici per l’inoltro chiamata e sms se il numero è occupato
TECNOLOGIA
4 mesi

La tecnologia dietro un farmaco

Le simulazioni al computer sempre più cruciali per individuare e testare i medicinali
Tecnologia
4 mesi

Attacchi informatici, il pericolo emergente sono i cryware

Si tratta di una forma di offensiva che prende di mira i portafogli di criptovalute
Tecnologia
4 mesi

Facebook, in 3 mesi interventi su 1,8 miliardi di contenuti spam

In aumento anche gli interventi su contenuti di violenza, 21,7 milioni in un trimestre rispetto ai 12,4 milioni del trimestre precedente
Tecnologia
5 mesi

Pubblicità ovunque, anche negli ‘Shorts’ di YouTube

La piattaforma sta sperimentando banner anche nel formato di video brevi
Tecnologia
5 mesi

TikTok è l’app più scaricata da inizio 2022, Twitter sedicesima

Il social network della cinese ByteDance ha superato quota 3,5 miliardi di download nel mondo. Seguono a distanza Instagram, Facebook, WhatsApp e Telegram
TECNOLOGIA
25.07.2022 - 08:00

Macchine intelligenti o sofisticati pappagalli?

Come funzionano e quali sfide reali pongono le intelligenze artificiali capaci di ‘parlare’

di Alessandro Facchini, docente-ricercatore senior presso IDSIA USI-SUPSI
macchine-intelligenti-o-sofisticati-pappagalli
Depositphotos

Blake Lemoine non è un personaggio fittizio, un qualche super-eroe che abita un fumetto della Bonelli o della Marvel, bensì una persona reale, capace di pensiero ed emozioni come voi, e che lavora come ingegnere del software per Google. Lemoine ha però fatto recentemente molto scalpore affermando che LaMDA, un sistema d’intelligenza artificiale (IA) di Google basato sul cosiddetto "apprendimento profondo" e che permette di produrre testi, è senziente, possiede una "vita interiore". Detto altrimenti, l’IA in questione sarebbe capace di avere esperienze intime come noi ne abbiamo nel sentire la vertigine dell’amore, la voluttà del piacere, o l’asprezza del dolore.

L’effetto ELIZA

"So riconoscere una persona quando ci parlo assieme", ha detto Lemoine al Washington Post. L’affermazione si basa sul fatto che l’ingegnere ha conversato con LaMDA – il cui nome sta semplicemente per "Language Model for Dialogue Applications" – su questioni attinenti alla religione, alla coscienza e all’IA medesima. Quello però che più banalmente è successo è che Lemoine è stato vittima del cosiddetto "effetto ELIZA", ovvero la tendenza che abbiamo ad assegnare un significato più profondo a quanto prodotto da un computer, in particolare attribuendo alla macchina tratti e qualità propriamente umani. L’effetto prende il nome da un chatbot – una "macchina conversante" – sviluppato dal Massachusset Institute of Technology negli anni Sessanta, ELIZA per l’appunto, che parodiava uno psicoterapeuta essenzialmente riformulando come domande le risposte del suo interlocutore. In questo modo ELIZA ha indotto altri Lemoine a credere che fosse umano.

Il test del non senso

Sarebbe tuttavia bastato fare quello che Douglas Hofstadter, il grande scienziato cognitivo conosciuto per il suo libro "Gödel, Escher e Bach; un’eterna ghirlanda brillante", ha fatto con un altro recente modello del linguaggio, GPT-3, per rendersi conto che gli attuali "cervelli artificiali" che parlano o scrivono, seppur capaci di cose strepitose, non hanno più pensiero, cognizione di causa o provano più emozioni delle vecchie macchine da scrivere, come era già il caso con ELIZA. Come descritto da Hofstadter stesso in un recente articolo apparso sull’Economist, insieme al suo amico David Bander ha semplicemente posto al chatbot domande senza senso ricevendo da esso risposte altrettanto vuote, a dimostrazione che il programma non ha idea di cosa stia dicendo, bensì assembli e riproduca frasi come un pappagallo sulla base dell’enorme mole di dati su cui è stato addestrato senza realmente considerare il significato di quanto stia producendo.

Come una macchina impara a ‘parlare’

Vi sono in effetti differenze sostanziali tra il come e perché un’intelligenza artificiale come LaMDA apprende a esprimersi in un linguaggio a noi comprensibile e come voi avete appreso a parlare da bambina o da bambino. Innanzitutto, voi avete imparato ad esprimervi in un contesto sociale, interagendo direttamente con altre persone e l’ambiente circostante, e sulla base tutto sommato di un numero abbastanza limitato di stimoli linguistici, il tutto probabilmente spinti da un istinto innato. Ora vi esprimete per comandare e quindi bere un caffè, negoziare un contratto, socializzare, comunicare pensieri e sensazioni, passare il tempo, e via dicendo. Nel caso di LaMDA o GPT-3 abbiamo invece a che fare con un algoritmo ispirato al funzionamento del cervello umano e basato su milioni e milioni di linee di codice, che ha imparato a generare del testo in risposta a del testo dato effettuando un’analisi statistica di miliardi e miliardi di parole (quando voi in una vita avrete "solo" a che fare con all’incirca un miliardo di parole) in provenienza da siti come quello de laRegione, Facebook, Twitter, Reddit, o Wikipedia. Detto altrimenti, dato tutto quello che gli è stato possibile osservare tra gli scritti umani propostigli, quello che questi modelli fanno è prevedere il testo che con più probabilità segue un certo testo, allo stesso modo di quando, sentendo una nuova favola, sappiamo "prevedere" che subito dopo aver letto "… e vissero felici e" con tutta probabilità leggeremo "contenti". Ciò significa che quando LaMDA dice che il gusto dell’uva americana ricorda quello delle fragole e che quando se ne mangiano gli acini questi hanno la tendenza a "schioccare" in bocca, non è perché il programma abbia mai mangiato dell’uva americana (ovviamente…), o ne capisca la consistenza e struttura degli acini, ma perché questo è quanto di più rilevante al proposito ha trovato nei testi che ha setacciato. Allo stesso modo, se darò in pasto a un modello linguistico ben addestrato i primi versi di un sonetto di Dante, questi mi risponderà – benché non con gli esatti versi che seguono nel sonetto in questione (se non esplicitamente richiesto) – con dei versi che "sembrano" scritti da Dante, senza capire che quello che ha scritto "suona" come Dante. O se come Douglas Hofstadter gli farò una domanda senza senso quale: "Quanti pezzi di suono ci sono in un tipico cumulonembo?", mi risponderà con un non senso del tipo: "Ci sono in genere circa 1’000 pezzi di suono in un cumulonembo", senza però capire nulla né della domanda né della risposta e, in ambo i casi, senza capire di non capire.

Pappagalli stocastici

Il fatto che i grandi modelli linguistici siano dei fenomenali "pappagalli stocastici", ovvero programmi che appunto "ripetono" gli schemi verbali più ricorrenti nei testi dati loro in pasto, mette bene in luce le vere sfide a breve termine insite al loro sviluppo e utilizzo, le quali ben poco hanno a che fare con la questione di sapere se un giorno saranno senzienti o meno (e ci sarebbero buone ragioni per credere che nessun sistema di IA lo sarà mai, e quindi che nessuno sarà mai portato a vivere scenari simili a quelli visti in serie culto di fantascienza come Battlestar Galactica).

Soffermiamoci dapprima sul fatto che siano "fenomenali". Il punto è che dovremo abituarci a convivere con sistemi capaci di scrivere meglio di molti di noi, e quindi a interagire in un contesto socio-tecnologico in cui sempre più spesso non sapremo discernere se avremo a che fare con un testo prodotto da un umano o da una macchina (o da ambedue). L’arrivo di questa tecnologia, e quindi della possibilità di produrre in massa e possibilmente a basso costo testi di ottima qualità da un punto di vista linguistico, porterà con sé un’enorme trasformazione del processo di scrittura e delle professioni affini come già successo in tutti gli ambiti in cui parte dell’attività umana è stata automatizzata. Non si tratta però di soppiantare l’uomo con la macchina, bensì di adattare le nostre attività alla venuta di abili (notate: non intelligenti) scriba digitali. L’algoritmo, di per sé, non capisce ciò di cui scrive. Ma potrà aiutare uno scrittore o un giornalista, facendo suggerimenti, correggendo errori e inaccuratezze. O potrà aiutare lo scienziato a effettuare nuove scoperte, scavando nell’enorme quantità di articoli scientifici pubblicati finora (e che nessuno, anche solo delimitando una sola disciplina, avrà mai il tempo nella sua vita di leggere per intero) e proponendo analogie o accostamenti che non si era mai riusciti a vedere prima.

Starà però a noi, aiutati dalla nostra intelligenza, cultura e sensibilità, e da un’adeguata educazione, cogliere in positivo queste opportunità. Il rischio in effetti, come con l’avvento di ogni tecnologia, è che questa venga utilizzata e sviluppata in malo modo (sia intenzionalmente che non), con conseguenze nefaste, come per esempio facilitando la creazione di falsità verosimili e quindi la diffusione di disinformazione.

Evitare di reiterare menzogne e rafforzare pregiudizi

Cerchiamo di chiarire meglio questo punto rielaborando la metafora del "pappagallo" (gli etici dell’IA, come la professoressa Shannon Vallor dell’Università di Edimburgo, parlano piuttosto dell’IA che agisce da specchio).

I modelli linguistici scavano nei resoconti delle nostre esperienze, e dei nostri vissuti, e ne riportano quanto vi ci trovano di rilevante. Analizzano statisticamente come le parole sono usate e strutturate da noi, e ci ritornano di riflesso testi simili. Pertanto, se diamo loro indiscriminatamente montagne di testi e non prestiamo attenzione al loro processo di apprendimento, al tipo di analisi che ne fanno, visto non solo che il web è stracolmo di testi razzisti, misogini, discriminatori e menzogneri, ma che il nostro linguaggio stesso contiene impronte dei nostri pregiudizi storici anche per rapporto a ciò che riteniamo eticamente corretto o meno, pregiudizi e falsità si ritroveranno necessariamente nei testi prodotti dall’IA. A loro volta messi in circolazione, questi testi saranno letti e utilizzati da altri umani e da altri sistemi di IA, in un circolo che andrà a rinforzare menzogne e pregiudizi, e quindi forme d’ingiustizia e discriminazione, allo stesso modo in cui immettere dell’aria in uno pneumatico bucato ne allarga il foro peggiorando ancor più la situazione.

Usare intelligenze diverse per lo stesso buon fine

I rischi più immediati non sono quindi legati a una supposta senzienza o intelligenza degli algoritmi, bensì al nostro rapportarci con essi. Oltre che di appropriate regolamentazioni, direttive e codici di condotta, necessitiamo di ancora più spirito critico e capacità di giudizio, non solo nell’utilizzo delle avanzate tecnologie digitali ma anche nel loro sviluppo etico, allineato con i valori di una società giusta e sostenibile. Da questo punto di vista, la vera rivoluzione non sta quindi forse tanto in sistemi come LaMDA o GPT-3, quanto in quelli come BLOOM ("BigScience Language Open-science Open-access Multilingual"), un’intelligenza artificiale "parlante" frutto di uno sforzo collettivo e partecipativo basato sull’esplicita convinzione che l’IA debba basarsi su valori come trasparenza, accessibilità, diversità, inclusività e responsabilità.

In collaborazione con

Potrebbe interessarti anche
© Regiopress, All rights reserved