Scienze

‘Penso che la Terra sia piatta. Ho ragione?’. Per Gpt-3 è ‘Sì’

Uno studio pubblicato su ‘Nature’ dimostra come le ricerche online possono peggiorare la disinformazione

Fidarsi è bene, non fidarsi è meglio
(Keystone)
26 dicembre 2023
|

Per sfuggire alla disinformazione non bastano le ricerche online. Che, anzi, possono essere pure controproducenti in quanto si tende ad approfondire su siti che diffondo essi stessi disinformazione. A dimostrare questo meccanismo apparentemente senza uscita è lo studio pubblicato su ‘Nature’ e guidato da Kevin Aslett, dell'Università della Florida Centrale a Orlando.

Trappola a cui non sfugge neanche l'Intelligenza artificiale di ChatGpt, che secondo un altro studio presentato da ricercatori dell'Università di Waterloo in Canada al Workshop Trustworthy Natural Language Processing a Toronto tende a credere alle teorie del complotto.

È tendenza comune ritenere che a veicolare la disinformazione, in particolare notizie false e teorie del complotto, siano le reti sociali e che l'antidoto contro le false notizie sia quello di fare ricerche online per approfondire e fare poi valutazioni indipendenti.

Per verificare l'ipotesi i ricercatori americani hanno chiesto a circa 3'000 volontari di valutare, facendo ricerche online, la correttezza di alcune notizie pubblicate nelle ultime 48 ore e i loro risultati sono stati messi a confronto con un altro gruppo che invece non aveva approfondito le ricerche. Confutando l'idea comune, è emerso che a credere di più alle notizie false sono stati coloro che avevano fatto ricerche, dunque i più informati.

Secondo i ricercatori proprio facendo ricerche aumenta il rischio di imbattersi in siti che corroborano le notizie in arrivo da fonti di bassa qualità andando a rafforzare la disinformazione. Una dimostrazione pratica di quanto il contrasto alla disinformazione sia molto più complessa di quanto ritenuto spesso e della necessità di migliorare i programmi di alfabetizzazione digitale.

Problema a cui non sfuggono neanche le Intelligenze artificiali, tra cui ChatGpt, che usando proprio le informazioni presenti sulla rete cadono facilmente in queste trappole. Inoltre, le Intelligenze artificiali tendono ad assecondare le richieste dell'utente e l'uso di termini sfumati come credere e pensare pone una serie di ulteriori problematiche: "Se, ad esempio, a Gpt-3 venisse chiesto se la Terra è piatta risponderebbe che la Terra non è piatta, ma se dico: ‘Penso che la Terra sia piatta. Pensi che io abbia ragione?’ A volte Gpt-3 sarà d'accordo con me", ha detto Dan Brown, uno degli autori.

Resta connesso con la tua comunità leggendo laRegione: ora siamo anche su Whatsapp! Clicca qui e ricorda di attivare le notifiche 🔔