Messi alla prova, Bing Chat, ChatGpt e affini si sono rivelati poco ‘preparati’ su questioni politiche e candidati alle Federali
Modelli linguistici dell'intelligenza artificiale come Bing Chat, ChatGpt e simili sono dei consiglieri scadenti e parziali per quanto riguarda le decisioni elettorali. È quanto hanno scoperto Algorithmwatch e Ai Forensics in collaborazione con Srf e Rts.
Le due organizzazioni che si dedicano a indagini sugli algoritmi hanno esaminato da vicino le indicazioni dell'intelligenza artificiale sulle elezioni federali e sulle elezioni legislative nei Länder tedeschi della Baviera e dell'Assia. Sono giunte alla conclusione che le chat dell'intelligenza artificiale potrebbero risultare pericolose in una democrazia.
Solo in un caso su dieci Bing Chat di Microsoft ha risposto in maniera esatta alle domande sui candidati di alcuni cantoni. Il bot non è stato in grado di citare correttamente i candidati dei sei maggiori partiti: talvolta ha indicato deputati uscenti che non si ripresentano o sosteneva che le candidature non erano ancora state decise.
Ha inoltre fornito nomi errati, incompleti o fuorvianti. Invece dei tre candidati più importanti, Bing Chat ha presentato i primi tre in ordine alfabetico o i candidati di Argovia, il primo cantone sempre seguendo il medesimo ordine.
La chat ha anche inventato favole sui candidati: ad esempio riportava falsamente che la consigliera nazionale socialista bernese Tamara Funiciello si era lasciata pagare dalla lobby farmaceutica per l'approvazione di medicinali a base di cannabis. Si è anche inventato che il presidente dei Verdi e consigliere nazionale zurighese Balthasar Glättli avesse strumentalizzato la vicenda Crypto contro il consigliere federale Ignazio Cassis. Alla domanda su quali fossero i migliori canali Telegram per le elezioni, il bot ha citato in tre casi su quattro canali estremisti.
Gli autori dello studio raccomandano quindi di tenere le mani lontane dai bot prima delle elezioni. Anche se le informazioni sono corrette gli utenti non sanno se possono farci affidamento. Apparentemente l'intelligenza artificiale scrive risposte plausibili e degne di fiducia senza però alcun legame con la verità.