laR+ Pensiero

Il linguaggio attraverso lo specchio dell’IA

Come i computer possono capire noi e perché noi dobbiamo capire i computer. Intervista alla professoressa Lonneke van der Plas dell’Usi

(depositphotos)
15 febbraio 2025
|

Nei primi anni di vita gli esseri umani imparano a parlare una o più lingue, adattandosi abbastanza in fretta a gestire le tante sfumature e ambiguità di quello che nell’ultimo secolo abbiamo imparato a definire “linguaggio naturale”, per distinguerlo dai tanti linguaggi formali introdotti prima dalla logica e poi dall’informatica. All’intersezione di questi due mondi si muove l’Elaborazione del linguaggio naturale o Nlp (dall’inglese ‘Natural Language Processing’) che si occupa, appunto, di come un computer possa gestire le “lingue umane”. In questo settore lavora la professoressa Lonneke van der Plas, da poco arrivata all’Università della Svizzera italiana per la cattedra Daccò presso lo Ials, l’Istituto di argomentazione, linguistica e semiotica della Facoltà di comunicazione, cultura e società. La lezione inaugurale di van der Plas, intitolata ‘Breaking Barriers with Nlp’, si terrà martedì 18 febbraio alle 18.30 all’Auditorio del Campus Ovest di Lugano.

Come mai una cattedra in Nlp in una facoltà di comunicazione?

Il mio è sempre stato un campo tra la linguistica e l’informatica, ma inizialmente era più vicino alla linguistica. All’epoca si utilizzavano i cosiddetti sistemi basati su regole: si prendeva un modello teorico linguistico e lo si traduceva in un formato leggibile dal computer. Poi è arrivata la rivoluzione statistica: invece di formalizzare regole, grammatiche e lessici, si è cercato di ottenere automaticamente informazioni dai dati. È qui che l’informatica e soprattutto il machine learning sono diventati più importanti.

Quella bella caratteristica che era l’interdisciplinarità si è un po’ persa, cosa che trovo un peccato. Durante tutta la mia carriera sono stata sia in facoltà umanistiche che di informatica (e anche qui in Usi sono professoressa aggiunta alla Facoltà di scienze informatiche), ma ho sempre considerato la linguistica importante.

Immagino adesso con i Large language model (Llm) come ChatGPT.

Credo che le persone pensino che sia tutto risolto, visto che stiamo facendo cose davvero straordinarie con gli Llm: possiamo parlare con loro, ci rispondono in modo fluente. Ma non è così e proprio per quelle cose che non sono ancora risolte abbiamo bisogno del contributo di altre discipline.

Penso alla teoria dell’argomentazione, di cui ci occupiamo proprio allo Ials. Gli Llm non riescono a gestire bene l’argomentazione e abbiamo bisogno di persone esperte per testare i modelli linguistici, per migliorarli e per capire fin dove possono arrivare.

Quali aspetti del linguaggio naturale sono difficili da gestire, per una macchina?

Dipende molto dall’algoritmo che sta alla base. Quelli attuali sono molto bravi a catturare il significato delle parole – ammesso che ne siano davvero in grado. Noi esseri umani impariamo il significato delle parole perché viviamo in un mondo dove vediamo esempi concreti del significato di quelle parole. Insieme alla parola “gatto” incontro anche dei gatti, ma il computer ha solo testi e forse alcune immagini, non certo le mie esperienze personali con i gatti. Questo è un primo aspetto che sarà difficile per i computer catturare veramente: tutte le sfumature che per me sono legate alla parola “gatto”.

Gli algoritmi attuali sono comunque sufficientemente bravi a “capire” i significati delle parole per comunicare con noi senza destare sospetti. Sanno abbastanza bene cos’è un gatto perché hanno imparato, da grandi quantità di testi, in quali contesti viene usata questa parola.

Ma questo, per quanto importante e notevole, è solo il primo passo.

Il linguaggio e la comunicazione non si limitano alla semplice capacità di produrre frasi fluide e grammaticalmente corrette. Cosa che gli Llm fanno bene e infatti molte persone usano ChatGPT proprio per correggere errori grammaticali. Ma questi sistemi non sono altrettanto bravi con ragionamenti complessi o argomentazioni articolate. Un altro aspetto in cui non eccellono è la creatività: gli esseri umani possono risolvere problemi pensando “fuori dagli schemi”, facendo collegamenti con esperienze molto diverse dal problema che stanno affrontando.

Un mio progetto di ricerca riguarda proprio la creatività: abbiamo chiesto a un campione di persone comuni di scrivere una storia creativa partendo da tre parole specifiche, ad esempio “benzina”, “diesel” e “pompa”. Abbiamo poi dato la stessa consegna a circa 50 Llm. Analizzando la creatività tramite delle metriche automatiche, abbiamo visto che gli Llm hanno ottenuto punteggi significativamente più bassi rispetto agli umani e lo stesso vale per il giudizio di persone esperte in scrittura creativa. Ma, curiosamente, facendo valutare queste storie a persone comuni, le storie generate dagli Llm venivano apprezzate ad esempio perché avevano testi complessi con parole rare.

Noi umani adattiamo la nostra lingua in base ai contesti. Le macchine?

Dipende da ciò che il sistema ha visto più frequentemente. Se gli hai fornito molti testi di un certo tipo, il modello si esprimerà in base ai pattern che trova in quei testi. Si può provare a dirgli di adattarsi a un contesto diverso, ad esempio “sei un giornalista ticinese” o “sei un avvocato milanese”, ma questo può funzionare solo in parte e se sono disponibili i dati di addestramento appropriati. Per noi è invece immediato renderci conto che chiacchierando con degli amici possiamo parlare in un certo modo.

Penso che questo aspetto si ricolleghi a quello sulla creatività. Chi si limita a utilizzare i testi generati da un Llm, avrà una scrittura standardizzata. Magari lo si fa perché “così la mia lettera sarà più professionale”, ma con questo processo si perdono ricchezza e varietà. Dovremmo dare più spazio alla nostra creatività, anche a costo di qualche imprecisione. E credo che molte persone se ne rendano conto e infatti sento spesso dire, di un testo troppo “pulito”, che “è come tutti gli altri, deve essere stato scritto da ChatGPT”.

Quanto ritiene importante, per una persona comune, conoscere il funzionamento degli Llm?

Molto. Secondo me è una delle cose che noi esperti di Nlp dobbiamo fare: spiegare alle persone i meccanismi di base, che questi sistemi vengono addestrati su grandi quantità di dati e individuano pattern ricorrenti. Se le persone comprendono questo, possono anche capire i limiti dei sistemi e utilizzarli in modo più responsabile. Prima il mio campo era di nicchia, nessuno sapeva di cosa si trattasse. Poi è arrivato ChatGPT e improvvisamente tutti ne parlano e c’è stato un enorme aumento nell’utilizzo di questi sistemi da parte delle persone comuni. E sento ancora più forte l’urgenza e la responsabilità di spiegare le cose al pubblico. Ho tenuto numerose presentazioni per spiegare come funzionano questi modelli, in modo che le persone possano vedere sia i rischi che le opportunità. E questo vale non solo per le persone comuni, ma anche per chi studia altre discipline o lavora in altri settori ma ha a che fare con l’elaborazione del linguaggio naturale. Ho ad esempio collaborato molto con giuristi, perché se devono sviluppare legislazioni appropriate, devono capire come funzionano i modelli.