laR+
logoBol

Il robot che scrive tesi, supera esami ma non sa ragionare

Tra divieti, opportunità e timori, ChatGPT ci cambierà la vita. Il grosso rischio è la pigrizia. Si dovrà controllare ancora di più le fonti

Tra divieti, opportunità e timori, ChatGPT ci cambierà la vita. Il grosso rischio è la pigrizia. Si dovrà controllare ancora di più le fonti

20 febbraio 2023
|

Risponde praticamente, via chat, a tutte le domande, redigendo in pochi secondi testi esaustivi ed è in grado di superare anche esami universitari. Attingendo da un immenso database online, sa scrivere piani aziendali, compiti di letteratura, discorsi, lettere di candidatura, fiabe o ricette di cucina, risolve problemi aritmetici. ChatGPT è sorprendente. «È come un grosso cervello artificiale, fatto di neuroni elettronici, capace di ascoltare domande ed elaborare risposte, senza però garantirne la correttezza. Un nuovo strumento linguistico d’intelligenza artificiale, online e gratuito», ci spiega Luca Maria Gambardella, prorettore per l’innovazione e le relazioni aziendali all’Usi. Massima resa con sforzo minimo. Università e scuole hanno drizzato le antenne, molte hanno vietato questo strumento (anche l’Usi) in attesa di nuovi software antifrode. Nessuna restrizione a medie e liceo, il Decs sta approfondendo il tema (vedi box). Il punto è questo: per i professori è ormai difficile distinguere chi ha scritto il compito a casa, la tesi di master: il robot o l’essere umano? Lo stesso interrogativo vale per la ricerca, anche quella che la politica usa per prendere decisioni. Ma le riflessioni vanno oltre: come stimolare gli studenti a imparare a scrivere, se lo fa bene già un robot?
Ormai molte decisioni che ci riguardano – dall’ipoteca fino all’auto con guida autonoma – vengono prese da un’intelligenza artificiale (IA) capace di elaborare, in pochi clic, una massa enorme di dati. Oltre a mandare in pensione alcune figure professionali, questi strumenti rendono più sfumati i confini, tra uomo e macchina. Chi è al servizio di chi? Nessun robot (per ora) sembra capace di provare emozioni, di avere coscienza di sé, di ragionare, di soppesare e prendere decisioni in situazioni nuove, mai esistite prima. Ma chi lo sa che succede dentro i laboratori: dove stiamo andando?

«Nessuno ha la sfera di cristallo. Molto probabilmente avremo sistemi di IA sempre più efficienti, performanti e simili all’essere umano in alcuni ambiti, come la capacità d’interazione linguistica, mentre saranno più deficitari in altri, come la capacità di condividere emozioni», ci spiega Marcello Ienca, professore di etica dell’intelligenza artificiale delle neuroscienze al politecnico di Monaco Baviera e ricercatore associato al Politecnico di Losanna. Per quanto sia giusto potenziare questi strumenti, l’IA dovrà restare al servizio dell’essere umano: «Non deve diventare una nuova categoria antropologica». C’è un confine da non valicare. «Le decisioni della macchina non devono sostituire quelle umane e serve un controllo. Altrimenti avremmo enormi problemi etico-sociali: chi è responsabile, quando una decisione è sbagliata? Attribuire la responsabilità alla IA significa non darla a nessuno». Le conseguenze sarebbero disastrose. In caso di errori di software, continua il ricercatore, l’auto con guida autonoma potrebbe causare un incidente, il mutuo in banca potrebbe venire negato per sbaglio. «E senza regole chiare la colpa potrebbe non essere di nessuno».

Le nuove frontiere dell’IA fanno venire i brividi. In alcuni laboratori, anche in Svizzera, si stanno progettando robot che provano empatia. «Sì, per un uso medico, saper riconoscere le emozioni aiuta a interagire con pazienti affetti da demenza. Il vero punto di non ritorno sarà la macchina capace di avere coscienza di sé, di riconoscersi come persona, di avere stati affettivi, riconducibili alla propria esperienza soggettiva. I ricercatori ci stanno lavorando anche se siamo molto distanti». Sembra fantascienza ma nelle università già ci si interroga sui modi di convivenza tra super macchine ed esseri umani. «Un robot con coscienza di sé non sarebbe più un semplice strumento. Dargli ordini e comandi, pertanto, sarebbe come schiavizzare un’entità con una coscienza».

Doping intellettivo e frode

Tornando al qui e ora, siamo ai primi scalini di un’evoluzione che sta prendendo velocità. «Assistiamo a un’accelerazione. Fino a qualche anno fa i servizi di assistenza virtuale che rispondono a domande e reclami, usando chatbot di IA, erano inefficienti. Con ChatGPT è stato fatto un balzo avanti: le sue risposte non sono distinguibili dall’essere umano», precisa Ienca. Ci sono opportunità e rischi. «È un buon assistente non umano, ad esempio per reperire materiale di ricerca. Ma osservo rischi di doping intellettivo e frode». Ha appena finito di correggere gli esami scritti dei suoi studenti al Politecnico di Losanna al corso di etica della tecnologia: «Non ho nessuna certezza. Diventa un problema valutare capacità e performance intellettiva sia in ambito accademico sia lavorativo. Confidiamo di avere presto un software antiplagio».

Tra vietare e accompagnare, predilige la seconda via. «Bisogna insegnare ai ragazzi a usare l’IA come uno strumento aggiuntivo che fa risparmiare tempo, come è stato con la calcolatrice. ChatGPT non deve diventare un sostituto della facoltà di pensiero. Bisogna preservare l’individualità intellettuale e coltivare più che mai l’analisi critica», conclude.

Ricerca ed etica

‘A decidere resta l’uomo, non la macchina’

Le intelligenze artificiali fanno passi da gigante. Google ha annunciato il lancio del chatbot Bard, una sorta di ‘rivale’ di ChatGPT (di OpenAI), un servizio sperimentale d’intelligenza artificiale conversazionale. «È una rivoluzione, si aprono scenari nuovi con strumenti facili da usare. Attenzione però, quello che scrive una macchina non è per forza corretto. Diventa ancora più importante verificare le fonti, l’origine delle informazioni», spiega il professor Luca Maria Gambardella, prorettore per l’innovazione e le relazioni aziendali all’Usi di Lugano. ChatGPT lo descrive come «un grosso cervello artificiale da 175 miliardi di connessioni, fatto di neuroni elettronici, capace di ascoltare domande ed elaborare risposte. Sa generare testi, anche in modo ironico, fare traduzioni, riassunti, sa anche riconoscere entità in un testo ed è stato addestrato alla conversazione. Non c’è nessuna garanzia però che ciò che scrive sia corretto». Fa molto, ma non fa tutto. «Non sa ragionare».

Il timore c’è: saremo bravi a dare ordini, ma disimpareremo a decidere, a scrivere?

Scorderemo come si fa a scrivere

«C’è il rischio di diventare pigri. Di accettare quanto scrive la macchina senza controllare le fonti, senza sviluppare senso critico, ossia la capacità di ascoltare tutti, macchina compresa, e poi decidere in modo autonomo. L’uomo avrà sempre più l’aiuto di robot ma deve restare al centro del processo decisionale», precisa. Sulle nuove generazioni, native digitali è ottimista. «Ero nella giuria di una gara di robotica tra studenti delle medie. Ho incontrato giovani davvero brillanti, svegli e volenterosi. Dobbiamo accompagnarli in queste trasformazioni tecnologiche e alimentare il loro senso critico».

Intanto le università si adeguano. L’Usi ha informato gli allievi che è considerato illecito l’uso di tali strumenti nella redazione di tesi e durante gli esami e prove scritte, sia in classe sia a casa. «Abbiamo creato gruppi di lavoro per approfondire rischi e opportunità di queste tecnologie nell’ambito dell’insegnamento». Intanto stanno uscendo nuovi modelli di strumenti antifrode capaci di riconoscere se il testo è generato o meno da una macchina sofisticata come ChatGPT: «Bisognerà capire se funzionano o meno». Anche le implicazioni nel business sono notevoli. Artificialy, la società che Gambardella ha co-fondato a Lugano due anni fa, ha assunto più di venti specialisti: «Si lavora sui temi legati all’AI, la richiesta di soluzioni legate a ChatGPT sono in grande aumento», conclude.

Integrare meglio che vietare

La via dei divieti scelta da alcune università lascia perplessa la ricercatrice Marta Fadda: «Sono diffidente verso gli approcci punitivi. Bandire l’uso di ChatGPT e punire chi lo usa è una mancata opportunità di dialogo». Per la ricercatrice e docente in bioetica alla Facoltà di scienze biomediche dell’Usi, questi nuovi strumenti devono stimolare discussioni tra docenti, allievi, istituti scolastici, cittadini sui principi etici che guidano il nostro agire. «Forse dagli studenti potrebbero arrivare idee più innovative». Sarebbe più saggio integrare nell’insegnamento questi nuovi strumenti: «Facciamo lavorare gli studenti su testi scritti da ChatGPT, per migliorarli, trovare gli errori, identificare le fonti e aggiungere una critica personale». Chiediamoci, perché uno studente dovrebbe ancora voler imparare a scrivere? Va valorizzato ciò che la macchina non sa fare. «Come la capacità di scrittura riflessiva e responsabile, che sa anticipare e adattarsi alle possibili reazioni ed emozioni di chi legge; questa è un’attività etica». La sfida è impegnativa.

La scuola

Il rischio è che gli studenti diventino pigri

Fare i compiti con ChatGPT, misurandosi con la macchina. O fargli scrivere il seminario, assegnato dal docente, e prendersi i meriti? Tra uso e abuso, tra divieti e nuove formule educative, ChatGPT, potrebbe obbligarle a un ripensamento sia del metodo d’insegnamento sia delle valutazioni. In molte scuole l’accesso è già stato limitato, perché spesso è difficile comprendere se un compito sia stato scritto da un essere umano o da un robot. Attingendo da un immenso database di testi online e superando i rilevatori (sia virtuali, sia umani) di plagio, ChatGPT ha addirittura superato esami universitari di legge e business di prestigiose Università americane. «È un nuovo fenomeno sociale e la scuola non può mettere la testa sotto la sabbia. Stiamo approfondendo», dice Emanuele Berger. Per il direttore della Divisione scuola (Decs) la sfida è rinforzare il metodo di accompagnamento degli studenti, lavorare ancora più in interazione con loro, educarli a un senso critico, evitando la pigrizia mentale. «Dobbiamo saper trasformare questo nuovo strumento di Intelligenza artificiale (IA) in una opportunità come abbiamo fatto con la calcolatrice».

Di fatto stiamo parlando di algoritmi che pescano nel web, dove c’è di tutto, anche molte fake news e dunque tutto va verificato attentamente. «È come il traduttore deepl, uno strumento molto utile che fa delle ipotesi di traduzione. Tutto poi va verificato, perché solo chi scrive sa che cosa vuole esprimere». La parola chiave è uso consapevole. «ChatGPT può venir integrato nell’apprendimento, se aiuta a sviluppare ed esercitare il senso critico, a perfezionare le capacità degli allievi», precisa Berger.

Anche la calcolatrice aveva creato un acceso dibattito tra i docenti di matematica, alcuni temevano di produrre generazioni di giovani incapaci di fare calcoli a mente: «La scuola ha saputo integrarla in modo consapevole. Le lezioni di matematica sono cambiate, usandola i ragazzi non imparano meno. Anzi, grazie alla calcolatrice oggi possono risolvere problemi più complessi».

Che dire dei compiti a casa nell’era di ChatGPT, visto che a farli potrebbe essere un robot: addio compiti? «Non direi. Gli studenti sanno bene che chi copia non sta imparando nulla. E non serve a nulla far fare i compiti a un robot, come a un genitore o a un professore privato». Ma per ora nella scuola non ci sono direttive su ChatGPT. «È un fenomeno nuovo e lo stiamo approfondendo. Comunque ogni docente conosce i propri allievi, anche senza un software antiplagio dovrebbe capire se c’è un problema. Come quando un allievo mediocre, improvvisamente, porta da casa compiti di alto livello».

La finalità della scuola è quella di formare i giovani, soprattutto guidarli attraverso pregi e rischi di queste nuove tecnologie. «Dobbiamo imparare a usare bene questi strumenti, a interagire con loro. In futuro faranno alcuni impieghi oggi svolti da persone. Sono macchine, elaborano dati, non decidono, questo lo fanno gli esseri umani».

In questo senso la formazione dei docenti è fondamentale. «Sono già preparati ad accompagnare gli studenti all’uso consapevole di questi mezzi. Più precisamente sulla ChatGPT faremo dei corsi, delle formazioni, per spiegare come funziona, come usarla per sviluppare più senso critico negli studenti, come controllare le fonti. È una sfida, è tutto molto nuovo».

Anche combattere l’impigrimento mentale è una sfida, continuare ad accendere l’entusiasmo nei ragazzi, invogliandoli a impegnarsi, senza imboccare facili scorciatoie. «Questo fa parte del mestiere del docente. Impigrirsi è certamente un tema, la sfida sarà trovare un buon equilibrio: come per la calcolatrice, dovremo capire che cosa fa la macchina e che cosa no», conclude Berger.

Lo studio

Giovani meno creduloni rispetto agli over 50

Senso critico, un anticorpo indispensabile nell’era digitale, i giovani ne hanno più dei loro genitori. «Molti studi dimostrano che sono soprattutto gli over 50, a credere e diffondere maggiormente le ‘fake news’», dice il professor Marcello Ienca. I nativi digitali, come la generazione Z, hanno un sesto senso, sono più bravi a capire quali news sono una bufala. «Gli over 50 sono stati abituati a ricevere informazioni filtrate dalla verifica degli organi di stampa. La maggior parte di loro pensa che quanto legge sia attendibile anche se è pubblicato su una pagina FB qualsiasi. Per un giovane invece, un link su una piattaforma social non significa nulla, si interroga, approfondisce, paragona quella news con altri siti. Gli over 50 lo fanno molto meno», dice il ricercatore del Poli di Losanna. Le nuove generazioni coevolvono con questi nuovi strumenti di IA e sembrano più attrezzati a navigarci senza troppi danni collaterali. «Uno studente 18enne sarà un adulto con una capacità critica maggiore riguardo le fake news. Un adulto che scopre a 50 anni ChatGPT avrà meno distacco critico».