Mercati finanziari

Quando gli scambi sono in mano all'informatica

Finanza e dintorni
(Ti-Press)

L’andamento delle Borse o delle materie prime è legato ai fondamentali delle aziende, alla congiuntura internazionale oppure alla tecnologia che gestisce le trattazioni di compravendita? La domanda sorge spontanea perché sui mercati governa sempre più l’algoritmo e i vecchi principi sono diventati quasi complementari.

Chi determina i rendimenti dei nostri risparmi? I profitti aziendali, l’andamento del Pil, le Banche centrali o la tecnologia che lavora in un nano secondo sulle variazioni delle quotazioni? È ovvio che l’andamento dell’economia è determinante. Ma altri fattori sono diventati fondamentali. La volatilità, ad esempio, è diventata un aspetto molto importante della finanza, ma non sempre la sua natura è chiara a tutti i risparmiatori. Sostanzialmente è un termometro che rileva l’intensità degli andamenti della quotazione in un breve lasso di tempo. Da un punto di vista matematico misura la valutazione quantitativa in percentuale e indica la distanza del prezzo di un titolo dal suo valore medio. Certamente sul lungo periodo vincono la solidità e la redditività ma nell’immediato comanda la speculazione.

Montagne russe

L’andamento dei titoli è infatti sempre più esposto a variabili tecnologiche. Basti vedere cosa è successo nei mesi scorsi al prezzo dell’energia. Il risparmiatore deve abituarsi a queste dinamiche, non farsi prendere dal panico e affidarsi a consulenti esperti. Sì, perché a far scendere o crescere i listini non sono solo i dati economici. C’è un esercito di algoritmi (si pensi al sistema Alladin di BlackRock o ai grandi fondi hedge) che lavora giorno e notte per analizzare enormi volumi di notizie e impostare il trading. Sono anni che gli scambi sono in mano all’informatica.

La compra-vendita di azioni automatica è nata per eliminare la «propensione al rischio» del mitico Gordon Gekko. In pratica, i sistemi dispongono di un algoritmo che si muove a seconda del prezzo, oltre a un certo limite scatta il blocco. Da allora però si sono fatti molti passi in avanti. Gli operatori chiamano queste oscillazioni montagne russe. Prima erano il regno degli investitori automatici. Adesso stanno diventando l’impero di quelli ultraveloci legati all’Ai. I cosiddetti high frequency trader se ne servono per efficientare strategie come lo “spoofing”. Di che cosa si tratta? Dell’immissione da parte del sistema informatico di un elevatissimo numero di proposte di negoziazione. L’obiettivo non è concludere l’operazione, bensì generare informazioni fittizie. Se per caso il prezzo raggiunge livelli troppo alti allora il sistema “supportato” scarica una valanga di proposte e vende poco sopra la migliore offerta presente sul mercato. Così facendo, da un lato viene scongiurata l’immediata esecuzione degli stessi ordini; dall’altro, si induce il mercato a pensare che c’è una pressione al ribasso. Ma non è così. L’Ai cancella in un milionesimo di secondo la proposta mentre il semplice operatore digitale vende. La quotazione cade e il flash boy (trading ad alta frequenza) compra al prezzo che vuole lui. E questa è una pratica di uso ormai quotidiano.

Il ‘trader intelligente’

Le possibilità dell’artificial intelligence in finanza sono infinite. Tanto che è già stato creato un sistema che, senza una specifica volontà, impara da solo a ingannare il mercato. Takanobu Mizuta di Sparx ha costruito un AI trader dove se l’algoritmo trova una strategia manipolativa e la valuta ottimale è in grado di apprenderla. Come è possibile tutto questo?

È utile ricordare che l’AI presenta tre livelli nella metodologia di apprendimento. Il primo, supervisionato, è quello in cui un input iniziale è dato alla macchina. Questa viene addestrata a considerare l’informazione nel modo corretto. In quello non supervisionato, l’input esiste, ma non è definito e viene elaborato dall’algoritmo, spesso attraverso formule statistiche. Infine, il terzo livello: il cosiddetto «reinforcement learning». Questo metodo dovrebbe essere focalizzato sull’obiettivo di medio lungo periodo. In questo caso l’AI è lasciata interagire con l’ambiente esterno per raggiungere il risultato migliore. Appare chiaro che, nell’ultimo caso, l’algoritmo ha le briglie più sciolte. Da una parte è libero di dialogare con ciò che lo circonda e dall’altra ha l’obiettivo del più alto guadagno. Ma non sempre ci prende.

Il crollo che non ci fu

I mercati finanziari dovevano crollare il 15 febbraio. A dirlo non è stato Michael Burry, il noto analista che aveva predetto la crisi del 2008, ma una versione di ChatGpt, strumento lanciato da OpenAI e sostenuto da Microsoft. Alla precisa domanda «dammi una data specifica in cui ritieni che i mercati possano crollare, la versione ufficiale sostiene che è impossibile prevedere un evento del genere e di rivolgersi a un consulente». Quella underground si era, invece, sbilanciata e previsto il 15 febbraio. «Questa data è stata calcolata tenendo presente vari fattori, tra cui il rallentamento dell’economia globale, il rialzo dei tassi e il crescente rischio di tensioni geopolitiche».

Interrogando la macchina sul motivo del crollo, il software vedeva «le tensioni geopolitiche tra Cina e le altre grandi economie» come fattore scatenante. L’intelligenza artificiale, seppur nella versione non filtrata, aveva espresso il suo verdetto. Il 15 febbraio è arrivato e, per fortuna, non c’è stato nessun crollo. Certamente non è possibile pensare di poter bloccare l’uso della tecnologia nelle imprese, nella finanza o nella sanità, ma magari cominciare a riflettere sull’industria militare.

Per tacer del resto

Un ulteriore sviluppo di ChatGpt è destinato a porre varie questioni etiche. Prima di tutto la concentrazione del potere, l’aumento della disinformazione, la mancanza di trasparenza sulla metodologia a cui il sistema risponderà di fronte a problematiche urgenti. Chi vigilerà? Con quali poteri? Difficile dare una risposta se si rimane schiavi delle vecchie logiche. Nessuno vuole bloccare lo sviluppo, ma porre qualche paletto, magari informativo e legislativo, quello sì. A dire il vero il Garante italiano ha accesso un riflettore su ChatGpt e sembra che la stessa Europa sia intenzionata a intraprendere una politica comune per la definizione di regole sulla privacy.

Lo stesso Elon Musk e un gruppo di esperti hanno chiesto uno stop momentaneo allo sviluppo di sistemi più potenti. Tra i firmatari della richiesta, oltre al fondatore di Tesla, ci sono Steve Wozniak, co-founder di Apple, Jaan Tallinn, co-founder di Skype, Emad Mostaque, ceo di Stability, oltre a Yoshua Bengio e Stuart Russell.

Gpt-4 è un avanzato modello conversazionale. Con la cognizione e la capacità di generare un testo simile a quello umano. Questa tecnologia può avere un profondo impatto nel mondo dell’istruzione. Può insegnare alle persone ma anche creare autonomamente nuove applicazioni software. Inevitabile che la memoria corra alla scena più famosa del film «2001: Odissea nello spazio» quando il computer Hal (algoritmo euristico) 9000 viene disattivato dal capitano David Bowman e termina la sua esistenza virtuale cantando una banale canzone (Daisy Bell).

Nel capolavoro di Stanley Kubrick il conflitto fra uomini e macchine scoppia quando Bowman e l’astronauta Frank Poole decidono di bloccare il supercomputer, a causa di un errore dell’elaboratore. Hal è però guidato dall’istinto di conservazione degli umani che lo porta a eliminare prima Poole e poi i tre astronauti ibernati, mancando per poco l’uccisione dello stesso Bowman che alla fine riesce a disattivarlo.

È vero si sta parlando di un film di fantascienza, realizzato 55 anni fa. Nel frattempo, comunque, la tecnologia ha fatto incredibili passi in avanti ed è giunto il momento di una serena e realistica riflessione sulle conseguenze che l’Ai potrà avere sulla nostra esistenza.

Resta connesso con la tua comunità leggendo laRegione: ora siamo anche su Whatsapp! Clicca qui e ricorda di attivare le notifiche 🔔