laR+ Tecnologia

‘L’IA da sola non basta, servono competenze’

Opportunità e rischi della rivoluzione dell’Intelligenza artificiale nel settore della grafica e del videomaking

21 febbraio 2025
|

L’onda lunga dell’intelligenza artificiale ha ormai impattato sulle nostre vite quotidiane, in particolare per quanto riguarda le IA generative di immagini che negli ultimi tempi hanno letteralmente invaso i social con contenuti a tratti imbarazzanti, ma che attirano i click dell’utente medio(cre) come il miele le mosche. Per non parlare delle foto fasulle di personaggi, con conseguenti, lecite preoccupazioni per il diffondersi di fake news e disinformazione a vario titolo. Ma al di là di quelli che sono, e in fondo rimangono, effetti collaterali, l’uso dell’IA sta cambiando radicalmente l’intero settore della creazione di contenuti grafici e video, trovando sempre più utilizzi anche da parte di aziende di rilievo: come l’Fc Inter, che ha di recente diffuso un video per augurare il buon anno cinese ai tifosi in Estremo Oriente realizzato interamente utilizzando vari sistemi di Intelligenza artificiale.

Fra coloro che hanno collaborato alla creazione c’è Katya Vettorello, esperta di Graphic Art & Image Editing milanese trapiantata da circa vent’anni a Lugano e che ha abbracciato fin da tempi non sospetti le nuove opportunità fornite dall’IA in ambito grafico e video. «Per il mio lavoro è stata una rivoluzione in positivo – racconta –. Avevo già vissuto l’avvento di Internet e il suo impatto sul mondo IT, per cui quando mi sono imbattuta per la prima volta in Midjourney (uno dei principali sistemi di IA generativa di immagini ndr) ho intuito che, come per il web, ci sarebbe stato un prima e un dopo, e ho iniziato a studiarlo e integrarlo nel mio flusso di lavoro: ad esempio per creare le immagini stock autonomamente anziché acquistarle, in modo che rispecchiassero esattamente le mie esigenze. Avendo una grande passione per la lettura, ho cominciato a usarlo per creare illustrazioni per opere letterarie: c’era un po’ l’euforia di cambiare direzione, esplorare qualcosa di totalmente nuovo».

Cos’è e come funziona un’IA generativa di immagini?

Si tratta di un’Intelligenza artificiale che, utilizzando le immagini, i video e tutti i dati che sono stati a essa dati in pasto nell’addestramento, risponde nel modo migliore possibile a un prompt, cioè un comando, un’istruzione, in genere testuale, che si dà alla macchina per ottenere un risultato. In questo senso è importante che questo comando sia impostato in un determinato modo, seguendo una struttura precisa: più il prompt è costruito bene, migliore è il risultato ottenuto. In linea di massima si indicano sempre il soggetto dell’immagine, la descrizione, l’ambientazione e poi informazioni varie ed eventuali che riguardano ad esempio lo stile o la luce. È importante anche sottolineare che due prompt uguali non daranno mai risultati identici, in nessun caso, perché l’IA genera immagini sempre diverse, e questo in un certo senso è uno dei limiti: una delle maggiori difficoltà ancora oggi è l’impossibilità assoluta di avere il controllo su quello che sarà l’output.

Dell’IA si dice, criticamente, che anche chi non ha competenze grafiche, può creare immagini: è così?

È vero che chiunque può provare a creare delle immagini con un’IA, ma se si utilizza un prompt molto semplice si otterranno, sì, delle immagini belle, ma in un certo senso comuni. È importante avere delle nozioni di fotografia, ad esempio per dare informazioni precise nel prompt sul tipo di luce desiderato, sull’angolazione di essa, se dev’essere calda o fredda, o ancora sulla composizione dell’immagine secondo la regola dei terzi, o sul punto di ripresa e così via.

Se poi l’immagine non è statica ma andrà animata o farà parte di un video, a maggior ragione bisogna partire non solo sapendo l’angolazione richiesta dall’autore, dal regista o dallo sceneggiatore, che spesso è dichiarata nello storyboard o nella sceneggiatura, ma anche comprendere e figurarsi come quell’immagine verrà mossa, sapere che cos’è un plan (movimento di camera), cosa vuol dire ruotare una cinepresa e su quali assi, e via dicendo. Chi lavora nel campo è in grado di riconoscere se un’immagine è creata con un prompt basilare o se c’è invece un ragionamento dietro: è come guardare il quadro di un pittore dilettante e uno di un artista che ha invece degli studi di arte alle spalle.

Quali sono, a oggi, i limiti tecnici delle IA grafiche?

Come accennavo, almeno alle nostre latitudini – perché il mercato americano offre altri strumenti che in Europa non sono ancora accessibili – quello che si può fare o non si può fare ruota sempre tutto intorno alla “consistency”, ovvero alla coerenza delle immagini, quindi alla capacità di mantenere gli stessi soggetti o ambientazioni, ad esempio cambiando l’inquadratura, perché come si diceva prima, l’IA crea sempre immagini diverse. Nella creazione di video, poi, è difficile far parlare più personaggi nella stessa scena: va meglio se si tratta di creare, per esempio, degli spot pubblicitari dato il minutaggio breve con un’azione limitata, soprattutto se si parla di film di animazione non realistici, o anche video musicali, perché è possibile usare una certa creatività.

Un’altra difficoltà riguarda gli edifici: se voglio ambientare una scena a Roma, l’IA non mi genererà un’immagine fedele del Colosseo ma una sua rielaborazione in base ai dati che possiede, anche se da questo punto di vista si vocifera che alcune aziende statunitensi stiano valutando di utilizzare Google Maps per questo scopo e la resa dovrebbe essere più fedele.

Le cose cambiano, però, se anziché i modelli di IA accessibili online tramite abbonamento, come Midjourney, si va a utilizzare un sistema open source come Stable Diffusion, ovvero si scarica il software sul proprio computer e lo si addestra in modo esclusivo attraverso dati forniti in modo personalizzato.

È un modo di lavorare che, però, se da un lato permette di ottenere risultati molto più realistici vicini alle richieste del prompt controllando tutti i parametri e di non dover sottoscrivere abbonamenti, dall’altro richiede un investimento in tempo e denaro non indifferente, soprattutto dal punto di vista dell’hardware: un sistema come Stable Diffusion richiede una macchina estremamente potente con una GPU (Unità di elaborazione grafica) di un certo spessore, come quelle usate ad esempio per il gaming, impensabile da utilizzare su un normale computer domestico. Un problema che però può essere bypassato affittando una GPU tramite piattaforme online.

Si discute spesso del rapporto fra IA e disinformazione. Quali sono i rischi e i possibili rimedi?

Personalmente ho l’impressione, da brividi, di vivere dentro la fantascienza che immaginavamo alcuni decenni fa leggendo Asimov e autori simili. Proiettandomi da qui a qualche anno vedo una curva di sviluppo continuamente in salita: credo che nessuna società possa ormai pilotare questo sviluppo ponendo dei limiti.

Temo che, con il diffondersi di contenuti fake, arriveremo al punto che nessuno crederà più a ciò che legge o vede: sta a chi utilizza l’IA, e non a chi la fornisce, responsabilizzarsi e garantire fiducia. Il problema è che servirà almeno una generazione per ritrovare questa fiducia: a oggi siamo ancora impreparati, anche a livello normativo, perché lo sviluppo procede troppo velocemente. Anche eventuali restrizioni imposte dagli sviluppatori, ad esempio sulla creazione di immagini di persone note o di nudo, possono essere aggirate mettendo la macchina in condizioni di eseguirle comunque.

IA e mondo del lavoro: si parla di professioni che spariranno. Cosa ne pensa?

Io non credo che l’IA vada a sostituire delle competenze. È vero che, come per ogni fase in cui c’è un progresso molto incisivo, probabilmente alcune professioni dovranno subire dei cambiamenti. Penso ad esempio agli attori e alle loro preoccupazioni: ma la stessa questione era già stata sollevata quando, diversi anni fa, uscì il film ‘Avatar”, nel quale gli attori, tramite il ricorso alla computer grafica, erano utilizzati in modo differente.

Sicuramente rimarranno le espressioni più autentiche, come il teatro: paradossalmente credo che fra, diciamo, dieci anni, l’uso dell’IA darà ancora più valore a ciò che è unico, originale, creato manualmente. L’importante è sapersi ricollocare: l’IA è uno strumento, va usata cercando di capire come può essere sfruttata, anziché remare contro.

Prendiamo la fotografia: già passando dalla pellicola al digitale, il mio modo di fotografare è cambiato, per cui adesso ciò che realizzavo in analogico o in digitale lo realizzo con Midjourney, il mio stile resta il medesimo a prescindere dal mezzo espressivo. O, ad esempio, se parliamo degli storyboard per un video, è vero che chiunque abbia un minimo di nozioni può realizzarne uno in poco tempo, ma chi ha un bagaglio di competenze alle spalle potrà crearne non uno, ma dieci al mese e tutti di un livello superiore perché basati sulle competenze acquisite. L’importante è non diventare succubi dell’Intelligenza artificiale, anche nell’uso quotidiano, anche se l’IA attira un po’ tutti perché ha un aspetto un po’ ludico: pronunci, o in questo caso scrivi una parola, e aspetti di vedere apparire qualcosa. È un po’ come una magia, ed è molto bello.