Tecnologia

Vinceranno le macchine

La loro forza è nei dati. Molti dati
27 febbraio 2016
|

Computer batte uomo: era successo la prima volta nel 1997, quando il ‘Deep Blue’ batté il campione del mondo di scacchi Garri Kasparov. Oggi non passa mese senza che una macchina non si dimostri meglio dell’uomo in qualcosa. Ci sconfiggono pure nel riconoscere dove sono state scattate le fotografie...

Ecco la sfida: se vi si desse una foto a caso di un qualsiasi posto al mondo riuscireste a identificare il luogo dove è stata scattata? E quanto ci andreste vicino? I dati statistici dicono più o meno 2’300 chilometri (nel caso di chi scrive anche di più, dopo aver clamorosamente piazzato in Canada una lunga strada argentina), ovvero circa il doppio (!) di quanto farebbe un computer. Proprio così: l’intelligenza sintetica sbaglia di circa 1’131 chilometri. Il computer non solo vince in accuratezza, ma pure nei confronti diretti: 28 volte su 50 sfide. Il progetto che ha generato questi numeri si chiama PlaNet ed è in corso di sviluppo a Google. Per i ricercatori è un’applicazione accademica dell’intelligenza artificiale, per la cronaca degli ultimi mesi è l’ennesima dimostrazione che le reti neurali artificiali stanno rapidamente palesandosi superiori al cervello umano. Ne abbiamo parlato in diverse occasioni anche da queste colonne. L’ultima a inizio mese, quando abbiamo riferito dell’algoritmo che aveva battuto i migliori giocatori di Go, una specie di dama cinese considerata uno dei giochi più complessi al mondo. Ce ne eravamo occupati pure a dicembre, analizzando le capacità degli autopiloti installati sulle automobili. Tutti esempi di come le tecnologie del ‘cervello robotico’, debitamente allenate, siano ormai in grado di fornire risultati impossibili da raggiungere per un singolo uomo. Come accade, per esempio, anche per quella start up di Palo Alto che ha allenato (a mano) una rete neurale per permetterle di distinguere la presenza di acqua di superficie nelle immagini satellitari. Risultato concreto: una mappa mondiale dei cambiamenti delle acque aggiornata ogni due settimane applicabile allo studio dei cambiamenti climatici, alla valutazione assicurativa delle innondazioni e alla predizione delle zone di siccità con conseguente distruzione e spostamento di piantagioni. «Conoscendo la quantità di acqua disponibile, chi la sta usando e come la sta usando è possibile sviluppare un buon piano per la gestione dei diritti d’impiego», ha fatto notare il direttore della start up Shwetank Kumar parlando con la rivista ‘Mit Technology Review’. Gestione che potrebbe scongiurare futuri conflitti per accaparrarsi l’oro blu.
Torniamo però alla nostra sfida e a come siamo riusciti a insegnare ai computer a batterci anche nel campo del riconoscimento dei luoghi. Una sfida apparentemente difficile sia per uomini che per macchine. Perché se è facile collocare su una carta foto di luoghi noti, come San Pietro a Roma, la Torre Eiffel a Parigi o il Big Ben a Londra, il compito si fa decisamente più complicato quando negli scatti non appaiono riferimenti chiaramente riconoscibili. La difficoltà aumenta poi in modo esponenziale se le fotografie ritraggono degli interni. Per riuscire a vincere la sfida, le persone sopperiscono all’assenza di informazioni chiare andando alla ricerca di dettagli che possano fornire indizi utili: scritte, stili di architettura, tipi di vegetazione, lato della strada su cui scorre il traffico, tipo di veicoli in circolazione sulle strade, elementi di uso comune in una specifica cultura. Il tutto filtrato attraverso l’esperienza individuale (se volete mettervi alla prova, visitate il sito www.geoguessr.com). Esperienza che le macchine non hanno, come – di per sé – non hanno nemmeno la capacità di riconoscere singoli elementi distintivi. Sarebbe quindi logico assumere che nessun computer possa battere una persona. Sbagliato: ancora una volta i ricercatori in forze a Google – azienda distintasi da qualche anno per aver puntato tra l’altro sull’intelligenza artificiale – hanno dimostrato che le macchine possono farcela, eccome. Nel caso specifico a riuscirci è stato l’ingegnere tedesco Tobias Weyand, che assieme ad alcuni colleghi ha allenato una rete neurale con 91 milioni di foto associate delle coordinate. Il primo test di funzionamento è stato condotto su un set di 2,3 milioni fotografie pubblicate sul portale specializzato Flickr. PlaNet è stato in grado di collocare il 3,6% delle foto lungo la strada dove sono state scattate, il 10,1% nella città corretta e il 28,4% nella nazione giusta.Il tutto, come detto, senza che il computer abbia potuto fare capo a quegli indizi che l’occhio e l’esperienza umana impiegano in un caso simile. Per le immagini degli interni, il sistema è stato istruito ad utilizzare anche le altre foto che appartengono allo stesso album, in modo da aumentare il numero di riferimenti visibili, mentre negli altri casi a fare la differenza è l’elevatissimo numero di immagini simili su cui il sistema può contare e che può usare come paragone. «Il vero vantaggio di PlaNet rispetto a ogni singolo essere umano – ha spiegato Weyand alla ‘Mit Technology Review’ – è che ha visto molti più posti di quelli che potrà mai vedere un qualsiasi essere umano». Conoscenza, come detto, acquisita tramite analisi di una mole di dati impressionante. Un concetto applicabile (e applicato!) un po’ a tutto: basta avere dati sufficienti. Dati, per esempio, come le nostre e-mail su Gmail o le nostre ricerche effettuate su Google. E, allora, forse non è un caso se già oggi abbiamo l’impressione che il nostro computer ci conosca meglio di nostra madre.

Come funziona

Per allenare la rete neurale del progetto PlaNet, il ricercatore tedesco Tobias Weyand ha utilizzato una base di dati composta da 126 milioni di fotografie, ognuna abbinata elettronicamente alle coordinate del luogo dove è stata scattata. Novantuno milioni di queste immagini sono stati utilizzati per insegnare al computer a riconoscere i tratti distintivi di ogni luogo, mentre i restanti 34 milioni sono stati impiegati per validare il sistema. I ricercatori hanno nel frattempo diviso la terra in 26mila quadrati di dimensioni variabili (più piccoli quando la densità di immagini del luogo risultava maggiore, più grandi quando quel territorio appariva poco fotografato). Hanno quindi collocato i 91 milioni di scatti di test all’interno dei quadrati basandosi sulle coordinate a essi associate, in modo da permettere alla macchina di autocalibrarsi (analogamente a come il nostro software di posta elettronica impara a riconoscere lo spam man mano che gli indichiamo i messaggi indesiderati). Il sistema è stato poi testato in numerosi modi, tutti con lo stesso scopo: ottenere come risposta il quadrato geografico all’interno del quale è stata verosimilmente scattata un’immagine. Il tutto partendo dalla foto di un panorama o di un ambiente interno senza indicazioni geografiche di sorta.

 

Resta connesso con la tua comunità leggendo laRegione: ora siamo anche su Whatsapp! Clicca qui e ricorda di attivare le notifiche 🔔