Google sa migliorare le foto pixelate, come nei polizieschi

"Ingrandisci, migliora l'immagine!" sono imperativi da thriller al cinema: adesso il deep learning di Google rende il processo di ricostruzione dell'immagine quasi realtà

Luci basse, capannello di investigatori intorno al computer: "Non si vede...ingrandisci l'immagine. Ora migliorala...beccato!". La classica scena da thriller che immortala poliziotti davanti ai filmati delle telecamere di sicurezza, vista centinaia di volte, e che non si nega a nessuno – dal CSI a Un posto al sole – diventa una realtà spiegata da Google Brain.

Il dipartimento di deep learning di Google fa la magia sfruttando due livelli di reti neurali. Nella prima fase la rete cerca di mappare l'immagine sorgente di 8x8 pixel mettendola a confronto con altre ad alta risoluzione. In pratica, ridimensiona quelle immagini, portandole dalla buona definizioni a 8x8, e poi fa un confronto.

Nella seconda fase invece, la precedente rete cerca di aggiungere dettagli realistici usando un'applicazione di PixelCNN per aggiungere dettagli dell'alta risoluzione all'immagine sorgente di 8x8. Per farlo, ovviamente, sfrutta il patrimonio d'immagini di cui ha fatto incetta. Quello che succede è che cerca di riempire di pixel le parti di foto in cui riconosce forme e dettagli assimilabili agli scatti che conosce. Per completare il tutto, il lavoro delle due reti viene appaiato, ed ecco il risultato finale.

Secondo quanto riportato da ArsTechnica, l'esperimento di Google ha sortito ottimi risultati tra gli umani: il 10 per cento di coloro che si sono trovati davanti un'immagine in alta risoluzione di una celebrità contro una di quelle scalate dal sistema, le hanno confuse.

Davanti all'immagine della camera da letto (altro esempio condotto), l'immagine migliorata dal computer ha tratto in inganno il 28 per cento degli intervistati. La soglia perfetta sarebbe quella del 50 per cento, ma la strada è avviata.