Vedere gli oggetti attraverso la nebbia

(di Giovanni Calcerano) Un gruppo di ricercatori del MIT – Massachusetts Institute of Technology – ha sviluppato un sistema in grado di produrre immagini di oggetti avvolti dalla nebbia anche quando essa sia così densa che la visione umana non può penetrarla. Lo stesso sistema è anche in grado di misurare la distanza degli oggetti rispetto ad un punto di riferimento quale ad esempio un automobile in movimento. In questo modo si spera di ottenere un modulo integrato che permetta di aiutare i guidatori umani e che, altrettanto, consenta la guida autonoma anche in condizioni di nebbia e bassa visibilità.

I ricercatori hanno testato il sistema utilizzando un piccolo serbatoio di acqua nel quale è stato immerso un umidificatore. La nebbia ottenuta permetteva la visione umana per soli 36 centimetri. Il sistema è stato invece in grado di identificare le immagini di oggetti fino ad una profondità di 57 centimetri.

Tale valore non rappresenta sicuramente una grande distanza, ma la nebbia prodotta per lo studio è molto più densa di quella che un autista umano deve solitamente affrontare; nel mondo reale, le condizioni tipiche consentirebbero di arrivare ad una visibilità di circa 30-50 metri. “Ho deciso di accettare la sfida di sviluppare un sistema in grado di vedere attraverso la nebbia, e sapevo che non era una sfida semplice”, afferma Guy Satat, il ricercatore del MIT Media Lab che ha guidato il team di sviluppo. “Abbiamo a che fare con situazioni realistiche, in cui la nebbia è dinamica ed eterogenea, in costante movimento e cambiamento, con zone più dense e meno dense. Altri metodi non sono progettati per far fronte a scenari di questo tipo”.

Il nuovo sistema utilizza una fotocamera che spara raffiche ultracorte di luce laser e misura il tempo necessario per il ritorno dei raggi riflessi. In una giornata limpida, il tempo impiegato dalla luce per tornare al misuratore indica fedelmente le distanze degli oggetti che la riflettono. Ma la nebbia fa sì che la luce “si disperda” o rimbalzi in modo casuale. La maggior parte della luce che raggiunge il sensore della fotocamera sarà quindi stata riflessa dalle goccioline d’acqua trasportate dall’aria e non dai vari oggetti che i veicoli devono evitare.

Il sistema del MIT aggira questo problema utilizzando l’analisi statistica. I ricercatori hanno infatti potuto dimostrare che, a prescindere dalla densità della nebbia, i tempi di ritorno della luce riflessa aderiscono a uno schema statistico noto come Gamma Distribution. Il sistema stima i parametri per costruire questa curva di distribuzione e la utilizza per filtrare il riflesso della nebbia dal segnale luminoso che raggiunge il sensore della telecamera.

Fondamentalmente, il sistema calcola una diversa distribuzione per ciascuno dei 1.024 pixel del sensore. Ed ecco perché è in grado di gestire le variazioni della densità che rendono invece poco utilizzabili i sistemi attuali: è infatti capace di adattarsi a quelle circostanze in cui ogni pixel vede un diverso tipo di nebbia.

“La cosa bella è che è tutto piuttosto semplice”, afferma Satat. “Se si analizza il metodo, ci si rende conto che è sorprendentemente poco complesso. Inoltre il sistema non necessita di alcuna conoscenza preliminare sulla nebbia e sulla sua densità, il che aiuta a lavorare nelle più vaste condizioni di nebbia.”

Satat e i suoi colleghi descriveranno nel dettaglio il loro sistema in un documento alla Conferenza internazionale sulla fotografia computazionale a maggio. Satat è stato affiancato, nel lavoro, dal suo relatore di tesi, il professore associato di arti e scienze dei media Ramesh Raskar, e da Matthew Tancik, uno studente laureato in ingegneria elettronica e informatica.

Vedere gli oggetti attraverso la nebbia