Objekte durch den Nebel sehen

(von Giovanni Calcerano) Eine Gruppe von Forschern des MIT - Massachusetts Institute of Technology - hat ein System entwickelt, mit dem Bilder von im Nebel gehüllten Objekten erzeugt werden können, selbst wenn diese so dicht sind, dass das menschliche Sehen sie nicht durchdringen kann. Das gleiche System kann auch die Entfernung von Objekten in Bezug auf einen Referenzpunkt wie ein fahrendes Auto messen. Auf diese Weise soll ein integriertes Modul erhalten werden, das menschlichen Fahrern helfen kann und das auch autonomes Fahren auch bei Nebel und schlechten Sichtverhältnissen ermöglicht.

Die Forscher testeten das System mit einem kleinen Wassertank, in den ein Luftbefeuchter eingetaucht war. Der erhaltene Nebel ermöglichte das menschliche Sehen nur für 36-Zentimeter. Das System konnte stattdessen Bilder von Objekten bis zu einer Tiefe von 57 Zentimetern identifizieren.

Dieser Wert stellt sicherlich keine große Entfernung dar, aber der für die Studie erzeugte Nebel ist viel dichter als das, was ein menschlicher Fahrer normalerweise zu bewältigen hat. In der realen Welt würden typische Bedingungen eine Sichtweite von etwa 30 bis 50 Metern ermöglichen. „Ich habe mich entschlossen, die Herausforderung anzunehmen, ein System zu entwickeln, das durch Nebel hindurchsehen kann, und ich wusste, dass es keine einfache Herausforderung ist“, sagt Guy Satat, der MIT Media Lab-Forscher, der das Entwicklungsteam leitete. „Wir haben es mit realistischen Situationen zu tun, in denen der Nebel dynamisch und heterogen ist, sich ständig bewegt und verändert, mit dichteren und weniger dichten Bereichen. Andere Methoden sind nicht dafür ausgelegt, solche Szenarien zu bewältigen. “

Das neue System verwendet eine Kamera, die ultrakurze Laserlichtstöße abfeuert und die Zeit misst, die die reflektierten Strahlen benötigen, um zurückzukehren. An einem klaren Tag gibt die Zeit, die das Licht benötigt, um zum Messgerät zurückzukehren, die Entfernungen zu den Objekten, die es reflektieren, genau an. Aber der Nebel bewirkt, dass das Licht zufällig "gestreut" oder reflektiert wird. Das meiste Licht, das den Kamerasensor erreicht, wurde dann von den in der Luft befindlichen Wassertropfen reflektiert und nicht von den verschiedenen Objekten, die Fahrzeuge meiden müssen.

Das MIT-System umgeht dieses Problem mithilfe statistischer Analysen. Tatsächlich konnten die Forscher nachweisen, dass die Rückkehrzeiten des reflektierten Lichts unabhängig von der Dichte des Nebels einem statistischen Muster entsprechen, das als Gammaverteilung bekannt ist. Das System schätzt die Parameter zur Erstellung dieser Verteilungskurve und filtert damit die Nebelreflexion aus dem Lichtsignal, das den Kamerasensor erreicht.

Grundsätzlich berechnet das System für jeden der 1.024-Pixel des Sensors eine andere Verteilung. Und deshalb ist es in der Lage, Dichtevariationen zu bewältigen, die aktuelle Systeme unbrauchbar machen: Es ist tatsächlich in der Lage, sich an die Umstände anzupassen, in denen jeder Pixel eine andere Art von Nebel sieht.

"Das Tolle ist, dass alles ziemlich einfach ist", sagt Satat. „Wenn Sie die Methode analysieren, stellen Sie fest, dass sie überraschenderweise nicht sehr komplex ist. Darüber hinaus erfordert das System keine Vorkenntnisse über Nebel und seine Dichte, was dazu beiträgt, unter den breitesten Nebelbedingungen zu arbeiten. "

Satat und seine Kollegen werden ihr System auf der Internationalen Konferenz für Computational Photography im Mai in einem Dokument ausführlich beschreiben. Satat wurde in der Arbeit von seinem Doktorvater, dem Associate Professor für Medienkunst und Wissenschaften Ramesh Raskar, und von Matthew Tancik, einem Doktoranden in Elektronik und Computertechnik, begleitet.

Objekte durch den Nebel sehen