霧を通して物体を見る

(Giovanni Calceranoによる)MITの研究者グループ(マサチューセッツ工科大学)は、人間の視覚が浸透できないほど濃い場合でも、霧に包まれた物体の画像を生成できるシステムを開発しました。 同じシステムで、移動中の車などの基準点からの物体の距離を測定することもできます。 このようにして、人間のドライバーを支援し、同様に、霧や視界の悪い状況でも自律運転を可能にする統合モジュールを入手することが望まれます。

研究者は、加湿器を浸した小さな水槽を使用してシステムをテストしました。 得られた霧は、36センチメータのみの人間の視覚を可能にした。 システムは代わりに、57センチメートルの深さまで物体の画像を識別することができた。

この値は確かに大きな距離を表すものではありませんが、研究のために生成された霧は、人間のドライバーが通常直面しなければならないものよりもはるかに濃いです。 現実の世界では、一般的な条件では、約30〜50メートルの可視性が可能になります。 「霧が透けて見えるシステムの開発に挑戦することにしました。簡単な挑戦ではないことはわかっていました」と、開発チームを率いたMIT MediaLabの研究者であるGuySatat氏は言います。 「私たちは、霧が動的で不均一で、絶え間ない動きと変化があり、密度の高い領域と密度の低い領域がある現実的な状況に対処しています。 他の方法は、そのようなシナリオに対処するようには設計されていません」。

新しいシステムは、レーザー光の超短バーストを発射し、反射光線が戻るのにかかる時間を測定するカメラを使用しています。 晴れた日には、光がメーターに戻るまでの時間は、それを反射する物体までの距離を忠実に示します。 しかし、霧によって光がランダムに「散乱」または跳ね返ります。 カメラセンサーに到達する光のほとんどは、車両が避けなければならないさまざまな物体ではなく、空中の水滴によって反射されます。

MITシステムは、統計分析を使用してこの問題を回避します。 実際、研究者たちは、霧の密度に関係なく、反射光の戻り時間がガンマ分布として知られる統計パターンに準拠していることを実証することができました。 システムは、この分布曲線を作成するためのパラメーターを推定し、それを使用して、カメラセンサーに到達する光信号からの霧の反射をフィルタリングします。

基本的に、システムはセンサーの1.024ピクセルごとに異なる分布を計算します。 これは、現在のシステムを無用にするような濃度のばらつきを管理することができるからです。実際には、各ピクセルが異なる種類のフォグを見ている状況に適応することができます。

「素晴らしいことは、それがすべて非常に単純なことです」とSatatは言います。 「この方法を分析すると、驚くほど複雑ではないことがわかります。 さらに、このシステムは霧とその密度に関する事前の知識を必要としないため、最も広い霧の状態での作業に役立ちます。」

サタットと彼の同僚は、5月に開催された「コンピュータ写真に関する国際会議」の文書で、彼らのシステムを詳細に説明する予定です。 Satatは、彼の論文監督者であるRamesh Raskarのメディア芸術科学准教授と、電子工学とコンピューター工学の大学院生であるMatthew Tancikに参加しました。

霧を通して物体を見る