안개를 통해 물건보기

MIT (Massachusetts Institute of Technology)의 연구원 그룹은 사람의 시야가 통과 할 수 없을 정도로 밀도가 높더라도 안개에 가려진 물체의 이미지를 생성 할 수있는 시스템을 개발했습니다. 동일한 시스템으로 움직이는 자동차와 같은 기준점을 기준으로 물체의 거리를 측정 할 수도 있습니다. 이러한 방식으로 인간 운전자를 도울 수있는 통합 모듈을 얻고 마찬가지로 안개와 낮은 가시성 조건에서도 자율 주행이 가능하도록 할 수 있기를 바랍니다.

연구자들은 가습기가 잠겨있는 작은 수조를 사용하여 시스템을 테스트했습니다. 결과 안개는 36 센티미터 만의 인간의 시야를 허용했습니다. 이 시스템은 대신 57 센티미터의 깊이까지 물체의 이미지를 식별 할 수있었습니다.

이 값은 확실히 먼 거리를 나타내지는 않지만 연구를 위해 생성 된 안개는 운전자가 일반적으로 직면해야하는 것보다 훨씬 짙습니다. 현실 세계에서 일반적인 조건은 약 30-50 미터의 가시성을 허용합니다. "안개를 통해 볼 수있는 시스템을 개발하는 데 도전하기로 결심했고 이것이 쉬운 일이 아니라는 것을 알았습니다."개발 팀을 이끄는 MIT 미디어 랩 연구원 Guy Satat가 말합니다. “우리는 안개가 역동적이고 이질적인 현실적 상황을 다루고 있으며, 일정한 움직임과 변화 속에서 밀도가 높고 밀도가 낮은 영역을 다루고 있습니다. 다른 방법은 이러한 시나리오에 대처하도록 설계되지 않았습니다.

새로운 시스템은 매우 짧은 레이저 광을 발사하고 반사 된 광선이 반사되는 데 걸리는 시간을 측정하는 카메라를 사용합니다. 맑은 날에는 빛이 미터로 돌아 오는 데 걸리는 시간이 빛을 반사하는 물체까지의 거리를 충실하게 나타냅니다. 그러나 안개는 빛을 "산란"시키거나 무작위로 튀게합니다. 카메라 센서에 도달하는 대부분의 빛은 차량이 피해야하는 다양한 물체가 아니라 공기 중의 물방울에 의해 반사됩니다.

MIT 시스템은 통계 분석을 사용하여이 문제를 해결합니다. 실제로 연구원들은 안개의 밀도에 관계없이 반사 된 빛의 반환 시간이 감마 분포로 알려진 통계적 패턴을 따른다는 것을 입증 할 수있었습니다. 시스템은이 분포 곡선을 구성하기위한 매개 변수를 추정하고이를 사용하여 카메라 센서에 도달하는 빛 신호에서 안개 반사를 필터링합니다.

기본적으로 시스템은 각 센서의 1.024 픽셀에 대해 다른 분포를 계산합니다. 이것이 현재 시스템을 사용하기에 적합하지 않은 밀도 변화를 관리 할 수있는 이유입니다. 실제로 각 픽셀이 다른 종류의 안개를 보는 상황에 적응할 수 있습니다.

"좋은 점은 모두 매우 간단하다는 것입니다."라고 Satat는 말합니다. “방법을 분석 해보면 놀랍도록 복잡하지 않다는 것을 알게됩니다. 또한 시스템은 안개와 그 밀도에 대한 사전 지식이 필요하지 않으므로 가장 넓은 안개 조건에서 작동하는 데 도움이됩니다. "

사트 (Satat)와 그의 동료들은 5 월에 전산 사진 학회 (International Conference on Computational Photography)에서 그들의 시스템을 문서화 할 예정이다. Satat는 그의 작업에서 그의 논문 감독관, 예술 및 미디어 과학 부교수 인 Ramesh Raskar 및 전자 및 컴퓨터 공학과 대학원생 인 Matthew Tancik의 도움을 받았습니다.

안개를 통해 물건보기