ニュース

MIT、濃霧でも自動運転を可能にするToFカメラ技術

~霧の中でもLIDARで物体認識/深度計測を実現

Seeing through fog

 米マサチューセッツ工科大学(MIT)は20日、霧の中でも物体を認識できる画像処理技術を発表した。

 自動運転車の自律型車両ナビゲーションシステムにとって、霧のような視界の悪い気候条件は、人間と同様に周辺の認識精度が低下するため、実現に向けた障害の1つとなっている。

 開発されたシステムは、深度の測定に、対象に光を照射して、それが反射して戻ってくるまでの時間を測定することで深度を計測するToF(Time of Flight)方式のカメラを使用している。自動運転車で多く採用されている「LIDAR」も、赤外線レーザーパルスを照射するToFの1つとなる。

 ToF方式では、晴天時には物体にレーザーが反射して戻ってくる時間が正確なため、高速かつ正確な測距が可能だが、霧の場合には光が散乱してしまったり、ランダムに反射してしまったりするという問題があり、加えて、雨天時にはレーザーの大半が水滴に反射してしまったり、障害物から反射した光も水滴に寄って直接届かず、晴天時と異なるタイミングでセンサーに帰ってくるという問題があるという。

 研究者らは、霧の反射光の生成パターンが霧の密度に応じて変化しており、反射光の到着時間がガンマ分布として知られる統計的パターンに従っていることを発見し、その場でガンマ分布の変数の値を推定し、得られた分布を用いて、ToFカメラのセンサーに返ってきた信号から、霧の反射パターンを省く仕組みをシステムに組み込むことで、上記の問題を回避しているという。

 このシステムのキモは、センサー内の1,024ピクセルごとに、異なるガンマ分布を計算できる点で、これによって既存の技術の弱点となっていた時間経過などによる「霧の濃度の変化」に対応している。

 MITの研究者らによる、奥行き1mの箱の中で行なわれた試験では、人間には36cmまでしか物体を視認できない濃霧において、システムは物体を認識し、57cmまでの深度を測定できたという。

 実際に自動車が遭遇する霧は、人間の視界を30~50m程度までに制限する程度の密度であるため、このシステムを用いれば、視界外の遠距離の物体を認識できるようになる。

 研究を率いたGuy Satat氏は、開発した技術について「高密度かつ動的で、不均質な霧で使えるシステム」であると説明し、競合技術と比較して現実の霧でも通用する技術である点をアピールしている。

研究を率いたMITの大学院生 Guy Satat氏Image: Melanie Gonick/MIT
開発されたシステムは、物体の画像を分解し、57cmまでの深度を測定できた