昆虫は運転することができるか?―コンピュータービジョンへの昆虫バイオニクスからのヒント 修士課程2年 渠 一村

昆虫は運転することができるか?―コンピュータービジョンへの昆虫バイオニクスからのヒント 修士課程2年 渠 一村

昆虫は乗り物を運転することができるだろうか?近年、研究者は自然界に注目して、より単純な構造を持つ動物、例えば昆虫を模倣する研究が始めている。これは進化の過程で環境に適応した生物の構造、機能、プロセスやメカニズムからインスピレーションを獲得し、ロボットやコンピューター上で再現しようとするもので、バイオニクスと呼ばれる技術である。(1)

昆虫の神経系は比較的単純であり脳の構造に共通点があるため、モデル化するのは比較的簡単で、バイオニクスにとって理想的な材料である。昆虫の脳は小さいながらも複雑な行動の制御ができる(2)。本セミナーでは、昆虫の神経系の模倣に注目して、昆虫は運転することができるかどうかという視点から、昆虫バイオニクスのコンピュータービジョン領域への応用可能性を検討していく。

アリなどの昆虫は優秀なナビゲーション能力をもっている。これらの昆虫は脳内の中心複合体(central complex)を利用し、方向と速度を分析することにより、巣の相対位置と方向を示すホームベクターを記録する。この過程は経路統合(path integration , PI)システムと呼ばれ、帰巣、摂食などの行動に役に立っている。これを模倣したシステムはエサを見つけることができ、複数のエサ資源があってもある程度最優的路線を選択することができることが示された(3)。

昆虫は追跡能力も持っている。現時点で、乱雑な背景の中で移動する物体を検出・追跡することはコンピュータービジョン領域で最も挑戦的な課題の一つである。昆虫の視覚システムは、理想的な視覚追跡システムの例としてヒントを与える。トンボなど多くの飛行昆虫は、小さな獲物を検出、選択、追跡することができる。これを実現するのはSTMD(small target motion detector, STMD)と呼ばれるニューロンである(4)。STMDに基づいて、局部目標識別モデル「基礎STMD」モデルが開発され、これを搭載したロボットは低解像度または背景にノイズがある環境においでも異なる色のボール(目標)を追跡することができた(5)。

視覚位置認識(Visual Place Recognition , VPR)は、他の情報を使用せず、画像情報だけで目標位置を識別することである(6)。長時間稼働するロボットや自動運転車両にとって、VPRは困難な課題である。同じ場所でも、昼・夜、天気や季節の変化と伴に全く似ていない画像となる可能性があり、一方、異なる場所でも特定の状況では非常に似た画像となる可能性があるためである。キイロショウジョウバエ嗅覚神経回路のメカニズムに基づいて、2層の全結合層を含むFlyNetアルゴリズムFLAに時間を処理するバイオニックアルゴリズムCANN(7)を統合した、FLA+CANNモデルが提案された。既存のアルゴリズムと比較した結果、FLA+CANNは昼夜変化や低解像度の環境でも、より早い速度で高検出力を示した。(8)

昆虫バイオニクスに関する研究は、まだ比較的初期の段階であり、これらのシステムが最終応用されるまでにはしばらく時間がかかる。しかし、現在のAIには連想能力がない弱点があり、教師なし学習領域に大きなチャレンジがあるため、昆虫の脳に基づいたアルゴリズムはロボットの開発やAIのために新しい道筋を示す潜在能力を持っている。将来、昆虫(を模倣したシステム)は本当に乗り物を運転することができるようになるだろう。

REFERENCES

  1. HAEJIN BAE. EL (2019) Biological and ecological classification of biomimicry from a biology push standpoint. Ecosphere 10(11), 1-7.
  2. Webb B (2020) Robots with insect brains. SCIENCE 368, 244-245.
  3. Le Moel F, Stone T, Lihoreau M et al. (2019) The Central Complex as a Potential Substrate for Vector Based Navigation. Front Psychol 10, 690.
  4. Wiederman SD, Shoemaker PA, O’Carroll DC (2008) A model for the detection of moving targets in visual clutter inspired by insect physiology. PLoS One 3, e2784.
  5. Bagheri ZM, Cazzolato BS, Grainger S et al. (2017) An autonomous robot inspired by insect neurophysiology pursues moving features in natural environments. J Neural Eng 14, 046030.
  6. Duc Canh Le. CY (2020) City-Scale Visual Place Recognition with Deep Local Features Based on Multi-Scale Ordered VLAD Pooling. arXiv, 1-9.
  7. Wu S, Wong KY, Fung CC et al. (2016) Continuous Attractor Neural Networks: Candidate of a Canonical Model for Neural Information Representation. F1000Res 5.
  8. Chancan M, Hernandez-Nunez L, Narendra A et al. (2020) A Hybrid Compact Neural Architecture for Visual Place Recognition. IEEE Robotics and Automation Letters 5, 993-1000.