深層学習を用いて行動学のために開発されたツールの紹介 修士課程2年 渠 一村

深層学習を用いて行動学のために開発されたツールの紹介 修士課程2年 渠 一村

肉眼による動物行動の解析は観察者の経験、知識、ストレス、疲労度、個人的な偏見などの影響、反復的なタスクを行うときに疲れを感じるなどの原因により、異なる観察結果が出る可能性がある(1)。したがって、より客観的で自動的な行動検出システムの構築は重大な意義がある。今回のセミナーは、行動学のため開発されたAIツールを紹介していく。

まずトラッキング課題については、畳み込みニューラルネットワークを用いて目標生物を高精度で追跡できる。観測現場で複雑な背景の中の昆虫をリアルタイムで追跡することができ、トレーニング済みのYOLOモデルを利用して昆虫を分類することも可能である(2)。

一方、直接行動の検出をすることはかなり難しい。アプローチとしては教師あり学習と教師なし学習の2種類がある。

教師あり学習では、人間があらかじめ付けた正解のラベルに基づき、AIが学習を行い、データセットに対する応答値の予測を行うモデルを構築する方法である。この方法により、人間と同様の精度で行動を評価することができ、従来のビジネスソリューションよりも性能が優れることが証明された(3)。また、この技術は生産現場にも応用されている。例えば、ブタのビデオの特徴抽出により、I 3 DとTSNモデルに基づくTwo-stream畳み込みネットワークモデル(Two-stream convolutional network models)が提案され、豚のフィーディング、ライング、ウォーキング、スクラッチング、マウンティングなどの行動を短時間・高精度(平均精度98.99%)で検出することができるようになった(4)。

しかしながら、教師データを作成するためには人がラベルをつけることが必要であり、これが足かせとなっている面がある。教師なし学習では、入力データのみがあり、ペアとなる正解のデータは存在しないため、人の能力を超えた新たな可能性が提示されることもありうる。キイロショウジョウバエの体の各部を追跡する課題において、LEAPアルゴリズムは必要な教師データセットと訓練時間が極めて少ないだけではなく、肉眼で抽出できない特徴と行動を教師なし学習によって検出することができるようになった(5)。DeepFly 3 Dは、2Dの視点に限らず、複数のカメラを用いてショウジョウバエ成虫の3 D姿勢を推定することができる。DeepFly 3 Dは人の手による調整を必要せず、画像だけでハエの姿勢推定を行い、エラーを自動的に検出・修正しながら学習を繰り返して自律的に性能を向上させる(6)。また、教師なし学習の一種、自己教師あり学習を応用しているSelfeeは、ビデオから動物の行動を区別できる特徴を直接抽出することにより、行動を分析することが可能である(7)。

深層学習は、大量の行動変数を抽出、回帰、定量化、効率的に分析することができるため、行動学分野に対して新たな可能性をもたらすと期待されている(8)。今後、より多くのアルゴリズムやモデルを行動学領域に応用することにより、これまでと全く異なる視点から行動分析、仮説の検討ができるかもしれない。

REFERENCES

1. Vitor Augusto GCFCJ, José Marino-Neto (2010) Assessment of observers’ stability and reliability – a tool fora tool for evaluation of intra- and inter-concordance in animal behavioral  IEEE EMBS, 6604-6606.

2. Bjerge K, Mann HMR, Høye TT et al. (2021) Real‐time insect tracking and monitoring with computer vision and deep learning. Remote Sensing in Ecology and Conservation 8, 315-327.

3. Sturman O, von Ziegler L, Schlappi C et al. (2020) Deep learning-based behavioral analysis reaches human accuracy and is capable of outperforming commercial solutions. Neuropsychopharmacology 45, 1942-1952.

4. Zhang K, Li D, Huang J et al. (2020) Automated Video Behavior Recognition of Pigs Using Two-Stream Convolutional Networks. Sensors (Basel) 20.

5. Pereira TD, Aldarondo DE, Willmore L et al. (2019) Fast animal pose estimation using deep neural networks. Nat Methods 16, 117-125.

6. Gunel S, Rhodin H, Morales D et al. (2019) DeepFly3D, a deep learning-based approach for 3D limb and appendage tracking in tethered, adult Drosophila. Elife 8.

7. Jia Y, Li S, Guo X et al. (2022) Selfee, self-supervised features extraction of animal behaviors. Elife 11.

8. von Ziegler L, Sturman O, Bohacek J (2021) Big behavior: challenges and opportunities in a new era of deep behavior profiling. Neuropsychopharmacology 46, 33-44.