生物の色彩パターン距離の評価にdeep featuresを用いる意義 博士1年 網野 海

生物の色彩パターン距離の評価にdeep featuresを用いる意義 博士1年 網野 海

 生物は多様な色彩・模様を示すが、これらは天敵への警告や擬態, 温度調節, 配偶者認識など様々な生態学的要因によって形作られてきた。生物の外見における種間距離を定量的に評価する手法は、色彩パターンの進化プロセスを理解する上で重要な役割を担うだろう。

 深層学習は、画像分類タスクにおいて極めて高い精度を示すことで注目を浴びる機械学習の一手法であるが、近年、画像間の類似度評価においても威力を発揮することが分かってきた。代表的な画像間距離の指標であるLPIPS(Learned Perceptual Image Patch Similarity)は、入力画像に対して、AlexNetやVGGといった学習済み画像分類ネットワークの畳み込み層が出力する特徴量(deep features)を元に算出される [1]。ピクセルの輝度やコントラストのみに注目した従来の手法に比べて、深層学習に基づいた特徴抽出を用いるLPIPSはより精度が高いことが分かっている。

 LPIPSは生物の色彩パターンの定量化においても高い汎用性を示す。Whamら(2019)はミュラー型擬態を行うドクチョウやアリバチといった様々な生物の色彩パターン距離をLPIPSによって評価した [2]。ドクチョウの標本画像を用いた解析では、系統的に離れた2種でも同所的に棲息する亜種同士では形質間距離は最も近くに配置されるパターンを見出した。これは、標本画像をグリッド状に分割し、隣接するグリッド間の色彩の違いを元に翅模様の種間距離を定量化した先行研究 [3]の結果を再現していた。さらに、アリバチの標本画像からLPIPSにより形質間距離を求めたところ [2]、先行研究 [4]において各部位の色彩や模様など14の指標を元に推定された8つの擬態環(mimicry ring)に属する種が混ざり合うことなくクラスタリングされた。すなわち従来の形態解析は比較的煩雑かつ主観的で統計解析に熟達した者でなければ扱えず、しかも対象とする生物に合わせて別々の手法を選択する必要があったが、深層学習に基づくシンプルで客観的な基準一つでそれらと同程度の表現ができることが分かったため、今後様々な比較解析に普及していくことが期待される。

 さらに、深層学習による類似度評価は質的にもこれまでの手法と一線を画していることが分かる事例を紹介する。Kubiliusら(2016)は、ピクセル比(縦長, 横長, 正方形)と知覚的形状(とげ状, 滑らか, キューブ状)の組み合わせが異なる9種類の図形をGoogLeNetに入力したところ、ピクセル比よりも知覚的形状に基づいてクラスタリングされた [5]。また、Jozwikら(2017)はAlexNetやVGG16の全結合層からの出力を元に、人間や動物, 果物, 非生物など様々なカラー画像の類似度を算出し、同じテストをヒトを対象に行ったところ両者は高い一致率を示したうえ、深層学習モデルの結果は色や輪郭, 質感を元にした場合よりも高い精度を示した [6]。これらの結果から、深層学習に基づく特徴抽出を用いることで、より人間の知覚パターンに近い判断が出来ることが伺える。

 こうした深層学習の強みは、生物学においてどのように活きてくるだろうか?Ezrayら(2019)はミュラー型擬態を行うマルハナバチの色彩パターンをLPIPSによって評価したところ、北米に分布する集団の色彩パターンは東西方向に連続的な変化を示していることが明らかとなった [7]。一方、従来の形態解析を用いた先行研究では、色彩が明確に異なる複数の集団が分かれて分布しているとされている [8]。ミュラー型擬態は見た目が似ている個体が多ければ多いほど対捕食者効果が上がるという性質上、不完全な擬態でも効果がある場合には前者の結果が示す分布パターンの方が適応的なのかもしれない。

 このように、deep featuresを用いた形質間距離の評価は精度や汎用性が高いだけでなく、これまで人間の目で感じられていても言語化できていなかった、生物学的に重要な知見を提供するポテンシャルを有していると考えられる。

References

[1] Zhang R, Isola R, Efros AA, Shechtman E and Wang O. (2018) The unreasonable effectiveness of deep features as a perceptual metric. In Conference on Computer Vision and Pattern Recognition, pp. 586–595

[2] Wham DC, Ezray B and Hines HM. (2019) Measuring perceptual distance of organismal color pattern using the features of deep neural networks. bioRxiv https://www.biorxiv.org/content/10.1101/736306v1

[3] Endler JA. (2012) A framework for analysing colour pattern geometry: adjacent colours. Biol. J. Linn. Soc. 107, 233–253

[4] Wilson JS, Jahner JP, Forister ML, Sheehan ES, Williams KA and Pitts, JP. (2015) North American velvet ants form one of the world’s largest known Müllerian mimicry complexes. Curr. Biol. 25, R704-R706

[5] Kubilius J, Bracci S and Op de Beeck HP. (2016) Deep neural networks as a computational model for human shape sensitivity. PLoS Comput. Biol. 12, e1004896

[6] Jozwik KM, Kriegeskorte N, Storrs KR and Mur M. (2017) Deep convolutional neural networks outperform feature-based but not categorical models in explaining object similarity judgments. Front. Psychol. 8, 1726

[7] Ezray BD, Wham DC, Hill CE and Hines HM. (2019) Unsupervised machine learning reveals mimicry complexes in bumblebees occur along a perceptual continuum. Proc. R. Soc. B 286, 20191501

[8] Williams P. (2007) The distribution of bumblebee colour patterns worldwide: possible significance for thermoregulation, crypsis, and warning mimicry. Biol. J. Linn. Soc. 92, 97–118