« 適合度の尤度比検定ってこれで良いの? | 最新のページに戻る | 大脳皮質の連合繊維の構造 »
■ Autismにおける注視位置
先日はCRESTの第5回領域内研究報告会に行ってきました。わたしもポスター出したり、生理研研究会の宣伝をしたり、いろんな方に挨拶したりと諸活動を。
順天堂の北澤先生の「応用行動分析による発達促進のメカニズムの解明」が興味深かったんですが、未発表の内容なのでここでは紹介を控えるとして(「このサイトについて」のところにも書きましたがこれが当サイトの方針です)、そこでKlin et.al.の仕事を紹介されてました。これが非常に重要な話だと思うので今日はこれについて。
Arch Gen Psychiatry. 2002;59:809-816. "Visual Fixation Patterns During Viewing of Naturalistic Social Situations as Predictors of Social Competence in Individuals With Autism" Ami Klin, Warren Jones, Robert Schultz, Fred Volkmar and Donald Cohen
Autismのある被験者がビデオクリップを見ているときの視線の動きを記録して解析します。これをAutismのない比較対照群の被験者と比べます。Autismのない比較対照群のばあい、人の顔が出てくる場面では視点は目と目の間あたりに来ます。一方でAutismのある被験者で非常に特徴的なのは、人の顔を見るときに、目ではなくて口のあたりを注視する時間が多いということです。
この話を聞いたときに私がはじめに思ったのは、視覚刺激のbottom-upの要素、つまりsaliencyの影響ではないか、ということでした。つまり、じつは口というのは目以上にsalientで、viewers with autismではよりsaliency-baseになっていて、cotrol groupではtop-downの要素によって目を見ているのではないかと。ついでに言えば、英米人の方が言葉を発するときに口を大きく使いますので、われわれ日本人がしゃべるときよりもmotionによるsaliencyが高い可能性があります。
ともあれ、Itti and Kochのsaliency modelとかを元にビデオクリップのsaliencyを考慮に入れて解析したらいいんではないだろうか、と考えてすこし文献を漁ってみたら、もろに該当するものを見つけました。
Social Cognitive and Affective Neuroscience 2006 1(3):194-202; "Looking you in the mouth: abnormal gaze in autism resulting from impaired top-down modulation of visual attention" Dirk Neumann, Michael L. Spezio, Joseph Piven and Ralph Adolphs
以前(20080115)にも多少言及しましたRalph Adolphsの論文です。これがドンピシャで、Itti and Kochのsaliency modelを使って視点の位置を解析してます。
デザインも凝ってて、解析も凝ってる。
刺激には"bubbled face"というのを使っていて、顔刺激(例のDolanの論文とかで使われる恐怖の顔とか4表情のパターン)を空間周波数ごとにランダムな位置でマスクをかけてやって、それをさらに足し合わせる。これではわからんと思うので元論文読んでほしいですが、要は一つの顔の写真からその要素が部分部分入ったものをgenerateするわけです。目のコントラストが高いやつとか、口だけコントラストが高いやつとかいろいろ作れるわけです。これで刺激をtrial-uniqueにすることができる。
課題としては元の4パターンの表情のどれかを弁別してもらう。このときの視点の位置を記録しておく。また、刺激ごとのsaliencyをItti-Kochモデルから計算してやる。どの位置に注視しているかをsaliencyからpredictできれば、それは視線の位置をbottom-upによる効果で説明できるということだし、predictionが悪ければ、top-downのバイアスを反映しているといえるわけです。
結果は私が予想していたのとは違っていました。目のコントラストが高いときはcontrol群でもautism群でも刺激の顔の目に視点が集まる。目の方には実は差がない。差があるのは口の方で、control群では口のコントラストが高いときに口に視点が集まる。一方で、autism群では口のコントラストが低くても口に視点が集まる。つまり、口の位置のsaliencyとはあまり依存せずに口に視点が集まる。つまり、口の位置への注視はsaliency(bottom-up)によるpredictionが悪い。というわけで、私が予想していたのとは逆で、viewer with autismでは、top-downのバイアスで口を見ている、という結論だったのです。
ただ、これだけの結果だと、たんに画像の下の方を見る傾向があるから、という説明も可能です。そこで著者は押さえとして、逆さまになった顔のときのデータを出しているのですが(これはbubbled faceではなくて元の顔画像)、このときは正立しているときよりもさらに口を注視する傾向があります。よって今指摘した可能性は排除できそうです。
あと、top-downのバイアスで目から視線をそらしているとしたら目への視点のpredictionが悪くなるはずだから、それでは説明できません。ちょっとこのへんの結果は謎なかんじ。やってることは正しいようだけどなにか見逃している気がします。
解析も凝ってて、統計はちゃんとmixed effect modelを使っているし、上記のpredictionのところではsupport vector machineを使ってます。視点の位置の密度分布も、ガウシアンカーネルでデータをスムージングではなくて、kernel density estimationを使ってます(いや、本質的には同じなんだけど、視線のデータはデータがsparseになるから、天下り的にband widthを決めるのではなくて、leave-one-outでband widthを決めてやるという意味でこちらの方が良いはず。こんなことすっかり忘れてた。これは参考になった。ちなみにMATLABでの関数はksdensity)。刺激の作り方も、元論文はあるとはいえ、Itti-Kochがfeature mapを何段階かのspatial resolutionでやっていることと対応した刺激の作り方をしているので、理にかなっています。この論文、僕はけっこう好きです。私が目指す芸風に近い。
そういえば、以前(20080115)Ralph Adolphsに言及したときに
Adolphs R, Gosselin F, Buchanan TW, Tranel D, Schyns P, Damasio AR. "A mechanism for impaired fear recognition after amygdala damage." Nature. 2005 Jan 6;433(7021):68-72.
をリストに入れておきましたが、これと今回の話はものすごく関係がありました。両側のamygdalaにdamageのある患者さんが写真の顔が恐怖の表情を浮かべていることを認知することができない、という報告があります(以前言及したNature 1994)。これがじつはその患者さんが写真の顔の目を見てないからで、目を見て答えるように実験者が指示したうえで、同じ課題をやってもらうと対照群と同じくらいの成績になった、というものです。この場合も「目を見ること」が非常に重要な要素でした。
ではまた。
- / ツイートする
- / 投稿日: 2008年03月11日
- / カテゴリー: [Saliencyと眼球運動]
- / Edit(管理者用)