« Pooneil Radar 2009 | 最新のページに戻る | What is the best way to access to the internet in US? »

■ Single-unit studyにGLMMは必要ないか?

前のエントリにVikingさんからコメントがありましたので、それへのレスポンスからいろいろ書いてみました。

Single-unit studyにはGLMMは必要ないだろうか? まず現状として、だれかが必要だと主張しているわけでもない。JNPのガイドラインにもsubjectのnを増やしましょうなんてのはない。でも、いままでは問題とされてこなかったけど本当は問題だと思うんです。このあいだもいくつか書きましたし、二頭目でconsistentなデータが取れないで苦労した、なんてのはよく聞く話です。Subjectをrandom effectにできないのなら、他のsubjectに対するinferenceはできないのだから、そこで得られた知見はどちらかというと症例報告に近いということになります。(そのわりにn=1ではダメだってあたりが、社会的合意によって決まっていて、統計的裏付けがあるわけではない。) だからわたしが書いているのは、こういう問題を統計モデルとしてexplicitに扱いましょうよ、という問題提起だと思っていただければと思います。

どんな実験系もそれぞれに制約があります。fMRIだったらシグナルが非常に間接的なものであることだし、nhp single-unitだったら被験者が少ないことだし、multi-unitでのcoincedence detectionだったら記録時間が短いことだし。そのうえでみんなギリギリ言えることを主張するわけです。(high-quality journalになるほど無茶する必要が出てくる。)

でも統計的モデル化する際には形式上はみんな同じなんで、そういった実験側の制約を補償することは出来ないわけです。つまり、どんなにたくさんのneuronから記録しても、subject数=2であるならsubjectによる分散を推定することができないので(*)他の個体へのinferenceはいつまで経っても出来ません。「お前がそう思うんならそうなんだろう、お前ん中ではな」としか言いようがない。

(* GLMMのテキストをいくつか読んで理解したかぎりだと、subjectをrandom effectとしてとった場合には、モデルを作るときにはエラーの構造が変わるだけで、fixed effectのサイズの推定には影響しない。とりあえずmixed modelにするだけならsubjectのn=2でもできる。fixed effectのeffect sizeの推定値が得られると、その値を入れてやってMCMCとかやることでrandom effectのsize(=分散)の推定が出来る(経験ベイズ的な手法)。たぶんこの過程で、subjectのn=2だと正確な推定が不可能になるはず。subjectのnが少ないということの問題はこんなかんじで出てくる。)

以前のエントリで、せめてfixed effectでsubjectのinteractionが出ないことを示すべきだ、みたいなことを念頭に置いて書いたことがあります。でもこれだとSubject 1からcell 100個でsubject 2からcell 10個というデータだったとしてもバレません。

以前たぶんVikingさんのところにコメントしたけど消えちゃったんじゃないかと思いますけど、single-unit studyでは同じパラダイムでconsistentな論文が続いて出るかどうかでそういった分を担保しているように思うと書いたことがありました(*)。「階層ベイズをもっと体系的に組み込んで、実験系全体をモデル化するようなこと」って書いたときにイメージしていたのはそういうことで、メタアナリシスみたいに、複数の関連する実験結果をどんどん拘束条件に持ち込んでいって、そういった社会的合意みたいに済まされていたものをもっとexplicitにモデル化したらいいんじゃないか、なんて思うんです。

(* これはもちろんどの分野でも当てはまるのだろうけど、single-unitではかなりcriticalでないだろうか。)

それからもう一つ前提が抜けていましたが、いま言ったようなことはこれからの実験データのオープン化、データベース化、共有化という流れに向けて重要になるだろうと思ってます。これは2頭でnhpでsingle-unitというやり方自体を変えていった方がよいのではないかという問題提起も含むことになります。今書いていることの射程距離はそのへんです。

コメントする (4)
# viking

ご丁寧なお返事下さいましてありがとうございます。

ちょっと長いコメントになりそうですので、僕のblogでエントリを立てた上でTBをお送りしようかと思います。よろしくお願いいたします。

# viking

もしかしてTB失敗したかもしれませんので、リンクを貼らせていただきます。よろしくお願いいたします。

http://www.mumumu.org/~viking/blog-wp/?p=3547

# やまだ

こんにちは。GLMMの必要性は前から気になっていましたが、以下の様なデータではその有効性がかなり発揮されるのではないでしょうか?

1.1頭のサルから多点同時記録(脳領域2カ所以上、一カ所での記録細胞数が30以上くらい)
2.100試行くらい課題をこなして、実験終了
3.ノイズの多い、フリームービングな状況
4.以上の条件でサル4頭くらいかそれ以上のサンプル

多点同時記録データで、かつ自然環境下に近い状況でタスクして情報量が増えてる場合、GLMMは有効だと思います。この状況で実験してる方はまだ少ないですが、ラットなども有効なんじゃないか?と思います。旧来のシングルユニットでどれだけGLMMが必要なのかといわれれば、その有効性がイマイチ良くわからないというのが正直な感想です。

# やまだ

すみません。上記の補足です。旧来のシングルユニットでどれだけGLMMが必要なのかイマイチ良くわからないといったのは、その”有効性”についてです。生態学であれだけ盛んにGLMMが用いられているのは、手法として有効だからだと思います。”統計モデルとしてexplicitに扱いましょう”という部分に関しては、その通りだと思います。ただ、メリットが薄いと難しい統計モデルを用いる動機はあがらないと感じています。従来のシングルユニットにGLMMを用いることで、結果はどうより良くなるんだろう?というのが漠然とした疑問です。
 報酬系をやってると個体差があるのは当然で、その個体差を含めて評価するのかがむしろ重要だと思います。でも、N=2,3くらいではなかなか難しいですね。。。全脳の活動を見ているわけでもないですし。おじゃましました。


お勧めエントリ


月別過去ログ