« 生理研研究会 予習シリーズ:ラットの因果推論と連合学習理論(4) | 最新のページに戻る | 連合学習理論の記述のレベルってどこだ? »

■ 生理研研究会 予習シリーズ:ラットの因果推論と連合学習理論(5)

さて予習シリーズの最終回です。

長くなったので、第一回から最終回までつなげたPDFを作りました。ご利用ください:pdf (11MB)

[統計的因果推論]

前回の統計的因果推論の話をまとめると、もし因果モデルの知識を「観察」によって獲得しているならば、observe条件 (「介入なし」)とintervene条件(「介入あり」)とで、common-causeモデルの場合の下流のノード間の共変の程度を正確に予測できる。

ヒト心理学実験(Waldmann et al 2005)ではこれは成り立ち、赤ちゃんでも成り立つ(Gopnik et al 2004)。この論理でもってラットの因果推論を検証したのがScience 2006だった。

でも、ベイズネットのモデルの前提として、たとえばcommon-causeのモデルの場合、下流の二つのノードであるT(トーン)とF(砂糖水)では、P(T)とP(F)が独立でなくてはいけない。つまり、P(T, F) = P(T) * P(F) でないといけない。 ところがラットの実験ではすべての実験条件において、独立性の条件を満たしていない。

たとえば、Science 2006 exp1では、L->T, L->Fをinterleaveして与えている(前々回の記事を参照)。これだとP(T=1 | L=1)=0.5, P(F=1 | L=1)=0.5としたうえで、TとFとはけっして同時には出ない。つまり、

P(T=1, F=1) = 0
P(T=1) * P(F=1) = 1

となっていて、独立性の条件を満たしていない。それどころか、TとFは逆相関している。つまり、P(F=0 | T=1)=1。

つまり、もしラットが合理的に因果推測を行っているならば、observation条件ではここで想定しているモデルでの予測とは逆に、テスト試行でのTに対するnose poke (CR)は低くなるはずだ。なぜなら、Tが出た時はぜったいFは出ないのだから。

また、Science 2006 exp2a,2b および Leising et al 2008 ではトレーニング試行を二つに分けて、L->T を教えてからそのあとで L->F を与えて、それからtestを行っている。これを確率で表せば、exp1と同じことになる。つまり、因果ベイズネットという認知的モデルではこれらの実験のラットの行動をうまく説明できない。

[Minimal Rational Model]

以上の疑問を抱いてこの論文を読んだ後で、Penn and Povinelli 2007が同じことを指摘していることに気付いた。さらに関連論文を読み進めてゆくと、Waldmann et al 2008で著者は、ラットの結果がベイズネット理論よりもBuehner and Cheng (2005)の"single-effect learning" modelでよりよく説明できる、と主張している。つまり、ラットについてはベイズネット理論を引っ込めた。

"Single-effect learning" modelとはどんなものかというと、連合学習理論で使われるpower-PC theoryの延長上にある理論で、ラットはcommon-causeのモデル全体を持っているのではなくて、L->T, L->Fというべつべつのリンクのモデルを持っている。そしてラットは、observe条件とintervene条件とでL->Tという因果の強さの評価を変えている。これがScience 2006で見られたdiscounting effectであると。(この部分Waldmann et al 2008にアクセスできなかったので、Penn and Povinelli 2009に基づいて書いてる。)

これはけっきょく、わたしが第一回目のまとめのときに書いた以下のこととほぼ同じだろう。

(ラットは)「トーン(純音)が鳴る」を説明する因果モデルとして

  • 「ライトが点灯する」->「トーン(純音)が鳴る」
  • 「レバーを押す」->「トーン(純音)が鳴る」

のうち後者を選択した。ゆえに前者を選択した場合に起こる鼻をつっこむ行動が減った。つまり「トーン(純音)が鳴る」からその原因を推測した

けっきょくベイズネットまで持ってこなくても、連合学習理論そのものでは説明できないということは堅い結果なので、適切なレベルの主張にしたということのようだ。(Waldmann et al 2008ではminimal rational modelとタイトルに書いている。) つまるところ話が反転していて、ふたたび連合学習理論による説明に大きく依存したモデルとなったのだ。

そこで一つ考えたのだけれども、Science 2006 exp2a,b以降の実験では、トレーニング試行でまずL->Tのブロックがあってからその後でL->Fをやっている。これはsensory preconditioningと言われる処理だ。これは推測だけど、もし実験操作の順番を変えて、L->F を与えてから L->T を教えたとしたらたぶんまた違った結果が得られることだろう。(予想するに、chainとcommonとで差が付かなくなる)

そういう意味でも、たぶんこの実験パラダイムのラットの結果を説明するためには連合学習理論が必要なのだろう。

[ベイズネット救済の道は?]

とはいえ、ベイズネットを引っ込める必要があるのだろうか? まあ、このへんを進めてゆくのはおそらくはAaron Blaisdellのほうの仕事なんだろうと思うけど、まだベイズネットの方向でできる気はする。

前回も指摘したように、独立性の前提を満たすような実験デザインでやればいいんじゃないの?とまあこういう実験やったことのない人間としては思った。前回書いたように、トレーニング試行を L->TF (TとFが同時に出る)というふうにしてやれば、独立性の条件も満たされるわけだし。

この疑問をtwitterで書いたところ、澤さんからお返事をいただいた。

  • 「なんでもっとかんたんにP(T|L)=1, P(F|L)=1とはできないんだろう? それがいちばんcommon cause modelを素直に表現した状態だと思うのだけれども…」(pooneil)
  • 「… P(T|L)=1, P(F|L)=1にするとエサ提示がトーンを隠蔽してしまってLight-Toneの学習が不完全になると思われます…」(kosukesa)
  • 「…もちろん実験条件としてあってもいいとは思いますが,結果の解釈がクリアになるわけではないと思われます…」(kosukesa)

なるほど、ではovershadowingしすぎないように条件を変えられないだろうか? たとえば、L->TF, L->T, L->F, Lの四条件をinterleaveしてやれば、P(F=1 | L=1) = 0.5, P(T=1 | L=1) = 0.5となり、独立性の条件も満たされる。(まあ、充分にトレーニングをするのが難しそうだが。)

あと、今回のようなdeterministicなものでなくして確率振ってもいいし(P(F | L)=1ではなくて0.5とか)。Waldmann 2005が確率的であったことを考えると、たぶんいろいろやった結果ラットでできる限界はdeterministicなバージョンまでだったんだろうと予測するけど。

まあこのへんはラットではなくてサルかもしれない。サルだとovertrainしたうえで、probe testではなくて繰り返し記録しないといけないのが難点だけど、「思考」「推論」に関わるニューロン活動記録する方向でこの実験パラダイムを活用できないだろうか? そんなことを考えた。

あと逆に、ベイズネットの方をなんらか拡張して、今回の条件のデータと整合性のあるようにできないだろうか。前回ちょろっと書いたけど、P(T)とP(F)が独立でないということは、common-causeのモデルではないってことなので、すべてのjoint probabilityから実験データを正しく反映した本当のグラフ構造を作ることができる。そのうえでgraph surgery (介入による因果グラフ構造の変化)をやればいいんではないだろうか。そのうえで、L->F, L->Tの順番の違いとかはを因果モデル形成の際の履歴の効果として取り込む。このくらいでなんとかならないだろうか。

赤ちゃんでできるのにラットでできないのはなんか認知能力の限界があるわけで、それは「因果推論のモジュールがあるかないか」みたいなブラックボックスでなくて、もっと記憶容量なり刺激般化能力なり、もっと具体的なものにできないだろうか。

[結論]

Science 2006の結果はこれまでの連合学習理論では説明できないような認知的な現象を見つけたということで、この部分に関しては非常に堅い。しかし、では因果推論に連合学習理論はいらないのかというとそういう話ではない。連合学習理論が持っている実験デザインと行動説明能力は強力なので、認知的な説明をするときにもそれらを入れていかないとトップダウン的で説明能力の低いものとなってしまうようだ。それが今回の一連の話の後半で出てきた話。

連合学習理論と認知的理論との関係はどうなのかということを知りたくて、その一例としてこの論文を読んだという側面もある。なるほど簡単にすっぱり割切れるわけではないことがよく分かった。

さてこのへんからが本当に議論をしたいところだ。神経科学が思考のようなアクティブな現象を解明するとしたら、擬人化を完全に排除した心理モデルを持つ必要があって、それはどのようなものだろうか、ということについて議論したい。生理研研究会だけではなく、その後ででも。

参加者の皆さんがこのブログを読んでこのへんの分野の前提を共有してくれたら深いところまで話できないかなと期待している。

というわけでScience 2006を読み込むのが目的だったのだけれども、かなり長い話となった。話は長いが、無駄ははしょって、でも必要な部分は省略せずに書いたつもり。

予習シリーズはこれで終了です。それでは岡崎で会いましょう。

長くなったので、第一回から最終回までつなげたPDFを作りました。ご利用ください:pdf (11MB)

[参考文献]

  • Buehner, M. J. & Cheng, P. W. (2005). Causal Learning. In R. Morrison & K. J. Holyoak (Eds.) Handbook of Thinking and Reasoning. Cambridge University Press, pp143-168.
  • Penn, D. & Povinelli, D.J. (2007). Causal cognition in human and nonhuman animals: A comparative, critical review.(pdf) Annual Review of Psychology, 58, 97-118.
  • Penn, D. C. and D. J. Povinelli (2009). On Becoming Approximately Rational: The Relational Reinterpretation Hypothesis.(pdf) Rational Animals, Irrational Humans. S. Watanabe, A. P. Blaisdell and L. Huber. Tokyo, Keio University Press.
  • Waldmann, M. R., Cheng, P. W., Hagmayer, Y., & Blaisdell, A. P. (2008). Causal learning in rats and humans: a minimal rational model. In N. Chater, & M. Oaksford (Eds.), The probabilistic mind. Prospects for Bayesian Cognitive Science (pp. 453-484). Oxford: University Press. (これはpdfはないが、google booksで部分的に読める。)

お勧めエントリ


月別過去ログ