« 紀要原稿「盲視の神経現象学を目指して」を(昨年)書きました | 最新のページに戻る | 駒場学部講義2015 「意識の神経科学:「気づき」と「サリエンシー」を手がかりに」レジメアップしました »

■ 駒場講義2015/6/10の準備メモ

恒例の6月の駒場でのオムニバス講義「意識の神経科学:「気づき」と「サリエンシー」を手がかりに」6/10(水)がいよいよ近づいてきたので、講義に向けて準備しているところです。2012年から毎年、4年目となった池上高志さんの総合情報学特論IIIでの学部講義 105min * 2です。

昨年のレジメはこちらにあり:駒場講義2014「意識の神経科学を目指して」配付資料

今年もいくつか内容を補充してアップデートしたものをお送りする予定です。前日くらいにレジメをブログおよび生理研のサイトにアップロードする予定です。

今年は統合失調症についての話を盛り込んで、予測コーディングとサリエンシーとプレゼンスについて言及する予定。そんなわけで以下は準備メモです。


Predictive codingについての説明をするときってだいたいモジュール描いてトップダウンとボトムアップの絵を書く。(たとえばこういうやつ) でもそれだけだとホントのところ何をしているかわからないだろう。そこで流れているというpredictionとかprediction errorというものの実態が見えるような説明を作りたい。

結局のところ、たとえば顔モジュールから送られてくるpredictionというのは「顔があるかどうかの確率密度分布の時間的変動」でしかない。つまり、実態は発火頻度の時間変動であって、それが意味を成すのはそのニューロンの反応選択性の組で取り扱ったとき(=likelihood function)だけだ。prediction errorも同じ確率密度分布の引き算だ。

たとえばRaoの論文Vision Research 1999とか、昨今のfMRIデコーディング論文とかにあるように、表象されている絵が時々刻々と切り替わっているのを見ると、あたかも詳細な顔の絵の表象が顔モジュールにあってそれが送られてくるように誤解されるかもしれない。(追記:あとでVision Research 1999確認してみたら、pixelベースでprediction error作る絵が書かれている。誤解してたかも。この後あとで見直す予定。)

Prinzの中間レベル表象説は顔モジュールレベルにはretinotopicな情報がないことをわかっているのでこの意味での誤解はないと思うけど、じゃあ中間レベルに全部を持っているところがあるかというとそれは幻想で、ただただ分散表象されていると言わざるをえないだろう。

Ittiのbayesian surpriseを説明するときに使う「テレビの砂嵐はエントロピー最大だけどサプライズはない」って話(こちらのサイトの"What is the essence of surprise?"の項目参照)について考えてみよう。フレームごとの砂嵐の変化はpixelレベルではものすごく大きな情報量があるといえるのだけれども、人間の認識レベルではその違いに気づかずに同じ砂嵐だと思う。

だからt=1での砂嵐からt=2での砂嵐への変化は人間にとってのサプライズはないし、uncertaintyの減少(情報量の増加)も起こらない。これは、情報量というのは外界にあるものではなくて、外界とセンサーとの間の関係で決まるものなのだから当たり前。

でもそれだけの話ではなくて、網膜のセンサーのレベルでの時間空間解像度があって、それが層ごとに「処理」を経て、あるレベルでは「顔があるか否か」「建物があるか否か」といったpopulation codingでの時間空間解像度になっていく過程で情報量云々というのはそれぞれの層ごとの伝達でのことに限られる。ってやっぱあたりまえか。

とにかく、通り一遍なprediction codingの説明を神経回路網の考えで前提となっているところを正しくおさえたうえで説明するにはどうすればいいかということ。

分散表現を身も蓋もない感じで表現するならば、顔モジュールが持つ確率密度分布、色モジュールが持つ確率密度分布(+おおよその刺激位置の確率密度分布)、傾きモジュールが持つ確率密度分布(+詳細な刺激位置の確率密度分布)があって、どこにも「顔」の絵(ピクトリアルな表象)なんてない。これを強調しておきたい。

そのうえで、それが層間でどう相互作用して時間変動するかってところがprediction codingなのであって、それ以外はあくまでコネクショニストなのだから。(ただし、ここでは中間層がsparseな表象をしているように書いている。実際には投射ニューロンはスパースで、介在ニューロンはコネクショニズムの中間層的な表象をしている、って話になるだろう。)

こんなこと言い出したのは、情報量と神経回路網の話をよく整理しておかないとIITの議論についてけないというか、IITでの情報量の扱いになんか文句付けられるんではないかと考えていて、しばらく調べていたのだった。でもってここあたりが力学系的世界と情報、統計的世界の繋がり方を考えるためになんか分かってないといけないことなんだろうなあと思う。

上丘では顕著なのだけど、視覚応答に対して潜時が短くてonsetとoffsetの両方にtransientに反応するタイプのニューロンと、潜時が長めで刺激提示中にsustainedで反応するタイプのニューロンがある。ざっくりいえば前者が予測誤差で後者が予測と言えなくもない。

でもってたいがいの視覚ニューロンというのはonsetに強く反応するので、こいつらは傾きとか形とかを表象しているだけではないよな、ってのが生理学者的な実感としてある。

多層のニューラルネットワークを作って、それに視覚刺激をいろいろ提示して、脳のニューロン活動を再現するようなシナプスの重みを学習させておく。そうするとtransientな応答のあるニューロンを再現には片方向の流れだけだと無理なのでで、リカレントとかフィードバックとかの回路が必要になる。

ではこうして結果的に学習されたシナプスの重みは、predictive codingに相当することをやっているのか、それともニューロンの応答のダイナミックレンジの最適化とかその種のルール(レセプターの一次的な飽和とか伝達物質の一次的な枯渇とかニューロンのintrinsicな機構を反映した帰結)なのか、とかそういうことをあるていどリアリスティックな(マルクラムほどでなくても手に負えるくらいの)規模のニューラルネットワークを作って、検証できないだろうか。夢見すぎか。

(追記:ここで書いているような、spiking netwrok modelでpredictive codingかそれともadaptationかを検証するパラダイムはすでにDehaeneがMMNで行っていた。Wacongne, C., Changeux, J.-P. & Dehaene, S. A neuronal model of predictive coding accounting for the mismatch negativity. J Neurosci 32, 3665–3678 (2012).)

そうすれば、IITで考えているような条件の前にまず安定して自発発火が持続するようなニューラルネットワークの条件ってものがあって、(たぶんそれはquasi-self-organizing criticalityになってるだろう)、そうやって絞ったパラメータ空間のなかでこそ、はじめてIITで言うような条件を満たすパラメータ空間を探索することが可能となるのではないだろうか? 夢見すぎか?


お勧めエントリ


月別過去ログ