セミナー「アクティブビジョンと フリストン自由エネルギー原理」スライドをアップロードしました

2017年1月11日に北大文学部の田口茂さんのところで講演を行いました。タイトルは「アクティブビジョンとフリストン自由エネルギー原理」です。田口さんのラボでの告知記事

Karl Fristonが提唱している「自由エネルギー原理(free-energy principle = FEP)」について、北大文学部の聴衆を対象にして、物理学や機械学習の知識の前提を抜きにして説明を行ったものです。FEPの意識研究への応用に向けて、Karl FristonのFEPとAlva Noeのエナクション説の近接性について強調したものとなっております。実際のスライドからいくらか手直ししており、発表時よりもより正確に、ちょっと詳しくなっております。

そういうわけで、このスライドの想定読者は、神経科学や意識研究に興味があって、「自由エネルギー原理」って話には聞いたことあるけど難しくてわからんなー、という方です。まずはこれを読んでみるとイメージは掴めるのではないかと思います。

「アクティブビジョンと フリストン自由エネルギー原理」@北大20170111 from Masatoshi Yoshida

なるたけコンパクトに説明するために、スタンダードな説明から大胆に重要なパーツを削っております。削っている点についてまとめておきます:

  • Predictive codingにおいては脳の中で複数の層で段階的に予測誤差が処理されてゆきます(hierarchical message passing)。今回は脳に層はありません。網膜とひとかたまりの脳だけです。
  • ベイズの式も出てきません。変分ベイズしません。ラプラス近似しません。
  • KL divergenceもsurprisal (-ln p)も出てきません。自由エネルギーの式は何の関数なのか(b:神経活動, s:感覚入力)だけを示します。

Active inferenceを嘘つかずに説明するためにはどうしても条件付き確率だけは省略できませんでした。本当はもっと簡単にしたかったのだけど、いちおう高校までの知識の範囲で読めるようにはなっているはずです。

このスライドを読んで興味を持ったら、機械学習(変分ベイズ)や物理学(解析力学や熱力学)を勉強してさらに先に進むとよいかと思います。

そのうちもう一段先の説明のスライドも作ってみようと思います。つまり、KL divergenceやsurprisalを手計算できるようなtoy modelを使った説明をしてみようかと考えてます。でもいつになるかわからんので、今回はこのあたりでアップロードします。

詳しい方はぜひ間違いを見つけたら教えて下さい。内容をアップデートしてゆきますので。

このスライドの目的は、機械学習における生成モデルと脳でやっていることの近似性を強調する点にはありません。それはまさにフリストンがやっていることそのものなのですが。どちらかというとこのスライドは、意識研究においてFEPを応用するために、agentの内部からアクセスできるものは何か、という点からFEPを批判的に捉え直したいという動機のもとで作成しております。


いくつか追記:スライド後半で使っている蝶と蛾の話は、以前から駒場講義で使っていたものなのだけど今回かなりアップデートした。知ってる人には当たり前なのかもしれないけど、私はこのくらい具体的な説明がないとわからないし、そしてどこにもこういう説明がなかったので、自分で作らざるを得なかった。

一方で前半のCNNニュースと砂嵐の話もずっと使ってきたんだけど、これは本来ベイジアンサプライズを説明するための題材なので、predictive codingの説明に最適化されているわけではない。蝶と蛾の話だけで統一的に説明したほうが、アクティブビジョンの流れにも沿っていて良かったのかも。

スライドを作っている時点では、田口さんの「経験は「当てはずれ」に開かれている」の話と繋げてみたいという動機があったのだけど、「無意識的推論」の説明としてはこのあたりもっとスッキリさせることができたように思う。あとでの田口さんとの議論には役に立ったけど。

あと、なるたけ同じ概念を別の言葉で言い表さないように気を付けていて、たとえば、無意識的推論とpredictive codingでは前者だけ使った。でもrecognition density q(x|b)に関してだけはちゃんと統一できてない。あるときは「推定」だし、またあるときはbeliefだし、モデルって言ってるところもあるし。しかしフリストン論文でも自由自在に使ってる様子だしなあ。

セミナー後に質問を受けて気づいたけど、「pとqが一致する」って書くのはKL divergenceを知っていればすぐに通じるけど、今回の説明だと通じない。ちゃんと「2つのヒストグラムがまったく同じ分布をしていること」が予測誤差がゼロであることなのだと明確に説明するべきだった。

あと、かなり字が小さいスライドがあるけど、実際のスライドでは24ポイントより小さい文字はreferenceの表示(18ポイント)以外では使っていない。本番では喋りで処理している部分を、slideshareに上げる際にちゃんと読めるように編集した次第。(<-言い訳がまC)


総説「視覚サリエンスは脳のどこで、どのように計算されるか?」を出版しました

昨年書いていた総説論文が英国王立協会フィロソフィカル・トランザクションズ誌でオンラインアクセス可能になりました。オープンアクセスですので購読していなくても読むことができます。

Review article: "How is visual salience computed in the brain? Insights from behaviour, neurobiology and modelling." Richard Veale, Ziad M. Hafed, Masatoshi Yoshida Phil. Trans. R. Soc. B 2017 372 20160113; DOI: 10.1098/rstb.2016.0113. Published 2 January 2017

(本総説はテーマ特集号 'Auditory and visual scene analysis'の一部として査読を経て出版された。)


どういう内容かというと、視覚サリエンシー(サリエンス)が脳のどこで計算されるかを、大脳皮質での経路と皮質下(上丘)での経路とでの計算過程の違いに注目してまとめた。これが私にとって初めてのコレスポでの総説論文となった。

総説の骨格をざっくり書いてみる。注意の心理学やコンピュータービジョンの世界では「サリエンシーマップ」という概念が提唱されている。これを実際の画像を元にして視覚シーンのうちどこが「注意を惹く」つまりsalient(サリエント、セイリエント)であるかを定量化した二次元マップ(サリエンシーマップ)として脳内に表象している、というのがサリエンシー計算論モデル。それではじつのところ、視覚サリエンシーは脳の中でどうやって計算されているか?

Ittiのモデル(図1)では、視覚の低レベル特徴(輝度lum、色col、方位ori、方向mot)ごとに特徴検出を行う((1)feature analysis)。そのうえでどこが目立つかをcenter excitation-surround inhibitionのメカニズムによって計算したものを計算する((2)feature map, 特徴マップ)。そのあとでその特徴マップをすべて足し合わせたサリエンシーマップを計算する((3)saliency map)。つまりサリエンシーマップは特徴には依存しない単一のマップであることを想定している。これらのマップは視覚刺激そのものによって一意に決まる。これに対して報酬やゴールといった状況依存的なもの、トップダウン注意と呼ばれるようなものを加味したものが優先度マップ((4)priority map)。このpriority mapのなかで実際にどこに目を向けたり手を伸ばしたりするかということをwinner-take-allルールで決めてやる。

では脳の中でこのような計算は実際に行われているのか? 図2にまとめてみた。まずこれまでの論文を調べてみると分かるのが、V1はサリエンシーマップというよりは特徴マップと考えたほうがよいということ。V1では輝度サリエンシーよりも輝度そのものをコードしている(Betz et al 2013)。

ではV4やLIPはどうかというと、Mazer and Gallant 2002にあるように、V4ニューロンは輝度コントラストに強く反応するのだけど、サッカードする際に徐々にゴールの情報を反映するようになる。つまりこれは(特徴に依存しない)サリエンシーマップでもなければpriority mapでもなくて、特徴に依存しつつ、ゴールの情報を持つ、いわばfeature-specific priority mapとでも呼ぶべきものになる。

FEFや上丘の深層(dSC)がpriority mapとしての情報を持っているということはすでにいろいろエビデンスがある。つまり、大脳皮質でのサリエンシー計算は上記図2(b)の黒矢印のように、feature map -> feature-specific priority map -> priority mapの順番で行われている。つまり、Ittiのモデルでは正しく分類することはできない。おそらく、大脳皮質でのサリエンシー計算はボトムアップとトップダウンのリカレントな計算が必須で、Tsotsosのモデルとかのほうが妥当であるといえる。Ittiのは片方向の計算だけだから。

一方、以前の私の盲視の研究からわかるように、V1損傷後でもサリエンシーは計算できる(Yoshida et al 2012)。ではどこで計算しているかというと最大の候補は上丘の表層(sSC)だ。たとえば上丘には視覚刺激が止まっているときよりも動いているときに強く活動するのに、動きの向き(上下左右)への選択性はないニューロンが大半を占める(Moors and Vendrik 1979)。これはつまり方向の情報を計算せずに(図1でいうfeature amalysisの段階がない)、動きのサリエンシーだけをいっきょに計算しているという意味で、サリエンシーに特化したニューロンであるといえる。(大脳皮質では方位、傾きの情報をV1のニューロンが計算した上でそこからサリエンシーを抽出するという意味ではサリエンシー計算は方位計算の結果を用いた二次的なものといえる。) 哺乳類の上丘は他の脊椎動物での視蓋の相同脳部位であり、カエルのバグ検出器(Lettvin and Maturana 1959)が動きサリエンシー検出器であって虫の種類を弁別することができないということともよく合致している。

より決定的な証拠として、Yoshida et al 2012の共著者であるクイーンズ大学のBrian Whiteは上丘のニューロン活動がフリービューイング中に視覚サリエンシーを(輝度などの情報よりも)反映していることを示した。この論文はいまNature Communicationsにin pressとなっている(Brianのサイトの情報より)。じつのところこの仕事については以前からよく知っていて、図を引用したかったのでこの論文が出版されるのを待っていたのだけれど、査読過程でかなり苦労していたので、こっちの総説のほうが先に出てしまったという経緯がある。

そんなわけで、サリエンシー計算のルートには上記の図2(b)の黒矢印のルートとは別に、上丘を経由するルート(上記図2(b)の灰色矢印)があって、こっちのほうではfeature map -> (feature-agnostic) saliency map -> priority mapと、Ittiのサリエンシー計算論モデルによく合致した計算過程があることが推測できる。

では上丘の局所回路でどんなことやっているかってのが後半の話で、これが私が今やっている上丘ニューロンのシミュレーションの話に繋がる。ひとつはZiad Hafedさんとやっている、マイクロサッカードも考慮した上でのneural fieldベースのモデルになるし、もうひとつがRichard Vealeさんとやっているスパイキングニューロンネットワークを用いたモデルになる。ここに関しては省略。今後の発展を乞うご期待ということで。


以上で総説の説明が終了。この総説には盛り込むには時期尚早だったけど本当に興味があるのは、以上のサリエンシー計算についての図式を予想コーディングおよびフリストンの自由エネルギー原理の枠組みのなかにうまく位置づけてやるということ。

フリストンの論文 2012にもあるように、自由エネルギー原理の枠組みにおいては、サリエンシー計算(=外れ値検出)は階層的な予測誤差のカスケードの中での予測誤差として捉えることができる。これは自由エネルギーの式でいうと F = Complexity - Accuracy という式表現でのcomplexityがまさにサリエンシーそのものであり、Itti and Baldi 2009でのbayesian surpriseとして計算できる(すでにIttiのモデルの中でimplementされている)。そうすると、脳内のフィードフォワード方向の予測誤差はサリエンシー計算、フィードバック方向の予測信号は無意識的推論、と捉えることができる。つまり、(大脳皮質での)サリエンシー計算は無意識的推論としての視覚のモデルの一部として必然的に計算されるものであるというわけ。

まあ、今後はこんなことをやってゆく所存です。今年もよろしくお願いします。


研究メモ: 中井久夫の統合失調症論、スパイキングニューロンネットワークのシミュレーターなど(20160710まで)

以前も書いたことがあるけれども、意識研究の側面からは統合失調症の前駆期の主観的経験に興味がある。それは「気づきの亢進」と言われるものだけど、なかなか系統だった記述を見つけることが出来なかった。

中井久夫の本を読むべきだということはわかっていたけど「統合失調症をたどる」という本に書いてあることを読んで、まさにこれだと思った。この本も当事者研究的というか二人称的アプローチをとっていると言える。たとえば

  • p.124「超覚醒感と圧倒的な抑留された睡眠切迫感とでもいうべきものの共存」
  • p.125「思考はどんどん伸びていって分岐に分岐を重ねる。考えが花火のように枝分かれする。いままでわからなかったことが次々にわかる感じがするが、口に出しては言えない。」
  • p.128「あらゆる可能性が一望の下に収められるような感じがあるように思われるが、もはやそれを口に出していうことは出来ない。言語活動は停止しているわけでなく、内的原語はむしろ超限的に増大している」

伊庭幸人さんのツイート(1)および(2)にもあるように、伊庭さんの「モデル選択とその周辺」の付録 : 「統計学的な病 一中井久夫の分裂病論をめぐって一」では中井久夫の分裂病論がモデル選択の観点から解釈できることを書いている。

「徴候優位性とは、ささいな徴候もそれを雑音とみずに反応することであり、モデル選択の言葉でいうならoverfittingの状況に対応すると考えられる。」 「乱数発生能力の減少はバイアスの評価を不能にさせ 、overfittingをもたらすかもしれない」

ここの議論はクリス・フリスによる精神症状のベイズ的説明を先取りしていてたいへん面白い。

「この後にくる混乱の描写は、計算機科学的にいえば「とめどない彷徨」による計算資源の枯渇(「一般フレーム 問題」における計算量爆発)を思わせる。」

ここで混乱状態を計算量爆発になぞらえているところは、統合失調症でワーキングメモリの能力の低下が起こっていることと対応付けると面白いかも。というのも、異常サリエンス仮説やベイズ的説明は「気付きの亢進」と「jumping-into-conclusion」とによって陽性症状を説明できるけど、WMの低下は陰性症状の反映としてべつに扱われている傾向があるから(陽性が先で陰性があと)。でもこの計算量爆発を考えると、両者は統一的に説明できるかもしれない。


意識学の確立のために俺ができることはなにかと考えたら、神経現象学を(盲視にしろ半側空間無視にしろ)とにかく実践してみることだという考えに至った。

神経現象学に必要なphenodymanicsとneurodynamicsを捉えるということで、「爆発の研究」とか「悪循環のコピペ」とかを想定していたのだけど、でもそれって「現れる存在」で言うところの"catch and toss" analysisであって、入力-出力様式を脱したとはいえない。

実際に「創発」を考えなければいけないのは、このループにもっとショートサーキットがあって、同時にたくさんループが回っているような状態でどれが原因でどれが結果だかわからない状況までいったものを状態の変化として捉えるような状況のことなのだろう。

するとフリストンのpredictive coding + active inferenceも「キャッチしてトス」図式だなあって見えてきた。それはそれでよいのだし、最小限のsensorimotorループを作ってそれを正確に測る、ということからスタートすべきで、そこでフリービューイングを使うとちょうどいいんではないかとか考えていた。


「神経系大規模シミュレーションのためのソフトウェア ~NEURON とNEST~」スパイキングネットワークのシミュレーターの記事は日本語ではとても少ないのでこれは貴重。まとめ部分では、NEURONとNEST(および他のシミュレーター)の共通言語を目指したPyNNが開発されていること、NESTとGENESISを繋ぐ試みとしてのMUSICの話が紹介されていた。

これも役に立った:ニューラルシミュレータNEST

Brian Simulatorこっちの日本語での解説はたぶん皆無なのでだれか作ってほしい。

あと、どのシミュレーターは何が得意かとかの比較も知りたい。このサイトみるとたくさんあるけど、 NEURON, GENESIS, NEST, BRIANくらいで考えればたぶんよさそう。

前者二つは樹状突起まで考えるやつで、大規模なネットワーク考えるのにはNESTが向いてて、BRIANはどちらかというと教育用?とりあえず自分の目的(上丘のスパイキングネットワークモデルの構築)からはBRIANを動かして入門するあたりが妥当かと考えているのだけど。

いま共同研究者とやっている仕事では彼が自前でシミュレーター作っているのだけど、fittingさえ終わってしまえば、汎用のシミュレーターも使えるはず。ただし、周辺抑制とかの結合様式が重要なので、そこを指定できる必要がある。

奈良および神戸にいたJan Morénの上丘モデルの仕事ではNESTを使ってた。それ以降の銅谷研のモデルでもNESTを使っている様子。


大泉匡史さん「意識の統合情報理論」セミナーまとめ(5/5)

前回のつづき。(全5回分の記事をつなげてPDF化しました。まとめて読むときはこちらを使うことをお勧めします:IIT20161115.pdf)

4-4. 機能と現象の関連

IIT3.0論文のFig.22の話。図5に示したネットワークは機能としては、ABが応答する外的入力(left segment)のときにはO1という出力を出し、BCが応答する外的入力(right segment)のときにはO2という出力を出すという左右の弁別をするsensorimotor processingをするネットワークと言える。神経科学者の眼からはDは左segmentのfeature detectorに見えるだろうし、FはO1という行動のコマンドニューロンに見えるだろう。

しかし、IITの立場からは、そのφやconstellationはそれらの入出力、機能とは直接的には関係なく定まる。もちろん、結果としてφやconstellationが表していると考えられる現象は、入出力から定まる機能とは相関はあるのだけれども、それはあくまで間接的なものでありつづける。

これがIITにおける機能と現象の関係についての態度であり、IIT3.0論文のDiscussionにおいてもIITがまだ不完全であることのひとつとして、この関係について以下のように議論している。

IITにおいては、脳のようなMICS (Φが極大を取るような複合体)と環境の関係はいわゆる「情報処理」の関係ではなくて、内的な因果構造と外的な因果構造の「マッチング」の関係にある。マッチングの定量化の方法としては、「通常の環境と相互作用するMICS」と「(構造を失った仮想的な)環境と相互するMICS」との距離を用いることができるかもしれない。「マッチング」の概念、そして「環境への適応がmatchingを上昇させ、その結果意識(レベル)の上昇を起こす」という予測については今後研究を進めてゆく予定である。このためには(かつてのanimat論文のような)バーチャル環境での進化的エージェントの実験や神経生理学的実験を用いる。(吉田による端折った訳)

そういうわけで、3-5で指摘した意識のcontentと表象の問題は、IITではmatchingというアイデアで解決しようとしており、そしてそれはまだ途上であるというのがIITの現状のようだ。私はこの部分が現象的意識の理論にとって無くてはならない部分であり、この問題を解決しないとIITが現象的意識の理論として成り立たないと思う。


5. IITの神経生理学的実験への応用

二日目のセミナーはこの部分に関して詳しく説明があった。ちょっと長くなりすぎたので、ここはズバッと省略させてもらいます。未発表のデータもあったことだし。

要は、partitionという作業が入っているために実際の神経生理学データにそのまま応用することが不可能なIITのΦやconstellationといったものを、いかにして各種の近似を入れて応用可能なものにするか、そしてそれによって神経生理学データをどのように解析することが出来て、それは相互情報量MIではわからないものがどのくらいあるかを示すことによって、IITが机上の空論でなく実際に意味のあるものであるという証拠を積み上げてゆく、という大事なステージ。

神経生理学者としては、自分の実験データを解析する際にどのようにIITを活用できるだろうか、という視点から話を聞かせてもらった。


6. 概括的なコメント

ここまでセミナーの内容に沿っていくつかコメントをしたけれども、もうすこし概括的にいくつか書いておきたい。まずいちばん言いたいことをまとめるとこうなる:

今回IIT3.0論文を精読してセミナーに参加したことで、個々のニューロンにとっての内的な情報としたらこういう形になるであろうこと、機能及び表象と完全に無縁な形で理論構築がなされていることを理解した。よって、IITには拘束条件が足りてないところ、必然性に欠ける部分があるものの、機能と表象から切り離した上で理論構築するとこのような形になるであろうということはわかった。

以前私はIITがある種の表象主義であり、NCCの後継であり、だからこそCristof KochがIITの擁護者になったのだということを書いたことがあるが、この考えは撤回しないといけない。IITはNCCでやっていることとは随分違うことをやっている。

では以前指摘したNCCとIITの連続性とは何かというと、脳活動=意識状態とする「同一説」的な考え(クリックのastounishing hypothesisというのも同じ)のことだとわかった。しかし同一説、つまり無媒介的に脳の状態と意識の状態とを同じものとする考えは(おそらく)すべての神経科学的アプローチで前提していることだ。そうなるとなぜ心の哲学で機能主義や表象主義が必要とされたのかって話に戻る必要がある。

さらにいくつか論点をまとめる。

6-1. 内的な情報量

IITについて知ってからずっと気になっていたことは、IITで言う「内的な情報量」というのがほんとうに内的なのか、環境の入出力をどこかで導入してないのか、ということだった。でも今回精読してみて納得いったけど、IITではたしかにあるニューロンの持つ情報をそのニューロンの現時点での活動状態およびそれにシナプス入力するニューロンの活動とシナプス出力するニューロンの活動から決めていた。わたしはこれは正しいアプローチだと思う。(注4)

ただし、cause repertoireは現時点の活動だけで全てが決まるのではなく、TPM(ネットワークの遷移確率)という統計的モデルを必要とするし、ベイズの定理を動かす段階でprior (P(A(t))も必要になる。(Priorにunconstrainedなnull distributionを使うべきか、それとも実際の発火履歴を使うべきか、というのも確定しているわけではないようだった。) そういうわけで、ここで計算される情報量自体はあるニューロンがアクセスできるものではなくて、ローカルではあるが外部から計算されるものであった。また、MIPやunconstrainedなnull distributionとの比較という形でIITには「そうであったかもしれない」というアンサンブル分布を持つことを必要としている。この点で充分「内的」でないのではないか、と考える。

あるニューロンAにとって入力ニューロンBの活動のon-offが本当に違いを生み出すものであるか、ということが「内的」な情報であるためには必要だ。もしある入力ニューロンBの活動が後続のニューロンAに全く影響を与えないのならば、たとえ解剖学的結合があってもニューロンAにとってニューロンBの活動は「違いを生む違い」になっていないのだから、それはニューロンAにとって「内的な」情報とはならない。

「内的な」情報を考慮する際にはそのような「違いを生む違い」をするものだけが残り、他のstateはそのニューロンにとって意味がない、という形でcause repertoireが縮退する必要がある。"concept"がやろうとしていることはどうやらそれのようで、cause repertoireの横軸が減るのではなくて、φ>0なconceptが残るということを用いて、「違いを生む違い」の場合の数を決めるということをしているのだろう。Conceptという言葉に惑わされず、そのような「違いを生む違い」として可能なものの数、という理解をすればいいのかな、と思った。

もちろん、じっさいにニューロンが情報量を計算する必要があるわけではなくて、ニューロンはシナプス入力によってチャネルを開いて発火して、とただ物理法則に従っているだけにすぎない。だからここでいう「情報」というものは物理的世界に偏在してそれが法則的に意識を生み出す、というようなことを想定していることになる。

これは「情報が世界自体が持っている」とするフレッド・ドレツキの考えが正しいのかということに関わる問題かもしれない。また、光は最短距離を行こうという意志があるわけでもないのに結果として水の中を屈折して進むという変分原理のような考えで、この情報を持つ複合体が自己の境界を決めて極大を持つような相転移を起こす、ということを想定しているのだろう。また、近年の「マクスウェルの悪魔」実験で議論されるような「物理世界における情報」も射程に入るだろう。

残念ながら私にはこのあたりについてもっとたくさんの勉強が必要だ。これは私自身の課題なのだが、「情報とは何なのか」ということを「そうであったかもしれない」というアンサンブル分布を持つことという「反実仮想」を含んだものとして捉え直すことによって、IITの根幹である「情報」の概念を見直した理論が作れないだろうか、とか考えてる。

6-2. Sensorimotor contingencyとの関係

もともとIITについては「オートポイエーシス的でない(ゆえに意識の理論として何かが欠けているのではないか)」という印象(というかheuristics)があった。それは環境との相互作用を明示的に取り込んでいないからだった。しかし今回詳しく読んでみて、環境との相互作用を取り込んでIITを拡張することが可能なのではないかと考えた。この考えについて以下に提案してみたい。

上記の図5をもう一回見直して見てほしいのだけど、この図のネットワークの出力O1, O2と視覚入力を因果的につなげてやれば、sensorimotor contingencyのモデルになる。つまり、左segmentが提示されたときはO1の活動によって左にサッカードしてsegmentを視野の中心に持ってくるし、右segmentが提示されたときはO2の活動によって右にサッカードしてsegmentを視野の中心に持ってくる、というモデルに改変することができる。

IITでの因果ネットワークはニューロンの結合であることを必要とはしていないから、このようなsensorimotor contingencyも立派な因果ネットワークの一種だ。

さらに前回(4/5)の図4でも言及したように、外部のループを含んだシステムはΦは小さいがnon-zeroのネットワークを作ることが可能になる。(Exclusionによって、ループの部分は排除されるが。)

そうしてみると上記の図5で出力と入力をつなげたネットワークでは外部のループの部分が弱いのでそこでMIPができて、より小さいネットワークのほうが意識の単位として残るだろう。それでよいのであって、我々の意識経験としてもこのsensorimotor contingencyのループは意識の外にあるものとして経験される。

しかし、発達期はどうだろう? まだ大脳皮質が充分に発達していない(充分にintegrateしていない)時期に、赤ちゃんが手を動かしてそれを自分で見るとか、解像度の低いお母さんの顔に向けて目と頭を向けるといったsensorimotor contingencyが成り立つときに、そのループは大脳皮質だけの部分では極大とならないかもしれない。そしてそれこそが幼児期に自他の区別が未分化な状態での意識経験を説明すると言えないだろうか? (同様な考えをセミナーの参加者の方が進化的側面から提案していたのでここにクレジットしておく。)

このような自他未分化な状態では環境を共有することになる。それはexclusion postulateとどう整合的に説明できるだろう? これについても考えた。Aさんにとっての環境とBさんにとっての環境は視点の違い、sensorimotor conringencyの違いという意味において異なっており、まったく同じ環境を共有しているわけではない。だからexclusionはここでは問題にならない。(もしくはexclusionの再定義が必要になる。)

こうしてみると自分にとっての環境と他者との環境との関係はオートポイエーシスで言うところの「カップリング」の関係になっているということが分かる。また、IITの理論構成では機能と現象とは相関はあるけれども、明示的にはお互いが影響を与えないような形になっている。これも意識を持つ有機体と環境とが「カップリング」の関係にあると言っていることと同じかもしくととても近い。

そしてこのカップリングの概念はIIT3.0論文で今後の課題として議論されている「(環境の因果ネットワークと内的な因果ネットワークの)マッチング」とも大いに関連しているだろう。だから、ここで提案している考えはそんなに的外れでもないはずだ。

また、IITはあるinstantaneousなstateごとにΦを定義して、その境界を決めるという点では「作動しているときにのみその境界を決める」オートポイエーシスとよく似ている側面はある。あとはこれが「作動のネットワーク」になっているかだけど、情報の流れはエネルギーそのものではないという意味でもオートポイエーシス的であるといえる。

ちょっとこじつけているところはあるかなあと我ながら思うが、私からのプロポーザルとしては、IITにsensorimotor conringencyを明示的に加えることによって、IITがよりオートポイエーシス的になり、life-mind continuityを実現するようなagentのモデルとして発展させるとで現象的意識の理論により近づくのではないか、というものだ。


7. さいごに

そういうわけで、IITについて批判的に紹介とコメントをしながら、自分だったらどのように拡張するかということを提案してみた。いろいろ勘違い、不正確な点が含まれているだろうと思うので、そのあたりはご指摘いただけたらありがたい。

ここに書いてあることは私なりの理解であり、しかもIITとはかなりかけ離れた立場からのコメントだった。ホンモノのIITを理解したいという人は原著に当たるのをお勧めしたい。今回のセミナーを聞くかぎり、ジュリオ・トノーニと大泉さんの間でも立場が若干違っているように思う。IITはまだ発展中の理論なので、どんどん改善して自分の理論として使ってしまえばよいと思う。私がここでやったのもまさにそういう取り込みの過程だった。


全5回分の記事をつなげてPDF化しました。まとめて読むときはこちらを使うことをお勧めします:IIT20161115.pdf


(注4) その昔(いま調べてみたら2008年1月24日だった)、土谷さんに生理研にセミナーをしに来てもらったことがあって、そのあとで武井くんのうちで飲みながら「夢の実験」(技術的障害を考慮せず、こういう実験ができたらいいと思うものは何か?)というのを議論したことがある。そのときわたしは「一個のニューロンがどう働いているのかを特徴づけるためにそのpreのニューロンとpostのニューロンのすべての発火がわかるような記録ができたらいいと思う」というようなことを言った記憶がある。そのときはいまいちウケはよくなかったのだけど、それこそがまさにIITで一個のニューロンの挙動の完全な描写としてcause repertoireとresult repertoireを作成してそれをもとにそのニューロンにとっての情報とは何か、を規定するために必要なことだった。


大泉匡史さん「意識の統合情報理論」セミナーまとめ(4/5)

前回のつづき。(全5回分の記事をつなげてPDF化しました。まとめて読むときはこちらを使うことをお勧めします:IIT20161115.pdf)


3. IIT3.0での統合情報量φ

ここまで書いたのはIIT2.0での説明だった。一日目part3の説明はここからIIT3.0論文に準拠した説明になる。

3-1. Causeとeffectの考慮

IIT3.0がIIT2.0から進歩した点は、現在のニューロンネットワークが過去(入力)のネットワークとどのような因果ネットワークを形成しているかを表現したcause repertoireだけでなく、未来(出力)のネットワークとどのような因果ネットワークを形成しているかを表現したeffect repertoireも考慮するようになった点にある。

具体的には、cause repertoireを計算したのと同じようにeffect repertoireを計算して(ベイズの公式の使い方が変わるのでまったく同じ挙動にはならない)、cause, effecctそれぞれでのMIPを独立に決めてやって計算したφのうち小さい方をφとする、という操作を行っている。

(吉田コメント) これが必要な理屈についてはIIT3.0論文のFig.7で記述されている。要は過去から今、今から未来、両方共でintegrateしていないとintegrateしていると言えないでしょ、ということで、これはまったくごもっともで良い方向だと思う。しかし、端的にこのふたつのφ(の候補)をべつべつに計算して小さい方を選ぶという操作はずいぶんと後付けなやり方だと思う。言い方をパクらしてもらえば、causeとeffectがぜんぜんintegrateしてない。

(吉田コメント) Causeとeffectの両方がnon-zeroのときのみφもnon-zeroになるということを満たしたいだけだったら、φ(cause) * φ(effect) だって構わないはずだ。そうしてない理由はφの次元がbitだからで、bit同士の掛け算するのはおかしいだろうと考えたことは推測できる。しかし後述するearth mover distanceはじつのところbitの次元ではなくて確率p=0-1の次元のものなので、その場合、掛け算にするのはそんなに悪くないはずだ。つまり、このあたりはどうにも取って付けたようなかんじで、いくらでも他の方法はありえて、理論として未完成なように思う。

3-2. 片方向のpartition

これまでのpartitionというのは、たとえば2要素ABからなるネットワークでAB間の因果ネットワークを切る際には、A<-BおよびA->Bの両方が同時に切られていた。これはsplit brainの症例を想定して脳のfiberを物理的に切るような可能性だけを考慮していたのだろう。しかしこの場合、単純なfeed-forward networkでもpartitionによって情報がロスするため、φがnon-zeroになるという事態になっていた。

IIT3.0においてはそこで片方向のpartitionということを考えるようになった。このことは考慮すべきpartitionの数をさらに増やすというデメリットはあるものの、単純なfeed-forward networkのφをゼロにできるという大きなメリットがある。それはどういうことかというと、たとえば2要素ABからなるネットワークでAB間の因果ネットワークがA->Bの片方向のみだった場合、つまり{A(t-1)->B(t), B(t-1)->A(t)}のうちでB(t-1)->A(t)は元々切れてる(無相関)のときに、MIPとしてB->Aを切ったときを考えることができて、このとき情報ロスはないのでφ=0となる。だからどんなに要素数の多いネットワークでも、ある段階にfeed-forwardのみの部分があればそこはφ=0になるのだ、ということが言えるようになる。

(吉田コメント) これもIIT2.0のときの批判を受けて、後付けで作ったルールなのだろうとは思ったけれども、理屈として片方向のpartitionを考えるというのは正しい方向だとは思った。しかしこうなると、partitionの定義自体が何に基づいているのかということが曖昧になってくるかもしれない。つまり、ABC(t-1)->ABC(t)をpartitionするのにこれまではAB(t-1)->C(t), C(t-1)->AB(t)のように排他的にpartitionしていたのだけれども、それに限る必要はあるのか?ってことにならないだろうか?

3-3. Earth movers distance (EMD)

IIT3.0ではKLDの代わりにEMDというのを使っている。これは、KLDでは確率密度分布の横軸の構造を考慮していないという問題への対策。つまり、cause repertoireというのはネットワークの状態ごとの確率密度分布なので、横軸は(たとえば2要素ABならば)AB = {00, 01, 10, 11}の4水準ある。しかしこの軸には近接度の違いがある。IIT3.0で採用しているのはハミング距離だが、00と01, 00と10は距離1だが、00と11は距離2となる。(00-01-11-10-00というループを考えればよい。) EMDではこの近接性を考慮して距離を計算している。

(吉田コメント) しかし思うに、この距離というのも一意に決まるわけではない。別案として思いつくのは、TPMを元に、t-1からtへ行くときにどう遷移するかから近接度を考える策もある。そのような統計的性質を持ち込むことの是非は考慮すべきだが、一意に決まるわけではないということは示せたのではないかと思う。

3-4. Concept

IIT3ではさらにconceptという概念を導入する(IIT2.0のときよりもintegrateした形で理論に組み込まれた、という言い方が正確か)。ABCという3要素のネットワークがあるときに、そのサブセットである{A,B,C,AB,AC,BC,ABC}を考える。たとえば現在のBCに対しての過去の{A,B,C,AB,AC,BC,ABC}でそれぞれのMIPを決めてやる(purview)と、それぞれについてφが計算できて、この7個のφのうちの最大のものをcore causeと呼ぶ。これを過去についても同様にやってやるとcore effectができる。

こうして現在のA(t)に対するcore cause (たとえばBC(t-1))およびcore effect(たとえばB(t+1))ができると、このcause-effectの対をconceptと呼ぶ。ConceptはABCに対しては複数ありうるけど、core causeが0になってしまうようなものは消えるので、conceptの数はネットワークの状態(IITではstate + mechanismという言い方をする)しだいで変わる。

3-5. Constellation, Qualia space

このようにしてできた複数のconceptをネットワークの状態を軸にした空間の上に配置したものをconstellationと呼び、この配置パターンが現在の状態での意識状態のクオリアに対応しているのだ、という議論をIITではしている。そして、これらのconceptがシステム(今の例だとABC)のMIPによってどれだけ情報をロスするかをEMDで評価して、それをconceptの個数分でcause, effect両方共で足し合わせてやったものとしてΦを定義している。

IIT2.0でのΦはどちらかというとIIT3.0でのφに近い。IIT3.0ではConstellationの考えまでを統合したものとしてシステムのΦを定義付けてやろうという意図から、このような複雑な定式化をしている。

(吉田コメント) 率直に言ってこの部分にはまったく承服できない。まず言うべきこととしてはここでのconceptというのは日常言語で言うconceptとはまったく関わりがないものだということだ。また、ここでのconceptの配置がqualiaであるというのも説得的でない。そうなる理由が足りない。

(吉田コメント) 意識経験の違いとは多次元空間の中での脳状態の違いである、というような考え方はチャーチランドの神経哲学でもコネクショニズムでの多次元の表象という点から似たような図が出ていた記憶があるが、それと比べると本質的な違いがあるようには思えない。けっきょくのところ脳状態(個々のニューロンのinstateneousな発火状態)を用いるのか、それとも直前、直後の脳状態まで含めて考えるのか、という違いでしかないと思う。

(吉田コメント) 好意的に捉えるのであれば、このようなconstellationを用いて意識経験のinvalianceを説明することができる(しかし神経発火の状態空間では説明できない)というようなことを示すことができるのならば、このような議論にも意味があるとは言えるだろう。つまり、赤の赤らしさは変わらないままに、赤の経験の強度を変化させることができたとして、このときにconstellationの構造は変わらないままにΦだけが変わる、ということが示せるなら良いのではないかということ。Haun et al bioRxiv 2016でのFig.3はそれを目指しているのだろうと推測するけれど、少なくとも、神経発火の状態空間では説明できないものがここにあるといいうことを示す必要はあるはず。

(吉田コメント) そしてこのconstellationの議論が納得いかない最大の理由は、意識のcontentの議論を回避した上でqualiaだけ議論しようという点に無理があるということ。IITでは内的な情報量を考慮することを徹底しているため、外界の刺激が何で、なにが表象されて、ということは理論の外にある。その事自体はIITを他の理論と峻別する非常に重要な点なのだと思うのだけど、それゆえにIITでは表象を扱うことができず、意識のcontentの議論を行うことができない。そのような状態で「クオリア」だけを取り出して扱おうというのは無理だろうと思う。同様にして、IITのaxiomであるcompositionalityについてもIITでは明示的な方法では定式化することができない。(IIT3.0論文のFig.22が関連している。)

(吉田コメント) IIT3.0論文を詳しく読んでみると、表象の問題に関してはDiscussionで"matching"という概念について言及している。つまり、外界の因果的構造を脳内の因果的ネットワークがmatchするように学習の結果作り上げるという話で、ここは大変重要な問題であり、IITでも課題であることは認識されているように思う。


4. IIT3.0から示唆されること

ここからはIIT3.0論文の理論構築がいったん済んだ後で、この理論から示唆されることについて、より複雑な(でも脳よりはずっと単純な)モデルを元にして議論している。

4-1. どの脳部位が意識に関与するか?

有名な、「なぜ小脳は意識には関わらないか」という部分。重要な点としては、片方向のpartitionを導入したことによって、片道の結合が入っているネットワークはΦ=0になった。よって、網膜からLGN、そして大脳へ行く経路において、LGNは大脳から投射が来ていて双方向性だけど、網膜からLGNは片方向性。よって網膜からLGNの経路を除いたときにΦは大きくなり、exclusion postulateにより、網膜は意識の外にあるという結論になる。

IIT4.png

Figure 4 (大泉さん提供)

図4にIIT3.0でのsubcortical loop (basal gangliaを想定)を模したネットワークを示す。この図はBMC Neuroscience 2004のFig.4eと同じネットワークだが、IIT3.0の計算法を用いてΦを計算している(大泉さん提供)。Subcortical loopの部分を含めてΦを計算した場合(1 bit)と比べると、subcortical loopの部分を除くとより大きいΦになる(10.56 bit)ので、意識の境界としてはsubcortical loopは含まれない。

(吉田コメント) 私がここで注目するのはsubcortical loopの部分を含めてΦを計算すると値は低いがnon-zeroとなることだ。つまり、片道でもまたシステムに戻っていくループはIIT3.0でもΦがゼロにならない。このことはsensorimotor contingencyを考えるにあたって重要な点であると考えられる。因果ネットワークはニューロンでなくてもよいのだから、眼を動かすことによって視界が動いて視覚入力が変化するというのも因果ネットワークの一部として捉えることができるからだ。この件については次回の6-2で書く。いまの説明的に言及しておきたい点として、このループの何ステップなのかが因果の強さに関わってくること、そして統合の時間幅をどのくらいに取るかという問題に関わってくるということ。

4-2. “minimally conscious” photodiode

IIT3.0論文のFig.19の話。サーモスタットも、白色センサーも、青色センサーも、ネットワーク構造は同じなので、同じクオリアを持つと言える、という話。

(吉田コメント) ここは私としては全く同意で、これがまさに盲視の話で繰り返し言及してきた「なにかあるかんじ」なのだと提唱したい。ただし、この“minimally conscious” photodiodeは空間は持っていないので、意識は構造化されていないわけで、「なにかあるかんじ」よりももっと原始的なものと言うのが正確だが。

(吉田コメント) あともうひとつ、ここでthe no-strong-loops hypothesisとの関連をコメントしておきたい。サーモスタットはrecurrentな結合を持っていて、それがのnon-zeroのφを作っている。それはいいのだけれども、実際にこのような1対1対応の強いrecurrentの結合が脳にあるかというとそれは疑わしい。実際問題としてこういうstrong loopはfeedbackによって強い持続的な発火を起こしてしまい、安定したネットワークとして活動できないだろう。このような「強いループ」が皮質-視床ネットワークには存在しないだろうと予言したのがCrick and Kochの"the no-strong-loops hypothesis"論文

(吉田コメント) これはあくまでproposalでしかないが、cortico-corticalでの結合でこのようなstrong loopが無いということはJohnson and Burkhalter 2004 JNSによる解剖学的研究からすでに示されている。このようにして、strong-loopではφが大きくなるが、しかしそのようなネットワークでの意識レベルが高いとはいえそうにないので実際の意識経験と整合的でない。これはIITがうまい説明を考えないといけない課題のひとつだといえるだろう。

4-3. 哲学的ゾンビの可能性

IIT3.0論文のFig.20,21の話。同じ機能を果たすネットワークでも、完全にフィードフォワードなネットワーク(Φ=0)とフィードバックループのあるネットワーク(Φ>0)を作ることが可能である、という話。

(吉田コメント) これも盲視と繋げられると思っていて、上丘も大脳皮質もサリエンシー検出という同じ機能を果たすことができるのだけれども、上丘は主にフィードフォワードなネットワークでできていて、大脳皮質はフィードバックを使っていて、これが意識経験の有る無しに関わっていると議論できる。

次回へつづく。


お勧めエントリ

  • 細胞外電極はなにを見ているか(1) 20080727 (2) リニューアル版 20081107
  • 総説 長期記憶の脳内メカニズム 20100909
  • 駒場講義2013 「意識の科学的研究 - 盲視を起点に」20130626
  • 駒場講義2012レジメ 意識と注意の脳内メカニズム(1) 注意 20121010 (2) 意識 20121011
  • 視覚、注意、言語で3*2の背側、腹側経路説 20140119
  • 脳科学辞典の項目書いた 「盲視」 20130407
  • 脳科学辞典の項目書いた 「気づき」 20130228
  • 脳科学辞典の項目書いた 「サリエンシー」 20121224
  • 脳科学辞典の項目書いた 「マイクロサッケード」 20121227
  • 盲視でおこる「なにかあるかんじ」 20110126
  • DKL色空間についてまとめ 20090113
  • 科学基礎論学会 秋の研究例会 ワークショップ「意識の神経科学と神経現象学」レジメ 20131102
  • ギャラガー&ザハヴィ『現象学的な心』合評会レジメ 20130628
  • Marrのrepresentationとprocessをベイトソン流に解釈する (1) 20100317 (2) 20100317
  • 半側空間無視と同名半盲とは区別できるか?(1) 20080220 (2) 半側空間無視の原因部位は? 20080221
  • MarrのVisionの最初と最後だけを読む 20071213

月別過去ログ