[カテゴリー別保管庫] ASCONE2010 「意識の実体に迫る」


2010年10月20日

ASCONE2010の準備してます(3)predictive codingと身体性と自由エネルギー

ASCONE2010 『意識の実体に迫る』 で「注意の計算理論で盲視を調べる」ってタイトルで講義をします。

それに関連していろいろツイッターでつぶやいてきました。それのまとめの第三弾は、自由エネルギーとかpredictive codingとかembodiementと意識とかdecodingとかたくさんしゃべっているあたり。正直わかってないままに書いてる。でも、こういうのを暖めておいて、再び見直してみたら、いつかそれなりに一つの線につながるんじゃないか、ってそんな確信を持って書いてる。

意識を研究する神経生理学者としてやってこうと思ってきたんだけど、それなりに独特なことを言っているらしい。このあいだの「おちゅーしゃの時間デスよ!」みたいなもんで、あーまた吉田がオートポイエーシスとか言ってるよ、とか思ってくれればそれで充分かな、とか思ってるんです。それではここから:


もう頭が働かないのでFristonのレビューをぱらぱら見ていたら(<-ええカッコしすぎ)、Maturana-Varelaの Autopoiesis and Cognitionがreferされているのを見つけて、すべての回り道がふたたび収束してくるような高揚感を抱いた。


一回性の事象の機能イメージングとかやんないんですか? ライフログを再生して見せて、脳活動デコードしてイベントをいくつかのクラスに分類とか。RT @ykamit: ライフログカメラ入手しますので何かの機会に付けて行きますね。こういうの使うと記憶のエンコードをしない習慣が加速しそう。

イイ!!! 実のところ一回性を強調するのも極論で、単一の事象をなぜあるクラスに分類できるのかといった、特殊性と一般性とのループを考える方が全体を捉えている気がする。 @ykamit: 経験の驚くべき反復性(「永劫回帰性」)

でもってしかもそういう相反する側面がニューロンの情報表現のselectivityとinvarianceという相反する側面と対応している。だからこのレビューで http://bit.ly/9o6EMo encoding/decodingと関連づけるのを見て興味がわいた。

だがそもそも一回性の事象をデコードする必要なんてあるのだろうか。デコードは繰り返しを前提としている。こうやってけっきょく一回性の事象というのは経験/意識のドメインにあって、視覚情報処理のドメインでは扱えないことになる。って毎度の話になってしまった。

たぶんこういう話の持っていきかたをしてハードプロブレムにしてしまう必要はないのだろう。ニューロンの表象の中でデコードする情報のクラスを広げたり狭めたりするような操作のことを考える、くらいのほうが意味があるのかもしれない。


これこそwhat-it-is-likeだけど、prediction errorが出まくる我々は一人称的観点からアクセスできてないのだな RT @ykamit: こんなのを見てても鷲の脳はスパースにしか発火しないんだろうな http://t.co/a5vC9m4

Umweltを共有している人間の他者であっても、内部からのアクセスができない限り一人称的観点には立てないってのが問題だったわけだけど、… RT @ykamit: そこがデコーディング(脳から対応する刺激やラベルを出力)による「マインドリーディング」の原理的限界でもある。

predictive codingの文脈で、umweltの共有=[環境とagentとの関係の記述]とdecoding=[予測誤差の記述]を元にして、内部的に生成しているtop-down prediction=[内部モデル=efference copy]を推定できたとしたら、かなり良い線いってる気はする。そこまでいけば、それでも説明できないような残余があるか、って議論に辿りつけるんではないだろうかとか考える。じつのところこれは[表象の解読]から[プロセスの記述]へ、という操作脳科学のスローガンと同じことだったりするのだけれど。


以前はprediction errorとして上がっていくのがsurprise=ボトムアップの注意の要素で、top-downでおりてくるpredictionが conscious percept、という図式を考えていたけど(Lammeっぽく)、さいきんの ポジオの注意モデル、それからその元となったRaoのモデルとかを読み直して、active inferenceをするという計算論的問題を解くと自然にattentiional modulation様のものが見えてくる、という図式を考えると、注意と意識を機能的に別れたモジュールとして考えること自体が不要なことのように思えてきた。あと、このスキームだとtop-down attentionとawarenessが明示的に分けられない。

Fristonによるbinocular rivalryのモデルもあるけど、これもおなじことで、perceptはselective attention (top down)だろうがconscious perceptだろうがかまわない。

この段階においては、以前書いたattentionはselectionというprocessで、conscious perceptはそのcontent、という分け方の方が明快なように思える。


こうやってTLを眺めていると、活動時間が重なってやりとりが生まれるときもあるし、なんとなくズレるときもある。ついったはインターフェース的に「亀レス」がしにくいので、同期しないとやりとりが生まれにくい。同期しててもやりとりがないときもある。(<-神経発火の同期になぞらえたいらしい)

わたしのTLとほかの人のTLは異なっていて、その局所性があるためについったでの話題は比較的コンテキストの共有を前提としない、独特なものとなる。

つげったとかで全体を見渡すようにまとめを作ることはできるが、それはいったん文脈を作った上でオフライン的にしかなされない。(<-脳の表象のメタ性とつなげたいらしい;全体を見渡すホムンクルスはないのではなくて、いったん文脈が形成された上で後付けで生成するのだ。オンラインではなくて。)

自由意志あたりの問題になるけど、私たちはある条件が来ればそれに機械的に応答しているだけの自動人形だ。でもそれは「オンライン」ではそうなだけであって、「オフライン」でそれに意味づけをして、学習をして、行動のバイアスを変えて、未来の計画を作る。

たぶん意識はそこに関わっているから、あるひとは意識はメタ認知であると言うし、あるひとは意識はexecutive controlをするための機能であるという言い方をする。私としてはオフラインで内部モデルをリモデルすることそのものが意識なんだろうと思ってるけど、たぶんこれらは同根だ。

そういう意味でサプライズを考えるとちょっとパラドキシカルな状況になる。つまり、priorからposteriorへの時々刻々の変化分の大きさがサプライズであって、これがほぼボトムアップの注意と同一視できて、しかもそれは意識とは別ものなのだから。

「オフラインで内部モデルをリモデルすること」とサプライズとは明らかに別のことなのだけれど、どう表現したらよいのだろうか。意識に上るものにはサプライズが必須で、あとののっぺりとした時間・空間はすべてそういったエッジからfilling-inされている、というイメージを持っている。でもサプライズのあるものすべてが意識に上るわけではない。

つまりfilling-inによる説明は、サプライズが低いところは我々は意識しているのではなくて、inferしているだけなのだとする。もちろんこれは極論だ。エッジのあいだの平面だってもっと周りから見ればspatial surpriseがあるので、たんにfilling-inされるだけの空虚ではない。

オンライン・オフラインの話はジャンヌローのリーチングの話とか、 saccadic adaptationの話とかそういうものを含めてちゃんと事例をまとめた上で議論しないといけないので、今は雑すぎる。盲視でサッカード軌道の補償ができないっていう自分の仕事に固執しすぎている。


ちょっと前提が飛んでたけど、つまり自由エネルギー仮説で(興味あるもん全部つっこんでしゃべってます)、脳が周辺尤度最大化をしているのかって問いと繋がる。

ちなみにさいきんの脳プロ関係で佐藤雅昭先生がいらしたときにニューロンは変分ベイズできますか?ってまっすぐ聞いてみたけど、ムリでしょうって言ってましたね。なんらか脳のネットワークとして近いものをやっているということはあるかもしれないけど。


「複雑性とパラドックス」で「自然システムを構成する意味論」と「形式システムを構成する統語論」とがあってそれがencode,decodeされるという絵があった。http://bit.ly/aQd0zo 意味論と統語論がそういう風に対応することに興味がわいたので図書館から借りてきた。

そうしてみると、Marrの三段階 [計算論 - アルゴリズム - implemantation (=neurobiological model) ]はあくまで形式システムの中の話であって、それに自然システムが対置されていて、違った抽象レベルでdecode/encodeすると考えた方がよいように思えてきた。

いっぽうで、神経生理学側から見ると、計算論もアルゴリズムも実装のレベルも、表象とプロセスの形式システムであり、それと対応する神経活動を様々な抽象度でencode/decodeしている、というふうに考えられないだろうか。

「非線形な世界」も買ってきた。第4章「モデル化-現象の記載と理解」を読みたかったので。神経生理学でneural correlate(=表象)以外のアプローチを取るにはどうすればよいずっと考えてる。お題目だけならシステムバイオロジー的にとか言えるけど、もっとややこしくなくいきたい。

あ、ニューロンの活動を現象側に持ってくるのはへんだって気がしてきた。スパイク列になった時点でそれは表象なんで。

ニューロン間での信号のやりとりでprediction errorの計算から前段のニューロンの活動をinferする、それを遡っていって外界の物理的原因をinferする、といったベイズ的脳観において、前半は形式システム内での統語論的な操作になぞらえて考えるけど、後半は形式システムと意味システムとのあいだでのやりとりになっていないだろうか。となると、前半から後半に話が飛ぶところでズルというかカテゴリーミステイクみたいなことをしているんではないだろうか。

読み進めてみたけど、計算論には計算論の、アルゴリズムにはアルゴリズムの、形式システムと意味システムがあって、形式システムを回す表象とプロセス(=統語論)がある、となるとそれで話が済んでしまう。元の動機は実装のレベルは神経生物学的モデルで置き換えられるんでは?だったのだけど。


私にとって「アクティブな視覚と意識」って考え方は記号接地問題から来ていて、行動による働きかけがなければ意味も生成しないし、「意味」ってのが出てくるから意識の話になるって思ってた。たぶんこれを神経生物学的観点から来る問題にすることができればもっと意味のある議論になるのだろう。

ちなみにAlva Noeはたぶんギブソンの直接知覚からきていて、sensorimotor dependencyも、なんかものを操作してたとえばものの向こうにも別のものがあるとか、向きによって違って見えるとか、そういう知識があること、を指している。

これはアフォーダンスをpick-upする、ということの言い換えではないかと思う。そしてここには計算論的な発想はない。計算論自体を知らないのかもしれないし、計算論が基本的に前提としている表象主義に反対する立場だからかもしれない。

でもそこで言っているsensorimotor dependencyは内部モデルで置き換え可能だと思うし、それは強い表象主義(<=>弱い表象主義)の前提をおかずに扱えばいいんじゃないかと思う。

そうしないと、sensorimotor dependencyの「知識を持つこと」なんて弱すぎる拘束条件じゃなくて、もっと内部モデルという計算論的概念から厳密科学としてアプローチできるはずだ、と考える。ちなみにBBSのノエandオリーガンは極端行動主義なのであれには同意できない。

「強い表象主義」「弱い表象主義」に関しては昔ブログにまとめたことがある:http://bit.ly/bblnJM 10年前であることにびっくり。

あと忘れてたけど「知恵の樹」ではこう書かれている:[表象とは、入力が引き起こす結果ではない。神経システムは、システムの作動への擾乱を特定することによってひとつの世界(=表象)を生起させている] これはpredictive codingで言うpredictionとよく対応している。


saliencyやbayesian surpriseはpredictive codingの文脈で言うならば、prediction errorの方になる。いっぽうでtop-downのpredictionによってprediction errorをゼロにしようとする。

つまりprediction(P)がawarenessで、prediction error(PE)がbottom-up attention。だからほとんどの場合両者は一致する。両眼視野闘争ではPEが大きい方とPが大きい方のミスマッチが起こっていると説明できる。これはFristionの論文にあったことの受け売り。

Predictionはあくまでそれまでの経験によって形成されたpriorが必要なので、刺激そのものによってボトムアップ的にできたものよりも間接的だ。そして行動によってverifyされることによって内部モデルはアップデートされ、維持される。

夢もMCSでの意識も、それまでに行動によって現実の手触りを持って内部モデルが形成されたからこそ可能なのであって、生まれてからずっと夢を見続けることはできないだろう。ただしこの仮想実験は、顔ニューロンなどの選択性の形成が(ある程度は)経験を必要とする事実と交絡する。

こうして考えてみると、内部モデルの形成とニューロンの選択性とは不可分のものなのか、独立して操作できるのか、という風に問題を捉え直すことができるかもしれない。もちろんこれは内部モデルの実態が何なのかがわからないと意味のある問いではない。

つまり、prediction errorもpredictionもニューロンの活動でしかなくて、たとえばlayerによる違いとかそういうことをいろんな人が考えている。つまり、この問題を解決するために必要な実験的事実がまだ足りない。

あと面白いのは、ニューロンの発火自体はsurpriseとよく合致している(ものもある)ということだ。ニューロンがKL divergence計算しているとは思えないからここはprediction errorのほうでよいと思うんだけど、

そうするとtop-down predictionは発火を打ち消すような抑制として効いているということになる。Interneuron介してやれば上位の領野からの入力が抑制として効くの自体は可能だけど。


以上です。ASCONE自体の募集はすでに終了していますが、ツイッタでの議論は誰に対してもオープンです。まだ現在進行で内容が増えてます。ぜひそちも見ていただければ。それでは仙台にて。


2010年10月18日

ASCONE2010の準備してます(2)ベイジアン・サプライズについて

ASCONE2010 『意識の実体に迫る』 で「注意の計算理論で盲視を調べる」ってタイトルで講義をします。

それに関連していろいろツイッターでつぶやいてきました。それのまとめの第ニ弾は、bayesian surpriseに関連して。ここから:


モデルM、データDがあったときに、prior=P(M)で posterior=P(M|D)としてこのKL距離がベイジアンサプライズ。でもpriorとposteriorの相互情報量 I(M,D)=H(M)-H(M|D)を計算してもよさそうだ。いったいなにが本質的に違うというのだろう? 数学的に違うものを見ているのはわかる。

たぶんこれは、visual search中にinformation maximizationをしているのか、surpriseのminimizationをしているのか、の問いと関わっているんだろう。試しに簡単な例で計算してみればよいのか。

そうだ、このばあいの相互情報量をKL距離で表現すれば、MI=KL(P(M,D), P(M)*P(D))となるわけだから、やっぱ独立性の検定みたいなことしてるわけで、bayesian surpriseとはぜんぜんべつもんだよなあ。

とか書いてたら、おお!! 期待値とったらMIになるということはかなり近い概念ではあるわけですね。ちなみにこの値が注意の指標になるって話です。http://bit.ly/bAF9ni RT @statneuro: 文脈把握してませんが,この定義だと期待値とったら相互情報量ですよね

思い出した、期待値とったらって話はそういえば続報の論文にありました。http://bit.ly/d2wgkz

MI=E[KL(P(M|D),P(M)] これはなるほど! あとここはベイズ更新の文脈なので、時々刻々変わる入力Dに対してsurpriseを計算するのとその期待値であるMIを計算する(すべてのDでP(D)をかけて足してやる)のとは等価ではないはず。

元論文読んでみたら、エントロピーはDに関して積分していて、ベイジアンサプライズはMに関して積分している。だからそれぞれMまたはDに関して積分してやると同じMIになる。だから、ベイジアンサプライズ-MIの関係はエントロピー-MIの関係に相当するらしい。


ベイジアンサプライズの一つ曖昧な点は、KL(prior|posterior)とKL(posterior|prior)のどちらに意味があるか決まらない点。足して2で割るとか書いてあって、それはないだろと思う。

オッズ比の期待値をとったものとしての解釈からは、D,Mごとの surpriseとして対数オッズ比 log(P(M)/P(M|D))が選ばれて、これをすべてのMの期待値で足し合わせたものΣ(P(M)*log(P(M)/P(M|D)))がベイジアンサプライズとなる。

さらにこれをすべてのDの期待値で足し合わせるとDとMとのあいだのMIになる、ということでさっきの話に繋がる。

とりあえずシンメトリックにする技だと思うんですが、そもそもシンメトリックであるべきとする理由がない、みたいなことがNeural Network 2010の方に書いてあります。RT @_akisato: これ、KLを距離関数にするための方法としてよく使われますね。

そうすると、D,Mごとのsurpriseとして対数オッズ比 log(P(M)/P(M|D))をすべてのDの期待値P(D)(=周辺尤度)ごとに足し合わせたものというのも考えられるのか。

なるほど、そっちのほうが基本的には使われているようです。どちらかというとP(M)のほうが計算しやすいという理由だったりするようですけど。RT @_akisato: PとQの情報量の差をPで期待値を取るKL(P||Q)の意味から考えるとKL(事前||事後)が自然ですかねぇ。


以前書いたことだけど、時々刻々の変化を評価している surpriseはあるモデルm1とあるデータd1があるときのオッズ比を全モデル空間M={m1,...}で期待値を取ったものだった。これをさらに全データ空間D={d1,...}で期待値を取るとMとDとの相互情報量となるのだった。だから、サプライズがDの空間で期待値を取ると相互情報量になるというのは、サプライズが時々刻々のデータd1ごとに規定される値で、相互情報量はその検出器にいろんなデータを入れた上で評価される、検出器の性能みたいなもの、ということで別ものであるとは言える。


bayesian surpriseはtemporalなものとspatialなものとを別々に計算できる。temporalなほうは自明だと思うけど、spatialなほうは「detectorの周りは均一な灰色」みたいなpriorからどのくらいずれるかで評価する。だからほとんどsaliencyと等価なものになる。とかいったことをASCONEで説明することになる。ややこしい方へ行きすぎだろうか。

でこのへんからマッドになってくるんだけれど(<-いままでは違うと言いたいらしい)、さいきんやっとquantum families読み出したので、反実仮想と周辺尤度の計算を繋げるとかそんなことが頭を廻ってる。かなり厨房的アイデアなので同じこと昔考えた人は笑ってほしい。

つまり、量子脳とか考えなくても、ニューロンでMとDとを周辺化できれば、まさに実際あったこととなかったこととこれからあることと不可能なこととのアンサンブルを持っていることにならないか? ちなみにこの空間から外れるものがブラックスワン。

さらにもひとつ厨房的アイデアでは、「ガウス曲率は第1基本形式だけで定まる」ってのを読んだときに、localなニューロンの関係性から自分の空間の曲がり具合を知って、情報幾何的な位置関係(つまり KL divergence)とかがわかるんじゃないの?とか考えたけど。トンデモだって笑って。


あとちなみにサプライズとかサリエンシーは計算モデルでしかないから、認知的なサリエンシー検出器とかボトムアップ注意と同一視はできない。よって実験によるevaluationが必要。実際私が今蹴られまくってる論文はそのへんのモデルと実証の往復あたりがポイント。


以上です。ASCONE自体の募集はすでに終了していますが、ツイッタでの議論は誰に対してもオープンです。まだ現在進行で内容が増えてます。ぜひそちも見ていただければ。それでは仙台にて。


2010年10月16日

ASCONE2010の準備してます(1)実習内容に関連して

オータムスクール「脳科学への数理的アプローチ」ASCONE2010 『意識の実体に迫る』 2010年10月30日(土)〜 2010年11月2日(火) で「注意の計算理論で盲視を調べる」ってタイトルで講義をします。

講義内容の説明については生理研のサイトにページを作りました。あと、ASCONEの特徴は実習と討論なのですが、私の講義ではLaurent Ittiのsaleincy toolkitをvirtualbox上のlinuxから走らせて体験してもらう、という実習を行う予定です。こちらについての説明を書きました。ぜひご覧になって試してみてください。

それに関連していろいろツイッターでつぶやいてました。ほかにも講師の土谷さんや金井さんがつぶやいてます。ツイッターをお使いの方はハッシュタグ#asconeで探すと出てきます。おなじものを私がtogetterを使ってまとめたものがありますんで、ツイッター使ったことのない方は「ASCONE2010関連 」にアクセスすると話の流れを追うことができます。

それで、私の部分だけでもけっこうな量になったのでこちらでまとめておくことにします。第一弾としては、ASCONEの実習内容に関連して。話がわかりやすいように、元のツイッタの文章から多少加筆、修正および順番入れ替えとかしている。ここから:


有名なinattentional blindnessのテストはそもそも刺激がsalientでないっていう話。元の話を知らない人は元映像から見た方が楽しめる。元映像もyoutubeにあり。そのあとで、こっちを見てほしい。Youtubeより。映像のsaliency (目立つ部分)を計算して黄色い丸で表示している。じつは見逃したのは視覚的にそもそもsalientじゃないからじゃん?というのがここで言いたいこと。Itti labで世話になったFarhanがアップしロードしてる。

そうそう。似てる話で、Autismでの注視位置について以前ブログに書きました。http://bit.ly/daiNBV RT @NaoTsuchiya: 同じアイデアで、change blindness, attentional blink もどこまで bottom up model でpredict できるか試せますね。

いま思ったけど、このネタはASCONEでなんかうまく使えるかも。

つうか、ASCONE関係で調べ物してたのだった。本末転倒www


以前inattentional blindnessのターゲットがじつはsalientでない、という例に言及した。Change blindnessも同様に考えることができて(ここは土谷さんのsuggestionなのでacknowledge)、spatialなsurprise (=saliency)はあいだに入れられるgap映像とかによるtemporalなsurpriseによってoverrideされるので、じつは計算論的にもそんなにsalientじゃないんじゃないか、と言える。同様にCFSもフリッカーによるtemporal surpriseが反対の目からの入力のsaliencyをoverrideしている例と言えるだろう。

つまり、このような目で見てあらためて、サプライズが高いのに意識に上らないものはあるだろうか?と問い直す。2x2のマトリックスで考えてみる。もちろん、blindsightがその答えになるだろう、と言いたいわけ。


ASCONE関係進めないといけないな。気になっているのが、どうしたらグループディカッションをうまく活用できるかということ。以前の@kazuhi_s_ さんのツイート(http://bit.ly/d3i4Iv)にもあったけど「アイデア議論」と「実験デザイン/遂行」の2種類がある。

今回は全体のテーマが意識なので、みんなして議論・アイデア系の課題を出すと毎回似たり寄ったりの課題になってしまう。だから実験操作寄りのことを考えている。

今年はIttiのツールキットをいじってもらって、画像やムービーをsaliency mapに変換してもらう。いろんなパラメータがあるのでそれいじってもらって、主観的に目立って感じられるものと計算されるsaliencyがどのくらい一致/乖離するか報告してもらう。

たぶん主観的に目立つかどうかはもっとトップダウンの影響を受けていることとか学んでもらえるはず。ではどうやったらあるムービーのトップダウンの注意を定量化できるだろうか、なんて議論になってもいい。

あとほんとうは、こっちから画像データを渡すんじゃなくってその場でwebとか探してもらって、一番意外かつ面白い映像を見つけた人が勝ち、みたいなコンテスト方式を考えた。このネタがこのあいだのinattentional blindnessとかchange blindnessとかに繋がる。この話はこのあいだ書いた。

ほかにもmotion-induced blindnessの映像を変換したらどうなるだろうかとか。Localな動きの変動によるsaliency/surpriseの変化と点が見えなくなるタイミングは一致しているだろうか?

そんなわけで、とりあえず錯覚系のサイトに行って片っ端から映像を変換してもらうだけでそれなりに楽しめるはず。ほんとうはYouTubeとかその場で漁ってくれるとめちゃ楽しいけど、ストリーミングだけだからなあ。少なくとも公式には。ちょっとこれは推奨できないか。


以上です。ASCONE自体の募集はすでに終了していますが、ツイッタでの議論は誰に対してもオープンです。まだ現在進行で内容が増えてます。ぜひそちも見ていただければ。それでは仙台にて。


2010年09月14日

告知: ASCONE2010で講義担当します

さてさて、今年の神経回路学会オータムスクールASCONE2010で講義担当することになりました。Webサイトはこちら。テーマは「意識の実体に迫る」で、特別講演がカルテクの下條信輔先生、講師は以下の通り(アイウエオ順):

  • 宇賀 貴紀(順天堂大学)
  • 金井 良太(University College London)
  • 土谷 尚嗣(カリフォルニア工科大学)
  • 吉田 正俊(生理学研究所)
  • 渡辺 正峰(東京大学)

というわけでNIPS-ASSCからのつながりを感じつつ。来年は京都でASSCですのでそちらもよろしく。自分的には2008年神経科学大会のシンポジウム - 2009年生理研国際ワークショップ(NIPS-SSC) - 2010 ASCONE - 2011 京都でASSC(意識の科学的研究学会)ということで意識研究の流れを激しく感じますよ !!!

じつはわたしは2007年のASCONEでも講義をやりまして、そのときは「盲視が明らかにする“気づき”の脳内情報処理」ということで行いました。

今年も同じことをやるのでは芸がないので、今年はテーマとしては「注意の計算理論で盲視を調べる」(仮題)というかんじでいこうと考えています。

ちょうど4-6月のあいだ、南カリフォルニア大学のLaurent Ittiのところに滞在してsaleincy mapの計算論モデルをblindsight monkeyの視覚探索に応用する、という仕事をしてきました。ですんで今回は計算論的な話を中心に行こうというわけです。

講義内容はまだ未定ですが、いま考えているのはこんな感じです:

  1. 導入:「注意とは」「saliencyとは」「Bayesian surpriseとは」
  2. デモと実習:Saliencyやsurpriseを実際に計算してみる
  3. 補足講義1:Blindsight monkeyがsaliencyを使える - 注意と意識の乖離
  4. 補足講義2:Bayesian surpriseとgenerative model - 注意と意識の計算論
  5. 討論:注意と意識は計算論的にどう違うのか

すでに詰め込みすぎなので、もうちょっとshape upする予定。

デモと実習では、Itti labが作成しているLinux実行ファイルがVirtualBoxで動かせるようになってますので、こいつを試してもらうことを考えています。

「Bayesian surpriseとgenerative model - 注意と意識の計算論」というあたりまでいきたいと考えていたんだけど、余裕でムリ。わたしの勉強が追いついてない。ということでここはボツ。ただ、知覚がBayesian surpriseであるという話がだんだん広がってますが、ではこれは注意なのか意識なのか、という問題提起ができたらいいなと思ってます。

募集は終了してます。(すいません、告知遅れました。) ぜひこちらもご期待ください。

あと生理研研究会の方もぜひ:現在の状況


お勧めエントリ

  • 細胞外電極はなにを見ているか(1) 20080727 (2) リニューアル版 20081107
  • 総説 長期記憶の脳内メカニズム 20100909
  • 駒場講義2013 「意識の科学的研究 - 盲視を起点に」20130626
  • 駒場講義2012レジメ 意識と注意の脳内メカニズム(1) 注意 20121010 (2) 意識 20121011
  • 視覚、注意、言語で3*2の背側、腹側経路説 20140119
  • 脳科学辞典の項目書いた 「盲視」 20130407
  • 脳科学辞典の項目書いた 「気づき」 20130228
  • 脳科学辞典の項目書いた 「サリエンシー」 20121224
  • 脳科学辞典の項目書いた 「マイクロサッケード」 20121227
  • 盲視でおこる「なにかあるかんじ」 20110126
  • DKL色空間についてまとめ 20090113
  • 科学基礎論学会 秋の研究例会 ワークショップ「意識の神経科学と神経現象学」レジメ 20131102
  • ギャラガー&ザハヴィ『現象学的な心』合評会レジメ 20130628
  • Marrのrepresentationとprocessをベイトソン流に解釈する (1) 20100317 (2) 20100317
  • 半側空間無視と同名半盲とは区別できるか?(1) 20080220 (2) 半側空間無視の原因部位は? 20080221
  • MarrのVisionの最初と最後だけを読む 20071213

月別過去ログ