[カテゴリー別保管庫] ニューロンの情報コーディング


2015年02月26日

「状態空間モデル入門」講義に出てきた

明日総研大の大学院講義で「状態空間モデル入門」小山慎介(統計科学専攻)というのがあるので勉強してくる。島崎さんのPLoS Comput Biolとか理解できるようになることを期待して。

予習中。「神経科学と統計科学の対話3」State Space Methods in Neuronal Data Analysis (Z Chen) パート1及びスライド。動画はパート2およびパート3まであり。


「状態空間モデル入門」講義参加してきた。あいにく出席者が少なくて残念なかんじだったが、おかげでバンバン質問してマンツーマン的に教わることができた。講義としてはまず確率的因果推論とマルコフ過程の概論から。

確率的因果推論っていうけど、以前ブログで「ラットの因果推論」について採り上げたときに、原因の確率を手計算していたけど、あれがまさに確率的因果推論であって、PRML8章の「グラフィカルモデル」というやつのこと。たとえば遺伝の話で言えば、メンデルの法則っていうforwardモデルがあるから、先祖から子孫で表現型がどのような確率で伝わるかわかる。ベイズの法則を使えば逆向きの推定ができて、ある子孫の表現型から先祖の表現型の確率を推定できる。

マルコフ過程のほうはPRML13章の「系列データ」に出てくるあれ。状態量x(t)が直前のx(t-1)だけで決まる。隠れマルコフモデルでは、計測値y(t)と見えない状態値x(t)とに変換式P(y(t)|x(t))があって、x(t)がマルコフ過程になっている状態空間モデルの特殊例(取り扱いしやすい例)だということですっきりまとまった。

ベイジアンのグラフィカルモデルでは有向でループのないツリー状構造が扱われるのに対して、マルコフ過程ではx(t-1)だけでx(t)が決まるという、枝のない特殊例であるということも理解した。

カルマンフィルターも状態空間モデルの特殊例で、隠れマルコフモデルが離散的であるのに対して、カルマンフィルターは連続的であり、ノイズがガウシアンであるという仮定が入ってる。

隠れマルコフモデルでは、いったん計測値y(1:t-1)が入手できれば、現在の状態値x(t)の確率密度分布p(x(t)|y(1:t-1))を計算するのにチャップマン=コルモゴロフ方程式を使ってやればよい。

M1ニューロン活動から運動の方向をデコードするような例の場合、ニューロン活動も運動も自己相関が高いので運動の方向は急には変わらない、つまり自己相関が高いのでマルコフ過程の仮定を置くことができて、デコーディングがうまくいく。

実際にチャップマン=コルモゴロフ方程式を使う際には

p(x(t)|y(1:t)) ∝ p(y(t)|x(t)) * p(x(t)|y(1:t-1))

でベイズの公式を使う。規格化するために分母を計算しないといけないのでパーティクルフィルタとか使ったりとかいろいろテクがある。講義では省略されてたけど、ここが難しいし、時間がかかる部分であることはわかる。

けっきょく状態空間モデルでは見えない状態x(t)を計測値y(t)から推測するためにベイズ推定を使うので、x(t)からy(t)を生成するモデルがうまく作れないとダメな推定を行ってしまうことになる。


後半の講義では、小山さんのJ Comput Neurosci. 2010 Comparison of brain-computer interface decoding algorithms in open-loop and closed-loop controlを元にした話をしてた。

ここでは、デコーディングをする際に、1) population vector => 2) ordinary least squares => 3) nonlinear least squares => 4) loglinear least squares => 5) state space model とモデルを変えるごとに拘束条件をゆるめてより自由なモデリングができること、そしてこれらのなかでM1ニューロンのデコーディング(Andy Schwartzのデータを利用)にはどの拘束条件が効いているかを検討した話を聞いてきた。

結論としてはopen loopのデコーディングでは「サンプルしたニューロン集団のなかでpreferred directionが一様に分布している」という1)での縛りが聞いているのだけれど、closed loopでは動物が学習してくれるのでこの縛りは重大でなくなる。それでも5)でadaptiveのノイズのスムージングをしてくれることがデコーディングの性能に効いているという点ではclosed loopでもopen loopでも変わらん、というものだった。

これはモデル推定のパラダイムだから、たとえば状態空間のモデルとして複数のものを作って、それらからより良いモデルを選択するということも可能。


状態空間モデルは自由度が高いので、島崎さんの論文のように高次相関を状態空間モデルに組み込んでやれば、時々刻々と高次相関が出たり消えたりする(セルアセンブリの形成)のを推定することができる。多細胞同時記録神経スパイク時系列データの状態空間モデルおよび動的スパイク相関の状態空間モデル やっとこのへんわかってきた。

状態空間モデルでは、データの追加にともなってそのつどベイズ更新をしてゆくから、たとえば電極埋め込んで長期間デコーディングをしてゆくときとだんだん記録が悪くなっていくのだけど、そのときにデコーダーを逐次アップデートしてゆくことができるわけで、それはよさそう。ざっとググってみたかんじタイトル的にこの論文が該当するか:Neural Comput. 2011 "Adaptive decoding for brain-machine interfaces through Bayesian parameter updates."


状態空間モデルがうまくいけば、状態量 x(t-1) -> x(t) -> x(t+1) といった推移を推定できるわけで、究極的にはそれがスパイキングネットワークモデルでの推移則を決めるための拘束条件にできればいい。こうすると力学系的アプローチにつながる。夢見過ぎだろうか?

それはそれとして、時系列の解析で見えない過程から測定値への変換のモデルを作って、測定値から見えない過程を推定する、というのはまさに生理学者がやりたいことそのものなので、いろんなところに使えるということがわかる。


ニューロン活動だけでなくって、サリエンシーに基づいた視覚探索の場面でも使えるだろう。サリエンシーにもとづいてどのように目を動かすか、IORとかattention apertureとかいくつかパラメータを作って、モデルを作ってパラメータフィッティングとか最近やってるんだけど、これってまさに状態空間じゃね?

とか思ってふと考えてみたら、NTT木村さんがやってたのってまさにベイジアンな隠れマルコフモデルによるアプローチだった。A stochastic model of human visual attention with a dynamic Bayesian network いまのいままで繋がってなかったomg!!! ということでなにすればいいか判明した!


2012年12月07日

フリストンの自由エネルギー原理関連ツイートまとめ

(2012/6/22)昼ご飯でTom Froseとけっこう突っ込んだ話が出来たので(フリストンの自由エネルギー原理とヴァレラのコヒーレンス理論とか)これは有意義でした。

わたしの折衷主義的なアイデア(dorsalはenactiveでventralはpredictive coding)はTom Froseを満足させることは出来なかったけど、「自由エネルギー原理が平衡状態を前提としたものである点が限界」ということで意見が一致しました。


(2012/6/23)Tom Froseにも同じこと言われた。川人先生の双方向理論と同様、感覚と運動両方に適応できるところがインパクトなのはその通り。Predictive codingは腹側に限る、という方が正確です。背側腹側かは不明だけど、理論適応範囲を定めたいという動機です。

サッカードによる視覚探索の場面だと、自由エネルギー最小化はinfomaxと等価になって、これはNature 2005 とかで言ってることと同じになる(たぶん)。

Marrの3段階説で、物理的実装の層, アルゴリズムの層, 計算論の層ってあるときの計算論ってところがなにか最適化しようとするものを定める(ジャーク最小化とか)。自由エネルギー最小化ってのは計算論の層を抽象化してまとめようとしている。どちらも工学的問題解決だから話が収束する。

そうすると、いろんな計算論的問題があるんだけど、それの第4層に自由エネルギー最小化ってのが来て、すべてが根本的には同じ問題である、というなんかピラミッドみたいな描画になる。ここまでイメージを広げると、これはE=MC^2のような統一理論ではなくて、雑多な理論に共通性を見いだすメタ理論の提唱と考えた方がよいことが分かる。

(これはFrisotn自身も言っていた。何か新しいことを見つけたというのではなくて、それらを繋ぐものだから、自由エネルギー"principle"と呼んでいるのだと。)

視覚の方は腹側経路をメインにした論理構築で、運動の方はリーチングを元にしているというのがちぐはぐなのであって、vision-saccadeみたいな系で入口から出口までひとまとめで説明するというのが「統一的説明」が取るべき戦略ではないかという気がしてきた。


(2012/6/27)Perceptions as hypotheses: saccades as experiments まさに以前書いたフリストンでサッカードでベイジアン・サプライズだった。これ読んで駒場の冬学期の大学院講義までにこのへんネタにできるようにしておく。


(2012/6/28)(神谷さんによるFree-energy minimization and the dark-room problemの紹介に対して) ご紹介ありがとうございます。さらに論文出てるのですね。もうぜったい追いつけない。「暗い部屋問題」は行動選択の際にsurpriseを下げる=unlikelyな状態を避ける=餓えるまで動かないとかを避ける、で解決すると理解してたのだけどやっぱ問題なんですね。


(2012/7/25)Predictive coding云々と言い過ぎたが、神経生理学者としてどのくらい尤もらしいか言うなら、"explain away"するために「引き算」するって考えは、ぜんぜんニューロンの抑制ってものを分かってないと思う。ニューロンの抑制というのは線形的に足しあわされない。

Shunting inhibitionみたいなかんじで、コンダクタンスに効いてくる。だから、ニューロンの抑制は非線形的に、割り算のように効いてくる。これがHeegerのnormalizationモデルとかで使われている機構。

わたしがよく使う話で「ニューロンの応答はonsetで最大で、その後弱まる。だから、ニューロンの応答はfeatureそのものをrepresentしているのではなくて、そのsurpriseなのだ」みたいな説明をするけれども、じゃあなんでニューロンの応答はゼロにはならないかというと、それはexplain awayされてゼロになるのではなくて、割り算されて小さくなるから、というのが妥当なところだろう。

ちなみにIttiのbayesian surpriseでの説明では、temporal surpriseは時間が経てばゼロになるが、spatial surpriseはゼロにならないので、足し合わせるとゼロにはならない、という説明になる。あと、Fristonの図に出てくるlayer2/3がprediction errorでlayer5がpreditionというのは解剖学からの類推であって、生理学的には根拠がない。これはempiricalな問いなので、二光子の人にはぜひ検証してほしい。

とにかくempiricalな証拠が足りなくて、これまで出てきたようなRao and Balladのend stoppingとか、Hosoya et.al.のRGCとかはmodulationとかadaptationのレベルなので、これがfeature検出器説をrejectするわけではない。そういうわけで、このラインで寄与できることにこそ進むべき。

要は、生物学的なplausibilityだけ考えていると、計算論的原理がさっぱり見えてこないので、アラン・チューリングがやったみたいにsimplicityを見つけ出すべき。だから情報理論的に考えたいって話になる。


(2012/8/7)Attention Reverses the Effect of Prediction in Silencing Sensory Signals ハクワンとFloris de Langeとで、フリストンのラインで注意について議論してる。

Floris de LangeってのはDehaeneのところにいた人だった。


2012年05月25日

コウモリのlocalizationとdetection

FB経由で以下の論文を知った。"Optimal Localization by Pointing Off Axis" Science 2010 コウモリがecholocationをするときにはソナーのピークではなくて、ちょっとずれたところを使う。

これはつまり、センサーの応答の変化が最大(slopeがもっとも急峻)なところを使う=fisher情報量が最大のところを使う、ということで、以前ブログで言及したpopulation codingの話(20120122)と同じことなのだ。

つまり、Hol and Treue のvision research 2001の現象と Jazayeri & Movshon Nature Neuroscience 2006 (pdf)の計算論のときにはtuning curveの広いセンサーを使ってcoarse discriminationをしなければいけない状況ではdetectionとidentificationとが乖離するということが分かっていて、それをわたしはYN-FCの話と関連づけられないかと考えていたのだった。

このコウモリの話のいいところは、これがlocalization、しかも自分を動かしながらやっていくという話であって、detectionとlocalizationという図式で捉えられているということ。それならばこっちのほうがよりsaccadeに近い状況と言えるだろう。

saccadeがちとややこしいのは、ものすごく速い現象(<30ms)なので視覚フィードバックは使えない、でも小脳の内部モデルでフィードフォワード的に軌道修正しているという点。しかし、正確なサッカードに必要なことと正確な検出に必要なこととが計算論的にどう違っているかというような問題として考えるヒントになりそうだ。

まだ頭が追いついてないけど、そしてこれは私が今この一ヶ月以内にとりかかるべきことでもないけど、とにかくこうやってメモっておく。


2012年02月22日

invarianceの表象とかそのあたり(承前)

12月の仙台の研究会の時、たしか筒井さんの発表に関連してだったと思うけど、invarianceのコーディングについてコメントをした。つまり、刺激A,B,Cをあるカテゴリーとしてコードしていると言うとき、神経生理だとそれは刺激A,B,Cで同様な応答を示すことを指していたりする。

でもそれって、「刺激選択性がない」「刺激A,B,Cを区別する情報を持ってない」ってことであって、刺激A,B,Cのカテゴリーをコードしているとは言えないんではないだろうか? 同様なことは他のinvarianceについても当てはまる。

これはべつに哲学でもなんでもなくて、計算論的に言っても、(顔のコーディングを例に取れば) 顔A,B,Cを同じように表象することと同時に顔とそれ以外の物体とのあいだで違った刺激応答をすることの両方が必要となるはずだ。まだ計算論的ではないな。

計算論的に言うならば、刺激選択性自体はencodingだから、invarianceをコードするのにencodingの部分でおなじになっている必要はない。行動でも脳内表象でもなんでもいいけど、その情報をread-outするとき、decodeするときに刺激A,B,Cを同じように扱ってさえいればよい。

さらにここまで考えてみると、そもそも反応特性(=tuning curve)というのは純粋にencoding modelだろうか?という疑問もわく。

Attentionを含むtop-downのmodulationというのはけっきょくのところ、read-outする過程をニューロンの活動に見ているのであって、視覚ニューロンのtuning curveのようなencodingからそれを読み出して行動と内部表象に使うdecodingとしてのニューロン活動もあるとすべきではないだろうか?

ただし、知覚-行動で分けるのはヘンな話で、ニューラルネットのhiearchicalな構造の各ステップでpredictive codingをしながらneuronの活動がsurpriseを消すようにtop-downが働くということ自体が、encodingとdecodingの小さなループを作っているということになるのだろう。

つまりなにを考えているかというと、ローカルにはこのようなループしかないのだけど、それを全体としてみると前頭葉が知覚皮質にトップダウンの信号を送っているみたいな図になって、それをトップダウン的注意とか言ったりするのであって、それはモジュール説を前提とした認知心理学的な概念であって、マー的な計算論を徹底すると、predictive codingとトップダウン的注意とは計算論の別のレベルとなる。

しかも計算論ではトップダウン的注意という言い方は不必要で、なんか明示的なパラメータの最適化みたいなものに置き換える必要があるだろう。たとえばspeed-accuracy tradeoffを前提とした上での得られる報酬の最大化みたいな。

話を戻すと、encoding-decodingを脳内でニューラルネットワークが行っていることとして捉えてみると、素朴心理学的概念が雲散霧消したりしないかということで、そう書いてみるとそれはコネクショニストの描いた夢をそのままなぞっただけかもしんない。

コネクショニスト的な概念を元にすることでなんでも消せる希望がわくので、「意識」も消して見せたくなる。これが「消去主義的立場」の動機ではないだろうか? 余計なことを言った。

ふたたび話を戻すと、初期視覚野のニューロン応答がencodingであるのはいいとして、そのmodulationはdecodingの過程が混ざっていると捉えることが出来るだろう。(ちょっとこのへん雑すぎ) では、運動情報の表象はencodingか? ちとわからなくなってきた。

なんかこういうことを考えたら、表象じゃなくて、行動側から考えたり出来ないだろうか? あと落ち穂拾いとして、いま書いたことはRizolattiの「注意のpremotor theory」というやつとたぶん関係するのだろう。

トップダウン注意が行動/運動と分かちがたく結びついているのはつまり今書いたようなたくさんのループの連なりをステップごと、もしくは違った空間スケールで、top-down attentionと言ったり、運動準備と言ったりするからなのだろう。


2012年01月22日

SDTとpopulation coding (10/20バージョン)

Population codingの文脈で盲視のFC-YNの乖離について考えていた。SDT的に考えればFCとYNは統一的に扱えて、S1,S2という刺激に対して、blank-S1, blank-S2という二つの軸での検出があって、S1-S2の弁別がある。

この枠組みだと、d'(FC) > d'(YN)とはblank-S1, blank-S2の二つの軸が直行していなくて、>90degであるという理解になる。これはS1, S2のシグナルが逆相関しているということ。mutual inhibitionとかを入れれば作れなくもない。

一方で、受容野の広がりという問題があって、盲視では(おそらく)受容野が広がっているので、S1への刺激はS2受容器も刺激してしまう。この意味ではS1-S2には正の相関があり、直交というよりは<90degとなるように考えた方がよい。

(言い忘れたけど、いまの話はMacmillan and Creelmanとかにある、SDTを2Dで表現した図式のこと)

つまり、V1 lesionでRFが広がったことを考慮すると、逆にd'(FC) < d'(YN) ということが起きてしまうので、RFの広がりではこの現象を説明できない。これを棄却すべきモデルとして使う。

Population codingの文脈で私にとって重要なのは、検出では、たとえばS1の検出にはS1にpreferenceを持ったニューロンがいちばん寄与する。(最尤推定するためのニューロンへの重みはS1ニューロンが最大)。いっぽうで弁別では話が変わる。

S1-S2の弁別の際にはS1よりもS2から離れた位置にpreferenceを持つニューロンが寄与する。(たとえばS1, S2それぞれの刺激の位置(polar angle)が+30deg, -30degとすると、+45degにpreferenceを持つニューロンとかの方が寄与する。

つまり弁別では最尤推定するためのニューロンへの重みはS1ニューロンではなくて、+45degニューロンが最大。つまり、検出と弁別とでは判断をするために使うエビデンスが別物。それなの

にノーマルではFC-YNの乖離は怒らないわけで、両者のキャリブレーションが済んでいる。 しかし盲視ではそれがうまくいかない。さらに意志決定の際には、FCの場合には二つのエビデンスを持ったニューロン(+45degニューロンと-45degニューロン)の差を計算するが、YNの場合には二つのエビデンスを持ったニューロン(+30degニューロンと-30degニューロン)の和を計算した上で閾値との比較をする。

ハクワンとかは盲視はこの閾値の設定の問題であるという言い方をするのだが、問題はじゃあなんで閾値が正しく設定できないかということで、さっきキャリブレーションという言葉を使ったけれども、なにかがモニタできていないから最適な行動が取れてないのだ。

ハクワンの話はヒトでの話で、私が想定しているのはnhpでのeconomical decisionでの場面(どちらかというとpost-decising wageringに近い。nhpは内観報告をしているのではなくて、報酬のための意志決定をしている)なので、前者では閾値の調整が不要だというところが大きな違い。

Azzopardi 1998では、forced-choice detection (当てずっぽうでいいからあるかないか当てる)とするとバイアスが0になるというデータがある。(d'がどうなっているかは出てない。これがいちばんcriticalなのだが)

それで、なにがモニタできていないかというと、エビデンスが積み上がっていくことがモニタできてない。だから、それを待たずにサッカードする(nhp)とか逆に時間かけてサッカードするけどさっぱり確信がないってことになる。

JNS2008で使ったdiffusion modelの解析はそういう意味では、暗い刺激と明るい刺激とでadaptiveにthresholdを変えてdecisionする(normal)はずなのにそうならないってのを見た、というふうに解釈できる。

つまり、試行の中でも初めのうちは明るい刺激が出るものとして閾値を設定していて、それに引っかからないようだと閾値を下げて引っかかるのを待つ。そうなると、エビデンスがモニタできないことと、閾値を動かすこととをどうやって分離できるとというのがつぎにやるべきことかも。

話がとっちらかったのでまとめ気味に戻すと、population codingのスキームでは検出と弁別で使うエビデンスが違うのにd'(FC)=d'(YN)となるようなキャリブレーションが行われている。そのような問題解決をしたニューラルネットワークを作って、そのうえでそのモデルのどこをいじると盲視が再現できるか、という風なストーリーが作れる。でもって、RFが広がったから、という説明は結果は逆になるので棄却できる。それなりにリアリスティックなモデルになるから、刺激のコントラストを下げたときにノイズがどのように効いてくるかとかそのへんを押さえる。


2004年08月24日

JNS 8/18

"Adaptive Temporal Integration of Motion in Direction-Selective Neurons in Macaque Visual Cortex." Wyeth Bair and J. Anthony Movshon @ NYU。Movshonは有名だからいいとして、 Wyeth Bairの方について:"spikes"の著者らはハエのH1ニューロンが速くノイジーな動き刺激に対してニューロンのスパイク一発一発が正確に高い情報量を持って反応することを示しました。Wyeth BairはKochの元で(Newsomeのところのデータを解析して)哺乳類のMTでも同じことが成り立つことをはじめて示した人です("Temporal precision of spike trains in extrastriate cortex of the behaving macaque monkey."*1。その後はMovshonのところで自分の手でV1からデータを取って論文を書いているようです。
今回の論文では、V1とMTから記録して、今まで使われてきたようなランダムなdirectionの刺激を使ってspike triggered averagingをしてやって、刺激のいろんなパラメータに関する時間的特性を見てやった、というもののようです。んで、いろいろやって、いろいろとnon-linearityがあるということらしいです、そのくらいしか読めてませんがとにかく。

*1:なお、この系列の仕事はNeuron '98 "Efficient discrimination of temporal patterns by motion-sensitive neurons in primate visual cortex."としてBuracas GT and Albright TDによって結実します。


2004年02月17日

Nature Neuroscience

"First spikes in ensembles of human tactile afferents code complex spatial fingertip events."
Johansson @ Umeå University。
humanのtactile afferentからの記録で別々のafferent inputがどういう順番でやってくるか(burstの一発目がやってくる順番)という情報を使って触覚がコードされている、というもの。
こういう基礎的な回路に関する研究は中枢で研究しようとするとなかなか難しいので、末梢での研究にアドバンテージがある。同様なアドバンテージを使ってpresynaptic inhibitionが運動時に感覚入力をシャットアウトするために使われていることを示したのがNature Neuroscience '03 "Sensory input to primate spinal cord is presynaptically inhibited during voluntary movement."だ。
んで、今回の論文のN & VをBarry Richmondがやっている。"Recruitment order: a powerful neural ensemble code." Richmondは前にlatencyの違いによる情報のコードの可能性というやつを示していたし(Gawneがfirst authorのやつ)、JNS '03でorder statisticsというやつを使っていて("Decoding Spike Trains Instant by Instant Using Order Statistics and the Mixture-of-Poissons Model.")、たぶんこれと関係があるんだろう。読まなくちゃ、ああわからない。
Richmondがコーディングに関してやっていることは報酬に関してやっていることよりも好き。


2003年12月21日

JNS (12/19)の続き

けっきょくこの論文は前半は'00 Neural Computation
で出てきたSynergyをもう一回説明しなおすもので、
後半はNirenberg & Latham (最近PNASも出した)への返答(KL divergenceを使った計算の是非について)、となっているらしい。詳しいことはNeural Computationのほうを読み直したほうが良さそうだが、けっきょくのところ、二つのスパイクのcorrelationを計算するのに、(1) activity independence p(r1,r2)=p(r1)*p(r2)の検定(r1とr2は二つのニューロンのactivity)に関する情報量(刺激条件をmergeした上でのcorrelationによる情報量)、(2) Conditional independence p(r1,r2|s)=p(r1|s)*p(r2|s)の検定に関する情報量(刺激条件ごとのcorrelationによる情報量、つまり刺激条件によらずcorrelateしている成分)の二つがあって、(3) Information independence (1)-(2)の情報量の成分の差が正のとき、二つのニューロンのスパイクはそれぞれ単体がもっている情報以上をもっている(synergy)、逆に負になると二つのスパイクのもっている情報がredundantである、ということになるらしい。
このsynergyがCarlos Brodyの論文
が問題としているようなLatency covariationsやExcitability covariationsを排除していたSpike timing covariationsを見ているかというと多分そういうことではないはずで、このsynergyというやつをどう扱ったらよいかちょっとわからない。Neural ComputationのほうはFlyの例があるので、そっちを読んだほうが良さそう。


2003年12月19日

JNS

"Synergy, Redundancy, and Independence in Population Codes."
Bialek @ Princeton University。"Spikes"の著者。
前に出たNirenberg S, Latham PのNature '01でRGCニューロンがcorrelateしているかどうか、というのが論争になったことがあるのだけれど、このJNSはその辺で出てきたmutual informationとencodingとdecodingの関係についてのsummaryのpaperであるよう。けっきょくのところmutual informationはencodingに使うものであって、decodingにはどういう情報はロスしてよいか、といった重み付けが不可欠であるということらしい。


2003年11月30日

Nature

Balanced inhibition underlies tuning and sharpens spike timing in auditory cortex
Anthony Zador。前にNature Neuroscienceに載ったnoisy inputによるspikeの話が出世作か。
V1ニューロンの反応選択性はLGNからの興奮性入力とV1からlateral inhibitionにより決まり、興奮性受容野より抑制性受容野のほうが大きい(たしか)。この興奮性入力と抑制性入力によってどのように反応選択性がtuneされているかは激しく議論されてきた。
Zadorらは聴覚野でin vvivo whole-cell patchをすることで聴覚野では興奮性受容野と抑制性受容野とが同じ大きさであることを示している。


お勧めエントリ

  • 細胞外電極はなにを見ているか(1) 20080727 (2) リニューアル版 20081107
  • 総説 長期記憶の脳内メカニズム 20100909
  • 駒場講義2013 「意識の科学的研究 - 盲視を起点に」20130626
  • 駒場講義2012レジメ 意識と注意の脳内メカニズム(1) 注意 20121010 (2) 意識 20121011
  • 視覚、注意、言語で3*2の背側、腹側経路説 20140119
  • 脳科学辞典の項目書いた 「盲視」 20130407
  • 脳科学辞典の項目書いた 「気づき」 20130228
  • 脳科学辞典の項目書いた 「サリエンシー」 20121224
  • 脳科学辞典の項目書いた 「マイクロサッケード」 20121227
  • 盲視でおこる「なにかあるかんじ」 20110126
  • DKL色空間についてまとめ 20090113
  • 科学基礎論学会 秋の研究例会 ワークショップ「意識の神経科学と神経現象学」レジメ 20131102
  • ギャラガー&ザハヴィ『現象学的な心』合評会レジメ 20130628
  • Marrのrepresentationとprocessをベイトソン流に解釈する (1) 20100317 (2) 20100317
  • 半側空間無視と同名半盲とは区別できるか?(1) 20080220 (2) 半側空間無視の原因部位は? 20080221
  • MarrのVisionの最初と最後だけを読む 20071213

月別過去ログ