[月別過去ログ] 2006年04月

« 2006年03月 | 最新のページに戻る | 2006年05月 »

2006年04月24日

論文いろいろ

JNS 4/19。"Contribution of the Monkey Frontal Eye Field to Covert Visual Attention" Jean-Rene Duhamel。以前のNeuron 2004 ("A Deficit in Covert Attention after Parietal Cortex Inactivation in the Monkey")でのLIP muscimol injectionと対応づけて考察する必要あり。
JNS 4/19。"Attentional Modulation of Thalamic Reticular Neurons" WurtzがThalamic Reticular Neuronsでattention。
JP 2005。"Motor commands contribute to human position sense"
via 認知科学徒 News Memo


2006年04月20日

Nature 4/20

"Weak pairwise correlations imply strongly correlated network states in a neural population"
William Bialek ("Spike"の著者)の論文がNature Articleにて。Pairwise correlationみてるだけじゃだめだよ、もしくはPairwise correlationがしょぼくても全体としてはcorrelationあるときもあるよ、というメッセージとも取れそう。読まなくては。
"Unique features of action potential initiation in cortical neurons"
こっちはもっとここのニューロンレベルのkineticsの話。News and Viewsは"Neuroscience: Spikes too kinky in the cortex?"にあり。


2006年04月12日

Newsome論文のcomputational model

選択行動に関するNewsome論文Science 2004のcomputational modelがXiao-Jing Wangによって提案されています。
JNS "A Biophysically Based Neural Model of Matching Law Behavior: Melioration by Stochastic Synapses" Alireza Soltani and Xiao-Jing Wang
しげさんのところで詳しく解説されています。つづき期待中。
Xiao-Jing Wangはhosrt-term memoryのときのdelay activityのモデルとかそういうのやってるひとですが、新しいデータに即していろいろやっているようですね。以前もRomoのgradedなdelay activityのモデルやってたよな、と思って探してみたら、Science 2005 ("Flexible Control of Mutual Inhibition: A Neural Model of Two-Interval Discrimination")はRomo and Brodyであって、そのまえのCerebral cortex 2003 ("A Recurrent Network Model of Somatosensory Parametric Working Memory in the Prefrontal Cortex")のほうに入っているらしい。

コメントする (2)
# sky

調べ物をしていたら、このサイトにヒットしました。近年、私が行っていた話題を、こんなところで議論されていたのか、と思って驚いています。あの頃、気付いていれば、議論に参加できたのに、と思っています。

ずいぶん時が経ってしまって申し訳ありませんが、Sugrue(2004)論文に関してここで行われた一連の議論に抜け落ちている点、Soltani & Wang (2006) に対する評価をここで、追加しておこうと思います。


Soltani & Wang (2006) について

彼らのモデルは、状態変数がないQ-leaningをシナプス学習則で実現するモデルとなっており、選択比と強化比の関係は課題と学習パラメータに依存します。したがって、Matching law を実現するモデルでもMeliorationでもありません。逆にその性質を利用してMatching からのずれである undermatching を再現しているかのように見せています。

私は彼らのモデルをQ-leaning及びその亜種をシナプス学習則で実現するモデルとして評価しています。しかし、Matching law とは何の関係もありません。

Matching law を実現するシナプス学習則は、Loewenstein & Seung (2006) が、報酬と行動関連神経活動の間の共分散に比例する "covariance rule" として、一般則を提案しています。


Matching Task について

報酬量を同じにした並列VI-VIスケジュールが、Matching と Maxmizing を区別できる課題ではないことはmmrlさんに指摘されている通りです。また、報酬量を選択肢によって変えた並列VI-VI(Baum & Rachlin 1969)でも、並列VI-VR(Herrnstein & Heyman 1979)でも、DeCarlo(1981)課題でも、Mazur(1985)課題でも、Matching と Maximizing の区別はできますが、区別しやすい課題パラメータを選ぶと、構造的に交互選択がランダム選択より得になりがちで、交互選択をさせないために Change Over Delay もしくはそれに類した、交互選択に対するコストを導入しており、問題を難しくしているばかりか、無理やりMatching Behaviorを出させている印象を与えています。

並列VI-VI,VI-VR,VR-VRの間を連続的につないで包括する競合的採餌課題(Sakai & Fukai 2008)では、交互選択が得にはならないで、Matching と Maximizing が区別できるパラメータはありますが、最適行動がランダム選択でない点は上記課題と共通です。

しかし、Meliorationを提案したVaughan & Herrnstein (1981) は、もっと強力な課題を考案しており、実際、Matching law 及び Melioration を支持する結果を出しています。Vaughan課題は、各選択肢の報酬確率 P(r|a) を、過去の一定期間に被験者がその選択肢 a を取った頻度 N_a に依存して、

P(r|a)=f_a(N_a)

と決める課題です。つまり報酬確率は直前一定期間の選択頻度に応じて変化します。平均獲得報酬は選択頻度のみに依存し、Localな選択順序に依りません。関数 f_a をデザインすることで、最適な選択頻度、Matching law が成り立つ選択頻度を自由に設定できます。Matching を議論するのに適した素晴らしい課題だと思います。しかし、あまりこの課題を使っているのを目にしません。

最近でもMatchingを議論するのに皆、なぜか並列VI-VIを使いがちですが、上述のようにあまり適した課題ではありません。皆さん、Vaughan課題を使いましょう。


強化学習アルゴリズムとの関係について

強化学習アルゴリズムにも、Matching law を示すものがあります(Sakai & Fukai 2008)。Actor-Critic は、課題や学習パラメータに依らず、定常状態でMatching law を示します。ところが、Q-learning は、課題や学習パラメータに依存し、一般にはMatching law を示しません。

# pooneil

コメントどうもありがとうございます。別エントリ(20080624)に転載させていただきましたので。

なんかすげー好き。

空中キャンプ2006-04-11
内容自体に立ち入る気は全くないけど、さいごのくだりとかなんかすげー好き。


2006年04月11日

Whirlpoolが出ねー(ついにデター)

20060316からつづき。Whirlpool by Chapterhouseが出るっつーから待ってるのに、3/20発売予定が3/27になって、4/3になって、4/10になって、今日見たら4/17になってる。フンガー(ジャイアンっぽく)。予約するつもりだったけど止めた。岡崎のタワーレコードまで届くのは遠そうだけど、忘れた頃に見つけて感激するという態度で臨もうと思ってます。
追記:4/20に見たら4/24に変更してた。なんか待ってるのがばかばかしくなってきたけど、こういうのってよくあることなの?
追記:4/23に見たらまだ4/24になっている。はたして延期はまた続くかどうか。このサイトは"Whirlpool"が出るまで発売日の延期を追い続けることにします(大マジ)。
追記:4/24に見たら、「発送可能時期:通常8~12日以内に発送します。」となってるんだけれど、ほんとうに出たんだろうか。
追記:5/5に見たら、「通常24時間以内に発送します。」になっていた。"Die,Die,Die"が入ってないことが判明。岡崎タワーレコード見にいっても売ってなかった。ということであきらめて、アマゾンで注文しました。
追記:5/7到着。すげーうれしい。速攻聞く。もっとくぐもったイメージがあったけど、けっこうシャキッとしてる。記憶は当てにならないな。Sleeve note付き。歌詞カードも"Lyrics appear courtesy of Chapterhouse"で入ってる。"Breather"こんな歌詞だったのか。私が気に入っていたラスト曲は"in my arms"であることが判明。ということで"Die Die Die"は聞いたことがないらしい。ぜひ予定されているようにweb上に出てくれるといいのだけれど。

セルフアーカイビング

ネイチャー・パブリッシング・グループはセルフアーカイビングに関して新しい方針を採用しました
via これからホームページをつくる研究者のために
via 教科書には載らない「研究者の個人ホームページの歴史」年表
気付いてなかったんで、メモメモ。このへん、自分の論文をpdfで公開できるようにする、というあたりとの絡みでもう少し知っておきたいのだけれど。


2006年04月09日

Saliency mapとbayesian surprise (2)

Laurent IttiはKochのところから独立して、いまはUniversity of Southern Californiaでassistant professorをやってます。ここはラボのサイトがむちゃくちゃ充実してます。Visual Attention: Moviesのムービーをダウンロードして見てみると彼がやってることの具体的なイメージがわくのではないでしょうか。あと、wikiで作られているこちらのサイトにいろいろ有用な情報があります。
んで、Ittiは基本的にSaliency mapのことを継続しているのだけれど、さいきんはsaliencyの概念とは違ったアプローチでbottom-up attentionのことを扱おうとして"bayesian surprise"という概念を提唱してます。くわしくはラボのサイトのページもくしはNIPS2005でのproceeding(pdf)にて。
つまり、非常におおざっぱに言って、surpriseの大きさとして、prior probability P(M)とposterior probability P(M|D)とのあいだのKL divergenceを使おう、というものです。んでもって、prior probability P(M)とposterior probability P(M|D)とのあいだにはベイズの法則による関係があるわけです。(Mはmodelで、Dはdataのことを示してます。) つまり、元々の事象の確率分布に関するモデルP(M) (=Prior probability)はあるデータの出現によってP(M|D) (=posterior probability)に変わるということ。出現したデータがsurprisingであるということはP(M)からP(M|D)への変化が大きいということであり、その大きさはKL divergenceで評価できる、というわけです。たとえば、CNNニュースを見ていると思っているとき( P(M)としてCNNニュースである可能性、ABCニュースである可能性、などの確率分布を考えることが出来る)からいきなり画面が砂嵐になるとこのような確率分布がドカンと変わるわけで、それがsurpriseなのだと。なんかこういう風に書くとすごく本当のことというか、ほかにはあり得ないようにも聞こえるのですが、すごいのかどうか私には評価できません。Bayesian updatingをしてゆくときの変化の指標にKL divergenceを使うというのはこの世界では基本的なことらしい(WikipediaのKL divergenceの項)。だから、画像の情報に対してpriorとposteriorを考えるというあたりがミソなのでしょう。とにかく、proceedingによると、surpriseを使ったモデルではこれまでのmotion energyとかsaliency-basedなものよりもサッケードの予測の成績がよいらしい。
Bialekの"Spike"とかの前後でmutual informationがneuroscienctistにものすごく使われた時期があると思うのだけれど、いまどきはやはりbayesianがわからんと、という流れですな(*)。いや、脳がpredictiveにやっているんだ、ということを考えるときにこの概念は非常に使えるツールなはずなんですよね。

* いや、両者は別もんではないんでしょうけどね。でも、シャノン的なものとベイズ的なこととの関係に興味があります。数学的な関係自体は調べればわかります。先述のWikipediaでも、mutual informationとは、二つの確率密度分布P(x), P(y)があったときのP(x,y)からP(x)*P(y)までのKL-divergenceに等しいことが書かれています。でも、そのバックグラウンドというか何というか。甘利先生の情報幾何とかで考えたほうが良いんだろうか。


2006年04月08日

Saliency mapとbayesian surprise (1)

というわけで平行して予習というか勉強も。
セミナーでsaliency mapについての紹介をやりました。ストーリーとしてはこんな感じ:
1) Ann TreismanのFeature integration theoryを持ってきて、画像の属性ごとのFeature mapとそれらをlocationごとに統合するmaster mapという心理学的概念があることを説明する。
2) Koch, C., & Ullman, S. (1985) Human Neurobiologyで、Treismanの概念にインスパイアされた形で、Featureごとのsaliencyを計算した複数のFeature mapから、それを統合して二次元平面上のsaliencyを計算した、単一のsaliency mapという計算理論的概念を提唱。
3) Itti, L., & Koch, C. (2001) Nature Reviews Neuroscienceなどで、この概念が実際の画像分析に応用可能な形のcomputational modelとしてimplementされる。
4) Gottlieb, Kusunoki and Goldberg 1998 NatureでLIPに視覚情報ではなくてsaliencyをコードしているニューロンがあることを報告。Saliency mapという概念が単なるcomputationalなconceptではなくて、脳で実際に表象されている可能性を示唆。
5) FEFやV4などでもsaliencyをコードしているニューロンの報告が続く。「単一の」saliency mapという概念の変更が要求される。
6) いくつかのグループが対論として、Saliency mapがFeature mapとは分離されないモデル(Li 2002)や、Saliency mapは存在せずにFeature mapのみでattentionが操作されるとするもの(Desimone and Duncan 1995)があるとするものなどがある。
7) しかしそれでもげんざいのところ、bottom-up attentionをいちばんうまくモデル化できているのはItti-Kochモデルではなかろうか。
こんなかんじ。Bayesian surpriseについては次回。
追記。Vikingさんのところからトラックバックで来ている記事でより深く展開してますのでそちらのぜひご覧ください。
ヒトのimagingでのsaliency mapの検証はないのか、という話題はセミナーでも出ました。Vikingさんも書いているように、これはそれぞれのニューロンごとにコードされている属性と受容野がわかった上で議論しなければならないので、imagingでは難しいわけです。つまり、imagingでsalientな刺激に活動する領域が見つかったとしても、さらにそれがどの属性であるかに依存せずにsaliencyを表象している、ということを示さなければならないわけです。そうしないとそれはfeature mapの方になってしまうわけですから。というようなことを答えました。ま、そこまで言ってしまうとニューロン記録でも無理なわけですが。ちなみにME Goldbergの論文はKoch and Ulmanはreferしていなくて、"saliency map"という概念そのものと対応させるような論法は使っておりません。

コメントする (1)
# viking

先ほどupdateしたばかりなのに、さっそくTBまでいただいてしまってありがとうございました。
Goldbergの1998年のNatureはKoch & Ullman (1985)は引用してないんですね。今pooneilさんのご指摘を受けて改めて読んでみましたら、Triesman (1980)とWolfe (1994)は引用してありました。こちらの文脈を意識した、ということなのでしょうか。


2006年04月07日

Mandriva Linuxインストールしてます

元気にやってます。とりあえずニューロンは記録できましたが、除去しきれない非定常なノイズがあって、それの原因が判明して、でも除去できてない、という状況。
平行して、海外の共同研究者との作業の準備に追われてます。Linuxをインストールしなくちゃいけないんだけれど、向こうの指定がMandriva Linux(かつてのMandrake)だったもんで、日本語の資料が少なくて手間取りました。Mandriva Linuxじたいは非常に初心者に優しいソフトで、インストール時にwindowsの空き領域にパーティションを切るのを自動でやってくれます。LILOをどこに入れるかとか、PartitionMagicでスワップ領域にどのくらいとるかとか、ちょっと思案していたんだけれど、なんも考えずにお任せでいけました。MandrivaはRedHatのほうの流れをくむのでインストールはrpmで、ソフトウェアの依存関係とかはツールがいろいろやってくれるので助かります。ともあれ、ここ最近ほかの環境を試してるわけではないんで、優劣の比較は私には出来ません。
10年くらい前のLinuxブームにSlackWareをPCに入れて、でも特にやりたいことがないことに気づいて消した経験有り。数年前にFedora Core2をノートPCに入れたときは、KDEが重くてまだデスクトップ用途に使うには無理かなと思いました。しかし、PCも変わったし、もうそろそろいけるかもしんない。OpenOfficeとFirefoxとThunderbirdとRさえあればなんとかなるし。今回もMandrivaを入れる前にハードウェアの認識がうまくいくかテストする目的で、Knoppix4.0のDVDで立ち上げてみたんだけれど、Live DVDでもけっこうちゃんと動きますね。とくに設定しなくてもインターネットにつながるし、素晴らしすぎます。
それでもMandrivaのインストールの方は、グラフィックボードの設定に失敗して画面が真っ暗になることを繰り返して、けっきょく3回くらいインストールし直しを。いちおう、Xを立ち上げなくても、Mandriva特有の設定ツールを動かせるのでそこからいろいろやったんだけれどもダメ。グラフィック系の設定はうまくいかないとそもそも画面が真っ暗でなにも出来なくなるので恐ろしいっす。
こんな調子でいろいろやってます。


お勧めエントリ

  • 細胞外電極はなにを見ているか(1) 20080727 (2) リニューアル版 20081107
  • 総説 長期記憶の脳内メカニズム 20100909
  • 駒場講義2013 「意識の科学的研究 - 盲視を起点に」20130626
  • 駒場講義2012レジメ 意識と注意の脳内メカニズム(1) 注意 20121010 (2) 意識 20121011
  • 視覚、注意、言語で3*2の背側、腹側経路説 20140119
  • 脳科学辞典の項目書いた 「盲視」 20130407
  • 脳科学辞典の項目書いた 「気づき」 20130228
  • 脳科学辞典の項目書いた 「サリエンシー」 20121224
  • 脳科学辞典の項目書いた 「マイクロサッケード」 20121227
  • 盲視でおこる「なにかあるかんじ」 20110126
  • DKL色空間についてまとめ 20090113
  • 科学基礎論学会 秋の研究例会 ワークショップ「意識の神経科学と神経現象学」レジメ 20131102
  • ギャラガー&ザハヴィ『現象学的な心』合評会レジメ 20130628
  • Marrのrepresentationとprocessをベイトソン流に解釈する (1) 20100317 (2) 20100317
  • 半側空間無視と同名半盲とは区別できるか?(1) 20080220 (2) 半側空間無視の原因部位は? 20080221
  • MarrのVisionの最初と最後だけを読む 20071213

月別過去ログ


« 2006年03月 | 最新のページに戻る | 2006年05月 »