« PNAS 8/24 | 最新のページに戻る | ガヤからの返答 »

■ 越後湯沢のワークショップ

「意志決定:心の物質基盤」参加した方、Glimcherの話はどうでしたか? 前半が新著"Decisions, Uncertainty, and the Brain: The Science of Neuroeconomics." Decisions, Uncertainty, and the Brain: The Science of Neuroeconomics (Bradford Books (Hardcover))からデカルトとか引っ張り出して語っていることまではキャッチしております。(新著の第一章がhttp://mitpress.mit.edu/books/chapters/0262572273chap1.pdfで読めるようになってます。たぶんこれ。) Newsome論文でもreferしてましたが、Mike Dorrisがfirst authorでゲーム理論的にやってるやつが昨年のSFNに出てましたけど(去年はSFN行ってないんで内容は知らないんですが)、あれの進展はあったんでしょうか? ご存知の方、レポート期待します。

コメントする (2)
# mmrl

えーっと、なんか呼ばれたような気がする。と自分で勝手におもって書き込みです。湯沢のワークショップでのGlimcher のtalkでは、Dorrisのゲーム理論を使った話が中心でした。Plattの仕事を踏襲しつつもゲームを使ってexpected utility を変化させずに行動選択率のみを変化させることに成功し、LIPのニューロンは行動選択率が変わっても変化せずexpected utility(EU) を表現するのだ。という論文をどこぞにsubmitしたらしいです。(http://www2.bpe.es.osaka-u.ac.jp/event/summerws2004/papers/Glimcher1.pdf)でも、EUが高い場合に高い活動を、EUが低い場合低い活動を示すところはPlattがやった話と同じ方法ではじめの2ブロックで示して、その後のゲームを使ったブロックではずーっと同じ活動ってのはちょっといただけない。もしやるならゲームをさせているときもEUを振ってほしかったなぁという感想です。なぜならゲームになったとたんに別のものを見ている可能性は否定できないとおもうのです。それから、はじめの方に話していたexpected utility とexpected valueの違いは面白いのだけど、次の実験結果に関して乖離を感じました。expected valueは報酬の量x確率で数学的な意味での報酬期待値になるが、expected utilityは量が増えるとexpected valueを下回るっていう話を最初にしていたのですが、それ以降この違いと実験結果の関わりは出てこない。しかも説明がとっても直感に頼っている。曰く「50%で100円と100%で50円のどっちを選ぶと聞かれたら、あんまり両方の違いはないように感じるけど、50%で1億円と100%で5千万円といわれたらみんなどっちを選びます?5千万の方を選ぶでしょ。だから報酬の量が増えると、確率的な選択肢には期待値よりも低い主観的な価値をわりふっちゃうんですよ、risk aversive な成分を含んで主観的な価値にしたのがexpected utilityです」だそうです。私が思うに、Dorrisのゲームさせているときは活動がほとんど一定で変化しないという結果については活動はexpected utility ではなくexpected valueの方を表現しているという解釈が正しいのではないだろうか?彼はexpected utilityがLIPに表現されると言っていたけど。なぜなら、上記のように行動選択を基準としてexpected utilityを定義したなら、ゲームをさせているときに行動を変化させているってことはexpected utility変化しているということにならないだろうか?それに比べてexpected value は行動Aでは50%x2で行動Bでは100%x1なので期待値の意味で変わらない。うーん私が勘違いしてるのかなー。上記Dorrisの仕事以外にも、反応時間によって報酬の量が変化するタスクを使ってドーパミンニューロンの反応を取り、それとreward expectation errorのモデルと比較する話や、Newsome 論文で使っているVI:VI free choice taskでの行動のlocal fluctuation がreward expectation errorを使った強化学習モデルでfitできるという話の3本立てでした。

# pooneil

どうもありがとうございます。正直言って上の質問はmmrlさんを想定してました。お手数かけてすみません。おかげでよくわかりました。おお、ドラフトがダウンロードできたのですね。http://www2.bpe.es.osaka-u.ac.jp/event/summerws2004/index.htmから行けるのを確認しました。なんてこった気付かなかった。しかしGlimcher気前良いですなあ。自信満々なのでしょうなあ。まずはこれを読んでみることにします。03年7月の方のドラフトはreferenceが65個、04年5月の方のドラフトはreferenceが47個……Sugurue論文がScience articleであったことを踏まえると、Natureのarticle狙いでしょう。Referenceなどの形式はNatureでもScienceでもないようですが。読む前ですが、expected utility とexpected valueに関して少々:この間のTICSのMausellのpaperにもあったようにreward-relatedとattention-relatedとは分離するのが難しくて、Platt and Glimcherも分離しているとは言えないわけですが、Maunsellが提唱したのはreward contingencyは変えずにtask difficultyを変えることによってattentionだけをmanipulateするということでした(たぶんそういう仕事がMaunsellのところでongoingなのでしょう)。しかしtask difficultyを変えてしまうと、ある選択のexpected gain(=utility?)が変わってしまうので、やはりreward-relatedなものが変わってしまう、ダメじゃん、ということを考えていたのです。このへんに関してDorris and Glimcherは何かを言っているのではないかと期待しています。あともうひとつ、「50%で1億円と100%で5千万円といわれたらみんなどっちを選びます?5千万の方を選ぶでしょ。」これってKahneman and Tverskyの”Prospect theory”ですね。「人は利得と損失に異なるウエイトを、また確率に関して異なるレンジ(範囲)を置いており、利得を得て幸せなときよりも、同等の損失による痛みの方が大きく感じるとした理論。」(http://www.hefx.ne.jp/annai/yougo_h.htmlより)行動経済学の分野の知見を援用してるようですね。うーむ、neuroeconomicsと自称するのは本気ですな。P.S. Glimcherの”decision, uncertainty, and the brain”さっそく取り寄せました。12章ではsubmit中の仕事のbehavior dataについて載せているようです。読まなくては。P.S.2 「reward expectation errorを使った強化学習モデルでfitできる」うーむ、きてますな。


お勧めエントリ


月別過去ログ