« Saliency mapとbayesian surprise (1) | 最新のページに戻る | セルフアーカイビング »

■ Saliency mapとbayesian surprise (2)

Laurent IttiはKochのところから独立して、いまはUniversity of Southern Californiaでassistant professorをやってます。ここはラボのサイトがむちゃくちゃ充実してます。Visual Attention: Moviesのムービーをダウンロードして見てみると彼がやってることの具体的なイメージがわくのではないでしょうか。あと、wikiで作られているこちらのサイトにいろいろ有用な情報があります。
んで、Ittiは基本的にSaliency mapのことを継続しているのだけれど、さいきんはsaliencyの概念とは違ったアプローチでbottom-up attentionのことを扱おうとして"bayesian surprise"という概念を提唱してます。くわしくはラボのサイトのページもくしはNIPS2005でのproceeding(pdf)にて。
つまり、非常におおざっぱに言って、surpriseの大きさとして、prior probability P(M)とposterior probability P(M|D)とのあいだのKL divergenceを使おう、というものです。んでもって、prior probability P(M)とposterior probability P(M|D)とのあいだにはベイズの法則による関係があるわけです。(Mはmodelで、Dはdataのことを示してます。) つまり、元々の事象の確率分布に関するモデルP(M) (=Prior probability)はあるデータの出現によってP(M|D) (=posterior probability)に変わるということ。出現したデータがsurprisingであるということはP(M)からP(M|D)への変化が大きいということであり、その大きさはKL divergenceで評価できる、というわけです。たとえば、CNNニュースを見ていると思っているとき( P(M)としてCNNニュースである可能性、ABCニュースである可能性、などの確率分布を考えることが出来る)からいきなり画面が砂嵐になるとこのような確率分布がドカンと変わるわけで、それがsurpriseなのだと。なんかこういう風に書くとすごく本当のことというか、ほかにはあり得ないようにも聞こえるのですが、すごいのかどうか私には評価できません。Bayesian updatingをしてゆくときの変化の指標にKL divergenceを使うというのはこの世界では基本的なことらしい(WikipediaのKL divergenceの項)。だから、画像の情報に対してpriorとposteriorを考えるというあたりがミソなのでしょう。とにかく、proceedingによると、surpriseを使ったモデルではこれまでのmotion energyとかsaliency-basedなものよりもサッケードの予測の成績がよいらしい。
Bialekの"Spike"とかの前後でmutual informationがneuroscienctistにものすごく使われた時期があると思うのだけれど、いまどきはやはりbayesianがわからんと、という流れですな(*)。いや、脳がpredictiveにやっているんだ、ということを考えるときにこの概念は非常に使えるツールなはずなんですよね。

* いや、両者は別もんではないんでしょうけどね。でも、シャノン的なものとベイズ的なこととの関係に興味があります。数学的な関係自体は調べればわかります。先述のWikipediaでも、mutual informationとは、二つの確率密度分布P(x), P(y)があったときのP(x,y)からP(x)*P(y)までのKL-divergenceに等しいことが書かれています。でも、そのバックグラウンドというか何というか。甘利先生の情報幾何とかで考えたほうが良いんだろうか。


お勧めエントリ


月別過去ログ