« 自由エネルギー原理入門(4/7): Sec.4 生成モデルに行動を含める | 最新のページに戻る | 自由エネルギー原理入門(6/7): 「Sec. 5. 現在、過去、未来を統一的に捉えるモデル」を追加 »

■ 自由エネルギー原理入門(5/7): 「Sec.4-4-3 照明の例を用いた期待自由エネルギーGの計算」以降をアップデート

最新版のPDFファイルが最後のエントリ:「自由エネルギー原理入門(7/7): 「Sec.0 自由エネルギー原理を数式無しで説明する」を追加」にあります。このPDFファイルを最新版としますので、これから読む方にはPDFファイルでの閲覧をオススメします。


[4-4-3. 照明の例を用いた期待自由エネルギー の計算]

では以上の結果を用いて、照明の例で期待自由エネルギーEFE を計算してみよう。

実際の計算方法についてだが、式(4-12)1行目のように、VFEを計算してからそれに期待値をかけて計算することはできない。なぜなら内側の を計算するときに、すべての で足し合わせて が消えているから、外側の期待値の と対応させることができない。あくまでも式(4-12)3行目のように で期待値をとる必要がある。

まずこの期待値の部分について計算しておこう。式(4-11)に、 および 、それから観察モデルの値 を入れてやると、

これをプロットしてやると図4-9の通りとなる。

EFE4_09e.png

図4-9: 照明の例におけるq(x,s)


を0-1の間で動かすと、どこでも になっていることが確認できる。あらためて、推測 という同時確率が ひとつの関数であること、つまり、agentがここで変化させているのは外界の状態の推定 だけで、感覚入力 についての推定はそれによって一意に決まる、というモデルになっていることがわかる。(これ自体は自明なことではなく、あくまでFriston論文ではそういうモデルになっているというだけのこと。)

それでは式(4-12)に基づいて、 を計算してみよう。式(4-13)を使って、 および のすべての変数の組み合わせでの和の形に変形してやる。あと、2行目から3行目の変換で、 を使っている。生成モデルの設定より、観察モデル の部分は に依存しないので、こちらもこの段階で値を代入できる。

あとは生成モデルのうち に依存する事前分布 の値を入れれば、 ごとに決まる の関数になる。

こうして計算できた をプロットしたのが図4-10。

EFE4_10d.png

図4-10: 期待自由エネルギーGに基づく行動選択


図4-10では および を0-1の間で計算している。図4-5のときは それぞれのときに を動かして を最小化することができたが、 の場合には の両者を考慮しているのでそういうわけにはいかない。

そこでサブセクション4-4-2でも言及したように、 には、初期値である事前分布の および を採用する近似が使われている。よくみるとじつは を動かすと をさらに最小化することができるが、この件については省略。

こうしてできた の最小値( bits vs. bits)を比較して、より低い の方を行動選択として使う(図4-10)。正確にはsoftmax関数を使うことで、決定論的ではなくて確率論的により大きい方を行動選択する確率が増えるようにしてある。

これはスイッチをオフ にするほうが、照明オフ のときの観測モデル の曖昧さによる不確定性を減らすことができるから、と説明することができるだろう。さらに詳しくは、後述のepistemic valueの計算が必要となってくる。

ところで現在使っている観測モデルは と非対称性があった。これが行動選択の原因となっていた。もしこの観測モデルが と対照的であった場合について をプロットすると図4-11の通りとなる。

EFE4_11d.png

図4-11: Gに基づく行動選択


の最小値は の間でまったく同じ bitsになるので、どちらの行動を取りやすい、ということはなくなる。これも予想通りだ。

[4-4-4. 期待自由エネルギー と変分自由エネルギー の関係]

サブセクション4-4-3の頭にも書いたように、 は二つの の重み付き平均としては計算できない。このことを上記の照明の例において示しておく。

まず式(4-15)のように という二つの項に分けておく。

と、 の式は以下のように表現できる。

よって、 の重み付き平均をしただけではないことがわかる。つかもしそうだったら には に付加される情報がないので、行動選択のためにわざわざ を定義する必要はなくなるだろうから、これは理にかなっている。

(検算しておくと、式(4-17)からわかるように、観察モデルが完全に無情報なとき、つまり このときだけ の平均になっている。)

[4-4-5. epistemic value + extrinsic valueへの分解、の前に]

Neural Comput. 2017では、このEFE の式を分解してepistemic valueと extrinsic valueの輪の形に変形している。式(4-12)から式変形してゆくが、ここで生成モデルの変形として を使っている。これまで使っていた「観察モデル*事前分布」による変形をしている。つまり による変形だ。

(Epistemic valueが情報獲得を意味するならば、ここでの変形は を用いた になるはずなのだが。この件については後ほど再訪する。)

ここで私が疑問なのが、式(4-18)の2行目でSurprisal に依存しないように書かれていることだ。しかし、

となっていることを考えると、 と書くべきではないか。

論より証拠、いまの照明の例で計算してみよう。

というわけで、実例による計算から「常に に依存してない」に対する反証は出せた。よってここは本来 として計算するべきであることが確認できた。

この点については、Gershman arXiv 2019およびKatahira et. al. PsyArXiv 2019は正しい計算をしている(Gershman論文では の期待値に使っているものが違うけど)。これは些末な話ではなくて、この項をFristonのようにextrinsic valueに捉えるのか、それともKatahira et. al. 2019のようにpredicted surpriseとして捉えるのかで解釈にも大きな違いが生まれる。この点については以下のextrinsic valueの説明のところで再訪する。

なお、これは生成モデルの違いによっては説明できない。のちほど再訪する予定だけど、Katahira et. al. 2019での生成モデルはこの文書での蝶と蛾の例と同じ形で以下のようになるので、 に依存するという点については変わらない。

[4-4-6. Epistemic valueの導出]

ともあれ今はNeural Comput. 2017に準拠して、EFE からepistemic value, extrinsic valueの導出までたどり着くことを目標にしよう。式(4-18)の2行目を再掲する。

まずは式(4-18)の第1項、第2項を式変形することでepistemic valueを導出する。 の表示は省略しておく。

1行目から2行目のところで推測 がtrue posterior に充分近づけることができた、という近似を入れている。

このようにして、epistemic valueでは、 の間の距離を計算している。これは未来の感覚入力 によってどのくらい推測 が変化するか、つまりBayesian surpriseを計算したうえで、それを全ての で重み付け平均した期待値を計算している。これによって、行動 が引き起こす未来の感覚入力 のばらつきを考慮した上でBayesian surpriseを計算していることになる。

ここで式(4-22)の一番最後の形を見てもらうと、これは の間の相互情報量になっていることがわかる。

つまり、epistemic valueとは、未来の感覚入力 を観測することによって推測 をどのくらいアップデートできるか、という情報獲得の大きさを計算していることになる。だから「epistemic valueが高い行動を選択する」とは「将来的に情報獲得の大きいことが見込まれる行動を選択する」という意味になる。こう考えると、epistemic valueが高い行動を選択するというのは理にかなっている。

(ここで使われている、「推測 がtrue posterior に充分近づけることができた」という近似は、計算を可能にするための近似ではなくて、式(4-18)の第1,2項を情報獲得という解釈をするための読み替えに過ぎない。たとえばサブセクション4-4-2では、推測 を生成モデル(のうち事前分布) で近似したが、これは不可能な計算を可能にするための近似。でも今やってるのは逆。生成モデル から作ったtrue posterior を推測 で近似するというのだから。これはcounter-factualなpredictionにおいては、脳が を変化させてtrue posteriorと完全に一致させることができる、という仮定である。現在の例のように観察モデルに不確定な要素がある状況では(たぶん)これは成り立たない。)

[4-4-7. Extrinsic valueの導出]

次に、式(4-18)の2行目の第3項を変形させることでextrinsic valueを導出する。

ここで3行目から4行目のところで には依存しない( ごとに足し合わせない)ということを使ってる。

4行目から5行目のところでは と違った書き方をしているが、これはSchwöbel et. al. 2018の表記を採用している。Schwöbel et. al. 2018のp.2537にあるように「将来得られるであろう感覚入力についての事前分布(=preference) 」と「将来得られるであろう感覚入力について周辺化した期待値 」とはべつものである。Schwöbel et. al. 2018にしろ、Friston et. al. 2017にしろ、前者のpreferenceの方を採用している。

しかしこれは恣意的な読み替えのように思える。というのも、前者のpreferenceの意味であるなら、生成モデルの中に明示的にそのような事前分布を入れるべきだからだ。

ここでParr and Friston bioRxiv 2018の図1に因子グラフがあるのでそれで確認してみると、期待自由エネルギーでは、期待自由エネルギー の事前分布としてこの を入れている(bioRxiv 2018 図1A)。いっぽうで、この論文で提案されているGeneralized free energyでは、各時点の感覚入力(論文内ではobservationだが) の全てに共通の事前分布としてこの が入っている(bioRxiv 2018 図1B)。つまり、Parr and Friston 2018では、期待自由エネルギーEFEを計算する際に が生成モデルには入っていないこと、 を計算するためだけに使ったパラメーターであることをわかっている。

この文書で(そしてEFE関連の論文で)採用されている生成モデルでは、感覚入力 はそのつど から作られるので、生成モデルの式の中に感覚入力についてのprior というものはそもそも入ってない。よって、 は生成モデルから周辺化して作ったと考えるほうが自然で、事前分布=preferenceであると主張するのには根拠が無いと思う。どうしてそこまでして を入れているのかといえば、素の の式のままではextrinsic value的なものを埋め込むことができないということだろう。でもまあ正直なところ、rewardのようなextrinsic valueをこのような形で自由エネルギー原理の中に組み込むのは無理があるので、強化学習でやってるように明示的にrewardを入れるべきじゃないの?と思った。

[4-4-8. 期待自由エネルギー EFEの式の最終形]

ともあれこれで期待自由エネルギー EFEの式が完成した。式(4-18),(4-23),(4-24)を組み合わせると、最終的な期待自由エネルギーの式になる。

つまり、epistemic valueが高いこと、extrinsic valueが高いこと、の両方が期待自由エネルギー EFE を高くすることに貢献する。

[4-4-9. 照明の例を用いてepistemic valueとextrinsic valueを実感してみる]

図4-10、4-11で計算した について、それぞれのepistemic valueとextrinsic valueを計算してみよう。

まずepistemic valueを計算してみる。前述したようにepistemic valueの近似は計算のための近似ではないので、近似前の式を使って計算する。なお、true posterior は行動選択 に依存する。 のほうは近似()は使わずに の関数の形のまま計算する。

引き続き、個別の についてtrue posteriorの値を入れて、Epistemic valueを計算する。

Extrinsic valueの計算には による読み替えを使わず、式(4-18)の第3項のまま、行動選択 に依存するexactな計算をしてみよう。

引き続き、個別の について の値(式(4-20)で計算済み)を入れて、Extrinsic valueを計算する。

これでEpistemic valueとexactなExtrinsic valueをプロットできる(図4-12)。Exactな値なので、G = -Epistemic value -Extrinsic valueが成り立つ。図でも正負逆になっているので注意。つまり、それぞれ値が低いほうがvalueが高い。Epistemic valueについては前述のとおり、近似は計算結果を変えない。

EFE4_12.png

図4-12: Exactな計算によるEpistemic valueとExtrinsic value


Epistemic valueおよびextrinsic valueそれぞれが行動選択 に依存していることがわかる。Epistemic value よりもEpistemic value のほうが僅かに最小値が小さいことから、Epistemic valueがたんなる左右反転でないことがわかる。

の近似のもとでは、行動 を選択したときには 、行動 を選択したときには なので、以下のようにまとめることができる。

0.8 0.2
-Epistemic value 0.2992 0.3484
-Extrinsic value 0.9341 0.7219
G(a) 0.6348 0.3735

テーブル2: Exactな計算によるEpistemic valueとExtrinsic value


つまり、epistemic valueとextrinsic valueの効果は 行動 によって逆転しているのだけど、両方の和の結果として、期待自由エネルギー のときのほうが低くなるので、行動選択としては を選ぶことになる。

ではつぎに、Fristonの定義に基づいて preferenceとして読み替えたときのextrinsic valueを計算してみよう。ここでpreferenceを以下のように設定する。

つまり、いま「部屋を75%の確率で明るくあってほしい(100%明るいのも良くない)」というpreferenceをこれまでの生成モデルに設定として付け加えたということになる。これは行動 には依存しない。

(こう書いて気づいたけど、行動 に依存するpreferenceがあってもいいよね?つまり、「スイッチを付けたら明るくなってほしいし、スイッチを消したら暗くなってほしい」というpreference。そしてこれが、行動の結果の予測可能性の最大化であり、FEPが前提としているものだ。つまり、明示的なpreference=ゴールがないときにもFEPはpreferenceを持っている。)

つぎに を計算してみよう。式(4-13)を で足し合わせてしまえばいい。こちらも行動 に依存しないことがわかる。あくまでも の関数であって、行動 によって が決まる。(行動 のときは となるのだった。図4-10,4-11参照。)

これでextrinsic valueを の関数として書くことができる。

これのようにしてできた-extrinsic value(preferenceバージョン)から、Friston et al 2017での定義に基づいた をプロットしてみる(図4-13)。

EFE4_13.png

図4-13: FristonのEpistemic valueとExtrinsic value


前述したように、preferenceに基づいたextrinsic valueは には依存していないので、図4-13A,Bともに同じ線になる("-Extrinsic value (preference)", 薄緑色)。そして の近似のもとでは、行動 を選択したときには 、行動 を選択したときには なので、以下のようにまとめることができる。

0.8 0.2
-Epistemic value 0.2992 0.3484
-Extrinsic value 0.9698 1.6830
G(a) 0.6705 1.3346

テーブル3: FristonのEpistemic valueとExtrinsic value


つまり、行動 (スイッチを付ける) のほうが-extrinsic valueは低くなる。これはpreferenceに合致した未来の感覚入力 をサンプルするであろう行動 がよりextrinsic valueが高い、という理屈だ。

その結果として期待自由エネルギー のときのほうが低くなるので、行動選択としては を選ぶことになる。図4-12のときは を選んでいたので、結果が逆になった。Extrinsic valueをどう定義するかが行動選択に重大な違いを生むということがわかる。

図4-13を見ていて気になるのがなんでextrinsic valueは直線であって、曲線でないかということだ。式(4-31)を見ればわかるようにextrinsic valueは の一次関数だ。この性質はpreferenceの値には依存してない。Extrinsic valueはその定義上、preference が一致するときに最大になっていてほしいのだけど、そうなってない。代わりにslopeの大きさがvalueの大きさ(utility)と比例すると解釈することになる。でもそうすると、このやり方だと複数のゴールを設定することはできない。

4-4-10. Expected free energyにかんする疑問、 の解釈と計算についての代案

Expected free energyの説明は以上だが、これで納得行っただろうか? 私はepistemic valueの導出を見ていて気づいたことがある。式(4-22)では、 が観測データ 無しでの推測を意味することになっている。しかしこれまでの例、例えば図3-2の行動無しの設定においては、観測データ を得た上での推測=approximate posteriorは と書いてきた。 ではなくて。そしてそもそも式(4-18)での の式の第1項が になっているのはこれがapproximate posteriorだったからだ。事前分布で近似できる ではなくて。つまりFriston et al 2017では、知らず知らずのうちに の読み替え(誤読)を行っていないだろうか?

ここがEFEが錯綜している原因ではないかと私は思う。それならば、はじめからapproximate posterior のことを と書くことにして、式(4-18)も式(4-32)のように表示するのが筋だろう。

そしてさらにこれの生成モデルの部分を「観察モデル*事前分布」とする変形 を用いて変形してゆくと、

元々のVFEの式でのKLDとsurprisalの足し算になっている。こちらのほうが変分自由エネルギーを最小化する過程と整合的になっていると思う。そもそも の式の第1,2項は、もともとのVFEの式ではKLDに対応していたのだから、ここを変形したら情報獲得になった、というのがおかしな話だった。

なお、ここで はそれぞれの に合わせて決めてやる必要があるので、 と表記している。つまり、counter-factualな推測 としては、すべての可能な についての の推測をしている。

それならば、生成モデルの部分を「true posterior*evidnece」とする変形 を用いて変形していけば、 に対応したものになるはずだ。やってみよう。

こちらのほうが、bayesian surpriseを元にして情報獲得を計算しているという意味で理にかなっている。そして、そもそも元のVFEの式では、agentはbayesian surpriseを最大化していない。あくまでもKLDを最小化するように推測 = approximate posteriorをアップデートするのが先で、その結果としてbayesian surpriseが となるだけだ(サブセクション1-9を参照)。だから、 がepistemic value(とextrinsic valueの和)を最大化するように行動 を選択するというのは、agentが変分推定をするという元々の考え方からすればおかしな話なのだ。

あと、Bayesian surpriseはその定義より、事前分布 からの情報獲得となっているので、 からの総獲得情報量を表すことになる。その時点での情報獲得を計算するためには、 と時間ごとにBayesian surpriseを計算したうえで、その差分として計算されることになる。(いまは生成モデルは固定なので、 であり、ただの定数。)

さてそれでは、このように解釈した をプロットしてみる(図4-14)。 についてそれぞれあるので、二次元のデータをカラー表示することにする。

EFE4_14.png

図4-14: 改良版期待自由エネルギー G


白丸が行動 および それぞれの期待自由エネルギー が最小になる場所を表している。行動 では かつ のときに最小となる。同様に行動 では かつ のときに最小となる。

これらの値は過去の行動選択の例(テーブル1)のときと似ているがやや違う。同じにならないのはサブセクション4-4-4にあるように、まったく同じ計算をしているわけではないから。

期待自由エネルギー は行動 (スイッチオン)のときよりも行動 (スイッチオフ)のときにより低くなる。よってagentは行動 (スイッチオフ)を選択する、ということになる。

0.88 0.43
0.33 0.08
G(a) 0.3082 0.2140

テーブル4: 改良版期待自由エネルギー G


同じデータについてKLD, surprisal, bayesian surprise, uncertaintyについて2次元表示をすることができる。

EFE4_15.png

図4-15: 改良版期待自由エネルギー Gでの各要素


これを見てわかるのは、 が最小になるところでKLD成分が0になるわけではないこと、一方で、 が最小になるところではBayesian surprise成分がほぼ0になること、などがある。このあたりはもう少し調べて見る価値がありそう。

そういうわけで、改良版期待自由エネルギー Gは変分推定をするという元々の考え方と合致した上でちゃんと行動選択にも使えそうだ。

結論としては、Friston et al 2017の期待自由エネルギー ってぜんぜん変分推定してないよね、ってことになる。じゃあちゃんと変分推定しようよってのが、Schwöbel et al 2018とParr and Friston 2018が行っていることだと私は解釈している。そういうわけで、次はSchwöbel et al 2018の解説に行く。


お勧めエントリ


月別過去ログ