SlideShare uma empresa Scribd logo
1 de 134
Baixar para ler offline
Sensory-Motor Contingency,
Predictive Coding
and Free Energy Principle
生理学研究所
認知行動発達研究部門
助教 吉田 正俊
今日の目的
アクティブビジョン/sensorimotor contingency説の立場か
ら、自由エネルギー原理がSMCの計算論的表現になってい
るのではないかということを提案するために、自由エネル
ギー原理に関して「最小限の数理的な詳細を加えて」説明
したい。
全体的な流れ
1. アクティブ・ヴィジョンとSMC
2. 自由エネルギー原理
3. 階層構造を用いた予測符号化
4. FEPに基づいた意識の理論
全体的な流れ
1. アクティブ・ヴィジョンとSMC
2. 自由エネルギー原理
3. 階層構造を用いた予測符号化
4. FEPに基づいた意識の理論
全体的な流れ
1. アクティブ・ヴィジョンとSMC
1.1 アクティブ・ヴィジョンとは
フッサール現象学における「直接経験」
谷徹「これが現象学だ」p.45-46
経験科学における
知覚経験の成立の図式
(客観的・三人称的)
直接経験
遠近法的描像
(主観的・一人称的)
図は省略
我々の視覚経験そのものってどんなかんじ?
エルンスト・マッハ
「感覚の分析」より
https://publicdomainreview.org/
collections/self-portrait-by-ernst-
mach-1886/
我々の視覚は視野の中心以外はぼやけてる
https://upload.wikimedia.org/
wikipedia/commons/thumb/2/27/
AcuityHumanEye.svg/724px-
AcuityHumanEye.svg.png
親指の幅 = 1cm
視野角にして1度
我々の視覚経験そのものってどんなかんじ?
エルンスト・マッハ
「感覚の分析」より
https://publicdomainreview.org/
collections/self-portrait-by-ernst-
mach-1886/
我々の視覚経験そのものってどんなかんじ?
我々の視覚経験そのものってどんなかんじ?
我々は絶えず視線を移動しながら視覚シーンを構成している。
我々の視覚経験そのものってどんなかんじ?
Active vision
Active visionとは:
視覚とは受け身での表象形成ではなく、
行動(例えば眼球運動)によって
主体が視覚情報をサンプルすることである。
図は省略
LAND, M. F.
Eye movements and the control of actions in everyday life.
Prog Retin Eye Res 25, 296–324 (2006).
Yarbus, A. L. (1967). Eye movements and vision,
Plenum Press, New York
全体的な流れ
1. アクティブ・ヴィジョンとSMC
1.1 アクティブ・ヴィジョンとは
1.2 Sensorimotor contingency (SMC)
Sensorimotor contingency (SMC) constitutes conscious experience
Standard view
Seeing is making
an internal
representation
New view
Seeing is knowing
about things to do
Seeing is an exploratory activity mediated
by the animal’s mastery of sensorimotor contingencies.
O'Regan, J. K. & Noë, A.
A sensorimotor account of vision and visual consciousness.
Behav Brain Sci 24, 939–73– discussion 973–1031 (2001).
図はJ. Kevin O’Reganのトーク原稿より。
http://nivea.psycho.univ-paris5.fr/ASSChtml/Pacherie4.html
例えば、私たちが対象に向かって近づくと対象の姿が
大きくなる。私たちの知覚能力は、この種の感覚-運動
的知識の所有によって構成されている。
感覚-運動的知識とは命題的なものではなくて、技能的
なもの。(例: 宣言的記憶と手続き記憶)
例:開眼手術, 逆さメガネ
Sensorimotor contingency (SMC)
Noë, A. (2004).
Action in Perception. Representation and Mind.
Cambridge, MA: The MIT Press
“the perceiver’s ability to perceive is constituted (in part)
by sensorimotor knowledge (i.e., by practical grasp of
the way sensory stimulation varies as the perceiver
moves)”
Strong / weak SMC
Weak SMC: 穏健派 (e.g., Andy Clark)
「知覚、認知、行動は体、環境のことを考慮せずには理解する
ことが出来ない」
Strong SMC: 過激派 (e.g., O’Reagan)
「あらゆる種類の内的表象を用いた説明は間違っており、非-
表象主義的な語彙が必要である」
Seth, A.K. (2015). The cybernetic Bayesian brain: from interoceptive
inference to sensorimotor contingencies. In Open MIND, eds. T.
Metzinger & J. Windt. Frankfurt a.M., GER: MIND group
(1) Dream argument:
“During dreaming, we have no action but still have
an experience.
Action is not necessary for an experience.”
Noë, A. (2004).
Action in Perception. Representation and Mind.
Cambridge, MA: The MIT Press
A: Clarification needed:
What is necessary is not ongoing action
but acquired sensorimotor skill or knowledge.
Criticism against SMC
Criticism against SMC
(2) Historical explanation (= pre-requisite)
or Ongoing causal explanation?
Tinbergen's four questions
Historical
explanation
Explanation
(ongoing)
Individiual
Ontogeny
(development)
Mechanism
(causation)
Species
Phylogeny
(evolution)
Function
(adaptation)
Criticism against SMC
Tinbergen's four questions
Historical
explanation
Explanation
(ongoing)
Individiual
Ontogeny
(development)
Mechanism
(causation)
Species
Phylogeny
(evolution)
Function
(adaptation)
IIT
SMC
(2) Historical explanation (= pre-requisite)
or Ongoing causal explanation?
Criticism against SMC
(3) No computational model
=> FEP as a theory of consciousness
Tinbergen's four questions
Historical
explanation
Explanation
(ongoing)
Individiual
Ontogeny
(development)
Mechanism
(causation)
Species
Phylogeny
(evolution)
Function
(adaptation)
IIT
SMC
(2) Historical explanation (= pre-requisite)
or Ongoing causal explanation?
全体的な流れ
1. アクティブ・ヴィジョンとSMC
2. 自由エネルギー原理
3. 階層構造を用いた予測符号化
4. FEPに基づいた意識の理論
Active visionと整合的な視覚的意識の
理論を作りたい。
Sensorimotor contingency説を計算理
論的に捉えたい。
=> Fristonの自由エネルギー原理(FEP)
なぜ自由エネルギー原理?
Perceptions as hypotheses: saccades as experiments.
Friston K, Adams RA, Perrinet L, Breakspear M.
Front Psychol. 2012 May 28;3:151.
自由エネルギー原理 (FEP)
FEPとはなにか:
いかなる自己組織化されたシステムでも環境内で平衡
状態であるためには、そのシステムの(情報的)自由エ
ネルギーを最小化しなくてはならない
適応的なシステムが無秩序へ向かう自然的な傾向に抗
して持続的に存在しつづけるために必要な条件
自由エネルギー原理 (FEP)
Friston, K. (2010). The free-energy principle: a
unified brain theory?
Nature Reviews Neuroscience, 11(2), 127–138.
「意識についての理論」そのものではない
情報理論的な「変分原理」?
自由エネルギー「原理」である意義
FEPは脳についての諸理論を統一的に説明する「原理」であり、
これまでの理論を置き換えるためのものではない。
=> FEPでないと説明できない現象は無くても困らない。
(=>反証可能か?)
注意
シナプス
可塑性
学習・記憶
確率的
符号化
運動制御
価値判断
発達・進化
Friston, K. (2010). Nature Reviews
Neuroscience, 11(2), 127–138.
を元に作成
情報量最大化
予測符号化
ベイズ脳仮説
自由エネルギー原理
全体的な流れ
1. アクティブ・ヴィジョンとSMC
2. 自由エネルギー原理
レベル1: 認識 (perceptual inference)
レベル2: + 行動 (active inference)
レベル3: + 反実仮想 (counterfactual processing)
全体的な流れ
1. アクティブ・ヴィジョンとSMC
2. 自由エネルギー原理
レベル1: 認識 (perceptual inference)
レベル2: + 行動 (active inference)
レベル3: + 反実仮想 (counterfactual processing)
Perceptual inference
ヘルムホルツ的視覚観:Agentは直接アクセス不可能な世界xを
知るために感覚入力sから「無意識的推論」を行う。
変分ベイズ推定における観測値sから隠れ値xの推定と形式的に同じ。
主体外部世界
感覚入力
s
感覚入力の
原因 x
現在の推測
q(x)
推測
例: 網膜の
神経活動
直接は
アクセス
不可能
例: 蝶
脳活動
b
例: 蝶だ!
FEPを実例を追って理解する
目をつぶっているので
なにも見えない
目を開けてみた。
よく見たら
蝶がいることに
気づいた。
(+: 視線)
FEPを実例を追って理解する
Perceptual inference
ヘルムホルツ的視覚観:Agentは直接アクセス不可能な世界xを
知るために感覚入力sから「無意識的推論」を行う。
変分ベイズ推定における観測値sから隠れ値xの推定と形式的に同じ。
主体外部世界
感覚入力
s
感覚入力の
原因 x
現在の推測
q(x)
推測
例: 網膜の
神経活動
直接は
アクセス
不可能
例: 蝶
脳活動
b
例: 蝶だ!
情報理論的自由エネルギーIFE: pとqの距離
生成モデルp: 感覚入力sとその原因xの関係に関する知識
現在の推測q: イマココでの原因xの推測
Perceptual inference
主体外部世界
感覚入力
s
感覚入力の
原因 x
現在の推測
q(x)
推測
例: 網膜の
神経活動
直接は
アクセス
不可能
例: 蝶
脳活動
b
例: 蝶だ!
p(x,s)
生成モデル
脳では予測符号化を用いてFEPを実現できる
これについてはpart 3で (今は脳内での処理は考慮しない)
情報理論的自由エネルギーIFE: pとqの距離
生成モデルp: 感覚入力sとその原因xの関係に関する知識
現在の推測q: イマココでの原因xの推測
Perceptual inference
主体外部世界
感覚入力
s
感覚入力の
原因 x
現在の推測
q(x)
推測
例: 網膜の
神経活動
直接は
アクセス
不可能
例: 蝶
脳活動
b
例: 蝶だ!
p(x,s)
生成モデル
今は
スキップ
(情報理論的)自由エネルギー
自由エネルギー:
「現在の推測q」から「生成モデルp」 までの距離 = 予測誤差
F(s, q) = DKL(q(x)kp(x, s))
KL divergence: 二つの確率分布AとBの(擬)距離
DKL(A(x)kB(x))
=
X
i
A(xi) log
A(xi)
B(xi)
3.22
(bit)
0.29 0.00
A B
x
情報幾何的表現
「現在の推測q」は分布を持つ - 確率的表現、点推定ではない
自由エネルギーの式の3種類の表現
(1) qを変える (sは固定) - 認識 = Perceptual inference
「推測した原因q」を変えて「生成モデルp」と一致させたとき
(=正しい認識)、relative entropy=0となり、Fは最小になる。
p(x|s) = p(s|x)*p(x) / p(s)
生成モデルの事後分布Relative entropy Log evidence
(定数)
F(s, q) = DKL(q(x)kp(x, s))
F(q) = DKL(q(x)kp(x|s)) − log p(s)
Energy Entropy
F(s, q) =
X
x
q(x) log p(x, s) −
X
x
q(x) log q(x)
F(s) = DKL(q(x)kp(x)) −
X
q(x) log p(s|x)
AccuracyComplexity
(定数)
p(x|s) = p(s|x)*p(x) / p(s)
生成モデルの尤度
目をつぶっているので
なにも見えない
目を開けてみた。
よく見たら
蝶がいることに
気づいた。
(+: 視線)
この簡略化された世
界では、蛾がいる可
能性もあった。
「蝶だ」という認識
=(蛾という他の可能
性を排除した)「ほか
でもない蝶だ」とい
う認識(表象)
生成モデル p(x,s)
仮定:
生成モデル(感覚入力sと原因xの同時確率)は学習済みで固定。
世界は静的で、感覚入力の原因xはx1,x2のみ。
感覚入力sはs1,s2,s3のみ。
同時
確率
1
0
s1
s2
s3
x1
x2
感覚
入力
s
外界の原因x
蝶 蛾
0.10
0.36 0.04
0.360.04
0.10
s1
s2
s3
x1
x2
感覚
入力
s
外界の原因x
蝶 蛾
0.10
0.36 0.04
0.360.04
0.10
2.32
(bit)
p(x|s1)
0.00
蝶と蛾のどちらがいるのかまったくわからない
生成モデルからの予測 p(x|s1)
q(x)
0
1
推測 q(x)
感覚入力s1
0
1
F(q) = DKL(q(x)kp(x|s)) − log p(s)
Relative entropy (定数)
「現在の推測q」は分布を持つ:
確率的表現であり、点推定ではない
s1
s2
s3
x1
x2
感覚
入力
s
外界の原因x
蝶 蛾
0.10
0.36 0.04
0.360.04
0.10
p(x|s2)
感覚入力s2
0
1
q(x)
0
1
生成モデルからの予測 p(x|s1)
推測 q(x)
2.05 0.73
F(q) = DKL(q(x)kp(x|s)) − log p(s)
Relative entropy (定数)
s2が提示された瞬間は、まだ推測qがアップデートされていない
推測qと生成モデルpは一致してない => Relative entropy > 0
1.32 0.00
F(q) = DKL(q(x)kp(x|s)) − log p(s)
s1
s2
s3
x1
x2
感覚
入力
s
外界の原因x
蝶 蛾
0.10
0.36 0.04
0.360.04
0.10
p(x|s2)
感覚入力s2
0
1
q(x)
生成モデルからの予測 p(x|s1)
推測 q(x)
0
1
Relative entropy (定数)
推測qをアップデートして生成モデルpと一致させた => Relative entropy = 0
Perceptual inference = 正しい認識に至る
Perceptual inferenceまとめ
推測q(x)を変えるこ
とによってFを下げ
る。
p(x|s)とq(x)が完全に
一致するときrelative
entropy=0となり、F
は最小化する。
Relative entropy Log evidence
(定数)
F(q) = DKL(q(x)kp(x|s)) − log p(s)
生成モデル
からの予測
s1
s2
p(x|s)
感覚入力s1
感覚入力s2
0
1
Relative
entropy
0.73 0.000.00
F(q) 2.05 1.322.32
現在の
推測
PI
q(x) 0
1
s2
全体的な流れ
1. アクティブ・ヴィジョンとSMC
2. 自由エネルギー原理
レベル1: 認識 (perceptual inference)
レベル2: + 行動 (active inference)
レベル3: + 反実仮想 (counterfactual processing)
自由エネルギー原理 (FEP)
主体外部世界
感覚入力
s
感覚入力の
原因 x
現在の推測
q(x)
推測
例: 網膜の
神経活動
直接は
アクセス
不可能
例: 蝶
脳活動
b
例: 蝶だ!
p(x,s)
生成モデル
自由エネルギー原理 (FEP)
主体外部世界
感覚入力
s
行動
a
感覚入力の
原因 x
p(x,s)
現在の推測
q(x)
生成モデル
推測
例: 網膜の
神経活動
直接は
アクセス
不可能
例: 目を向ける
例: 蝶
脳活動
b
例: 蝶だ!
自由エネルギーの式の3種類の表現
p(x|s) = p(s|x)*p(x) / p(s)
生成モデルの事後分布Relative entropy Log evidence
(定数)
F(s, q) = DKL(q(x)kp(x, s))
F(q) = DKL(q(x)kp(x|s)) − log p(s)
Energy Entropy
F(s, q) =
X
x
q(x) log p(x, s) −
X
x
q(x) log q(x)
F(s) = DKL(q(x)kp(x)) −
X
q(x) log p(s|x)
AccuracyComplexity
(定数)
p(x|s) = p(s|x)*p(x) / p(s)
生成モデルの尤度
行動aによって感覚入力sを変える(例:対象に眼を向ける)。
これによって「推測した原因q」をより選択的に生み出す感覚入力s
をサンプルしたとき、accuracyが最大化し、Fが最小になる。
(1) qを変える (sは固定) - 認識 = Perceptual inference
(2) sを変える (qは固定) - 行動aで感覚sを変える = Active inference
「行動する理由は
周りの世界を知りたいから」
学者の欲望に忠実な世界観だな!
自由エネルギー原理 (FEP)
http://img5.blogs.yahoo.co.jp/ybi/1/4c/74/hotmilk_tow/folder/1565140/img_1565140_22673428_1?1191290046
+に視線があるとき、
右上にあるものはぼ
んやりしていてなん
だかわからない。
視線を右上に向ける
と、これが蝶である
ことが判明した。
生成モデル g(x,s)
同時
確率
1
0
s1
s2
s3
x1
x2
感覚
入力
s
外界の原因x
蝶 蛾
0.12 0.08
0.36 0.04
0.360.04
さっきの例とs1だけ異なっているので注意。
0
1
p(x|s1)
s1
s2
s3
x1
x2
感覚
入力
s
外界の原因x
蝶 蛾
0.12 0.08
0.36 0.04
0.360.04
初期状態なので
まだ蝶と蛾か不明 (0.5 vs 0.5)
感覚入力s1
生成モデルからの予測 p(x|s1)
推測 q(x)
0
1
q(x)
2.35 0.02
F(q) = DKL(q(x)kp(x|s)) − log p(s)
Relative entropy (定数)
0
1
p(x|s1)
s1
s2
s3
x1
x2
感覚
入力
s
外界の原因x
蝶 蛾
0.12 0.08
0.36 0.04
0.360.04
0
1
Perceptual inference: 推測q(x)が生成モデルからの予測p(x|s)と一致した。
Relative entropy=0になった。
感覚入力s1
生成モデルからの予測 p(x|s1)
推測 q(x)
q(x)
2.32 0.00
F(q) = DKL(q(x)kp(x|s)) − log p(s)
Relative entropy (定数)
0
1
p(x|s1)
s1
s2
s3
x1
x2
感覚
入力
s
外界の原因x
蝶 蛾
0.12 0.08
0.36 0.04
0.360.04
0
1
感覚入力s1
生成モデルからの予測 p(x|s1)
推測 q(x)
q(x)
2.32 0.00
F(q) = DKL(q(x)kp(x|s)) − log p(s)
Relative entropy (定数)
原因xについてもっと良い推定をするためには、
行動aによって感覚入力sを変えるしかない => active inference
(= F(s,q)のqについては最適化されたので、sについて最適化する)
生成モデルからの予測 p(s1|x)
感覚入力s1
原因x1をより選択的に
サンプルできるのは感覚入力s2
0
1
p(x|s1)
0
1
生成モデルからの予測 p(x|s1)
推測 q(x)
q(x)
p(s1|x)
0
1
s1
s2
s3
x1
x2
感覚
入力
s
蝶 蛾
0.12 0.08
0.36 0.04
0.360.04
2.32 -2.30
Accuracy(定数)
F(s) = C1(x) −
X
q(x) log p(s|x)
行動aで感覚入力s2をサンプルした
らaccuracyが上がった。
(Active inference)
感覚入力s2
1.77 -1.75
Accuracy(定数)
F(s) = C1(x) −
X
q(x) log p(s|x)
生成モデルからの予測 p(s1|x)
0
1
p(x|s1)
0
1
生成モデルからの予測 p(x|s1)
推測 q(x)
q(x)
p(s1|x)
s1
s2
s3
x1
x2
感覚
入力
s
蝶 蛾
0.12 0.08
0.36 0.04
0.360.04
0
1
p(x|s2)
s1
s2
s3
x1
x2
感覚
入力
s
外界の原因x
蝶 蛾
0.12 0.08
0.36 0.04
0.360.04
ふたたびperceptual inferenceで
relative entropyを下げる余地ができた。
感覚入力s2
0
1
1.77 0.44
F(q) = DKL(q(x)kp(x|s)) − log p(s)
Relative entropy (定数)
生成モデルからの予測 p(x|s1)
q(x)
0
1
推測 q(x)
p(x|s2)
s1
s2
s3
x1
x2
感覚
入力
s
外界の原因x
蝶 蛾
0.12 0.08
0.36 0.04
0.360.04
感覚入力s2
0
1
0
1
生成モデルからの予測 p(x|s1)
q(x)
推測 q(x)
1.32 0.00
F(q) = DKL(q(x)kp(x|s)) − log p(s)
Relative entropy (定数)
Perceptual inference: 推測q(x)が生成モデルからの予測p(x|s)と一致した。
Relative entropy=0になった。
PI + AI まとめ
Perceptual inference
とactive inferenceを
組み合わせることに
よってFの最小化を
実現している
Relative entropy (定数)
F(q) = DKL(q(x)kp(x|s)) − log p(s)
F(s) = DKL(q(x)kp(x)) −
X
q(x) log p(s|x)
Accuracy(定数)
生成モデル
からの予測
s1
s2
s1
s2
p(x|s)
感覚入力s1
行動a 感覚入力s2
0
1
Relative
entropy
0.00 0.000.02 0.44
Accuracy -2.30 -1.75
F(s,q) 2.32 1.322.35 1.77
現在の
推測
AI
PI PI
q(x) 0
1
生成モデル
からの予測
s1
s1
s2
s2
p(s|x) 0
1
(1) Perceptual inference: 認識
(2) Active inference: 行動
Active visionとFEP
Active visionとは:
視覚とは受け身での表象形成ではなく、
行動(例えば眼球運動)によって
主体が視覚情報をサンプルすることである。
FEPはactive visonを
「PI-AIを組み合わせて
感覚sの原因xを推測する過程」
として整合的に説明している
全体的な流れ
1. アクティブ・ヴィジョンとSMC
2. 自由エネルギー原理
レベル1: 認識 (perceptual inference)
レベル2: + 行動 (active inference)
レベル3: + 反実仮想 (counterfactual processing)
感覚入力s1
感覚入力s2
視線を右上に向けて
みたら、蝶だった。
行動aの結果が
必ずしも蝶だとは
限らない。
s1
s2
s3
x1
x2
感覚
入力
s
外界の原因x
蝶 蛾
0.12 0.08
0.36 0.04
0.360.04
P(x1|s1) = 0.6
P(x2|s1) = 0.4
感覚入力s1
行動は常に賭けである
視線を右上に向けて
みたら、じつは
蛾だった。
感覚入力s3
s1
s2
s3
x1
x2
感覚
入力
s
外界の原因x
蝶 蛾
0.12 0.08
0.36 0.04
0.360.04
行動は常に賭けである
視線を右上に
向けてみたら、
蝶だったときは
Fが下がった。
生成モデル
からの予測
s1
s2
s1
s2
p(x|s)
感覚入力s1
行動a 感覚入力s2
0
1
Relative
entropy
0.00 0.000.02 0.44
Accuracy -2.30 -1.75
F(s,q) 2.32 1.322.35 1.77
現在の
推測
AI
PI PI
q(x) 0
1
生成モデル
からの予測
s1
s1
s2
s2
p(s|x) 0
1
1.77
視線を右上に
向けてみたら、
蛾だった。
予想していた原因x1(蝶)を反証する感覚入力s3をサンプルしたため、
accuracyは低下し、Fはかえって大きくなった。
生成モデル
からの予測
s1
s1
p(x|s)
感覚入力s1
行動a 感覚入力s3
0
1
s3
s3
Relative
entropy
0.00 0.000.02 1.08
Accuracy -2.30 -2.38
F(s,q) 2.32 1.322.35 2.40
現在の
推測
AI
PI PI
q(x) 0
1
生成モデル
からの予測
s1
s1
p(s|x) 0
1
s3
s3
2.40
FEPは期待値でのみ成立する
Agentは将来平均的にFを下げることが期待される行動aを選択する。
反実仮想: まだ実現していない行動aによって蝶という原因を期待する。
この意味でFEPは変分原理そのものではない。
F(s,q) 2.32 1.322.35 1.77
感覚入力s1
行動a 感覚入力s2
F(s,q) 2.32 1.322.35 2.40
感覚入力s1
行動a 感覚入力s3
E(F(s,q)) 2.32 1.322.35 2.022.02
自由エネルギー原理 (FEP)
主体外部世界
感覚入力
s
行動
a
感覚入力の
原因 x
p(x,s)
現在の推測
q(x)
生成モデル
推測
例: 網膜の
神経活動
直接は
アクセス
不可能
例: 目を向ける
例: 蝶
脳活動
b
例: 蝶だ!
自由エネルギー原理 (FEP)
「現在の推測q(x)」だけでなく、
「反実仮想的な将来の予測q(x’)」を生成している。
主体外部世界
感覚入力
s
行動
a
感覚入力の
原因 x
p(x,s)
現在の推測
q(x)
生成モデル
推測
例: 網膜の
神経活動
直接は
アクセス
不可能
例: 目を向ける
例: 蝶
脳活動
b
q(x’)
将来の予測
生成モデル
からの予測
s1
s2
s1
p(x|s)
感覚入力s1
行動a 感覚入力s2
0
1
Relative
entropy
0.000.02 0.00
Accuracy -2.30
E(F(s,q)) 2.32 2.022.35 1.32
現在の
推測
AI
PI
q(x) 0
1
生成モデル
からの予測
s1
s1
s2
p(s|x) 0
1
反実仮想的な予測が未来を先取りする
2.02
AI
反実仮想的な将来の予測q(x’|b’)を生成することで
脳状態が未来を先取りしている。
Brain circuits for the internal monitoring of movements.
Sommer MA, Wurtz RH.
Annu Rev Neurosci. 2008;31:317-38.
Pre-saccadic remapping
反実仮想的な将来の予測の生成は
神経生理で知られている
pre-saccadic remappingの現象と整合的。
図は省略
1) Perceptual inference (predictive coding)
2) Active inference (sensorimotor contingency)
3) Action selection with counter-factual prediction
What is FEP?
Perceptions as hypotheses: saccades as experiments.
Friston K, Adams RA, Perrinet L, Breakspear M.
Front Psychol. 2012 May 28;3:151.
自由エネルギー原理 (FEP)は本当はもっと複雑
(1) x,sは時間的なシークエンス
(2) 視覚サリエン
スが高い = そこを
見ればqのエント
ロピーを最小化す
る場所
(4) Control state u(x)によって運動aを計画
(3) 視覚サリエンス
が高い場所が
hyperpriorになる。
全体的な流れ
1. アクティブ・ヴィジョンとSMC
2. 自由エネルギー原理
3. 階層構造を用いた予測符号化
4. FEPに基づいた意識の理論
情報理論的自由エネルギーIFE: pとqの距離
生成モデルp: 感覚入力sとその原因xの関係に関する知識
現在の推測q: イマココでの原因xの推測
Perceptual inference
主体外部世界
感覚入力
s
感覚入力の
原因 x
現在の推測
q(x)
推測
例: 網膜の
神経活動
直接は
アクセス
不可能
例: 蝶
脳活動
b
例: 蝶だ!
p(x,s)
生成モデル
今は
スキップ
脳の中でどのようにしてFEPが実現しているか
Friston K, Kiebel S. (2009) Predictive coding
under the free-energy principle. Philos Trans
R Soc Lond B Biol Sci. 364(1521):1211-21.
階層構造を用いた予測符号化
感覚入力sが与えられたときの
光源輝度xが起こる確率分布
例: 光源輝度xの推定 (perceptual inference)
で近似したい。
を最小化する。
p(x|s)
q(x) = Norm(x; µ, σ)
q(x)
主体外部世界
感覚入力
s
感覚入力の
原因 x
現在の推測
q(x)
推測
脳活動
b
p(x,s)
生成モデル
p(x|s) =
p(s|x)p(x)
p(s)
光源輝度
q(x) 現在の推測
問題設定: q(x)の分布 - 変分ベイズ
q(x)を
Bogacz R (2017)
J Math Psychol, 76(Pt B): 198-211.を元に作成
p(x|s)
F(q) = DKL(q(x)kp(x, s))
説明のため問題を単純化
感覚入力sが与えられたときの
光源輝度xが起こる確率分布
主体外部世界
感覚入力
s
感覚入力の
原因 x
現在の推測
q(x)
推測
脳活動
b
p(x,s)
生成モデル
p(x|s) =
p(s|x)p(x)
p(s)
光源輝度
q(x) 現在の推測
q(x)
p(x|s) で近似したい。p(x|s)
問題設定: p(x|s)の最大値の点推定
q(x)を
q(x) = δ(x; µ)
を代入するとq(x) = δ(x; µ)
を最小化する。F(q) = DKL(q(x)kp(x, s))
F(µ) = − log p(s, µ) + C1
Posterior p(x|s)を最大化するxを推定するために
ベイズの法則を適用。
p(x|s) =
p(s|x)p(x)
p(s)
=
p(s|x)p(x)
R
p(s|x)p(x)dx
Posterior p(x|s) を最大化する
x (= )を計算できた。
解法1: ベイズの法則でposteriorを直接計算
でももっと複雑な式の場合、
分母を計算するのは不可能。
q(x)
p(x|s)
正規分布の平均と分散が与えられている
σs = 1p(s|x) = Norm(s; g(x), σs) g(x) = x2
p(x) = Norm(x; xp, σp) xp = 3 σp = 1
・・・(1)
・・・(2)
µ = 1.57
µ
Posterior p(x|s)を計算せずに、posteriorの最大値だけ知りたい。
解法2: 自由エネルギー最小化
sは与えられているから分母は定数。分子の対数をとる。
このF(自由エネルギー)を最小化すれば、posteriorは最大化する。
(一般的なFとは符号が逆だが、これによってFは正値になる。)
p(x|s) =
p(s|x)p(x)
p(s)
ln(p(s|x)p(x)) = ln p(s|x) + ln p(x) = −F
F =
1
2
(ln σs + ln σp +
(s − g(x))2
σs
+
(x − xp)2
σp
) + C
Fの式に(1)(2)を代入して整理する。
・・・(3)
解法2: 自由エネルギー最小化
Fを最小化するxを最急降下法で決める。
xを初期値x_p=3から更新してゆく。
xは収束してposteriorを最大化する
x (= )を計算できた。
Fをxで偏微分する(3の式より)。
@F
@x
=
s − g(x)
σs
g0
(x) −
x − xp
σp
x(t + δt) = x(t) + δt
@F
@x
・・・(4)
Fは単調減少している。
Bogacz R (2017)
J Math Psychol, 76(Pt B): 198-211.を元に作成
µ = 1.57
µ
Fの偏微分の式(4)を予測誤差eを使って書き直す。
解法3: ニューラルネットで計算させる
@F
@x
=
s − g(x)
σs
g0
(x) −
x − xp
σp
dx
dt
=
@F
@x
= ✏sg0
(x) − ✏p
✏s ✏p
d✏s
dt
= s − g(x) − σs✏s
d✏p
dt
= x − xp − σp✏p
同様に の偏微分を計算できる。
✏s
xs
✏p
x xp
✏s ✏p
x
✏s and ✏p
解法3: ニューラルネットで計算させる
これらの関係を実現するネットワークとして以下のものがある。
✏s ✏p✏s =
s − g(x)
σs
✏p =
x − xp
σp
1xs
σs σp
g(x) xp11
1g0
(x)
ノードの活動がs, e_s, x, e_pを表す。
他のパラメータはシナプスの重みとして表現される。
Bogacz R (2017)
J Math Psychol, 76(Pt B): 198-211.を元に作成
xは収束してposteriorを最大化する
x (= )を計算できた。
解法2をニューラルネットに埋め込む
e_s, e_pの初期値は0にしておく。
e_s, e_pが0には収束しない。
xを初期値x_p=3から更新してゆく。
Fは単調減少してない。
µ = 1.57
µ
「予測誤差の信頼度」の変化によるFの最小化
ここまではノードe_s, x, e_pだけが変化すると想定していた。
✏s ✏p✏s =
s − g(x)
σs
✏p =
x − xp
σp
1xs
σs σp
g(x) xp11
1g0
(x)
しかし、シナプスの重みsigma_s, sigma_pを変えることに
よってもFを最小化させることができる。
これは予測誤差の信頼度(=precision=注意=メタ認知)を
変化させることに相当する。
「予測誤差の信頼度」の変化によるFの最小化
(3)式をsigma_s, sigma_p, x_p のそれぞれで偏微分する。
F =
1
2
(ln σs + ln σp +
(s − g(x))2
σs
+
(x − xp)2
σp
) + C
@F
@σs
=
1
2
(✏2
s −
1
σs
)
@F
@σp
=
1
2
(✏2
p −
1
σp
)
どちらもシナプス前後の活動
で可塑的変化する。
ノードは
速く変動する発火頻度
としてFを最小化する。
シナプス重みは
ゆっくりと変化する学習
としてFを最小化する。
・・・(3)
✏s ✏p
1xs
σs σp
「生成モデル」の変化によるFの最小化
生成モデルの本体g(x)はノードe_s, x間のシナプス重みとして
表現されている。
✏s ✏p✏s =
s − g(x)
σs
✏p =
x − xp
σp
1xs
σs σp
g(x) xp11
1g0
(x)
シナプスの重みg(x)を変えることによってもFを最小化させる
ことができる。
これは生成モデルを変化させることに相当する。
Bogacz R (2017)
J Math Psychol, 76(Pt B): 198-211.を元に作成
「生成モデル」の変化によるFの最小化
話を単純にするため の場合を考えると
生成モデル g(x) = kx のkはシナプスの重みとして表現されて
いる。
g(x) = kx
k
k
✏s ✏p✏s =
s − g(x)
σs
✏p =
x − xp
σp
1xs
σs σp
xp11
1
Bogacz R (2017)
J Math Psychol, 76(Pt B): 198-211.を元に作成
「生成モデル」の変化によるFの最小化
生成モデル g(x) = kx は
シナプス可塑性によって
変化することで
Fを最小化する。
(発達や進化)
@F
@k
=
@F
@g
@g
@k
=
s − g(x)
σs
x = ✏sx
(3)式をkで偏微分する。
F =
1
2
(ln σs + ln σp +
(s − g(x))2
σs
+
(x − xp)2
σp
) + C ・・・(3)
シナプス前(x)後(e_s)
の活動で可塑的変化。
✏s ✏p
1xs
σs σp
k
k
Cortical circuits for perceptual inference
Friston K. (2005 ) A theory of cortical responses.
Philos Trans R Soc Lond B Biol Sci. 360(1456):815-36.
Cortical circuits for perceptual inference
Friston K, Kiebel S. (2009) Predictive coding
under the free-energy principle. Philos Trans
R Soc Lond B Biol Sci. 364(1521):1211-21.
単純化したニューラルネットワークの例では、
推測 や予測誤差 はノードの発火頻度として、
生成モデル や信頼度(precision) はシナプス
の重みとして表現される。
それぞれ異なるタイムスケールでFの最小化をするこ
とができる。
推測や予測誤差の変化: perceptual inference
信頼度の変化: 注意、メタ認知
生成モデルの変化: 学習、発生、進化
まとめ
✏s ✏px
σs σpg(x)
自由エネルギー「原理」である意義
FEPは脳についての諸理論を統一的に説明する「原理」であり、
これまでの理論を置き換えるためのものではない。
=> FEPでないと説明できない現象は無くても困らない。
(=>反証可能か?)
注意
シナプス
可塑性
学習・記憶
確率的
符号化
運動制御
価値判断
発達・進化
Friston, K. (2010). Nature Reviews
Neuroscience, 11(2), 127–138.
を元に作成
情報量最大化
予測符号化
ベイズ脳仮説
自由エネルギー原理
全体的な流れ
1. アクティブ・ヴィジョンとSMC
2. 自由エネルギー原理
3. 階層構造を用いた予測符号化
4. FEPに基づいた意識の理論
全体的な流れ
1. アクティブ・ヴィジョンとSMC
2. 自由エネルギー原理
3. 階層構造を用いた予測符号化
4. FEPに基づいた意識の理論
4-1. 反実仮想
What is FEP?
1) Perceptual inference (predictive coding)
2) Active inference (sensorimotor contingency)
3) Action selection with counter-factual prediction
自由エネルギー原理 (FEP)
FEPは「反実仮想」という付帯条件を持つことによっ
て、意識についての理論となりうる。
Presaccadic remappingはある生き物に意識があるかどうかの指標となるかも。
「意識についての理論」そのものではない
IITのΦが意識に直接関わっていると提唱するのと同じような意味では、FEPは意
識の理論ではない。自由エネルギーを最小化すると意識が生まれるわけではない。
しかしFEPの枠組みの上ではじめて意識の条件が議論
できるならば、FEPは意識の理論にとって必須。
FEPで駆動するagentはポパー型動物
戸田山 和久 (2014) 哲学入門 p.265
ダニエル C. デネット(1997) 心はどこにある
のか (サイエンス マスターズ) 草思社 4章 「心
の進化論」
内部モデルを持ち、
反実仮想を行う
図は省略
FEPと存在感 (「反実仮想的な豊かさ」)
Perceptual presence (存在感)
知覚のcontentが主観的にリアルであると感じること、存在
していると感じること。
たとえば、トマトを見たとして、、見えない面も確かに存
在していると感じるのはなぜか?
存在感の大きさはFEPがどの程度まで深く反実仮想をできるか
(couterfactual richness)によって決まる。
FEPでは、トマトの見えていない部分も含めた上で、これ
に手を伸ばして掴んだり、引き寄せて裏側を見る、といっ
た潜在的な行動が可能(counterfactual)であるということ
が、トマトの裏面をawareしているということになる。
Seth, A.K. (2015). The cybernetic Bayesian brain: from interoceptive
inference to sensorimotor contingencies. In Open MIND, eds. T.
Metzinger & J. Windt. Frankfurt a.M., GER: MIND group
FEPと意識(「時間的な厚み」)
Karl Friston (2017) The mathematics of mind-time. (An
essay on the Aeon web site) https://aeon.co/essays/
consciousness-is-not-a-thing-but-a-process-of-inference
将来の感覚入力sとその原因xの推定には
実際に行わなかった行動aによってどのように感覚入力s
とその原因xが起きるかを予測する
反実仮想的な推論が必要になる。
Temporal thickness(時間的な厚み): 将来への予測、そし
て過去の結果への後付的な予測(postdiction)
「意識が生まれる」のは、外界についてのサプライズを
最小化するinferenceが「実行されていない行動が引き起
こす未来の感覚入力sとその原因xについての反実仮想的
な推測」を持つことができるような「時間的厚み」を持っ
ているときだ。
全体的な流れ
1. アクティブ・ヴィジョンとSMC
2. 自由エネルギー原理
3. 階層構造を用いた予測符号化
4. FEPに基づいた意識の理論
4-1. 反実仮想
4-2. SMCと表象主義
Standard view
Seeing is making
an internal
representation
New view
Seeing is knowing
about things to do
Seeing is an exploratory activity mediated
by the animal’s mastery of sensorimotor contingencies.
O'Regan, J. K. & Noë, A.
A sensorimotor account of vision and visual consciousness.
Behav Brain Sci 24, 939–73– discussion 973–1031 (2001).
図はJ. Kevin O’Reganのトーク原稿より。
http://nivea.psycho.univ-paris5.fr/ASSChtml/Pacherie4.html
FEPはSMCと整合的である
FEPとSMCの関係
Sensorimotor contingency説
環境とのongoingの相互作用からなる流れのパターンから出来
ている「スキル」である。
「赤い」という経験は「赤いものとの相互作用が明らかにし
てゆく法則性に習熟し、それを実践すること」
FEPとの関連
Agentと環境のongoingな相互作用の重要性
SMCの習熟には「(まだ行っていない)ある行動がどのような感
覚入力を引き起こすか」というcounter-factualな知識が必要で
ある。
例:眼を動かしたら、どのように視覚入力が変化するか。
Seth, A.K. (2015). The cybernetic Bayesian brain: from interoceptive
inference to sensorimotor contingencies. In Open MIND, eds. T.
Metzinger & J. Windt. Frankfurt a.M., GER: MIND group
SMCとFEP
FEPにおける
生成モデルp: 世界についての知識
推測q: イマココの志向的対象 - 世界についての表象
SMCにおける感覚運動的知識への習熟とは
生成モデルp(x,s)の確立、維持と表現できる。
主体外部世界
感覚入力
s
行動
a
外部世界の
原因 x
p(x,s)
現在の推測
q(x|b)
生成モデル
推測
例: 網膜の
神経活動
直接は
アクセス
不可能
例: 目を向ける
例: 蝶
脳活動
b
Standard view
Seeing is making
an internal
representation
New view
Seeing is knowing
about things to do
Seeing is an exploratory activity mediated
by the animal’s mastery of sensorimotor contingencies.
O'Regan, J. K. & Noë, A.
A sensorimotor account of vision and visual consciousness.
Behav Brain Sci 24, 939–73– discussion 973–1031 (2001).
図はJ. Kevin O’Reganのトーク原稿より。
http://nivea.psycho.univ-paris5.fr/ASSChtml/Pacherie4.html
FEPは表象主義とも整合的である
そもそも表象とNCC問題
ルース・ミリカン
「人間と動物の表象の違い」
ミニマルな表象主義
意識経験の内容 = 本来的表象の志向的対象
本来的表象 = 生物の神経系において、感覚入力と行動出力を媒介
する内部状態
(鈴木貴之)
鈴木貴之 (2015) 「ぼくらが原子の集まりなら、
なぜ痛みや悲しみを感じるのだろう」 p.142, 158
本来的表象の目的:「世界をありのままに写し取る」(再現表象)
ではなく、「みずからの生存にとって有用な仕方で世界を分節化
する」(分節表象)
ミニマルな表象主義 (鈴木貴之)
戸田山 和久 (2014) 哲学入門 p.240
本来的表象
記述的表象
司令的表象
オシツオサレツ表象: 記述と司令とが一体化
人間の表象: 記述と司令は分離しうる
鈴木貴之 (2015) 「ぼくらが原子の集まりなら、
なぜ痛みや悲しみを感じるのだろう」 p.142, 158
図は省略
表象主義とFEP
FEPにおける
生成モデルp: 世界についての知識
推測q: イマココの志向的対象 - 世界についての表象
表象主義のうち、外的な刺激をそっくり写しとるような「再現
表象」 を要請しない表象主義はFEPと整合的
主体外部世界
感覚入力
s
行動
a
外部世界の
原因 x
p(x,s)
現在の推測
q(x|b)
生成モデル
推測
例: 網膜の
神経活動
直接は
アクセス
不可能
例: 目を向ける
例: 蝶
脳活動
b
FEPでの推測q(x|b)
= イマココの世界の推測 = 本来的表象
FEPでの生成モデルp(x,s)
= 学習で獲得した「世界のモデル」
= 環境と主体の相互作用のダイナミクスを記述したSMC
= 拘束条件と経験との総体である「来歴」
FEPは表象理論とSMCを整合的に説明できる
主体外部世界
感覚入力
s
行動
a
外部世界の
原因 x
p(x,s)
現在の推測
q(x|b)
生成モデル
推測
例: 網膜の
神経活動
直接は
アクセス
不可能
例: 目を向ける
例: 蝶
脳活動
b
Criticism against SMC
Historical explanation (= pre-requisite)
or Ongoing causal explanation?
Historical
explanation
Explanation
(ongoing)
Individiual
Ontogeny
(development)
Mechanism
(causation)
Species
Phylogeny
(evolution)
Function
(adaptation)
IIT
SMC
Criticism against SMC
Historical explanation (= pre-requisite)
or Ongoing causal explanation?
生成モデルp(x,s)は認識の度にオンラインで照合されるメカ
ニズムの一部であり、単なる認識の前提条件ではない。
Historical
explanation
Explanation
(ongoing)
Individiual
Ontogeny
(development)
Mechanism
(causation)
Species
Phylogeny
(evolution)
Function
(adaptation)
IIT
FEP/
SMC
検算
開眼手術:
他の知覚モダリティーの生成モデルp(x,s)があっても、視覚の
生成モデルがないので、イマココの推測q(x|b)を作ることがで
きない。
経験によってあっという間に(~1day)生成モデルができると、
視覚経験を持つことができるようになる。
夢:
夢を見ているときには行動はしていないが、生成モデルはすで
にそれまでの経験から構築されているので、active inferenceは
可能であり、知覚経験は可能。
ただし、知覚入力がないのに推測q(x|b)をする特殊なモードの
perceptual inferenceであることが、veridicalな意識経験と夢の
意識経験の質的違いの起源。
SMC説=「主体と環境の相互作用が
意識の構成する」が
FEPによって
計算論レベルの表現を持つようになった。
身体は「オンラインで照合される生成モデルを
形成し、アップデートしてゆくもの」として
consciousnessに因果的に関わる。
結論
全体的な流れ
1. アクティブ・ヴィジョンとSMC
2. 自由エネルギー原理
3. 階層構造を用いた予測符号化
4. FEPに基づいた意識の理論
4-1. 反実仮想
4-2. SMCと表象主義
4-3. 暗い部屋問題
暗い部屋問題
もし自由エネルギー(そして感覚入力のlog evidence -
log(s))を最小化するだけなら、単純な状況(たとえば視
覚入力がない)を予測した上で、この予測を実現する(目
を閉じる)というので達成できる。
Seth, A.K. (2015). The cybernetic Bayesian brain: from interoceptive
inference to sensorimotor contingencies. In Open MIND, eds. T.
Metzinger & J. Windt. Frankfurt a.M., GER: MIND group
FEPとSMCの関係
Active inferenceは反実仮想的なpredictive processing
「まだ実行されていない潜在的なaction」について
のsensory inputとprecisionの期待値を脳がencode
している
でもこれまでのFEP (Friston et al 2012)ではhigher-
order priorはある時点ではひとつのperceptual
predictionしかもっていない。(ひとつの仮説の確証
<=> モデル選択)
Seth, A.K. (2015). The cybernetic Bayesian brain: from interoceptive
inference to sensorimotor contingencies. In Open MIND, eds. T.
Metzinger & J. Windt. Frankfurt a.M., GER: MIND group
Perceptions as hypotheses: saccades as experiments.
Friston K, Adams RA, Perrinet L, Breakspear M.
Front Psychol. 2012 May 28;3:151.
自由エネルギー原理 (FEP)は本当はもっと複雑
x,sは時間的なシークエンス
視覚サリエンス
が高い
= そこを見れば
qのエントロピーを
最小化する場所
Control state u(x)によって運動aを計画
FEPとSMCの関係
Active inferenceの意義
Actionは新しい感覚入力を生成するのに用いられる
目的はperceptual predictionのuncertaintyの最小化。
これの実現は仮説検証と同じ形式で複数ある
現在のPerceptionに関する仮説を確認するため
現在のPerceptionに関する仮説を反証するため
複数の競合仮説から選択する
Friston 2012の例 (free-viewing)
このstudyではhigher-order priorはある時点ではひとつの
perceptual predictionしかもっていない。
仮説検証としては競合仮説ではなく、確証をするため
Seth, A.K. (2015). The cybernetic Bayesian brain: from interoceptive
inference to sensorimotor contingencies. In Open MIND, eds. T.
Metzinger & J. Windt. Frankfurt a.M., GER: MIND group
暗い部屋問題
もし自由エネルギー(そして感覚入力のlog evidence -
log(s))を最小化するだけなら、単純な状況(たとえば視
覚入力がない)を予測した上で、この予測を実現する(目
を閉じる)というので達成できる。
しかし、もしactive inferenceとしてこれまでの「確証
的」なものから「モデル比較的」なものにするなら、
agentは現在のモデルを反証するために探索的な行動を
生み出す(infotropicなactive inference)ことが可能とな
る。
Seth, A.K. (2015). The cybernetic Bayesian brain: from interoceptive
inference to sensorimotor contingencies. In Open MIND, eds. T.
Metzinger & J. Windt. Frankfurt a.M., GER: MIND group
全体的な流れ
1. アクティブ・ヴィジョンとSMC
2. 自由エネルギー原理
3. 階層構造を用いた予測符号化
4. FEPに基づいた意識の理論
4-1. 反実仮想
4-2. SMCと表象主義
4-3. 暗い部屋問題
4-4. 進化・発達的視点
SMC ≠ FEP
https://en.wikipedia.org/wiki/Braitenberg_vehicle
VAE (変分自己符号器):
FEP+ / SMC-
Braitenbergのvehicle:
FEP- / SMC+
https://qiita.com/kenmatsu4/items/
b029d697e9995d93aa24
xs s
訓練データ 隠れ変数
(復元した)
訓練データ
q(x|s) p(s|x)
生成推論
Helmholtz machine (Hinton)
FEP VAE
FEPはまだ充分にenactiveでない!
FEPの目的: 「sから原因xを推定すること」
FEPが実際にやっていること:
「観察による相関に基づいた推定」
本当にするべきこと:
「(Pearl的な)介入に基づいた因果推論」
FEPをもっとenactiveにするためには、介入を考慮すべき
「介入」は反実仮想を伴う
観察 介入
P(Y|X) P(do(Y=1))
Judea Pearlの因果推論モデル:
因果推論は介入によるベイズネットの「手術」
Randomized controlled trial (RCT)
ランダム化被験者群A
ランダム化被験者群B
介入あり 介入なし
事実
事実
反事実
反事実
意識の「介入」理論
観察に基づいたSensorimotor contingencyという技能の獲
得が、サリエンスおよびアフォーダンスに基づいた「なに
かあるかんじ=カエルの意識」という原始的な意識経験を
もつことを可能にする。
Agentは自らの介入によって世界を操作し、因果推論を行
うことによって、
(1) 世界を自分に関係のあるgroundedなものとする
(2) イマココにないものも含めた世界の推定=本来的表象を
もつ
これらがfull-fledgeな意識経験を持つことを可能にする。
意識の「介入」理論
脳が世界との交互作用において生成モデルを作りあげ、維持して
ゆくのに際して、「観察」と「介入」のうち介入こそがagentを自
分ごととして世界にgroundさせるためには必須である。
世界への介入がなくても生成モデルは作りうるが、これは意識に
上らない。このようにして意識の有無を判別する理論となりうる。
例: コンピューター上のVariational autoencoderはたとえ生成モデ
ルを持っていたとしても意識を持たない。世界に介入することで
生成モデルを作り上げたわけではないから。
IIT批判
「観察」による因果推論はサブパーソナルなレベルで埋め込み可
能だが、「介入」が必須となるような因果推論はパーソナルなレ
ベルでしか作りこめない。このような介入が可能となる単位が
agentであり、意識を持つ範囲、単位を決定づける。
IITでいうニューロン間の因果推論とはサブパーソナルな
「観察」による推論であり、「介入」が入ってない。
Oizumi M, Tsuchiya N, Amari SI. (2016)
Proc Natl Acad Sci U S A. 113(51):14817-14822.
FEPでははじめから
表象の世界を
前提としている。
このため、
物理世界の中にどうやって
表象の世界を創発させるか
という問題は
まったく解決していない
さいごに:
参考文献
Friston K, Adams RA, Perrinet L, Breakspear M. (2012) Perceptions as hypotheses:
saccades as experiments. Front Psychol. 3:151. (視線移動のモデル及び反実仮想の概
念の初出)
McGregor, Simon; Baltieri, Manuel; Buckley, Christopher L. (2015) A Minimal Active
Inference Agent. arXiv:1503.04187 https://arxiv.org/abs/1503.04187 (このスライドの
説明の元ネタ。離散バージョンのFEPの説明などがあり、これがもっともわかりやす
い。)
Bogacz R (2017) A tutorial on the free-energy framework for modelling perception and
learning. J Math Psychol, 76(Pt B): 198-211. (予想符号化パートの元ネタ)
Buckley, Christopher L.; Kim, Chang Sub; McGregor, Simon; Seth, Anil K. (2017) The
free energy principle for action and perception: A mathematical review. arXiv:
1705.09156 (省略無しで丁寧な説明。)
Friston, K. (2010). The free-energy principle: a unified brain theory? Nature Reviews
Neuroscience, 11(2), 127–138. (FEPの全体像について網羅的な記述)
Friston K, Rigoli F, Ognibene D, Mathys C, Fitzgerald T, Pezzulo G. (2015) Active
inference and epistemic value. Cogn Neurosci. 2015;6(4):187-214. (視線移動を
epistemic valueと捉えて、他のvalueと対置して扱っている)
Ryota Kanai (2017) Creating Consciousness. https://www.slideshare.net/ryotakanai/
creating-consciousness (FEPの反実仮想についての言及あり。)
FEPをガチで理解したい人は
金井良太さんのASSC2017チュートリアルにも書かれている
ように、フリストンの書いたものをいきなり読むのはハマり
道。表記の統一がされていないので混乱する。
まずは、機械学習、とくに変分ベイズについてPRMLなどの
教科書でよく理解することが大事。
そのうえで、SPM12のDEM toolboxにあるmatlabコードを走
らせ、コードを理解するという手順がよいと思われる。
http://www.fil.ion.ucl.ac.uk/spm/software/spm12/
End

Mais conteúdo relacionado

Mais procurados

Mais procurados (20)

機械学習モデルの判断根拠の説明(Ver.2)
機械学習モデルの判断根拠の説明(Ver.2)機械学習モデルの判断根拠の説明(Ver.2)
機械学習モデルの判断根拠の説明(Ver.2)
 
「世界モデル」と関連研究について
「世界モデル」と関連研究について「世界モデル」と関連研究について
「世界モデル」と関連研究について
 
[DL輪読会]Understanding Black-box Predictions via Influence Functions
[DL輪読会]Understanding Black-box Predictions via Influence Functions [DL輪読会]Understanding Black-box Predictions via Influence Functions
[DL輪読会]Understanding Black-box Predictions via Influence Functions
 
【DL輪読会】Scaling Laws for Neural Language Models
【DL輪読会】Scaling Laws for Neural Language Models【DL輪読会】Scaling Laws for Neural Language Models
【DL輪読会】Scaling Laws for Neural Language Models
 
深層生成モデルと世界モデル
深層生成モデルと世界モデル深層生成モデルと世界モデル
深層生成モデルと世界モデル
 
GAN(と強化学習との関係)
GAN(と強化学習との関係)GAN(と強化学習との関係)
GAN(と強化学習との関係)
 
2014 3 13(テンソル分解の基礎)
2014 3 13(テンソル分解の基礎)2014 3 13(テンソル分解の基礎)
2014 3 13(テンソル分解の基礎)
 
全力解説!Transformer
全力解説!Transformer全力解説!Transformer
全力解説!Transformer
 
【解説】 一般逆行列
【解説】 一般逆行列【解説】 一般逆行列
【解説】 一般逆行列
 
SSII2020SS: グラフデータでも深層学習 〜 Graph Neural Networks 入門 〜
SSII2020SS: グラフデータでも深層学習 〜 Graph Neural Networks 入門 〜SSII2020SS: グラフデータでも深層学習 〜 Graph Neural Networks 入門 〜
SSII2020SS: グラフデータでも深層学習 〜 Graph Neural Networks 入門 〜
 
[DL輪読会]Neural Ordinary Differential Equations
[DL輪読会]Neural Ordinary Differential Equations[DL輪読会]Neural Ordinary Differential Equations
[DL輪読会]Neural Ordinary Differential Equations
 
PRML学習者から入る深層生成モデル入門
PRML学習者から入る深層生成モデル入門PRML学習者から入る深層生成モデル入門
PRML学習者から入る深層生成モデル入門
 
PCAの最終形態GPLVMの解説
PCAの最終形態GPLVMの解説PCAの最終形態GPLVMの解説
PCAの最終形態GPLVMの解説
 
coordinate descent 法について
coordinate descent 法についてcoordinate descent 法について
coordinate descent 法について
 
【DL輪読会】SimCSE: Simple Contrastive Learning of Sentence Embeddings (EMNLP 2021)
【DL輪読会】SimCSE: Simple Contrastive Learning of Sentence Embeddings  (EMNLP 2021)【DL輪読会】SimCSE: Simple Contrastive Learning of Sentence Embeddings  (EMNLP 2021)
【DL輪読会】SimCSE: Simple Contrastive Learning of Sentence Embeddings (EMNLP 2021)
 
合成変量とアンサンブル:回帰森と加法モデルの要点
合成変量とアンサンブル:回帰森と加法モデルの要点合成変量とアンサンブル:回帰森と加法モデルの要点
合成変量とアンサンブル:回帰森と加法モデルの要点
 
cvpaper.challenge 研究効率化 Tips
cvpaper.challenge 研究効率化 Tipscvpaper.challenge 研究効率化 Tips
cvpaper.challenge 研究効率化 Tips
 
マルコフ連鎖モンテカルロ法 (2/3はベイズ推定の話)
マルコフ連鎖モンテカルロ法 (2/3はベイズ推定の話)マルコフ連鎖モンテカルロ法 (2/3はベイズ推定の話)
マルコフ連鎖モンテカルロ法 (2/3はベイズ推定の話)
 
深層学習の数理
深層学習の数理深層学習の数理
深層学習の数理
 
[DL輪読会]Convolutional Conditional Neural Processesと Neural Processes Familyの紹介
[DL輪読会]Convolutional Conditional Neural Processesと Neural Processes Familyの紹介[DL輪読会]Convolutional Conditional Neural Processesと Neural Processes Familyの紹介
[DL輪読会]Convolutional Conditional Neural Processesと Neural Processes Familyの紹介
 

Semelhante a 感覚運動随伴性、予測符号化、そして自由エネルギー原理 (Sensory-Motor Contingency, Predictive Coding and Free Energy Principle)

言語処理のための仮説推論エンジン Phillip
言語処理のための仮説推論エンジン Phillip言語処理のための仮説推論エンジン Phillip
言語処理のための仮説推論エンジン Phillip
Kazeto Yamamoto
 

Semelhante a 感覚運動随伴性、予測符号化、そして自由エネルギー原理 (Sensory-Motor Contingency, Predictive Coding and Free Energy Principle) (10)

自由エネルギー原理と視覚的意識 2019-06-08
自由エネルギー原理と視覚的意識 2019-06-08自由エネルギー原理と視覚的意識 2019-06-08
自由エネルギー原理と視覚的意識 2019-06-08
 
駒場学部講義2019 「統合失調症、感覚運動随伴性、自由エネルギー原理」
駒場学部講義2019 「統合失調症、感覚運動随伴性、自由エネルギー原理」駒場学部講義2019 「統合失調症、感覚運動随伴性、自由エネルギー原理」
駒場学部講義2019 「統合失調症、感覚運動随伴性、自由エネルギー原理」
 
T-sne
T-sneT-sne
T-sne
 
帰納バイアスと分子の組合せ的表現・幾何的表現 (本発表)
帰納バイアスと分子の組合せ的表現・幾何的表現 (本発表)帰納バイアスと分子の組合せ的表現・幾何的表現 (本発表)
帰納バイアスと分子の組合せ的表現・幾何的表現 (本発表)
 
[DL輪読会]Temporal DifferenceVariationalAuto-Encoder
[DL輪読会]Temporal DifferenceVariationalAuto-Encoder[DL輪読会]Temporal DifferenceVariationalAuto-Encoder
[DL輪読会]Temporal DifferenceVariationalAuto-Encoder
 
Hayashi tutorial ne2017
Hayashi tutorial ne2017Hayashi tutorial ne2017
Hayashi tutorial ne2017
 
A brief explanation of Causal Entropic Forces
A brief explanation of Causal Entropic ForcesA brief explanation of Causal Entropic Forces
A brief explanation of Causal Entropic Forces
 
(2020.9) 機械学習による化学反応の予測と設計
(2020.9) 機械学習による化学反応の予測と設計(2020.9) 機械学習による化学反応の予測と設計
(2020.9) 機械学習による化学反応の予測と設計
 
言語処理のための仮説推論エンジン Phillip
言語処理のための仮説推論エンジン Phillip言語処理のための仮説推論エンジン Phillip
言語処理のための仮説推論エンジン Phillip
 
トピックモデル
トピックモデルトピックモデル
トピックモデル
 

Mais de Masatoshi Yoshida

駒場学部講義2016 人間情報学VI 「意識の神経科学:「盲視」と「統合失調症」を手がかりに」
駒場学部講義2016 人間情報学VI 「意識の神経科学:「盲視」と「統合失調症」を手がかりに」駒場学部講義2016 人間情報学VI 「意識の神経科学:「盲視」と「統合失調症」を手がかりに」
駒場学部講義2016 人間情報学VI 「意識の神経科学:「盲視」と「統合失調症」を手がかりに」
Masatoshi Yoshida
 
駒場学部講義2015 総合情報学特論III 「意識の神経科学:「気づき」と「サリエンシー」を手がかりに」
駒場学部講義2015 総合情報学特論III 「意識の神経科学:「気づき」と「サリエンシー」を手がかりに」駒場学部講義2015 総合情報学特論III 「意識の神経科学:「気づき」と「サリエンシー」を手がかりに」
駒場学部講義2015 総合情報学特論III 「意識の神経科学:「気づき」と「サリエンシー」を手がかりに」
Masatoshi Yoshida
 
サリエンシーマップの視線計測への応用
サリエンシーマップの視線計測への応用サリエンシーマップの視線計測への応用
サリエンシーマップの視線計測への応用
Masatoshi Yoshida
 

Mais de Masatoshi Yoshida (20)

自由エネルギー原理入門: 正規分布を仮定した場合
自由エネルギー原理入門: 正規分布を仮定した場合自由エネルギー原理入門: 正規分布を仮定した場合
自由エネルギー原理入門: 正規分布を仮定した場合
 
FEPチュートリアル2021 講義3 「潜在変数が連続値、生成モデルが正規分布の場合」の改良版
FEPチュートリアル2021 講義3 「潜在変数が連続値、生成モデルが正規分布の場合」の改良版FEPチュートリアル2021 講義3 「潜在変数が連続値、生成モデルが正規分布の場合」の改良版
FEPチュートリアル2021 講義3 「潜在変数が連続値、生成モデルが正規分布の場合」の改良版
 
シンギュラリティサロン20211030ep
シンギュラリティサロン20211030epシンギュラリティサロン20211030ep
シンギュラリティサロン20211030ep
 
R演習補講 (2腕バンディット問題を題材に)
R演習補講 (2腕バンディット問題を題材に)R演習補講 (2腕バンディット問題を題材に)
R演習補講 (2腕バンディット問題を題材に)
 
CHAIN公開セミナー20200817吉田発表資料
CHAIN公開セミナー20200817吉田発表資料CHAIN公開セミナー20200817吉田発表資料
CHAIN公開セミナー20200817吉田発表資料
 
NTICは何を計算しているのか
NTICは何を計算しているのかNTICは何を計算しているのか
NTICは何を計算しているのか
 
熱力学の初歩まとめ 20200224 吉田正俊
熱力学の初歩まとめ 20200224 吉田正俊熱力学の初歩まとめ 20200224 吉田正俊
熱力学の初歩まとめ 20200224 吉田正俊
 
自由エネルギー原理(FEP)とはなにか 20190211
自由エネルギー原理(FEP)とはなにか 20190211自由エネルギー原理(FEP)とはなにか 20190211
自由エネルギー原理(FEP)とはなにか 20190211
 
駒場学部講義2018 「意識の神経科学と自由エネルギー原理」講義スライド
駒場学部講義2018 「意識の神経科学と自由エネルギー原理」講義スライド駒場学部講義2018 「意識の神経科学と自由エネルギー原理」講義スライド
駒場学部講義2018 「意識の神経科学と自由エネルギー原理」講義スライド
 
Bogacz 2017を元にFEPのニューラルネットの説明
Bogacz 2017を元にFEPのニューラルネットの説明Bogacz 2017を元にFEPのニューラルネットの説明
Bogacz 2017を元にFEPのニューラルネットの説明
 
駒場学部講義2017 「意識の神経科学:盲視・統合失調症・自由エネルギー原理」
駒場学部講義2017 「意識の神経科学:盲視・統合失調症・自由エネルギー原理」駒場学部講義2017 「意識の神経科学:盲視・統合失調症・自由エネルギー原理」
駒場学部講義2017 「意識の神経科学:盲視・統合失調症・自由エネルギー原理」
 
細胞外電極はなにを見ているか2017年5月版
細胞外電極はなにを見ているか2017年5月版細胞外電極はなにを見ているか2017年5月版
細胞外電極はなにを見ているか2017年5月版
 
「アクティブビジョンと フリストン自由エネルギー原理」@北大20170111
「アクティブビジョンと フリストン自由エネルギー原理」@北大20170111「アクティブビジョンと フリストン自由エネルギー原理」@北大20170111
「アクティブビジョンと フリストン自由エネルギー原理」@北大20170111
 
駒場学部講義2016 人間情報学VI 「意識の神経科学:「盲視」と「統合失調症」を手がかりに」
駒場学部講義2016 人間情報学VI 「意識の神経科学:「盲視」と「統合失調症」を手がかりに」駒場学部講義2016 人間情報学VI 「意識の神経科学:「盲視」と「統合失調症」を手がかりに」
駒場学部講義2016 人間情報学VI 「意識の神経科学:「盲視」と「統合失調症」を手がかりに」
 
The hard problem of consciousness
The hard problem of consciousnessThe hard problem of consciousness
The hard problem of consciousness
 
駒場学部講義2015 総合情報学特論III 「意識の神経科学:「気づき」と「サリエンシー」を手がかりに」
駒場学部講義2015 総合情報学特論III 「意識の神経科学:「気づき」と「サリエンシー」を手がかりに」駒場学部講義2015 総合情報学特論III 「意識の神経科学:「気づき」と「サリエンシー」を手がかりに」
駒場学部講義2015 総合情報学特論III 「意識の神経科学:「気づき」と「サリエンシー」を手がかりに」
 
Saliency2b
Saliency2bSaliency2b
Saliency2b
 
Saliency
SaliencySaliency
Saliency
 
ZahaviのHusserl's Phenomenologyから“Signitive and Intuitive Givenness” (p.27-31)...
ZahaviのHusserl's Phenomenologyから“Signitive and Intuitive Givenness” (p.27-31)...ZahaviのHusserl's Phenomenologyから“Signitive and Intuitive Givenness” (p.27-31)...
ZahaviのHusserl's Phenomenologyから“Signitive and Intuitive Givenness” (p.27-31)...
 
サリエンシーマップの視線計測への応用
サリエンシーマップの視線計測への応用サリエンシーマップの視線計測への応用
サリエンシーマップの視線計測への応用
 

感覚運動随伴性、予測符号化、そして自由エネルギー原理 (Sensory-Motor Contingency, Predictive Coding and Free Energy Principle)