O slideshow foi denunciado.
Utilizamos seu perfil e dados de atividades no LinkedIn para personalizar e exibir anúncios mais relevantes. Altere suas preferências de anúncios quando desejar.
Deep Learningによる医用画像読影支援 
佐藤一誠 
東京大学 情報基盤センター/JST さきがけ 
joint work with 牛丸太希, 小宮山純平 (東大 情理工) 中川裕志(東大 情報基盤センター) 野村行弘, 根本充貴,...
•機械学習による医用画像読影支援 
•Convolutional Neural Network(CNN)の利用 
•ベイズ的最適化(Bayesian Optimization) によるCNNの自動チューニング 
2 
概要
3 
•画像診断の医師への負担の増加 
–1件1件の検査が時代の要求に合わせて複雑化 
– 数百~数千枚/検査 
–東大病院でのPACS受信画像枚数は4年で1.8倍に 
•病変の見落としの危険性 
読影医の負担を軽減しサポートするシステムが必要...
4 
機械学習による医用画像読影支援 
撮影画像 
機械学習による 
病変検出 
読影支援システム 
※試験運用中の 
システム画面
5 
特徴量抽出 
医療画像 
分類器 
特徴量 
検出 
機械学習による医用画像読影支援 
問題点: 
特徴抽出には専門家の知識が必要 
症例毎に病変の性質が異なる
病変例:大腿骨頚部骨折(CT)
病変例2:乳癌(石灰化、マンモグラフィ)
病変例3:胸部CT 
充実性結節(肺腫瘤) 
すりガラス結節
9 
特徴量抽出 
医療画像 
分類器 
特徴量 
検出 
機械学習による医用画像読影支援 
問題点: 
特徴抽出には専門家の知識が必要 
症例毎に病変の性質が異なる
10 
特徴量抽出 
医療画像 
分類器 
特徴量 
検出 
Deep Learning 
特徴量も学習 
(今回はConvolutional Neural Network) 
Deep Learningによる医用画像読影支援
11 
Convolutional Neural Network (CNN) 
•Neocognitron [Fukushima, 1980] - 脳の視覚情報処理の仕組みに基づく 
•LeNet-1,LeNet-5 [LeCun+,1989,...
IBIS2014にレジェンドが! 
12 
IBIS2014 
検索 
http://ibisml.org/ibis2014 
11.16-19@名古屋 
当日参加もOK!
13 
網膜 
→外側膝状体 
→大脳皮質一次視覚野(V1): 特定方向の線分に選択的に反応 
→二次視覚野(V2): 2本の線分を組み合わせた形状に選択的に反応する 
→四次視覚野(V4) 
→Inferior Temporal野(IT): ...
•単純細胞(Simple cell, S-cell) 
- 特定方向の線分に反応する方位選択性 
•複雑細胞(Complex cell, C-cell) 
-線分の位置変動に不変な位置不変性 
14 
単純細胞・複雑細胞 
Hubel & Wi...
15 
Convolutional Neural Network (CNN) 
•Neocognitron [Fukushima, 1980] - 脳の視覚情報処理の仕組みに基づく 
•LeNet-1,LeNet-5 [LeCun+,1989,...
Convolution(畳み込み) 
16 
( , ) ( , ) ( , ) ( 1) 
( , ) 
( ) ( ) y i j a u v y i u j v t 
u v 
t 
j 
t      
(t1) y 
(t...
Convolution(畳み込み) 
17 
・異なる複数の 
畳込み画像 
・多対多Mapping 
・境界条件分 
サイズ減少 
・Overlapping可 
複数のFeature mapを畳み込むほうがより良いFeature mapを作れる
Pooling (まとめる) 
18 
e.g. 局所平均化 
( ) 
4 
1 
, 2 ,2 2 1,2 2 ,2 1 2 1,2 1     i j i j i j i j i j y x x x x 
・Non-ove...
19 
Pooling (まとめる) 
微小変位に対する不変性(Local shift invariant) 
※入力画像の方も回転などの変更を加えた 
コピーを大量に作る (生成型学習) 
4✕4→1
20 
Pooling(まとめる) 
• Subsmpling:平均を取る 
• Max-pooling:最大値を取る 
k l 
k l P 
i j y x 
i j 
, 
( , ) 
, 
, 
max 
 
 
 
 
 ...
21 
From Fukushima : Neocognitron for handwritten digit recognition, Neurocomputing 51 (2003) 161 – 180 
Neocognitron 
con...
22 
From Fukushima: Artificial vision by multi-layered neural networks: Neocognitron and its advances, Neural Networks 37 ...
23 
 
1 u 
2 u 
1 a 
2 a 
・・・・・ 
N u 
v b 
 
 
N 
i 
i i a u 
bv 1 
1 x 
x 
y 
 
y  (x  ) 
input 
output 
   
...
24 
 
1 u 
2 u 
1 a 
2 a 
・・・・・ 
N u 
1 b 
 
 
 
N 
i 
i i a u b 
1 
x 
x 
y 
y  tanh(x) 
input 
output 
Convolution ...
LeNetのアーキテクチャ例 
From http://deeplearning.net/tutorial
CNNの問題点 
ハイパーパラメータが多数存在 
例えば・・・LeNet-5 for MNIST(手書き画像)の場合 - 構造:各層でのFeature Mapの枚数、サイズ e.t.c 
- 学習:Learning rate, ミニバッチサイズ...
27 
ベイズ的最適化 
Bayesian Optimization (BO) 
Black-box関数の最適化(多峰性・評価が高コスト) 
→関数がわからないなら 事前分布を仮定して、関数の事後分布を基に最適化しよう 
y=f(x) 
x 
...
• 関数f : X→R上の確率分布 p(f) 
• Mean function m(x), covariance function K(x,x’) 
をパラメータとする 
• 観測 は、平均m分散Kのn次元ガウス 
分布に従う 
28 
Gau...
29 
Bayesian predictive distribution 
( ( ), ( )) 
( | ( )) ( |{ , ( )}) 
( | ,{ , ( )}) 
N x x 
p y f x GP f x f x df 
p ...
30 
Acquisition Functions 
y* min. f (x) 
x 
 
目的 
max. ( ) 1 x a x 
x 
t   
アルゴリズム 
a(x)  ((x)  (x)) 
Confidence...
31 
BOの動作例 
y* min. f (x) 
x 
 
a(x) 
f (x) 
(x) 
 (x) 
max. ( ) 1 x a x 
x 
t   
目的 
アルゴリズム
32 
BOの動作例 
a(x) 
f (x) 
 (x) 
y* min. f (x) 
x 
 
max. ( ) 1 x a x 
x 
t   
目的 
アルゴリズム 
(x)
33 
BOの動作例 
a(x) 
f (x) 
 (x) 
y* min. f (x) 
x 
 
max. ( ) 1 x a x 
x 
t   
目的 
アルゴリズム 
(x)
34 
BO for Machine Learning 
y=f(x) 
x 
y 
•機械学習の多くの手法はハイパーパラメータに依存する 
•Cross validationでチューニング 
-3パラメータ以上から厳しくなる 
-MLでは一般...
CNN+BOによる病変検出 
ハイパーパラメータ 
- 構造:各層でのFeature Mapの枚数、サイズ e.t.c 
- 学習:Learning rate, ミニバッチサイズ e.t.c 
BOにより、これらを自動的にTuning 
ボクセ...
36 
脳動脈瘤病変抽出結果 
AUC 
Tuning回数 
続きは 
IBIS2014 
ディスカッショントラックで! 
IBIS2014 
検索 
http://ibisml.org/ibis2014
CNN+BOは最強? 
・実際には、BO自体に細かい工夫が必要 
–Bayesian Nonparametricsで近年培われた(マニアックな?) MCMC技術 
–カーネル設計が重要(設計師の時代また復活するかも?) 
–Acquisitio...
38
Próximos SlideShares
Carregando em…5
×

深層学習(Deep Learning)とベイズ的最適化(Bayesian Optimization)による医用画像読影支援の試み

41.558 visualizações

Publicada em

Deep Learningとベイズ的最適化(Bayesian Optimization)による医用画像読影支援の試み
数理助教の会での発表資料

Publicada em: Engenharia
  • Hi there! Essay Help For Students | Discount 10% for your first order! - Check our website! https://vk.cc/80SakO
       Responder 
    Tem certeza que deseja  Sim  Não
    Insira sua mensagem aqui

深層学習(Deep Learning)とベイズ的最適化(Bayesian Optimization)による医用画像読影支援の試み

  1. 1. Deep Learningによる医用画像読影支援 佐藤一誠 東京大学 情報基盤センター/JST さきがけ joint work with 牛丸太希, 小宮山純平 (東大 情理工) 中川裕志(東大 情報基盤センター) 野村行弘, 根本充貴, 花岡 昇平, 林 直人(東大病院) 1 数理助教の会2014.10.06
  2. 2. •機械学習による医用画像読影支援 •Convolutional Neural Network(CNN)の利用 •ベイズ的最適化(Bayesian Optimization) によるCNNの自動チューニング 2 概要
  3. 3. 3 •画像診断の医師への負担の増加 –1件1件の検査が時代の要求に合わせて複雑化 – 数百~数千枚/検査 –東大病院でのPACS受信画像枚数は4年で1.8倍に •病変の見落としの危険性 読影医の負担を軽減しサポートするシステムが必要 背景 潜在的ビッグデータ
  4. 4. 4 機械学習による医用画像読影支援 撮影画像 機械学習による 病変検出 読影支援システム ※試験運用中の システム画面
  5. 5. 5 特徴量抽出 医療画像 分類器 特徴量 検出 機械学習による医用画像読影支援 問題点: 特徴抽出には専門家の知識が必要 症例毎に病変の性質が異なる
  6. 6. 病変例:大腿骨頚部骨折(CT)
  7. 7. 病変例2:乳癌(石灰化、マンモグラフィ)
  8. 8. 病変例3:胸部CT 充実性結節(肺腫瘤) すりガラス結節
  9. 9. 9 特徴量抽出 医療画像 分類器 特徴量 検出 機械学習による医用画像読影支援 問題点: 特徴抽出には専門家の知識が必要 症例毎に病変の性質が異なる
  10. 10. 10 特徴量抽出 医療画像 分類器 特徴量 検出 Deep Learning 特徴量も学習 (今回はConvolutional Neural Network) Deep Learningによる医用画像読影支援
  11. 11. 11 Convolutional Neural Network (CNN) •Neocognitron [Fukushima, 1980] - 脳の視覚情報処理の仕組みに基づく •LeNet-1,LeNet-5 [LeCun+,1989,1999] - Backpropagationによる学習
  12. 12. IBIS2014にレジェンドが! 12 IBIS2014 検索 http://ibisml.org/ibis2014 11.16-19@名古屋 当日参加もOK!
  13. 13. 13 網膜 →外側膝状体 →大脳皮質一次視覚野(V1): 特定方向の線分に選択的に反応 →二次視覚野(V2): 2本の線分を組み合わせた形状に選択的に反応する →四次視覚野(V4) →Inferior Temporal野(IT): 顔などの複雑な形状に選択的に反応する 脳の視覚情報処理の仕組み From Clinical, Neuroscience,1995 複雑な形状 単純な形状
  14. 14. •単純細胞(Simple cell, S-cell) - 特定方向の線分に反応する方位選択性 •複雑細胞(Complex cell, C-cell) -線分の位置変動に不変な位置不変性 14 単純細胞・複雑細胞 Hubel & Wiesel,1968
  15. 15. 15 Convolutional Neural Network (CNN) •Neocognitron [Fukushima, 1980] - 脳の視覚情報処理の仕組みに基づく •LeNet-1,LeNet-5 [LeCun+,1989,1999] - Backpropagationによる学習 大脳視覚野の単純細胞に類似した層と,複雑細 胞に類似した層とを交互に階層的に配置した 多層神経回路 単純細胞⇔Convolution 複雑細胞⇔Pooling (Subsampling)
  16. 16. Convolution(畳み込み) 16 ( , ) ( , ) ( , ) ( 1) ( , ) ( ) ( ) y i j a u v y i u j v t u v t j t      (t1) y (t ) j a 1 2 0 7 1 5 3 8 0 6 3 1 7 4 9 1 5 2 2 1 3 8 1 0 1 0 0 0 0 1 0 0 0 0 3 8 0 1 7 4 5 2 2 1 0 0 0 0 0 0 0 1 8 6 9 7 5 9 4 1 8 ・異なる複数の 畳み込み画像 ・多対多Mapping ・Overlapping可 境界条件分 サイズ減少
  17. 17. Convolution(畳み込み) 17 ・異なる複数の 畳込み画像 ・多対多Mapping ・境界条件分 サイズ減少 ・Overlapping可 複数のFeature mapを畳み込むほうがより良いFeature mapを作れる
  18. 18. Pooling (まとめる) 18 e.g. 局所平均化 ( ) 4 1 , 2 ,2 2 1,2 2 ,2 1 2 1,2 1     i j i j i j i j i j y x x x x ・Non-overlapping ⇒e.g. サイズが1/2になる ・1対1Mapping ・平滑化(smoothing) or ぼかし(blurring) e.t.c.
  19. 19. 19 Pooling (まとめる) 微小変位に対する不変性(Local shift invariant) ※入力画像の方も回転などの変更を加えた コピーを大量に作る (生成型学習) 4✕4→1
  20. 20. 20 Pooling(まとめる) • Subsmpling:平均を取る • Max-pooling:最大値を取る k l k l P i j y x i j , ( , ) , , max      k l Pi j k l i j i j x P y ( , ) , , , , | | 1 ※さらに非線形関数を適用するなど
  21. 21. 21 From Fukushima : Neocognitron for handwritten digit recognition, Neurocomputing 51 (2003) 161 – 180 Neocognitron convolution subsampling
  22. 22. 22 From Fukushima: Artificial vision by multi-layered neural networks: Neocognitron and its advances, Neural Networks 37 (2013) 103–119 Feature Extraction by Neocognitron convolution Feature (edge) extraction
  23. 23. 23  1 u 2 u 1 a 2 a ・・・・・ N u v b   N i i i a u bv 1 1 x x y  y  (x  ) input output       0 0 0 ( ) x x x  x Convolution cell of Neocognitron activation    N i i v u 1 2 uの正規化に相当
  24. 24. 24  1 u 2 u 1 a 2 a ・・・・・ N u 1 b    N i i i a u b 1 x x y y  tanh(x) input output Convolution cell of LeNet activation 微分が簡単
  25. 25. LeNetのアーキテクチャ例 From http://deeplearning.net/tutorial
  26. 26. CNNの問題点 ハイパーパラメータが多数存在 例えば・・・LeNet-5 for MNIST(手書き画像)の場合 - 構造:各層でのFeature Mapの枚数、サイズ e.t.c - 学習:Learning rate, ミニバッチサイズ e.t.c これらを自動的にTuningしたい →Bayesian Optimization
  27. 27. 27 ベイズ的最適化 Bayesian Optimization (BO) Black-box関数の最適化(多峰性・評価が高コスト) →関数がわからないなら 事前分布を仮定して、関数の事後分布を基に最適化しよう y=f(x) x y •Bayesian Nonparametricsに基づく関数f(x)のモデリング 具体的には、関数f(x)のpriorとしてGaussian processを仮定 •評価点(yi,f(xi))からposteriorを計算し、次の候補点xを生成 •探索と活用のトレードオフ⇒acquisition functionの設計 (Confidence bound, Expected improvement, Mutual Information e.t.c) Mockus, 1978
  28. 28. • 関数f : X→R上の確率分布 p(f) • Mean function m(x), covariance function K(x,x’) をパラメータとする • 観測 は、平均m分散Kのn次元ガウス 分布に従う 28 Gaussian Process n i i f x 1 { ( )}  ( ( ),..., ( )) ~ ( ( ), ( )) 1 n 1:n 1:n f x f x N m x K x                     ( , ) ( , ) ( , ) ( , ) , ( ) ( ) ~ ( ) ( ) 1 2 2 2 1 1 1 2 2 1 2 1 K x x K x x K x x K x x m x m x N f x f x 例えば、
  29. 29. 29 Bayesian predictive distribution ( ( ), ( )) ( | ( )) ( |{ , ( )}) ( | ,{ , ( )}) N x x p y f x GP f x f x df p y x x f x i i i i      ( ) , ~ (0, ) ~ ( , ) y f x   N  f GP m K i i i i   生成過程 ベイズ予測分布 解析的に求まる
  30. 30. 30 Acquisition Functions y* min. f (x) x  目的 max. ( ) 1 x a x x t   アルゴリズム a(x)  ((x)  (x)) Confidence bound [Srinivas+,2010] Expected improvement [Mockus,1978] a x y f x GP f x y df best i i( )  max(0,  ( )) ( |{ , }) 探索と活用のトレードオフ 解析的に求まる 解析的に求まる
  31. 31. 31 BOの動作例 y* min. f (x) x  a(x) f (x) (x)  (x) max. ( ) 1 x a x x t   目的 アルゴリズム
  32. 32. 32 BOの動作例 a(x) f (x)  (x) y* min. f (x) x  max. ( ) 1 x a x x t   目的 アルゴリズム (x)
  33. 33. 33 BOの動作例 a(x) f (x)  (x) y* min. f (x) x  max. ( ) 1 x a x x t   目的 アルゴリズム (x)
  34. 34. 34 BO for Machine Learning y=f(x) x y •機械学習の多くの手法はハイパーパラメータに依存する •Cross validationでチューニング -3パラメータ以上から厳しくなる -MLでは一般的に評価値とハイパーパラメータの関係は Black-box →Bayesian optimizationによる実験の自動化 Snoek+, 2012 ハイパーパラメータ 評価値 Validation setの Accuracy, AUC等 目的や手法に依存
  35. 35. CNN+BOによる病変検出 ハイパーパラメータ - 構造:各層でのFeature Mapの枚数、サイズ e.t.c - 学習:Learning rate, ミニバッチサイズ e.t.c BOにより、これらを自動的にTuning ボクセルに 分解 医用画像は3D画像 病変 検知
  36. 36. 36 脳動脈瘤病変抽出結果 AUC Tuning回数 続きは IBIS2014 ディスカッショントラックで! IBIS2014 検索 http://ibisml.org/ibis2014
  37. 37. CNN+BOは最強? ・実際には、BO自体に細かい工夫が必要 –Bayesian Nonparametricsで近年培われた(マニアックな?) MCMC技術 –カーネル設計が重要(設計師の時代また復活するかも?) –Acquisition functionの最適化は自明でない工夫が必要 –ハイパーパラメータ空間の正規化 e.t.c 皆が容易に使えることを目指して(BOのブラックボックス化) CNN, Autoencoder, 複数行列分解, Neural language model, word2vec, SVM ….e.t.c. のハイパーパラメータ自動チューニ ングをサポートしたBOツールを中川研で公開予定 37 まとめと今後の課題
  38. 38. 38

×