SlideShare uma empresa Scribd logo
1 de 39
Baixar para ler offline
NIPS2010を読む会@東工大 2011/2/14




  LCCC2010:Learning on Cores,
    Clusters and Cloudsの解説
             岡野原 大輔
       (株)Preferred Infrastructure
LCCC2010について
• NIPS併催のワークショップ
• 毎年同じようでテーマで開催されている
 – Organizer達で今年本を出すらしい                       [挨拶より]
   • J. Langford, O. Dekel, J. Duchi, A. Agrawal, L. Cayton

• Google, MS, Yahoo!をはじめ主要な企業と
  大学、研究所が3等分ぐらいずつ
 – 実用化は04年頃から進み身近なところで利用
 – 例:gmailの優先トレイはメールでPA+転移学習
• 理論と実践の両方が進展
今日の発表について
• Distributed MAP Inference for Undirected
  Graphical Models
• Machine Learning in the Cloud with Graph
  Lab
• MapReduce/Bigtable for Distributed
  Optimization

• 選んだ基準
  – 実用的
  – 単に並列化しただけじゃないものを選んだ
背景
• 解析対象データの急激な増加
 – アルゴリズムは最低でも線形の計算量が必要
   だがそれでも不十分.潰しても捨てても無理
 – 世界で作成されたデータ量は
   2009年 8億テラバイト(前年比62%増)
   2020年 35億テラバイトと予想 [Digital Universe 2010]
 – 例: ニューヨーク株式市場 毎日1TB
      Facebook 毎日20TBの圧縮データ
• 分散/並列化しないと、そもそもデータの読み
  込み/書き込みすら無理
 – HDDは現在100MB/s
素朴な疑問
 並列分散化の機械学習は面白いの?
Q. たくさんマシンを用意できたなら、データを適当
  に分けて、それぞれのマシンで処理して結果を合
  わせるだけじゃないの?

A. 部分的にYES, 残りはNO
 – 各マシン間の情報のやりとりが制限された環境で学
   習の収束保障は?収束速度は?
 – 単純なアプローチはうまく行かない.が、ちょっと
   だけ工夫するとうまくいく
 – 分散並列システムを一から作るのはすごく大変
   MapReduceなどの分散並列を実現するフレームワー
   ク上で実現可能な機械学習を考える
分散並列環境下の問題
• 通信コストは非常に大きい
 – データのマシン間移動は計算コストと同じか
   それ以上に大変
 – スループット、レイテンシの両方で制限
• マシン間同期をとるのはコストがかかる
 – 計算時間はバラバラで一番遅いマシンに依存
 – そもそも同期をとれない場合も
• それぞれが独立にタスクをこなしつつ、
  いかに全体の最適化を達成するか
Distributed MAP Inference
 for Undirected Graphical
          Models
        Sammer Singh
     Amarnag Subramanya
       Fernando Pereira
      Andrew McCallum
目標

• グラフィカルモデルの推論は一般に困難
 – 近年利用されるモデルはより巨大で密に
   • 共参照推定、関係抽出、同時推論など
   • 文書集合をまたがるグラフ
 – 100万変数の問題を数百台で解きたい
• 様々な近似推論手法が提案されている
 – LP-Relaxations
 – Dual Decomposition
 – MCMC-Based
• これらの手法の並列化は難しい
問題設定
• 変数Yの確率分布を因子ψで表す




• 例:


• MAP推定をしたい y*=argmaxy p(Y=y)
 – ループなどがあり動的計画法は使えない
既存手法
    MCMCによるMAP推定
1. yを適当に決める
2. yの中身を少し変更したy’を提案
3. [0,1]の乱数が
   より大きいならy’を採択し、y=y’と更新
 – 確率が上がるなら常に採用、下がる場合は確
   率的に採用.tは温度
 – p(y’)/p(y)は変数が変わったところだけ見れ
   ば計算できるので高速に計算できる
相互排他的な提案を利用した
       並列化
• yからの提案 yaとybについて
   yaとybの影響箇所が重ならないとする
• この時、y⇒yaとy⇒ybは並列に評価でき、
  採択することができる

• グラフィカルモデルの特徴を利用し、相
  互排他的な提案を作ることができる
 – 汎用的な方法もできつつある
   c.f. Residual Splash Belief Propagation
赤と緑の両方の提案を同時に計算し、
採択することができる
赤:m3をe1のグループから外すか
緑:m4とm5を分割するか
文書間共参照解析での並列数に
    対する精度




共参照解析:
二つの表現が現実世界で同一実体を指すかどうかを求める
実験結果 (2)
   マシン台数におけるスケーラビリティ

• NY Times Corpus 20年分の記事中に含
  まれる100万回の人名言及の共参照解析




                     正解データが無いので
                     精度で評価できないが・・
Machine Learning in the
 Cloud with Graph Lab
        Yucheng Low
       Joey Gonzalez
         Aapo Kyrola
       Danny Bickson
      Carlos Guestrin
       Joe Hellerstein
      David O’Hallaron
背景
• 分散並列向けにSplash Belief Propagation
  を提案 [UAI 09]
• MapReduce(MR)はバッチ処理が得意だが
  反復的な処理、部分的な更新は苦手
⇒ GraphLabを提案 [UAI 10]
  –   MRが苦手なML向けの処理を行うフレームワーク
  –   データの疎な依存関係を表せる
  –   部分更新、反復処理が得意
  –   マルチコア、分散、クラウド、GPUに対応
GraphLabの特徴
   Sequential Consistency
Thm.
  全ての並列更新処理については、それと同じ結
  果を生成する、逐次更新処理が必ず存在
  – 並列処理の正しさを証明
実験結果
• Gibbs sampling
  – 相互排他的な変数を毎に色分けし並列更新
  – プロセッサ数にほぼ線形で性能向上
  – 他の様々な並列化もサポート
• LASSO
  – Shooting Algorithmの並列化
    • 変数とサンプルで二部グラフ作り相互排他的な変数集
      合を作る
  – 相互排他的な変数の更新を自動で並列化
• その他いくつかのタスクで並列化を評価
MapReduce / Bigtable for
Distributed Optimization
          Keith Hall
         Scott Gilpin
        Gideon Mann
         Slav Petrov
最適化の分散並列化は簡単?
• MapReduceフレームワークを使えば簡単
• データ分散し、それぞれ独立にパラメー
  タを計算して(Map)、集める(Reduce)
• 分散の仕方でいろいろ方法がある
 – パラメータを分割して求めて平均とるか
 – 勾配を分割して求めて勾配をとるか など
• どれも同じ様に見えるが実は精度に大き
  な違いがあり、理論的に解析可能

  ここでの最適化は教師付き学習を含む最適化
方法1:Parameter Mixture
1. データを分割しK個のshardに配る
2. shard毎にパラメータθを最適化
3. 最後に各最適化した結果の平均をとる
 – θ’ = (∑iθi)/K


• 実はうまくいかない
 – 性能も悪いし、失敗する例も作れる(次項)
 – 理論的保障もできない
Parameter Mixtureが失敗する例
• f(x)=wTx のwを学習.訓練例は次の通り
 y1=0   x1   =(1   1   0)
 y2=1   x2   =(0   0   1)
 y3=0   x3   =(0   1   1)
 y4=1   x4   =(1   0   0)
• 1と2で学習して    w1=(-1 -1 0)
• 3と4で学習して    w2=(0 -1 -1)
• w’=w1+w2は全ての訓練例をy=0に分類
• 全例を正しく分けるのは w =(1 -2 1)
⇒全訓練例を正しく分類するwがあっても、
  それをPMは必ずしも求めることはできない
方法2
       Distributed Gradient
• 勾配の計算部分を並列に行う
• 求まった勾配を利用して更新は一台で行
  う
• 長所
 – 勾配の計算に時間がかかる場合に高速化可能
• 短所
 – 毎回パラメータを全てのshard間でやりとり
   しないといけない.
 – 収束は遅く,バッチ学習と同じ
方法3
   Asynchronous Update
• 全shardで共通のパラメータθを利用
• 各ワーカーは、現在のθを取得し、分割さ
  れたデータでθを更新

• 欠点:θにlockをとらないため、古いθを
  元に更新を計算してしまう可能性.実は
  それでも収束保障はできるが遅い
方法4
         Iterative Parameter Mixture
• Parameter Mixtureを少しだけ改造

1.   データを分割しshardに配る
2.   shard毎に最適化
3.   全部のθの平均をとる
4.   θを再度各shardに配り1から繰り返す

これは収束証明ができ、実際に高性能
     –    重要:各epoch毎にパラメーターを通信するのみ.
          データの通信は発生しない
•    以降ではStructured Perceptronの場合を議論
Structured Perceptron(SP)
[Collins 2002] 1台での学習の場合




更新時に、正解の特徴ベクトルを足し、不正解で最も
スコアが高かった特徴ベクトルを引く
Structured Perceptron

• 1台での学習の場合
• 訓練例の直径がRであり、マージンγで分
  離可能の時、SPによる学習アルゴリズム
  の更新回数は高々(R/γ)2 [Novikoff 62][Collins 02]

• これを分散させるとどうなるか ..
Structured Perceptorn
+ Iterative Paramter Mixture




                    μi,nは混ぜる割合
                         ∑iμi,n =1
データ


                                 データをK個に分割に分割


                                  θ(0) = 0

θ(0)   θ(0)       θ(0)   θ(0)
                                 それぞれで独立に学習


θ1     θ2         θ3     θ4
                                θ(1)=(θ1+θ2+θ3+θ4)/4
                                パラメータを集めて、平均をとり
θ(1)   θ(1)       θ(1)   θ(1)   再度分配する(データはそのまま)

                                 θ(1)を初期値に再度学習


θ1     θ2         θ3     θ4      これを収束するまで繰り返す
Iterative Paramter Mixture +
      Structured Perceptron
• 訓練例の直径がRであり、マージンγで分
  離可能の時、IPM+SPによる学習アルゴリ
  ズムの合計の更新回数は高々(R/γ)2
[R. McDonald NAACL 10]
 – 一台で動かした場合と全く同じなので
   K台で分割したらK倍の高速化が可能
 – データの移動を全くしなくても全部のデータ
   を正しく分類可能な学習ができる!
略証 (1/3)
• wi,n      : i番目のshardのn週目の学習結果
• w([i,n]-k): wi,nのk回の更新前
• ki,n     : shard i でのn epoch目の更新回数

• wi,nを下から抑える
略証 (2/3)
• wi,nを上から抑える




• これより各shardのエラー回数ki,nと
  w(avg,n-1)の対応付けができた
略証 (3/3)
• 次にw(avg,N)を上と下から抑える




• これらは数学的帰納法で証明する
 – 先程の(A1) (A2)とJensenの不等式を組み合わせ
   て抑えることができる
• |u|=1より、|wavg,N|≧uw(avg,N)
• (IH2)と組み合わせて最初のバウンドを得る
実験1




• クリックデータでクリックするかどうかを予測
• 訓練例数 3億7000万
• 200個のグループに分割し 240台のworkerでMapReduce
• Iterative Parameter Mixtureが70倍の高速化と高性能を達成
実験2




• 先ほどと同じデータ(Single-coreではもう不可能)
•訓練例数 16億
• 900個のグループに分割し 600台のworkerでMapReduce
• Iterative Parameter Mixtureが同じく高速で高性能
彼らの結論
• 非同期更新は現在のデータセンター環境
  では非常に厳しい
  – 遅い、収束しない
  – ネットワークが混み合う
• Iterative Parameter Mixtureが良い
  – 実装もすごく簡単
  – Perceptron以外にも
    Passive Aggressiveなどでも証明可能
結論
• 機械学習の分散並列化の理論/実践が揃い
  つつある
  – オンライン学習のRegret最小化解析の適用
  – 分散最適化の理論
  – MapReduceで可能なものがまだ中心
• 現状、線形識別器の分散並列化は
  Iterative Parameter Mixtureが最強
  – ほぼ線形の高速化が可能で収束する
  – Iteration毎にパラメータを混ぜるだけ
コメント
• やり残し
 – 個別の手法についての収束証明はあるが、一般の
   分散最適化問題も証明できるか
 – 最適な混ぜ具合を決められるか
   Active Learningとの関係?
• パラメータを圧縮した最適化は伸びシロあり
 – センサネットワークやCompressed Sensing の
   話がそのまま使えそう
• 数台程度ならMapReduce使わずとも
  実現できそう
質問に対する回答
• 問:Shard間でデータがものすごく偏って
  いる場合でもIterative Parameter
  Mixtureは収束する?例えば片方が全部正
  例、もう片方が全部負例でも?
• 答:必ず収束する
+1 (1, 1, 0)   一周目 w=(1,1,0) w=(0,0,0)
+1 (1, 0, 0)   平均をとって w=(1/2, 1/2, 0)
-1 (0, 1, 1)   二週目 w=(1/2, 1/2, 0), w=(1/2, -1/2, -1)
-1 (0, 0, 1)   平均をとって w=(1/2, 0, -1/2) 終了

Mais conteúdo relacionado

Mais procurados

Pythonによる機械学習入門 ~Deep Learningに挑戦~
Pythonによる機械学習入門 ~Deep Learningに挑戦~Pythonによる機械学習入門 ~Deep Learningに挑戦~
Pythonによる機械学習入門 ~Deep Learningに挑戦~Yasutomo Kawanishi
 
MapReduceによる大規模データを利用した機械学習
MapReduceによる大規模データを利用した機械学習MapReduceによる大規模データを利用した機械学習
MapReduceによる大規模データを利用した機械学習Preferred Networks
 
論文紹介 Semi-supervised Learning with Deep Generative Models
論文紹介 Semi-supervised Learning with Deep Generative Models論文紹介 Semi-supervised Learning with Deep Generative Models
論文紹介 Semi-supervised Learning with Deep Generative ModelsSeiya Tokui
 
Jubatusのリアルタイム分散レコメンデーション@TokyoWebmining#17
Jubatusのリアルタイム分散レコメンデーション@TokyoWebmining#17Jubatusのリアルタイム分散レコメンデーション@TokyoWebmining#17
Jubatusのリアルタイム分散レコメンデーション@TokyoWebmining#17Yuya Unno
 
Pythonによる機械学習
Pythonによる機械学習Pythonによる機械学習
Pythonによる機械学習Kimikazu Kato
 
最近のDeep Learning (NLP) 界隈におけるAttention事情
最近のDeep Learning (NLP) 界隈におけるAttention事情最近のDeep Learning (NLP) 界隈におけるAttention事情
最近のDeep Learning (NLP) 界隈におけるAttention事情Yuta Kikuchi
 
はてなインターン「機械学習」
はてなインターン「機械学習」はてなインターン「機械学習」
はてなインターン「機械学習」Hatena::Engineering
 
TensorFlowによるニューラルネットワーク入門
TensorFlowによるニューラルネットワーク入門TensorFlowによるニューラルネットワーク入門
TensorFlowによるニューラルネットワーク入門Etsuji Nakai
 
それっぽく感じる機械学習
それっぽく感じる機械学習それっぽく感じる機械学習
それっぽく感じる機械学習Yuki Igarashi
 
Tokyo.R 41 サポートベクターマシンで眼鏡っ娘分類システム構築
Tokyo.R 41 サポートベクターマシンで眼鏡っ娘分類システム構築Tokyo.R 41 サポートベクターマシンで眼鏡っ娘分類システム構築
Tokyo.R 41 サポートベクターマシンで眼鏡っ娘分類システム構築Tatsuya Tojima
 
アンサンブル学習
アンサンブル学習アンサンブル学習
アンサンブル学習Hidekazu Tanaka
 
Jubatusのリアルタイム分散レコメンデーション@TokyoNLP#9
Jubatusのリアルタイム分散レコメンデーション@TokyoNLP#9Jubatusのリアルタイム分散レコメンデーション@TokyoNLP#9
Jubatusのリアルタイム分散レコメンデーション@TokyoNLP#9Yuya Unno
 
GPU上でのNLP向け深層学習の実装について
GPU上でのNLP向け深層学習の実装についてGPU上でのNLP向け深層学習の実装について
GPU上でのNLP向け深層学習の実装についてYuya Unno
 
Active Learning 入門
Active Learning 入門Active Learning 入門
Active Learning 入門Shuyo Nakatani
 
「深層学習」勉強会LT資料 "Chainer使ってみた"
「深層学習」勉強会LT資料 "Chainer使ってみた"「深層学習」勉強会LT資料 "Chainer使ってみた"
「深層学習」勉強会LT資料 "Chainer使ってみた"Ken'ichi Matsui
 
Deep Learning基本理論とTensorFlow
Deep Learning基本理論とTensorFlowDeep Learning基本理論とTensorFlow
Deep Learning基本理論とTensorFlowTadaichiro Nakano
 
Practical recommendations for gradient-based training of deep architectures
Practical recommendations for gradient-based training of deep architecturesPractical recommendations for gradient-based training of deep architectures
Practical recommendations for gradient-based training of deep architecturesKoji Matsuda
 
第1回 Jubatusハンズオン
第1回 Jubatusハンズオン第1回 Jubatusハンズオン
第1回 JubatusハンズオンYuya Unno
 
ChainerでDeep Learningを試す為に必要なこと
ChainerでDeep Learningを試す為に必要なことChainerでDeep Learningを試す為に必要なこと
ChainerでDeep Learningを試す為に必要なことJiro Nishitoba
 

Mais procurados (20)

Pythonによる機械学習入門 ~Deep Learningに挑戦~
Pythonによる機械学習入門 ~Deep Learningに挑戦~Pythonによる機械学習入門 ~Deep Learningに挑戦~
Pythonによる機械学習入門 ~Deep Learningに挑戦~
 
MapReduceによる大規模データを利用した機械学習
MapReduceによる大規模データを利用した機械学習MapReduceによる大規模データを利用した機械学習
MapReduceによる大規模データを利用した機械学習
 
論文紹介 Semi-supervised Learning with Deep Generative Models
論文紹介 Semi-supervised Learning with Deep Generative Models論文紹介 Semi-supervised Learning with Deep Generative Models
論文紹介 Semi-supervised Learning with Deep Generative Models
 
Jubatusのリアルタイム分散レコメンデーション@TokyoWebmining#17
Jubatusのリアルタイム分散レコメンデーション@TokyoWebmining#17Jubatusのリアルタイム分散レコメンデーション@TokyoWebmining#17
Jubatusのリアルタイム分散レコメンデーション@TokyoWebmining#17
 
Pythonによる機械学習
Pythonによる機械学習Pythonによる機械学習
Pythonによる機械学習
 
最近のDeep Learning (NLP) 界隈におけるAttention事情
最近のDeep Learning (NLP) 界隈におけるAttention事情最近のDeep Learning (NLP) 界隈におけるAttention事情
最近のDeep Learning (NLP) 界隈におけるAttention事情
 
はてなインターン「機械学習」
はてなインターン「機械学習」はてなインターン「機械学習」
はてなインターン「機械学習」
 
TensorFlowによるニューラルネットワーク入門
TensorFlowによるニューラルネットワーク入門TensorFlowによるニューラルネットワーク入門
TensorFlowによるニューラルネットワーク入門
 
それっぽく感じる機械学習
それっぽく感じる機械学習それっぽく感じる機械学習
それっぽく感じる機械学習
 
Deep learning入門
Deep learning入門Deep learning入門
Deep learning入門
 
Tokyo.R 41 サポートベクターマシンで眼鏡っ娘分類システム構築
Tokyo.R 41 サポートベクターマシンで眼鏡っ娘分類システム構築Tokyo.R 41 サポートベクターマシンで眼鏡っ娘分類システム構築
Tokyo.R 41 サポートベクターマシンで眼鏡っ娘分類システム構築
 
アンサンブル学習
アンサンブル学習アンサンブル学習
アンサンブル学習
 
Jubatusのリアルタイム分散レコメンデーション@TokyoNLP#9
Jubatusのリアルタイム分散レコメンデーション@TokyoNLP#9Jubatusのリアルタイム分散レコメンデーション@TokyoNLP#9
Jubatusのリアルタイム分散レコメンデーション@TokyoNLP#9
 
GPU上でのNLP向け深層学習の実装について
GPU上でのNLP向け深層学習の実装についてGPU上でのNLP向け深層学習の実装について
GPU上でのNLP向け深層学習の実装について
 
Active Learning 入門
Active Learning 入門Active Learning 入門
Active Learning 入門
 
「深層学習」勉強会LT資料 "Chainer使ってみた"
「深層学習」勉強会LT資料 "Chainer使ってみた"「深層学習」勉強会LT資料 "Chainer使ってみた"
「深層学習」勉強会LT資料 "Chainer使ってみた"
 
Deep Learning基本理論とTensorFlow
Deep Learning基本理論とTensorFlowDeep Learning基本理論とTensorFlow
Deep Learning基本理論とTensorFlow
 
Practical recommendations for gradient-based training of deep architectures
Practical recommendations for gradient-based training of deep architecturesPractical recommendations for gradient-based training of deep architectures
Practical recommendations for gradient-based training of deep architectures
 
第1回 Jubatusハンズオン
第1回 Jubatusハンズオン第1回 Jubatusハンズオン
第1回 Jubatusハンズオン
 
ChainerでDeep Learningを試す為に必要なこと
ChainerでDeep Learningを試す為に必要なことChainerでDeep Learningを試す為に必要なこと
ChainerでDeep Learningを試す為に必要なこと
 

Semelhante a LCCC2010:Learning on Cores, Clusters and Cloudsの解説

attention_is_all_you_need_nips17_論文紹介
attention_is_all_you_need_nips17_論文紹介attention_is_all_you_need_nips17_論文紹介
attention_is_all_you_need_nips17_論文紹介Masayoshi Kondo
 
Approximate Scalable Bounded Space Sketch for Large Data NLP
Approximate Scalable Bounded Space Sketch for Large Data NLPApproximate Scalable Bounded Space Sketch for Large Data NLP
Approximate Scalable Bounded Space Sketch for Large Data NLPKoji Matsuda
 
Deep learning実装の基礎と実践
Deep learning実装の基礎と実践Deep learning実装の基礎と実践
Deep learning実装の基礎と実践Seiya Tokui
 
[DL輪読会]SOLAR: Deep Structured Representations for Model-Based Reinforcement L...
[DL輪読会]SOLAR: Deep Structured Representations for Model-Based Reinforcement L...[DL輪読会]SOLAR: Deep Structured Representations for Model-Based Reinforcement L...
[DL輪読会]SOLAR: Deep Structured Representations for Model-Based Reinforcement L...Deep Learning JP
 
Deep learning勉強会20121214ochi
Deep learning勉強会20121214ochiDeep learning勉強会20121214ochi
Deep learning勉強会20121214ochiOhsawa Goodfellow
 
1017 論文紹介第四回
1017 論文紹介第四回1017 論文紹介第四回
1017 論文紹介第四回Kohei Wakamatsu
 
論文紹介:Dueling network architectures for deep reinforcement learning
論文紹介:Dueling network architectures for deep reinforcement learning論文紹介:Dueling network architectures for deep reinforcement learning
論文紹介:Dueling network architectures for deep reinforcement learningKazuki Adachi
 
Long-Tailed Classificationの最新動向について
Long-Tailed Classificationの最新動向についてLong-Tailed Classificationの最新動向について
Long-Tailed Classificationの最新動向についてPlot Hong
 
(文献紹介)Deep Unrolling: Learned ISTA (LISTA)
(文献紹介)Deep Unrolling: Learned ISTA (LISTA)(文献紹介)Deep Unrolling: Learned ISTA (LISTA)
(文献紹介)Deep Unrolling: Learned ISTA (LISTA)Morpho, Inc.
 
【DL輪読会】Learning Instance-Specific Adaptation for Cross-Domain Segmentation (E...
【DL輪読会】Learning Instance-Specific Adaptation for Cross-Domain Segmentation (E...【DL輪読会】Learning Instance-Specific Adaptation for Cross-Domain Segmentation (E...
【DL輪読会】Learning Instance-Specific Adaptation for Cross-Domain Segmentation (E...Deep Learning JP
 
NIPS KANSAI Reading Group #7: Temporal Difference Models: Model-Free Deep RL ...
NIPS KANSAI Reading Group #7: Temporal Difference Models: Model-Free Deep RL ...NIPS KANSAI Reading Group #7: Temporal Difference Models: Model-Free Deep RL ...
NIPS KANSAI Reading Group #7: Temporal Difference Models: Model-Free Deep RL ...Eiji Uchibe
 
大規模ネットワークの性質と先端グラフアルゴリズム
大規模ネットワークの性質と先端グラフアルゴリズム大規模ネットワークの性質と先端グラフアルゴリズム
大規模ネットワークの性質と先端グラフアルゴリズムTakuya Akiba
 
[DL輪読会]Meta-Learning Probabilistic Inference for Prediction
[DL輪読会]Meta-Learning Probabilistic Inference for Prediction[DL輪読会]Meta-Learning Probabilistic Inference for Prediction
[DL輪読会]Meta-Learning Probabilistic Inference for PredictionDeep Learning JP
 
A Machine Learning Framework for Programming by Example
A Machine Learning Framework for Programming by ExampleA Machine Learning Framework for Programming by Example
A Machine Learning Framework for Programming by ExampleKoji Matsuda
 
Feature engineering for predictive modeling using reinforcement learning
Feature engineering for predictive modeling using reinforcement learningFeature engineering for predictive modeling using reinforcement learning
Feature engineering for predictive modeling using reinforcement learningharmonylab
 
[DL輪読会]Temporal DifferenceVariationalAuto-Encoder
[DL輪読会]Temporal DifferenceVariationalAuto-Encoder[DL輪読会]Temporal DifferenceVariationalAuto-Encoder
[DL輪読会]Temporal DifferenceVariationalAuto-EncoderDeep Learning JP
 
[DL輪読会]Learning to Simulate Complex Physics with Graph Networks
[DL輪読会]Learning to Simulate Complex Physics with Graph Networks[DL輪読会]Learning to Simulate Complex Physics with Graph Networks
[DL輪読会]Learning to Simulate Complex Physics with Graph NetworksDeep Learning JP
 
Image net classification with Deep Convolutional Neural Networks
Image net classification with Deep Convolutional Neural NetworksImage net classification with Deep Convolutional Neural Networks
Image net classification with Deep Convolutional Neural NetworksShingo Horiuchi
 

Semelhante a LCCC2010:Learning on Cores, Clusters and Cloudsの解説 (20)

PFI Christmas seminar 2009
PFI Christmas seminar 2009PFI Christmas seminar 2009
PFI Christmas seminar 2009
 
attention_is_all_you_need_nips17_論文紹介
attention_is_all_you_need_nips17_論文紹介attention_is_all_you_need_nips17_論文紹介
attention_is_all_you_need_nips17_論文紹介
 
Approximate Scalable Bounded Space Sketch for Large Data NLP
Approximate Scalable Bounded Space Sketch for Large Data NLPApproximate Scalable Bounded Space Sketch for Large Data NLP
Approximate Scalable Bounded Space Sketch for Large Data NLP
 
Deep learning実装の基礎と実践
Deep learning実装の基礎と実践Deep learning実装の基礎と実践
Deep learning実装の基礎と実践
 
[DL輪読会]SOLAR: Deep Structured Representations for Model-Based Reinforcement L...
[DL輪読会]SOLAR: Deep Structured Representations for Model-Based Reinforcement L...[DL輪読会]SOLAR: Deep Structured Representations for Model-Based Reinforcement L...
[DL輪読会]SOLAR: Deep Structured Representations for Model-Based Reinforcement L...
 
Deep learning勉強会20121214ochi
Deep learning勉強会20121214ochiDeep learning勉強会20121214ochi
Deep learning勉強会20121214ochi
 
1017 論文紹介第四回
1017 論文紹介第四回1017 論文紹介第四回
1017 論文紹介第四回
 
論文紹介:Dueling network architectures for deep reinforcement learning
論文紹介:Dueling network architectures for deep reinforcement learning論文紹介:Dueling network architectures for deep reinforcement learning
論文紹介:Dueling network architectures for deep reinforcement learning
 
Long-Tailed Classificationの最新動向について
Long-Tailed Classificationの最新動向についてLong-Tailed Classificationの最新動向について
Long-Tailed Classificationの最新動向について
 
(文献紹介)Deep Unrolling: Learned ISTA (LISTA)
(文献紹介)Deep Unrolling: Learned ISTA (LISTA)(文献紹介)Deep Unrolling: Learned ISTA (LISTA)
(文献紹介)Deep Unrolling: Learned ISTA (LISTA)
 
【DL輪読会】Learning Instance-Specific Adaptation for Cross-Domain Segmentation (E...
【DL輪読会】Learning Instance-Specific Adaptation for Cross-Domain Segmentation (E...【DL輪読会】Learning Instance-Specific Adaptation for Cross-Domain Segmentation (E...
【DL輪読会】Learning Instance-Specific Adaptation for Cross-Domain Segmentation (E...
 
NIPS KANSAI Reading Group #7: Temporal Difference Models: Model-Free Deep RL ...
NIPS KANSAI Reading Group #7: Temporal Difference Models: Model-Free Deep RL ...NIPS KANSAI Reading Group #7: Temporal Difference Models: Model-Free Deep RL ...
NIPS KANSAI Reading Group #7: Temporal Difference Models: Model-Free Deep RL ...
 
大規模ネットワークの性質と先端グラフアルゴリズム
大規模ネットワークの性質と先端グラフアルゴリズム大規模ネットワークの性質と先端グラフアルゴリズム
大規模ネットワークの性質と先端グラフアルゴリズム
 
[DL輪読会]Meta-Learning Probabilistic Inference for Prediction
[DL輪読会]Meta-Learning Probabilistic Inference for Prediction[DL輪読会]Meta-Learning Probabilistic Inference for Prediction
[DL輪読会]Meta-Learning Probabilistic Inference for Prediction
 
A Machine Learning Framework for Programming by Example
A Machine Learning Framework for Programming by ExampleA Machine Learning Framework for Programming by Example
A Machine Learning Framework for Programming by Example
 
Feature engineering for predictive modeling using reinforcement learning
Feature engineering for predictive modeling using reinforcement learningFeature engineering for predictive modeling using reinforcement learning
Feature engineering for predictive modeling using reinforcement learning
 
[DL輪読会]Temporal DifferenceVariationalAuto-Encoder
[DL輪読会]Temporal DifferenceVariationalAuto-Encoder[DL輪読会]Temporal DifferenceVariationalAuto-Encoder
[DL輪読会]Temporal DifferenceVariationalAuto-Encoder
 
[DL輪読会]Learning to Simulate Complex Physics with Graph Networks
[DL輪読会]Learning to Simulate Complex Physics with Graph Networks[DL輪読会]Learning to Simulate Complex Physics with Graph Networks
[DL輪読会]Learning to Simulate Complex Physics with Graph Networks
 
PRML Chapter 14
PRML Chapter 14PRML Chapter 14
PRML Chapter 14
 
Image net classification with Deep Convolutional Neural Networks
Image net classification with Deep Convolutional Neural NetworksImage net classification with Deep Convolutional Neural Networks
Image net classification with Deep Convolutional Neural Networks
 

Mais de Preferred Networks

PodSecurityPolicy からGatekeeper に移行しました / Kubernetes Meetup Tokyo #57
PodSecurityPolicy からGatekeeper に移行しました / Kubernetes Meetup Tokyo #57PodSecurityPolicy からGatekeeper に移行しました / Kubernetes Meetup Tokyo #57
PodSecurityPolicy からGatekeeper に移行しました / Kubernetes Meetup Tokyo #57Preferred Networks
 
Optunaを使ったHuman-in-the-loop最適化の紹介 - 2023/04/27 W&B 東京ミートアップ #3
Optunaを使ったHuman-in-the-loop最適化の紹介 - 2023/04/27 W&B 東京ミートアップ #3Optunaを使ったHuman-in-the-loop最適化の紹介 - 2023/04/27 W&B 東京ミートアップ #3
Optunaを使ったHuman-in-the-loop最適化の紹介 - 2023/04/27 W&B 東京ミートアップ #3Preferred Networks
 
Kubernetes + containerd で cgroup v2 に移行したら "failed to create fsnotify watcher...
Kubernetes + containerd で cgroup v2 に移行したら "failed to create fsnotify watcher...Kubernetes + containerd で cgroup v2 に移行したら "failed to create fsnotify watcher...
Kubernetes + containerd で cgroup v2 に移行したら "failed to create fsnotify watcher...Preferred Networks
 
深層学習の新しい応用と、 それを支える計算機の進化 - Preferred Networks CEO 西川徹 (SEMICON Japan 2022 Ke...
深層学習の新しい応用と、 それを支える計算機の進化 - Preferred Networks CEO 西川徹 (SEMICON Japan 2022 Ke...深層学習の新しい応用と、 それを支える計算機の進化 - Preferred Networks CEO 西川徹 (SEMICON Japan 2022 Ke...
深層学習の新しい応用と、 それを支える計算機の進化 - Preferred Networks CEO 西川徹 (SEMICON Japan 2022 Ke...Preferred Networks
 
Kubernetes ControllerをScale-Outさせる方法 / Kubernetes Meetup Tokyo #55
Kubernetes ControllerをScale-Outさせる方法 / Kubernetes Meetup Tokyo #55Kubernetes ControllerをScale-Outさせる方法 / Kubernetes Meetup Tokyo #55
Kubernetes ControllerをScale-Outさせる方法 / Kubernetes Meetup Tokyo #55Preferred Networks
 
Kaggle Happywhaleコンペ優勝解法でのOptuna使用事例 - 2022/12/10 Optuna Meetup #2
Kaggle Happywhaleコンペ優勝解法でのOptuna使用事例 - 2022/12/10 Optuna Meetup #2Kaggle Happywhaleコンペ優勝解法でのOptuna使用事例 - 2022/12/10 Optuna Meetup #2
Kaggle Happywhaleコンペ優勝解法でのOptuna使用事例 - 2022/12/10 Optuna Meetup #2Preferred Networks
 
最新リリース:Optuna V3の全て - 2022/12/10 Optuna Meetup #2
最新リリース:Optuna V3の全て - 2022/12/10 Optuna Meetup #2最新リリース:Optuna V3の全て - 2022/12/10 Optuna Meetup #2
最新リリース:Optuna V3の全て - 2022/12/10 Optuna Meetup #2Preferred Networks
 
Optuna Dashboardの紹介と設計解説 - 2022/12/10 Optuna Meetup #2
Optuna Dashboardの紹介と設計解説 - 2022/12/10 Optuna Meetup #2Optuna Dashboardの紹介と設計解説 - 2022/12/10 Optuna Meetup #2
Optuna Dashboardの紹介と設計解説 - 2022/12/10 Optuna Meetup #2Preferred Networks
 
スタートアップが提案する2030年の材料開発 - 2022/11/11 QPARC講演
スタートアップが提案する2030年の材料開発 - 2022/11/11 QPARC講演スタートアップが提案する2030年の材料開発 - 2022/11/11 QPARC講演
スタートアップが提案する2030年の材料開発 - 2022/11/11 QPARC講演Preferred Networks
 
Deep Learningのための専用プロセッサ「MN-Core」の開発と活用(2022/10/19東大大学院「 融合情報学特別講義Ⅲ」)
Deep Learningのための専用プロセッサ「MN-Core」の開発と活用(2022/10/19東大大学院「 融合情報学特別講義Ⅲ」)Deep Learningのための専用プロセッサ「MN-Core」の開発と活用(2022/10/19東大大学院「 融合情報学特別講義Ⅲ」)
Deep Learningのための専用プロセッサ「MN-Core」の開発と活用(2022/10/19東大大学院「 融合情報学特別講義Ⅲ」)Preferred Networks
 
PFNにおける研究開発(2022/10/19 東大大学院「融合情報学特別講義Ⅲ」)
PFNにおける研究開発(2022/10/19 東大大学院「融合情報学特別講義Ⅲ」)PFNにおける研究開発(2022/10/19 東大大学院「融合情報学特別講義Ⅲ」)
PFNにおける研究開発(2022/10/19 東大大学院「融合情報学特別講義Ⅲ」)Preferred Networks
 
自然言語処理を 役立てるのはなぜ難しいのか(2022/10/25東大大学院「自然言語処理応用」)
自然言語処理を 役立てるのはなぜ難しいのか(2022/10/25東大大学院「自然言語処理応用」)自然言語処理を 役立てるのはなぜ難しいのか(2022/10/25東大大学院「自然言語処理応用」)
自然言語処理を 役立てるのはなぜ難しいのか(2022/10/25東大大学院「自然言語処理応用」)Preferred Networks
 
Kubernetes にこれから入るかもしれない注目機能!(2022年11月版) / TechFeed Experts Night #7 〜 コンテナ技術を語る
Kubernetes にこれから入るかもしれない注目機能!(2022年11月版) / TechFeed Experts Night #7 〜 コンテナ技術を語るKubernetes にこれから入るかもしれない注目機能!(2022年11月版) / TechFeed Experts Night #7 〜 コンテナ技術を語る
Kubernetes にこれから入るかもしれない注目機能!(2022年11月版) / TechFeed Experts Night #7 〜 コンテナ技術を語るPreferred Networks
 
Matlantis™のニューラルネットワークポテンシャルPFPの適用範囲拡張
Matlantis™のニューラルネットワークポテンシャルPFPの適用範囲拡張Matlantis™のニューラルネットワークポテンシャルPFPの適用範囲拡張
Matlantis™のニューラルネットワークポテンシャルPFPの適用範囲拡張Preferred Networks
 
PFNのオンプレ計算機クラスタの取り組み_第55回情報科学若手の会
PFNのオンプレ計算機クラスタの取り組み_第55回情報科学若手の会PFNのオンプレ計算機クラスタの取り組み_第55回情報科学若手の会
PFNのオンプレ計算機クラスタの取り組み_第55回情報科学若手の会Preferred Networks
 
続・PFN のオンプレML基盤の取り組み / オンプレML基盤 on Kubernetes 〜PFN、ヤフー〜 #2
続・PFN のオンプレML基盤の取り組み / オンプレML基盤 on Kubernetes 〜PFN、ヤフー〜 #2続・PFN のオンプレML基盤の取り組み / オンプレML基盤 on Kubernetes 〜PFN、ヤフー〜 #2
続・PFN のオンプレML基盤の取り組み / オンプレML基盤 on Kubernetes 〜PFN、ヤフー〜 #2Preferred Networks
 
Kubernetes Service Account As Multi-Cloud Identity / Cloud Native Security Co...
Kubernetes Service Account As Multi-Cloud Identity / Cloud Native Security Co...Kubernetes Service Account As Multi-Cloud Identity / Cloud Native Security Co...
Kubernetes Service Account As Multi-Cloud Identity / Cloud Native Security Co...Preferred Networks
 
KubeCon + CloudNativeCon Europe 2022 Recap / Kubernetes Meetup Tokyo #51 / #k...
KubeCon + CloudNativeCon Europe 2022 Recap / Kubernetes Meetup Tokyo #51 / #k...KubeCon + CloudNativeCon Europe 2022 Recap / Kubernetes Meetup Tokyo #51 / #k...
KubeCon + CloudNativeCon Europe 2022 Recap / Kubernetes Meetup Tokyo #51 / #k...Preferred Networks
 
KubeCon + CloudNativeCon Europe 2022 Recap - Batch/HPCの潮流とScheduler拡張事例 / Kub...
KubeCon + CloudNativeCon Europe 2022 Recap - Batch/HPCの潮流とScheduler拡張事例 / Kub...KubeCon + CloudNativeCon Europe 2022 Recap - Batch/HPCの潮流とScheduler拡張事例 / Kub...
KubeCon + CloudNativeCon Europe 2022 Recap - Batch/HPCの潮流とScheduler拡張事例 / Kub...Preferred Networks
 
独断と偏見で選んだ Kubernetes 1.24 の注目機能と今後! / Kubernetes Meetup Tokyo 50
独断と偏見で選んだ Kubernetes 1.24 の注目機能と今後! / Kubernetes Meetup Tokyo 50独断と偏見で選んだ Kubernetes 1.24 の注目機能と今後! / Kubernetes Meetup Tokyo 50
独断と偏見で選んだ Kubernetes 1.24 の注目機能と今後! / Kubernetes Meetup Tokyo 50Preferred Networks
 

Mais de Preferred Networks (20)

PodSecurityPolicy からGatekeeper に移行しました / Kubernetes Meetup Tokyo #57
PodSecurityPolicy からGatekeeper に移行しました / Kubernetes Meetup Tokyo #57PodSecurityPolicy からGatekeeper に移行しました / Kubernetes Meetup Tokyo #57
PodSecurityPolicy からGatekeeper に移行しました / Kubernetes Meetup Tokyo #57
 
Optunaを使ったHuman-in-the-loop最適化の紹介 - 2023/04/27 W&B 東京ミートアップ #3
Optunaを使ったHuman-in-the-loop最適化の紹介 - 2023/04/27 W&B 東京ミートアップ #3Optunaを使ったHuman-in-the-loop最適化の紹介 - 2023/04/27 W&B 東京ミートアップ #3
Optunaを使ったHuman-in-the-loop最適化の紹介 - 2023/04/27 W&B 東京ミートアップ #3
 
Kubernetes + containerd で cgroup v2 に移行したら "failed to create fsnotify watcher...
Kubernetes + containerd で cgroup v2 に移行したら "failed to create fsnotify watcher...Kubernetes + containerd で cgroup v2 に移行したら "failed to create fsnotify watcher...
Kubernetes + containerd で cgroup v2 に移行したら "failed to create fsnotify watcher...
 
深層学習の新しい応用と、 それを支える計算機の進化 - Preferred Networks CEO 西川徹 (SEMICON Japan 2022 Ke...
深層学習の新しい応用と、 それを支える計算機の進化 - Preferred Networks CEO 西川徹 (SEMICON Japan 2022 Ke...深層学習の新しい応用と、 それを支える計算機の進化 - Preferred Networks CEO 西川徹 (SEMICON Japan 2022 Ke...
深層学習の新しい応用と、 それを支える計算機の進化 - Preferred Networks CEO 西川徹 (SEMICON Japan 2022 Ke...
 
Kubernetes ControllerをScale-Outさせる方法 / Kubernetes Meetup Tokyo #55
Kubernetes ControllerをScale-Outさせる方法 / Kubernetes Meetup Tokyo #55Kubernetes ControllerをScale-Outさせる方法 / Kubernetes Meetup Tokyo #55
Kubernetes ControllerをScale-Outさせる方法 / Kubernetes Meetup Tokyo #55
 
Kaggle Happywhaleコンペ優勝解法でのOptuna使用事例 - 2022/12/10 Optuna Meetup #2
Kaggle Happywhaleコンペ優勝解法でのOptuna使用事例 - 2022/12/10 Optuna Meetup #2Kaggle Happywhaleコンペ優勝解法でのOptuna使用事例 - 2022/12/10 Optuna Meetup #2
Kaggle Happywhaleコンペ優勝解法でのOptuna使用事例 - 2022/12/10 Optuna Meetup #2
 
最新リリース:Optuna V3の全て - 2022/12/10 Optuna Meetup #2
最新リリース:Optuna V3の全て - 2022/12/10 Optuna Meetup #2最新リリース:Optuna V3の全て - 2022/12/10 Optuna Meetup #2
最新リリース:Optuna V3の全て - 2022/12/10 Optuna Meetup #2
 
Optuna Dashboardの紹介と設計解説 - 2022/12/10 Optuna Meetup #2
Optuna Dashboardの紹介と設計解説 - 2022/12/10 Optuna Meetup #2Optuna Dashboardの紹介と設計解説 - 2022/12/10 Optuna Meetup #2
Optuna Dashboardの紹介と設計解説 - 2022/12/10 Optuna Meetup #2
 
スタートアップが提案する2030年の材料開発 - 2022/11/11 QPARC講演
スタートアップが提案する2030年の材料開発 - 2022/11/11 QPARC講演スタートアップが提案する2030年の材料開発 - 2022/11/11 QPARC講演
スタートアップが提案する2030年の材料開発 - 2022/11/11 QPARC講演
 
Deep Learningのための専用プロセッサ「MN-Core」の開発と活用(2022/10/19東大大学院「 融合情報学特別講義Ⅲ」)
Deep Learningのための専用プロセッサ「MN-Core」の開発と活用(2022/10/19東大大学院「 融合情報学特別講義Ⅲ」)Deep Learningのための専用プロセッサ「MN-Core」の開発と活用(2022/10/19東大大学院「 融合情報学特別講義Ⅲ」)
Deep Learningのための専用プロセッサ「MN-Core」の開発と活用(2022/10/19東大大学院「 融合情報学特別講義Ⅲ」)
 
PFNにおける研究開発(2022/10/19 東大大学院「融合情報学特別講義Ⅲ」)
PFNにおける研究開発(2022/10/19 東大大学院「融合情報学特別講義Ⅲ」)PFNにおける研究開発(2022/10/19 東大大学院「融合情報学特別講義Ⅲ」)
PFNにおける研究開発(2022/10/19 東大大学院「融合情報学特別講義Ⅲ」)
 
自然言語処理を 役立てるのはなぜ難しいのか(2022/10/25東大大学院「自然言語処理応用」)
自然言語処理を 役立てるのはなぜ難しいのか(2022/10/25東大大学院「自然言語処理応用」)自然言語処理を 役立てるのはなぜ難しいのか(2022/10/25東大大学院「自然言語処理応用」)
自然言語処理を 役立てるのはなぜ難しいのか(2022/10/25東大大学院「自然言語処理応用」)
 
Kubernetes にこれから入るかもしれない注目機能!(2022年11月版) / TechFeed Experts Night #7 〜 コンテナ技術を語る
Kubernetes にこれから入るかもしれない注目機能!(2022年11月版) / TechFeed Experts Night #7 〜 コンテナ技術を語るKubernetes にこれから入るかもしれない注目機能!(2022年11月版) / TechFeed Experts Night #7 〜 コンテナ技術を語る
Kubernetes にこれから入るかもしれない注目機能!(2022年11月版) / TechFeed Experts Night #7 〜 コンテナ技術を語る
 
Matlantis™のニューラルネットワークポテンシャルPFPの適用範囲拡張
Matlantis™のニューラルネットワークポテンシャルPFPの適用範囲拡張Matlantis™のニューラルネットワークポテンシャルPFPの適用範囲拡張
Matlantis™のニューラルネットワークポテンシャルPFPの適用範囲拡張
 
PFNのオンプレ計算機クラスタの取り組み_第55回情報科学若手の会
PFNのオンプレ計算機クラスタの取り組み_第55回情報科学若手の会PFNのオンプレ計算機クラスタの取り組み_第55回情報科学若手の会
PFNのオンプレ計算機クラスタの取り組み_第55回情報科学若手の会
 
続・PFN のオンプレML基盤の取り組み / オンプレML基盤 on Kubernetes 〜PFN、ヤフー〜 #2
続・PFN のオンプレML基盤の取り組み / オンプレML基盤 on Kubernetes 〜PFN、ヤフー〜 #2続・PFN のオンプレML基盤の取り組み / オンプレML基盤 on Kubernetes 〜PFN、ヤフー〜 #2
続・PFN のオンプレML基盤の取り組み / オンプレML基盤 on Kubernetes 〜PFN、ヤフー〜 #2
 
Kubernetes Service Account As Multi-Cloud Identity / Cloud Native Security Co...
Kubernetes Service Account As Multi-Cloud Identity / Cloud Native Security Co...Kubernetes Service Account As Multi-Cloud Identity / Cloud Native Security Co...
Kubernetes Service Account As Multi-Cloud Identity / Cloud Native Security Co...
 
KubeCon + CloudNativeCon Europe 2022 Recap / Kubernetes Meetup Tokyo #51 / #k...
KubeCon + CloudNativeCon Europe 2022 Recap / Kubernetes Meetup Tokyo #51 / #k...KubeCon + CloudNativeCon Europe 2022 Recap / Kubernetes Meetup Tokyo #51 / #k...
KubeCon + CloudNativeCon Europe 2022 Recap / Kubernetes Meetup Tokyo #51 / #k...
 
KubeCon + CloudNativeCon Europe 2022 Recap - Batch/HPCの潮流とScheduler拡張事例 / Kub...
KubeCon + CloudNativeCon Europe 2022 Recap - Batch/HPCの潮流とScheduler拡張事例 / Kub...KubeCon + CloudNativeCon Europe 2022 Recap - Batch/HPCの潮流とScheduler拡張事例 / Kub...
KubeCon + CloudNativeCon Europe 2022 Recap - Batch/HPCの潮流とScheduler拡張事例 / Kub...
 
独断と偏見で選んだ Kubernetes 1.24 の注目機能と今後! / Kubernetes Meetup Tokyo 50
独断と偏見で選んだ Kubernetes 1.24 の注目機能と今後! / Kubernetes Meetup Tokyo 50独断と偏見で選んだ Kubernetes 1.24 の注目機能と今後! / Kubernetes Meetup Tokyo 50
独断と偏見で選んだ Kubernetes 1.24 の注目機能と今後! / Kubernetes Meetup Tokyo 50
 

Último

新人研修のまとめ 2024/04/12の勉強会で発表されたものです。
新人研修のまとめ       2024/04/12の勉強会で発表されたものです。新人研修のまとめ       2024/04/12の勉強会で発表されたものです。
新人研修のまとめ 2024/04/12の勉強会で発表されたものです。iPride Co., Ltd.
 
プレイマットのパターン生成支援ツールの評価
プレイマットのパターン生成支援ツールの評価プレイマットのパターン生成支援ツールの評価
プレイマットのパターン生成支援ツールの評価sugiuralab
 
PHP-Conference-Odawara-2024-04-000000000
PHP-Conference-Odawara-2024-04-000000000PHP-Conference-Odawara-2024-04-000000000
PHP-Conference-Odawara-2024-04-000000000Shota Ito
 
20240412_HCCJP での Windows Server 2025 Active Directory
20240412_HCCJP での Windows Server 2025 Active Directory20240412_HCCJP での Windows Server 2025 Active Directory
20240412_HCCJP での Windows Server 2025 Active Directoryosamut
 
プレイマットのパターン生成支援ツール
プレイマットのパターン生成支援ツールプレイマットのパターン生成支援ツール
プレイマットのパターン生成支援ツールsugiuralab
 
Amazon SES を勉強してみる その12024/04/12の勉強会で発表されたものです。
Amazon SES を勉強してみる その12024/04/12の勉強会で発表されたものです。Amazon SES を勉強してみる その12024/04/12の勉強会で発表されたものです。
Amazon SES を勉強してみる その12024/04/12の勉強会で発表されたものです。iPride Co., Ltd.
 
IoT in the era of generative AI, Thanks IoT ALGYAN.pptx
IoT in the era of generative AI, Thanks IoT ALGYAN.pptxIoT in the era of generative AI, Thanks IoT ALGYAN.pptx
IoT in the era of generative AI, Thanks IoT ALGYAN.pptxAtomu Hidaka
 

Último (7)

新人研修のまとめ 2024/04/12の勉強会で発表されたものです。
新人研修のまとめ       2024/04/12の勉強会で発表されたものです。新人研修のまとめ       2024/04/12の勉強会で発表されたものです。
新人研修のまとめ 2024/04/12の勉強会で発表されたものです。
 
プレイマットのパターン生成支援ツールの評価
プレイマットのパターン生成支援ツールの評価プレイマットのパターン生成支援ツールの評価
プレイマットのパターン生成支援ツールの評価
 
PHP-Conference-Odawara-2024-04-000000000
PHP-Conference-Odawara-2024-04-000000000PHP-Conference-Odawara-2024-04-000000000
PHP-Conference-Odawara-2024-04-000000000
 
20240412_HCCJP での Windows Server 2025 Active Directory
20240412_HCCJP での Windows Server 2025 Active Directory20240412_HCCJP での Windows Server 2025 Active Directory
20240412_HCCJP での Windows Server 2025 Active Directory
 
プレイマットのパターン生成支援ツール
プレイマットのパターン生成支援ツールプレイマットのパターン生成支援ツール
プレイマットのパターン生成支援ツール
 
Amazon SES を勉強してみる その12024/04/12の勉強会で発表されたものです。
Amazon SES を勉強してみる その12024/04/12の勉強会で発表されたものです。Amazon SES を勉強してみる その12024/04/12の勉強会で発表されたものです。
Amazon SES を勉強してみる その12024/04/12の勉強会で発表されたものです。
 
IoT in the era of generative AI, Thanks IoT ALGYAN.pptx
IoT in the era of generative AI, Thanks IoT ALGYAN.pptxIoT in the era of generative AI, Thanks IoT ALGYAN.pptx
IoT in the era of generative AI, Thanks IoT ALGYAN.pptx
 

LCCC2010:Learning on Cores, Clusters and Cloudsの解説

  • 1. NIPS2010を読む会@東工大 2011/2/14 LCCC2010:Learning on Cores, Clusters and Cloudsの解説 岡野原 大輔 (株)Preferred Infrastructure
  • 2. LCCC2010について • NIPS併催のワークショップ • 毎年同じようでテーマで開催されている – Organizer達で今年本を出すらしい [挨拶より] • J. Langford, O. Dekel, J. Duchi, A. Agrawal, L. Cayton • Google, MS, Yahoo!をはじめ主要な企業と 大学、研究所が3等分ぐらいずつ – 実用化は04年頃から進み身近なところで利用 – 例:gmailの優先トレイはメールでPA+転移学習 • 理論と実践の両方が進展
  • 3. 今日の発表について • Distributed MAP Inference for Undirected Graphical Models • Machine Learning in the Cloud with Graph Lab • MapReduce/Bigtable for Distributed Optimization • 選んだ基準 – 実用的 – 単に並列化しただけじゃないものを選んだ
  • 4. 背景 • 解析対象データの急激な増加 – アルゴリズムは最低でも線形の計算量が必要 だがそれでも不十分.潰しても捨てても無理 – 世界で作成されたデータ量は 2009年 8億テラバイト(前年比62%増) 2020年 35億テラバイトと予想 [Digital Universe 2010] – 例: ニューヨーク株式市場 毎日1TB Facebook 毎日20TBの圧縮データ • 分散/並列化しないと、そもそもデータの読み 込み/書き込みすら無理 – HDDは現在100MB/s
  • 5. 素朴な疑問 並列分散化の機械学習は面白いの? Q. たくさんマシンを用意できたなら、データを適当 に分けて、それぞれのマシンで処理して結果を合 わせるだけじゃないの? A. 部分的にYES, 残りはNO – 各マシン間の情報のやりとりが制限された環境で学 習の収束保障は?収束速度は? – 単純なアプローチはうまく行かない.が、ちょっと だけ工夫するとうまくいく – 分散並列システムを一から作るのはすごく大変 MapReduceなどの分散並列を実現するフレームワー ク上で実現可能な機械学習を考える
  • 6. 分散並列環境下の問題 • 通信コストは非常に大きい – データのマシン間移動は計算コストと同じか それ以上に大変 – スループット、レイテンシの両方で制限 • マシン間同期をとるのはコストがかかる – 計算時間はバラバラで一番遅いマシンに依存 – そもそも同期をとれない場合も • それぞれが独立にタスクをこなしつつ、 いかに全体の最適化を達成するか
  • 7. Distributed MAP Inference for Undirected Graphical Models Sammer Singh Amarnag Subramanya Fernando Pereira Andrew McCallum
  • 8. 目標 • グラフィカルモデルの推論は一般に困難 – 近年利用されるモデルはより巨大で密に • 共参照推定、関係抽出、同時推論など • 文書集合をまたがるグラフ – 100万変数の問題を数百台で解きたい • 様々な近似推論手法が提案されている – LP-Relaxations – Dual Decomposition – MCMC-Based • これらの手法の並列化は難しい
  • 9. 問題設定 • 変数Yの確率分布を因子ψで表す • 例: • MAP推定をしたい y*=argmaxy p(Y=y) – ループなどがあり動的計画法は使えない
  • 10. 既存手法 MCMCによるMAP推定 1. yを適当に決める 2. yの中身を少し変更したy’を提案 3. [0,1]の乱数が より大きいならy’を採択し、y=y’と更新 – 確率が上がるなら常に採用、下がる場合は確 率的に採用.tは温度 – p(y’)/p(y)は変数が変わったところだけ見れ ば計算できるので高速に計算できる
  • 11. 相互排他的な提案を利用した 並列化 • yからの提案 yaとybについて yaとybの影響箇所が重ならないとする • この時、y⇒yaとy⇒ybは並列に評価でき、 採択することができる • グラフィカルモデルの特徴を利用し、相 互排他的な提案を作ることができる – 汎用的な方法もできつつある c.f. Residual Splash Belief Propagation
  • 13. 文書間共参照解析での並列数に 対する精度 共参照解析: 二つの表現が現実世界で同一実体を指すかどうかを求める
  • 14. 実験結果 (2) マシン台数におけるスケーラビリティ • NY Times Corpus 20年分の記事中に含 まれる100万回の人名言及の共参照解析 正解データが無いので 精度で評価できないが・・
  • 15. Machine Learning in the Cloud with Graph Lab Yucheng Low Joey Gonzalez Aapo Kyrola Danny Bickson Carlos Guestrin Joe Hellerstein David O’Hallaron
  • 16. 背景 • 分散並列向けにSplash Belief Propagation を提案 [UAI 09] • MapReduce(MR)はバッチ処理が得意だが 反復的な処理、部分的な更新は苦手 ⇒ GraphLabを提案 [UAI 10] – MRが苦手なML向けの処理を行うフレームワーク – データの疎な依存関係を表せる – 部分更新、反復処理が得意 – マルチコア、分散、クラウド、GPUに対応
  • 17. GraphLabの特徴 Sequential Consistency Thm. 全ての並列更新処理については、それと同じ結 果を生成する、逐次更新処理が必ず存在 – 並列処理の正しさを証明
  • 18. 実験結果 • Gibbs sampling – 相互排他的な変数を毎に色分けし並列更新 – プロセッサ数にほぼ線形で性能向上 – 他の様々な並列化もサポート • LASSO – Shooting Algorithmの並列化 • 変数とサンプルで二部グラフ作り相互排他的な変数集 合を作る – 相互排他的な変数の更新を自動で並列化 • その他いくつかのタスクで並列化を評価
  • 19. MapReduce / Bigtable for Distributed Optimization Keith Hall Scott Gilpin Gideon Mann Slav Petrov
  • 20. 最適化の分散並列化は簡単? • MapReduceフレームワークを使えば簡単 • データ分散し、それぞれ独立にパラメー タを計算して(Map)、集める(Reduce) • 分散の仕方でいろいろ方法がある – パラメータを分割して求めて平均とるか – 勾配を分割して求めて勾配をとるか など • どれも同じ様に見えるが実は精度に大き な違いがあり、理論的に解析可能 ここでの最適化は教師付き学習を含む最適化
  • 21. 方法1:Parameter Mixture 1. データを分割しK個のshardに配る 2. shard毎にパラメータθを最適化 3. 最後に各最適化した結果の平均をとる – θ’ = (∑iθi)/K • 実はうまくいかない – 性能も悪いし、失敗する例も作れる(次項) – 理論的保障もできない
  • 22. Parameter Mixtureが失敗する例 • f(x)=wTx のwを学習.訓練例は次の通り y1=0 x1 =(1 1 0) y2=1 x2 =(0 0 1) y3=0 x3 =(0 1 1) y4=1 x4 =(1 0 0) • 1と2で学習して w1=(-1 -1 0) • 3と4で学習して w2=(0 -1 -1) • w’=w1+w2は全ての訓練例をy=0に分類 • 全例を正しく分けるのは w =(1 -2 1) ⇒全訓練例を正しく分類するwがあっても、 それをPMは必ずしも求めることはできない
  • 23. 方法2 Distributed Gradient • 勾配の計算部分を並列に行う • 求まった勾配を利用して更新は一台で行 う • 長所 – 勾配の計算に時間がかかる場合に高速化可能 • 短所 – 毎回パラメータを全てのshard間でやりとり しないといけない. – 収束は遅く,バッチ学習と同じ
  • 24. 方法3 Asynchronous Update • 全shardで共通のパラメータθを利用 • 各ワーカーは、現在のθを取得し、分割さ れたデータでθを更新 • 欠点:θにlockをとらないため、古いθを 元に更新を計算してしまう可能性.実は それでも収束保障はできるが遅い
  • 25. 方法4 Iterative Parameter Mixture • Parameter Mixtureを少しだけ改造 1. データを分割しshardに配る 2. shard毎に最適化 3. 全部のθの平均をとる 4. θを再度各shardに配り1から繰り返す これは収束証明ができ、実際に高性能 – 重要:各epoch毎にパラメーターを通信するのみ. データの通信は発生しない • 以降ではStructured Perceptronの場合を議論
  • 26. Structured Perceptron(SP) [Collins 2002] 1台での学習の場合 更新時に、正解の特徴ベクトルを足し、不正解で最も スコアが高かった特徴ベクトルを引く
  • 27. Structured Perceptron • 1台での学習の場合 • 訓練例の直径がRであり、マージンγで分 離可能の時、SPによる学習アルゴリズム の更新回数は高々(R/γ)2 [Novikoff 62][Collins 02] • これを分散させるとどうなるか ..
  • 28. Structured Perceptorn + Iterative Paramter Mixture μi,nは混ぜる割合 ∑iμi,n =1
  • 29. データ データをK個に分割に分割 θ(0) = 0 θ(0) θ(0) θ(0) θ(0) それぞれで独立に学習 θ1 θ2 θ3 θ4 θ(1)=(θ1+θ2+θ3+θ4)/4 パラメータを集めて、平均をとり θ(1) θ(1) θ(1) θ(1) 再度分配する(データはそのまま) θ(1)を初期値に再度学習 θ1 θ2 θ3 θ4 これを収束するまで繰り返す
  • 30. Iterative Paramter Mixture + Structured Perceptron • 訓練例の直径がRであり、マージンγで分 離可能の時、IPM+SPによる学習アルゴリ ズムの合計の更新回数は高々(R/γ)2 [R. McDonald NAACL 10] – 一台で動かした場合と全く同じなので K台で分割したらK倍の高速化が可能 – データの移動を全くしなくても全部のデータ を正しく分類可能な学習ができる!
  • 31. 略証 (1/3) • wi,n : i番目のshardのn週目の学習結果 • w([i,n]-k): wi,nのk回の更新前 • ki,n : shard i でのn epoch目の更新回数 • wi,nを下から抑える
  • 32. 略証 (2/3) • wi,nを上から抑える • これより各shardのエラー回数ki,nと w(avg,n-1)の対応付けができた
  • 33. 略証 (3/3) • 次にw(avg,N)を上と下から抑える • これらは数学的帰納法で証明する – 先程の(A1) (A2)とJensenの不等式を組み合わせ て抑えることができる • |u|=1より、|wavg,N|≧uw(avg,N) • (IH2)と組み合わせて最初のバウンドを得る
  • 34. 実験1 • クリックデータでクリックするかどうかを予測 • 訓練例数 3億7000万 • 200個のグループに分割し 240台のworkerでMapReduce • Iterative Parameter Mixtureが70倍の高速化と高性能を達成
  • 35. 実験2 • 先ほどと同じデータ(Single-coreではもう不可能) •訓練例数 16億 • 900個のグループに分割し 600台のworkerでMapReduce • Iterative Parameter Mixtureが同じく高速で高性能
  • 36. 彼らの結論 • 非同期更新は現在のデータセンター環境 では非常に厳しい – 遅い、収束しない – ネットワークが混み合う • Iterative Parameter Mixtureが良い – 実装もすごく簡単 – Perceptron以外にも Passive Aggressiveなどでも証明可能
  • 37. 結論 • 機械学習の分散並列化の理論/実践が揃い つつある – オンライン学習のRegret最小化解析の適用 – 分散最適化の理論 – MapReduceで可能なものがまだ中心 • 現状、線形識別器の分散並列化は Iterative Parameter Mixtureが最強 – ほぼ線形の高速化が可能で収束する – Iteration毎にパラメータを混ぜるだけ
  • 38. コメント • やり残し – 個別の手法についての収束証明はあるが、一般の 分散最適化問題も証明できるか – 最適な混ぜ具合を決められるか Active Learningとの関係? • パラメータを圧縮した最適化は伸びシロあり – センサネットワークやCompressed Sensing の 話がそのまま使えそう • 数台程度ならMapReduce使わずとも 実現できそう
  • 39. 質問に対する回答 • 問:Shard間でデータがものすごく偏って いる場合でもIterative Parameter Mixtureは収束する?例えば片方が全部正 例、もう片方が全部負例でも? • 答:必ず収束する +1 (1, 1, 0) 一周目 w=(1,1,0) w=(0,0,0) +1 (1, 0, 0) 平均をとって w=(1/2, 1/2, 0) -1 (0, 1, 1) 二週目 w=(1/2, 1/2, 0), w=(1/2, -1/2, -1) -1 (0, 0, 1) 平均をとって w=(1/2, 0, -1/2) 終了