SlideShare uma empresa Scribd logo
1 de 47
Baixar para ler offline
深層学習インフラ
借りるべきか?買うべきか?
〜1024GPUの計算基盤を運用して見えてきたこと〜
Preferred Networks 福田圭祐
kfukuda@preferred.jp
2018/07/12 @ JAWS-UG AI #7
TOC
 深層学習とはどのような計算なのか?
 弊社の計算事例をまじえて
 PFNの計算環境のご紹介
 概要
 大規模オンプレ計算環境のうまみとつらみ
 見えてきたもの
 借りるべきか?買うべきか?
会社紹介 & 自己紹介
Preferred Networks, Inc. (PFN)
 設 立:2014年3月
 所在地:東京都千代田区大手町(日本)、カリフォルニア州バークレー(米国)
 取締役:西川 徹、岡野原 大輔、奥田 遼介
 出資者:
NTT、Fanuc、Toyota、博報堂DYHD、日立製作所、みずほ銀行、三井物産
 ミッション:
IoT時代に向けた新しいコンピュータを創造する
あらゆるモノに知能をもたせ、分散知能を実現する
 事業内容: IoT(Internet of Things) + 分散機械学習
 交通システム
 産業用ロボット
 バイオヘルスケア
4
Humanoid Robot
PFNの注力領域:Industrial IoT に向けたAIを進
める
Consumer Industrial
Cloud
Device
PhotoGameText
Speech
Infrastructure
Factory Robot
Automotive
Healthcare
Smart City
Industry4.0
Industrial IoT
自己紹介
福田圭祐
大学の博士課程で高性能・並列計算を専攻後、PFNに入社
PFNでの仕事:
大規模並列計算チーム
ChainerMNの開発
インフラ担当チームと連携して社内の計算環境整備
将来の計算環境を見据えたR&D
深層学習とはどのような計算か?
(今日は主に学習の話をします)
深層学習とはどのような計算か?
 深層学習 ⊂ 機械学習 ⊂ 自動プログラミング
 人間がルールを明示的にコード化する代わりに、データ
を統計的に学習してルールを自動生成する
 従来の(浅い)機械学習
= 特徴量 + 分類器
 深層学習
= ニューラルネットワークを用いて関数近似
From Ren et al. “General Traffic Sign Recognition by Feature Matching”, 2009
深層学習とはどのような計算か? cont.
 深層学習は何がすごいのか?
 特徴量を自動発見できる(といわれている)
 ニューラルネットの普遍性定理:十分に多いパラメーターを持つ
ニューラルネットは、(パラメーターを調整すれば)任意の連続
関数を任意の精度で近似しうる
 パラメーターを調整・発見する作業 = 「学習」
 ここでいう「関数」:
f ( ) = “猫”
深層学習とはどのような計算か? cont.
 深層学習とはどういう計算か?
 パラメーター数 = 数千〜数千万 = 数MB〜数GB
 行列積 + 若干の非線形関数
 学習対象となるデータの量 = 数GB〜数TB
 高速数値計算+ビッグデータの両方をサポート
できる計算基盤が必要となる
事例紹介(研究)
GAN(Generative Adversarial Net)敵対的生成モデル
[Goodfellow+14]
 二人のプレイヤーが競い合うことで学習する
 ニセモノを作る人(Generator)
 目標はDiscriminatorを騙すこと
 本物そっくりのお金を作るように学習されていく
 ニセモノを見破る人(Discriminator)
 目標はGeneratorの嘘を見破ること
 ほんのわずかな違いも見抜けるように学習されていく
Generator
本物のお金
Discriminator
本物かな ?偽物のお金
1/2でどちらか
選ばれる
Generatorによる画像生成例
 生成の種となる値(z)を固定したまま、クラス(y)
だけを変化
 概念を保ったまま、クラスだけを変化
 犬の頭とキノコの頭が対応している
 犬の頭と塔が対応している
深層学習インフラ、借りるべきか?買うべきか?
画像生成のマルチタスク学習 [Miyato+2018]
 8GPU 1週間
(1試行あたり)
PFNにおけるGPUクラスタの活用
ChainerMN: 並列深層学習ライブラリ
 1024GPUをフル活用した場合の ImageNet (画像分類タスクのデータ
セット) 1000クラス分類の学習をベンチマークとして実施
 90エポックの学習を15分で達成 2018年2月時点で、同条件で世界最
短時間での学習
T.Akiba
K.Fukuda
S.Suzuki
K.Uenishi
8GPUによる学習時間を
1(ベースライン)とした
速度比 → 100倍以上
ImageNet in 15min. ポイント [Akiba et.al 2017]
 NVIDIA製NCCL2を利用
 ノードをまたぐ集団通信アルゴリズムもオーバーヘッドが少ない
 学習率の変更やチューニング
 Goyalとほぼ同じ方式
 Optimizerを学習初期の
RMSPropからスムーズに
SGDに入れ替える
 通信だけfp16 計算はfp32
 32k sample/バッチ
 1024GPUでも
比較的順当にスケール
K.Fukuda et al. in GTC 18 “Training ImageNet in 15 Minutes WithChainerMN: A Scalable Distributed DeepLearning
Framework” http://on-demand.gputechconf.com/gtc/2018/presentation/s8889-training-imagenet-in-15-minutes-with-
chainermn-a-scalable-distributed-dl-framework.pdf
GTC Japan Jensen氏講演でも言及
PFNの計算環境:ハードウェア編
MN-1: Deep Learning Computing Cluster
MN-1
 構築・運用: NTT Communications / NTT PC Communications
MN-1
IBSwitch
GPUサーバ
GPUサーバ
GPUサーバ
GPUサーバ
GPUサーバ
GPUサーバ
GPUサーバ
GPUサーバ
構成
{ (GPUサーバ x 16 + IB SW x 2) x 2 } x 4 + IB SW x 2
IBSwitch
IBSwitch
IBSwitch
IBSwitch
IBSwitch
FDR (56Gbps)
GPUサーバ
GPUサーバ
GPUサーバ
GPUサーバ
GPUサーバ
GPUサーバ
GPUサーバ
GPUサーバ
GPUサーバ
GPUサーバ
GPUサーバ
GPUサーバ
GPUサーバ
GPUサーバ
GPUサーバ
GPUサーバ
GPUサーバ
GPUサーバ
GPUサーバ
GPUサーバ
GPUサーバ
GPUサーバ
GPUサーバ
GPUサーバ
グループ
ベンチマーク
 LINPACK Benchmark
 https://www.preferred-networks.jp/ja/news/pr20171114
「Preferred Networksのプライベート・スーパーコンピュータが Top
500リストのIndustry領域で国内1位に認定」
 ImageNet in 15 min.
 https://www.preferred-networks.jp/ja/news/pr20171110
「深層学習の学習速度において世界最速を実現」
PFNの計算環境:ソフトウェア編
PFNの計算環境(ソフトウェア)
 Mesosベースの内製ジョブスケジューラ
 たくさんジョブを流したい人
 Mesos = Docker+ジョブスケジューラ
 様々なソフトウェアバージョンの利用・共存
 Reproducibility
 Kubernetesクラスタ
 Root権限のある環境でいろいろ試行錯誤したい人
 (内製ジョブスケジューラを作り始めた当時はKubernetes台頭前だった)
 小規模クラスタ
 with Torque
オンプレ計算環境のつらみ【セットアップ】
 低レイヤの知識が必要
 BIOS、Infiniband、Linux Internals
 台数が増えるとAnsibleすらつらい
 バージョンを厳格に管理しないと
CUDA環境/Infiniband環境がすぐ壊れる
 不用意に apt-get upgrade とかすると崩壊
 下手すると apt-get autoremove ですら環境が壊れる(本来こんな
ことはないはず)
オンプレ計算環境のつらみ 【運用】
 利用効率と公平性のトレードオフ
 社内の複数人へ公平なリソース割り当てをしたい
 そもそも「公平」とは?
 計算機の効率的な利用をしたい
 買った瞬間から減価償却が発生する
 使ってない時間 = 無駄な出血
 公平性を重視するなら…
 効率性を重視するなら…
 ジョブスケジューラ
 システム管理が総じて闇
 実は、既存のスケジューラーがそこまで賢いわけじゃない
– そもそもスケジューリング(Job-Shop Scheduling問題)はNP困難
– Torqueのデフォルトのスケジューラーは単純FIFO
 GPU計算をしていると稀によくフリーズするので対応が面倒
 コンテナと相性悪い
 Kubernetesも、そもそもはジョブスケジューラーではない
 総じて、機械学習クラスタのエコシステムは発展途上
 HPC技術とクラウド技術の融合がリアルタイムで進行中
 HPC:
 いろいろなものを犠牲にして性能を追求する
 レガシー
 クラウド
 ある程度性能を犠牲にして柔軟性と堅牢性を追求する
 機械学習はミッションクリティカルで無いバッチジョ
ブなのでトレードオフが合わない
オンプレ計算環境のうまみ
なぜPFNは自社保有にこだわるのか(1)
 グランドチャレンジ
 潤沢な計算資源を利用して、誰にもできなかったことを成し遂げ
よう
 ImageNet 15分チャレンジ
 深層学習ビジネスにおいて、計算力は競争力の源
 (クラウドとて無限ではない)
 システム全系チャレンジのみならず、日常的にも潤沢な計算資源
で成果を出す
 16GPU、32GPUの並列計算を息をするように利用する
2017年3月頃、NIPS論文提出の締切直前に、
大手クラウドサービスのGPUが枯渇した
https://www.theregister.co.uk/2017/05/22/cloud_providers_ai_researchers/
オンプレ計算環境のうまみ
なぜPFNは自社保有にこだわるのか(2)
 強力な通信性能
 MN-1a : Infiniband FDR
 MN-1b : Infiniband EDR
 学習「スループット」だけでなく「ターンアラウンドタイム」短縮
 ChainerMNの効率的な利用には高速ネットワークが望ましい
 グリッドサーチだけでなく、ベイズ最適化によるハイパーパラ
メータチューニングのためには学習一回の時間の短縮が重要
 「特徴量エンジニアリングがハイパーパラメータエンジニアリン
グになっただけでは?」という疑問に対する答え
オンプレ計算環境のうまみ
なぜPFNは自社保有にこだわるのか(3)
 「上から下まで」の技術力を持つことの重要性
 様々な技術バックグランドを持つメンバーが集結することによって、
新しいものを生み出していく
 「調達」から「アルゴリズム」まで
機械学習インフラ、借りるべきか?買うべきか?
借りることと買うことの利害得失
クラウド オンプレ
メリット
• 従量課金
• 整った環境が一発でデプロイ
• スペックが自由に調整できる
• (十分活用できるなら)安い
• 高速ネットワーク可能
デメリット
• (単純単価だと)ちょっと高い
• ネットワーク性能
• インスタンスガチャ問題
• セットアップ・運用の手間
• ストレージ
• ネットワーク
• GPU
• スケジューラー
自社の戦闘力はどこからくる?
開発の真のボトルネックはどこか?
 アルゴリズム?
 様々な実装済みモデルが利用可能
 そもそも本当に機械学習/深層学習が必要か?
 別に深層学習に拘る必要はない。難しいアルゴリズムを使ったから偉
いわけではない
 データ?
 良質なデータは極めて重要
 特に米国の巨大企業は桁違いのデータを集める能力を持つ
 インテグレーション?
 現実には、機械学習をビジネスに活かすのは簡単ではない
 計算力?
自社の戦闘力はどこからくる?
どのような計算環境が必要か?
 自社のエンジニアが、どのような計算ワークロードを行っている
のか?
 GPU、CPU、IO、メモリをどのように使っているのか?
 ハードウェア中、どこがボトルネックなのか?
 モニタリングは超重要
 弊社もまだまだ
 本質的なモデル構築作業と、(不毛な)パラメーターチューニン
グをどれくらいやっているか?計算資源の力で短縮できる余地が
あるか?
 逆に、ソフトウェアの工夫でハードウェア不足を補うことはでき
ないか?(それがPayするか?)
Want to try Chainer + ChainerMN?
39
Cloud formation support is coming soon!
Optimization technique for non-IB environment:
Double buffering
• Each update uses the gradients from previous iteration (1-step stale grad.)
40
Computing time of ImageNet training with Double Buffering + FP16 communication
2.1 times faster !
41
• Local batchsize: 64
• 32 processes
• NCCL for Allreduce
42
43
95% scalability up to 32 GPUs !!
model acc. 75%
model acc. 76%
ResNet-50 on ImageNet training
• 25Gbps Ethernet
• Double buffering
• FP16 communication (NCCL)
• V100 GPUs
• Batchsize: 64/GPU
最後に
最後に(1)
• Convergence of HPC and Cloud
• 機械学習の計算基盤技術は発展途上
• 並列計算(スパコン) + 分散システム(クラウド) という2つの大河の合流
点に我々は立っている
By Photographer: Melissa Meier, U.S. Geological Survey - http://gallery.usgs.gov/photos/08_18_2010_h41Ogs6FEa_08_18_2010_11#.Ur01tvfTnrd, Public Domain, https://commons.wikimedia.org/w/index.php?curid=30350532
最後に(2)
• ボトルネック = 一番貴重な資源にあるべき
= 人間のCreativity
• 最強の計算資源で人間のCreativityを全開にしよう!
ありがとうございました

Mais conteúdo relacionado

Mais procurados

20180227_最先端のディープラーニング 研究開発を支えるGPU計算機基盤 「MN-1」のご紹介
20180227_最先端のディープラーニング 研究開発を支えるGPU計算機基盤 「MN-1」のご紹介20180227_最先端のディープラーニング 研究開発を支えるGPU計算機基盤 「MN-1」のご紹介
20180227_最先端のディープラーニング 研究開発を支えるGPU計算機基盤 「MN-1」のご紹介Preferred Networks
 
InnoDBのすゝめ(仮)
InnoDBのすゝめ(仮)InnoDBのすゝめ(仮)
InnoDBのすゝめ(仮)Takanori Sejima
 
PFN x Microsoft Alliance
PFN x Microsoft AlliancePFN x Microsoft Alliance
PFN x Microsoft AllianceHirono Jumpei
 
ChainerMNが即座に使える環境を提供するXTREME DNA HPC Cloud
ChainerMNが即座に使える環境を提供するXTREME DNA HPC CloudChainerMNが即座に使える環境を提供するXTREME DNA HPC Cloud
ChainerMNが即座に使える環境を提供するXTREME DNA HPC CloudHirono Jumpei
 
インフラCICDの勘所
インフラCICDの勘所インフラCICDの勘所
インフラCICDの勘所Toru Makabe
 
Innodb Deep Talk #2 でお話したスライド
Innodb Deep Talk #2 でお話したスライドInnodb Deep Talk #2 でお話したスライド
Innodb Deep Talk #2 でお話したスライドYasufumi Kinoshita
 
Chainer でのプロファイリングをちょっと楽にする話
Chainer でのプロファイリングをちょっと楽にする話Chainer でのプロファイリングをちょっと楽にする話
Chainer でのプロファイリングをちょっと楽にする話NVIDIA Japan
 
Deep Learning Lab: DIMo & Chainer
Deep Learning Lab: DIMo & ChainerDeep Learning Lab: DIMo & Chainer
Deep Learning Lab: DIMo & ChainerPreferred Networks
 
ベアメタルサーバー/オンプレミスと実現するハイブリッドクラウド
ベアメタルサーバー/オンプレミスと実現するハイブリッドクラウドベアメタルサーバー/オンプレミスと実現するハイブリッドクラウド
ベアメタルサーバー/オンプレミスと実現するハイブリッドクラウドFujishiro Takuya
 
ChainerRL の学習済みモデルを gRPC 経由で使ってみる試み (+アルファ)
ChainerRL の学習済みモデルを gRPC 経由で使ってみる試み (+アルファ)ChainerRL の学習済みモデルを gRPC 経由で使ってみる試み (+アルファ)
ChainerRL の学習済みモデルを gRPC 経由で使ってみる試み (+アルファ)NVIDIA Japan
 
実用としての深層学習 ~深層学習の利用事例と展望~
実用としての深層学習 ~深層学習の利用事例と展望~実用としての深層学習 ~深層学習の利用事例と展望~
実用としての深層学習 ~深層学習の利用事例と展望~Hirono Jumpei
 
GPU クラウド コンピューティング
GPU クラウド コンピューティングGPU クラウド コンピューティング
GPU クラウド コンピューティングNVIDIA Japan
 
Microsoft ではじめる AI DLラボ パートナープログラムご紹介
Microsoft ではじめる AI DLラボ パートナープログラムご紹介Microsoft ではじめる AI DLラボ パートナープログラムご紹介
Microsoft ではじめる AI DLラボ パートナープログラムご紹介Hirono Jumpei
 
ITフォーラム2020 AITC(6)
ITフォーラム2020 AITC(6)ITフォーラム2020 AITC(6)
ITフォーラム2020 AITC(6)aitc_jp
 
DLL#3 Microsoft Community & AI Update
DLL#3 Microsoft Community & AI UpdateDLL#3 Microsoft Community & AI Update
DLL#3 Microsoft Community & AI UpdateHirono Jumpei
 
クラウドを最大限活用するinfrastructure as codeを考えよう
クラウドを最大限活用するinfrastructure as codeを考えようクラウドを最大限活用するinfrastructure as codeを考えよう
クラウドを最大限活用するinfrastructure as codeを考えようNTT Communications Technology Development
 
AWSとGPUインスタンスのご紹介
AWSとGPUインスタンスのご紹介AWSとGPUインスタンスのご紹介
AWSとGPUインスタンスのご紹介Yasuhiro Matsuo
 

Mais procurados (19)

20180227_最先端のディープラーニング 研究開発を支えるGPU計算機基盤 「MN-1」のご紹介
20180227_最先端のディープラーニング 研究開発を支えるGPU計算機基盤 「MN-1」のご紹介20180227_最先端のディープラーニング 研究開発を支えるGPU計算機基盤 「MN-1」のご紹介
20180227_最先端のディープラーニング 研究開発を支えるGPU計算機基盤 「MN-1」のご紹介
 
InnoDBのすゝめ(仮)
InnoDBのすゝめ(仮)InnoDBのすゝめ(仮)
InnoDBのすゝめ(仮)
 
PFN x Microsoft Alliance
PFN x Microsoft AlliancePFN x Microsoft Alliance
PFN x Microsoft Alliance
 
ChainerMNが即座に使える環境を提供するXTREME DNA HPC Cloud
ChainerMNが即座に使える環境を提供するXTREME DNA HPC CloudChainerMNが即座に使える環境を提供するXTREME DNA HPC Cloud
ChainerMNが即座に使える環境を提供するXTREME DNA HPC Cloud
 
インフラCICDの勘所
インフラCICDの勘所インフラCICDの勘所
インフラCICDの勘所
 
2016 sep13 gdlc01 pfn
2016 sep13 gdlc01 pfn2016 sep13 gdlc01 pfn
2016 sep13 gdlc01 pfn
 
Innodb Deep Talk #2 でお話したスライド
Innodb Deep Talk #2 でお話したスライドInnodb Deep Talk #2 でお話したスライド
Innodb Deep Talk #2 でお話したスライド
 
Chainer でのプロファイリングをちょっと楽にする話
Chainer でのプロファイリングをちょっと楽にする話Chainer でのプロファイリングをちょっと楽にする話
Chainer でのプロファイリングをちょっと楽にする話
 
Deep Learning Lab: DIMo & Chainer
Deep Learning Lab: DIMo & ChainerDeep Learning Lab: DIMo & Chainer
Deep Learning Lab: DIMo & Chainer
 
ベアメタルサーバー/オンプレミスと実現するハイブリッドクラウド
ベアメタルサーバー/オンプレミスと実現するハイブリッドクラウドベアメタルサーバー/オンプレミスと実現するハイブリッドクラウド
ベアメタルサーバー/オンプレミスと実現するハイブリッドクラウド
 
ChainerRL の学習済みモデルを gRPC 経由で使ってみる試み (+アルファ)
ChainerRL の学習済みモデルを gRPC 経由で使ってみる試み (+アルファ)ChainerRL の学習済みモデルを gRPC 経由で使ってみる試み (+アルファ)
ChainerRL の学習済みモデルを gRPC 経由で使ってみる試み (+アルファ)
 
実用としての深層学習 ~深層学習の利用事例と展望~
実用としての深層学習 ~深層学習の利用事例と展望~実用としての深層学習 ~深層学習の利用事例と展望~
実用としての深層学習 ~深層学習の利用事例と展望~
 
GPU クラウド コンピューティング
GPU クラウド コンピューティングGPU クラウド コンピューティング
GPU クラウド コンピューティング
 
Microsoft ではじめる AI DLラボ パートナープログラムご紹介
Microsoft ではじめる AI DLラボ パートナープログラムご紹介Microsoft ではじめる AI DLラボ パートナープログラムご紹介
Microsoft ではじめる AI DLラボ パートナープログラムご紹介
 
ITフォーラム2020 AITC(6)
ITフォーラム2020 AITC(6)ITフォーラム2020 AITC(6)
ITフォーラム2020 AITC(6)
 
DLL#3 Microsoft Community & AI Update
DLL#3 Microsoft Community & AI UpdateDLL#3 Microsoft Community & AI Update
DLL#3 Microsoft Community & AI Update
 
クラウドを最大限活用するinfrastructure as codeを考えよう
クラウドを最大限活用するinfrastructure as codeを考えようクラウドを最大限活用するinfrastructure as codeを考えよう
クラウドを最大限活用するinfrastructure as codeを考えよう
 
20161210 jawsai
20161210 jawsai20161210 jawsai
20161210 jawsai
 
AWSとGPUインスタンスのご紹介
AWSとGPUインスタンスのご紹介AWSとGPUインスタンスのご紹介
AWSとGPUインスタンスのご紹介
 

Semelhante a 深層学習インフラ、借りるべきか?買うべきか?

Aws summits2014 nttデータaws上のシステムはこう作る!
Aws summits2014 nttデータaws上のシステムはこう作る!Aws summits2014 nttデータaws上のシステムはこう作る!
Aws summits2014 nttデータaws上のシステムはこう作る!Boss4434
 
Rancher/k8sを利用した運用改善の取り組み
Rancher/k8sを利用した運用改善の取り組みRancher/k8sを利用した運用改善の取り組み
Rancher/k8sを利用した運用改善の取り組みMichitaka Terada
 
Power biで気づく!現場機器の異常監視システム on azure
Power biで気づく!現場機器の異常監視システム on azurePower biで気づく!現場機器の異常監視システム on azure
Power biで気づく!現場機器の異常監視システム on azureIoTビジネス共創ラボ
 
Automation with SoftLayer and Zabbix
Automation with SoftLayer and ZabbixAutomation with SoftLayer and Zabbix
Automation with SoftLayer and Zabbixsoftlayerjp
 
SIerにおけるKubernetes活用(OSSユーザーによる勉強会-公開版)
SIerにおけるKubernetes活用(OSSユーザーによる勉強会-公開版)SIerにおけるKubernetes活用(OSSユーザーによる勉強会-公開版)
SIerにおけるKubernetes活用(OSSユーザーによる勉強会-公開版)Tetsurou Yano
 
次世代の企業ITインフラを支えるエンジニアとは
次世代の企業ITインフラを支えるエンジニアとは次世代の企業ITインフラを支えるエンジニアとは
次世代の企業ITインフラを支えるエンジニアとはTrainocate Japan, Ltd.
 
3-2)『空気を読む家』とメタバース駆動開発構想
3-2)『空気を読む家』とメタバース駆動開発構想3-2)『空気を読む家』とメタバース駆動開発構想
3-2)『空気を読む家』とメタバース駆動開発構想aitc_jp
 
クラウド座談会資料
クラウド座談会資料クラウド座談会資料
クラウド座談会資料知礼 八子
 
AI分野におけるコンテナオーケストレーションとは
AI分野におけるコンテナオーケストレーションとはAI分野におけるコンテナオーケストレーションとは
AI分野におけるコンテナオーケストレーションとはTetsurou Yano
 
デスクトップエンジニアという働き方
デスクトップエンジニアという働き方デスクトップエンジニアという働き方
デスクトップエンジニアという働き方Hiroshi Oyamada
 
わんくま東京勉強会#46 Azureセッション資料
わんくま東京勉強会#46 Azureセッション資料わんくま東京勉強会#46 Azureセッション資料
わんくま東京勉強会#46 Azureセッション資料guest628c07
 
わんくま東京勉強会#46 Azureセッション資料
わんくま東京勉強会#46 Azureセッション資料わんくま東京勉強会#46 Azureセッション資料
わんくま東京勉強会#46 Azureセッション資料Shinichiro Isago
 
電通、リクルート、サントリーショッピングクラブ、有名企業がいち早く選んだ kintone を徹底解説
電通、リクルート、サントリーショッピングクラブ、有名企業がいち早く選んだ kintone を徹底解説電通、リクルート、サントリーショッピングクラブ、有名企業がいち早く選んだ kintone を徹底解説
電通、リクルート、サントリーショッピングクラブ、有名企業がいち早く選んだ kintone を徹底解説Cybozucommunity
 
データをどこに溜めよう?ローカル?クラウド?どのデータベース?
データをどこに溜めよう?ローカル?クラウド?どのデータベース?データをどこに溜めよう?ローカル?クラウド?どのデータベース?
データをどこに溜めよう?ローカル?クラウド?どのデータベース?- Core Concept Technologies
 
基調講演「データのグループウェア化」
基調講演「データのグループウェア化」基調講演「データのグループウェア化」
基調講演「データのグループウェア化」Cybozucommunity
 
できる!KickstartとAnsible!
できる!KickstartとAnsible!できる!KickstartとAnsible!
できる!KickstartとAnsible!Wataru NOGUCHI
 
Kubernetes で変わるインフラ
Kubernetes で変わるインフラKubernetes で変わるインフラ
Kubernetes で変わるインフラTetsurou Yano
 
AITCオープンラボ 2018年5月度(4)
AITCオープンラボ 2018年5月度(4)AITCオープンラボ 2018年5月度(4)
AITCオープンラボ 2018年5月度(4)aitc_jp
 

Semelhante a 深層学習インフラ、借りるべきか?買うべきか? (20)

Aws summits2014 nttデータaws上のシステムはこう作る!
Aws summits2014 nttデータaws上のシステムはこう作る!Aws summits2014 nttデータaws上のシステムはこう作る!
Aws summits2014 nttデータaws上のシステムはこう作る!
 
Rancher/k8sを利用した運用改善の取り組み
Rancher/k8sを利用した運用改善の取り組みRancher/k8sを利用した運用改善の取り組み
Rancher/k8sを利用した運用改善の取り組み
 
Power biで気づく!現場機器の異常監視システム on azure
Power biで気づく!現場機器の異常監視システム on azurePower biで気づく!現場機器の異常監視システム on azure
Power biで気づく!現場機器の異常監視システム on azure
 
July techfesta2014 f30
July techfesta2014 f30July techfesta2014 f30
July techfesta2014 f30
 
Automation with SoftLayer and Zabbix
Automation with SoftLayer and ZabbixAutomation with SoftLayer and Zabbix
Automation with SoftLayer and Zabbix
 
SIerにおけるKubernetes活用(OSSユーザーによる勉強会-公開版)
SIerにおけるKubernetes活用(OSSユーザーによる勉強会-公開版)SIerにおけるKubernetes活用(OSSユーザーによる勉強会-公開版)
SIerにおけるKubernetes活用(OSSユーザーによる勉強会-公開版)
 
次世代の企業ITインフラを支えるエンジニアとは
次世代の企業ITインフラを支えるエンジニアとは次世代の企業ITインフラを支えるエンジニアとは
次世代の企業ITインフラを支えるエンジニアとは
 
3-2)『空気を読む家』とメタバース駆動開発構想
3-2)『空気を読む家』とメタバース駆動開発構想3-2)『空気を読む家』とメタバース駆動開発構想
3-2)『空気を読む家』とメタバース駆動開発構想
 
クラウド座談会資料
クラウド座談会資料クラウド座談会資料
クラウド座談会資料
 
AI分野におけるコンテナオーケストレーションとは
AI分野におけるコンテナオーケストレーションとはAI分野におけるコンテナオーケストレーションとは
AI分野におけるコンテナオーケストレーションとは
 
デスクトップエンジニアという働き方
デスクトップエンジニアという働き方デスクトップエンジニアという働き方
デスクトップエンジニアという働き方
 
わんくま東京勉強会#46 Azureセッション資料
わんくま東京勉強会#46 Azureセッション資料わんくま東京勉強会#46 Azureセッション資料
わんくま東京勉強会#46 Azureセッション資料
 
わんくま東京勉強会#46 Azureセッション資料
わんくま東京勉強会#46 Azureセッション資料わんくま東京勉強会#46 Azureセッション資料
わんくま東京勉強会#46 Azureセッション資料
 
電通、リクルート、サントリーショッピングクラブ、有名企業がいち早く選んだ kintone を徹底解説
電通、リクルート、サントリーショッピングクラブ、有名企業がいち早く選んだ kintone を徹底解説電通、リクルート、サントリーショッピングクラブ、有名企業がいち早く選んだ kintone を徹底解説
電通、リクルート、サントリーショッピングクラブ、有名企業がいち早く選んだ kintone を徹底解説
 
データをどこに溜めよう?ローカル?クラウド?どのデータベース?
データをどこに溜めよう?ローカル?クラウド?どのデータベース?データをどこに溜めよう?ローカル?クラウド?どのデータベース?
データをどこに溜めよう?ローカル?クラウド?どのデータベース?
 
基調講演「データのグループウェア化」
基調講演「データのグループウェア化」基調講演「データのグループウェア化」
基調講演「データのグループウェア化」
 
できる!KickstartとAnsible!
できる!KickstartとAnsible!できる!KickstartとAnsible!
できる!KickstartとAnsible!
 
Kubernetes で変わるインフラ
Kubernetes で変わるインフラKubernetes で変わるインフラ
Kubernetes で変わるインフラ
 
AITCオープンラボ 2018年5月度(4)
AITCオープンラボ 2018年5月度(4)AITCオープンラボ 2018年5月度(4)
AITCオープンラボ 2018年5月度(4)
 
Festa awsとkintoneでIoT
Festa awsとkintoneでIoTFesta awsとkintoneでIoT
Festa awsとkintoneでIoT
 

Mais de Keisuke Fukuda

Supercomputing'18 概要紹介
Supercomputing'18 概要紹介Supercomputing'18 概要紹介
Supercomputing'18 概要紹介Keisuke Fukuda
 
Clojure座談会 #1 LT 独自コレクションを定義しよう
Clojure座談会 #1 LT 独自コレクションを定義しようClojure座談会 #1 LT 独自コレクションを定義しよう
Clojure座談会 #1 LT 独自コレクションを定義しようKeisuke Fukuda
 
Effective Modern C++ 読書会 Item 35
Effective Modern C++ 読書会 Item 35Effective Modern C++ 読書会 Item 35
Effective Modern C++ 読書会 Item 35Keisuke Fukuda
 
Effective Modern C++ 勉強会 Item 22
Effective Modern C++ 勉強会 Item 22Effective Modern C++ 勉強会 Item 22
Effective Modern C++ 勉強会 Item 22Keisuke Fukuda
 
Effective modern C++ 勉強会 #3 Item 12
Effective modern C++ 勉強会 #3 Item 12Effective modern C++ 勉強会 #3 Item 12
Effective modern C++ 勉強会 #3 Item 12Keisuke Fukuda
 
Effective Modern C++勉強会#2 Item 11(,12)
Effective Modern C++勉強会#2 Item 11(,12)Effective Modern C++勉強会#2 Item 11(,12)
Effective Modern C++勉強会#2 Item 11(,12)Keisuke Fukuda
 

Mais de Keisuke Fukuda (7)

秒速ChainerMN
秒速ChainerMN秒速ChainerMN
秒速ChainerMN
 
Supercomputing'18 概要紹介
Supercomputing'18 概要紹介Supercomputing'18 概要紹介
Supercomputing'18 概要紹介
 
Clojure座談会 #1 LT 独自コレクションを定義しよう
Clojure座談会 #1 LT 独自コレクションを定義しようClojure座談会 #1 LT 独自コレクションを定義しよう
Clojure座談会 #1 LT 独自コレクションを定義しよう
 
Effective Modern C++ 読書会 Item 35
Effective Modern C++ 読書会 Item 35Effective Modern C++ 読書会 Item 35
Effective Modern C++ 読書会 Item 35
 
Effective Modern C++ 勉強会 Item 22
Effective Modern C++ 勉強会 Item 22Effective Modern C++ 勉強会 Item 22
Effective Modern C++ 勉強会 Item 22
 
Effective modern C++ 勉強会 #3 Item 12
Effective modern C++ 勉強会 #3 Item 12Effective modern C++ 勉強会 #3 Item 12
Effective modern C++ 勉強会 #3 Item 12
 
Effective Modern C++勉強会#2 Item 11(,12)
Effective Modern C++勉強会#2 Item 11(,12)Effective Modern C++勉強会#2 Item 11(,12)
Effective Modern C++勉強会#2 Item 11(,12)
 

深層学習インフラ、借りるべきか?買うべきか?

Notas do Editor

  1. 出資年:NTT(2014年)、Fanuc(2015年、2017年)、Toyota(2015年、2017年)、博報堂DYHD(2017年)、日立製作所(2017年) 、みずほ銀行(2017年) 、三井物産(2017年)