CatBoost on GPU のひみつ

CatBoost on GPU の ひみつ
2023/09/23 第1回関東Kaggler会
@tawatawara
自己紹介
SaaS企業の某某 R&D所属
◦ 社会人からMLを始める
◦ 元 JTC Kaggler
Kaggle * Master
◦ GMになりたい. . .
おことわり
知っている人にはごく当たり前の話かもしれません
◦ CatBoost ガチ勢はどうかご容赦を🙏
調査結果は網羅的でない可能性があります
◦ この先は君の眼で確かめてくれ
今からあなたはテーブルコンペに参加します
???「ここに3匹の GBMon がおるじゃろ?」
今からあなたはテーブルコンペに参加します
???「初手はどれを選ぶんじゃ?」
今からあなたはテーブルコンペに参加します
???「なるほど、LightGBMか」
👆
初手 は定番
CPUでお手軽かつ高速に学習できる
性能が他のGBMonに勝る傾向がある
◦ ただしこれはデータやタスクによる
欠点は木(森)が増えすぎたときに推論が遅いこと
参考:「初手LightGBM」をする7つの理由 by u++ さん
今からあなたはテーブルコンペに参加します
???「ではGPUが使える状況ならどうじゃ?」
今からあなたはテーブルコンペに参加します
???「ふむ、XGBoostか」
👆
GPUが使えるなら は実用に耐えうる
学習の遅さという欠点が解消される
◦ というか GPU で学習させる以外の選択肢が無い
データ次第だが性能が劣ることも(そんなに)ない
推論速度は LightGBM よりは速い(はず)
◦ 木(森)の大きさ次第だと思います
今からあなたはテーブルコンペに参加します
???「CatBoost は... CatBoost はどうなんじゃ?」
GPUを使うと は学習がかなり速い
「最高じゃん!」と思いきや...
CPUとGPUで学習の挙動が結構変化する
◦ ときには CPUでの学習より性能がかなり悪化する場合も...
◦ このせいで CatBoost を大きなデータで使うのを躊躇う人も居ると思われる
推論速度は3匹の GBMon の中で一番速い
今回のお題
CatBoost をGPUで学習するときの
性能悪化の原因を突き止めたい
結論
異なるハイパラが
暗黙的に設定される
ハイパラのページを頑張って探索すると…
ここ!
https://catboost.ai/en/docs/references/training-parameters/
勝手に異なるハイパラが設定される(!!)
Name Default Value
border_count
a.k.a. max_bin
CPU: 254
GPU in PairLogitPairwise and YetiRankPairwise modes: 32
GPU in all other modes: 128
ctr_target_border_count
Number_of_classes - 1 for Multiclassification problems when training on CPU, 1
otherwise
max_ctr_complexity
GPU for categorical features in MultiClass and MultiClassOneVsAll modes: 1
In all other cases: 4
bootstrap_type
When the objective parameter is QueryCrossEntropy, YetiRankPairwise,
and the bagging_temperature parameter is not set: Bernoulli with the subsample
set to 0.5.
Neither MultiClass nor MultiClassOneVsAll, task_type = CPU and sampling_unit =
Object: MVS with the subsample parameter set to 0.8.
Otherwise: Bayesian.
勝手に異なるハイパラが設定される(!!)
特に回帰・二値分類ではこのふたつが悪さをする
Name Default Value
border_count
a.k.a. max_bin
CPU: 254
GPU in PairLogitPairwise and YetiRankPairwise modes: 32
GPU in all other modes: 128
bootstrap_type
When the objective parameter is QueryCrossEntropy, YetiRankPairwise,
PairLogitPairwise and the bagging_temperature parameter is not set:
the subsample parameter set to 0.5.
Neither MultiClass nor MultiClassOneVsAll, task_type = CPU and
= Object: MVS with the subsample parameter set to 0.8.
Otherwise: Bayesian.
勝手に異なるハイパラが設定される(!!)
device(task_type)以外は揃えたつもりでも…
※豆知識:allow_writing_files=False にすると catboost_info が出力されなくなります
勝手に異なるハイパラが設定される(!!)
device(task_type)以外は揃えたつもりでも…実際はこうなる
※補足:これ以外にも暗黙的に設定されるハイパラが存在しますが割愛
実験 – 設定
以下の4つを比較 (5-fold CV で学習)
1. CPU使用時のデフォルトパラメータ
2. GPU使用時のデフォルトパラメータ
3. CPU使用時に bootstrap_type=Bernoulli、subsample=0.8 に
4. GPU使用時に bootstrap_type=Bernoulli、subsample=0.8、max_bin=254
に
◦ 補足
◦ bootstrap_type=Bernoulli は CPU でも GPU でも選択でき、subsample を使用できる
◦ max_depth は 6、learning_rate は 0.1 で統一する
◦ GPUでの学習は seed を固定してもぶれるため、10回行って平均を取る
◦ 関連 Issue: Random seed issue on classifier when run on GPU
実験 – データ
American Express - Default Prediction†(二値分類) のデータで検証
◦ データがログデータなので特徴量エンジニアリングが必要
◦ 今回は以下の公開 Notebook のものを拝借した
◦ Amex LGBM Dart CV 0.7963
◦ 特徴量エンジニアリング後のデータの規模
◦ Train: 458,913行、Test: 924,621行、特徴量: 1095個
†:https://www.kaggle.com/competitions/amex-default-prediction
実験 – 結果
◦ GPUのデフォルトはCPUのデフォルトに全ての数値で下回る(2 < 1)
◦ GPUのハイパラを変更したものはCPUのデフォルトに全ての数値で上回る(4 > 1)
◦ CPUのハイパラを変更したものが Public/Private が最も高い (黒太字)
ID Device ハイパラ 学習時間(sec) CV Public LB Private LB
1 CPU デフォルト 1616 0.79056 0.79361 0.80124
2 GPU デフォルト 313 0.79042 0.79327 0.80103
3 CPU 変更 1818 0.79097 0.79388 0.80172
4 GPU 変更 305 0.79114 0.79366 0.80164
暗黙的に設定されていたハイパラを変更することにより
CPU(デフォルト)と同等かそれ以上の性能をGPUで出せた
まとめ
CatBoost はGPUで超高速に学習できるが性能面に問題があった
◦ なぜか CPU と GPU で性能に差がある
◦ 一番活用できるはずの大規模データでの使用が躊躇われる
CPU と GPU で暗黙的に異なるハイパラが設定されていた
◦ 特に回帰と二値分類では max_bin と bootstrap_type が影響している
暗黙的に設定されていたハイパラを変更し過去コンペデータで検証
◦ GPU(ハイパラ変更)がCPU(デフォルト)と同等の性能になった
◦ CPU(ハイパラ変更)の性能が上がったのは予想外だったが、CPU(デフォルト)と
GPU(デフォルト)の性能差の原因を一部解明できたとは思われる
良かったね!
🎉 🎉
🎊
おまけ: 他の GBMon との比較
こいつらと比較するとどうなの?
追加実験 – 設定
以下の6つを比較 (5-fold CV で学習)
1. CatBoost(CPU), bootstrap_type=Bernoulli、subsample=0.8
2. CatBoost(GPU), bootstrap_type=Bernoulli、subsample=0.8、max_bin=254
3. XGBoost(CPU), subsample=0.8
4. XGBoost(GPU), subsample=0.8
5. LightGBM(CPU), subsample=0.8
6. LightGBM(GPU(CUDA)), subsample=0.8
◦ 補足:max_depth は 6、learning_rate は 0.1、CPUスレッド数は 8、で統一する
追加実験 – 性能比較
◦ 今回の設定では CatBoost が一番性能が良い(ハイパラ tuning で変わるかも…)
◦ Amex が制約の強いモデルの方が有効なコンペだったのかもしれない
◦ XGBoost は CPU と GPU であまり性能が変わらないように見える
◦ LightGBM(CUDA) の性能が妙に低いが原因は不明
ID Model Device CV Public LB Private LB
1 CB CPU 0.79097 0.79388 0.80172
2 CB GPU 0.79114 0.79366 0.80164
3 XGB CPU 0.78799 0.79143 0.79944
4 XGB GPU 0.78807 0.79097 0.79974
5 LGB CPU 0.78822 0.79061 0.79948
6 LGB GPU(CUDA) 0.77396 0.77596 0.78441
追加実験 – 学習・推論速度比較
◦ 今まで比較したことが無かったが、学習速度(CPU)は LGB > CB >> XGB
◦ 学習速度(GPU)は CB > XGB > LGB
◦ 推論速度(CPU)は CB > XGB > LGB
ID Model Device 合計
iteration
学習時間
(sec)
学習時間/iter
(ms/it)
推論時間
(sec)
推論時間/iter
(ms/it)
1 CB CPU 5309 1818.29 342.50 10.70 2.02
2 CB GPU 5038 305.06 60.55 11.10 2.20
3 XGB CPU 1870 21738.02 11624.61 14.29 7.64
4 XGB GPU 1714 139.88 81.61 17.45 10.18
5 LGB CPU 1867 401.55 215.08 40.50 21.69
6 LGB GPU(CUDA) 755 155.16 205.52 34.00 45.03
※特に推論速度についてはそのときのCPUの調子にもよるかも
追加実験 – まとめ
性能についてはデータにも tuning にもよるので一概には言えない
◦ ただ LightGBM(CUDA) についてだけは何かおかしい気がする
◦ CPU に比べてやたらと早く early stopping がかかっていた
◦ Build をミスったのか、それとも CatBoost 同様に”ひみつ”があるのか...
学習速度について
◦ CatBoost(CPU)が遅いと言われがちだが実はXGBoost(CPU)の方がめちゃくちゃ遅い
◦ ただし Categorical Feature が沢山あったりすると話は変わるかも
◦ GPUについては CatBoost > XGBoost、LightGBM は CPU とほぼ一緒
推論速度について
◦ CatBoost が圧倒的に速い
◦ Iteration 数が少ないので目立っていないが LightGBM はやはり遅い
おしまい
???「みんなも GBMon、ゲットじゃぞ!」
1 de 30

Recomendados

学習時に使ってはいないデータの混入「リーケージを避ける」 por
学習時に使ってはいないデータの混入「リーケージを避ける」学習時に使ってはいないデータの混入「リーケージを避ける」
学習時に使ってはいないデータの混入「リーケージを避ける」西岡 賢一郎
1.9K visualizações17 slides
近年のHierarchical Vision Transformer por
近年のHierarchical Vision Transformer近年のHierarchical Vision Transformer
近年のHierarchical Vision TransformerYusuke Uchida
13.9K visualizações46 slides
グラフニューラルネットワーク入門 por
グラフニューラルネットワーク入門グラフニューラルネットワーク入門
グラフニューラルネットワーク入門ryosuke-kojima
51.5K visualizações65 slides
数学で解き明かす深層学習の原理 por
数学で解き明かす深層学習の原理数学で解き明かす深層学習の原理
数学で解き明かす深層学習の原理Taiji Suzuki
3.8K visualizações42 slides
機械学習のためのベイズ最適化入門 por
機械学習のためのベイズ最適化入門機械学習のためのベイズ最適化入門
機械学習のためのベイズ最適化入門hoxo_m
185.7K visualizações67 slides
モデル高速化百選 por
モデル高速化百選モデル高速化百選
モデル高速化百選Yusuke Uchida
24.8K visualizações64 slides

Mais conteúdo relacionado

Mais procurados

[DL輪読会]Revisiting Deep Learning Models for Tabular Data (NeurIPS 2021) 表形式デー... por
[DL輪読会]Revisiting Deep Learning Models for Tabular Data  (NeurIPS 2021) 表形式デー...[DL輪読会]Revisiting Deep Learning Models for Tabular Data  (NeurIPS 2021) 表形式デー...
[DL輪読会]Revisiting Deep Learning Models for Tabular Data (NeurIPS 2021) 表形式デー...Deep Learning JP
2.5K visualizações29 slides
BlackBox モデルの説明性・解釈性技術の実装 por
BlackBox モデルの説明性・解釈性技術の実装BlackBox モデルの説明性・解釈性技術の実装
BlackBox モデルの説明性・解釈性技術の実装Deep Learning Lab(ディープラーニング・ラボ)
22.5K visualizações96 slides
明治大学講演資料「機械学習と自動ハイパーパラメタ最適化」 佐野正太郎 por
明治大学講演資料「機械学習と自動ハイパーパラメタ最適化」  佐野正太郎明治大学講演資料「機械学習と自動ハイパーパラメタ最適化」  佐野正太郎
明治大学講演資料「機械学習と自動ハイパーパラメタ最適化」 佐野正太郎Preferred Networks
14.8K visualizações80 slides
ゼロから始める深層強化学習(NLP2018講演資料)/ Introduction of Deep Reinforcement Learning por
ゼロから始める深層強化学習(NLP2018講演資料)/ Introduction of Deep Reinforcement Learningゼロから始める深層強化学習(NLP2018講演資料)/ Introduction of Deep Reinforcement Learning
ゼロから始める深層強化学習(NLP2018講演資料)/ Introduction of Deep Reinforcement LearningPreferred Networks
117.4K visualizações93 slides
DQNからRainbowまで 〜深層強化学習の最新動向〜 por
DQNからRainbowまで 〜深層強化学習の最新動向〜DQNからRainbowまで 〜深層強化学習の最新動向〜
DQNからRainbowまで 〜深層強化学習の最新動向〜Jun Okumura
87.1K visualizações94 slides
失敗から学ぶ機械学習応用 por
失敗から学ぶ機械学習応用失敗から学ぶ機械学習応用
失敗から学ぶ機械学習応用Hiroyuki Masuda
51.4K visualizações90 slides

Mais procurados(20)

[DL輪読会]Revisiting Deep Learning Models for Tabular Data (NeurIPS 2021) 表形式デー... por Deep Learning JP
[DL輪読会]Revisiting Deep Learning Models for Tabular Data  (NeurIPS 2021) 表形式デー...[DL輪読会]Revisiting Deep Learning Models for Tabular Data  (NeurIPS 2021) 表形式デー...
[DL輪読会]Revisiting Deep Learning Models for Tabular Data (NeurIPS 2021) 表形式デー...
Deep Learning JP2.5K visualizações
明治大学講演資料「機械学習と自動ハイパーパラメタ最適化」 佐野正太郎 por Preferred Networks
明治大学講演資料「機械学習と自動ハイパーパラメタ最適化」  佐野正太郎明治大学講演資料「機械学習と自動ハイパーパラメタ最適化」  佐野正太郎
明治大学講演資料「機械学習と自動ハイパーパラメタ最適化」 佐野正太郎
Preferred Networks14.8K visualizações
ゼロから始める深層強化学習(NLP2018講演資料)/ Introduction of Deep Reinforcement Learning por Preferred Networks
ゼロから始める深層強化学習(NLP2018講演資料)/ Introduction of Deep Reinforcement Learningゼロから始める深層強化学習(NLP2018講演資料)/ Introduction of Deep Reinforcement Learning
ゼロから始める深層強化学習(NLP2018講演資料)/ Introduction of Deep Reinforcement Learning
Preferred Networks117.4K visualizações
DQNからRainbowまで 〜深層強化学習の最新動向〜 por Jun Okumura
DQNからRainbowまで 〜深層強化学習の最新動向〜DQNからRainbowまで 〜深層強化学習の最新動向〜
DQNからRainbowまで 〜深層強化学習の最新動向〜
Jun Okumura87.1K visualizações
失敗から学ぶ機械学習応用 por Hiroyuki Masuda
失敗から学ぶ機械学習応用失敗から学ぶ機械学習応用
失敗から学ぶ機械学習応用
Hiroyuki Masuda51.4K visualizações
みんなが知らない pytorch-pfn-extras por Takuji Tahara
みんなが知らない pytorch-pfn-extrasみんなが知らない pytorch-pfn-extras
みんなが知らない pytorch-pfn-extras
Takuji Tahara2.6K visualizações
SSII2020SS: 微分可能レンダリングの最新動向 〜「見比べる」ことによる3次元理解 〜​ por SSII
SSII2020SS:  微分可能レンダリングの最新動向 〜「見比べる」ことによる3次元理解 〜​SSII2020SS:  微分可能レンダリングの最新動向 〜「見比べる」ことによる3次元理解 〜​
SSII2020SS: 微分可能レンダリングの最新動向 〜「見比べる」ことによる3次元理解 〜​
SSII6.2K visualizações
時系列予測にTransformerを使うのは有効か? por Fumihiko Takahashi
時系列予測にTransformerを使うのは有効か?時系列予測にTransformerを使うのは有効か?
時系列予測にTransformerを使うのは有効か?
Fumihiko Takahashi7K visualizações
SSII2021 [TS2] 深層強化学習 〜 強化学習の基礎から応用まで 〜 por SSII
SSII2021 [TS2] 深層強化学習 〜 強化学習の基礎から応用まで 〜SSII2021 [TS2] 深層強化学習 〜 強化学習の基礎から応用まで 〜
SSII2021 [TS2] 深層強化学習 〜 強化学習の基礎から応用まで 〜
SSII3.7K visualizações
[DL輪読会]Dense Captioning分野のまとめ por Deep Learning JP
[DL輪読会]Dense Captioning分野のまとめ[DL輪読会]Dense Captioning分野のまとめ
[DL輪読会]Dense Captioning分野のまとめ
Deep Learning JP2K visualizações
実践多クラス分類 Kaggle Ottoから学んだこと por nishio
実践多クラス分類 Kaggle Ottoから学んだこと実践多クラス分類 Kaggle Ottoから学んだこと
実践多クラス分類 Kaggle Ottoから学んだこと
nishio38.7K visualizações
機械学習モデルの判断根拠の説明(Ver.2) por Satoshi Hara
機械学習モデルの判断根拠の説明(Ver.2)機械学習モデルの判断根拠の説明(Ver.2)
機械学習モデルの判断根拠の説明(Ver.2)
Satoshi Hara47.9K visualizações
ブラックボックスからXAI (説明可能なAI) へ - LIME (Local Interpretable Model-agnostic Explanat... por 西岡 賢一郎
ブラックボックスからXAI (説明可能なAI) へ - LIME (Local Interpretable Model-agnostic Explanat...ブラックボックスからXAI (説明可能なAI) へ - LIME (Local Interpretable Model-agnostic Explanat...
ブラックボックスからXAI (説明可能なAI) へ - LIME (Local Interpretable Model-agnostic Explanat...
西岡 賢一郎1.9K visualizações
Noisy Labels と戦う深層学習 por Plot Hong
Noisy Labels と戦う深層学習Noisy Labels と戦う深層学習
Noisy Labels と戦う深層学習
Plot Hong622 visualizações
[DL輪読会]ICLR2020の分布外検知速報 por Deep Learning JP
[DL輪読会]ICLR2020の分布外検知速報[DL輪読会]ICLR2020の分布外検知速報
[DL輪読会]ICLR2020の分布外検知速報
Deep Learning JP5.4K visualizações
強化学習アルゴリズムPPOの解説と実験 por 克海 納谷
強化学習アルゴリズムPPOの解説と実験強化学習アルゴリズムPPOの解説と実験
強化学習アルゴリズムPPOの解説と実験
克海 納谷2.8K visualizações
最近のKaggleに学ぶテーブルデータの特徴量エンジニアリング por mlm_kansai
最近のKaggleに学ぶテーブルデータの特徴量エンジニアリング最近のKaggleに学ぶテーブルデータの特徴量エンジニアリング
最近のKaggleに学ぶテーブルデータの特徴量エンジニアリング
mlm_kansai67.6K visualizações
強化学習の基礎と深層強化学習(東京大学 松尾研究室 深層強化学習サマースクール講義資料) por Shota Imai
強化学習の基礎と深層強化学習(東京大学 松尾研究室 深層強化学習サマースクール講義資料)強化学習の基礎と深層強化学習(東京大学 松尾研究室 深層強化学習サマースクール講義資料)
強化学習の基礎と深層強化学習(東京大学 松尾研究室 深層強化学習サマースクール講義資料)
Shota Imai274.8K visualizações

Similar a CatBoost on GPU のひみつ

【旧版】2009/12/10 GPUコンピューティングの現状とスーパーコンピューティングの未来 por
【旧版】2009/12/10 GPUコンピューティングの現状とスーパーコンピューティングの未来【旧版】2009/12/10 GPUコンピューティングの現状とスーパーコンピューティングの未来
【旧版】2009/12/10 GPUコンピューティングの現状とスーパーコンピューティングの未来Preferred Networks
1.7K visualizações111 slides
2009/12/10 GPUコンピューティングの現状とスーパーコンピューティングの未来 por
2009/12/10 GPUコンピューティングの現状とスーパーコンピューティングの未来2009/12/10 GPUコンピューティングの現状とスーパーコンピューティングの未来
2009/12/10 GPUコンピューティングの現状とスーパーコンピューティングの未来Preferred Networks
16.7K visualizações115 slides
【とらのあなラボ Tech Day #3】新規システムにおける技術選定〜GoとgRPCを採用した話〜 por
【とらのあなラボ Tech Day #3】新規システムにおける技術選定〜GoとgRPCを採用した話〜	【とらのあなラボ Tech Day #3】新規システムにおける技術選定〜GoとgRPCを採用した話〜
【とらのあなラボ Tech Day #3】新規システムにおける技術選定〜GoとgRPCを採用した話〜 虎の穴 開発室
1.1K visualizações30 slides
Slurmのジョブスケジューリングと実装 por
Slurmのジョブスケジューリングと実装Slurmのジョブスケジューリングと実装
Slurmのジョブスケジューリングと実装Ryuichi Sakamoto
1.9K visualizações34 slides
Isca13 study por
Isca13 studyIsca13 study
Isca13 studyToshiya Komoda
1.6K visualizações20 slides
04 これが(多分)最後! ベンチマークs por
04 これが(多分)最後! ベンチマークs04 これが(多分)最後! ベンチマークs
04 これが(多分)最後! ベンチマークsMonta Yashi
520 visualizações27 slides

Similar a CatBoost on GPU のひみつ(20)

【旧版】2009/12/10 GPUコンピューティングの現状とスーパーコンピューティングの未来 por Preferred Networks
【旧版】2009/12/10 GPUコンピューティングの現状とスーパーコンピューティングの未来【旧版】2009/12/10 GPUコンピューティングの現状とスーパーコンピューティングの未来
【旧版】2009/12/10 GPUコンピューティングの現状とスーパーコンピューティングの未来
Preferred Networks1.7K visualizações
2009/12/10 GPUコンピューティングの現状とスーパーコンピューティングの未来 por Preferred Networks
2009/12/10 GPUコンピューティングの現状とスーパーコンピューティングの未来2009/12/10 GPUコンピューティングの現状とスーパーコンピューティングの未来
2009/12/10 GPUコンピューティングの現状とスーパーコンピューティングの未来
Preferred Networks16.7K visualizações
【とらのあなラボ Tech Day #3】新規システムにおける技術選定〜GoとgRPCを採用した話〜 por 虎の穴 開発室
【とらのあなラボ Tech Day #3】新規システムにおける技術選定〜GoとgRPCを採用した話〜	【とらのあなラボ Tech Day #3】新規システムにおける技術選定〜GoとgRPCを採用した話〜
【とらのあなラボ Tech Day #3】新規システムにおける技術選定〜GoとgRPCを採用した話〜
虎の穴 開発室1.1K visualizações
Slurmのジョブスケジューリングと実装 por Ryuichi Sakamoto
Slurmのジョブスケジューリングと実装Slurmのジョブスケジューリングと実装
Slurmのジョブスケジューリングと実装
Ryuichi Sakamoto1.9K visualizações
Isca13 study por Toshiya Komoda
Isca13 studyIsca13 study
Isca13 study
Toshiya Komoda1.6K visualizações
04 これが(多分)最後! ベンチマークs por Monta Yashi
04 これが(多分)最後! ベンチマークs04 これが(多分)最後! ベンチマークs
04 これが(多分)最後! ベンチマークs
Monta Yashi520 visualizações
AWS Step FunctionとLambdaでディープラーニングの訓練を全自動化する por mizugokoro
AWS Step FunctionとLambdaでディープラーニングの訓練を全自動化するAWS Step FunctionとLambdaでディープラーニングの訓練を全自動化する
AWS Step FunctionとLambdaでディープラーニングの訓練を全自動化する
mizugokoro29.4K visualizações
続・PFN のオンプレML基盤の取り組み / オンプレML基盤 on Kubernetes 〜PFN、ヤフー〜 #2 por Preferred Networks
続・PFN のオンプレML基盤の取り組み / オンプレML基盤 on Kubernetes 〜PFN、ヤフー〜 #2続・PFN のオンプレML基盤の取り組み / オンプレML基盤 on Kubernetes 〜PFN、ヤフー〜 #2
続・PFN のオンプレML基盤の取り組み / オンプレML基盤 on Kubernetes 〜PFN、ヤフー〜 #2
Preferred Networks1.5K visualizações
[DL Hacks]FPGA入門 por Deep Learning JP
[DL Hacks]FPGA入門[DL Hacks]FPGA入門
[DL Hacks]FPGA入門
Deep Learning JP3K visualizações
grn_ts の紹介 - Groonga Meatup 2015 por s5yata
grn_ts の紹介 - Groonga Meatup 2015grn_ts の紹介 - Groonga Meatup 2015
grn_ts の紹介 - Groonga Meatup 2015
s5yata1.6K visualizações
20221116_DBTS_PGStrom_History por Kohei KaiGai
20221116_DBTS_PGStrom_History20221116_DBTS_PGStrom_History
20221116_DBTS_PGStrom_History
Kohei KaiGai125 visualizações
20130126 sc12-reading por Toshiya Komoda
20130126 sc12-reading20130126 sc12-reading
20130126 sc12-reading
Toshiya Komoda649 visualizações
Routerboard勉強会 tips por kometch H
Routerboard勉強会 tipsRouterboard勉強会 tips
Routerboard勉強会 tips
kometch H4.7K visualizações
「Windows Azure でスーパーコンピューティング!」for Microsoft MVP camp 2014 大阪会場 por 幸智 Yukinori 黒田 Kuroda
「Windows Azure でスーパーコンピューティング!」for Microsoft MVP camp 2014 大阪会場「Windows Azure でスーパーコンピューティング!」for Microsoft MVP camp 2014 大阪会場
「Windows Azure でスーパーコンピューティング!」for Microsoft MVP camp 2014 大阪会場
幸智 Yukinori 黒田 Kuroda1.2K visualizações
2015年度GPGPU実践基礎工学 第14回 GPGPU組込開発環境 por 智啓 出川
2015年度GPGPU実践基礎工学 第14回 GPGPU組込開発環境2015年度GPGPU実践基礎工学 第14回 GPGPU組込開発環境
2015年度GPGPU実践基礎工学 第14回 GPGPU組込開発環境
智啓 出川2.3K visualizações
AWSとGPUインスタンスのご紹介 por Yasuhiro Matsuo
AWSとGPUインスタンスのご紹介AWSとGPUインスタンスのご紹介
AWSとGPUインスタンスのご紹介
Yasuhiro Matsuo2.8K visualizações
俺的 Ignite update 萌えポイント portal&arm, compute, network - por Yui Ashikaga
俺的 Ignite update 萌えポイント   portal&arm, compute, network -俺的 Ignite update 萌えポイント   portal&arm, compute, network -
俺的 Ignite update 萌えポイント portal&arm, compute, network -
Yui Ashikaga1K visualizações
20170310_InDatabaseAnalytics_#1 por Kohei KaiGai
20170310_InDatabaseAnalytics_#120170310_InDatabaseAnalytics_#1
20170310_InDatabaseAnalytics_#1
Kohei KaiGai6.7K visualizações
1070: CUDA プログラミング入門 por NVIDIA Japan
1070: CUDA プログラミング入門1070: CUDA プログラミング入門
1070: CUDA プログラミング入門
NVIDIA Japan7.6K visualizações

Último

今、改めて考えるPostgreSQLプラットフォーム - マルチクラウドとポータビリティ -(PostgreSQL Conference Japan 20... por
今、改めて考えるPostgreSQLプラットフォーム - マルチクラウドとポータビリティ -(PostgreSQL Conference Japan 20...今、改めて考えるPostgreSQLプラットフォーム - マルチクラウドとポータビリティ -(PostgreSQL Conference Japan 20...
今、改めて考えるPostgreSQLプラットフォーム - マルチクラウドとポータビリティ -(PostgreSQL Conference Japan 20...NTT DATA Technology & Innovation
158 visualizações42 slides
定例会スライド_キャチs 公開用.pdf por
定例会スライド_キャチs 公開用.pdf定例会スライド_キャチs 公開用.pdf
定例会スライド_キャチs 公開用.pdfKeio Robotics Association
135 visualizações64 slides
SSH応用編_20231129.pdf por
SSH応用編_20231129.pdfSSH応用編_20231129.pdf
SSH応用編_20231129.pdficebreaker4
405 visualizações13 slides
SNMPセキュリティ超入門 por
SNMPセキュリティ超入門SNMPセキュリティ超入門
SNMPセキュリティ超入門mkoda
479 visualizações15 slides
速習! PostgreSQL専用HAソフトウェア: Patroni(PostgreSQL Conference Japan 2023 発表資料) por
速習! PostgreSQL専用HAソフトウェア: Patroni(PostgreSQL Conference Japan 2023 発表資料)速習! PostgreSQL専用HAソフトウェア: Patroni(PostgreSQL Conference Japan 2023 発表資料)
速習! PostgreSQL専用HAソフトウェア: Patroni(PostgreSQL Conference Japan 2023 発表資料)NTT DATA Technology & Innovation
32 visualizações38 slides
The Things Stack説明資料 by The Things Industries por
The Things Stack説明資料 by The Things IndustriesThe Things Stack説明資料 by The Things Industries
The Things Stack説明資料 by The Things IndustriesCRI Japan, Inc.
78 visualizações29 slides

Último(12)

今、改めて考えるPostgreSQLプラットフォーム - マルチクラウドとポータビリティ -(PostgreSQL Conference Japan 20... por NTT DATA Technology & Innovation
今、改めて考えるPostgreSQLプラットフォーム - マルチクラウドとポータビリティ -(PostgreSQL Conference Japan 20...今、改めて考えるPostgreSQLプラットフォーム - マルチクラウドとポータビリティ -(PostgreSQL Conference Japan 20...
今、改めて考えるPostgreSQLプラットフォーム - マルチクラウドとポータビリティ -(PostgreSQL Conference Japan 20...
NTT DATA Technology & Innovation158 visualizações
定例会スライド_キャチs 公開用.pdf por Keio Robotics Association
定例会スライド_キャチs 公開用.pdf定例会スライド_キャチs 公開用.pdf
定例会スライド_キャチs 公開用.pdf
Keio Robotics Association135 visualizações
SSH応用編_20231129.pdf por icebreaker4
SSH応用編_20231129.pdfSSH応用編_20231129.pdf
SSH応用編_20231129.pdf
icebreaker4405 visualizações
SNMPセキュリティ超入門 por mkoda
SNMPセキュリティ超入門SNMPセキュリティ超入門
SNMPセキュリティ超入門
mkoda479 visualizações
速習! PostgreSQL専用HAソフトウェア: Patroni(PostgreSQL Conference Japan 2023 発表資料) por NTT DATA Technology & Innovation
速習! PostgreSQL専用HAソフトウェア: Patroni(PostgreSQL Conference Japan 2023 発表資料)速習! PostgreSQL専用HAソフトウェア: Patroni(PostgreSQL Conference Japan 2023 発表資料)
速習! PostgreSQL専用HAソフトウェア: Patroni(PostgreSQL Conference Japan 2023 発表資料)
The Things Stack説明資料 by The Things Industries por CRI Japan, Inc.
The Things Stack説明資料 by The Things IndustriesThe Things Stack説明資料 by The Things Industries
The Things Stack説明資料 by The Things Industries
CRI Japan, Inc.78 visualizações
PCCC23:富士通株式会社 テーマ1「次世代高性能・省電力プロセッサ『FUJITSU-MONAKA』」 por PC Cluster Consortium
PCCC23:富士通株式会社 テーマ1「次世代高性能・省電力プロセッサ『FUJITSU-MONAKA』」PCCC23:富士通株式会社 テーマ1「次世代高性能・省電力プロセッサ『FUJITSU-MONAKA』」
PCCC23:富士通株式会社 テーマ1「次世代高性能・省電力プロセッサ『FUJITSU-MONAKA』」
PC Cluster Consortium66 visualizações
Windows 11 information that can be used at the development site por Atomu Hidaka
Windows 11 information that can be used at the development siteWindows 11 information that can be used at the development site
Windows 11 information that can be used at the development site
Atomu Hidaka90 visualizações
光コラボは契約してはいけない por Takuya Matsunaga
光コラボは契約してはいけない光コラボは契約してはいけない
光コラボは契約してはいけない
Takuya Matsunaga27 visualizações
PCCC23:東京大学情報基盤センター 「Society5.0の実現を目指す『計算・データ・学習』の融合による革新的スーパーコンピューティング」 por PC Cluster Consortium
PCCC23:東京大学情報基盤センター 「Society5.0の実現を目指す『計算・データ・学習』の融合による革新的スーパーコンピューティング」PCCC23:東京大学情報基盤センター 「Society5.0の実現を目指す『計算・データ・学習』の融合による革新的スーパーコンピューティング」
PCCC23:東京大学情報基盤センター 「Society5.0の実現を目指す『計算・データ・学習』の融合による革新的スーパーコンピューティング」
PC Cluster Consortium27 visualizações
Keycloakの全体像: 基本概念、ユースケース、そして最新の開発動向 por Hitachi, Ltd. OSS Solution Center.
Keycloakの全体像: 基本概念、ユースケース、そして最新の開発動向Keycloakの全体像: 基本概念、ユースケース、そして最新の開発動向
Keycloakの全体像: 基本概念、ユースケース、そして最新の開発動向

CatBoost on GPU のひみつ