SlideShare a Scribd company logo
1 of 23
Download to read offline
Kaggle Happywhaleコンペ
優勝解法でのOptuna使用事例
2022/12/10 Optuna Meetup #2
Kenshin Abe (@knshnb)
2
● -2021 東京大学コンピュータサイエンス修士課程
○ 深層学習の研究
○ 競技プログラミング(ICPC, AtCoder, Codeforces, etc.)
● 2021- Preferred Networks エンジニア
○ 半導体・リテール関連のプロジェクト
○ 2022/04- Optuna開発にも携わる
■ TPEの制約付き最適化・CMA-ES with Marginなど
● 2022年のHappywhaleコンペでKaggleを始める
Kenshin Abe / @knshnb
3
● Optunaを使ってKaggleコンペで優勝しました!!
導入
Our team!
(1st / 1588 teams)
https://www.kaggle.com/competitions/happy-whale-and-dolphin/leaderboard
4
● コンペの概要・解法
● Optuna部分の詳細
● 開発者側に回って得た知見
○ コンペで使えばよかった機能
○ 他にKaggleで使えそうな機能
● 終わりに
目次
5
コンペの概要・解法
6
● タスク概要
○ 様々な種類のクジラやイルカの画像から
個体を識別
● 目的
○ 専門家が時間をかけて行っていた個体
識別の自動化により、海洋研究の効率
化・環境保全への貢献
○ 実際にコンペ終了後にホストとシステム
導入に向けてのディスカッション
コンペのタスク
https://www.kaggle.com/competitions/happy-whale-and-dolphin/data
7
● 多クラス(約15,000)
● 不均衡(1サンプルのクラスもたくさん)
● 訓練データに含まれない未知個体を識別する必要性
(”new_individual”と出力)
難しい点
8
● SoftmaxにMarginを持たせクラス内分散を抑える手法
● ここ数年、様々なKaggleコンペで高い性能
○ 1st place solution of “Human Protein Atlas Image Classification” by
bestfitting, 2019/01
○ 1st place solution of “Google Landmark Recognition” by Dieter, 2021/10
○ 3rd place solution of “Foursquare - Location Matching” by Psi, 2022/07
○ 1st place solution of “Google Universal Image Embedding” by Shihao
Shao, 2022/10
● 一方、性能がマージン・温度の2つのハイパーパラメータに
対してかなり敏感
○ 不均衡データに対応するためのDynamic Marginとい
う手法を採用すると、更にハイパラが増えて調整が大
変に
ベースライン: ArcFace [Deng+, CVPR 2018]
https://arxiv.org/pdf/1801.07698.pdf
9
● 本体Crop + Sub-center ArcFace + Dynamic Margin + k-NN
● ポイント
○ ArcFaceのハイパーパラメータをOptunaにより調整
○ 複数種類のBounding boxを混ぜることによるData augmentation
○ k-NNとlogitを組み合わせたPostprocess
○ 疑似ラベル・アンサンブル
○ その他大量の試行錯誤によるアーキテクチャ・パイプラインの改善
● 詳細
○ Kaggle Discussionへの投稿: https://www.kaggle.com/competitions/happy-whale-and-dolphin/discussion/320192
○ https://github.com/knshnb/kaggle-happywhale-1st-place
○ https://github.com/tyamaguchi17/kaggle-happywhale-1st-place-solution-charmq
1st Place Solution サマリー
10
● ハイパラ最適化自体が大きな差別化要因になることは少なそう
○ データ・もっと大きな粒度のモデリング・学習手法などの改善の方が重要
なことが多い
● (探索結果を見てしまった以上、効果を定量的に測るのも難しい)
● 手間削減により、限られた時間の中で上の重要な部分の試行錯誤に集中で
きたのが大きかった
ハイパラ最適化がどのくらい優勝に貢献したか
ChatGPTによる回答 (https://chat.openai.com/chat)
11
Optuna部分の詳細
12
ソースコード: https://github.com/knshnb/kaggle-happywhale-1st-place/blob/master/src/tune.py
● PyTorch Lightning Integration
● 目的関数の軽量化
● RDBStorageを用いた分散最適化
● Optuna Dashboardを用いた可視化
● その他tips・注意点
Optuna部分の詳細
13
● もともとPyTorch Lightningで実装していたので簡単に組み込めた
● 中間値を自動でreportしてくれるので、学習曲線の可視化が可能に
● PrunerはデフォルトのMedianPrunerよりNopPrunerの方が性能が良かった
(MedianPrunerのパラメータ調整の余地あり)
PyTorch Lightning Integration
import optuna
from optuna.integration import PyTorchLightningPruningCallback
def train(..., cfg: Config, trial: Optional[optuna.Trial] = None) -> float:
...
if trial is not None:
callbacks.append(PyTorchLightningPruningCallback(trial, "val/map5"))
...
return trainer.callback_metrics["val/map5"].item()
base_cfg = load_config(...)
def objective(trial: optuna.Trial) -> float:
cfg = copy.deepcopy(base_cfg)
cfg["s"] = trial.suggest_float("s", 10.0, 80.0)
cfg["margin_power"] = trial.suggest_float("margin_power", -0.8, -0.05)
...
return train(..., cfg, trial=trial)
def train(..., cfg: Config):
...
cfg = load_config(...)
train(..., cfg)
14
● 実際の学習はV100 (32GB)を2-4個使って半日程度かかる
● V100 (16GB) 1つで1時間程度で終わるような軽量な目的関数を設定
○ モデルサイズ縮小(efficientnet_b5,6,7 → efficientnet_b1)
○ 画像サイズ縮小(768-1024 → 256)
○ 本体をcropしてresize後のデータをPFIOをつかってキャッシュし、データの
読み込みを高速化
● 100回程度の評価が現実的に
● 得られたパラメータは大きいモデル・画像サイズやパイプライン改善後もうまく
動いたので最後までその値を使用
○ ある程度良いパラメータを求めるのには十分だった
○ 転移学習で調整し直すともっと性能が上がったかも(後述)
目的関数の軽量化
15
● 分散最適化、プログラムの中断・再開が可能に
● Heartbeat機能によりFailしたtrialを検知可能
● RetryFailedTrialCallback.retried_trial_numberでpreemption対応も可能
RDBStorageを用いた分散最適化
storage = optuna.storages.RDBStorage(
url=rdb_url,
heartbeat_interval=60,
grace_period=120,
failed_trial_callback=optuna.storages.RetryFailedTrialCallback(),
)
study = optuna.create_study(storage=storage, ...)
16
● https://github.com/optuna/optuna-dashboard
● webインターフェースなので気軽に使用可能
● 使い方などはc-bataさんの発表参照
● ex. 学習曲線を見て枝刈りが有効かどうか判断
● ex. Importanceが特定のパラメータに偏りすぎて
いると最適化がうまくいきにくい(経験則)ので、
Sliceを見て範囲を狭めるなどして調整
Optuna Dashboardを用いた可視化
17
● PyTorch Lightning Integrationは、現在(v3.0.4)最新版のPyTorch Lightningに
対応していないので1.5.*以前のものを使用
○ 近々対応の予定(PR)
● study.enqueue_trialでデフォルトのパラメータなどを指定できる
● Samplerは以下の理由からTPEを採用
○ カテゴリカル変数にも対応
○ enqueue_trialの結果がその後の探索に使われる
○ cf. Sampler比較表: https://optuna.readthedocs.io/en/stable/reference/samplers/index.html
その他tips・注意点
18
開発者側に回って得た知見
19
● TPEの引数の設定
○ multivariate: 変数間の相関を考慮
○ constant_liar: 並列最適化向けオプション
■ v3.1の修正で性能が向上
○ group: dynamic search spaceでグループごとに変数間の相関を考慮
● Warm Starting CMA-ES(スライド)
○ 似たようなタスクでの評価結果を転用する手法
■ ex. NNの訓練などの重いタスクでデータ数・モデルサイズなどを減ら
した結果を流用
■ ex. 設定を微妙に変えて最適化の試行錯誤を何度もする場合
コンペで使えばよかった機能
20
● LightGBMTuner(ブログ記事)
○ Kaggle Grandmaster(smlyさん)の知見が詰め込まれた、LightGBM専用
のハイパラ最適化ツール
● Dynamic Search Space
○ 探索範囲の変更はかなり自由にできる
○ パラメータの追加・削除・範囲の変更・if文による分岐
○ categoricalのchoicesのみ変更不可
その他Kaggleで使えそうな機能1
21
● [0, 1]の範囲の重み調整
○ アンサンブルの重み調整などに
● Pruning
○ 性能が悪化するケースもあるので注意して使う必要あり(v3でのベンチ
マーク結果)
● CMA-ES with Margin (~v3.1)
○ 離散的な探索空間(intなど)で局所解にハマりにくく
● JournalStorage (~v3.1)
○ SQLサーバーを建てられない環境・面倒な場合
● BruteForceSampler (~v3.1)
○ 同じインターフェースで全探索
その他Kaggleで使えそうな機能2
22
● Kaggleだとハイパーパラメータ調整自体が性能の大きな差別化要因になるこ
とは少ないが、作業の手間削減にOptunaは有用
● Kaggler目線の機能リクエストなども常に募集してます!
終わりに
Making the real world computable

More Related Content

What's hot

強化学習の基礎と深層強化学習(東京大学 松尾研究室 深層強化学習サマースクール講義資料)
強化学習の基礎と深層強化学習(東京大学 松尾研究室 深層強化学習サマースクール講義資料)強化学習の基礎と深層強化学習(東京大学 松尾研究室 深層強化学習サマースクール講義資料)
強化学習の基礎と深層強化学習(東京大学 松尾研究室 深層強化学習サマースクール講義資料)
Shota Imai
 

What's hot (20)

勾配ブースティングの基礎と最新の動向 (MIRU2020 Tutorial)
勾配ブースティングの基礎と最新の動向 (MIRU2020 Tutorial)勾配ブースティングの基礎と最新の動向 (MIRU2020 Tutorial)
勾配ブースティングの基礎と最新の動向 (MIRU2020 Tutorial)
 
backbone としての timm 入門
backbone としての timm 入門backbone としての timm 入門
backbone としての timm 入門
 
全力解説!Transformer
全力解説!Transformer全力解説!Transformer
全力解説!Transformer
 
最新リリース:Optuna V3の全て - 2022/12/10 Optuna Meetup #2
最新リリース:Optuna V3の全て - 2022/12/10 Optuna Meetup #2最新リリース:Optuna V3の全て - 2022/12/10 Optuna Meetup #2
最新リリース:Optuna V3の全て - 2022/12/10 Optuna Meetup #2
 
強化学習における好奇心
強化学習における好奇心強化学習における好奇心
強化学習における好奇心
 
[DL輪読会]Decision Transformer: Reinforcement Learning via Sequence Modeling
[DL輪読会]Decision Transformer: Reinforcement Learning via Sequence Modeling[DL輪読会]Decision Transformer: Reinforcement Learning via Sequence Modeling
[DL輪読会]Decision Transformer: Reinforcement Learning via Sequence Modeling
 
[DL輪読会] マルチエージェント強化学習と心の理論
[DL輪読会] マルチエージェント強化学習と心の理論[DL輪読会] マルチエージェント強化学習と心の理論
[DL輪読会] マルチエージェント強化学習と心の理論
 
[DL輪読会]Grokking: Generalization Beyond Overfitting on Small Algorithmic Datasets
[DL輪読会]Grokking: Generalization Beyond Overfitting on Small Algorithmic Datasets[DL輪読会]Grokking: Generalization Beyond Overfitting on Small Algorithmic Datasets
[DL輪読会]Grokking: Generalization Beyond Overfitting on Small Algorithmic Datasets
 
【メタサーベイ】Video Transformer
 【メタサーベイ】Video Transformer 【メタサーベイ】Video Transformer
【メタサーベイ】Video Transformer
 
モデルアーキテクチャ観点からの高速化2019
モデルアーキテクチャ観点からの高速化2019モデルアーキテクチャ観点からの高速化2019
モデルアーキテクチャ観点からの高速化2019
 
【LT資料】 Neural Network 素人なんだけど何とかご機嫌取りをしたい
【LT資料】 Neural Network 素人なんだけど何とかご機嫌取りをしたい【LT資料】 Neural Network 素人なんだけど何とかご機嫌取りをしたい
【LT資料】 Neural Network 素人なんだけど何とかご機嫌取りをしたい
 
強化学習の基礎と深層強化学習(東京大学 松尾研究室 深層強化学習サマースクール講義資料)
強化学習の基礎と深層強化学習(東京大学 松尾研究室 深層強化学習サマースクール講義資料)強化学習の基礎と深層強化学習(東京大学 松尾研究室 深層強化学習サマースクール講義資料)
強化学習の基礎と深層強化学習(東京大学 松尾研究室 深層強化学習サマースクール講義資料)
 
Active Learning の基礎と最近の研究
Active Learning の基礎と最近の研究Active Learning の基礎と最近の研究
Active Learning の基礎と最近の研究
 
Transformerを多層にする際の勾配消失問題と解決法について
Transformerを多層にする際の勾配消失問題と解決法についてTransformerを多層にする際の勾配消失問題と解決法について
Transformerを多層にする際の勾配消失問題と解決法について
 
機械学習モデルの判断根拠の説明(Ver.2)
機械学習モデルの判断根拠の説明(Ver.2)機械学習モデルの判断根拠の説明(Ver.2)
機械学習モデルの判断根拠の説明(Ver.2)
 
最適化超入門
最適化超入門最適化超入門
最適化超入門
 
Semantic segmentation
Semantic segmentationSemantic segmentation
Semantic segmentation
 
最適輸送入門
最適輸送入門最適輸送入門
最適輸送入門
 
機械学習による統計的実験計画(ベイズ最適化を中心に)
機械学習による統計的実験計画(ベイズ最適化を中心に)機械学習による統計的実験計画(ベイズ最適化を中心に)
機械学習による統計的実験計画(ベイズ最適化を中心に)
 
Transformer メタサーベイ
Transformer メタサーベイTransformer メタサーベイ
Transformer メタサーベイ
 

Similar to Kaggle Happywhaleコンペ優勝解法でのOptuna使用事例 - 2022/12/10 Optuna Meetup #2

GPGPU Seminar (GPU Accelerated Libraries, 3 of 3, Thrust)
GPGPU Seminar (GPU Accelerated Libraries, 3 of 3, Thrust) GPGPU Seminar (GPU Accelerated Libraries, 3 of 3, Thrust)
GPGPU Seminar (GPU Accelerated Libraries, 3 of 3, Thrust)
智啓 出川
 
GPGPU Seminar (GPU Accelerated Libraries, 2 of 3, cuSPARSE)
GPGPU Seminar (GPU Accelerated Libraries, 2 of 3, cuSPARSE) GPGPU Seminar (GPU Accelerated Libraries, 2 of 3, cuSPARSE)
GPGPU Seminar (GPU Accelerated Libraries, 2 of 3, cuSPARSE)
智啓 出川
 
2015年度先端GPGPUシミュレーション工学特論 第6回 プログラムの性能評価指針 (Flop/Byte,計算律速,メモリ律速)
2015年度先端GPGPUシミュレーション工学特論 第6回 プログラムの性能評価指針(Flop/Byte,計算律速,メモリ律速)2015年度先端GPGPUシミュレーション工学特論 第6回 プログラムの性能評価指針(Flop/Byte,計算律速,メモリ律速)
2015年度先端GPGPUシミュレーション工学特論 第6回 プログラムの性能評価指針 (Flop/Byte,計算律速,メモリ律速)
智啓 出川
 
Python で munin plugin を書いてみる
Python で munin plugin を書いてみるPython で munin plugin を書いてみる
Python で munin plugin を書いてみる
ftnk
 

Similar to Kaggle Happywhaleコンペ優勝解法でのOptuna使用事例 - 2022/12/10 Optuna Meetup #2 (20)

Optuna on Kubeflow Pipeline 分散ハイパラチューニング
Optuna on Kubeflow Pipeline 分散ハイパラチューニングOptuna on Kubeflow Pipeline 分散ハイパラチューニング
Optuna on Kubeflow Pipeline 分散ハイパラチューニング
 
Introduction to Chainer (LL Ring Recursive)
Introduction to Chainer (LL Ring Recursive)Introduction to Chainer (LL Ring Recursive)
Introduction to Chainer (LL Ring Recursive)
 
機械学習プロジェクトにおける Cloud AI Platform の使い方 (2018-11-19)
機械学習プロジェクトにおける Cloud AI Platform の使い方 (2018-11-19)機械学習プロジェクトにおける Cloud AI Platform の使い方 (2018-11-19)
機械学習プロジェクトにおける Cloud AI Platform の使い方 (2018-11-19)
 
GPGPU Seminar (GPU Accelerated Libraries, 3 of 3, Thrust)
GPGPU Seminar (GPU Accelerated Libraries, 3 of 3, Thrust) GPGPU Seminar (GPU Accelerated Libraries, 3 of 3, Thrust)
GPGPU Seminar (GPU Accelerated Libraries, 3 of 3, Thrust)
 
多言語を一つの処理系でハイパフォーマンスに実行するGraalPythonの紹介
多言語を一つの処理系でハイパフォーマンスに実行するGraalPythonの紹介多言語を一つの処理系でハイパフォーマンスに実行するGraalPythonの紹介
多言語を一つの処理系でハイパフォーマンスに実行するGraalPythonの紹介
 
なにわテック20180127
なにわテック20180127なにわテック20180127
なにわテック20180127
 
Anaconda & NumbaPro 使ってみた
Anaconda & NumbaPro 使ってみたAnaconda & NumbaPro 使ってみた
Anaconda & NumbaPro 使ってみた
 
[GTCJ2018]CuPy -NumPy互換GPUライブラリによるPythonでの高速計算- PFN奥田遼介
[GTCJ2018]CuPy -NumPy互換GPUライブラリによるPythonでの高速計算- PFN奥田遼介[GTCJ2018]CuPy -NumPy互換GPUライブラリによるPythonでの高速計算- PFN奥田遼介
[GTCJ2018]CuPy -NumPy互換GPUライブラリによるPythonでの高速計算- PFN奥田遼介
 
Wandb Monthly Meetup August 2023.pdf
Wandb Monthly Meetup August 2023.pdfWandb Monthly Meetup August 2023.pdf
Wandb Monthly Meetup August 2023.pdf
 
GPGPU Seminar (GPU Accelerated Libraries, 2 of 3, cuSPARSE)
GPGPU Seminar (GPU Accelerated Libraries, 2 of 3, cuSPARSE) GPGPU Seminar (GPU Accelerated Libraries, 2 of 3, cuSPARSE)
GPGPU Seminar (GPU Accelerated Libraries, 2 of 3, cuSPARSE)
 
第64回情報科学談話会(滝沢 寛之 准教授)
第64回情報科学談話会(滝沢 寛之 准教授) 第64回情報科学談話会(滝沢 寛之 准教授)
第64回情報科学談話会(滝沢 寛之 准教授)
 
20181212 - PGconf.ASIA - LT
20181212 - PGconf.ASIA - LT20181212 - PGconf.ASIA - LT
20181212 - PGconf.ASIA - LT
 
カスタムSIで使ってみよう ~ OpenAI Gym を使った強化学習
カスタムSIで使ってみよう ~ OpenAI Gym を使った強化学習カスタムSIで使ってみよう ~ OpenAI Gym を使った強化学習
カスタムSIで使ってみよう ~ OpenAI Gym を使った強化学習
 
GPU-FPGA 協調計算を記述するためのプログラミング環境に関する研究(HPC169 No.10)
GPU-FPGA 協調計算を記述するためのプログラミング環境に関する研究(HPC169 No.10)GPU-FPGA 協調計算を記述するためのプログラミング環境に関する研究(HPC169 No.10)
GPU-FPGA 協調計算を記述するためのプログラミング環境に関する研究(HPC169 No.10)
 
[DL Hacks]Self-Attention Generative Adversarial Networks
[DL Hacks]Self-Attention Generative Adversarial Networks[DL Hacks]Self-Attention Generative Adversarial Networks
[DL Hacks]Self-Attention Generative Adversarial Networks
 
Optuna on Kubeflow Pipeline 分散ハイパラチューニング
Optuna on Kubeflow Pipeline 分散ハイパラチューニングOptuna on Kubeflow Pipeline 分散ハイパラチューニング
Optuna on Kubeflow Pipeline 分散ハイパラチューニング
 
2015年度先端GPGPUシミュレーション工学特論 第6回 プログラムの性能評価指針 (Flop/Byte,計算律速,メモリ律速)
2015年度先端GPGPUシミュレーション工学特論 第6回 プログラムの性能評価指針(Flop/Byte,計算律速,メモリ律速)2015年度先端GPGPUシミュレーション工学特論 第6回 プログラムの性能評価指針(Flop/Byte,計算律速,メモリ律速)
2015年度先端GPGPUシミュレーション工学特論 第6回 プログラムの性能評価指針 (Flop/Byte,計算律速,メモリ律速)
 
Cuda fortranの利便性を高めるfortran言語の機能
Cuda fortranの利便性を高めるfortran言語の機能Cuda fortranの利便性を高めるfortran言語の機能
Cuda fortranの利便性を高めるfortran言語の機能
 
Python で munin plugin を書いてみる
Python で munin plugin を書いてみるPython で munin plugin を書いてみる
Python で munin plugin を書いてみる
 
「NVIDIA プロファイラを用いたPyTorch学習最適化手法のご紹介(修正前 typoあり)」
「NVIDIA プロファイラを用いたPyTorch学習最適化手法のご紹介(修正前 typoあり)」「NVIDIA プロファイラを用いたPyTorch学習最適化手法のご紹介(修正前 typoあり)」
「NVIDIA プロファイラを用いたPyTorch学習最適化手法のご紹介(修正前 typoあり)」
 

More from Preferred Networks

More from Preferred Networks (20)

PodSecurityPolicy からGatekeeper に移行しました / Kubernetes Meetup Tokyo #57
PodSecurityPolicy からGatekeeper に移行しました / Kubernetes Meetup Tokyo #57PodSecurityPolicy からGatekeeper に移行しました / Kubernetes Meetup Tokyo #57
PodSecurityPolicy からGatekeeper に移行しました / Kubernetes Meetup Tokyo #57
 
Optunaを使ったHuman-in-the-loop最適化の紹介 - 2023/04/27 W&B 東京ミートアップ #3
Optunaを使ったHuman-in-the-loop最適化の紹介 - 2023/04/27 W&B 東京ミートアップ #3Optunaを使ったHuman-in-the-loop最適化の紹介 - 2023/04/27 W&B 東京ミートアップ #3
Optunaを使ったHuman-in-the-loop最適化の紹介 - 2023/04/27 W&B 東京ミートアップ #3
 
Kubernetes + containerd で cgroup v2 に移行したら "failed to create fsnotify watcher...
Kubernetes + containerd で cgroup v2 に移行したら "failed to create fsnotify watcher...Kubernetes + containerd で cgroup v2 に移行したら "failed to create fsnotify watcher...
Kubernetes + containerd で cgroup v2 に移行したら "failed to create fsnotify watcher...
 
深層学習の新しい応用と、 それを支える計算機の進化 - Preferred Networks CEO 西川徹 (SEMICON Japan 2022 Ke...
深層学習の新しい応用と、 それを支える計算機の進化 - Preferred Networks CEO 西川徹 (SEMICON Japan 2022 Ke...深層学習の新しい応用と、 それを支える計算機の進化 - Preferred Networks CEO 西川徹 (SEMICON Japan 2022 Ke...
深層学習の新しい応用と、 それを支える計算機の進化 - Preferred Networks CEO 西川徹 (SEMICON Japan 2022 Ke...
 
Kubernetes ControllerをScale-Outさせる方法 / Kubernetes Meetup Tokyo #55
Kubernetes ControllerをScale-Outさせる方法 / Kubernetes Meetup Tokyo #55Kubernetes ControllerをScale-Outさせる方法 / Kubernetes Meetup Tokyo #55
Kubernetes ControllerをScale-Outさせる方法 / Kubernetes Meetup Tokyo #55
 
Optuna Dashboardの紹介と設計解説 - 2022/12/10 Optuna Meetup #2
Optuna Dashboardの紹介と設計解説 - 2022/12/10 Optuna Meetup #2Optuna Dashboardの紹介と設計解説 - 2022/12/10 Optuna Meetup #2
Optuna Dashboardの紹介と設計解説 - 2022/12/10 Optuna Meetup #2
 
スタートアップが提案する2030年の材料開発 - 2022/11/11 QPARC講演
スタートアップが提案する2030年の材料開発 - 2022/11/11 QPARC講演スタートアップが提案する2030年の材料開発 - 2022/11/11 QPARC講演
スタートアップが提案する2030年の材料開発 - 2022/11/11 QPARC講演
 
Deep Learningのための専用プロセッサ「MN-Core」の開発と活用(2022/10/19東大大学院「 融合情報学特別講義Ⅲ」)
Deep Learningのための専用プロセッサ「MN-Core」の開発と活用(2022/10/19東大大学院「 融合情報学特別講義Ⅲ」)Deep Learningのための専用プロセッサ「MN-Core」の開発と活用(2022/10/19東大大学院「 融合情報学特別講義Ⅲ」)
Deep Learningのための専用プロセッサ「MN-Core」の開発と活用(2022/10/19東大大学院「 融合情報学特別講義Ⅲ」)
 
PFNにおける研究開発(2022/10/19 東大大学院「融合情報学特別講義Ⅲ」)
PFNにおける研究開発(2022/10/19 東大大学院「融合情報学特別講義Ⅲ」)PFNにおける研究開発(2022/10/19 東大大学院「融合情報学特別講義Ⅲ」)
PFNにおける研究開発(2022/10/19 東大大学院「融合情報学特別講義Ⅲ」)
 
自然言語処理を 役立てるのはなぜ難しいのか(2022/10/25東大大学院「自然言語処理応用」)
自然言語処理を 役立てるのはなぜ難しいのか(2022/10/25東大大学院「自然言語処理応用」)自然言語処理を 役立てるのはなぜ難しいのか(2022/10/25東大大学院「自然言語処理応用」)
自然言語処理を 役立てるのはなぜ難しいのか(2022/10/25東大大学院「自然言語処理応用」)
 
Kubernetes にこれから入るかもしれない注目機能!(2022年11月版) / TechFeed Experts Night #7 〜 コンテナ技術を語る
Kubernetes にこれから入るかもしれない注目機能!(2022年11月版) / TechFeed Experts Night #7 〜 コンテナ技術を語るKubernetes にこれから入るかもしれない注目機能!(2022年11月版) / TechFeed Experts Night #7 〜 コンテナ技術を語る
Kubernetes にこれから入るかもしれない注目機能!(2022年11月版) / TechFeed Experts Night #7 〜 コンテナ技術を語る
 
Matlantis™のニューラルネットワークポテンシャルPFPの適用範囲拡張
Matlantis™のニューラルネットワークポテンシャルPFPの適用範囲拡張Matlantis™のニューラルネットワークポテンシャルPFPの適用範囲拡張
Matlantis™のニューラルネットワークポテンシャルPFPの適用範囲拡張
 
PFNのオンプレ計算機クラスタの取り組み_第55回情報科学若手の会
PFNのオンプレ計算機クラスタの取り組み_第55回情報科学若手の会PFNのオンプレ計算機クラスタの取り組み_第55回情報科学若手の会
PFNのオンプレ計算機クラスタの取り組み_第55回情報科学若手の会
 
続・PFN のオンプレML基盤の取り組み / オンプレML基盤 on Kubernetes 〜PFN、ヤフー〜 #2
続・PFN のオンプレML基盤の取り組み / オンプレML基盤 on Kubernetes 〜PFN、ヤフー〜 #2続・PFN のオンプレML基盤の取り組み / オンプレML基盤 on Kubernetes 〜PFN、ヤフー〜 #2
続・PFN のオンプレML基盤の取り組み / オンプレML基盤 on Kubernetes 〜PFN、ヤフー〜 #2
 
Kubernetes Service Account As Multi-Cloud Identity / Cloud Native Security Co...
Kubernetes Service Account As Multi-Cloud Identity / Cloud Native Security Co...Kubernetes Service Account As Multi-Cloud Identity / Cloud Native Security Co...
Kubernetes Service Account As Multi-Cloud Identity / Cloud Native Security Co...
 
KubeCon + CloudNativeCon Europe 2022 Recap / Kubernetes Meetup Tokyo #51 / #k...
KubeCon + CloudNativeCon Europe 2022 Recap / Kubernetes Meetup Tokyo #51 / #k...KubeCon + CloudNativeCon Europe 2022 Recap / Kubernetes Meetup Tokyo #51 / #k...
KubeCon + CloudNativeCon Europe 2022 Recap / Kubernetes Meetup Tokyo #51 / #k...
 
KubeCon + CloudNativeCon Europe 2022 Recap - Batch/HPCの潮流とScheduler拡張事例 / Kub...
KubeCon + CloudNativeCon Europe 2022 Recap - Batch/HPCの潮流とScheduler拡張事例 / Kub...KubeCon + CloudNativeCon Europe 2022 Recap - Batch/HPCの潮流とScheduler拡張事例 / Kub...
KubeCon + CloudNativeCon Europe 2022 Recap - Batch/HPCの潮流とScheduler拡張事例 / Kub...
 
独断と偏見で選んだ Kubernetes 1.24 の注目機能と今後! / Kubernetes Meetup Tokyo 50
独断と偏見で選んだ Kubernetes 1.24 の注目機能と今後! / Kubernetes Meetup Tokyo 50独断と偏見で選んだ Kubernetes 1.24 の注目機能と今後! / Kubernetes Meetup Tokyo 50
独断と偏見で選んだ Kubernetes 1.24 の注目機能と今後! / Kubernetes Meetup Tokyo 50
 
Topology Managerについて / Kubernetes Meetup Tokyo 50
Topology Managerについて / Kubernetes Meetup Tokyo 50Topology Managerについて / Kubernetes Meetup Tokyo 50
Topology Managerについて / Kubernetes Meetup Tokyo 50
 
PFN Summer Internship 2021 / Kohei Shinohara: Charge Transfer Modeling in Neu...
PFN Summer Internship 2021 / Kohei Shinohara: Charge Transfer Modeling in Neu...PFN Summer Internship 2021 / Kohei Shinohara: Charge Transfer Modeling in Neu...
PFN Summer Internship 2021 / Kohei Shinohara: Charge Transfer Modeling in Neu...
 

Kaggle Happywhaleコンペ優勝解法でのOptuna使用事例 - 2022/12/10 Optuna Meetup #2