SlideShare uma empresa Scribd logo
1 de 36
Baixar para ler offline
(NIPS2015)
Learning with a Wasserstein Loss
先進理工学研究科 電気・情報生命専攻  
村田研究室(情報学習システム研究室)
修士1年 渡邊隼人
ワッサースタイン
2015/Dec/18
機械学習トップカンファレンス読み会 vol.1
マルチラベル予測
あなたならこの写真にどんなラベル(タグ)をつけますか?
やりたいこと 2
Flickrユーザによる
ラベル(タグ)
l  water
l  boat
l  reflection
マルチラベル予測
あなたならこの写真にどんなラベル(タグ)をつけますか?
やりたいこと 3
Flickrユーザによる
ラベル(タグ)
l  water
l  boat
l  reflection
写真から複数のラベルを予測したい
問題設定 4
画像 全ラベルのベクトルラベル
water
boat
reflection
education
weather
cow
spring
race
training
agriculture
…
問題設定 5
画像 全ラベルのベクトル
ラベルを
符号化したもの
…
問題設定 6
画像
ラベルに
属する確率 全ラベルのベクトル
…
…
問題設定 7
画像
…
ラベルに
属する確率
…
 を求めよ
問題設定 8
画像
写像(判別器)
…
ラベルに
属する確率
…
 を求めよ
普通のアプローチ 9
画像
多クラス
ロジスティック回帰
…
ラベルに
属する確率
…
より良い予測とは? 10
画像
判別器1 
ラベルに属する
確率(予測)
判別器2 
ラベルに属する
確率(正解)
KL損失:1.58
KL損失:1.58
l  KL損失としては同じだが,真のラベルに関連するラベルを
予測する判別器1の方が良い予測をしているのでは?
l  "boat"を"lake"と間違えるより,"club"と間違えることの
方がひどい.後者の場合に,より強い罰則を課したい
l  ラベルの類似度を考慮することで,上記の罰則を実現できる
キーワードで検索して,
左の画像を探したい
ラベルの類似度を考慮するメリット 11
真のラベル
l  spring
l  race
l  training
l  良い判別器の予測結果を利用
l  悪い判別器の予測結果を利用
u 真のラベルとは異なっている
かもしれないが,似ている
ラベルは予測できるかも
u 人間のラベル付けより良い
ラベル付けができるかも
(キーワード検索の意味で)
(山道)
 を求めよ
問題設定(再掲) 12
画像
写像(判別器)
…
ラベルに
属する確率
…
 を求めよ
問題設定(改) 13
画像
写像(判別器)
…
ラベルに
属する確率
…
water boat reflection …
water 0 0.5 0.4 …
boat 0.5 0 0.2 …
reflection 0.4 0.2 0 …
⋮ ⋮ ⋮ ⋮ …
ラベル間の類似度(距離)もわかっている
 を求めよ
問題設定(改) 14
画像
写像(判別器)
…
ラベルに
属する確率
…
water boat reflection …
water 0 0.5 0.4 …
boat 0.5 0 0.2 …
reflection 0.4 0.2 0 …
⋮ ⋮ ⋮ ⋮ …
ラベル間の類似度(距離)もわかっている
ラベルの類似度を考慮して
いない
Wasserstein損失
2つとも分布の違いを計る尺度
KL損失とWasserstein損失 15
ラベルに属する
確率の分布(正解)
ラベルに属する
確率の分布(予測)
KL
各次元の関係を考慮していない
(次元ごとに割り算,掛け算してその和を取ってるから)
water
boat
reflection
river
lake
club
0.000.20
water
boat
reflection
river
lake
club
0.000.20
water
boat
reflection
river
lake
club
0.000.20
boat
lakewater
reflection
river
club
boat
lakewater
reflection
river
club
2つとも分布の違いを計る尺度
KL損失とWasserstein損失 16
ラベルに属する
確率の分布(正解)
ラベルに属する
確率の分布(予測)
Wasserstein
boat
water
reflection
river
lake
club
同じ状態にするのに,
必要な最小コストは?
2つとも分布の違いを計る尺度
KL損失とWasserstein損失 17
ラベルに属する
確率の分布(正解)
ラベルに属する
確率の分布(予測)
Wasserstein
boat
water
reflection
river
lake
club
同じ状態にするのに,
必要な最小コストは?
boat
lakewater
reflection
river
club
最小
2つとも分布の違いを計る尺度
KL損失とWasserstein損失 18
ラベルに属する
確率の分布(正解)
ラベルに属する
確率の分布(予測)
Wasserstein
boat
water
reflection
river
lake
club
同じ状態にするのに,
必要な最小コストは?
boat
lakewater
reflection
river
club
輸送距離
water boat
reflec
tion
river lake club
water 0 0.4 0.5 0.2 0.3 0.4
boat 0.4 0 0.4 0.3 0.1 0.8
reflec
tion
0.5 0.4 0 0.3 0.3 0.6
river 0.2 0.3 0.3 0 0.1 0.5
lake 0.3 0.1 0.3 0.1 0 0.6
club 0.4 0.8 0.4 0.5 0.6 0
2つとも分布の違いを計る尺度
KL損失とWasserstein損失 19
ラベルに属する
確率の分布(正解)
ラベルに属する
確率の分布(予測)
Wasserstein
boat
water
reflection
river
lake
club
同じ状態にするのに,
必要な最小コストは?
boat
lakewater
reflection
river
club
輸送量
water boat
reflec
tion
river lake club
water 6 0 0 0 0 0
boat 0 1 0 4 1 0
reflec
tion
0 0 1 1 0 4
river 0 0 0 0 0 0
lake 0 0 0 0 0 0
club 0 0 0 0 0 0
2つとも分布の違いを計る尺度
KL損失とWasserstein損失 20
ラベルに属する
確率の分布(正解)
ラベルに属する
確率の分布(予測)
Wasserstein
boat
water
reflection
river
lake
club
同じ状態にするのに,
必要な最小コストは?
boat
lakewater
reflection
river
club
water boat
reflec
tion
river lake club
water 6 0 0 0 0 0
boat 0 1 0 4 1 0
reflec
tion
0 0 1 1 0 4
river 0 0 0 0 0 0
lake 0 0 0 0 0 0
club 0 0 0 0 0 0
2つとも分布の違いを計る尺度
KL損失とWasserstein損失 21
ラベルに属する
確率の分布(正解)
ラベルに属する
確率の分布(予測)
Wasserstein
boat
water
reflection
river
lake
club
同じ状態にするのに,
必要な最小コストは?
boat
lakewater
reflection
river
club
water boat
reflec
tion
river lake club
water 6 0 0 0 0 0
boat 0 1 0 4 1 0
reflec
tion
0 0 1 1 0 4
river 0 0 0 0 0 0
lake 0 0 0 0 0 0
club 0 0 0 0 0 0
2つとも分布の違いを計る尺度
KL損失とWasserstein損失 22
ラベルに属する
確率の分布(正解)
ラベルに属する
確率の分布(予測)
Wasserstein
boat
water
reflection
river
lake
club
同じ状態にするのに,
必要な最小コストは?
boat
lakewater
reflection
river
club
water boat
reflec
tion
river lake club
water 6 0 0 0 0 0
boat 0 1 0 4 1 0
reflec
tion
0 0 1 1 0 4
river 0 0 0 0 0 0
lake 0 0 0 0 0 0
club 0 0 0 0 0 0
2つとも分布の違いを計る尺度
KL損失とWasserstein損失 23
ラベルに属する
確率の分布(正解)
ラベルに属する
確率の分布(予測)
Wasserstein
boat
water
reflection
river
lake
club
同じ状態にするのに,
必要な最小コストは?
boat
lakewater
reflection
river
club
water boat
reflec
tion
river lake club
water 6 0 0 0 0 0
boat 0 1 0 4 1 0
reflec
tion
0 0 1 1 0 4
river 0 0 0 0 0 0
lake 0 0 0 0 0 0
club 0 0 0 0 0 0
輸送量と輸送距離の
要素ごとの積の和
water boat
reflec
tion
river lake club
water 0 0.4 0.5 0.2 0.3 0.4
boat 0.4 0 0.4 0.3 0.1 0.8
reflec
tion
0.5 0.4 0 0.3 0.3 0.6
river 0.2 0.3 0.3 0 0.1 0.5
lake 0.3 0.1 0.3 0.1 0 0.6
club 0.4 0.8 0.4 0.5 0.6 0
2つとも分布の違いを計る尺度
KL損失とWasserstein損失 24
ラベルに属する
確率の分布(正解)
ラベルに属する
確率の分布(予測)
Wasserstein
boat
water
reflection
river
lake
club
同じ状態にするのに,
必要な最小コストは?
boat
lakewater
reflection
river
club
何でこんな損失考えてたんだっけ?
l  "boat"を"lake"と間違えるより,"club"と間違えることの
方がひどい.後者の場合に,より強い罰則を課したい
2つとも分布の違いを計る尺度
KL損失とWasserstein損失 25
ラベルに属する
確率の分布(正解)
ラベルに属する
確率の分布(予測)
Wasserstein
boat
water
reflection
river
lake
club
同じ状態にするのに,
必要な最小コストは?
boat
lakewater
reflection
river
club
何でこんな損失考えてたんだっけ?
l  "boat"を"lake"と間違えるより,"club"と間違えることの
方がひどい.後者の場合に,より強い罰則を課したい
KLの場合
パラメータ で偏微分して勾配求める→勾配法
最適化 26
Wassersteinの場合
(劣)勾配求めるのに計算時間がかかりすぎる…
凸問題にした.ラベル数の影響がほぼなくなる
ケーススタディ
Flickrのタグ付き画像データ
l  訓練, 確認, テスト 各1万画像,1千タグ
特徴抽出
l  Convolutional Neural Networks (CNNs)
ラベル(タグ)間の距離
l  word2vecで単位ベクトルに変換して,ユークリッド距離
実験設定 28
 を求めよ
問題設定(改)(再掲) 29
画像
写像(判別器)
…
ラベルに
属する確率
…
water boat reflection …
water 0 0.5 0.4 …
boat 0.5 0 0.2 …
reflection 0.4 0.2 0 …
⋮ ⋮ ⋮ ⋮ …
ラベル間の類似度(距離)もわかっている
Flickrのタグ付き画像データ
l  訓練, 確認, テスト 各1万画像,1千タグ
特徴抽出
l  Convolutional Neural Networks (CNNs)
ラベル(タグ)間の距離
l  word2vecで単位ベクトルに変換して,ユークリッド距離
評価指標
l  top-K cost
実験設定 30
water boat
reflec
tion
river lake club
water 0 0.4 0.5 0.2 0.3 0.4
boat 0.4 0 0.4 0.3 0.1 0.8
reflec
tion
0.5 0.4 0 0.3 0.3 0.6
river 0.2 0.3 0.3 0 0.1 0.5
lake 0.3 0.1 0.3 0.1 0 0.6
club 0.4 0.8 0.4 0.5 0.6 0
正解
予測
1 2
Flickrのタグ付き画像データ
l  訓練, 確認, テスト 各1万画像,1千タグ
特徴抽出
l  Convolutional Neural Networks (CNNs)
ラベル(タグ)間の距離
l  word2vecで単位ベクトルに変換して,ユークリッド距離
評価指標
l  top-K cost (ラベルの意味が近いものが予測できてれば◎)
l  AUC (正解ラベルがなるべく上位に予測できてれば◎)
実験設定 31
実験結果|top-K cost 32
5 10 15 20
K (# of proposed tags)
0.70
0.75
0.80
0.85
0.90
0.95
1.00
top-KCost
Loss Function
Divergence
Wasserstein (↵=0.5)
Wasserstein (↵=0.3)
Wasserstein (↵=0.1)
(a) Original Flickr tags dataset.
0.70
0.75
0.80
0.85
0.90
0.95
1.00
top-KCost
(b) R
Figure 5: Top-K cost comparison of the proposed loss (Was
悪
良
損失関数にKL使った普通のロジスティックより良い
実験結果|top-K cost & AUC 33
悪
良
Wasserstein + αKL として,αを動かしてみる
0.0 0.5 1.0 1.5 2.0
0.65
0.70
0.75
0.80
0.85
0.90
0.95
Top-Kcost
K = 1 K = 2 K = 3 K = 4
0.0 0.5 1.0 1.5 2.0
↵
0.54
0.56
0.58
0.60
0.62
0.64
AUC
Wasserstein AUC
Divergence AUC
(a) Original Flickr tags dataset.
0.0
0.65
0.70
0.75
0.80
0.85
0.90
0.95
Top-Kcost
K =
0.0
0.54
0.56
0.58
0.60
0.62
0.64
AUC
(b) Reduced-r
Figure 6: Trade-off between semantic smoothness and m
悪
良
意味的に近いラベルを予測したいなら,
Wassersteinの重みを強く
実験結果|実際のラベル(タグ)予測の結果 34
正解: zoo, run, mark
提案: running, summer, fun
ベース: running, country, lake
正解: travel, architecture, tourism
提案: sky, roof, building
ベース: art, sky, beach
l  教師あり学習に初めてWasserstein損失を用いた
l  マルチラベル予測問題に適用し,正解ラベルとは一致しない
かもしれないが,意味的に近いものが予測できた
l  そのままでは時間のかかるWassersteinの計算を高速な手法
を使ってうまく計算した(手法自体は既存のもの)
まとめ (contributions) 35
補遺

Mais conteúdo relacionado

Mais procurados

SSII2018TS: 大規模深層学習
SSII2018TS: 大規模深層学習SSII2018TS: 大規模深層学習
SSII2018TS: 大規模深層学習SSII
 
Bayes Independence Test - HSIC と性能を比較する-
Bayes Independence Test - HSIC と性能を比較する-Bayes Independence Test - HSIC と性能を比較する-
Bayes Independence Test - HSIC と性能を比較する-Joe Suzuki
 
3分でわかる多項分布とディリクレ分布
3分でわかる多項分布とディリクレ分布3分でわかる多項分布とディリクレ分布
3分でわかる多項分布とディリクレ分布Junya Saito
 
Deeplearning輪読会
Deeplearning輪読会Deeplearning輪読会
Deeplearning輪読会正志 坪坂
 
【DL輪読会】A Time Series is Worth 64 Words: Long-term Forecasting with Transformers
【DL輪読会】A Time Series is Worth 64 Words: Long-term Forecasting with Transformers【DL輪読会】A Time Series is Worth 64 Words: Long-term Forecasting with Transformers
【DL輪読会】A Time Series is Worth 64 Words: Long-term Forecasting with TransformersDeep Learning JP
 
Semi supervised, weakly-supervised, unsupervised, and active learning
Semi supervised, weakly-supervised, unsupervised, and active learningSemi supervised, weakly-supervised, unsupervised, and active learning
Semi supervised, weakly-supervised, unsupervised, and active learningYusuke Uchida
 
[DL輪読会]A Bayesian Perspective on Generalization and Stochastic Gradient Descent
 [DL輪読会]A Bayesian Perspective on Generalization and Stochastic Gradient Descent [DL輪読会]A Bayesian Perspective on Generalization and Stochastic Gradient Descent
[DL輪読会]A Bayesian Perspective on Generalization and Stochastic Gradient DescentDeep Learning JP
 
ICML 2020 最適輸送まとめ
ICML 2020 最適輸送まとめICML 2020 最適輸送まとめ
ICML 2020 最適輸送まとめohken
 
グラフニューラルネットワークとグラフ組合せ問題
グラフニューラルネットワークとグラフ組合せ問題グラフニューラルネットワークとグラフ組合せ問題
グラフニューラルネットワークとグラフ組合せ問題joisino
 
[DL輪読会]GANとエネルギーベースモデル
[DL輪読会]GANとエネルギーベースモデル[DL輪読会]GANとエネルギーベースモデル
[DL輪読会]GANとエネルギーベースモデルDeep Learning JP
 
Word2vecの並列実行時の学習速度の改善
Word2vecの並列実行時の学習速度の改善Word2vecの並列実行時の学習速度の改善
Word2vecの並列実行時の学習速度の改善Naoaki Okazaki
 
時系列予測にTransformerを使うのは有効か?
時系列予測にTransformerを使うのは有効か?時系列予測にTransformerを使うのは有効か?
時系列予測にTransformerを使うのは有効か?Fumihiko Takahashi
 
[DL輪読会]NVAE: A Deep Hierarchical Variational Autoencoder
[DL輪読会]NVAE: A Deep Hierarchical Variational Autoencoder[DL輪読会]NVAE: A Deep Hierarchical Variational Autoencoder
[DL輪読会]NVAE: A Deep Hierarchical Variational AutoencoderDeep Learning JP
 
Optimizer入門&最新動向
Optimizer入門&最新動向Optimizer入門&最新動向
Optimizer入門&最新動向Motokawa Tetsuya
 
統計的学習の基礎 5章前半(~5.6)
統計的学習の基礎 5章前半(~5.6)統計的学習の基礎 5章前半(~5.6)
統計的学習の基礎 5章前半(~5.6)Kota Mori
 
深層学習の不確実性 - Uncertainty in Deep Neural Networks -
深層学習の不確実性 - Uncertainty in Deep Neural Networks -深層学習の不確実性 - Uncertainty in Deep Neural Networks -
深層学習の不確実性 - Uncertainty in Deep Neural Networks -tmtm otm
 
異常検知と変化検知 7章方向データの異常検知
異常検知と変化検知 7章方向データの異常検知異常検知と変化検知 7章方向データの異常検知
異常検知と変化検知 7章方向データの異常検知智文 中野
 
Active Learning 入門
Active Learning 入門Active Learning 入門
Active Learning 入門Shuyo Nakatani
 
グラフニューラルネットワーク入門
グラフニューラルネットワーク入門グラフニューラルネットワーク入門
グラフニューラルネットワーク入門ryosuke-kojima
 
[DL輪読会]相互情報量最大化による表現学習
[DL輪読会]相互情報量最大化による表現学習[DL輪読会]相互情報量最大化による表現学習
[DL輪読会]相互情報量最大化による表現学習Deep Learning JP
 

Mais procurados (20)

SSII2018TS: 大規模深層学習
SSII2018TS: 大規模深層学習SSII2018TS: 大規模深層学習
SSII2018TS: 大規模深層学習
 
Bayes Independence Test - HSIC と性能を比較する-
Bayes Independence Test - HSIC と性能を比較する-Bayes Independence Test - HSIC と性能を比較する-
Bayes Independence Test - HSIC と性能を比較する-
 
3分でわかる多項分布とディリクレ分布
3分でわかる多項分布とディリクレ分布3分でわかる多項分布とディリクレ分布
3分でわかる多項分布とディリクレ分布
 
Deeplearning輪読会
Deeplearning輪読会Deeplearning輪読会
Deeplearning輪読会
 
【DL輪読会】A Time Series is Worth 64 Words: Long-term Forecasting with Transformers
【DL輪読会】A Time Series is Worth 64 Words: Long-term Forecasting with Transformers【DL輪読会】A Time Series is Worth 64 Words: Long-term Forecasting with Transformers
【DL輪読会】A Time Series is Worth 64 Words: Long-term Forecasting with Transformers
 
Semi supervised, weakly-supervised, unsupervised, and active learning
Semi supervised, weakly-supervised, unsupervised, and active learningSemi supervised, weakly-supervised, unsupervised, and active learning
Semi supervised, weakly-supervised, unsupervised, and active learning
 
[DL輪読会]A Bayesian Perspective on Generalization and Stochastic Gradient Descent
 [DL輪読会]A Bayesian Perspective on Generalization and Stochastic Gradient Descent [DL輪読会]A Bayesian Perspective on Generalization and Stochastic Gradient Descent
[DL輪読会]A Bayesian Perspective on Generalization and Stochastic Gradient Descent
 
ICML 2020 最適輸送まとめ
ICML 2020 最適輸送まとめICML 2020 最適輸送まとめ
ICML 2020 最適輸送まとめ
 
グラフニューラルネットワークとグラフ組合せ問題
グラフニューラルネットワークとグラフ組合せ問題グラフニューラルネットワークとグラフ組合せ問題
グラフニューラルネットワークとグラフ組合せ問題
 
[DL輪読会]GANとエネルギーベースモデル
[DL輪読会]GANとエネルギーベースモデル[DL輪読会]GANとエネルギーベースモデル
[DL輪読会]GANとエネルギーベースモデル
 
Word2vecの並列実行時の学習速度の改善
Word2vecの並列実行時の学習速度の改善Word2vecの並列実行時の学習速度の改善
Word2vecの並列実行時の学習速度の改善
 
時系列予測にTransformerを使うのは有効か?
時系列予測にTransformerを使うのは有効か?時系列予測にTransformerを使うのは有効か?
時系列予測にTransformerを使うのは有効か?
 
[DL輪読会]NVAE: A Deep Hierarchical Variational Autoencoder
[DL輪読会]NVAE: A Deep Hierarchical Variational Autoencoder[DL輪読会]NVAE: A Deep Hierarchical Variational Autoencoder
[DL輪読会]NVAE: A Deep Hierarchical Variational Autoencoder
 
Optimizer入門&最新動向
Optimizer入門&最新動向Optimizer入門&最新動向
Optimizer入門&最新動向
 
統計的学習の基礎 5章前半(~5.6)
統計的学習の基礎 5章前半(~5.6)統計的学習の基礎 5章前半(~5.6)
統計的学習の基礎 5章前半(~5.6)
 
深層学習の不確実性 - Uncertainty in Deep Neural Networks -
深層学習の不確実性 - Uncertainty in Deep Neural Networks -深層学習の不確実性 - Uncertainty in Deep Neural Networks -
深層学習の不確実性 - Uncertainty in Deep Neural Networks -
 
異常検知と変化検知 7章方向データの異常検知
異常検知と変化検知 7章方向データの異常検知異常検知と変化検知 7章方向データの異常検知
異常検知と変化検知 7章方向データの異常検知
 
Active Learning 入門
Active Learning 入門Active Learning 入門
Active Learning 入門
 
グラフニューラルネットワーク入門
グラフニューラルネットワーク入門グラフニューラルネットワーク入門
グラフニューラルネットワーク入門
 
[DL輪読会]相互情報量最大化による表現学習
[DL輪読会]相互情報量最大化による表現学習[DL輪読会]相互情報量最大化による表現学習
[DL輪読会]相互情報量最大化による表現学習
 

Destaque

Learning Deep Embeddings with Histogram Loss (NIPS2016)
Learning Deep Embeddings with Histogram Loss (NIPS2016)Learning Deep Embeddings with Histogram Loss (NIPS2016)
Learning Deep Embeddings with Histogram Loss (NIPS2016)Hayato Watanabe
 
Consejos rápidos: Convertirse en el Asesor de confianza de medios digitales
Consejos rápidos: Convertirse en el Asesor de confianza de medios digitalesConsejos rápidos: Convertirse en el Asesor de confianza de medios digitales
Consejos rápidos: Convertirse en el Asesor de confianza de medios digitalesJuan Pittau
 
Mental Health and Cognitive Changes in the Older Adult
Mental Health and Cognitive Changes in the Older AdultMental Health and Cognitive Changes in the Older Adult
Mental Health and Cognitive Changes in the Older AdultPaul McNamara
 
「望ましさ」による優先順位づけ
「望ましさ」による優先順位づけ「望ましさ」による優先順位づけ
「望ましさ」による優先順位づけArata Fujimura
 
発想の飛躍を生み出すクリエイティブシンキング
発想の飛躍を生み出すクリエイティブシンキング発想の飛躍を生み出すクリエイティブシンキング
発想の飛躍を生み出すクリエイティブシンキングYusuke Kuroda
 
Terminology and information models
Terminology and information modelsTerminology and information models
Terminology and information modelsSilje Ljosland Bakke
 
Database Security Overview
Database Security OverviewDatabase Security Overview
Database Security OverviewShawn McElhinney
 
ICST 2017 Day1 Opening Ceremony Research Track
ICST 2017 Day1 Opening Ceremony Research TrackICST 2017 Day1 Opening Ceremony Research Track
ICST 2017 Day1 Opening Ceremony Research TrackHironori Washizaki
 
Architecting a Next Generation Data Platform
Architecting a Next Generation Data PlatformArchitecting a Next Generation Data Platform
Architecting a Next Generation Data Platformhadooparchbook
 
こわくない Git
こわくない Gitこわくない Git
こわくない GitKota Saito
 
Leap across persuasion hurdles vimarsa
Leap across persuasion hurdles   vimarsaLeap across persuasion hurdles   vimarsa
Leap across persuasion hurdles vimarsaVimarsa Consulting LLP
 
Amazon AWS basics needed to run a Cassandra Cluster in AWS
Amazon AWS basics needed to run a Cassandra Cluster in AWSAmazon AWS basics needed to run a Cassandra Cluster in AWS
Amazon AWS basics needed to run a Cassandra Cluster in AWSJean-Paul Azar
 
Development Workflow Tools for Open-Source PHP Libraries
Development Workflow Tools for Open-Source PHP LibrariesDevelopment Workflow Tools for Open-Source PHP Libraries
Development Workflow Tools for Open-Source PHP LibrariesPantheon
 
Red Goldfish - Motivating Sales and Loyalty Through Shared Passion and Purpose
Red Goldfish - Motivating Sales and Loyalty Through Shared Passion and PurposeRed Goldfish - Motivating Sales and Loyalty Through Shared Passion and Purpose
Red Goldfish - Motivating Sales and Loyalty Through Shared Passion and PurposeStan Phelps
 
【掲載用】アウトプットし続ける技術20170314
【掲載用】アウトプットし続ける技術20170314【掲載用】アウトプットし続ける技術20170314
【掲載用】アウトプットし続ける技術20170314Hayashi Masayuki
 
Digitalisaation merkitys turvallisuudelle
Digitalisaation merkitys turvallisuudelleDigitalisaation merkitys turvallisuudelle
Digitalisaation merkitys turvallisuudelleJyrki Kasvi
 
Spark Summit - Stratio Streaming
Spark Summit - Stratio Streaming Spark Summit - Stratio Streaming
Spark Summit - Stratio Streaming Stratio
 

Destaque (20)

Learning Deep Embeddings with Histogram Loss (NIPS2016)
Learning Deep Embeddings with Histogram Loss (NIPS2016)Learning Deep Embeddings with Histogram Loss (NIPS2016)
Learning Deep Embeddings with Histogram Loss (NIPS2016)
 
El TAO de la programación
El TAO de la programaciónEl TAO de la programación
El TAO de la programación
 
Consejos rápidos: Convertirse en el Asesor de confianza de medios digitales
Consejos rápidos: Convertirse en el Asesor de confianza de medios digitalesConsejos rápidos: Convertirse en el Asesor de confianza de medios digitales
Consejos rápidos: Convertirse en el Asesor de confianza de medios digitales
 
Mental Health and Cognitive Changes in the Older Adult
Mental Health and Cognitive Changes in the Older AdultMental Health and Cognitive Changes in the Older Adult
Mental Health and Cognitive Changes in the Older Adult
 
「望ましさ」による優先順位づけ
「望ましさ」による優先順位づけ「望ましさ」による優先順位づけ
「望ましさ」による優先順位づけ
 
発想の飛躍を生み出すクリエイティブシンキング
発想の飛躍を生み出すクリエイティブシンキング発想の飛躍を生み出すクリエイティブシンキング
発想の飛躍を生み出すクリエイティブシンキング
 
Terminology and information models
Terminology and information modelsTerminology and information models
Terminology and information models
 
Database Security Overview
Database Security OverviewDatabase Security Overview
Database Security Overview
 
Angular 2
Angular 2Angular 2
Angular 2
 
ICST 2017 Day1 Opening Ceremony Research Track
ICST 2017 Day1 Opening Ceremony Research TrackICST 2017 Day1 Opening Ceremony Research Track
ICST 2017 Day1 Opening Ceremony Research Track
 
Architecting a Next Generation Data Platform
Architecting a Next Generation Data PlatformArchitecting a Next Generation Data Platform
Architecting a Next Generation Data Platform
 
こわくない Git
こわくない Gitこわくない Git
こわくない Git
 
Leap across persuasion hurdles vimarsa
Leap across persuasion hurdles   vimarsaLeap across persuasion hurdles   vimarsa
Leap across persuasion hurdles vimarsa
 
Amazon AWS basics needed to run a Cassandra Cluster in AWS
Amazon AWS basics needed to run a Cassandra Cluster in AWSAmazon AWS basics needed to run a Cassandra Cluster in AWS
Amazon AWS basics needed to run a Cassandra Cluster in AWS
 
Development Workflow Tools for Open-Source PHP Libraries
Development Workflow Tools for Open-Source PHP LibrariesDevelopment Workflow Tools for Open-Source PHP Libraries
Development Workflow Tools for Open-Source PHP Libraries
 
Tech art 20170315
Tech art 20170315Tech art 20170315
Tech art 20170315
 
Red Goldfish - Motivating Sales and Loyalty Through Shared Passion and Purpose
Red Goldfish - Motivating Sales and Loyalty Through Shared Passion and PurposeRed Goldfish - Motivating Sales and Loyalty Through Shared Passion and Purpose
Red Goldfish - Motivating Sales and Loyalty Through Shared Passion and Purpose
 
【掲載用】アウトプットし続ける技術20170314
【掲載用】アウトプットし続ける技術20170314【掲載用】アウトプットし続ける技術20170314
【掲載用】アウトプットし続ける技術20170314
 
Digitalisaation merkitys turvallisuudelle
Digitalisaation merkitys turvallisuudelleDigitalisaation merkitys turvallisuudelle
Digitalisaation merkitys turvallisuudelle
 
Spark Summit - Stratio Streaming
Spark Summit - Stratio Streaming Spark Summit - Stratio Streaming
Spark Summit - Stratio Streaming
 

Learning with a Wasserstein Loss (NIPS2015)