Enviar pesquisa
Carregar
Learning with a Wasserstein Loss (NIPS2015)
•
6 gostaram
•
3,116 visualizações
H
Hayato Watanabe
Seguir
【学生による機械学習のトップカンファレンス読み会vol.1ーNIPS2015ー】のときの発表資料
Leia menos
Leia mais
Dados e análise
Denunciar
Compartilhar
Denunciar
Compartilhar
1 de 36
Baixar agora
Baixar para ler offline
Recomendados
最適輸送の解き方
最適輸送の解き方
joisino
最適輸送入門
最適輸送入門
joisino
Sliced Wasserstein距離と生成モデル
Sliced Wasserstein距離と生成モデル
ohken
最適輸送の計算アルゴリズムの研究動向
最適輸送の計算アルゴリズムの研究動向
ohken
DNNの曖昧性に関する研究動向
DNNの曖昧性に関する研究動向
Naoki Matsunaga
21世紀の手法対決 (MIC vs HSIC)
21世紀の手法対決 (MIC vs HSIC)
Toru Imai
【DL輪読会】時系列予測 Transfomers の精度向上手法
【DL輪読会】時系列予測 Transfomers の精度向上手法
Deep Learning JP
スペクトラル・クラスタリング
スペクトラル・クラスタリング
Akira Miyazawa
Recomendados
最適輸送の解き方
最適輸送の解き方
joisino
最適輸送入門
最適輸送入門
joisino
Sliced Wasserstein距離と生成モデル
Sliced Wasserstein距離と生成モデル
ohken
最適輸送の計算アルゴリズムの研究動向
最適輸送の計算アルゴリズムの研究動向
ohken
DNNの曖昧性に関する研究動向
DNNの曖昧性に関する研究動向
Naoki Matsunaga
21世紀の手法対決 (MIC vs HSIC)
21世紀の手法対決 (MIC vs HSIC)
Toru Imai
【DL輪読会】時系列予測 Transfomers の精度向上手法
【DL輪読会】時系列予測 Transfomers の精度向上手法
Deep Learning JP
スペクトラル・クラスタリング
スペクトラル・クラスタリング
Akira Miyazawa
SSII2018TS: 大規模深層学習
SSII2018TS: 大規模深層学習
SSII
Bayes Independence Test - HSIC と性能を比較する-
Bayes Independence Test - HSIC と性能を比較する-
Joe Suzuki
3分でわかる多項分布とディリクレ分布
3分でわかる多項分布とディリクレ分布
Junya Saito
Deeplearning輪読会
Deeplearning輪読会
正志 坪坂
【DL輪読会】A Time Series is Worth 64 Words: Long-term Forecasting with Transformers
【DL輪読会】A Time Series is Worth 64 Words: Long-term Forecasting with Transformers
Deep Learning JP
Semi supervised, weakly-supervised, unsupervised, and active learning
Semi supervised, weakly-supervised, unsupervised, and active learning
Yusuke Uchida
[DL輪読会]A Bayesian Perspective on Generalization and Stochastic Gradient Descent
[DL輪読会]A Bayesian Perspective on Generalization and Stochastic Gradient Descent
Deep Learning JP
ICML 2020 最適輸送まとめ
ICML 2020 最適輸送まとめ
ohken
グラフニューラルネットワークとグラフ組合せ問題
グラフニューラルネットワークとグラフ組合せ問題
joisino
[DL輪読会]GANとエネルギーベースモデル
[DL輪読会]GANとエネルギーベースモデル
Deep Learning JP
Word2vecの並列実行時の学習速度の改善
Word2vecの並列実行時の学習速度の改善
Naoaki Okazaki
時系列予測にTransformerを使うのは有効か?
時系列予測にTransformerを使うのは有効か?
Fumihiko Takahashi
[DL輪読会]NVAE: A Deep Hierarchical Variational Autoencoder
[DL輪読会]NVAE: A Deep Hierarchical Variational Autoencoder
Deep Learning JP
Optimizer入門&最新動向
Optimizer入門&最新動向
Motokawa Tetsuya
統計的学習の基礎 5章前半(~5.6)
統計的学習の基礎 5章前半(~5.6)
Kota Mori
深層学習の不確実性 - Uncertainty in Deep Neural Networks -
深層学習の不確実性 - Uncertainty in Deep Neural Networks -
tmtm otm
異常検知と変化検知 7章方向データの異常検知
異常検知と変化検知 7章方向データの異常検知
智文 中野
Active Learning 入門
Active Learning 入門
Shuyo Nakatani
グラフニューラルネットワーク入門
グラフニューラルネットワーク入門
ryosuke-kojima
[DL輪読会]相互情報量最大化による表現学習
[DL輪読会]相互情報量最大化による表現学習
Deep Learning JP
Learning Deep Embeddings with Histogram Loss (NIPS2016)
Learning Deep Embeddings with Histogram Loss (NIPS2016)
Hayato Watanabe
El TAO de la programación
El TAO de la programación
Willy Marroquin (WillyDevNET)
Mais conteúdo relacionado
Mais procurados
SSII2018TS: 大規模深層学習
SSII2018TS: 大規模深層学習
SSII
Bayes Independence Test - HSIC と性能を比較する-
Bayes Independence Test - HSIC と性能を比較する-
Joe Suzuki
3分でわかる多項分布とディリクレ分布
3分でわかる多項分布とディリクレ分布
Junya Saito
Deeplearning輪読会
Deeplearning輪読会
正志 坪坂
【DL輪読会】A Time Series is Worth 64 Words: Long-term Forecasting with Transformers
【DL輪読会】A Time Series is Worth 64 Words: Long-term Forecasting with Transformers
Deep Learning JP
Semi supervised, weakly-supervised, unsupervised, and active learning
Semi supervised, weakly-supervised, unsupervised, and active learning
Yusuke Uchida
[DL輪読会]A Bayesian Perspective on Generalization and Stochastic Gradient Descent
[DL輪読会]A Bayesian Perspective on Generalization and Stochastic Gradient Descent
Deep Learning JP
ICML 2020 最適輸送まとめ
ICML 2020 最適輸送まとめ
ohken
グラフニューラルネットワークとグラフ組合せ問題
グラフニューラルネットワークとグラフ組合せ問題
joisino
[DL輪読会]GANとエネルギーベースモデル
[DL輪読会]GANとエネルギーベースモデル
Deep Learning JP
Word2vecの並列実行時の学習速度の改善
Word2vecの並列実行時の学習速度の改善
Naoaki Okazaki
時系列予測にTransformerを使うのは有効か?
時系列予測にTransformerを使うのは有効か?
Fumihiko Takahashi
[DL輪読会]NVAE: A Deep Hierarchical Variational Autoencoder
[DL輪読会]NVAE: A Deep Hierarchical Variational Autoencoder
Deep Learning JP
Optimizer入門&最新動向
Optimizer入門&最新動向
Motokawa Tetsuya
統計的学習の基礎 5章前半(~5.6)
統計的学習の基礎 5章前半(~5.6)
Kota Mori
深層学習の不確実性 - Uncertainty in Deep Neural Networks -
深層学習の不確実性 - Uncertainty in Deep Neural Networks -
tmtm otm
異常検知と変化検知 7章方向データの異常検知
異常検知と変化検知 7章方向データの異常検知
智文 中野
Active Learning 入門
Active Learning 入門
Shuyo Nakatani
グラフニューラルネットワーク入門
グラフニューラルネットワーク入門
ryosuke-kojima
[DL輪読会]相互情報量最大化による表現学習
[DL輪読会]相互情報量最大化による表現学習
Deep Learning JP
Mais procurados
(20)
SSII2018TS: 大規模深層学習
SSII2018TS: 大規模深層学習
Bayes Independence Test - HSIC と性能を比較する-
Bayes Independence Test - HSIC と性能を比較する-
3分でわかる多項分布とディリクレ分布
3分でわかる多項分布とディリクレ分布
Deeplearning輪読会
Deeplearning輪読会
【DL輪読会】A Time Series is Worth 64 Words: Long-term Forecasting with Transformers
【DL輪読会】A Time Series is Worth 64 Words: Long-term Forecasting with Transformers
Semi supervised, weakly-supervised, unsupervised, and active learning
Semi supervised, weakly-supervised, unsupervised, and active learning
[DL輪読会]A Bayesian Perspective on Generalization and Stochastic Gradient Descent
[DL輪読会]A Bayesian Perspective on Generalization and Stochastic Gradient Descent
ICML 2020 最適輸送まとめ
ICML 2020 最適輸送まとめ
グラフニューラルネットワークとグラフ組合せ問題
グラフニューラルネットワークとグラフ組合せ問題
[DL輪読会]GANとエネルギーベースモデル
[DL輪読会]GANとエネルギーベースモデル
Word2vecの並列実行時の学習速度の改善
Word2vecの並列実行時の学習速度の改善
時系列予測にTransformerを使うのは有効か?
時系列予測にTransformerを使うのは有効か?
[DL輪読会]NVAE: A Deep Hierarchical Variational Autoencoder
[DL輪読会]NVAE: A Deep Hierarchical Variational Autoencoder
Optimizer入門&最新動向
Optimizer入門&最新動向
統計的学習の基礎 5章前半(~5.6)
統計的学習の基礎 5章前半(~5.6)
深層学習の不確実性 - Uncertainty in Deep Neural Networks -
深層学習の不確実性 - Uncertainty in Deep Neural Networks -
異常検知と変化検知 7章方向データの異常検知
異常検知と変化検知 7章方向データの異常検知
Active Learning 入門
Active Learning 入門
グラフニューラルネットワーク入門
グラフニューラルネットワーク入門
[DL輪読会]相互情報量最大化による表現学習
[DL輪読会]相互情報量最大化による表現学習
Destaque
Learning Deep Embeddings with Histogram Loss (NIPS2016)
Learning Deep Embeddings with Histogram Loss (NIPS2016)
Hayato Watanabe
El TAO de la programación
El TAO de la programación
Willy Marroquin (WillyDevNET)
Consejos rápidos: Convertirse en el Asesor de confianza de medios digitales
Consejos rápidos: Convertirse en el Asesor de confianza de medios digitales
Juan Pittau
Mental Health and Cognitive Changes in the Older Adult
Mental Health and Cognitive Changes in the Older Adult
Paul McNamara
「望ましさ」による優先順位づけ
「望ましさ」による優先順位づけ
Arata Fujimura
発想の飛躍を生み出すクリエイティブシンキング
発想の飛躍を生み出すクリエイティブシンキング
Yusuke Kuroda
Terminology and information models
Terminology and information models
Silje Ljosland Bakke
Database Security Overview
Database Security Overview
Shawn McElhinney
Angular 2
Angular 2
Alexandre Marreiros
ICST 2017 Day1 Opening Ceremony Research Track
ICST 2017 Day1 Opening Ceremony Research Track
Hironori Washizaki
Architecting a Next Generation Data Platform
Architecting a Next Generation Data Platform
hadooparchbook
こわくない Git
こわくない Git
Kota Saito
Leap across persuasion hurdles vimarsa
Leap across persuasion hurdles vimarsa
Vimarsa Consulting LLP
Amazon AWS basics needed to run a Cassandra Cluster in AWS
Amazon AWS basics needed to run a Cassandra Cluster in AWS
Jean-Paul Azar
Development Workflow Tools for Open-Source PHP Libraries
Development Workflow Tools for Open-Source PHP Libraries
Pantheon
Tech art 20170315
Tech art 20170315
Masayuki Tanaka
Red Goldfish - Motivating Sales and Loyalty Through Shared Passion and Purpose
Red Goldfish - Motivating Sales and Loyalty Through Shared Passion and Purpose
Stan Phelps
【掲載用】アウトプットし続ける技術20170314
【掲載用】アウトプットし続ける技術20170314
Hayashi Masayuki
Digitalisaation merkitys turvallisuudelle
Digitalisaation merkitys turvallisuudelle
Jyrki Kasvi
Spark Summit - Stratio Streaming
Spark Summit - Stratio Streaming
Stratio
Destaque
(20)
Learning Deep Embeddings with Histogram Loss (NIPS2016)
Learning Deep Embeddings with Histogram Loss (NIPS2016)
El TAO de la programación
El TAO de la programación
Consejos rápidos: Convertirse en el Asesor de confianza de medios digitales
Consejos rápidos: Convertirse en el Asesor de confianza de medios digitales
Mental Health and Cognitive Changes in the Older Adult
Mental Health and Cognitive Changes in the Older Adult
「望ましさ」による優先順位づけ
「望ましさ」による優先順位づけ
発想の飛躍を生み出すクリエイティブシンキング
発想の飛躍を生み出すクリエイティブシンキング
Terminology and information models
Terminology and information models
Database Security Overview
Database Security Overview
Angular 2
Angular 2
ICST 2017 Day1 Opening Ceremony Research Track
ICST 2017 Day1 Opening Ceremony Research Track
Architecting a Next Generation Data Platform
Architecting a Next Generation Data Platform
こわくない Git
こわくない Git
Leap across persuasion hurdles vimarsa
Leap across persuasion hurdles vimarsa
Amazon AWS basics needed to run a Cassandra Cluster in AWS
Amazon AWS basics needed to run a Cassandra Cluster in AWS
Development Workflow Tools for Open-Source PHP Libraries
Development Workflow Tools for Open-Source PHP Libraries
Tech art 20170315
Tech art 20170315
Red Goldfish - Motivating Sales and Loyalty Through Shared Passion and Purpose
Red Goldfish - Motivating Sales and Loyalty Through Shared Passion and Purpose
【掲載用】アウトプットし続ける技術20170314
【掲載用】アウトプットし続ける技術20170314
Digitalisaation merkitys turvallisuudelle
Digitalisaation merkitys turvallisuudelle
Spark Summit - Stratio Streaming
Spark Summit - Stratio Streaming
Learning with a Wasserstein Loss (NIPS2015)
1.
(NIPS2015) Learning with a
Wasserstein Loss 先進理工学研究科 電気・情報生命専攻 村田研究室(情報学習システム研究室) 修士1年 渡邊隼人 ワッサースタイン 2015/Dec/18 機械学習トップカンファレンス読み会 vol.1
2.
マルチラベル予測 あなたならこの写真にどんなラベル(タグ)をつけますか? やりたいこと 2 Flickrユーザによる ラベル(タグ) l water l
boat l reflection
3.
マルチラベル予測 あなたならこの写真にどんなラベル(タグ)をつけますか? やりたいこと 3 Flickrユーザによる ラベル(タグ) l water l
boat l reflection 写真から複数のラベルを予測したい
4.
問題設定 4 画像 全ラベルのベクトルラベル water boat reflection education weather cow spring race training agriculture …
5.
問題設定 5 画像 全ラベルのベクトル ラベルを 符号化したもの …
6.
問題設定 6 画像 ラベルに 属する確率 全ラベルのベクトル … …
7.
問題設定 7 画像 … ラベルに 属する確率 …
8.
を求めよ 問題設定 8 画像 写像(判別器) … ラベルに 属する確率 …
9.
を求めよ 普通のアプローチ 9 画像 多クラス ロジスティック回帰 … ラベルに 属する確率 …
10.
より良い予測とは? 10 画像 判別器1 ラベルに属する 確率(予測) 判別器2 ラベルに属する 確率(正解) KL損失:1.58 KL損失:1.58 l KL損失としては同じだが,真のラベルに関連するラベルを 予測する判別器1の方が良い予測をしているのでは? l
"boat"を"lake"と間違えるより,"club"と間違えることの 方がひどい.後者の場合に,より強い罰則を課したい l ラベルの類似度を考慮することで,上記の罰則を実現できる
11.
キーワードで検索して, 左の画像を探したい ラベルの類似度を考慮するメリット 11 真のラベル l spring l
race l training l 良い判別器の予測結果を利用 l 悪い判別器の予測結果を利用 u 真のラベルとは異なっている かもしれないが,似ている ラベルは予測できるかも u 人間のラベル付けより良い ラベル付けができるかも (キーワード検索の意味で) (山道)
12.
を求めよ 問題設定(再掲) 12 画像 写像(判別器) … ラベルに 属する確率 …
13.
を求めよ 問題設定(改) 13 画像 写像(判別器) … ラベルに 属する確率 … water boat
reflection … water 0 0.5 0.4 … boat 0.5 0 0.2 … reflection 0.4 0.2 0 … ⋮ ⋮ ⋮ ⋮ … ラベル間の類似度(距離)もわかっている
14.
を求めよ 問題設定(改) 14 画像 写像(判別器) … ラベルに 属する確率 … water boat
reflection … water 0 0.5 0.4 … boat 0.5 0 0.2 … reflection 0.4 0.2 0 … ⋮ ⋮ ⋮ ⋮ … ラベル間の類似度(距離)もわかっている ラベルの類似度を考慮して いない Wasserstein損失
15.
2つとも分布の違いを計る尺度 KL損失とWasserstein損失 15 ラベルに属する 確率の分布(正解) ラベルに属する 確率の分布(予測) KL 各次元の関係を考慮していない (次元ごとに割り算,掛け算してその和を取ってるから) water boat reflection river lake club 0.000.20 water boat reflection river lake club 0.000.20 water boat reflection river lake club 0.000.20
16.
boat lakewater reflection river club boat lakewater reflection river club 2つとも分布の違いを計る尺度 KL損失とWasserstein損失 16 ラベルに属する 確率の分布(正解) ラベルに属する 確率の分布(予測) Wasserstein boat water reflection river lake club 同じ状態にするのに, 必要な最小コストは?
17.
2つとも分布の違いを計る尺度 KL損失とWasserstein損失 17 ラベルに属する 確率の分布(正解) ラベルに属する 確率の分布(予測) Wasserstein boat water reflection river lake club 同じ状態にするのに, 必要な最小コストは? boat lakewater reflection river club 最小
18.
2つとも分布の違いを計る尺度 KL損失とWasserstein損失 18 ラベルに属する 確率の分布(正解) ラベルに属する 確率の分布(予測) Wasserstein boat water reflection river lake club 同じ状態にするのに, 必要な最小コストは? boat lakewater reflection river club 輸送距離 water boat reflec tion river
lake club water 0 0.4 0.5 0.2 0.3 0.4 boat 0.4 0 0.4 0.3 0.1 0.8 reflec tion 0.5 0.4 0 0.3 0.3 0.6 river 0.2 0.3 0.3 0 0.1 0.5 lake 0.3 0.1 0.3 0.1 0 0.6 club 0.4 0.8 0.4 0.5 0.6 0
19.
2つとも分布の違いを計る尺度 KL損失とWasserstein損失 19 ラベルに属する 確率の分布(正解) ラベルに属する 確率の分布(予測) Wasserstein boat water reflection river lake club 同じ状態にするのに, 必要な最小コストは? boat lakewater reflection river club 輸送量 water boat reflec tion river
lake club water 6 0 0 0 0 0 boat 0 1 0 4 1 0 reflec tion 0 0 1 1 0 4 river 0 0 0 0 0 0 lake 0 0 0 0 0 0 club 0 0 0 0 0 0
20.
2つとも分布の違いを計る尺度 KL損失とWasserstein損失 20 ラベルに属する 確率の分布(正解) ラベルに属する 確率の分布(予測) Wasserstein boat water reflection river lake club 同じ状態にするのに, 必要な最小コストは? boat lakewater reflection river club water boat reflec tion river
lake club water 6 0 0 0 0 0 boat 0 1 0 4 1 0 reflec tion 0 0 1 1 0 4 river 0 0 0 0 0 0 lake 0 0 0 0 0 0 club 0 0 0 0 0 0
21.
2つとも分布の違いを計る尺度 KL損失とWasserstein損失 21 ラベルに属する 確率の分布(正解) ラベルに属する 確率の分布(予測) Wasserstein boat water reflection river lake club 同じ状態にするのに, 必要な最小コストは? boat lakewater reflection river club water boat reflec tion river
lake club water 6 0 0 0 0 0 boat 0 1 0 4 1 0 reflec tion 0 0 1 1 0 4 river 0 0 0 0 0 0 lake 0 0 0 0 0 0 club 0 0 0 0 0 0
22.
2つとも分布の違いを計る尺度 KL損失とWasserstein損失 22 ラベルに属する 確率の分布(正解) ラベルに属する 確率の分布(予測) Wasserstein boat water reflection river lake club 同じ状態にするのに, 必要な最小コストは? boat lakewater reflection river club water boat reflec tion river
lake club water 6 0 0 0 0 0 boat 0 1 0 4 1 0 reflec tion 0 0 1 1 0 4 river 0 0 0 0 0 0 lake 0 0 0 0 0 0 club 0 0 0 0 0 0
23.
2つとも分布の違いを計る尺度 KL損失とWasserstein損失 23 ラベルに属する 確率の分布(正解) ラベルに属する 確率の分布(予測) Wasserstein boat water reflection river lake club 同じ状態にするのに, 必要な最小コストは? boat lakewater reflection river club water boat reflec tion river
lake club water 6 0 0 0 0 0 boat 0 1 0 4 1 0 reflec tion 0 0 1 1 0 4 river 0 0 0 0 0 0 lake 0 0 0 0 0 0 club 0 0 0 0 0 0 輸送量と輸送距離の 要素ごとの積の和 water boat reflec tion river lake club water 0 0.4 0.5 0.2 0.3 0.4 boat 0.4 0 0.4 0.3 0.1 0.8 reflec tion 0.5 0.4 0 0.3 0.3 0.6 river 0.2 0.3 0.3 0 0.1 0.5 lake 0.3 0.1 0.3 0.1 0 0.6 club 0.4 0.8 0.4 0.5 0.6 0
24.
2つとも分布の違いを計る尺度 KL損失とWasserstein損失 24 ラベルに属する 確率の分布(正解) ラベルに属する 確率の分布(予測) Wasserstein boat water reflection river lake club 同じ状態にするのに, 必要な最小コストは? boat lakewater reflection river club 何でこんな損失考えてたんだっけ? l "boat"を"lake"と間違えるより,"club"と間違えることの 方がひどい.後者の場合に,より強い罰則を課したい
25.
2つとも分布の違いを計る尺度 KL損失とWasserstein損失 25 ラベルに属する 確率の分布(正解) ラベルに属する 確率の分布(予測) Wasserstein boat water reflection river lake club 同じ状態にするのに, 必要な最小コストは? boat lakewater reflection river club 何でこんな損失考えてたんだっけ? l "boat"を"lake"と間違えるより,"club"と間違えることの 方がひどい.後者の場合に,より強い罰則を課したい
26.
KLの場合 パラメータ で偏微分して勾配求める→勾配法 最適化 26 Wassersteinの場合 (劣)勾配求めるのに計算時間がかかりすぎる… 凸問題にした.ラベル数の影響がほぼなくなる
27.
ケーススタディ
28.
Flickrのタグ付き画像データ l 訓練, 確認,
テスト 各1万画像,1千タグ 特徴抽出 l Convolutional Neural Networks (CNNs) ラベル(タグ)間の距離 l word2vecで単位ベクトルに変換して,ユークリッド距離 実験設定 28
29.
を求めよ 問題設定(改)(再掲) 29 画像 写像(判別器) … ラベルに 属する確率 … water boat
reflection … water 0 0.5 0.4 … boat 0.5 0 0.2 … reflection 0.4 0.2 0 … ⋮ ⋮ ⋮ ⋮ … ラベル間の類似度(距離)もわかっている
30.
Flickrのタグ付き画像データ l 訓練, 確認,
テスト 各1万画像,1千タグ 特徴抽出 l Convolutional Neural Networks (CNNs) ラベル(タグ)間の距離 l word2vecで単位ベクトルに変換して,ユークリッド距離 評価指標 l top-K cost 実験設定 30 water boat reflec tion river lake club water 0 0.4 0.5 0.2 0.3 0.4 boat 0.4 0 0.4 0.3 0.1 0.8 reflec tion 0.5 0.4 0 0.3 0.3 0.6 river 0.2 0.3 0.3 0 0.1 0.5 lake 0.3 0.1 0.3 0.1 0 0.6 club 0.4 0.8 0.4 0.5 0.6 0 正解 予測 1 2
31.
Flickrのタグ付き画像データ l 訓練, 確認,
テスト 各1万画像,1千タグ 特徴抽出 l Convolutional Neural Networks (CNNs) ラベル(タグ)間の距離 l word2vecで単位ベクトルに変換して,ユークリッド距離 評価指標 l top-K cost (ラベルの意味が近いものが予測できてれば◎) l AUC (正解ラベルがなるべく上位に予測できてれば◎) 実験設定 31
32.
実験結果|top-K cost 32 5
10 15 20 K (# of proposed tags) 0.70 0.75 0.80 0.85 0.90 0.95 1.00 top-KCost Loss Function Divergence Wasserstein (↵=0.5) Wasserstein (↵=0.3) Wasserstein (↵=0.1) (a) Original Flickr tags dataset. 0.70 0.75 0.80 0.85 0.90 0.95 1.00 top-KCost (b) R Figure 5: Top-K cost comparison of the proposed loss (Was 悪 良 損失関数にKL使った普通のロジスティックより良い
33.
実験結果|top-K cost &
AUC 33 悪 良 Wasserstein + αKL として,αを動かしてみる 0.0 0.5 1.0 1.5 2.0 0.65 0.70 0.75 0.80 0.85 0.90 0.95 Top-Kcost K = 1 K = 2 K = 3 K = 4 0.0 0.5 1.0 1.5 2.0 ↵ 0.54 0.56 0.58 0.60 0.62 0.64 AUC Wasserstein AUC Divergence AUC (a) Original Flickr tags dataset. 0.0 0.65 0.70 0.75 0.80 0.85 0.90 0.95 Top-Kcost K = 0.0 0.54 0.56 0.58 0.60 0.62 0.64 AUC (b) Reduced-r Figure 6: Trade-off between semantic smoothness and m 悪 良 意味的に近いラベルを予測したいなら, Wassersteinの重みを強く
34.
実験結果|実際のラベル(タグ)予測の結果 34 正解: zoo,
run, mark 提案: running, summer, fun ベース: running, country, lake 正解: travel, architecture, tourism 提案: sky, roof, building ベース: art, sky, beach
35.
l 教師あり学習に初めてWasserstein損失を用いた l マルチラベル予測問題に適用し,正解ラベルとは一致しない かもしれないが,意味的に近いものが予測できた l
そのままでは時間のかかるWassersteinの計算を高速な手法 を使ってうまく計算した(手法自体は既存のもの) まとめ (contributions) 35
36.
補遺
Baixar agora