Enviar pesquisa
Carregar
機械学習研究の現状とこれから
•
33 gostaram
•
13,602 visualizações
M
MLSE
Seguir
日本ソフトウェア科学会 キックオフシンポジウム 基調講演2 Speaker: 杉山将(理研AIP/東京大学)
Leia menos
Leia mais
Ciências
Denunciar
Compartilhar
Denunciar
Compartilhar
1 de 29
Baixar agora
Baixar para ler offline
Recomendados
機械学習モデルの判断根拠の説明
機械学習モデルの判断根拠の説明
Satoshi Hara
SSII2022 [TS1] Transformerの最前線〜 畳込みニューラルネットワークの先へ 〜
SSII2022 [TS1] Transformerの最前線〜 畳込みニューラルネットワークの先へ 〜
SSII
機械学習の理論と実践
機械学習の理論と実践
Preferred Networks
SSII2022 [OS3-02] Federated Learningの基礎と応用
SSII2022 [OS3-02] Federated Learningの基礎と応用
SSII
最適輸送入門
最適輸送入門
joisino
Transformerを雰囲気で理解する
Transformerを雰囲気で理解する
AtsukiYamaguchi1
深層学習の数理
深層学習の数理
Taiji Suzuki
[DL輪読会]Pay Attention to MLPs (gMLP)
[DL輪読会]Pay Attention to MLPs (gMLP)
Deep Learning JP
Recomendados
機械学習モデルの判断根拠の説明
機械学習モデルの判断根拠の説明
Satoshi Hara
SSII2022 [TS1] Transformerの最前線〜 畳込みニューラルネットワークの先へ 〜
SSII2022 [TS1] Transformerの最前線〜 畳込みニューラルネットワークの先へ 〜
SSII
機械学習の理論と実践
機械学習の理論と実践
Preferred Networks
SSII2022 [OS3-02] Federated Learningの基礎と応用
SSII2022 [OS3-02] Federated Learningの基礎と応用
SSII
最適輸送入門
最適輸送入門
joisino
Transformerを雰囲気で理解する
Transformerを雰囲気で理解する
AtsukiYamaguchi1
深層学習の数理
深層学習の数理
Taiji Suzuki
[DL輪読会]Pay Attention to MLPs (gMLP)
[DL輪読会]Pay Attention to MLPs (gMLP)
Deep Learning JP
Word Tour: One-dimensional Word Embeddings via the Traveling Salesman Problem...
Word Tour: One-dimensional Word Embeddings via the Traveling Salesman Problem...
joisino
深層学習の不確実性 - Uncertainty in Deep Neural Networks -
深層学習の不確実性 - Uncertainty in Deep Neural Networks -
tmtm otm
[DL輪読会]相互情報量最大化による表現学習
[DL輪読会]相互情報量最大化による表現学習
Deep Learning JP
Recent Advances on Transfer Learning and Related Topics Ver.2
Recent Advances on Transfer Learning and Related Topics Ver.2
Kota Matsui
機械学習 入門
機械学習 入門
Hayato Maki
相関と因果について考える:統計的因果推論、その(不)可能性の中心
相関と因果について考える:統計的因果推論、その(不)可能性の中心
takehikoihayashi
最適輸送の計算アルゴリズムの研究動向
最適輸送の計算アルゴリズムの研究動向
ohken
研究室における研究・実装ノウハウの共有
研究室における研究・実装ノウハウの共有
Naoaki Okazaki
失敗から学ぶ機械学習応用
失敗から学ぶ機械学習応用
Hiroyuki Masuda
深層学習時代の自然言語処理
深層学習時代の自然言語処理
Yuya Unno
[DL輪読会]ドメイン転移と不変表現に関するサーベイ
[DL輪読会]ドメイン転移と不変表現に関するサーベイ
Deep Learning JP
Transformer メタサーベイ
Transformer メタサーベイ
cvpaper. challenge
2019年度チュートリアルBPE
2019年度チュートリアルBPE
広樹 本間
テンソル多重線形ランクの推定法について(Estimation of Multi-linear Tensor Rank)
テンソル多重線形ランクの推定法について(Estimation of Multi-linear Tensor Rank)
Tatsuya Yokota
Triplet Loss 徹底解説
Triplet Loss 徹底解説
tancoro
CV分野におけるサーベイ方法
CV分野におけるサーベイ方法
Hirokatsu Kataoka
ブラックボックスからXAI (説明可能なAI) へ - LIME (Local Interpretable Model-agnostic Explanat...
ブラックボックスからXAI (説明可能なAI) へ - LIME (Local Interpretable Model-agnostic Explanat...
西岡 賢一郎
Active Learning 入門
Active Learning 入門
Shuyo Nakatani
【DL輪読会】SimCSE: Simple Contrastive Learning of Sentence Embeddings (EMNLP 2021)
【DL輪読会】SimCSE: Simple Contrastive Learning of Sentence Embeddings (EMNLP 2021)
Deep Learning JP
最適化超入門
最適化超入門
Takami Sato
Panel 3: JST Project to Realize Society 5.0
Panel 3: JST Project to Realize Society 5.0
Symposium on Society 5.0
バイオサイエンス分野における機械学習応用研究の最新動向
バイオサイエンス分野における機械学習応用研究の最新動向
ハイシンク創研 / Laboratory of Hi-Think Corporation
Mais conteúdo relacionado
Mais procurados
Word Tour: One-dimensional Word Embeddings via the Traveling Salesman Problem...
Word Tour: One-dimensional Word Embeddings via the Traveling Salesman Problem...
joisino
深層学習の不確実性 - Uncertainty in Deep Neural Networks -
深層学習の不確実性 - Uncertainty in Deep Neural Networks -
tmtm otm
[DL輪読会]相互情報量最大化による表現学習
[DL輪読会]相互情報量最大化による表現学習
Deep Learning JP
Recent Advances on Transfer Learning and Related Topics Ver.2
Recent Advances on Transfer Learning and Related Topics Ver.2
Kota Matsui
機械学習 入門
機械学習 入門
Hayato Maki
相関と因果について考える:統計的因果推論、その(不)可能性の中心
相関と因果について考える:統計的因果推論、その(不)可能性の中心
takehikoihayashi
最適輸送の計算アルゴリズムの研究動向
最適輸送の計算アルゴリズムの研究動向
ohken
研究室における研究・実装ノウハウの共有
研究室における研究・実装ノウハウの共有
Naoaki Okazaki
失敗から学ぶ機械学習応用
失敗から学ぶ機械学習応用
Hiroyuki Masuda
深層学習時代の自然言語処理
深層学習時代の自然言語処理
Yuya Unno
[DL輪読会]ドメイン転移と不変表現に関するサーベイ
[DL輪読会]ドメイン転移と不変表現に関するサーベイ
Deep Learning JP
Transformer メタサーベイ
Transformer メタサーベイ
cvpaper. challenge
2019年度チュートリアルBPE
2019年度チュートリアルBPE
広樹 本間
テンソル多重線形ランクの推定法について(Estimation of Multi-linear Tensor Rank)
テンソル多重線形ランクの推定法について(Estimation of Multi-linear Tensor Rank)
Tatsuya Yokota
Triplet Loss 徹底解説
Triplet Loss 徹底解説
tancoro
CV分野におけるサーベイ方法
CV分野におけるサーベイ方法
Hirokatsu Kataoka
ブラックボックスからXAI (説明可能なAI) へ - LIME (Local Interpretable Model-agnostic Explanat...
ブラックボックスからXAI (説明可能なAI) へ - LIME (Local Interpretable Model-agnostic Explanat...
西岡 賢一郎
Active Learning 入門
Active Learning 入門
Shuyo Nakatani
【DL輪読会】SimCSE: Simple Contrastive Learning of Sentence Embeddings (EMNLP 2021)
【DL輪読会】SimCSE: Simple Contrastive Learning of Sentence Embeddings (EMNLP 2021)
Deep Learning JP
最適化超入門
最適化超入門
Takami Sato
Mais procurados
(20)
Word Tour: One-dimensional Word Embeddings via the Traveling Salesman Problem...
Word Tour: One-dimensional Word Embeddings via the Traveling Salesman Problem...
深層学習の不確実性 - Uncertainty in Deep Neural Networks -
深層学習の不確実性 - Uncertainty in Deep Neural Networks -
[DL輪読会]相互情報量最大化による表現学習
[DL輪読会]相互情報量最大化による表現学習
Recent Advances on Transfer Learning and Related Topics Ver.2
Recent Advances on Transfer Learning and Related Topics Ver.2
機械学習 入門
機械学習 入門
相関と因果について考える:統計的因果推論、その(不)可能性の中心
相関と因果について考える:統計的因果推論、その(不)可能性の中心
最適輸送の計算アルゴリズムの研究動向
最適輸送の計算アルゴリズムの研究動向
研究室における研究・実装ノウハウの共有
研究室における研究・実装ノウハウの共有
失敗から学ぶ機械学習応用
失敗から学ぶ機械学習応用
深層学習時代の自然言語処理
深層学習時代の自然言語処理
[DL輪読会]ドメイン転移と不変表現に関するサーベイ
[DL輪読会]ドメイン転移と不変表現に関するサーベイ
Transformer メタサーベイ
Transformer メタサーベイ
2019年度チュートリアルBPE
2019年度チュートリアルBPE
テンソル多重線形ランクの推定法について(Estimation of Multi-linear Tensor Rank)
テンソル多重線形ランクの推定法について(Estimation of Multi-linear Tensor Rank)
Triplet Loss 徹底解説
Triplet Loss 徹底解説
CV分野におけるサーベイ方法
CV分野におけるサーベイ方法
ブラックボックスからXAI (説明可能なAI) へ - LIME (Local Interpretable Model-agnostic Explanat...
ブラックボックスからXAI (説明可能なAI) へ - LIME (Local Interpretable Model-agnostic Explanat...
Active Learning 入門
Active Learning 入門
【DL輪読会】SimCSE: Simple Contrastive Learning of Sentence Embeddings (EMNLP 2021)
【DL輪読会】SimCSE: Simple Contrastive Learning of Sentence Embeddings (EMNLP 2021)
最適化超入門
最適化超入門
Semelhante a 機械学習研究の現状とこれから
Panel 3: JST Project to Realize Society 5.0
Panel 3: JST Project to Realize Society 5.0
Symposium on Society 5.0
バイオサイエンス分野における機械学習応用研究の最新動向
バイオサイエンス分野における機械学習応用研究の最新動向
ハイシンク創研 / Laboratory of Hi-Think Corporation
しごと能力学会 基調報告: enPiT-Pro スマートエスイー
しごと能力学会 基調報告: enPiT-Pro スマートエスイー
Hironori Washizaki
NAIST ソフトウェア工学研究室紹介 2018
NAIST ソフトウェア工学研究室紹介 2018
Takashi Ishio
Jista kansai121031
Jista kansai121031
Issei Abe
20160527_07_IoT勉強会 分析WG 配布用
20160527_07_IoT勉強会 分析WG 配布用
IoTビジネス共創ラボ
ビジネスのコアを創り出すゼロイチ発想法
ビジネスのコアを創り出すゼロイチ発想法
Yoshitaka Naka
重心動揺検査データを用いた機械学習による診断支援
重心動揺検査データを用いた機械学習による診断支援
TeruKamogashira
機械学習を科学研究で使うとは?
機械学習を科学研究で使うとは?
Ichigaku Takigawa
2017年度 河野ゼミ スタートアップ資料
2017年度 河野ゼミ スタートアップ資料
義広 河野
サイバー・フィールド研究分科会 活動経過
サイバー・フィールド研究分科会 活動経過
hsgk
ディープラーニングの産業応用とそれを支える技術
ディープラーニングの産業応用とそれを支える技術
Shohei Hido
[Japan Tech summit 2017] MAI 001
[Japan Tech summit 2017] MAI 001
Microsoft Tech Summit 2017
スパコン「富岳」で目指す,ものづくりのデジタル革命
スパコン「富岳」で目指す,ものづくりのデジタル革命
Koji Nishiguchi
地方創生It未来大v3
地方創生It未来大v3
Hideyuki Nakashima
企業における自然言語処理技術の活用の現場(情報処理学会東海支部主催講演会@名古屋大学)
企業における自然言語処理技術の活用の現場(情報処理学会東海支部主催講演会@名古屋大学)
Yuya Unno
20190605 jsai2019 kawashima
20190605 jsai2019 kawashima
茂生 河島
20181030 fun
20181030 fun
Hiroshi Maruyama
サービス学とか何か(応用サービス工学)
サービス学とか何か(応用サービス工学)
Kurata Takeshi
mlabforum2012_okanohara
mlabforum2012_okanohara
Preferred Networks
Semelhante a 機械学習研究の現状とこれから
(20)
Panel 3: JST Project to Realize Society 5.0
Panel 3: JST Project to Realize Society 5.0
バイオサイエンス分野における機械学習応用研究の最新動向
バイオサイエンス分野における機械学習応用研究の最新動向
しごと能力学会 基調報告: enPiT-Pro スマートエスイー
しごと能力学会 基調報告: enPiT-Pro スマートエスイー
NAIST ソフトウェア工学研究室紹介 2018
NAIST ソフトウェア工学研究室紹介 2018
Jista kansai121031
Jista kansai121031
20160527_07_IoT勉強会 分析WG 配布用
20160527_07_IoT勉強会 分析WG 配布用
ビジネスのコアを創り出すゼロイチ発想法
ビジネスのコアを創り出すゼロイチ発想法
重心動揺検査データを用いた機械学習による診断支援
重心動揺検査データを用いた機械学習による診断支援
機械学習を科学研究で使うとは?
機械学習を科学研究で使うとは?
2017年度 河野ゼミ スタートアップ資料
2017年度 河野ゼミ スタートアップ資料
サイバー・フィールド研究分科会 活動経過
サイバー・フィールド研究分科会 活動経過
ディープラーニングの産業応用とそれを支える技術
ディープラーニングの産業応用とそれを支える技術
[Japan Tech summit 2017] MAI 001
[Japan Tech summit 2017] MAI 001
スパコン「富岳」で目指す,ものづくりのデジタル革命
スパコン「富岳」で目指す,ものづくりのデジタル革命
地方創生It未来大v3
地方創生It未来大v3
企業における自然言語処理技術の活用の現場(情報処理学会東海支部主催講演会@名古屋大学)
企業における自然言語処理技術の活用の現場(情報処理学会東海支部主催講演会@名古屋大学)
20190605 jsai2019 kawashima
20190605 jsai2019 kawashima
20181030 fun
20181030 fun
サービス学とか何か(応用サービス工学)
サービス学とか何か(応用サービス工学)
mlabforum2012_okanohara
mlabforum2012_okanohara
Mais de MLSE
【基調講演】『深層学習の原理の理解に向けた理論の試み』 今泉 允聡(東大)
【基調講演】『深層学習の原理の理解に向けた理論の試み』 今泉 允聡(東大)
MLSE
『鼎談:新しいプログラミングパラダイムとしての深層学習』 資料(萩谷 昌己)
『鼎談:新しいプログラミングパラダイムとしての深層学習』 資料(萩谷 昌己)
MLSE
K. Czarnecki and R. Salay, Towards a Framework to Manage Perceptual Uncertain...
K. Czarnecki and R. Salay, Towards a Framework to Manage Perceptual Uncertain...
MLSE
Jsai2018
Jsai2018
MLSE
深層学習の品質保証
深層学習の品質保証
MLSE
ソフトウェア工学は機械学習の夢を見るか ー ソフトウェア工学の振り返りとアーキテクト的観点からの問題提起
ソフトウェア工学は機械学習の夢を見るか ー ソフトウェア工学の振り返りとアーキテクト的観点からの問題提起
MLSE
ソフトウェア工学における問題提起と機械学習の新たなあり方
ソフトウェア工学における問題提起と機械学習の新たなあり方
MLSE
開催の辞
開催の辞
MLSE
機械学習工学への期待〜機械学習が工学となるために〜
機械学習工学への期待〜機械学習が工学となるために〜
MLSE
Mais de MLSE
(9)
【基調講演】『深層学習の原理の理解に向けた理論の試み』 今泉 允聡(東大)
【基調講演】『深層学習の原理の理解に向けた理論の試み』 今泉 允聡(東大)
『鼎談:新しいプログラミングパラダイムとしての深層学習』 資料(萩谷 昌己)
『鼎談:新しいプログラミングパラダイムとしての深層学習』 資料(萩谷 昌己)
K. Czarnecki and R. Salay, Towards a Framework to Manage Perceptual Uncertain...
K. Czarnecki and R. Salay, Towards a Framework to Manage Perceptual Uncertain...
Jsai2018
Jsai2018
深層学習の品質保証
深層学習の品質保証
ソフトウェア工学は機械学習の夢を見るか ー ソフトウェア工学の振り返りとアーキテクト的観点からの問題提起
ソフトウェア工学は機械学習の夢を見るか ー ソフトウェア工学の振り返りとアーキテクト的観点からの問題提起
ソフトウェア工学における問題提起と機械学習の新たなあり方
ソフトウェア工学における問題提起と機械学習の新たなあり方
開催の辞
開催の辞
機械学習工学への期待〜機械学習が工学となるために〜
機械学習工学への期待〜機械学習が工学となるために〜
機械学習研究の現状とこれから
1.
2018年5月17日 機械学習研究の 現状とこれから 機械学習研究の 現状とこれから 理化学研究所 革新知能統合研究センター 東京大学 大学院新領域創成科学研究科 杉山
将 日本ソフトウェア科学会 機械学習工学研究会
2.
2 自己紹介 現職: 理化学研究所・センター長:研究者とともに 東京大学・教授:学生とともに
企業・技術顧問:エンジニアとともに 専門分野: 機械学習の理論・アルゴリズム開発 機械学習の実世界応用 (音声,画像,言語,脳波,ロボット, 自動車,光学,広告,医療,生命など)
3.
機械学習の国際会議の動向 参加者数が激増: ICML:
International Conference on Machine Learning NIPS: Neural Information Processing Systems 企業のスポンサーも非常に活発: 00年代前半:アメリカのIT企業(Google, IBM, Yahoo, Microsoft...) 00年代後半:世界中のIT企業 (Amazon, Facebook, Linkedin, Tencent, Baidu, Huawei, Yandex…) 10年代:製造・金融など様々な業種のスタートアップ~大企業 3 2013 2014 2015 2016 2017 ICML 900 1200 1600 3000+ 2400 (Sydney) NIPS 1200 2400 3800 6000+ 7500+ (California)
4.
ICML2016の採択論文の分布 4 アメリカ 企業 .com フランス イギリス イスラエル スイス 日本(10件≒3%) ドイツ
カナダ • アメリカ一強 (多数の中・韓・印・欧を含む) • 日本人は非常に少ない • 中国が猛烈な勢いで追い上げ
5.
機械学習研究の現状と課題 現状の機械学習によって, 音声認識,画像理解,言語翻訳 などはヒトと同等以上の性能を達成 しかし,更なる飛躍には課題がある: 機械学習技術の研究開発に多大なコスト: 世界中の企業が研究者・技術者を青田買い
ビッグデータの収集に多大なコスト: ネットからビッグデータが取れない問題は, 現状の機械学習技術では精度が悪い 様々な規制がネック: 個人情報保護,倫理規定・・・ 5
6.
講演の流れ 1. 機械学習技術の研究開発に多大なコスト 2. ビッグデータの収集に多大なコスト 3.
まとめと今後の展望 6
7.
7 最も汎用的なアプローチ 機械学習には様々なタスクがある データを生成する規則(確率分布)を推定すれば, あらゆる機械学習タスクが解決できる! 例:各クラスのデータの 生成分布がわかれば, パターン認識ができる 生成的アプローチとよばれる 決定境界 クラス+1 クラス-1 データの生成 規則を知る データの 全てを知る
8.
各タスクに特化したアプローチ しかし,確率分布の推定は困難であるため, 生成モデル推定に基づくアプローチによって, 必ずしも高い学習精度が得られるとは限らない 確率分布の推定を行わず,各タスクを直接解く 例:サポートベクトルマシンでは, 各クラスのデータ生成分布 を推定せず,パターン認識に 必要な決定境界のみを学習 パターン認識に対しては, 識別的アプローチとよばれる 8 クラス+1
クラス-1 決定境界
9.
各タスクに特化したアプローチ 各タスクに特化したアルゴリズムを 開発した方が,原理的には 生成的アプローチよりも性能が良い しかし,様々なタスクに対して個別に 研究開発を行うのは大変: アルゴリズム考案 理論的性能評価
高速かつメモリ効率の良い実装 エンジニアの技術習得 9
10.
中間的なアプローチ あるクラスのタスク群に対して,研究開発を行う 汎用性と有効性のトレードオフを取る 10 生成的アプローチ 中間アプローチ
タスク特化アプローチ
11.
11 確率密度比に基づく機械学習 多くの機械学習タスク群は 複数の確率分布を含む しかし,これらのタスクを解くのに,それぞれ の確率分布そのものは必要ない 確率密度関数の比が分かれば十分である 各確率分布は推定せず, 密度比を直接推定する r(x) = p(x) q(x) 非定常環境下での適応学習,ドメイン適応, マルチタスク学習,二標本検定,異常値検出, 変化点検知,クラスバランス推定,相互情報 量推定,独立性検定,特徴選択,十分次元削 減,独立成分分析,因果推論,クラスタリング, オブジェクト適合,条件付き確率推定,確率的 パターン認識 Sugiyama, Suzuki
& Kanamori, Density Ratio Estimation in Machine Learning, Cambridge University Press, 2012
12.
12 最小二乗密度比適合 データ: , 真の密度比 との二乗誤差を最小にする ように密度比モデル
を学習: Kanamori, Hido & Sugiyama (JMLR2009) r(x) min ® J(®) J(®) = 1 2 r®(x) ¡ r(x) 2 q(x)dx r(x) = p(x) q(x) fxq j g nq j=1 i:i:d: » q(x)fxp i g np i=1 i:i:d: » p(x)
13.
ここまでのまとめ 密度比は,単純な最小二乗法で最適推定できる 多くの学習タスクが実は最小二乗法で解ける: 重点サンプリング: ダイバージェンス推定:
相互情報量推定: 条件付き確率推定: 各機械学習タスクを直接解くのではなく,抽象化 したタスクの集合に対する解法を開発する 13
14.
講演の流れ 1. 機械学習技術の研究開発に多大なコスト: 密度比推定の理論と応用 2. ビッグデータの収集に多大なコスト: 限られた情報からの機械学習 3.
まとめと今後の展望 14
15.
ビッグデータを用いた機械学習 画像認識,音声認識,機械翻訳などで, 人間と同等かそれ以上の性能を達成 しかし,応用分野によっては, 教師付きビッグデータを簡単に取れない 医療データ解析 インフラの管理
自然災害の防災・減災 機能材料の開発 限られた情報からの学習が重要! 15
16.
2クラスの教師付き分類 大量のラベル付きデータを用いれば, 精度良く分類境界が学習できる ラベル付きデータ数 に対して,分離境界 の推定誤差は の速さで減っていく 16 正 負 分離境界
17.
教師なし分類 17 ラベル付きデータの収集にはコストがかかるため, 容易に入手できるラベルなしデータを用いる 教師なし分類はただのクラスタリングに過ぎない データがクラス毎にクラスタに分かれていないと, 正しく分類できない
18.
半教師付き分類 大量のラベルなしデータに加えて, 少量のラベル付きデータを利用 結局,教師なし分類と同じくクラスタリングする データがクラス毎にクラスタに分かれていないと, 正しく分類できない 18 正 負 ラベルなし
19.
分類問題の分類 19 高精度でラベル付コストの低い分類手法 が重要! ラベルあり (教師付き学習) ラベルなし (教師なし学習) ラベルありとなし (半教師付き学習) ラ ベ ル 付 け コ ス ト 高 低学習の精度 高 高低 高精度 & 低ラベル付コスト
20.
新手法1:正例とラベルなし データからの分類 20 負例が全くなくても,正例とラベルなしデータ だけから,最適な分類ができる 例: クリック vs.
非クリック 友達 vs. 非友達 正 ラベルなし (正と負の混合) du Plessis, Niu & Sugiyama (NIPS2014, ICML2015) Niu, du Plessis, Sakai, Ma & Sugiyama (NIPS2016) Kiryo, du Plessis, Niu & Sugiyama (NIPS2017)
21.
新手法2:半教師付き分類 21 「正例とラベルなしデータからの分類」は最適 それに「正例と負例からの分類」を組み合わせ ても最適 正 負 ラベルなし Sakai, du
Plessis, Niu & Sugiyama (ICML2017) Sakai, Niu & Sugiyama (MLJ2018)
22.
新手法3:正信頼度からの分類 正クラスのデータしか取れない: 他社のデータは取れず自社のデータしか取れない 成功例は入手できても失敗例は入手できない 信頼度さえ分かれば, 最適な分類ができる 22 Ishida,
Niu & Sugiyama (arXiv2017) 正信頼度 95% 70% 5% 20%
23.
新手法4:類似データ対からの分類 類似データ対: 同じクラスに属する標本対 しかしクラスはわからない 財産,宗教,政治など,デリケートな質問に対して,
明示的に趣向を回答するのははばかられる 「あの人と同じ」であれば回答しやすい! 類似データ対と ラベルなしデータだけから 最適な分類ができる 23 Bao, Niu & Sugiyama (ICML2018)
24.
新手法5:教師なし分類 24 クラスタ構造がない場合でも,クラス比の異なる ラベルなしデータが2セットあれば,教師付き 学習と同じ収束率を達成可能 クラス比 =3:7 クラス比 =7:3 du Plessis,
Niu & Sugiyama (TAAI2013)
25.
新手法6:補ラベルからの分類 多クラスの訓練データのラベル付けは高コスト 多数の候補クラスから正しいものを選ぶ必要がある 補ラベル: パターンが属さないクラスの ラベル(補ラベル)を与える
補ラベルをつけるのは低コスト 「間違ったラベル」だけから, 最適な分類ができる! 25 Ishida, Niu & Sugiyama (NIPS2017) クラス 1 クラス 2 決定 境界クラス 3
26.
弱教師付き学習のまとめ 低ラベル付けコストで 高精度な機械学習 手法が有用! 26 UU, PU, PNU,
SU, Pconf, Comp… あらゆるデータを 有効活用! ラベルあり (教師付き学習) ラベルなし (教師なし学習) ラベルありとなし (半教師付き学習) 高 低学習の精度 高 高低 Sugiyama, Sakai, Ishida & Niu Machine Learning from Weak Supervision, MIT Press, in preparation. ラ ベ ル 付 け コ ス ト
27.
流行りの深層学習との関係は? 深層学習=深層モデルを使った機械学習 学習法の研究はモデルの研究と直交! 27 線形 カーネル 深層
… モデル 加法 教師付き学習 教師なし学習 … 強化学習 学習法 新しい学習法を作れば, 最新の深層モデルと組合せ可!
28.
講演の流れ 1. 機械学習技術の研究開発に多大なコスト: 密度比推定の理論と応用 2. ビッグデータの収集に多大なコスト: 限られた情報からの機械学習 3.
まとめと今後の展望 28
29.
今後の展望 人工知能(過去): 1次ブーム(1960年頃): 記号処理,論理推論
2次ブーム(1980年頃): エキスパートシステム ニューラルネット(過去) : 1次ブーム(1960年頃): パーセプトロン(1層) 2次ブーム(1990年頃): 誤差逆伝播法(多層) 29 機械学習(現在): 1995年頃~:統計・凸最適化 1995年頃~:ベイズ推論 2010年頃~:深層学習 知能の要素技術を高度化 汎用人工知能(将来): 知能の要素技術を統合
Baixar agora