SlideShare uma empresa Scribd logo
1 de 55
Baixar para ler offline
人工知能 第10回
線形サポートベクトルマシンによる
学習を理解する
2017年6月23日 八谷 大岳
1
機械学習と分類問題
 機械学習:人間が設計したモデルを、データから統計・確率・
情報理論・最適化などを用いて学習する方法の総称
人間が用意できるデータと
人間が設定した目的によって
機械学習の手法が決まる
【学習フェーズ】
猫猫
猫カテゴリ
画像を猫または犬カテゴリに
分類する規則を学習
猫猫
犬カテゴリ
データをカテゴリに分ける
【運用フェーズ】
犬
学習した規則を用いて、データをカテゴリに分類
手法
 分類問題:人間が用意した入力と出力(カテゴリ)データから、入
力データをカテゴリに分類する関係モデルを学習
手法の種類 定義 応用例
教師あり学習 入力と出力(教師)のペアのデータか
ら、入出力の関係モデルを学習
画像認識、音声認識、翻訳、
時系列予測など
教師なし学習 入力データのみから、データの特性
(規則性、構造)モデルを学習
データの可視化(クラスタリング、
次元圧縮)、生成分布の学習など
半教師あり学習 入力の一部に出力(教師)が付与さ
れたデータから、入出力の関係モデ
ルを学習
大量のログデータなど一部にしか
出力を人間が設定できない場合
強化学習 入力と評価(間接的な教師)のペアか
ら、評価を最大化するモデルを学習
ロボット制御、Web広告の選択、
マーケティング戦略、囲碁、将棋
2
分類問題の実用例
 画像領域分割
 各画素を人、空、木、草、建物カテゴリに分類
 より綺麗な写真を撮るために、
領域の種類に合わせて適切な画像処理を適用
 空の明度を抑えて、人の明度を上げるなど
 顔認証
 登録された顔画像と比較して同一人物か否かを分類する
 NEC・NeoFace:コンサートのチケットレス入場や会社の入退室管理
 LYKAON:万引き犯の顔画像と一致する人が入店時に店員に通知
顔認証によるコンサートの入場チェック(NEC・TAPIRIS) 顔認証して店員に通知(LYKAON)
空、人の領域を特定
3
 特徴量:データから抽出した分類に必要な数値化された情報
 特徴抽出方法:専門知識に基づき人間が設計
 最近は、分類精度を最大化するように、特徴抽出方法も学習
(Deep Learning)するのが一般的
分類問題と特徴量
データ入力 特徴抽出 分類
SIFT(Scale Invariant Feature Transform)の例
画像からキーポイントを選択 キーポイントごとに勾配を計算し、
勾配パターンのヒストグラムを求める
数値ベクトル(数万次元)
を分類に入力
4
 特徴量:データから抽出した分類に必要な数値化された情報
 特徴抽出方法:専門知識に基づき人間が設計
 最近は、分類精度を最大化するように、特徴抽出方法も学習
(Deep Learning)するのが一般的
分類問題と特徴量
データ入力 特徴抽出 分類
SIFT(Scale Invariant Feature Transform)の例
画像からキーポイントを選択 キーポイントごとに勾配を計算し、
勾配パターンのヒストグラムを求める
数値ベクトル(数万次元)
を分類に入力
5
構成
1. 機械学習と分類
2. 分類問題の定式化
3. サポートベクトルマシンの定式化
4. マージン最大化の簡易化
5. ラグランジュ双対問題
6. サポートベクトルマシンの実装
6
分類問題の定式化
 特徴量:可視化可能な2次元のベクトル
 カテゴリ:スカラー
 学習データ:
犬カテゴリ( )
猫カテゴリ( )
 課題:どのようにモデルパラメータ を学習データから決定する?
線形分類モデル:
 線形分類器:
 符号関数(シグナム関数)
 学習するモデルのパラメータ:
法線ベクトル:
7
汎用的な分類器
 様々な分け方が考えられるが、どの分け方がいいのか?

8
汎用的な分類器
 様々な分け方が考えられるが、どの分け方がいいのか?

機械学習の課題:学習データは有限であり、
カテゴリの範囲を全て網羅できない。
(全種類の犬・猫、様々な角度、照明、背景、隠れ
姿勢などの状況をカバーするのは不可能)
9
汎用的な分類器
 様々な分け方が考えられるが、どの分け方がいいのか?

機械学習の課題:学習データは有限であり、
カテゴリの範囲を全て網羅できない。
(全種類の犬・猫、様々な角度、照明、背景、隠れ
姿勢などの状況をカバーするのは不可能)
運用時に、学習データから外れたデータが
入力される可能性がある。
10
汎用的な分類器
 様々な分け方が考えられるが、どの分け方がいいのか?

機械学習の課題:学習データは有限であり、
カテゴリの範囲を全て網羅できない。
(全種類の犬・猫、様々な角度、照明、背景、隠れ
姿勢などの状況をカバーするのは不可能)
運用時に、学習データから外れたデータが
入力される可能性がある。
学習データに強く依存する(過学習)分類器
は、外れたデータを誤分類しやすい
11
汎用的な分類器
 様々な分け方が考えられるが、どの分け方がいいのか?

機械学習の課題:学習データは有限であり、
カテゴリの範囲を全て網羅できない。
(全種類の犬・猫、様々な角度、照明、背景、隠れ
姿勢などの状況をカバーするのは不可能)
運用時に、学習データから外れたデータが
入力される可能性がある。
目的:運用時のデータにも対応できるような
汎用的(汎化性)な分類器学習したい。
学習データに強く依存する(過学習)分類器
は、外れたデータを誤分類しやすい
12
汎用的な分類器
 様々な分け方が考えられるが、どの分け方がいいのか?
 サポートベクトルマシン(SVM):2つのカテゴリの間の
真ん中を通る分類器を学習
機械学習の課題:学習データは有限であり、
カテゴリの範囲を全て網羅できない。
(全種類の犬・猫、様々な角度、照明、背景、隠れ
姿勢などの状況をカバーするのは不可能)
運用時に、学習データから外れたデータが
入力される可能性がある。
目的:運用時のデータにも対応できるような
汎用的(汎化性)な分類器学習したい。
学習データに強く依存する(過学習)分類器
は、外れたデータを誤分類しやすい
13
構成
1. 機械学習と分類
2. 分類問題の定式化
3. サポートベクトルマシンの定式化
4. マージン最大化の簡易化
5. ラグランジュ双対問題
6. サポートベクトルマシンの実装
14
サポートベクトルマシン(SVM)
 真ん中を通る:誤分類しない範囲で、最近傍の学習データ点
との距離(最近傍距離) を最大にする

最近傍距離
C. Cortes & V. Vapnik, Support-vector networks, Machine Learning, 1995
15
サポートベクトルマシン(SVM)
 真ん中を通る:誤分類しない範囲で、最近傍の学習データ点
との距離を最大にする

最近傍距離
どちらかのカテゴリに
偏る限り最大ではない
C. Cortes & V. Vapnik, Support-vector networks, Machine Learning, 1995
16
サポートベクトルマシン(SVM)
 真ん中を通る:誤分類しない範囲で、最近傍の学習データ点
との距離(最近傍距離)を最大にする

最近傍距離
どちらかのカテゴリに
偏る限り最大ではない
C. Cortes & V. Vapnik, Support-vector networks, Machine Learning, 1995
17
サポートベクトルマシン(SVM)
 真ん中を通る:誤分類しない範囲で、最近傍の学習データ点
との距離(最近傍距離)を最大にする

最近傍距離
(マージン)
最近傍距離
(マージン)
最近傍距離を最大化するためには、
2つのカテゴリに最近傍点があり、
つり合っている状態(真ん中)
C. Cortes & V. Vapnik, Support-vector networks, Machine Learning, 1995
18
サポートベクトルマシン(SVM)
 真ん中を通る:誤分類しない範囲で、最近傍の学習データ点
との距離(最近傍距離)を最大にする

【マージン最大化問題】最近傍距離
(マージン)
最近傍距離
(マージン)
C. Cortes & V. Vapnik, Support-vector networks, Machine Learning, 1995
19
サポートベクトルマシン(SVM)
 真ん中を通る:誤分類しない範囲で、最近傍の学習データ点
との距離(最近傍距離)を最大にする

【マージン最大化問題】
データ点 と分類境界との距離
最近傍距離
(マージン)
最近傍距離
(マージン)
C. Cortes & V. Vapnik, Support-vector networks, Machine Learning, 1995
20
サポートベクトルマシン(SVM)
 真ん中を通る:誤分類しない範囲で、最近傍の学習データ点
との距離(最近傍距離)を最大にする

【マージン最大化問題】
データ点 と分類境界との距離
最近傍距離
(マージン)
最近傍距離
(マージン)
最近傍距離(マージン)
C. Cortes & V. Vapnik, Support-vector networks, Machine Learning, 1995
21
サポートベクトルマシン(SVM)
 真ん中を通る:誤分類しない範囲で、最近傍の学習データ点
との距離(最近傍距離)を最大にする

の領域
【マージン最大化問題】
全ての学習データを正しく分類
するための制約条件
データ点 と分類境界との距離
最近傍距離
(マージン)
最近傍距離
(マージン)
最近傍距離(マージン)
の領域
C. Cortes & V. Vapnik, Support-vector networks, Machine Learning, 1995
22
サポートベクトルマシン(SVM)
 真ん中を通る:誤分類しない範囲で、最近傍の学習データ点
との距離(最近傍距離)を最大にする
 特徴:分類器の決定に最近傍点(サポートベクトル)しか使わない

の領域
【マージン最大化問題】
全ての学習データを正しく分類
するための制約条件
データ点 と分類境界との距離
最近傍距離
(マージン)
最近傍距離
(マージン)
最近傍距離(マージン)
の領域
C. Cortes & V. Vapnik, Support-vector networks, Machine Learning, 1995
23
サポートベクトルマシン(SVM)
 真ん中を通る:誤分類しない範囲で、最近傍の学習データ点
との距離(最近傍距離)を最大にする
 特徴:分類器の決定に最近傍点(サポートベクトル)しか使わない
 課題:最近傍距離を探索するのは計算コストが大きい
の領域
【マージン最大化問題】
全ての学習データを正しく分類
するための制約条件
データ点 と分類境界との距離
最近傍距離
(マージン)
最近傍距離
(マージン)
最近傍距離(マージン)
の領域
C. Cortes & V. Vapnik, Support-vector networks, Machine Learning, 1995
24
構成
1. 機械学習と分類
2. 分類問題の定式化
3. サポートベクトルマシンの定式化
4. マージン最大化の簡易化
5. ラグランジュ双対問題
6. サポートベクトルマシンの実装
25
SVMの簡単化
 最近傍距離(サポートベクトル)も で表現できる
k倍しても同じ直線
k倍しても同じ直線
なので距離も不変
分類境界と学習データの距離の簡単な表現:
26
SVMの簡単化 続き
 仮定:2つのカテゴリは余白をとっても線形分離可能
 つまり、距離の最小値(マージン)は
 マージン最大化問題を簡単化できる
【マージン最大化問題】
余白
最近傍距離(マージン)
【マージン最大化問題】
27
演習問題1:距離の簡易表現
1. 直線と点 の距離 を求めてみよう
2. 距離を簡単な表現 に変換してみよう
3. 簡単な表現に変換した直線が点(5,0)を通ることを確認しよう
分類境界と学習データの距離 :
配布した用紙にタイトル「演習レポート」、日付、学生番号、氏名を書いて提出
28
マージン最大化問題の解釈
 各カテゴリの学習データが領域( 、 )にある
範囲で、分類境界 を動かし、マージンを最大化する
の領域
の領域
【マージン最大化問題】
30
マージン最大化問題の解釈
 各カテゴリの学習データが領域( 、 )にある
範囲で、分類境界 を動かし、マージンを最大化する
の領域
の領域
【マージン最大化問題】
31
マージン最大化問題の解釈
 各カテゴリの学習データが領域( 、 )にある
範囲で、分類境界 を動かし、マージンを最大化する
の領域
の領域
【マージン最大化問題】
を小さくするほど
マージンは大きくなる
32
マージン最大化問題の解釈
 各カテゴリの学習データが領域( 、 )にある
範囲で、分類境界 を動かし、マージンを最大化する
の領域
の領域
【マージン最大化問題】
33
マージン最大化問題の解釈
 各カテゴリの学習データが領域( 、 )にある
範囲で、分類境界 を動かし、マージンを最大化する
の領域
の領域
【マージン最大化問題】
制約条件
を満たすように と を調整
34
マージン最大化問題の解釈
 各カテゴリの学習データが領域( 、 )にある
範囲で、分類境界 を動かし、マージンを最大化する
の領域
の領域
【マージン最大化問題】
支持境界
支持境界
35
マージン最大化問題の解釈
 各カテゴリの学習データが領域( 、 )にある
範囲で、分類境界 を動かし、マージンを最大化する
の領域
の領域
サポートベクトル
(支持境界上にある)
【マージン最大化問題】
支持境界
支持境界
36
マージン最大化問題の解釈
 各カテゴリの学習データが領域( 、 )にある
範囲で、分類境界 を動かし、マージンを最大化する
の領域
の領域
マージン サポートベクトル
(支持境界上にある)
【マージン最大化問題】
支持境界
支持境界
37
マージン最大化問題の解釈
 各カテゴリの学習データが領域( 、 )にある
範囲で、分類境界 を動かし、マージンを最大化する
の領域
の領域
マージン サポートベクトル
(支持境界上にある)
【マージン最大化問題】
 課題:マージン最大化をプログラミングする
支持境界
支持境界
38
構成
1. 機械学習と分類
2. 分類問題の定式化
3. サポートベクトルマシンの定式化
4. マージン最大化の簡易化
5. ラグランジュ双対問題
6. サポートベクトルマシンの実装
39
 ラグランジュ乗数法を解きやすい双対問題に変換する
SVMのプログラミング実装の準備
【マージン最大化問題】
40
 ラグランジュ乗数法を解きやすい双対問題に変換する
SVMのプログラミング実装の準備
【マージン最大化問題】 【ラグランジュ関数】
:ラグランジュ乗数
41
 ラグランジュ乗数法を解きやすい双対問題に変換する
SVMのプログラミング実装の準備
【マージン最大化問題】 【ラグランジュ関数】
:ラグランジュ乗数
制約式から目的関数に移動
42
 ラグランジュ乗数法を解きやすい双対問題に変換する
 最小化問題におけるラグランジュ関数の解釈:
SVMのプログラミング実装の準備
【マージン最大化問題】 【ラグランジュ関数】
:ラグランジュ乗数
の最小値が制約 の外にある場合:
停留点: が制約条件
を満たす の最小値となる。ただし、
この停留点を一般化したのがラグランジュ関数:
は利用する制約式を決める役割を持つ( の制約式は無視)
制約式から目的関数に移動
43
演習問題2:停留点
 以下の手順で、マージン最大化問題の停留点を求めよう:
1. ラグランジュ関数を を と について偏微分し、
0とおき式を2つ作ってみよう。
2. 2つの式をラグランジュ関数に代入し、ラグランジュ関数か
ら と を消去してみよう。
【マージン最大化問題】 【ラグランジュ関数】
:ラグランジュ乗数
制約式から目的関数に移動
配布した用紙にタイトル「演習レポート」、日付、学生番号、氏名を書いて提出
44
構成
1. 機械学習と分類
2. 分類問題の定式化
3. サポートベクトルマシンの定式化
4. マージン最大化の簡易化
5. ラグランジュ双対問題
6. サポートベクトルマシンの実装
46
 ラグランジュ乗数法を解きやすい双対問題に変換する
SVMのプログラミング実装の準備
【マージン最大化問題】 【ラグランジュ関数】
:ラグランジュ乗数
制約式から目的関数に移動
を で微分=0
を で微分=0
①と②を に代入
ー①
ー②
【マージン最大化の双対問題】
ラグランジュ関数を最小化する
(制約式、サポートベクトル)を選択する
ラグランジュ関数を微分してゼロと置き、停留点を求める
47
 ラグランジュ乗数法を解きやすい双対問題に変換する
SVMのプログラミング実装の準備
【マージン最大化問題】 【ラグランジュ関数】 制約式から目的関数に移動
行列表現にして凸2次計画問題のライブラリで解く
:ベクトルzを対角成分に持つ行列(NxN)
:全要素が1のベクトル(Nx1)
:各列に を持つ行列(2xN)
を で微分=0
を で微分=0
①と②を に代入
ー①
ー②
【マージン最大化の双対問題】
ラグランジュ関数を最小化する
(制約式、サポートベクトル)を選択する
ラグランジュ関数を微分してゼロと置き、停留点を求める
:ラグランジュ乗数
48
最適化の手順のおさらい
【KKT条件】
①
②
③
④
:停留点
:主問題の制約式
:双対問題の制約式
:相補性
を と に変換
主問題(マージン最大化) 双対問題ラグランジュ関数
偏微分してゼロとおき
wとbを消去
二次計画法で
最適解 を求める
49
PythonでSVMをプログラミング実装
 Pythonの凸最適化問題パッケージCVXOPTを用いる
 凸2次計画問題の関数cvxopt.solvers.qp:
http://cvxopt.org/userguide/coneprog.html#quadratic-programming
50
PythonでSVMをプログラミング実装
 Pythonの凸最適化問題パッケージCVXOPTを用いる
 凸2次計画問題の関数cvxopt.solvers.qp:
http://cvxopt.org/userguide/coneprog.html#quadratic-programming
マージン最大化の行列表現
51
PythonでSVMをプログラミング実装
 Pythonの凸最適化問題パッケージCVXOPTを用いる
 凸2次計画問題の関数cvxopt.solvers.qp:
http://cvxopt.org/userguide/coneprog.html#quadratic-programming
マージン最大化の行列表現
52
PythonでSVMをプログラミング実装
 Pythonの凸最適化問題パッケージCVXOPTを用いる
 凸2次計画問題の関数cvxopt.solvers.qp:
http://cvxopt.org/userguide/coneprog.html#quadratic-programming
マージン最大化の行列表現
53
PythonでSVMをプログラミング実装
 Pythonの凸最適化問題パッケージCVXOPTを用いる
 凸2次計画問題の関数cvxopt.solvers.qp:
http://cvxopt.org/userguide/coneprog.html#quadratic-programming
P, q, G, h, A, bを作成
マージン最大化の行列表現
54
PythonでSVMをプログラミング実装
 Pythonの凸最適化問題パッケージCVXOPTを用いる
 凸2次計画問題の関数cvxopt.solvers.qp:
http://cvxopt.org/userguide/coneprog.html#quadratic-programming
P, q, G, h, A, bを作成
cvxoptを用いて解く
マージン最大化の行列表現
55
プログラムの実行例
【各カテゴリがまとまっている場合】 【各カテゴリがばらついている場合】
:選ばれたサポートベクトル
 2つのカテゴリ間の真ん中を通る分類境界が学習できている
56
宿題&次回の内容
 宿題:
 ラグランジュ乗数aを、線形分類モデルのパラメータwとbに変換する
 ヒント:
 次回:カーネルモデルの導入による線形SVMの非線形拡張
【KKT条件】
①
②
③
④
最適解 、 および は
KKT(Karush-Kuhn-Tucker)条件満たす
:停留点
:主問題の制約式
:双対問題の制約式
:相補性
(ラグランジュ関数の2項目が0)
:主問題の目的関数
:主問題の制約式
57

Mais conteúdo relacionado

Mais procurados

能動学習による多関係データセットの構築(IBIS2015 博士課程招待講演)
能動学習による多関係データセットの構築(IBIS2015 博士課程招待講演)能動学習による多関係データセットの構築(IBIS2015 博士課程招待講演)
能動学習による多関係データセットの構築(IBIS2015 博士課程招待講演)
Hiroshi Kajino
 

Mais procurados (19)

データ解析3 最適化の復習
データ解析3 最適化の復習データ解析3 最適化の復習
データ解析3 最適化の復習
 
Casual learning machine_learning_with_excel_no7
Casual learning machine_learning_with_excel_no7Casual learning machine_learning_with_excel_no7
Casual learning machine_learning_with_excel_no7
 
人工知能2018 6 強化学習の基礎
人工知能2018 6 強化学習の基礎人工知能2018 6 強化学習の基礎
人工知能2018 6 強化学習の基礎
 
データ解析7 主成分分析の基礎
データ解析7 主成分分析の基礎データ解析7 主成分分析の基礎
データ解析7 主成分分析の基礎
 
能動学習による多関係データセットの構築(IBIS2015 博士課程招待講演)
能動学習による多関係データセットの構築(IBIS2015 博士課程招待講演)能動学習による多関係データセットの構築(IBIS2015 博士課程招待講演)
能動学習による多関係データセットの構築(IBIS2015 博士課程招待講演)
 
能動学習による多関係データセットの構築
能動学習による多関係データセットの構築能動学習による多関係データセットの構築
能動学習による多関係データセットの構築
 
画像処理応用
画像処理応用画像処理応用
画像処理応用
 
201803NC
201803NC201803NC
201803NC
 
データ解析4 確率の復習
データ解析4 確率の復習データ解析4 確率の復習
データ解析4 確率の復習
 
test
testtest
test
 
【論文紹介】PGQ: Combining Policy Gradient And Q-learning
【論文紹介】PGQ: Combining Policy Gradient And Q-learning【論文紹介】PGQ: Combining Policy Gradient And Q-learning
【論文紹介】PGQ: Combining Policy Gradient And Q-learning
 
画像処理基礎
画像処理基礎画像処理基礎
画像処理基礎
 
距離とクラスタリング
距離とクラスタリング距離とクラスタリング
距離とクラスタリング
 
DS Exercise Course 4
DS Exercise Course 4DS Exercise Course 4
DS Exercise Course 4
 
修士論文発表:「非負値行列分解における漸近的Bayes汎化誤差」
修士論文発表:「非負値行列分解における漸近的Bayes汎化誤差」修士論文発表:「非負値行列分解における漸近的Bayes汎化誤差」
修士論文発表:「非負値行列分解における漸近的Bayes汎化誤差」
 
データサイエンス概論第一=2-1 データ間の距離と類似度
データサイエンス概論第一=2-1 データ間の距離と類似度データサイエンス概論第一=2-1 データ間の距離と類似度
データサイエンス概論第一=2-1 データ間の距離と類似度
 
ベイズ統計学の概論的紹介-old
ベイズ統計学の概論的紹介-oldベイズ統計学の概論的紹介-old
ベイズ統計学の概論的紹介-old
 
データサイエンス概論第一=3-1 線形代数に基づくデータ解析の基礎
データサイエンス概論第一=3-1 線形代数に基づくデータ解析の基礎データサイエンス概論第一=3-1 線形代数に基づくデータ解析の基礎
データサイエンス概論第一=3-1 線形代数に基づくデータ解析の基礎
 
NL20161222invited
NL20161222invitedNL20161222invited
NL20161222invited
 

Semelhante a 人工知能10 サポートベクトルマシン

確率的深層学習における中間層の改良と高性能学習法の提案
確率的深層学習における中間層の改良と高性能学習法の提案確率的深層学習における中間層の改良と高性能学習法の提案
確率的深層学習における中間層の改良と高性能学習法の提案
__106__
 
DEIM2019 楽天技術研究所の研究とケーススタディ(推薦システム)
DEIM2019 楽天技術研究所の研究とケーススタディ(推薦システム)DEIM2019 楽天技術研究所の研究とケーススタディ(推薦システム)
DEIM2019 楽天技術研究所の研究とケーススタディ(推薦システム)
Sho Nakamura
 

Semelhante a 人工知能10 サポートベクトルマシン (20)

確率的深層学習における中間層の改良と高性能学習法の提案
確率的深層学習における中間層の改良と高性能学習法の提案確率的深層学習における中間層の改良と高性能学習法の提案
確率的深層学習における中間層の改良と高性能学習法の提案
 
データサイエンティストに聞く!今更聞けない機械学習の基礎から応用まで V e-1
データサイエンティストに聞く!今更聞けない機械学習の基礎から応用まで V e-1データサイエンティストに聞く!今更聞けない機械学習の基礎から応用まで V e-1
データサイエンティストに聞く!今更聞けない機械学習の基礎から応用まで V e-1
 
データサイエンティストに聞く!今更聞けない機械学習の基礎から応用まで V7
データサイエンティストに聞く!今更聞けない機械学習の基礎から応用まで V7データサイエンティストに聞く!今更聞けない機械学習の基礎から応用まで V7
データサイエンティストに聞く!今更聞けない機械学習の基礎から応用まで V7
 
MapReduceによる大規模データを利用した機械学習
MapReduceによる大規模データを利用した機械学習MapReduceによる大規模データを利用した機械学習
MapReduceによる大規模データを利用した機械学習
 
機械学習デザインパターン Machine Learning Design Patterns
機械学習デザインパターン Machine Learning Design Patterns機械学習デザインパターン Machine Learning Design Patterns
機械学習デザインパターン Machine Learning Design Patterns
 
エンジニアのための機械学習の基礎
エンジニアのための機械学習の基礎エンジニアのための機械学習の基礎
エンジニアのための機械学習の基礎
 
1028 TECH & BRIDGE MEETING
1028 TECH & BRIDGE MEETING1028 TECH & BRIDGE MEETING
1028 TECH & BRIDGE MEETING
 
データサイエンティストに聞く!今更聞けない機械学習の基礎から応用まで Vm 1
データサイエンティストに聞く!今更聞けない機械学習の基礎から応用まで Vm 1データサイエンティストに聞く!今更聞けない機械学習の基礎から応用まで Vm 1
データサイエンティストに聞く!今更聞けない機械学習の基礎から応用まで Vm 1
 
20181219_全部見せます、データサイエンティストの仕事
20181219_全部見せます、データサイエンティストの仕事20181219_全部見せます、データサイエンティストの仕事
20181219_全部見せます、データサイエンティストの仕事
 
機械学習基礎(2)(パラメータ推定)
機械学習基礎(2)(パラメータ推定)機械学習基礎(2)(パラメータ推定)
機械学習基礎(2)(パラメータ推定)
 
エンタープライズと機械学習技術
エンタープライズと機械学習技術エンタープライズと機械学習技術
エンタープライズと機械学習技術
 
生成モデルの Deep Learning
生成モデルの Deep Learning生成モデルの Deep Learning
生成モデルの Deep Learning
 
DEIM2019 楽天技術研究所の研究とケーススタディ(推薦システム)
DEIM2019 楽天技術研究所の研究とケーススタディ(推薦システム)DEIM2019 楽天技術研究所の研究とケーススタディ(推薦システム)
DEIM2019 楽天技術研究所の研究とケーススタディ(推薦システム)
 
東大大学院 電子情報学特論講義資料「深層学習概論と理論解析の課題」大野健太
東大大学院 電子情報学特論講義資料「深層学習概論と理論解析の課題」大野健太東大大学院 電子情報学特論講義資料「深層学習概論と理論解析の課題」大野健太
東大大学院 電子情報学特論講義資料「深層学習概論と理論解析の課題」大野健太
 
ディープラーニング入門 ~ 画像処理・自然言語処理について ~
ディープラーニング入門 ~ 画像処理・自然言語処理について ~ディープラーニング入門 ~ 画像処理・自然言語処理について ~
ディープラーニング入門 ~ 画像処理・自然言語処理について ~
 
サポートベクトルマシン(SVM)の勉強
サポートベクトルマシン(SVM)の勉強サポートベクトルマシン(SVM)の勉強
サポートベクトルマシン(SVM)の勉強
 
Elasticsearchと機械学習を実際に連携させる
Elasticsearchと機械学習を実際に連携させるElasticsearchと機械学習を実際に連携させる
Elasticsearchと機械学習を実際に連携させる
 
クラシックな機械学習の入門 4. 学習データと予測性能
クラシックな機械学習の入門  4.   学習データと予測性能クラシックな機械学習の入門  4.   学習データと予測性能
クラシックな機械学習の入門 4. 学習データと予測性能
 
Pythonによる機械学習
Pythonによる機械学習Pythonによる機械学習
Pythonによる機械学習
 
データサイエンティストに聞く!今更聞けない機械学習の基礎から応用まで V k-1
データサイエンティストに聞く!今更聞けない機械学習の基礎から応用まで V k-1データサイエンティストに聞く!今更聞けない機械学習の基礎から応用まで V k-1
データサイエンティストに聞く!今更聞けない機械学習の基礎から応用まで V k-1
 

Mais de Hirotaka Hachiya (8)

データ解析14 ナイーブベイズ
データ解析14 ナイーブベイズデータ解析14 ナイーブベイズ
データ解析14 ナイーブベイズ
 
データ解析11 因子分析の応用
データ解析11 因子分析の応用データ解析11 因子分析の応用
データ解析11 因子分析の応用
 
データ解析10 因子分析の基礎
データ解析10 因子分析の基礎データ解析10 因子分析の基礎
データ解析10 因子分析の基礎
 
データ解析8 主成分分析の応用
データ解析8 主成分分析の応用データ解析8 主成分分析の応用
データ解析8 主成分分析の応用
 
データ解析2 線形代数の復習
データ解析2 線形代数の復習データ解析2 線形代数の復習
データ解析2 線形代数の復習
 
人工知能12 確率モデル
人工知能12 確率モデル人工知能12 確率モデル
人工知能12 確率モデル
 
人工知能13 deep learning
人工知能13 deep learning人工知能13 deep learning
人工知能13 deep learning
 
人工知能11 カーネルモデル
人工知能11 カーネルモデル人工知能11 カーネルモデル
人工知能11 カーネルモデル
 

人工知能10 サポートベクトルマシン