SlideShare uma empresa Scribd logo
1 de 73
Baixar para ler offline
Pythonによる機械学習⼊⾨
〜基礎からDeep Learningまで〜
電⼦情報通信学会総合⼤会 2016 企画セッション
「パターン認識・メディア理解」必須ソフトウェアライブラリ ⼿とり⾜とりガイド
名古屋⼤学 情報科学研究科 メディア科学専攻 助教
川⻄康友
1
⾃⼰紹介
l 経歴
Ø 2012年 京都⼤学⼤学院 情報学研究科 博⼠後期課程修了
Ø 2012年 京都⼤学 学術情報メディアセンター 特定研究員
Ø 2014年 名古屋⼤学 未来社会創造機構 特任助教
Ø 2015年 名古屋⼤学 情報科学研究科 助教
l 研究テーマ
Ø ⼈物画像処理
²⼈物検出
²⼈物追跡
²⼈物検索
²⼈物照合
²歩⾏者属性認識
Ø 背景画像推定
2
← PRMUでサーベイ発表しています
← PRMUでサーベイ発表しています ← Pythonを使用
← 一部Pythonを使用
← 一部Pythonを使用
本チュートリアルの流れ
lPython⼊⾨編
ØPythonの簡単な説明
ØPythonでのデータ(⾏列)の扱い
l機械学習編
Øトイデータで機械学習にチャレンジ
Ø実際のデータの読み込み
Ø学習した識別器の保存,読み込み
Ø結果の集計
Øクロスバリデーション
ØDeep Learningを試してみる
3
理論の話は殆どありません
Python⼊⾨編
4
Pythonを勉強するための資料集
l@shima__shimaさん
Ø機械学習の Python との出会い
²numpyと簡単な機械学習への利⽤
l@payashimさん
ØPyConJP 2014での「OpenCVのpythonインター
フェース⼊⾨」の資料
²Pythonユーザ向けの,OpenCVを使った画像処理解説
lPython Scientific Lecture Notes
Ø⽇本語訳
Ø⾮常におすすめ
Ønumpy/scipyから画像処理,
3D可視化まで幅広く学べる
Pythonの簡単な説明
lまずはHello world!
lスクリプトの作成と保存
l基本的な型,制御構⽂,関数
lモジュールとパッケージ
lよく使うパッケージ
6
まずはHello world!
lSpyderの起動
7
ランチャーに登録してある
Spyder をクリックします
まずはHello world!
lSpyderの使い⽅
8
コードを書く画面
変数などの情報が
表示される画面
1行ずつ実行できる
対話型シェル
まずはHello world!
lipythonの起動
9
高機能なシェルの
ipythonを使う場合
まずはHello world!
l対話型シェルでHello world!
10
Print(“Hello	world”)
と入力してEnter
結果が表示される
まずはHello world!
lファイルに記述して実⾏する場合
11
書いて
実行!
結果が表示される
スクリプトの作成と保存 12
新規作成
スクリプトの作成と保存 13
新しいファイルができる
(untitled)
スクリプトの作成と保存 14
保存
スクリプトの作成と保存 15
このチュートリアルでは,この場所
(	/home/tutorial/python	 )
にファイルを保存してください
ファイル名を入力
スクリプトの作成と保存 16
ファイルを保存した場所に
作業ディレクトリを移動
現在の作業ディレクトリ
基本的な型,制御構⽂,関数
l数値型
Ø整数,浮動⼩数点数,複素数,真偽値
lコンテナ
Øリスト,タプル,集合,辞書
²基本的にどんな型でも⼊れられる(型の混在可)
Ø⽂字列
l定数
ØTrue, False
²真偽値のリテラル
ØNone
²C⾔語でいうNULLのようなもの
17
基本的な型,制御構⽂,関数
l⽂字列の連結
Ø+ 演算⼦で連結可能
l⽂字列の整形⽅法
ØC⾔語でのprintf系関数の処理
Ø % 演算⼦を利⽤
Ø複数の場合は ( ) で囲む
18
str = "文字列" + "別の文字列"
val = 10
str = "整数: %d" % val
val = 10; f = 0.01; s = "abc"
str = "整数: %d, 浮動小数点数: %f, 文字列: %s" % (val, f, s)
基本的な型,制御構⽂,関数
lif⽂
lwhile⽂
lfor⽂
19
if 条件1:
条件1の場合の処理
elif 条件2:
条件2の場合の処理
else:
それ以外の場合の処理
while 条件:
条件が真の間繰り返し
c = [0.1, 2.34, 5.6, 7.89] # コンテナ
for x in c:
# c の要素を x で参照しながら繰り返し
print(x)
スペース4個分
コロン
基本的な型,制御構⽂,関数
l関数の定義
l関数の呼び出し
20
a = 10
b = 20
c = sample(a, b)
def sample(x, y):
# 色々な処理
z = x + y
return z
スペース4個分
その他 tips
l多重代⼊
ØC⾔語等と違い,複数の値を同時にreturnできる
Øswapも可能
21
def test(a, b):
c = a + 1
d = b * 2
return c, d
x, y = test(1, 2)
a, b = b, a
x, y には 2 と 4 がそれぞれ⼊る
その他 tips
lリストの⽣成 range 関数
lリストの要素とインデックスを取得
22
range(5)
# [0, 1, 2, 3, 4]
for i in range(10):
print(i)
a = ["a", "b", "c"]
for i, v in enumerate(a):
print("a[%d]=%s" % (i, v))
多重代⼊
インデックスと要素の値を i, vで参照可能
その他 tips
lオプション引数
Øデフォルト値の指定
l名前付き引数
23
def func(a, b=10, c=False):
# 関数
# 関数呼び出し時
func(10, c=True)
引数 b には指定せず
引数 c だけ値を指定するとき
引数を指定しないとb=10, c=False となる
モジュールとパッケージ
lモジュール
ØPythonで書いた関数やクラスをまとめた
1つのファイル
lパッケージ
Øモジュールが複数まとめられたもの
l使い⽅
Øインポートすれば利⽤可能
24
import モジュール名
from モジュール名 import 関数名
from パッケージ名 import モジュール名
import モジュール名 as 別名
Pythonでのデータ(⾏列)の扱い
l数値計算ライブラリ numpy
Ønumpyの⾏列
Ø⾏列に対する演算
25
numpyの⾏列
lN次元配列 ndarray
ØOpenCVの cv::Mat みたいな感じで利⽤
²今回は特徴量やラベルの配列として利⽤
²1⾏が1つの特徴量
Ø通常のリストとは違い,型は統⼀
26
import numpy as np
a = np.array([[0,0,1],[0,0,2]], dtype=np.float32)
b = np.array([[1,2,3],[4,5,6]], dtype=np.float32)
c = a + b
d = a * b
e = np.dot(a, b.T)
要素ごとの演算
⾏列の積を求める場合はnp.dot関数
.T は転置⾏列
型を指定(np.float32, np.int8など)
numpyの⾏列
l インデキシング(特定の要素の値を取り出す)
l スライシング(特定の範囲を取り出す)
Ø 特徴量のうち特定のサンプルだけ使う,特定の次元だけ使う,など
l ファンシーインデキシング(条件に合う⾏,列を取り出す)
Ø 認識失敗したものに対応する特徴量を取り出す,など
27
a[i, j] # 行列 a の (i, j) 要素
a[i, :] # 行列 a の i 行目(のベクトル)
a[:, j] # 行列 a の j 列目
a[:, 0:3] # 行列 a の 0, 1, 2列目の部分行列
a[b==1, :] # 行列 a のうち,
# 行列 b の要素が 1 であるものに
# 対応する行列
⾏列に対する演算
lユニバーサル関数
Ø⾏列の各要素に関数を適⽤,⾏列を返す
l集計⽤の関数
28
import numpy as np
a = np.array([[0,0,1],[0,0,2]])
print(np.count_nonzero(a))
⾮ゼロの要素数を返す
import numpy as np
a = np.array([[1,2,3],[4,5,6]], dtype=np.int32)
b = np.power(a, 2.0)
⾏列 a の各要素を2乗した⾏列を返す
機械学習編
29
機械学習ライブラリ
lscikit-learn
Øhttp://scikit-learn.org/
Ø機械学習に関する
様々な⼿法が実装されたライブラリ
²クラス分類
²クラスタリング
²回帰
²データマイニング
ØBSDライセンス
30
機械学習ガイド 31
解きたい問題に対して何を使えば良いのかのガイドも載っています
今回チャレンジする問題
l多クラス分類問題
Ø⼊⾨編
²Iris Dataset
– 花(あやめ)の3クラス分類
Ø実践編
²Pedestrian Direction Classification Dataset
– 歩⾏者の向き8⽅向分類
32
機械学習ガイド 33
解きたい問題に対して何を使えば良いのかのガイドも載っています
ここに相当する問題です
使⽤するクラス分類器
lクラス分類器
ØLinear SVM
Øk Nearest Neighbors
Ø(Kernel) SVM
ØAdaBoost
ØRandom Forest
ØNeural Network
ØConvolutional Neural Network
34
この部分は chainer という
パッケージを利用
クラス分類器(乱暴に図と⼀⾔で表しています) 35
Linear SVM
Kernel SVM
k-NN
AdaBoost
Random Forest
Neural Network CNN
・・・
弱識別器
苦⼿な問題を他の弱識別器へ
多数決
マージン最⼤化
⾮線形の識別平⾯
複数の決定⽊をランダムに⽣成
畳み込み層による特徴抽出も⾏う線形結合と活性化関数
アンサンブル学習
Deep	Learning
機械学習にチャレンジ
lIris Dataset
Øクラス
²3種類のあやめ
Ø特徴量(4次元)
²がくの⻑さ,幅
²花弁の⻑さ,幅
l⼊⼿⽅法,使い⽅
Øscikit-learnでは, sklearn.datasets.load_iris()
という関数でデータを読み込みできる
36
機械学習にチャレンジ
l機械学習の流れ
Ø特徴量の読み込み
²学習データ,学習データのラベル
²テストデータ,テストデータのラベル
Ø識別器の準備
Ø識別器の学習
Øテストデータの評価
Ø結果の出⼒
37
機械学習にチャレンジ
l特徴量の読み込み
l特徴量の分割
from sklearn.datasets import load_iris
dataset = load_iris()
features = np.array(dataset["data"], dtype=np.float32)
labels = np.array(dtaset["target"], dtype=np.int32)
#	学習データとテストデータに分ける
train_features,	test_features,	train_labels,	test_labels =	(行続く)
train_test_split(features,	labels,	test_size=0.3)
scikit-learnに用意されている,
Iris	Datasetを読み込むための関数
型を修正しておく
特徴量とラベルを取り出す
特徴量を学習用とテスト用に分割する関数
何割をテストに使うかの引数(この例だと3割)
機械学習にチャレンジ
l識別器の準備
l識別器の学習
39
from	sklearn.svm import	LinearSVC
#	識別器の用意
classifier	=	LinearSVC()
#	学習
classifier.fit(train_features,	train_labels)
識別器のインスタンスを生成
引数で色々なオプションがあるの
で調べてみてください
特徴量と,そのクラスラベルを渡す
使いたい識別器を予めインポート
しておく(ここではLinearSVC)
機械学習にチャレンジ
lテストデータの評価
l結果の出⼒
40
#	テスト
results	=	classifier.predict(test_features)
from	sklearn.metrics import	accuracy_score
#	認識率を計算
score	=	accuracy_score(test_labels,	results)
print(score)
認識率を計算してくれる関数
テスト用のデータを渡すだけ
各データに対する認識結果が返る
【実践1】試してみましょう 41
線形SVM識別器を利用して,
Iris	Datasetの認識率を評価しましょう
LinearSVC()	にパラメータを渡して
結果の違いを見てみましょう
スライシングを使い,
4次元の特徴量のうち幾つかの特徴量
だけを用いて認識率を評価しましょう
train_test_split の前に実行
実際のデータの読み込み
l普通は事前にOpenCVなどで特徴抽出
Ø特徴量を保存しておく
Ø保存形式は svmlight / libsvm の形式が便利
²特徴量とラベルを分けて読み込める
lscikit-learnには以下の関数が存在
42
from sklearn.datasets import load_svmlight_file
from sklearn.datasets import dump_svmlight_file
# 読み込み
data = load_svmlight_file("ファイル名")
features = data[0].todense()
labels = data[1]
# 書き出し
dump_svmlight_file(features, labels, "ファイル名")
SparseMatなので
denseに変換
svmlight / libsvm 形式
llibsvmなどのツールで利⽤されている形式
Øそのまま svm-train などのコマンドで利⽤可
43
1 1:0.111 2:0.253 3:0.123 4:-0.641 …
1 1:0.121 2:0.226 3:0.143 4:-0.661 …
-1 1:0.511 2:-0.428 3:0.923 4:0.348 …
-1 1:0.751 2:-0.273 3:0.823 4:0.632 …
クラスラベル
特徴量の次元番号:特徴量の値 の組が次元数分ある
学習した識別器の保存,読み込み
l普通は学習した識別器を保存して別途テスト
Ø保存にはPythonでは⼀般的にシリアライズ関数
(オブジェクトをそのまま保存)を利⽤することが多い
²pickleというパッケージ
lscikit-learnには以下の関数が存在
Øpickleよりも効率的らしい
44
# 保存
from sklearn.externals import joblib
joblib.dump(classifier, "ファイル名")
# 読み込み
classifier = joblib.load("ファイル名")
学習した識別器の保存,読み込み
l保存ができると…
Ø学習スクリプトと評価スクリプトを分離可能
45
from sklearn.svm import LinearVC
from sklearn.externals import joblib
# 学習
classifier = SVC()
classifier.fit(X, t)
# 保存
joblib.dump(classifier, "svc.model")
from sklearn.externals import joblib
# 読み込み
classifier = joblib.load("svc.model")
# 評価
result = classifier.predict(X)
学習スクリプト 評価スクリプト
学習まで終わった段階で
識別器の状態を保存
学習済みの識別器を読み込んで
すぐに評価
【実践2】試してみましょう
lデータを読み込んで認識
Ø今回の課題
²歩⾏者向き認識
– samples/images/ に 8⽅向別の画像
²HOG特徴量を抽出済み
Ø⽤意したデータ
²学習⽤:samples/features/train.scale
²評価⽤:samples/features/test.scale
46
識別器を切り替えてみる
l今までの説明は線形SVMを利⽤
l他の識別器を使ってみよう
Ø書き換えるべき部分は以下の3⾏だけ!
47
from sklearn.svm import LinearSVC
〜中略〜
# 学習
classifier = SVC()
〜中略〜
# 保存
joblib.dump(classifier, "svc.model")
識別器
l使いたい識別器を決める
l保存ファイル名を識別器に合わせて変える
48
from sklearn.svm import LinearSVC # 線形SVM
from sklearn.svm import SVC # 非線形SVM
from sklearn.neighbors import KNeighborsClassifier # kNN識別器
from sklearn.ensemble import AdaBoostClassifier # AdaBoost
from sklearn.ensemble import RandomForestClassifier # Random Forest
classifier = LinearSVC()
classifier = SVC()
classifier = KNeighborsClassifier()
classifier = AdaBoostClassifier()
classifier = RandomForestClassifier()
joblib.dump(classifier, "svc.model")
使いたいものを
インポート
使いたいものを
classifierに代入
Confusion Matrix
l結果の集計
Ø全体の平均スコアだけでなく,
クラスごとの誤りを知りたい場合
²Confusion Matrixの利⽤
lsklearn.metrics 内に confusion_matrix 関数が存在
Øconfusion_matrix(test_labels, results)
²正解と認識結果を⼊れると結果の ndarray が返る
²printすれば表⽰可能
49
クラス0 クラス1 クラス2
クラス0 13 0 0
クラス1 0 11 3
クラス2 0 3 15
【実践3】試してみましょう 50
複数の識別器を切り替えて学習し,
認識率を比較してみましょう
Confusion	Matrixを表示して
結果を見てみましょう
クロスバリデーション
l1つの学習・テストデータセットでは
結果がかたよる可能性
Øデータを複数個に分割し,
何回か学習・テストを試して平均を取る
Ø例:10-fold cross validation
²100個のデータを10分割
– 90個で学習→10個でテスト
– テストに使うセットを替えて10回実⾏
51
lsklearn.cross_validation 内に
cross_val_score という関数が存在
result =	cross_val_score(clf,	data_x,	data_y,	cv=10)
print(“accuracy:	%f	±%f”	%	(result.mean(),	result.std())
クロスバリデーション 52
10-fold	cross	validationを実行
好きなクラス分類器
学習用のデータセット
平均と標準偏差を表示
【実践4】試してみましょう
l好きな識別器を使い,
10-fold cross validationしてみよう
Øこれまでの,「学習」「評価」の部分を,
前述の corss_validation_score 関数に置換
53
Deep Learningを試してみる
lDeep Learningの代表的なパッケージ
Øcaffe (by BVLC)
Øchainer (by Preferred Networks)
ØTensorFlow (by Google)
54
ニューラルネットワークの基礎
l多層パーセプトロン
55
重み付き和→活性化関数 重み付き和→活性化関数
多クラス分類の場合,
クラス数分の出力ユニット
特徴量の次元数分の
入力ユニット
CNNの基礎
lフィルタ畳み込み層+全結合層
Ø特徴抽出と分類を同時に学習
56
図: http://systemdesign.altera.com/can-you-see-using-convolutional-neural-networks/
(CNN:	Convolutional	Neural	Network)
Deep Learningでのキーワード
l活性化関数
Ø線形結合した後に適⽤する関数
Ø例
²シグモイド関数
²ReLU (Rectified Linear Unit)
²maxout
lバックプロパゲーション(誤差逆伝播法)
Øネットワークの出⼒値と正解値との誤差を逆伝播
Ø誤差が⼩さくなるようにパラメータを更新
57
Deep Learningでのキーワード
lドロップアウト
Ø学習時に⼀部のノードの出⼒を0にする
Ø過学習を防ぎ,汎化性能を向上させる
l確率的勾配法(ミニバッチ)
Ø⼤量データの場合,メモリの制限で⼀括で学
習できない
Ø学習データを⼩さく分割し,
少しずつ学習してパラメータ更新を⾏う
58
chainerを使ってみる
lchainerでの処理⼿順
Øネットワークの構築
Ø最適化⼿法の選択
Øミニバッチの作成・学習
Ø評価
l今回の課題
Øirisをニューラルネットで識別
ØPDCをCNNで識別
59
ネットワークの構築
l決めないといけないこと
Ø層数
Ø各層のユニット数
Ø層間に適⽤する関数
60
from chainer import FunctionSet
import chainer.functions as F
model = FunctionSet(
l1=F.Linear(4, 200),
l2=F.Linear(200, 100),
l3=F.Linear(100, 3))
入力層=特徴量次元
線形結合を3層
4次元(入力)→200次元
200次元→100次元
100次元→3次元(出力)
層数
ユニット数 ユニット数
・・・
・・・
関数 関数
ネットワークの構築
l伝播のさせ⽅
Ø活性化関数,ドロップアウトなどの設定
Ø評価関数の設定
61
from chainer import Variable
def forward(feature, label, train=True):
x = Variable(feature)
y = Variable(label)
h1 = F.dropout(F.relu(model.l1(x)), train=train)
h2 = F.dropout(F.relu(model.l2(h1)), train=train)
p = model.l3(h2)
return F.softmax_cross_entropy(p, y), F.accuracy(p, y)
Dropoutをする場合
chainer用の変数へ変換
活性化関数
train=Trueの時のみ
Dropoutを実行
引数の初期値
学習データでの予測精度誤差関数としてsoftmaxの
cross_entropyを利用
最適化⼿法の選択
loptimizersで定義されている
Ø⾊々なパラメータ更新⽅法
²SGD ( Stochastic Gradient Descent)
²AdaGrad
²RMSprop
²Adam (ADAptive Moment estimation)
62
from chainer import optimizers
optimizer = optimizers.Adam()
optimizer.setup(model.collect_parameters())
最適化のモジュール
modelのパラメータを登録する
学習率を
自動的に
調整する
改良
ミニバッチの作成・学習
l データを分割して順番に伝播,誤差逆伝播
63
import numpy as np
n_epoch = 100
batchsize = 20
N = len(features)
for epoch in range(n_epoch):
print('epoch: %d' % (epoch+1))
perm = np.random.permutation(N)
sum_accuracy = 0
sum_loss = 0
for i in range(0, N, batchsize):
x_batch = features[perm[i:i+batchsize]]
y_batch = labels[perm[i:i+batchsize]]
optimizer.zero_grads()
loss, acc = forward(x_batch, y_batch)
loss.backward()
optimizer.update()
sum_loss += float(loss.data) * batchsize
sum_accuracy += float(acc.data) * batchsize
print("loss: %f, accuracy: %f", sum_loss / N, sum_accuracy / N)
繰り返し回数
ミニバッチの分割
各ミニバッチ毎にパラメータ更新
勾配の初期化
順伝播
誤差の逆伝播
パラメータの更新
評価
lテストデータをネットワークに通す
64
#%%
# 伝播のさせ方
def forward_predict(features, label, train=True):
x = Variable(features)
y = Variable(label)
h1 = F.max_pooling_2d(F.relu(model.conv1(x)), ksize=5)
h2 = F.max_pooling_2d(F.relu(model.conv2(h1)), ksize=5)
h3 = F.dropout(F.relu(model.fc1(h2)), train=train)
p = model.fc2(h3)
return p.data
#%%
# テスト
result_scores = forward_predict(test_features, train=False)
results = np.argmax(result_scores, axis=1)
各クラスのスコアが出てくるので argmax を取る
ネットワークの出力を返すように修正
【実践5】試してみましょう 65
Iris	Datasetをニューラルネットワーク
で学習・評価してみましょう
これまでの識別器の代わりにNeural	Networkを利用
層数やユニット数を変えてみて
結果の違いを見てみましょう
CNNを試してみる
l変更点
Ø特徴量ではなく,画像を読み込む
²これまでは抽出済みの特徴量を読み込んでいた
– サンプル数 x 特徴量次元数 の ndarray を利⽤
²CNNでは2次元の画像を読み込む
– サンプル数 x チャンネル数 x 画像の⾼さ x 画像の幅 の
ndarray を利⽤
ØConvolution層を追加
²Convolution+ReLU+Maxout
– フィルタ畳み込み
– 活性化関数を通して
– 領域内の最⼤値を出⼒
66
CNNの構築
l画像の読み込み
lネットワークの構造
67
from chainer import FunctionSet
import chainer.functions as F
#	ネットワークの構築
model	=	FunctionSet(
conv1=F.Convolution2D(1,	 32,	3),	
conv2=F.Convolution2D(32,	 64,	3),	
fc1=F.Linear(512,	200),
fc2=F.Linear(200,	8))
入力層=1チャンネル(モノクロ画像)
Convolution層が2つ,
全結合層が2つ
1→32チャンネル
32→64チャンネル
512次元→200次元
200次元→8次元(出力)
##	画像ファイル分の容量を確保
##	画像枚数xチャンネル数(1)x高さx幅
features	=	np.ndarray((len(filenames),	 1,	96,	48),	dtype=np.float32)
labels	=	np.ndarray((len(filenames),),	 dtype=np.int32)
CNNの構築
l伝播のさせ⽅
Ø活性化関数,ドロップアウトなどの設定
Ø評価関数の設定
68
from chainer import Variable
def forward(feature, label, train=True):
x = Variable(feature)
y = Variable(label)
h1 = F.max_pooling_2d(F.relu(model.conv1(x)), ksize=5)
h2 = F.max_pooling_2d(F.relu(model.conv2(h1)), ksize=5)
h3 = F.dropout(F.relu(model.fc1(h2)), train=train)
p = model.fc2(h3)
return F.softmax_cross_entropy(p, y), F.accuracy(p, y)
chainer用の変数へ変換
学習データでの予測精度誤差関数としてsoftmaxの
cross_entropyを利用
カーネルサイズ5で
max	pooling
【実践6】試してみましょう
lCNNを⽤いて歩⾏者向き認識
Øコードが少し⻑いので
サンプルコードをダウンロードして
動かしてみましょう
Ø/home/tutorial/python へ保存
Øspyder で開いて実⾏してみましょう
69
http://www.murase.m.is.nagoya-u.ac.jp/~kawanishiy/data/cnn.py
実⾏にかなり時間がかかるので,
学習のエポックごとに徐々に誤差が
減っていく様⼦を確認できればOK
まとめ
lPythonによる機械学習
Ønumpyによるデータの扱い
Øscikit-learnによる各種機械学習
ØchainerによるDeep Learning
70
71
様々な⾔語でのライブラリ紹介
lC++⽤
ØCaffe
²http://caffe.berkeleyvision.org/
lJava⽤
ØDeep Learning 4j
²http://deeplearning4j.org/ja-index.html
lLua⽤
ØTorch
²http://torch.ch
lPython⽤
Øchainer
²http://chainer.org
72
メモ
lGDとSGDの違い
Øhttp://sinhrks.hatenablog.com/entry/201
4/11/24/205305
lchainerからcaffemodel読み込み
Øhttp://d.hatena.ne.jp/shi3z/20150711/1
436566217
73

Mais conteúdo relacionado

Mais procurados

Rustに触れて私のPythonはどう変わったか
Rustに触れて私のPythonはどう変わったかRustに触れて私のPythonはどう変わったか
Rustに触れて私のPythonはどう変わったかShunsukeNakamura17
 
機械学習によるデータ分析まわりのお話
機械学習によるデータ分析まわりのお話機械学習によるデータ分析まわりのお話
機械学習によるデータ分析まわりのお話Ryota Kamoshida
 
Deep Learningと画像認識   ~歴史・理論・実践~
Deep Learningと画像認識 ~歴史・理論・実践~Deep Learningと画像認識 ~歴史・理論・実践~
Deep Learningと画像認識   ~歴史・理論・実践~nlab_utokyo
 
Transformerを雰囲気で理解する
Transformerを雰囲気で理解するTransformerを雰囲気で理解する
Transformerを雰囲気で理解するAtsukiYamaguchi1
 
[DL輪読会]Understanding Black-box Predictions via Influence Functions
[DL輪読会]Understanding Black-box Predictions via Influence Functions [DL輪読会]Understanding Black-box Predictions via Influence Functions
[DL輪読会]Understanding Black-box Predictions via Influence Functions Deep Learning JP
 
Non-autoregressive text generation
Non-autoregressive text generationNon-autoregressive text generation
Non-autoregressive text generationnlab_utokyo
 
深層学習 勉強会第1回 ディープラーニングの歴史とFFNNの設計
深層学習 勉強会第1回 ディープラーニングの歴史とFFNNの設計深層学習 勉強会第1回 ディープラーニングの歴史とFFNNの設計
深層学習 勉強会第1回 ディープラーニングの歴史とFFNNの設計Yuta Sugii
 
Pythonとdeep learningで手書き文字認識
Pythonとdeep learningで手書き文字認識Pythonとdeep learningで手書き文字認識
Pythonとdeep learningで手書き文字認識Ken Morishita
 
[DL輪読会]Reward Augmented Maximum Likelihood for Neural Structured Prediction
[DL輪読会]Reward Augmented Maximum Likelihood for Neural Structured Prediction[DL輪読会]Reward Augmented Maximum Likelihood for Neural Structured Prediction
[DL輪読会]Reward Augmented Maximum Likelihood for Neural Structured PredictionDeep Learning JP
 
[DL輪読会]Graph R-CNN for Scene Graph Generation
[DL輪読会]Graph R-CNN for Scene Graph Generation[DL輪読会]Graph R-CNN for Scene Graph Generation
[DL輪読会]Graph R-CNN for Scene Graph GenerationDeep Learning JP
 
強化学習と逆強化学習を組み合わせた模倣学習
強化学習と逆強化学習を組み合わせた模倣学習強化学習と逆強化学習を組み合わせた模倣学習
強化学習と逆強化学習を組み合わせた模倣学習Eiji Uchibe
 
Pythonの理解を試みる 〜バイトコードインタプリタを作成する〜
Pythonの理解を試みる 〜バイトコードインタプリタを作成する〜Pythonの理解を試みる 〜バイトコードインタプリタを作成する〜
Pythonの理解を試みる 〜バイトコードインタプリタを作成する〜Preferred Networks
 
Recent Advances on Transfer Learning and Related Topics Ver.2
Recent Advances on Transfer Learning and Related Topics Ver.2Recent Advances on Transfer Learning and Related Topics Ver.2
Recent Advances on Transfer Learning and Related Topics Ver.2Kota Matsui
 
強化学習その2
強化学習その2強化学習その2
強化学習その2nishio
 
機械学習モデルの判断根拠の説明
機械学習モデルの判断根拠の説明機械学習モデルの判断根拠の説明
機械学習モデルの判断根拠の説明Satoshi Hara
 
Swin Transformer (ICCV'21 Best Paper) を完璧に理解する資料
Swin Transformer (ICCV'21 Best Paper) を完璧に理解する資料Swin Transformer (ICCV'21 Best Paper) を完璧に理解する資料
Swin Transformer (ICCV'21 Best Paper) を完璧に理解する資料Yusuke Uchida
 
最適化計算の概要まとめ
最適化計算の概要まとめ最適化計算の概要まとめ
最適化計算の概要まとめYuichiro MInato
 

Mais procurados (20)

機械学習と主成分分析
機械学習と主成分分析機械学習と主成分分析
機械学習と主成分分析
 
Rustに触れて私のPythonはどう変わったか
Rustに触れて私のPythonはどう変わったかRustに触れて私のPythonはどう変わったか
Rustに触れて私のPythonはどう変わったか
 
機械学習によるデータ分析まわりのお話
機械学習によるデータ分析まわりのお話機械学習によるデータ分析まわりのお話
機械学習によるデータ分析まわりのお話
 
Deep Learningと画像認識   ~歴史・理論・実践~
Deep Learningと画像認識 ~歴史・理論・実践~Deep Learningと画像認識 ~歴史・理論・実践~
Deep Learningと画像認識   ~歴史・理論・実践~
 
Transformerを雰囲気で理解する
Transformerを雰囲気で理解するTransformerを雰囲気で理解する
Transformerを雰囲気で理解する
 
[DL輪読会]Understanding Black-box Predictions via Influence Functions
[DL輪読会]Understanding Black-box Predictions via Influence Functions [DL輪読会]Understanding Black-box Predictions via Influence Functions
[DL輪読会]Understanding Black-box Predictions via Influence Functions
 
Non-autoregressive text generation
Non-autoregressive text generationNon-autoregressive text generation
Non-autoregressive text generation
 
深層学習 勉強会第1回 ディープラーニングの歴史とFFNNの設計
深層学習 勉強会第1回 ディープラーニングの歴史とFFNNの設計深層学習 勉強会第1回 ディープラーニングの歴史とFFNNの設計
深層学習 勉強会第1回 ディープラーニングの歴史とFFNNの設計
 
Pythonとdeep learningで手書き文字認識
Pythonとdeep learningで手書き文字認識Pythonとdeep learningで手書き文字認識
Pythonとdeep learningで手書き文字認識
 
[DL輪読会]Reward Augmented Maximum Likelihood for Neural Structured Prediction
[DL輪読会]Reward Augmented Maximum Likelihood for Neural Structured Prediction[DL輪読会]Reward Augmented Maximum Likelihood for Neural Structured Prediction
[DL輪読会]Reward Augmented Maximum Likelihood for Neural Structured Prediction
 
数式からみるWord2Vec
数式からみるWord2Vec数式からみるWord2Vec
数式からみるWord2Vec
 
研究効率化Tips Ver.2
研究効率化Tips Ver.2研究効率化Tips Ver.2
研究効率化Tips Ver.2
 
[DL輪読会]Graph R-CNN for Scene Graph Generation
[DL輪読会]Graph R-CNN for Scene Graph Generation[DL輪読会]Graph R-CNN for Scene Graph Generation
[DL輪読会]Graph R-CNN for Scene Graph Generation
 
強化学習と逆強化学習を組み合わせた模倣学習
強化学習と逆強化学習を組み合わせた模倣学習強化学習と逆強化学習を組み合わせた模倣学習
強化学習と逆強化学習を組み合わせた模倣学習
 
Pythonの理解を試みる 〜バイトコードインタプリタを作成する〜
Pythonの理解を試みる 〜バイトコードインタプリタを作成する〜Pythonの理解を試みる 〜バイトコードインタプリタを作成する〜
Pythonの理解を試みる 〜バイトコードインタプリタを作成する〜
 
Recent Advances on Transfer Learning and Related Topics Ver.2
Recent Advances on Transfer Learning and Related Topics Ver.2Recent Advances on Transfer Learning and Related Topics Ver.2
Recent Advances on Transfer Learning and Related Topics Ver.2
 
強化学習その2
強化学習その2強化学習その2
強化学習その2
 
機械学習モデルの判断根拠の説明
機械学習モデルの判断根拠の説明機械学習モデルの判断根拠の説明
機械学習モデルの判断根拠の説明
 
Swin Transformer (ICCV'21 Best Paper) を完璧に理解する資料
Swin Transformer (ICCV'21 Best Paper) を完璧に理解する資料Swin Transformer (ICCV'21 Best Paper) を完璧に理解する資料
Swin Transformer (ICCV'21 Best Paper) を完璧に理解する資料
 
最適化計算の概要まとめ
最適化計算の概要まとめ最適化計算の概要まとめ
最適化計算の概要まとめ
 

Destaque

基礎からのベイズ統計学 2章 勉強会資料
基礎からのベイズ統計学 2章 勉強会資料基礎からのベイズ統計学 2章 勉強会資料
基礎からのベイズ統計学 2章 勉強会資料at grandpa
 
基礎からのベイズ統計学 輪読会資料 第1章 確率に関するベイズの定理
基礎からのベイズ統計学 輪読会資料 第1章 確率に関するベイズの定理基礎からのベイズ統計学 輪読会資料 第1章 確率に関するベイズの定理
基礎からのベイズ統計学 輪読会資料 第1章 確率に関するベイズの定理Ken'ichi Matsui
 
統計学の基礎の基礎
統計学の基礎の基礎統計学の基礎の基礎
統計学の基礎の基礎Ken'ichi Matsui
 
機械学習ゴリゴリ派のための数学とPython
機械学習ゴリゴリ派のための数学とPython機械学習ゴリゴリ派のための数学とPython
機械学習ゴリゴリ派のための数学とPythonKimikazu Kato
 
TensorFlowとは? ディープラーニング (深層学習) とは?
TensorFlowとは? ディープラーニング (深層学習) とは?TensorFlowとは? ディープラーニング (深層学習) とは?
TensorFlowとは? ディープラーニング (深層学習) とは?KSK Analytics Inc.
 
ルールベースから機械学習への道 公開用
ルールベースから機械学習への道 公開用ルールベースから機械学習への道 公開用
ルールベースから機械学習への道 公開用nishio
 
実戦投入する機械学習
実戦投入する機械学習実戦投入する機械学習
実戦投入する機械学習Takahiro Kubo
 
Pythonによる機械学習入門 ~Deep Learningに挑戦~
Pythonによる機械学習入門 ~Deep Learningに挑戦~Pythonによる機械学習入門 ~Deep Learningに挑戦~
Pythonによる機械学習入門 ~Deep Learningに挑戦~Yasutomo Kawanishi
 
Chainerチュートリアル -v1.5向け- ViEW2015
Chainerチュートリアル -v1.5向け- ViEW2015Chainerチュートリアル -v1.5向け- ViEW2015
Chainerチュートリアル -v1.5向け- ViEW2015Ryosuke Okuta
 
機械学習概論 講義テキスト
機械学習概論 講義テキスト機械学習概論 講義テキスト
機械学習概論 講義テキストEtsuji Nakai
 
TensorFlow を使った 機械学習ことはじめ (GDG京都 機械学習勉強会)
TensorFlow を使った機械学習ことはじめ (GDG京都 機械学習勉強会)TensorFlow を使った機械学習ことはじめ (GDG京都 機械学習勉強会)
TensorFlow を使った 機械学習ことはじめ (GDG京都 機械学習勉強会)徹 上野山
 
scikit-learnを用いた機械学習チュートリアル
scikit-learnを用いた機械学習チュートリアルscikit-learnを用いた機械学習チュートリアル
scikit-learnを用いた機械学習チュートリアル敦志 金谷
 

Destaque (12)

基礎からのベイズ統計学 2章 勉強会資料
基礎からのベイズ統計学 2章 勉強会資料基礎からのベイズ統計学 2章 勉強会資料
基礎からのベイズ統計学 2章 勉強会資料
 
基礎からのベイズ統計学 輪読会資料 第1章 確率に関するベイズの定理
基礎からのベイズ統計学 輪読会資料 第1章 確率に関するベイズの定理基礎からのベイズ統計学 輪読会資料 第1章 確率に関するベイズの定理
基礎からのベイズ統計学 輪読会資料 第1章 確率に関するベイズの定理
 
統計学の基礎の基礎
統計学の基礎の基礎統計学の基礎の基礎
統計学の基礎の基礎
 
機械学習ゴリゴリ派のための数学とPython
機械学習ゴリゴリ派のための数学とPython機械学習ゴリゴリ派のための数学とPython
機械学習ゴリゴリ派のための数学とPython
 
TensorFlowとは? ディープラーニング (深層学習) とは?
TensorFlowとは? ディープラーニング (深層学習) とは?TensorFlowとは? ディープラーニング (深層学習) とは?
TensorFlowとは? ディープラーニング (深層学習) とは?
 
ルールベースから機械学習への道 公開用
ルールベースから機械学習への道 公開用ルールベースから機械学習への道 公開用
ルールベースから機械学習への道 公開用
 
実戦投入する機械学習
実戦投入する機械学習実戦投入する機械学習
実戦投入する機械学習
 
Pythonによる機械学習入門 ~Deep Learningに挑戦~
Pythonによる機械学習入門 ~Deep Learningに挑戦~Pythonによる機械学習入門 ~Deep Learningに挑戦~
Pythonによる機械学習入門 ~Deep Learningに挑戦~
 
Chainerチュートリアル -v1.5向け- ViEW2015
Chainerチュートリアル -v1.5向け- ViEW2015Chainerチュートリアル -v1.5向け- ViEW2015
Chainerチュートリアル -v1.5向け- ViEW2015
 
機械学習概論 講義テキスト
機械学習概論 講義テキスト機械学習概論 講義テキスト
機械学習概論 講義テキスト
 
TensorFlow を使った 機械学習ことはじめ (GDG京都 機械学習勉強会)
TensorFlow を使った機械学習ことはじめ (GDG京都 機械学習勉強会)TensorFlow を使った機械学習ことはじめ (GDG京都 機械学習勉強会)
TensorFlow を使った 機械学習ことはじめ (GDG京都 機械学習勉強会)
 
scikit-learnを用いた機械学習チュートリアル
scikit-learnを用いた機械学習チュートリアルscikit-learnを用いた機械学習チュートリアル
scikit-learnを用いた機械学習チュートリアル
 

Semelhante a Pythonによる機械学習入門〜基礎からDeep Learningまで〜

画像処理でのPythonの利用
画像処理でのPythonの利用画像処理でのPythonの利用
画像処理でのPythonの利用Yasutomo Kawanishi
 
はじめての人のためのDeep Learning
はじめての人のためのDeep Learningはじめての人のためのDeep Learning
はじめての人のためのDeep LearningTadaichiro Nakano
 
Cython intro prelerease
Cython intro prelereaseCython intro prelerease
Cython intro prelereaseShiqiao Du
 
ソフトウェアエンジニアのための「機械学習理論」入門・ハンズオン演習ガイド
 ソフトウェアエンジニアのための「機械学習理論」入門・ハンズオン演習ガイド ソフトウェアエンジニアのための「機械学習理論」入門・ハンズオン演習ガイド
ソフトウェアエンジニアのための「機械学習理論」入門・ハンズオン演習ガイドEtsuji Nakai
 
第1回 Jubatusハンズオン
第1回 Jubatusハンズオン第1回 Jubatusハンズオン
第1回 JubatusハンズオンJubatusOfficial
 
第1回 Jubatusハンズオン
第1回 Jubatusハンズオン第1回 Jubatusハンズオン
第1回 JubatusハンズオンYuya Unno
 
PythonによるDeep Learningの実装
PythonによるDeep Learningの実装PythonによるDeep Learningの実装
PythonによるDeep Learningの実装Shinya Akiba
 
Chainerの使い方と 自然言語処理への応用
Chainerの使い方と自然言語処理への応用Chainerの使い方と自然言語処理への応用
Chainerの使い方と 自然言語処理への応用Yuya Unno
 
Deep Learningの基礎と応用
Deep Learningの基礎と応用Deep Learningの基礎と応用
Deep Learningの基礎と応用Seiya Tokui
 
Introduction to cython
Introduction to cythonIntroduction to cython
Introduction to cythonAtsuo Ishimoto
 
2010 icse-an analysis of the variability in forty preprocessor-based software...
2010 icse-an analysis of the variability in forty preprocessor-based software...2010 icse-an analysis of the variability in forty preprocessor-based software...
2010 icse-an analysis of the variability in forty preprocessor-based software...n-yuki
 
Chainerの使い方と自然言語処理への応用
Chainerの使い方と自然言語処理への応用Chainerの使い方と自然言語処理への応用
Chainerの使い方と自然言語処理への応用Seiya Tokui
 
[AI08] 深層学習フレームワーク Chainer × Microsoft で広がる応用
[AI08] 深層学習フレームワーク Chainer × Microsoft で広がる応用[AI08] 深層学習フレームワーク Chainer × Microsoft で広がる応用
[AI08] 深層学習フレームワーク Chainer × Microsoft で広がる応用de:code 2017
 
深層学習フレームワーク Chainer の開発と今後の展開
深層学習フレームワーク Chainer の開発と今後の展開深層学習フレームワーク Chainer の開発と今後の展開
深層学習フレームワーク Chainer の開発と今後の展開Seiya Tokui
 
ChainerでDeep Learningを試す為に必要なこと
ChainerでDeep Learningを試す為に必要なことChainerでDeep Learningを試す為に必要なこと
ChainerでDeep Learningを試す為に必要なことJiro Nishitoba
 
20170131 python3 6 PEP526
20170131 python3 6 PEP526 20170131 python3 6 PEP526
20170131 python3 6 PEP526 masahitojp
 

Semelhante a Pythonによる機械学習入門〜基礎からDeep Learningまで〜 (20)

Introduction of Python
Introduction of PythonIntroduction of Python
Introduction of Python
 
画像処理でのPythonの利用
画像処理でのPythonの利用画像処理でのPythonの利用
画像処理でのPythonの利用
 
はじめての人のためのDeep Learning
はじめての人のためのDeep Learningはじめての人のためのDeep Learning
はじめての人のためのDeep Learning
 
Cython intro prelerease
Cython intro prelereaseCython intro prelerease
Cython intro prelerease
 
ソフトウェアエンジニアのための「機械学習理論」入門・ハンズオン演習ガイド
 ソフトウェアエンジニアのための「機械学習理論」入門・ハンズオン演習ガイド ソフトウェアエンジニアのための「機械学習理論」入門・ハンズオン演習ガイド
ソフトウェアエンジニアのための「機械学習理論」入門・ハンズオン演習ガイド
 
第1回 Jubatusハンズオン
第1回 Jubatusハンズオン第1回 Jubatusハンズオン
第1回 Jubatusハンズオン
 
第1回 Jubatusハンズオン
第1回 Jubatusハンズオン第1回 Jubatusハンズオン
第1回 Jubatusハンズオン
 
PythonによるDeep Learningの実装
PythonによるDeep Learningの実装PythonによるDeep Learningの実装
PythonによるDeep Learningの実装
 
C#勉強会
C#勉強会C#勉強会
C#勉強会
 
2023_freshman
2023_freshman2023_freshman
2023_freshman
 
Chainerの使い方と 自然言語処理への応用
Chainerの使い方と自然言語処理への応用Chainerの使い方と自然言語処理への応用
Chainerの使い方と 自然言語処理への応用
 
Deep Learningの基礎と応用
Deep Learningの基礎と応用Deep Learningの基礎と応用
Deep Learningの基礎と応用
 
Introduction to cython
Introduction to cythonIntroduction to cython
Introduction to cython
 
2010 icse-an analysis of the variability in forty preprocessor-based software...
2010 icse-an analysis of the variability in forty preprocessor-based software...2010 icse-an analysis of the variability in forty preprocessor-based software...
2010 icse-an analysis of the variability in forty preprocessor-based software...
 
ATN No.2 Scala事始め
ATN No.2 Scala事始めATN No.2 Scala事始め
ATN No.2 Scala事始め
 
Chainerの使い方と自然言語処理への応用
Chainerの使い方と自然言語処理への応用Chainerの使い方と自然言語処理への応用
Chainerの使い方と自然言語処理への応用
 
[AI08] 深層学習フレームワーク Chainer × Microsoft で広がる応用
[AI08] 深層学習フレームワーク Chainer × Microsoft で広がる応用[AI08] 深層学習フレームワーク Chainer × Microsoft で広がる応用
[AI08] 深層学習フレームワーク Chainer × Microsoft で広がる応用
 
深層学習フレームワーク Chainer の開発と今後の展開
深層学習フレームワーク Chainer の開発と今後の展開深層学習フレームワーク Chainer の開発と今後の展開
深層学習フレームワーク Chainer の開発と今後の展開
 
ChainerでDeep Learningを試す為に必要なこと
ChainerでDeep Learningを試す為に必要なことChainerでDeep Learningを試す為に必要なこと
ChainerでDeep Learningを試す為に必要なこと
 
20170131 python3 6 PEP526
20170131 python3 6 PEP526 20170131 python3 6 PEP526
20170131 python3 6 PEP526
 

Mais de Yasutomo Kawanishi

TransPose: Towards Explainable Human Pose Estimation by Transformer
TransPose: Towards Explainable Human Pose Estimation by TransformerTransPose: Towards Explainable Human Pose Estimation by Transformer
TransPose: Towards Explainable Human Pose Estimation by TransformerYasutomo Kawanishi
 
全日本コンピュータビジョン勉強会:Disentangling and Unifying Graph Convolutions for Skeleton-B...
全日本コンピュータビジョン勉強会:Disentangling and Unifying Graph Convolutions for Skeleton-B...全日本コンピュータビジョン勉強会:Disentangling and Unifying Graph Convolutions for Skeleton-B...
全日本コンピュータビジョン勉強会:Disentangling and Unifying Graph Convolutions for Skeleton-B...Yasutomo Kawanishi
 
サーベイ論文:画像からの歩行者属性認識
サーベイ論文:画像からの歩行者属性認識サーベイ論文:画像からの歩行者属性認識
サーベイ論文:画像からの歩行者属性認識Yasutomo Kawanishi
 
Pythonによる画像処理について
Pythonによる画像処理についてPythonによる画像処理について
Pythonによる画像処理についてYasutomo Kawanishi
 
背景モデリングに関する研究など
背景モデリングに関する研究など背景モデリングに関する研究など
背景モデリングに関する研究などYasutomo Kawanishi
 
第17回関西CVPRML勉強会 (一般物体認識) 1,2節
第17回関西CVPRML勉強会 (一般物体認識) 1,2節第17回関西CVPRML勉強会 (一般物体認識) 1,2節
第17回関西CVPRML勉強会 (一般物体認識) 1,2節Yasutomo Kawanishi
 
SNSでひろがるプライバシ制御センシング
SNSでひろがるプライバシ制御センシングSNSでひろがるプライバシ制御センシング
SNSでひろがるプライバシ制御センシングYasutomo Kawanishi
 

Mais de Yasutomo Kawanishi (9)

TransPose: Towards Explainable Human Pose Estimation by Transformer
TransPose: Towards Explainable Human Pose Estimation by TransformerTransPose: Towards Explainable Human Pose Estimation by Transformer
TransPose: Towards Explainable Human Pose Estimation by Transformer
 
全日本コンピュータビジョン勉強会:Disentangling and Unifying Graph Convolutions for Skeleton-B...
全日本コンピュータビジョン勉強会:Disentangling and Unifying Graph Convolutions for Skeleton-B...全日本コンピュータビジョン勉強会:Disentangling and Unifying Graph Convolutions for Skeleton-B...
全日本コンピュータビジョン勉強会:Disentangling and Unifying Graph Convolutions for Skeleton-B...
 
サーベイ論文:画像からの歩行者属性認識
サーベイ論文:画像からの歩行者属性認識サーベイ論文:画像からの歩行者属性認識
サーベイ論文:画像からの歩行者属性認識
 
Pythonによる画像処理について
Pythonによる画像処理についてPythonによる画像処理について
Pythonによる画像処理について
 
ACCV2014参加報告
ACCV2014参加報告ACCV2014参加報告
ACCV2014参加報告
 
背景モデリングに関する研究など
背景モデリングに関する研究など背景モデリングに関する研究など
背景モデリングに関する研究など
 
第17回関西CVPRML勉強会 (一般物体認識) 1,2節
第17回関西CVPRML勉強会 (一般物体認識) 1,2節第17回関西CVPRML勉強会 (一般物体認識) 1,2節
第17回関西CVPRML勉強会 (一般物体認識) 1,2節
 
SNSでひろがるプライバシ制御センシング
SNSでひろがるプライバシ制御センシングSNSでひろがるプライバシ制御センシング
SNSでひろがるプライバシ制御センシング
 
SHOGUN使ってみました
SHOGUN使ってみましたSHOGUN使ってみました
SHOGUN使ってみました
 

Pythonによる機械学習入門〜基礎からDeep Learningまで〜