SlideShare uma empresa Scribd logo
1 de 61
この資料は「第3回 IEEE SIGHT ハックチャレンジ 」のために作
られました。 別の目的での使用には、下記の引用が必要です:
Tejero-de-Pablos A. (2018). 機械学習の基礎 [PowerPoint slides].
Retrieved from
https://www.slideshare.net/AntonioTejerodePablo/machine-learning-
fundamentals-ieee
This material was originally created for the “3rd IEEE SIGHT Hack
Challenge” event. If used for a different purpose, the following
citation is necessary:
Tejero-de-Pablos A. (2018). 機械学習の基礎 [PowerPoint slides].
Retrieved from
https://www.slideshare.net/AntonioTejerodePablo/machine-learning-
fundamentals-ieee
機械学習の基礎
Antonio Tejero-de-Pablos
原田・牛久研究室
東京大学
人工知能とは?
• 人工知能:機械が知的行動できる
• 機械学習:機械にデータを与えたら自動学習
• ディープラーニング:機械はより汎用的な理解
を取得
https://blogs.nvidia.com 2
なぜ機械学習?
• 実用面で
• 開発時間の加速
• 人がルールを考える → 機械がデータからルールを学習
• 人が解けない問題も機械が解ける
• 拡張性の高さand generalizable
• For philosophical reasons
• Efficient problem solving
• Think as an engineer  Think as a scientist
3
Agenda
• 機械学習のフレームワーク
• 学習
• 特徴抽出
• 識別
• ニューラルネットワーク
• ディープラーニング
• まとめ
4
機械学習の
フレームワーク
機械学習のフレームワーク
• 事例: 一個のデータ
• ラベル: 事例が属するクラス/値
• A.k.a. グランドトゥルース、アノテーション
• 特徴: モデル学習のための事例の表現
• モデル: データから学ぶ
モデル
事例A 予測A
ラベルA
予測B
事例B
ラベルB
特徴A
特徴B
6
機械学習のフレームワーク
• タスク: スパム検出
• 事例: 一個メール
• ラベル: スパム/NOTスパム
• 特徴:単語数、送信者など
• モデル: スパム検出器
スパム
検出器
Eメール [256, 0 … 3]
スパム
NOTスパム
7
学習(教師あり)
• データから良いモデルを学習していく
• 良いモデルとは未学習のデータでも正しく
予測できる
• 学習方法:
• 教師あり学習
• 教師なし学習
• 教師あり学習にはラベルが必要
モデル
事例A 予測A
ラベルA
予測B
事例B
ラベルB
特徴A
特徴B
8
学習 vs. テスト
• 学習モード: モデル更新(繰り返し)
• テスト・推論モード: モデル固定 (更新無し)
スパム
検出器
EメールA
スパム?
NOTスパム?
NOTスパム
[256, 0 … 3] NOTスパム
更新 (誤差)
スパム
検出器
EメールB
スパム?
NOTスパム?
[89, 1 … 3]
誤差
9
識別 vs. regression (回帰)
教師あり学習によってできるタスクは二つある
• 識別: 予測値は事例のクラス種類
• 例: 犬、猫、バナナ
• Regression: 予測値はクラスではなく連続値
• 例: 温度予測
10
学習
(Regression)
教師あり学習
• データ (x) から“ロス”の最小化により良いモデ
ル (W) を学習していく
• 良いモデルは見たことのないデータに対して
正しく予測 (y’) を出力できる
• 教師あり学習にはラベル (y) が必要
W =
{w0,
w1
…
wn}
xA y’A
yA
y’B
xB
yB
{x1 … xn}A
{x1 … xn}B
12
Linear regression (線形回帰)
ロス (誤差) = f(y – y’) = f(y , x)
直線でfitting: y’ = b + wx
• w: weights
• b: bias
特徴量が複数ある場合: y’ = b + w1x1 + w2x2 + w3x3
x
y
b
13
w
ロス
• モデルが出した予測がどれくらい悪かったか
• 低ければ低いほど良い
• 2乗誤差(Squared loss 、L2ロス): (y – y’)2
• 各データ毎の誤差
• 学習: データセット全体に対するロスを減らす
• 平均2乗誤差(Mean square error、MSE):
• データセット全体の誤差
• 𝑀𝑆𝐸 =
1
𝑁 𝑥,𝑦 ∈𝐷(𝑦 − 𝑦′(𝑥))2
• N: 事例数、D: Dataset
14
学習ループ
• 初期値:
• linear regression なら初期値は何でもよい(乱数でOK)
• Iteration(繰り返し) 1, 2, 3, …
• 入力事例 x  予測 y’  ロスの計算  モデル w 更新
• 学習の終了(収束判定):
• w がほとんど更新されないor全くされない (0 loss)
スパム
検出器
EメールA
スパム?
NOTスパム?
NOTスパム
[256, 0 … 3] NOTスパム
更新 (ロス)
ロス
15
最急降下法
• モデルパラメーターwを更新し、ロスを徐々に減少
• Regression問題では、loss vs weightの凸関数
• Gradient(勾配): ロスを小さくするwの更新方向を示す
• 2乗誤差などの簡単なロスの勾配は簡単に計算できる
w
ロス
初期値
(ランダム)
gradient: 方向と大きさ
learning rate
What if the learning rate is too big?
What if the learning rate is too small?
What is the ideal learning rate?
16
データの分割: 学習/テスト
学習したモデルの精度はどれくらい良いか
モデルを評価するためにテストデータを用意
• 統計的に充分な数
• データセット全体を代表
一般的な分け方(学習/テスト):
• 80%/20%
• 66%/33%
Test
set
Train
set
17
TensorFlowでregressorを学習しよう
features,labels = read_data() # 特徴量を読み込む
features = feature_normalize(features) # 正規化
rnd_indices = np.random.rand(len(features)) < 0.80
train_x = features[rnd_indices] # データを分ける
train_y = labels[rnd_indices]
test_x = features[~rnd_indices]
test_y = labels[~rnd_indices]
learning_rate = 0.01 # 学習変数の初期化
training_iterations = 1000
loss_history = np.empty(shape=[1],dtype=float)
18
TensorFlowでregressorを学習しよう
n_dim = features.shape[1] # TensorFlowの変数コンテナ
X = tf.placeholder(tf.float32,[None,n_dim])
Y = tf.placeholder(tf.float32,[None,1])
W = tf.Variable(tf.ones([n_dim,1]))
init = tf.initialize_all_variables() # 学習変数の初期化
y_ = tf.matmul(X, W) # 学習関数の宣言
loss = tf.reduce_mean(tf.square(y_ - Y))
training_step =
tf.train.GradientDescentOptimizer(learning_rate).minimize(loss)
19
sess = tf.Session()
sess.run(init)
for iteration in range(training_iterations): # 学習モード
sess.run(training_step,feed_dict={X:train_x,Y:train_y})
loss_history = sess.run(loss,feed_dict={X: train_x,Y:
train_y})
pred_y = sess.run(y_, feed_dict={X: test_x}) # テストモード
sess.close()
20
TensorFlowでregressorを学習しよう
過学習(overfitting)と正則化
• 過学習
モデル事例 予測
ラベル
特徴
更新 (ロス)
iterations
loss
test set
training set
overfitting
21
過学習(overfitting)と正則化
• 正則化
• λ大: モデルがシンプルになり過ぎて不十分な学
習  低い精度
• λ小: モデルが複雑になり過ぎて過学習  未学
習データに弱い
• 理想的なλは?データに依存  試行錯誤して!
22
minimize(loss(x, y) + 𝜆𝑐𝑜𝑚𝑝𝑙𝑒𝑥𝑖𝑡𝑦(𝑤))
データ: Validation
モデル調整のために学習データを更に分割
Training setで
モデルを学習
Validation setで
モデルを評価
モデルを調整:
• Hyperparameters
• 特徴量
• …
validation setを一番
良く予測したモデル
をTest setで評価
iterations
loss
validation set
training set
overfitting
Test
set
Train
set
Val
set
23
特徴抽出
特徴抽出
生データと特徴量のマッピング
• 数値: 直接マッピング
• IDなどの非数値データは?
生データ
email:
• 単語数: 129
• 受信数: 12
• 送信者: s2@mail.com
• …
特徴量
x:
• 129.0
• 12.0
• 2?
• …
特徴抽出
3人の送信者: s0@mail.com, s1@mail.com, s2@mail.com
生データ
email:
• 送信者: s2@mail.com
特徴量
x:
• [0, 0, 1]
特徴抽出
25
特徴抽出:データの精査
• 正規化 (例 [100~900]  [-1~1]):
• 学習の収束を高速化
• Be careful with:
• 外れ値
• 欠損値
• データの重複
• ラベル誤り
• Analyze your data
• 最大値 / 最小値
• 平均 / 中央値
• 標準偏差
頻度
患者の年齢
患者の年齢を予測する
ためのデータセット
26
特徴抽出
• 顔検出用の特徴はどう抽出したら良いと思う?
https://commons.wikimedia.org 27
識別
Logistic regression (ロジスティック回帰)
識別の前に確率を計算
• 例) スパムメールである確率
• モデル出力のシグモイド関数
𝑝 =
1
1 + 𝑒− 𝑦′
, 𝑦′ = 𝑏 + 𝑤1 𝑥1 + ⋯ 𝑤 𝑁 𝑥 𝑁
𝑝
𝑦′
29
Logistic regression: 演習
Logistic regression モデル:
• b = 1
• w1 = 2
• w2 = -1
• w3 = 5
確率pの値は?
特徴量:
• x1 = 0
• x2 = 10
• x3 = 2
p = 73%
30
Logistic regression: 2クラス識別
• しきい値
• Q: 最適なしきい値は?
• A: 予測精度を最大化する値
• つねに0.5が最適とは限らない。データに依存
y’ = スパム
y’ = NOTスパム
しきい値
31
2クラス識別: 評価
Regression
• 誤差 (y’ - y) で評価
識別
• True positive (TP)
• True negative (TN)
• False positive (FP)
• False negative (FN)
• Accuracy: 𝑁𝑢𝑚 𝑐𝑜𝑟𝑟𝑒𝑐𝑡 𝑝𝑟𝑒𝑑𝑖𝑐𝑡𝑖𝑜𝑛𝑠
𝑁𝑢𝑚 𝑡𝑜𝑡𝑎𝑙 𝑝𝑟𝑒𝑑𝑖𝑐𝑡𝑖𝑜𝑛𝑠
=
𝑇𝑃 + 𝑇𝑁
𝑇𝑃 + 𝑇𝑁 + 𝐹𝑃 + 𝐹𝑁
32
2クラス識別: 評価
クラス毎のデータ数に偏りがあるとき、accuracy
は正しい指標だろうか?
https://commons.wikimedia.org
Precision =
𝑇𝑃
𝑇𝑃+𝐹𝑃
Recall =
𝑇𝑃
𝑇𝑃+𝐹𝑁
33
評価:演習
スパムの事例 NOTスパムの事例
スパムとして識別
NOTスパムとして識別
しきい値 t
p = 1.0
p = 0.0
0.5
Precision と recall の値は?
• t = 0.6
• t = 0.7
• t = 0.5
34
ニューラル
ネットワーク
ニューラルネットワーク
Linear problems vs Non-linear problems
x
y
x
y
36
ニューラルネットワーク
Non-linear architecture
y’ = b + x1w1 + x2w2 + x3w3
非線形な計算
y’
w weights
x nodes
隠れ層
多層パーセプトロン (MLP)
• Is this still linear?
パーセプトロン
37
ニューラルネットワーク
非線形な活性化関数
• 原理的には非線形な活性化関数 f 𝜎 なら何でも良い
• 𝜎, 隠れ層の出力 = 𝑤𝑥 + 𝑏
ニューラルネットワークをどうやって学習させる?
 Backpropagation(誤差逆伝播)
• ニューラルネットワークのような有向グラフのための
勾配降下法
1
-1 10
𝑠𝑖𝑔𝑚𝑜𝑖𝑑 𝜎 =
1
1 + 𝑒−𝜎
𝑅𝑒𝐿𝑈 𝜎 = max(0, 𝜎)
38
ニューラルネットワークのまとめ
ニューラルネットワークの要素:
• Nodes (ニューロン)
• Weights (レイヤー間接続) と biases
• 活性化関数
ニューラルネットワークは “Backpropagation”で学習
39
多クラス識別
• 複数の識別器を学習
• 多数のクラスの場合には非効率的
例:「人」の事例を入力すると?
犬
NOT花
NOT人
犬の識別器
花の識別器
人の識別器
40
• 1対多ニューラルネットワーク
• Logistic regression 覚えてるぅ?
• Softmax 関数: K個のクラスの中で、
事例xのラベルyがクラスjである確
率
… … …
Softmax
0.95 0.02 0.03
𝑝(𝑦 = 𝑗|𝑥) =
𝑒 𝑦′ 𝑗
𝑘∈𝐾 𝑒 𝑦′ 𝑘
, 𝑦′ = 𝑏 + 𝑤𝑥
事例が複数のクラスにまたがっている場合には??
複数の識別器
41
多クラス識別
TensorFlowでMLPを学習しよう
42
dataset.load() # データセットの読み込み
data_size = dataset.size
#===== ネットワークの作成 =====
x = tf.placeholder(tf.float32, [None,(data_size)]) # 入力
fc1 = fullyconnected_layer(name=‘fc1’, input_tensor=x,
num_output=256) # 中間層 (ニューロン数: 256)
act1 = activation_function_layer(name=‘act1’, input_tensor=fc1,
act_func=‘sigmoid’) # 中間層(活性化関数: シグモイド関数)
fc2 = fullyconnected_layer(name=‘fc2’, input_tensor=act1,
num_output=10) # 出力層 (ニューロン数: 10)
y_ = tf.nn.softmax(fc2, name=‘tf_softmax’) # 出力層(softmax)
TensorFlowでMLPを学習しよう
43
y = tf.placeholder(tf.float32, [None, 10]) # ラベル(正解データ)
#===== 学習の設定 =====
cross_entropy = tf.reduce_mean(-tf.reduce_sum(y * tf.log(y_),
reduction_indices=[1])) # ロス関数 (交差エントロピー)
train_step =
tf.train.GradientDescentOptimizer(learning_rate=0.5).minimize
(cross_entropy) # 学習方法の設定(学習率とロス関数を指定)
sess = tf.Session()
sess.run(tf.global_variables_initializer()) # 変数の初期化
TensorFlowでMLPを学習しよう
44
dataset.set_train_minibatch_size(128) # 128枚ごとに学習
#==== 学習ループ =====
num_iteration = 50
for iteration in range(num_iteration):
train_data, train_label = dataset.read_train_batch()
sess.run(train_step, feed_dict={x: train_data, y:
train_label}) # 学習データ(128枚ずつ)を読み込み、重みを更新
#==== テスト(推論) Accuracyを計算 =====
test_data, test_label = dataset.read_test_batch()
accuracy = sess.run(accuracy, feed_dict={x: test_data, y:
test_label})
TensorFlowでMLPを学習しよう
45
#==== レイヤ記述用の関数 ====
def fullyconnected_layer(name, input_tensor, num_output):
with tf.variable_scope(name):
nInput = input_tensor.shape[1] # 入力xの次元数
weight_matrix = tf.get_variable(name=‘weight’,
shape=(nInput, num_output)) # 重みW (nInput×num_output行列)
bias_vector = tf.get_variable(name=‘bias’,
initializer=tf.zeros(shape=(num_output))) # バイアスb
layer = tf.matmul(input_tensor, weight_matrix)# Wx
layer = tf.nn.bias_add(layer, bias_vector) # Wx+b
return layer
def activation_function_layer(name, input_tensor, act_func):
with tf.variable_scope(name):
if act_func is 'relu’: # ReLU関数
layer = tf.nn.relu(input_tensor, name='ReLU’)
elif act_func is ‘sigmoid’: # シグモイド関数
layer = tf.nn.sigmoid(input_tensor, name='Sigmoid’)
...
ディープラーニング
ディープラーニング
• 多数の層から構成されるニューラルネット
ワークがベース
• 十分な学習データを与え学習させることで
複雑な問題を解くことが可能
• 複雑な問題って例えば?
• 人間のような認識能力
• 十分な学習データって何個ぐらい?
• 例 Imagenetなど
47
ディープラーニングの発展
• 研究での使用
• 指数関数的に発展
• 大量のデータ
• SNS
• オンラインリソース
• 計算機パワー
• DGX-1: 8 GPUs RAM TFLOPS
https://commons.wikimedia.org
48
ディープネットワーク
• 層の多い MLP: 学習は同じコンセプト
• ResNet: 有名な画像認識モデル
………入力層 出力層
[He et al., 2016] https://arxiv.org/abs/1512.03385
49
(36 layers)
• ツール
ディープラーニングプラットフォーム
アプリケーション 画像認識、自動翻訳、等
開発ツール PyTorch、Chainer、等
HW Middleware CUDA、OpenMP、等
ハードウェア GPU、Cluster、Amazon Web Services、等
50
畳み込みニューラルネットワーク
• 人の手による特徴抽出は困難な場合がある
• 顔認識のための特徴量は?
• 目の数: 2
• 鼻の下に口がある?: Yes
• … ?
https://commons.wikimedia.org
51
畳み込みニューラルネットワーク
• Convolutional Neural Network (CNN)
生データ(入力) 低レベルの特徴 中間レベルの特徴 高レベルの特徴
全結合層=MLP畳み込み層
コンボリューション
52
畳み込み層
0 0 0 0 0 0 0
0 1 1 1 1 0 0
0 1 2 2 2 1 0
0 1 2 2 2 1 0
0 0 1 2 2 1 0
0 0 1 1 1 1 0
0 0 1 1 1 1 0
4 0 0
0 0 0
0 0 -4 -8
入力画像
or
特徴マップ
コンボリューション
カーネル (w)
特徴マップ
学習される
53
画像データセット
• MNIST • CIFAR-10 • ImageNet
• 学習:120万枚
• テスト: 10万枚
• クラス数:1000
• 学習:5万枚
• テスト: 1万枚
• クラス数:10
• 学習:6万枚
• テスト: 1万枚
• クラス数:10
https://commons.wikimedia.org 54
トランスファーラーニング
• 学習済ネットワークの特徴抽出器を転用
Large scale dataset
Deep network
Backpropagation
Reduced dataset Pre-trained network
識別器
Gradient
descent
55
もっと勉強したい人へ
• 実際にやってみよう!
• 2クラス識別問題
• 画像の多クラス識別問題
• ディープラーニングを動かす数式も学ぼう
• Test your skills! https://www.kaggle.com
56
まとめ
まとめ
• 事例、特徴、モデル、予測
• 学習:ロス、gradient descent
• オーバフィテッイング:Train, test, validation
• Regression, logistic regression, classification, multi-
class classification
• 評価: Accuracy, precision, recall
• ニューラルネットワーク (non-linearity)
• MLP、backpropagation
• ディープラーニング
• 畳み込み層
58
まとめ
• 機械学習がデータへの理解をより深くする
• ディープラーニング:
• 表現力の高いモデルを学習
• 複雑なタスクでも高いパフォーマンス
• 大量の学習データが必要
• 機械学習において、アルゴリズムはエンジンで
データは燃料
• 機械学習を開発するツールは多く存在する
社会
59
参考文献
本
• 機械学習
• C. Bishop, “Pattern Recognition and Machine Learning”
• ディープラーニング
• I. Goodfellow, “Deep learning”
• コンピュータビジョン
• 原田達也, “画像認識”
オンラインコース
• Google
• https://developers.google.com/machine-learning/crash-course/
• Coursera
• https://www.coursera.org/learn/machine-learning 60

Mais conteúdo relacionado

Mais procurados

機械学習 入門
機械学習 入門機械学習 入門
機械学習 入門Hayato Maki
 
RとStanでクラウドセットアップ時間を分析してみたら #TokyoR
RとStanでクラウドセットアップ時間を分析してみたら #TokyoRRとStanでクラウドセットアップ時間を分析してみたら #TokyoR
RとStanでクラウドセットアップ時間を分析してみたら #TokyoRShuyo Nakatani
 
TensorFlow を使った 機械学習ことはじめ (GDG京都 機械学習勉強会)
TensorFlow を使った機械学習ことはじめ (GDG京都 機械学習勉強会)TensorFlow を使った機械学習ことはじめ (GDG京都 機械学習勉強会)
TensorFlow を使った 機械学習ことはじめ (GDG京都 機械学習勉強会)徹 上野山
 
Pythonによる機械学習入門〜基礎からDeep Learningまで〜
Pythonによる機械学習入門〜基礎からDeep Learningまで〜Pythonによる機械学習入門〜基礎からDeep Learningまで〜
Pythonによる機械学習入門〜基礎からDeep Learningまで〜Yasutomo Kawanishi
 
はてなインターン「機械学習」
はてなインターン「機械学習」はてなインターン「機械学習」
はてなインターン「機械学習」Hatena::Engineering
 
Jupyter NotebookとChainerで楽々Deep Learning
Jupyter NotebookとChainerで楽々Deep LearningJupyter NotebookとChainerで楽々Deep Learning
Jupyter NotebookとChainerで楽々Deep LearningJun-ya Norimatsu
 
TensorFlowの使い方(in Japanese)
TensorFlowの使い方(in Japanese)TensorFlowの使い方(in Japanese)
TensorFlowの使い方(in Japanese)Toshihiko Yamakami
 
「深層学習」勉強会LT資料 "Chainer使ってみた"
「深層学習」勉強会LT資料 "Chainer使ってみた"「深層学習」勉強会LT資料 "Chainer使ってみた"
「深層学習」勉強会LT資料 "Chainer使ってみた"Ken'ichi Matsui
 
アンサンブル学習
アンサンブル学習アンサンブル学習
アンサンブル学習Hidekazu Tanaka
 
機会学習ハッカソン:ランダムフォレスト
機会学習ハッカソン:ランダムフォレスト機会学習ハッカソン:ランダムフォレスト
機会学習ハッカソン:ランダムフォレストTeppei Baba
 
Dimensionality reduction with t-SNE(Rtsne) and UMAP(uwot) using R packages.
Dimensionality reduction with t-SNE(Rtsne) and UMAP(uwot) using R packages. Dimensionality reduction with t-SNE(Rtsne) and UMAP(uwot) using R packages.
Dimensionality reduction with t-SNE(Rtsne) and UMAP(uwot) using R packages. Satoshi Kato
 
Tokyo.R 41 サポートベクターマシンで眼鏡っ娘分類システム構築
Tokyo.R 41 サポートベクターマシンで眼鏡っ娘分類システム構築Tokyo.R 41 サポートベクターマシンで眼鏡っ娘分類システム構築
Tokyo.R 41 サポートベクターマシンで眼鏡っ娘分類システム構築Tatsuya Tojima
 
画像認識で物を見分ける
画像認識で物を見分ける画像認識で物を見分ける
画像認識で物を見分けるKazuaki Tanida
 
論文紹介 Semi-supervised Learning with Deep Generative Models
論文紹介 Semi-supervised Learning with Deep Generative Models論文紹介 Semi-supervised Learning with Deep Generative Models
論文紹介 Semi-supervised Learning with Deep Generative ModelsSeiya Tokui
 
mxnetで頑張る深層学習
mxnetで頑張る深層学習mxnetで頑張る深層学習
mxnetで頑張る深層学習Takashi Kitano
 
Practical recommendations for gradient-based training of deep architectures
Practical recommendations for gradient-based training of deep architecturesPractical recommendations for gradient-based training of deep architectures
Practical recommendations for gradient-based training of deep architecturesKoji Matsuda
 
はじめてのパターン認識 第8章 サポートベクトルマシン
はじめてのパターン認識 第8章 サポートベクトルマシンはじめてのパターン認識 第8章 サポートベクトルマシン
はじめてのパターン認識 第8章 サポートベクトルマシンMotoya Wakiyama
 
ディープニューラルネット入門
ディープニューラルネット入門ディープニューラルネット入門
ディープニューラルネット入門TanUkkii
 

Mais procurados (20)

機械学習 入門
機械学習 入門機械学習 入門
機械学習 入門
 
RとStanでクラウドセットアップ時間を分析してみたら #TokyoR
RとStanでクラウドセットアップ時間を分析してみたら #TokyoRRとStanでクラウドセットアップ時間を分析してみたら #TokyoR
RとStanでクラウドセットアップ時間を分析してみたら #TokyoR
 
TensorFlow を使った 機械学習ことはじめ (GDG京都 機械学習勉強会)
TensorFlow を使った機械学習ことはじめ (GDG京都 機械学習勉強会)TensorFlow を使った機械学習ことはじめ (GDG京都 機械学習勉強会)
TensorFlow を使った 機械学習ことはじめ (GDG京都 機械学習勉強会)
 
Pythonによる機械学習入門〜基礎からDeep Learningまで〜
Pythonによる機械学習入門〜基礎からDeep Learningまで〜Pythonによる機械学習入門〜基礎からDeep Learningまで〜
Pythonによる機械学習入門〜基礎からDeep Learningまで〜
 
はてなインターン「機械学習」
はてなインターン「機械学習」はてなインターン「機械学習」
はてなインターン「機械学習」
 
Jupyter NotebookとChainerで楽々Deep Learning
Jupyter NotebookとChainerで楽々Deep LearningJupyter NotebookとChainerで楽々Deep Learning
Jupyter NotebookとChainerで楽々Deep Learning
 
TensorFlowの使い方(in Japanese)
TensorFlowの使い方(in Japanese)TensorFlowの使い方(in Japanese)
TensorFlowの使い方(in Japanese)
 
「深層学習」勉強会LT資料 "Chainer使ってみた"
「深層学習」勉強会LT資料 "Chainer使ってみた"「深層学習」勉強会LT資料 "Chainer使ってみた"
「深層学習」勉強会LT資料 "Chainer使ってみた"
 
アンサンブル学習
アンサンブル学習アンサンブル学習
アンサンブル学習
 
機会学習ハッカソン:ランダムフォレスト
機会学習ハッカソン:ランダムフォレスト機会学習ハッカソン:ランダムフォレスト
機会学習ハッカソン:ランダムフォレスト
 
Dimensionality reduction with t-SNE(Rtsne) and UMAP(uwot) using R packages.
Dimensionality reduction with t-SNE(Rtsne) and UMAP(uwot) using R packages. Dimensionality reduction with t-SNE(Rtsne) and UMAP(uwot) using R packages.
Dimensionality reduction with t-SNE(Rtsne) and UMAP(uwot) using R packages.
 
Tokyo.R 41 サポートベクターマシンで眼鏡っ娘分類システム構築
Tokyo.R 41 サポートベクターマシンで眼鏡っ娘分類システム構築Tokyo.R 41 サポートベクターマシンで眼鏡っ娘分類システム構築
Tokyo.R 41 サポートベクターマシンで眼鏡っ娘分類システム構築
 
画像認識で物を見分ける
画像認識で物を見分ける画像認識で物を見分ける
画像認識で物を見分ける
 
Sakusaku svm
Sakusaku svmSakusaku svm
Sakusaku svm
 
論文紹介 Semi-supervised Learning with Deep Generative Models
論文紹介 Semi-supervised Learning with Deep Generative Models論文紹介 Semi-supervised Learning with Deep Generative Models
論文紹介 Semi-supervised Learning with Deep Generative Models
 
Maeshori missing
Maeshori missingMaeshori missing
Maeshori missing
 
mxnetで頑張る深層学習
mxnetで頑張る深層学習mxnetで頑張る深層学習
mxnetで頑張る深層学習
 
Practical recommendations for gradient-based training of deep architectures
Practical recommendations for gradient-based training of deep architecturesPractical recommendations for gradient-based training of deep architectures
Practical recommendations for gradient-based training of deep architectures
 
はじめてのパターン認識 第8章 サポートベクトルマシン
はじめてのパターン認識 第8章 サポートベクトルマシンはじめてのパターン認識 第8章 サポートベクトルマシン
はじめてのパターン認識 第8章 サポートベクトルマシン
 
ディープニューラルネット入門
ディープニューラルネット入門ディープニューラルネット入門
ディープニューラルネット入門
 

Semelhante a Machine Learning Fundamentals IEEE

第1回 Jubatusハンズオン
第1回 Jubatusハンズオン第1回 Jubatusハンズオン
第1回 JubatusハンズオンJubatusOfficial
 
第1回 Jubatusハンズオン
第1回 Jubatusハンズオン第1回 Jubatusハンズオン
第1回 JubatusハンズオンYuya Unno
 
[第2版]Python機械学習プログラミング 第16章
[第2版]Python機械学習プログラミング 第16章[第2版]Python機械学習プログラミング 第16章
[第2版]Python機械学習プログラミング 第16章Haruki Eguchi
 
公平性を保証したAI/機械学習
アルゴリズムの最新理論
公平性を保証したAI/機械学習
アルゴリズムの最新理論公平性を保証したAI/機械学習
アルゴリズムの最新理論
公平性を保証したAI/機械学習
アルゴリズムの最新理論Kazuto Fukuchi
 
エンジニアのための機械学習の基礎
エンジニアのための機械学習の基礎エンジニアのための機械学習の基礎
エンジニアのための機械学習の基礎Daiyu Hatakeyama
 
LET2011: Rによる教育データ分析入門
LET2011: Rによる教育データ分析入門LET2011: Rによる教育データ分析入門
LET2011: Rによる教育データ分析入門Yuichiro Kobayashi
 
Analyze by StatsModels or Numpy
Analyze by StatsModels or NumpyAnalyze by StatsModels or Numpy
Analyze by StatsModels or NumpyToshiki NOGUCHI
 
Azure Machine Learning getting started
Azure Machine Learning getting startedAzure Machine Learning getting started
Azure Machine Learning getting startedMasayuki Ota
 
第五回統計学勉強会@東大駒場
第五回統計学勉強会@東大駒場第五回統計学勉強会@東大駒場
第五回統計学勉強会@東大駒場Daisuke Yoneoka
 
Decision Transformer: Reinforcement Learning via Sequence Modeling
Decision Transformer: Reinforcement Learning via Sequence ModelingDecision Transformer: Reinforcement Learning via Sequence Modeling
Decision Transformer: Reinforcement Learning via Sequence ModelingYasunori Ozaki
 
Hive/Pigを使ったKDD'12 track2の広告クリック率予測
Hive/Pigを使ったKDD'12 track2の広告クリック率予測Hive/Pigを使ったKDD'12 track2の広告クリック率予測
Hive/Pigを使ったKDD'12 track2の広告クリック率予測Makoto Yui
 
最近のRのランダムフォレストパッケージ -ranger/Rborist-
最近のRのランダムフォレストパッケージ -ranger/Rborist-最近のRのランダムフォレストパッケージ -ranger/Rborist-
最近のRのランダムフォレストパッケージ -ranger/Rborist-Shintaro Fukushima
 
SSII2022 [TS3] コンテンツ制作を支援する機械学習技術​〜 イラストレーションやデザインの基礎から最新鋭の技術まで 〜​
SSII2022 [TS3] コンテンツ制作を支援する機械学習技術​〜 イラストレーションやデザインの基礎から最新鋭の技術まで 〜​SSII2022 [TS3] コンテンツ制作を支援する機械学習技術​〜 イラストレーションやデザインの基礎から最新鋭の技術まで 〜​
SSII2022 [TS3] コンテンツ制作を支援する機械学習技術​〜 イラストレーションやデザインの基礎から最新鋭の技術まで 〜​SSII
 
能動学習による多関係データセットの構築
能動学習による多関係データセットの構築能動学習による多関係データセットの構築
能動学習による多関係データセットの構築Hiroshi Kajino
 
ビジネス活用事例で学ぶデータサイエンス入門 #2
ビジネス活用事例で学ぶデータサイエンス入門 #2ビジネス活用事例で学ぶデータサイエンス入門 #2
ビジネス活用事例で学ぶデータサイエンス入門 #2you shimajiro
 
予測型戦略を知るための機械学習チュートリアル
予測型戦略を知るための機械学習チュートリアル予測型戦略を知るための機械学習チュートリアル
予測型戦略を知るための機械学習チュートリアルYuya Unno
 
人工知能2018 強化学習の応用
人工知能2018 強化学習の応用人工知能2018 強化学習の応用
人工知能2018 強化学習の応用Hirotaka Hachiya
 
Data-Intensive Text Processing with MapReduce ch6.1
Data-Intensive Text Processing with MapReduce ch6.1Data-Intensive Text Processing with MapReduce ch6.1
Data-Intensive Text Processing with MapReduce ch6.1Sho Shimauchi
 
03_深層学習
03_深層学習03_深層学習
03_深層学習CHIHIROGO
 

Semelhante a Machine Learning Fundamentals IEEE (20)

第1回 Jubatusハンズオン
第1回 Jubatusハンズオン第1回 Jubatusハンズオン
第1回 Jubatusハンズオン
 
第1回 Jubatusハンズオン
第1回 Jubatusハンズオン第1回 Jubatusハンズオン
第1回 Jubatusハンズオン
 
[第2版]Python機械学習プログラミング 第16章
[第2版]Python機械学習プログラミング 第16章[第2版]Python機械学習プログラミング 第16章
[第2版]Python機械学習プログラミング 第16章
 
公平性を保証したAI/機械学習
アルゴリズムの最新理論
公平性を保証したAI/機械学習
アルゴリズムの最新理論公平性を保証したAI/機械学習
アルゴリズムの最新理論
公平性を保証したAI/機械学習
アルゴリズムの最新理論
 
エンジニアのための機械学習の基礎
エンジニアのための機械学習の基礎エンジニアのための機械学習の基礎
エンジニアのための機械学習の基礎
 
LET2011: Rによる教育データ分析入門
LET2011: Rによる教育データ分析入門LET2011: Rによる教育データ分析入門
LET2011: Rによる教育データ分析入門
 
Analyze by StatsModels or Numpy
Analyze by StatsModels or NumpyAnalyze by StatsModels or Numpy
Analyze by StatsModels or Numpy
 
Azure Machine Learning getting started
Azure Machine Learning getting startedAzure Machine Learning getting started
Azure Machine Learning getting started
 
第五回統計学勉強会@東大駒場
第五回統計学勉強会@東大駒場第五回統計学勉強会@東大駒場
第五回統計学勉強会@東大駒場
 
Decision Transformer: Reinforcement Learning via Sequence Modeling
Decision Transformer: Reinforcement Learning via Sequence ModelingDecision Transformer: Reinforcement Learning via Sequence Modeling
Decision Transformer: Reinforcement Learning via Sequence Modeling
 
Hive/Pigを使ったKDD'12 track2の広告クリック率予測
Hive/Pigを使ったKDD'12 track2の広告クリック率予測Hive/Pigを使ったKDD'12 track2の広告クリック率予測
Hive/Pigを使ったKDD'12 track2の広告クリック率予測
 
最近のRのランダムフォレストパッケージ -ranger/Rborist-
最近のRのランダムフォレストパッケージ -ranger/Rborist-最近のRのランダムフォレストパッケージ -ranger/Rborist-
最近のRのランダムフォレストパッケージ -ranger/Rborist-
 
SSII2022 [TS3] コンテンツ制作を支援する機械学習技術​〜 イラストレーションやデザインの基礎から最新鋭の技術まで 〜​
SSII2022 [TS3] コンテンツ制作を支援する機械学習技術​〜 イラストレーションやデザインの基礎から最新鋭の技術まで 〜​SSII2022 [TS3] コンテンツ制作を支援する機械学習技術​〜 イラストレーションやデザインの基礎から最新鋭の技術まで 〜​
SSII2022 [TS3] コンテンツ制作を支援する機械学習技術​〜 イラストレーションやデザインの基礎から最新鋭の技術まで 〜​
 
能動学習による多関係データセットの構築
能動学習による多関係データセットの構築能動学習による多関係データセットの構築
能動学習による多関係データセットの構築
 
pi-6. 繰り返し
pi-6. 繰り返しpi-6. 繰り返し
pi-6. 繰り返し
 
ビジネス活用事例で学ぶデータサイエンス入門 #2
ビジネス活用事例で学ぶデータサイエンス入門 #2ビジネス活用事例で学ぶデータサイエンス入門 #2
ビジネス活用事例で学ぶデータサイエンス入門 #2
 
予測型戦略を知るための機械学習チュートリアル
予測型戦略を知るための機械学習チュートリアル予測型戦略を知るための機械学習チュートリアル
予測型戦略を知るための機械学習チュートリアル
 
人工知能2018 強化学習の応用
人工知能2018 強化学習の応用人工知能2018 強化学習の応用
人工知能2018 強化学習の応用
 
Data-Intensive Text Processing with MapReduce ch6.1
Data-Intensive Text Processing with MapReduce ch6.1Data-Intensive Text Processing with MapReduce ch6.1
Data-Intensive Text Processing with MapReduce ch6.1
 
03_深層学習
03_深層学習03_深層学習
03_深層学習
 

Mais de Antonio Tejero de Pablos

ECCV2022 paper reading - MultiMAE: Multi-modal Multi-task Masked Autoencoders...
ECCV2022 paper reading - MultiMAE: Multi-modal Multi-task Masked Autoencoders...ECCV2022 paper reading - MultiMAE: Multi-modal Multi-task Masked Autoencoders...
ECCV2022 paper reading - MultiMAE: Multi-modal Multi-task Masked Autoencoders...Antonio Tejero de Pablos
 
Inteligencia artificial, visión por ordenador, y datos multimodales - ACE Jap...
Inteligencia artificial,visión por ordenador,y datos multimodales - ACE Jap...Inteligencia artificial,visión por ordenador,y datos multimodales - ACE Jap...
Inteligencia artificial, visión por ordenador, y datos multimodales - ACE Jap...Antonio Tejero de Pablos
 
CVPR2022 paper reading - Balanced multimodal learning - All Japan Computer Vi...
CVPR2022 paper reading - Balanced multimodal learning - All Japan Computer Vi...CVPR2022 paper reading - Balanced multimodal learning - All Japan Computer Vi...
CVPR2022 paper reading - Balanced multimodal learning - All Japan Computer Vi...Antonio Tejero de Pablos
 
WakateMIRU2022 (グループ8) ディープワークによる時間管理
WakateMIRU2022 (グループ8) ディープワークによる時間管理WakateMIRU2022 (グループ8) ディープワークによる時間管理
WakateMIRU2022 (グループ8) ディープワークによる時間管理Antonio Tejero de Pablos
 
Presentation Skills Up! Seminar - Harada Ushiku Lab (English)
Presentation Skills Up! Seminar - Harada Ushiku Lab (English)Presentation Skills Up! Seminar - Harada Ushiku Lab (English)
Presentation Skills Up! Seminar - Harada Ushiku Lab (English)Antonio Tejero de Pablos
 
プレゼンスキルアップ!講座 原田・牛久研究室(日本語)
プレゼンスキルアップ!講座 原田・牛久研究室(日本語)プレゼンスキルアップ!講座 原田・牛久研究室(日本語)
プレゼンスキルアップ!講座 原田・牛久研究室(日本語)Antonio Tejero de Pablos
 

Mais de Antonio Tejero de Pablos (7)

ECCV2022 paper reading - MultiMAE: Multi-modal Multi-task Masked Autoencoders...
ECCV2022 paper reading - MultiMAE: Multi-modal Multi-task Masked Autoencoders...ECCV2022 paper reading - MultiMAE: Multi-modal Multi-task Masked Autoencoders...
ECCV2022 paper reading - MultiMAE: Multi-modal Multi-task Masked Autoencoders...
 
Inteligencia artificial, visión por ordenador, y datos multimodales - ACE Jap...
Inteligencia artificial,visión por ordenador,y datos multimodales - ACE Jap...Inteligencia artificial,visión por ordenador,y datos multimodales - ACE Jap...
Inteligencia artificial, visión por ordenador, y datos multimodales - ACE Jap...
 
CVPR2022 paper reading - Balanced multimodal learning - All Japan Computer Vi...
CVPR2022 paper reading - Balanced multimodal learning - All Japan Computer Vi...CVPR2022 paper reading - Balanced multimodal learning - All Japan Computer Vi...
CVPR2022 paper reading - Balanced multimodal learning - All Japan Computer Vi...
 
WakateMIRU2022 (グループ8) ディープワークによる時間管理
WakateMIRU2022 (グループ8) ディープワークによる時間管理WakateMIRU2022 (グループ8) ディープワークによる時間管理
WakateMIRU2022 (グループ8) ディープワークによる時間管理
 
VAEs for multimodal disentanglement
VAEs for multimodal disentanglementVAEs for multimodal disentanglement
VAEs for multimodal disentanglement
 
Presentation Skills Up! Seminar - Harada Ushiku Lab (English)
Presentation Skills Up! Seminar - Harada Ushiku Lab (English)Presentation Skills Up! Seminar - Harada Ushiku Lab (English)
Presentation Skills Up! Seminar - Harada Ushiku Lab (English)
 
プレゼンスキルアップ!講座 原田・牛久研究室(日本語)
プレゼンスキルアップ!講座 原田・牛久研究室(日本語)プレゼンスキルアップ!講座 原田・牛久研究室(日本語)
プレゼンスキルアップ!講座 原田・牛久研究室(日本語)
 

Machine Learning Fundamentals IEEE

Notas do Editor

  1. ・Artificial Intelligence is the broader concept of machines being able to carry out tasks in a way that we would consider “smart”. ・Machine Learning is a current application of AI based around the idea that we should really just be able to give machines access to data and let them learn for themselves. ・Deep learning: The machine is able to understand a broader set of cases. Greater generalization.
  2. Deciding if a mail is a spam or not Not solvable by people: Predicting the stock market Generalizable: Same model can distinguish, “dogs from cats” and “birds from flowers” Think as a scientist: Think the fundamentals of the problem instead of the implementation
  3. Predicting learned data is 当たり前 In this lecture, we will focus on supervised learning
  4. For example: predicting the cost of a house would be classification or regression? Predicting if a movie will be successful or not? 学習のプロセスを詳しく見てみましょう
  5. How do you train a model? How do you decide these w values?
  6. Shuusoku
  7. Data is the fuel (nenryou) to our machine learning model Getting 100% accuracy with 3 instances is not meaningful You cannot keep low values only in your training set and try to predict high values
  8. sengen
  9. Learning English from a teenager
  10. Seizokuka Doing trial and error (chousei) with the test data is not good
  11. Suuchi
  12. Seikika By knowing your data you can strategize better: Is the dataset imbalanced? Should I normalize?
  13. Hint: This is a non-linear problem
  14. Katayori ga aru
  15. The lower the threshold, the better the recall. The higher the threshold, the better the precision  Tradeoff
  16. Kasseika kansuu
  17. From binary to multiclass
  18. What is the size of the input for fc1?
  19. Gradient descent strategy for updating our model. What algorithm is used for learning? Backpropagation
  20. Do you know what it is called deep?
  21. Konnan
  22. Kernel varies in sizes and jumps
  23. Well-known datasets allow researchers to compare their methods fairly
  24. Nenryou