SlideShare uma empresa Scribd logo
1 de 32
coursera e-learning
“machine-learning”
week4:”Neural Networks”
Agenda
1. Motivations
2. Neural Networks
3. Applications
1.Motivations:
Non-linear Hypotheses
1.Motivations:
Non-linear Hypotheses
• What’s This?
– 例えば「車」
• 「車」と判断する基準は何ですか?
– 色
– 形
– タイヤの数
– …
1.Motivations:
Non-linear Hypotheses
• PCだと?(画像認識の例)
– 識別できそうな情報:色、座標、…
1.Motivations:
Non-linear Hypotheses
• PCだと?(画像認識の例)
– 識別できそうな情報:色、座標、…
• 要素としてみると非常に多い
• 例:50x50pixelの画像
– 50×50=2500pixel分の情報を持つ
• RGBなら7500、α入りなら10000
– トレーニングセットとして入力すると…?
普通に二次式で当てはめたりを考えると、非常にコストがかかる
1.Motivations:
Neurons and the Brain
1.Motivations:
Neurons and the Brain
• ニューラルネットワーク
– 初出:1943 (多分)
• Warren S. McCulloch; Walter Pitts (1943).
– 古くからある
– 当時は再現しきれなかった
– コンピュータの性能向上
• 大量のデータを高速で処理できるように
thus far
Now
1.Motivations:
Neurons and the Brain
• ニューラルネットワーク
– ノード間の密な高次の結合
– 複雑な問題への適用が可能(非線形分類等)
– 並列処理が基本
– コンピュータと好相性
• マルチプロセッサ等
– 入出力は単純
– ハードウェアとしての実装も可能
1.Motivations:
Neurons and the Brain
• ニューラルネットワーク
– 「脳は最高の学習・認識能力を持つ」
– 「学習システムを作ろう」
• 何を手本とするべきか?
– 「目の前にある、最高の学習装置」
– つまり脳
2.Neural Networks:
Model Representation Ⅰ
2.Neural Networks:
Model Representation Ⅰ
• ニューラルネットワークを機械学習に
x1
x2
x3
x0
hθ(x)
𝑥 =
𝑥0
𝑥1
𝑥2
𝑥3
, 𝜃 =
𝜃0
𝜃1
𝜃2
𝜃3
計算
input
bias unit
output
weights
input:入力
2.Neural Networks:
Model Representation Ⅰ
• ニューラルネットワークを機械学習に
x1
x2
x3
x0
hθ(x)
𝑥 =
𝑥0
𝑥1
𝑥2
𝑥3
, 𝜃 =
𝜃0
𝜃1
𝜃2
𝜃3
計算
input
bias unit
output
weights
bias unit:前提条件
2.Neural Networks:
Model Representation Ⅰ
• バイアスは人間にもある
– なぜ「車」だと思うのか?
• サーキットだし
• 走ってる
• タイヤついてる
• 二輪じゃない
• 車の流れだったし
• その他もろもろの思い込み
モデルにおいても設定するべき
2.Neural Networks:
Model Representation Ⅰ
• ニューラルネットワークは階層的
x1
x2
x3
x0
a2 hθ(x)
a0
a1
a3
Layer1 Layer2 Layer3
「3層ニューラルネット」
2.Neural Networks:
Model Representation Ⅰ
• ニューラルネットワークは階層的
• 単純なアルゴリズムだけで複雑な計算を実現
x1
x2
x3
x0
a2 hθ(x)
a0
a1
a3
Layer1 Layer2 Layer3
bias unit
hidden layer
output layer
input layer
2.Neural Networks:
Model Representation Ⅰ
• 数式で表現してみると…
𝑎1
(2)
= 𝑔(𝜃10
1
𝑥0 + 𝜃11
1
𝑥1 + 𝜃12
1
𝑥2 + 𝜃13
(1)
𝑥3)
𝑎2
(2)
= 𝑔(𝜃20
1
𝑥0 + 𝜃21
1
𝑥1 + 𝜃22
1
𝑥2 + 𝜃23
(1)
𝑥3)
𝑎3
(2)
= 𝑔(𝜃30
1
𝑥0 + 𝜃31
1
𝑥1 + 𝜃32
1
𝑥2 + 𝜃33
(1)
𝑥3)
h 𝜃 𝑥 = 𝑎1
(3)
= 𝑔(𝜃10
2
𝑎0
(2)
+ 𝜃11
2
𝑎1
(2)
+ 𝜃12
2
𝑎2
(2)
+ 𝜃13
(2)
𝑎3
(2)
)
𝑥 =
𝑥0
𝑥1
𝑥2
𝑥3
, 𝜃 =
𝜃0
𝜃1
𝜃2
𝜃3
2.Neural Networks:
Model Representation Ⅱ
2.Neural Networks:
Model Representation Ⅱ
• より単純に(ベクトル表現)
• まとめて
𝑧1
(2)
= 𝜃10
1
𝑥0 + 𝜃11
1
𝑥1 + 𝜃12
1
𝑥2 + 𝜃13
(1)
𝑥3
𝑎1
(2)
= 𝑔(𝑧1
(2)
)
x =
𝑥0
𝑥1
𝑥2
𝑥3
, 𝑧(2)
=
𝑧1
2
𝑧2
2
𝑧3
2
𝑧(2) = 𝜃(1) 𝑎(1), 𝑎(2) = 𝑔(𝑧(2))
Add 𝑎0
(2)
= 1, 𝑧(3) = 𝜃(2) 𝑎(2)
ℎ 𝜃 𝑥 = 𝑎(3)
= 𝑔(𝑧(3)
)
bias unit追加
3.Applications:
Examples and Intuitions Ⅰ
3.Applications:
Examples and Intuitions Ⅰ
• 論理演算 AND
– 要素とパラメータをシグモイド関数に入れる
+1
x1
x2
hθ(x)
x1 x2 hθ
0 0 g(-30)
0 1 g(-10)
1 0 g(-10)
1 1 g(10)
-30
+20
+20
ℎ 𝜃 𝑥 =g z = g(−30 + 20𝑥1 + 20𝑥2)
x1 x2 hθ
0 0 0
0 1 0
1 0 0
1 1 1
3.Applications:
Examples and Intuitions Ⅰ
• 論理演算 AND
– 要素とパラメータをシグモイド関数に入れる
+1
x1
x2
hθ(x)
-30
+20
+20
ℎ 𝜃 𝑥 =g z = g(−30 + 20𝑥1 + 20𝑥2)
AND
x1 x2 hθ
0 0 g(-10)
0 1 g(10)
1 0 g(10)
1 1 g(30)
3.Applications:
Examples and Intuitions Ⅰ
• 論理演算 OR
– 要素とパラメータをシグモイド関数に入れる
+1
x1
x2
hθ(x)
-10
+20
+20
ℎ 𝜃 𝑥 =g z = g(−10 + 20𝑥1 + 20𝑥2)
x1 x2 hθ
0 0 0
0 1 1
1 0 1
1 1 1
3.Applications:
Examples and Intuitions Ⅰ
• 論理演算 OR
– 要素とパラメータをシグモイド関数に入れる
+1
x1
x2
hθ(x)
-10
+20
+20
ℎ 𝜃 𝑥 =g z = g(−10 + 20𝑥1 + 20𝑥2)
OR
3.Applications:
Examples and Intuitions Ⅱ
3.Applications:
Examples and Intuitions Ⅱ
• ここまでの例
0
0.2
0.4
0.6
0.8
1
1.2
0 0.2 0.4 0.6 0.8 1 1.2
AND
0
0.2
0.4
0.6
0.8
1
1.2
0 0.2 0.4 0.6 0.8 1 1.2
OR
どちらも線形 = ニューラルネットワークでなくても分類可能
面倒な分類 = 非線形分類への適用を考える
3.Applications:
Examples and Intuitions Ⅱ
• 非線形分類への適用-XNOR
0
0.2
0.4
0.6
0.8
1
1.2
0 0.2 0.4 0.6 0.8 1 1.2
x1 x2 a1 a2 hθ
0 0 0 1 1
0 1 0 0 0
1 0 0 0 0
1 1 1 0 1
3.Applications:
Examples and Intuitions Ⅱ
• 非線形分類への適用-XNOR
+1
x1
x2
a1
hθ(x)
-30
+20
+20
a2
10
-20
-20
+1 x1 AND x2
(NOT x1) AND (NOT x2)
x1 OR x2
-10
20
20
x1 x2 a1 a2 hθ
0 0 0 1 1
0 1 0 0 0
1 0 0 0 0
1 1 1 0 1
3.Applications:
Examples and Intuitions Ⅱ
• 非線形分類への適用-XNOR
+1
x1
x2
a1
hθ(x)
-30
+20
+20
a2
10
-20
-20
+1 x1 AND x2
(NOT x1) AND (NOT x2)
x1 OR x2
-10
20
20
線形分類の積み重ねで非線形分類が可能に!
3.Applications:
Multiclass Classification
3.Applications:
Multiclass Classification
• 多クラス分類に適用するには?
One-vs-allを利用
3.Applications:
Multiclass Classification
• 4クラス分類の例
+1
x1
x2
input layer layer 2 layer 3 output layer
分類結果を行列表現
ℎ 𝜃 𝑥 ≈
1
0
0
0
, ℎ 𝜃 𝑥 ≈
0
1
0
0
,
ℎ 𝜃 𝑥 ≈
0
0
1
0
, ℎ 𝜃 𝑥 ≈
0
0
0
1

Mais conteúdo relacionado

Mais procurados

競技プログラミングの楽しみ
競技プログラミングの楽しみ競技プログラミングの楽しみ
競技プログラミングの楽しみna_o_ys
 
コンピューターの整列処理におけるデータ操作の時間的共起分析
コンピューターの整列処理におけるデータ操作の時間的共起分析コンピューターの整列処理におけるデータ操作の時間的共起分析
コンピューターの整列処理におけるデータ操作の時間的共起分析yamahige
 
Pythonとdeep learningで手書き文字認識
Pythonとdeep learningで手書き文字認識Pythonとdeep learningで手書き文字認識
Pythonとdeep learningで手書き文字認識Ken Morishita
 
ランダムフォレスト
ランダムフォレストランダムフォレスト
ランダムフォレストKinki University
 
人工知能2018 6 強化学習の基礎
人工知能2018 6 強化学習の基礎人工知能2018 6 強化学習の基礎
人工知能2018 6 強化学習の基礎Hirotaka Hachiya
 
Or seminar2011final
Or seminar2011finalOr seminar2011final
Or seminar2011finalMikio Kubo
 
TensorFlow を使った 機械学習ことはじめ (GDG京都 機械学習勉強会)
TensorFlow を使った機械学習ことはじめ (GDG京都 機械学習勉強会)TensorFlow を使った機械学習ことはじめ (GDG京都 機械学習勉強会)
TensorFlow を使った 機械学習ことはじめ (GDG京都 機械学習勉強会)徹 上野山
 
Rustで始める競技プログラミング
Rustで始める競技プログラミングRustで始める競技プログラミング
Rustで始める競技プログラミングNaoya Okanami
 
AI2018 8 ニューラルネットワークの基礎
AI2018 8 ニューラルネットワークの基礎AI2018 8 ニューラルネットワークの基礎
AI2018 8 ニューラルネットワークの基礎Hirotaka Hachiya
 
それっぽく感じる機械学習
それっぽく感じる機械学習それっぽく感じる機械学習
それっぽく感じる機械学習Yuki Igarashi
 
テキスト情報と画像情報を組み合わせた論理推論システムの構築
テキスト情報と画像情報を組み合わせた論理推論システムの構築テキスト情報と画像情報を組み合わせた論理推論システムの構築
テキスト情報と画像情報を組み合わせた論理推論システムの構築rikos3
 
AtCoder Beginner Contest 011 解説
AtCoder Beginner Contest 011 解説AtCoder Beginner Contest 011 解説
AtCoder Beginner Contest 011 解説AtCoder Inc.
 
Semi-Supervised Learning Using Gaussian Fields and Harmonic Functions (ICML2003)
Semi-Supervised Learning Using Gaussian Fields and Harmonic Functions (ICML2003)Semi-Supervised Learning Using Gaussian Fields and Harmonic Functions (ICML2003)
Semi-Supervised Learning Using Gaussian Fields and Harmonic Functions (ICML2003)Shunya Ueta
 
RとStanでクラウドセットアップ時間を分析してみたら #TokyoR
RとStanでクラウドセットアップ時間を分析してみたら #TokyoRRとStanでクラウドセットアップ時間を分析してみたら #TokyoR
RとStanでクラウドセットアップ時間を分析してみたら #TokyoRShuyo Nakatani
 

Mais procurados (20)

競技プログラミングの楽しみ
競技プログラミングの楽しみ競技プログラミングの楽しみ
競技プログラミングの楽しみ
 
コンピューターの整列処理におけるデータ操作の時間的共起分析
コンピューターの整列処理におけるデータ操作の時間的共起分析コンピューターの整列処理におけるデータ操作の時間的共起分析
コンピューターの整列処理におけるデータ操作の時間的共起分析
 
Pythonとdeep learningで手書き文字認識
Pythonとdeep learningで手書き文字認識Pythonとdeep learningで手書き文字認識
Pythonとdeep learningで手書き文字認識
 
ランダムフォレスト
ランダムフォレストランダムフォレスト
ランダムフォレスト
 
計算量
計算量計算量
計算量
 
abc031
abc031abc031
abc031
 
人工知能2018 6 強化学習の基礎
人工知能2018 6 強化学習の基礎人工知能2018 6 強化学習の基礎
人工知能2018 6 強化学習の基礎
 
Or seminar2011final
Or seminar2011finalOr seminar2011final
Or seminar2011final
 
Gurobi python
Gurobi pythonGurobi python
Gurobi python
 
TensorFlow を使った 機械学習ことはじめ (GDG京都 機械学習勉強会)
TensorFlow を使った機械学習ことはじめ (GDG京都 機械学習勉強会)TensorFlow を使った機械学習ことはじめ (GDG京都 機械学習勉強会)
TensorFlow を使った 機械学習ことはじめ (GDG京都 機械学習勉強会)
 
Rustで始める競技プログラミング
Rustで始める競技プログラミングRustで始める競技プログラミング
Rustで始める競技プログラミング
 
AI2018 8 ニューラルネットワークの基礎
AI2018 8 ニューラルネットワークの基礎AI2018 8 ニューラルネットワークの基礎
AI2018 8 ニューラルネットワークの基礎
 
それっぽく感じる機械学習
それっぽく感じる機械学習それっぽく感じる機械学習
それっぽく感じる機械学習
 
テキスト情報と画像情報を組み合わせた論理推論システムの構築
テキスト情報と画像情報を組み合わせた論理推論システムの構築テキスト情報と画像情報を組み合わせた論理推論システムの構築
テキスト情報と画像情報を組み合わせた論理推論システムの構築
 
AtCoder Beginner Contest 011 解説
AtCoder Beginner Contest 011 解説AtCoder Beginner Contest 011 解説
AtCoder Beginner Contest 011 解説
 
離散構造と離散分布
離散構造と離散分布離散構造と離散分布
離散構造と離散分布
 
Semi-Supervised Learning Using Gaussian Fields and Harmonic Functions (ICML2003)
Semi-Supervised Learning Using Gaussian Fields and Harmonic Functions (ICML2003)Semi-Supervised Learning Using Gaussian Fields and Harmonic Functions (ICML2003)
Semi-Supervised Learning Using Gaussian Fields and Harmonic Functions (ICML2003)
 
Ishihata 150319-final
Ishihata 150319-finalIshihata 150319-final
Ishihata 150319-final
 
RとStanでクラウドセットアップ時間を分析してみたら #TokyoR
RとStanでクラウドセットアップ時間を分析してみたら #TokyoRRとStanでクラウドセットアップ時間を分析してみたら #TokyoR
RとStanでクラウドセットアップ時間を分析してみたら #TokyoR
 
マーク付き点過程
マーク付き点過程マーク付き点過程
マーク付き点過程
 

Destaque

Coursera machine learning week6
Coursera machine learning week6Coursera machine learning week6
Coursera machine learning week6Kikuya Takumi
 
Tech-Circle PepperでROS開発をはじめよう in アトリエ秋葉原(ハンズオン)
Tech-Circle PepperでROS開発をはじめよう in アトリエ秋葉原(ハンズオン)Tech-Circle PepperでROS開発をはじめよう in アトリエ秋葉原(ハンズオン)
Tech-Circle PepperでROS開発をはじめよう in アトリエ秋葉原(ハンズオン)Yuta Koga
 
Coursera machine learning week7: Support Vector Machines
Coursera machine learning week7: Support Vector MachinesCoursera machine learning week7: Support Vector Machines
Coursera machine learning week7: Support Vector MachinesTIS株式会社
 
ROSの紹介とPepperでの活用例
ROSの紹介とPepperでの活用例ROSの紹介とPepperでの活用例
ROSの紹介とPepperでの活用例Yuta Koga
 
Coursera Machine Learning Week2まとめ 
Coursera Machine Learning Week2まとめ Coursera Machine Learning Week2まとめ 
Coursera Machine Learning Week2まとめ Yuta Koga
 
基幹業務もHadoop(EMR)で!!のその後
基幹業務もHadoop(EMR)で!!のその後基幹業務もHadoop(EMR)で!!のその後
基幹業務もHadoop(EMR)で!!のその後Keigo Suda
 

Destaque (7)

Heroku meetup#15 lt
Heroku meetup#15 ltHeroku meetup#15 lt
Heroku meetup#15 lt
 
Coursera machine learning week6
Coursera machine learning week6Coursera machine learning week6
Coursera machine learning week6
 
Tech-Circle PepperでROS開発をはじめよう in アトリエ秋葉原(ハンズオン)
Tech-Circle PepperでROS開発をはじめよう in アトリエ秋葉原(ハンズオン)Tech-Circle PepperでROS開発をはじめよう in アトリエ秋葉原(ハンズオン)
Tech-Circle PepperでROS開発をはじめよう in アトリエ秋葉原(ハンズオン)
 
Coursera machine learning week7: Support Vector Machines
Coursera machine learning week7: Support Vector MachinesCoursera machine learning week7: Support Vector Machines
Coursera machine learning week7: Support Vector Machines
 
ROSの紹介とPepperでの活用例
ROSの紹介とPepperでの活用例ROSの紹介とPepperでの活用例
ROSの紹介とPepperでの活用例
 
Coursera Machine Learning Week2まとめ 
Coursera Machine Learning Week2まとめ Coursera Machine Learning Week2まとめ 
Coursera Machine Learning Week2まとめ 
 
基幹業務もHadoop(EMR)で!!のその後
基幹業務もHadoop(EMR)で!!のその後基幹業務もHadoop(EMR)で!!のその後
基幹業務もHadoop(EMR)で!!のその後
 

Semelhante a Coursera "Neural Networks"

Tokyo.R 41 サポートベクターマシンで眼鏡っ娘分類システム構築
Tokyo.R 41 サポートベクターマシンで眼鏡っ娘分類システム構築Tokyo.R 41 サポートベクターマシンで眼鏡っ娘分類システム構築
Tokyo.R 41 サポートベクターマシンで眼鏡っ娘分類システム構築Tatsuya Tojima
 
機械学習 入門
機械学習 入門機械学習 入門
機械学習 入門Hayato Maki
 
20181219_全部見せます、データサイエンティストの仕事
20181219_全部見せます、データサイエンティストの仕事20181219_全部見せます、データサイエンティストの仕事
20181219_全部見せます、データサイエンティストの仕事Shunsuke Nakamura
 
Boost.PropertyMap (.pptx)
Boost.PropertyMap (.pptx)Boost.PropertyMap (.pptx)
Boost.PropertyMap (.pptx)Cryolite
 
Boost.PropertyMap (.pdf)
Boost.PropertyMap (.pdf)Boost.PropertyMap (.pdf)
Boost.PropertyMap (.pdf)Cryolite
 
Analyze by StatsModels or Numpy
Analyze by StatsModels or NumpyAnalyze by StatsModels or Numpy
Analyze by StatsModels or NumpyToshiki NOGUCHI
 
ディープラーニングハンズオン・レクチャー資料
ディープラーニングハンズオン・レクチャー資料ディープラーニングハンズオン・レクチャー資料
ディープラーニングハンズオン・レクチャー資料Yoshihiro Ochi
 
Python 機械学習プログラミング データ分析ライブラリー解説編
Python 機械学習プログラミング データ分析ライブラリー解説編Python 機械学習プログラミング データ分析ライブラリー解説編
Python 機械学習プログラミング データ分析ライブラリー解説編Etsuji Nakai
 
九大_DS実践_画像処理基礎
九大_DS実践_画像処理基礎九大_DS実践_画像処理基礎
九大_DS実践_画像処理基礎RyomaBise1
 
programming camp 2008, introduction of programming, algorithm
programming camp 2008, introduction of programming, algorithmprogramming camp 2008, introduction of programming, algorithm
programming camp 2008, introduction of programming, algorithmHiro Yoshioka
 
TensorFlowによるニューラルネットワーク入門
TensorFlowによるニューラルネットワーク入門TensorFlowによるニューラルネットワーク入門
TensorFlowによるニューラルネットワーク入門Etsuji Nakai
 
The Anatomy of Large-Scale Social Search Engine
The Anatomy of Large-Scale Social Search EngineThe Anatomy of Large-Scale Social Search Engine
The Anatomy of Large-Scale Social Search Enginesleepy_yoshi
 
関数の最小値を求めることから機械学習へ
関数の最小値を求めることから機械学習へ関数の最小値を求めることから機械学習へ
関数の最小値を求めることから機械学習へHiro H.
 
第1回 Jubatusハンズオン
第1回 Jubatusハンズオン第1回 Jubatusハンズオン
第1回 JubatusハンズオンJubatusOfficial
 
第1回 Jubatusハンズオン
第1回 Jubatusハンズオン第1回 Jubatusハンズオン
第1回 JubatusハンズオンYuya Unno
 
行列計算を利用したデータ解析技術
行列計算を利用したデータ解析技術行列計算を利用したデータ解析技術
行列計算を利用したデータ解析技術Yoshihiro Mizoguchi
 

Semelhante a Coursera "Neural Networks" (20)

Tokyo.R 41 サポートベクターマシンで眼鏡っ娘分類システム構築
Tokyo.R 41 サポートベクターマシンで眼鏡っ娘分類システム構築Tokyo.R 41 サポートベクターマシンで眼鏡っ娘分類システム構築
Tokyo.R 41 サポートベクターマシンで眼鏡っ娘分類システム構築
 
2023_freshman
2023_freshman2023_freshman
2023_freshman
 
機械学習 入門
機械学習 入門機械学習 入門
機械学習 入門
 
実践データ分析基礎
実践データ分析基礎実践データ分析基礎
実践データ分析基礎
 
20181219_全部見せます、データサイエンティストの仕事
20181219_全部見せます、データサイエンティストの仕事20181219_全部見せます、データサイエンティストの仕事
20181219_全部見せます、データサイエンティストの仕事
 
Boost.PropertyMap (.pptx)
Boost.PropertyMap (.pptx)Boost.PropertyMap (.pptx)
Boost.PropertyMap (.pptx)
 
Boost.PropertyMap (.pdf)
Boost.PropertyMap (.pdf)Boost.PropertyMap (.pdf)
Boost.PropertyMap (.pdf)
 
NIPS 2010 読む会
NIPS 2010 読む会NIPS 2010 読む会
NIPS 2010 読む会
 
Analyze by StatsModels or Numpy
Analyze by StatsModels or NumpyAnalyze by StatsModels or Numpy
Analyze by StatsModels or Numpy
 
ディープラーニングハンズオン・レクチャー資料
ディープラーニングハンズオン・レクチャー資料ディープラーニングハンズオン・レクチャー資料
ディープラーニングハンズオン・レクチャー資料
 
Python 機械学習プログラミング データ分析ライブラリー解説編
Python 機械学習プログラミング データ分析ライブラリー解説編Python 機械学習プログラミング データ分析ライブラリー解説編
Python 機械学習プログラミング データ分析ライブラリー解説編
 
実世界に埋め込まれる深層学習
実世界に埋め込まれる深層学習 実世界に埋め込まれる深層学習
実世界に埋め込まれる深層学習
 
九大_DS実践_画像処理基礎
九大_DS実践_画像処理基礎九大_DS実践_画像処理基礎
九大_DS実践_画像処理基礎
 
programming camp 2008, introduction of programming, algorithm
programming camp 2008, introduction of programming, algorithmprogramming camp 2008, introduction of programming, algorithm
programming camp 2008, introduction of programming, algorithm
 
TensorFlowによるニューラルネットワーク入門
TensorFlowによるニューラルネットワーク入門TensorFlowによるニューラルネットワーク入門
TensorFlowによるニューラルネットワーク入門
 
The Anatomy of Large-Scale Social Search Engine
The Anatomy of Large-Scale Social Search EngineThe Anatomy of Large-Scale Social Search Engine
The Anatomy of Large-Scale Social Search Engine
 
関数の最小値を求めることから機械学習へ
関数の最小値を求めることから機械学習へ関数の最小値を求めることから機械学習へ
関数の最小値を求めることから機械学習へ
 
第1回 Jubatusハンズオン
第1回 Jubatusハンズオン第1回 Jubatusハンズオン
第1回 Jubatusハンズオン
 
第1回 Jubatusハンズオン
第1回 Jubatusハンズオン第1回 Jubatusハンズオン
第1回 Jubatusハンズオン
 
行列計算を利用したデータ解析技術
行列計算を利用したデータ解析技術行列計算を利用したデータ解析技術
行列計算を利用したデータ解析技術
 

Último

Amazon SES を勉強してみる その32024/04/26の勉強会で発表されたものです。
Amazon SES を勉強してみる その32024/04/26の勉強会で発表されたものです。Amazon SES を勉強してみる その32024/04/26の勉強会で発表されたものです。
Amazon SES を勉強してみる その32024/04/26の勉強会で発表されたものです。iPride Co., Ltd.
 
Utilizing Ballerina for Cloud Native Integrations
Utilizing Ballerina for Cloud Native IntegrationsUtilizing Ballerina for Cloud Native Integrations
Utilizing Ballerina for Cloud Native IntegrationsWSO2
 
LoRaWANスマート距離検出センサー DS20L カタログ LiDARデバイス
LoRaWANスマート距離検出センサー  DS20L  カタログ  LiDARデバイスLoRaWANスマート距離検出センサー  DS20L  カタログ  LiDARデバイス
LoRaWANスマート距離検出センサー DS20L カタログ LiDARデバイスCRI Japan, Inc.
 
論文紹介:Video-GroundingDINO: Towards Open-Vocabulary Spatio-Temporal Video Groun...
論文紹介:Video-GroundingDINO: Towards Open-Vocabulary Spatio-Temporal Video Groun...論文紹介:Video-GroundingDINO: Towards Open-Vocabulary Spatio-Temporal Video Groun...
論文紹介:Video-GroundingDINO: Towards Open-Vocabulary Spatio-Temporal Video Groun...Toru Tamaki
 
論文紹介:Selective Structured State-Spaces for Long-Form Video Understanding
論文紹介:Selective Structured State-Spaces for Long-Form Video Understanding論文紹介:Selective Structured State-Spaces for Long-Form Video Understanding
論文紹介:Selective Structured State-Spaces for Long-Form Video UnderstandingToru Tamaki
 
新人研修 後半 2024/04/26の勉強会で発表されたものです。
新人研修 後半        2024/04/26の勉強会で発表されたものです。新人研修 後半        2024/04/26の勉強会で発表されたものです。
新人研修 後半 2024/04/26の勉強会で発表されたものです。iPride Co., Ltd.
 
LoRaWAN スマート距離検出デバイスDS20L日本語マニュアル
LoRaWAN スマート距離検出デバイスDS20L日本語マニュアルLoRaWAN スマート距離検出デバイスDS20L日本語マニュアル
LoRaWAN スマート距離検出デバイスDS20L日本語マニュアルCRI Japan, Inc.
 
Observabilityは従来型の監視と何が違うのか(キンドリルジャパン社内勉強会:2022年10月27日発表)
Observabilityは従来型の監視と何が違うのか(キンドリルジャパン社内勉強会:2022年10月27日発表)Observabilityは従来型の監視と何が違うのか(キンドリルジャパン社内勉強会:2022年10月27日発表)
Observabilityは従来型の監視と何が違うのか(キンドリルジャパン社内勉強会:2022年10月27日発表)Hiroshi Tomioka
 
Amazon SES を勉強してみる その22024/04/26の勉強会で発表されたものです。
Amazon SES を勉強してみる その22024/04/26の勉強会で発表されたものです。Amazon SES を勉強してみる その22024/04/26の勉強会で発表されたものです。
Amazon SES を勉強してみる その22024/04/26の勉強会で発表されたものです。iPride Co., Ltd.
 
知識ゼロの営業マンでもできた!超速で初心者を脱する、悪魔的学習ステップ3選.pptx
知識ゼロの営業マンでもできた!超速で初心者を脱する、悪魔的学習ステップ3選.pptx知識ゼロの営業マンでもできた!超速で初心者を脱する、悪魔的学習ステップ3選.pptx
知識ゼロの営業マンでもできた!超速で初心者を脱する、悪魔的学習ステップ3選.pptxsn679259
 
論文紹介: The Surprising Effectiveness of PPO in Cooperative Multi-Agent Games
論文紹介: The Surprising Effectiveness of PPO in Cooperative Multi-Agent Games論文紹介: The Surprising Effectiveness of PPO in Cooperative Multi-Agent Games
論文紹介: The Surprising Effectiveness of PPO in Cooperative Multi-Agent Gamesatsushi061452
 

Último (11)

Amazon SES を勉強してみる その32024/04/26の勉強会で発表されたものです。
Amazon SES を勉強してみる その32024/04/26の勉強会で発表されたものです。Amazon SES を勉強してみる その32024/04/26の勉強会で発表されたものです。
Amazon SES を勉強してみる その32024/04/26の勉強会で発表されたものです。
 
Utilizing Ballerina for Cloud Native Integrations
Utilizing Ballerina for Cloud Native IntegrationsUtilizing Ballerina for Cloud Native Integrations
Utilizing Ballerina for Cloud Native Integrations
 
LoRaWANスマート距離検出センサー DS20L カタログ LiDARデバイス
LoRaWANスマート距離検出センサー  DS20L  カタログ  LiDARデバイスLoRaWANスマート距離検出センサー  DS20L  カタログ  LiDARデバイス
LoRaWANスマート距離検出センサー DS20L カタログ LiDARデバイス
 
論文紹介:Video-GroundingDINO: Towards Open-Vocabulary Spatio-Temporal Video Groun...
論文紹介:Video-GroundingDINO: Towards Open-Vocabulary Spatio-Temporal Video Groun...論文紹介:Video-GroundingDINO: Towards Open-Vocabulary Spatio-Temporal Video Groun...
論文紹介:Video-GroundingDINO: Towards Open-Vocabulary Spatio-Temporal Video Groun...
 
論文紹介:Selective Structured State-Spaces for Long-Form Video Understanding
論文紹介:Selective Structured State-Spaces for Long-Form Video Understanding論文紹介:Selective Structured State-Spaces for Long-Form Video Understanding
論文紹介:Selective Structured State-Spaces for Long-Form Video Understanding
 
新人研修 後半 2024/04/26の勉強会で発表されたものです。
新人研修 後半        2024/04/26の勉強会で発表されたものです。新人研修 後半        2024/04/26の勉強会で発表されたものです。
新人研修 後半 2024/04/26の勉強会で発表されたものです。
 
LoRaWAN スマート距離検出デバイスDS20L日本語マニュアル
LoRaWAN スマート距離検出デバイスDS20L日本語マニュアルLoRaWAN スマート距離検出デバイスDS20L日本語マニュアル
LoRaWAN スマート距離検出デバイスDS20L日本語マニュアル
 
Observabilityは従来型の監視と何が違うのか(キンドリルジャパン社内勉強会:2022年10月27日発表)
Observabilityは従来型の監視と何が違うのか(キンドリルジャパン社内勉強会:2022年10月27日発表)Observabilityは従来型の監視と何が違うのか(キンドリルジャパン社内勉強会:2022年10月27日発表)
Observabilityは従来型の監視と何が違うのか(キンドリルジャパン社内勉強会:2022年10月27日発表)
 
Amazon SES を勉強してみる その22024/04/26の勉強会で発表されたものです。
Amazon SES を勉強してみる その22024/04/26の勉強会で発表されたものです。Amazon SES を勉強してみる その22024/04/26の勉強会で発表されたものです。
Amazon SES を勉強してみる その22024/04/26の勉強会で発表されたものです。
 
知識ゼロの営業マンでもできた!超速で初心者を脱する、悪魔的学習ステップ3選.pptx
知識ゼロの営業マンでもできた!超速で初心者を脱する、悪魔的学習ステップ3選.pptx知識ゼロの営業マンでもできた!超速で初心者を脱する、悪魔的学習ステップ3選.pptx
知識ゼロの営業マンでもできた!超速で初心者を脱する、悪魔的学習ステップ3選.pptx
 
論文紹介: The Surprising Effectiveness of PPO in Cooperative Multi-Agent Games
論文紹介: The Surprising Effectiveness of PPO in Cooperative Multi-Agent Games論文紹介: The Surprising Effectiveness of PPO in Cooperative Multi-Agent Games
論文紹介: The Surprising Effectiveness of PPO in Cooperative Multi-Agent Games
 

Coursera "Neural Networks"

  • 2. Agenda 1. Motivations 2. Neural Networks 3. Applications
  • 4. 1.Motivations: Non-linear Hypotheses • What’s This? – 例えば「車」 • 「車」と判断する基準は何ですか? – 色 – 形 – タイヤの数 – …
  • 6. 1.Motivations: Non-linear Hypotheses • PCだと?(画像認識の例) – 識別できそうな情報:色、座標、… • 要素としてみると非常に多い • 例:50x50pixelの画像 – 50×50=2500pixel分の情報を持つ • RGBなら7500、α入りなら10000 – トレーニングセットとして入力すると…? 普通に二次式で当てはめたりを考えると、非常にコストがかかる
  • 8. 1.Motivations: Neurons and the Brain • ニューラルネットワーク – 初出:1943 (多分) • Warren S. McCulloch; Walter Pitts (1943). – 古くからある – 当時は再現しきれなかった – コンピュータの性能向上 • 大量のデータを高速で処理できるように thus far Now
  • 9. 1.Motivations: Neurons and the Brain • ニューラルネットワーク – ノード間の密な高次の結合 – 複雑な問題への適用が可能(非線形分類等) – 並列処理が基本 – コンピュータと好相性 • マルチプロセッサ等 – 入出力は単純 – ハードウェアとしての実装も可能
  • 10. 1.Motivations: Neurons and the Brain • ニューラルネットワーク – 「脳は最高の学習・認識能力を持つ」 – 「学習システムを作ろう」 • 何を手本とするべきか? – 「目の前にある、最高の学習装置」 – つまり脳
  • 12. 2.Neural Networks: Model Representation Ⅰ • ニューラルネットワークを機械学習に x1 x2 x3 x0 hθ(x) 𝑥 = 𝑥0 𝑥1 𝑥2 𝑥3 , 𝜃 = 𝜃0 𝜃1 𝜃2 𝜃3 計算 input bias unit output weights input:入力
  • 13. 2.Neural Networks: Model Representation Ⅰ • ニューラルネットワークを機械学習に x1 x2 x3 x0 hθ(x) 𝑥 = 𝑥0 𝑥1 𝑥2 𝑥3 , 𝜃 = 𝜃0 𝜃1 𝜃2 𝜃3 計算 input bias unit output weights bias unit:前提条件
  • 14. 2.Neural Networks: Model Representation Ⅰ • バイアスは人間にもある – なぜ「車」だと思うのか? • サーキットだし • 走ってる • タイヤついてる • 二輪じゃない • 車の流れだったし • その他もろもろの思い込み モデルにおいても設定するべき
  • 15. 2.Neural Networks: Model Representation Ⅰ • ニューラルネットワークは階層的 x1 x2 x3 x0 a2 hθ(x) a0 a1 a3 Layer1 Layer2 Layer3 「3層ニューラルネット」
  • 16. 2.Neural Networks: Model Representation Ⅰ • ニューラルネットワークは階層的 • 単純なアルゴリズムだけで複雑な計算を実現 x1 x2 x3 x0 a2 hθ(x) a0 a1 a3 Layer1 Layer2 Layer3 bias unit hidden layer output layer input layer
  • 17. 2.Neural Networks: Model Representation Ⅰ • 数式で表現してみると… 𝑎1 (2) = 𝑔(𝜃10 1 𝑥0 + 𝜃11 1 𝑥1 + 𝜃12 1 𝑥2 + 𝜃13 (1) 𝑥3) 𝑎2 (2) = 𝑔(𝜃20 1 𝑥0 + 𝜃21 1 𝑥1 + 𝜃22 1 𝑥2 + 𝜃23 (1) 𝑥3) 𝑎3 (2) = 𝑔(𝜃30 1 𝑥0 + 𝜃31 1 𝑥1 + 𝜃32 1 𝑥2 + 𝜃33 (1) 𝑥3) h 𝜃 𝑥 = 𝑎1 (3) = 𝑔(𝜃10 2 𝑎0 (2) + 𝜃11 2 𝑎1 (2) + 𝜃12 2 𝑎2 (2) + 𝜃13 (2) 𝑎3 (2) ) 𝑥 = 𝑥0 𝑥1 𝑥2 𝑥3 , 𝜃 = 𝜃0 𝜃1 𝜃2 𝜃3
  • 19. 2.Neural Networks: Model Representation Ⅱ • より単純に(ベクトル表現) • まとめて 𝑧1 (2) = 𝜃10 1 𝑥0 + 𝜃11 1 𝑥1 + 𝜃12 1 𝑥2 + 𝜃13 (1) 𝑥3 𝑎1 (2) = 𝑔(𝑧1 (2) ) x = 𝑥0 𝑥1 𝑥2 𝑥3 , 𝑧(2) = 𝑧1 2 𝑧2 2 𝑧3 2 𝑧(2) = 𝜃(1) 𝑎(1), 𝑎(2) = 𝑔(𝑧(2)) Add 𝑎0 (2) = 1, 𝑧(3) = 𝜃(2) 𝑎(2) ℎ 𝜃 𝑥 = 𝑎(3) = 𝑔(𝑧(3) ) bias unit追加
  • 21. 3.Applications: Examples and Intuitions Ⅰ • 論理演算 AND – 要素とパラメータをシグモイド関数に入れる +1 x1 x2 hθ(x) x1 x2 hθ 0 0 g(-30) 0 1 g(-10) 1 0 g(-10) 1 1 g(10) -30 +20 +20 ℎ 𝜃 𝑥 =g z = g(−30 + 20𝑥1 + 20𝑥2)
  • 22. x1 x2 hθ 0 0 0 0 1 0 1 0 0 1 1 1 3.Applications: Examples and Intuitions Ⅰ • 論理演算 AND – 要素とパラメータをシグモイド関数に入れる +1 x1 x2 hθ(x) -30 +20 +20 ℎ 𝜃 𝑥 =g z = g(−30 + 20𝑥1 + 20𝑥2) AND
  • 23. x1 x2 hθ 0 0 g(-10) 0 1 g(10) 1 0 g(10) 1 1 g(30) 3.Applications: Examples and Intuitions Ⅰ • 論理演算 OR – 要素とパラメータをシグモイド関数に入れる +1 x1 x2 hθ(x) -10 +20 +20 ℎ 𝜃 𝑥 =g z = g(−10 + 20𝑥1 + 20𝑥2)
  • 24. x1 x2 hθ 0 0 0 0 1 1 1 0 1 1 1 1 3.Applications: Examples and Intuitions Ⅰ • 論理演算 OR – 要素とパラメータをシグモイド関数に入れる +1 x1 x2 hθ(x) -10 +20 +20 ℎ 𝜃 𝑥 =g z = g(−10 + 20𝑥1 + 20𝑥2) OR
  • 26. 3.Applications: Examples and Intuitions Ⅱ • ここまでの例 0 0.2 0.4 0.6 0.8 1 1.2 0 0.2 0.4 0.6 0.8 1 1.2 AND 0 0.2 0.4 0.6 0.8 1 1.2 0 0.2 0.4 0.6 0.8 1 1.2 OR どちらも線形 = ニューラルネットワークでなくても分類可能 面倒な分類 = 非線形分類への適用を考える
  • 27. 3.Applications: Examples and Intuitions Ⅱ • 非線形分類への適用-XNOR 0 0.2 0.4 0.6 0.8 1 1.2 0 0.2 0.4 0.6 0.8 1 1.2
  • 28. x1 x2 a1 a2 hθ 0 0 0 1 1 0 1 0 0 0 1 0 0 0 0 1 1 1 0 1 3.Applications: Examples and Intuitions Ⅱ • 非線形分類への適用-XNOR +1 x1 x2 a1 hθ(x) -30 +20 +20 a2 10 -20 -20 +1 x1 AND x2 (NOT x1) AND (NOT x2) x1 OR x2 -10 20 20
  • 29. x1 x2 a1 a2 hθ 0 0 0 1 1 0 1 0 0 0 1 0 0 0 0 1 1 1 0 1 3.Applications: Examples and Intuitions Ⅱ • 非線形分類への適用-XNOR +1 x1 x2 a1 hθ(x) -30 +20 +20 a2 10 -20 -20 +1 x1 AND x2 (NOT x1) AND (NOT x2) x1 OR x2 -10 20 20 線形分類の積み重ねで非線形分類が可能に!
  • 32. 3.Applications: Multiclass Classification • 4クラス分類の例 +1 x1 x2 input layer layer 2 layer 3 output layer 分類結果を行列表現 ℎ 𝜃 𝑥 ≈ 1 0 0 0 , ℎ 𝜃 𝑥 ≈ 0 1 0 0 , ℎ 𝜃 𝑥 ≈ 0 0 1 0 , ℎ 𝜃 𝑥 ≈ 0 0 0 1