Submit Search
Upload
4.convolutional neural networks
โข
2 likes
โข
825 views
Haesun Park
Follow
Convolution Neural Networks
Read less
Read more
Software
Report
Share
Report
Share
1 of 49
Download now
Download to read offline
Recommended
3.unsupervised learing
3.unsupervised learing
Haesun Park
ย
[ํ๋ ๋จธ์ ๋ฌ๋ ์คํฐ๋ - ํธ์ฆ์จ ๋จธ์ ๋ฌ๋] 2์ฅ. ๋จธ์ ๋ฌ๋ ํ๋ก์ ํธ ์ฒ์๋ถํฐ ๋๊น์ง
[ํ๋ ๋จธ์ ๋ฌ๋ ์คํฐ๋ - ํธ์ฆ์จ ๋จธ์ ๋ฌ๋] 2์ฅ. ๋จธ์ ๋ฌ๋ ํ๋ก์ ํธ ์ฒ์๋ถํฐ ๋๊น์ง
Haesun Park
ย
2.supervised learning
2.supervised learning
Haesun Park
ย
[ํ๋ ๋จธ์ ๋ฌ๋ ์คํฐ๋ - ํธ์ฆ์จ ๋จธ์ ๋ฌ๋] 3์ฅ. ๋ถ๋ฅ
[ํ๋ ๋จธ์ ๋ฌ๋ ์คํฐ๋ - ํธ์ฆ์จ ๋จธ์ ๋ฌ๋] 3์ฅ. ๋ถ๋ฅ
Haesun Park
ย
2.supervised learning(epoch#2)-3
2.supervised learning(epoch#2)-3
Haesun Park
ย
2.linear regression and logistic regression
2.linear regression and logistic regression
Haesun Park
ย
5.model evaluation and improvement
5.model evaluation and improvement
Haesun Park
ย
[ํ๋ ๋จธ์ ๋ฌ๋ ์คํฐ๋ - ํธ์ฆ์จ ๋จธ์ ๋ฌ๋] 5์ฅ. ์ํฌํธ ๋ฒกํฐ ๋จธ์
[ํ๋ ๋จธ์ ๋ฌ๋ ์คํฐ๋ - ํธ์ฆ์จ ๋จธ์ ๋ฌ๋] 5์ฅ. ์ํฌํธ ๋ฒกํฐ ๋จธ์
Haesun Park
ย
Recommended
3.unsupervised learing
3.unsupervised learing
Haesun Park
ย
[ํ๋ ๋จธ์ ๋ฌ๋ ์คํฐ๋ - ํธ์ฆ์จ ๋จธ์ ๋ฌ๋] 2์ฅ. ๋จธ์ ๋ฌ๋ ํ๋ก์ ํธ ์ฒ์๋ถํฐ ๋๊น์ง
[ํ๋ ๋จธ์ ๋ฌ๋ ์คํฐ๋ - ํธ์ฆ์จ ๋จธ์ ๋ฌ๋] 2์ฅ. ๋จธ์ ๋ฌ๋ ํ๋ก์ ํธ ์ฒ์๋ถํฐ ๋๊น์ง
Haesun Park
ย
2.supervised learning
2.supervised learning
Haesun Park
ย
[ํ๋ ๋จธ์ ๋ฌ๋ ์คํฐ๋ - ํธ์ฆ์จ ๋จธ์ ๋ฌ๋] 3์ฅ. ๋ถ๋ฅ
[ํ๋ ๋จธ์ ๋ฌ๋ ์คํฐ๋ - ํธ์ฆ์จ ๋จธ์ ๋ฌ๋] 3์ฅ. ๋ถ๋ฅ
Haesun Park
ย
2.supervised learning(epoch#2)-3
2.supervised learning(epoch#2)-3
Haesun Park
ย
2.linear regression and logistic regression
2.linear regression and logistic regression
Haesun Park
ย
5.model evaluation and improvement
5.model evaluation and improvement
Haesun Park
ย
[ํ๋ ๋จธ์ ๋ฌ๋ ์คํฐ๋ - ํธ์ฆ์จ ๋จธ์ ๋ฌ๋] 5์ฅ. ์ํฌํธ ๋ฒกํฐ ๋จธ์
[ํ๋ ๋จธ์ ๋ฌ๋ ์คํฐ๋ - ํธ์ฆ์จ ๋จธ์ ๋ฌ๋] 5์ฅ. ์ํฌํธ ๋ฒกํฐ ๋จธ์
Haesun Park
ย
3.neural networks
3.neural networks
Haesun Park
ย
4.representing data and engineering features(epoch#2)
4.representing data and engineering features(epoch#2)
Haesun Park
ย
[ํ๋ ๋จธ์ ๋ฌ๋ ์คํฐ๋ - ํธ์ฆ์จ ๋จธ์ ๋ฌ๋] 4์ฅ. ๋ชจ๋ธ ํ๋ จ
[ํ๋ ๋จธ์ ๋ฌ๋ ์คํฐ๋ - ํธ์ฆ์จ ๋จธ์ ๋ฌ๋] 4์ฅ. ๋ชจ๋ธ ํ๋ จ
Haesun Park
ย
(Handson ml)ch.7-ensemble learning and random forest
(Handson ml)ch.7-ensemble learning and random forest
Haesun Park
ย
[ํ๋ ๋จธ์ ๋ฌ๋ ์คํฐ๋ - ํธ์ฆ์จ ๋จธ์ ๋ฌ๋] 1์ฅ. ํ๋์ ๋ณด๋ ๋จธ์ ๋ฌ๋
[ํ๋ ๋จธ์ ๋ฌ๋ ์คํฐ๋ - ํธ์ฆ์จ ๋จธ์ ๋ฌ๋] 1์ฅ. ํ๋์ ๋ณด๋ ๋จธ์ ๋ฌ๋
Haesun Park
ย
3.unsupervised learing(epoch#2)
3.unsupervised learing(epoch#2)
Haesun Park
ย
แแ ขแแ ฅแแ ฆแแ ฆ แแ ฅแซแแ ขแแ ณแฏแแ ณแซ แแ ฅแแ ตแซแ แ ฅแแ ตแผ #4
แแ ขแแ ฅแแ ฆแแ ฆ แแ ฅแซแแ ขแแ ณแฏแแ ณแซ แแ ฅแแ ตแซแ แ ฅแแ ตแผ #4
Haesun Park
ย
[ํ๋ ๋จธ์ ๋ฌ๋ ์คํฐ๋ - ํธ์ฆ์จ ๋จธ์ ๋ฌ๋] 6์ฅ ๊ฒฐ์ ํธ๋ฆฌ
[ํ๋ ๋จธ์ ๋ฌ๋ ์คํฐ๋ - ํธ์ฆ์จ ๋จธ์ ๋ฌ๋] 6์ฅ ๊ฒฐ์ ํธ๋ฆฌ
Haesun Park
ย
2.supervised learning(epoch#2)-2
2.supervised learning(epoch#2)-2
Haesun Park
ย
์ฌ์ดํท๋ฐ ์ต์ ๋ณ๊ฒฝ ์ฌํญ ์คํฐ๋
์ฌ์ดํท๋ฐ ์ต์ ๋ณ๊ฒฝ ์ฌํญ ์คํฐ๋
Haesun Park
ย
แแ ขแแ ฅแแ ฆแแ ฆ แแ ฅแซแแ ขแแ ณแฏแแ ณแซ แแ ฅแแ ตแซแ แ ฅแแ ตแผ #2
แแ ขแแ ฅแแ ฆแแ ฆ แแ ฅแซแแ ขแแ ณแฏแแ ณแซ แแ ฅแแ ตแซแ แ ฅแแ ตแผ #2
Haesun Park
ย
๋ฐ๋ฐ๋ฅ๋ถํฐ ์์ํ๋ ๋ฅ๋ฌ๋_์ ๊ฒฝ๋งํ์ต
๋ฐ๋ฐ๋ฅ๋ถํฐ ์์ํ๋ ๋ฅ๋ฌ๋_์ ๊ฒฝ๋งํ์ต
Juhui Park
ย
๋จธ์ ๋ฌ๋ ์ ๋ฌธ #1-๋จธ์ ๋ฌ๋ ์๊ฐ์ kNN ์๊ฐ
๋จธ์ ๋ฌ๋ ์ ๋ฌธ #1-๋จธ์ ๋ฌ๋ ์๊ฐ์ kNN ์๊ฐ
Terry Cho
ย
6.algorithm chains and piplines(epoch#2)
6.algorithm chains and piplines(epoch#2)
Haesun Park
ย
5.model evaluation and improvement(epoch#2) 2
5.model evaluation and improvement(epoch#2) 2
Haesun Park
ย
4.representing data and engineering features
4.representing data and engineering features
Haesun Park
ย
์ง๋จ์ง์ฑ ํ๋ก๊ทธ๋๋ฐ 07-๊ณ ๊ธ ๋ถ๋ฅ ๊ธฐ๋ฒ-์ปค๋ ๊ธฐ๋ฒ๊ณผ svm-01
์ง๋จ์ง์ฑ ํ๋ก๊ทธ๋๋ฐ 07-๊ณ ๊ธ ๋ถ๋ฅ ๊ธฐ๋ฒ-์ปค๋ ๊ธฐ๋ฒ๊ณผ svm-01
Kwang Woo NAM
ย
5.model evaluation and improvement(epoch#2) 1
5.model evaluation and improvement(epoch#2) 1
Haesun Park
ย
๋ด๊ฐ ์ดํดํ๋ SVM(์, ์ด๋ป๊ฒ๋ฅผ ์ค์ฌ์ผ๋ก)
๋ด๊ฐ ์ดํดํ๋ SVM(์, ์ด๋ป๊ฒ๋ฅผ ์ค์ฌ์ผ๋ก)
SANG WON PARK
ย
แแ ขแแ ฅแแ ฆแแ ฆ แแ ฅแซแแ ขแแ ณแฏแแ ณแซ แแ ฅแแ ตแซแ แ ฅแแ ตแผ #1
แแ ขแแ ฅแแ ฆแแ ฆ แแ ฅแซแแ ขแแ ณแฏแแ ณแซ แแ ฅแแ ตแซแ แ ฅแแ ตแผ #1
Haesun Park
ย
Cnn ๋ฐํ์๋ฃ
Cnn ๋ฐํ์๋ฃ
์ข ํ ์ต
ย
Rdatamining
Rdatamining
Kangwook Lee
ย
More Related Content
What's hot
3.neural networks
3.neural networks
Haesun Park
ย
4.representing data and engineering features(epoch#2)
4.representing data and engineering features(epoch#2)
Haesun Park
ย
[ํ๋ ๋จธ์ ๋ฌ๋ ์คํฐ๋ - ํธ์ฆ์จ ๋จธ์ ๋ฌ๋] 4์ฅ. ๋ชจ๋ธ ํ๋ จ
[ํ๋ ๋จธ์ ๋ฌ๋ ์คํฐ๋ - ํธ์ฆ์จ ๋จธ์ ๋ฌ๋] 4์ฅ. ๋ชจ๋ธ ํ๋ จ
Haesun Park
ย
(Handson ml)ch.7-ensemble learning and random forest
(Handson ml)ch.7-ensemble learning and random forest
Haesun Park
ย
[ํ๋ ๋จธ์ ๋ฌ๋ ์คํฐ๋ - ํธ์ฆ์จ ๋จธ์ ๋ฌ๋] 1์ฅ. ํ๋์ ๋ณด๋ ๋จธ์ ๋ฌ๋
[ํ๋ ๋จธ์ ๋ฌ๋ ์คํฐ๋ - ํธ์ฆ์จ ๋จธ์ ๋ฌ๋] 1์ฅ. ํ๋์ ๋ณด๋ ๋จธ์ ๋ฌ๋
Haesun Park
ย
3.unsupervised learing(epoch#2)
3.unsupervised learing(epoch#2)
Haesun Park
ย
แแ ขแแ ฅแแ ฆแแ ฆ แแ ฅแซแแ ขแแ ณแฏแแ ณแซ แแ ฅแแ ตแซแ แ ฅแแ ตแผ #4
แแ ขแแ ฅแแ ฆแแ ฆ แแ ฅแซแแ ขแแ ณแฏแแ ณแซ แแ ฅแแ ตแซแ แ ฅแแ ตแผ #4
Haesun Park
ย
[ํ๋ ๋จธ์ ๋ฌ๋ ์คํฐ๋ - ํธ์ฆ์จ ๋จธ์ ๋ฌ๋] 6์ฅ ๊ฒฐ์ ํธ๋ฆฌ
[ํ๋ ๋จธ์ ๋ฌ๋ ์คํฐ๋ - ํธ์ฆ์จ ๋จธ์ ๋ฌ๋] 6์ฅ ๊ฒฐ์ ํธ๋ฆฌ
Haesun Park
ย
2.supervised learning(epoch#2)-2
2.supervised learning(epoch#2)-2
Haesun Park
ย
์ฌ์ดํท๋ฐ ์ต์ ๋ณ๊ฒฝ ์ฌํญ ์คํฐ๋
์ฌ์ดํท๋ฐ ์ต์ ๋ณ๊ฒฝ ์ฌํญ ์คํฐ๋
Haesun Park
ย
แแ ขแแ ฅแแ ฆแแ ฆ แแ ฅแซแแ ขแแ ณแฏแแ ณแซ แแ ฅแแ ตแซแ แ ฅแแ ตแผ #2
แแ ขแแ ฅแแ ฆแแ ฆ แแ ฅแซแแ ขแแ ณแฏแแ ณแซ แแ ฅแแ ตแซแ แ ฅแแ ตแผ #2
Haesun Park
ย
๋ฐ๋ฐ๋ฅ๋ถํฐ ์์ํ๋ ๋ฅ๋ฌ๋_์ ๊ฒฝ๋งํ์ต
๋ฐ๋ฐ๋ฅ๋ถํฐ ์์ํ๋ ๋ฅ๋ฌ๋_์ ๊ฒฝ๋งํ์ต
Juhui Park
ย
๋จธ์ ๋ฌ๋ ์ ๋ฌธ #1-๋จธ์ ๋ฌ๋ ์๊ฐ์ kNN ์๊ฐ
๋จธ์ ๋ฌ๋ ์ ๋ฌธ #1-๋จธ์ ๋ฌ๋ ์๊ฐ์ kNN ์๊ฐ
Terry Cho
ย
6.algorithm chains and piplines(epoch#2)
6.algorithm chains and piplines(epoch#2)
Haesun Park
ย
5.model evaluation and improvement(epoch#2) 2
5.model evaluation and improvement(epoch#2) 2
Haesun Park
ย
4.representing data and engineering features
4.representing data and engineering features
Haesun Park
ย
์ง๋จ์ง์ฑ ํ๋ก๊ทธ๋๋ฐ 07-๊ณ ๊ธ ๋ถ๋ฅ ๊ธฐ๋ฒ-์ปค๋ ๊ธฐ๋ฒ๊ณผ svm-01
์ง๋จ์ง์ฑ ํ๋ก๊ทธ๋๋ฐ 07-๊ณ ๊ธ ๋ถ๋ฅ ๊ธฐ๋ฒ-์ปค๋ ๊ธฐ๋ฒ๊ณผ svm-01
Kwang Woo NAM
ย
5.model evaluation and improvement(epoch#2) 1
5.model evaluation and improvement(epoch#2) 1
Haesun Park
ย
๋ด๊ฐ ์ดํดํ๋ SVM(์, ์ด๋ป๊ฒ๋ฅผ ์ค์ฌ์ผ๋ก)
๋ด๊ฐ ์ดํดํ๋ SVM(์, ์ด๋ป๊ฒ๋ฅผ ์ค์ฌ์ผ๋ก)
SANG WON PARK
ย
แแ ขแแ ฅแแ ฆแแ ฆ แแ ฅแซแแ ขแแ ณแฏแแ ณแซ แแ ฅแแ ตแซแ แ ฅแแ ตแผ #1
แแ ขแแ ฅแแ ฆแแ ฆ แแ ฅแซแแ ขแแ ณแฏแแ ณแซ แแ ฅแแ ตแซแ แ ฅแแ ตแผ #1
Haesun Park
ย
What's hot
(20)
3.neural networks
3.neural networks
ย
4.representing data and engineering features(epoch#2)
4.representing data and engineering features(epoch#2)
ย
[ํ๋ ๋จธ์ ๋ฌ๋ ์คํฐ๋ - ํธ์ฆ์จ ๋จธ์ ๋ฌ๋] 4์ฅ. ๋ชจ๋ธ ํ๋ จ
[ํ๋ ๋จธ์ ๋ฌ๋ ์คํฐ๋ - ํธ์ฆ์จ ๋จธ์ ๋ฌ๋] 4์ฅ. ๋ชจ๋ธ ํ๋ จ
ย
(Handson ml)ch.7-ensemble learning and random forest
(Handson ml)ch.7-ensemble learning and random forest
ย
[ํ๋ ๋จธ์ ๋ฌ๋ ์คํฐ๋ - ํธ์ฆ์จ ๋จธ์ ๋ฌ๋] 1์ฅ. ํ๋์ ๋ณด๋ ๋จธ์ ๋ฌ๋
[ํ๋ ๋จธ์ ๋ฌ๋ ์คํฐ๋ - ํธ์ฆ์จ ๋จธ์ ๋ฌ๋] 1์ฅ. ํ๋์ ๋ณด๋ ๋จธ์ ๋ฌ๋
ย
3.unsupervised learing(epoch#2)
3.unsupervised learing(epoch#2)
ย
แแ ขแแ ฅแแ ฆแแ ฆ แแ ฅแซแแ ขแแ ณแฏแแ ณแซ แแ ฅแแ ตแซแ แ ฅแแ ตแผ #4
แแ ขแแ ฅแแ ฆแแ ฆ แแ ฅแซแแ ขแแ ณแฏแแ ณแซ แแ ฅแแ ตแซแ แ ฅแแ ตแผ #4
ย
[ํ๋ ๋จธ์ ๋ฌ๋ ์คํฐ๋ - ํธ์ฆ์จ ๋จธ์ ๋ฌ๋] 6์ฅ ๊ฒฐ์ ํธ๋ฆฌ
[ํ๋ ๋จธ์ ๋ฌ๋ ์คํฐ๋ - ํธ์ฆ์จ ๋จธ์ ๋ฌ๋] 6์ฅ ๊ฒฐ์ ํธ๋ฆฌ
ย
2.supervised learning(epoch#2)-2
2.supervised learning(epoch#2)-2
ย
์ฌ์ดํท๋ฐ ์ต์ ๋ณ๊ฒฝ ์ฌํญ ์คํฐ๋
์ฌ์ดํท๋ฐ ์ต์ ๋ณ๊ฒฝ ์ฌํญ ์คํฐ๋
ย
แแ ขแแ ฅแแ ฆแแ ฆ แแ ฅแซแแ ขแแ ณแฏแแ ณแซ แแ ฅแแ ตแซแ แ ฅแแ ตแผ #2
แแ ขแแ ฅแแ ฆแแ ฆ แแ ฅแซแแ ขแแ ณแฏแแ ณแซ แแ ฅแแ ตแซแ แ ฅแแ ตแผ #2
ย
๋ฐ๋ฐ๋ฅ๋ถํฐ ์์ํ๋ ๋ฅ๋ฌ๋_์ ๊ฒฝ๋งํ์ต
๋ฐ๋ฐ๋ฅ๋ถํฐ ์์ํ๋ ๋ฅ๋ฌ๋_์ ๊ฒฝ๋งํ์ต
ย
๋จธ์ ๋ฌ๋ ์ ๋ฌธ #1-๋จธ์ ๋ฌ๋ ์๊ฐ์ kNN ์๊ฐ
๋จธ์ ๋ฌ๋ ์ ๋ฌธ #1-๋จธ์ ๋ฌ๋ ์๊ฐ์ kNN ์๊ฐ
ย
6.algorithm chains and piplines(epoch#2)
6.algorithm chains and piplines(epoch#2)
ย
5.model evaluation and improvement(epoch#2) 2
5.model evaluation and improvement(epoch#2) 2
ย
4.representing data and engineering features
4.representing data and engineering features
ย
์ง๋จ์ง์ฑ ํ๋ก๊ทธ๋๋ฐ 07-๊ณ ๊ธ ๋ถ๋ฅ ๊ธฐ๋ฒ-์ปค๋ ๊ธฐ๋ฒ๊ณผ svm-01
์ง๋จ์ง์ฑ ํ๋ก๊ทธ๋๋ฐ 07-๊ณ ๊ธ ๋ถ๋ฅ ๊ธฐ๋ฒ-์ปค๋ ๊ธฐ๋ฒ๊ณผ svm-01
ย
5.model evaluation and improvement(epoch#2) 1
5.model evaluation and improvement(epoch#2) 1
ย
๋ด๊ฐ ์ดํดํ๋ SVM(์, ์ด๋ป๊ฒ๋ฅผ ์ค์ฌ์ผ๋ก)
๋ด๊ฐ ์ดํดํ๋ SVM(์, ์ด๋ป๊ฒ๋ฅผ ์ค์ฌ์ผ๋ก)
ย
แแ ขแแ ฅแแ ฆแแ ฆ แแ ฅแซแแ ขแแ ณแฏแแ ณแซ แแ ฅแแ ตแซแ แ ฅแแ ตแผ #1
แแ ขแแ ฅแแ ฆแแ ฆ แแ ฅแซแแ ขแแ ณแฏแแ ณแซ แแ ฅแแ ตแซแ แ ฅแแ ตแผ #1
ย
Similar to 4.convolutional neural networks
Cnn ๋ฐํ์๋ฃ
Cnn ๋ฐํ์๋ฃ
์ข ํ ์ต
ย
Rdatamining
Rdatamining
Kangwook Lee
ย
MNIST for ML beginners
MNIST for ML beginners
ํ๋ฐฐ ๊น
ย
R_datamining
R_datamining
์ฃผ์ ์ก
ย
Recurrent Neural Net์ ์ด๋ก ๊ณผ ์ค๋ช
Recurrent Neural Net์ ์ด๋ก ๊ณผ ์ค๋ช
ํ๋ฐฐ ๊น
ย
Lecture 4: Neural Networks I
Lecture 4: Neural Networks I
Sang Jun Lee
ย
Convolutional neural networks
Convolutional neural networks
HyunjinBae3
ย
Tda jisu kim
Tda jisu kim
NAVER Engineering
ย
Codeแ แ ฉ แแ ตแแ ขแแ กแแ ณแซ RNN
Codeแ แ ฉ แแ ตแแ ขแแ กแแ ณแซ RNN
SANG WON PARK
ย
Python Programming: Function
Python Programming: Function
Chan Shik Lim
ย
Adversarial Attack in Neural Machine Translation
Adversarial Attack in Neural Machine Translation
HyunKyu Jeon
ย
LeNet & GoogLeNet
LeNet & GoogLeNet
Institute of Agricultural Machinery, NARO
ย
Tensorflow regression ํ ์ํ๋ก์ฐ ํ๊ท
Tensorflow regression ํ ์ํ๋ก์ฐ ํ๊ท
beom kyun choi
ย
R ์คํฐ๋ ๋ค๋ฒ์งธ
R ์คํฐ๋ ๋ค๋ฒ์งธ
Jaeseok Park
ย
[๊ธฐ์ด๊ฐ๋ ] Graph Convolutional Network (GCN)
[๊ธฐ์ด๊ฐ๋ ] Graph Convolutional Network (GCN)
Donghyeon Kim
ย
R ์คํฐ๋ ์ฒซ๋ฒ์งธ
R ์คํฐ๋ ์ฒซ๋ฒ์งธ
Jaeseok Park
ย
Digit recognizer
Digit recognizer
Chul Ju Hong
ย
Deep learningwithkeras ch3_1
Deep learningwithkeras ch3_1
PartPrime
ย
Ch.5 Deep Learning
Ch.5 Deep Learning
PartPrime
ย
Python
Python
SKKU Library
ย
Similar to 4.convolutional neural networks
(20)
Cnn ๋ฐํ์๋ฃ
Cnn ๋ฐํ์๋ฃ
ย
Rdatamining
Rdatamining
ย
MNIST for ML beginners
MNIST for ML beginners
ย
R_datamining
R_datamining
ย
Recurrent Neural Net์ ์ด๋ก ๊ณผ ์ค๋ช
Recurrent Neural Net์ ์ด๋ก ๊ณผ ์ค๋ช
ย
Lecture 4: Neural Networks I
Lecture 4: Neural Networks I
ย
Convolutional neural networks
Convolutional neural networks
ย
Tda jisu kim
Tda jisu kim
ย
Codeแ แ ฉ แแ ตแแ ขแแ กแแ ณแซ RNN
Codeแ แ ฉ แแ ตแแ ขแแ กแแ ณแซ RNN
ย
Python Programming: Function
Python Programming: Function
ย
Adversarial Attack in Neural Machine Translation
Adversarial Attack in Neural Machine Translation
ย
LeNet & GoogLeNet
LeNet & GoogLeNet
ย
Tensorflow regression ํ ์ํ๋ก์ฐ ํ๊ท
Tensorflow regression ํ ์ํ๋ก์ฐ ํ๊ท
ย
R ์คํฐ๋ ๋ค๋ฒ์งธ
R ์คํฐ๋ ๋ค๋ฒ์งธ
ย
[๊ธฐ์ด๊ฐ๋ ] Graph Convolutional Network (GCN)
[๊ธฐ์ด๊ฐ๋ ] Graph Convolutional Network (GCN)
ย
R ์คํฐ๋ ์ฒซ๋ฒ์งธ
R ์คํฐ๋ ์ฒซ๋ฒ์งธ
ย
Digit recognizer
Digit recognizer
ย
Deep learningwithkeras ch3_1
Deep learningwithkeras ch3_1
ย
Ch.5 Deep Learning
Ch.5 Deep Learning
ย
Python
Python
ย
More from Haesun Park
[ํ๋ ๋จธ์ ๋ฌ๋ ์คํฐ๋ - ํธ์ฆ์จ ๋จธ์ ๋ฌ๋] 9์ฅ ํ ์ํ๋ก ์์ํ๊ธฐ
[ํ๋ ๋จธ์ ๋ฌ๋ ์คํฐ๋ - ํธ์ฆ์จ ๋จธ์ ๋ฌ๋] 9์ฅ ํ ์ํ๋ก ์์ํ๊ธฐ
Haesun Park
ย
(Handson ml)ch.8-dimensionality reduction
(Handson ml)ch.8-dimensionality reduction
Haesun Park
ย
7.woring with text data(epoch#2)
7.woring with text data(epoch#2)
Haesun Park
ย
2.supervised learning(epoch#2)-1
2.supervised learning(epoch#2)-1
Haesun Park
ย
1.introduction(epoch#2)
1.introduction(epoch#2)
Haesun Park
ย
7.woring with text data
7.woring with text data
Haesun Park
ย
6.algorithm chains and piplines
6.algorithm chains and piplines
Haesun Park
ย
1.introduction
1.introduction
Haesun Park
ย
๊ธฐ๊ณ๋ ํ๊ต์ ๊ฐ๋์?
๊ธฐ๊ณ๋ ํ๊ต์ ๊ฐ๋์?
Haesun Park
ย
More from Haesun Park
(9)
[ํ๋ ๋จธ์ ๋ฌ๋ ์คํฐ๋ - ํธ์ฆ์จ ๋จธ์ ๋ฌ๋] 9์ฅ ํ ์ํ๋ก ์์ํ๊ธฐ
[ํ๋ ๋จธ์ ๋ฌ๋ ์คํฐ๋ - ํธ์ฆ์จ ๋จธ์ ๋ฌ๋] 9์ฅ ํ ์ํ๋ก ์์ํ๊ธฐ
ย
(Handson ml)ch.8-dimensionality reduction
(Handson ml)ch.8-dimensionality reduction
ย
7.woring with text data(epoch#2)
7.woring with text data(epoch#2)
ย
2.supervised learning(epoch#2)-1
2.supervised learning(epoch#2)-1
ย
1.introduction(epoch#2)
1.introduction(epoch#2)
ย
7.woring with text data
7.woring with text data
ย
6.algorithm chains and piplines
6.algorithm chains and piplines
ย
1.introduction
1.introduction
ย
๊ธฐ๊ณ๋ ํ๊ต์ ๊ฐ๋์?
๊ธฐ๊ณ๋ ํ๊ต์ ๊ฐ๋์?
ย
4.convolutional neural networks
1.
Convolutional Neural Networks
2.
Outlook โข Part 1:
ํ์ด์ฌ๊ณผ ํ ์ํ๋ก์ฐ ์๊ฐ โข Part 2: ํ๊ท ๋ถ์๊ณผ ๋ก์ง์คํฑ ํ๊ท โข Part 3: ๋ด๋ด ๋คํธ์ํฌ ์๊ณ ๋ฆฌ์ฆ โข Part 4: ์ฝ๋ณผ๋ฃจ์ ๋ด๋ด ๋คํธ์ํฌ 2
3.
์ง๋ ์๊ฐ์... 3
4.
Perceptron vs Logistic
Neuron ํ์ฑํ ํจ์ ๊ฐ์ค์น ๐ค"~๐ค$% ์์ค์ฝ์ ๋ฐ์ดํฐ ๐ฅ"~๐ฅ$% 4
5.
๋ ์ด์ด๊ฐ ํ๋ ฌ ๊ณ์ฐ 5 ๐ฅ" 0.6 โฏ ๐ฅ$% 0.2 โฎ
โฑ โฎ 0.5 โฏ 0.4 โ ๐ค" " โฎ ๐ค$% " โฑ ๐ค" "% โฎ ๐ค$% "% = 1.5 5.9 โฎ 0.7 โฑ 1.1 0.2 โฎ 0.5 + ๐" โฏ ๐$% = 1.2 2.9 โฎ 1.7 โฑ 1.6 2.2 โฎ 4.1 569 x 10 ํฌ๊ธฐ 569๊ฐ ์ํ ๐ฅ ร ๐ + ๐ = ๐ง [569, 30] x [30, 10] = [569, 10] + [10] = [569, 10] 10๊ฐ ํธํฅ(bias) 30๊ฐ ํน์ฑ 569 x 10๊ฐ ๊ฒฐ๊ณผ (logits) ... ๐ฅ% ๐ฅ" ๐ฅ$% ๐% ๐"% 30 x 10๊ฐ ๊ฐ์ค์น
6.
๋ค์ค ๋ถ๋ฅ Dog Cat Rabbit ๐ฆ<" = 0.9 0.8 0.7 ๐ฆ<>
= 0.5 0.2 0.1 ๐ฆ<" = 0.59 0.26 0.15 ๐ฆ<> = 0.74 0.18 0.08 ์ถ๋ ฅ๊ฐ ์ ๊ทํ ์๊ทธ๋ชจ์ด๋ ์ถ๋ ฅ ์ํํธ๋งฅ์ค ์ถ๋ ฅ 6
7.
์์ ์ฐ๊ฒฐ ๋ด๋ด
๋คํธ์ํฌ ... ... ํ๋ ๋ ์ด์ด ์ ๋ ฅ ๋ ์ด์ด ์ถ๋ ฅ ๋ ์ด์ด ์ ๋ ฅ ๋ฐ์ดํฐ ์ถ๋ ฅ ๋ ์ด๋ธ ๐ฅ ๐ฆ< ๐ค", ๐" ๐ค>, ๐> ์๊ทธ๋ชจ์ด๋, ๋ ๋ฃจ ์ํํธ๋งฅ์ค 7
8.
์ญ์ ํ ์๊ณ ๋ฆฌ์ฆ 8 Neuron * + Softmax ๐ก ๐ฆ< ๐๐ฝ ๐๐ง = (๐ฆ
โ ๐ฆ<) ๐ง = ๐คร๐ก + ๐ ๐ = ๐ + ๐๐ฝ ๐๐ = ๐๐ฝ ๐๐ง ร ๐๐ง ๐๐ = (๐ฆ โ ๐ฆ<) Neuron ๐ค = ๐ค + ๐๐ฝ ๐๐ค = ๐๐ฝ ๐๐ง ร ๐๐ง ๐๐ค = ๐ฆ โ ๐ฆ< ๐ก ๐ง ๐๐ฝ ๐๐ก = ๐๐ฝ ๐๐ง ร ๐๐ง ๐๐ก = ๐ฆ โ ๐ฆ< ๐ค ๐ฝ๐๐ฝ ๐๐ = ๐๐ฝ ๐๐ก ร ๐๐ก ๐๐ = ๐ฆ โ ๐ฆ< ๐คร๐ก(1 โ ๐ก) ๐ ์๊ทธ๋ชจ์ด๋
9.
SGD, mini-batch GD โข
Batch ๊ทธ๋๋์ธํธ ๋์ผํธ โข ์ ์ฒด ํ๋ จ ๋ฐ์ดํฐ๋ฅผ ์ฌ์ฉ โข ๊ฐ์ฅ ์ข์ ๋ฐฉ๋ฒ, ๋๊ท๋ชจ ๋ฐ์ดํฐ ์ ์ ์ ์ฉํ๊ธฐ ํ ๋ฌ โข SGD(Stochastic Gradient Descent): โข ํ๋ จ ๋ฐ์ดํฐ ํ๋์ฉ ์ฌ์ฉ โข ๋น ๋ฅธ ํ์ต ๊ฐ๋ฅ, ๋ ธ์ด์ฆ ๋ฐ์ดํฐ๋ก ์ธํด ๋ณ๋์ด ํผ โข mini-batch GD โข ํ๋ จ ๋ฐ์ดํฐ๋ฅผ ์กฐ๊ธ์ฉ ๋๋์ด ์ฌ์ฉ โข Batch ์ SGD์ ์ ์ถฉ์์ผ๋ก ์ผ์ ๊ฐ์์ ๋ฐ์ดํฐ ๋ฅผ ์ด์ฉํ์ฌ ํ์ต 9
10.
๋ ์ด์ด ๊ตฌ์ฑ ... ... ํ๋ ๋ ์ด์ด 100๊ฐ ์ ๋ ฅ
๋ ์ด์ด 784๊ฐ ์ถ๋ ฅ ๋ ์ด์ด 10๊ฐ ์ ๋ ฅ ๋ฐ์ดํฐ 28x28=784 ์ถ๋ ฅ ๋ ์ด๋ธ ๐ฅ ๐ฆ< ๐ค", ๐" ๐ค>, ๐> ์๊ทธ๋ชจ์ด๋ ์ํํธ๋งฅ์ค 10
11.
๋ด๋ด ๋คํธ์ํฌ ๊ตฌํ
12.
CNN
13.
Fully Connected โข ์ด๋ฏธ์ง
ํฝ์ ์ ์ผ๋ ฌ๋ก ํผ์ณ์ ๋คํธ์ํฌ์ ์ฃผ์ ํฉ๋๋ค. ... 784ร100 + [100] ...
14.
Convolution โข ์ด๋ฏธ์ง์ 2์ฐจ์
๊ตฌ์กฐ๋ฅผ ๊ทธ๋๋ก ์ด์ฉํฉ๋๋ค. โข ๊ฐ์ค์น๊ฐ ์ฌํ์ฉ๋์ด ์ฌ์ด์ฆ๊ฐ ํฌ๊ฒ ์ค์ด ๋ญ๋๋ค. ... ... ... ... 3ร3 + [1] ...
15.
Convolving
16.
Feature Map โข ์ฝ๋ณผ๋ฃจ์ ์ผ๋ก
๋ง๋ค์ด์ง 2์ฐจ์ ๋งต์ ํน์ฑ ๋งต์ด๋ผ๊ณ ๋ถ๋ฆ ๋๋ค. โข ๋ณดํต ํ ๋ ์ด์ด์์ ์ฌ๋ฌ๊ฐ์ ํน์ฑ ๋งต์ ๋ง๋ญ๋๋ค. ... ... ... ... โ 3ร3 + [1] ํน์ฑ ๋งต (Feature Map)
17.
์ ํ์ ์ธ ํน์ฑ ๋งต โข
ํน์ฑ ๋งต์ ๋ง๋๋ ๊ฐ์ค์น๋ฅผ ์ปค๋(kernel), ํน์ ํํฐ(filter)๋ผ๊ณ ๋ ๋ถ๋ฆ ๋๋ค. โข ๋ณดํต ํ๊ฐ ์ด์์ ์ปค๋์ ์ฌ์ฉํฉ๋๋ค. ํน์ฑ ๋งต(3D)์ปค๋, ํํฐ(w)
18.
conv2d() โข ๊ฐ์ค์น์ ๋ฐ์ด์ด์ค๋ฅผ
์ง์ ์์ฑํด ์ ๋ฌ โข tf.layers.conv2d()๋ฅผ ์ฌ์ฉํ๋ฉด ํธ๋ฆฌํจ ... ... ... ... โ 3ร3 + [1] W = tf.Variable(tf.truncated_normal([3, 3, 1, 10], stddev=0.1)) b = tf.Variable(tf.constant(0.1, shape=[10])) conv = tf.nn.conv2d(x, W) + b
19.
DNN
20.
CNN ์ํํธ๋งฅ์ค ํจ์
21.
Stride, Padding
22.
์คํธ๋ผ์ด๋(stride) โข ํํฐ๊ฐ ์ฌ๋ผ์ด๋ฉํ๋
ํฌ๊ธฐ๋ฅผ ์ง์ ํฉ๋๋ค.
23.
์คํธ๋ผ์ด๋ ๊ณ์ฐ ๐ = ๐
โ ๐ ๐ + 1 = 4 โ 3 1 + 1 = 2 ์ ๋ ฅ(i): 4x4 ํํฐ(f): 3x3 ์คํธ๋ผ์ด๋(s): 1 W = tf.Variable(tf.truncated_normal([3, 3, 1, 10], stddev=0.1)) b = tf.Variable(tf.constant(0.1, shape=[10])) conv = tf.nn.conv2d(x, W, strides=[1, 1, 1, 1]) + b
24.
ํจ๋ฉ(padding) โข ์ ๋ ฅ ๊ฐ
์ฃผ์์ 0 ์ผ๋ก ์ฑ์ด ํจ๋ฉ์ ๋ํฉ๋๋ค(zero-padding) โข ํํฐ๊ฐ ๋ ๋ง์ด ์ฌ๋ผ์ด๋๋๋๋ก ํฉ๋๋ค.
25.
ํจ๋ฉ ๊ณ์ฐ ๐ = ๐
โ ๐ + 2๐ ๐ + 1 = 5 โ 4 + 2ร2 1 + 1 = 6 ์ ๋ ฅ(i): 5x5 ํํฐ(f): 4x4 ์คํธ๋ผ์ด๋(s): 1
26.
ํ ์ํ๋ก์ฐ ํจ๋ฉ ๊ณ์ฐ โข
ํจ๋ฉํฌ๊ธฐ๋ฅผ ์ง์ ์ง์ , tf.pad() โข ํจ๋ฉ ํ์ (same/valid), ์คํธ๋ผ์ด๋ ํฌ๊ธฐ ร ํจ๋ฉ ํฌ๊ธฐ ์๋ ๊ฒฐ์ โข same โข ์ถ๋ ฅํฌ๊ธฐ=์ ๋ ฅํฌ๊ธฐ/์คํธ๋ผ์ด๋ โข tf.layer.conv2d(.., padding=โsameโ, ..) โข ํจ๋ฉ ํฌ๊ธฐ๊ฐ ํํฐ์ ์ ๋ฐ ์ ๋๋ผ ํํ ํจ๋ฉ์ด๋ผ๊ณ ๋ ๋ถ๋ฆ โข valid โข ํจ๋ฉ์ ๋ฃ์ง ์์ โข tf.layer.conv2d(.., padding=โvalidโ, ..) W = tf.Variable(tf.truncated_normal([3, 3, 1, 10], stddev=0.1)) b = tf.Variable(tf.constant(0.1, shape=[10])) conv = tf.nn.conv2d(x, W, strides=[1, 1, 1, 1], padding=โSAMEโ) + b
27.
ReLU โข Rectified Linear
Unit โข -โ~+โ์ ๋ ฅ์ ๋ํด 0~+โ ์ฌ์ด์ ๊ฐ์ ์ถ๋ ฅํฉ๋๋ค. ๐ฆ< = max (0, ๐ง) W = tf.Variable(tf.truncated_normal([3, 3, 1, 10], stddev=0.1)) b = tf.Variable(tf.constant(0.1, shape=[10])) conv = tf.nn.conv2d(x, W, strides=[1, 1, 1, 1], padding=โSAMEโ) + b acti = tf.nn.relu(conv)
28.
subsampling
29.
์๋ธ์ํ๋ง ๋ณดํต ํ๋ง(Pooling)์ด๋ผ๊ณ ๋ถ๋ฆ ํ๊ท
ํ๋ง(Average Pooling), ๋งฅ์ค ํ๋ง(Max Pooling) ๋ฐ์ดํฐ ์์ถ์ ํจ๊ณผ
30.
ํ๋ง โข ๊ฐ์ค์น๋ฅผ ๊ณฑํ๊ฑฐ๋
๋ฐ์ด์ด์ค๋ฅผ ๋ํ๋ ๊ฒ์ด ์์ โข ์ ๋ ฅ ๋งต์์ ์ฝ์ ๋ฐ์ดํฐ๋ฅผ ์ฌ ๊ฐ๊ณตํจ โข ๋ณดํต ํ๋ง ํฌ๊ธฐ์ ์คํธ๋ผ์ด๋ ํฌ๊ธฐ๊ฐ ๊ฐ์(๊ฒน์น๋ ๋ถ๋ถ ์์) โข ์ถ๋ ฅํฌ๊ธฐ=์ ๋ ฅํฌ๊ธฐ/ํ๋งํฌ๊ธฐ
31.
๋งฅ์ค ํ๋ง ๐ = ๐
โ ๐ ๐ + 1 = 5 โ 3 1 + 1 = 3
32.
ํ๊ท ํ๋ง ๐ = ๐
โ ๐ ๐ + 1 = 5 โ 3 1 + 1 = 3
33.
max_pool() โข ์ปค๋ ํฌ๊ธฐ์
์คํธ๋ผ์ด๋ ํฌ๊ธฐ๋ฅผ ๊ตฌ์ฒด์ ์ผ๋ก ์ง์ํจ โข tf.layers.max_pooling2d()๋ฅผ ์ฌ์ฉํ๋ฉด ํธ๋ฆฌ W = tf.Variable(tf.truncated_normal([3, 3, 1, 10], stddev=0.1)) b = tf.Variable(tf.constant(0.1, shape=[10])) conv = tf.nn.conv2d(x, W, strides=[1, 1, 1, 1], padding=โSAMEโ) + b actv = tf.nn.relu(conv) pool = tf.nn.max_pool(actv, ksize=[1, 2, 2, 1], strides=[1, 2, 2, 1])
34.
๋๋กญ์์(dropout) โข ํ์ตํ ๋
๋ ์ด์ด์ ์ผ๋ถ ๋ ธ๋๋ฅผ ์ ์ธํฉ๋๋ค. โข ์ฌ๋ฌ๊ฐ์ ๋คํธ์ํฌ๋ฅผ ์์๋ธํ๋ ํจ๊ณผ๋ฅผ ๋ฐํํฉ๋๋ค.
35.
drop_out() โข ๋๋กญ ์์ํ
ํ๋ฅ ์ ์ง์ ํฉ๋๋ค. โข ์ถ๋ก (inference)์์๋ ๋๋กญ์์์ ํ๋ฉด ์๋ฉ๋๋ค.(ํ๋ ์ด์ค ํ๋) โข ์์ ์์๋ tf.layers.dropout() ํจ์๋ฅผ ์ฌ์ฉํ๊ฒ ์ต๋๋ค. drop = tf.nn.dropout(fc_output, keep_prob) drop = tf.layers.dropout(fc_output, drop_prob) ๋๋กญ์ํฌ ๋น์จ ๋๋กญ์ํค์ง ์๊ณ ๋จ๊ธธ ๋น์จ
36.
์ฝ๋ณผ๋ฃจ์ ๊ตฌํ
37.
๋ ์ด์ด ๊ตฌ์ฑ ... ... 28ร28ร1 5ร5ร1 same, 32๊ฐ 28ร28ร32 2ร2 maxpool 14ร14ร32 5ร5ร32 same,
64๊ฐ 14ร14ร64 2ร2 maxpool 7ร7ร64 1024 10 ๐ฆ<๐ง softmax relu
38.
์ฝ๋ณผ๋ฃจ์ 1 โข 5x5 ์ปค๋,
32๊ฐ โข ์คํธ๋ผ์ด๋ 1 โข ํจ๋ฉ same โข ReLU ํ์ฑํ ํจ์ 28ร28ร1 5ร5ร1 same, 32๊ฐ 28ร28ร32 relu
39.
ํ๋ง1 โข 2x2 ์ปค๋ โข
2x2 ์คํธ๋ผ์ด๋ 28ร28ร32 2ร2 maxpool 14ร14ร32
40.
์ฝ๋ณผ๋ฃจ์ 2 โข 5x5 ์ปค๋,
64๊ฐ โข ์คํธ๋ผ์ด๋ 1 โข ํจ๋ฉ same โข ReLU ํ์ฑํ ํจ์ 5ร5ร32 same, 64๊ฐ 14ร14ร6414ร14ร32
41.
ํ๋ง2 โข 2x2 ์ปค๋ โข
2x2 ์คํธ๋ผ์ด๋ 14ร14ร64 2ร2 maxpool 7ร7ร64
42.
์์ ์ฐ๊ฒฐ ๋ ์ด์ด โข 1024๊ฐ
์ ๋ โข ๋๋กญ์์ ์ ์ฉ โข ๋ ๋ฃจ ํ์ฑํ ํจ์ 7ร7ร64 1024
43.
์ถ๋ ฅ ๋ ์ด์ด โข 10๊ฐ์
์ ๋ โข ์ํํธ ๋งฅ์ค ํ์ฑํ ํจ์ 10 ๐ฆ<๐ง softmax ์ํํธ๋งฅ์ค ํต๊ณผ์ : z ์ํํธ๋งฅ์ค ํต๊ณผํ : y_hat
44.
ํ์ต ์ค์ argmax(y) =
[?] argmax(y_hat) = [?] y = [?, 10] z = [?, 10] ๋ถ๋ฆฌ์ธ์ ์ซ์๋ก ๋ฐ๊พธ๊ณ ํ๊ท ์ ๋ ๋๋ค. [True, False, True,... ] ร [1.0, 0.0, 1.0, ...]
45.
๋ฏธ๋ ๋ฐฐ์น ํ๋ จ 100๊ฐ์ฉ
๋ฐ์ดํฐ ์ํ๋ง x_data: [100, 784] y_data: [100, 10]
46.
๊ฒฐ๊ณผ
47.
์ฒซ๋ฒ์งธ ์ฝ๋ณผ๋ฃจ์ ํํฐ
32๊ฐ
48.
Materials โข Github : https://github.com/rickiepark/tfk-notebooks/tree/master/tensorflow_for_beginners โข
Slideshare : https://www.slideshare.net/RickyPark3/ 48
49.
๊ฐ์ฌํฉ๋๋ค. 49
Download now