Enviar pesquisa
Carregar
人工智慧09_神經網路(TensorFlow+Keras)
•
6 gostaram
•
869 visualizações
Fuzhou University
Seguir
人工智慧09_神經網路(TensorFlow+Keras)
Leia menos
Leia mais
Engenharia
Denunciar
Compartilhar
Denunciar
Compartilhar
1 de 45
Recomendados
卷積神經網路(Python+TensorFlow+Keras)
卷積神經網路(Python+TensorFlow+Keras)
Fuzhou University
人工智慧11_遞歸神經網路
人工智慧11_遞歸神經網路
Fuzhou University
遞歸神經網路(Python+TensorFlow+Keras)
遞歸神經網路(Python+TensorFlow+Keras)
Fuzhou University
論文導讀02_神經網路(智慧交通)
論文導讀02_神經網路(智慧交通)
Fuzhou University
人工智慧10_卷積神經網路
人工智慧10_卷積神經網路
Fuzhou University
論文導讀03_集成神經網路(智慧交通)
論文導讀03_集成神經網路(智慧交通)
Fuzhou University
人工智慧05_k個最近鄰居(醫療旅遊)
人工智慧05_k個最近鄰居(醫療旅遊)
Fuzhou University
人工智慧07_迴歸方法(智慧交通)
人工智慧07_迴歸方法(智慧交通)
Fuzhou University
Recomendados
卷積神經網路(Python+TensorFlow+Keras)
卷積神經網路(Python+TensorFlow+Keras)
Fuzhou University
人工智慧11_遞歸神經網路
人工智慧11_遞歸神經網路
Fuzhou University
遞歸神經網路(Python+TensorFlow+Keras)
遞歸神經網路(Python+TensorFlow+Keras)
Fuzhou University
論文導讀02_神經網路(智慧交通)
論文導讀02_神經網路(智慧交通)
Fuzhou University
人工智慧10_卷積神經網路
人工智慧10_卷積神經網路
Fuzhou University
論文導讀03_集成神經網路(智慧交通)
論文導讀03_集成神經網路(智慧交通)
Fuzhou University
人工智慧05_k個最近鄰居(醫療旅遊)
人工智慧05_k個最近鄰居(醫療旅遊)
Fuzhou University
人工智慧07_迴歸方法(智慧交通)
人工智慧07_迴歸方法(智慧交通)
Fuzhou University
深度學習方法與實作
深度學習方法與實作
Fuzhou University
人工智慧08_神經網路
人工智慧08_神經網路
Fuzhou University
Convolutional Neural Networks (CNN) — 卷積神經網路的前世今生
Convolutional Neural Networks (CNN) — 卷積神經網路的前世今生
Jason Tsai
以深度學習加速語音及影像辨識應用發展
以深度學習加速語音及影像辨識應用發展
NVIDIA Taiwan
Convolutional Neural Networks (CNN) — 卷積神經網路的前世今生
Convolutional Neural Networks (CNN) — 卷積神經網路的前世今生
Jason Tsai
香港六合彩
香港六合彩
六合彩 六合彩
基于Innodb开发的最佳实践
基于Innodb开发的最佳实践
wubx
OI算法竞赛中树形数据结构
OI算法竞赛中树形数据结构
Ray Song
我对后端优化的一点想法.pptx
我对后端优化的一点想法.pptx
james tong
神經網路(Python+TensorFlow+Keras)
神經網路(Python+TensorFlow+Keras)
Fuzhou University
Hands-on tutorial of deep learning (Keras)
Hands-on tutorial of deep learning (Keras)
Chun-Min Chang
我对后端优化的一点想法 (2012)
我对后端优化的一点想法 (2012)
james tong
Neural Turing Machine Tutorial
Neural Turing Machine Tutorial
Mark Chang
Optimzing mysql
Optimzing mysql
liufabin 66688
Django book20 security
Django book20 security
Shih-yi Wei
Mining the Parkinson's Telemonitoring Data Set
Mining the Parkinson's Telemonitoring Data Set
Jimmy Lu
Tutorial of cnn 赵子健9.16
Tutorial of cnn 赵子健9.16
Zijian Zhao
探索 ISTIO 新型 DATA PLANE 架構 AMBIENT MESH - GOLANG TAIWAN GATHERING #77 X CNTUG
探索 ISTIO 新型 DATA PLANE 架構 AMBIENT MESH - GOLANG TAIWAN GATHERING #77 X CNTUG
YingSiang Geng
微博实时搜索
微博实时搜索
亚军 汪
TensorFlow 深度學習快速上手班--深度學習
TensorFlow 深度學習快速上手班--深度學習
Mark Chang
Python速成指南
Python速成指南
March Liu
Pytorch cnn netowork introduction 20240318
Pytorch cnn netowork introduction 20240318
FEG
Mais conteúdo relacionado
Mais procurados
深度學習方法與實作
深度學習方法與實作
Fuzhou University
人工智慧08_神經網路
人工智慧08_神經網路
Fuzhou University
Convolutional Neural Networks (CNN) — 卷積神經網路的前世今生
Convolutional Neural Networks (CNN) — 卷積神經網路的前世今生
Jason Tsai
以深度學習加速語音及影像辨識應用發展
以深度學習加速語音及影像辨識應用發展
NVIDIA Taiwan
Convolutional Neural Networks (CNN) — 卷積神經網路的前世今生
Convolutional Neural Networks (CNN) — 卷積神經網路的前世今生
Jason Tsai
香港六合彩
香港六合彩
六合彩 六合彩
基于Innodb开发的最佳实践
基于Innodb开发的最佳实践
wubx
OI算法竞赛中树形数据结构
OI算法竞赛中树形数据结构
Ray Song
我对后端优化的一点想法.pptx
我对后端优化的一点想法.pptx
james tong
神經網路(Python+TensorFlow+Keras)
神經網路(Python+TensorFlow+Keras)
Fuzhou University
Hands-on tutorial of deep learning (Keras)
Hands-on tutorial of deep learning (Keras)
Chun-Min Chang
我对后端优化的一点想法 (2012)
我对后端优化的一点想法 (2012)
james tong
Neural Turing Machine Tutorial
Neural Turing Machine Tutorial
Mark Chang
Optimzing mysql
Optimzing mysql
liufabin 66688
Django book20 security
Django book20 security
Shih-yi Wei
Mining the Parkinson's Telemonitoring Data Set
Mining the Parkinson's Telemonitoring Data Set
Jimmy Lu
Mais procurados
(16)
深度學習方法與實作
深度學習方法與實作
人工智慧08_神經網路
人工智慧08_神經網路
Convolutional Neural Networks (CNN) — 卷積神經網路的前世今生
Convolutional Neural Networks (CNN) — 卷積神經網路的前世今生
以深度學習加速語音及影像辨識應用發展
以深度學習加速語音及影像辨識應用發展
Convolutional Neural Networks (CNN) — 卷積神經網路的前世今生
Convolutional Neural Networks (CNN) — 卷積神經網路的前世今生
香港六合彩
香港六合彩
基于Innodb开发的最佳实践
基于Innodb开发的最佳实践
OI算法竞赛中树形数据结构
OI算法竞赛中树形数据结构
我对后端优化的一点想法.pptx
我对后端优化的一点想法.pptx
神經網路(Python+TensorFlow+Keras)
神經網路(Python+TensorFlow+Keras)
Hands-on tutorial of deep learning (Keras)
Hands-on tutorial of deep learning (Keras)
我对后端优化的一点想法 (2012)
我对后端优化的一点想法 (2012)
Neural Turing Machine Tutorial
Neural Turing Machine Tutorial
Optimzing mysql
Optimzing mysql
Django book20 security
Django book20 security
Mining the Parkinson's Telemonitoring Data Set
Mining the Parkinson's Telemonitoring Data Set
Semelhante a 人工智慧09_神經網路(TensorFlow+Keras)
Tutorial of cnn 赵子健9.16
Tutorial of cnn 赵子健9.16
Zijian Zhao
探索 ISTIO 新型 DATA PLANE 架構 AMBIENT MESH - GOLANG TAIWAN GATHERING #77 X CNTUG
探索 ISTIO 新型 DATA PLANE 架構 AMBIENT MESH - GOLANG TAIWAN GATHERING #77 X CNTUG
YingSiang Geng
微博实时搜索
微博实时搜索
亚军 汪
TensorFlow 深度學習快速上手班--深度學習
TensorFlow 深度學習快速上手班--深度學習
Mark Chang
Python速成指南
Python速成指南
March Liu
Pytorch cnn netowork introduction 20240318
Pytorch cnn netowork introduction 20240318
FEG
HITCON CTF 2014 BambooFox 解題心得分享
HITCON CTF 2014 BambooFox 解題心得分享
Chong-Kuan Chen
用 Keras 玩 Machine Learning
用 Keras 玩 Machine Learning
家弘 周
Java线上应用问题排查方法和工具(空望)
Java线上应用问题排查方法和工具(空望)
ykdsg
Chapter 2 Basic Neural Network Architecture_Claire.pdf
Chapter 2 Basic Neural Network Architecture_Claire.pdf
learningfqz
Talking about exploit writing
Talking about exploit writing
sbha0909
Hello DNN
Hello DNN
evan li
NoSQL误用和常见陷阱分析
NoSQL误用和常见陷阱分析
iammutex
realtime-twitter-search
realtime-twitter-search
亚军 汪
Install Oracle11g For Aix 5 L
Install Oracle11g For Aix 5 L
heima911
Avm2虚拟机浅析与as3性能优化(陈士凯)
Avm2虚拟机浅析与as3性能优化(陈士凯)
FLASH开发者交流会
[Flash开发者交流][2010.05.30]avm2虚拟机浅析与as3性能优化(陈士凯)
[Flash开发者交流][2010.05.30]avm2虚拟机浅析与as3性能优化(陈士凯)
Shanda innovation institute
Neural Network Basics
Neural Network Basics
Okis Chuang
Norbert框架
Norbert框架
johnny chen
Fast flux domain detection
Fast flux domain detection
Ni Zhiqiang
Semelhante a 人工智慧09_神經網路(TensorFlow+Keras)
(20)
Tutorial of cnn 赵子健9.16
Tutorial of cnn 赵子健9.16
探索 ISTIO 新型 DATA PLANE 架構 AMBIENT MESH - GOLANG TAIWAN GATHERING #77 X CNTUG
探索 ISTIO 新型 DATA PLANE 架構 AMBIENT MESH - GOLANG TAIWAN GATHERING #77 X CNTUG
微博实时搜索
微博实时搜索
TensorFlow 深度學習快速上手班--深度學習
TensorFlow 深度學習快速上手班--深度學習
Python速成指南
Python速成指南
Pytorch cnn netowork introduction 20240318
Pytorch cnn netowork introduction 20240318
HITCON CTF 2014 BambooFox 解題心得分享
HITCON CTF 2014 BambooFox 解題心得分享
用 Keras 玩 Machine Learning
用 Keras 玩 Machine Learning
Java线上应用问题排查方法和工具(空望)
Java线上应用问题排查方法和工具(空望)
Chapter 2 Basic Neural Network Architecture_Claire.pdf
Chapter 2 Basic Neural Network Architecture_Claire.pdf
Talking about exploit writing
Talking about exploit writing
Hello DNN
Hello DNN
NoSQL误用和常见陷阱分析
NoSQL误用和常见陷阱分析
realtime-twitter-search
realtime-twitter-search
Install Oracle11g For Aix 5 L
Install Oracle11g For Aix 5 L
Avm2虚拟机浅析与as3性能优化(陈士凯)
Avm2虚拟机浅析与as3性能优化(陈士凯)
[Flash开发者交流][2010.05.30]avm2虚拟机浅析与as3性能优化(陈士凯)
[Flash开发者交流][2010.05.30]avm2虚拟机浅析与as3性能优化(陈士凯)
Neural Network Basics
Neural Network Basics
Norbert框架
Norbert框架
Fast flux domain detection
Fast flux domain detection
Mais de Fuzhou University
多媒體系統10_3D繪圖軟體Blender
多媒體系統10_3D繪圖軟體Blender
Fuzhou University
多媒體系統09_3D互動擴增實境
多媒體系統09_3D互動擴增實境
Fuzhou University
多媒體系統08_Inkscape繪製圖形與漸層
多媒體系統08_Inkscape繪製圖形與漸層
Fuzhou University
機器學習工具_微軟Azure Machine Learning Studio
機器學習工具_微軟Azure Machine Learning Studio
Fuzhou University
論文導讀01_k個最近鄰居(行動定位)
論文導讀01_k個最近鄰居(行動定位)
Fuzhou University
多媒體系統02_影像處理原理與技術
多媒體系統02_影像處理原理與技術
Fuzhou University
多媒體系統07_Android App影音互動擴增實境
多媒體系統07_Android App影音互動擴增實境
Fuzhou University
多媒體系統06_影音編輯軟體Movie Maker
多媒體系統06_影音編輯軟體Movie Maker
Fuzhou University
多媒體系統05_Android App圖形元件
多媒體系統05_Android App圖形元件
Fuzhou University
多媒體系統04_GIMP繪圖、特效、動畫
多媒體系統04_GIMP繪圖、特效、動畫
Fuzhou University
多媒體系統03_GIMP影像合成與圖層應用
多媒體系統03_GIMP影像合成與圖層應用
Fuzhou University
多媒體系統01_安裝開發環境
多媒體系統01_安裝開發環境
Fuzhou University
人工智慧02_大數據分析與機器學習概論
人工智慧02_大數據分析與機器學習概論
Fuzhou University
人工智慧06_決策樹
人工智慧06_決策樹
Fuzhou University
人工智慧04_貝氏分類和貝氏網路
人工智慧04_貝氏分類和貝氏網路
Fuzhou University
人工智慧03_關聯規則
人工智慧03_關聯規則
Fuzhou University
人工智慧01_安裝機器學習開發環境
人工智慧01_安裝機器學習開發環境
Fuzhou University
初探深度學習技術與應用
初探深度學習技術與應用
Fuzhou University
Mais de Fuzhou University
(18)
多媒體系統10_3D繪圖軟體Blender
多媒體系統10_3D繪圖軟體Blender
多媒體系統09_3D互動擴增實境
多媒體系統09_3D互動擴增實境
多媒體系統08_Inkscape繪製圖形與漸層
多媒體系統08_Inkscape繪製圖形與漸層
機器學習工具_微軟Azure Machine Learning Studio
機器學習工具_微軟Azure Machine Learning Studio
論文導讀01_k個最近鄰居(行動定位)
論文導讀01_k個最近鄰居(行動定位)
多媒體系統02_影像處理原理與技術
多媒體系統02_影像處理原理與技術
多媒體系統07_Android App影音互動擴增實境
多媒體系統07_Android App影音互動擴增實境
多媒體系統06_影音編輯軟體Movie Maker
多媒體系統06_影音編輯軟體Movie Maker
多媒體系統05_Android App圖形元件
多媒體系統05_Android App圖形元件
多媒體系統04_GIMP繪圖、特效、動畫
多媒體系統04_GIMP繪圖、特效、動畫
多媒體系統03_GIMP影像合成與圖層應用
多媒體系統03_GIMP影像合成與圖層應用
多媒體系統01_安裝開發環境
多媒體系統01_安裝開發環境
人工智慧02_大數據分析與機器學習概論
人工智慧02_大數據分析與機器學習概論
人工智慧06_決策樹
人工智慧06_決策樹
人工智慧04_貝氏分類和貝氏網路
人工智慧04_貝氏分類和貝氏網路
人工智慧03_關聯規則
人工智慧03_關聯規則
人工智慧01_安裝機器學習開發環境
人工智慧01_安裝機器學習開發環境
初探深度學習技術與應用
初探深度學習技術與應用
人工智慧09_神經網路(TensorFlow+Keras)
1.
人工智慧 教師:陳志華博士
2.
報告大綱-神經網路(TensorFlow+Keras) 線性迴歸實作 邏輯迴歸實作 神經網路實作 神經網路應用案例 2
3.
線性迴歸實作 資料分佈呈現線性分佈 線性迴歸 ◦ 線性函式 ◦ 機器學習後結果 3 X
Y 0.1 0.3 0.2 0.4 0.3 0.5 0.4 0.6 0.5 0.7 0 0.2 0.4 0.6 0.8 1 0 0.1 0.2 0.3 0.4 0.5 0.6 y x 想像有一條迴歸線(以紅色表示)的存在, 可以讓每個點(以藍色表示)到迴歸線之間的 距離最小 bxwy ˆ 2.01ˆ xy 迴歸線(以紅色表示)為 2.01 xy
4.
線性迴歸實作 #安裝tensorflow函式庫 install.packages('tensorflow') #安裝keras函式庫 install.packages('keras') 4 使用深度學習套件 「tensorflow」和 「keras」訓練模型
5.
線性迴歸實作 #引用tensorflow函式庫 library(tensorflow) #引用keras函式庫 library(keras) 5 使用深度學習套件 「tensorflow」和 「keras」訓練模型
6.
線性迴歸實作 #讀取訓練資料 training_data <- read.csv(file.choose(), header
= TRUE) 6
7.
線性迴歸實作 #設定亂數種子 use_session_with_seed(0) #設定神經網路結構 model <- keras_model_sequential() #輸入參數:
1個,輸出參數: 1個,線性函式 model %>% layer_dense(units = 1, activation = "linear", input_shape = c(1)) 7 設定固定的亂數種子, 讓權重初始值可以一致 輸入參數: 1個, 輸出參數: 1個, 線性函式
8.
線性迴歸實作 #設定神經網路學習目標 model %>% compile( #最小平方誤差 loss=‘mean_squared_error’, #梯度下降 optimizer='sgd' ) 8 學習目標為最小平方誤差 最佳化方法為梯度下降法
9.
線性迴歸實作 #訓練神經網路 history <- model
%>% fit( training_data$X, #輸入參數 training_data$Y, #輸出參數 epochs = 3000, #訓練回合數 batch_size = 1 #逐筆修正權重 ) 9 設定輸出參數為Y 設定輸入參數為X 訓練回合數為3000 採用逐筆修正權重的方式
10.
線性迴歸實作 #顯示神經網路權重值 model$get_weights() 10
11.
線性迴歸實作 #將測試資料代入模型進行預測,並取得 預測結果 results <- model
%>% predict( training_data$X ) #呈現估計結果 print(results) 11 輸入資料進行估計
12.
線性迴歸實作 執行程式,並取得估計結果 12 估計結果 權重組合0.999
13.
3.986 邏輯迴歸實作 資料分佈呈現線性分佈 線性迴歸 ◦ 線性函式 ◦ 機器學習後結果 13 X
Y 0.1 0.3 0.2 0.4 0.3 0.5 0.4 0.6 0.5 0.7 z zSigmoid xSigmoidy 1 194.1986.3 z e zSigmoid bxwSigmoidy 1 1 0 0.2 0.4 0.6 0.8 1 0 0.1 0.2 0.3 0.4 0.5 0.6 y x 迴歸線(以紅色表示)為 邏輯迴歸也能得到 接近線性的解 z e zSigmoid xSigmoidy 1 1 194.1986.3
14.
邏輯迴歸實作 #安裝tensorflow函式庫 install.packages('tensorflow') #安裝keras函式庫 install.packages('keras') 14 使用深度學習套件 「tensorflow」和 「keras」訓練模型
15.
邏輯迴歸實作 #引用tensorflow函式庫 library(tensorflow) #引用keras函式庫 library(keras) 15 使用深度學習套件 「tensorflow」和 「keras」訓練模型
16.
邏輯迴歸實作 #讀取訓練資料 training_data <- read.csv(file.choose(), header
= TRUE) 16
17.
邏輯迴歸實作 #設定亂數種子 use_session_with_seed(0) #設定神經網路結構 model <- keras_model_sequential() #輸入參數:
1個,輸出參數: 1個,線性函式 model %>% layer_dense(units = 1, activation = “sigmoid", input_shape = c(1)) 17 設定固定的亂數種子, 讓權重初始值可以一致 輸入參數: 1個, 輸出參數: 1個, S型函式
18.
邏輯迴歸實作 #設定神經網路學習目標 model %>% compile( #最小平方誤差 loss=‘mean_squared_error’, #梯度下降 optimizer='sgd' ) 18 學習目標為最小平方誤差 最佳化方法為梯度下降法
19.
邏輯迴歸實作 #訓練神經網路 history <- model
%>% fit( training_data$X, #輸入參數 training_data$Y, #輸出參數 epochs = 30000, #訓練回合數 batch_size = 1 #逐筆修正權重 ) 19 設定輸出參數為Y 設定輸入參數為X 訓練回合數為30000 採用逐筆修正權重的方式
20.
邏輯迴歸實作 #顯示神經網路權重值 model$get_weights() 20
21.
邏輯迴歸實作 #將測試資料代入模型進行預測,並取得 預測結果 results <- model
%>% predict( training_data$X ) #呈現估計結果 print(results) 21 輸入資料進行估計
22.
邏輯迴歸實作 執行程式,並取得估計結果 22 估計結果 權重組合3.986
23.
資料分佈呈現線性分佈 神經網路 ◦ 線性函式 ◦ 機器學習後結果 -3.189 -3.223
12 1 298.1223.3 557.0189.3 zSigmoidy zSigmoidz xz z e zSigmoid zSigmoidy bzSigmoidwzbxwz 1 1 , 2 2122111 神經網路實作 23 X Y 0.1 0.3 0.2 0.4 0.3 0.5 0.4 0.6 0.5 0.7 0 0.2 0.4 0.6 0.8 1 0 0.1 0.2 0.3 0.4 0.5 0.6 y x 神經網路模型(以紅色表示)為 神經網路也能得到 接近線性的解 2 12 1 298.1223.3 557.0189.3 zSigmoidy zSigmoidz xz
24.
神經網路實作 #安裝tensorflow函式庫 install.packages('tensorflow') #安裝keras函式庫 install.packages('keras') 24 使用深度學習套件 「tensorflow」和 「keras」訓練模型
25.
神經網路實作 #引用tensorflow函式庫 library(tensorflow) #引用keras函式庫 library(keras) 25 使用深度學習套件 「tensorflow」和 「keras」訓練模型
26.
神經網路實作 #讀取訓練資料 training_data <- read.csv(file.choose(), header
= TRUE) 26
27.
神經網路實作 #設定亂數種子 use_session_with_seed(0) #設定神經網路結構 model <- keras_model_sequential() #輸入參數:
1個,輸出參數: 1個,線性函式 model %>% layer_dense(units = 1, activation = “sigmoid", input_shape = c(1)) %>% layer_dense(units = 1, activation = “sigmoid") 27 設定固定的亂數種子, 讓權重初始值可以一致 輸入層: 輸入參數: 1個, 輸出參數: 1個, S型函式 隱藏層: 輸入參數: 1個, 輸出參數: 1個, S型函式
28.
神經網路實作 #設定神經網路學習目標 model %>% compile( #最小平方誤差 loss=‘mean_squared_error’, #梯度下降 optimizer='sgd' ) 28 學習目標為最小平方誤差 最佳化方法為梯度下降法
29.
神經網路實作 #訓練神經網路 history <- model
%>% fit( training_data$X, #輸入參數 training_data$Y, #輸出參數 epochs = 30000, #訓練回合數 batch_size = 1 #逐筆修正權重 ) 29 設定輸出參數為Y 設定輸入參數為X 訓練回合數為30000 採用逐筆修正權重的方式
30.
神經網路實作 #顯示神經網路權重值 model$get_weights() 30
31.
神經網路實作 #將測試資料代入模型進行預測,並取得 預測結果 results <- model
%>% predict( training_data$X ) #呈現估計結果 print(results) 31 輸入資料進行估計
32.
神經網路實作 執行程式,並取得估計結果 32 估計結果 權重組合 -3.189 -3.223
33.
神經網路應用案例 開放資料-臺灣證券交易所 ◦ 網址: http://www.twse.com.tw/zh/page/trading/ex change/FMTQIK.html 資料集服務分類 ◦ 盤後資訊 ◦
臺灣跨市場指數 ◦ TWSE自行編製指數 ◦ 與FTSE合作編製指數 ◦ 與銳聯合作編製指數 ◦ 與S&PDJI合作編製指數 ◦ 升降幅度/首五日無漲跌幅 ◦ 當日沖銷交易標的及統計 ◦ 融資融券與可借券賣出額度 33
34.
神經網路應用案例 選擇資料日期和股票代碼 本例資料日期以2017年為例 挑選電信業者股票代碼 ◦ 2412中華電 ◦ 3045台灣大 ◦
3682亞太電 ◦ 4904遠傳 34
35.
神經網路應用案例 將目標個股每個月的加權平均價存到Excel 依漲跌情況,漲以1表示,跌以0表示,編碼為0、1二元表, 35 個股每個月加權平均價 個股漲跌二元表 漲以1表示,跌以0表示
36.
神經網路應用案例 將個股漲跌二元表存成CSV檔 作為線性迴歸學習的訓練資料 36 中華電欄位更名為Class
37.
神經網路應用案例 #安裝tensorflow函式庫 install.packages('tensorflow') #安裝keras函式庫 install.packages('keras') 37 使用深度學習套件 「tensorflow」和 「keras」訓練模型
38.
神經網路應用案例 #引用tensorflow函式庫 library(tensorflow) #引用keras函式庫 library(keras) 38 使用深度學習套件 「tensorflow」和 「keras」訓練模型
39.
神經網路應用案例 #讀取訓練資料 training_data <- read.csv(file.choose(), header
= TRUE) X <- subset(training_data, select = -Class) Y <- training_data$Class #轉換為matrix資料型態 X <- data.matrix(X) 39
40.
神經網路應用案例 #設定亂數種子 use_session_with_seed(0) #設定神經網路結構 model <- keras_model_sequential() #輸入參數:
1個,輸出參數: 1個,線性函式 model %>% layer_dense(units = 2, activation = “sigmoid", input_shape = c(3)) %>% layer_dense(units = 1, activation = “sigmoid") 40 設定固定的亂數種子, 讓權重初始值可以一致 輸入層: 輸入參數: 3個, 輸出參數: 2個, S型函式 隱藏層: 輸入參數: 2個, 輸出參數: 1個, S型函式
41.
神經網路應用案例 #設定神經網路學習目標 model %>% compile( #最小平方誤差 loss=‘mean_squared_error’, #梯度下降 optimizer='sgd' ) 41 學習目標為最小平方誤差 最佳化方法為梯度下降法
42.
神經網路應用案例 #訓練神經網路 history <- model
%>% fit( X, #輸入參數 Y, #輸出參數 epochs = 30000, #訓練回合數 batch_size = 1 #逐筆修正權重 ) 42 設定輸出參數為Y 設定輸入參數為X 訓練回合數為30000 採用逐筆修正權重的方式
43.
神經網路應用案例 #顯示神經網路權重值 model$get_weights() 43
44.
神經網路應用案例 #將測試資料代入模型進行預測,並取得 預測結果 results <- model
%>% predict( X ) #呈現估計結果 print(results) 44 輸入資料進行估計
45.
神經網路應用案例 執行程式,並取得估計結果 45 估計結果 權重組合