Mais conteúdo relacionado Semelhante a 機械学習応用システムセキュリティガイドライン―背景と公開について (20) Mais de Nobukazu Yoshioka (14) 機械学習応用システムセキュリティガイドライン―背景と公開について3. 機械学習のセキュリティの研究は盛ん
3
Eykholt, K., Evtimov, I., Fernandes, E., Li, B., Rahmati, A., Xiao, C., Song, D.
Robust Physical-World Attacks on Deep Learning Models,
CVPR 2018
Yuan, X., He, P., Zhu, Q., & Li, X. (2019). Adversarial Examples: Attacks and Defenses for Deep
Learning. IEEE Transactions on Neural Networks and Learning Systems, 30(9), 2805–2824.
5. MLSE セーフティ・セキュリティWG
機械学習システムセキュリティガイドライン
策定委員会
【目的】 AIエンジニアが利用できる機械学習システムのセキュリティガイドラインを整備
【委員:11名】 産業界: 6名、学術界: 5名
• 市原 大暉 (株式会社NTT データ)、及川 孝徳 (富士通株式会社)、大久保 隆夫 (情報セキュリティ
大学院大学)、笠原 史禎 (富士通株式会社)、金子 朋子 (国立情報学研究所)、久連石 圭 (株式
会社 東芝)、田口 研治 (国立情報学研究所)、林 昌純 (法政大学)、森川 郁也 (富士通株式会
社)、矢嶋 純 (富士通株式会社)、吉岡 信和 (早稲田大学、委員長)
【活動】 月に1回、これまで8回の委員会で議論
【スケジュール・マイルストーン】
• 2021年7月28日キックオフ勉強会(第1回)
• 2021年11月29日第3回 AI/IoTシステム安全性シンポジウムにて講演(第2回)
• 2022年4月4日ガイドラインβ版をgithubにて公開: https://github.com/mlse-jssst/security-
guideline
• 2022年5月30日までご意見・フィードバックを受け付けています!
• 2022年4月15日第3回勉強会
• 2022年6月正式版公開予定
• MLSE夏合宿2022(6/30-7/2)のセーフティ・セキュリティWGで事例ワークショップの予定
5
12. 機械学習システムセキュリティガイドライン
本編
• ガイドライン概要:目的・背景
• 機械学習システム特有の攻撃
• 機械学習システムのセキュリティ
• 被害度分析
• システム仕様レベルでの脅威分析・対策
• 実際の機械学習システムに対する脅威分析・対
策
• 検知・対処
• 参考文献
リスク分析編
• 機械学習システムセキュリティの概要
• 機械学習システムを守るには
• 機械学習システム開発プロセスにおけるリスク分析
• AI 開発者向けリスク分析
• AI リスク問診の実現例
• AI リスク問診の施行例
付録:攻撃検知技術の概要
• 攻撃戦略毎の検知手法について
• 検知に使用するデータについて
12
ご意見・フィードバックを募集しています( 締め切り:5月30日)
github、google form、MLSEのslack #wg_mls3 チャネル まで!
https://github.com/mlse-jssst/security-
guideline