Enviar pesquisa
Carregar
ゼロから作るDeepLearning 3.3~3.6章 輪読
•
2 gostaram
•
695 visualizações
K
KCS Keio Computer Society
Seguir
ゼロから作るDeepLearning 3.3~3.6章 輪読
Leia menos
Leia mais
Tecnologia
Denunciar
Compartilhar
Denunciar
Compartilhar
1 de 17
Baixar agora
Baixar para ler offline
Recomendados
2019/04/12 Deep Learning JP: http://deeplearning.jp/seminar-2/
[DL輪読会]1次近似系MAMLとその理論的背景
[DL輪読会]1次近似系MAMLとその理論的背景
Deep Learning JP
TensorFlow 勉強会 (4) の発表資料です。 途中の動画を見るには↓の元ファイルを御覧ください。 https://docs.google.com/presentation/d/1CWHjeiDJovG4ymuaoGCFLiBcSHNuNccMQQYkoFtpHxc/pub?start=false&loop=false&delayms=3000
TensorFlowで逆強化学習
TensorFlowで逆強化学習
Mitsuhisa Ohta
モバイル端末向けの軽いネットワーク
Mobilenet
Mobilenet
harmonylab
2018/10/19 Deep Learning JP: http://deeplearning.jp/seminar-2/
[DL輪読会]BERT: Pre-training of Deep Bidirectional Transformers for Language Und...
[DL輪読会]BERT: Pre-training of Deep Bidirectional Transformers for Language Und...
Deep Learning JP
数学パワーが世界を変える2020発表資料
数学で解き明かす深層学習の原理
数学で解き明かす深層学習の原理
Taiji Suzuki
初等者がGNNのsurvey論文のイントロを読んでまとめました
SakataMoriLab GNN勉強会第一回資料
SakataMoriLab GNN勉強会第一回資料
ttt_miura
2019/02/22 Deep Learning JP: http://deeplearning.jp/seminar-2/
[DL輪読会]DropBlock: A regularization method for convolutional networks
[DL輪読会]DropBlock: A regularization method for convolutional networks
Deep Learning JP
https://exawizards.connpass.com/event/176947/
ICLR2020読み会 (neural-tangents)
ICLR2020読み会 (neural-tangents)
RyuichiKanoh
Recomendados
2019/04/12 Deep Learning JP: http://deeplearning.jp/seminar-2/
[DL輪読会]1次近似系MAMLとその理論的背景
[DL輪読会]1次近似系MAMLとその理論的背景
Deep Learning JP
TensorFlow 勉強会 (4) の発表資料です。 途中の動画を見るには↓の元ファイルを御覧ください。 https://docs.google.com/presentation/d/1CWHjeiDJovG4ymuaoGCFLiBcSHNuNccMQQYkoFtpHxc/pub?start=false&loop=false&delayms=3000
TensorFlowで逆強化学習
TensorFlowで逆強化学習
Mitsuhisa Ohta
モバイル端末向けの軽いネットワーク
Mobilenet
Mobilenet
harmonylab
2018/10/19 Deep Learning JP: http://deeplearning.jp/seminar-2/
[DL輪読会]BERT: Pre-training of Deep Bidirectional Transformers for Language Und...
[DL輪読会]BERT: Pre-training of Deep Bidirectional Transformers for Language Und...
Deep Learning JP
数学パワーが世界を変える2020発表資料
数学で解き明かす深層学習の原理
数学で解き明かす深層学習の原理
Taiji Suzuki
初等者がGNNのsurvey論文のイントロを読んでまとめました
SakataMoriLab GNN勉強会第一回資料
SakataMoriLab GNN勉強会第一回資料
ttt_miura
2019/02/22 Deep Learning JP: http://deeplearning.jp/seminar-2/
[DL輪読会]DropBlock: A regularization method for convolutional networks
[DL輪読会]DropBlock: A regularization method for convolutional networks
Deep Learning JP
https://exawizards.connpass.com/event/176947/
ICLR2020読み会 (neural-tangents)
ICLR2020読み会 (neural-tangents)
RyuichiKanoh
DeepMind社より発表されたNeural Turing Machineをまとめてみました
ニューラルチューリングマシン入門
ニューラルチューリングマシン入門
naoto moriyama
4/16に行われた筑波大の手塚若林研合同ゼミでの発表スライドです。
Optimizer入門&最新動向
Optimizer入門&最新動向
Motokawa Tetsuya
2022/9/30 Deep Learning JP http://deeplearning.jp/seminar-2/
【DL輪読会】DayDreamer: World Models for Physical Robot Learning
【DL輪読会】DayDreamer: World Models for Physical Robot Learning
Deep Learning JP
Active Learning 入門
Active Learning 入門
Shuyo Nakatani
VRChat ML集会 2023-01-11
Transformerを用いたAutoEncoderの設計と実験
Transformerを用いたAutoEncoderの設計と実験
myxymyxomatosis
2019/03/08 Deep Learning JP: http://deeplearning.jp/seminar-2/
[DL輪読会]Flow-based Deep Generative Models
[DL輪読会]Flow-based Deep Generative Models
Deep Learning JP
機械学習の基礎である分類問題を通して、ニューラルネット研究の黎明期から深層学習までの歴史を浅く広く紹介しています。
ニューラルネットと深層学習の歴史
ニューラルネットと深層学習の歴史
Akinori Abe
Optuna v3.2に向けて開発中の最新機能Human-in-the-loop最適化について解説します。 イベントサイト: https://wandb.connpass.com/event/280477/
Optunaを使ったHuman-in-the-loop最適化の紹介 - 2023/04/27 W&B 東京ミートアップ #3
Optunaを使ったHuman-in-the-loop最適化の紹介 - 2023/04/27 W&B 東京ミートアップ #3
Preferred Networks
2018/04/16 Deep Learning JP: http://deeplearning.jp/hacks/
[DL Hacks]Variational Approaches For Auto-Encoding Generative Adversarial Ne...
[DL Hacks]Variational Approaches For Auto-Encoding Generative Adversarial Ne...
Deep Learning JP
2023/7/21 Deep Learning JP http://deeplearning.jp/seminar-2/
【DL輪読会】"Secrets of RLHF in Large Language Models Part I: PPO"
【DL輪読会】"Secrets of RLHF in Large Language Models Part I: PPO"
Deep Learning JP
強化学習アーキテクチャ勉強会#14の発表内容. 強化学習の分散アーキテクチャの歴史、Gorila, A3C, GA3C, A2C, Ape-X, IMPALAなどをまとめた. https://rlarch.connpass.com/event/81669/
強化学習の分散アーキテクチャ変遷
強化学習の分散アーキテクチャ変遷
Eiji Sekiya
https://math-coding.connpass.com/event/147508/ Math&coding#6 の発表資料
グラフニューラルネットワーク入門
グラフニューラルネットワーク入門
ryosuke-kojima
時系列分析による異常検知入門
時系列分析による異常検知入門
Yohei Sato
arXivTimes勉強会 2018/03/30
Group normalization
Group normalization
Ryutaro Yamauchi
SSII2022 [OS3-03] スケーラブルなロボット学習システムに向けて 6月10日 (金) 11:00 - 12:30 メイン会場 登壇者:松嶋 達也 氏(東京大学) 概要:DNNを用いたロボット学習アルゴリズムを用いて、動画のような高次元の入力からロボットの制御方策を学習することが可能になった。これらの手法はサービスロボット領域での応用が期待されているが、タスクや環境の多様性への対処が課題となっている。本講演では、強化学習のようなロボットの制御方策を直接学習する手法において、ロボットシステムから収集し蓄積した「オフライン」のデータを活用する方法について紹介するほか、実際に家庭内のサービスロボットシステム構築の事例紹介を通じて、実世界のロボットシステムの特徴やデータドリブンな手法を取り入れて汎化性・柔軟性を高めるための方法に関して解説する。
SSII2022 [OS3-03] スケーラブルなロボット学習システムに向けて
SSII2022 [OS3-03] スケーラブルなロボット学習システムに向けて
SSII
2017/8/24 Deep Learning JP: http://deeplearning.jp/seminar-2/
[DL輪読会]逆強化学習とGANs
[DL輪読会]逆強化学習とGANs
Deep Learning JP
Deep learningを使った生成モデルの中でも、VAEとその拡張であるCVAE、IWAE、ADGMの導出と理論の話。 ADGMについては、論文がラベルありについての導出がメインなので、ラベルなしの場合のグラフィカルモデルを作って定式化し導出過程を説明。 VAEは実装できるけどどういう理論でできてるかわからないとか、どうやって拡張するか、ADGMの実装をどうすればいいかわからない人向け。
深層生成モデルの理論と導出(Variational Auto-encoderからADGM)
深層生成モデルの理論と導出(Variational Auto-encoderからADGM)
Tetsuo Tashiro
Quantum Computational Materials Science RoundtableとDeep learning and Physicsの共催セミナーでの講演資料です。 - https://shinaoka.github.io/QCMSR/ - https://cometscome.github.io/DLAP2020/ Matlantisの製品でも使用されている、PFPを理解するための研究を紹介していきます。 Neural Network Potential (NNP)は、Neural Network を用いて分子動力学ポテンシャルを表現するものである。本セミナーではNNP研究の流れを振り返り、どのようにNNP開発のためのデータセット収集やNeural Networkの取扱いが発展してきたのかを紹介する。 後半では、多種多様な系に対して適用可能となるように開発した汎用NNPであるPFP [1]についての解説を行う。また、PFPを用いた事例としてどのような材料探索が行えるかをその応用的な使い方とともに紹介する。 [1] PFP: Universal Neural Network Potential for Material Discovery
PFP:材料探索のための汎用Neural Network Potential - 2021/10/4 QCMSR + DLAP共催
PFP:材料探索のための汎用Neural Network Potential - 2021/10/4 QCMSR + DLAP共催
Preferred Networks
2019年9月27日のPyData.Tokyo Meetup #21での発表資料です。 Optuna (https://github.com/pfnet/optuna) の使い方やソフトウェアデザイン、LightGBM向けの新機能について紹介しています。
PyData.Tokyo Meetup #21 講演資料「Optuna ハイパーパラメータ最適化フレームワーク」太田 健
PyData.Tokyo Meetup #21 講演資料「Optuna ハイパーパラメータ最適化フレームワーク」太田 健
Preferred Networks
機械学習におけるコード設計のベストプラクティスについて
機械学習で泣かないためのコード設計
機械学習で泣かないためのコード設計
Takahiro Kubo
These slides were presented in Yagami-ai seminar.
Large scale gan training for high fidelity natural
Large scale gan training for high fidelity natural
KCS Keio Computer Society
These slides were presented in Yagami-ai seminar.
Imagenet trained cnns-are_biased_towards
Imagenet trained cnns-are_biased_towards
KCS Keio Computer Society
Mais conteúdo relacionado
Mais procurados
DeepMind社より発表されたNeural Turing Machineをまとめてみました
ニューラルチューリングマシン入門
ニューラルチューリングマシン入門
naoto moriyama
4/16に行われた筑波大の手塚若林研合同ゼミでの発表スライドです。
Optimizer入門&最新動向
Optimizer入門&最新動向
Motokawa Tetsuya
2022/9/30 Deep Learning JP http://deeplearning.jp/seminar-2/
【DL輪読会】DayDreamer: World Models for Physical Robot Learning
【DL輪読会】DayDreamer: World Models for Physical Robot Learning
Deep Learning JP
Active Learning 入門
Active Learning 入門
Shuyo Nakatani
VRChat ML集会 2023-01-11
Transformerを用いたAutoEncoderの設計と実験
Transformerを用いたAutoEncoderの設計と実験
myxymyxomatosis
2019/03/08 Deep Learning JP: http://deeplearning.jp/seminar-2/
[DL輪読会]Flow-based Deep Generative Models
[DL輪読会]Flow-based Deep Generative Models
Deep Learning JP
機械学習の基礎である分類問題を通して、ニューラルネット研究の黎明期から深層学習までの歴史を浅く広く紹介しています。
ニューラルネットと深層学習の歴史
ニューラルネットと深層学習の歴史
Akinori Abe
Optuna v3.2に向けて開発中の最新機能Human-in-the-loop最適化について解説します。 イベントサイト: https://wandb.connpass.com/event/280477/
Optunaを使ったHuman-in-the-loop最適化の紹介 - 2023/04/27 W&B 東京ミートアップ #3
Optunaを使ったHuman-in-the-loop最適化の紹介 - 2023/04/27 W&B 東京ミートアップ #3
Preferred Networks
2018/04/16 Deep Learning JP: http://deeplearning.jp/hacks/
[DL Hacks]Variational Approaches For Auto-Encoding Generative Adversarial Ne...
[DL Hacks]Variational Approaches For Auto-Encoding Generative Adversarial Ne...
Deep Learning JP
2023/7/21 Deep Learning JP http://deeplearning.jp/seminar-2/
【DL輪読会】"Secrets of RLHF in Large Language Models Part I: PPO"
【DL輪読会】"Secrets of RLHF in Large Language Models Part I: PPO"
Deep Learning JP
強化学習アーキテクチャ勉強会#14の発表内容. 強化学習の分散アーキテクチャの歴史、Gorila, A3C, GA3C, A2C, Ape-X, IMPALAなどをまとめた. https://rlarch.connpass.com/event/81669/
強化学習の分散アーキテクチャ変遷
強化学習の分散アーキテクチャ変遷
Eiji Sekiya
https://math-coding.connpass.com/event/147508/ Math&coding#6 の発表資料
グラフニューラルネットワーク入門
グラフニューラルネットワーク入門
ryosuke-kojima
時系列分析による異常検知入門
時系列分析による異常検知入門
Yohei Sato
arXivTimes勉強会 2018/03/30
Group normalization
Group normalization
Ryutaro Yamauchi
SSII2022 [OS3-03] スケーラブルなロボット学習システムに向けて 6月10日 (金) 11:00 - 12:30 メイン会場 登壇者:松嶋 達也 氏(東京大学) 概要:DNNを用いたロボット学習アルゴリズムを用いて、動画のような高次元の入力からロボットの制御方策を学習することが可能になった。これらの手法はサービスロボット領域での応用が期待されているが、タスクや環境の多様性への対処が課題となっている。本講演では、強化学習のようなロボットの制御方策を直接学習する手法において、ロボットシステムから収集し蓄積した「オフライン」のデータを活用する方法について紹介するほか、実際に家庭内のサービスロボットシステム構築の事例紹介を通じて、実世界のロボットシステムの特徴やデータドリブンな手法を取り入れて汎化性・柔軟性を高めるための方法に関して解説する。
SSII2022 [OS3-03] スケーラブルなロボット学習システムに向けて
SSII2022 [OS3-03] スケーラブルなロボット学習システムに向けて
SSII
2017/8/24 Deep Learning JP: http://deeplearning.jp/seminar-2/
[DL輪読会]逆強化学習とGANs
[DL輪読会]逆強化学習とGANs
Deep Learning JP
Deep learningを使った生成モデルの中でも、VAEとその拡張であるCVAE、IWAE、ADGMの導出と理論の話。 ADGMについては、論文がラベルありについての導出がメインなので、ラベルなしの場合のグラフィカルモデルを作って定式化し導出過程を説明。 VAEは実装できるけどどういう理論でできてるかわからないとか、どうやって拡張するか、ADGMの実装をどうすればいいかわからない人向け。
深層生成モデルの理論と導出(Variational Auto-encoderからADGM)
深層生成モデルの理論と導出(Variational Auto-encoderからADGM)
Tetsuo Tashiro
Quantum Computational Materials Science RoundtableとDeep learning and Physicsの共催セミナーでの講演資料です。 - https://shinaoka.github.io/QCMSR/ - https://cometscome.github.io/DLAP2020/ Matlantisの製品でも使用されている、PFPを理解するための研究を紹介していきます。 Neural Network Potential (NNP)は、Neural Network を用いて分子動力学ポテンシャルを表現するものである。本セミナーではNNP研究の流れを振り返り、どのようにNNP開発のためのデータセット収集やNeural Networkの取扱いが発展してきたのかを紹介する。 後半では、多種多様な系に対して適用可能となるように開発した汎用NNPであるPFP [1]についての解説を行う。また、PFPを用いた事例としてどのような材料探索が行えるかをその応用的な使い方とともに紹介する。 [1] PFP: Universal Neural Network Potential for Material Discovery
PFP:材料探索のための汎用Neural Network Potential - 2021/10/4 QCMSR + DLAP共催
PFP:材料探索のための汎用Neural Network Potential - 2021/10/4 QCMSR + DLAP共催
Preferred Networks
2019年9月27日のPyData.Tokyo Meetup #21での発表資料です。 Optuna (https://github.com/pfnet/optuna) の使い方やソフトウェアデザイン、LightGBM向けの新機能について紹介しています。
PyData.Tokyo Meetup #21 講演資料「Optuna ハイパーパラメータ最適化フレームワーク」太田 健
PyData.Tokyo Meetup #21 講演資料「Optuna ハイパーパラメータ最適化フレームワーク」太田 健
Preferred Networks
機械学習におけるコード設計のベストプラクティスについて
機械学習で泣かないためのコード設計
機械学習で泣かないためのコード設計
Takahiro Kubo
Mais procurados
(20)
ニューラルチューリングマシン入門
ニューラルチューリングマシン入門
Optimizer入門&最新動向
Optimizer入門&最新動向
【DL輪読会】DayDreamer: World Models for Physical Robot Learning
【DL輪読会】DayDreamer: World Models for Physical Robot Learning
Active Learning 入門
Active Learning 入門
Transformerを用いたAutoEncoderの設計と実験
Transformerを用いたAutoEncoderの設計と実験
[DL輪読会]Flow-based Deep Generative Models
[DL輪読会]Flow-based Deep Generative Models
ニューラルネットと深層学習の歴史
ニューラルネットと深層学習の歴史
Optunaを使ったHuman-in-the-loop最適化の紹介 - 2023/04/27 W&B 東京ミートアップ #3
Optunaを使ったHuman-in-the-loop最適化の紹介 - 2023/04/27 W&B 東京ミートアップ #3
[DL Hacks]Variational Approaches For Auto-Encoding Generative Adversarial Ne...
[DL Hacks]Variational Approaches For Auto-Encoding Generative Adversarial Ne...
【DL輪読会】"Secrets of RLHF in Large Language Models Part I: PPO"
【DL輪読会】"Secrets of RLHF in Large Language Models Part I: PPO"
強化学習の分散アーキテクチャ変遷
強化学習の分散アーキテクチャ変遷
グラフニューラルネットワーク入門
グラフニューラルネットワーク入門
時系列分析による異常検知入門
時系列分析による異常検知入門
Group normalization
Group normalization
SSII2022 [OS3-03] スケーラブルなロボット学習システムに向けて
SSII2022 [OS3-03] スケーラブルなロボット学習システムに向けて
[DL輪読会]逆強化学習とGANs
[DL輪読会]逆強化学習とGANs
深層生成モデルの理論と導出(Variational Auto-encoderからADGM)
深層生成モデルの理論と導出(Variational Auto-encoderからADGM)
PFP:材料探索のための汎用Neural Network Potential - 2021/10/4 QCMSR + DLAP共催
PFP:材料探索のための汎用Neural Network Potential - 2021/10/4 QCMSR + DLAP共催
PyData.Tokyo Meetup #21 講演資料「Optuna ハイパーパラメータ最適化フレームワーク」太田 健
PyData.Tokyo Meetup #21 講演資料「Optuna ハイパーパラメータ最適化フレームワーク」太田 健
機械学習で泣かないためのコード設計
機械学習で泣かないためのコード設計
Mais de KCS Keio Computer Society
These slides were presented in Yagami-ai seminar.
Large scale gan training for high fidelity natural
Large scale gan training for high fidelity natural
KCS Keio Computer Society
These slides were presented in Yagami-ai seminar.
Imagenet trained cnns-are_biased_towards
Imagenet trained cnns-are_biased_towards
KCS Keio Computer Society
機械学習ゼミにおいて発表されたプレゼンテーション資料
機械学習ゼミ: Area attenttion
機械学習ゼミ: Area attenttion
KCS Keio Computer Society
機械学習ゼミにおいて発表されたプレゼンテーション資料
機械学習ゼミ 2018/10/17
機械学習ゼミ 2018/10/17
KCS Keio Computer Society
機械学習ゼミで行われた 深層学習第7.1~7.2の解説です。
機械学習ゼミ2018 06 15
機械学習ゼミ2018 06 15
KCS Keio Computer Society
機械学習ゼミでの発表内容です 2018_06_15
Control by deep learning
Control by deep learning
KCS Keio Computer Society
深層学習 第6章
深層学習 第6章
深層学習 第6章
KCS Keio Computer Society
Vector-Based navigation using grid-like representations in artificial agents
Vector-Based navigation using grid-like representations in artificial agents
Vector-Based navigation using grid-like representations in artificial agents
KCS Keio Computer Society
機械学習ゼミ 5月11日発表
文章生成の未解決問題
文章生成の未解決問題
KCS Keio Computer Society
Word2Vec周りの解説です。
Word2vec alpha
Word2vec alpha
KCS Keio Computer Society
深層学習、第7章を理解するためのテンソル代数の導入
テンソル代数
テンソル代数
KCS Keio Computer Society
Hindsight Experience Replay
Hindsight experience replay
Hindsight experience replay
KCS Keio Computer Society
Kml 輪読514
Kml 輪読514
Kml 輪読514
KCS Keio Computer Society
ゼロから作るDeepLearning 5章 輪読
ゼロから作るDeepLearning 5章 輪読
ゼロから作るDeepLearning 5章 輪読
KCS Keio Computer Society
ELBO型VAEのダメなところ
ELBO型VAEのダメなところ
ELBO型VAEのダメなところ
KCS Keio Computer Society
ゼロから作るDeepLearning 2~3章 輪読
ゼロから作るDeepLearning 2~3章 輪読
ゼロから作るDeepLearning 2~3章 輪読
KCS Keio Computer Society
ゼロから作るDeepLearning 4章 輪読
ゼロから作るDeepLearning 4章 輪読
ゼロから作るDeepLearning 4章 輪読
KCS Keio Computer Society
Soft Actor Critic 解説
Soft Actor Critic 解説
Soft Actor Critic 解説
KCS Keio Computer Society
Stochastic Thermodynamics Interpretation of Information Geometryを個人的に説明したものです.
[論文略説]Stochastic Thermodynamics Interpretation of Information Geometry
[論文略説]Stochastic Thermodynamics Interpretation of Information Geometry
KCS Keio Computer Society
Graph Convolutional Network について基礎的な所を簡単にまとめたスライドです. This slide explains basic of Graph Convolutional Netwrork simply.
Graph Convolutional Network 概説
Graph Convolutional Network 概説
KCS Keio Computer Society
Mais de KCS Keio Computer Society
(20)
Large scale gan training for high fidelity natural
Large scale gan training for high fidelity natural
Imagenet trained cnns-are_biased_towards
Imagenet trained cnns-are_biased_towards
機械学習ゼミ: Area attenttion
機械学習ゼミ: Area attenttion
機械学習ゼミ 2018/10/17
機械学習ゼミ 2018/10/17
機械学習ゼミ2018 06 15
機械学習ゼミ2018 06 15
Control by deep learning
Control by deep learning
深層学習 第6章
深層学習 第6章
Vector-Based navigation using grid-like representations in artificial agents
Vector-Based navigation using grid-like representations in artificial agents
文章生成の未解決問題
文章生成の未解決問題
Word2vec alpha
Word2vec alpha
テンソル代数
テンソル代数
Hindsight experience replay
Hindsight experience replay
Kml 輪読514
Kml 輪読514
ゼロから作るDeepLearning 5章 輪読
ゼロから作るDeepLearning 5章 輪読
ELBO型VAEのダメなところ
ELBO型VAEのダメなところ
ゼロから作るDeepLearning 2~3章 輪読
ゼロから作るDeepLearning 2~3章 輪読
ゼロから作るDeepLearning 4章 輪読
ゼロから作るDeepLearning 4章 輪読
Soft Actor Critic 解説
Soft Actor Critic 解説
[論文略説]Stochastic Thermodynamics Interpretation of Information Geometry
[論文略説]Stochastic Thermodynamics Interpretation of Information Geometry
Graph Convolutional Network 概説
Graph Convolutional Network 概説
Último
LoRaWAN スマート距離検出デバイスDS20L日本語マニュアル
LoRaWAN スマート距離検出デバイスDS20L日本語マニュアル
LoRaWAN スマート距離検出デバイスDS20L日本語マニュアル
CRI Japan, Inc.
Syed Talal Wasim, Muzammal Naseer, Salman Khan, Ming-Hsuan Yang, Fahad Shahbaz Khan , "Video-GroundingDINO: Towards Open-Vocabulary Spatio-Temporal Video Grounding" arXiv2024 https://arxiv.org/abs/2401.00901v2
論文紹介:Video-GroundingDINO: Towards Open-Vocabulary Spatio-Temporal Video Groun...
論文紹介:Video-GroundingDINO: Towards Open-Vocabulary Spatio-Temporal Video Groun...
Toru Tamaki
2024/04/26の勉強会で発表されたものです。
Amazon SES を勉強してみる その32024/04/26の勉強会で発表されたものです。
Amazon SES を勉強してみる その32024/04/26の勉強会で発表されたものです。
iPride Co., Ltd.
LoRaWANスマート距離検出センサー DS20Lカタログ
LoRaWANスマート距離検出センサー DS20L カタログ LiDARデバイス
LoRaWANスマート距離検出センサー DS20L カタログ LiDARデバイス
CRI Japan, Inc.
This is an introduction to MAPPO's paper.
論文紹介: The Surprising Effectiveness of PPO in Cooperative Multi-Agent Games
論文紹介: The Surprising Effectiveness of PPO in Cooperative Multi-Agent Games
atsushi061452
2024/04/26の勉強会で発表されたものです。
新人研修 後半 2024/04/26の勉強会で発表されたものです。
新人研修 後半 2024/04/26の勉強会で発表されたものです。
iPride Co., Ltd.
2024年5月8日 Power Platform 勉強会 #1 LT資料
知識ゼロの営業マンでもできた!超速で初心者を脱する、悪魔的学習ステップ3選.pptx
知識ゼロの営業マンでもできた!超速で初心者を脱する、悪魔的学習ステップ3選.pptx
sn679259
Jue Wang, Wentao Zhu, Pichao Wang, Xiang Yu, Linda Liu, Mohamed Omar, Raffay Hamid, " Selective Structured State-Spaces for Long-Form Video Understanding" CVPR2023 https://openaccess.thecvf.com/content/CVPR2023/html/Wang_Selective_Structured_State-Spaces_for_Long-Form_Video_Understanding_CVPR_2023_paper.html
論文紹介:Selective Structured State-Spaces for Long-Form Video Understanding
論文紹介:Selective Structured State-Spaces for Long-Form Video Understanding
Toru Tamaki
2024/04/26の勉強会で発表されたものです。
Amazon SES を勉強してみる その22024/04/26の勉強会で発表されたものです。
Amazon SES を勉強してみる その22024/04/26の勉強会で発表されたものです。
iPride Co., Ltd.
Key topics covered: - Understanding Ballerina's role in integrations: features and advantages - Designing and implementing REST APIs for integration - Designing and implementing GraphQL services with Ballerina - Monitoring and observing applications - Introduction to data integration
Utilizing Ballerina for Cloud Native Integrations
Utilizing Ballerina for Cloud Native Integrations
WSO2
Último
(10)
LoRaWAN スマート距離検出デバイスDS20L日本語マニュアル
LoRaWAN スマート距離検出デバイスDS20L日本語マニュアル
論文紹介:Video-GroundingDINO: Towards Open-Vocabulary Spatio-Temporal Video Groun...
論文紹介:Video-GroundingDINO: Towards Open-Vocabulary Spatio-Temporal Video Groun...
Amazon SES を勉強してみる その32024/04/26の勉強会で発表されたものです。
Amazon SES を勉強してみる その32024/04/26の勉強会で発表されたものです。
LoRaWANスマート距離検出センサー DS20L カタログ LiDARデバイス
LoRaWANスマート距離検出センサー DS20L カタログ LiDARデバイス
論文紹介: The Surprising Effectiveness of PPO in Cooperative Multi-Agent Games
論文紹介: The Surprising Effectiveness of PPO in Cooperative Multi-Agent Games
新人研修 後半 2024/04/26の勉強会で発表されたものです。
新人研修 後半 2024/04/26の勉強会で発表されたものです。
知識ゼロの営業マンでもできた!超速で初心者を脱する、悪魔的学習ステップ3選.pptx
知識ゼロの営業マンでもできた!超速で初心者を脱する、悪魔的学習ステップ3選.pptx
論文紹介:Selective Structured State-Spaces for Long-Form Video Understanding
論文紹介:Selective Structured State-Spaces for Long-Form Video Understanding
Amazon SES を勉強してみる その22024/04/26の勉強会で発表されたものです。
Amazon SES を勉強してみる その22024/04/26の勉強会で発表されたものです。
Utilizing Ballerina for Cloud Native Integrations
Utilizing Ballerina for Cloud Native Integrations
ゼロから作るDeepLearning 3.3~3.6章 輪読
1.
ゼロから作る Deep Learning §3.3 ~
§3.6 今井研究室 永吉秋平
2.
多次元配列 ・数字の集合 ・数字をN次元に並べる ・PythonではNumpyを用いる 5 7 1 3 5
7
3.
行列 ・Numpyの二次元配列は行列に対応する 行 列
4.
行列の積 ・行列の積の計算方法 1 × 5
+ 2 × 7 = 19 3 × 5 + 4 × 7 = 43
5.
行列の積における要素数の一致 3 × 2
2 × 2 3 × 2 ・隣接する要素の数は同じ
6.
ニューラルネットワークと行列の積 1 2 3 4 5 X × W
= Y 2 2 × 3 3 𝑥1 𝑥2 𝑦1 𝑦2 𝑦3
7.
バイアス 1 b1 b2 b3 左図のようにバイアスも ニューロンとすることで, まとめて表す
8.
活性化関数 ・重み付き和に 活性化関数を適用 したものを出力とする ・シグモイド関数や ステップ関数など h() h() h() h() h()
9.
出力層の活性化関数
10.
ソフトマックス関数 ・実装上の注意 ・オーバーフロー対策 ※exp(x)は𝑒 𝑥 を表す
11.
ソフトマックス関数の特徴 ・ソフトマックス関数の出力は0 ~ 1.0 ・出力の総和は1 ・出力を確率とみなせる ・分類問題に用いる
12.
出力層のニューロンの数 ・クラス分類では,出力層のニューロンの数はクラス数 ・例:0~9のどれなのか知りたい→10クラス 何らかの 計算 0 9 5 …… 10個
13.
MNISTデータセット ・手書き文字セットを用いる ・28×28ピクセル ・形式は1×28×28の3次元 または784の1次元
14.
ニューラルネットワークの推論処理 ・入力はMNIST で28×28=784 ・中間層は50, 100個のニューロ ンの2つ ・出力は10 (0~9の数字に 分類する) ・ ・ ・ ・ ・ ・ ・ ・ ・ ・ ・ ・ ・ ・ ・ ・ ・ 入力層 中間層1 中間層2
出力層
15.
ニューラルネットワークの推論処理 ・入力はMNISTで28×28=784 ・中間層は50,100個のニューロンの2つ ・ここでは3層なので重みは3つ ・出力は10(0~9の数字に分類する) X × W1
× W2 × W3 = Y 784 784×50 50×100 100×10 10
16.
バッチ処理 ・複数のデータをまとめて処理 ・例:100件のデータをまとめて処理 X × W1
× W2 × W3 = Y 100×784 784×50 50×100 100×10 100×10
17.
まとめ ・多次元配列や行列を用いると,効率的に実装ができる ・出力層の活性関数 ・回帰問題→恒等関数 ・分類問題→ソフトマックス関数 ・分類問題の出力層のニューロンはクラスの数 ・バッチ単位で処理を行うと計算が高速
Baixar agora