SlideShare uma empresa Scribd logo
1 de 12
Baixar para ler offline
Rate-Distortion Function for Gamma
Sources under Absolute-Log Distortion

渡辺一帆(奈良先端大)
池田思朗(統計数理研)
概要
レート歪み理論
情報源

U

圧縮

V

再構成

(レート歪み関数)>(シャノンの下界)のとき
[Tan & Yao, 1975] [Yao & Tan, 1978]:絶対損失
[Fix, 1978] [Rose, 1994]:二乗損失

レート歪み関数の導出
情報源: ガンマ分布
歪み尺度: 対数絶対損失

R(D)

D
レート歪み関数
レート歪み関数(定義)

R(D) =

inf

q(v|u):E[d (U ,V )]≤D

I (q)

p (u )

:情報源

d (u, v) :歪み尺度

I (q) = I (U ;V ) = E p(u ) [KL(q(v | u) || q(v))] :相互情報量
q(v) = ∫ q(v | u) p(u)du

:(周辺)再構成分布

操作的意味

( fn , gn ) :符号器-復号器の対

[

]

lim E d (U n ,V n ) ≤ D
n →∞

V n = gn ( fn (U n ))

R(D) は達成可能なレートRの下限。

nR bits

{1, 2, ..., 2nR}
R(D)の性質
R(D)
単調非増加
凸
傾きパラメータ

s≤0

傾き

s

R(Ds ) = inf {I (q) − sE[d(U,V )]}+ sDs
q(v|u)

{

D

}

= inf − E p(u ) log ∫ exp(sd (u, v))q(v)dv + sDs
q(v)

KKT条件

c(v) =1 (v ∈Vs )

c(v) ≤1 (v ∉Vs )

Vs = {v; q (v) > 0}:再構成分布の台
p (u ) exp( sd (u , v ))
c (v ) ≡ ∫
~ ) exp( sd (u , v ))dv du
~ ~
q (v
∫
シャノンの下界 (SLB)
差分歪み尺度 d ( u , v ) = ρ ( u − v )

g s ( w ) ∝ e s ρ ( w ) ( g s * q )(u ) = ∫ g s (u − v ) q (v ) dv
R( D) = supinf KL( p || g s ∗ q) + h( p) + sD − log ∫ e sρ ( w) dw



s ≤0  q ( v )

{

≥ sup h ( p ) + sD − log ∫ e
s≤0

= h( p) − h( gsL )
≡ RL (D)

sρ ( w )

∫ ρ (u ) g

dw
sL

}

微分エントロピー

(u )du = D

:SLB

R( D) = RL ( D)

p = gs * q
p

が

g s の混合で表現可能
ガウス情報源,2乗損失
p (u ) = N (u | µ , σ 2 )
R( D) = RL ( D)

d (u , v ) = (u − v ) 2
|s|

p(u) = ∫
D = ∫u

π
2

|s|

π

{

}

exp s(u − v)2 q(v)dv
e

su 2

du =

1
2|s|

q(v) = N(v | µ,σ 2 − D)

1 σ2
R(D) = log
(0 ≤ D ≤σ 2 )
2 D

[Cover & Thomas, Elements of Information Theory]
ガウス情報源,絶対損失
p (u ) = N (u | µ , σ 2 )
V s = [µ − a s , µ + a s ] と仮定

c(v) =1 (v ∈Vs )

d (u , v ) =| u − v |
R( D) > RL ( D)

(q(v)について解く)

1
erfc ( a s / σ ) erfc ( a s / σ )
=
=
|s|
p ( µ − as )
p(µ + as )

1
(v − µ ) 2 
q s (v ) = 1 + 2 2 − 2 4  p (v )
sσ 
 sσ

+

[Tan & Yao, 1975]

1/ | s |

as

µ
連続成分

1
a 
| s | − s2  p(v − as ){δ (v − µ + as ) + δ (v − µ − as )}
2 
s 
σ 
離散成分

c(v) ≤1 (v ∉Vs )

R(D) (sによるパラメータ表示)
ガンマ情報源,対数絶対損失
ガンマ分布

xα −1e − x / θ
Gam ( x | α , θ ) =
Γ (α )θ α
キューでの待ち時間
スパイク時間間隔
パワースペクトル

対数絶対損失

d ( x, y) =| log x − log y |
スケール不変

θ =1
ガンマ情報源, 対数絶対損失
ガンマ分布

x α −1e − x / θ
Gam ( x | α , θ ) =
Γ (α )θ α
キューでの待ち時間
スパイク時間間隔
パワースペクトル

対数絶対損失

d ( x, y) =| log x − log y |

R( D) > RL ( D)
R(D) = RL (D)

u = logx

(

1
p(u) =
exp uα − eu
Γ(α )

v = log y
d (u, v) =| u − v |
q(v) = p(v) − D2 p′′(v) ≥ 0

for all

v

)
最適再構成分布
y * :メディアン v * = log y *

[

Vs = v* − as , v* + bs
c(v) =1 (v ∈Vs )

]

[t s , t s ]
exp

q(v)について解く

1
γ (α , t ) Γ (α , t )
= α −ts = α −ts
| s | ts e s
ts e s

1/ | s |
1/α
0

t s y * ts

q s (v )
(α = 1)

| s |= log 2 ≅ 0.69

c(v) ≤1 (v ∉Vs )

| s |= 0.8

| s |= 2.0
R(D)のパラメータ表示
qs (v | u ) ∝ exp( sd (u , v))qs (v)

(

1
1
α
Ds =
−
t α e −t − t e −t
| s | | s | Γ(α )
+

)

{

1
α
(log t )t α e −t − (log t )t e −t
| s | Γ(α )

}

+ Ψ (α ) − Ψ (α , t ) − Ψ (α , t )

(

)

|s|
1 α −t α −t
+ α −1 +
t e −t e
2
Γ(α )
α −t
t e
{α (log t ) − t + α − 1}
−
| s | Γ(α )
t α e −t
{α (log t ) − t + α − 1}
−
| s | Γ (α )
+ α {Ψ (α , t ) − Ψ (α , t ) } + log Γ (α )

R( Ds ) = log

α =1

(指数分布)

SLBはR(D)をよく近似する.
結論
対数絶対歪み尺度に対するガンマ情報源のレート歪
み関数を導出。
最適再構成分布は
1) メディアン上の一点分布
2)(連続成分)+(両端の離散成分)
3)(連続成分)+(右端のみの離散成分)
と遷移することを示した。

Mais conteúdo relacionado

Mais procurados

深層学習の数理
深層学習の数理深層学習の数理
深層学習の数理Taiji Suzuki
 
[DL輪読会]Flow-based Deep Generative Models
[DL輪読会]Flow-based Deep Generative Models[DL輪読会]Flow-based Deep Generative Models
[DL輪読会]Flow-based Deep Generative ModelsDeep Learning JP
 
Disentanglement Survey:Can You Explain How Much Are Generative models Disenta...
Disentanglement Survey:Can You Explain How Much Are Generative models Disenta...Disentanglement Survey:Can You Explain How Much Are Generative models Disenta...
Disentanglement Survey:Can You Explain How Much Are Generative models Disenta...Hideki Tsunashima
 
[DL輪読会]Learning Transferable Visual Models From Natural Language Supervision
[DL輪読会]Learning Transferable Visual Models From Natural Language Supervision[DL輪読会]Learning Transferable Visual Models From Natural Language Supervision
[DL輪読会]Learning Transferable Visual Models From Natural Language SupervisionDeep Learning JP
 
[DL輪読会]相互情報量最大化による表現学習
[DL輪読会]相互情報量最大化による表現学習[DL輪読会]相互情報量最大化による表現学習
[DL輪読会]相互情報量最大化による表現学習Deep Learning JP
 
【DL輪読会】High-Resolution Image Synthesis with Latent Diffusion Models
【DL輪読会】High-Resolution Image Synthesis with Latent Diffusion Models【DL輪読会】High-Resolution Image Synthesis with Latent Diffusion Models
【DL輪読会】High-Resolution Image Synthesis with Latent Diffusion ModelsDeep Learning JP
 
変分推論法(変分ベイズ法)(PRML第10章)
変分推論法(変分ベイズ法)(PRML第10章)変分推論法(変分ベイズ法)(PRML第10章)
変分推論法(変分ベイズ法)(PRML第10章)Takao Yamanaka
 
深層強化学習の分散化・RNN利用の動向〜R2D2の紹介をもとに〜
深層強化学習の分散化・RNN利用の動向〜R2D2の紹介をもとに〜深層強化学習の分散化・RNN利用の動向〜R2D2の紹介をもとに〜
深層強化学習の分散化・RNN利用の動向〜R2D2の紹介をもとに〜Jun Okumura
 
時系列予測にTransformerを使うのは有効か?
時系列予測にTransformerを使うのは有効か?時系列予測にTransformerを使うのは有効か?
時系列予測にTransformerを使うのは有効か?Fumihiko Takahashi
 
【DL輪読会】マルチモーダル 基盤モデル
【DL輪読会】マルチモーダル 基盤モデル【DL輪読会】マルチモーダル 基盤モデル
【DL輪読会】マルチモーダル 基盤モデルDeep Learning JP
 
Triplet Loss 徹底解説
Triplet Loss 徹底解説Triplet Loss 徹底解説
Triplet Loss 徹底解説tancoro
 
Optimizer入門&最新動向
Optimizer入門&最新動向Optimizer入門&最新動向
Optimizer入門&最新動向Motokawa Tetsuya
 
GAN(と強化学習との関係)
GAN(と強化学習との関係)GAN(と強化学習との関係)
GAN(と強化学習との関係)Masahiro Suzuki
 
[DL輪読会]Set Transformer: A Framework for Attention-based Permutation-Invariant...
[DL輪読会]Set Transformer: A Framework for Attention-based Permutation-Invariant...[DL輪読会]Set Transformer: A Framework for Attention-based Permutation-Invariant...
[DL輪読会]Set Transformer: A Framework for Attention-based Permutation-Invariant...Deep Learning JP
 
モデル高速化百選
モデル高速化百選モデル高速化百選
モデル高速化百選Yusuke Uchida
 
【DL輪読会】ViT + Self Supervised Learningまとめ
【DL輪読会】ViT + Self Supervised Learningまとめ【DL輪読会】ViT + Self Supervised Learningまとめ
【DL輪読会】ViT + Self Supervised LearningまとめDeep Learning JP
 
【DL輪読会】A Time Series is Worth 64 Words: Long-term Forecasting with Transformers
【DL輪読会】A Time Series is Worth 64 Words: Long-term Forecasting with Transformers【DL輪読会】A Time Series is Worth 64 Words: Long-term Forecasting with Transformers
【DL輪読会】A Time Series is Worth 64 Words: Long-term Forecasting with TransformersDeep Learning JP
 
第10回 配信講義 計算科学技術特論A(2021)
第10回 配信講義 計算科学技術特論A(2021)第10回 配信講義 計算科学技術特論A(2021)
第10回 配信講義 計算科学技術特論A(2021)RCCSRENKEI
 

Mais procurados (20)

深層学習の数理
深層学習の数理深層学習の数理
深層学習の数理
 
[DL輪読会]Flow-based Deep Generative Models
[DL輪読会]Flow-based Deep Generative Models[DL輪読会]Flow-based Deep Generative Models
[DL輪読会]Flow-based Deep Generative Models
 
Disentanglement Survey:Can You Explain How Much Are Generative models Disenta...
Disentanglement Survey:Can You Explain How Much Are Generative models Disenta...Disentanglement Survey:Can You Explain How Much Are Generative models Disenta...
Disentanglement Survey:Can You Explain How Much Are Generative models Disenta...
 
[DL輪読会]Learning Transferable Visual Models From Natural Language Supervision
[DL輪読会]Learning Transferable Visual Models From Natural Language Supervision[DL輪読会]Learning Transferable Visual Models From Natural Language Supervision
[DL輪読会]Learning Transferable Visual Models From Natural Language Supervision
 
[DL輪読会]相互情報量最大化による表現学習
[DL輪読会]相互情報量最大化による表現学習[DL輪読会]相互情報量最大化による表現学習
[DL輪読会]相互情報量最大化による表現学習
 
【DL輪読会】High-Resolution Image Synthesis with Latent Diffusion Models
【DL輪読会】High-Resolution Image Synthesis with Latent Diffusion Models【DL輪読会】High-Resolution Image Synthesis with Latent Diffusion Models
【DL輪読会】High-Resolution Image Synthesis with Latent Diffusion Models
 
変分推論法(変分ベイズ法)(PRML第10章)
変分推論法(変分ベイズ法)(PRML第10章)変分推論法(変分ベイズ法)(PRML第10章)
変分推論法(変分ベイズ法)(PRML第10章)
 
深層強化学習の分散化・RNN利用の動向〜R2D2の紹介をもとに〜
深層強化学習の分散化・RNN利用の動向〜R2D2の紹介をもとに〜深層強化学習の分散化・RNN利用の動向〜R2D2の紹介をもとに〜
深層強化学習の分散化・RNN利用の動向〜R2D2の紹介をもとに〜
 
時系列予測にTransformerを使うのは有効か?
時系列予測にTransformerを使うのは有効か?時系列予測にTransformerを使うのは有効か?
時系列予測にTransformerを使うのは有効か?
 
coordinate descent 法について
coordinate descent 法についてcoordinate descent 法について
coordinate descent 法について
 
【DL輪読会】マルチモーダル 基盤モデル
【DL輪読会】マルチモーダル 基盤モデル【DL輪読会】マルチモーダル 基盤モデル
【DL輪読会】マルチモーダル 基盤モデル
 
Triplet Loss 徹底解説
Triplet Loss 徹底解説Triplet Loss 徹底解説
Triplet Loss 徹底解説
 
Optimizer入門&最新動向
Optimizer入門&最新動向Optimizer入門&最新動向
Optimizer入門&最新動向
 
GAN(と強化学習との関係)
GAN(と強化学習との関係)GAN(と強化学習との関係)
GAN(と強化学習との関係)
 
[DL輪読会]Set Transformer: A Framework for Attention-based Permutation-Invariant...
[DL輪読会]Set Transformer: A Framework for Attention-based Permutation-Invariant...[DL輪読会]Set Transformer: A Framework for Attention-based Permutation-Invariant...
[DL輪読会]Set Transformer: A Framework for Attention-based Permutation-Invariant...
 
モデル高速化百選
モデル高速化百選モデル高速化百選
モデル高速化百選
 
【DL輪読会】ViT + Self Supervised Learningまとめ
【DL輪読会】ViT + Self Supervised Learningまとめ【DL輪読会】ViT + Self Supervised Learningまとめ
【DL輪読会】ViT + Self Supervised Learningまとめ
 
【DL輪読会】A Time Series is Worth 64 Words: Long-term Forecasting with Transformers
【DL輪読会】A Time Series is Worth 64 Words: Long-term Forecasting with Transformers【DL輪読会】A Time Series is Worth 64 Words: Long-term Forecasting with Transformers
【DL輪読会】A Time Series is Worth 64 Words: Long-term Forecasting with Transformers
 
第10回 配信講義 計算科学技術特論A(2021)
第10回 配信講義 計算科学技術特論A(2021)第10回 配信講義 計算科学技術特論A(2021)
第10回 配信講義 計算科学技術特論A(2021)
 
実装レベルで学ぶVQVAE
実装レベルで学ぶVQVAE実装レベルで学ぶVQVAE
実装レベルで学ぶVQVAE
 

Destaque

20141210 CRESCENT Hour
20141210 CRESCENT Hour20141210 CRESCENT Hour
20141210 CRESCENT HourMasahiko Inoue
 
道路交通網上でパケット配信を実現する交通量を考慮した距離ベクトルルーティング
道路交通網上でパケット配信を実現する交通量を考慮した距離ベクトルルーティング道路交通網上でパケット配信を実現する交通量を考慮した距離ベクトルルーティング
道路交通網上でパケット配信を実現する交通量を考慮した距離ベクトルルーティング奈良先端大 情報科学研究科
 
20110115高専カンファカンファ
20110115高専カンファカンファ20110115高専カンファカンファ
20110115高専カンファカンファu1days
 
判別分析を用いた4年ストレート卒業の決定要因に関する探索的研究
判別分析を用いた4年ストレート卒業の決定要因に関する探索的研究判別分析を用いた4年ストレート卒業の決定要因に関する探索的研究
判別分析を用いた4年ストレート卒業の決定要因に関する探索的研究Shinnji Matsumiya
 
インフラエンジニアのためのプレゼン技術
インフラエンジニアのためのプレゼン技術インフラエンジニアのためのプレゼン技術
インフラエンジニアのためのプレゼン技術koedoyoshida
 
スキマトークご利用ガイド
スキマトークご利用ガイドスキマトークご利用ガイド
スキマトークご利用ガイドSkimaTalk
 
スライドショーのプレゼン
スライドショーのプレゼンスライドショーのプレゼン
スライドショーのプレゼンggk-documents
 
今期の好きなアニメ「アイドルマスターシンデレラガールズ」 #infrapre
今期の好きなアニメ「アイドルマスターシンデレラガールズ」 #infrapre今期の好きなアニメ「アイドルマスターシンデレラガールズ」 #infrapre
今期の好きなアニメ「アイドルマスターシンデレラガールズ」 #infrapreMasahiro NAKAYAMA
 
数字に強くなるために頭に入れたい数字リスト
数字に強くなるために頭に入れたい数字リスト数字に強くなるために頭に入れたい数字リスト
数字に強くなるために頭に入れたい数字リストbijikin
 
卒業課題研究テーマ
卒業課題研究テーマ卒業課題研究テーマ
卒業課題研究テーマ玲 髙橋
 
Filter・Mutator・Aggregateの使いドコロ
Filter・Mutator・Aggregateの使いドコロFilter・Mutator・Aggregateの使いドコロ
Filter・Mutator・Aggregateの使いドコロAkihiko Horiuchi
 
2012.12.08 「Webデザインハンズオンセミナー」前半座学編スライド
2012.12.08 「Webデザインハンズオンセミナー」前半座学編スライド2012.12.08 「Webデザインハンズオンセミナー」前半座学編スライド
2012.12.08 「Webデザインハンズオンセミナー」前半座学編スライドIbu Okamoto
 
111127.lsj143.田川 japanese conjugation and dm
111127.lsj143.田川 japanese conjugation and dm111127.lsj143.田川 japanese conjugation and dm
111127.lsj143.田川 japanese conjugation and dmTakumi Tagawa
 
ポスト・フラットデザイン 〜フラットデザイン2.0とCSSフレームワーク〜
ポスト・フラットデザイン 〜フラットデザイン2.0とCSSフレームワーク〜ポスト・フラットデザイン 〜フラットデザイン2.0とCSSフレームワーク〜
ポスト・フラットデザイン 〜フラットデザイン2.0とCSSフレームワーク〜Akihiko Horiuchi
 

Destaque (20)

Sensu Introduction
Sensu IntroductionSensu Introduction
Sensu Introduction
 
20141210 CRESCENT Hour
20141210 CRESCENT Hour20141210 CRESCENT Hour
20141210 CRESCENT Hour
 
Syukusya2012
Syukusya2012Syukusya2012
Syukusya2012
 
道路交通網上でパケット配信を実現する交通量を考慮した距離ベクトルルーティング
道路交通網上でパケット配信を実現する交通量を考慮した距離ベクトルルーティング道路交通網上でパケット配信を実現する交通量を考慮した距離ベクトルルーティング
道路交通網上でパケット配信を実現する交通量を考慮した距離ベクトルルーティング
 
yamashita b
yamashita byamashita b
yamashita b
 
20110115高専カンファカンファ
20110115高専カンファカンファ20110115高専カンファカンファ
20110115高専カンファカンファ
 
判別分析を用いた4年ストレート卒業の決定要因に関する探索的研究
判別分析を用いた4年ストレート卒業の決定要因に関する探索的研究判別分析を用いた4年ストレート卒業の決定要因に関する探索的研究
判別分析を用いた4年ストレート卒業の決定要因に関する探索的研究
 
00授業概要
00授業概要00授業概要
00授業概要
 
インフラエンジニアのためのプレゼン技術
インフラエンジニアのためのプレゼン技術インフラエンジニアのためのプレゼン技術
インフラエンジニアのためのプレゼン技術
 
スキマトークご利用ガイド
スキマトークご利用ガイドスキマトークご利用ガイド
スキマトークご利用ガイド
 
スライドショーのプレゼン
スライドショーのプレゼンスライドショーのプレゼン
スライドショーのプレゼン
 
今期の好きなアニメ「アイドルマスターシンデレラガールズ」 #infrapre
今期の好きなアニメ「アイドルマスターシンデレラガールズ」 #infrapre今期の好きなアニメ「アイドルマスターシンデレラガールズ」 #infrapre
今期の好きなアニメ「アイドルマスターシンデレラガールズ」 #infrapre
 
数字に強くなるために頭に入れたい数字リスト
数字に強くなるために頭に入れたい数字リスト数字に強くなるために頭に入れたい数字リスト
数字に強くなるために頭に入れたい数字リスト
 
卒業論文プレゼン
卒業論文プレゼン卒業論文プレゼン
卒業論文プレゼン
 
卒業課題研究テーマ
卒業課題研究テーマ卒業課題研究テーマ
卒業課題研究テーマ
 
Filter・Mutator・Aggregateの使いドコロ
Filter・Mutator・Aggregateの使いドコロFilter・Mutator・Aggregateの使いドコロ
Filter・Mutator・Aggregateの使いドコロ
 
生物に学ぶ人工知能とロボット制御
生物に学ぶ人工知能とロボット制御生物に学ぶ人工知能とロボット制御
生物に学ぶ人工知能とロボット制御
 
2012.12.08 「Webデザインハンズオンセミナー」前半座学編スライド
2012.12.08 「Webデザインハンズオンセミナー」前半座学編スライド2012.12.08 「Webデザインハンズオンセミナー」前半座学編スライド
2012.12.08 「Webデザインハンズオンセミナー」前半座学編スライド
 
111127.lsj143.田川 japanese conjugation and dm
111127.lsj143.田川 japanese conjugation and dm111127.lsj143.田川 japanese conjugation and dm
111127.lsj143.田川 japanese conjugation and dm
 
ポスト・フラットデザイン 〜フラットデザイン2.0とCSSフレームワーク〜
ポスト・フラットデザイン 〜フラットデザイン2.0とCSSフレームワーク〜ポスト・フラットデザイン 〜フラットデザイン2.0とCSSフレームワーク〜
ポスト・フラットデザイン 〜フラットデザイン2.0とCSSフレームワーク〜
 

Semelhante a Rate-Distortion Function for Gamma Sources under Absolute-Log Distortion

Similarity functions in Lucene 4.0
Similarity functions in Lucene 4.0Similarity functions in Lucene 4.0
Similarity functions in Lucene 4.0Koji Sekiguchi
 
PRML ベイズロジスティック回帰
PRML ベイズロジスティック回帰PRML ベイズロジスティック回帰
PRML ベイズロジスティック回帰hagino 3000
 
公開鍵暗号7: 楕円曲線の数理
公開鍵暗号7: 楕円曲線の数理公開鍵暗号7: 楕円曲線の数理
公開鍵暗号7: 楕円曲線の数理Joe Suzuki
 
第8章 ガウス過程回帰による異常検知
第8章 ガウス過程回帰による異常検知第8章 ガウス過程回帰による異常検知
第8章 ガウス過程回帰による異常検知Chika Inoshita
 
プログラミング言語 Julia の紹介
プログラミング言語 Julia の紹介プログラミング言語 Julia の紹介
プログラミング言語 Julia の紹介Kentaro Iizuka
 
[DLHacks]PyTorch, PixyzによるGenerative Query Networkの実装
[DLHacks]PyTorch, PixyzによるGenerative Query Networkの実装 [DLHacks]PyTorch, PixyzによるGenerative Query Networkの実装
[DLHacks]PyTorch, PixyzによるGenerative Query Networkの実装 Deep Learning JP
 
線形識別モデル
線形識別モデル線形識別モデル
線形識別モデル貴之 八木
 
JOIss2020 発表資料
JOIss2020 発表資料JOIss2020 発表資料
JOIss2020 発表資料mdkcpp 1015
 
Nonparametric Factor Analysis with Beta Process Priors の式解説
Nonparametric Factor Analysis with Beta Process Priors の式解説Nonparametric Factor Analysis with Beta Process Priors の式解説
Nonparametric Factor Analysis with Beta Process Priors の式解説Tomonari Masada
 
20170327_レムニスケートにまつわる色々な計算
20170327_レムニスケートにまつわる色々な計算20170327_レムニスケートにまつわる色々な計算
20170327_レムニスケートにまつわる色々な計算matsumoring
 
kibayos beaker-070829
kibayos beaker-070829kibayos beaker-070829
kibayos beaker-070829Mikio Yoshida
 
パターン認識第9章 学習ベクトル量子化
パターン認識第9章 学習ベクトル量子化パターン認識第9章 学習ベクトル量子化
パターン認識第9章 学習ベクトル量子化Miyoshi Yuya
 
Granger因果による 時系列データの因果推定(因果フェス2015)
Granger因果による時系列データの因果推定(因果フェス2015)Granger因果による時系列データの因果推定(因果フェス2015)
Granger因果による 時系列データの因果推定(因果フェス2015)Takashi J OZAKI
 

Semelhante a Rate-Distortion Function for Gamma Sources under Absolute-Log Distortion (20)

Similarity functions in Lucene 4.0
Similarity functions in Lucene 4.0Similarity functions in Lucene 4.0
Similarity functions in Lucene 4.0
 
PRML ベイズロジスティック回帰
PRML ベイズロジスティック回帰PRML ベイズロジスティック回帰
PRML ベイズロジスティック回帰
 
公開鍵暗号7: 楕円曲線の数理
公開鍵暗号7: 楕円曲線の数理公開鍵暗号7: 楕円曲線の数理
公開鍵暗号7: 楕円曲線の数理
 
第8章 ガウス過程回帰による異常検知
第8章 ガウス過程回帰による異常検知第8章 ガウス過程回帰による異常検知
第8章 ガウス過程回帰による異常検知
 
プログラミング言語 Julia の紹介
プログラミング言語 Julia の紹介プログラミング言語 Julia の紹介
プログラミング言語 Julia の紹介
 
[DLHacks]PyTorch, PixyzによるGenerative Query Networkの実装
[DLHacks]PyTorch, PixyzによるGenerative Query Networkの実装 [DLHacks]PyTorch, PixyzによるGenerative Query Networkの実装
[DLHacks]PyTorch, PixyzによるGenerative Query Networkの実装
 
ndwave4.pdf
ndwave4.pdfndwave4.pdf
ndwave4.pdf
 
ndwave9.pdf
ndwave9.pdfndwave9.pdf
ndwave9.pdf
 
線形識別モデル
線形識別モデル線形識別モデル
線形識別モデル
 
JOIss2020 発表資料
JOIss2020 発表資料JOIss2020 発表資料
JOIss2020 発表資料
 
ndwave10.pdf
ndwave10.pdfndwave10.pdf
ndwave10.pdf
 
linhyp.pdf
linhyp.pdflinhyp.pdf
linhyp.pdf
 
ndwave8.pdf
ndwave8.pdfndwave8.pdf
ndwave8.pdf
 
Nonparametric Factor Analysis with Beta Process Priors の式解説
Nonparametric Factor Analysis with Beta Process Priors の式解説Nonparametric Factor Analysis with Beta Process Priors の式解説
Nonparametric Factor Analysis with Beta Process Priors の式解説
 
20170327_レムニスケートにまつわる色々な計算
20170327_レムニスケートにまつわる色々な計算20170327_レムニスケートにまつわる色々な計算
20170327_レムニスケートにまつわる色々な計算
 
C07
C07C07
C07
 
kibayos beaker-070829
kibayos beaker-070829kibayos beaker-070829
kibayos beaker-070829
 
パターン認識第9章 学習ベクトル量子化
パターン認識第9章 学習ベクトル量子化パターン認識第9章 学習ベクトル量子化
パターン認識第9章 学習ベクトル量子化
 
PRML 10.4 - 10.6
PRML 10.4 - 10.6PRML 10.4 - 10.6
PRML 10.4 - 10.6
 
Granger因果による 時系列データの因果推定(因果フェス2015)
Granger因果による時系列データの因果推定(因果フェス2015)Granger因果による時系列データの因果推定(因果フェス2015)
Granger因果による 時系列データの因果推定(因果フェス2015)
 

Mais de 奈良先端大 情報科学研究科

マイコンと機械学習を使って行動認識システムを作ろう
マイコンと機械学習を使って行動認識システムを作ろうマイコンと機械学習を使って行動認識システムを作ろう
マイコンと機械学習を使って行動認識システムを作ろう奈良先端大 情報科学研究科
 
20. 地理ビッグデータ利活用: リスク予測型自動避難誘導,地理的リスク分析
20. 地理ビッグデータ利活用: リスク予測型自動避難誘導,地理的リスク分析20. 地理ビッグデータ利活用: リスク予測型自動避難誘導,地理的リスク分析
20. 地理ビッグデータ利活用: リスク予測型自動避難誘導,地理的リスク分析奈良先端大 情報科学研究科
 
11.実装の脆弱性を利用して強力な暗号を解読してみよう!
11.実装の脆弱性を利用して強力な暗号を解読してみよう!11.実装の脆弱性を利用して強力な暗号を解読してみよう!
11.実装の脆弱性を利用して強力な暗号を解読してみよう!奈良先端大 情報科学研究科
 
16. マイコンと機械学習を使って行動認識システムを作ろう
16. マイコンと機械学習を使って行動認識システムを作ろう16. マイコンと機械学習を使って行動認識システムを作ろう
16. マイコンと機械学習を使って行動認識システムを作ろう奈良先端大 情報科学研究科
 
14. ビデオシースルーHMDで視覚拡張の世界を体感しよう
14. ビデオシースルーHMDで視覚拡張の世界を体感しよう14. ビデオシースルーHMDで視覚拡張の世界を体感しよう
14. ビデオシースルーHMDで視覚拡張の世界を体感しよう奈良先端大 情報科学研究科
 
18. 計測に基づいた写実的なコンピュータグラフィクスの生成法
18. 計測に基づいた写実的なコンピュータグラフィクスの生成法18. 計測に基づいた写実的なコンピュータグラフィクスの生成法
18. 計測に基づいた写実的なコンピュータグラフィクスの生成法奈良先端大 情報科学研究科
 
21. 人の動作・行動センシングに基づく拡張現実感システムの開発
21. 人の動作・行動センシングに基づく拡張現実感システムの開発21. 人の動作・行動センシングに基づく拡張現実感システムの開発
21. 人の動作・行動センシングに基づく拡張現実感システムの開発奈良先端大 情報科学研究科
 
20. 友好的関係を構築する人と対話ロボットのコミュニケーション技術開発
20. 友好的関係を構築する人と対話ロボットのコミュニケーション技術開発20. 友好的関係を構築する人と対話ロボットのコミュニケーション技術開発
20. 友好的関係を構築する人と対話ロボットのコミュニケーション技術開発奈良先端大 情報科学研究科
 
9. マイコンと機械学習を使って行動認識システムを作ろう
9. マイコンと機械学習を使って行動認識システムを作ろう9. マイコンと機械学習を使って行動認識システムを作ろう
9. マイコンと機械学習を使って行動認識システムを作ろう奈良先端大 情報科学研究科
 
14. モバイルエージェントによる並列分散学習システムの構築
14. モバイルエージェントによる並列分散学習システムの構築14. モバイルエージェントによる並列分散学習システムの構築
14. モバイルエージェントによる並列分散学習システムの構築奈良先端大 情報科学研究科
 

Mais de 奈良先端大 情報科学研究科 (20)

テレコミュニケーションを支援してみよう
テレコミュニケーションを支援してみようテレコミュニケーションを支援してみよう
テレコミュニケーションを支援してみよう
 
マイコンと機械学習を使って行動認識システムを作ろう
マイコンと機械学習を使って行動認識システムを作ろうマイコンと機械学習を使って行動認識システムを作ろう
マイコンと機械学習を使って行動認識システムを作ろう
 
5G時代を支えるNFVによるネットワーク最適設計
5G時代を支えるNFVによるネットワーク最適設計5G時代を支えるNFVによるネットワーク最適設計
5G時代を支えるNFVによるネットワーク最適設計
 
21.Raspberry Piを用いたIoTアプリの開発
21.Raspberry Piを用いたIoTアプリの開発21.Raspberry Piを用いたIoTアプリの開発
21.Raspberry Piを用いたIoTアプリの開発
 
20. 地理ビッグデータ利活用: リスク予測型自動避難誘導,地理的リスク分析
20. 地理ビッグデータ利活用: リスク予測型自動避難誘導,地理的リスク分析20. 地理ビッグデータ利活用: リスク予測型自動避難誘導,地理的リスク分析
20. 地理ビッグデータ利活用: リスク予測型自動避難誘導,地理的リスク分析
 
11.実装の脆弱性を利用して強力な暗号を解読してみよう!
11.実装の脆弱性を利用して強力な暗号を解読してみよう!11.実装の脆弱性を利用して強力な暗号を解読してみよう!
11.実装の脆弱性を利用して強力な暗号を解読してみよう!
 
8. ミニ・スーパコンピュータを自作しよう!
8. ミニ・スーパコンピュータを自作しよう!8. ミニ・スーパコンピュータを自作しよう!
8. ミニ・スーパコンピュータを自作しよう!
 
16. マイコンと機械学習を使って行動認識システムを作ろう
16. マイコンと機械学習を使って行動認識システムを作ろう16. マイコンと機械学習を使って行動認識システムを作ろう
16. マイコンと機械学習を使って行動認識システムを作ろう
 
15. テレイグジスタンスシステムを制作してみよう
15. テレイグジスタンスシステムを制作してみよう15. テレイグジスタンスシステムを制作してみよう
15. テレイグジスタンスシステムを制作してみよう
 
14. ビデオシースルーHMDで視覚拡張の世界を体感しよう
14. ビデオシースルーHMDで視覚拡張の世界を体感しよう14. ビデオシースルーHMDで視覚拡張の世界を体感しよう
14. ビデオシースルーHMDで視覚拡張の世界を体感しよう
 
19. 生物に学ぶ人工知能とロボット制御
19. 生物に学ぶ人工知能とロボット制御19. 生物に学ぶ人工知能とロボット制御
19. 生物に学ぶ人工知能とロボット制御
 
13. SDRで学ぶ無線通信
13. SDRで学ぶ無線通信13. SDRで学ぶ無線通信
13. SDRで学ぶ無線通信
 
18. 計測に基づいた写実的なコンピュータグラフィクスの生成法
18. 計測に基づいた写実的なコンピュータグラフィクスの生成法18. 計測に基づいた写実的なコンピュータグラフィクスの生成法
18. 計測に基づいた写実的なコンピュータグラフィクスの生成法
 
21. 人の動作・行動センシングに基づく拡張現実感システムの開発
21. 人の動作・行動センシングに基づく拡張現実感システムの開発21. 人の動作・行動センシングに基づく拡張現実感システムの開発
21. 人の動作・行動センシングに基づく拡張現実感システムの開発
 
20. 友好的関係を構築する人と対話ロボットのコミュニケーション技術開発
20. 友好的関係を構築する人と対話ロボットのコミュニケーション技術開発20. 友好的関係を構築する人と対話ロボットのコミュニケーション技術開発
20. 友好的関係を構築する人と対話ロボットのコミュニケーション技術開発
 
9. マイコンと機械学習を使って行動認識システムを作ろう
9. マイコンと機械学習を使って行動認識システムを作ろう9. マイコンと機械学習を使って行動認識システムを作ろう
9. マイコンと機械学習を使って行動認識システムを作ろう
 
6. 生物に学ぶ人工知能とロボット制御
6. 生物に学ぶ人工知能とロボット制御6. 生物に学ぶ人工知能とロボット制御
6. 生物に学ぶ人工知能とロボット制御
 
14. モバイルエージェントによる並列分散学習システムの構築
14. モバイルエージェントによる並列分散学習システムの構築14. モバイルエージェントによる並列分散学習システムの構築
14. モバイルエージェントによる並列分散学習システムの構築
 
17. 100台の小型ロボットを協調させよう
17. 100台の小型ロボットを協調させよう17. 100台の小型ロボットを協調させよう
17. 100台の小型ロボットを協調させよう
 
5. ミニ・スーパコンピュータを自作しよう!
5. ミニ・スーパコンピュータを自作しよう!5. ミニ・スーパコンピュータを自作しよう!
5. ミニ・スーパコンピュータを自作しよう!
 

Rate-Distortion Function for Gamma Sources under Absolute-Log Distortion