SlideShare uma empresa Scribd logo
1 de 29
Baixar para ler offline
GoDec: Randomized Low-rank &
Sparse Matrix Decomposition in
Noisy Case
#41
Tianyi Zhou, Dacheng Tao     @niam
                         江原 遥



                                 1
この論文を読もうと思った動機

• 2009 乱択化SVD (Halko+)
  – Gaussian行列をかけて列を圧縮.SVDを高速近似.
  – ノルムをバウンドして近似の良さを証明
• 2010/9 REDSVD (Okanohara+)
  – 実用的には行と列の両方を圧縮してよい
• 2011/3 全部分文字列のクラスタリングとそ
  の応用 (岡野原, NLP2011)
  – REDSVDを全部分文字列のクラスタリングに応用


                               2
この論文を読もうと思った動機

• 2009 乱択化SVD (Halko+)
  – Gaussian行列をかけて列を圧縮.SVDを高速近似.
                        GoDec論文では
  – ノルムをバウンドして近似の良さを証明andomProjection
                        BilateralR
• 2010/9 REDSVD (Okanohara+)   と呼んでいる
  – 実用的には行と列の両方を圧縮してよい
• 2011/3 全部分文字列のクラスタリングとそ
  の応用 (岡野原, NLP2011)
  – REDSVDを全部分文字列のクラスタリングに応用


                                        3
Abstractには

The algorithm can be significantly accelerated by
bilateral random projections (BRP).
Theoretically, we analyze the influence of L, S and
G to the asymptotic/convergence speeds in order to
discover the robustness of GoDec.
                                Fast GoDec
と書いてあるので,いかにもBRPを適用した場合の証
明が書いてありそうに見えるが…   Nai:ve GoDec
どうやら証明されているのは近似なしのGoDeC


                                                 4
特異値分解
(Singular Value Decomposition)
X: m x nデータ行列
r:自然数 が与えられたとき
  minL ||X-L||F
  s.t. rank(L)=r
をみたすLは,
  X  U V Tの大きい方からr個の特異値(>0)を用いて
      r
  L   iui v iと表せる.
     i 1


   時間計算量 mnr (たぶん)
                                 5
SVDのイメージ
                r
           L   iui vi T
               i 1




X(元の行列)

          ≒



                             iで重み付けして
          一枚一枚がui vi T
                             r 個足し込む
1点だけ凄く違う外れ値に弱い
(上下左右に,にじむ)
実際,SVDはどんな感じににじむか
180x200行列 (rank180) rank10で低ランク近似




                                7
解決策:外れ値に弱いなら
外れ値を抜けばいいじゃない   r
                                                  外れ値の
      L   u v      i   i   i
                                  T
                                                  個数=
               i 1                               card(S)


X(元の行列)
                                                    S

          ≒                               +



                                      iで重み付けして
          一枚一枚がui v i T
                                      r個足し込む
Nai:ve GoDec
今までの話を数式で書くと解きたい問題は:



LとSを同時に最適化するのは難しい.
次の様にLとSを交互に計算できれば簡単.
                   Robust PCAの論文から
               は   取ってきた(汗

 こう解けばOK:

               は
  こう解けばOK:
                                     9
Nai:ve GoDec
今までの話を数式で書くと解きたい問題は:



LとSを同時に最適化するのは難しい.
次の様にLとSを交互に計算できれば簡単.
               は

 こう解けばOK:

               は
  こう解けばOK:
                       10
Nai:ve GoDec
今までの話を数式で書くと解きたい問題は:
               Dense(黒っぽい)Lと
               Sparse(白っぽい)Sを交互に
               扱う点が碁に似てるからGoDec

LとSを同時に最適化するのは難しい.
次の様にLとSを交互に計算できれば簡単.
            この論文の貢献:
                • Theorem 1:
               は
                この交互計算がlocal minimum
 こう解けばOK:       に収束する
                • Theorem 2, 3:
               はノイズがなければ線形収束する
                • Theorem 4:
  こう解けばOK:      ノイズがあってもノイズが酷く
                なければ線形収束する        11
Nai:ve GoDecの問題点
今までの話を数式で書くと解きたい問題は:
            遅い.毎iterationでsvdするとか
            やりたくない.高速化したい.
            →Fast GoDec

LとSを同時に最適化するのは難しい.
次の様にLとSを交互に計算できれば簡単.
             は

 こう解けばOK:

             は
 こう解けばOK:
                                12
Fast GoDec

BRP +
Power
Scheme
以後,
近似手法
を説明


 Stの計算は同じ

             13
元々やりたいこと:
BRP
こうやれば厳密に解けるが遅い

                                          …と書いてあるがr個ま
      計算量:                                でなのでmnr
A1 :列を圧縮するランダム行列
A2 :行を圧縮するランダム行列                   を用いて高速化
発表者が知る方法は3つ Y1  XA1 , Y2  X T A2
本論文

           Y1r  U  V , Y2 r  U 2  2 rV2 , L  Y1r  A2 Y1r  Y2 r
                                                                †
(Fazel+,           1 1r 1
                         T                 T              T


2008)
           Y1  Q1 R1 , Y2  Q2 R2 , C  Q2T XQ1  USV T
REDSVD:
           L   Q2CQ1T  Q2USV T Q1T
                                                                        14
元々やりたいこと:
BRP
こうやれば厳密に解けるが遅い

                                                         …と書いてあるがr個ま
      計算量:                                               でなのでmin(mr2,nr2)?
A1 :列を圧縮するランダム行列
A2 :行を圧縮するランダム行列                               を用いて高速化
発表者が知る方法は3つ Y1  XA1 , Y2  X T rAx rの逆行列を使う
                                  2

本論文
                                               r x rのSVD 2回+ r x rの逆行列を使う
(Fazel+,   Y1r  U11rV1T , Y2 r  U 2  2 rV2T , L  Y1r  A2T Y1r  Y2 r
                                                                     †


2008)
                                                                         r x rのSVDを1回使う
REDSVD:    Y1  Q1 R1 , Y2  Q2 R2 , C  Q2T XQ1  USV T
           L      Q2CQ1T  Q2USV T Q1T                                              15
元々やりたいこと:
BRP
こうやれば厳密に解けるが遅い

                                            …と書いてあるがr個ま
      計算量:                                  でなのでmin(mr2,nr2)?
A1 :列を圧縮するランダム行列
A2 :行を圧縮するランダム行列                      を用いて高速化
発表者が知る方法は3つ Y1  XA1 , Y2  X T A2
本論文

(Fazel+,    Y1, Y2のランクはrなので, Y1r= Y1, Y2r = Y2
            だから実は2つは同じでSVDの計算はいらない.
2008)
           Y1r  Y1  U  V , Y2 r  Y2  U 2  2 rV2 , L  Y1  A2 Y1  Y2
                             T                      T             T   1
                       1 1r 1
                           条件付きだが||X-L||のBoundが
                           示されている (Woolfe+, 2008)                       16
Power scheme
特異値の減衰が遅いと低ランク近似したときに誤差が
大きくなる.
解決策:Xの代わりに X   XX        Xを低ランク近似
                      T   q



 Xの特異値を大きい順にλiとすると, (XXT)qXの特異
 値はλi2q+1になるので(特異ベクトルはXと同じ)早
 く減衰.
 しかし,元に戻すために(XXT)-q の計算をするのなら
 無意味.→QR分解



                                  17
QR分解
X: m x n
A1: n x r
A2: m x r
Y1=XA: m x r
A2TY1: r x r →QR分解を利用(累乗計算のため)
R1: p x r
Q1: m x p




                            18
証明
Naïve GoDecの
local minimumへの
収束証明と1次収束証明
がなされている.
Fast GoDecは
証明なし(たぶん)


収束証明は簡単:




                  19
1次収束証明

• Theorem 2, 3:ノイズがなければ線形収束する
• Theorem 4: ノイズがあってもノイズが酷く
なければ線形収束する
証明の概略:              これの挙動を見る




Robust PCA (40ページ)の論文の証明技法と同様の方法を
使っているらしく,おそらく,これを読まないとちゃんと
理解出来ない.                             20
実装:Nai:ve GoDecなら簡単
https://github.com/niam/godec/blob/master/src/godec.cpp

void run(const emat_t& X, const int r, const int k, const val_t eps ){
  int loop= 0; val_t norm_rate = 0.0;
  val_t xnorm = X.norm();
  L_t = X;
  S_t; S_t.setZero(X.rows(), X.cols());
  do{
  Eigen::JacobiSVD<emat_t> svd(X-S_t, Eigen::ComputeThinU | Eigen::ComputeThinV);
  auto sigmas = svd.singularValues();
  for(int i=r; i< sigmas.size();++i)sigmas[i]=0;                           SVDする
  L_t = svd.matrixU()*sigmas.asDiagonal()*svd.matrixV().transpose();

    S_t.setZero(X.rows(), X.cols());
    select_kbest(S_t, X-L_t, k, Abs());
                                                                            外れ値を抜く
    norm_rate = (X-L_t-S_t).norm()/xnorm;
    cout << loop++ << ": " << norm_rate << "=" << (X-L_t-S_t).norm() << "/" << xnorm << endl;



}
    }while(norm_rate > eps);
                                                                           繰り返す
                                                                                                21
実験 (Nai:ve GoDec)




元画像:
200x180




                    22
使用メモリ量を合わせるため,rが違う
SVDと比較     GoDeCの方がSの非0の分メモリを使用
SVD r=10     Naive GoDec L+S r=8, k=762




                                   23
結果...
reading                       ||X-L||= 4830.8
FILE_NAME =                   writing L...
/home/ehara/mypic.png         Succeeded in writing?: 1
width = 180                   ||X-S||= 25578.7
height = 200                  writing S...
bpp     =3                    Succeeded in writing?: 1
0: 0.140223=3611.84/25757.9   ||X-LpS||= 3333.06 SVDより
1: 0.133084=3427.97/25757.9   writing LpS...         誤差小さい
2: 0.131239=3380.44/25757.9   Succeeded in writing?: 1
(中略)                          ||X-svd||= 4089.61
20: 0.1294=3333.08/25757.9    writing svd...
21: 0.1294=3333.06/25757.9    Succeeded in writing?: 1
 収束してる                        writing X...
                  Succeeded in writing?: 1
  200 x 180行列
  だから…→ 4.73 user 0.02 system 99% cpu 4.779 total
                                                       24
論文の方の実験




          25
論文の方の実験




          26
まとめ
• SVDでの低ランク近似は,外れ値に弱い
→外れ値を抜きながら低ランク近似する
低ランク:L, 外れ値:S, もとの行列X≒L+S
• Nai:ve GoDecがlocal minimumに線形収束すること
  を証明している.ただし,毎イテレーションごとに
  SVDを実行するので遅い.
• ランダム行列を使って,近似的に高速に計算できる.
  ただし,こちらには証明がない(たぶん)
アイデアは良いが,細部が抜けている論文だと感じた.
(Algorithm 2を参照しながらAlgorithm 1までしかない
とか)                                 27
参考文献
Fazel, M., Cand` es, E. J., Recht, B., and Parrilo, P. Compressed sensing and
robust recovery of low rank matrices. In 42nd Asilomar Conference on Signals,
Systems and Computers, 2008

Cand` es, E. J., Li, X., Ma, Y., and Wright, J. Robust principal component
analysis? Journal of the ACM (submitted), 2009.

Halko, N., Martinsson, P. G., and Tropp, J. A. Finding structure with randomness:
Stochastic algorithms for constructing approximate matrix decompositions. arXiv:
0909.4061, 2009.

Zhou, T. and Tao, D. Bilateral random projection based low-rank approximation.
Technical report, 2010.




                                                                                28
ご清聴ありがとうございました




                 29

Mais conteúdo relacionado

Mais procurados

行列およびテンソルデータに対する機械学習(数理助教の会 2011/11/28)
行列およびテンソルデータに対する機械学習(数理助教の会 2011/11/28)行列およびテンソルデータに対する機械学習(数理助教の会 2011/11/28)
行列およびテンソルデータに対する機械学習(数理助教の会 2011/11/28)ryotat
 
Deflate
DeflateDeflate
Deflate7shi
 
文字列カーネルによる辞書なしツイート分類 〜文字列カーネル入門〜
文字列カーネルによる辞書なしツイート分類 〜文字列カーネル入門〜文字列カーネルによる辞書なしツイート分類 〜文字列カーネル入門〜
文字列カーネルによる辞書なしツイート分類 〜文字列カーネル入門〜Takeshi Arabiki
 
Javaセキュアコーディングセミナー東京第2回講義
Javaセキュアコーディングセミナー東京第2回講義Javaセキュアコーディングセミナー東京第2回講義
Javaセキュアコーディングセミナー東京第2回講義JPCERT Coordination Center
 
低ランク行列補完のためのマトロイド理論
低ランク行列補完のためのマトロイド理論低ランク行列補完のためのマトロイド理論
低ランク行列補完のためのマトロイド理論ryotat
 
Aishima140714
Aishima140714Aishima140714
Aishima140714nwpmq516
 
パターン認識と機械学習 §6.2 カーネル関数の構成
パターン認識と機械学習 §6.2 カーネル関数の構成パターン認識と機械学習 §6.2 カーネル関数の構成
パターン認識と機械学習 §6.2 カーネル関数の構成Prunus 1350
 
クラシックな機械学習の入門 6. 最適化と学習アルゴリズム
クラシックな機械学習の入門  6. 最適化と学習アルゴリズムクラシックな機械学習の入門  6. 最適化と学習アルゴリズム
クラシックな機械学習の入門 6. 最適化と学習アルゴリズムHiroshi Nakagawa
 
Jokyonokai
JokyonokaiJokyonokai
Jokyonokainwpmq516
 
PRML 6.1章 カーネル法と双対表現
PRML 6.1章 カーネル法と双対表現PRML 6.1章 カーネル法と双対表現
PRML 6.1章 カーネル法と双対表現hagino 3000
 
クラシックな機械学習の入門  5. サポートベクターマシン
クラシックな機械学習の入門  5. サポートベクターマシンクラシックな機械学習の入門  5. サポートベクターマシン
クラシックな機械学習の入門  5. サポートベクターマシンHiroshi Nakagawa
 
CRC-32
CRC-32CRC-32
CRC-327shi
 
LCA and RMQ ~簡潔もあるよ!~
LCA and RMQ ~簡潔もあるよ!~LCA and RMQ ~簡潔もあるよ!~
LCA and RMQ ~簡潔もあるよ!~Yuma Inoue
 
topology of musical data
topology of musical datatopology of musical data
topology of musical dataTatsuki SHIMIZU
 
パターン認識 05 ロジスティック回帰
パターン認識 05 ロジスティック回帰パターン認識 05 ロジスティック回帰
パターン認識 05 ロジスティック回帰sleipnir002
 
introductino to persistent homology and topological data analysis
introductino to persistent homology and topological data analysisintroductino to persistent homology and topological data analysis
introductino to persistent homology and topological data analysisTatsuki SHIMIZU
 
情報幾何の基礎輪読会 #1
情報幾何の基礎輪読会 #1情報幾何の基礎輪読会 #1
情報幾何の基礎輪読会 #1Tatsuki SHIMIZU
 

Mais procurados (20)

行列およびテンソルデータに対する機械学習(数理助教の会 2011/11/28)
行列およびテンソルデータに対する機械学習(数理助教の会 2011/11/28)行列およびテンソルデータに対する機械学習(数理助教の会 2011/11/28)
行列およびテンソルデータに対する機械学習(数理助教の会 2011/11/28)
 
Deflate
DeflateDeflate
Deflate
 
Convex Hull Trick
Convex Hull TrickConvex Hull Trick
Convex Hull Trick
 
文字列カーネルによる辞書なしツイート分類 〜文字列カーネル入門〜
文字列カーネルによる辞書なしツイート分類 〜文字列カーネル入門〜文字列カーネルによる辞書なしツイート分類 〜文字列カーネル入門〜
文字列カーネルによる辞書なしツイート分類 〜文字列カーネル入門〜
 
Javaセキュアコーディングセミナー東京第2回講義
Javaセキュアコーディングセミナー東京第2回講義Javaセキュアコーディングセミナー東京第2回講義
Javaセキュアコーディングセミナー東京第2回講義
 
低ランク行列補完のためのマトロイド理論
低ランク行列補完のためのマトロイド理論低ランク行列補完のためのマトロイド理論
低ランク行列補完のためのマトロイド理論
 
Jokyo20130218
Jokyo20130218Jokyo20130218
Jokyo20130218
 
Aishima140714
Aishima140714Aishima140714
Aishima140714
 
パターン認識と機械学習 §6.2 カーネル関数の構成
パターン認識と機械学習 §6.2 カーネル関数の構成パターン認識と機械学習 §6.2 カーネル関数の構成
パターン認識と機械学習 §6.2 カーネル関数の構成
 
独立成分分析 ICA
独立成分分析 ICA独立成分分析 ICA
独立成分分析 ICA
 
クラシックな機械学習の入門 6. 最適化と学習アルゴリズム
クラシックな機械学習の入門  6. 最適化と学習アルゴリズムクラシックな機械学習の入門  6. 最適化と学習アルゴリズム
クラシックな機械学習の入門 6. 最適化と学習アルゴリズム
 
Jokyonokai
JokyonokaiJokyonokai
Jokyonokai
 
PRML 6.1章 カーネル法と双対表現
PRML 6.1章 カーネル法と双対表現PRML 6.1章 カーネル法と双対表現
PRML 6.1章 カーネル法と双対表現
 
クラシックな機械学習の入門  5. サポートベクターマシン
クラシックな機械学習の入門  5. サポートベクターマシンクラシックな機械学習の入門  5. サポートベクターマシン
クラシックな機械学習の入門  5. サポートベクターマシン
 
CRC-32
CRC-32CRC-32
CRC-32
 
LCA and RMQ ~簡潔もあるよ!~
LCA and RMQ ~簡潔もあるよ!~LCA and RMQ ~簡潔もあるよ!~
LCA and RMQ ~簡潔もあるよ!~
 
topology of musical data
topology of musical datatopology of musical data
topology of musical data
 
パターン認識 05 ロジスティック回帰
パターン認識 05 ロジスティック回帰パターン認識 05 ロジスティック回帰
パターン認識 05 ロジスティック回帰
 
introductino to persistent homology and topological data analysis
introductino to persistent homology and topological data analysisintroductino to persistent homology and topological data analysis
introductino to persistent homology and topological data analysis
 
情報幾何の基礎輪読会 #1
情報幾何の基礎輪読会 #1情報幾何の基礎輪読会 #1
情報幾何の基礎輪読会 #1
 

Destaque

Tsukuba.R #7 5/9
Tsukuba.R #7 5/9Tsukuba.R #7 5/9
Tsukuba.R #7 5/9Yo Ehara
 
Acl yomikai, 1016, 20110903
Acl yomikai, 1016,  20110903Acl yomikai, 1016,  20110903
Acl yomikai, 1016, 20110903Yo Ehara
 
Nips yomikai 1226
Nips yomikai 1226Nips yomikai 1226
Nips yomikai 1226Yo Ehara
 
PRML10.6 変分ロジスティック回帰
PRML10.6 変分ロジスティック回帰PRML10.6 変分ロジスティック回帰
PRML10.6 変分ロジスティック回帰Yo Ehara
 
Nonlinear programming輪講スライド with 最適化法
Nonlinear programming輪講スライド with 最適化法Nonlinear programming輪講スライド with 最適化法
Nonlinear programming輪講スライド with 最適化法Yo Ehara
 
Prml 11.1.4 重点サンプリング
Prml 11.1.4 重点サンプリングPrml 11.1.4 重点サンプリング
Prml 11.1.4 重点サンプリングYo Ehara
 
Semi-supervised Active Learning Survey
Semi-supervised Active Learning SurveySemi-supervised Active Learning Survey
Semi-supervised Active Learning SurveyYo Ehara
 
Tokyo nlp #8 label propagation
Tokyo nlp #8 label propagationTokyo nlp #8 label propagation
Tokyo nlp #8 label propagationYo Ehara
 
Gengo Africa
Gengo AfricaGengo Africa
Gengo AfricaYo Ehara
 
SocialDict @ 第3回SBM研究会
SocialDict @ 第3回SBM研究会SocialDict @ 第3回SBM研究会
SocialDict @ 第3回SBM研究会Yo Ehara
 
EMNLP 2015 yomikai
EMNLP 2015 yomikai EMNLP 2015 yomikai
EMNLP 2015 yomikai Yo Ehara
 

Destaque (11)

Tsukuba.R #7 5/9
Tsukuba.R #7 5/9Tsukuba.R #7 5/9
Tsukuba.R #7 5/9
 
Acl yomikai, 1016, 20110903
Acl yomikai, 1016,  20110903Acl yomikai, 1016,  20110903
Acl yomikai, 1016, 20110903
 
Nips yomikai 1226
Nips yomikai 1226Nips yomikai 1226
Nips yomikai 1226
 
PRML10.6 変分ロジスティック回帰
PRML10.6 変分ロジスティック回帰PRML10.6 変分ロジスティック回帰
PRML10.6 変分ロジスティック回帰
 
Nonlinear programming輪講スライド with 最適化法
Nonlinear programming輪講スライド with 最適化法Nonlinear programming輪講スライド with 最適化法
Nonlinear programming輪講スライド with 最適化法
 
Prml 11.1.4 重点サンプリング
Prml 11.1.4 重点サンプリングPrml 11.1.4 重点サンプリング
Prml 11.1.4 重点サンプリング
 
Semi-supervised Active Learning Survey
Semi-supervised Active Learning SurveySemi-supervised Active Learning Survey
Semi-supervised Active Learning Survey
 
Tokyo nlp #8 label propagation
Tokyo nlp #8 label propagationTokyo nlp #8 label propagation
Tokyo nlp #8 label propagation
 
Gengo Africa
Gengo AfricaGengo Africa
Gengo Africa
 
SocialDict @ 第3回SBM研究会
SocialDict @ 第3回SBM研究会SocialDict @ 第3回SBM研究会
SocialDict @ 第3回SBM研究会
 
EMNLP 2015 yomikai
EMNLP 2015 yomikai EMNLP 2015 yomikai
EMNLP 2015 yomikai
 

Semelhante a Icml yomikai 07_16

Sparse estimation tutorial 2014
Sparse estimation tutorial 2014Sparse estimation tutorial 2014
Sparse estimation tutorial 2014Taiji Suzuki
 
【展開用】日曜数学会 Sinc関数の積分について
【展開用】日曜数学会 Sinc関数の積分について【展開用】日曜数学会 Sinc関数の積分について
【展開用】日曜数学会 Sinc関数の積分について和人 桐ケ谷
 
Jokyonokai
JokyonokaiJokyonokai
Jokyonokainwpmq516
 
多倍長整数の乗算と高速フーリエ変換
多倍長整数の乗算と高速フーリエ変換多倍長整数の乗算と高速フーリエ変換
多倍長整数の乗算と高速フーリエ変換京大 マイコンクラブ
 
Infinite SVM - ICML 2011 読み会
Infinite SVM - ICML 2011 読み会Infinite SVM - ICML 2011 読み会
Infinite SVM - ICML 2011 読み会Shuyo Nakatani
 
AtCoder Regular Contest 019 解説
AtCoder Regular Contest 019 解説AtCoder Regular Contest 019 解説
AtCoder Regular Contest 019 解説AtCoder Inc.
 
Sec15 dynamic programming
Sec15 dynamic programmingSec15 dynamic programming
Sec15 dynamic programmingKeisuke OTAKI
 
kibayos beaker-070829
kibayos beaker-070829kibayos beaker-070829
kibayos beaker-070829Mikio Yoshida
 
(Lambdaだけで) 純LISPのような ナニかを作る
(Lambdaだけで)純LISPのようなナニかを作る(Lambdaだけで)純LISPのようなナニかを作る
(Lambdaだけで) 純LISPのような ナニかを作るDaichi Teruya
 
2値分類・多クラス分類
2値分類・多クラス分類2値分類・多クラス分類
2値分類・多クラス分類t dev
 
130323 slide all
130323 slide all130323 slide all
130323 slide allikea0064
 
充足可能性問題のいろいろ
充足可能性問題のいろいろ充足可能性問題のいろいろ
充足可能性問題のいろいろHiroshi Yamashita
 
Graph convolution (スペクトルアプローチ)
Graph convolution (スペクトルアプローチ)Graph convolution (スペクトルアプローチ)
Graph convolution (スペクトルアプローチ)yukihiro domae
 

Semelhante a Icml yomikai 07_16 (20)

Sparse estimation tutorial 2014
Sparse estimation tutorial 2014Sparse estimation tutorial 2014
Sparse estimation tutorial 2014
 
動的計画法を極める!
動的計画法を極める!動的計画法を極める!
動的計画法を極める!
 
Sparse models
Sparse modelsSparse models
Sparse models
 
【展開用】日曜数学会 Sinc関数の積分について
【展開用】日曜数学会 Sinc関数の積分について【展開用】日曜数学会 Sinc関数の積分について
【展開用】日曜数学会 Sinc関数の積分について
 
Jokyonokai
JokyonokaiJokyonokai
Jokyonokai
 
ロマ数16 simizut
ロマ数16 simizutロマ数16 simizut
ロマ数16 simizut
 
Lispでやる記号微分
Lispでやる記号微分Lispでやる記号微分
Lispでやる記号微分
 
多倍長整数の乗算と高速フーリエ変換
多倍長整数の乗算と高速フーリエ変換多倍長整数の乗算と高速フーリエ変換
多倍長整数の乗算と高速フーリエ変換
 
Infinite SVM - ICML 2011 読み会
Infinite SVM - ICML 2011 読み会Infinite SVM - ICML 2011 読み会
Infinite SVM - ICML 2011 読み会
 
AtCoder Regular Contest 019 解説
AtCoder Regular Contest 019 解説AtCoder Regular Contest 019 解説
AtCoder Regular Contest 019 解説
 
Sec15 dynamic programming
Sec15 dynamic programmingSec15 dynamic programming
Sec15 dynamic programming
 
kibayos beaker-070829
kibayos beaker-070829kibayos beaker-070829
kibayos beaker-070829
 
(Lambdaだけで) 純LISPのような ナニかを作る
(Lambdaだけで)純LISPのようなナニかを作る(Lambdaだけで)純LISPのようなナニかを作る
(Lambdaだけで) 純LISPのような ナニかを作る
 
2値分類・多クラス分類
2値分類・多クラス分類2値分類・多クラス分類
2値分類・多クラス分類
 
Topic model
Topic modelTopic model
Topic model
 
Prml9
Prml9Prml9
Prml9
 
130323 slide all
130323 slide all130323 slide all
130323 slide all
 
充足可能性問題のいろいろ
充足可能性問題のいろいろ充足可能性問題のいろいろ
充足可能性問題のいろいろ
 
linhyp.pdf
linhyp.pdflinhyp.pdf
linhyp.pdf
 
Graph convolution (スペクトルアプローチ)
Graph convolution (スペクトルアプローチ)Graph convolution (スペクトルアプローチ)
Graph convolution (スペクトルアプローチ)
 

Último

業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)
業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)
業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)Hiroshi Tomioka
 
AWS の OpenShift サービス (ROSA) を使った OpenShift Virtualizationの始め方.pdf
AWS の OpenShift サービス (ROSA) を使った OpenShift Virtualizationの始め方.pdfAWS の OpenShift サービス (ROSA) を使った OpenShift Virtualizationの始め方.pdf
AWS の OpenShift サービス (ROSA) を使った OpenShift Virtualizationの始め方.pdfFumieNakayama
 
クラウドネイティブなサーバー仮想化基盤 - OpenShift Virtualization.pdf
クラウドネイティブなサーバー仮想化基盤 - OpenShift Virtualization.pdfクラウドネイティブなサーバー仮想化基盤 - OpenShift Virtualization.pdf
クラウドネイティブなサーバー仮想化基盤 - OpenShift Virtualization.pdfFumieNakayama
 
自分史上一番早い2024振り返り〜コロナ後、仕事は通常ペースに戻ったか〜 by IoT fullstack engineer
自分史上一番早い2024振り返り〜コロナ後、仕事は通常ペースに戻ったか〜 by IoT fullstack engineer自分史上一番早い2024振り返り〜コロナ後、仕事は通常ペースに戻ったか〜 by IoT fullstack engineer
自分史上一番早い2024振り返り〜コロナ後、仕事は通常ペースに戻ったか〜 by IoT fullstack engineerYuki Kikuchi
 
モーダル間の変換後の一致性とジャンル表を用いた解釈可能性の考察 ~Text-to-MusicとText-To-ImageかつImage-to-Music...
モーダル間の変換後の一致性とジャンル表を用いた解釈可能性の考察  ~Text-to-MusicとText-To-ImageかつImage-to-Music...モーダル間の変換後の一致性とジャンル表を用いた解釈可能性の考察  ~Text-to-MusicとText-To-ImageかつImage-to-Music...
モーダル間の変換後の一致性とジャンル表を用いた解釈可能性の考察 ~Text-to-MusicとText-To-ImageかつImage-to-Music...博三 太田
 
デジタル・フォレンジックの最新動向(2024年4月27日情洛会総会特別講演スライド)
デジタル・フォレンジックの最新動向(2024年4月27日情洛会総会特別講演スライド)デジタル・フォレンジックの最新動向(2024年4月27日情洛会総会特別講演スライド)
デジタル・フォレンジックの最新動向(2024年4月27日情洛会総会特別講演スライド)UEHARA, Tetsutaro
 
NewSQLの可用性構成パターン(OCHaCafe Season 8 #4 発表資料)
NewSQLの可用性構成パターン(OCHaCafe Season 8 #4 発表資料)NewSQLの可用性構成パターン(OCHaCafe Season 8 #4 発表資料)
NewSQLの可用性構成パターン(OCHaCafe Season 8 #4 発表資料)NTT DATA Technology & Innovation
 
TataPixel: 畳の異方性を利用した切り替え可能なディスプレイの提案
TataPixel: 畳の異方性を利用した切り替え可能なディスプレイの提案TataPixel: 畳の異方性を利用した切り替え可能なディスプレイの提案
TataPixel: 畳の異方性を利用した切り替え可能なディスプレイの提案sugiuralab
 
CTO, VPoE, テックリードなどリーダーポジションに登用したくなるのはどんな人材か?
CTO, VPoE, テックリードなどリーダーポジションに登用したくなるのはどんな人材か?CTO, VPoE, テックリードなどリーダーポジションに登用したくなるのはどんな人材か?
CTO, VPoE, テックリードなどリーダーポジションに登用したくなるのはどんな人材か?akihisamiyanaga1
 

Último (9)

業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)
業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)
業務で生成AIを活用したい人のための生成AI入門講座(社外公開版:キンドリルジャパン社内勉強会:2024年4月発表)
 
AWS の OpenShift サービス (ROSA) を使った OpenShift Virtualizationの始め方.pdf
AWS の OpenShift サービス (ROSA) を使った OpenShift Virtualizationの始め方.pdfAWS の OpenShift サービス (ROSA) を使った OpenShift Virtualizationの始め方.pdf
AWS の OpenShift サービス (ROSA) を使った OpenShift Virtualizationの始め方.pdf
 
クラウドネイティブなサーバー仮想化基盤 - OpenShift Virtualization.pdf
クラウドネイティブなサーバー仮想化基盤 - OpenShift Virtualization.pdfクラウドネイティブなサーバー仮想化基盤 - OpenShift Virtualization.pdf
クラウドネイティブなサーバー仮想化基盤 - OpenShift Virtualization.pdf
 
自分史上一番早い2024振り返り〜コロナ後、仕事は通常ペースに戻ったか〜 by IoT fullstack engineer
自分史上一番早い2024振り返り〜コロナ後、仕事は通常ペースに戻ったか〜 by IoT fullstack engineer自分史上一番早い2024振り返り〜コロナ後、仕事は通常ペースに戻ったか〜 by IoT fullstack engineer
自分史上一番早い2024振り返り〜コロナ後、仕事は通常ペースに戻ったか〜 by IoT fullstack engineer
 
モーダル間の変換後の一致性とジャンル表を用いた解釈可能性の考察 ~Text-to-MusicとText-To-ImageかつImage-to-Music...
モーダル間の変換後の一致性とジャンル表を用いた解釈可能性の考察  ~Text-to-MusicとText-To-ImageかつImage-to-Music...モーダル間の変換後の一致性とジャンル表を用いた解釈可能性の考察  ~Text-to-MusicとText-To-ImageかつImage-to-Music...
モーダル間の変換後の一致性とジャンル表を用いた解釈可能性の考察 ~Text-to-MusicとText-To-ImageかつImage-to-Music...
 
デジタル・フォレンジックの最新動向(2024年4月27日情洛会総会特別講演スライド)
デジタル・フォレンジックの最新動向(2024年4月27日情洛会総会特別講演スライド)デジタル・フォレンジックの最新動向(2024年4月27日情洛会総会特別講演スライド)
デジタル・フォレンジックの最新動向(2024年4月27日情洛会総会特別講演スライド)
 
NewSQLの可用性構成パターン(OCHaCafe Season 8 #4 発表資料)
NewSQLの可用性構成パターン(OCHaCafe Season 8 #4 発表資料)NewSQLの可用性構成パターン(OCHaCafe Season 8 #4 発表資料)
NewSQLの可用性構成パターン(OCHaCafe Season 8 #4 発表資料)
 
TataPixel: 畳の異方性を利用した切り替え可能なディスプレイの提案
TataPixel: 畳の異方性を利用した切り替え可能なディスプレイの提案TataPixel: 畳の異方性を利用した切り替え可能なディスプレイの提案
TataPixel: 畳の異方性を利用した切り替え可能なディスプレイの提案
 
CTO, VPoE, テックリードなどリーダーポジションに登用したくなるのはどんな人材か?
CTO, VPoE, テックリードなどリーダーポジションに登用したくなるのはどんな人材か?CTO, VPoE, テックリードなどリーダーポジションに登用したくなるのはどんな人材か?
CTO, VPoE, テックリードなどリーダーポジションに登用したくなるのはどんな人材か?
 

Icml yomikai 07_16