3. 本日のお話
• Sumio Watanabe says:
• “It is not until we understand
singularities that we obtain
statistical learning theory”
• 「シンギュラリティを理解してはじめて
統計的学習理論が身についたと言える」
3
8. 前回(第1章)
• E[min Kn(w)] ≠ min E[Kn(w)] = min K(w)
• 尤度の最大化はカルバック・ライブラー
距離の最小化を意味しない
• これが、統計的学習が単純な最適化問題
にならない理由である
• Watanabe理論恐ろしい・・(゚Д゚;)
8
9. 第2章 Singularity Theory
• 担当分
2.1 Polynomials and analytic functions
(多項式と解析関数の定義)
2.2 Algebraic set and analytic set
(代数的集合と解析的集合の定義)
2.3 Singularity
(特異点の定義と判別法)
9
38. 定義 2.5 Cr 同型写像
• 実ユークリッド空間 Rd の開集合 U,V∈Rd
• 一対一写像 f: U → V が存在し、
• f と f-1 が Cr 級の関数であるとき、
• U と V は同型といい、f を同型写像という
• f と f-1 が解析関数であるとき、
• U と V は解析的同型といい、
• f を解析的同型写像という
38
40. 定義 2.6 特異点 (1)
• 実ユークリッド空間 Rd の空でない部分集
合 A に対して、
• P ∈ A が非特異(nonsingular)であるとは、
• P を含む開集合 U, V ⊂ Rd と
• 解析的同型写像 f: U → V が存在して
f(A∩U) = { (x1,…,xr, 0,…,0); x∈Rd }∩V
• が成り立つことをいう
40
41. 定義 2.6 特異点 (2)
• すべての P ∈ A が非特異のとき
• A を非特異集合と呼ぶ
• P ∈ A が非特異でないとき、
• P を A の特異点(singularity)と呼ぶ
• 特異点集合(singular locus)
Sing(A) = { P ∈ A; P は A の特異点 }
41
42. Example 2.6 (1)
• A = { (x, y); y – x3 = 0} は非特異集合
• P = (0, 0) に対して
• U = V = { (x, y); |x| < 1 } とすると
• (x, y) → (x, y – x3) は解析的同型写像
42
46. Example 2.6 (4)
• A = { (x, y); y2 – x3 = 0 }
• P = (0, 0) は特異点
• 尖点(cusp)という
46
47. Example 2.6 (5)
• A = { (x, y); x5 – y3 = 0 }
• P = (0, 0) は特異点
• 特異点に接線
47
48. Example 2.6 (6)
• A = { (x, y, z); xyz = 0 }
Sing(A) = { (x,y,z); x=y=0 or x=z=0 or y=z=0 }
• B = { (x, y, z); x = y = 0 } は非特異集合
• B ⊂ Sing(A)
• 特異点集合に含まれる非特異集合
48