SlideShare uma empresa Scribd logo
1 de 136
Baixar para ler offline
2013年度秋学期 統計学

A. Asano, Kansai Univ.

データの関係を知る(2)̶回帰分析

浅野 晃
関西大学総合情報学部
A. Asano, Kansai Univ.
A. Asano, Kansai Univ.

回帰分析とは
回帰分析とは

A. Asano, Kansai Univ.

多変量データがあるとき
ある変量の変化を他の変量の変化で
[説明]する方法

2013年度秋学期 統計学
回帰分析とは
多変量データがあるとき
ある変量の変化を他の変量の変化で
[説明]する方法

A. Asano, Kansai Univ.

説明?

2013年度秋学期 統計学
回帰分析とは
緯度と気温のデータを例にとると

A. Asano, Kansai Univ.

相関分析
緯度があがると,気温が下がる
傾向がはっきりしている
回帰分析
緯度が上がるから気温が下がると考える
緯度が1度あがると,気温が⃝℃下がる
2013年度秋学期 統計学
回帰分析とは

A. Asano, Kansai Univ.

緯度が上がるから気温が下がると考える
緯度が1度あがると,気温が⃝℃下がる

2013年度秋学期 統計学
回帰分析とは
緯度が上がるから気温が下がると考える
緯度が1度あがると,気温が⃝℃下がる

A. Asano, Kansai Univ.

各都市の気温の違いは,緯度によって決
まっているという[モデル]を考える

2013年度秋学期 統計学
回帰分析とは
緯度が上がるから気温が下がると考える
緯度が1度あがると,気温が⃝℃下がる

A. Asano, Kansai Univ.

各都市の気温の違いは,緯度によって決
まっているという[モデル]を考える
統計学では,
気温(のばらつき)は,緯度によって
[説明]されるという
2013年度秋学期 統計学
説明変数・被説明変数
気温(℃)

A. Asano, Kansai Univ.

気温は緯度によって説明される
(というモデル)
23

%

21
19

気温
(℃)

8.0
9.6
11.0
11.9
12.5
12.9
13.2
15.3
13.1
11.4
16.0
14.9
16.2
14.4
15.0
16.3
16.0

17
15
13
11

%
%%
%%
%
%%
%
% %
% %
% % %
%

9

%

7
5

25 27 29 31 33 35 37 39 41 43 45

緯度
(度)

図 1: 散布図:緯度と気温の関係
2013年度秋学期 統計学
説明変数・被説明変数
気温(℃)

A. Asano, Kansai Univ.

気温は緯度によって説明される
(というモデル)
23

%

21
19

気温
(℃)

8.0
9.6
11.0
11.9
12.5
12.9
13.2
15.3
13.1
11.4
16.0
14.9
16.2
14.4
15.0
16.3
16.0

17
15
13
11

%
%%
%%
%
%%
%
% %
% %
% % %
%

9

%

7
5

25 27 29 31 33 35 37 39 41 43 45

緯度
(度)

[説明変数]

図 1: 散布図:緯度と気温の関係
2013年度秋学期 統計学
説明変数・被説明変数
気温(℃)

A. Asano, Kansai Univ.

23

%

21
19

気温
(℃)

[被説明変数]

気温は緯度によって説明される
(というモデル)

8.0
9.6
11.0
11.9
12.5
12.9
13.2
15.3
13.1
11.4
16.0
14.9
16.2
14.4
15.0
16.3
16.0

17
15
13
11

%
%%
%%
%
%%
%
% %
% %
% % %
%

9

%

7
5

25 27 29 31 33 35 37 39 41 43 45

緯度
(度)

[説明変数]

図 1: 散布図:緯度と気温の関係
2013年度秋学期 統計学
A. Asano, Kansai Univ.
A. Asano, Kansai Univ.

線形単回帰
線形単回帰
気温(℃)

A. Asano, Kansai Univ.

気温は緯度によって説明される
23

%

21
19

気温
(℃)

8.0
9.6
11.0
11.9
12.5
12.9
13.2
15.3
13.1
11.4
16.0
14.9
16.2
14.4
15.0
16.3
16.0

17
15
13
11

%
%%
%%
%
%%
%
% %
% %
% % %
%

9

%

7
5

25 27 29 31 33 35 37 39 41 43 45

緯度
(度)

図 1: 散布図:緯度と気温の関係
2013年度秋学期 統計学
線形単回帰
気温(℃)

A. Asano, Kansai Univ.

気温は緯度によって説明される
どう説明される?
23

%

21
19

気温
(℃)

8.0
9.6
11.0
11.9
12.5
12.9
13.2
15.3
13.1
11.4
16.0
14.9
16.2
14.4
15.0
16.3
16.0

17
15
13
11

%
%%
%%
%
%%
%
% %
% %
% % %
%

9

%

7
5

25 27 29 31 33 35 37 39 41 43 45

緯度
(度)

図 1: 散布図:緯度と気温の関係
2013年度秋学期 統計学
線形単回帰
気温(℃)

A. Asano, Kansai Univ.

気温は緯度によって説明される
どう説明される?
23

%

21
19

気温
(℃)

8.0
9.6
11.0
11.9
12.5
12.9
13.2
15.3
13.1
11.4
16.0
14.9
16.2
14.4
15.0
16.3
16.0

17
15
13
11

%
%%
%%
%
%%
%
% %
% %
% % %
%

9

%

7
5

25 27 29 31 33 35 37 39 41 43 45

緯度
(度)

図 1: 散布図:緯度と気温の関係
2013年度秋学期 統計学
線形単回帰
気温(℃)

A. Asano, Kansai Univ.

気温は緯度によって説明される
どう説明される?
23

%

21
19

気温
(℃)

8.0
9.6
11.0
11.9
12.5
12.9
13.2
15.3
13.1
11.4
16.0
14.9
16.2
14.4
15.0
16.3
16.0

17
15
13
11

%
%%
%%
%
%%
%
% %
% %
% % %
%

9

%

7
5

25 27 29 31 33 35 37 39 41 43 45

緯度
(度)

散布図上で直線の関係がある,と考える
図 1: 散布図:緯度と気温の関係
2013年度秋学期 統計学
線形単回帰
散布図上で直線の関係がある
23

%

21

y

気温
(℃)

19
17
15
13
11

%
%%
%%
%
%%
%
% %
% %
% % %
%

9

%

A. Asano, Kansai Univ.

7
5

25 27 29 31 33 35 37 39 41 43 45

緯度
(度)

x

2013年度秋学期 統計学
線形単回帰
散布図上で直線の関係がある
23

y = a + bx
という式で表される関係

%

21

y

気温
(℃)

19
17
15
13
11

%
%%
%%
%
%%
%
% %
% %
% % %
%

9

%

A. Asano, Kansai Univ.

7
5

25 27 29 31 33 35 37 39 41 43 45

緯度
(度)

x

2013年度秋学期 統計学
線形単回帰
散布図上で直線の関係がある
23

y = a + bx
という式で表される関係

%

21

y

気温
(℃)

19
17
15
13
11

%
%%
%%
%
%%
%
% %
% %
% % %
%

9

%

7
A. Asano, Kansai Univ.

[線形単回帰]
 という

5
25 27 29 31 33 35 37 39 41 43 45

緯度
(度)

x

2013年度秋学期 統計学
線形単回帰

23

%

y = a + bx という式で
表される関係

21

y

気温
(℃)

19
17
15
13
11

%
%%
%%
%
%%
%
% %
% %
% % %
%

9

%

A. Asano, Kansai Univ.

7
5

25 27 29 31 33 35 37 39 41 43 45

緯度
(度)

x

2013年度秋学期 統計学
線形単回帰

23

%

y = a + bx という式で
表される関係

21

y

気温
(℃)

19
17
15
13
11

%
%%
%%
%
%%
%
% %
% %
% % %
%

9

%

A. Asano, Kansai Univ.

7
5

25 27 29 31 33 35 37 39 41 43 45

緯度
(度)

x

2013年度秋学期 統計学
線形単回帰

23

%

y = a + bx という式で
表される関係

21

y

気温
(℃)

19
17
15
13
11

%
%%
%%
%
%%
%
% %
% %
% % %
%

9

%

A. Asano, Kansai Univ.

7
5

25 27 29 31 33 35 37 39 41 43 45

緯度
(度)

x

2013年度秋学期 統計学
線形単回帰

23

%

y = a + bx という式で
表される関係

21

y

気温
(℃)

19
17
15
13
11

%%
%%
%
%%
%
% %
% %
% % %

どうやって求める?
%

9

%

7
A. Asano, Kansai Univ.

aやbは

%

5
25 27 29 31 33 35 37 39 41 43 45

緯度
(度)

x

2013年度秋学期 統計学
パラメータの決定

23

%

21

y

気温
(℃)

19
17
15
13
11

%
%%
%%
%
%%
%
% %
% %
% % %
%

A. Asano, Kansai Univ.

9

%

7
5

25 27 29 31 33 35 37 39 41 43 45

(度)
x 緯度
2013年度秋学期 統計学

y = a + bx
パラメータの決定
x = xiのとき
23

%

21

y

気温
(℃)

19
17
15
13
11

%
%%
%%
%
%%
%
% %
% %
% % %
%

A. Asano, Kansai Univ.

9

%

7
5

25 27 29 31 33 35 37 39 41 43 45

(度)
x 緯度
2013年度秋学期 統計学

y = a + bx
パラメータの決定
x = xiのとき
23

%

21

y

気温
(℃)

19
17

%
%%
%%
%
%%
%
% %
% %
% % %

15
13
11

%

A. Asano, Kansai Univ.

9

%

7
5

25 27 29 31 33 35 37 39 41 43 45

x

xi
緯度
(度)

2013年度秋学期 統計学

y = a + bx
パラメータの決定
x = xiのとき
モデルによれば a + bxi
23

%

21

y

気温
(℃)

19
17

%
%%
%%
%
%%
%
% %
% %
% % %

15
13
11

%

A. Asano, Kansai Univ.

9

%

7
5

25 27 29 31 33 35 37 39 41 43 45

x

xi
緯度
(度)

2013年度秋学期 統計学

y = a + bx
パラメータの決定
x = xiのとき
モデルによれば a + bxi
23

%

21

y

気温
(℃)

19
17

%
%%
%%
%
%%
%
% %
% %
% % %

15
13
11

%

A. Asano, Kansai Univ.

9

%

7
5

25 27 29 31 33 35 37 39 41 43 45

x

xi
緯度
(度)

2013年度秋学期 統計学

y = a + bx
パラメータの決定
x = xiのとき
モデルによれば a + bxi
23

%

21

y

気温
(℃)

19
17

%
%%
%%
%
%%
%
% %
% %
% % %

15
13
11

%

A. Asano, Kansai Univ.

9

%

7
5

25 27 29 31 33 35 37 39 41 43 45

x

xi
緯度
(度)

2013年度秋学期 統計学

y = a + bx
パラメータの決定
x = xiのとき
モデルによれば a + bxi
23

%

21

y

気温
(℃)

19
17
15
13

%

a + bxi

11

%%
%%
%
%%
%
% %
% %
% % %
%

A. Asano, Kansai Univ.

9

%

7
5

25 27 29 31 33 35 37 39 41 43 45

x

xi
緯度
(度)

2013年度秋学期 統計学

y = a + bx
パラメータの決定

23

x = xiのとき
モデルによれば a + bxi
実際は yi

%

21

y

気温
(℃)

19
17
15
13

%

a + bxi

11

%%
%%
%
%%
%
% %
% %
% % %
%

A. Asano, Kansai Univ.

9

%

7
5

25 27 29 31 33 35 37 39 41 43 45

x

xi
緯度
(度)

2013年度秋学期 統計学

y = a + bx
パラメータの決定

23

x = xiのとき
モデルによれば a + bxi
実際は yi

%

21

y

気温
(℃)

19
17
15
13

%

a + bxi

11

%%
%%
%
%%
%
% %
% %
% % %
%

A. Asano, Kansai Univ.

9

%

7
5

25 27 29 31 33 35 37 39 41 43 45

x

xi
緯度
(度)

2013年度秋学期 統計学

y = a + bx
パラメータの決定

23

x = xiのとき
モデルによれば a + bxi
実際は yi

%

21

y

気温
(℃)

19
17
15
13

%

a + bxi

11

%%
%%
%
%%
%
% %
% %
% % %
%

A. Asano, Kansai Univ.

9

%

7
5

25 27 29 31 33 35 37 39 41 43 45

x

xi
緯度
(度)

2013年度秋学期 統計学

y = a + bx
パラメータの決定

23

x = xiのとき
モデルによれば a + bxi
実際は yi

%

21

y

気温
(℃)

19
17
15
13

%

a + bxi

yi

11

%%
%%
%
%%
%
% %
% %
% % %
%

A. Asano, Kansai Univ.

9

%

7
5

25 27 29 31 33 35 37 39 41 43 45

x

xi
緯度
(度)

2013年度秋学期 統計学

y = a + bx
パラメータの決定

23

x = xiのとき
モデルによれば a + bxi
実際は yi

%

21

y

気温
(℃)

19
17
15
13

%

a + bxi

yi

11

差
yi – (a + bxi )
%
%
%%
%
%%
%
% %
% %
% % %

%

A. Asano, Kansai Univ.

9

%

7
5

25 27 29 31 33 35 37 39 41 43 45

x

xi
緯度
(度)

2013年度秋学期 統計学

y = a + bx
パラメータの決定

23

x = xiのとき
モデルによれば a + bxi
実際は yi

%

21

y

気温
(℃)

19
17
15
13

%

a + bxi

yi

11

差
yi – (a + bxi )
%
%
%%
%
%%
%
% %
% %
% % %

A. Asano, Kansai Univ.

a,bを決める

%

9

%

7
5

25 27 29 31 33 35 37 39 41 43 45

x

差が最小に
なるように

xi
緯度
(度)

2013年度秋学期 統計学

y = a + bx
パラメータの決定

23

%

21

y

気温
(℃)

19
17
15
13

%

a + bxi

yi

11

差
y% – (a + bxi )
i
%
%%
%
%%
%
% %
% %
% % %

%

A. Asano, Kansai Univ.

9

%

7
5

25 27 29 31 33 35 37 39 41 43 45

x

xi
緯度
(度)

2013年度秋学期 統計学
パラメータの決定
すべてのxiについて,
差の合計が最小になるように
23

a,bを決める

%

21

y

気温
(℃)

19
17
15
13

%

a + bxi

yi

11

差
y% – (a + bxi )
i
%
%%
%
%%
%
% %
% %
% % %

%

A. Asano, Kansai Univ.

9

%

7
5

25 27 29 31 33 35 37 39 41 43 45

x

xi
緯度
(度)

2013年度秋学期 統計学
パラメータの決定
すべてのxiについて,
2

差の合計が最小になるように
23

a,bを決める

%

21

y

気温
(℃)

19
17
15
13

%

a + bxi

yi

11

差
y% – (a + bxi )
i
%
%%
%
%%
%
% %
% %
% % %

%

A. Asano, Kansai Univ.

9

%

7
5

25 27 29 31 33 35 37 39 41 43 45

x

xi
緯度
(度)

2013年度秋学期 統計学
パラメータの決定
,この式の a, b つまりパラメータを決める方法を考えま

すべてのx= a + bx というモデル
iについて,
します。x と y の間の関係が,y
2

y

気温
(℃)

差の合計が最小になるように
+ bxi となるはずです。しかし,現実には y = yi となっ
23
のうちで,この「全ての (xi , yi ) についての,yi と a + b
%
a,bを決める
21
メータをもっとも適切なパラメータとします。差には正
差
19
% yi – (a + bxi )
17
すなわち
%%
%%
15
13

yi

11
9

a + bxi

n

%
%%
%
% %
% %
% % %

L=
i=1

%

{yi − (a + bxi )}

2

7
なるように a と b を決定します(n はデータの組の数です
A. Asano, Kansai Univ.

%

5

25 27 29 31 33 35 37 39 41 43 45

xi
うな a と b を求める方法は,おもに2つあります。ひとつ
(度)
x 緯度

それらを両方とも 0 とおいた方程式を解くものです。
2013年度秋学期 統計学
パラメータの決定
,この式の a, b つまりパラメータを決める方法を考えま

すべてのx= a + bx というモデル
iについて,
します。x と y の間の関係が,y
2

y

気温
(℃)

差の合計が最小になるように
+ bxi となるはずです。しかし,現実には y = yi となっ
23
のうちで,この「全ての (xi , yi ) についての,yi と a + b
%
a,bを決める
21
メータをもっとも適切なパラメータとします。差には正
差
19
% yi – (a + bxi )
17
すなわち
%%
%%
15
13

yi

11
9

a + bxi

n

%
%%
%
% %
% %
% % %

L=
i=1

%

{yi − (a + bxi )}

2

7
が最小になる
なるように a と b を決定します(n はデータの組の数です
A. Asano, Kansai Univ.

%

5

a,bを求める
xi
うな a と b を求める方法は,おもに2つあります。ひとつ
(度)
x 緯度
25 27 29 31 33 35 37 39 41 43 45

それらを両方とも 0 とおいた方程式を解くものです。
2013年度秋学期 統計学
なパラメータとします。差には正負がありますから,実

「偏微分」による方法
n

L=
i=1

{yi − (a + bxi )}

2

が最小になる
a,bを求める

定します(n はデータの組の数です)
。

法は,おもに2つあります。ひとつは,(1) 式を a と b で
おいた方程式を解くものです。

A. Asano, Kansai Univ.

る」とは,次のような意味です。微分とは,関数のグラフ
。そこで,(1) 式の L を a, b の2つの変数の関数と考える
2 , 2 の係数がいずれも正ですから,そのグラフは
数で,a b
2013年度秋学期 統計学
なパラメータとします。差には正負がありますから,実

「偏微分」による方法
n

L=
i=1

{yi − (a + bxi )}

2

が最小になる
a,bを求める

定します(n はデータの組の数です)
。
a,bの2次関数

法は,おもに2つあります。ひとつは,(1) 式を a と b で
おいた方程式を解くものです。

A. Asano, Kansai Univ.

る」とは,次のような意味です。微分とは,関数のグラフ
。そこで,(1) 式の L を a, b の2つの変数の関数と考える
2 , 2 の係数がいずれも正ですから,そのグラフは
数で,a b
2013年度秋学期 統計学
なパラメータとします。差には正負がありますから,実

「偏微分」による方法
n

L=
i=1

{yi − (a + bxi )}

2

が最小になる
a,bを求める

定します(n はデータの組の数です)
。
a,bの2次関数

L
法は,おもに2つあります。ひとつは,(1) 式を a と b で
おいた方程式を解くものです。
L

る」とは,次のような意味です。微分とは,関数のグラフ
b
。そこで,(1) 式の L を a, b の2つの変数の関数と考える
2 , 2 の係数がいずれも正ですから,そのグラフは
数で,a b
★
A. Asano, Kansai Univ.

b

a

a

2013年度秋学期 統計学
なパラメータとします。差には正負がありますから,実

「偏微分」による方法
n

L=
i=1

{yi − (a + bxi )}

2

が最小になる
a,bを求める

定します(n はデータの組の数です)
。
a,bの2次関数

L
法は,おもに2つあります。ひとつは,(1) 式を a と b で
aだけの関数
おいた方程式を解くものです。 と考えて微分
L

る」とは,次のような意味です。微分とは,関数のグラフ
b
。そこで,(1) 式の L を a, b の2つの変数の関数と考える
2 , 2 の係数がいずれも正ですから,そのグラフは
数で,a b
★
A. Asano, Kansai Univ.

b

a

a

2013年度秋学期 統計学
なパラメータとします。差には正負がありますから,実

「偏微分」による方法
n

L=
i=1

{yi − (a + bxi )}

2

が最小になる
a,bを求める

定します(n はデータの組の数です)
。
a,bの2次関数

L
法は,おもに2つあります。ひとつは,(1) 式を a と b で
aだけの関数
おいた方程式を解くものです。 と考えて微分
L

る」とは,次のような意味です。微分とは,関数のグラフ
b
。そこで,(1) 式の L を a, b の2つの変数の関数と考える
2 , 2 の係数がいずれも正ですから,そのグラフは
数で,a b
★
A. Asano, Kansai Univ.

b

a

a

2013年度秋学期 統計学
なパラメータとします。差には正負がありますから,実

「偏微分」による方法
n

L=
i=1

{yi − (a + bxi )}

2

が最小になる
a,bを求める

定します(n はデータの組の数です)
。
a,bの2次関数

L
法は,おもに2つあります。ひとつは,(1) 式を a と b で
aだけの関数
おいた方程式を解くものです。 と考えて微分
L

る」とは,次のような意味です。微分とは,関数のグラフ
b
。そこで,(1) 式の L を a, b の2つの変数の関数と考える
bだけの関数
2 , 2 の係数がいずれも正ですから,そのグラフは
数で,a b
★
と考えて微分
A. Asano, Kansai Univ.

b

a

a

2013年度秋学期 統計学
なパラメータとします。差には正負がありますから,実

「偏微分」による方法
n

L=
i=1

{yi − (a + bxi )}

2

が最小になる
a,bを求める

定します(n はデータの組の数です)
。
a,bの2次関数

L
法は,おもに2つあります。ひとつは,(1) 式を a と b で
aだけの関数
おいた方程式を解くものです。 と考えて微分
L

る」とは,次のような意味です。微分とは,関数のグラフ
b
。そこで,(1) 式の L を a, b の2つの変数の関数と考える
bだけの関数
2 , 2 の係数がいずれも正ですから,そのグラフは
数で,a b
★
と考えて微分
A. Asano, Kansai Univ.

b

a

a

2013年度秋学期 統計学
微分?
L

L

aだけの関数
と考えて微分

b

b

a

A. Asano, Kansai Univ.

a

★

2013年度秋学期 統計学
微分?
L

L

aだけの関数
と考えて微分

b

b

a

A. Asano, Kansai Univ.

a

★

2013年度秋学期 統計学
微分?
L

L

aだけの関数
と考えて微分

b

微分は,傾きを
求める計算

b

a

A. Asano, Kansai Univ.

a

★

2013年度秋学期 統計学
微分?
L

L 下り(-)

aだけの関数
と考えて微分

b

微分は,傾きを
求める計算

b

a

A. Asano, Kansai Univ.

a

★

2013年度秋学期 統計学
微分?
L

L 下り(-)

aだけの関数
と考えて微分

b

微分は,傾きを
求める計算

b

上り(+)
a

★

A. Asano, Kansai Univ.

a

2013年度秋学期 統計学
微分?
L

L 下り(-)

aだけの関数
と考えて微分

b

微分は,傾きを
求める計算

b

上り(+)
a

★

a

A. Asano, Kansai Univ.

底では微分=0

2013年度秋学期 統計学
微分?
L

L 下り(-)

aだけの関数
と考えて微分

b

微分は,傾きを
求める計算

b

上り(+)
a

★

A. Asano, Kansai Univ.

a

底では微分=0

bについても同じ,
底では微分=0
2013年度秋学期 統計学
微分?
L

L 下り(-)

aだけの関数
と考えて微分

b

微分は,傾きを
求める計算

b

上り(+)
a

★

A. Asano, Kansai Univ.

a

底では微分=0

bについても同じ,

これらから

底では微分=0

a,bを求める
2013年度秋学期 統計学
計算はともかく結論は
•偏微分による方法(付録1)
•「2次関数の最大・最小」に

A. Asano, Kansai Univ.

 よる方法(付録2)

2013年度秋学期 統計学
学部の1年生で習うくらいの解析学の知識が
計算はともかく結論は
ら,•偏微分による方法(付録1)
「2次関数の最大・最小」を使えば,こ
,付録2で説明しています。
•「2次関数の最大・最小」に
 よる方法(付録2)

A. Asano, Kansai Univ.

σxy
b= 2
σx
a = y − b¯
¯
x

散,σxy は x, y の共分散です。x, y は,前回
¯ ¯
2013年度秋学期 統計学
学部の1年生で習うくらいの解析学の知識が
計算はともかく結論は
ら,•偏微分による方法(付録1)
「2次関数の最大・最小」を使えば,こ
,付録2で説明しています。
•「2次関数の最大・最小」に
 よる方法(付録2)
x, yの共分散

A. Asano, Kansai Univ.

σxy
b= 2
σx
a = y − b¯
¯
x

散,σxy は x, y の共分散です。x, y は,前回
¯ ¯
2013年度秋学期 統計学
学部の1年生で習うくらいの解析学の知識が
計算はともかく結論は
ら,•偏微分による方法(付録1)
「2次関数の最大・最小」を使えば,こ
,付録2で説明しています。
•「2次関数の最大・最小」に
 よる方法(付録2)
x, yの共分散

A. Asano, Kansai Univ.

σxy
b= 2
σx

xの分散

a = y − b¯
¯
x

散,σxy は x, y の共分散です。x, y は,前回
¯ ¯
2013年度秋学期 統計学
学部の1年生で習うくらいの解析学の知識が
計算はともかく結論は
ら,•偏微分による方法(付録1)
「2次関数の最大・最小」を使えば,こ
,付録2で説明しています。
•「2次関数の最大・最小」に
 よる方法(付録2)
x, yの共分散

A. Asano, Kansai Univ.

σxy
b= 2
σx

xの分散

a = y − b¯
¯
x

yの平均
散,σxy は x, y の共分散です。x, y は,前回
¯ ¯
2013年度秋学期 統計学
学部の1年生で習うくらいの解析学の知識が
計算はともかく結論は
ら,•偏微分による方法(付録1)
「2次関数の最大・最小」を使えば,こ
,付録2で説明しています。
•「2次関数の最大・最小」に
 よる方法(付録2)
x, yの共分散

A. Asano, Kansai Univ.

σxy
b= 2
σx

xの分散

a = y − b¯
¯
x

xの平均

yの平均
散,σxy は x, y の共分散です。x, y は,前回
¯ ¯
2013年度秋学期 統計学
最小二乗法
σxy
b= 2
σx
a = y − b¯
¯
x

y

は x, y の共分散です。x, y は,前回も出て
¯ ¯

A. Asano, Kansai Univ.

うにして得られる1次式 y = a + bx を y の x
は回帰直線の傾きで,これを回帰係数といい
2013年度秋学期 統計学
i

i

i

i

ラメータをもっとも適切なパラメータとします。差には正負があります
,すなわち

最小二乗法
σxy
b= 2
σx

n

L=
i=1

{yi − (a + bxi )}2

になるように a と b を決定します(n はデータの組の数です)
。

ab= y − b¯
¯
x
ような a と を求める方法は,おもに2つあります。ひとつは,(1) 式を

,それらを両方とも 0 とおいた方程式を解くものです。

は x, y の共分散です。x, y は,前回も出て
¯ ¯
y それぞれで偏微分する」とは,次のような意味です。微分とは,関数
b

傾きを求めることです。そこで,(1) 式の L を a, b の2つの変数の関数
2 , 2 の係数がいずれも正ですから,その
ちらについても2次関数で,a b
A. Asano, Kansai Univ.

うにして得られる1次式 y = a + bx を y の x
統計学(2013 年度秋学期) 第7回 (2013. 11. 7)
http://r
は回帰直線の傾きで,これを回帰係数といい
2013年度秋学期 統計学
i

i

i

i

ラメータをもっとも適切なパラメータとします。差には正負があります
,すなわち

最小二乗法
σxy
b= 2
σx

n

L=
i=1

{yi − (a + bxi )}2

になるように a と b を決定します(n はデータの組の数です)
。

ab= y − b¯
¯
x
ような a と を求める方法は,おもに2つあります。ひとつは,(1) 式を

,それらを両方とも 0 とおいた方程式を解くものです。

は x, y の共分散です。x, y は,前回も出て
¯ ¯
y それぞれで偏微分する」とは,次のような意味です。微分とは,関数
b

傾きを求めることです。そこで,(1) 式の L を a, b の2つの変数の関数
2 , 2 の係数がいずれも正ですから,その
ちらについても2次関数で,a b
A. Asano, Kansai Univ.

うにして得られる1次式 y = a + bx を y の x
統計学(2013 年度秋学期) 第7回 (2013. 11. 7)
http://r
は回帰直線の傾きで,これを回帰係数といい
2013年度秋学期 統計学
i

i

i

i

ラメータをもっとも適切なパラメータとします。差には正負があります
,すなわち

最小二乗法
σxy
b= 2
σx

n

L=
i=1

{yi − (a + bxi )}2

になるように a と b を決定します(n はデータの組の数です)
を最小にしたので。

ab= y − b¯
¯
x
ような a と を求める方法は,おもに2つあります。ひとつは,(1) 式を
[最小二乗法]

,それらを両方とも 0 とおいた方程式を解くものです。

は x, y の共分散です。x, y は,前回も出て
¯ ¯
y それぞれで偏微分する」とは,次のような意味です。微分とは,関数
b

傾きを求めることです。そこで,(1) 式の L を a, b の2つの変数の関数
2 , 2 の係数がいずれも正ですから,その
ちらについても2次関数で,a b
A. Asano, Kansai Univ.

うにして得られる1次式 y = a + bx を y の x
統計学(2013 年度秋学期) 第7回 (2013. 11. 7)
http://r
は回帰直線の傾きで,これを回帰係数といい
2013年度秋学期 統計学
i

i

i

i

ラメータをもっとも適切なパラメータとします。差には正負があります
,すなわち

最小二乗法
σxy
b= 2
σx

n

L=
i=1

{yi − (a + bxi )}2

になるように と を決定します(n はデータの組の数です)
です。x,a y bは,前回も出てきたもので
¯ ¯
を最小にしたので。

ab= y − b¯
¯
x
ような a と を求める方法は,おもに2つあります。ひとつは,(1) 式を
[最小二乗法]

,それらを両方とも 0 とおいた方程式を解くものです。

は x, y の共分散です。x, y は,前回も出て
¯ ¯
y それぞれで偏微分する」とは,次のような意味です。微分とは,関数
b

傾きを求めることです。そこで, y の を 上への回帰方
次式 y = a + bx を(1) 式の Lx a, b の2つの変数の関数
ちらについても2次関数で,a , の係数がいずれも正ですから,その
b
,これを回帰係数といいます。なお,
2

2

A. Asano, Kansai Univ.

うにして得られる1次式 y = a + bx を y の x
統計学(2013 年度秋学期) 第7回 (2013. 11. 7)
http://r
は回帰直線の傾きで,これを回帰係数といい
2013年度秋学期 統計学
i

i

i

i

ラメータをもっとも適切なパラメータとします。差には正負があります
,すなわち

最小二乗法
σxy
b= 2
σx

n

L=
i=1

{yi − (a + bxi )}2

になるように と を決定します(n はデータの組の数です)
です。x,a y bは,前回も出てきたもので
¯ ¯
を最小にしたので。

ab= y − b¯
¯
x
ような a と を求める方法は,おもに2つあります。ひとつは,(1) 式を
[最小二乗法]

,それらを両方とも 0 とおいた方程式を解くものです。

は x, y の共分散です。x, y は,前回も出て
¯ ¯
y それぞれで偏微分する」とは,次のような意味です。微分とは,関数
b

[回帰方程式]あるいは
傾きを求めることです。そこで, y の を 上への回帰方
次式 y = a + bx を(1) 式の Lx a, b の2つの変数の関数
2 , 2 の係数がいずれも正ですから,その
ちらについても2次関数で,a [回帰直線]
b

,これを回帰係数といいます。なお,
A. Asano, Kansai Univ.

うにして得られる1次式 y = a + bx を y の x
統計学(2013 年度秋学期) 第7回 (2013. 11. 7)
http://r
は回帰直線の傾きで,これを回帰係数といい
2013年度秋学期 統計学
i

i

i

i

ラメータをもっとも適切なパラメータとします。差には正負があります
,すなわち

最小二乗法
σxy
b= 2
σx

n

L=
i=1

{yi − (a + bxi )}2

になるように と を決定します(n はデータの組の数です)
です。x,a y bは,前回も出てきたもので
¯ ¯
を最小にしたので。

ab= y − b¯
¯
x
ような a と を求める方法は,おもに2つあります。ひとつは,(1) 式を
[最小二乗法]

,それらを両方とも 0 とおいた方程式を解くものです。

は x, y の共分散です。x, y は,前回も出て
¯ ¯
y それぞれで偏微分する」とは,次のような意味です。微分とは,関数
b

[回帰方程式]あるいは
傾きを求めることです。そこで, y の を 上への回帰方
次式 y = a + bx を(1) 式の Lx a, b の2つの変数の関数
2 , 2 の係数がいずれも正ですから,その
ちらについても2次関数で,a [回帰直線]
b

,これを回帰係数といいます。なお,
A. Asano, Kansai Univ.

うにして得られる1次式 y = a + bx を y の x
統計学(2013 年度秋学期) 第7回 (2013. 11. 7)
http://r
は回帰直線の傾きで,これを回帰係数といい
2013年度秋学期 統計学
i

i

i

i

ラメータをもっとも適切なパラメータとします。差には正負があります
,すなわち

最小二乗法
σxy
b= 2
σx

n

L=
i=1

{yi − (a + bxi )}2

になるように と を決定します(n はデータの組の数です)
です。x,a y bは,前回も出てきたもので
¯ ¯
を最小にしたので。

ab= y − b¯
¯
x
ような a と を求める方法は,おもに2つあります。ひとつは,(1) 式を
[最小二乗法]

,それらを両方とも 0 とおいた方程式を解くものです。

は x, y の共分散です。x, y は,前回も出て
¯ ¯
y それぞれで偏微分する」とは,次のような意味です。微分とは,関数
b

[回帰方程式]あるいは
傾きを求めることです。そこで, y の を 上への回帰方
次式 y = a + bx を(1) 式の Lx a, b の2つの変数の関数
2 , 2 の係数がいずれも正ですから,その
ちらについても2次関数で,a [回帰直線]
b

,これを回帰係数といいます。なお,
A. Asano, Kansai Univ.

うにして得られる1次式 y = a + bx を y の x
統計学(2013 年度秋学期) 第7回 (2013. 11. 7)
http://r
は回帰直線の傾きで,これを回帰係数といい
2013年度秋学期 統計学
i

i

i

i

ラメータをもっとも適切なパラメータとします。差には正負があります
,すなわち

最小二乗法
σxy
b= 2
σx

n

L=
i=1

{yi − (a + bxi )}2

になるように と を決定します(n はデータの組の数です)
です。x,a y bは,前回も出てきたもので
¯ ¯
を最小にしたので。

ab= y − b¯
¯
x
ような a と を求める方法は,おもに2つあります。ひとつは,(1) 式を
[最小二乗法]

,それらを両方とも 0 とおいた方程式を解くものです。

は x, y の共分散です。x, y は,前回も出て
¯ ¯
y それぞれで偏微分する」とは,次のような意味です。微分とは,関数
b

[回帰方程式]あるいは
傾きを求めることです。そこで, y の を 上への回帰方
次式 y = a + bx を(1) 式の Lx a, b の2つの変数の関数
2 , 2 の係数がいずれも正ですから,その
ちらについても2次関数で,a [回帰直線]
b

,これを回帰係数といいます。なお,
A. Asano, Kansai Univ.

うにして得られる1次式 y = a + bx を y の x
[回帰係数]
統計学(2013 年度秋学期) 第7回 (2013. 11. 7)
http://r
は回帰直線の傾きで,これを回帰係数といい
2013年度秋学期 統計学
散です。x, y は,前回も出てきたもので,それ
¯ ¯

ところで
σ

b=
1次式 y =

温(℃)

xy
2
aσx bx を y
+

のx
より 上への回帰方程式,

で,これを回帰係数といいます。なお,(2) 式
8.0 a = y − b¯
¯
x

A. Asano, Kansai Univ.

y

気温
(℃)

9.6
11.0
23
σxy 11.9 x, y の共分散です。x, y は,前回も出てきたもので,そ
は
¯ ¯
%
x)
¯
(3)
21
12.5
19
12.9
%
17
http://racco.mikeneko.jp/  2/9 ページ
%%
13.2
うにして得られる1次式 y =%%%%+ bx を y の x 上への回帰方程
a
15
%
%
15.3
% %
13
は回帰直線の傾きで,これを回帰係数といいます。なお,(2
% %
13.1
% % %
11
11.4
%
9
16.0
%
y ¯
7 ¯
14.9− y = b(x − x)
5
16.2
25 27 29 31 33 35 37 39 41 43 45
14.4
3. 11. 7)
緯度 http://racco.mikeneko.jp/  2/9 ペ
(度)
15.0
2013年度秋学期 統計学
16.3

x
散です。x, y は,前回も出てきたもので,それ
¯ ¯

ると ところで

σxy
b= 2
1次式 y = a + bx を y の x 上への回帰方程式,
σx
¯
より y − y = b(x
温(℃)
で,これを回帰係数といいます。なお,(2) 式
8.0 a = y − b¯
¯
x

− x)
¯

9.6
11.0
23
σxy 11.9 x, y の共分散です。x, y は,前回も出てきたもので,そ
は
¯ ¯
%
x)
¯
(3)
21
12.5
19
12.9
%
17
http://racco.mikeneko.jp/  2/9 ページ
%%
13.2
うにして得られる1次式 y =%%%%+ bx を y の x 上への回帰方程
a
15
%
%
15.3
% %
13
は回帰直線の傾きで,これを回帰係数といいます。なお,(2
% %
13.1
% % %
11
11.4
%
9
16.0
%
y ¯
7 ¯
14.9− y = b(x − x)
5
16.2
25 27 29 31 33 35 37 39 41 43 45
14.4
3. 11. 7)
緯度 http://racco.mikeneko.jp/  2/9 ペ
(度)
15.0
2013年度秋学期 統計学
16.3
A. Asano, Kansai Univ.

y

気温
(℃)

学期) 第7回 (2013. 11. 7)

x
散です。x, y は,前回も出てきたもので,それ
¯ ¯

ると ところで

σxy
b= 2
1次式 y = a + bx を y の x 上への回帰方程式,
σx
¯
より y − y = b(x
温(℃)
で,これを回帰係数といいます。なお,(2) 式
8.0 a = y − b¯
¯
x

− x)
¯

9.6
11.0
23
σxy 11.9 x, y の共分散です。x, y は,前回も出てきたもので,そ
は
¯ ¯
%
x)
¯
(3)
21
12.5
19
12.9
%
17
http://racco.mikeneko.jp/  2/9 ページ
%%
13.2
うにして得られる1次式 y =%%%%+ bx を y の x 上への回帰方程
a
15
%
%
15.3
% %
13
は回帰直線の傾きで,これを回帰係数といいます。なお,(2
% %
13.1
% % %
11
11.4
%
9
16.0
%
y ¯
7 ¯
14.9− y = b(x − x)
5
16.2
25 27 29 31 33 35 37 39 41 43 45
14.4
3. 11. 7)
緯度 http://racco.mikeneko.jp/  2/9 ペ
(度)
15.0
2013年度秋学期 統計学
16.3
A. Asano, Kansai Univ.

y

気温
(℃)

学期) 第7回 (2013. 11. 7)

x

x
散です。x, y は,前回も出てきたもので,それ
¯ ¯

ると ところで

σxy
b= 2
1次式 y = a + bx を y の x 上への回帰方程式,
σx
¯
より y − y = b(x
温(℃)
で,これを回帰係数といいます。なお,(2) 式
8.0 a = y − b¯
¯
x

− x)
¯

9.6
11.0
23
σxy 11.9 x, y の共分散です。x, y は,前回も出てきたもので,そ
は
¯ ¯
%
x)
¯
(3)
21
12.5
19
12.9
%
17
http://racco.mikeneko.jp/  2/9 ページ
%%
13.2
うにして得られる1次式 y =%%%%+ bx を y の x 上への回帰方程
a
15
%
%
15.3
% %
13
は回帰直線の傾きで,これを回帰係数といいます。なお,(2
% %
13.1
% % %
11
11.4
%
9
16.0
%
y ¯
7 ¯
14.9− y = b(x − x)
5
16.2
25 27 29 31 33 35 37 39 41 43 45
14.4
3. 11. 7)
緯度 http://racco.mikeneko.jp/  2/9 ペ
(度)
15.0
2013年度秋学期 統計学
16.3
A. Asano, Kansai Univ.

y

気温
(℃)

学期) 第7回 (2013. 11. 7)

y

x

x
散です。x, y は,前回も出てきたもので,それ
¯ ¯

ると ところで

σxy
b= 2
1次式 y = a + bx を y の x 上への回帰方程式,
σx
¯
より y − y = b(x
温(℃)
で,これを回帰係数といいます。なお,(2) 式
8.0 a = y − b¯
¯
x

− x)
¯

9.6
11.0
23
σxy 11.9 x, y の共分散です。x, y は,前回も出てきたもので,そ
は
¯ ¯
%
x)
¯
(3)
21
12.5
19
12.9
%
17
http://racco.mikeneko.jp/  2/9 ページ
%%
13.2
うにして得られる1次式 y =%%%%+ bx を y の x 上への回帰方程
a
15
%
%
15.3
% %
13
は回帰直線の傾きで,これを回帰係数といいます。なお,(2
% %
13.1
% % %
11
11.4
%
9
16.0
%
y ¯
7 ¯
14.9− y = b(x − x)
5
16.2
25 27 29 31 33 35 37 39 41 43 45
14.4
3. 11. 7)
緯度 http://racco.mikeneko.jp/  2/9 ペ
(度)
15.0
2013年度秋学期 統計学
16.3
A. Asano, Kansai Univ.

y

気温
(℃)

学期) 第7回 (2013. 11. 7)

回帰直線は
(x, y)を通る

y

x

x
A. Asano, Kansai Univ.
A. Asano, Kansai Univ.

決定係数
残差
a,bが求められて,回帰直線が確定
23

%

21

y

気温
(℃)

19
17
15
13
11

%
%%
%%
%
%%
%
% %
% %
% % %
%

A. Asano, Kansai Univ.

9

%

7
5

25 27 29 31 33 35 37 39 41 43 45

(度)
x 緯度
2013年度秋学期 統計学
残差
a,bが求められて,回帰直線が確定
23

%

21

y

気温
(℃)

19
17

%
%%
%%
%
%%
%
% %
% %
% % %

15
13
11

%

A. Asano, Kansai Univ.

9

%

7
5

25 27 29 31 33 35 37 39 41 43 45

x

xi
緯度
(度)

2013年度秋学期 統計学
残差
a,bが求められて,回帰直線が確定
23

%

21

y

気温
(℃)

19
17

%
%%
%%
%
%%
%
% %
% %
% % %

15
13
11

%

A. Asano, Kansai Univ.

9

%

7
5

25 27 29 31 33 35 37 39 41 43 45

x

xi
緯度
(度)

2013年度秋学期 統計学
残差
a,bが求められて,回帰直線が確定
23

%

21

y

気温
(℃)

19
17

%
%%
%%
%
%%
%
% %
% %
% % %

15
13
11

%

A. Asano, Kansai Univ.

9

%

7
5

25 27 29 31 33 35 37 39 41 43 45

x

xi
緯度
(度)

2013年度秋学期 統計学
残差
a,bが求められて,回帰直線が確定
23

%

21

y

気温
(℃)

19
17

%
%%
%%
%
%%
%
% %
% %
% % %

15
13

yi

11

%

A. Asano, Kansai Univ.

9

%

7
5

25 27 29 31 33 35 37 39 41 43 45

x

xi
緯度
(度)

2013年度秋学期 統計学
残差
a,bが求められて,回帰直線が確定
23

%

21

y

気温
(℃)

19
17

%
%%
%%
%
%%
%
% %
% %
% % %

15
13

yi

11

%

A. Asano, Kansai Univ.

9

%

7
5

25 27 29 31 33 35 37 39 41 43 45

x

xi
緯度
(度)

2013年度秋学期 統計学
残差
a,bが求められて,回帰直線が確定
23

%

21

y

気温
(℃)

19
17
15
13

%

a + bxi

yi

11

%%
%%
%
%%
%
% %
% %
% % %
%

A. Asano, Kansai Univ.

9

%

7
5

25 27 29 31 33 35 37 39 41 43 45

x

xi
緯度
(度)

2013年度秋学期 統計学
残差
a,bが求められて,回帰直線が確定
xi に対する,回帰直線によるyの推定値
23

%

21

y

気温
(℃)

19
17
15
13

%

a + bxi

yi

11

%%
%%
%
%%
%
% %
% %
% % %
%

A. Asano, Kansai Univ.

9

%

7
5

25 27 29 31 33 35 37 39 41 43 45

x

xi
緯度
(度)

2013年度秋学期 統計学
残差
a,bが求められて,回帰直線が確定

xi に対する,回帰直線によるyの推定値
23
%
応する y の値,すなわち a + bxi を yi = a + bxi と
ˆ
21

と yi の差を残差といい,di で表します。残差とは
ˆ 17
%
%%
%%
%
%%
15
したとき,予測によって表現できなかった部分を表
%
y 13 a + bxi
% %
% %
% % %
11
(前回の講義参照)とすると
yi
気温
(℃)

%

9

A. Asano, Kansai Univ.

=

19

%

7

2

(yi − yi ) = (1 −
ˆ
5

25 27 29 31 33 35 37 39

2
つまり,rxy

xi
緯度
(度)

2
rxy )45
41 43

(yi − y )
¯

2

x
が 1 に近づくほど yi と yi の差は小さ
ˆ
2013年度秋学期 統計学
残差
a,bが求められて,回帰直線が確定

xi に対する,回帰直線によるyの推定値
23
%
応する y の値,すなわち a + bxi を yi = a + bxi と
ˆ
21

と yi の差を残差といい,di で表します。残差とは
ˆ 17
%
%%
%%
%
%%
15
したとき,予測によって表現できなかった部分を表
%
y 13 a + bxi
% %
% %
% % %
11
(前回の講義参照)とすると
yi
気温
(℃)

%

9

A. Asano, Kansai Univ.

=

19

%

7

2

(yi − yi ) = (1 −
ˆ
5

25 27 29 31 33 35 37 39

2
つまり,rxy

xi
緯度
(度)

2
rxy )45
41 43

(yi − y )
¯

2

x
が 1 に近づくほど yi と yi の差は小さ
ˆ
2013年度秋学期 統計学
残差

¯ を通る直線」になります。
「傾きが b で点 (¯, y)
x
a,bが求められて,回帰直線が確定

xi に対する,回帰直線によるyの推定値
23
%
応する y の値,すなわち a + bxi を yi = a + bxi と
ˆ
定係数
21

と yi の差を残差といい,di で表します。残差とは
ˆ 17
%
それでも残っている,
%%
%%
各 xi に対して,回帰直線上で対応する y の値,す
%
%%
15
したとき,予測によって表現できなかった部分を表
%
推定値と実際の差
y 13 a + bxi
% %
% %
のとき,実際のデータにおける yi とiyと表すこと
y の値,すなわち a + bx%i を yi = a + bx ˆi の差を残
ˆ
% %
11
(前回の講義参照)とすると
yi
%
9
の差を残差といい,di で表します。残差とは,回帰方
値を使って,yi の値を yi %
ˆ と予測したとき,予測に
7
2 x と y の相関係数(前回の講義参
2
2
き,予測によって表現できなかった部分を表していま
ついて,rxyi )31 33 35 37 − rxy )45 (yi − y )
=
(y5i25− y を = (1 39 41 43
ˆ
¯
27 29
xi
回の講義参照)とすると
(度)
x 緯度
2
2 が 1 に近づくほど y 2 と y の差は小さ
di = ˆi (yi − yi )
ˆ
つまり,rxy
A. Asano, Kansai Univ.

気温
(℃)

19

2013年度秋学期 統計学
残差

図 2: 偏微分と関数の最小値

¯ を通る直線」になります。
「傾きが b で点 (¯, y)
x
a,bが求められて,回帰直線が確定

xi に対する,回帰直線によるyの推定値
布図上で回帰直線は「傾きが b で点 (¯, y) を通る直線」に
x ¯

応する y の値,すなわち a + bxi を yi = a + bxi と
ˆ
定係数
21
19
と yi の差を残差といい,di で表します。残差とは
ˆ 17
%
それでも残っている,
%%
%%
各 xi に対して,回帰直線上で対応する y の値,す
%
%%
15
したとき,予測によって表現できなかった部分を表
%
推定値と実際の差
y 13 a + bxi
% %
% %
のとき,実際のデータにおける yi とiyと表すこと
y の値,すなわち a + bx%i を yi = a + bx ˆi の差を残
ˆ
% %
11
(前回の講義参照)とすると
yi
%
9
の差を残差といい,di で表します。残差とは,回帰方
値を使って,yi の値を yi %
ˆ と予測したとき,予測に
7
帰直線上で対応する y の値,すなわち a + bxi2を yi = a +
ˆ
[残差]という
2 x と y の相関係数(前回の講義参
2
き,予測によって表現できなかった部分を表していま
ついて,rxyi )31 33 35 37 − rxy )45 (yi − y )
=
(y5i25− y を = (1 39 41 43
ˆ
¯
27 29
タにおける yi と yi の差を残差といい,di で表します。
ˆ
xi
回の講義参照)とすると
(度)
x 緯度
を yi と予測したとき,予測によって表現できなかった
ˆ
2
2 が 1 に近づくほど y 2 と y の差は小さ
di = ˆi (yi − yi )
ˆ
つまり,rxy
%

A. Asano, Kansai Univ.

気温
(℃)

23

2013年度秋学期 統計学
残差と決定係数
回帰方程式を使って yi を予測したときの,

A. Asano, Kansai Univ.

予測によって表現できなかった部分

2013年度秋学期 統計学
残差と決定係数
回帰方程式を使って yi を予測したときの,
予測によって表現できなかった部分

A. Asano, Kansai Univ.

残差について(付録3)

2013年度秋学期 統計学
残差と決定係数

,回帰直線上で対応する y の値,すなわち ++ bxi を
a bx と表す
で対応する y の値,すなわち a yi を予測したときの,
ˆ
i
回帰方程式を使って + bxi を yi = a
のデータにおける yi と yi の差を残差といい,di で表し
ˆ
ける yi と yi の差を残差といい,di で表します。残差とは,
ˆ
予測によって表現できなかった部分
ˆ
i の値を yi と予測したとき,予測によって表現できな
予測したとき,予測によって表現できなかった部分を表し
を係数(前回の講義参照)とすると
x と y の相関係数(前回の講義参照)とすると
残差について(付録3)
2
di

=

22
(yi − yi i =
ˆ) =
d

(1

2
2 2
2
− rxy ) yi ) (yi − y− rxy )
(yi − ˆ = (1¯)

(yi

2 が 1 に近づくほど y と y の差は小さくな
2
3)
。つまり,rxy 。つまり,rxy が 1 に近づくほど yi と
ˆi
i
(導出は付録3)
A. Asano, Kansai Univ.

すなわち,最小二乗法で求めたモデルによって,y が x か
となります。すなわち,最小二乗法で求めたモデルに
2 を決定係数とよびます。
このことから,rxy
2 を決定係数とよびます
になります。このことから,r
xy

うに説明できます。(4) 式を少し変形して

味は,次のように説明できます。(4) 式を少し変形して
2013年度秋学期 統計学
残差と決定係数

,回帰直線上で対応する y の値,すなわち ++ bxi を
a bx と表す
で対応する y の値,すなわち a yi を予測したときの,
ˆ
i
回帰方程式を使って + bxi を yi = a
のデータにおける yi と yi の差を残差といい,di で表し
ˆ
ける yi と yi の差を残差といい,di で表します。残差とは,
ˆ
予測によって表現できなかった部分
ˆ
i の値を yi と予測したとき,予測によって表現できな
予測したとき,予測によって表現できなかった部分を表し
を係数(前回の講義参照)とすると
x と y の相関係数(前回の講義参照)とすると
残差について(付録3)
2
di

=

22
(yi − yi i =
ˆ) =
d

(1

2
2 2
2
− rxy ) yi ) (yi − y− rxy )
(yi − ˆ = (1¯)

(yi

残差
2 が 1 に近づくほど y と y の差は小さくな
2
3)
。つまり,rxy 。つまり,rxy が 1 に近づくほど yi と
ˆi
i
(導出は付録3)
A. Asano, Kansai Univ.

すなわち,最小二乗法で求めたモデルによって,y が x か
となります。すなわち,最小二乗法で求めたモデルに
2 を決定係数とよびます。
このことから,rxy
2 を決定係数とよびます
になります。このことから,r
xy

うに説明できます。(4) 式を少し変形して

味は,次のように説明できます。(4) 式を少し変形して
2013年度秋学期 統計学
残差と決定係数

,回帰直線上で対応する y の値,すなわち ++ bxi を
a bx と表す
で対応する y の値,すなわち a yi を予測したときの,
ˆ
i
回帰方程式を使って + bxi を yi = a
のデータにおける yi と yi の差を残差といい,di で表し
ˆ
ける yi と yi の差を残差といい,di で表します。残差とは,
ˆ
予測によって表現できなかった部分
ˆ
i の値を yi と予測したとき,予測によって表現できな
予測したとき,予測によって表現できなかった部分を表し
を係数(前回の講義参照)とすると
x と y の相関係数(前回の講義参照)とすると
残差について(付録3)
2
di

=

22
(yi − yi i =
ˆ) =
d

(1

2
2 2
2
− rxy ) yi ) (yi − y− rxy )
(yi − ˆ = (1¯)

(yi

相関
残差1 に近づくほど y と y の差は小さくな
2 が
2
3)
。つまり,rxy 。つまり,rxy が 1 に近づくほど yi と
ˆi
i
(導出は付録3)
係数
A. Asano, Kansai Univ.

すなわち,最小二乗法で求めたモデルによって,y が x か
となります。すなわち,最小二乗法で求めたモデルに
2 を決定係数とよびます。
このことから,rxy
2 を決定係数とよびます
になります。このことから,r
xy

うに説明できます。(4) 式を少し変形して

味は,次のように説明できます。(4) 式を少し変形して
2013年度秋学期 統計学
残差と決定係数

,回帰直線上で対応する y の値,すなわち ++ bxi を
a bx と表す
で対応する y の値,すなわち a yi を予測したときの,
ˆ
i
回帰方程式を使って + bxi を yi = a
のデータにおける yi と yi の差を残差といい,di で表し
ˆ
ける yi と yi の差を残差といい,di で表します。残差とは,
ˆ
予測によって表現できなかった部分
ˆ
i の値を yi と予測したとき,予測によって表現できな
予測したとき,予測によって表現できなかった部分を表し
を係数(前回の講義参照)とすると
x と y の相関係数(前回の講義参照)とすると
残差について(付録3)
2
di

=

22
(yi − yi i =
ˆ) =
d

(1

2
2 2
2
− rxy ) yi ) (yi − y− rxy )
(yi − ˆ = (1¯)

(yi

相関
残差1 に近づくほど y と y の差は小さくな
2 が
2
3)
。つまり,rxy 。つまり,rxy が 1 に近づくほど yi と
ˆi
i
(導出は付録3)
係数
A. Asano, Kansai Univ.

すなわち,最小二乗法で求めたモデルによって,y が x か
となります。すなわち,最小二乗法で求めたモデルに
2 を決定係数とよびます。
このことから,rxy
2 を決定係数とよびます
になります。このことから,r
xy

うに説明できます。(4) 式を少し変形して

味は,次のように説明できます。(4) 式を少し変形して
2013年度秋学期 統計学
残差と決定係数

,回帰直線上で対応する y の値,すなわち ++ bxi を
a bx と表す
で対応する y の値,すなわち a yi を予測したときの,
ˆ
i
回帰方程式を使って + bxi を yi = a
のデータにおける yi と yi の差を残差といい,di で表し
ˆ
ける yi と yi の差を残差といい,di で表します。残差とは,
ˆ
予測によって表現できなかった部分
ˆ
i の値を yi と予測したとき,予測によって表現できな
予測したとき,予測によって表現できなかった部分を表し
を係数(前回の講義参照)とすると
x と y の相関係数(前回の講義参照)とすると
残差について(付録3)
2
di

=

22
(yi − yi i =
ˆ) =
d

(1

2
2 2
2
− rxy ) yi ) (yi − y− rxy )
(yi − ˆ = (1¯)

(yi

相関 決定
残差
2 が 1 に近づくほど y と y の差は小さくな
2
3)
。つまり,rxy 。つまり,rxy が 1 に近づくほど yi と
i
(導出は付録3)
係数 係数 ˆi
A. Asano, Kansai Univ.

すなわち,最小二乗法で求めたモデルによって,y が x か
となります。すなわち,最小二乗法で求めたモデルに
2 を決定係数とよびます。
このことから,rxy
2 を決定係数とよびます
になります。このことから,r
xy

うに説明できます。(4) 式を少し変形して

味は,次のように説明できます。(4) 式を少し変形して
2013年度秋学期 統計学
残差と決定係数

,回帰直線上で対応する y の値,すなわち ++ bxi を
a bx と表す
で対応する y の値,すなわち a yi を予測したときの,
ˆ
i
回帰方程式を使って + bxi を yi = a
のデータにおける yi と yi の差を残差といい,di で表し
ˆ
ける yi と yi の差を残差といい,di で表します。残差とは,
ˆ
予測によって表現できなかった部分
ˆ
i の値を yi と予測したとき,予測によって表現できな
予測したとき,予測によって表現できなかった部分を表し
を係数(前回の講義参照)とすると
x と y の相関係数(前回の講義参照)とすると
残差について(付録3)
2
di

=

22
(yi − yi i =
ˆ) =
d

(1

2
2 2
2
− rxy ) yi ) (yi − y− rxy )
(yi − ˆ = (1¯)

(yi

相関 決定
残差
2 が 1 に近づくほど y と y の差は小さくな
2
3)
。つまり,rxy 。つまり,rxy が 1 に近づくほど yi と
i
(導出は付録3)
係数 係数 ˆi
A. Asano, Kansai Univ.

すなわち,最小二乗法で求めたモデルによって,y が x か
となります。すなわち,最小二乗法で求めたモデルに
決定係数が1に近づくほど
2 を決定係数とよびます。
このことから,rxy
2 を決定係数とよびます
になります。このことから,r
xy

残差の2乗和が0に近づく
うに説明できます。(4) 式を少し変形して
味は,次のように説明できます。(4) 式を少し変形して
2013年度秋学期 統計学
ータにおける yi と yi の差を残差といい,di で表します。残差とは,回帰方程
ˆ
yi と yi の差を残差といい,di で表します。残差とは,回帰方程式と xi
ˆ
の値を yi と予測したとき,予測によって表現できなかった部分を表しています
ˆ
測したとき,予測によって表現できなかった部分を表しています。残差
と y の相関係数(前回の講義参照)とすると
数(前回の講義参照)とすると

2

決定係数の意味

=

(yi − y )2
¯
より

(yi − yi22= (1 − rxy )yi )2(yi − y− rxy )
ˆi =
d)
(yi 2− ˆ = (1¯)2 2

(4)

2
2
2 が 1 に近づくほど y と y の差は小さくなり,r 2
。つまり,rxy が 1 に近づくほど yi と yi の差は小さくなり,rxy = 1 の
ˆ
出は付録3)
。つまり,rxy
ˆi
i
xy
わち,最小二乗法で求めたモデルによって,y が x から完全に正確に
なります。すなわち,最小二乗法で求めたモデルによって,y が x から完全に
2
ことから,rxy を決定係数とよびます。
なります。このことから,r2 を決定係数とよびます。

xy

説明できます。(4) 式を少し変形して

は,次のように説明できます。(4) 式を少し変形して

2
− rxy =

d2
i
2 =
(y1 − y )xy =
r2
i −¯

d2 /n
i
d2 2
i
(yi − y ) /n=
¯

(yi − y )2
¯

d2 /n
i
(yi − y )2 /n
¯

(5)

A. Asano, Kansai Univ.

母は,y 全体の平均からの各 yi のへだたり,すなわち偏差の2乗の平
式の右端の分母は,y 全体の平均からの各 yi のへだたり,すなわち偏差の2
ます。一方,分子は,残差の2乗の平均になっています。残差は「線
分散を表しています。一方,分子は,残差の2乗の平均になっています。残差
たり」ですから,分子は「線形モデルによる予測結果を中心とするば
測結果からの隔たり」ですから,分子は「線形モデルによる予測結果を中心と
3)
。

しています(図 3)
。
ともとの y のばらつき具合に対する,線形モデルからのばらつき具合の
2

2013年度秋学期 統計学
,r が 1 に近づくほど y と y の差は小さく
ˆ
。すなわち,最小二乗法で求めたモデル
決定係数の意味
最小二乗法で求めたモデルによって,y が x
2 を決定係数とよびま
。このことから,rxy2
2 を決定係数とよびます。
2
ら,(yxyyˆi22= (1 − ri xy )yi)2(yi − y−2 rより(yi − y)2
ri − di) = (y 2− ˆ = (1¯) xy )
=
(4)
¯

ータにおける yi と yi の差を残差といい,di で表します。残差とは,回帰方程
ˆ
yi と yixy
ˆ の差を残差といい,di で表します。残差とは,回帰方程式と xi
i
i
の値を yi と予測したとき,予測によって表現できなかった部分を表しています
ˆ
測したとき,予測によって表現できなかった部分を表しています。残差
と y の相関係数(前回の講義参照)とすると
数(前回の講義参照)とすると

ように説明できます。(4) 式を少し変形し
きます。(4) 式を少し変形して

2
2
2 が 1 に近づくほど y と y の差は小さくなり,r 2
。つまり,rxy が 1 に近づくほど yi と yi の差は小さくなり,rxy = 1 の
ˆ
出は付録3)
。つまり,rxy
ˆi
i
xy
わち,最小二乗法で求めたモデルによって,y が x から完全に正確に
なります。すなわち,最小二乗法で求めたモデルによって,y が x から完全に
2
ことから,rxy を決定係数とよびます。
なります。このことから,r2 を決定係数とよびます。

xy

22
は,次のように説明できます。(4) 式を少し変形して
di 2
ddi
/n
i
= 2 1 −2 rxy = d2/n
=
di
i2
2 /n 2
2
− rxy =
=
di 2 (y − yi)2 /n
d
2
(yi(y1 − yry2)= (yi − y) /n=i i −¯y )
− ¯¯
¯2
¯ (y
i − )
xy
2

2 /n
di

2
説明できます。(4) 式を少し変形して
(yi − y )
¯

(yi − y ) /n
¯

(yi − y )
¯

(5)

母は,y 全体の平均からの各 yi のへだたり,すなわち偏差の2乗の平
式の右端の分母は,y 全体の平均からの各 yi のへだたり,すなわち偏差の2
ます。一方,分子は,残差の2乗の平均になっています。残差は「線
i
分散を表しています。一方,分子は,残差の2乗の平均になっています。残差
たり」ですから,分子は「線形モデルによる予測結果を中心とするば
測結果からの隔たり」ですから,分子は「線形モデルによる予測結果を中心と
3)
。
A. Asano, Kansai Univ.

全体の平均からの各 y のへだたり,すなわ
端の分母は,y 全体の平均からの各 yi の
一方,分子は,残差の2乗の平均になってい
しています。一方,分子は,残差の2乗
しています(図 3)
。
ともとの y のばらつき具合に対する,線形モデルからのばらつき具合の
ですから,分子は「線形モデルによる予測結
2
2013年度秋学期 統計学
,r が 1 に近づくほど y と y の差は小さく
ˆ
。すなわち,最小二乗法で求めたモデル
決定係数の意味
最小二乗法で求めたモデルによって,y が x
2 を決定係数とよびま
。このことから,rxy2
2 を決定係数とよびます。
2
ら,(yxyyˆi22= (1 − ri xy )yi)2(yi − y−2 rより(yi − y)2
ri − di) = (y 2− ˆ = (1¯) xy )
=
(4)
¯

ータにおける yi と yi の差を残差といい,di で表します。残差とは,回帰方程
ˆ
yi と yixy
ˆ の差を残差といい,di で表します。残差とは,回帰方程式と xi
i
i
の値を yi と予測したとき,予測によって表現できなかった部分を表しています
ˆ
測したとき,予測によって表現できなかった部分を表しています。残差
と y の相関係数(前回の講義参照)とすると
数(前回の講義参照)とすると

ように説明できます。(4) 式を少し変形し
きます。(4) 式を少し変形して

2
2
2 が 1 に近づくほど y と y の差は小さくなり,r 2
。つまり,rxy が 1 に近づくほど yi と yi の差は小さくなり,rxy = 1 の
ˆ
出は付録3)
。つまり,rxy
ˆi
i
xy
わち,最小二乗法で求めたモデルによって,y が x から完全に正確に
なります。すなわち,最小二乗法で求めたモデルによって,y が x から完全に
2
ことから,rxy を決定係数とよびます。
なります。このことから,r2 を決定係数とよびます。

xy

22
は,次のように説明できます。(4) 式を少し変形して
di 2
ddi
/n
i
= 2 1 −2 rxy = d2/n
=
di
i2
2 /n 2
2
− rxy =
=
di 2 (y − yi)2 /n
d
2
(yi(y1 − yry2)= (yi − y) /n=i i −¯y )
− ¯¯
¯2
¯ (y
i − )
xy
2

2 /n
di

2
説明できます。(4) 式を少し変形して

(yi − y )
¯

(5)

¯
(yi − y ) /n
¯
決定 (yi − y)
母は,y 全体の平均からの各 yi のへだたり,すなわち偏差の2乗の平
係数全体の平均からの各 y のへだたり,すなわち偏差の2
式の右端の分母は,y

全体の平均からの各 y のへだたり,すなわ
端の分母は,y 全体の平均からの各 yi の
一方,分子は,残差の2乗の平均になってい
しています。一方,分子は,残差の2乗
しています(図 3)
。
ともとの y のばらつき具合に対する,線形モデルからのばらつき具合の
ですから,分子は「線形モデルによる予測結
2
A. Asano, Kansai Univ.

i
ます。一方,分子は,残差の2乗の平均になっています。残差は「線
i
分散を表しています。一方,分子は,残差の2乗の平均になっています。残差
たり」ですから,分子は「線形モデルによる予測結果を中心とするば
測結果からの隔たり」ですから,分子は「線形モデルによる予測結果を中心と
3)
。

2013年度秋学期 統計学
,r が 1 に近づくほど y と y の差は小さく
ˆ
。すなわち,最小二乗法で求めたモデル
決定係数の意味
最小二乗法で求めたモデルによって,y が x
2 を決定係数とよびま
。このことから,rxy2
2 を決定係数とよびます。
2
ら,(yxyyˆi22= (1 − ri xy )yi)2(yi − y−2 rより(yi − y)2
ri − di) = (y 2− ˆ = (1¯) xy )
=
(4)
¯

ータにおける yi と yi の差を残差といい,di で表します。残差とは,回帰方程
ˆ
yi と yixy
ˆ の差を残差といい,di で表します。残差とは,回帰方程式と xi
i
i
の値を yi と予測したとき,予測によって表現できなかった部分を表しています
ˆ
測したとき,予測によって表現できなかった部分を表しています。残差
と y の相関係数(前回の講義参照)とすると
数(前回の講義参照)とすると

ように説明できます。(4) 式を少し変形し
きます。(4) 式を少し変形して

2
2
2 が 1 に近づくほど y と y の差は小さくなり,r 2
。つまり,rxy が 1 に近づくほど yi と yi の差は小さくなり,rxy = 1 の
ˆ
出は付録3)
。つまり,rxy
ˆi
i
xy
わち,最小二乗法で求めたモデルによって,y が x から完全に正確に
なります。すなわち,最小二乗法で求めたモデルによって,y が x から完全に
2
ことから,rxy を決定係数とよびます。
なります。このことから,r2 を決定係数とよびます。

xy

22
は,次のように説明できます。(4) 式を少し変形して
di 2
ddi
/n
i
= 2 1 −2 rxy = d2/n
=
di
i2
2 /n 2
2
− rxy =
=
di 2 (y − yi)2 /n
d
2
(yi(y1 − yry2)= (yi − y) /n=i i −¯y )
− ¯¯
¯2
¯ (y
i − )
xy
2

2 /n
di

2
説明できます。(4) 式を少し変形して

(yi − y )
¯

(5)

¯
(yi − y ) /n
¯
決定 (yi − y)
母は,y 全体の平均からの各 yi のへだたり,すなわち偏差の2乗の平
係数全体の平均からの各 y のへだたり,すなわち偏差の2
式の右端の分母は,y

全体の平均からの各 y のへだたり,すなわ
端の分母は,y 全体の平均からの各 yi の
一方,分子は,残差の2乗の平均になってい
しています。一方,分子は,残差の2乗
しています(図 3)
。
ともとの y のばらつき具合に対する,線形モデルからのばらつき具合の
ですから,分子は「線形モデルによる予測結
2
A. Asano, Kansai Univ.

i
ます。一方,分子は,残差の2乗の平均になっています。残差は「線
i
分散を表しています。一方,分子は,残差の2乗の平均になっています。残差
たり」ですから,分子は「線形モデルによる予測結果を中心とするば
測結果からの隔たり」ですから,分子は「線形モデルによる予測結果を中心と
3)
。

2013年度秋学期 統計学
,r が 1 に近づくほど y と y の差は小さく
ˆ
。すなわち,最小二乗法で求めたモデル
決定係数の意味
最小二乗法で求めたモデルによって,y が x
2 を決定係数とよびま
。このことから,rxy2
2 を決定係数とよびます。
2
ら,(yxyyˆi22= (1 − ri xy )yi)2(yi − y−2 rより(yi − y)2
ri − di) = (y 2− ˆ = (1¯) xy )
=
(4)
¯

ータにおける yi と yi の差を残差といい,di で表します。残差とは,回帰方程
ˆ
yi と yixy
ˆ の差を残差といい,di で表します。残差とは,回帰方程式と xi
i
i
の値を yi と予測したとき,予測によって表現できなかった部分を表しています
ˆ
測したとき,予測によって表現できなかった部分を表しています。残差
と y の相関係数(前回の講義参照)とすると
数(前回の講義参照)とすると

ように説明できます。(4) 式を少し変形し
きます。(4) 式を少し変形して

2
2
2 が 1 に近づくほど y と y の差は小さくなり,r 2
。つまり,rxy が 1 に近づくほど yi と yi の差は小さくなり,rxy = 1 の
ˆ
出は付録3)
。つまり,rxy
ˆi
i
xy
わち,最小二乗法で求めたモデルによって,y が x から完全に正確に
なります。すなわち,最小二乗法で求めたモデルによって,y が x から完全に
2
ことから,rxy を決定係数とよびます。
なります。このことから,r2 を決定係数とよびます。

残差の2乗の平均

xy

22
は,次のように説明できます。(4) 式を少し変形して
di 2
ddi
/n
i
= 2 1 −2 rxy = d2/n
=
di
i2
2 /n 2
2
− rxy =
=
di 2 (y − yi)2 /n
d
2
(yi(y1 − yry2)= (yi − y) /n=i i −¯y )
− ¯¯
¯2
¯ (y
i − )
xy
2

2 /n
di

2
説明できます。(4) 式を少し変形して

(yi − y )
¯

(5)

¯
(yi − y ) /n
¯
決定 (yi − y)
母は,y 全体の平均からの各 yi のへだたり,すなわち偏差の2乗の平
係数全体の平均からの各 y のへだたり,すなわち偏差の2
式の右端の分母は,y

全体の平均からの各 y のへだたり,すなわ
端の分母は,y 全体の平均からの各 yi の
一方,分子は,残差の2乗の平均になってい
しています。一方,分子は,残差の2乗
しています(図 3)
。
ともとの y のばらつき具合に対する,線形モデルからのばらつき具合の
ですから,分子は「線形モデルによる予測結
2
A. Asano, Kansai Univ.

i
ます。一方,分子は,残差の2乗の平均になっています。残差は「線
i
分散を表しています。一方,分子は,残差の2乗の平均になっています。残差
たり」ですから,分子は「線形モデルによる予測結果を中心とするば
測結果からの隔たり」ですから,分子は「線形モデルによる予測結果を中心と
3)
。

2013年度秋学期 統計学
,r が 1 に近づくほど y と y の差は小さく
ˆ
。すなわち,最小二乗法で求めたモデル
決定係数の意味
最小二乗法で求めたモデルによって,y が x
2 を決定係数とよびま
。このことから,rxy2
2 を決定係数とよびます。
2
ら,(yxyyˆi22= (1 − ri xy )yi)2(yi − y−2 rより(yi − y)2
ri − di) = (y 2− ˆ = (1¯) xy )
=
(4)
¯

ータにおける yi と yi の差を残差といい,di で表します。残差とは,回帰方程
ˆ
yi と yixy
ˆ の差を残差といい,di で表します。残差とは,回帰方程式と xi
i
i
の値を yi と予測したとき,予測によって表現できなかった部分を表しています
ˆ
測したとき,予測によって表現できなかった部分を表しています。残差
と y の相関係数(前回の講義参照)とすると
数(前回の講義参照)とすると

ように説明できます。(4) 式を少し変形し
きます。(4) 式を少し変形して

2
2
2 が 1 に近づくほど y と y の差は小さくなり,r 2
。つまり,rxy が 1 に近づくほど yi と yi の差は小さくなり,rxy = 1 の
ˆ
出は付録3)
。つまり,rxy
ˆi
i
xy
わち,最小二乗法で求めたモデルによって,y が x から完全に正確に
なります。すなわち,最小二乗法で求めたモデルによって,y が x から完全に
2
ことから,rxy を決定係数とよびます。
なります。このことから,r2 を決定係数とよびます。

残差の2乗の平均

xy

22
は,次のように説明できます。(4) 式を少し変形して
di 2
ddi
/n
i
= 2 1 −2 rxy = d2/n
=
di
i2
2 /n 2
2
− rxy =
=
di 2 (y − yi)2 /n
d
2
(yi(y1 − yry2)= (yi − y) /n=i i −¯y )
− ¯¯
¯2
¯ (y
i − )
xy
2

2 /n
di

2
説明できます。(4) 式を少し変形して

(yi − y )
¯

(5)

¯
(yi − y ) /n
¯
決定 (yi − y)
母は,y 全体の平均からの各 yi のへだたり,すなわち偏差の2乗の平
係数全体の平均からの各 y のへだたり,すなわち偏差の2
式の右端の分母は,y

全体の平均からの各 y のへだたり,すなわ
端の分母は,y 全体の平均からの各 yi の
一方,分子は,残差の2乗の平均になってい
しています。一方,分子は,残差の2乗
しています(図 3)
。
ともとの y のばらつき具合に対する,線形モデルからのばらつき具合の
ですから,分子は「線形モデルによる予測結
2
A. Asano, Kansai Univ.

i
ます。一方,分子は,残差の2乗の平均になっています。残差は「線
i
分散を表しています。一方,分子は,残差の2乗の平均になっています。残差
たり」ですから,分子は「線形モデルによる予測結果を中心とするば
測結果からの隔たり」ですから,分子は「線形モデルによる予測結果を中心と
3)
。

2013年度秋学期 統計学
,r が 1 に近づくほど y と y の差は小さく
ˆ
。すなわち,最小二乗法で求めたモデル
決定係数の意味
最小二乗法で求めたモデルによって,y が x
2 を決定係数とよびま
。このことから,rxy2
2 を決定係数とよびます。
2
ら,(yxyyˆi22= (1 − ri xy )yi)2(yi − y−2 rより(yi − y)2
ri − di) = (y 2− ˆ = (1¯) xy )
=
(4)
¯

ータにおける yi と yi の差を残差といい,di で表します。残差とは,回帰方程
ˆ
yi と yixy
ˆ の差を残差といい,di で表します。残差とは,回帰方程式と xi
i
i
の値を yi と予測したとき,予測によって表現できなかった部分を表しています
ˆ
測したとき,予測によって表現できなかった部分を表しています。残差
と y の相関係数(前回の講義参照)とすると
数(前回の講義参照)とすると

ように説明できます。(4) 式を少し変形し
きます。(4) 式を少し変形して

2
2
2 が 1 に近づくほど y と y の差は小さくなり,r 2
。つまり,rxy が 1 に近づくほど yi と yi の差は小さくなり,rxy = 1 の
ˆ
出は付録3)
。つまり,rxy
ˆi
i
xy
わち,最小二乗法で求めたモデルによって,y が x から完全に正確に
なります。すなわち,最小二乗法で求めたモデルによって,y が x から完全に
2
ことから,rxy を決定係数とよびます。
なります。このことから,r2 を決定係数とよびます。

残差の2乗の平均

xy

22
は,次のように説明できます。(4) 式を少し変形して
di 2
ddi
/n
i
= 2 1 −2 rxy = d2/n
=
di
i2
2 /n 2
2
− rxy =
=
di 2 (y − yi)2 /n
d
2
(yi(y1 − yry2)= (yi − y) /n=i i −¯y )
− ¯¯
¯2
¯ (y
i − )
xy
2

2 /n
di

2
説明できます。(4) 式を少し変形して

(yi − y )
¯

(5)

¯
(yi − y ) /n
¯
決定 (yi − y)
母は,y 全体の平均からの各 yi のへだたり,すなわち偏差の2乗の平
係数全体の平均からの各 y のへだたり,すなわち偏差の2
yの偏差の2乗の平均
式の右端の分母は,y

全体の平均からの各 y のへだたり,すなわ
端の分母は,y 全体の平均からの各 yi の
一方,分子は,残差の2乗の平均になってい
しています。一方,分子は,残差の2乗
しています(図 3)
。
ともとの y のばらつき具合に対する,線形モデルからのばらつき具合の
ですから,分子は「線形モデルによる予測結
2
A. Asano, Kansai Univ.

i
ます。一方,分子は,残差の2乗の平均になっています。残差は「線
i
分散を表しています。一方,分子は,残差の2乗の平均になっています。残差
たり」ですから,分子は「線形モデルによる予測結果を中心とするば
測結果からの隔たり」ですから,分子は「線形モデルによる予測結果を中心と
3)
。

2013年度秋学期 統計学
,r が 1 に近づくほど y と y の差は小さく
ˆ
。すなわち,最小二乗法で求めたモデル
決定係数の意味
最小二乗法で求めたモデルによって,y が x
2 を決定係数とよびま
。このことから,rxy2
2 を決定係数とよびます。
2
ら,(yxyyˆi22= (1 − ri xy )yi)2(yi − y−2 rより(yi − y)2
ri − di) = (y 2− ˆ = (1¯) xy )
=
(4)
¯

ータにおける yi と yi の差を残差といい,di で表します。残差とは,回帰方程
ˆ
yi と yixy
ˆ の差を残差といい,di で表します。残差とは,回帰方程式と xi
i
i
の値を yi と予測したとき,予測によって表現できなかった部分を表しています
ˆ
測したとき,予測によって表現できなかった部分を表しています。残差
と y の相関係数(前回の講義参照)とすると
数(前回の講義参照)とすると

ように説明できます。(4) 式を少し変形し
きます。(4) 式を少し変形して

2
2
2 が 1 に近づくほど y と y の差は小さくなり,r 2
。つまり,rxy が 1 に近づくほど yi と yi の差は小さくなり,rxy = 1 の
ˆ
出は付録3)
。つまり,rxy
ˆi
i
xy
わち,最小二乗法で求めたモデルによって,y が x から完全に正確に
なります。すなわち,最小二乗法で求めたモデルによって,y が x から完全に
2
ことから,rxy を決定係数とよびます。
なります。このことから,r2 を決定係数とよびます。

残差の2乗の平均

xy

22
は,次のように説明できます。(4) 式を少し変形して
di 2
ddi
/n
i
= 2 1 −2 rxy = d2/n
=
di
i2
2 /n 2
2
− rxy =
=
di 2 (y − yi)2 /n
d
2
(yi(y1 − yry2)= (yi − y) /n=i i −¯y )
− ¯¯
¯2
¯ (y
i − )
xy
2

2 /n
di

2
説明できます。(4) 式を少し変形して

(yi − y )
¯

(5)

¯
(yi − y ) /n
¯
決定 (yi − y)
母は,y 全体の平均からの各 yi のへだたり,すなわち偏差の2乗の平
係数全体の平均からの各 y のへだたり,すなわち偏差の2
yの偏差の2乗の平均
式の右端の分母は,y

全体の平均からの各 y のへだたり,すなわ
端の分母は,y 全体の平均からの各 yi の
一方,分子は,残差の2乗の平均になってい
しています。一方,分子は,残差の2乗
しています(図 3)
。
ともとの y のばらつき具合に対する,線形モデルからのばらつき具合の
ですから,分子は「線形モデルによる予測結
2
A. Asano, Kansai Univ.

i
ます。一方,分子は,残差の2乗の平均になっています。残差は「線
i
分散を表しています。一方,分子は,残差の2乗の平均になっています。残差
たり」ですから,分子は「線形モデルによる予測結果を中心とするば
測結果からの隔たり」ですから,分子は「線形モデルによる予測結果を中心と
3)
。

2013年度秋学期 統計学
,r が 1 に近づくほど y と y の差は小さく
ˆ
。すなわち,最小二乗法で求めたモデル
決定係数の意味
最小二乗法で求めたモデルによって,y が x
2 を決定係数とよびま
。このことから,rxy2
2 を決定係数とよびます。
2
ら,(yxyyˆi22= (1 − ri xy )yi)2(yi − y−2 rより(yi − y)2
ri − di) = (y 2− ˆ = (1¯) xy )
=
(4)
¯

ータにおける yi と yi の差を残差といい,di で表します。残差とは,回帰方程
ˆ
yi と yixy
ˆ の差を残差といい,di で表します。残差とは,回帰方程式と xi
i
i
の値を yi と予測したとき,予測によって表現できなかった部分を表しています
ˆ
測したとき,予測によって表現できなかった部分を表しています。残差
と y の相関係数(前回の講義参照)とすると
数(前回の講義参照)とすると

ように説明できます。(4) 式を少し変形し
きます。(4) 式を少し変形して

2
2
2 が 1 に近づくほど y と y の差は小さくなり,r 2
。つまり,rxy が 1 に近づくほど yi と yi の差は小さくなり,rxy = 1 の
ˆ
出は付録3)
。つまり,rxy
ˆi
i
xy
わち,最小二乗法で求めたモデルによって,y が x から完全に正確に
なります。すなわち,最小二乗法で求めたモデルによって,y が x から完全に
2
ことから,rxy を決定係数とよびます。
なります。このことから,r2 を決定係数とよびます。

残差の2乗の平均

xy

22
は,次のように説明できます。(4) 式を少し変形して
di 2
ddi
/n
i
= 2 1 −2 rxy = d2/n
=
di
i2
2 /n 2
2
− rxy =
=
di 2 (y − yi)2 /n
d
2
(yi(y1 − yry2)= (yi − y) /n=i i −¯y )
− ¯¯
¯2
¯ (y
i − )
xy
2

2 /n
di

2
説明できます。(4) 式を少し変形して

(yi − y )
¯

(5)

¯
(yi − y ) /n
¯
決定 (yi − y)
母は,y 全体の平均からの各 yi のへだたり,すなわち偏差の2乗の平
係数全体の平均からの各 y のへだたり,すなわち偏差の2
yの偏差の2乗の平均
式の右端の分母は,y

全体の平均からの各 y のへだたり,すなわ
端の分母は,y 全体の平均からの各 yi の
一方,分子は,残差の2乗の平均になってい
しています。一方,分子は,残差の2乗
しています(図 3)
。
ともとの y のばらつき具合に対する,線形モデルからのばらつき具合の
ですから,分子は「線形モデルによる予測結
2
A. Asano, Kansai Univ.

i
ます。一方,分子は,残差の2乗の平均になっています。残差は「線
i
分散を表しています。一方,分子は,残差の2乗の平均になっています。残差
たり」ですから,分子は「線形モデルによる予測結果を中心とするば
測結果からの隔たり」ですから,分子は「線形モデルによる予測結果を中心と
3)
。

2013年度秋学期 統計学
,r が 1 に近づくほど y と y の差は小さく
ˆ
。すなわち,最小二乗法で求めたモデル
決定係数の意味
最小二乗法で求めたモデルによって,y が x
2 を決定係数とよびま
。このことから,rxy2
2 を決定係数とよびます。
2
ら,(yxyyˆi22= (1 − ri xy )yi)2(yi − y−2 rより(yi − y)2
ri − di) = (y 2− ˆ = (1¯) xy )
=
(4)
¯

ータにおける yi と yi の差を残差といい,di で表します。残差とは,回帰方程
ˆ
yi と yixy
ˆ の差を残差といい,di で表します。残差とは,回帰方程式と xi
i
i
の値を yi と予測したとき,予測によって表現できなかった部分を表しています
ˆ
測したとき,予測によって表現できなかった部分を表しています。残差
と y の相関係数(前回の講義参照)とすると
数(前回の講義参照)とすると

ように説明できます。(4) 式を少し変形し
きます。(4) 式を少し変形して

2
2
2 が 1 に近づくほど y と y の差は小さくなり,r 2
。つまり,rxy が 1 に近づくほど yi と yi の差は小さくなり,rxy = 1 の
ˆ
出は付録3)
。つまり,rxy
ˆi
i
xy
わち,最小二乗法で求めたモデルによって,y が x から完全に正確に
なります。すなわち,最小二乗法で求めたモデルによって,y が x から完全に
2
ことから,rxy を決定係数とよびます。
なります。このことから,r2 を決定係数とよびます。

残差の2乗の平均

xy

22
は,次のように説明できます。(4) 式を少し変形して
di 2
ddi
/n
i
= 2 1 −2 rxy = d2/n
=
di
i2
2 /n 2
2
− rxy =
=
di 2 (y − yi)2 /n
d
2
(yi(y1 − yry2)= (yi − y) /n=i i −¯y )
− ¯¯
¯2
¯ (y
i − )
xy
2

2 /n
di

2
説明できます。(4) 式を少し変形して

(yi − y )
¯

(5)

¯
(yi − y ) /n
¯
決定 (yi − y)
母は,y 全体の平均からの各 yi のへだたり,すなわち偏差の2乗の平
係数全体の平均からの各 y のへだたり,すなわち偏差の2
yの偏差の2乗の平均
式の右端の分母は,y

全体の平均からの各 y のへだたり,すなわ
端の分母は,y 全体の平均からの各 yi の
=yの分散
一方,分子は,残差の2乗の平均になってい
しています。一方,分子は,残差の2乗
しています(図 3)
。
ともとの y のばらつき具合に対する,線形モデルからのばらつき具合の
ですから,分子は「線形モデルによる予測結
2
A. Asano, Kansai Univ.

i
ます。一方,分子は,残差の2乗の平均になっています。残差は「線
i
分散を表しています。一方,分子は,残差の2乗の平均になっています。残差
たり」ですから,分子は「線形モデルによる予測結果を中心とするば
測結果からの隔たり」ですから,分子は「線形モデルによる予測結果を中心と
3)
。

2013年度秋学期 統計学
のように説明できます。(4) 式を少し変形して
できます。(4) 式を少し変形して
決定係数の意味
=

d2 2
i

1 − rxy =
2

(yi − y )
¯

2
2 /n
ddi
i
=
− y )2 /n
¯ 2

(yi i − y )
(y
¯

2 /n
残差の2乗の平均
di

(5)

(yi − y )2 /n
¯
yの偏差の2乗の平均

決定
,端の分母は,y 全体の平均からの各 y のへだたり,すな
y 全体の平均からの各 yi のへだたり,すなわち偏差の2乗の平
(yの分散)
係数
i

。一方,分子は,残差の2乗の平均になっています。残差は「線
表しています。一方,分子は,残差の2乗の平均になって
」ですから,分子は「線形モデルによる予測結果を中心とするば

からの隔たり」ですから,分子は「線形モデルによる予測
ます(図 3)
。

A. Asano, Kansai Univ.

の y のばらつき具合に対する,線形モデルからのばらつき具合の
は「もともとの y
。線形単回帰では, のばらつき具合に対する,線形モデルか
「データが散布図上にばらついている」という
とになります。線形単回帰では,
「データが散布図上にばら
ではなく,線形モデルで表される直線に沿ってばらついている」
ルで完全に表されたわけではなく,直線から見てもデータはいく
ついているのではなく,線形モデルで表される直線に沿っ
で完全に説明がついているわけではありません。こう考えると,
し,線形モデルで完全に表されたわけではなく,直線から
2013年度秋学期 統計学
のように説明できます。(4) 式を少し変形して
できます。(4) 式を少し変形して
決定係数の意味
=

d2 2
i

1 − rxy =
2

(yi − y )
¯

2
2 /n
ddi
i
=
− y )2 /n
¯ 2

(yi i − y )
(y
¯

2 /n
残差の2乗の平均
di

(5)

(yi − y )2 /n
¯
yの偏差の2乗の平均

決定
,端の分母は,y 全体の平均からの各 y のへだたり,すな
y 全体の平均からの各 yi のへだたり,すなわち偏差の2乗の平
(yの分散)
係数
i

。一方,分子は,残差の2乗の平均になっています。残差は「線
表しています。一方,分子は,残差の2乗の平均になって
」ですから,分子は「線形モデルによる予測結果を中心とするば
y

からの隔たり」ですから,分子は「線形モデルによる予測
y
[決定係
y
i
なら
di = yi – yi
y
i
ます(図 3)i – y
。
y
[分散]
[残差]
A. Asano, Kansai Univ.

[偏差]
の y のばらつき具合に対する,線形モデルからのばらつき具合の
y
y
は「もともとの y のばらつき具合に対する,線形モデルか
。線形単回帰では,
「データが散布図上にばらついている」という
とになります。線形単回帰では,
「データが散布図上にばら
ではなく,線形モデルで表される直線に沿ってばらついている」
ルで完全に表されたわけではなく,直線から見てもデータはいく
ついているのではなく,線形モデルで表される直線に沿っ
x
x
i
で完全に説明がついているわけではありません。こう考えると,
し,線形モデルで完全に表されたわけではなく,直線から
2013年度秋学期 統計学

図 4: 決定係数の意味
のように説明できます。(4) 式を少し変形して
できます。(4) 式を少し変形して
決定係数の意味
=

d2 2
i

1 − rxy =
2

(yi − y )
¯

2
2 /n
ddi
i
=
− y )2 /n
¯ 2

(yi i − y )
(y
¯

2 /n
残差の2乗の平均
di

(5)

(yi − y )2 /n
¯
yの偏差の2乗の平均

決定
,端の分母は,y 全体の平均からの各 y のへだたり,すな
y 全体の平均からの各 yi のへだたり,すなわち偏差の2乗の平
(yの分散)
係数
i

。一方,分子は,残差の2乗の平均になっています。残差は「線
表しています。一方,分子は,残差の2乗の平均になって
」ですから,分子は「線形モデルによる予測結果を中心とするば
y

からの隔たり」ですから,分子は「線形モデルによる予測
y
[決定係
y
i
なら
di = yi – yi
y
i
ます(図 3)i – y
。
y
[分散]
[残差]
A. Asano, Kansai Univ.

[偏差]
の y のばらつき具合に対する,線形モデルからのばらつき具合の
y
y
は「もともとの y のばらつき具合に対する,線形モデルか
。線形単回帰では,
「データが散布図上にばらついている」という
とになります。線形単回帰では,
「データが散布図上にばら
ではなく,線形モデルで表される直線に沿ってばらついている」
ルで完全に表されたわけではなく,直線から見てもデータはいく
ついているのではなく,線形モデルで表される直線に沿っ
x
x
i
で完全に説明がついているわけではありません。こう考えると,
し,線形モデルで完全に表されたわけではなく,直線から
2013年度秋学期 統計学

図 4: 決定係数の意味
のように説明できます。(4) 式を少し変形して
できます。(4) 式を少し変形して
決定係数の意味
=

d2 2
i

1 − rxy =
2

(yi − y )
¯

2
2 /n
ddi
i
=
− y )2 /n
¯ 2

(yi i − y )
(y
¯

2 /n
残差の2乗の平均
di

(5)

(yi − y )2 /n
¯
yの偏差の2乗の平均

決定
,端の分母は,y 全体の平均からの各 y のへだたり,すな
y 全体の平均からの各 yi のへだたり,すなわち偏差の2乗の平
(yの分散)
係数
i

。一方,分子は,残差の2乗の平均になっています。残差は「線
表しています。一方,分子は,残差の2乗の平均になって
」ですから,分子は「線形モデルによる予測結果を中心とするば
y

からの隔たり」ですから,分子は「線形モデルによる予測
y
[決定係
y
i
なら
di = yi – yi
y
i
ます(図 3)i – y
。
y
[分散]
[残差]
A. Asano, Kansai Univ.

[偏差]
の y のばらつき具合に対する,線形モデルからのばらつき具合の
y
y
は「もともとの y のばらつき具合に対する,線形モデルか
。線形単回帰では,
「データが散布図上にばらついている」という
とになります。線形単回帰では,
「データが散布図上にばら
ではなく,線形モデルで表される直線に沿ってばらついている」
もともと y はこんなに
ルで完全に表されたわけではなく,直線から見てもデータはいく
ついているのではなく,線形モデルで表される直線に沿っ
x
x
i
ばらついていた
で完全に説明がついているわけではありません。こう考えると,
し,線形モデルで完全に表されたわけではなく,直線から
2013年度秋学期 統計学

図 4: 決定係数の意味
のように説明できます。(4) 式を少し変形して
できます。(4) 式を少し変形して
決定係数の意味
=

d2 2
i

1 − rxy =
2

(yi − y )
¯

2
2 /n
ddi
i
=
− y )2 /n
¯ 2

(yi i − y )
(y
¯

2 /n
残差の2乗の平均
di

(5)

(yi − y )2 /n
¯
yの偏差の2乗の平均

決定
,端の分母は,y 全体の平均からの各 y のへだたり,すな
y 全体の平均からの各 yi のへだたり,すなわち偏差の2乗の平
(yの分散)
係数
i

。一方,分子は,残差の2乗の平均になっています。残差は「線
表しています。一方,分子は,残差の2乗の平均になって
」ですから,分子は「線形モデルによる予測結果を中心とするば
y

からの隔たり」ですから,分子は「線形モデルによる予測
y
[決定係
y
i
なら
di = yi – yi
y
i
ます(図 3)i – y
。
y
[分散]
[残差]
A. Asano, Kansai Univ.

[偏差]
の y のばらつき具合に対する,線形モデルからのばらつき具合の
y
y
は「もともとの y のばらつき具合に対する,線形モデルか
。線形単回帰では,
「データが散布図上にばらついている」という
とになります。線形単回帰では,
「データが散布図上にばら
ではなく,線形モデルで表される直線に沿ってばらついている」
もともと y はこんなに
ルで完全に表されたわけではなく,直線から見てもデータはいく
ついているのではなく,線形モデルで表される直線に沿っ
x
x
i
ばらついていた
で完全に説明がついているわけではありません。こう考えると,
し,線形モデルで完全に表されたわけではなく,直線から
2013年度秋学期 統計学

図 4: 決定係数の意味
のように説明できます。(4) 式を少し変形して
できます。(4) 式を少し変形して
決定係数の意味
=

d2 2
i

1 − rxy =
2

(yi − y )
¯

2
2 /n
ddi
i
=
− y )2 /n
¯ 2

(yi i − y )
(y
¯

2 /n
残差の2乗の平均
di

(5)

(yi − y )2 /n
¯
yの偏差の2乗の平均

決定
,端の分母は,y 全体の平均からの各 y のへだたり,すな
y 全体の平均からの各 yi のへだたり,すなわち偏差の2乗の平
(yの分散)
係数
i

。一方,分子は,残差の2乗の平均になっています。残差は「線
表しています。一方,分子は,残差の2乗の平均になって
」ですから,分子は「線形モデルによる予測結果を中心とするば
y

回帰直線からの[決定係
からの隔たり」ですから,分子は「線形モデルによる予測
y
y
i
なら
di = yi – yi
y
i
ます(図 3)i – y
。
y
ばらつきは
[分散]
[残差]
A. Asano, Kansai Univ.

[偏差]
の y のばらつき具合に対する,線形モデルからのばらつき具合の
y
y
こんなに減った
は「もともとの y のばらつき具合に対する,線形モデルか
。線形単回帰では,
「データが散布図上にばらついている」という
とになります。線形単回帰では,
「データが散布図上にばら
ではなく,線形モデルで表される直線に沿ってばらついている」
もともと y はこんなに
ルで完全に表されたわけではなく,直線から見てもデータはいく
ついているのではなく,線形モデルで表される直線に沿っ
x
x
i
ばらついていた
で完全に説明がついているわけではありません。こう考えると,
し,線形モデルで完全に表されたわけではなく,直線から
2013年度秋学期 統計学

図 4: 決定係数の意味
のように説明できます。(4) 式を少し変形して
できます。(4) 式を少し変形して
決定係数の意味
=

d2 2
i

1 − rxy =
2

(yi − y )
¯

2
2 /n
ddi
i
=
− y )2 /n
¯ 2

(yi i − y )
(y
¯

2 /n
残差の2乗の平均
di

(5)

(yi − y )2 /n
¯
yの偏差の2乗の平均

決定
,端の分母は,y 全体の平均からの各 y のへだたり,すな
y 全体の平均からの各 yi のへだたり,すなわち偏差の2乗の平
(yの分散)
係数
i

。一方,分子は,残差の2乗の平均になっています。残差は「線
表しています。一方,分子は,残差の2乗の平均になって
」ですから,分子は「線形モデルによる予測結果を中心とするば
y

回帰直線からの[決定係
からの隔たり」ですから,分子は「線形モデルによる予測
y
y
i
なら
di = yi – yi
y
i
ます(図 3)i – y
。
y
ばらつきは
[分散]
[残差]
A. Asano, Kansai Univ.

[偏差]
の y のばらつき具合に対する,線形モデルからのばらつき具合の
y
y
こんなに減った
は「もともとの y のばらつき具合に対する,線形モデルか
。線形単回帰では,
「データが散布図上にばらついている」という
とになります。線形単回帰では,
「データが散布図上にばら
ではなく,線形モデルで表される直線に沿ってばらついている」
もともと y はこんなに
ルで完全に表されたわけではなく,直線から見てもデータはいく
ついているのではなく,線形モデルで表される直線に沿っ
x
x
i
ばらついていた
で完全に説明がついているわけではありません。こう考えると,
し,線形モデルで完全に表されたわけではなく,直線から
2013年度秋学期 統計学

図 4: 決定係数の意味
2013年度秋学期 統計学 第7回「データの関係を知る(2)−回帰分析」
2013年度秋学期 統計学 第7回「データの関係を知る(2)−回帰分析」
2013年度秋学期 統計学 第7回「データの関係を知る(2)−回帰分析」
2013年度秋学期 統計学 第7回「データの関係を知る(2)−回帰分析」
2013年度秋学期 統計学 第7回「データの関係を知る(2)−回帰分析」
2013年度秋学期 統計学 第7回「データの関係を知る(2)−回帰分析」
2013年度秋学期 統計学 第7回「データの関係を知る(2)−回帰分析」
2013年度秋学期 統計学 第7回「データの関係を知る(2)−回帰分析」
2013年度秋学期 統計学 第7回「データの関係を知る(2)−回帰分析」
2013年度秋学期 統計学 第7回「データの関係を知る(2)−回帰分析」
2013年度秋学期 統計学 第7回「データの関係を知る(2)−回帰分析」
2013年度秋学期 統計学 第7回「データの関係を知る(2)−回帰分析」
2013年度秋学期 統計学 第7回「データの関係を知る(2)−回帰分析」
2013年度秋学期 統計学 第7回「データの関係を知る(2)−回帰分析」
2013年度秋学期 統計学 第7回「データの関係を知る(2)−回帰分析」
2013年度秋学期 統計学 第7回「データの関係を知る(2)−回帰分析」
2013年度秋学期 統計学 第7回「データの関係を知る(2)−回帰分析」
2013年度秋学期 統計学 第7回「データの関係を知る(2)−回帰分析」
2013年度秋学期 統計学 第7回「データの関係を知る(2)−回帰分析」

Mais conteúdo relacionado

Mais procurados

2018年度春学期 統計学 第7回 データの関係を知る(2)ー回帰分析 (2018. 5. 24)
2018年度春学期 統計学 第7回 データの関係を知る(2)ー回帰分析 (2018. 5. 24)2018年度春学期 統計学 第7回 データの関係を知る(2)ー回帰分析 (2018. 5. 24)
2018年度春学期 統計学 第7回 データの関係を知る(2)ー回帰分析 (2018. 5. 24)Akira Asano
 
2015年度秋学期 統計学 第7回 データの関係を知る(2) ― 回帰と決定係数 (2015. 11. 18)
2015年度秋学期 統計学 第7回 データの関係を知る(2) ― 回帰と決定係数 (2015. 11. 18) 2015年度秋学期 統計学 第7回 データの関係を知る(2) ― 回帰と決定係数 (2015. 11. 18)
2015年度秋学期 統計学 第7回 データの関係を知る(2) ― 回帰と決定係数 (2015. 11. 18) Akira Asano
 
2015年度秋学期 統計学 第6回 データの関係を知る(1) ― 相関関係と因果関係 (2015. 11. 11)
2015年度秋学期 統計学 第6回 データの関係を知る(1) ― 相関関係と因果関係 (2015. 11. 11)2015年度秋学期 統計学 第6回 データの関係を知る(1) ― 相関関係と因果関係 (2015. 11. 11)
2015年度秋学期 統計学 第6回 データの関係を知る(1) ― 相関関係と因果関係 (2015. 11. 11)Akira Asano
 
2019年度秋学期 統計学 第7回 データの関係を知る(2)ー 回帰分析 (2019. 11. 12)
2019年度秋学期 統計学 第7回 データの関係を知る(2)ー 回帰分析 (2019. 11. 12)2019年度秋学期 統計学 第7回 データの関係を知る(2)ー 回帰分析 (2019. 11. 12)
2019年度秋学期 統計学 第7回 データの関係を知る(2)ー 回帰分析 (2019. 11. 12)Akira Asano
 
2018年度秋学期 統計学 第6回 データの関係を知る(1)ー相関関係と因果関係 (2018. 10. 30)
2018年度秋学期 統計学 第6回 データの関係を知る(1)ー相関関係と因果関係 (2018. 10. 30)2018年度秋学期 統計学 第6回 データの関係を知る(1)ー相関関係と因果関係 (2018. 10. 30)
2018年度秋学期 統計学 第6回 データの関係を知る(1)ー相関関係と因果関係 (2018. 10. 30)Akira Asano
 
2019年度秋学期 画像情報処理 第3回 フーリエ変換とサンプリング定理 (2019. 10. 11)
2019年度秋学期 画像情報処理 第3回 フーリエ変換とサンプリング定理 (2019. 10. 11)2019年度秋学期 画像情報処理 第3回 フーリエ変換とサンプリング定理 (2019. 10. 11)
2019年度秋学期 画像情報処理 第3回 フーリエ変換とサンプリング定理 (2019. 10. 11)Akira Asano
 
ガウスボンネの計算
ガウスボンネの計算ガウスボンネの計算
ガウスボンネの計算政孝 鍋島
 
2019年度秋学期 画像情報処理 第7回 主成分分析とKarhunen-Loève変換 (2019. 11. 15)
2019年度秋学期 画像情報処理 第7回 主成分分析とKarhunen-Loève変換 (2019. 11. 15)2019年度秋学期 画像情報処理 第7回 主成分分析とKarhunen-Loève変換 (2019. 11. 15)
2019年度秋学期 画像情報処理 第7回 主成分分析とKarhunen-Loève変換 (2019. 11. 15)Akira Asano
 
2019年度秋学期 画像情報処理 第11回 radon変換と投影定理 (2019. 12. 13)
2019年度秋学期 画像情報処理 第11回 radon変換と投影定理 (2019. 12. 13)2019年度秋学期 画像情報処理 第11回 radon変換と投影定理 (2019. 12. 13)
2019年度秋学期 画像情報処理 第11回 radon変換と投影定理 (2019. 12. 13)Akira Asano
 
2016年度秋学期 統計学 第7回 データの関係を知る(2)-回帰分析 (2016. 11. 7)
2016年度秋学期 統計学 第7回 データの関係を知る(2)-回帰分析 (2016. 11. 7)2016年度秋学期 統計学 第7回 データの関係を知る(2)-回帰分析 (2016. 11. 7)
2016年度秋学期 統計学 第7回 データの関係を知る(2)-回帰分析 (2016. 11. 7)Akira Asano
 
2019年度秋学期 画像情報処理 第6回 「行列」に慣れていない人のために (2019. 11. 8)
2019年度秋学期 画像情報処理 第6回 「行列」に慣れていない人のために (2019. 11. 8)2019年度秋学期 画像情報処理 第6回 「行列」に慣れていない人のために (2019. 11. 8)
2019年度秋学期 画像情報処理 第6回 「行列」に慣れていない人のために (2019. 11. 8)Akira Asano
 
2019年度秋学期 画像情報処理 第12回 逆投影法による再構成 (2019. 12. 20)
2019年度秋学期 画像情報処理 第12回 逆投影法による再構成 (2019. 12. 20)2019年度秋学期 画像情報処理 第12回 逆投影法による再構成 (2019. 12. 20)
2019年度秋学期 画像情報処理 第12回 逆投影法による再構成 (2019. 12. 20)Akira Asano
 
2019年度秋学期 画像情報処理 第9回 離散フーリエ変換と離散コサイン変換 (2019. 11. 29)
2019年度秋学期 画像情報処理 第9回 離散フーリエ変換と離散コサイン変換 (2019. 11. 29)2019年度秋学期 画像情報処理 第9回 離散フーリエ変換と離散コサイン変換 (2019. 11. 29)
2019年度秋学期 画像情報処理 第9回 離散フーリエ変換と離散コサイン変換 (2019. 11. 29)Akira Asano
 

Mais procurados (14)

2018年度春学期 統計学 第7回 データの関係を知る(2)ー回帰分析 (2018. 5. 24)
2018年度春学期 統計学 第7回 データの関係を知る(2)ー回帰分析 (2018. 5. 24)2018年度春学期 統計学 第7回 データの関係を知る(2)ー回帰分析 (2018. 5. 24)
2018年度春学期 統計学 第7回 データの関係を知る(2)ー回帰分析 (2018. 5. 24)
 
2015年度秋学期 統計学 第7回 データの関係を知る(2) ― 回帰と決定係数 (2015. 11. 18)
2015年度秋学期 統計学 第7回 データの関係を知る(2) ― 回帰と決定係数 (2015. 11. 18) 2015年度秋学期 統計学 第7回 データの関係を知る(2) ― 回帰と決定係数 (2015. 11. 18)
2015年度秋学期 統計学 第7回 データの関係を知る(2) ― 回帰と決定係数 (2015. 11. 18)
 
2015年度秋学期 統計学 第6回 データの関係を知る(1) ― 相関関係と因果関係 (2015. 11. 11)
2015年度秋学期 統計学 第6回 データの関係を知る(1) ― 相関関係と因果関係 (2015. 11. 11)2015年度秋学期 統計学 第6回 データの関係を知る(1) ― 相関関係と因果関係 (2015. 11. 11)
2015年度秋学期 統計学 第6回 データの関係を知る(1) ― 相関関係と因果関係 (2015. 11. 11)
 
2019年度秋学期 統計学 第7回 データの関係を知る(2)ー 回帰分析 (2019. 11. 12)
2019年度秋学期 統計学 第7回 データの関係を知る(2)ー 回帰分析 (2019. 11. 12)2019年度秋学期 統計学 第7回 データの関係を知る(2)ー 回帰分析 (2019. 11. 12)
2019年度秋学期 統計学 第7回 データの関係を知る(2)ー 回帰分析 (2019. 11. 12)
 
2018年度秋学期 統計学 第6回 データの関係を知る(1)ー相関関係と因果関係 (2018. 10. 30)
2018年度秋学期 統計学 第6回 データの関係を知る(1)ー相関関係と因果関係 (2018. 10. 30)2018年度秋学期 統計学 第6回 データの関係を知る(1)ー相関関係と因果関係 (2018. 10. 30)
2018年度秋学期 統計学 第6回 データの関係を知る(1)ー相関関係と因果関係 (2018. 10. 30)
 
2019年度秋学期 画像情報処理 第3回 フーリエ変換とサンプリング定理 (2019. 10. 11)
2019年度秋学期 画像情報処理 第3回 フーリエ変換とサンプリング定理 (2019. 10. 11)2019年度秋学期 画像情報処理 第3回 フーリエ変換とサンプリング定理 (2019. 10. 11)
2019年度秋学期 画像情報処理 第3回 フーリエ変換とサンプリング定理 (2019. 10. 11)
 
ガウスボンネの計算
ガウスボンネの計算ガウスボンネの計算
ガウスボンネの計算
 
ガウスボンネの計算
ガウスボンネの計算ガウスボンネの計算
ガウスボンネの計算
 
2019年度秋学期 画像情報処理 第7回 主成分分析とKarhunen-Loève変換 (2019. 11. 15)
2019年度秋学期 画像情報処理 第7回 主成分分析とKarhunen-Loève変換 (2019. 11. 15)2019年度秋学期 画像情報処理 第7回 主成分分析とKarhunen-Loève変換 (2019. 11. 15)
2019年度秋学期 画像情報処理 第7回 主成分分析とKarhunen-Loève変換 (2019. 11. 15)
 
2019年度秋学期 画像情報処理 第11回 radon変換と投影定理 (2019. 12. 13)
2019年度秋学期 画像情報処理 第11回 radon変換と投影定理 (2019. 12. 13)2019年度秋学期 画像情報処理 第11回 radon変換と投影定理 (2019. 12. 13)
2019年度秋学期 画像情報処理 第11回 radon変換と投影定理 (2019. 12. 13)
 
2016年度秋学期 統計学 第7回 データの関係を知る(2)-回帰分析 (2016. 11. 7)
2016年度秋学期 統計学 第7回 データの関係を知る(2)-回帰分析 (2016. 11. 7)2016年度秋学期 統計学 第7回 データの関係を知る(2)-回帰分析 (2016. 11. 7)
2016年度秋学期 統計学 第7回 データの関係を知る(2)-回帰分析 (2016. 11. 7)
 
2019年度秋学期 画像情報処理 第6回 「行列」に慣れていない人のために (2019. 11. 8)
2019年度秋学期 画像情報処理 第6回 「行列」に慣れていない人のために (2019. 11. 8)2019年度秋学期 画像情報処理 第6回 「行列」に慣れていない人のために (2019. 11. 8)
2019年度秋学期 画像情報処理 第6回 「行列」に慣れていない人のために (2019. 11. 8)
 
2019年度秋学期 画像情報処理 第12回 逆投影法による再構成 (2019. 12. 20)
2019年度秋学期 画像情報処理 第12回 逆投影法による再構成 (2019. 12. 20)2019年度秋学期 画像情報処理 第12回 逆投影法による再構成 (2019. 12. 20)
2019年度秋学期 画像情報処理 第12回 逆投影法による再構成 (2019. 12. 20)
 
2019年度秋学期 画像情報処理 第9回 離散フーリエ変換と離散コサイン変換 (2019. 11. 29)
2019年度秋学期 画像情報処理 第9回 離散フーリエ変換と離散コサイン変換 (2019. 11. 29)2019年度秋学期 画像情報処理 第9回 離散フーリエ変換と離散コサイン変換 (2019. 11. 29)
2019年度秋学期 画像情報処理 第9回 離散フーリエ変換と離散コサイン変換 (2019. 11. 29)
 

Destaque

2014年度春学期 画像情報処理 第4回 離散フーリエ変換 (2014. 5. 7)
2014年度春学期 画像情報処理 第4回 離散フーリエ変換 (2014. 5. 7)2014年度春学期 画像情報処理 第4回 離散フーリエ変換 (2014. 5. 7)
2014年度春学期 画像情報処理 第4回 離散フーリエ変換 (2014. 5. 7)Akira Asano
 
2014年度秋学期 応用数学(解析) 第1回 イントロダクション (2014. 9. 25)
2014年度秋学期 応用数学(解析) 第1回 イントロダクション (2014. 9. 25)2014年度秋学期 応用数学(解析) 第1回 イントロダクション (2014. 9. 25)
2014年度秋学期 応用数学(解析) 第1回 イントロダクション (2014. 9. 25)Akira Asano
 
2014年度春学期 画像情報処理 第14回 逆投影法による再構成 (2014. 7. 23)
2014年度春学期 画像情報処理 第14回 逆投影法による再構成 (2014. 7. 23)2014年度春学期 画像情報処理 第14回 逆投影法による再構成 (2014. 7. 23)
2014年度春学期 画像情報処理 第14回 逆投影法による再構成 (2014. 7. 23)Akira Asano
 
2015年度春学期 統計学 第14回 分布についての仮説を検証する ― 仮説検定 (2015. 7. 16, 23)
2015年度春学期 統計学 第14回 分布についての仮説を検証する ― 仮説検定 (2015. 7. 16, 23)2015年度春学期 統計学 第14回 分布についての仮説を検証する ― 仮説検定 (2015. 7. 16, 23)
2015年度春学期 統計学 第14回 分布についての仮説を検証する ― 仮説検定 (2015. 7. 16, 23)Akira Asano
 
2013年度秋学期 統計学 第13回「不確かな測定の不確かさを測る ― 不偏分散とt分布」
2013年度秋学期 統計学 第13回「不確かな測定の不確かさを測る ― 不偏分散とt分布」2013年度秋学期 統計学 第13回「不確かな測定の不確かさを測る ― 不偏分散とt分布」
2013年度秋学期 統計学 第13回「不確かな測定の不確かさを測る ― 不偏分散とt分布」Akira Asano
 
2013年度秋学期 統計学 第6回「データの関係を知る(1)−相関関係と因果関係」
2013年度秋学期 統計学 第6回「データの関係を知る(1)−相関関係と因果関係」2013年度秋学期 統計学 第6回「データの関係を知る(1)−相関関係と因果関係」
2013年度秋学期 統計学 第6回「データの関係を知る(1)−相関関係と因果関係」Akira Asano
 
2013年度春学期 画像情報処理 第10回「マセマティカル・モルフォロジ/画像の集合演算とオープニング」
2013年度春学期 画像情報処理 第10回「マセマティカル・モルフォロジ/画像の集合演算とオープニング」2013年度春学期 画像情報処理 第10回「マセマティカル・モルフォロジ/画像の集合演算とオープニング」
2013年度春学期 画像情報処理 第10回「マセマティカル・モルフォロジ/画像の集合演算とオープニング」Akira Asano
 
鏡はなぜ左右だけ逆になるのか?
鏡はなぜ左右だけ逆になるのか?鏡はなぜ左右だけ逆になるのか?
鏡はなぜ左右だけ逆になるのか?Akira Asano
 
2015年度秋学期 応用数学(解析) 第3回 実数とは何か (2015. 10. 15)
2015年度秋学期 応用数学(解析) 第3回 実数とは何か (2015. 10. 15)2015年度秋学期 応用数学(解析) 第3回 実数とは何か (2015. 10. 15)
2015年度秋学期 応用数学(解析) 第3回 実数とは何か (2015. 10. 15)Akira Asano
 
2014年度秋学期 応用数学(解析) 第5部・測度論ダイジェスト / 第14回 ルベーグ測度と完全加法性 (2015. 1. 15)
2014年度秋学期 応用数学(解析) 第5部・測度論ダイジェスト / 第14回 ルベーグ測度と完全加法性 (2015. 1. 15)2014年度秋学期 応用数学(解析) 第5部・測度論ダイジェスト / 第14回 ルベーグ測度と完全加法性 (2015. 1. 15)
2014年度秋学期 応用数学(解析) 第5部・測度論ダイジェスト / 第14回 ルベーグ測度と完全加法性 (2015. 1. 15)Akira Asano
 
2015年度春学期 統計学 第3回 クロス集計とデータの可視化 (2015. 4. 23)
2015年度春学期 統計学 第3回 クロス集計とデータの可視化 (2015. 4. 23)2015年度春学期 統計学 第3回 クロス集計とデータの可視化 (2015. 4. 23)
2015年度春学期 統計学 第3回 クロス集計とデータの可視化 (2015. 4. 23)Akira Asano
 
2014年度春学期 統計学 第12回 分布の平均を推測する ― 区間推定 (2014. 7. 3)
2014年度春学期 統計学 第12回 分布の平均を推測する ― 区間推定 (2014. 7. 3)2014年度春学期 統計学 第12回 分布の平均を推測する ― 区間推定 (2014. 7. 3)
2014年度春学期 統計学 第12回 分布の平均を推測する ― 区間推定 (2014. 7. 3)Akira Asano
 
2015年度春学期 画像情報処理 第1回 イントロダクション (2015. 4.8)
2015年度春学期 画像情報処理 第1回 イントロダクション (2015. 4.8)2015年度春学期 画像情報処理 第1回 イントロダクション (2015. 4.8)
2015年度春学期 画像情報処理 第1回 イントロダクション (2015. 4.8)Akira Asano
 
2014年度秋学期 統計学 第12回 分布の平均を推測する - 区間推定 (2014. 12. 17)
2014年度秋学期 統計学 第12回 分布の平均を推測する - 区間推定 (2014. 12. 17)2014年度秋学期 統計学 第12回 分布の平均を推測する - 区間推定 (2014. 12. 17)
2014年度秋学期 統計学 第12回 分布の平均を推測する - 区間推定 (2014. 12. 17)Akira Asano
 
2014年度秋学期 統計学 第11回 分布の「型」を考える - 確率分布モデルと正規分布 (2014. 12. 10)
2014年度秋学期 統計学 第11回 分布の「型」を考える - 確率分布モデルと正規分布 (2014. 12. 10)2014年度秋学期 統計学 第11回 分布の「型」を考える - 確率分布モデルと正規分布 (2014. 12. 10)
2014年度秋学期 統計学 第11回 分布の「型」を考える - 確率分布モデルと正規分布 (2014. 12. 10)Akira Asano
 
2013年度春学期 画像情報処理 第4回「離散フーリエ変換」
2013年度春学期 画像情報処理 第4回「離散フーリエ変換」2013年度春学期 画像情報処理 第4回「離散フーリエ変換」
2013年度春学期 画像情報処理 第4回「離散フーリエ変換」Akira Asano
 
2013年度秋学期 統計学 第2回「統計資料の収集と読み方」
2013年度秋学期 統計学 第2回「統計資料の収集と読み方」2013年度秋学期 統計学 第2回「統計資料の収集と読み方」
2013年度秋学期 統計学 第2回「統計資料の収集と読み方」Akira Asano
 
2014年度春学期 画像情報処理 第1回 イントロダクション (2014. 4.9)
2014年度春学期 画像情報処理 第1回 イントロダクション (2014. 4.9)2014年度春学期 画像情報処理 第1回 イントロダクション (2014. 4.9)
2014年度春学期 画像情報処理 第1回 イントロダクション (2014. 4.9)Akira Asano
 
2014年度秋学期 応用数学(解析) 第2部・基本的な微分方程式 / 第6回 変数分離形の変形 (2014. 10. 30)
2014年度秋学期 応用数学(解析) 第2部・基本的な微分方程式 / 第6回 変数分離形の変形 (2014. 10. 30)2014年度秋学期 応用数学(解析) 第2部・基本的な微分方程式 / 第6回 変数分離形の変形 (2014. 10. 30)
2014年度秋学期 応用数学(解析) 第2部・基本的な微分方程式 / 第6回 変数分離形の変形 (2014. 10. 30)Akira Asano
 
2014年度秋学期 応用数学(解析) 第2部・基本的な微分方程式 / 第7回 2階線形微分方程式(1) (2014. 11. 6)
2014年度秋学期 応用数学(解析) 第2部・基本的な微分方程式 / 第7回 2階線形微分方程式(1) (2014. 11. 6)2014年度秋学期 応用数学(解析) 第2部・基本的な微分方程式 / 第7回 2階線形微分方程式(1) (2014. 11. 6)
2014年度秋学期 応用数学(解析) 第2部・基本的な微分方程式 / 第7回 2階線形微分方程式(1) (2014. 11. 6)Akira Asano
 

Destaque (20)

2014年度春学期 画像情報処理 第4回 離散フーリエ変換 (2014. 5. 7)
2014年度春学期 画像情報処理 第4回 離散フーリエ変換 (2014. 5. 7)2014年度春学期 画像情報処理 第4回 離散フーリエ変換 (2014. 5. 7)
2014年度春学期 画像情報処理 第4回 離散フーリエ変換 (2014. 5. 7)
 
2014年度秋学期 応用数学(解析) 第1回 イントロダクション (2014. 9. 25)
2014年度秋学期 応用数学(解析) 第1回 イントロダクション (2014. 9. 25)2014年度秋学期 応用数学(解析) 第1回 イントロダクション (2014. 9. 25)
2014年度秋学期 応用数学(解析) 第1回 イントロダクション (2014. 9. 25)
 
2014年度春学期 画像情報処理 第14回 逆投影法による再構成 (2014. 7. 23)
2014年度春学期 画像情報処理 第14回 逆投影法による再構成 (2014. 7. 23)2014年度春学期 画像情報処理 第14回 逆投影法による再構成 (2014. 7. 23)
2014年度春学期 画像情報処理 第14回 逆投影法による再構成 (2014. 7. 23)
 
2015年度春学期 統計学 第14回 分布についての仮説を検証する ― 仮説検定 (2015. 7. 16, 23)
2015年度春学期 統計学 第14回 分布についての仮説を検証する ― 仮説検定 (2015. 7. 16, 23)2015年度春学期 統計学 第14回 分布についての仮説を検証する ― 仮説検定 (2015. 7. 16, 23)
2015年度春学期 統計学 第14回 分布についての仮説を検証する ― 仮説検定 (2015. 7. 16, 23)
 
2013年度秋学期 統計学 第13回「不確かな測定の不確かさを測る ― 不偏分散とt分布」
2013年度秋学期 統計学 第13回「不確かな測定の不確かさを測る ― 不偏分散とt分布」2013年度秋学期 統計学 第13回「不確かな測定の不確かさを測る ― 不偏分散とt分布」
2013年度秋学期 統計学 第13回「不確かな測定の不確かさを測る ― 不偏分散とt分布」
 
2013年度秋学期 統計学 第6回「データの関係を知る(1)−相関関係と因果関係」
2013年度秋学期 統計学 第6回「データの関係を知る(1)−相関関係と因果関係」2013年度秋学期 統計学 第6回「データの関係を知る(1)−相関関係と因果関係」
2013年度秋学期 統計学 第6回「データの関係を知る(1)−相関関係と因果関係」
 
2013年度春学期 画像情報処理 第10回「マセマティカル・モルフォロジ/画像の集合演算とオープニング」
2013年度春学期 画像情報処理 第10回「マセマティカル・モルフォロジ/画像の集合演算とオープニング」2013年度春学期 画像情報処理 第10回「マセマティカル・モルフォロジ/画像の集合演算とオープニング」
2013年度春学期 画像情報処理 第10回「マセマティカル・モルフォロジ/画像の集合演算とオープニング」
 
鏡はなぜ左右だけ逆になるのか?
鏡はなぜ左右だけ逆になるのか?鏡はなぜ左右だけ逆になるのか?
鏡はなぜ左右だけ逆になるのか?
 
2015年度秋学期 応用数学(解析) 第3回 実数とは何か (2015. 10. 15)
2015年度秋学期 応用数学(解析) 第3回 実数とは何か (2015. 10. 15)2015年度秋学期 応用数学(解析) 第3回 実数とは何か (2015. 10. 15)
2015年度秋学期 応用数学(解析) 第3回 実数とは何か (2015. 10. 15)
 
2014年度秋学期 応用数学(解析) 第5部・測度論ダイジェスト / 第14回 ルベーグ測度と完全加法性 (2015. 1. 15)
2014年度秋学期 応用数学(解析) 第5部・測度論ダイジェスト / 第14回 ルベーグ測度と完全加法性 (2015. 1. 15)2014年度秋学期 応用数学(解析) 第5部・測度論ダイジェスト / 第14回 ルベーグ測度と完全加法性 (2015. 1. 15)
2014年度秋学期 応用数学(解析) 第5部・測度論ダイジェスト / 第14回 ルベーグ測度と完全加法性 (2015. 1. 15)
 
2015年度春学期 統計学 第3回 クロス集計とデータの可視化 (2015. 4. 23)
2015年度春学期 統計学 第3回 クロス集計とデータの可視化 (2015. 4. 23)2015年度春学期 統計学 第3回 クロス集計とデータの可視化 (2015. 4. 23)
2015年度春学期 統計学 第3回 クロス集計とデータの可視化 (2015. 4. 23)
 
2014年度春学期 統計学 第12回 分布の平均を推測する ― 区間推定 (2014. 7. 3)
2014年度春学期 統計学 第12回 分布の平均を推測する ― 区間推定 (2014. 7. 3)2014年度春学期 統計学 第12回 分布の平均を推測する ― 区間推定 (2014. 7. 3)
2014年度春学期 統計学 第12回 分布の平均を推測する ― 区間推定 (2014. 7. 3)
 
2015年度春学期 画像情報処理 第1回 イントロダクション (2015. 4.8)
2015年度春学期 画像情報処理 第1回 イントロダクション (2015. 4.8)2015年度春学期 画像情報処理 第1回 イントロダクション (2015. 4.8)
2015年度春学期 画像情報処理 第1回 イントロダクション (2015. 4.8)
 
2014年度秋学期 統計学 第12回 分布の平均を推測する - 区間推定 (2014. 12. 17)
2014年度秋学期 統計学 第12回 分布の平均を推測する - 区間推定 (2014. 12. 17)2014年度秋学期 統計学 第12回 分布の平均を推測する - 区間推定 (2014. 12. 17)
2014年度秋学期 統計学 第12回 分布の平均を推測する - 区間推定 (2014. 12. 17)
 
2014年度秋学期 統計学 第11回 分布の「型」を考える - 確率分布モデルと正規分布 (2014. 12. 10)
2014年度秋学期 統計学 第11回 分布の「型」を考える - 確率分布モデルと正規分布 (2014. 12. 10)2014年度秋学期 統計学 第11回 分布の「型」を考える - 確率分布モデルと正規分布 (2014. 12. 10)
2014年度秋学期 統計学 第11回 分布の「型」を考える - 確率分布モデルと正規分布 (2014. 12. 10)
 
2013年度春学期 画像情報処理 第4回「離散フーリエ変換」
2013年度春学期 画像情報処理 第4回「離散フーリエ変換」2013年度春学期 画像情報処理 第4回「離散フーリエ変換」
2013年度春学期 画像情報処理 第4回「離散フーリエ変換」
 
2013年度秋学期 統計学 第2回「統計資料の収集と読み方」
2013年度秋学期 統計学 第2回「統計資料の収集と読み方」2013年度秋学期 統計学 第2回「統計資料の収集と読み方」
2013年度秋学期 統計学 第2回「統計資料の収集と読み方」
 
2014年度春学期 画像情報処理 第1回 イントロダクション (2014. 4.9)
2014年度春学期 画像情報処理 第1回 イントロダクション (2014. 4.9)2014年度春学期 画像情報処理 第1回 イントロダクション (2014. 4.9)
2014年度春学期 画像情報処理 第1回 イントロダクション (2014. 4.9)
 
2014年度秋学期 応用数学(解析) 第2部・基本的な微分方程式 / 第6回 変数分離形の変形 (2014. 10. 30)
2014年度秋学期 応用数学(解析) 第2部・基本的な微分方程式 / 第6回 変数分離形の変形 (2014. 10. 30)2014年度秋学期 応用数学(解析) 第2部・基本的な微分方程式 / 第6回 変数分離形の変形 (2014. 10. 30)
2014年度秋学期 応用数学(解析) 第2部・基本的な微分方程式 / 第6回 変数分離形の変形 (2014. 10. 30)
 
2014年度秋学期 応用数学(解析) 第2部・基本的な微分方程式 / 第7回 2階線形微分方程式(1) (2014. 11. 6)
2014年度秋学期 応用数学(解析) 第2部・基本的な微分方程式 / 第7回 2階線形微分方程式(1) (2014. 11. 6)2014年度秋学期 応用数学(解析) 第2部・基本的な微分方程式 / 第7回 2階線形微分方程式(1) (2014. 11. 6)
2014年度秋学期 応用数学(解析) 第2部・基本的な微分方程式 / 第7回 2階線形微分方程式(1) (2014. 11. 6)
 

Semelhante a 2013年度秋学期 統計学 第7回「データの関係を知る(2)−回帰分析」

2016年度秋学期 統計学 第6回 データの関係を知る(1)-相関関係と因果関係 (2016. 10. 31)
2016年度秋学期 統計学 第6回 データの関係を知る(1)-相関関係と因果関係 (2016. 10. 31)2016年度秋学期 統計学 第6回 データの関係を知る(1)-相関関係と因果関係 (2016. 10. 31)
2016年度秋学期 統計学 第6回 データの関係を知る(1)-相関関係と因果関係 (2016. 10. 31)Akira Asano
 
2020年度春学期 統計学 第7回 データの関係を知る(2) ー 回帰分析 (2020. 5. 21)
2020年度春学期 統計学 第7回 データの関係を知る(2) ー 回帰分析 (2020. 5. 21)2020年度春学期 統計学 第7回 データの関係を知る(2) ー 回帰分析 (2020. 5. 21)
2020年度春学期 統計学 第7回 データの関係を知る(2) ー 回帰分析 (2020. 5. 21)Akira Asano
 
2018年度春学期 統計学 第6回 データの関係を知る(1)ー相関関係と因果関係 (2018. 5. 16)
2018年度春学期 統計学 第6回 データの関係を知る(1)ー相関関係と因果関係 (2018. 5. 16)2018年度春学期 統計学 第6回 データの関係を知る(1)ー相関関係と因果関係 (2018. 5. 16)
2018年度春学期 統計学 第6回 データの関係を知る(1)ー相関関係と因果関係 (2018. 5. 16)Akira Asano
 
2021年度秋学期 統計学 第7回 データの関係を知る(2) ― 回帰分析(2021. 11. 9)
2021年度秋学期 統計学 第7回 データの関係を知る(2) ― 回帰分析(2021. 11. 9)2021年度秋学期 統計学 第7回 データの関係を知る(2) ― 回帰分析(2021. 11. 9)
2021年度秋学期 統計学 第7回 データの関係を知る(2) ― 回帰分析(2021. 11. 9)Akira Asano
 
2022年度秋学期 統計学 第7回 データの関係を知る(2)ー 回帰分析 (2022. 11. 8)
2022年度秋学期 統計学 第7回 データの関係を知る(2)ー 回帰分析 (2022. 11. 8)2022年度秋学期 統計学 第7回 データの関係を知る(2)ー 回帰分析 (2022. 11. 8)
2022年度秋学期 統計学 第7回 データの関係を知る(2)ー 回帰分析 (2022. 11. 8)Akira Asano
 
2019年度秋学期 統計学 第6回 データの関係を知る(1)ー相関関係と因果関係 (2019. 11. 5)
2019年度秋学期 統計学 第6回 データの関係を知る(1)ー相関関係と因果関係 (2019. 11. 5)2019年度秋学期 統計学 第6回 データの関係を知る(1)ー相関関係と因果関係 (2019. 11. 5)
2019年度秋学期 統計学 第6回 データの関係を知る(1)ー相関関係と因果関係 (2019. 11. 5)Akira Asano
 
2022年度春学期 統計学 第7回 データの関係を知る(2) ー 回帰分析
2022年度春学期 統計学 第7回 データの関係を知る(2) ー 回帰分析2022年度春学期 統計学 第7回 データの関係を知る(2) ー 回帰分析
2022年度春学期 統計学 第7回 データの関係を知る(2) ー 回帰分析Akira Asano
 
2022年度秋学期 統計学 第6回 データの関係を知る(1)ー相関関係 (2022. 11. 1)
2022年度秋学期 統計学 第6回 データの関係を知る(1)ー相関関係 (2022. 11. 1) 2022年度秋学期 統計学 第6回 データの関係を知る(1)ー相関関係 (2022. 11. 1)
2022年度秋学期 統計学 第6回 データの関係を知る(1)ー相関関係 (2022. 11. 1) Akira Asano
 
2022年度春学期 統計学 第6回 データの関係を知る(1)ー 相関関係 (2022. 5. 19)
2022年度春学期 統計学 第6回 データの関係を知る(1)ー 相関関係 (2022. 5. 19) 2022年度春学期 統計学 第6回 データの関係を知る(1)ー 相関関係 (2022. 5. 19)
2022年度春学期 統計学 第6回 データの関係を知る(1)ー 相関関係 (2022. 5. 19) Akira Asano
 
2018年度秋学期 画像情報処理 第10回 Radon変換と投影定理 (2018. 12. 14)
2018年度秋学期 画像情報処理 第10回 Radon変換と投影定理 (2018. 12. 14)2018年度秋学期 画像情報処理 第10回 Radon変換と投影定理 (2018. 12. 14)
2018年度秋学期 画像情報処理 第10回 Radon変換と投影定理 (2018. 12. 14)Akira Asano
 
2019年度春学期 統計学 第6回 データの関係を知る(2)ー相関関係と因果関係 (2019. 5. 23)
2019年度春学期 統計学 第6回 データの関係を知る(2)ー相関関係と因果関係 (2019. 5. 23)2019年度春学期 統計学 第6回 データの関係を知る(2)ー相関関係と因果関係 (2019. 5. 23)
2019年度春学期 統計学 第6回 データの関係を知る(2)ー相関関係と因果関係 (2019. 5. 23)Akira Asano
 
2018年度秋学期 応用数学(解析) 第3部・微分方程式に関する話題 第11回 振動と微分方程式 (2018. 11. 27)
2018年度秋学期 応用数学(解析) 第3部・微分方程式に関する話題 第11回 振動と微分方程式 (2018. 11. 27)2018年度秋学期 応用数学(解析) 第3部・微分方程式に関する話題 第11回 振動と微分方程式 (2018. 11. 27)
2018年度秋学期 応用数学(解析) 第3部・微分方程式に関する話題 第11回 振動と微分方程式 (2018. 11. 27)Akira Asano
 
2018年度秋学期 応用数学(解析) 第4部・「その先の解析学」への導入 第15回 測度論(2) ルベーグ積分 (2019. 1. 15)
2018年度秋学期 応用数学(解析) 第4部・「その先の解析学」への導入 第15回 測度論(2) ルベーグ積分 (2019. 1. 15)2018年度秋学期 応用数学(解析) 第4部・「その先の解析学」への導入 第15回 測度論(2) ルベーグ積分 (2019. 1. 15)
2018年度秋学期 応用数学(解析) 第4部・「その先の解析学」への導入 第15回 測度論(2) ルベーグ積分 (2019. 1. 15)Akira Asano
 
2016年度秋学期 画像情報処理 第13回 Radon変換と投影定理 (2017. 1. 12))
2016年度秋学期 画像情報処理 第13回 Radon変換と投影定理 (2017. 1. 12))2016年度秋学期 画像情報処理 第13回 Radon変換と投影定理 (2017. 1. 12))
2016年度秋学期 画像情報処理 第13回 Radon変換と投影定理 (2017. 1. 12))Akira Asano
 

Semelhante a 2013年度秋学期 統計学 第7回「データの関係を知る(2)−回帰分析」 (14)

2016年度秋学期 統計学 第6回 データの関係を知る(1)-相関関係と因果関係 (2016. 10. 31)
2016年度秋学期 統計学 第6回 データの関係を知る(1)-相関関係と因果関係 (2016. 10. 31)2016年度秋学期 統計学 第6回 データの関係を知る(1)-相関関係と因果関係 (2016. 10. 31)
2016年度秋学期 統計学 第6回 データの関係を知る(1)-相関関係と因果関係 (2016. 10. 31)
 
2020年度春学期 統計学 第7回 データの関係を知る(2) ー 回帰分析 (2020. 5. 21)
2020年度春学期 統計学 第7回 データの関係を知る(2) ー 回帰分析 (2020. 5. 21)2020年度春学期 統計学 第7回 データの関係を知る(2) ー 回帰分析 (2020. 5. 21)
2020年度春学期 統計学 第7回 データの関係を知る(2) ー 回帰分析 (2020. 5. 21)
 
2018年度春学期 統計学 第6回 データの関係を知る(1)ー相関関係と因果関係 (2018. 5. 16)
2018年度春学期 統計学 第6回 データの関係を知る(1)ー相関関係と因果関係 (2018. 5. 16)2018年度春学期 統計学 第6回 データの関係を知る(1)ー相関関係と因果関係 (2018. 5. 16)
2018年度春学期 統計学 第6回 データの関係を知る(1)ー相関関係と因果関係 (2018. 5. 16)
 
2021年度秋学期 統計学 第7回 データの関係を知る(2) ― 回帰分析(2021. 11. 9)
2021年度秋学期 統計学 第7回 データの関係を知る(2) ― 回帰分析(2021. 11. 9)2021年度秋学期 統計学 第7回 データの関係を知る(2) ― 回帰分析(2021. 11. 9)
2021年度秋学期 統計学 第7回 データの関係を知る(2) ― 回帰分析(2021. 11. 9)
 
2022年度秋学期 統計学 第7回 データの関係を知る(2)ー 回帰分析 (2022. 11. 8)
2022年度秋学期 統計学 第7回 データの関係を知る(2)ー 回帰分析 (2022. 11. 8)2022年度秋学期 統計学 第7回 データの関係を知る(2)ー 回帰分析 (2022. 11. 8)
2022年度秋学期 統計学 第7回 データの関係を知る(2)ー 回帰分析 (2022. 11. 8)
 
2019年度秋学期 統計学 第6回 データの関係を知る(1)ー相関関係と因果関係 (2019. 11. 5)
2019年度秋学期 統計学 第6回 データの関係を知る(1)ー相関関係と因果関係 (2019. 11. 5)2019年度秋学期 統計学 第6回 データの関係を知る(1)ー相関関係と因果関係 (2019. 11. 5)
2019年度秋学期 統計学 第6回 データの関係を知る(1)ー相関関係と因果関係 (2019. 11. 5)
 
2022年度春学期 統計学 第7回 データの関係を知る(2) ー 回帰分析
2022年度春学期 統計学 第7回 データの関係を知る(2) ー 回帰分析2022年度春学期 統計学 第7回 データの関係を知る(2) ー 回帰分析
2022年度春学期 統計学 第7回 データの関係を知る(2) ー 回帰分析
 
2022年度秋学期 統計学 第6回 データの関係を知る(1)ー相関関係 (2022. 11. 1)
2022年度秋学期 統計学 第6回 データの関係を知る(1)ー相関関係 (2022. 11. 1) 2022年度秋学期 統計学 第6回 データの関係を知る(1)ー相関関係 (2022. 11. 1)
2022年度秋学期 統計学 第6回 データの関係を知る(1)ー相関関係 (2022. 11. 1)
 
2022年度春学期 統計学 第6回 データの関係を知る(1)ー 相関関係 (2022. 5. 19)
2022年度春学期 統計学 第6回 データの関係を知る(1)ー 相関関係 (2022. 5. 19) 2022年度春学期 統計学 第6回 データの関係を知る(1)ー 相関関係 (2022. 5. 19)
2022年度春学期 統計学 第6回 データの関係を知る(1)ー 相関関係 (2022. 5. 19)
 
2018年度秋学期 画像情報処理 第10回 Radon変換と投影定理 (2018. 12. 14)
2018年度秋学期 画像情報処理 第10回 Radon変換と投影定理 (2018. 12. 14)2018年度秋学期 画像情報処理 第10回 Radon変換と投影定理 (2018. 12. 14)
2018年度秋学期 画像情報処理 第10回 Radon変換と投影定理 (2018. 12. 14)
 
2019年度春学期 統計学 第6回 データの関係を知る(2)ー相関関係と因果関係 (2019. 5. 23)
2019年度春学期 統計学 第6回 データの関係を知る(2)ー相関関係と因果関係 (2019. 5. 23)2019年度春学期 統計学 第6回 データの関係を知る(2)ー相関関係と因果関係 (2019. 5. 23)
2019年度春学期 統計学 第6回 データの関係を知る(2)ー相関関係と因果関係 (2019. 5. 23)
 
2018年度秋学期 応用数学(解析) 第3部・微分方程式に関する話題 第11回 振動と微分方程式 (2018. 11. 27)
2018年度秋学期 応用数学(解析) 第3部・微分方程式に関する話題 第11回 振動と微分方程式 (2018. 11. 27)2018年度秋学期 応用数学(解析) 第3部・微分方程式に関する話題 第11回 振動と微分方程式 (2018. 11. 27)
2018年度秋学期 応用数学(解析) 第3部・微分方程式に関する話題 第11回 振動と微分方程式 (2018. 11. 27)
 
2018年度秋学期 応用数学(解析) 第4部・「その先の解析学」への導入 第15回 測度論(2) ルベーグ積分 (2019. 1. 15)
2018年度秋学期 応用数学(解析) 第4部・「その先の解析学」への導入 第15回 測度論(2) ルベーグ積分 (2019. 1. 15)2018年度秋学期 応用数学(解析) 第4部・「その先の解析学」への導入 第15回 測度論(2) ルベーグ積分 (2019. 1. 15)
2018年度秋学期 応用数学(解析) 第4部・「その先の解析学」への導入 第15回 測度論(2) ルベーグ積分 (2019. 1. 15)
 
2016年度秋学期 画像情報処理 第13回 Radon変換と投影定理 (2017. 1. 12))
2016年度秋学期 画像情報処理 第13回 Radon変換と投影定理 (2017. 1. 12))2016年度秋学期 画像情報処理 第13回 Radon変換と投影定理 (2017. 1. 12))
2016年度秋学期 画像情報処理 第13回 Radon変換と投影定理 (2017. 1. 12))
 

Mais de Akira Asano

2022年度秋学期 統計学 第15回 分布についての仮説を検証するー仮説検定(2) (2023. 1. 17)
2022年度秋学期 統計学 第15回 分布についての仮説を検証するー仮説検定(2) (2023. 1. 17) 2022年度秋学期 統計学 第15回 分布についての仮説を検証するー仮説検定(2) (2023. 1. 17)
2022年度秋学期 統計学 第15回 分布についての仮説を検証するー仮説検定(2) (2023. 1. 17) Akira Asano
 
2022年度秋学期 応用数学(解析) 第15回 測度論ダイジェスト(2) ルベーグ積分 (2023. 1. 19)
2022年度秋学期 応用数学(解析) 第15回 測度論ダイジェスト(2) ルベーグ積分 (2023. 1. 19) 2022年度秋学期 応用数学(解析) 第15回 測度論ダイジェスト(2) ルベーグ積分 (2023. 1. 19)
2022年度秋学期 応用数学(解析) 第15回 測度論ダイジェスト(2) ルベーグ積分 (2023. 1. 19) Akira Asano
 
2022年度秋学期 応用数学(解析) 第14回 測度論ダイジェスト(1) ルベーグ測度と完全加法性 (2023. 1. 12)
2022年度秋学期 応用数学(解析) 第14回 測度論ダイジェスト(1) ルベーグ測度と完全加法性 (2023. 1. 12) 2022年度秋学期 応用数学(解析) 第14回 測度論ダイジェスト(1) ルベーグ測度と完全加法性 (2023. 1. 12)
2022年度秋学期 応用数学(解析) 第14回 測度論ダイジェスト(1) ルベーグ測度と完全加法性 (2023. 1. 12) Akira Asano
 
2022年度秋学期 統計学 第14回 分布についての仮説を検証するー仮説検定(1) (2023. 1. 10)
2022年度秋学期 統計学 第14回 分布についての仮説を検証するー仮説検定(1) (2023. 1. 10) 2022年度秋学期 統計学 第14回 分布についての仮説を検証するー仮説検定(1) (2023. 1. 10)
2022年度秋学期 統計学 第14回 分布についての仮説を検証するー仮説検定(1) (2023. 1. 10) Akira Asano
 
2022年度秋学期 応用数学(解析) 第13回 複素関数論ダイジェスト(2) 孤立特異点と留数 (2022. 12. 22)
2022年度秋学期 応用数学(解析) 第13回 複素関数論ダイジェスト(2) 孤立特異点と留数 (2022. 12. 22) 2022年度秋学期 応用数学(解析) 第13回 複素関数論ダイジェスト(2) 孤立特異点と留数 (2022. 12. 22)
2022年度秋学期 応用数学(解析) 第13回 複素関数論ダイジェスト(2) 孤立特異点と留数 (2022. 12. 22) Akira Asano
 
2022年度秋学期 統計学 第13回 不確かな測定の不確かさを測る - 不偏分散とt分布 (2022. 12. 20)
2022年度秋学期 統計学 第13回 不確かな測定の不確かさを測る - 不偏分散とt分布 (2022. 12. 20) 2022年度秋学期 統計学 第13回 不確かな測定の不確かさを測る - 不偏分散とt分布 (2022. 12. 20)
2022年度秋学期 統計学 第13回 不確かな測定の不確かさを測る - 不偏分散とt分布 (2022. 12. 20) Akira Asano
 
2022年度秋学期 応用数学(解析) 第12回 複素関数論ダイジェスト(1) 複素関数・正則関数 (2022. 12. 15)
2022年度秋学期 応用数学(解析) 第12回 複素関数論ダイジェスト(1) 複素関数・正則関数 (2022. 12. 15) 2022年度秋学期 応用数学(解析) 第12回 複素関数論ダイジェスト(1) 複素関数・正則関数 (2022. 12. 15)
2022年度秋学期 応用数学(解析) 第12回 複素関数論ダイジェスト(1) 複素関数・正則関数 (2022. 12. 15) Akira Asano
 
2022年度秋学期 統計学 第12回 分布の平均を推測する - 区間推定 (2022. 12. 13)
2022年度秋学期 統計学 第12回 分布の平均を推測する - 区間推定 (2022. 12. 13) 2022年度秋学期 統計学 第12回 分布の平均を推測する - 区間推定 (2022. 12. 13)
2022年度秋学期 統計学 第12回 分布の平均を推測する - 区間推定 (2022. 12. 13) Akira Asano
 
2022年度秋学期 画像情報処理 第11回 逆投影法による再構成 (2022. 12. 9)
2022年度秋学期 画像情報処理 第11回 逆投影法による再構成 (2022. 12. 9) 2022年度秋学期 画像情報処理 第11回 逆投影法による再構成 (2022. 12. 9)
2022年度秋学期 画像情報処理 第11回 逆投影法による再構成 (2022. 12. 9) Akira Asano
 
2022年度秋学期 応用数学(解析) 第11回 振動と微分方程式 (2022. 12. 8)
2022年度秋学期 応用数学(解析) 第11回 振動と微分方程式 (2022. 12. 8) 2022年度秋学期 応用数学(解析) 第11回 振動と微分方程式 (2022. 12. 8)
2022年度秋学期 応用数学(解析) 第11回 振動と微分方程式 (2022. 12. 8) Akira Asano
 
2022年度秋学期 統計学 第11回 分布の「型」を考える - 確率分布モデルと正規分布 (2022. 12. 6)
2022年度秋学期 統計学 第11回 分布の「型」を考える - 確率分布モデルと正規分布 (2022. 12. 6) 2022年度秋学期 統計学 第11回 分布の「型」を考える - 確率分布モデルと正規分布 (2022. 12. 6)
2022年度秋学期 統計学 第11回 分布の「型」を考える - 確率分布モデルと正規分布 (2022. 12. 6) Akira Asano
 
2022年度秋学期 画像情報処理 第10回 Radon変換と投影切断面定理 (2022. 12. 2)
2022年度秋学期 画像情報処理 第10回 Radon変換と投影切断面定理 (2022. 12. 2) 2022年度秋学期 画像情報処理 第10回 Radon変換と投影切断面定理 (2022. 12. 2)
2022年度秋学期 画像情報処理 第10回 Radon変換と投影切断面定理 (2022. 12. 2) Akira Asano
 
2022年度秋学期 応用数学(解析) 第10回 生存時間分布と半減期 (2022. 12. 1)
2022年度秋学期 応用数学(解析) 第10回 生存時間分布と半減期 (2022. 12. 1) 2022年度秋学期 応用数学(解析) 第10回 生存時間分布と半減期 (2022. 12. 1)
2022年度秋学期 応用数学(解析) 第10回 生存時間分布と半減期 (2022. 12. 1) Akira Asano
 
2022年度秋学期 統計学 第10回 分布の推測とはー標本調査,度数分布と確率分布 (2022. 11. 29)
2022年度秋学期 統計学 第10回 分布の推測とはー標本調査,度数分布と確率分布 (2022. 11. 29) 2022年度秋学期 統計学 第10回 分布の推測とはー標本調査,度数分布と確率分布 (2022. 11. 29)
2022年度秋学期 統計学 第10回 分布の推測とはー標本調査,度数分布と確率分布 (2022. 11. 29) Akira Asano
 
2022年度秋学期 統計学 第8回 問題に対する答案の書き方 (2022. 11. 15)
2022年度秋学期 統計学 第8回 問題に対する答案の書き方 (2022. 11. 15) 2022年度秋学期 統計学 第8回 問題に対する答案の書き方 (2022. 11. 15)
2022年度秋学期 統計学 第8回 問題に対する答案の書き方 (2022. 11. 15) Akira Asano
 
2022年度秋学期 画像情報処理 第9回 離散フーリエ変換と離散コサイン変換 (2022. 11. 25)
2022年度秋学期 画像情報処理 第9回 離散フーリエ変換と離散コサイン変換 (2022. 11. 25) 2022年度秋学期 画像情報処理 第9回 離散フーリエ変換と離散コサイン変換 (2022. 11. 25)
2022年度秋学期 画像情報処理 第9回 離散フーリエ変換と離散コサイン変換 (2022. 11. 25) Akira Asano
 
2022年度秋学期 統計学 第9回 確からしさを記述するー確率 (2022. 11. 22)
2022年度秋学期 統計学 第9回 確からしさを記述するー確率 (2022. 11. 22) 2022年度秋学期 統計学 第9回 確からしさを記述するー確率 (2022. 11. 22)
2022年度秋学期 統計学 第9回 確からしさを記述するー確率 (2022. 11. 22) Akira Asano
 
2022年度秋学期 画像情報処理 第8回 行列の直交変換と基底画像 (2022. 11. 18)
2022年度秋学期 画像情報処理 第8回 行列の直交変換と基底画像 (2022. 11. 18) 2022年度秋学期 画像情報処理 第8回 行列の直交変換と基底画像 (2022. 11. 18)
2022年度秋学期 画像情報処理 第8回 行列の直交変換と基底画像 (2022. 11. 18) Akira Asano
 
2022年度秋学期 応用数学(解析) 第8回 2階線形微分方程式(2) (2022. 11. 17)
2022年度秋学期 応用数学(解析) 第8回 2階線形微分方程式(2) (2022. 11. 17) 2022年度秋学期 応用数学(解析) 第8回 2階線形微分方程式(2) (2022. 11. 17)
2022年度秋学期 応用数学(解析) 第8回 2階線形微分方程式(2) (2022. 11. 17) Akira Asano
 
2022年度秋学期 画像情報処理 第7回 主成分分析とKarhunen-Loève変換 (2022. 11. 11)
2022年度秋学期 画像情報処理 第7回 主成分分析とKarhunen-Loève変換 (2022. 11. 11) 2022年度秋学期 画像情報処理 第7回 主成分分析とKarhunen-Loève変換 (2022. 11. 11)
2022年度秋学期 画像情報処理 第7回 主成分分析とKarhunen-Loève変換 (2022. 11. 11) Akira Asano
 

Mais de Akira Asano (20)

2022年度秋学期 統計学 第15回 分布についての仮説を検証するー仮説検定(2) (2023. 1. 17)
2022年度秋学期 統計学 第15回 分布についての仮説を検証するー仮説検定(2) (2023. 1. 17) 2022年度秋学期 統計学 第15回 分布についての仮説を検証するー仮説検定(2) (2023. 1. 17)
2022年度秋学期 統計学 第15回 分布についての仮説を検証するー仮説検定(2) (2023. 1. 17)
 
2022年度秋学期 応用数学(解析) 第15回 測度論ダイジェスト(2) ルベーグ積分 (2023. 1. 19)
2022年度秋学期 応用数学(解析) 第15回 測度論ダイジェスト(2) ルベーグ積分 (2023. 1. 19) 2022年度秋学期 応用数学(解析) 第15回 測度論ダイジェスト(2) ルベーグ積分 (2023. 1. 19)
2022年度秋学期 応用数学(解析) 第15回 測度論ダイジェスト(2) ルベーグ積分 (2023. 1. 19)
 
2022年度秋学期 応用数学(解析) 第14回 測度論ダイジェスト(1) ルベーグ測度と完全加法性 (2023. 1. 12)
2022年度秋学期 応用数学(解析) 第14回 測度論ダイジェスト(1) ルベーグ測度と完全加法性 (2023. 1. 12) 2022年度秋学期 応用数学(解析) 第14回 測度論ダイジェスト(1) ルベーグ測度と完全加法性 (2023. 1. 12)
2022年度秋学期 応用数学(解析) 第14回 測度論ダイジェスト(1) ルベーグ測度と完全加法性 (2023. 1. 12)
 
2022年度秋学期 統計学 第14回 分布についての仮説を検証するー仮説検定(1) (2023. 1. 10)
2022年度秋学期 統計学 第14回 分布についての仮説を検証するー仮説検定(1) (2023. 1. 10) 2022年度秋学期 統計学 第14回 分布についての仮説を検証するー仮説検定(1) (2023. 1. 10)
2022年度秋学期 統計学 第14回 分布についての仮説を検証するー仮説検定(1) (2023. 1. 10)
 
2022年度秋学期 応用数学(解析) 第13回 複素関数論ダイジェスト(2) 孤立特異点と留数 (2022. 12. 22)
2022年度秋学期 応用数学(解析) 第13回 複素関数論ダイジェスト(2) 孤立特異点と留数 (2022. 12. 22) 2022年度秋学期 応用数学(解析) 第13回 複素関数論ダイジェスト(2) 孤立特異点と留数 (2022. 12. 22)
2022年度秋学期 応用数学(解析) 第13回 複素関数論ダイジェスト(2) 孤立特異点と留数 (2022. 12. 22)
 
2022年度秋学期 統計学 第13回 不確かな測定の不確かさを測る - 不偏分散とt分布 (2022. 12. 20)
2022年度秋学期 統計学 第13回 不確かな測定の不確かさを測る - 不偏分散とt分布 (2022. 12. 20) 2022年度秋学期 統計学 第13回 不確かな測定の不確かさを測る - 不偏分散とt分布 (2022. 12. 20)
2022年度秋学期 統計学 第13回 不確かな測定の不確かさを測る - 不偏分散とt分布 (2022. 12. 20)
 
2022年度秋学期 応用数学(解析) 第12回 複素関数論ダイジェスト(1) 複素関数・正則関数 (2022. 12. 15)
2022年度秋学期 応用数学(解析) 第12回 複素関数論ダイジェスト(1) 複素関数・正則関数 (2022. 12. 15) 2022年度秋学期 応用数学(解析) 第12回 複素関数論ダイジェスト(1) 複素関数・正則関数 (2022. 12. 15)
2022年度秋学期 応用数学(解析) 第12回 複素関数論ダイジェスト(1) 複素関数・正則関数 (2022. 12. 15)
 
2022年度秋学期 統計学 第12回 分布の平均を推測する - 区間推定 (2022. 12. 13)
2022年度秋学期 統計学 第12回 分布の平均を推測する - 区間推定 (2022. 12. 13) 2022年度秋学期 統計学 第12回 分布の平均を推測する - 区間推定 (2022. 12. 13)
2022年度秋学期 統計学 第12回 分布の平均を推測する - 区間推定 (2022. 12. 13)
 
2022年度秋学期 画像情報処理 第11回 逆投影法による再構成 (2022. 12. 9)
2022年度秋学期 画像情報処理 第11回 逆投影法による再構成 (2022. 12. 9) 2022年度秋学期 画像情報処理 第11回 逆投影法による再構成 (2022. 12. 9)
2022年度秋学期 画像情報処理 第11回 逆投影法による再構成 (2022. 12. 9)
 
2022年度秋学期 応用数学(解析) 第11回 振動と微分方程式 (2022. 12. 8)
2022年度秋学期 応用数学(解析) 第11回 振動と微分方程式 (2022. 12. 8) 2022年度秋学期 応用数学(解析) 第11回 振動と微分方程式 (2022. 12. 8)
2022年度秋学期 応用数学(解析) 第11回 振動と微分方程式 (2022. 12. 8)
 
2022年度秋学期 統計学 第11回 分布の「型」を考える - 確率分布モデルと正規分布 (2022. 12. 6)
2022年度秋学期 統計学 第11回 分布の「型」を考える - 確率分布モデルと正規分布 (2022. 12. 6) 2022年度秋学期 統計学 第11回 分布の「型」を考える - 確率分布モデルと正規分布 (2022. 12. 6)
2022年度秋学期 統計学 第11回 分布の「型」を考える - 確率分布モデルと正規分布 (2022. 12. 6)
 
2022年度秋学期 画像情報処理 第10回 Radon変換と投影切断面定理 (2022. 12. 2)
2022年度秋学期 画像情報処理 第10回 Radon変換と投影切断面定理 (2022. 12. 2) 2022年度秋学期 画像情報処理 第10回 Radon変換と投影切断面定理 (2022. 12. 2)
2022年度秋学期 画像情報処理 第10回 Radon変換と投影切断面定理 (2022. 12. 2)
 
2022年度秋学期 応用数学(解析) 第10回 生存時間分布と半減期 (2022. 12. 1)
2022年度秋学期 応用数学(解析) 第10回 生存時間分布と半減期 (2022. 12. 1) 2022年度秋学期 応用数学(解析) 第10回 生存時間分布と半減期 (2022. 12. 1)
2022年度秋学期 応用数学(解析) 第10回 生存時間分布と半減期 (2022. 12. 1)
 
2022年度秋学期 統計学 第10回 分布の推測とはー標本調査,度数分布と確率分布 (2022. 11. 29)
2022年度秋学期 統計学 第10回 分布の推測とはー標本調査,度数分布と確率分布 (2022. 11. 29) 2022年度秋学期 統計学 第10回 分布の推測とはー標本調査,度数分布と確率分布 (2022. 11. 29)
2022年度秋学期 統計学 第10回 分布の推測とはー標本調査,度数分布と確率分布 (2022. 11. 29)
 
2022年度秋学期 統計学 第8回 問題に対する答案の書き方 (2022. 11. 15)
2022年度秋学期 統計学 第8回 問題に対する答案の書き方 (2022. 11. 15) 2022年度秋学期 統計学 第8回 問題に対する答案の書き方 (2022. 11. 15)
2022年度秋学期 統計学 第8回 問題に対する答案の書き方 (2022. 11. 15)
 
2022年度秋学期 画像情報処理 第9回 離散フーリエ変換と離散コサイン変換 (2022. 11. 25)
2022年度秋学期 画像情報処理 第9回 離散フーリエ変換と離散コサイン変換 (2022. 11. 25) 2022年度秋学期 画像情報処理 第9回 離散フーリエ変換と離散コサイン変換 (2022. 11. 25)
2022年度秋学期 画像情報処理 第9回 離散フーリエ変換と離散コサイン変換 (2022. 11. 25)
 
2022年度秋学期 統計学 第9回 確からしさを記述するー確率 (2022. 11. 22)
2022年度秋学期 統計学 第9回 確からしさを記述するー確率 (2022. 11. 22) 2022年度秋学期 統計学 第9回 確からしさを記述するー確率 (2022. 11. 22)
2022年度秋学期 統計学 第9回 確からしさを記述するー確率 (2022. 11. 22)
 
2022年度秋学期 画像情報処理 第8回 行列の直交変換と基底画像 (2022. 11. 18)
2022年度秋学期 画像情報処理 第8回 行列の直交変換と基底画像 (2022. 11. 18) 2022年度秋学期 画像情報処理 第8回 行列の直交変換と基底画像 (2022. 11. 18)
2022年度秋学期 画像情報処理 第8回 行列の直交変換と基底画像 (2022. 11. 18)
 
2022年度秋学期 応用数学(解析) 第8回 2階線形微分方程式(2) (2022. 11. 17)
2022年度秋学期 応用数学(解析) 第8回 2階線形微分方程式(2) (2022. 11. 17) 2022年度秋学期 応用数学(解析) 第8回 2階線形微分方程式(2) (2022. 11. 17)
2022年度秋学期 応用数学(解析) 第8回 2階線形微分方程式(2) (2022. 11. 17)
 
2022年度秋学期 画像情報処理 第7回 主成分分析とKarhunen-Loève変換 (2022. 11. 11)
2022年度秋学期 画像情報処理 第7回 主成分分析とKarhunen-Loève変換 (2022. 11. 11) 2022年度秋学期 画像情報処理 第7回 主成分分析とKarhunen-Loève変換 (2022. 11. 11)
2022年度秋学期 画像情報処理 第7回 主成分分析とKarhunen-Loève変換 (2022. 11. 11)
 

Último

KARAPATANG PANTAO.pptxhrhrhrhrhrhrhrhrhr
KARAPATANG PANTAO.pptxhrhrhrhrhrhrhrhrhrKARAPATANG PANTAO.pptxhrhrhrhrhrhrhrhrhr
KARAPATANG PANTAO.pptxhrhrhrhrhrhrhrhrhrRodolfFernandez1
 
Establishment and operation of medical corporations.pdf
Establishment and operation of medical corporations.pdfEstablishment and operation of medical corporations.pdf
Establishment and operation of medical corporations.pdfoganekyokoi
 
3年前期 交通基盤工学 第一回 ガイダンス 交通基盤工学の概要  パワーポイント
3年前期 交通基盤工学 第一回 ガイダンス 交通基盤工学の概要  パワーポイント3年前期 交通基盤工学 第一回 ガイダンス 交通基盤工学の概要  パワーポイント
3年前期 交通基盤工学 第一回 ガイダンス 交通基盤工学の概要  パワーポイントshu1108hina1020
 
Divorce agreements in administrative work.pdf
Divorce agreements in administrative work.pdfDivorce agreements in administrative work.pdf
Divorce agreements in administrative work.pdfoganekyokoi
 
レポートの書き方講座 [大学生初年次向けに対する講義資料] Lecture on how to write a report [lecture mater...
レポートの書き方講座 [大学生初年次向けに対する講義資料] Lecture on how to write a report [lecture mater...レポートの書き方講座 [大学生初年次向けに対する講義資料] Lecture on how to write a report [lecture mater...
レポートの書き方講座 [大学生初年次向けに対する講義資料] Lecture on how to write a report [lecture mater...yutakashikano1984
 
Registration of travel agents - 'Explanation of the registration system under...
Registration of travel agents - 'Explanation of the registration system under...Registration of travel agents - 'Explanation of the registration system under...
Registration of travel agents - 'Explanation of the registration system under...oganekyokoi
 
What I did before opening my business..pdf
What I did before opening my business..pdfWhat I did before opening my business..pdf
What I did before opening my business..pdfoganekyokoi
 
International Politics I - Lecture 1
International Politics I - Lecture 1International Politics I - Lecture 1
International Politics I - Lecture 1Toru Oga
 

Último (8)

KARAPATANG PANTAO.pptxhrhrhrhrhrhrhrhrhr
KARAPATANG PANTAO.pptxhrhrhrhrhrhrhrhrhrKARAPATANG PANTAO.pptxhrhrhrhrhrhrhrhrhr
KARAPATANG PANTAO.pptxhrhrhrhrhrhrhrhrhr
 
Establishment and operation of medical corporations.pdf
Establishment and operation of medical corporations.pdfEstablishment and operation of medical corporations.pdf
Establishment and operation of medical corporations.pdf
 
3年前期 交通基盤工学 第一回 ガイダンス 交通基盤工学の概要  パワーポイント
3年前期 交通基盤工学 第一回 ガイダンス 交通基盤工学の概要  パワーポイント3年前期 交通基盤工学 第一回 ガイダンス 交通基盤工学の概要  パワーポイント
3年前期 交通基盤工学 第一回 ガイダンス 交通基盤工学の概要  パワーポイント
 
Divorce agreements in administrative work.pdf
Divorce agreements in administrative work.pdfDivorce agreements in administrative work.pdf
Divorce agreements in administrative work.pdf
 
レポートの書き方講座 [大学生初年次向けに対する講義資料] Lecture on how to write a report [lecture mater...
レポートの書き方講座 [大学生初年次向けに対する講義資料] Lecture on how to write a report [lecture mater...レポートの書き方講座 [大学生初年次向けに対する講義資料] Lecture on how to write a report [lecture mater...
レポートの書き方講座 [大学生初年次向けに対する講義資料] Lecture on how to write a report [lecture mater...
 
Registration of travel agents - 'Explanation of the registration system under...
Registration of travel agents - 'Explanation of the registration system under...Registration of travel agents - 'Explanation of the registration system under...
Registration of travel agents - 'Explanation of the registration system under...
 
What I did before opening my business..pdf
What I did before opening my business..pdfWhat I did before opening my business..pdf
What I did before opening my business..pdf
 
International Politics I - Lecture 1
International Politics I - Lecture 1International Politics I - Lecture 1
International Politics I - Lecture 1
 

2013年度秋学期 統計学 第7回「データの関係を知る(2)−回帰分析」

  • 1. 2013年度秋学期 統計学 A. Asano, Kansai Univ. データの関係を知る(2)̶回帰分析 浅野 晃 関西大学総合情報学部
  • 3. A. Asano, Kansai Univ. 回帰分析とは
  • 4. 回帰分析とは A. Asano, Kansai Univ. 多変量データがあるとき ある変量の変化を他の変量の変化で [説明]する方法 2013年度秋学期 統計学
  • 6. 回帰分析とは 緯度と気温のデータを例にとると A. Asano, Kansai Univ. 相関分析 緯度があがると,気温が下がる 傾向がはっきりしている 回帰分析 緯度が上がるから気温が下がると考える 緯度が1度あがると,気温が⃝℃下がる 2013年度秋学期 統計学
  • 7. 回帰分析とは A. Asano, Kansai Univ. 緯度が上がるから気温が下がると考える 緯度が1度あがると,気温が⃝℃下がる 2013年度秋学期 統計学
  • 8. 回帰分析とは 緯度が上がるから気温が下がると考える 緯度が1度あがると,気温が⃝℃下がる A. Asano, Kansai Univ. 各都市の気温の違いは,緯度によって決 まっているという[モデル]を考える 2013年度秋学期 統計学
  • 9. 回帰分析とは 緯度が上がるから気温が下がると考える 緯度が1度あがると,気温が⃝℃下がる A. Asano, Kansai Univ. 各都市の気温の違いは,緯度によって決 まっているという[モデル]を考える 統計学では, 気温(のばらつき)は,緯度によって [説明]されるという 2013年度秋学期 統計学
  • 10. 説明変数・被説明変数 気温(℃) A. Asano, Kansai Univ. 気温は緯度によって説明される (というモデル) 23 % 21 19 気温 (℃) 8.0 9.6 11.0 11.9 12.5 12.9 13.2 15.3 13.1 11.4 16.0 14.9 16.2 14.4 15.0 16.3 16.0 17 15 13 11 % %% %% % %% % % % % % % % % % 9 % 7 5 25 27 29 31 33 35 37 39 41 43 45 緯度 (度) 図 1: 散布図:緯度と気温の関係 2013年度秋学期 統計学
  • 11. 説明変数・被説明変数 気温(℃) A. Asano, Kansai Univ. 気温は緯度によって説明される (というモデル) 23 % 21 19 気温 (℃) 8.0 9.6 11.0 11.9 12.5 12.9 13.2 15.3 13.1 11.4 16.0 14.9 16.2 14.4 15.0 16.3 16.0 17 15 13 11 % %% %% % %% % % % % % % % % % 9 % 7 5 25 27 29 31 33 35 37 39 41 43 45 緯度 (度) [説明変数] 図 1: 散布図:緯度と気温の関係 2013年度秋学期 統計学
  • 12. 説明変数・被説明変数 気温(℃) A. Asano, Kansai Univ. 23 % 21 19 気温 (℃) [被説明変数] 気温は緯度によって説明される (というモデル) 8.0 9.6 11.0 11.9 12.5 12.9 13.2 15.3 13.1 11.4 16.0 14.9 16.2 14.4 15.0 16.3 16.0 17 15 13 11 % %% %% % %% % % % % % % % % % 9 % 7 5 25 27 29 31 33 35 37 39 41 43 45 緯度 (度) [説明変数] 図 1: 散布図:緯度と気温の関係 2013年度秋学期 統計学
  • 14. A. Asano, Kansai Univ. 線形単回帰
  • 15. 線形単回帰 気温(℃) A. Asano, Kansai Univ. 気温は緯度によって説明される 23 % 21 19 気温 (℃) 8.0 9.6 11.0 11.9 12.5 12.9 13.2 15.3 13.1 11.4 16.0 14.9 16.2 14.4 15.0 16.3 16.0 17 15 13 11 % %% %% % %% % % % % % % % % % 9 % 7 5 25 27 29 31 33 35 37 39 41 43 45 緯度 (度) 図 1: 散布図:緯度と気温の関係 2013年度秋学期 統計学
  • 16. 線形単回帰 気温(℃) A. Asano, Kansai Univ. 気温は緯度によって説明される どう説明される? 23 % 21 19 気温 (℃) 8.0 9.6 11.0 11.9 12.5 12.9 13.2 15.3 13.1 11.4 16.0 14.9 16.2 14.4 15.0 16.3 16.0 17 15 13 11 % %% %% % %% % % % % % % % % % 9 % 7 5 25 27 29 31 33 35 37 39 41 43 45 緯度 (度) 図 1: 散布図:緯度と気温の関係 2013年度秋学期 統計学
  • 17. 線形単回帰 気温(℃) A. Asano, Kansai Univ. 気温は緯度によって説明される どう説明される? 23 % 21 19 気温 (℃) 8.0 9.6 11.0 11.9 12.5 12.9 13.2 15.3 13.1 11.4 16.0 14.9 16.2 14.4 15.0 16.3 16.0 17 15 13 11 % %% %% % %% % % % % % % % % % 9 % 7 5 25 27 29 31 33 35 37 39 41 43 45 緯度 (度) 図 1: 散布図:緯度と気温の関係 2013年度秋学期 統計学
  • 18. 線形単回帰 気温(℃) A. Asano, Kansai Univ. 気温は緯度によって説明される どう説明される? 23 % 21 19 気温 (℃) 8.0 9.6 11.0 11.9 12.5 12.9 13.2 15.3 13.1 11.4 16.0 14.9 16.2 14.4 15.0 16.3 16.0 17 15 13 11 % %% %% % %% % % % % % % % % % 9 % 7 5 25 27 29 31 33 35 37 39 41 43 45 緯度 (度) 散布図上で直線の関係がある,と考える 図 1: 散布図:緯度と気温の関係 2013年度秋学期 統計学
  • 19. 線形単回帰 散布図上で直線の関係がある 23 % 21 y 気温 (℃) 19 17 15 13 11 % %% %% % %% % % % % % % % % % 9 % A. Asano, Kansai Univ. 7 5 25 27 29 31 33 35 37 39 41 43 45 緯度 (度) x 2013年度秋学期 統計学
  • 20. 線形単回帰 散布図上で直線の関係がある 23 y = a + bx という式で表される関係 % 21 y 気温 (℃) 19 17 15 13 11 % %% %% % %% % % % % % % % % % 9 % A. Asano, Kansai Univ. 7 5 25 27 29 31 33 35 37 39 41 43 45 緯度 (度) x 2013年度秋学期 統計学
  • 21. 線形単回帰 散布図上で直線の関係がある 23 y = a + bx という式で表される関係 % 21 y 気温 (℃) 19 17 15 13 11 % %% %% % %% % % % % % % % % % 9 % 7 A. Asano, Kansai Univ. [線形単回帰]  という 5 25 27 29 31 33 35 37 39 41 43 45 緯度 (度) x 2013年度秋学期 統計学
  • 22. 線形単回帰 23 % y = a + bx という式で 表される関係 21 y 気温 (℃) 19 17 15 13 11 % %% %% % %% % % % % % % % % % 9 % A. Asano, Kansai Univ. 7 5 25 27 29 31 33 35 37 39 41 43 45 緯度 (度) x 2013年度秋学期 統計学
  • 23. 線形単回帰 23 % y = a + bx という式で 表される関係 21 y 気温 (℃) 19 17 15 13 11 % %% %% % %% % % % % % % % % % 9 % A. Asano, Kansai Univ. 7 5 25 27 29 31 33 35 37 39 41 43 45 緯度 (度) x 2013年度秋学期 統計学
  • 24. 線形単回帰 23 % y = a + bx という式で 表される関係 21 y 気温 (℃) 19 17 15 13 11 % %% %% % %% % % % % % % % % % 9 % A. Asano, Kansai Univ. 7 5 25 27 29 31 33 35 37 39 41 43 45 緯度 (度) x 2013年度秋学期 統計学
  • 25. 線形単回帰 23 % y = a + bx という式で 表される関係 21 y 気温 (℃) 19 17 15 13 11 %% %% % %% % % % % % % % % どうやって求める? % 9 % 7 A. Asano, Kansai Univ. aやbは % 5 25 27 29 31 33 35 37 39 41 43 45 緯度 (度) x 2013年度秋学期 統計学
  • 26. パラメータの決定 23 % 21 y 気温 (℃) 19 17 15 13 11 % %% %% % %% % % % % % % % % % A. Asano, Kansai Univ. 9 % 7 5 25 27 29 31 33 35 37 39 41 43 45 (度) x 緯度 2013年度秋学期 統計学 y = a + bx
  • 27. パラメータの決定 x = xiのとき 23 % 21 y 気温 (℃) 19 17 15 13 11 % %% %% % %% % % % % % % % % % A. Asano, Kansai Univ. 9 % 7 5 25 27 29 31 33 35 37 39 41 43 45 (度) x 緯度 2013年度秋学期 統計学 y = a + bx
  • 28. パラメータの決定 x = xiのとき 23 % 21 y 気温 (℃) 19 17 % %% %% % %% % % % % % % % % 15 13 11 % A. Asano, Kansai Univ. 9 % 7 5 25 27 29 31 33 35 37 39 41 43 45 x xi 緯度 (度) 2013年度秋学期 統計学 y = a + bx
  • 29. パラメータの決定 x = xiのとき モデルによれば a + bxi 23 % 21 y 気温 (℃) 19 17 % %% %% % %% % % % % % % % % 15 13 11 % A. Asano, Kansai Univ. 9 % 7 5 25 27 29 31 33 35 37 39 41 43 45 x xi 緯度 (度) 2013年度秋学期 統計学 y = a + bx
  • 30. パラメータの決定 x = xiのとき モデルによれば a + bxi 23 % 21 y 気温 (℃) 19 17 % %% %% % %% % % % % % % % % 15 13 11 % A. Asano, Kansai Univ. 9 % 7 5 25 27 29 31 33 35 37 39 41 43 45 x xi 緯度 (度) 2013年度秋学期 統計学 y = a + bx
  • 31. パラメータの決定 x = xiのとき モデルによれば a + bxi 23 % 21 y 気温 (℃) 19 17 % %% %% % %% % % % % % % % % 15 13 11 % A. Asano, Kansai Univ. 9 % 7 5 25 27 29 31 33 35 37 39 41 43 45 x xi 緯度 (度) 2013年度秋学期 統計学 y = a + bx
  • 32. パラメータの決定 x = xiのとき モデルによれば a + bxi 23 % 21 y 気温 (℃) 19 17 15 13 % a + bxi 11 %% %% % %% % % % % % % % % % A. Asano, Kansai Univ. 9 % 7 5 25 27 29 31 33 35 37 39 41 43 45 x xi 緯度 (度) 2013年度秋学期 統計学 y = a + bx
  • 33. パラメータの決定 23 x = xiのとき モデルによれば a + bxi 実際は yi % 21 y 気温 (℃) 19 17 15 13 % a + bxi 11 %% %% % %% % % % % % % % % % A. Asano, Kansai Univ. 9 % 7 5 25 27 29 31 33 35 37 39 41 43 45 x xi 緯度 (度) 2013年度秋学期 統計学 y = a + bx
  • 34. パラメータの決定 23 x = xiのとき モデルによれば a + bxi 実際は yi % 21 y 気温 (℃) 19 17 15 13 % a + bxi 11 %% %% % %% % % % % % % % % % A. Asano, Kansai Univ. 9 % 7 5 25 27 29 31 33 35 37 39 41 43 45 x xi 緯度 (度) 2013年度秋学期 統計学 y = a + bx
  • 35. パラメータの決定 23 x = xiのとき モデルによれば a + bxi 実際は yi % 21 y 気温 (℃) 19 17 15 13 % a + bxi 11 %% %% % %% % % % % % % % % % A. Asano, Kansai Univ. 9 % 7 5 25 27 29 31 33 35 37 39 41 43 45 x xi 緯度 (度) 2013年度秋学期 統計学 y = a + bx
  • 36. パラメータの決定 23 x = xiのとき モデルによれば a + bxi 実際は yi % 21 y 気温 (℃) 19 17 15 13 % a + bxi yi 11 %% %% % %% % % % % % % % % % A. Asano, Kansai Univ. 9 % 7 5 25 27 29 31 33 35 37 39 41 43 45 x xi 緯度 (度) 2013年度秋学期 統計学 y = a + bx
  • 37. パラメータの決定 23 x = xiのとき モデルによれば a + bxi 実際は yi % 21 y 気温 (℃) 19 17 15 13 % a + bxi yi 11 差 yi – (a + bxi ) % % %% % %% % % % % % % % % % A. Asano, Kansai Univ. 9 % 7 5 25 27 29 31 33 35 37 39 41 43 45 x xi 緯度 (度) 2013年度秋学期 統計学 y = a + bx
  • 38. パラメータの決定 23 x = xiのとき モデルによれば a + bxi 実際は yi % 21 y 気温 (℃) 19 17 15 13 % a + bxi yi 11 差 yi – (a + bxi ) % % %% % %% % % % % % % % % A. Asano, Kansai Univ. a,bを決める % 9 % 7 5 25 27 29 31 33 35 37 39 41 43 45 x 差が最小に なるように xi 緯度 (度) 2013年度秋学期 統計学 y = a + bx
  • 39. パラメータの決定 23 % 21 y 気温 (℃) 19 17 15 13 % a + bxi yi 11 差 y% – (a + bxi ) i % %% % %% % % % % % % % % % A. Asano, Kansai Univ. 9 % 7 5 25 27 29 31 33 35 37 39 41 43 45 x xi 緯度 (度) 2013年度秋学期 統計学
  • 40. パラメータの決定 すべてのxiについて, 差の合計が最小になるように 23 a,bを決める % 21 y 気温 (℃) 19 17 15 13 % a + bxi yi 11 差 y% – (a + bxi ) i % %% % %% % % % % % % % % % A. Asano, Kansai Univ. 9 % 7 5 25 27 29 31 33 35 37 39 41 43 45 x xi 緯度 (度) 2013年度秋学期 統計学
  • 41. パラメータの決定 すべてのxiについて, 2 差の合計が最小になるように 23 a,bを決める % 21 y 気温 (℃) 19 17 15 13 % a + bxi yi 11 差 y% – (a + bxi ) i % %% % %% % % % % % % % % % A. Asano, Kansai Univ. 9 % 7 5 25 27 29 31 33 35 37 39 41 43 45 x xi 緯度 (度) 2013年度秋学期 統計学
  • 42. パラメータの決定 ,この式の a, b つまりパラメータを決める方法を考えま すべてのx= a + bx というモデル iについて, します。x と y の間の関係が,y 2 y 気温 (℃) 差の合計が最小になるように + bxi となるはずです。しかし,現実には y = yi となっ 23 のうちで,この「全ての (xi , yi ) についての,yi と a + b % a,bを決める 21 メータをもっとも適切なパラメータとします。差には正 差 19 % yi – (a + bxi ) 17 すなわち %% %% 15 13 yi 11 9 a + bxi n % %% % % % % % % % % L= i=1 % {yi − (a + bxi )} 2 7 なるように a と b を決定します(n はデータの組の数です A. Asano, Kansai Univ. % 5 25 27 29 31 33 35 37 39 41 43 45 xi うな a と b を求める方法は,おもに2つあります。ひとつ (度) x 緯度 それらを両方とも 0 とおいた方程式を解くものです。 2013年度秋学期 統計学
  • 43. パラメータの決定 ,この式の a, b つまりパラメータを決める方法を考えま すべてのx= a + bx というモデル iについて, します。x と y の間の関係が,y 2 y 気温 (℃) 差の合計が最小になるように + bxi となるはずです。しかし,現実には y = yi となっ 23 のうちで,この「全ての (xi , yi ) についての,yi と a + b % a,bを決める 21 メータをもっとも適切なパラメータとします。差には正 差 19 % yi – (a + bxi ) 17 すなわち %% %% 15 13 yi 11 9 a + bxi n % %% % % % % % % % % L= i=1 % {yi − (a + bxi )} 2 7 が最小になる なるように a と b を決定します(n はデータの組の数です A. Asano, Kansai Univ. % 5 a,bを求める xi うな a と b を求める方法は,おもに2つあります。ひとつ (度) x 緯度 25 27 29 31 33 35 37 39 41 43 45 それらを両方とも 0 とおいた方程式を解くものです。 2013年度秋学期 統計学
  • 44. なパラメータとします。差には正負がありますから,実 「偏微分」による方法 n L= i=1 {yi − (a + bxi )} 2 が最小になる a,bを求める 定します(n はデータの組の数です) 。 法は,おもに2つあります。ひとつは,(1) 式を a と b で おいた方程式を解くものです。 A. Asano, Kansai Univ. る」とは,次のような意味です。微分とは,関数のグラフ 。そこで,(1) 式の L を a, b の2つの変数の関数と考える 2 , 2 の係数がいずれも正ですから,そのグラフは 数で,a b 2013年度秋学期 統計学
  • 45. なパラメータとします。差には正負がありますから,実 「偏微分」による方法 n L= i=1 {yi − (a + bxi )} 2 が最小になる a,bを求める 定します(n はデータの組の数です) 。 a,bの2次関数 法は,おもに2つあります。ひとつは,(1) 式を a と b で おいた方程式を解くものです。 A. Asano, Kansai Univ. る」とは,次のような意味です。微分とは,関数のグラフ 。そこで,(1) 式の L を a, b の2つの変数の関数と考える 2 , 2 の係数がいずれも正ですから,そのグラフは 数で,a b 2013年度秋学期 統計学
  • 46. なパラメータとします。差には正負がありますから,実 「偏微分」による方法 n L= i=1 {yi − (a + bxi )} 2 が最小になる a,bを求める 定します(n はデータの組の数です) 。 a,bの2次関数 L 法は,おもに2つあります。ひとつは,(1) 式を a と b で おいた方程式を解くものです。 L る」とは,次のような意味です。微分とは,関数のグラフ b 。そこで,(1) 式の L を a, b の2つの変数の関数と考える 2 , 2 の係数がいずれも正ですから,そのグラフは 数で,a b ★ A. Asano, Kansai Univ. b a a 2013年度秋学期 統計学
  • 47. なパラメータとします。差には正負がありますから,実 「偏微分」による方法 n L= i=1 {yi − (a + bxi )} 2 が最小になる a,bを求める 定します(n はデータの組の数です) 。 a,bの2次関数 L 法は,おもに2つあります。ひとつは,(1) 式を a と b で aだけの関数 おいた方程式を解くものです。 と考えて微分 L る」とは,次のような意味です。微分とは,関数のグラフ b 。そこで,(1) 式の L を a, b の2つの変数の関数と考える 2 , 2 の係数がいずれも正ですから,そのグラフは 数で,a b ★ A. Asano, Kansai Univ. b a a 2013年度秋学期 統計学
  • 48. なパラメータとします。差には正負がありますから,実 「偏微分」による方法 n L= i=1 {yi − (a + bxi )} 2 が最小になる a,bを求める 定します(n はデータの組の数です) 。 a,bの2次関数 L 法は,おもに2つあります。ひとつは,(1) 式を a と b で aだけの関数 おいた方程式を解くものです。 と考えて微分 L る」とは,次のような意味です。微分とは,関数のグラフ b 。そこで,(1) 式の L を a, b の2つの変数の関数と考える 2 , 2 の係数がいずれも正ですから,そのグラフは 数で,a b ★ A. Asano, Kansai Univ. b a a 2013年度秋学期 統計学
  • 49. なパラメータとします。差には正負がありますから,実 「偏微分」による方法 n L= i=1 {yi − (a + bxi )} 2 が最小になる a,bを求める 定します(n はデータの組の数です) 。 a,bの2次関数 L 法は,おもに2つあります。ひとつは,(1) 式を a と b で aだけの関数 おいた方程式を解くものです。 と考えて微分 L る」とは,次のような意味です。微分とは,関数のグラフ b 。そこで,(1) 式の L を a, b の2つの変数の関数と考える bだけの関数 2 , 2 の係数がいずれも正ですから,そのグラフは 数で,a b ★ と考えて微分 A. Asano, Kansai Univ. b a a 2013年度秋学期 統計学
  • 50. なパラメータとします。差には正負がありますから,実 「偏微分」による方法 n L= i=1 {yi − (a + bxi )} 2 が最小になる a,bを求める 定します(n はデータの組の数です) 。 a,bの2次関数 L 法は,おもに2つあります。ひとつは,(1) 式を a と b で aだけの関数 おいた方程式を解くものです。 と考えて微分 L る」とは,次のような意味です。微分とは,関数のグラフ b 。そこで,(1) 式の L を a, b の2つの変数の関数と考える bだけの関数 2 , 2 の係数がいずれも正ですから,そのグラフは 数で,a b ★ と考えて微分 A. Asano, Kansai Univ. b a a 2013年度秋学期 統計学
  • 51. 微分? L L aだけの関数 と考えて微分 b b a A. Asano, Kansai Univ. a ★ 2013年度秋学期 統計学
  • 52. 微分? L L aだけの関数 と考えて微分 b b a A. Asano, Kansai Univ. a ★ 2013年度秋学期 統計学
  • 57. 微分? L L 下り(-) aだけの関数 と考えて微分 b 微分は,傾きを 求める計算 b 上り(+) a ★ A. Asano, Kansai Univ. a 底では微分=0 bについても同じ, 底では微分=0 2013年度秋学期 統計学
  • 58. 微分? L L 下り(-) aだけの関数 と考えて微分 b 微分は,傾きを 求める計算 b 上り(+) a ★ A. Asano, Kansai Univ. a 底では微分=0 bについても同じ, これらから 底では微分=0 a,bを求める 2013年度秋学期 統計学
  • 65. 最小二乗法 σxy b= 2 σx a = y − b¯ ¯ x y は x, y の共分散です。x, y は,前回も出て ¯ ¯ A. Asano, Kansai Univ. うにして得られる1次式 y = a + bx を y の x は回帰直線の傾きで,これを回帰係数といい 2013年度秋学期 統計学
  • 66. i i i i ラメータをもっとも適切なパラメータとします。差には正負があります ,すなわち 最小二乗法 σxy b= 2 σx n L= i=1 {yi − (a + bxi )}2 になるように a と b を決定します(n はデータの組の数です) 。 ab= y − b¯ ¯ x ような a と を求める方法は,おもに2つあります。ひとつは,(1) 式を ,それらを両方とも 0 とおいた方程式を解くものです。 は x, y の共分散です。x, y は,前回も出て ¯ ¯ y それぞれで偏微分する」とは,次のような意味です。微分とは,関数 b 傾きを求めることです。そこで,(1) 式の L を a, b の2つの変数の関数 2 , 2 の係数がいずれも正ですから,その ちらについても2次関数で,a b A. Asano, Kansai Univ. うにして得られる1次式 y = a + bx を y の x 統計学(2013 年度秋学期) 第7回 (2013. 11. 7) http://r は回帰直線の傾きで,これを回帰係数といい 2013年度秋学期 統計学
  • 67. i i i i ラメータをもっとも適切なパラメータとします。差には正負があります ,すなわち 最小二乗法 σxy b= 2 σx n L= i=1 {yi − (a + bxi )}2 になるように a と b を決定します(n はデータの組の数です) 。 ab= y − b¯ ¯ x ような a と を求める方法は,おもに2つあります。ひとつは,(1) 式を ,それらを両方とも 0 とおいた方程式を解くものです。 は x, y の共分散です。x, y は,前回も出て ¯ ¯ y それぞれで偏微分する」とは,次のような意味です。微分とは,関数 b 傾きを求めることです。そこで,(1) 式の L を a, b の2つの変数の関数 2 , 2 の係数がいずれも正ですから,その ちらについても2次関数で,a b A. Asano, Kansai Univ. うにして得られる1次式 y = a + bx を y の x 統計学(2013 年度秋学期) 第7回 (2013. 11. 7) http://r は回帰直線の傾きで,これを回帰係数といい 2013年度秋学期 統計学
  • 68. i i i i ラメータをもっとも適切なパラメータとします。差には正負があります ,すなわち 最小二乗法 σxy b= 2 σx n L= i=1 {yi − (a + bxi )}2 になるように a と b を決定します(n はデータの組の数です) を最小にしたので。 ab= y − b¯ ¯ x ような a と を求める方法は,おもに2つあります。ひとつは,(1) 式を [最小二乗法] ,それらを両方とも 0 とおいた方程式を解くものです。 は x, y の共分散です。x, y は,前回も出て ¯ ¯ y それぞれで偏微分する」とは,次のような意味です。微分とは,関数 b 傾きを求めることです。そこで,(1) 式の L を a, b の2つの変数の関数 2 , 2 の係数がいずれも正ですから,その ちらについても2次関数で,a b A. Asano, Kansai Univ. うにして得られる1次式 y = a + bx を y の x 統計学(2013 年度秋学期) 第7回 (2013. 11. 7) http://r は回帰直線の傾きで,これを回帰係数といい 2013年度秋学期 統計学
  • 69. i i i i ラメータをもっとも適切なパラメータとします。差には正負があります ,すなわち 最小二乗法 σxy b= 2 σx n L= i=1 {yi − (a + bxi )}2 になるように と を決定します(n はデータの組の数です) です。x,a y bは,前回も出てきたもので ¯ ¯ を最小にしたので。 ab= y − b¯ ¯ x ような a と を求める方法は,おもに2つあります。ひとつは,(1) 式を [最小二乗法] ,それらを両方とも 0 とおいた方程式を解くものです。 は x, y の共分散です。x, y は,前回も出て ¯ ¯ y それぞれで偏微分する」とは,次のような意味です。微分とは,関数 b 傾きを求めることです。そこで, y の を 上への回帰方 次式 y = a + bx を(1) 式の Lx a, b の2つの変数の関数 ちらについても2次関数で,a , の係数がいずれも正ですから,その b ,これを回帰係数といいます。なお, 2 2 A. Asano, Kansai Univ. うにして得られる1次式 y = a + bx を y の x 統計学(2013 年度秋学期) 第7回 (2013. 11. 7) http://r は回帰直線の傾きで,これを回帰係数といい 2013年度秋学期 統計学
  • 70. i i i i ラメータをもっとも適切なパラメータとします。差には正負があります ,すなわち 最小二乗法 σxy b= 2 σx n L= i=1 {yi − (a + bxi )}2 になるように と を決定します(n はデータの組の数です) です。x,a y bは,前回も出てきたもので ¯ ¯ を最小にしたので。 ab= y − b¯ ¯ x ような a と を求める方法は,おもに2つあります。ひとつは,(1) 式を [最小二乗法] ,それらを両方とも 0 とおいた方程式を解くものです。 は x, y の共分散です。x, y は,前回も出て ¯ ¯ y それぞれで偏微分する」とは,次のような意味です。微分とは,関数 b [回帰方程式]あるいは 傾きを求めることです。そこで, y の を 上への回帰方 次式 y = a + bx を(1) 式の Lx a, b の2つの変数の関数 2 , 2 の係数がいずれも正ですから,その ちらについても2次関数で,a [回帰直線] b ,これを回帰係数といいます。なお, A. Asano, Kansai Univ. うにして得られる1次式 y = a + bx を y の x 統計学(2013 年度秋学期) 第7回 (2013. 11. 7) http://r は回帰直線の傾きで,これを回帰係数といい 2013年度秋学期 統計学
  • 71. i i i i ラメータをもっとも適切なパラメータとします。差には正負があります ,すなわち 最小二乗法 σxy b= 2 σx n L= i=1 {yi − (a + bxi )}2 になるように と を決定します(n はデータの組の数です) です。x,a y bは,前回も出てきたもので ¯ ¯ を最小にしたので。 ab= y − b¯ ¯ x ような a と を求める方法は,おもに2つあります。ひとつは,(1) 式を [最小二乗法] ,それらを両方とも 0 とおいた方程式を解くものです。 は x, y の共分散です。x, y は,前回も出て ¯ ¯ y それぞれで偏微分する」とは,次のような意味です。微分とは,関数 b [回帰方程式]あるいは 傾きを求めることです。そこで, y の を 上への回帰方 次式 y = a + bx を(1) 式の Lx a, b の2つの変数の関数 2 , 2 の係数がいずれも正ですから,その ちらについても2次関数で,a [回帰直線] b ,これを回帰係数といいます。なお, A. Asano, Kansai Univ. うにして得られる1次式 y = a + bx を y の x 統計学(2013 年度秋学期) 第7回 (2013. 11. 7) http://r は回帰直線の傾きで,これを回帰係数といい 2013年度秋学期 統計学
  • 72. i i i i ラメータをもっとも適切なパラメータとします。差には正負があります ,すなわち 最小二乗法 σxy b= 2 σx n L= i=1 {yi − (a + bxi )}2 になるように と を決定します(n はデータの組の数です) です。x,a y bは,前回も出てきたもので ¯ ¯ を最小にしたので。 ab= y − b¯ ¯ x ような a と を求める方法は,おもに2つあります。ひとつは,(1) 式を [最小二乗法] ,それらを両方とも 0 とおいた方程式を解くものです。 は x, y の共分散です。x, y は,前回も出て ¯ ¯ y それぞれで偏微分する」とは,次のような意味です。微分とは,関数 b [回帰方程式]あるいは 傾きを求めることです。そこで, y の を 上への回帰方 次式 y = a + bx を(1) 式の Lx a, b の2つの変数の関数 2 , 2 の係数がいずれも正ですから,その ちらについても2次関数で,a [回帰直線] b ,これを回帰係数といいます。なお, A. Asano, Kansai Univ. うにして得られる1次式 y = a + bx を y の x 統計学(2013 年度秋学期) 第7回 (2013. 11. 7) http://r は回帰直線の傾きで,これを回帰係数といい 2013年度秋学期 統計学
  • 73. i i i i ラメータをもっとも適切なパラメータとします。差には正負があります ,すなわち 最小二乗法 σxy b= 2 σx n L= i=1 {yi − (a + bxi )}2 になるように と を決定します(n はデータの組の数です) です。x,a y bは,前回も出てきたもので ¯ ¯ を最小にしたので。 ab= y − b¯ ¯ x ような a と を求める方法は,おもに2つあります。ひとつは,(1) 式を [最小二乗法] ,それらを両方とも 0 とおいた方程式を解くものです。 は x, y の共分散です。x, y は,前回も出て ¯ ¯ y それぞれで偏微分する」とは,次のような意味です。微分とは,関数 b [回帰方程式]あるいは 傾きを求めることです。そこで, y の を 上への回帰方 次式 y = a + bx を(1) 式の Lx a, b の2つの変数の関数 2 , 2 の係数がいずれも正ですから,その ちらについても2次関数で,a [回帰直線] b ,これを回帰係数といいます。なお, A. Asano, Kansai Univ. うにして得られる1次式 y = a + bx を y の x [回帰係数] 統計学(2013 年度秋学期) 第7回 (2013. 11. 7) http://r は回帰直線の傾きで,これを回帰係数といい 2013年度秋学期 統計学
  • 74. 散です。x, y は,前回も出てきたもので,それ ¯ ¯ ところで σ b= 1次式 y = 温(℃) xy 2 aσx bx を y + のx より 上への回帰方程式, で,これを回帰係数といいます。なお,(2) 式 8.0 a = y − b¯ ¯ x A. Asano, Kansai Univ. y 気温 (℃) 9.6 11.0 23 σxy 11.9 x, y の共分散です。x, y は,前回も出てきたもので,そ は ¯ ¯ % x) ¯ (3) 21 12.5 19 12.9 % 17 http://racco.mikeneko.jp/  2/9 ページ %% 13.2 うにして得られる1次式 y =%%%%+ bx を y の x 上への回帰方程 a 15 % % 15.3 % % 13 は回帰直線の傾きで,これを回帰係数といいます。なお,(2 % % 13.1 % % % 11 11.4 % 9 16.0 % y ¯ 7 ¯ 14.9− y = b(x − x) 5 16.2 25 27 29 31 33 35 37 39 41 43 45 14.4 3. 11. 7) 緯度 http://racco.mikeneko.jp/  2/9 ペ (度) 15.0 2013年度秋学期 統計学 16.3 x
  • 75. 散です。x, y は,前回も出てきたもので,それ ¯ ¯ ると ところで σxy b= 2 1次式 y = a + bx を y の x 上への回帰方程式, σx ¯ より y − y = b(x 温(℃) で,これを回帰係数といいます。なお,(2) 式 8.0 a = y − b¯ ¯ x − x) ¯ 9.6 11.0 23 σxy 11.9 x, y の共分散です。x, y は,前回も出てきたもので,そ は ¯ ¯ % x) ¯ (3) 21 12.5 19 12.9 % 17 http://racco.mikeneko.jp/  2/9 ページ %% 13.2 うにして得られる1次式 y =%%%%+ bx を y の x 上への回帰方程 a 15 % % 15.3 % % 13 は回帰直線の傾きで,これを回帰係数といいます。なお,(2 % % 13.1 % % % 11 11.4 % 9 16.0 % y ¯ 7 ¯ 14.9− y = b(x − x) 5 16.2 25 27 29 31 33 35 37 39 41 43 45 14.4 3. 11. 7) 緯度 http://racco.mikeneko.jp/  2/9 ペ (度) 15.0 2013年度秋学期 統計学 16.3 A. Asano, Kansai Univ. y 気温 (℃) 学期) 第7回 (2013. 11. 7) x
  • 76. 散です。x, y は,前回も出てきたもので,それ ¯ ¯ ると ところで σxy b= 2 1次式 y = a + bx を y の x 上への回帰方程式, σx ¯ より y − y = b(x 温(℃) で,これを回帰係数といいます。なお,(2) 式 8.0 a = y − b¯ ¯ x − x) ¯ 9.6 11.0 23 σxy 11.9 x, y の共分散です。x, y は,前回も出てきたもので,そ は ¯ ¯ % x) ¯ (3) 21 12.5 19 12.9 % 17 http://racco.mikeneko.jp/  2/9 ページ %% 13.2 うにして得られる1次式 y =%%%%+ bx を y の x 上への回帰方程 a 15 % % 15.3 % % 13 は回帰直線の傾きで,これを回帰係数といいます。なお,(2 % % 13.1 % % % 11 11.4 % 9 16.0 % y ¯ 7 ¯ 14.9− y = b(x − x) 5 16.2 25 27 29 31 33 35 37 39 41 43 45 14.4 3. 11. 7) 緯度 http://racco.mikeneko.jp/  2/9 ペ (度) 15.0 2013年度秋学期 統計学 16.3 A. Asano, Kansai Univ. y 気温 (℃) 学期) 第7回 (2013. 11. 7) x x
  • 77. 散です。x, y は,前回も出てきたもので,それ ¯ ¯ ると ところで σxy b= 2 1次式 y = a + bx を y の x 上への回帰方程式, σx ¯ より y − y = b(x 温(℃) で,これを回帰係数といいます。なお,(2) 式 8.0 a = y − b¯ ¯ x − x) ¯ 9.6 11.0 23 σxy 11.9 x, y の共分散です。x, y は,前回も出てきたもので,そ は ¯ ¯ % x) ¯ (3) 21 12.5 19 12.9 % 17 http://racco.mikeneko.jp/  2/9 ページ %% 13.2 うにして得られる1次式 y =%%%%+ bx を y の x 上への回帰方程 a 15 % % 15.3 % % 13 は回帰直線の傾きで,これを回帰係数といいます。なお,(2 % % 13.1 % % % 11 11.4 % 9 16.0 % y ¯ 7 ¯ 14.9− y = b(x − x) 5 16.2 25 27 29 31 33 35 37 39 41 43 45 14.4 3. 11. 7) 緯度 http://racco.mikeneko.jp/  2/9 ペ (度) 15.0 2013年度秋学期 統計学 16.3 A. Asano, Kansai Univ. y 気温 (℃) 学期) 第7回 (2013. 11. 7) y x x
  • 78. 散です。x, y は,前回も出てきたもので,それ ¯ ¯ ると ところで σxy b= 2 1次式 y = a + bx を y の x 上への回帰方程式, σx ¯ より y − y = b(x 温(℃) で,これを回帰係数といいます。なお,(2) 式 8.0 a = y − b¯ ¯ x − x) ¯ 9.6 11.0 23 σxy 11.9 x, y の共分散です。x, y は,前回も出てきたもので,そ は ¯ ¯ % x) ¯ (3) 21 12.5 19 12.9 % 17 http://racco.mikeneko.jp/  2/9 ページ %% 13.2 うにして得られる1次式 y =%%%%+ bx を y の x 上への回帰方程 a 15 % % 15.3 % % 13 は回帰直線の傾きで,これを回帰係数といいます。なお,(2 % % 13.1 % % % 11 11.4 % 9 16.0 % y ¯ 7 ¯ 14.9− y = b(x − x) 5 16.2 25 27 29 31 33 35 37 39 41 43 45 14.4 3. 11. 7) 緯度 http://racco.mikeneko.jp/  2/9 ペ (度) 15.0 2013年度秋学期 統計学 16.3 A. Asano, Kansai Univ. y 気温 (℃) 学期) 第7回 (2013. 11. 7) 回帰直線は (x, y)を通る y x x
  • 80. A. Asano, Kansai Univ. 決定係数
  • 81. 残差 a,bが求められて,回帰直線が確定 23 % 21 y 気温 (℃) 19 17 15 13 11 % %% %% % %% % % % % % % % % % A. Asano, Kansai Univ. 9 % 7 5 25 27 29 31 33 35 37 39 41 43 45 (度) x 緯度 2013年度秋学期 統計学
  • 82. 残差 a,bが求められて,回帰直線が確定 23 % 21 y 気温 (℃) 19 17 % %% %% % %% % % % % % % % % 15 13 11 % A. Asano, Kansai Univ. 9 % 7 5 25 27 29 31 33 35 37 39 41 43 45 x xi 緯度 (度) 2013年度秋学期 統計学
  • 83. 残差 a,bが求められて,回帰直線が確定 23 % 21 y 気温 (℃) 19 17 % %% %% % %% % % % % % % % % 15 13 11 % A. Asano, Kansai Univ. 9 % 7 5 25 27 29 31 33 35 37 39 41 43 45 x xi 緯度 (度) 2013年度秋学期 統計学
  • 84. 残差 a,bが求められて,回帰直線が確定 23 % 21 y 気温 (℃) 19 17 % %% %% % %% % % % % % % % % 15 13 11 % A. Asano, Kansai Univ. 9 % 7 5 25 27 29 31 33 35 37 39 41 43 45 x xi 緯度 (度) 2013年度秋学期 統計学
  • 85. 残差 a,bが求められて,回帰直線が確定 23 % 21 y 気温 (℃) 19 17 % %% %% % %% % % % % % % % % 15 13 yi 11 % A. Asano, Kansai Univ. 9 % 7 5 25 27 29 31 33 35 37 39 41 43 45 x xi 緯度 (度) 2013年度秋学期 統計学
  • 86. 残差 a,bが求められて,回帰直線が確定 23 % 21 y 気温 (℃) 19 17 % %% %% % %% % % % % % % % % 15 13 yi 11 % A. Asano, Kansai Univ. 9 % 7 5 25 27 29 31 33 35 37 39 41 43 45 x xi 緯度 (度) 2013年度秋学期 統計学
  • 87. 残差 a,bが求められて,回帰直線が確定 23 % 21 y 気温 (℃) 19 17 15 13 % a + bxi yi 11 %% %% % %% % % % % % % % % % A. Asano, Kansai Univ. 9 % 7 5 25 27 29 31 33 35 37 39 41 43 45 x xi 緯度 (度) 2013年度秋学期 統計学
  • 88. 残差 a,bが求められて,回帰直線が確定 xi に対する,回帰直線によるyの推定値 23 % 21 y 気温 (℃) 19 17 15 13 % a + bxi yi 11 %% %% % %% % % % % % % % % % A. Asano, Kansai Univ. 9 % 7 5 25 27 29 31 33 35 37 39 41 43 45 x xi 緯度 (度) 2013年度秋学期 統計学
  • 89. 残差 a,bが求められて,回帰直線が確定 xi に対する,回帰直線によるyの推定値 23 % 応する y の値,すなわち a + bxi を yi = a + bxi と ˆ 21 と yi の差を残差といい,di で表します。残差とは ˆ 17 % %% %% % %% 15 したとき,予測によって表現できなかった部分を表 % y 13 a + bxi % % % % % % % 11 (前回の講義参照)とすると yi 気温 (℃) % 9 A. Asano, Kansai Univ. = 19 % 7 2 (yi − yi ) = (1 − ˆ 5 25 27 29 31 33 35 37 39 2 つまり,rxy xi 緯度 (度) 2 rxy )45 41 43 (yi − y ) ¯ 2 x が 1 に近づくほど yi と yi の差は小さ ˆ 2013年度秋学期 統計学
  • 90. 残差 a,bが求められて,回帰直線が確定 xi に対する,回帰直線によるyの推定値 23 % 応する y の値,すなわち a + bxi を yi = a + bxi と ˆ 21 と yi の差を残差といい,di で表します。残差とは ˆ 17 % %% %% % %% 15 したとき,予測によって表現できなかった部分を表 % y 13 a + bxi % % % % % % % 11 (前回の講義参照)とすると yi 気温 (℃) % 9 A. Asano, Kansai Univ. = 19 % 7 2 (yi − yi ) = (1 − ˆ 5 25 27 29 31 33 35 37 39 2 つまり,rxy xi 緯度 (度) 2 rxy )45 41 43 (yi − y ) ¯ 2 x が 1 に近づくほど yi と yi の差は小さ ˆ 2013年度秋学期 統計学
  • 91. 残差 ¯ を通る直線」になります。 「傾きが b で点 (¯, y) x a,bが求められて,回帰直線が確定 xi に対する,回帰直線によるyの推定値 23 % 応する y の値,すなわち a + bxi を yi = a + bxi と ˆ 定係数 21 と yi の差を残差といい,di で表します。残差とは ˆ 17 % それでも残っている, %% %% 各 xi に対して,回帰直線上で対応する y の値,す % %% 15 したとき,予測によって表現できなかった部分を表 % 推定値と実際の差 y 13 a + bxi % % % % のとき,実際のデータにおける yi とiyと表すこと y の値,すなわち a + bx%i を yi = a + bx ˆi の差を残 ˆ % % 11 (前回の講義参照)とすると yi % 9 の差を残差といい,di で表します。残差とは,回帰方 値を使って,yi の値を yi % ˆ と予測したとき,予測に 7 2 x と y の相関係数(前回の講義参 2 2 き,予測によって表現できなかった部分を表していま ついて,rxyi )31 33 35 37 − rxy )45 (yi − y ) = (y5i25− y を = (1 39 41 43 ˆ ¯ 27 29 xi 回の講義参照)とすると (度) x 緯度 2 2 が 1 に近づくほど y 2 と y の差は小さ di = ˆi (yi − yi ) ˆ つまり,rxy A. Asano, Kansai Univ. 気温 (℃) 19 2013年度秋学期 統計学
  • 92. 残差 図 2: 偏微分と関数の最小値 ¯ を通る直線」になります。 「傾きが b で点 (¯, y) x a,bが求められて,回帰直線が確定 xi に対する,回帰直線によるyの推定値 布図上で回帰直線は「傾きが b で点 (¯, y) を通る直線」に x ¯ 応する y の値,すなわち a + bxi を yi = a + bxi と ˆ 定係数 21 19 と yi の差を残差といい,di で表します。残差とは ˆ 17 % それでも残っている, %% %% 各 xi に対して,回帰直線上で対応する y の値,す % %% 15 したとき,予測によって表現できなかった部分を表 % 推定値と実際の差 y 13 a + bxi % % % % のとき,実際のデータにおける yi とiyと表すこと y の値,すなわち a + bx%i を yi = a + bx ˆi の差を残 ˆ % % 11 (前回の講義参照)とすると yi % 9 の差を残差といい,di で表します。残差とは,回帰方 値を使って,yi の値を yi % ˆ と予測したとき,予測に 7 帰直線上で対応する y の値,すなわち a + bxi2を yi = a + ˆ [残差]という 2 x と y の相関係数(前回の講義参 2 き,予測によって表現できなかった部分を表していま ついて,rxyi )31 33 35 37 − rxy )45 (yi − y ) = (y5i25− y を = (1 39 41 43 ˆ ¯ 27 29 タにおける yi と yi の差を残差といい,di で表します。 ˆ xi 回の講義参照)とすると (度) x 緯度 を yi と予測したとき,予測によって表現できなかった ˆ 2 2 が 1 に近づくほど y 2 と y の差は小さ di = ˆi (yi − yi ) ˆ つまり,rxy % A. Asano, Kansai Univ. 気温 (℃) 23 2013年度秋学期 統計学
  • 93. 残差と決定係数 回帰方程式を使って yi を予測したときの, A. Asano, Kansai Univ. 予測によって表現できなかった部分 2013年度秋学期 統計学
  • 94. 残差と決定係数 回帰方程式を使って yi を予測したときの, 予測によって表現できなかった部分 A. Asano, Kansai Univ. 残差について(付録3) 2013年度秋学期 統計学
  • 95. 残差と決定係数 ,回帰直線上で対応する y の値,すなわち ++ bxi を a bx と表す で対応する y の値,すなわち a yi を予測したときの, ˆ i 回帰方程式を使って + bxi を yi = a のデータにおける yi と yi の差を残差といい,di で表し ˆ ける yi と yi の差を残差といい,di で表します。残差とは, ˆ 予測によって表現できなかった部分 ˆ i の値を yi と予測したとき,予測によって表現できな 予測したとき,予測によって表現できなかった部分を表し を係数(前回の講義参照)とすると x と y の相関係数(前回の講義参照)とすると 残差について(付録3) 2 di = 22 (yi − yi i = ˆ) = d (1 2 2 2 2 − rxy ) yi ) (yi − y− rxy ) (yi − ˆ = (1¯) (yi 2 が 1 に近づくほど y と y の差は小さくな 2 3) 。つまり,rxy 。つまり,rxy が 1 に近づくほど yi と ˆi i (導出は付録3) A. Asano, Kansai Univ. すなわち,最小二乗法で求めたモデルによって,y が x か となります。すなわち,最小二乗法で求めたモデルに 2 を決定係数とよびます。 このことから,rxy 2 を決定係数とよびます になります。このことから,r xy うに説明できます。(4) 式を少し変形して 味は,次のように説明できます。(4) 式を少し変形して 2013年度秋学期 統計学
  • 96. 残差と決定係数 ,回帰直線上で対応する y の値,すなわち ++ bxi を a bx と表す で対応する y の値,すなわち a yi を予測したときの, ˆ i 回帰方程式を使って + bxi を yi = a のデータにおける yi と yi の差を残差といい,di で表し ˆ ける yi と yi の差を残差といい,di で表します。残差とは, ˆ 予測によって表現できなかった部分 ˆ i の値を yi と予測したとき,予測によって表現できな 予測したとき,予測によって表現できなかった部分を表し を係数(前回の講義参照)とすると x と y の相関係数(前回の講義参照)とすると 残差について(付録3) 2 di = 22 (yi − yi i = ˆ) = d (1 2 2 2 2 − rxy ) yi ) (yi − y− rxy ) (yi − ˆ = (1¯) (yi 残差 2 が 1 に近づくほど y と y の差は小さくな 2 3) 。つまり,rxy 。つまり,rxy が 1 に近づくほど yi と ˆi i (導出は付録3) A. Asano, Kansai Univ. すなわち,最小二乗法で求めたモデルによって,y が x か となります。すなわち,最小二乗法で求めたモデルに 2 を決定係数とよびます。 このことから,rxy 2 を決定係数とよびます になります。このことから,r xy うに説明できます。(4) 式を少し変形して 味は,次のように説明できます。(4) 式を少し変形して 2013年度秋学期 統計学
  • 97. 残差と決定係数 ,回帰直線上で対応する y の値,すなわち ++ bxi を a bx と表す で対応する y の値,すなわち a yi を予測したときの, ˆ i 回帰方程式を使って + bxi を yi = a のデータにおける yi と yi の差を残差といい,di で表し ˆ ける yi と yi の差を残差といい,di で表します。残差とは, ˆ 予測によって表現できなかった部分 ˆ i の値を yi と予測したとき,予測によって表現できな 予測したとき,予測によって表現できなかった部分を表し を係数(前回の講義参照)とすると x と y の相関係数(前回の講義参照)とすると 残差について(付録3) 2 di = 22 (yi − yi i = ˆ) = d (1 2 2 2 2 − rxy ) yi ) (yi − y− rxy ) (yi − ˆ = (1¯) (yi 相関 残差1 に近づくほど y と y の差は小さくな 2 が 2 3) 。つまり,rxy 。つまり,rxy が 1 に近づくほど yi と ˆi i (導出は付録3) 係数 A. Asano, Kansai Univ. すなわち,最小二乗法で求めたモデルによって,y が x か となります。すなわち,最小二乗法で求めたモデルに 2 を決定係数とよびます。 このことから,rxy 2 を決定係数とよびます になります。このことから,r xy うに説明できます。(4) 式を少し変形して 味は,次のように説明できます。(4) 式を少し変形して 2013年度秋学期 統計学
  • 98. 残差と決定係数 ,回帰直線上で対応する y の値,すなわち ++ bxi を a bx と表す で対応する y の値,すなわち a yi を予測したときの, ˆ i 回帰方程式を使って + bxi を yi = a のデータにおける yi と yi の差を残差といい,di で表し ˆ ける yi と yi の差を残差といい,di で表します。残差とは, ˆ 予測によって表現できなかった部分 ˆ i の値を yi と予測したとき,予測によって表現できな 予測したとき,予測によって表現できなかった部分を表し を係数(前回の講義参照)とすると x と y の相関係数(前回の講義参照)とすると 残差について(付録3) 2 di = 22 (yi − yi i = ˆ) = d (1 2 2 2 2 − rxy ) yi ) (yi − y− rxy ) (yi − ˆ = (1¯) (yi 相関 残差1 に近づくほど y と y の差は小さくな 2 が 2 3) 。つまり,rxy 。つまり,rxy が 1 に近づくほど yi と ˆi i (導出は付録3) 係数 A. Asano, Kansai Univ. すなわち,最小二乗法で求めたモデルによって,y が x か となります。すなわち,最小二乗法で求めたモデルに 2 を決定係数とよびます。 このことから,rxy 2 を決定係数とよびます になります。このことから,r xy うに説明できます。(4) 式を少し変形して 味は,次のように説明できます。(4) 式を少し変形して 2013年度秋学期 統計学
  • 99. 残差と決定係数 ,回帰直線上で対応する y の値,すなわち ++ bxi を a bx と表す で対応する y の値,すなわち a yi を予測したときの, ˆ i 回帰方程式を使って + bxi を yi = a のデータにおける yi と yi の差を残差といい,di で表し ˆ ける yi と yi の差を残差といい,di で表します。残差とは, ˆ 予測によって表現できなかった部分 ˆ i の値を yi と予測したとき,予測によって表現できな 予測したとき,予測によって表現できなかった部分を表し を係数(前回の講義参照)とすると x と y の相関係数(前回の講義参照)とすると 残差について(付録3) 2 di = 22 (yi − yi i = ˆ) = d (1 2 2 2 2 − rxy ) yi ) (yi − y− rxy ) (yi − ˆ = (1¯) (yi 相関 決定 残差 2 が 1 に近づくほど y と y の差は小さくな 2 3) 。つまり,rxy 。つまり,rxy が 1 に近づくほど yi と i (導出は付録3) 係数 係数 ˆi A. Asano, Kansai Univ. すなわち,最小二乗法で求めたモデルによって,y が x か となります。すなわち,最小二乗法で求めたモデルに 2 を決定係数とよびます。 このことから,rxy 2 を決定係数とよびます になります。このことから,r xy うに説明できます。(4) 式を少し変形して 味は,次のように説明できます。(4) 式を少し変形して 2013年度秋学期 統計学
  • 100. 残差と決定係数 ,回帰直線上で対応する y の値,すなわち ++ bxi を a bx と表す で対応する y の値,すなわち a yi を予測したときの, ˆ i 回帰方程式を使って + bxi を yi = a のデータにおける yi と yi の差を残差といい,di で表し ˆ ける yi と yi の差を残差といい,di で表します。残差とは, ˆ 予測によって表現できなかった部分 ˆ i の値を yi と予測したとき,予測によって表現できな 予測したとき,予測によって表現できなかった部分を表し を係数(前回の講義参照)とすると x と y の相関係数(前回の講義参照)とすると 残差について(付録3) 2 di = 22 (yi − yi i = ˆ) = d (1 2 2 2 2 − rxy ) yi ) (yi − y− rxy ) (yi − ˆ = (1¯) (yi 相関 決定 残差 2 が 1 に近づくほど y と y の差は小さくな 2 3) 。つまり,rxy 。つまり,rxy が 1 に近づくほど yi と i (導出は付録3) 係数 係数 ˆi A. Asano, Kansai Univ. すなわち,最小二乗法で求めたモデルによって,y が x か となります。すなわち,最小二乗法で求めたモデルに 決定係数が1に近づくほど 2 を決定係数とよびます。 このことから,rxy 2 を決定係数とよびます になります。このことから,r xy 残差の2乗和が0に近づく うに説明できます。(4) 式を少し変形して 味は,次のように説明できます。(4) 式を少し変形して 2013年度秋学期 統計学
  • 101. ータにおける yi と yi の差を残差といい,di で表します。残差とは,回帰方程 ˆ yi と yi の差を残差といい,di で表します。残差とは,回帰方程式と xi ˆ の値を yi と予測したとき,予測によって表現できなかった部分を表しています ˆ 測したとき,予測によって表現できなかった部分を表しています。残差 と y の相関係数(前回の講義参照)とすると 数(前回の講義参照)とすると 2 決定係数の意味 = (yi − y )2 ¯ より (yi − yi22= (1 − rxy )yi )2(yi − y− rxy ) ˆi = d) (yi 2− ˆ = (1¯)2 2 (4) 2 2 2 が 1 に近づくほど y と y の差は小さくなり,r 2 。つまり,rxy が 1 に近づくほど yi と yi の差は小さくなり,rxy = 1 の ˆ 出は付録3) 。つまり,rxy ˆi i xy わち,最小二乗法で求めたモデルによって,y が x から完全に正確に なります。すなわち,最小二乗法で求めたモデルによって,y が x から完全に 2 ことから,rxy を決定係数とよびます。 なります。このことから,r2 を決定係数とよびます。 xy 説明できます。(4) 式を少し変形して は,次のように説明できます。(4) 式を少し変形して 2 − rxy = d2 i 2 = (y1 − y )xy = r2 i −¯ d2 /n i d2 2 i (yi − y ) /n= ¯ (yi − y )2 ¯ d2 /n i (yi − y )2 /n ¯ (5) A. Asano, Kansai Univ. 母は,y 全体の平均からの各 yi のへだたり,すなわち偏差の2乗の平 式の右端の分母は,y 全体の平均からの各 yi のへだたり,すなわち偏差の2 ます。一方,分子は,残差の2乗の平均になっています。残差は「線 分散を表しています。一方,分子は,残差の2乗の平均になっています。残差 たり」ですから,分子は「線形モデルによる予測結果を中心とするば 測結果からの隔たり」ですから,分子は「線形モデルによる予測結果を中心と 3) 。 しています(図 3) 。 ともとの y のばらつき具合に対する,線形モデルからのばらつき具合の 2 2013年度秋学期 統計学
  • 102. ,r が 1 に近づくほど y と y の差は小さく ˆ 。すなわち,最小二乗法で求めたモデル 決定係数の意味 最小二乗法で求めたモデルによって,y が x 2 を決定係数とよびま 。このことから,rxy2 2 を決定係数とよびます。 2 ら,(yxyyˆi22= (1 − ri xy )yi)2(yi − y−2 rより(yi − y)2 ri − di) = (y 2− ˆ = (1¯) xy ) = (4) ¯ ータにおける yi と yi の差を残差といい,di で表します。残差とは,回帰方程 ˆ yi と yixy ˆ の差を残差といい,di で表します。残差とは,回帰方程式と xi i i の値を yi と予測したとき,予測によって表現できなかった部分を表しています ˆ 測したとき,予測によって表現できなかった部分を表しています。残差 と y の相関係数(前回の講義参照)とすると 数(前回の講義参照)とすると ように説明できます。(4) 式を少し変形し きます。(4) 式を少し変形して 2 2 2 が 1 に近づくほど y と y の差は小さくなり,r 2 。つまり,rxy が 1 に近づくほど yi と yi の差は小さくなり,rxy = 1 の ˆ 出は付録3) 。つまり,rxy ˆi i xy わち,最小二乗法で求めたモデルによって,y が x から完全に正確に なります。すなわち,最小二乗法で求めたモデルによって,y が x から完全に 2 ことから,rxy を決定係数とよびます。 なります。このことから,r2 を決定係数とよびます。 xy 22 は,次のように説明できます。(4) 式を少し変形して di 2 ddi /n i = 2 1 −2 rxy = d2/n = di i2 2 /n 2 2 − rxy = = di 2 (y − yi)2 /n d 2 (yi(y1 − yry2)= (yi − y) /n=i i −¯y ) − ¯¯ ¯2 ¯ (y i − ) xy 2 2 /n di 2 説明できます。(4) 式を少し変形して (yi − y ) ¯ (yi − y ) /n ¯ (yi − y ) ¯ (5) 母は,y 全体の平均からの各 yi のへだたり,すなわち偏差の2乗の平 式の右端の分母は,y 全体の平均からの各 yi のへだたり,すなわち偏差の2 ます。一方,分子は,残差の2乗の平均になっています。残差は「線 i 分散を表しています。一方,分子は,残差の2乗の平均になっています。残差 たり」ですから,分子は「線形モデルによる予測結果を中心とするば 測結果からの隔たり」ですから,分子は「線形モデルによる予測結果を中心と 3) 。 A. Asano, Kansai Univ. 全体の平均からの各 y のへだたり,すなわ 端の分母は,y 全体の平均からの各 yi の 一方,分子は,残差の2乗の平均になってい しています。一方,分子は,残差の2乗 しています(図 3) 。 ともとの y のばらつき具合に対する,線形モデルからのばらつき具合の ですから,分子は「線形モデルによる予測結 2 2013年度秋学期 統計学
  • 103. ,r が 1 に近づくほど y と y の差は小さく ˆ 。すなわち,最小二乗法で求めたモデル 決定係数の意味 最小二乗法で求めたモデルによって,y が x 2 を決定係数とよびま 。このことから,rxy2 2 を決定係数とよびます。 2 ら,(yxyyˆi22= (1 − ri xy )yi)2(yi − y−2 rより(yi − y)2 ri − di) = (y 2− ˆ = (1¯) xy ) = (4) ¯ ータにおける yi と yi の差を残差といい,di で表します。残差とは,回帰方程 ˆ yi と yixy ˆ の差を残差といい,di で表します。残差とは,回帰方程式と xi i i の値を yi と予測したとき,予測によって表現できなかった部分を表しています ˆ 測したとき,予測によって表現できなかった部分を表しています。残差 と y の相関係数(前回の講義参照)とすると 数(前回の講義参照)とすると ように説明できます。(4) 式を少し変形し きます。(4) 式を少し変形して 2 2 2 が 1 に近づくほど y と y の差は小さくなり,r 2 。つまり,rxy が 1 に近づくほど yi と yi の差は小さくなり,rxy = 1 の ˆ 出は付録3) 。つまり,rxy ˆi i xy わち,最小二乗法で求めたモデルによって,y が x から完全に正確に なります。すなわち,最小二乗法で求めたモデルによって,y が x から完全に 2 ことから,rxy を決定係数とよびます。 なります。このことから,r2 を決定係数とよびます。 xy 22 は,次のように説明できます。(4) 式を少し変形して di 2 ddi /n i = 2 1 −2 rxy = d2/n = di i2 2 /n 2 2 − rxy = = di 2 (y − yi)2 /n d 2 (yi(y1 − yry2)= (yi − y) /n=i i −¯y ) − ¯¯ ¯2 ¯ (y i − ) xy 2 2 /n di 2 説明できます。(4) 式を少し変形して (yi − y ) ¯ (5) ¯ (yi − y ) /n ¯ 決定 (yi − y) 母は,y 全体の平均からの各 yi のへだたり,すなわち偏差の2乗の平 係数全体の平均からの各 y のへだたり,すなわち偏差の2 式の右端の分母は,y 全体の平均からの各 y のへだたり,すなわ 端の分母は,y 全体の平均からの各 yi の 一方,分子は,残差の2乗の平均になってい しています。一方,分子は,残差の2乗 しています(図 3) 。 ともとの y のばらつき具合に対する,線形モデルからのばらつき具合の ですから,分子は「線形モデルによる予測結 2 A. Asano, Kansai Univ. i ます。一方,分子は,残差の2乗の平均になっています。残差は「線 i 分散を表しています。一方,分子は,残差の2乗の平均になっています。残差 たり」ですから,分子は「線形モデルによる予測結果を中心とするば 測結果からの隔たり」ですから,分子は「線形モデルによる予測結果を中心と 3) 。 2013年度秋学期 統計学
  • 104. ,r が 1 に近づくほど y と y の差は小さく ˆ 。すなわち,最小二乗法で求めたモデル 決定係数の意味 最小二乗法で求めたモデルによって,y が x 2 を決定係数とよびま 。このことから,rxy2 2 を決定係数とよびます。 2 ら,(yxyyˆi22= (1 − ri xy )yi)2(yi − y−2 rより(yi − y)2 ri − di) = (y 2− ˆ = (1¯) xy ) = (4) ¯ ータにおける yi と yi の差を残差といい,di で表します。残差とは,回帰方程 ˆ yi と yixy ˆ の差を残差といい,di で表します。残差とは,回帰方程式と xi i i の値を yi と予測したとき,予測によって表現できなかった部分を表しています ˆ 測したとき,予測によって表現できなかった部分を表しています。残差 と y の相関係数(前回の講義参照)とすると 数(前回の講義参照)とすると ように説明できます。(4) 式を少し変形し きます。(4) 式を少し変形して 2 2 2 が 1 に近づくほど y と y の差は小さくなり,r 2 。つまり,rxy が 1 に近づくほど yi と yi の差は小さくなり,rxy = 1 の ˆ 出は付録3) 。つまり,rxy ˆi i xy わち,最小二乗法で求めたモデルによって,y が x から完全に正確に なります。すなわち,最小二乗法で求めたモデルによって,y が x から完全に 2 ことから,rxy を決定係数とよびます。 なります。このことから,r2 を決定係数とよびます。 xy 22 は,次のように説明できます。(4) 式を少し変形して di 2 ddi /n i = 2 1 −2 rxy = d2/n = di i2 2 /n 2 2 − rxy = = di 2 (y − yi)2 /n d 2 (yi(y1 − yry2)= (yi − y) /n=i i −¯y ) − ¯¯ ¯2 ¯ (y i − ) xy 2 2 /n di 2 説明できます。(4) 式を少し変形して (yi − y ) ¯ (5) ¯ (yi − y ) /n ¯ 決定 (yi − y) 母は,y 全体の平均からの各 yi のへだたり,すなわち偏差の2乗の平 係数全体の平均からの各 y のへだたり,すなわち偏差の2 式の右端の分母は,y 全体の平均からの各 y のへだたり,すなわ 端の分母は,y 全体の平均からの各 yi の 一方,分子は,残差の2乗の平均になってい しています。一方,分子は,残差の2乗 しています(図 3) 。 ともとの y のばらつき具合に対する,線形モデルからのばらつき具合の ですから,分子は「線形モデルによる予測結 2 A. Asano, Kansai Univ. i ます。一方,分子は,残差の2乗の平均になっています。残差は「線 i 分散を表しています。一方,分子は,残差の2乗の平均になっています。残差 たり」ですから,分子は「線形モデルによる予測結果を中心とするば 測結果からの隔たり」ですから,分子は「線形モデルによる予測結果を中心と 3) 。 2013年度秋学期 統計学
  • 105. ,r が 1 に近づくほど y と y の差は小さく ˆ 。すなわち,最小二乗法で求めたモデル 決定係数の意味 最小二乗法で求めたモデルによって,y が x 2 を決定係数とよびま 。このことから,rxy2 2 を決定係数とよびます。 2 ら,(yxyyˆi22= (1 − ri xy )yi)2(yi − y−2 rより(yi − y)2 ri − di) = (y 2− ˆ = (1¯) xy ) = (4) ¯ ータにおける yi と yi の差を残差といい,di で表します。残差とは,回帰方程 ˆ yi と yixy ˆ の差を残差といい,di で表します。残差とは,回帰方程式と xi i i の値を yi と予測したとき,予測によって表現できなかった部分を表しています ˆ 測したとき,予測によって表現できなかった部分を表しています。残差 と y の相関係数(前回の講義参照)とすると 数(前回の講義参照)とすると ように説明できます。(4) 式を少し変形し きます。(4) 式を少し変形して 2 2 2 が 1 に近づくほど y と y の差は小さくなり,r 2 。つまり,rxy が 1 に近づくほど yi と yi の差は小さくなり,rxy = 1 の ˆ 出は付録3) 。つまり,rxy ˆi i xy わち,最小二乗法で求めたモデルによって,y が x から完全に正確に なります。すなわち,最小二乗法で求めたモデルによって,y が x から完全に 2 ことから,rxy を決定係数とよびます。 なります。このことから,r2 を決定係数とよびます。 残差の2乗の平均 xy 22 は,次のように説明できます。(4) 式を少し変形して di 2 ddi /n i = 2 1 −2 rxy = d2/n = di i2 2 /n 2 2 − rxy = = di 2 (y − yi)2 /n d 2 (yi(y1 − yry2)= (yi − y) /n=i i −¯y ) − ¯¯ ¯2 ¯ (y i − ) xy 2 2 /n di 2 説明できます。(4) 式を少し変形して (yi − y ) ¯ (5) ¯ (yi − y ) /n ¯ 決定 (yi − y) 母は,y 全体の平均からの各 yi のへだたり,すなわち偏差の2乗の平 係数全体の平均からの各 y のへだたり,すなわち偏差の2 式の右端の分母は,y 全体の平均からの各 y のへだたり,すなわ 端の分母は,y 全体の平均からの各 yi の 一方,分子は,残差の2乗の平均になってい しています。一方,分子は,残差の2乗 しています(図 3) 。 ともとの y のばらつき具合に対する,線形モデルからのばらつき具合の ですから,分子は「線形モデルによる予測結 2 A. Asano, Kansai Univ. i ます。一方,分子は,残差の2乗の平均になっています。残差は「線 i 分散を表しています。一方,分子は,残差の2乗の平均になっています。残差 たり」ですから,分子は「線形モデルによる予測結果を中心とするば 測結果からの隔たり」ですから,分子は「線形モデルによる予測結果を中心と 3) 。 2013年度秋学期 統計学
  • 106. ,r が 1 に近づくほど y と y の差は小さく ˆ 。すなわち,最小二乗法で求めたモデル 決定係数の意味 最小二乗法で求めたモデルによって,y が x 2 を決定係数とよびま 。このことから,rxy2 2 を決定係数とよびます。 2 ら,(yxyyˆi22= (1 − ri xy )yi)2(yi − y−2 rより(yi − y)2 ri − di) = (y 2− ˆ = (1¯) xy ) = (4) ¯ ータにおける yi と yi の差を残差といい,di で表します。残差とは,回帰方程 ˆ yi と yixy ˆ の差を残差といい,di で表します。残差とは,回帰方程式と xi i i の値を yi と予測したとき,予測によって表現できなかった部分を表しています ˆ 測したとき,予測によって表現できなかった部分を表しています。残差 と y の相関係数(前回の講義参照)とすると 数(前回の講義参照)とすると ように説明できます。(4) 式を少し変形し きます。(4) 式を少し変形して 2 2 2 が 1 に近づくほど y と y の差は小さくなり,r 2 。つまり,rxy が 1 に近づくほど yi と yi の差は小さくなり,rxy = 1 の ˆ 出は付録3) 。つまり,rxy ˆi i xy わち,最小二乗法で求めたモデルによって,y が x から完全に正確に なります。すなわち,最小二乗法で求めたモデルによって,y が x から完全に 2 ことから,rxy を決定係数とよびます。 なります。このことから,r2 を決定係数とよびます。 残差の2乗の平均 xy 22 は,次のように説明できます。(4) 式を少し変形して di 2 ddi /n i = 2 1 −2 rxy = d2/n = di i2 2 /n 2 2 − rxy = = di 2 (y − yi)2 /n d 2 (yi(y1 − yry2)= (yi − y) /n=i i −¯y ) − ¯¯ ¯2 ¯ (y i − ) xy 2 2 /n di 2 説明できます。(4) 式を少し変形して (yi − y ) ¯ (5) ¯ (yi − y ) /n ¯ 決定 (yi − y) 母は,y 全体の平均からの各 yi のへだたり,すなわち偏差の2乗の平 係数全体の平均からの各 y のへだたり,すなわち偏差の2 式の右端の分母は,y 全体の平均からの各 y のへだたり,すなわ 端の分母は,y 全体の平均からの各 yi の 一方,分子は,残差の2乗の平均になってい しています。一方,分子は,残差の2乗 しています(図 3) 。 ともとの y のばらつき具合に対する,線形モデルからのばらつき具合の ですから,分子は「線形モデルによる予測結 2 A. Asano, Kansai Univ. i ます。一方,分子は,残差の2乗の平均になっています。残差は「線 i 分散を表しています。一方,分子は,残差の2乗の平均になっています。残差 たり」ですから,分子は「線形モデルによる予測結果を中心とするば 測結果からの隔たり」ですから,分子は「線形モデルによる予測結果を中心と 3) 。 2013年度秋学期 統計学
  • 107. ,r が 1 に近づくほど y と y の差は小さく ˆ 。すなわち,最小二乗法で求めたモデル 決定係数の意味 最小二乗法で求めたモデルによって,y が x 2 を決定係数とよびま 。このことから,rxy2 2 を決定係数とよびます。 2 ら,(yxyyˆi22= (1 − ri xy )yi)2(yi − y−2 rより(yi − y)2 ri − di) = (y 2− ˆ = (1¯) xy ) = (4) ¯ ータにおける yi と yi の差を残差といい,di で表します。残差とは,回帰方程 ˆ yi と yixy ˆ の差を残差といい,di で表します。残差とは,回帰方程式と xi i i の値を yi と予測したとき,予測によって表現できなかった部分を表しています ˆ 測したとき,予測によって表現できなかった部分を表しています。残差 と y の相関係数(前回の講義参照)とすると 数(前回の講義参照)とすると ように説明できます。(4) 式を少し変形し きます。(4) 式を少し変形して 2 2 2 が 1 に近づくほど y と y の差は小さくなり,r 2 。つまり,rxy が 1 に近づくほど yi と yi の差は小さくなり,rxy = 1 の ˆ 出は付録3) 。つまり,rxy ˆi i xy わち,最小二乗法で求めたモデルによって,y が x から完全に正確に なります。すなわち,最小二乗法で求めたモデルによって,y が x から完全に 2 ことから,rxy を決定係数とよびます。 なります。このことから,r2 を決定係数とよびます。 残差の2乗の平均 xy 22 は,次のように説明できます。(4) 式を少し変形して di 2 ddi /n i = 2 1 −2 rxy = d2/n = di i2 2 /n 2 2 − rxy = = di 2 (y − yi)2 /n d 2 (yi(y1 − yry2)= (yi − y) /n=i i −¯y ) − ¯¯ ¯2 ¯ (y i − ) xy 2 2 /n di 2 説明できます。(4) 式を少し変形して (yi − y ) ¯ (5) ¯ (yi − y ) /n ¯ 決定 (yi − y) 母は,y 全体の平均からの各 yi のへだたり,すなわち偏差の2乗の平 係数全体の平均からの各 y のへだたり,すなわち偏差の2 yの偏差の2乗の平均 式の右端の分母は,y 全体の平均からの各 y のへだたり,すなわ 端の分母は,y 全体の平均からの各 yi の 一方,分子は,残差の2乗の平均になってい しています。一方,分子は,残差の2乗 しています(図 3) 。 ともとの y のばらつき具合に対する,線形モデルからのばらつき具合の ですから,分子は「線形モデルによる予測結 2 A. Asano, Kansai Univ. i ます。一方,分子は,残差の2乗の平均になっています。残差は「線 i 分散を表しています。一方,分子は,残差の2乗の平均になっています。残差 たり」ですから,分子は「線形モデルによる予測結果を中心とするば 測結果からの隔たり」ですから,分子は「線形モデルによる予測結果を中心と 3) 。 2013年度秋学期 統計学
  • 108. ,r が 1 に近づくほど y と y の差は小さく ˆ 。すなわち,最小二乗法で求めたモデル 決定係数の意味 最小二乗法で求めたモデルによって,y が x 2 を決定係数とよびま 。このことから,rxy2 2 を決定係数とよびます。 2 ら,(yxyyˆi22= (1 − ri xy )yi)2(yi − y−2 rより(yi − y)2 ri − di) = (y 2− ˆ = (1¯) xy ) = (4) ¯ ータにおける yi と yi の差を残差といい,di で表します。残差とは,回帰方程 ˆ yi と yixy ˆ の差を残差といい,di で表します。残差とは,回帰方程式と xi i i の値を yi と予測したとき,予測によって表現できなかった部分を表しています ˆ 測したとき,予測によって表現できなかった部分を表しています。残差 と y の相関係数(前回の講義参照)とすると 数(前回の講義参照)とすると ように説明できます。(4) 式を少し変形し きます。(4) 式を少し変形して 2 2 2 が 1 に近づくほど y と y の差は小さくなり,r 2 。つまり,rxy が 1 に近づくほど yi と yi の差は小さくなり,rxy = 1 の ˆ 出は付録3) 。つまり,rxy ˆi i xy わち,最小二乗法で求めたモデルによって,y が x から完全に正確に なります。すなわち,最小二乗法で求めたモデルによって,y が x から完全に 2 ことから,rxy を決定係数とよびます。 なります。このことから,r2 を決定係数とよびます。 残差の2乗の平均 xy 22 は,次のように説明できます。(4) 式を少し変形して di 2 ddi /n i = 2 1 −2 rxy = d2/n = di i2 2 /n 2 2 − rxy = = di 2 (y − yi)2 /n d 2 (yi(y1 − yry2)= (yi − y) /n=i i −¯y ) − ¯¯ ¯2 ¯ (y i − ) xy 2 2 /n di 2 説明できます。(4) 式を少し変形して (yi − y ) ¯ (5) ¯ (yi − y ) /n ¯ 決定 (yi − y) 母は,y 全体の平均からの各 yi のへだたり,すなわち偏差の2乗の平 係数全体の平均からの各 y のへだたり,すなわち偏差の2 yの偏差の2乗の平均 式の右端の分母は,y 全体の平均からの各 y のへだたり,すなわ 端の分母は,y 全体の平均からの各 yi の 一方,分子は,残差の2乗の平均になってい しています。一方,分子は,残差の2乗 しています(図 3) 。 ともとの y のばらつき具合に対する,線形モデルからのばらつき具合の ですから,分子は「線形モデルによる予測結 2 A. Asano, Kansai Univ. i ます。一方,分子は,残差の2乗の平均になっています。残差は「線 i 分散を表しています。一方,分子は,残差の2乗の平均になっています。残差 たり」ですから,分子は「線形モデルによる予測結果を中心とするば 測結果からの隔たり」ですから,分子は「線形モデルによる予測結果を中心と 3) 。 2013年度秋学期 統計学
  • 109. ,r が 1 に近づくほど y と y の差は小さく ˆ 。すなわち,最小二乗法で求めたモデル 決定係数の意味 最小二乗法で求めたモデルによって,y が x 2 を決定係数とよびま 。このことから,rxy2 2 を決定係数とよびます。 2 ら,(yxyyˆi22= (1 − ri xy )yi)2(yi − y−2 rより(yi − y)2 ri − di) = (y 2− ˆ = (1¯) xy ) = (4) ¯ ータにおける yi と yi の差を残差といい,di で表します。残差とは,回帰方程 ˆ yi と yixy ˆ の差を残差といい,di で表します。残差とは,回帰方程式と xi i i の値を yi と予測したとき,予測によって表現できなかった部分を表しています ˆ 測したとき,予測によって表現できなかった部分を表しています。残差 と y の相関係数(前回の講義参照)とすると 数(前回の講義参照)とすると ように説明できます。(4) 式を少し変形し きます。(4) 式を少し変形して 2 2 2 が 1 に近づくほど y と y の差は小さくなり,r 2 。つまり,rxy が 1 に近づくほど yi と yi の差は小さくなり,rxy = 1 の ˆ 出は付録3) 。つまり,rxy ˆi i xy わち,最小二乗法で求めたモデルによって,y が x から完全に正確に なります。すなわち,最小二乗法で求めたモデルによって,y が x から完全に 2 ことから,rxy を決定係数とよびます。 なります。このことから,r2 を決定係数とよびます。 残差の2乗の平均 xy 22 は,次のように説明できます。(4) 式を少し変形して di 2 ddi /n i = 2 1 −2 rxy = d2/n = di i2 2 /n 2 2 − rxy = = di 2 (y − yi)2 /n d 2 (yi(y1 − yry2)= (yi − y) /n=i i −¯y ) − ¯¯ ¯2 ¯ (y i − ) xy 2 2 /n di 2 説明できます。(4) 式を少し変形して (yi − y ) ¯ (5) ¯ (yi − y ) /n ¯ 決定 (yi − y) 母は,y 全体の平均からの各 yi のへだたり,すなわち偏差の2乗の平 係数全体の平均からの各 y のへだたり,すなわち偏差の2 yの偏差の2乗の平均 式の右端の分母は,y 全体の平均からの各 y のへだたり,すなわ 端の分母は,y 全体の平均からの各 yi の 一方,分子は,残差の2乗の平均になってい しています。一方,分子は,残差の2乗 しています(図 3) 。 ともとの y のばらつき具合に対する,線形モデルからのばらつき具合の ですから,分子は「線形モデルによる予測結 2 A. Asano, Kansai Univ. i ます。一方,分子は,残差の2乗の平均になっています。残差は「線 i 分散を表しています。一方,分子は,残差の2乗の平均になっています。残差 たり」ですから,分子は「線形モデルによる予測結果を中心とするば 測結果からの隔たり」ですから,分子は「線形モデルによる予測結果を中心と 3) 。 2013年度秋学期 統計学
  • 110. ,r が 1 に近づくほど y と y の差は小さく ˆ 。すなわち,最小二乗法で求めたモデル 決定係数の意味 最小二乗法で求めたモデルによって,y が x 2 を決定係数とよびま 。このことから,rxy2 2 を決定係数とよびます。 2 ら,(yxyyˆi22= (1 − ri xy )yi)2(yi − y−2 rより(yi − y)2 ri − di) = (y 2− ˆ = (1¯) xy ) = (4) ¯ ータにおける yi と yi の差を残差といい,di で表します。残差とは,回帰方程 ˆ yi と yixy ˆ の差を残差といい,di で表します。残差とは,回帰方程式と xi i i の値を yi と予測したとき,予測によって表現できなかった部分を表しています ˆ 測したとき,予測によって表現できなかった部分を表しています。残差 と y の相関係数(前回の講義参照)とすると 数(前回の講義参照)とすると ように説明できます。(4) 式を少し変形し きます。(4) 式を少し変形して 2 2 2 が 1 に近づくほど y と y の差は小さくなり,r 2 。つまり,rxy が 1 に近づくほど yi と yi の差は小さくなり,rxy = 1 の ˆ 出は付録3) 。つまり,rxy ˆi i xy わち,最小二乗法で求めたモデルによって,y が x から完全に正確に なります。すなわち,最小二乗法で求めたモデルによって,y が x から完全に 2 ことから,rxy を決定係数とよびます。 なります。このことから,r2 を決定係数とよびます。 残差の2乗の平均 xy 22 は,次のように説明できます。(4) 式を少し変形して di 2 ddi /n i = 2 1 −2 rxy = d2/n = di i2 2 /n 2 2 − rxy = = di 2 (y − yi)2 /n d 2 (yi(y1 − yry2)= (yi − y) /n=i i −¯y ) − ¯¯ ¯2 ¯ (y i − ) xy 2 2 /n di 2 説明できます。(4) 式を少し変形して (yi − y ) ¯ (5) ¯ (yi − y ) /n ¯ 決定 (yi − y) 母は,y 全体の平均からの各 yi のへだたり,すなわち偏差の2乗の平 係数全体の平均からの各 y のへだたり,すなわち偏差の2 yの偏差の2乗の平均 式の右端の分母は,y 全体の平均からの各 y のへだたり,すなわ 端の分母は,y 全体の平均からの各 yi の =yの分散 一方,分子は,残差の2乗の平均になってい しています。一方,分子は,残差の2乗 しています(図 3) 。 ともとの y のばらつき具合に対する,線形モデルからのばらつき具合の ですから,分子は「線形モデルによる予測結 2 A. Asano, Kansai Univ. i ます。一方,分子は,残差の2乗の平均になっています。残差は「線 i 分散を表しています。一方,分子は,残差の2乗の平均になっています。残差 たり」ですから,分子は「線形モデルによる予測結果を中心とするば 測結果からの隔たり」ですから,分子は「線形モデルによる予測結果を中心と 3) 。 2013年度秋学期 統計学
  • 111. のように説明できます。(4) 式を少し変形して できます。(4) 式を少し変形して 決定係数の意味 = d2 2 i 1 − rxy = 2 (yi − y ) ¯ 2 2 /n ddi i = − y )2 /n ¯ 2 (yi i − y ) (y ¯ 2 /n 残差の2乗の平均 di (5) (yi − y )2 /n ¯ yの偏差の2乗の平均 決定 ,端の分母は,y 全体の平均からの各 y のへだたり,すな y 全体の平均からの各 yi のへだたり,すなわち偏差の2乗の平 (yの分散) 係数 i 。一方,分子は,残差の2乗の平均になっています。残差は「線 表しています。一方,分子は,残差の2乗の平均になって 」ですから,分子は「線形モデルによる予測結果を中心とするば からの隔たり」ですから,分子は「線形モデルによる予測 ます(図 3) 。 A. Asano, Kansai Univ. の y のばらつき具合に対する,線形モデルからのばらつき具合の は「もともとの y 。線形単回帰では, のばらつき具合に対する,線形モデルか 「データが散布図上にばらついている」という とになります。線形単回帰では, 「データが散布図上にばら ではなく,線形モデルで表される直線に沿ってばらついている」 ルで完全に表されたわけではなく,直線から見てもデータはいく ついているのではなく,線形モデルで表される直線に沿っ で完全に説明がついているわけではありません。こう考えると, し,線形モデルで完全に表されたわけではなく,直線から 2013年度秋学期 統計学
  • 112. のように説明できます。(4) 式を少し変形して できます。(4) 式を少し変形して 決定係数の意味 = d2 2 i 1 − rxy = 2 (yi − y ) ¯ 2 2 /n ddi i = − y )2 /n ¯ 2 (yi i − y ) (y ¯ 2 /n 残差の2乗の平均 di (5) (yi − y )2 /n ¯ yの偏差の2乗の平均 決定 ,端の分母は,y 全体の平均からの各 y のへだたり,すな y 全体の平均からの各 yi のへだたり,すなわち偏差の2乗の平 (yの分散) 係数 i 。一方,分子は,残差の2乗の平均になっています。残差は「線 表しています。一方,分子は,残差の2乗の平均になって 」ですから,分子は「線形モデルによる予測結果を中心とするば y からの隔たり」ですから,分子は「線形モデルによる予測 y [決定係 y i なら di = yi – yi y i ます(図 3)i – y 。 y [分散] [残差] A. Asano, Kansai Univ. [偏差] の y のばらつき具合に対する,線形モデルからのばらつき具合の y y は「もともとの y のばらつき具合に対する,線形モデルか 。線形単回帰では, 「データが散布図上にばらついている」という とになります。線形単回帰では, 「データが散布図上にばら ではなく,線形モデルで表される直線に沿ってばらついている」 ルで完全に表されたわけではなく,直線から見てもデータはいく ついているのではなく,線形モデルで表される直線に沿っ x x i で完全に説明がついているわけではありません。こう考えると, し,線形モデルで完全に表されたわけではなく,直線から 2013年度秋学期 統計学 図 4: 決定係数の意味
  • 113. のように説明できます。(4) 式を少し変形して できます。(4) 式を少し変形して 決定係数の意味 = d2 2 i 1 − rxy = 2 (yi − y ) ¯ 2 2 /n ddi i = − y )2 /n ¯ 2 (yi i − y ) (y ¯ 2 /n 残差の2乗の平均 di (5) (yi − y )2 /n ¯ yの偏差の2乗の平均 決定 ,端の分母は,y 全体の平均からの各 y のへだたり,すな y 全体の平均からの各 yi のへだたり,すなわち偏差の2乗の平 (yの分散) 係数 i 。一方,分子は,残差の2乗の平均になっています。残差は「線 表しています。一方,分子は,残差の2乗の平均になって 」ですから,分子は「線形モデルによる予測結果を中心とするば y からの隔たり」ですから,分子は「線形モデルによる予測 y [決定係 y i なら di = yi – yi y i ます(図 3)i – y 。 y [分散] [残差] A. Asano, Kansai Univ. [偏差] の y のばらつき具合に対する,線形モデルからのばらつき具合の y y は「もともとの y のばらつき具合に対する,線形モデルか 。線形単回帰では, 「データが散布図上にばらついている」という とになります。線形単回帰では, 「データが散布図上にばら ではなく,線形モデルで表される直線に沿ってばらついている」 ルで完全に表されたわけではなく,直線から見てもデータはいく ついているのではなく,線形モデルで表される直線に沿っ x x i で完全に説明がついているわけではありません。こう考えると, し,線形モデルで完全に表されたわけではなく,直線から 2013年度秋学期 統計学 図 4: 決定係数の意味
  • 114. のように説明できます。(4) 式を少し変形して できます。(4) 式を少し変形して 決定係数の意味 = d2 2 i 1 − rxy = 2 (yi − y ) ¯ 2 2 /n ddi i = − y )2 /n ¯ 2 (yi i − y ) (y ¯ 2 /n 残差の2乗の平均 di (5) (yi − y )2 /n ¯ yの偏差の2乗の平均 決定 ,端の分母は,y 全体の平均からの各 y のへだたり,すな y 全体の平均からの各 yi のへだたり,すなわち偏差の2乗の平 (yの分散) 係数 i 。一方,分子は,残差の2乗の平均になっています。残差は「線 表しています。一方,分子は,残差の2乗の平均になって 」ですから,分子は「線形モデルによる予測結果を中心とするば y からの隔たり」ですから,分子は「線形モデルによる予測 y [決定係 y i なら di = yi – yi y i ます(図 3)i – y 。 y [分散] [残差] A. Asano, Kansai Univ. [偏差] の y のばらつき具合に対する,線形モデルからのばらつき具合の y y は「もともとの y のばらつき具合に対する,線形モデルか 。線形単回帰では, 「データが散布図上にばらついている」という とになります。線形単回帰では, 「データが散布図上にばら ではなく,線形モデルで表される直線に沿ってばらついている」 もともと y はこんなに ルで完全に表されたわけではなく,直線から見てもデータはいく ついているのではなく,線形モデルで表される直線に沿っ x x i ばらついていた で完全に説明がついているわけではありません。こう考えると, し,線形モデルで完全に表されたわけではなく,直線から 2013年度秋学期 統計学 図 4: 決定係数の意味
  • 115. のように説明できます。(4) 式を少し変形して できます。(4) 式を少し変形して 決定係数の意味 = d2 2 i 1 − rxy = 2 (yi − y ) ¯ 2 2 /n ddi i = − y )2 /n ¯ 2 (yi i − y ) (y ¯ 2 /n 残差の2乗の平均 di (5) (yi − y )2 /n ¯ yの偏差の2乗の平均 決定 ,端の分母は,y 全体の平均からの各 y のへだたり,すな y 全体の平均からの各 yi のへだたり,すなわち偏差の2乗の平 (yの分散) 係数 i 。一方,分子は,残差の2乗の平均になっています。残差は「線 表しています。一方,分子は,残差の2乗の平均になって 」ですから,分子は「線形モデルによる予測結果を中心とするば y からの隔たり」ですから,分子は「線形モデルによる予測 y [決定係 y i なら di = yi – yi y i ます(図 3)i – y 。 y [分散] [残差] A. Asano, Kansai Univ. [偏差] の y のばらつき具合に対する,線形モデルからのばらつき具合の y y は「もともとの y のばらつき具合に対する,線形モデルか 。線形単回帰では, 「データが散布図上にばらついている」という とになります。線形単回帰では, 「データが散布図上にばら ではなく,線形モデルで表される直線に沿ってばらついている」 もともと y はこんなに ルで完全に表されたわけではなく,直線から見てもデータはいく ついているのではなく,線形モデルで表される直線に沿っ x x i ばらついていた で完全に説明がついているわけではありません。こう考えると, し,線形モデルで完全に表されたわけではなく,直線から 2013年度秋学期 統計学 図 4: 決定係数の意味
  • 116. のように説明できます。(4) 式を少し変形して できます。(4) 式を少し変形して 決定係数の意味 = d2 2 i 1 − rxy = 2 (yi − y ) ¯ 2 2 /n ddi i = − y )2 /n ¯ 2 (yi i − y ) (y ¯ 2 /n 残差の2乗の平均 di (5) (yi − y )2 /n ¯ yの偏差の2乗の平均 決定 ,端の分母は,y 全体の平均からの各 y のへだたり,すな y 全体の平均からの各 yi のへだたり,すなわち偏差の2乗の平 (yの分散) 係数 i 。一方,分子は,残差の2乗の平均になっています。残差は「線 表しています。一方,分子は,残差の2乗の平均になって 」ですから,分子は「線形モデルによる予測結果を中心とするば y 回帰直線からの[決定係 からの隔たり」ですから,分子は「線形モデルによる予測 y y i なら di = yi – yi y i ます(図 3)i – y 。 y ばらつきは [分散] [残差] A. Asano, Kansai Univ. [偏差] の y のばらつき具合に対する,線形モデルからのばらつき具合の y y こんなに減った は「もともとの y のばらつき具合に対する,線形モデルか 。線形単回帰では, 「データが散布図上にばらついている」という とになります。線形単回帰では, 「データが散布図上にばら ではなく,線形モデルで表される直線に沿ってばらついている」 もともと y はこんなに ルで完全に表されたわけではなく,直線から見てもデータはいく ついているのではなく,線形モデルで表される直線に沿っ x x i ばらついていた で完全に説明がついているわけではありません。こう考えると, し,線形モデルで完全に表されたわけではなく,直線から 2013年度秋学期 統計学 図 4: 決定係数の意味
  • 117. のように説明できます。(4) 式を少し変形して できます。(4) 式を少し変形して 決定係数の意味 = d2 2 i 1 − rxy = 2 (yi − y ) ¯ 2 2 /n ddi i = − y )2 /n ¯ 2 (yi i − y ) (y ¯ 2 /n 残差の2乗の平均 di (5) (yi − y )2 /n ¯ yの偏差の2乗の平均 決定 ,端の分母は,y 全体の平均からの各 y のへだたり,すな y 全体の平均からの各 yi のへだたり,すなわち偏差の2乗の平 (yの分散) 係数 i 。一方,分子は,残差の2乗の平均になっています。残差は「線 表しています。一方,分子は,残差の2乗の平均になって 」ですから,分子は「線形モデルによる予測結果を中心とするば y 回帰直線からの[決定係 からの隔たり」ですから,分子は「線形モデルによる予測 y y i なら di = yi – yi y i ます(図 3)i – y 。 y ばらつきは [分散] [残差] A. Asano, Kansai Univ. [偏差] の y のばらつき具合に対する,線形モデルからのばらつき具合の y y こんなに減った は「もともとの y のばらつき具合に対する,線形モデルか 。線形単回帰では, 「データが散布図上にばらついている」という とになります。線形単回帰では, 「データが散布図上にばら ではなく,線形モデルで表される直線に沿ってばらついている」 もともと y はこんなに ルで完全に表されたわけではなく,直線から見てもデータはいく ついているのではなく,線形モデルで表される直線に沿っ x x i ばらついていた で完全に説明がついているわけではありません。こう考えると, し,線形モデルで完全に表されたわけではなく,直線から 2013年度秋学期 統計学 図 4: 決定係数の意味