シグモイド関数
ニューラルネットワークで0か1の値ではなく、中間の値を決めるために使われる関数。aを動かすと・・・
回帰直線(最小二乗法)
Gを動かして二乗の和が最小になるところを探そう。また、和と二乗の和は同じようには動かないことがあることも確かめよう。(最初、直線に垂直な長さで計算してたら、回帰直線FitLineが最短にならなかった。この図のように距離を量らなければならない。)では、この回帰直線はどのようにしたら求めることができるのだろうか?
分散と共分散と相関係数
右のグラフの点を動かすと、左の表の値も変わる。点の位置が変わると、分散と共分散と相関係数はどう変わるのか?
分散と共分散
分散は散らばり具合[br]共分散は二つの変数に関しての散らばり具合[br]例えば、身長と体重に関する共分散は[br](身長-平均身長)(体重-平均体重)の総和÷個数[br]身長の分散は[br](身長-平均身長)[sup]2[/sup]の総和÷個数[br]比べると意味がわかってくる。[br]
分散が最小と最大になる所
垂線の足の長さの平方和(=主成分の分散)。回帰直線(FitLine)の最小二乗法との違いがわかりますか? 回帰直線の方はx座標の分散。固有ベクトルの方は直線に対して垂線の足の分散。図の方向の傾きだと分散は最小値。では、平均を通る直線で分散が最大になる直線は? 固有値は主成分の分散の最大値と最小値を示しています。
固有値と固有ベクトル
ここで、回帰直線と固有ベクトルの方向は中心を通る直線です。[br]先に回帰直線の傾きを求めましたが、固有ベクトルはどのようにして求めるのでしょうか。[br][br]固有ベクトルは分散共分散行列の固有ベクトル(Eigenvector)で求まります。[br]つまり分散共分散行列は重要な行列であり、垂線の足の長さが主成分です。[br][br]