Smoother Matrices
In smoothing splines, the estimated function is like this.
In multinomial spline, the estimated function is like this.
We can compare the matrix and
H(Projection Operator, N*N)
S(Smoothing matrix, N*N)
Symmetric,
Symmetric,
Idempotent ()
(수축)
Rank M
Rank N
M=trace()
=trace()
The matrix K is called penalty matrix. is the effective degree of freedom, which is the number of input variables we use.
is decomposed into the sum of N eigen basis vector.
는 S행렬의 고유값, 는 K행렬의 고유값이다. 두 고유값이 역수관계에 놓여있음을 확인할 수 있다.
Smoothing Spline 예시



붉은 선은 5개의 변수를, 초록 선은 11개의 변수를 로 잡은 경우이다. 각 고유벡터에 해당하는 고유값은 특정 고유벡터의 크기를 나타내는 것이고 여기서 고유값이 작은 고유벡터는 무시하는 것이다. 우측 하단의 경우에는 각 데이터 포인트에 해당하는 고유벡터의 값을 나타낸 것이다.
람다에 의해 고유벡터 자체가 바뀌지는 않기 때문에 스무딩 스플라인의 계는 모두 같은 고유벡터를 가진다.
의 경우 로 축된 고유벡터들의 선형결합으로 표현된다.
의 경우 고유값이 0또는 1이기 때문에 고유벡터를 살리거나 죽인다는 두 가지 역할만 수행할 수 있다.
고유벡터 인덱스 순서는 해당하는 고유값의 크기에 달려있다. 즉 은 가장 큰 고유값을 가지고 는 가장 작은 고유값을 가진다. 이기 때문에 인덱스가 커질수록(차원이 높아질수록) 스무딩 매트릭스는 고유벡터를 더 축소시킨다고 생각할 수 있다.
의 경우 고유값을 1을 가진다. 이 두가지는 절대 축소되지 않는다. 상수랑 1차로 생각하면 될듯.
Reparameterization: , 는 를 열로 가지고 는 를 대각성분으로 가지는 대각행렬이다.
Last updated
Was this helpful?