stack overflow란?

while(alive){ code();

Machine Learning

정규화 Regularization

나가니 2024. 4. 13. 16:59

Regularization

 

좋은 모델은 현재 데이터를 잘 설명하고, 미래 데이터에 대해 잘 예측하는 모델이다.

- train data error 최소 (현재)

- test data error 최소 (미래)

bias는 손해를 보더라도 variance를 좋게해서 성능을 좋게함

 

 

Regularization 개념

계수 β에 패널티를 준다.

결국 계수가 0이 되어야 되며, 차수가 낮아진다.

λ는 유저가 정해야 할 하이퍼파라미터

 

Ridge Regression

L2-norm제약(제곱)

제약식과 목적식으로 표현한 것

판별식이 < 0이므로 타원의 형태임, 따라서 MSE contour는 타원의 형태를 가짐

최소제곱의 β는 unbias 이지만, ridge의 β는 bias된다. 그러나 variance가 작아져 예측이 좋아진다.

※ closed-form solution은 문제에 대한 해답을 식으로 명확하게 제시할 수 있다는 것을 의미

 

Lasso regression

L1-norm제약 (절대값)

Lasso에서 &beta; 최적해는 수치해석으로 풀어야 함

Lasso는 데이터가 바뀌어도 강건하다. (Robust)

 

Ridge vs. Lasso

Lasso의 한계점

변수간 상관관계가 높으면 데이터가 변할때마다 예측이 흔들린다. Robust하지 않게됨

 

Elastic regression

Lasso의 한계를 극복하고자 나옴

변수간 상관관계가 매우 높으면 β는 같은 값으로 보겠다는 것 (같은 패턴으로 추정 : Grouping effect)

λ2를 크게하면 β가 작아지는 효과가 있다.

Grid search로 모든 조합를 찾음

 

Regularization with Prior Knowledge

사전지식을 이용하여 제약을하는 정규화

 

Fused Lasso

signal, profile, spectra에 사용

 

Group Lasso

 

Sparse group Lasso

그룹내에서 한번 더 중요변수를 거른다. Lasso가 추가됨

 

Nonconvex Penalty

앞서 배운 정규화는 convex를 가정하나, nonconvex에 대한 경우도 존재함

Convex는 볼록형태, Nonconvex는 그렇지 않다
Lasso(Convex) vs. Nonconvex
Convex Penalty

'Machine Learning' 카테고리의 다른 글

의사결정나무 Decision Tree  (0) 2024.04.13
KNN (K-Nearest Neighbor, K-최근접 이웃)  (0) 2024.04.13
뉴럴네트워크모델  (0) 2024.04.13
로지스틱회귀모델 Logistic Regression  (0) 2024.04.13
선형회귀모델 Regression  (0) 2024.04.13