로지스틱 회귀
- 영국의 통계학자 D. R. Cox가 1958년에 제안한 확률 모델
- 독립 변수의 선형 결합을 이용하여 사건의 발생 가능성을 예측하는데 사용되는 통계 기법이다
- logistic regression, 서포트 벡터 머신(SVM)과 같은 알고리즘은 원래 이진 분류만 가능하다(클래스 2개)
- 3개 이상의 클래스에 대한 판별을 진행해야 한다면? (대부분 OvR 선호)
- one-vs-rest (OvR) : K개의 클래스가 존재할 때, 1개의 클래스를 제외한 다른 클래스를 묶어 K개 만들어 각각의 이진 분류에 대한 확률을 구하고, 총합을 통해 최종 클래스를 판별
- one-vs-one (OvO) : 4개의 계절을 구분한다고 가정, 0&1, 0&2, 0&3, ... , 2&3 까지 N*(N-1)/2 개의 분류기를 만들어 가장 많이 양성으로 선택된 클래스를 판별
Step
- Step 0 : 모델 import
from sklearn.linear_model import LogisticRegression
- Step 1 : 모델 선언
lr = LogisticRegresssion()
- Step 2 : 모델 학습
lr.fit(x_train, y_train)
- Step 3 : 예측
lr_pred = lr.predict(x_valid)
- Step 4: 평가
# 틀리면 0, 맞으면 1 활용
(lr_pred == y_valid).mean()