n개의 데이터에 근접한 데이터들를 찾아 예측
회귀 : 연속적인 값(=수치적으로 의미가 있는 값)을 출력, 예측하는 것
근접값 3 -> 사망1 생존2 -> 사망으로 예측
근접값 5 -> 사망3 생존3 -> 사망으로 예측
k값이 적다 = 범위가 작으므로 규칙이 많아짐 = 과대적합 = 복잡도 증가 (축구공 하나만 판별함)
k값이 커진다 = 범위가 커지므로 규칙이 줄어듬 = 과소적합 = 복잡도가 낮아짐 (공인지만 판별함)
일반적으로 3,5를 기본값으로 많이 준다
정확도가 낮을경우 하이퍼 파라미터를 조절하던가 데이터를 다양하게 늘려준다
특성값이 적을때
특성값이 많아질때
'Machine Learning > 분류모델' 카테고리의 다른 글
Decision Tree 분류 실습 [ 변수.value_counts( ) 와 np.bincount(변수) / One-hot Encoding과 Label Encoding / graphviz를 이용한 시각화 ] [버섯 데이터] (0) | 2022.08.04 |
---|---|
Decision Tree의 개념 (0) | 2022.08.04 |
iris 데이터를 활용한 KNN 분류 실습 [ numpy : np.bincount( ) , pandas : .value_counts( ) ] (0) | 2022.08.03 |
지도학습을 이용한 비만판단 모델 (0) | 2022.08.03 |
xor 연산 학습 , and 연산 학습 [ sklearn /KNeighborsClassifier / metrics / ] (0) | 2022.08.02 |