Machine Learning/분류모델 Ensemble(앙상블) 모델의 개념 [ voting(보팅) / Bagging(배깅) / Boosting(부스팅) ] by leehii 2022. 8. 9. 앙상블 학습 : 여러 알고리즘을 사용하여 그 예측을 결합, 더 정확한 예측을 도출하는 것 이미지, 영상, 음성등의 비정형 데이터는 딥러닝을 주로 사용하고 정형데이터의 분류에서 앙상블이 자주 쓰임 앙상블의 대표적인 방법 3가지 학습의 유형은 보팅(Voting), 배깅(Bagging), 부스팅(Boosting), 스태킹(Stacking) 보팅은 여러 알고리즘을 사용한 각각의 결과에 대해 투표를 통해 최종 결과를 예측 !서로 다른 모델! 사용 배깅은 같은 알고리즘에 대해 데이터 셋을 다르게 두고 각각 학습 (병렬적) / 대표적으로 Random Forest가 있음 여러 알고리즘이 순차적으로 학습을 하되 먼저 학습한 알고리즘에서 예측이 잘못된 데이터에 대해 다음 순서엔 데이터에 가중치를 부여하여 새롭게 생성된 데이터세과 모델로 학습과 예측을 진행하는 방식 공유하기 게시글 관리 Coding Practice 저작자표시 (새창열림) 'Machine Learning > 분류모델' 카테고리의 다른 글 AdaBoost / GBM / XGBoost [Boosting (부스팅) 알고리즘 실습] [유방암 데이터] (0) 2022.08.09 Random Forest (랜덤 포레스트) Bagging (배깅) 알고리즘 실습 [ GridSerachCV를 이용한 모델 성능 향상 / feature(피처)의 중요도를 확인하는 feature_importances_ ] [ 유방암 데이터 ] (0) 2022.08.09 Decision Tree 실습 [ isnull과 isnan / fillna / groupby( ) / Seaborn : countplot, violinplot / 특성공학 / pd.cut(data, bins, labels) / zip(list1, list2) / cross_val_score / StandardScale / ] [ 타이타닉 데이터 ] (0) 2022.08.08 Decision Tree 분류 실습 [ 변수.value_counts( ) 와 np.bincount(변수) / One-hot Encoding과 Label Encoding / graphviz를 이용한 시각화 ] [버섯 데이터] (0) 2022.08.04 Decision Tree의 개념 (0) 2022.08.04 관련글 AdaBoost / GBM / XGBoost [Boosting (부스팅) 알고리즘 실습] [유방암 데이터] Random Forest (랜덤 포레스트) Bagging (배깅) 알고리즘 실습 [ GridSerachCV를 이용한 모델 성능 향상 / feature(피처)의 중요도를 확인하는 feature_importances_ ] [ 유방암 데이터 ] Decision Tree 실습 [ isnull과 isnan / fillna / groupby( ) / Seaborn : countplot, violinplot / 특성공학 / pd.cut(data, bins, labels) / zip(list1, list2) / cross_val_score / StandardScale / ] [ 타이타닉 데이터 ] Decision Tree 분류 실습 [ 변수.value_counts( ) 와 np.bincount(변수) / One-hot Encoding과 Label Encoding / graphviz를 이용한 시각화 ] [버섯 데이터]