🦋 SKALA: SK AX AI Leader Academy

1. 짧게 보는 AI 발전사




2. Machine Learning

2.1 ML 이란?


2.2. ML Type

지도 학습 (Supervised Learning)

준지도 학습 (Semi-Supervised Learning)

비지도 학습 (Unsupervised Learning)




3. ML Algorithm RoadMap

3.1. CART



3.2. Boosting



3.3 Kernal




4. ML Algorithms

4.1. Decision Tree

특이사항

장점과 단점



4.2. RandomForest

특이사항

장점과 단점



4.3. XGBoost

특이사항

장점과 단점



4.4. LightGBM

특이사항

장점과 단점



4.5. CatBoost

특이사항

장점과 단점



4.6. SVM

특이사항

장점과 단점




5. Regularization

5.1 L1/L2 Regularization



5.2. Lasso Regression



5.3. Ridge Regression

요약하자면




6. Scaling



알고리즘별 스케일링 필요 여부 요약

계열 ML Algorithm 표준화 필요 여부 주요 이유
Tree-Based DecisionTree 필요 없음 조건에 따른 분기 방식으로 값의 크기나 단위와 무관
randomForest 필요 없음 개별 트리 자체가 스케일 영향 받지 않음, 다양한 트리 조합이 더 중요
XGBoost 필요 없음 트리 기반 부스팅 방식으로 크기와 단위 영향이 적음
LGBM 필요 없음 Leaf 중심 분할 방식으로 값의 절대적인 크기 영향이 적음
CatBoost 필요 없음 역시 값의 크기 단위 영향 적음
범주형 처리도 안정적
Kernel (거리) SVM 필요 그룹 간 경계 결정에 계산이 핵심
변수 크기 차이가 크면 특정 변수가 과하게 영향을 미침
Penalty (회귀) LASSO 필요 가중치 절대값의 합(L1)에 패널티 적용
변수 특성 크기가 다르면 큰 값을 가진 특성에 패널티가 쏠림
Ridge 필요 가중치 제곱합(L2)에 패널티 적용
변수 크기 차이가 크면 작은 값의 특성은 무시될 수 있음



🦋 SKALA: SK AX AI Leader Academy