분석 과정과 결과는 part 2 에서 작성예정입니다.
log변환과 log1p
https://suppppppp.github.io/posts/Why-Series-MDM-1/
로그변환과 np.log()가 아닌 np.log1p()를 하는 이유
1.로그변환의 이유
suppppppp.github.io
gridSearch vs randomSearch
https://dacon.io/codeshare/4568
sklearn으로 하이퍼파라미터튜닝🔥-GridSearchCV ,RandomSearchCV
dacon.io
BCEloss
https://ok-lab.tistory.com/241
[Pytorch] BCELoss, BCEWithLogitsLoss, CrossEntropyLoss
Contents PyTorch 에서는 이진 분류(Binary Classification)를 할 때 목적 함수 혹은 손실 함수로 사용할 수 있는 BCELoss와 BCEWithLogitLoss 가 존재한다. 두 함수는 모두 모델이 예측한 값과 실제 값 간의 차이를
ok-lab.tistory.com
XGBoost
https://www.youtube.com/watch?v=GciPwN2cde4
[ML] XGBoost 개념 이해
Boosting 이란? 여러 개의 약한 Decision Tree를 조합해서 사용하는 Ensemble 기법 중 하나이다. 즉, 약한 예측 모형들의 학습 에러에 가중치를 두고, 순차적으로 다음 학습 모델에 반영하여 강한 예측모
wooono.tistory.com
클래스 불균형
https://3months.tistory.com/414
딥러닝에서 클래스 불균형을 다루는 방법
딥러닝에서 클래스 불균형을 다루는 방법 현실 데이터에는 클래스 불균형 (class imbalance) 문제가 자주 있다. 어떤 데이터에서 각 클래스 (주로 범주형 반응 변수) 가 갖고 있는 데이터의 양에 차이
3months.tistory.com
gridSearch - score 함수
https://scikit-learn.org/stable/modules/model_evaluation.html#scoring-parameter
3.3. Metrics and scoring: quantifying the quality of predictions
There are 3 different APIs for evaluating the quality of a model’s predictions: Estimator score method: Estimators have a score method providing a default evaluation criterion for the problem they ...
scikit-learn.org
Optuna
https://hojjimin-statistic.tistory.com/27
[Python] Optuna 사용법
예측 모델링을 구축한 후에 모델의 성능을 조금이라도 더 향상하기 위해서는 최적의 하이퍼 파라미터를 찾아 적용하는 방법이 있다. 기존에 내가 해왔던 하이퍼파라미터 방법은 사이킷런의 Grid
hojjimin-statistic.tistory.com
torch - custom dataset / dataloader
Pytorch의 데이터 처리 (Dataset / Dataloader)
데이터를 처리하는 코드는 지저분하고, 유지보수를 하는데에 어려움이 있을 수 있다. 따라서 더 나은 가독성(readability)와 모듈성(modularity)를 위하여 데이터셋과 관련된 코드를 학습 코드와 분리
velog.io