1. 추가 데이터 통합외부 데이터: 공휴일, 기후 조건, 경제 지표 등 외부 데이터를 모델에 포함시키면 예측의 정확도를 높일 수 있습니다. Prophet은 공휴일과 특별 이벤트를 모델에 포함시키는 기능을 제공합니다.프로모션 데이터: 판매 촉진 행사 정보가 있다면, 이를 모델에 포함시켜 판매량 증가 예측을 개선할 수 있습니다.2. 하이퍼파라미터 조정계절성 조정: 주간, 연간 계절성의 파라미터를 조정하거나, 데이터에 맞는 새로운 계절성을 정의할 수 있습니다.변경점(changepoint) 조정: Prophet 모델의 변경점 감도를 조정하여 모델이 추세의 변화를 더 잘 감지하도록 할 수 있습니다. changepoint_prior_scale의 값을 조정해 보세요.3. 피쳐 엔지니어링라그 변수: 과거 판매 데이터의..
Gradient Boosting Machine (GBM), XGBoost, LightGBM, CatBoost, NGBoost는 모두 Gradient Boosting 알고리즘에 기반한 앙상블 학습 방법입니다. 이들 알고리즘은 각각 고유한 최적화 및 특성을 가지고 있어 다양한 데이터와 문제 유형에 대해 탁월한 성능을 발휘합니다. 각 알고리즘의 원리와 특징을 자세히 설명하겠습니다.1. Gradient Boosting Machine (GBM)원리GBM은 여러 개의 약한 학습기(주로 결정 트리)를 순차적으로 학습시켜 강한 학습기를 만드는 방법입니다. 각 단계에서 새로운 약한 학습기는 이전 모델의 잔차(residual)를 예측하여 모델의 성능을 향상시킵니다. 모델의 예측은 모든 약한 학습기의 예측을 합산하여 이루어..
앙상블(Ensemble)은 여러 개의 학습 모델을 결합하여 더 나은 예측 성능을 도출하는 머신러닝 기법입니다. 개별 모델의 약점을 보완하고, 모델의 예측을 종합함으로써 성능을 향상시키는 것을 목표로 합니다. 앙상블 기법은 다양한 모델을 조합하여 더욱 강력하고 견고한 예측을 가능하게 합니다.주요 앙상블 기법배깅(Bagging)배깅은 Bootstrap Aggregating의 줄임말로, 여러 개의 모델을 독립적으로 학습시킨 후 그 결과를 평균 내거나 다수결 투표를 통해 결합하는 방법입니다.각 모델은 원래 데이터셋에서 부트스트랩 샘플링(복원 추출)을 통해 생성된 여러 데이터셋에서 학습됩니다.대표적인 예: 랜덤 포레스트(Random Forest)부스팅(Boosting)부스팅은 여러 약한 학습기(weak learn..
- Total
- Today
- Yesterday
- classification
- 해시
- #패스트캠퍼스 #패스트캠퍼스ai부트캠프 #업스테이지패스트캠퍼스 #upstageailab#국비지원 #패스트캠퍼스업스테이지에이아이랩#패스트캠퍼스업스테이지부트캠프
- recursion #재귀 #자료구조 # 알고리즘
- 손실함수
- Array
- LIST
- cnn
- Hugging Face
- clustering
- t5
- 리스트
- 티스토리챌린지
- 코딩테스트
- LLM
- RAG
- 파이썬
- Transformer
- Numpy
- 오블완
- PEFT
- Lora
- #패스트캠퍼스 #UpstageAILab #Upstage #부트캠프 #AI #데이터분석 #데이터사이언스 #무료교육 #국비지원 #국비지원취업 #데이터분석취업 등
- Github
- nlp
- git
- English
- #패스트캠퍼스 #패스트캠퍼스AI부트캠프 #업스테이지패스트캠퍼스 #UpstageAILab#국비지원 #패스트캠퍼스업스테이지에이아이랩#패스트캠퍼스업스테이지부트캠프
- Python
- speaking
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | 6 | 7 |
8 | 9 | 10 | 11 | 12 | 13 | 14 |
15 | 16 | 17 | 18 | 19 | 20 | 21 |
22 | 23 | 24 | 25 | 26 | 27 | 28 |
29 | 30 | 31 |