Facebook의 Prophet은 시계열 데이터를 예측하기 위해 개발된 모델로, 특히 계절성을 갖는 데이터에 대한 예측에 강점을 보입니다. Prophet은 비교적 이해하기 쉽고 사용하기 편리하며, 자동화된 추세 및 계절성 구성 요소의 조정을 통해 높은 성능의 예측을 제공합니다. 이 모델은 특히 비선형 추세가 시간에 따라 변하는 시계열 데이터에 적합하도록 설계되었습니다.Prophet 모델의 주요 구성 요소추세(Trend) 모델링:Prophet은 시계열 데이터의 추세를 모델링하기 위해 두 가지 방법을 제공합니다: 비선형 로지스틱 성장 모델과 선형 성장 모델.사용자는 성장의 한계나 포화 최대점을 설정할 수 있으며, 이는 주로 시장 포화 상태나 상한/하한이 예측되는 경우에 유용합니다.계절성(Seasonality..
MLPMLP는 "Multi-Layer Perceptron"의 약자로, 기본적인 형태의 인공 신경망을 말합니다. MLP는 하나 이상의 hidden layer를 포함할 수 있으며, 각 layer는 여러 개의 뉴런(또는 노드)으로 구성됩니다. MLP는 일반적으로 supervised learning, 즉 지도 학습 문제에 사용됩니다.MLP의 주요 구성 요소Input Layer: 입력 데이터를 받는 첫 번째 층입니다. 각 뉴런은 데이터의 한 특성(feature)에 대응됩니다.Hidden Layers: 하나 이상 존재할 수 있는 중간 층으로, 복잡한 데이터 특징을 학습하는 데 사용됩니다. 각 hidden layer의 뉴런 수는 자유롭게 설정할 수 있으며, 이 수가 많을수록 모델은 더 복잡한 패턴을 학습할 수 있지만..
ReLU (Rectified Linear Unit)는 컨볼루션 신경망(CNN)과 다른 인공 신경망에서 널리 사용되는 활성화 함수입니다. ReLU 함수는 신경망의 각 뉴런에서 입력 신호를 변환하는 역할을 하며, 이 변환된 값이 네트워크의 다음 레이어로 전달됩니다.ReLU 함수의 정의ReLU 함수는 간단하게 다음과 같이 정의됩니다:[\text{ReLU}(x) = \max(0, x)]이 함수는 입력 ( x )가 0 이상이면 그 값을 그대로 출력하고, 0 미만이면 0을 출력합니다.ReLU의 주요 특징비선형성: ReLU는 비선형 함수이므로, ReLU를 사용하는 신경망은 복잡한 함수를 모델링할 수 있습니다. 이 비선형성은 신경망이 선형 모델로는 해결할 수 없는 문제들을 해결하게 해줍니다.계산 효율성: ReLU의 계..
인공신경망(ANN)에서 최대우도추정(Maximum Likelihood Estimation, MLE) 방법을 사용하는 경우가 많습니다. MLE는 주어진 데이터에 대해 가장 가능성이 높은 모델 파라미터를 찾는 통계적 방법입니다. 신경망의 학습에서 이를 적용하는 것은 네트워크 파라미터를 조정하여 주어진 입력에 대한 출력이 실제 데이터의 분포를 가장 잘 반영하도록 만드는 것을 의미합니다.MLE와 인공신경망인공신경망의 학습 과정은 크게 두 부분으로 나뉩니다: 손실 함수를 정의하고, 이 손실 함수를 최소화하는 파라미터를 찾는 것입니다. MLE 방법을 사용하는 경우, 손실 함수는 종종 데이터의 로그-우도(log-likelihood)의 음수를 사용합니다. 간단히 말해서, MLE는 모델 파라미터를 조정하여 관측된 데이터..
Convex의 정의Convex는 볼록하다는 것을 의미한다. 함수의 ConvexityConvex 함수는 볼록 함수라고 하며, 이름 그대로 볼록한 함수를 의미한다. 아래로 볼록한 것 Convex라 하며, 위로 볼록한 함수는 Concave라 한다.우리가 가장 잘 아는 Convex 함수는 위와 같은 이차함수이다. 이름 그대로 아래로 볼록한 모양의 그래프를 갖는다.그렇다면 이러한 Convex 함수를 수학적으로 판단하는 방법은 무엇일까? 함수 위의 임의의 두 점을 연결하는 선을 그래프에 그었을 때, 그 선이 아래 그림과 같이 함수 그래프의 위쪽만을 지나가면 이 함수는 convex 한 함수이다. 반면, 함수위의 임의의 두 점을 연결하는 선이 함수의 아래를 지난다면 이것은 non-convex 함수이다. Convex 함..
DNN, CNN, RNN, 그리고 GAN은 모두 딥러닝 모델의 유형으로, 각각의 모델은 특정 종류의 데이터 또는 문제를 해결하기 위해 설계되었습니다. 이들의 기본 개념과 주요 용도를 간단하게 설명하겠습니다.1. DNN (Deep Neural Network, 심층 신경망)기본 개념: 여러 개의 은닉층을 포함하는 전통적인 인공 신경망입니다. 각 레이어는 선형 변환과 비선형 활성화 함수를 통해 데이터를 변형합니다.주요 용도: 분류, 회귀, 패턴 인식 등 일반적인 머신러닝 문제에 사용됩니다. 예를 들어, 고객의 구매 이력 데이터를 사용하여 향후 구매 가능성을 예측할 수 있습니다.2. CNN (Convolutional Neural Network, 합성곱 신경망)기본 개념: 이미지 데이터의 합성곱 층을 사용하여 이..
부트캠프에서는 지속적으로 현직자 특강을 개최하고 있습니다. 최소 한 달에 한 번 정도는 이러한 기회가 있었던 것 같아요. 이러한 만남을 통해 단순히 강의와 프로젝트를 통한 능력 함양 뿐만 아니라 현직자의 실제 노하우를 얻을 수 있고 현장에서 필요한 능력은 무엇인지 팁을 얻을 수 있었습니다. 저의 경우 AI분야를 처음 공부하는 입장이고 CS전공도 아니기에 논문을 쓰거나 프로젝트 경험을 쌓을 수는 없었습니다. 따라서 캐글이라는 오픈된 대회를 통해 저의 실력을 확인할 수 있다고 생각했습니다. 그래서 캐글 참여에 대해 자세히 알려주신 업스테이지에서 일하고 계시는 송원호 AI Research Engineer 의 이야기가 와닿았습니다. 우선 송원호님은 캐글 컴피티션 마스터이시고 금메달도 많이 따신 분이셨습니다...
- Total
- Today
- Yesterday
- Transformer
- 해시
- classification
- Hugging Face
- nlp
- 오블완
- 티스토리챌린지
- 리스트
- English
- LLM
- RAG
- 파이썬
- 코딩테스트
- #패스트캠퍼스 #패스트캠퍼스ai부트캠프 #업스테이지패스트캠퍼스 #upstageailab#국비지원 #패스트캠퍼스업스테이지에이아이랩#패스트캠퍼스업스테이지부트캠프
- 손실함수
- #패스트캠퍼스 #패스트캠퍼스AI부트캠프 #업스테이지패스트캠퍼스 #UpstageAILab#국비지원 #패스트캠퍼스업스테이지에이아이랩#패스트캠퍼스업스테이지부트캠프
- clustering
- Python
- t5
- git
- speaking
- Lora
- Github
- PEFT
- Numpy
- Array
- recursion #재귀 #자료구조 # 알고리즘
- cnn
- #패스트캠퍼스 #UpstageAILab #Upstage #부트캠프 #AI #데이터분석 #데이터사이언스 #무료교육 #국비지원 #국비지원취업 #데이터분석취업 등
- LIST
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | |||
5 | 6 | 7 | 8 | 9 | 10 | 11 |
12 | 13 | 14 | 15 | 16 | 17 | 18 |
19 | 20 | 21 | 22 | 23 | 24 | 25 |
26 | 27 | 28 | 29 | 30 | 31 |