ReLU (Rectified Linear Unit)는 컨볼루션 신경망(CNN)과 다른 인공 신경망에서 널리 사용되는 활성화 함수입니다. ReLU 함수는 신경망의 각 뉴런에서 입력 신호를 변환하는 역할을 하며, 이 변환된 값이 네트워크의 다음 레이어로 전달됩니다.ReLU 함수의 정의ReLU 함수는 간단하게 다음과 같이 정의됩니다:[\text{ReLU}(x) = \max(0, x)]이 함수는 입력 ( x )가 0 이상이면 그 값을 그대로 출력하고, 0 미만이면 0을 출력합니다.ReLU의 주요 특징비선형성: ReLU는 비선형 함수이므로, ReLU를 사용하는 신경망은 복잡한 함수를 모델링할 수 있습니다. 이 비선형성은 신경망이 선형 모델로는 해결할 수 없는 문제들을 해결하게 해줍니다.계산 효율성: ReLU의 계..
인공신경망(ANN)에서 최대우도추정(Maximum Likelihood Estimation, MLE) 방법을 사용하는 경우가 많습니다. MLE는 주어진 데이터에 대해 가장 가능성이 높은 모델 파라미터를 찾는 통계적 방법입니다. 신경망의 학습에서 이를 적용하는 것은 네트워크 파라미터를 조정하여 주어진 입력에 대한 출력이 실제 데이터의 분포를 가장 잘 반영하도록 만드는 것을 의미합니다.MLE와 인공신경망인공신경망의 학습 과정은 크게 두 부분으로 나뉩니다: 손실 함수를 정의하고, 이 손실 함수를 최소화하는 파라미터를 찾는 것입니다. MLE 방법을 사용하는 경우, 손실 함수는 종종 데이터의 로그-우도(log-likelihood)의 음수를 사용합니다. 간단히 말해서, MLE는 모델 파라미터를 조정하여 관측된 데이터..
- Total
- Today
- Yesterday
- Transformer
- #패스트캠퍼스 #UpstageAILab #Upstage #부트캠프 #AI #데이터분석 #데이터사이언스 #무료교육 #국비지원 #국비지원취업 #데이터분석취업 등
- Numpy
- Python
- Array
- 손실함수
- t5
- #패스트캠퍼스 #패스트캠퍼스AI부트캠프 #업스테이지패스트캠퍼스 #UpstageAILab#국비지원 #패스트캠퍼스업스테이지에이아이랩#패스트캠퍼스업스테이지부트캠프
- PEFT
- Github
- Lora
- LLM
- git
- 파이썬
- RAG
- clustering
- 오블완
- 리스트
- LIST
- 해시
- #패스트캠퍼스 #패스트캠퍼스ai부트캠프 #업스테이지패스트캠퍼스 #upstageailab#국비지원 #패스트캠퍼스업스테이지에이아이랩#패스트캠퍼스업스테이지부트캠프
- nlp
- 티스토리챌린지
- Hugging Face
- 코딩테스트
- English
- classification
- recursion #재귀 #자료구조 # 알고리즘
- cnn
- speaking
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | 6 | 7 |
8 | 9 | 10 | 11 | 12 | 13 | 14 |
15 | 16 | 17 | 18 | 19 | 20 | 21 |
22 | 23 | 24 | 25 | 26 | 27 | 28 |
29 | 30 | 31 |