MLPMLP는 "Multi-Layer Perceptron"의 약자로, 기본적인 형태의 인공 신경망을 말합니다. MLP는 하나 이상의 hidden layer를 포함할 수 있으며, 각 layer는 여러 개의 뉴런(또는 노드)으로 구성됩니다. MLP는 일반적으로 supervised learning, 즉 지도 학습 문제에 사용됩니다.MLP의 주요 구성 요소Input Layer: 입력 데이터를 받는 첫 번째 층입니다. 각 뉴런은 데이터의 한 특성(feature)에 대응됩니다.Hidden Layers: 하나 이상 존재할 수 있는 중간 층으로, 복잡한 데이터 특징을 학습하는 데 사용됩니다. 각 hidden layer의 뉴런 수는 자유롭게 설정할 수 있으며, 이 수가 많을수록 모델은 더 복잡한 패턴을 학습할 수 있지만..
ReLU (Rectified Linear Unit)는 컨볼루션 신경망(CNN)과 다른 인공 신경망에서 널리 사용되는 활성화 함수입니다. ReLU 함수는 신경망의 각 뉴런에서 입력 신호를 변환하는 역할을 하며, 이 변환된 값이 네트워크의 다음 레이어로 전달됩니다.ReLU 함수의 정의ReLU 함수는 간단하게 다음과 같이 정의됩니다:[\text{ReLU}(x) = \max(0, x)]이 함수는 입력 ( x )가 0 이상이면 그 값을 그대로 출력하고, 0 미만이면 0을 출력합니다.ReLU의 주요 특징비선형성: ReLU는 비선형 함수이므로, ReLU를 사용하는 신경망은 복잡한 함수를 모델링할 수 있습니다. 이 비선형성은 신경망이 선형 모델로는 해결할 수 없는 문제들을 해결하게 해줍니다.계산 효율성: ReLU의 계..
인공신경망(ANN)에서 최대우도추정(Maximum Likelihood Estimation, MLE) 방법을 사용하는 경우가 많습니다. MLE는 주어진 데이터에 대해 가장 가능성이 높은 모델 파라미터를 찾는 통계적 방법입니다. 신경망의 학습에서 이를 적용하는 것은 네트워크 파라미터를 조정하여 주어진 입력에 대한 출력이 실제 데이터의 분포를 가장 잘 반영하도록 만드는 것을 의미합니다.MLE와 인공신경망인공신경망의 학습 과정은 크게 두 부분으로 나뉩니다: 손실 함수를 정의하고, 이 손실 함수를 최소화하는 파라미터를 찾는 것입니다. MLE 방법을 사용하는 경우, 손실 함수는 종종 데이터의 로그-우도(log-likelihood)의 음수를 사용합니다. 간단히 말해서, MLE는 모델 파라미터를 조정하여 관측된 데이터..
Convex의 정의Convex는 볼록하다는 것을 의미한다. 함수의 ConvexityConvex 함수는 볼록 함수라고 하며, 이름 그대로 볼록한 함수를 의미한다. 아래로 볼록한 것 Convex라 하며, 위로 볼록한 함수는 Concave라 한다.우리가 가장 잘 아는 Convex 함수는 위와 같은 이차함수이다. 이름 그대로 아래로 볼록한 모양의 그래프를 갖는다.그렇다면 이러한 Convex 함수를 수학적으로 판단하는 방법은 무엇일까? 함수 위의 임의의 두 점을 연결하는 선을 그래프에 그었을 때, 그 선이 아래 그림과 같이 함수 그래프의 위쪽만을 지나가면 이 함수는 convex 한 함수이다. 반면, 함수위의 임의의 두 점을 연결하는 선이 함수의 아래를 지난다면 이것은 non-convex 함수이다. Convex 함..
DNN, CNN, RNN, 그리고 GAN은 모두 딥러닝 모델의 유형으로, 각각의 모델은 특정 종류의 데이터 또는 문제를 해결하기 위해 설계되었습니다. 이들의 기본 개념과 주요 용도를 간단하게 설명하겠습니다.1. DNN (Deep Neural Network, 심층 신경망)기본 개념: 여러 개의 은닉층을 포함하는 전통적인 인공 신경망입니다. 각 레이어는 선형 변환과 비선형 활성화 함수를 통해 데이터를 변형합니다.주요 용도: 분류, 회귀, 패턴 인식 등 일반적인 머신러닝 문제에 사용됩니다. 예를 들어, 고객의 구매 이력 데이터를 사용하여 향후 구매 가능성을 예측할 수 있습니다.2. CNN (Convolutional Neural Network, 합성곱 신경망)기본 개념: 이미지 데이터의 합성곱 층을 사용하여 이..
텐서란 무엇인가요?텐서는 숫자를 정리해서 담을 수 있는 상자와 비슷한 개념입니다. 텐서는 여러 차원의 데이터를 담을 수 있습니다. 예를 들어:스칼라 (0차원): 단일 숫자 (예: 5)벡터 (1차원): 숫자들의 리스트 (예: [1, 2, 3])행렬 (2차원): 숫자들의 2차원 배열 (예: [[1, 2], [3, 4]])3차원 이상의 텐서: 3차원, 4차원 등 더 높은 차원의 배열을 가질 수 있습니다.이미지 데이터를 텐서로 변환하는 이유컴퓨터는 숫자로 된 데이터를 이해할 수 있습니다. 그래서 이미지를 숫자로 변환해야 합니다. PyTorch에서 이미지를 다루기 위해 Tensor라는 특별한 숫자 배열을 사용합니다.예시 이미지 데이터가상의 이미지를 생각해봅시다. 이미지는 여러 색깔의 픽셀로 구성됩니다. 각 픽셀은..
다중 퍼셉트론(Multi-Layer Perceptron, MLP)은 인공지능과 머신러닝에서 사용하는 신경망의 한 종류입니다. 쉽게 말해서, MLP는 여러 층으로 이루어진 인공 신경망입니다. 각각의 층은 뉴런(또는 퍼셉트론)으로 구성되어 있으며, 뉴런은 입력 값을 받아서 계산을 수행한 후 출력을 생성합니다.다중 퍼셉트론을 쉽게 이해하기 위해 각 구성 요소를 하나씩 설명하겠습니다.1. 퍼셉트론(Perceptron)기본 단위: 퍼셉트론은 인공 신경망의 가장 기본 단위입니다.구성 요소: 입력 값, 가중치(weight), 바이어스(bias), 활성화 함수(activation function).동작: 입력 값에 가중치를 곱하고, 바이어스를 더한 후, 활성화 함수를 통해 최종 출력을 계산합니다.2. 다중 퍼셉트론(M..
- Total
- Today
- Yesterday
- 오블완
- cnn
- recursion #재귀 #자료구조 # 알고리즘
- PEFT
- #패스트캠퍼스 #UpstageAILab #Upstage #부트캠프 #AI #데이터분석 #데이터사이언스 #무료교육 #국비지원 #국비지원취업 #데이터분석취업 등
- #패스트캠퍼스 #패스트캠퍼스ai부트캠프 #업스테이지패스트캠퍼스 #upstageailab#국비지원 #패스트캠퍼스업스테이지에이아이랩#패스트캠퍼스업스테이지부트캠프
- 리스트
- Github
- Hugging Face
- speaking
- classification
- LLM
- 해시
- #패스트캠퍼스 #패스트캠퍼스AI부트캠프 #업스테이지패스트캠퍼스 #UpstageAILab#국비지원 #패스트캠퍼스업스테이지에이아이랩#패스트캠퍼스업스테이지부트캠프
- Lora
- LIST
- nlp
- Transformer
- 티스토리챌린지
- 파이썬
- git
- t5
- Numpy
- English
- clustering
- Array
- Python
- RAG
- 손실함수
- 코딩테스트
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | 6 | 7 |
8 | 9 | 10 | 11 | 12 | 13 | 14 |
15 | 16 | 17 | 18 | 19 | 20 | 21 |
22 | 23 | 24 | 25 | 26 | 27 | 28 |
29 | 30 | 31 |