본문 바로가기 메뉴 바로가기

문과생CS정복기

프로필사진
  • 글쓰기
  • 관리
  • 태그
  • 방명록
  • RSS

문과생CS정복기

검색하기 폼
  • 분류 전체보기 (309)
    • Upstage AI 3기 (16)
      • 패스트러너_기자단 (8)
      • 프로젝트_개인회고 (4)
    • CS기초 (2)
    • Python (47)
    • DeepLearning (97)
      • CV (3)
      • NLP (43)
    • ML (52)
    • 코딩테스트 (12)
    • 통계 (14)
    • 개인프로젝트 (0)
    • 블로그 (30)
    • 비지니스영어회화 (16)
    • 부동산 (1)
  • 방명록

DeepLearning (97)
MLE 최대가능추정법과 Generative Model 생성모델

최대가능도추정법(Maximum Likelihood Estimation, MLE)은 생성모델에서 매우 중요한 역할을 합니다. 생성모델에서 MLE의 역할을 설명하기 위해, 생성모델이 어떻게 작동하는지 간략히 설명하고, 그 과정에서 MLE가 어떻게 사용되는지 설명하겠습니다.생성모델에서의 MLE의 역할생성모델은 데이터의 분포를 학습하여 새로운 데이터를 생성할 수 있게 합니다. 이때, 생성모델은 특정한 파라미터(예: 평균과 분산, 혹은 뉴럴 네트워크의 가중치 등)를 가지고 있으며, 이 파라미터들을 최적화하는 것이 모델의 학습 과정입니다. 여기서 MLE가 등장합니다.1. 가능도 함수 설정:생성모델은 주어진 데이터가 특정 확률 분포(예: 가우시안 분포, 다항 분포 등)를 따른다고 가정합니다. 이 가정 하에서, 주어진..

DeepLearning 2024. 8. 13. 13:32
GPU 메모리memory확인 및 process kill

1. 메모리 확인watch -n 1 nvidia-smi2. 프로세스 killps -ef | grep python | awk '{print $2}' | xargs kill -9

DeepLearning 2024. 8. 10. 22:06
Global Average Pooling (GAP), Adaptive Average Pooling

Global Average Pooling (GAP)과 Adaptive Average Pooling은 둘 다 평균 풀링을 수행하는 레이어로, 주로 이미지 분류 모델에서 사용되지만, 둘 사이에는 중요한 차이가 있습니다.1. Global Average Pooling (GAP)동작 방식: Global Average Pooling은 입력 피처 맵의 공간 차원(높이와 너비)을 무시하고, 각 채널의 전체 값을 평균하여 하나의 값으로 압축합니다. 즉, 각 채널별로 단일 스칼라 값을 출력합니다.출력 크기: 입력이 (batch_size, channels, height, width)일 경우, GAP의 출력은 (batch_size, channels)가 됩니다.특징: GAP은 입력 피처 맵의 크기와 상관없이 항상 각 채널에 대..

DeepLearning 2024. 8. 9. 11:15
TTA (Test-Time Augmentation, TTA)

테스트 시간 증강(Test-Time Augmentation, TTA)은 머신 러닝 모델의 강건성과 성능을 개선하기 위해 사용하는 기법으로, 특히 컴퓨터 비전 작업에서 유용합니다. TTA는 테스트 단계에서 테스트 이미지에 다양한 증강을 적용하여 각 증강된 버전에 대해 예측을 수행하고, 이러한 예측을 결합(예: 평균화)하여 최종 출력을 얻는 방식입니다. 이 방법은 데이터의 노이즈와 변동성을 완화하여 더 신뢰할 수 있고 정확한 예측을 가능하게 합니다.다음은 TTA 프로세스에 대한 자세한 설명입니다:1. TTA 변환 정의각 테스트 이미지에 적용할 증강 세트를 정의합니다.이러한 변환에는 좌우 반전, 상하 반전, 회전, 밝기 조정, 스케일링 등이 포함될 수 있습니다.2. TTA 변환 적용각 테스트 이미지에 대해 정..

DeepLearning 2024. 8. 8. 10:12
Normalize

Normalize는 이미지 데이터를 모델에 입력하기 전에 픽셀 값의 분포를 조정하여 모델의 학습 성능을 향상시키기 위해 수행하는 중요한 전처리 단계입니다. 아래는 Normalize를 수행하는 주요 이유들입니다: 데이터 범위 조정: 원본 이미지의 픽셀 값은 일반적으로 0에서 255 사이입니다. 이 범위를 [0, 1] 또는 [-1, 1] 사이의 값으로 조정하면 모델의 학습이 더 안정적이고 빠르게 이루어질 수 있습니다. 균등한 특성 스케일링: 이미지의 각 채널(R, G, B)은 다른 범위와 평균을 가질 수 있습니다. Normalize를 통해 각 채널의 평균을 0에 가깝게 하고 분산을 1에 가깝게 조정하여 모든 특성이 균등한 중요도를 갖도록 합니다. 이는 경사 하강법을 사용할 때 학습을 더 효율적으로 만듭니다...

DeepLearning 2024. 8. 7. 10:47
이미지 크기

파일 크기(이미지 크기)가 이미지 분류에 중요한 영향을 미칩니다. 다음은 그 이유와 관련 사항에 대한 설명입니다.1. 이미지 크기와 해상도해상도: 이미지 해상도는 픽셀 수를 나타내며, 높은 해상도의 이미지는 더 많은 세부 정보를 포함합니다. 높은 해상도는 모델이 더 많은 특징을 학습하는 데 도움이 됩니다.일관성: 모델 학습에 사용되는 이미지 크기를 일관되게 유지하는 것이 중요합니다. 다양한 크기의 이미지를 처리하면 모델의 학습이 어려워질 수 있습니다. 따라서 일반적으로 모든 이미지를 동일한 크기로 리사이징합니다.2. 전처리 단계에서의 크기 조정리사이징: 모든 이미지를 같은 크기로 조정하는 것이 일반적입니다. 이는 모델이 일관된 입력을 받을 수 있게 하여 학습 효율을 높입니다. 예를 들어, 일반적으로 22..

DeepLearning 2024. 8. 7. 10:30
submission 점수가 낮게 나오는 이유

Epoch를 늘려서 train_loss를 줄이고 accuracy와 f1score를 높였지만 submission 점수가 낮게 나오는 이유는 여러 가지가 있을 수 있습니다. 주된 원인과 해결 방법을 설명드리겠습니다.1. 오버피팅(Overfitting)설명: 모델이 훈련 데이터에 너무 맞추어져서 테스트 데이터에서는 일반화되지 못하는 경우입니다.해결 방법: 정규화 기법(예: Dropout, 가중치 감쇠), 조기 종료(Early Stopping)를 사용하고 데이터 증강(Data Augmentation)을 더 많이 적용해 모델의 일반화 성능을 높입니다.2. 데이터 누출(Data Leakage)설명: 훈련 데이터 외의 정보가 모델 학습에 포함되면서 평가 시 성능이 과대 평가되는 경우입니다.해결 방법: 훈련, 검증, ..

DeepLearning 2024. 8. 7. 09:52
EfficientVit

문서 분류 작업에 적합한 모델을 선택할 때는 몇 가지 요소를 고려해야 합니다. 여기에는 모델의 크기, 입력 이미지의 해상도, 학습 리소스 및 시간, 그리고 문서의 복잡성이 포함됩니다. 제시된 EfficientVit 모델 리스트는 다양한 크기와 해상도를 제공하므로 특정 요구 사항에 맞춰 선택할 수 있습니다.모델 크기:b 시리즈 (예: b2, b3): 베이스라인 모델로, 일반적인 작업에 적합합니다.l 시리즈 (예: l1, l2, l3): 더 큰 모델로, 더 많은 파라미터를 가지고 있어 복잡한 문서 구조를 더 잘 처리할 수 있습니다.m 시리즈 (예: m0, m1, m2, m3, m4, m5): 중간 크기의 모델로, 균형 잡힌 성능과 효율성을 제공합니다.입력 해상도:r224, r256, r288, r320, r..

DeepLearning 2024. 8. 6. 10:06
이전 1 ··· 6 7 8 9 10 11 12 13 다음
이전 다음
250x250
공지사항
최근에 올라온 글
최근에 달린 댓글
Total
Today
Yesterday
링크
TAG
  • Github
  • recursion #재귀 #자료구조 # 알고리즘
  • Hugging Face
  • Python
  • 해시
  • 리스트
  • speaking
  • LIST
  • 파이썬
  • #패스트캠퍼스 #패스트캠퍼스AI부트캠프 #업스테이지패스트캠퍼스 #UpstageAILab#국비지원 #패스트캠퍼스업스테이지에이아이랩#패스트캠퍼스업스테이지부트캠프
  • 티스토리챌린지
  • PEFT
  • nlp
  • Lora
  • git
  • LLM
  • cnn
  • RAG
  • Array
  • Numpy
  • 손실함수
  • #패스트캠퍼스 #패스트캠퍼스ai부트캠프 #업스테이지패스트캠퍼스 #upstageailab#국비지원 #패스트캠퍼스업스테이지에이아이랩#패스트캠퍼스업스테이지부트캠프
  • clustering
  • t5
  • Transformer
  • classification
  • 오블완
  • 코딩테스트
  • English
  • #패스트캠퍼스 #UpstageAILab #Upstage #부트캠프 #AI #데이터분석 #데이터사이언스 #무료교육 #국비지원 #국비지원취업 #데이터분석취업 등
more
«   2025/06   »
일 월 화 수 목 금 토
1 2 3 4 5 6 7
8 9 10 11 12 13 14
15 16 17 18 19 20 21
22 23 24 25 26 27 28
29 30
글 보관함

Blog is powered by Tistory / Designed by Tistory

티스토리툴바