본문 바로가기 메뉴 바로가기

문과생CS정복기

프로필사진
  • 글쓰기
  • 관리
  • 태그
  • 방명록
  • RSS

문과생CS정복기

검색하기 폼
  • 분류 전체보기 (309)
    • Upstage AI 3기 (16)
      • 패스트러너_기자단 (8)
      • 프로젝트_개인회고 (4)
    • CS기초 (2)
    • Python (47)
    • DeepLearning (97)
      • CV (3)
      • NLP (43)
    • ML (52)
    • 코딩테스트 (12)
    • 통계 (14)
    • 개인프로젝트 (0)
    • 블로그 (30)
    • 비지니스영어회화 (16)
    • 부동산 (1)
  • 방명록

prefix tuning (1)
LoRA 외에도 PEFT(Parameterized Efficient Fine-Tuning) 기술로 사용할 수 있는 여러 가지 방법

LoRA 외에도 PEFT(Parameterized Efficient Fine-Tuning) 기술로 사용할 수 있는 여러 가지 방법이 있습니다. 각 방법은 LoRA와 마찬가지로 대규모 모델의 효율적인 파인튜닝을 목표로 하며, 메모리와 계산 비용을 줄이면서 성능을 유지하거나 개선할 수 있습니다. 아래에서 다른 주요 PEFT 기술들을 소개합니다.1. Prefix Tuning설명: 입력 시퀀스에 모델 학습 중 추가적인 "프리픽스" 벡터를 삽입하여 모델을 미세 조정하는 방식입니다. 모델의 기존 파라미터는 고정된 상태에서 추가된 프리픽스 벡터만 학습됩니다.장점:모델 파라미터를 수정하지 않고, 효율적으로 미세 조정이 가능합니다.원래 모델의 성능을 유지하면서도 특정 작업에 맞게 빠르게 조정할 수 있습니다.적용 시점: ..

DeepLearning/NLP 2024. 9. 9. 12:48
이전 1 다음
이전 다음
250x250
공지사항
최근에 올라온 글
최근에 달린 댓글
Total
Today
Yesterday
링크
TAG
  • LLM
  • Hugging Face
  • 파이썬
  • 티스토리챌린지
  • Python
  • nlp
  • Github
  • 손실함수
  • 코딩테스트
  • Lora
  • 해시
  • git
  • #패스트캠퍼스 #패스트캠퍼스AI부트캠프 #업스테이지패스트캠퍼스 #UpstageAILab#국비지원 #패스트캠퍼스업스테이지에이아이랩#패스트캠퍼스업스테이지부트캠프
  • clustering
  • 오블완
  • English
  • #패스트캠퍼스 #패스트캠퍼스ai부트캠프 #업스테이지패스트캠퍼스 #upstageailab#국비지원 #패스트캠퍼스업스테이지에이아이랩#패스트캠퍼스업스테이지부트캠프
  • RAG
  • #패스트캠퍼스 #UpstageAILab #Upstage #부트캠프 #AI #데이터분석 #데이터사이언스 #무료교육 #국비지원 #국비지원취업 #데이터분석취업 등
  • speaking
  • Numpy
  • PEFT
  • t5
  • classification
  • Transformer
  • cnn
  • 리스트
  • recursion #재귀 #자료구조 # 알고리즘
  • LIST
  • Array
more
«   2025/06   »
일 월 화 수 목 금 토
1 2 3 4 5 6 7
8 9 10 11 12 13 14
15 16 17 18 19 20 21
22 23 24 25 26 27 28
29 30
글 보관함

Blog is powered by Tistory / Designed by Tistory

티스토리툴바