본문 바로가기 메뉴 바로가기

문과생CS정복기

프로필사진
  • 글쓰기
  • 관리
  • 태그
  • 방명록
  • RSS

문과생CS정복기

검색하기 폼
  • 분류 전체보기 (309)
    • Upstage AI 3기 (16)
      • 패스트러너_기자단 (8)
      • 프로젝트_개인회고 (4)
    • CS기초 (2)
    • Python (47)
    • DeepLearning (97)
      • CV (3)
      • NLP (43)
    • ML (52)
    • 코딩테스트 (12)
    • 통계 (14)
    • 개인프로젝트 (0)
    • 블로그 (30)
    • 비지니스영어회화 (16)
    • 부동산 (1)
  • 방명록

dpo(direct preference optimization) (1)
DPO(Direct Preference Optimization)와 PPO(Proximal Policy Optimization)

DPO(Direct Preference Optimization)와 PPO(Proximal Policy Optimization)는 둘 다 모델의 출력을 선호도에 맞춰 최적화하는 방법이지만, 적용 방식과 학습 과정에서 큰 차이가 있습니다. 각각의 주요 목적, 적용 상황, 학습 과정의 차이점을 비교하여 설명하겠습니다.DPO와 PPO의 목적DPO (Direct Preference Optimization): 강화학습 없이도 모델의 출력을 선호도에 맞춰 직접 최적화합니다. 주로 언어 모델(Large Language Model, LLM)에서 특정 출력을 선호하도록 조정하는 데 사용되며, 인간의 피드백이나 사용자의 선호도를 바로 반영하여 빠르게 미세 조정할 수 있는 방법입니다.PPO (Proximal Policy Op..

DeepLearning 2024. 10. 31. 11:44
이전 1 다음
이전 다음
250x250
공지사항
최근에 올라온 글
최근에 달린 댓글
Total
Today
Yesterday
링크
TAG
  • t5
  • English
  • 리스트
  • nlp
  • Array
  • LIST
  • 코딩테스트
  • Numpy
  • Github
  • 파이썬
  • clustering
  • Transformer
  • RAG
  • 손실함수
  • git
  • LLM
  • recursion #재귀 #자료구조 # 알고리즘
  • cnn
  • Python
  • 오블완
  • Hugging Face
  • #패스트캠퍼스 #패스트캠퍼스AI부트캠프 #업스테이지패스트캠퍼스 #UpstageAILab#국비지원 #패스트캠퍼스업스테이지에이아이랩#패스트캠퍼스업스테이지부트캠프
  • Lora
  • #패스트캠퍼스 #UpstageAILab #Upstage #부트캠프 #AI #데이터분석 #데이터사이언스 #무료교육 #국비지원 #국비지원취업 #데이터분석취업 등
  • speaking
  • classification
  • 티스토리챌린지
  • #패스트캠퍼스 #패스트캠퍼스ai부트캠프 #업스테이지패스트캠퍼스 #upstageailab#국비지원 #패스트캠퍼스업스테이지에이아이랩#패스트캠퍼스업스테이지부트캠프
  • 해시
  • PEFT
more
«   2025/05   »
일 월 화 수 목 금 토
1 2 3
4 5 6 7 8 9 10
11 12 13 14 15 16 17
18 19 20 21 22 23 24
25 26 27 28 29 30 31
글 보관함

Blog is powered by Tistory / Designed by Tistory

티스토리툴바