https://youtube.com/shorts/Wrn7ZuaIW98?si=KA8ZZ5EsaLyuPlki유리컵에 물을 담고 건전지를 양 옆에 붙이면 유리컵 속 물에 회오리가 생긴다?! 유투브에는 이런 실험이 사실로 나와있는 영상들이 많다. 원리가 무엇일까? GPT4o에게 물어봤다. 결론은 GPT4o는 이 원리에 대해 정확히 사실을 배운 상태였습니다. 유리컵에 건전지를 가져다 댄다고 유리컵 속 물이 회오리가 생길 순 없지요. 다만 저의 질문이 구체적이지 않아서 gpt4o가 다르게 이해한 것이지요. 원하는 답변과 반대로 나왔을 뿐입니다. 결국 정확한 query를 던지지 못한 휴먼에러네요. 생각보다 GPT4o는 정확한 과학원리와 사실들을 많이 학습했나 봅니다. 이로써, GPT4o의 과학영역에서의 halluci..
Transformer 아키텍처의 전체 흐름에서 쿼리(Query), 키(Key), 값(Value)가 언제 생성되는지 순차적으로 설명드릴게요. 각 단계에 번호를 붙여서 트랜스포머가 입력을 처리하는 순서를 이해하기 쉽게 정리해보겠습니다.Transformer 아키텍처에서의 순차 흐름입력 임베딩 생성트랜스포머 모델에 문장을 입력하면, 먼저 각 단어가 임베딩 레이어를 통해 임베딩 벡터로 변환됩니다.여기서 임베딩 벡터는 단어의 기본적인 의미를 숫자 벡터로 표현한 것입니다.예를 들어, “고양이”라는 단어는 임베딩 벡터로 변환되어, 모델이 숫자로 처리할 수 있게 됩니다.포지셔널 인코딩 추가트랜스포머는 위치 정보가 필요하므로, 각 단어의 임베딩 벡터에 포지셔널 인코딩을 추가합니다.포지셔널 인코딩은 단어들이 문장 내에서 순..
파이프라인 병렬화와 텐서 병렬화는 대규모 모델을 여러 GPU에서 효율적으로 학습하기 위한 분산 학습 기법입니다. 두 방식은 데이터의 분산과 처리를 최적화하는 방식이 다릅니다.1. 파이프라인 병렬화 (Pipeline Parallelism)개념: 모델의 레이어를 여러 GPU에 순서대로 배치하여 파이프라인처럼 처리합니다. 예를 들어, 모델이 여러 레이어로 구성되어 있으면 첫 번째 GPU에 첫 번째 레이어, 두 번째 GPU에 두 번째 레이어를 배치하는 방식입니다.작동 방식: 각 GPU가 하나의 작업을 처리한 후 결과를 다음 GPU로 넘깁니다. 이를 통해 대규모 모델을 GPU의 메모리 한도에 맞춰 효율적으로 학습할 수 있습니다.장점: 각 GPU의 메모리 한도에 맞춰 모델을 나눌 수 있어, 메모리가 적은 환경에서도..
LLM 캐시에서 유사도 방식으로 비슷한 쿼리에 대한 캐시를 사용할 수 있습니다. 이는 주로 문맥이나 의미가 거의 같지만 표현 방식이 약간 다를 때 유용하게 작동합니다. 다만, 쿼리가 미묘하게 다르다면 캐시가 적합할지에 대해 신중한 고려가 필요합니다.LLM 캐시에서 유사도 방식이 가능한 이유임베딩 기반 유사도 검색:LLM의 쿼리를 벡터로 변환하고, 이를 통해 유사도를 측정하여 비슷한 의미의 쿼리를 캐싱할 수 있습니다. 임베딩 방식은 쿼리의 단어 표현이 달라도 의미적 유사성을 기반으로 유사한 캐시 항목을 찾을 수 있습니다.근사 유사도 탐색(ANN):비슷한 벡터를 찾기 위해 근사 최근접 이웃(ANN) 알고리즘을 적용하여, 정확히 일치하지 않더라도 가장 가까운 벡터를 찾습니다. 예를 들어 "서울 날씨 어때?"와..
벡터 데이터베이스(Vector DB)와 전통적인 관계형 데이터베이스(RDBMS, 예: Oracle)의 주요 차이점은 데이터 구조와 쿼리 방식입니다. 각 DB가 해결하는 문제의 성격과 목적이 달라, 데이터 저장 방식과 검색 기능에서도 차이가 납니다. 1. 데이터 구조벡터 DB: 주로 고차원 벡터 데이터를 저장하고 이를 기반으로 유사도 검색을 수행합니다. 각 데이터가 수백 또는 수천 개의 값(차원)을 가지는 벡터로 표현되며, 이는 이미지, 문서, 오디오와 같은 비정형 데이터를 나타내기 위해 사용됩니다.관계형 DB: 전통적으로 테이블 형식의 구조화된 데이터(행과 열)를 저장합니다. 숫자, 문자열과 같은 기본 자료형으로 데이터를 표현하며, 고정된 스키마에 따라 데이터가 저장됩니다.2. 검색 및 쿼리 방식벡터 D..
의도: klue/roberta-base라는 모델을 AutoModel을 사용해 불러오고 있습니다.용도: 이 부분은 roberta-base 모델을 일반적인 사전 훈련된 형태로 불러오는 데 사용됩니다.from transformers import AutoModelmodel_id = 'klue/roberta-base'model = AutoModel.from_pretrained(model_id)RobertaModel( (embeddings): RobertaEmbeddings( (word_embeddings): Embedding(32000, 768, padding_idx=1) (position_embeddings): Embedding(514, 768, padding_idx=1) (token_type..
DPO(Direct Preference Optimization)와 PPO(Proximal Policy Optimization)는 둘 다 모델의 출력을 선호도에 맞춰 최적화하는 방법이지만, 적용 방식과 학습 과정에서 큰 차이가 있습니다. 각각의 주요 목적, 적용 상황, 학습 과정의 차이점을 비교하여 설명하겠습니다.DPO와 PPO의 목적DPO (Direct Preference Optimization): 강화학습 없이도 모델의 출력을 선호도에 맞춰 직접 최적화합니다. 주로 언어 모델(Large Language Model, LLM)에서 특정 출력을 선호하도록 조정하는 데 사용되며, 인간의 피드백이나 사용자의 선호도를 바로 반영하여 빠르게 미세 조정할 수 있는 방법입니다.PPO (Proximal Policy Op..
1.Posts이 화면은 Hugging Face의 Posts 페이지로, 커뮤니티의 최신 업데이트와 공지를 확인할 수 있는 공간입니다. 사용자가 팔로우하고 있는 프로젝트나 모델, 그리고 커뮤니티 멤버들이 올린 새로운 소식을 한눈에 볼 수 있습니다. 최근 활동 중인 사용자 목록도 오른쪽에 표시되어 있어, 활발히 활동하는 사용자들을 팔로우할 수 있습니다.주요 기능Posts:사용자들이 모델 업데이트, 새로운 기능, 연구 결과 등을 공유하는 게시물입니다. 예를 들어, 화면에 보이는 첫 번째 게시물에서는 "Cybertron V4" 모델이 업데이트되었다는 내용을 포함하고 있습니다.각 게시물에는 Reply 버튼을 눌러 댓글을 남길 수 있으며, 이를 통해 커뮤니티와 소통할 수 있습니다.Recently Active User..
- Total
- Today
- Yesterday
- 리스트
- classification
- 손실함수
- Array
- Numpy
- 코딩테스트
- git
- LIST
- recursion #재귀 #자료구조 # 알고리즘
- t5
- LLM
- Hugging Face
- Github
- cnn
- Python
- PEFT
- clustering
- Lora
- nlp
- speaking
- #패스트캠퍼스 #패스트캠퍼스ai부트캠프 #업스테이지패스트캠퍼스 #upstageailab#국비지원 #패스트캠퍼스업스테이지에이아이랩#패스트캠퍼스업스테이지부트캠프
- #패스트캠퍼스 #패스트캠퍼스AI부트캠프 #업스테이지패스트캠퍼스 #UpstageAILab#국비지원 #패스트캠퍼스업스테이지에이아이랩#패스트캠퍼스업스테이지부트캠프
- RAG
- 해시
- Transformer
- 오블완
- #패스트캠퍼스 #UpstageAILab #Upstage #부트캠프 #AI #데이터분석 #데이터사이언스 #무료교육 #국비지원 #국비지원취업 #데이터분석취업 등
- English
- 파이썬
- 티스토리챌린지
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | 6 | 7 |
8 | 9 | 10 | 11 | 12 | 13 | 14 |
15 | 16 | 17 | 18 | 19 | 20 | 21 |
22 | 23 | 24 | 25 | 26 | 27 | 28 |
29 | 30 | 31 |