Notice
Recent Posts
Recent Comments
Link
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | ||||
4 | 5 | 6 | 7 | 8 | 9 | 10 |
11 | 12 | 13 | 14 | 15 | 16 | 17 |
18 | 19 | 20 | 21 | 22 | 23 | 24 |
25 | 26 | 27 | 28 | 29 | 30 | 31 |
Tags
- ViT
- Fine-tuning
- instruction tuning
- vLLM
- prompt
- Text-to-Image
- multi-gpu
- Lora
- gemma-3
- error: mkl-service + intel(r)
- transformer
- diffusion
- gemma2
- Mac
- llama-4
- lora+
- domain-adapted pre-training
- sfttrainer
- Gemma
- CPT
- gemma-3-27b-it
- nccl
- llm
- llama-4-scout-17b-16e-instruct
- tensor-parallel
- PEFT
- langchain
- ubuntu
- backbone
- glibcxx
Archives
- Today
- Total
목록instruct pre-training (1)
꾸준하게

ICLR 2024 Conference [github] [paper]Daixuan Cheng, Yuxian Gu, Shaohan Huang, Junyu Bi, Minlie Huang, Furu WeiMicrosoft Research | Tsinghua UniversitySubmitted on 6 Jun 2024 AbstractLM 모델들이 비지도학습만으로 좋은 성능을 내고있으며, 사후 학습으로 지도학습(SFT, Instruction Tuning)을 통해 생성 능력을 더 높힐 수 있다. 저자는 Instruction Pre-Training이라는 supervised multitask pre-training을 제안하였는데 이는, instruction-response 페어 형태의 거대한 raw corpora를 통해..
논문 리뷰
2024. 10. 1. 18:15