본문 바로가기

꾸준하게

검색하기
꾸준하게
프로필사진 yeonsikc

  • 분류 전체보기 (32)
    • 논문 리뷰 (18)
    • LLM (5)
    • 기타 (2)
    • 이슈 해결 (6)
Guestbook
Notice
Recent Posts
Recent Comments
Link
«   2025/05   »
일 월 화 수 목 금 토
1 2 3
4 5 6 7 8 9 10
11 12 13 14 15 16 17
18 19 20 21 22 23 24
25 26 27 28 29 30 31
Tags
  • ViT
  • Fine-tuning
  • instruction tuning
  • vLLM
  • prompt
  • Text-to-Image
  • multi-gpu
  • Lora
  • gemma-3
  • error: mkl-service + intel(r)
  • transformer
  • diffusion
  • gemma2
  • Mac
  • llama-4
  • lora+
  • domain-adapted pre-training
  • sfttrainer
  • Gemma
  • CPT
  • gemma-3-27b-it
  • nccl
  • llm
  • llama-4-scout-17b-16e-instruct
  • tensor-parallel
  • PEFT
  • langchain
  • ubuntu
  • backbone
  • glibcxx
more
Archives
Today
Total
관리 메뉴
  • 글쓰기
  • 방명록
  • RSS
  • 관리

목록instruct pre-training (1)

꾸준하게

[논문리뷰] Instruction Pre-Training: Language Models are Supervised Multitask Learners

ICLR 2024 Conference [github] [paper]Daixuan Cheng, Yuxian Gu, Shaohan Huang, Junyu Bi, Minlie Huang, Furu WeiMicrosoft Research | Tsinghua UniversitySubmitted on 6 Jun 2024 AbstractLM 모델들이 비지도학습만으로 좋은 성능을 내고있으며, 사후 학습으로 지도학습(SFT, Instruction Tuning)을 통해 생성 능력을 더 높힐 수 있다. 저자는 Instruction Pre-Training이라는 supervised multitask pre-training을 제안하였는데 이는, instruction-response 페어 형태의 거대한 raw corpora를 통해..

논문 리뷰 2024. 10. 1. 18:15
이전 Prev 1 Next 다음

Blog is powered by kakao / Designed by Tistory

티스토리툴바