일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | ||
6 | 7 | 8 | 9 | 10 | 11 | 12 |
13 | 14 | 15 | 16 | 17 | 18 | 19 |
20 | 21 | 22 | 23 | 24 | 25 | 26 |
27 | 28 | 29 | 30 |
- error: mkl-service + intel(r)
- instruction tuning (it)
- continued pre-training
- glibcxx
- lora+
- Mac
- domain-adapted pre-training
- backbone
- instruct-pt
- instruction tuning
- Lora
- langchain
- ViT
- Fine-tuning
- sfttrainer
- Text-to-Image
- ubuntu
- full fine-tuning (fft)
- gemma2
- continued pre-train (cpt)
- cross-document attention
- llm
- transformer
- PEFT
- diffusion
- instruct pre-training
- llm tuning
- CPT
- continual pre-training
- prompt
- Today
- Total
목록LLM (4)
꾸준하게
instruction tuning 시, (항상은 아니지만) instruction 부분 토큰은 학습에 포함되지 않도록 하는데, 그에 관한 코드를 기록하기 위해 글을 작성하였다. CustomDataset과 collate_fn을 SFTTrainer의 인자값으로 넣어주면 된다.아래 코드는 multi-turn tuning시에도 적용 가능한 코드이다. class CustomDataset(Dataset): def __init__(self, chats, tokenizer, max_length): self.data = chats self.tokenizer = tokenizer self.max_length = max_length self.IGNORE_INDEX = -..
지금까지 QLoRA에서 Q가 LoRA에 붙어있으니 당연히 LoRA에 적용되는줄 알았다..디버깅 해보니, LoRA는 fp16, base model layer들은 uint8로 찍힌다. 이때, 4bit가 아닌 8bit로 보이는 이유는, 겉으로는 8bit로 보이지만 내부적으로 2개의 weight를 하나의 8bit로 합쳐서 저장하기 때문으로, 실제로는 4bit로 저장되는게 맞다고 한다.bnb_config = BitsAndBytesConfig( load_in_4bit=True, bnb_4bit_quant_type="nf4", bnb_4bit_compute_dtype=torch.bfloat16, bnb_4bit_use_double_quant=False,)device_map = {"": devic..

LangChain AgentOllama를 통해 gemma-2-9b 모델을 띄우고, fastAPI를 통해 간단한 엔드포인트를 만들었다. 터미널 출력을 보니 LLM 모델 혼자서 사람처럼 추론하는 모습이 신기해서 작동과정에 궁금증이 생겼다. 우선, 이를 Python상에서 디버깅해보니 다음과 같이 프롬프트 형식으로 내용이 들어간다. agent.agent.llm_chain.prompt.template 'Answer the following questions as best you can. You have access to the following tools:\n\nget_today(input_text: str) -> str - 오늘 날짜를 반환합다.\n\nUse the following format:\n\nQues..

본 글은 유튜브 '테디노트'님의 랭체인 관련 영상을 보며 정리한 글입니다.더 자세한 내용은 다음 링크를 참고하시면 좋습니다.1. PrecisionLLM의 context length가 적다면 중요(선택할 수 있는 context 개수가 적을 때)환각 증세를 줄이고 싶을 때 유용Precision을 높이고 싶다면 2. Recall대부분의 경우에 유용context에 무조건 들어가게 해야할 경우에 높여야 함(recall이 0.5라면 retrieval gt 중 50%만 가져온 것)3. F1-score위 두 평가지표의 조화평균4. NDCG순서를 고려한 지표GT는 순서가 없어도 되고, 'Retrieval 결과에서 실제 찾은 답이 상위 순서에 있는가'를 보는 것5. mAP순서를 고려한 지표만약 mAP=0.2면, 평균적으로..