일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | ||||
4 | 5 | 6 | 7 | 8 | 9 | 10 |
11 | 12 | 13 | 14 | 15 | 16 | 17 |
18 | 19 | 20 | 21 | 22 | 23 | 24 |
25 | 26 | 27 | 28 | 29 | 30 | 31 |
- nccl
- transformer
- error: mkl-service + intel(r)
- instruction tuning
- gemma2
- Text-to-Image
- sfttrainer
- domain-adapted pre-training
- prompt
- vLLM
- gemma-3-27b-it
- glibcxx
- CPT
- langchain
- diffusion
- gemma-3
- Gemma
- llama-4-scout-17b-16e-instruct
- multi-gpu
- ViT
- ubuntu
- Lora
- llama-4
- llm
- tensor-parallel
- Fine-tuning
- PEFT
- backbone
- lora+
- Mac
- Today
- Total
목록langchain (2)
꾸준하게

LangChain AgentOllama를 통해 gemma-2-9b 모델을 띄우고, fastAPI를 통해 간단한 엔드포인트를 만들었다. 터미널 출력을 보니 LLM 모델 혼자서 사람처럼 추론하는 모습이 신기해서 작동과정에 궁금증이 생겼다. 우선, 이를 Python상에서 디버깅해보니 다음과 같이 프롬프트 형식으로 내용이 들어간다. agent.agent.llm_chain.prompt.template 'Answer the following questions as best you can. You have access to the following tools:\n\nget_today(input_text: str) -> str - 오늘 날짜를 반환합다.\n\nUse the following format:\n\nQues..

본 글은 유튜브 '테디노트'님의 랭체인 관련 영상을 보며 정리한 글입니다.더 자세한 내용은 다음 링크를 참고하시면 좋습니다.1. PrecisionLLM의 context length가 적다면 중요(선택할 수 있는 context 개수가 적을 때)환각 증세를 줄이고 싶을 때 유용Precision을 높이고 싶다면 2. Recall대부분의 경우에 유용context에 무조건 들어가게 해야할 경우에 높여야 함(recall이 0.5라면 retrieval gt 중 50%만 가져온 것)3. F1-score위 두 평가지표의 조화평균4. NDCG순서를 고려한 지표GT는 순서가 없어도 되고, 'Retrieval 결과에서 실제 찾은 답이 상위 순서에 있는가'를 보는 것5. mAP순서를 고려한 지표만약 mAP=0.2면, 평균적으로..