일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | 6 | 7 |
8 | 9 | 10 | 11 | 12 | 13 | 14 |
15 | 16 | 17 | 18 | 19 | 20 | 21 |
22 | 23 | 24 | 25 | 26 | 27 | 28 |
29 | 30 |
- diffusion
- sfttrainer
- Text-to-Image
- llm
- prompt
- transformer
- gemma-3-27b-it
- ubuntu
- Lora
- llama-4-scout-17b-16e-instruct
- multi-gpu
- nccl
- backbone
- domain-adapted pre-training
- Mac
- Gemma
- error: mkl-service + intel(r)
- langchain
- tensor-parallel
- glibcxx
- instruction tuning
- lora+
- PEFT
- llama-4
- gemma-3
- CPT
- ViT
- Fine-tuning
- gemma2
- vLLM
- Today
- Total
목록prompt (2)
꾸준하게

LangChain AgentOllama를 통해 gemma-2-9b 모델을 띄우고, fastAPI를 통해 간단한 엔드포인트를 만들었다. 터미널 출력을 보니 LLM 모델 혼자서 사람처럼 추론하는 모습이 신기해서 작동과정에 궁금증이 생겼다. 우선, 이를 Python상에서 디버깅해보니 다음과 같이 프롬프트 형식으로 내용이 들어간다. agent.agent.llm_chain.prompt.template 'Answer the following questions as best you can. You have access to the following tools:\n\nget_today(input_text: str) -> str - 오늘 날짜를 반환합다.\n\nUse the following format:\n\nQues..

" data-ke-type="html">HTML 삽입미리보기할 수 없는 소스arxiv 2022 paperJason Wei, Xuezhi Wang, Dale Schuurmans, Maarten Bosma, Brian Ichter, Fei Xia, Ed Chi, Quoc Le, Denny ZhouGoogle Research, Brain Team 28 Jan 2022(v1)Abstract본 논문에서는 중간 추론 단계인 Chain-of-Thought(CoT)를 생성하는 것이 복잡한 추론을 수행하는 LLM의 능력을 어떻게 크게 향상시키는지 탐구하였다. 특히, 그러한 추론 능력이 충분히 큰 언어모델에서 어떻게 자연스럽게 나타나는지를 CoT라는 간단한 방법을 통해 보여준다. 3가지의 LLM에 대한 실험에서 CoT를..