| 일 | 월 | 화 | 수 | 목 | 금 | 토 |
|---|---|---|---|---|---|---|
| 1 | ||||||
| 2 | 3 | 4 | 5 | 6 | 7 | 8 |
| 9 | 10 | 11 | 12 | 13 | 14 | 15 |
| 16 | 17 | 18 | 19 | 20 | 21 | 22 |
| 23 | 24 | 25 | 26 | 27 | 28 | 29 |
| 30 |
- vLLM
- Gemma
- torch._C._cuda_getDeviceCount()
- openAI
- transformer
- Python
- PEFT
- nccl
- sfttrainer
- gemma-3-27b-it
- aimv2
- multi-gpu
- backbone
- Lora
- llama-4
- ubuntu
- Text-to-Image
- CPT
- prompt
- glibcxx
- tensor-parallel
- instruction tuning
- langchain
- gemma-3
- llama-4-scout-17b-16e-instruct
- diffusion
- Fine-tuning
- ViT
- llm
- Mac
- Today
- Total
목록Python (3)
꾸준하게
LLM 호출이 과도하게 몰리는 등 LLM 호출에 있어서 에러가 나는 경우가 발생할 수 있다.이런 경우, 재시도하는 코드를 작성하는것은 어렵지 않지만 while문이나 for 문을 사용하다 보니 코드가 지저분하게 된다.이를 tenacity라는 데코레이터로 쉽게 해결할 수 있다. import asynciofrom openai import AsyncOpenAIfrom tenacity import ( retry, stop_after_attempt, wait_exponential, retry_if_exception_type, before_sleep_log, after_log)import loggingfrom typing import List# 로깅 설정logging.basicConf..
Rich를 사용하면 Python 출력을 더 이쁘게 할 수 있다.이를 OpenAI API를 이용하여 비동기 Streaming 방식으로 작동하도록 코드를 구현해보았다.Code"""OpenAI API 비동기 스트리밍 + Rich 라이브러리 예제필요한 패키지 설치:pip install openai rich"""from dotenv import load_dotenvimport asyncioimport osfrom openai import AsyncOpenAIfrom rich.console import Consolefrom rich.panel import Panelfrom rich.markdown import Markdownfrom rich.live import Livefrom rich.spinner import ..
.vscode/launch.json 에서 "justMyCode": false 를 추가해주면 해결이 된다.{ "version": "0.2.0", "configurations": [ { "name": "Python: Debug Current File", "type": "python", "request": "launch", "program": "${file}", "console": "integratedTerminal", "stopOnEntry": true, "justMyCode": false }, ]}