일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | |||||
3 | 4 | 5 | 6 | 7 | 8 | 9 |
10 | 11 | 12 | 13 | 14 | 15 | 16 |
17 | 18 | 19 | 20 | 21 | 22 | 23 |
24 | 25 | 26 | 27 | 28 | 29 | 30 |
31 |
- backbone
- gemma-3
- nccl
- gemma2
- torch._C._cuda_getDeviceCount()
- llama-4-scout-17b-16e-instruct
- prompt
- gemma-3-27b-it
- multi-gpu
- sfttrainer
- Gemma
- Fine-tuning
- tensor-parallel
- glibcxx
- error: mkl-service + intel(r)
- llm
- ubuntu
- Mac
- ViT
- Text-to-Image
- vLLM
- instruction tuning
- CPT
- Lora
- llama-4
- transformer
- PEFT
- aimv2
- langchain
- diffusion
- Today
- Total
꾸준하게
[vLLM] AttributeError: 'MultiprocExecutor' object has no attribute 'workers' 본문
[vLLM] AttributeError: 'MultiprocExecutor' object has no attribute 'workers'
yeonsikc 2025. 5. 7. 22:58H100 * 8 환경의 서버 2개에서 각각 같은 환경의 Docker로 LLama4, Gemma3를 구동하였는데 A서버의 경우, 4개 이상의 gpu로 잘 동작하는 반면, B서버의 경우, 2개까지의 gpu만 동작하고 4개 이상의 gpu를 할당할 경우 아래와 같은 오류가 발생하였다.
`
ERROR 05-07 10:11:11 [core.py:396] File "/opt/conda/lib/python3.11/site-packages/vllm/v1/executor/multiproc_executor.py", line 370, in wait_for_ready ERROR 05-07 10:11:11 [core.py:396] raise e from None ERROR 05-07 10:11:11 [core.py:396] Exception: WorkerProc initialization failed due to an exception in a background process. See stack trace for root cause.
<중략>
File "/opt/conda/lib/python3.11/site-packages/vllm/v1/executor/multiproc_executor.py", line 228, in shutdown for w in self.workers: ^^^^^^^^^^^^ AttributeError: 'MultiprocExecutor' object has no attribute 'workers'
<중략>
File "/opt/conda/lib/python3.11/site-packages/vllm/v1/engine/core_client.py", line 430, in _wait_for_engine_startup raise RuntimeError("Engine core initialization failed. " RuntimeError: Engine core initialization failed. See root cause above.
`
문제 해결에 꽤 오랜 시간을 허비하게 되었으며, 해결방법을 아래에 공유한다.
vllm 서버 구동 전에 아래 환경들을 export함으로써 해결이 되었다.
nccl 관련 이슈이나, 구체적인 원인은 시간상 파악하지 못하였다.
`
export NCCL_P2P_DISABLE=1
export NCCL_IB_DISABLE=1
export NCCL_SHM_DISABLE=1
export NCCL_SOCKET_IFNAME=lo
export NCCL_LAUNCH_MODE=GROUP
`