본문 바로가기

꾸준하게

검색하기
꾸준하게
프로필사진 yeonsikc

  • 분류 전체보기 (36)
    • 논문 리뷰 (18)
    • LLM (7)
    • 기타 (2)
    • 이슈 해결 (9)
Guestbook
Notice
Recent Posts
Recent Comments
Link
«   2025/11   »
일 월 화 수 목 금 토
1
2 3 4 5 6 7 8
9 10 11 12 13 14 15
16 17 18 19 20 21 22
23 24 25 26 27 28 29
30
Tags
  • nccl
  • backbone
  • llama-4
  • gemma-3-27b-it
  • PEFT
  • Text-to-Image
  • diffusion
  • openAI
  • torch._C._cuda_getDeviceCount()
  • Lora
  • gemma-3
  • Fine-tuning
  • instruction tuning
  • tensor-parallel
  • ubuntu
  • transformer
  • llama-4-scout-17b-16e-instruct
  • Mac
  • CPT
  • Gemma
  • aimv2
  • ViT
  • sfttrainer
  • vLLM
  • prompt
  • Python
  • glibcxx
  • multi-gpu
  • llm
  • langchain
more
Archives
Today
Total
관리 메뉴
  • 글쓰기
  • 방명록
  • RSS
  • 관리

목록tensor-parallel (1)

꾸준하게

[vLLM] AttributeError: 'MultiprocExecutor' object has no attribute 'workers'

H100 * 8 환경의 서버 2개에서 각각 같은 환경의 Docker로 LLama4, Gemma3를 구동하였는데 A서버의 경우, 4개 이상의 gpu로 잘 동작하는 반면, B서버의 경우, 2개까지의 gpu만 동작하고 4개 이상의 gpu를 할당할 경우 아래와 같은 오류가 발생하였다. ```ERROR 05-07 10:11:11 [core.py:396] File "/opt/conda/lib/python3.11/site-packages/vllm/v1/executor/multiproc_executor.py", line 370, in wait_for_ready ERROR 05-07 10:11:11 [core.py:396] raise e from None ERROR 05-07 10:11:11 [core.py:396] E..

이슈 해결 2025. 5. 7. 22:58
이전 Prev 1 Next 다음

Blog is powered by kakao / Designed by Tistory

티스토리툴바