본문 바로가기

꾸준하게

검색하기
꾸준하게
프로필사진 yeonsikc

  • 분류 전체보기 (32) N
    • 논문 리뷰 (18)
    • LLM (5) N
    • 기타 (2)
    • 이슈 해결 (6) N
Guestbook
Notice
Recent Posts
Recent Comments
Link
«   2025/05   »
일 월 화 수 목 금 토
1 2 3
4 5 6 7 8 9 10
11 12 13 14 15 16 17
18 19 20 21 22 23 24
25 26 27 28 29 30 31
Tags
  • lora+
  • sfttrainer
  • ViT
  • backbone
  • transformer
  • llm
  • tensor-parallel
  • Mac
  • multi-gpu
  • gemma-3
  • Gemma
  • CPT
  • error: mkl-service + intel(r)
  • langchain
  • llama-4-scout-17b-16e-instruct
  • Fine-tuning
  • gemma2
  • domain-adapted pre-training
  • llama-4
  • prompt
  • Lora
  • vLLM
  • nccl
  • ubuntu
  • Text-to-Image
  • instruction tuning
  • PEFT
  • diffusion
  • gemma-3-27b-it
  • glibcxx
more
Archives
Today
Total
관리 메뉴
  • 글쓰기
  • 방명록
  • RSS
  • 관리

목록gemma-3 (1)

꾸준하게

[vLLM] AttributeError: 'MultiprocExecutor' object has no attribute 'workers'

H100 * 8 환경의 서버 2개에서 각각 같은 환경의 Docker로 LLama4, Gemma3를 구동하였는데 A서버의 경우, 4개 이상의 gpu로 잘 동작하는 반면, B서버의 경우, 2개까지의 gpu만 동작하고 4개 이상의 gpu를 할당할 경우 아래와 같은 오류가 발생하였다. ```ERROR 05-07 10:11:11 [core.py:396] File "/opt/conda/lib/python3.11/site-packages/vllm/v1/executor/multiproc_executor.py", line 370, in wait_for_ready ERROR 05-07 10:11:11 [core.py:396] raise e from None ERROR 05-07 10:11:11 [core.py:396] E..

이슈 해결 2025. 5. 7. 22:58
이전 Prev 1 Next 다음

Blog is powered by kakao / Designed by Tistory

티스토리툴바