본문 바로가기

꾸준하게

검색하기
꾸준하게
프로필사진 yeonsikc

  • 분류 전체보기 (34)
    • 논문 리뷰 (18)
    • LLM (5)
    • 기타 (2)
    • 이슈 해결 (8)
Guestbook
Notice
Recent Posts
Recent Comments
Link
«   2025/09   »
일 월 화 수 목 금 토
1 2 3 4 5 6
7 8 9 10 11 12 13
14 15 16 17 18 19 20
21 22 23 24 25 26 27
28 29 30
Tags
  • transformer
  • llama-4-scout-17b-16e-instruct
  • error: mkl-service + intel(r)
  • CPT
  • diffusion
  • tensor-parallel
  • ViT
  • Lora
  • gemma-3
  • prompt
  • gemma-3-27b-it
  • gemma2
  • Text-to-Image
  • vLLM
  • sfttrainer
  • ubuntu
  • torch._C._cuda_getDeviceCount()
  • Fine-tuning
  • aimv2
  • multi-gpu
  • nccl
  • llm
  • backbone
  • glibcxx
  • llama-4
  • instruction tuning
  • Gemma
  • PEFT
  • Mac
  • langchain
more
Archives
Today
Total
관리 메뉴
  • 글쓰기
  • 방명록
  • RSS
  • 관리

목록tensor-parallel (1)

꾸준하게

[vLLM] AttributeError: 'MultiprocExecutor' object has no attribute 'workers'

H100 * 8 환경의 서버 2개에서 각각 같은 환경의 Docker로 LLama4, Gemma3를 구동하였는데 A서버의 경우, 4개 이상의 gpu로 잘 동작하는 반면, B서버의 경우, 2개까지의 gpu만 동작하고 4개 이상의 gpu를 할당할 경우 아래와 같은 오류가 발생하였다. ```ERROR 05-07 10:11:11 [core.py:396] File "/opt/conda/lib/python3.11/site-packages/vllm/v1/executor/multiproc_executor.py", line 370, in wait_for_ready ERROR 05-07 10:11:11 [core.py:396] raise e from None ERROR 05-07 10:11:11 [core.py:396] E..

이슈 해결 2025. 5. 7. 22:58
이전 Prev 1 Next 다음

Blog is powered by kakao / Designed by Tistory

티스토리툴바