Notice
Recent Posts
Recent Comments
Link
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | 6 | |
7 | 8 | 9 | 10 | 11 | 12 | 13 |
14 | 15 | 16 | 17 | 18 | 19 | 20 |
21 | 22 | 23 | 24 | 25 | 26 | 27 |
28 | 29 | 30 |
Tags
- Mac
- diffusion
- gemma-3-27b-it
- Lora
- Gemma
- ViT
- vLLM
- aimv2
- sfttrainer
- multi-gpu
- instruction tuning
- llama-4-scout-17b-16e-instruct
- glibcxx
- llm
- gemma-3
- prompt
- Text-to-Image
- llama-4
- torch._C._cuda_getDeviceCount()
- transformer
- Fine-tuning
- ubuntu
- tensor-parallel
- langchain
- nccl
- PEFT
- gemma2
- error: mkl-service + intel(r)
- backbone
- CPT
Archives
- Today
- Total
목록torch._C._cuda_getDeviceCount() (1)
꾸준하게
[torch] torch._C._cuda_getDeviceCount() = 0 해결
dpkg -l | grep -i fabricmanager || rpm -qa | grep -i fabricmanagersudo apt-get install -y nvidia-fabricmanager-57sudo systemctl enable --now nvidia-fabricmanagerpython -c "import torch; print(torch.cuda.is_available())" nvidia-smi, nvcc -V 모두 이상이 없지만 위와 같이 torch에서 cuda를 사용할 수 없다고 나온다.reboot 하면 해결된다는 글들이 많지만 나는 fabricmanager라는게 dead 상태였고, 이를 다시 작동시켜 해결하였다. 참고로 사용 GPU는 a100*8 환경이다.>>> import torc..
이슈 해결
2025. 8. 22. 01:35