Notice
Recent Posts
Recent Comments
Link
| 일 | 월 | 화 | 수 | 목 | 금 | 토 |
|---|---|---|---|---|---|---|
| 1 | ||||||
| 2 | 3 | 4 | 5 | 6 | 7 | 8 |
| 9 | 10 | 11 | 12 | 13 | 14 | 15 |
| 16 | 17 | 18 | 19 | 20 | 21 | 22 |
| 23 | 24 | 25 | 26 | 27 | 28 | 29 |
| 30 |
Tags
- llama-4
- backbone
- prompt
- diffusion
- multi-gpu
- Text-to-Image
- langchain
- ubuntu
- PEFT
- Mac
- Fine-tuning
- glibcxx
- llama-4-scout-17b-16e-instruct
- CPT
- Gemma
- ViT
- torch._C._cuda_getDeviceCount()
- transformer
- aimv2
- Lora
- openAI
- tensor-parallel
- Python
- sfttrainer
- instruction tuning
- vLLM
- gemma-3
- nccl
- gemma-3-27b-it
- llm
Archives
- Today
- Total
목록torch._C._cuda_getDeviceCount() (1)
꾸준하게
[torch] torch._C._cuda_getDeviceCount() = 0 해결
dpkg -l | grep -i fabricmanager || rpm -qa | grep -i fabricmanagersudo apt-get install -y nvidia-fabricmanager-57sudo systemctl enable --now nvidia-fabricmanagerpython -c "import torch; print(torch.cuda.is_available())" nvidia-smi, nvcc -V 모두 이상이 없지만 위와 같이 torch에서 cuda를 사용할 수 없다고 나온다.reboot 하면 해결된다는 글들이 많지만 나는 fabricmanager라는게 dead 상태였고, 이를 다시 작동시켜 해결하였다. 참고로 사용 GPU는 a100*8 환경이다.>>> import torc..
이슈 해결
2025. 8. 22. 01:35