Notice
Recent Posts
Recent Comments
Link
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | ||||
4 | 5 | 6 | 7 | 8 | 9 | 10 |
11 | 12 | 13 | 14 | 15 | 16 | 17 |
18 | 19 | 20 | 21 | 22 | 23 | 24 |
25 | 26 | 27 | 28 | 29 | 30 | 31 |
Tags
- 대학원합격
- fine_tuning
- llm파인튜닝
- llm
- 에러노트
- postech 인공지능대학원
- 파인튜닝
- 에러
- DeepSpeed
- 포스텍 인공지능 대학원
- 포스텍 ai
- 러닝레이트
- 포항공대인공지능
- 파이썬
- Torch
- learning_rate
- RuntimeError
- torch.distributed
- 대학원준비
- postech
- Axotl
- trainer
- torch_size
- 포스텍인공지능
- timeout
- loss
- github
- 포항공대인공지능대학원
- 사전학습
- postech인공지능
Archives
- Today
- Total
목록timeout (1)
DopeorNope 개발일지
Multi-GPU 훈련시 Timeout 문제 해결법
torch는 분산학습 가지고 훈련하는데 매우 최적화가 잘되어 있다. 특히 보통 이제 torch.distributed를 활용하여 분산학습을 시작하게 되는데, 가끔 훈련시 이러한 문제점을 발생하는 경우가 있다. Watchdog caught collective operation timeout: WorkNCCL(OpType=BROADCAST, Timeout(ms)=1800000) ran for 1808499 milliseconds before timing out. 이 에러는 정말 단순하지만 보면 볼 수록 이해가 안가는 에러메세지이다. 왜 에러메세지가 생기는가? 그것은 바로, 기본적으로 분산학습을 활용하는 프레임워크로 accelerate를 활용하는데 여기에서 기본적으로 세팅되어 있는 시간이 30분이다. 즉 한작업..
에러 노트
2024. 1. 15. 07:56