其实我从来没有想过要去挽救一个挂掉的训练。。。毕竟人家要是挂了,还是要尽量搞清楚怎么回事。俗话说的好,如果你发现了一只蟑螂,一定在暗处还藏着一万只。。。所以,与其学习和蟑螂共存,不如把他干掉啊。
不过我还是挺好奇的,就搜索了一番,感觉有点价值,就稍微贡献一下我的搜索成果。
Torch Elastic自然是可以,一般做法是经常保存模型,然后出问题Torch Elastic会重启所有节点,重启的时候恢复之前保存的最近的模型和训练状态然后继续训练。
还有一个技巧是使用nccl的超时功能,如果什么都不做,nccl是没有超时功能的。但把NCCL_ASYNC_ERROR_HANDLING的环境变量设置成1,然后在初始化进程的时候这么设置:
import torch.distributed as dist dist.init_process_group( … backend=“nccl”, timeout=timedelta(seconds=5) )
nccl就会在节点超时5秒的时候抛出异常。nccl的超时功能加上Torch Elastic,就可以处理因为超时而挂掉的节点了。
一点微小的贡献哈
Torch Elastic
各种弹性训练适用范围有限。。。例如用zero之类的训练有点挂了神仙难救,还是勤存ckpt是王道。
本站所有内容均为互联网搜索引擎提供的公开搜索信息,本站不存储任何数据与内容,任何内容与数据均与本站无关,如有需要请联系相关搜索引擎包括但不限于百度,google,bing,sogou 等
© 2025 tinynews.org All Rights Reserved. 百科问答小站 版权所有