Pytorch保存模型用于测试和用于继续训练的区别详解
发布时间:2020-12-17 17:34:57 所属栏目:Python 来源:网络整理
导读:保存模型 保存模型仅仅是为了测试的时候,只需要 torch.save(model.state_dict,path) path 为保存的路径 但是有时候模型及数据太多,难以一次性训练完的时候,而且用的还是 Adam优化器的时候,一定要保存好训练的优化器参数以及epoch state = { 'model': model.
保存模型 保存模型仅仅是为了测试的时候,只需要 torch.save(model.state_dict,path) path 为保存的路径 但是有时候模型及数据太多,难以一次性训练完的时候,而且用的还是 Adam优化器的时候,一定要保存好训练的优化器参数以及epoch state = { 'model': model.state_dict(),'optimizer':optimizer.state_dict(),'epoch': epoch } torch.save(state,path) 因为这里 def adjust_learning_rate(optimizer,epoch): lr_t = lr lr_t = lr_t * (0.3 ** (epoch // 2)) for param_group in optimizer.param_groups: param_group['lr'] = lr_t 学习率是根据epoch变化的,如果不保存epoch的话,基本上每次都从epoch为0开始训练,这样学习率就相当于不变了!! 恢复模型 恢复模型只用于测试的时候, model.load_state_dict(torch.load(path)) path为之前存储模型时的路径 但是如果是用于继续训练的话, checkpoint = torch.load(path) model.load_state_dict(checkpoint['model']) optimizer.load_state_dict(checkpoint['optimizer']) start_epoch = checkpoint['epoch']+1 依次恢复出模型 优化器参数以及epoch 以上这篇Pytorch保存模型用于测试和用于继续训练的区别详解就是小编分享给大家的全部内容了,希望能给大家一个参考,也希望大家多多支持我们。 (编辑:李大同) 【声明】本站内容均来自网络,其相关言论仅代表作者个人观点,不代表本站立场。若无意侵犯到您的权利,请及时与联系站长删除相关内容! |