博客
关于我
强烈建议你试试无所不能的chatGPT,快点击我
pytorch框架学习(17)——模型的保存与加载
阅读量:2238 次
发布时间:2019-05-09

本文共 1063 字,大约阅读时间需要 3 分钟。

文章目录

1. 序列化与反序列化

  • 序列化:将内存中的每一个对象保存到硬盘当中,以二进制序列的形式存储下来
  • 反序列化:将硬盘中存储的二进制数据反序列化的放到内存当中
    在这里插入图片描述

2. 模型保存与加载的两种方式

pytorch当中的序列化与反序列化函数:

  1. torch.save

    • 主要参数:
      • obj:对象
      • f:输出路径
  2. torch.load

    • 主要参数:
      • f:文件路径
      • map_location:指定存放位置,cpu or gpu

有两种保存模型的方法:

  • 方法1:保存整个Module, torch.save(net, path)
  • 方法2:保存模型参数(模型的可学习参数,推荐)
    • state_dict = net.state_dict()
    • torch.save(state_dict, path)

3. 模型断点续训练

在这里插入图片描述

解决意外中断,可继续训练的问题

参数保存:

checkpoint_interval = 5"""省略了模型实现代码,checkpoint保存参数部分应该在模型训练部分,每个epoch中"""if (epoch+1) % checkpoint_interval == 0:    checkpoint = {
"model_state_dict": net.state_dict(), "optimizer_state_dict": optimizer.state_dict(), "epoch": epoch} path_checkpoint = "./checkpoint_{}_epoch.pkl".format(epoch) torch.save(checkpoint, path_checkpoint)

checkpoint加载恢复:

保持原实现代码不变,在模型训练部分之前,加入断电恢复代码,如下所示:

path_checkpoint = "./checkpoint_4_epoch.pkl"checkpoint = torch.load(path_checkpoint)net.load_state_dict(checkpoint['model_state_dict'])optimizer.load_state_dict(checkpoint['optimizer_state_dict'])start_epoch = checkpoint['epoch']scheduler.last_epoch = start_epoch

转载地址:http://ihobb.baihongyu.com/

你可能感兴趣的文章
PHPunit+Xdebug代码覆盖率以及遇到的问题汇总
查看>>
PHPUnit安装及使用
查看>>
PHP项目用xhprof性能分析(安装及应用实例)
查看>>
composer安装YII
查看>>
Sublime text3快捷键演示
查看>>
sublime text3 快捷键修改
查看>>
关于PHP几点建议
查看>>
硬盘的接口、协议
查看>>
VLAN与子网划分区别
查看>>
Cisco Packet Tracer教程
查看>>
02. 交换机的基本配置和管理
查看>>
03. 交换机的Telnet远程登陆配置
查看>>
微信小程序-调用-腾讯视频-解决方案
查看>>
phpStudy安装yaf扩展
查看>>
密码 加密 加盐 常用操作记录
查看>>
TP 分页后,调用指定页。
查看>>
Oracle数据库中的(+)连接
查看>>
java-oracle中几十个实用的PL/SQL
查看>>
PLSQL常用方法汇总
查看>>
几个基本的 Sql Plus 命令 和 例子
查看>>