蓝狮娱乐-蓝狮注册登录站

Pytorch搭建简易神经网络(五)——optimizer优化器_1

日期:2024-05-06 05:05 / 作者:佚名

在网络的训练阶段,都主要到了定义了一个优化器
在这里插入图片描述
我们都采用的随机梯度下降的优化方式,来实现整个网络的优化与回归,但是在实际中,有很多的优化方式,在Pytorch中文文档中关于优化器就给了我们详细的解释[1]

是一个实现了各种优化算法的库。大部分常用的方法得到支持,并且接口具备足够的通用性,使得未来能够集成更加复杂的方法
为了使用torch.optim,你需要构建一个optimizer对象。这个对象能够保持当前参数状态并基于计算得到的梯度进行参数更新。为了构建一个Optimizer,你需要给它一个包含了需要优化的参数(必须都是Variable对象)的iterable。然后,你可以设置optimizer的参
数选项,比如学习率,权重衰减,等等。
Optimizer也支持为每个参数单独设置选项。若想这么做,不要直接传入Variable的iterable,而是传入dict的iterable。每一个dict都分别定
义了一组参数,并且包含一个param键,这个键对应参数的列表。其他的键应该optimizer所接受的其他参数的关键字相匹配,并且会被用于对这组参数的
优化。 所有的optimizer都实现了step()方法,这个方法会更新所有的参数。它能按两种方式来使用:

 

这是大多数optimizer所支持的简化版本。一旦梯度被如backward()之类的函数计算好后,我们就可以调用这个函数。

 

一些优化算法例如Conjugate
Gradient和LBFGS需要重复多次计算函数,因此你需要传入一个闭包去允许它们重新计算你的模型。这个闭包应当清空梯度,
计算损失,然后返回。

对于不同的优化器有着什么样的优化效果,和方式,B站莫烦大佬用抽象的比喻对各种优化器的实现方式进行了阐述,感觉说的很好,这里直接上链接,有需要的小伙伴可以去看视频消化一下。

本文结合自己的学习过程对各种优化器的学习性能进行展示
主要使用SGD,Momentum,RMSprop,Adam四种优化算法

 
 
 

为了更值观的看出数据的结果这里调用plot将数据画了出来
在这里插入图片描述

 
 
 

定义四个完全的神经网络用于比较不同优化算法的学习性能

 

为了使得后面可以进行循环处理,将网络放入一个list中

 
 

对于四个相同的网络,分别采用不同的优化算法,将优化器也放进一个list中

 

敲黑板:细心的小伙伴这里肯定注意到了SGD优化算法和Momentum优化算法都采用的是SGD这个函数,唯一不同的就是多了一个Momentum这个参数,因为Momentum算法在随机梯度下降算法上多了一个方向动量,使其可以更快的收敛

损失函数采用同样的损失函数——均方损失函数

为了后面更好的画出结果,定义一个loss_his的list来存储每次训练的loss

 
 
 

对于代码中的一些难点这里详细解读一下

  1. 首先print(epoch)是为了通过终端可以看出这个网络在训练
  2. 我也尝试了对于传入神经网络的参数不转化为Variable的变量的形式发现也是可以运行的
  3. 采用循环的方式可以减少代码的复杂性,不用去写四个的训练代码,直接进行训练就可以
  4. for net,optimizer,loss_his in zip(nets,optimzers,losses_his)
    采用zip的方式将其捆绑在一起,使得代码的结构更美观。
 

在这里插入图片描述
由结果可以看出不同的优化算法对于整个训练的收敛是有着不同的影响的,具有着不同的意义,(有的朋友说Adam算法容易爆显存,在训练的过程中要减小批处理数量,实践不多具体也不是很了解),不同的优化算法在不同的场合有着不同的功能和效果。

附:实验的全部代码

 

平台注册入口