蓝狮娱乐-蓝狮注册登录站

贝叶斯优化(Bayesian Optimization)只需要看这一篇就够了,算法到python实现_1

日期:2024-06-24 13:34 / 作者:佚名

1 问题提出

神经网咯是有许多超参数决定的,例如网络深度,学习率,正则等等。如何寻找最好的超参数组合,是一个老人靠经验,新人靠运气的任务。

穷举搜索 Grid Search 效率太低;随机搜索比穷举搜索好一点;目前比较好的解决方案是贝叶斯优化

1.1 贝叶斯优化的优点

2 详细算法

这个博客写的不错,但是需要一定的数学基础

3 python实现

3.1 贝叶斯初步优化

这里本来想用kaggle的lgb贝叶斯优化,但是对新手不太友好,就使用这个博客中的例子

  1. 安装
 
  1. 准备工作(使用随机森林作为模型进行参数优化)
 

sklearn.cross_validation 已经废弃,改为:sklearn.model_selection
不调参数的结果:

 
  1. 贝叶斯优化
    先要定义一个目标函数。比如此时,函数输入为随机森林的所有参数,输出为模型交叉验证5次的AUC均值,作为我们的目标函数。因为bayes_opt库只支持最大值,所以最后的输出如果是越小越好,那么需要在前面加上负号,以转为最大值。
 

建立贝叶斯优化对象

 

里面的第一个参数是我们的优化目标函数,第二个参数是我们所需要输入的超参数名称,以及其范围。超参数名称必须和目标函数的输入名称一一对应。

开始优化:

 

优化结果:

 

寻找最大值:

 

但是我使用这个就会报错,所以就简单写了一个循环寻找最大值的索引:

 
3.2 贝叶斯进阶优化

上面bayes算法得到的参数并不一定最优,当然我们会遇到一种情况,就是我们已经知道有一组或是几组参数是非常好的了,我们想知道其附近有没有更好的。这个操作相当于上文bayes优化中的Explore操作,而bayes_opt库给了我们实现此方法的函数:

 

这里我们添加了三组较优的超参数,让其在该参数基础上进行explore,可能会得到更好的结果。

同时,我们还可以修改高斯过程的参数,高斯过程主要参数是核函数(kernel),还有其他参数可以参考sklearn.gaussianprocess:

 

如果kernel是None,1.0 * RBF(1.0)被用来当成默认的kernel。

但是从某种角度上来说,贝叶斯优化也是另外一种瞎猜。。。

平台注册入口