首页 > 学院 > 开发设计 > 正文

mini-batch 梯度下降

2019-11-11 01:18:33
字体:
来源:转载
供稿:网友

下面链接先看

http://www.cnblogs.com/python27/p/MachineLearningWeek10.html

梯度下降(BGD)、随机梯度下降(SGD)、Mini-batch Gradient Descent、带Mini-batch的SGD

标签: 神经网络梯度下降随机梯度下降2015-03-01 12:05 3633人阅读 评论(1) 收藏 举报 分类:

目录(?)[+]

一、回归函数及目标函数

以均方误差作为目标函数(损失函数),目的是使其值最小化,用于优化上式。

二、优化方式(Gradient Descent)

1、最速梯度下降法

也叫批量梯度下降法Batch Gradient Descent,BSD

a、对目标函数求导

b、沿导数相反方向移动theta

原因:

(1)对于目标函数,theta的移动量应当如下,其中a为步长,p为方向向量。

(2)对J(theta)做一阶泰勒级数展开:

(3)上式中,ak是步长,为正数,可知要使得目标函数变小,则应当<0,并且其绝对值应当越大越好,这样下降的速度更快。在泰勒级数中,g代表J(theta k)的梯度,所以为了使得为负并且绝对值最大,应当使theta的移动方向与梯度g相反。

2、随机梯度下降法(stochastic gradient descent,SGD)

SGD是最速梯度下降法的变种。

使用最速梯度下降法,将进行N次迭代,直到目标函数收敛,或者到达某个既定的收敛界限。每次迭代都将对m个样本进行计算,计算量大。

为了简便计算,SGD每次迭代仅对一个样本计算梯度,直到收敛。伪代码如下(以下仅为一个loop,实际上可以有多个这样的loop,直到收敛):

(1)由于SGD每次迭代只使用一个训练样本,因此这种方法也可用作online learning。

(2)每次只使用一个样本迭代,若遇上噪声则容易陷入局部最优解。

3、Mini-batch Gradient Descent

(1)这是介于BSD和SGD之间的一种优化算法。每次选取一定量的训练样本进行迭代。

(2)从公式上似乎可以得出以下分析:速度比BSD快,比SGD慢;精度比BSD低,比SGD高。

4、带Mini-batch的SGD

(1)选择n个训练样本(n<m,m为总训练集样本数)

(2)在这n个样本中进行n次迭代,每次使用1个样本

(3)对n次迭代得出的n个gradient进行加权平均再并求和,作为这一次mini-batch下降梯度

(4)不断在训练集中重复以上步骤,直到收敛。

=============================================

Thoughts of Algorithms

博客园首页联系订阅管理随笔 - 54  文章 - 1  评论 - 139

机器学习公开课笔记(10):大规模机器学习

批梯度下降 (Batch Gradient Descent)

以线性回归为例,用梯度下降算法进行参数更新的公式为

θj=θj−α1m∑i=1m(hθ(x(i))−y(i))x(i)jθj=θj−α1m∑i=1m(hθ(x(i))−y(i))xj(i)可以看到每次参数更新一次,都需要将整个训练集扫描一遍,所以称为批梯度下降,这种更新方式对于参数集很大的集合(例如m=100,000,000)运行速度十分慢,为了加快算法运行速度,提出了随机梯度下降。

随机梯度下降 (Stochastic Gradient Descent)

每次仅用一个example来更新参数θθ,仍以线性回归为例,随机梯度下降算法为

1. 随机重排列整个训练集(shuffle)

2. 重复下列过程多次(数据集较大时可以重复1~10次)

    for i = 1, ..., m {   θj=θj−α(hθ(x(i))−y(i))x(i)jθj=θj−α(hθ(x(i))−y(i))xj(i)    }

小批梯度下降 (Mini-Batch Gradient Descent)

介于批梯度下降和随机梯度下降之间,批梯度处理利用全部m个example进行参数更新;随机梯度下降只用1个example进行参数更新;而Mini梯度下降使用b(1<b<m)个example进行参数更新。仍以线性回归为例,加入我们有m=1000个example,我们可以用每b=10个example进行参数更新,例如:

Repeat {        for i = 1, 11, 21, ..., 991 {                θj=θj−α110∑k=ii+9(hθ(x(k))−y(k))x(k)jθj=θj−α110∑k=ii+9(hθ(x(k))−y(k))xj(k)        }}

算法收敛性

批梯度处理能够保证算法收敛到最小值(如果选择的学习速率αα合适的话),可以plot代价函数J(θ)J(θ)随迭代次数的曲线,如果曲线是总是下降的,则能够收敛,反之需要调整学习速率。

随机梯度下降并不能保证算法收敛到最小值,最终结果可能是在最小值附近来回游走,为了观察其收敛特性,可以plot每100(1000)次迭代时100个example代价函数函数cost(θ,(x(i),y(i)))cost(θ,(x(i),y(i)))的平均值,如果是下降趋势,则可以收敛,否则可能需要调整增大或者减小平均的example数(将100改为1000或者10等),减小或者增大学习速率。

在线学习 (Online Learning)

之前的算法都是有一个固定的训练集来训练模型,当模型训练好后对未来的example进行分类、回归等。在线学习则不同,它对每个新来的example进行模型参数更新,因此不需要固定的训练集,参数更新的方式则是采用随机梯度下降。在线学习的优势是模型参数可以随用户的偏好自适应的进行调整,以logistic回归为例,在线学习方式如下:

Repeat forever {        1. 获取当前example (x, y)        2. 使用(x,y)进行参数更新:θj=θj−α(hθ(x)−y)xjθj=θj−α(hθ(x)−y)xj}

MaPReduce和数据并行化

这部分内容Andrew Ng讲得不多,可以认为仅仅讲了多个机器的求和问题,比如如何求解1+2+3+...+1000?Map过程:四个机器分别计算1+2+...+250,251+252+...+500, 501+502...+750,751+752+...+1000,然后Reduce过程:将四个机器求和的结果sum1,sum2,sum3,sum4汇总到一台机器上,计算sum1+sum2+sum3+sum4。

==============================================

梯度下降之随机梯度下降 -minibatch 与并行化方法

问题的引入:

考虑一个典型的有监督机器学习问题,给定m个训练样本S={x(i),y(i)},通过经验风险最小化来得到一组权值w,则现在对于整个训练集待优化目标函数为:

其中为单个训练样本(x(i),y(i))的损失函数,单个样本的损失表示如下:

引入L2正则,即在损失函数中引入,那么最终的损失为:

注意单个样本引入损失为(并不用除以m):

正则化的解释

这里的正则化项可以防止过拟合,注意是在整体的损失函数中引入正则项,一般的引入正则化的形式如下:

其中L(w)为整体损失,这里其实有:

这里的 C即可代表,比如以下两种不同的正则方式:

下面给一个二维的示例图:我们将模型空间限制在w的一个L1-ball 中。为了便于可视化,我们考虑两维的情况,在(w1, w2)平面上可以画出目标函数的等高线,而约束条件则成为平面上半径为C的一个 norm ball 。等高线与 norm ball 首次相交的地方就是最优解

 

可以看到,L1-ball 与L2-ball 的不同就在于L1在和每个坐标轴相交的地方都有“角”出现,而目标函数的测地线除非位置摆得非常好,大部分时候都会在角的地方相交。注意到在角的位置就会产生稀疏性,例如图中的相交点就有w1=0,而更高维的时候(想象一下三维的L1-ball 是什么样的?)除了角点以外,还有很多边的轮廓也是既有很大的概率成为第一次相交的地方,又会产生稀疏性,相比之下,L2-ball 就没有这样的性质,因为没有角,所以第一次相交的地方出现在具有稀疏性的位置的概率就变得非常小了。

因此,一句话总结就是:L1会趋向于产生少量的特征,而其他的特征都是0,而L2会选择更多的特征,这些特征都会接近于0。Lasso在特征选择时候非常有用,而Ridge就只是一种规则化而已。

Batch Gradient Descent

有了以上基本的优化公式,就可以用Gradient Descent 来对公式进行求解,假设w的维度为n,首先来看标准的Batch Gradient Descent算法:

repeat until convergency{

  for j=1;j<n ; j++:

    

}

 这里的批梯度下降算法是每次迭代都遍历所有样本,由所有样本共同决定最优的方向。

stochastic Gradient Descent

随机梯度下降就是每次从所有训练样例中抽取一个样本进行更新,这样每次都不用遍历所有数据集,迭代速度会很快,但是会增加很多迭代次数,因为每次选取的方向不一定是最优的方向.

repeat until convergency{

  random choice j from all m training example:

    

}

mini-batch Gradient Descent

这是介于以上两种方法的折中,每次随机选取大小为b的mini-batch(b<m), b通常取10,或者(2...100),这样既节省了计算整个批量的时间,同时用mini-batch计算的方向也会更加准确。

repeat until convergency{

  for j=1;j<n ; j+=b:

    

}

最后看并行化的SGD:

若最后的v达到收敛条件则结束执行,否则回到第一个for循环继续执行,该方法同样适用于minibatch gradient descent。

=============================================

随机梯度下降(Stochastic gradient descent)和 批量梯度下降(Batch gradient descent )的公式对比、实现对比

标签: 梯度下降最优化迭代2013-05-25 21:21 87890人阅读 评论(28) 收藏 举报 分类: 

梯度下降(GD)是最小化风险函数、损失函数的一种常用方法,随机梯度下降和批量梯度下降是两种迭代求解思路,下面从公式和实现的角度对两者进行分析,如有哪个方面写的不对,希望网友纠正。

下面的h(x)是要拟合的函数,J(theta)损失函数,theta是参数,要迭代求解的值,theta求解出来了那最终要拟合的函数h(theta)就出来了。其中m是训练集的记录条数,j是参数的个数。

1、批量梯度下降的求解思路如下:

(1)将J(theta)对theta求偏导,得到每个theta对应的的梯度

   

(2)由于是要最小化风险函数,所以按每个参数theta的梯度负方向,来更新每个theta

(3)从上面公式可以注意到,它得到的是一个全局最优解,但是每迭代一步,都要用到训练集所有的数据,如果m很大,那么可想而知这种方法的迭代速度!!所以,这就引入了另外一种方法,随机梯度下降。

2、随机梯度下降的求解思路如下:

(1)上面的风险函数可以写成如下这种形式,损失函数对应的是训练集中每个样本的粒度,而上面批量梯度下降对应的是所有的训练样本:

(2)每个样本的损失函数,对theta求偏导得到对应梯度,来更新theta

(3)随机梯度下降是通过每个样本来迭代更新一次,如果样本量很大的情况(例如几十万),那么可能只用其中几万条或者几千条的样本,就已经将theta迭代到最优解了,对比上面的批量梯度下降,迭代一次需要用到十几万训练样本,一次迭代不可能最优,如果迭代10次的话就需要遍历训练样本10次。但是,SGD伴随的一个问题是噪音较BGD要多,使得SGD并不是每次迭代都向着整体最优化方向。

3、对于上面的linear regression问题,与批量梯度下降对比,随机梯度下降求解的会是最优解吗?

(1)批量梯度下降---最小化所有训练样本的损失函数,使得最终求解的是全局的最优解,即求解的参数是使得风险函数最小。

(2)随机梯度下降---最小化每条样本的损失函数,虽然不是每次迭代得到的损失函数都向着全局最优方向, 但是大的整体的方向是向全局最优解的,最终的结果往往是在全局最优解附近。

4、梯度下降用来求最优解,哪些问题可以求得全局最优?哪些问题可能局部最优解?

对于上面的linear regression问题,最优化问题对theta的分布是unimodal,即从图形上面看只有一个peak,所以梯度下降最终求得的是全局最优解。然而对于multimodal的问题,因为存在多个peak值,很有可能梯度下降的最终结果是局部最优。

5、随机梯度和批量梯度的实现差别

以前一篇博文中NMF实现为例,列出两者的实现差别(注:其实对应Python的代码要直观的多,以后要练习多写python!)

[java] view plain copy// 随机梯度下降,更新参数  public void updatePQ_stochastic(double alpha, double beta) {      for (int i = 0; i < M; i++) {          ArrayList<Feature> Ri = this.dataset.getDataAt(i).getAllFeature();          for (Feature Rij : Ri) {              // eij=Rij.weight-PQ for updating P and Q              double PQ = 0;              for (int k = 0; k < K; k++) {                  PQ += P[i][k] * Q[k][Rij.dim];              }              double eij = Rij.weight - PQ;                // update Pik and Qkj              for (int k = 0; k < K; k++) {                  double oldPik = P[i][k];                  P[i][k] += alpha                          * (2 * eij * Q[k][Rij.dim] - beta * P[i][k]);                  Q[k][Rij.dim] += alpha                          * (2 * eij * oldPik - beta * Q[k][Rij.dim]);              }          }      }  }    // 批量梯度下降,更新参数  public void updatePQ_batch(double alpha, double beta) {        for (int i = 0; i < M; i++) {          ArrayList<Feature> Ri = this.dataset.getDataAt(i).getAllFeature();            for (Feature Rij : Ri) {              // Rij.error=Rij.weight-PQ for updating P and Q              double PQ = 0;              for (int k = 0; k < K; k++) {                  PQ += P[i][k] * Q[k][Rij.dim];              }              Rij.error = Rij.weight - PQ;          }      }        for (int i = 0; i < M; i++) {          ArrayList<Feature> Ri = this.dataset.getDataAt(i).getAllFeature();          for (Feature Rij : Ri) {              for (int k = 0; k < K; k++) {                  // 对参数更新的累积项                  double eq_sum = 0;                  double ep_sum = 0;                    for (int ki = 0; ki < M; ki++) {// 固定k和j之后,对所有i项加和                      ArrayList<Feature> tmp = this.dataset.getDataAt(i).getAllFeature();                      for (Feature Rj : tmp) {                          if (Rj.dim == Rij.dim)                              ep_sum += P[ki][k] * Rj.error;                      }                  }                  for (Feature Rj : Ri) {// 固定k和i之后,对多有j项加和                      eq_sum += Rj.error * Q[k][Rj.dim];                  }                    // 对参数更新                  P[i][k] += alpha * (2 * eq_sum - beta * P[i][k]);                  Q[k][Rij.dim] += alpha * (2 * ep_sum - beta * Q[k][Rij.dim]);              }          }      }  

}  ================================================================================================


发表评论 共有条评论
用户名: 密码:
验证码: 匿名发表