首页| 新闻| 娱乐| 游戏| 科普| 文学| 编程| 系统| 数据库| 建站| 学院| 产品| 网管| 维修| 办公| 热点
神经网络反向传播算法的推导
推导如下
其中考虑了代价函数C=C1(L2范数),C2(交叉熵),C3(考虑权重L1范数的代价)的情形,事实上对任意代价函数算法实现原理都一致,只需要实现算法时候更改调用的代价函数的关于对应a的导数即可。
其中激活函数没有具体带入,可以是σ(x)=sigmoid(x) or tanh(x)或者再进行一次softmax(z),事实上对任意激活函数算法实现原理一致,只需要实现算法时候更改调用的激活函数及其导数导数即可。
另外关于交叉熵,再最下面有一个小的说明。
交叉熵可在神经网络(机器学习)中作为损失函数,p表示真实标记的分布,q则为训练后的模型的预测标记分布(注意q为sigmoid的输出永远不会为0或者1,所以交叉熵一直有意义),交叉熵损失函数可以衡量p与q的相似性。熵的本质就是香农信息量的期望,至于香农熵,对此定义比较清楚了,而且可以解函数方程解出唯一定义了,根据这个定义可以推出q分布的信息量的数学期望。
交叉熵作为损失函数还有一个好处是使用sigmoid函数在梯度下降时能避免均方误差损失函数学习速率降低的问题,因为学习速率可以被输出的误差所控制。
索泰发布一款GTX 1070 Mini迷
AMD新旗舰显卡轻松干翻NVIDIA
索泰发布一款GTX 1070 Mini迷你版本:小机
芭蕾舞蹈表演,真实美到极致
下午茶时间,悠然自得的休憩
充斥这繁华奢靡气息的城市迪拜风景图片
从山间到田野再到大海美丽的自然风景图片
肉食主义者的最爱美食烤肉图片
夏日甜心草莓美食图片
人逢知己千杯少,喝酒搞笑图集
搞笑试卷,学生恶搞答题
新闻热点
疑难解答
图片精选
Dictionary数据类型在Darwin视频服
可穿戴手势识别控制器
网友关注