• 技术文章 >数据库 >mysql教程

    Deep Learning 系列(2):NN(神经网络)及反向传播算法

    2016-06-07 15:24:21原创1484

    前一章介绍了Deep Learning 中DBN算法(DL 系列一),发现当参数W经过stacked RBM 后,还需要Supervised Learning,即NN来优化参数。然而 怎样去优化呢? 参见 UFLDL教程之神经网络与反向传导算法,以及 Dark_Scope 的NN代码解读。 本章将结合DBN与NN的算法

    前一章介绍了Deep Learning 中DBN算法(DL 系列一),发现当参数W经过stacked RBM 后,还需要Supervised Learning,即NN来优化参数。然而怎样去优化呢?

    参见 UFLDL教程之神经网络与反向传导算法,以及Dark_Scope 的NN代码解读。

    本章将结合DBN与NN的算法推导以及代码,针对重点作讲解。

    代码下载:DeepLearnToolbox

    当DBN每一层训练完后,参数将传给NN作监督学习。见\DBN\dbnunfoldtonn.m



    具体批量梯度下降法见:

    \NN\nntrain.m 其中code44-58

       for l = 1 : numbatches
            batch_x = train_x(kk((l - 1) * batchsize + 1 : l * batchsize), :);
            
            %Add noise to input (for use in denoising autoencoder)
            if(nn.inputZeroMaskedFraction ~= 0)
                batch_x = batch_x.*(rand(size(batch_x))>nn.inputZeroMaskedFraction);
            end
            
            batch_y = train_y(kk((l - 1) * batchsize + 1 : l * batchsize), :);
            
            nn = nnff(nn, batch_x, batch_y);
            nn = nnbp(nn);
            nn = nnapplygrads(nn);
            
            L(n) = nn.L;
            
            n = n + 1;
        end

    参数更新为l=1:numbatches,(关于批量梯度下降可参见:机器学习系列一)

    L(n)为n次迭代中,每次batchsize个样本残差和。

    关于梯度下降法,在UFLDL中有介绍更快的算法L-BFGS和共轭梯度算法,寻找 代价函数 最小化时 的值。


    参考文献:

    1. UFLDL Tutorial

    2. Dark 的博客

    3. RBM tutorial (可见RBM以及DBN的推导,NN参数优化)

    注:持续更新中。。。。

    声明:本文内容由网友自发贡献,版权归原作者所有,本站不承担相应法律责任。如您发现有涉嫌抄袭侵权的内容,请联系admin@php.cn核实处理。

    前端(VUE)零基础到就业课程:点击学习

    清晰的学习路线+老师随时辅导答疑

    快捷开发Web应用及小程序:点击使用

    支持亿级表,高并发,自动生成可视化后台。

    上一篇:MSZBSQL面试题2 下一篇:自己动手写 PHP MVC 框架(40节精讲/巨细/新人进阶必看)

    相关文章推荐

    • ❤️‍🔥共22门课程,总价3725元,会员免费学• ❤️‍🔥接口自动化测试不想写代码?• mysql中什么是filesort• mysql中生日用什么类型• mysql join是什么意思• mysql中主键是唯一的吗• mysql中执行计划是什么
    1/1

    PHP中文网