机器学习和深度学习之数学基础:神经网络之多样本矩阵参数求导
作者头像
  • Coco智能
  • 2020-07-08 19:21:22 12

重点内容

在上一节课程中,我们探讨了单样本神经网络的求导过程。而在实际应用中,我们通常会使用多样本的神经网络求导方法,即每次训练N个样本。假设输入数据为X=[x1,x2,...,xN],此时的损失函数仍可表示为:

损失函数的形式如下所示: [ L = frac{1}{N} sum{i=1}^{N} li ]

其中,( b1 ) 是一个列向量,( 1^T ) 表示一个行向量,因此 ( b11^T ) 表示一个矩阵。此时的 ( x ) 不再是单一向量,而是变成了一个矩阵。为了简化导数的计算,我们设定了特定条件。

接下来,我们需要计算 (frac{partial L}{partial A_2}),这一步骤在后续的计算中需要用到。我们直接给出结果:

[ frac{partial L}{partial A_2} = text{某个具体公式} ]

值得注意的是,这里的 (frac{partial L}{partial A_2}) 是一个向量,每个元素代表一个样本。

继续往下求解,我们还需要计算 (frac{partial L}{partial W2})、(frac{partial L}{partial H1}) 和 (frac{partial L}{partial b_1})。

通过计算 (frac{partial L}{partial H1}),我们可以进一步求得 (frac{partial L}{partial A1})。由于 (H1 = sigma(A1)),我们可以利用链式法则来进行求解。

最终我们得出结论:

[ frac{partial L}{partial A_1} = text{某个具体公式} ]

由于 (A1 = W1 X + b1 1^T),我们可以通过 (frac{partial L}{partial A1}) 来求出 (frac{partial L}{partial W1}) 和 (frac{partial L}{partial b1})。

至此,我们已经完成了多样本神经网络矩阵参数的求导计算。

总结

本文并未提及具体使用的工具,因此如果你只阅读这篇文章而不看后续内容,可能会感到困惑。建议读者继续阅读后续文章以获得完整的理解和应用。

    本文来源:图灵汇
责任编辑: : Coco智能
声明:本文系图灵汇原创稿件,版权属图灵汇所有,未经授权不得转载,已经协议授权的媒体下载使用时须注明"稿件来源:图灵汇",违者将依法追究责任。
    分享
习之求导数学基础神经网络矩阵样本深度机器参数学习
    下一篇