机器学习基础4:参数选择
作者头像
  • 张勇
  • 2020-05-12 09:25:43 0

参数在机器学习中的重要性

机器学习模型中的参数分为两类:普参(参数)和超参(超参数)。为了训练出性能最佳的模型,我们通常会按照一定的比例将数据集划分为训练集、验证集和测试集。这些数据集之间相互独立且具有相同的分布。训练集用于寻找最优的普参,使模型达到最佳效果;验证集用于寻找最优的超参,同样是为了提升模型的表现;测试集用于评估模型的泛化能力,这一阶段既不会调整普参,也不会调整超参。

一、参数定义

普参:指的是那些可以通过机器学习算法自动学习到的参数。每一次训练迭代后,普参都会进行调整,使模型逐步趋向于更好的效果。例如,深度神经网络中的权重和偏置都是普参,而这些参数的数量通常非常庞大。

超参:指的是那些不能通过机器学习算法自动学习到的参数。如果在训练集中学习超参,可能会导致模型过拟合。超参需要人工设定,也可以通过嵌套学习过程来确定,即利用一个机器学习算法的学习结果作为另一个算法的超参。每次更改超参时,都需要重新训练模型,重新寻找最优的普参。

二、参数示例

普参:在线性回归中,系数和偏置是普参。例如,公式 y = wx + b 中的 w 和 b 就是普参。在深度神经网络中,权重和偏置也是普参,例如 Y = WX + B 中的 W 和 B。

超参:在线性回归中,多项式的次数是超参,例如 y = wx^2 + b 中的 2。在线性回归的损失函数中,权重衰减系数也是一个超参,例如 J(w) = MSE + λw,其中 λ 是超参。在深度神经网络中,超参包括学习率、批量大小、迭代次数、网络层数、每层的神经元数量、正则化惩罚项和动量系数等。在 KNN 算法中,K 值是一个超参;在 K-Means 算法中,K 值也是一个超参;在支持向量机 SVM 中,sigma 和 gamma 也是超参。

三、参数选择

普参:在训练过程中,超参固定不变,使用训练集,通过损失函数(如最大似然估计、平方误差和交叉熵等),结合优化方法(如梯度下降法),寻找最优的普参。

超参:使用验证集,通过搜索算法(如网格搜索、随机搜索、启发式搜索等)寻找最优的超参。这些算法可以帮助我们快速找到合适的超参组合。

参数搜索流程如下

  1. 将数据集划分为训练集、验证集和测试集;
  2. 定义模型结构、损失函数和优化方法;
  3. 使用训练集训练模型,寻找最优的普参;
  4. 使用验证集寻找最优的超参;
  5. 最后,用测试集评估模型的泛化能力,此时超参和普参均已固定。

以上是对原文的改写,希望对你有所帮助。

    本文来源:图灵汇
责任编辑: : 张勇
声明:本文系图灵汇原创稿件,版权属图灵汇所有,未经授权不得转载,已经协议授权的媒体下载使用时须注明"稿件来源:图灵汇",违者将依法追究责任。
    分享
机器参数选择基础学习
    下一篇