机器学习和引荐系统(十九)分类模型 – K近邻(KNN)
作者头像
  • 付佳奇
  • 2020-05-11 20:11:28 0

分类模型 – K近邻(KNN)

一、K近邻

K近邻(K-nearest neighbour, KNN)是最基础的分类方法之一。它通过测量不同特征值间的距离来进行分类。具体来说,如果一个样本在特征空间中的K个最接近的邻居中,大多数属于某一类别,那么该样本也会被归为此类别。通常,K的取值范围在1到20之间。KNN算法的一个关键特点是,它选择的邻居都是已经正确分类过的数据。

二、KNN示例

三、KNN距离计算

在KNN算法中,通常使用欧氏距离或曼哈顿距离来计算对象间的距离。这些距离用来衡量对象之间的相似性,从而避免了复杂的匹配问题。

四、KNN算法

在训练集中的数据和标签已知的情况下,输入测试数据,然后将测试数据的特征与训练集中的对应特征进行比较。找到与测试数据最相似的前K个数据,测试数据的类别就是这K个数据中出现次数最多的类别。具体步骤如下:

  1. 计算测试数据与各个训练数据之间的距离;
  2. 按照距离的递增顺序进行排序;
  3. 选取距离最小的K个点;
  4. 统计这K个点中每个类别的出现频率;
  5. 将出现频率最高的类别作为测试数据的预测分类。
    本文来源:图灵汇
责任编辑: : 付佳奇
声明:本文系图灵汇原创稿件,版权属图灵汇所有,未经授权不得转载,已经协议授权的媒体下载使用时须注明"稿件来源:图灵汇",违者将依法追究责任。
    分享
引荐近邻模型机器学习分类系统KNN十九
    下一篇