机器学习分享 KNN 算法 及 numpy 实现

2019-01-10 16:10:26 +08:00
 magicalion

KNN 是一种非参数的懒惰的监督学习算法.

非参数的意思是,模型不会对基础数据分布做出任何假设。换句话说,模型的结构是根据数据确定的。懒惰的意思是没有或者只有很少的训练过程.

KNN 算法既可以处理分类问题,测试数据的类型由所有 K 个最近邻点投票决定,也可以处理回归问题,测试数据的值是所有 K 个最近邻点的值的均值或众数.

KNN 的算法非常简单.

例如,对于分类问题,算法流程如下,

对需要预测的每个数据依次执行以下操作:

  1. 计算已知训练数据集中的点与当前点之间的距离;
  2. 按照距离递增次序排序;
  3. 选取与当前点距离最小的 k 个点;
  4. 确定前 k 个点所在类别的出现频率;
  5. 返回前 k 个点出现频率最高的类别作为当前点的预测分类。

需要注意的是,要对数据进行特征缩放.下面两张图很好的阐释了缩放的重要性.

那么 KNN 在实际使用中有哪些优点和缺点呢?

它的优点有:

它的缺点是

在实际的使用过程中,可能会遇到如下的问题.

  1. k 近邻的类别出现了平局的情况. 例如在二分类中,正负类型的近邻数相同,使用奇数个近邻可以解决此问题,但是无法解决多分类的问题.这个时候可以
    • 随机决定属于哪个类别
    • 对某些类别设置优先级
    • 使用最近邻来做最终的决定

2.训练数据的缺失值如何处理.如果不处理缺失值,则无法计算距离.对于缺失值的处理的核心原则是,尽可能小的影响距离的计算.一个合理的解决办法是,使用训练数据的平均值来填充缺失值.

附上完整代码,登录之后就能查看了。 查看源码

参考资料

  1. https://medium.com/@adi.bronshtein/a-quick-introduction-to-k-nearest-neighbors-algorithm-62214cea29c7
  2. https://www.youtube.com/watch?v=DRIoyIR8pA4
  3. https://www.datacamp.com/community/tutorials/k-nearest-neighbor-classification-scikit-learn
  4. https://stats.stackexchange.com/questions/287425/why-do-you-need-to-scale-data-in-knn
2369 次点击
所在节点    机器学习
1 条回复
dezhou9
2019-01-10 19:05:25 +08:00
knn 不是计算量小吗?谁总结的

这是一个专为移动设备优化的页面(即为了让你能够在 Google 搜索结果里秒开这个页面),如果你希望参与 V2EX 社区的讨论,你可以继续到 V2EX 上打开本讨论主题的完整版本。

https://www.v2ex.com/t/525728

V2EX 是创意工作者们的社区,是一个分享自己正在做的有趣事物、交流想法,可以遇见新朋友甚至新机会的地方。

V2EX is a community of developers, designers and creative people.

© 2021 V2EX